مقدمه ای بر چالش های هوش مصنوعی در حوزه ی مسئولیت مدنی (خلاصه مقاله)
پذیرفته شده برای ارائه شفاهی XML
نویسندگان
مدرس حقوق دانشکده ی حقوق دانشگاه هاروارد
چکیده
با گسترش اینترنت نسل پنجم استفاده ی گسترده از هوش مصنوعی در زندگی روزمره تبدیل به یک واقعیت شده است. با طی این روند و به کارگیری بیش از پیش یادگیری ماشین به عنوان یکی از زیرشاخه های هوش مصنوعی، نظام حقوقی با سوالات حقوقی گوناگونی مواجه خواهد شد. با توجه به گستردگی حوزه های مورد استفاده از هوش مصنوعی و عدم امکان بررسی تمامی عناوین در یک مقاله، در اینجا با بررسی چالش های پیش رو در رابطه با مسئولیت مدنی و هوش مصنوعی به برخی از این سوالات می پردازیم. تمرکز مقاله بر روی خودروهای خودران و استفاده ی پزشکان از هوش مصنوعی نوین به عنوان دو مثال رایج امروزی می باشد. هدف اولیه ی این مقاله آشنایی مقدماتی حقوقدانان با هوش مصنوعی و یادگیری ماشین و جلب توجه حقوقدانان و قانونگذار به چالش های پیش رو در حوزه ی قانونگذاری در این زمینه است. در بخش نهایی، به برخی از پیشنهادات در ادبیات حقوقی موجود از جمله شخصیت حقوقی هوش مصنوعی، مسئولیت محض، و بیمه ی اجباری اشاره می شود. این حوزه همواره در حال تغییر و پیشرفت است و ممکن است برخی از فرضیات مطرح شده در این مقاله در آینده ی نزدیک تغییر کند. در این مرحله، آنچه لازم است حقوقدانان و سیاستگذاران بدان توجه کند لزوم تدوین اصول راهبردی اخلاقی و حقوقی ملی برای قانونمند کردن حوزه ی استفاده از هوش مصنوعی است.
کلیدواژه ها
اصل مقاله

به نام خدا

 

عنوان: خلاصه ی مقاله مقدمه ای بر چالش های هوش مصنوعی در حوزه ی مسئولیت مدنی

 

همایش جایگاه مسئولیت مدنی در حقوق کیفری ایران با تاکید بر قانون مجازات اسلامی 1392، پردیس فارابی دانشگاه تهران

 

 

نویسنده:‌ زهرا تخشید[1]

چکیده:

به کارگیری بیش از پیش یادگیری ماشین به عنوان یکی از زیرشاخه های هوش مصنوعی، نظام حقوقی را با سوالات حقوقی گوناگونی مواجه کرده است. با توجه به گستردگی حوزه های مورد استفاده از هوش مصنوعی و عدم امکان بررسی تمامی عناوین در یک جا، در این همایش با بررسی چالش های پیش رو در رابطه با مسئولیت مدنی و هوش مصنوعی به برخی از این سوالات می پردازیم. تمرکز مقاله بر روی خودروهای خودران و استفاده ی پزشکان از هوش مصنوعی نوین به عنوان دو مثال رایج امروزی می باشداین حوزه همواره در حال تغییر و پیشرفت است و ممکن است برخی از فرضیات مطرح شده در این مقاله در آینده ی نزدیک تغییر کند. در این مرحله، آنچه لازم است حقوقدانان و سیاستگذاران بدان توجه کند لزوم تدوین اصول راهبردی اخلاقی و حقوقی ملی برای قانونمند کردن حوزه ی استفاده از هوش مصنوعی است.

 

کلید واژه ها:  هوش مصنوعی، مسئولیت مدنی، اصول راهبردی هوش مصنوعی، یادگیری ماشین

 

 

 

 

مقدمه

 

امروزه استفاده از هوش مصنوعی چالش هایی را پیش روی حقوقدانان قرار داده است. برای مثال در صورت بروز سانحه با اسفتاده از خودروی خودران یا نیمه خودران چه کسی مسئولی جبران خسارت خواهد بود؟‌ آیا راننده مسئول است؟ و با شرکت تولید کننده ی خودرو؟ و یا خود خوردوی خودران؟ این مسئولیت هم از منظر کیفری و هم از منظر مدنی قابل بررسی است.[2]

اما ورود ابر داده های[3] و استفاده از آنها در توسعه ی هوش مصنوعی تنها در توسعه ی خودروهای خودران تاثیر گذار نخواهند بود بلکه جنبه های گوناگونی از زندگی ما را تغییر خواهند داد. برای مثال با گسترش ابر داده ها و ساخت ماشین آلاتی که قادر به پیش بینی بیماری فرد مریض می باشند این سوال به وجود می آید که در صورت بروز خطا در تشخیص بیماریَ، چه کسی مسئول جبران خسارت خواهد بود؟‌ آیا پزشکی که از دستگاه استفاده نموده و بدان اطمینان کرده مسئول است؟‌ آیا سازنده و مهندس طراح ماشین پزشکی مسئول خواهد بود؟

این مقاله در تلاش است تا حقوقدانان را با تکنولوژی هوش مصنوعی و آثار آن در ساختارشکنی تحلیل های سنتی حقوقی  آشنا سازد. سپس مقاله با تاکید بر خوردوهای خودران و استفاده ی پزشکان از هوش مصنوعی، برخی از این آثار را برای خواننده ملموس می سازد. در نهایت با بررسی برخی از اصولی که به نظر می رسد در طراحی و استفاده از هوش مصنوعی موثر است تلاش می شود تا بستر این حوزه را برای تحقیق بیشتر فراهم کنیم.

 

هوش مصنوعی و یادگیری ماشین[4]

هوش مصنوعی

هوش مصنوعی چیست؟ پاسخ به این سوال هر چند در گذشته ای نه چندان دور به نظر می رسید ارتباطی به یک حقوقدان ندارد، اما در طی چند سال گذشته شرایط تغییر کرده است. یکی از تعاریفی که در توصیف هوش مصنوعی مفید می باشد تعریف ارائه شده توسط گروه تخصصی هوش مصنوعی کمیسیون اروپا می باشد[5] که در اینجا آن را نقل می کنیم:

«سیستم های هوش مصنوعی (AI) سیستم های نرم افزارها ( و حتی گاه سخت افزارها) هستند که توسط انسان طراحی شده اند تا در صورتی که یک تکلیف پیچیده به عهده ی آنان قرار گیرد، آنان به صورت فیزیکی یا در ابعاد دیجیتالی با درک محیط اطراف خود از طریق بدست آوردن داده ها، تحلیل و تفسیر داده های به دست آورده ی ساختار یافته و یا ساختار نیافتهَ،[6] استدلال کردن بر اساس یافته ها و یا با تجزیه و تحلیل اطلاعاتی که از این داده ها به دست آورده اند، عمل کرده و تصمیم به انجام بهترین عمل برای رسیدن به هدف انجام تکلیف اولیه را گیرند. سیستم های هوش مصنوعی می توانند قوائد نمادین[7] و یا یادگیری مدل های اعدادی[8] را یاد بگیرند، آنها همچنین می توانند رفتار خودرا بر اساس تحلیل تاثیر اعمال قبلی خود بر محیط، وفق دهند.»[9]

باید در نظر داشت که تعاریف ارائه شده برای هوش مصنوعی یکسان نمی باشد و در طی زمان نیز گاه تغییر کرده است. این تغییر در تعاریف نیز به دلیل پیشرفت علم و پیچیده تر شدن این حوزه می باشد.[10] یکی از زیر شاخه های هوش مصنوعی که به پیشرفت آن بسیار کمک کرده است «یادگیری ماشین» است.

 

یادگیری ماشین[11]

در اینجا منظور از یادگیری توسط کامپیوتر «انتقال وظیفه ی بهینه سازی و پیش بینی آینده در رابطه با مجموعه ای از داده های خاص با بررسی متغیر های مختلف به الگوریتم است.»[12] به طور معمول نیز «بیشترین هدف از یادگیری ماشین  پدید آوردن ابزار پیش بینی برای یک استفاده ی خاص است.»[13] لازم به ذکر است که انتخاب هوش مصنوعی یک انتخاب بر مبنای علیت نیست، بلکه انتخابی بر مبنای داده های موجود است.[14]

امروزه بیش از پانزده رویکرد برای استفاده و طراحی یادگیری ماشین وجود دارد که هر کدام از یک نوع از الگوریتم استفاده میکنند. یکی از این رویکرد ها «یادگیری عمیق» می باشد که با استفاده از مدل سازی نورن های مغزی انسان (شبکه ی عصبی مصنوعی) که به شبکه های نورن کامپیوتری[15] معروف شده است به زبان ساده با تمرین و استفاده از داده های بسیار سبب می شوند که کامپیوتر خود بتواند با تمرین  و آزمون و خطا وظیفه ای که از او خواسته شده را یاد بگیرد. [16] در این مقاله بیش از این معرفی مقدماتی به توضیح این تکنولوژی نخواهیم پرداخت.

اما نکته ی مهم در اینجا، علاوه بر تنوع رویکرد های برنامه نویسی یادگیری ماشین، عدم آگاهی برنامه نویس از تمامی مراحل به نتیجه رسیدن کامپیوتر در مثال یادگیری عمیق[17] است. این یکی از چالش ها و تفاوت های اصلی الگوریتم های نوین یادگیری ماشین با الگوریتم های سنتی مبتنی بر قاَعده است.[18]

نمونه هایی از به کارگیری یادگیری ماشین

 

خودروهای خودران

خودروهای خودران یکی از ابعاد ملموس استفاده ی پیشرفته از یادگیری ماشین هستند. تکنولوژی خودروهای «خودران» امروزه به شش سطح تقسیم شده است که از سطح صفر (بدون اتوماسیون) تا سطح پنج (به معنای خوردان بودن کامل خودرو) تقسیم می شوند. ما بین این سطوح از حالت در دست داشتن گاز تا فهم محیط اطراف و موانع است.[19]

سیستم ماشین های خودران و نیمه خودران گاه چنان پیچیده است که اگر رفتاری نامتعارف از ماشین سرزند، مانند رد کردن چراغ قرمز به جای توقف، فهم چرایی تصمیم خوردو برای طراحان آن نیز دشوار است. این نتیجه ی استفاده از یادگیری عمیق است که تکنولوژی آن هم اکنون اجازه ی کند و کاو بیشتر را به طراح نمیدهد. به همین دلیل این نوع الگوریتم ها را گاه اگوریتمهای جعبه ی سیاه می نامند.[20] برای مبارزه با چنین اتفاقاتی دانشمندان می بایست به دنبال استفاده از روش هایی باشند که بتوانند مراحل پردازش اطلاعات توسط خورو و چگونگی تصمیم گیری ان را با جزئیات بیشتری درک کرده و توضیح دهند.[21] با وجود آن این احتمال وجود دارد که حتی با پیچیده تر شدن سیستم های شبکه عصبی هوش مصنوعی امکان توضیح و فهم چگونگی تصمیم گیری ماشین ها کمتر شود. در این صورت امکان تردید در استفاده از این ابزار نیز ممکن است به وجود آید. این امر بستگی به نحوه ی پیشترفت علم و تکلنولوژی در آینده ای نزدیک دارد.[22]

 

پزشکی وهوش مصنوعی

یکی دیگر از نتایج جمع آوری ابر داده ها استفاده از داده ها و هوش مصنوعی در حرفه ی پزشکی بوده است. این امر را گاه پزشکی جعبه ی سیاه[23] می نامند که به معنای استفاده از مدل های کامپیوتری مبهم برای تشخیص بیماری است. هوش مصنوعی پزشکی[24] و یادگیری ماشین پزشکی[25]  تاثیرات بسیار مثبتی در روند تشخیص بیماری ها و کمک به مریضان داشته است.[26] برای مثال امروزه یادگیری ماشین در بخری از زمینه از جمله آنالیز عکس های ایکس ری ،[27] طراحی و ساخت اپلیکیشن های گوشی های هوشمند که می تواند سرطان پوست را تشخیص دهد،[28] طراحی سیستم های مانیتور سالمندان که تشخیص میدهد چه زمانی مریض سالمندن احتمال دارد که زمین بخورد ( و با ایجاد زنگ خطر اطرافیان را مطلع میکند).[29] از سوی دیگر استفاده از هوش مصنوعی در پزشکی می تواند موجب خسارت و در نتیجه مسئولیت مدنی نیز گردد.

 

راهکار های پیشنهادی موجود

 

 برای قانونمند کردن مسئولیت مدنی ناشی از استفاده از هوش مصنوعی چند نظریه پیش نهاد شده است که به هریک اشاره خواهیم کرد. هدف از این قسمت ارائّه ی راهکار نهایی نبوده، بلکه قصد بررسی مقدماتی راهکار های موجود است. بررسی دقیق ابعاد انتخاب هر یک می تواند خود موضوعی مقاله ای دیگر باشد.

 

مسئولیت محض[30]

برخی قائل هستند که با توجه به عدم امکان اثبات برخی از عناصر مسئولیت مدنی عام در رابطه با هوش مصنوعی بهتر است با استفاده از مسئولیت محض نسبت به جبران خسارت زیان دیده اقدام کنیم. در حقوق آمریکا حوزه ی مسئولیت مدنی ناشی از کالاهای معیوب از این نظریه استفاده شده است.[31] در این شرایط نیازی به اثبات تقصیر نیست و به صرف وقوع حادثه تولید کننده مسئول جبران خسارت خواهد بود. مسئولیت محض مبتنی بر نظریه ی ایجاد خطر می باشد.[32]

 

بیمه اجباری[33]

یکی دیگر از راهکارهای جبران خسارت اجباری نمودن بیمه جبران خسارت برای تمامی کالاها و نرم افزارهاییست که بر مبنای یادگیری ماشین عمل میکنند. بدین ترتیب تولید کننده ی برنامه نرم افزار و یا سخت افزار از جبران خسارت مصون بود. یکی از آثار مثبت چنین رویکردی در جامعه هموار سازی پیشرفت علم و تکنولوژی در این حوزه است. باید در نظر داشت که مسئولیت محض می تواند سبب ایجاد ترس ناشی از مسئولیت در میان مهندسان و نوابغ کشور گردیده و از پیشرفت علم در این زمینه جلوگیری کند. اما با وجود بیمه های اجباری این ترس رفع شده و زیان دیده نیز امکان جبران خسارت را برای خود فراهم می آورد.

 

مسئولیت نیابتی[34]

عده ای از حقوقدانان پیشنهاد داده اند که با مسئولیت نیابتی می توان برای مثال شرکت طراح روباتی که منجر به ایجاد ضرر می شود را مسئول دانست. اما در نظریه ی مسئولیت نیابتی در حقوق آمریکا رایج است نایب به دلیل وجود یک رابطه مسئول ضرری است که دیگری وارد کرده است حتی اگر خود مرتکب هیچ تقصیری نشده باشد. این نوع مسئولیت نیابتی برای شرکت طراح ماشین و یا برنامه ای طراحی شده بر مبنای هوش مصنوعی نیز با مشکل ایجاد احتمالی وقفه در توسعه ی علم را در بر دارد که سیاست مناسبی برای تشویق دانشمندان نمی باشد.

 

شخصیت حقوقی هوش مصنوعی

برخی معتقدند بهتر از به هوش مصنوعی شخصیت حقوقی داند. همانطور که برای شناسایی مسئولیت شرکت ها از شخصیت حقوقی استفاده کرده ایم، می توانیم در اینجا نیز از شخصیت حقوقی استفاده کنیم. بدین ترتیب در صورت بروز خسارت شخص حقوقی هوش مصنوعی را خوانده ی دعوا قرار میدهیم. در ایران نیز برخی در حوزه ی مسئولیت کیفری خودروهای خودران به امکانسنجی این نظریه پرداخته اند.[35]

 

اصولی اخلاقی و حقوقی پشنهادی برای برنامه نویسان

 

با توجه به ابهامات و نظری بودن بسیاری از مباحثی که مطرح کردیم، حقوقدانان و سیاستگزاران دست به نگارش اصولی راهبردی برای تولید کنندگان محصولات مبتنی بر هوش مصنوعی زده اند. در این جا می توان به سند کمسیون اتحادیه اروپا به نام «راهنمای اخلاقی برای هوش مصنوعی قابل اعتماد»،[36]  «قواعد هو ش مصنوعی پکن»،[37] «استراتژی هوش مصنوعی» آلمان،[38] اشاره کرد. به تازگی سازمان آموزشیِ، علمی و فرهنگی ملل متحد (یونسکو) نیز بعد از دوسال مذاکره با کشورهای مختلف اقدام به ارائه ی سند پیشنهادی اصول اخلاقی در حوزه ی هوش مصنوعی نموده است.[39]

در این میان گروهی از محققان در موسسه ی برکمن کلاین برای اینترنت و جامعه در دانشگاه هاروارد[40] در یک پروژه ی تحقیقی با مطالعه ی اسناد موجود در سراسر دنیا زمینه های مشترکی که در بسیاری از این اسناد بدان پرداخته شده است را در هشت مورد طبقه بندی نموده است.[41] آنها عبارت اند از:‌ حریم خصوصی،[42] مسئولیت پذیری،[43] امنیت،[44] شفافیت و قابلیت توضیح دادن،[45]عدالت و دوری از تبعیض،[46] کنترل انسان بر تکنولوژی،[47] مسئولیت حرفه ای،[48] ارتقاع اصول انسانی.[49]  هر چند هر یک از این اصول نیازمند تحقیق ویژّه ای است[50] در این فرصت کوتاه تنها اشاره ای به «مسئولیت پذیری» اشاره خواهیم کرد.

مسئولیت پذیری در حوزه ای هوش مصنوعی تنها به مسئولیت مدنی محدود نمیشود بلکه فراتر از آن بوده و می تواند شامل مسئولیت پذیری طراحی هوش مصنوعی در مراحل مختلف از جمله  بازبینی  و قابلیت تکرارپذیری پروسه،[51] مسئولیت در ارزیابی تاثیرات استفاده از هوش مصنوعی،[52] بازرسی طراحی و توسعه ی محصولات مبتنی بر هوش مصنوعی،[53] و حتی استفاده از هوش مصنوعی و  رابطه با طبیعت[54] اشاره کرد.

طبق تحقیق هارارد اسناد موجود در زمینه ی مسئولیت جبران خسارت ناشی از هوش مصنوعی  و یادگیری ماشین همچنان مورد ابهام بوده و نتیجه گیری کلی مشترکی در اسناد موجود نیست. برای مثال «کشور هند و کمپانی مکروسافت به دنبال استفاده از اصول مسئولیت مدنی به عنوان ابزار کافی برای رسیدگی به جبران خسارت ناشی از خطای بی احتیاطی می باشند»[55] در حالی که برخی دیگر مانند چنین معتقدند همچنان می بایست در این زمینه کار شود و تضمینی در کافی بودن امکان ارجاع به اصول مسئولیت مدنی در صورت بروز حادثه وجود ندارد. برخی دیگر نیز هرچند به نتیجه ای در این رابطه نرسیده اند اما معتقدند در هر صورت تقصیر نباید بر عهده ی توسعه دهندگان و برنامه نویسان قرار داد.[56] بدین ترتیب تلاشی برای جلوگیری از وقفه در پیش رفت تکنولوژی با عدم مسئول دانستن برنامه نویسان صورت میگیرد. از سوی دیگر شفافیت (در مکانیزم اجرایی تکنولوژی و مراحل تولید و توسعه محصول و یا نرم افزار) می تواند یکی از بهترین ابزار مقدماتی برای تنظیم مکانیزم مسئولیت پذیری باشد. با شفافیت در نحوه ی عملکرد یک دستگاه میتوان حتی در زمینه ی مسئولیت مدنی آسان تر مقصر اصلی را شناسایی کرد و یا تصمیم به جبران خسارت گرفت.[57]

 

نتیجه گیری

 

حالی که به دلیل در جریان بودن توسعه و تولید کالاها و نرم افزار های مبتنی بر هوش مصنوعی پاسخ قطعی برای چالش های پیش رو در استفاده از هوش مصنوعی و مسئولیت مدنی ناشی به کارگیری این تکنولوژی وجود ندارد، می توان با تکیه بر اصول پیشنهادی که نیکوست تا به طور کلی در زمان استفاده از هوش مصنوعی مورد رعایت برنامه نویسان قرار گیرد راه را برای حل چالش های آینده هموار ساخت. با توجه به گسترش استفاده از هوش مصنوعی و یادگیری ماشین در ایران در عرصه های مختلف، تهیه ی اصولی جامع منطبق بر جامعه ی ایرانی و در عین حال جهانی امری ضروریست. چنین اصولی می تواند راهگشای مساله ی مسئولیت مدنی خسارات ناشی از هوش مصنوعی نیز می باشد.

مباحثی که در رابطه با ورود هوش مصنوعی به حوزه ی مسئولیت مدنی و به طور کلی حقوق نیازمند مطالعه می باشد بسیار فراتر از یک مقاله است. اما امید است تا حقوقدانان با استفاده از این راهنمای مقدماتی به نقد و بررسی هر یک از مباحث مطرح شده به صورت تخصصی بپردازند. آنچه مهم است کسب دانش در این حوزه و نگاهی باز به انواع گوناگون راه حل های ممکن برای پاسخ به پرسش های حقوقی در این زمینه است. در غیر این صورت با تکیه بر تعصب بر یک نظریه نمی توانیم مشکلات حقوقی پیش رو در این حوزه را حل کنیم. با کلامی از استاد کاتوزیان ارائه در این همایش را به پایان میرسانم:‌

 

« حقوق مجموع قواعد زندگی در اجتماع است. حقوقدان باید با کنجکاوی تمام به آنچه در اطراف او می گذرد توجه کند و قواعدی را که در ان محیط عادلانه است بیابد و قوانین را چان تفسیر کند که با عدالت موافق باشد. جامعه چو ن رودخانه ای عظیم گاه تند و گاه آرام در حرکت است. حقوق باید این حرکت را منظم سازد و خود. نیز تحول یابد. ساختن سدی ثابت، هرچند که استوار و حکم باشد، کاری بیهده و خطرناک است... پس اگر بخواهیم از گنجینه ای که زیر پا داریم به شایستگی بهره بریم، بیاد به فروع پیشینیان قناعت نورزیم؛ دشواریهای زندگی تازه را در چارچوب قواعد کهن بررسی کنیم و رنگی را که آن قواعد در ظرف تازه ی خود می یابد در نظر آوریم.»[58]

 

 



[1] مدرس حقوق دانشکده حقوق دانشگاه هاروارد، عضو موسسه ی برکمن کلاین برای اینترنت و جامعه در دانشگاه هاروارد سال 2019-2021

[2] اما پیش از بروز چنین حوادثی سوالات دیگری نیز می تواند ذهن حقوقدان را به خود مشغول کند. می دانیم که ماشین های خودران با استفاده از داده ها و تکنولوژی هوش مصنوعی عمل می کنند. حال آیا یک برنامه نویس مسئول است که برنامه ی ماشین را به نوعی طراحی کرده که در صورت مواجه با خطر سانحه راننده را حفظ کند و یا جان عابر را نجات دهد؟‌ آیا فرق می کند که عابر یک کودک باشد با امید به زندگی بالا و یا یک فرد سالمند؟ سوالاتی از این دست نه تنها به مسئولیت حقوقی ارتباط دارد اما حوزه ی اخلاقیات را نیز درگیر خواهد نمود.

 

[3] Big data

[4] هدف از ارائه ی تعاریف در این مقاله آشنایی ابتدایی حقوقدانان با مفاهیم مذکور و نه ارائه ی تعاریف فوق تخصصی.

[5] European Commission’s High-Level Expert Group on Artificial Intelligence.

[6]   Structured or unstructured data.

برای آشنایی با تفاوت داده ای ساختار یافته و ساختار نیافته رک: مسعود کاویانی، تفاوت داده ساختاریافته (Structured) با غیرساختاریافته (Unstructured) چیست؟ پایگاه اینترنتی آموزشی چیستو (آخرین بازدید دی ۱۳۹۹)

https://chistio.ir/داده-ساختاریافته-structured-غیرساختاریافته-unstructured/

[7] symbolic rules           

هوش مصنوعی نمادین هوش مصنوعی ساده تر است که با نمادها فکر میکند و برخلاف هوش مصنوعی شبکه های عصبی نیازی به کلان داده ها ندارد.

[8] Numeric model

[9] European Commission’s High-Level Expert Group on Artificial Intelligence “Ethics Guidelines for Trustworthy AI’ (2019) Pg 36. (available at https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai)

[10] Fjeld, Jessica, Nele Achten, Hannah Hilligoss, Adam Nagy, and Madhulika Srikumar. "Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI." Berkman Klein Center for Internet & Society, 2020.

[12] Id.

[13] Id.

[14] Jonathan Zittrain, The Hidden Costs of Automated Thinking (July 23, 2019).

https://www.newyorker.com/tech/annals-of-technology/the-hidden-costs-of-automated-thinking

 And yet, most machine-learning systems don’t uncover causal mechanisms. They are statistical-correlation engines. They can’t explain why they think some patients are more likely to die, because they don’t “think” in any colloquial sense of the word—they only answer. 

[15] Neural network

[16] David Kelnar, The fourth industrial revolution: a primer on Artificial Intelligence (Dec. 2, 2017) https://medium.com/mmc-writes/the-fourth-industrial-revolution-a-primer-on-artificial-intelligence-ai-ff5e7fffcae1

[17] Deep learning.

[18] Rule based algorithms.

[19] برای آشنایی با پنج سطح رجوع کنید به ۲۰۷ محمدرضا برزگر، غلامحسین الهام، مسئولیت کیفری کاربر خودروی خودران در قبال صدمات وارده توسط آن، پژوهش حقوق کیفری، سال هشتم، شماره سی ام، بهار ۱۳۹۹، ص ۲۰۱- ۲۲۹،  صص ۲۰۶-۲۰۷

[20] Black box algorithms.

[21] در طرح اصول حاکم بر هوش مصنوعی در انتهای مقاله بدین مساله اشاره می شود.

[22] Will Knight, The Dark Secret at the Heart of AI, MIT Technology Review (April 11, 2017) https://www.technologyreview.com/2017/04/11/5113/the-dark-secret-at-the-heart-of-ai/. 

[23] Black-Box Medicine.

[24] Medial artificial intelligence.

[25] Medical machine learning.

[26] Minssen, T, Gerke, S, Aboy, M, Price II, WN & Cohen, G 2020, 'Regulatory responses to medical machine learning', Journal of Law and the Biosciences, vol. 7, no. 1, pp. 1-18, Pg 2.

[27] Ahmed Hosny, Chintan Parmar, John Quackenbush, Lawrence H. Schwartz, Hugo J. W. L. Aerts, Artificial intelligence in radiology, 18 Nat Rev Cancer 500 (2018).

[28] GeorgeA.Zakhem,CatherineC.Motosko,Roger S.Ho, How Should Artificial Intelligence Screen for Skin Cancer and Deliver Diagnostic Predictions to Patients?, 154 JAMA Dermatol 1383 (2018).

[29] E. Ramanujam, S. Padmavathi, A Vision-Based Posture Monitoring System for the Elderly Using Intelligent Fall Detection Technique, inGuide to Ambient Intelligence in the IoT Environment (ZaighamMahmood ed., 2019).

[30] Strict liability.

[31] در قانون حمایت از حقوق مصرف کنندگان سال ۱۳۸۸ «حکم صریحی مبنی بر مسئولیت محض عرضه کنندگان نسبت به خسارت ناشی از عیب کالا دیده نمی شود.» سید حسین صفایی و حبیب الله رحیمی، مسئولیت مدنی (الزامات خارج از قرارداد) صفحه ی ۳۱۱ چاپ هشتم (۱۳۹۴).   اما در ماده ی ۱۶ این قانون مقرر شده:‌ « ماده 16 ـ مسؤولیت جبران خسارات وارده به مصرف کننده با تشخیص مرجع رسیدگی کننده به عهده شخص حقیقی یا حقوقی اعم از خصوصی و دولتی می باشد که موجب ورود خسارت و اضرار به مصرف کننده شده  است. در مورد شرکت های خارجی علاوه بر شرکت مادر، شعبه یا نمایندگی آن در ایران مسؤول خواهد بود.»

[32]ناصر کاتوزیان، الزام های خارج از قرارداد مسئولیت مدنی، جلد اول قواعد عمومی صفحه ی ۱۸۵، شماره ی ۷۲ (چاپ دوازدهم، سال ۱۳۹۲).

[33] No fault insurance.

[34] Respondent superior, vicarious liability

[35]سعید عطازاده ، جلال انصاری، بازپژوهی مفهوم مسئولیت کیفری هوش مصنوعی (مطالعه موردی خودروهای خود ران) در حقوق اسلام، ایران، آمریکا و آلمان، فصلنامه پژوهش تطبیقی حقوق اسلام و غرب، سال ششم شماره ۴ (پیاپی ۲۲، زمستان ۱۳۹۸، ۵۵ -۸۶

[36] European Commission’s High-Level Expert Group on Artificial Intelligence, ‘Ethics Guidelines for Trustworthy AI’ (2018) https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

اتحادیه ی اروپا چندین سند و چارتر دیگر نیز در این زمینه دارد. برای مثال رک:

Council of Europe, European Commission for the Efficiency of Justice, ‘European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and Their Environment’ (2018) (https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c)

[37] Beijing Academy of Artificial Intelligence, ‘Beijing AI Principles’ (2019) (https://www.baai.ac.cn/blog/beijing-ai-principles?categoryId=394).

[38] German Federal Ministry of Education and Research, the Federal Ministry for Economic Affairs and Energy, and the Federal Ministry of Labour and Social Affairs, ‘Artificial Intelligence Strategy’ (2018). https://www.ki-strategie-deutschland.de/home.html.

[40] Berkman Klein Center for Internet & Society at Harvard University.

[41] Fjeld, Jessica, Nele Achten, Hannah Hilligoss, Adam Nagy, and Madhulika Srikumar. "Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI." Berkman Klein Center for Internet & Society, 2020.

 

[42] Privacy

[43] Accountability

[44] Safety and Security

[45] Transparency and Explainability

[46] Fairness and Non-discrimination

[47] Human Control of Technology

[48] Professional Responsibility.

[49] Promotion of Human Values

[50] شایسته ی است برای مطالعه ی کامل این اصول به منبع اصلی مراجعه شود.  

[51] Verifiability and replicability

[52] Impact assessment.

[53] Evaluation and Auditing Requirement.

[54] Environmental responsibility

[55] Fjeld, Jessica, Nele Achten, Hannah Hilligoss, Adam Nagy, and Madhulika Srikumar. "Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI." Berkman Klein Center for Internet & Society, pg 34, 2020.

[56] Id.

[57] در اینجا ممکن است برخی از شرکت ها به دلیل آنکه تمایل به حفظ اصرار حرفه ای خود دارند از انتشار جزئیات برنامه های مبتنی بر هوش مصنوعی خودداری کنند که این خود چالشی برای حقوقدانان و سیاستمداران بوده تا به تعادل لازم در این میان برسند.

[58]ناصر کاتوزیان، الزام های خارج از قرارداد مسئولیت مدنی، جلد دوم قواعد عمومی صفحه ی ۱۳۵، شمارهی ۴۱۸ (چاپ یازدهم، سال ۱۳۹۳).