در دومین نشست کرسی نظریه پردازی فناوری مطرح شد؛
هوش مصنوعی اگر کنترل نشود، رفتارهای غلط انسان ها را مدل میکند
دومین جلسه از سلسله نشست های کرسی نظریه پردازی فناوری با عنوان « اخلاق دیجیتال؛ هوش مصنوعی و مسئولیت پذیری» با حضور دکتر سیدمحمدباقر جعفری، عضو هیات علمی دانشگاه تهران، روز دوشنبه 7 اسفندماه 1402 به همت انجمن ایرانی مطالعات فرهنگی و ارتباطات به صورت برخط برگزار شد.
درابتدای نشست دکتر عباس قنبری باغستان، عضو هیئت علمی دانشگاه تهران و دبیر نشست، ضمن خوشامدگویی به حاضرین جلسه و معرفی سخنران جلسه دکتر سید محمدباقر جعفری، به ضرورت برگزاری کرسی های مربوط به فناوری در انجمن ایرانی مطالعات فرهنگی و ارتباطات اشاره کرد. ایشان خاطرنشان کرد، با توجه به اهمیت و جایگاه هوش مصنوعی در فضای عمومی، رسانه و فضای سیاسی ، محور اصلی کرسی های نظریه پردازی های امسال به هوش مصنوعی اختصاص یافته است.
در ادامه دکتر سید محمدباقر جعفری، عضو هیات علمی دانشگاه تهران، ضمن خوشامدگویی به حاضرین، به محور های این نشست اشاره کرد و بیان کرد تعریف اخلاق دیجیتال و تفاوت آن با سایرحوزه های اخلاق، بحث چالش های اخلاقی و اجتماعی فناوری اطلاعات و حوزه های ورود اخلاق دیجیتال در عرصه اجتماعی و اخلاقی، چالش های اخلاقی و اجتماعی هوش مصنوعی ، تعریف هوش مصنوعی مسئولیت پذیر و چارچوب توسعه هوش مصنوعی به منظور کاهش مخاطرات هوش مصنوعی، از جمله مهمترین محور های این نشست خواهد بود.
در بخش اول دکتر سیدمحمدباقر جعفری به ارائه دو تعریف قدیمی و جدید از اخلاق دیجیتال پرداخت و بیان کرد که درتعریف قدیمی، اخلاق دیجیتال به تاثیر فناوری های اطلاعات و ارتباطات دیجیتال بر جوامع و محیط زیست میپردازد، اما در تعریف جدید اخلاق دیجیتال شاخه ای از اخلاق تلقی می شود که به مجموع قوانین و دستاوردهای اخلاقی مربوط می شود که اصول رفتاری بین افراد یا شرکت ها را با میانجی گری فناوری اطلاعات و ارتباطات که دستخوش تغییر شده اند، تعیین میکند. لذا در هردو تعریف آنچه که حائز اهمیت است، آن است که فناوری های اطلاعات و ارتباطات دارای تاثیراتی است که باید این تاثیرات در اخلاق دیجیتال برسی شود و مخاطرات آن به حداقل رسانده شود.
در ادامه دکتر جعفری به تفاوت اخلاق دیجیتال با اخلاق حرفه ای اطلاعات و ارتباطات پرداخت و بیان کرد: فناوری های اطلاعات و ارتباطات دارای مخاطراتی است که باید شناخته و دسته بندی شوند تا درنهایت بتوانیم از عارضه های خطرناک آن پیشگیری کنیم. این مخاطرات بحث اخلاق را در فضای دیجیتال مطرح میکند و بدین منظور باید برسی شود. اما اخلاق حرفه ای فناوری اطلاعات و ارتباطات برای متخصصانی است که در حوزه فناوری های اطلاعات و ارتباطات فعالیت میکنند و باید اصول اخلاق حرفه ای را در حرفه خود رعایت کنند.
دکتر جعفری در بخش دوم، چارچوبی برای دسته بندی چالش های اخلاقی و اجتماعی فناوری های اطلاعات و ارتباطات به نقل از پروفسور لادن در کتاب سیستم های اطلاعات مطرح کرد و ذکر کرد 5 دسته چالش در حوزه آسیب های اخلاقی و اجتماعی، سیاسی فناوری اطلاعات و ارتباطات وجود دارد.
اولین چالش، چالش حقوق اطلاعات و تعهدات مرتبط با حقوق اطلاعات است که به دلیل آنکه در این عصر حجم زیادی از اطلاعات توسط انسان ها تولید و نگه داری می شود، این مسئله حائز اهمیت است که این اطلاعات تا چه میزان درست نگه داری می شوند و چقدر حریم خصوصی مربوط به آن رعایت میشود.
دومین مورد چالش حقوق مالکیت و تعهدات مرتبط با آن است که به این اشاره دارد که در فضای مجازی مالکیت ها دارایی های ناملموس را تحت شعاع قرار داده است.
مورد سوم چالش مسئولیت پذیری و کنترل است و آنچه که اهمیت دارد آن است که در سیستم های اطلاعاتی، چه کسانی باید مسئول باشند و این مسئولیت چگونه باید مشخص شود و نیز این سامانه ها به چه صورت کنترل شوند که آسیب زا نباشند.
چهارمین چالش، کیفیت سیستم ها است که باید معیارهایی برای ارزیابی عملکرد سیستم ها مشخص شوند و نیز درنهایت چالش پنجم، چالش کیفیت زندگی است که تحت شعاع این فناوری ها، زندگی فردی و اجتماعی افراد دستخوش تغییر شده است و مرز بین کار و تفریح جا به جا و در هم ادغام شده است و این یکی از مهم ترین چالش های اخلاقی در این حوزه است.
در بخش بعدی این عضو هیات علمی دانشگاه تهران به صورت خاص به چالش های هوش مصنوعی اشاره کرد و بیان کرد که الگوریتم های هوش مصنوعی که انسان همچون سلاح از آن ها استفاده میکند ، از بین رفتن مشاغل ساده و توسعه مشاغل پیچیده، جنگ های سایبری، ایمن نبودن هوش مصنوعی ناشی خود توسعه بودن این تکنولوژی، نظارت هوش مصنوعی بر حریم خصوصی و در نهایت تصمیمات جانبدارانه هوش مصنوعی از جمله مهم ترین چالش های این تکنولوژی می باشد.
دکتر جعفری در ادامه به بحث ابرهوش های مصنوعی اشاره کردند که فراتر از ذهن انسان میتواند اطلاعات را تحلیل کند و میتواند هوش انسان را شکست دهد و بر انسان غلبه کند.
استاد دانشگاه تهران در ادامه تفاوت هوش مصنوعی با برنامه نویسی کلاسیک را مطرح کرد و بیان کرد که در برنامه نویسی کلاسیک الگوریتم را میشناسیم و داده ها را داریم و پاسخ را میتوانیم بدست بیاوریم. ولی هوش مصنوعی یا یادگیری ماشینی، داده های بسیار فراوانی دارد و این داده ها تبدیل به جواب شده اند. این الگوریتم ها پیچیده و متنوع هستند و یادگیری ماشین الگوریتم ها را استخراج میکند و میتواند آن را به کار ببرد و یاد بگیرد. هوش مصنوعی اگر کنترل نشود، رفتارهای غلط انسان ها را مدل میکند و حتی میتواند تشدید کند.
دکتر جعفری در محور چهارم درباره هوش مصنوعی مسئولیت پذیر بیان کرد: باتوجه به گسترش هوش مصنوعی در زندگی بحث اصلی آن است چگونه این تکنولوژی کنترل شود و مسئولیت پذیری آن بگونه ای شود که آسیب های آن به حداقل برسد. ایشان در ادامه مطرح کردند این، پرسش هایی اساسی است که آیا هوش مصنوعی در همه حوزه ها میتواند وارد شود و چه کسی میتواند تعیین کند و چه ارزش هایی تعیین کننده آن هستند؟ وی در تعریف هوش مصنوعی مسئولیت پذیر بیان کرد که هوش مصنوعی مسئولیت پذیر عمل طراحی، توسعه و به کارگیری هوش مصنوعی با نیت خوب برای توانمند سازی کارکنان و کسب و کارها و تاثیر عادلانه بر جامعه است.
این استاد دانشگاه تهران در بحث نهایی درباره چارچوب توسعه هوش مصنوعی به منظور کاهش مخاطرات هوش مصنوعی 3 محور اصلی در طراحی، توسط طراحی و برای طراحی را مطرح کرد که به ترتیب شامل رعایت مباحث اخلاقی در طراحی هوش مصنوعی، رعایت مباحث اخلاقی توسط خود هوش مصنوعی و نیز طراحی قوانین و مقرراتی برای افراد در استفاده از هوش مصنوعی را در بر میگیرد.
دکتر جعفری در جمع بندی نهایی بیان کرد تاثیرگذاری هوش مصنوعی اکنون بسیار جدی است و تعیین کننده آینده بشر است. الگوریتم های هوش مصنوعی یادگیرنده هستند و میتوانند الگو های درست و غلط را یاد بگیرند. لذا در نظر گرفتن مسائل اخلاقی هوش مصنوعی بگونه ای که هم طراحان هوش مصنوعی و هم خود هوش مصنوعی آن را رعایت کنند و افراد را نیز ملزم به رعایت اخلاق کند بسیار حائز اهمیت است.
تهیه و تدوین: فاطمه منتظری هدشی، دانشجوی دکتری علوم ارتباطات اجتماعی دانشگاه تهران