۲۹ آذر ۱۴۰۴ - ۱۵:۲۰
کد خبر: ۸۰۰۹۳۱
در نشست علمی «چالش‌های روش‌شناختی پژوهش در عصر هوش مصنوعی» مطرح شد؛

ابعاد اخلاقی، معرفتی و تمدنی هوش مصنوعی

ابعاد اخلاقی، معرفتی و تمدنی هوش مصنوعی
در نشست علمی «چالش‌های روش‌شناختی پژوهش در عصر هوش مصنوعی» به‌عنوان یکی از پیش‌نشست‌های دومین همایش بین‌المللی «دین، فرهنگ و فناوری» با حضور اساتید دانشگاهی و پژوهشگران مباحث اخلاقی، معرفتی و تمدنی هوش مصنوعی به بحث و بررسی گذاشته شد.
به گزارش خبرنگار سرویس فرهنگی و اجتماعی خبرگزاری رسا، نشست علمی «چالش‌های روش‌شناختی پژوهش در عصر هوش مصنوعی» به‌عنوان یکی از پیش‌نشست‌های دومین همایش بین‌المللی «دین، فرهنگ و فناوری» با حضور اساتید دانشگاهی و پژوهشگران حوزه علوم انسانی ظهر پنجشنبه در دانشگاه باقرالعلوم برگزار شد.
 
در این نشست، سخنرانان از زوایای مختلف اخلاقی، معرفت‌شناختی، فرهنگی و سیاست‌گذارانه به مسئله هوش مصنوعی پرداختند و بر ضرورت مواجهه‌ای فعال و مسئولانه با این پدیده نوظهور تأکید کردند.
 
ابعاد اخلاقی، معرفتی و تمدنی هوش مصنوعی
 
صورت‌بندی اخلاق کاربردی از چالش‌های پژوهش مبتنی بر هوش مصنوعی است
دکتر مهدی فدایی، مدیر گروه اخلاق و تربیت دانشگاه باقرالعلوم(ع) و معاون پژوهشی این دانشگاه، در سخنانی با تبیین چارچوب اخلاق کاربردی، به بررسی چالش‌های اخلاقی روش‌شناختی در پژوهش‌های مبتنی بر هوش مصنوعی پرداخت. وی با اشاره به سابقه فعالیت خود در حوزه اخلاق پژوهش، تأکید کرد که مفهوم «چالش اخلاقی» در ادبیات اخلاق کاربردی دارای معانی متعددی است که عدم تفکیک آن‌ها می‌تواند به خطاهای نظری و عملی منجر شود.
 
وی سه معنای اصلی چالش اخلاقی را شامل «ابهام نظری»، «آسیب اخلاقی» و «تعارض اخلاقی» دانست و تصریح کرد: در پژوهش‌های مبتنی بر هوش مصنوعی، هر سه معنا به‌طور هم‌زمان حضور دارند و می‌توانند در مراحل مختلف چرخه پژوهش، از گردآوری داده تا تحلیل، تفسیر و گزارش‌دهی، به خطاهای روش‌شناختی منجر شوند.
 
دکتر فدایی با اشاره به ابهام نظری در اعتبار داده‌های تولیدشده یا پالایش‌شده توسط هوش مصنوعی، گفت: پیچیدگی زنجیره داده و مدل‌های زبانی موجب می‌شود پژوهشگر یا داور علمی در تشخیص صحت، اعتبار و پاکی داده‌ها دچار تردید شود و این ابهام نظری مستقیماً اتکاپذیری نتایج پژوهش را تضعیف می‌کند.
 
وی در ادامه، به آسیب‌های اخلاقی ناشی از فشار زمانی، انگیزه‌های نهادی، تعارض منافع و راحت‌طلبی پژوهشگر اشاره کرد و افزود: استفاده پنهان یا کم‌مستند از ابزارهای هوش مصنوعی، عدم ثبت پرامپت‌ها و وسوسه اتکای افراطی به خروجی‌های الگوریتمی، از جمله مصادیق آسیب اخلاقی در پژوهش‌های معاصر است که می‌تواند هم اعتبار اخلاقی و هم اعتبار علمی پژوهش را مخدوش کند.
 
ابعاد اخلاقی، معرفتی و تمدنی هوش مصنوعی
 
تفکیک سطوح تحلیل؛ شرط نخست فهم چالش‌های هوش مصنوعی
دکتر قنبر فتح شهبازی استاد دانشگاه باقرالعلوم(ع) دیگر ارائه کننده این نشست با تأکید بر ضرورت شفاف‌سازی سطح تحلیل در مباحث علمی، خاطرنشان کرد: چالش‌های هوش مصنوعی از سطح فرد پژوهشگر آغاز می‌شود، به سطح سازمان‌ها و نهادهای علمی می‌رسد و در نهایت به سطح سیاست‌گذاری کلان و حتی حکمرانی جهانی ختم می‌شود. اگر مخاطب نداند که سخنران از کدام سطح تحلیل سخن می‌گوید، دچار سردرگمی می‌شود و برداشت‌های نادرست شکل می‌گیرد.
 
وی با تصریح بر اینکه هدف این نشست صرفاً تحلیل نظری نیست، گفت: انتظار می‌رود خروجی این مباحث، به‌ویژه با توجه به حضور و حمایت مرکز تحقیقات مجلس شورای اسلامی، به ارائه راهبردهای عملیاتی برای سیاست‌گذاران منجر شود. نشست‌های علمی زمانی اثرگذار خواهند بود که بتوانند از سطح توصیف فراتر رفته و به تصمیم‌سازی و سیاست‌گذاری کمک کنند.
 

ابعاد اخلاقی، معرفتی و تمدنی هوش مصنوعی

گذار از «پژوهشگر-مولف» به «پژوهشگر-کیوریتور»

دکتر حکیمیان پژوهشگر مدیریت فرهنگی با اشاره به تلقی رایج از هوش مصنوعی به‌عنوان ابزاری برای افزایش سرعت، دقت و صرفه‌جویی در زمان پژوهش، اظهار داشت: هرچند این نگاه برای پژوهشگران قابل درک است، اما مسئله اصلی را تقلیل می‌دهد. چالش بنیادین، گذار از پارادایم «پژوهشگر به مثابه مولف» به «پژوهشگر به مثابه متصدی و کیوریتور» است؛ تغییری که منطق تولید دانش را به‌طور اساسی دگرگون می‌کند.

وی افزود: در روش‌شناسی سنتی، پژوهشگر داده را گردآوری، پردازش و تحلیل می‌کرد و نهایتاً به نتیجه می‌رسید، اما در هوش‌های مصنوعی مولد، با یک «جعبه سیاه» مواجه هستیم که در آن، پرامپت وارد می‌شود و خروجی تولید می‌گردد، بی‌آنکه منطق درونی این فرآیند برای پژوهشگر شفاف باشد. دکتر حکیمیان تأکید کرد: در مدیریت فرهنگی، مسئله اصلی نه سرعت و نه حجم خروجی، بلکه «مشروعیت معرفتی» دانشی است که از این مسیر تولید می‌شود.

این پژوهشگر تصریح کرد: هوش مصنوعی برخلاف تصور رایج، ابزاری خنثی و بی‌طرف نیست، بلکه محصول یک جهان معرفتی خاص، با پیش‌فرض‌های انسان‌شناختی، زبانی و فرهنگی مشخص است که عمدتاً ریشه در نظام معرفتی غرب دارد. وقتی پژوهشگر در یک بستر دینی، اسلامی و ایرانی از این ابزار استفاده می‌کند، ناخواسته یک واسطه معرفتی را وارد فرآیند تولید معنا می‌سازد که می‌تواند به ایجاد نویز روش‌شناختی منجر شود.

 
همایش دین، فرهنگ و فناوری به دنبال سیاست‌گذاری پیشینی است
دکتر ساجدی، دبیر دومین همایش بین‌المللی «دین، فرهنگ و فناوری»، با تشریح اهداف و رویکردهای این همایش، اظهار داشت: این همایش با تمرکز بر فضای دیجیتال و هوش مصنوعی، در اردیبهشت‌ماه سال ۱۳۹۷ در تهران و قم برگزار خواهد شد و مجموعه‌ای از پیش‌نشست‌های علمی و آثار مکتوب را در دستور کار دارد.
 
وی با اشاره به مشارکت نهادهایی چون شورای عالی فضای مجازی، دانشگاه صنعتی شریف، دانشگاه تهران و دانشگاه باقرالعلوم(ع)، تصریح کرد: دغدغه اصلی همایش، صرفاً گفت‌وگوهای نظری نیست، بلکه دستیابی به فهم دقیق از پدیده هوش مصنوعی و طراحی سیاست‌ها و راهبردهای مواجهه فعال با آن است.
 
دکتر ساجدی سه تلقی کلان از هوش مصنوعی را مورد اشاره قرار داد و گفت: برخی آن را به‌مثابه هستی جدید، برخی به‌عنوان مسیر معرفتی نو و برخی به‌عنوان یک روش و ابزار تلقی می‌کنند. به گفته وی، تعیین موضع در این سطح، تأثیر مستقیمی بر سیاست‌گذاری، آموزش و پژوهش خواهد داشت.
 
ضرورت بازخوانی میراث فکری و پرهیز از خودباختگی فناورانه
 
دکتر ساجدی در بخش پایانی سخنان خود با انتقاد از تصور رایج مبنی بر کاملاً نو بودن هوش مصنوعی، تأکید کرد: بسیاری از ریشه‌های مفهومی این پدیده را می‌توان در فلسفه و اندیشه‌های کلاسیک، از گفت‌وگوهای سقراطی تا نظریه‌های معرفتی متفکران گذشته، بازشناسی کرد.
 
وی با اشاره به دیدگاه‌هایی در جامعه‌شناسی معرفت افزود: جهان امروز اگرچه تغییر کرده، اما نیازها و دغدغه‌های بنیادین انسان تغییر ماهوی نیافته‌اند و به همین دلیل، میراث فکری گذشتگان همچنان می‌تواند در فهم پدیده‌های نوظهور راهگشا باشد. به گفته وی، همایش «دین، فرهنگ و فناوری» در پی آن است که با اتکا به این میراث، سخن متمایز و بومی خود را درباره هوش مصنوعی ارائه کند و از گرفتار شدن در تأخر فرهنگی جلوگیری نماید.
ارسال نظرات