هوش مصنوعی برای صیانت از حقوق بشر
الگوریتم عدالتمحور

نویسندگان: کیانا یوسفی مجد، کارشناس ارشد حقوق بینالملل از دانشگاه علامه طباطبایی(ره) و امیرحسین عسگری، پژوهشگر دکتری حقوق بینالملل عمومی دانشگاه تهران و پژوهشگر در اندیشکده سرآمد
دیپلماسی ایرانی: تحولات سریع و عمیق در عرصه هوش مصنوعی، نظامهای اجتماعی، سیاسی و اقتصادی جهان را بهطور بیسابقهای دگرگون کرده و در عین حال مجموعهای از چالشهای نوظهور در حوزه حقوق بشر را نیز به تصویر کشیده است. این فناوری، که از پردازش دادههای کلان و الگوریتمهای پیچیده برای تحلیل، پیشبینی و تصمیمگیری استفاده میکند، در حال حاضر دیگر یک ابزار صرفاً فناورانه نیست، بلکه به نیرویی ساختارمند در تعیین سرنوشت انسانها تبدیل شده است. در این زمینه، مسئله اصلی نه تواناییهای فنی هوش مصنوعی، بلکه چگونگی تضمین و صیانت از حقوق بنیادین انسانها در چارچوب توسعه و کاربرد آن است. سامانههای هوشمند، با قابلیت پردازش سریع دادهها و تصمیمگیری خودکار، میتوانند فرصتهای برابر را تسهیل کرده، بهرهوری اجتماعی را ارتقا دهند و حتی بر دسترسی عادلانه به خدمات عمومی و سلامت اثرگذار باشند. با این حال، این ظرفیتها تنها در صورتی تحقق مییابند که چارچوبهای حقوقی و اخلاقی قدرتمندی وجود داشته باشد که بتواند استفاده از فناوری را به گونهای هدایت کند که با کرامت انسانی، حریم خصوصی، آزادی و اصل برابری سازگار باشد. در غیر این صورت، هوش مصنوعی میتواند به ابزاری برای تبعیض سیستماتیک، سرکوب اجتماعی و نقض گسترده حقوق بشر تبدیل شود.
یکی از پیچیدهترین مسائلی که هوش مصنوعی پیش روی جامعه جهانی قرار داده، مسئله مسئولیت و پاسخگویی است. در نظامهای حقوقی سنتی، مسئولیت برای نقض حقوق بشر به کنشگر انسانی نسبت داده میشود. اما زمانی که تصمیمات مهم اجتماعی، اقتصادی یا قضایی بر اساس الگوریتمها اتخاذ شود، زنجیره مسئولیت میان طراحان نرمافزار، توسعهدهندگان الگوریتم، بهرهبرداران و حتی خود سامانهها پراکنده میشود. این پراکندگی مسئولیت باعث میشود که در موارد نقض حقوق بنیادین، امکان انتساب دقیق مسئولیت و اعمال عدالت پیچیده و حتی غیرممکن شود. افزون بر این، ماهیت غیرشفاف بسیاری از الگوریتمها، که اصطلاحاً «جعبه سیاه» نامیده میشوند، اصل شفافیت و پاسخگویی را به چالش میکشد و امکان بررسی و اصلاح تصمیمات ناعادلانه را محدود میسازد. این وضعیت نشان میدهد که نظم حقوقی موجود هنوز آمادگی کامل برای مواجهه با چالشهای فناورانه و تضمین حقوق بشر در عصر هوش مصنوعی را ندارد و نیازمند بازاندیشی بنیادی است.
تهدیدهای حقوق بشری ناشی از هوش مصنوعی، صرفاً جنبه نظری و بالقوه ندارند، بلکه در جهان واقعی مشهود و ملموس هستند. نظامهای شناسایی چهره، تحلیل رفتار آنلاین، نظارت دیجیتال و الگوریتمهای تصمیمیار در حوزه استخدام، عدالت کیفری و تخصیص منابع، قابلیت تولید تبعیض و نقض حق بر برابری و آزادی را دارند. جمعآوری بیضابطه دادههای شخصی بدون رضایت آگاهانه، تهدید مستقیم به حق بر حریم خصوصی محسوب میشود و با تعهدات بینالمللی دولتها تحت میثاق بینالمللی حقوق مدنی و سیاسی در تضاد است. الگوریتمهایی که بر اساس دادههای مغرضانه آموزش دیدهاند، میتوانند بازتولید تبعیض نژادی، جنسیتی یا طبقاتی را تسهیل کنند و دسترسی برابر به فرصتها و منابع را محدود سازند. این مسأله از نظر حقوق بشر اهمیت مضاعف دارد، زیرا نقض حقوق اجتماعی و اقتصادی با نقض حقوق مدنی و سیاسی درهم تنیده شده و یک چرخه معیوب بیعدالتی ایجاد میکند. از همین منظر، هوش مصنوعی میتواند اگر بدون چارچوبهای حقوقی و نظارتی دقیق به کار گرفته شود، به یک ابزار متمرکز قدرت تبدیل شود که فاصله بین نخبگان فناوری و جامعه را تشدید کرده و حاکمیت دموکراتیک را تضعیف کند.
با این حال، هوش مصنوعی دارای ظرفیتهای مثبت و بیسابقهای نیز برای ارتقای حقوق بشر است. در حوزه سلامت، این فناوری میتواند دسترسی عادلانهتر به خدمات درمانی را تسهیل کند و خطاهای انسانی را کاهش دهد. در حوزه محیط زیست، تحلیل دادههای اقلیمی توسط هوش مصنوعی میتواند به تحقق حق بر محیط زیست سالم کمک کند. و در عرصه عدالت، ابزارهای تحلیلی مبتنی بر داده میتوانند فرایندهای قضایی را شفافتر و سریعتر کنند. نکته اساسی آن است که این ظرفیتها تنها زمانی محقق میشوند که توسعه و بهرهبرداری از هوش مصنوعی با اصول حقوق بشری، اخلاقی و شفافیت همراه باشد. فناوری به خودی خود نه خیر است و نه شر. تعیینکننده، چارچوبهای هنجاری و حقوقی است که استفاده از آن را هدایت میکنند.
نظام حقوق بینالملل در مواجهه با چالشهای ناشی از هوش مصنوعی هنوز به اجماع کامل نرسیده است، اما تلاشهای مهمی در حال شکلگیری است. یونسکو با تصویب توصیهنامه اخلاق هوش مصنوعی بر کرامت انسانی، عدالت، شفافیت و مسئولیتپذیری تأکید کرده است و اتحادیه اروپا با قانون هوش مصنوعی (AI Act) سعی دارد مخاطرات فناوری را طبقهبندی کرده و نظارتها را تنظیم کند. با این حال، از منظر حقوق بشر، بسیاری از این مقررات تمرکز بیشتری بر جنبههای صنعتی و امنیتی دارند و کمتر به آثار اجتماعی و سیاسی نقض حقوق بنیادین توجه کردهاند. محدودیتهای استفاده از شناسایی چهره در اروپا، اگرچه گامی مثبت است، اما با استثناهای امنیتی همچنان امکان نقض حقوق فردی را فراهم میآورد، نشاندهنده آن است که بدون نظارت مستقل و مؤثر، مقررات تنها به شعار تبدیل میشوند.
صیانت مؤثر از حقوق بشر در عصر هوش مصنوعی نیازمند بازتعریف مفهوم حکمرانی فناورانه است. حکمرانیای که بر پاسخگویی، شفافیت و مشارکت استوار باشد. سامانههای هوشمند باید مسئول باشند و امکان انتساب دقیق مسئولیت وجود داشته باشد، تصمیمات الگوریتمی باید قابل تبیین و ارزیابی باشند و توسعه فناوری باید با مشارکت جامعه مدنی، نهادهای حقوق بشری و متخصصان مستقل انجام گیرد. ابزارهای ارزیابی تأثیر حقوق بشر (Human Rights Impact Assessment) میتوانند پیش از اجرای هر پروژه هوش مصنوعی، پیامدهای بالقوه بر حقوق بنیادین انسانها را مورد سنجش قرار دهند، مشابه ارزیابیهای زیستمحیطی در پروژههای صنعتی. همچنین سازوکارهای نظارتی چندسطحی ملی، منطقهای و بینالمللی ضروری است تا از نقضهای احتمالی جلوگیری شود و پاسخهای مؤثر فراهم شود.
چالش عمیقتر، فلسفی و وجودی است. کرامت انسانی که شالوده اسناد بینالمللی حقوق بشر را تشکیل میدهد، بر تمایز انسان از ابزار استوار است. زمانی که هوش مصنوعی تصمیماتی میگیرد که سرنوشت انسانها را تعیین میکند، مرز میان فاعل و مفعول، تصمیمگیر و تصمیمپذیر، مبهم میشود. اگر کرامت انسانی بر آزادی و خودآیینی بنا شده باشد، واگذاری داوریهای انسانی به سامانههای غیرانسانی میتواند این بنیان را تضعیف کند. بنابراین هرچند استفاده از هوش مصنوعی برای تسهیل تصمیمگیری میتواند مفید باشد، نباید اختیار نهایی را از انسان سلب کرد و اصل انسان در حلقه تصمی باید به یک الزام اخلاقی و حقوق بشری تبدیل شود.
میتوان گفت هوش مصنوعی چالشی چندوجهی بر سر راه حقوق بشر معاصر است. فناوری که هم فرصتهایی بیسابقه برای عدالت، سلامت و توسعه پایدار فراهم میکند و هم تهدیدهایی جدی برای آزادی، حریم خصوصی و برابری انسانها به همراه دارد. پاسداری از حقوق بشر در این شرایط نیازمند آن است که از واکنشگری صرف فاصله بگیریم و با نگاهی پیشدستانه، تنظیمگری و سیاستگذاری را همزمان با رشد فناوری پیش ببریم، نه پس از بروز آسیبها. آینده حقوق بشر در عصر هوش مصنوعی نه در انکار فناوری، بلکه در اخلاقیسازی و انسانیکردن آن شکل خواهد گرفت. تنها از راه همکاری مستمر قانونگذاران، پژوهشگران، فعالان جامعه مدنی و توسعهدهندگان فناوری میتوان تعادلی پایدار میان پیشرفت فناورانه و حفظ کرامت انسانی برقرار کرد و اطمینان یافت که هوش مصنوعی همچنان در خدمت انسان باشد، نه اینکه انسان در خدمت الگوریتمها قرار گیرد.


نظر شما :