هوش مصنوعی برای صیانت از حقوق بشر

الگوریتم عدالت‌محور

۲۵ آبان ۱۴۰۴ | ۱۶:۰۰ کد : ۲۰۳۶۲۲۹ اخبار اصلی اقتصاد و انرژی
کیانا یوسفی مجد و امیرحسین عسگری در یادداشت مشترکی برای دیپلماسی ایرانی می‌نویسند: مسئله اصلی نه توانایی‌های فنی هوش مصنوعی، بلکه چگونگی تضمین و صیانت از حقوق بنیادین انسان‌ها در چارچوب توسعه و کاربرد آن است. سامانه‌های هوشمند، با قابلیت پردازش سریع داده‌ها و تصمیم‌گیری خودکار، می‌توانند فرصت‌های برابر را تسهیل کرده، بهره‌وری اجتماعی را ارتقا دهند و حتی بر دسترسی عادلانه به خدمات عمومی و سلامت اثرگذار باشند.
الگوریتم عدالت‌محور

نویسندگان: کیانا یوسفی مجد، کارشناس ارشد حقوق بین‌الملل از دانشگاه علامه طباطبایی(ره) و امیرحسین عسگری، پژوهشگر دکتری حقوق بین‌الملل عمومی دانشگاه تهران و پژوهشگر در اندیشکده سرآمد

دیپلماسی ایرانی: تحولات سریع و عمیق در عرصه هوش مصنوعی، نظام‌های اجتماعی، سیاسی و اقتصادی جهان را به‌طور بی‌سابقه‌ای دگرگون کرده و در عین حال مجموعه‌ای از چالش‌های نوظهور در حوزه حقوق بشر را نیز به تصویر کشیده است. این فناوری، که از پردازش داده‌های کلان و الگوریتم‌های پیچیده برای تحلیل، پیش‌بینی و تصمیم‌گیری استفاده می‌کند، در حال حاضر دیگر یک ابزار صرفاً فناورانه نیست، بلکه به نیرویی ساختارمند در تعیین سرنوشت انسان‌ها تبدیل شده است. در این زمینه، مسئله اصلی نه توانایی‌های فنی هوش مصنوعی، بلکه چگونگی تضمین و صیانت از حقوق بنیادین انسان‌ها در چارچوب توسعه و کاربرد آن است. سامانه‌های هوشمند، با قابلیت پردازش سریع داده‌ها و تصمیم‌گیری خودکار، می‌توانند فرصت‌های برابر را تسهیل کرده، بهره‌وری اجتماعی را ارتقا دهند و حتی بر دسترسی عادلانه به خدمات عمومی و سلامت اثرگذار باشند. با این حال، این ظرفیت‌ها تنها در صورتی تحقق می‌یابند که چارچوب‌های حقوقی و اخلاقی قدرتمندی وجود داشته باشد که بتواند استفاده از فناوری را به گونه‌ای هدایت کند که با کرامت انسانی، حریم خصوصی، آزادی و اصل برابری سازگار باشد. در غیر این صورت، هوش مصنوعی می‌تواند به ابزاری برای تبعیض سیستماتیک، سرکوب اجتماعی و نقض گسترده حقوق بشر تبدیل شود.

یکی از پیچیده‌ترین مسائلی که هوش مصنوعی پیش روی جامعه جهانی قرار داده، مسئله مسئولیت و پاسخگویی است. در نظام‌های حقوقی سنتی، مسئولیت برای نقض حقوق بشر به کنشگر انسانی نسبت داده می‌شود. اما زمانی که تصمیمات مهم اجتماعی، اقتصادی یا قضایی بر اساس الگوریتم‌ها اتخاذ شود، زنجیره مسئولیت میان طراحان نرم‌افزار، توسعه‌دهندگان الگوریتم، بهره‌برداران و حتی خود سامانه‌ها پراکنده می‌شود. این پراکندگی مسئولیت باعث می‌شود که در موارد نقض حقوق بنیادین، امکان انتساب دقیق مسئولیت و اعمال عدالت پیچیده و حتی غیرممکن شود. افزون بر این، ماهیت غیرشفاف بسیاری از الگوریتم‌ها، که اصطلاحاً «جعبه سیاه» نامیده می‌شوند، اصل شفافیت و پاسخگویی را به چالش می‌کشد و امکان بررسی و اصلاح تصمیمات ناعادلانه را محدود می‌سازد. این وضعیت نشان می‌دهد که نظم حقوقی موجود هنوز آمادگی کامل برای مواجهه با چالش‌های فناورانه و تضمین حقوق بشر در عصر هوش مصنوعی را ندارد و نیازمند بازاندیشی بنیادی است.

تهدیدهای حقوق بشری ناشی از هوش مصنوعی، صرفاً جنبه نظری و بالقوه ندارند، بلکه در جهان واقعی مشهود و ملموس هستند. نظام‌های شناسایی چهره، تحلیل رفتار آنلاین، نظارت دیجیتال و الگوریتم‌های تصمیم‌یار در حوزه استخدام، عدالت کیفری و تخصیص منابع، قابلیت تولید تبعیض و نقض حق بر برابری و آزادی را دارند. جمع‌آوری بی‌ضابطه داده‌های شخصی بدون رضایت آگاهانه، تهدید مستقیم به حق بر حریم خصوصی محسوب می‌شود و با تعهدات بین‌المللی دولت‌ها تحت میثاق بین‌المللی حقوق مدنی و سیاسی در تضاد است. الگوریتم‌هایی که بر اساس داده‌های مغرضانه آموزش دیده‌اند، می‌توانند بازتولید تبعیض نژادی، جنسیتی یا طبقاتی را تسهیل کنند و دسترسی برابر به فرصت‌ها و منابع را محدود سازند. این مسأله از نظر حقوق بشر اهمیت مضاعف دارد، زیرا نقض حقوق اجتماعی و اقتصادی با نقض حقوق مدنی و سیاسی درهم تنیده شده و یک چرخه معیوب بی‌عدالتی ایجاد می‌کند. از همین منظر، هوش مصنوعی می‌تواند اگر بدون چارچوب‌های حقوقی و نظارتی دقیق به کار گرفته شود، به یک ابزار متمرکز قدرت تبدیل شود که فاصله بین نخبگان فناوری و جامعه را تشدید کرده و حاکمیت دموکراتیک را تضعیف کند.

با این حال، هوش مصنوعی دارای ظرفیت‌های مثبت و بی‌سابقه‌ای نیز برای ارتقای حقوق بشر است. در حوزه سلامت، این فناوری می‌تواند دسترسی عادلانه‌تر به خدمات درمانی را تسهیل کند و خطاهای انسانی را کاهش دهد. در حوزه محیط زیست، تحلیل داده‌های اقلیمی توسط هوش مصنوعی می‌تواند به تحقق حق بر محیط زیست سالم کمک کند. و در عرصه عدالت، ابزارهای تحلیلی مبتنی بر داده می‌توانند فرایندهای قضایی را شفاف‌تر و سریع‌تر کنند. نکته اساسی آن است که این ظرفیت‌ها تنها زمانی محقق می‌شوند که توسعه و بهره‌برداری از هوش مصنوعی با اصول حقوق بشری، اخلاقی و شفافیت همراه باشد. فناوری به خودی خود نه خیر است و نه شر. تعیین‌کننده، چارچوب‌های هنجاری و حقوقی است که استفاده از آن را هدایت می‌کنند.

نظام حقوق بین‌الملل در مواجهه با چالش‌های ناشی از هوش مصنوعی هنوز به اجماع کامل نرسیده است، اما تلاش‌های مهمی در حال شکل‌گیری است. یونسکو با تصویب توصیه‌نامه اخلاق هوش مصنوعی بر کرامت انسانی، عدالت، شفافیت و مسئولیت‌پذیری تأکید کرده است و اتحادیه اروپا با قانون هوش مصنوعی (AI Act) سعی دارد مخاطرات فناوری را طبقه‌بندی کرده و نظارت‌ها را تنظیم کند. با این حال، از منظر حقوق بشر، بسیاری از این مقررات تمرکز بیشتری بر جنبه‌های صنعتی و امنیتی دارند و کمتر به آثار اجتماعی و سیاسی نقض حقوق بنیادین توجه کرده‌اند. محدودیت‌های استفاده از شناسایی چهره در اروپا، اگرچه گامی مثبت است، اما با استثناهای امنیتی همچنان امکان نقض حقوق فردی را فراهم می‌آورد، نشان‌دهنده آن است که بدون نظارت مستقل و مؤثر، مقررات تنها به شعار تبدیل می‌شوند.

صیانت مؤثر از حقوق بشر در عصر هوش مصنوعی نیازمند بازتعریف مفهوم حکمرانی فناورانه است. حکمرانی‌ای که بر پاسخگویی، شفافیت و مشارکت استوار باشد. سامانه‌های هوشمند باید مسئول باشند و امکان انتساب دقیق مسئولیت وجود داشته باشد، تصمیمات الگوریتمی باید قابل تبیین و ارزیابی باشند و توسعه فناوری باید با مشارکت جامعه مدنی، نهادهای حقوق بشری و متخصصان مستقل انجام گیرد. ابزارهای ارزیابی تأثیر حقوق بشر (Human Rights Impact Assessment) می‌توانند پیش از اجرای هر پروژه هوش مصنوعی، پیامدهای بالقوه بر حقوق بنیادین انسان‌ها را مورد سنجش قرار دهند، مشابه ارزیابی‌های زیست‌محیطی در پروژه‌های صنعتی. همچنین سازوکارهای نظارتی چندسطحی ملی، منطقه‌ای و بین‌المللی ضروری است تا از نقض‌های احتمالی جلوگیری شود و پاسخ‌های مؤثر فراهم شود.

چالش عمیق‌تر، فلسفی و وجودی است. کرامت انسانی که شالوده اسناد بین‌المللی حقوق بشر را تشکیل می‌دهد، بر تمایز انسان از ابزار استوار است. زمانی که هوش مصنوعی تصمیماتی می‌گیرد که سرنوشت انسان‌ها را تعیین می‌کند، مرز میان فاعل و مفعول، تصمیم‌گیر و تصمیم‌پذیر، مبهم می‌شود. اگر کرامت انسانی بر آزادی و خودآیینی بنا شده باشد، واگذاری داوری‌های انسانی به سامانه‌های غیرانسانی می‌تواند این بنیان را تضعیف کند. بنابراین هرچند استفاده از هوش مصنوعی برای تسهیل تصمیم‌گیری می‌تواند مفید باشد، نباید اختیار نهایی را از انسان سلب کرد و اصل انسان در حلقه تصمی باید به یک الزام اخلاقی و حقوق بشری تبدیل شود.

می‌توان گفت هوش مصنوعی چالشی چندوجهی بر سر راه حقوق بشر معاصر است. فناوری که هم فرصت‌هایی بی‌سابقه برای عدالت، سلامت و توسعه پایدار فراهم می‌کند و هم تهدیدهایی جدی برای آزادی، حریم خصوصی و برابری انسان‌ها به همراه دارد. پاسداری از حقوق بشر در این شرایط نیازمند آن است که از واکنش‌گری صرف فاصله بگیریم و با نگاهی پیش‌دستانه، تنظیم‌گری و سیاست‌گذاری را هم‌زمان با رشد فناوری پیش ببریم، نه پس از بروز آسیب‌ها. آینده حقوق بشر در عصر هوش مصنوعی نه در انکار فناوری، بلکه در اخلاقی‌سازی و انسانی‌کردن آن شکل خواهد گرفت. تنها از راه همکاری مستمر قانون‌گذاران، پژوهشگران، فعالان جامعه مدنی و توسعه‌دهندگان فناوری می‌توان تعادلی پایدار میان پیشرفت فناورانه و حفظ کرامت انسانی برقرار کرد و اطمینان یافت که هوش مصنوعی همچنان در خدمت انسان باشد، نه این‌که انسان در خدمت الگوریتم‌ها قرار گیرد.

کلید واژه ها: هوش مصنوعی عدالت عدالت محور عصر هوش مصنوعی امیرحسین عسگری حقوق بشر حقوق بنیادین حقوق بین الملل


نظر شما :