چرا درباره مخاطرات هوش مصنوعی چیز زیادی نمی دانیم؟

به گزارش وبلاگ پیشرو، بسیاری از کشورهای دنیا در رقابتی جدی در حوزه فناوری قرار دارند. اما نکته عجیب این است که بسیاری از افراد درباره اهمیت هوش مصنوعی چیز زیادی نمی دانند. این موضوع حتی در سطح دولت ها گسترده است. هنگامی که سازمان غذا و داروی ایالات متحده امکانات جدید اپل واچ را تصویب کرد پذیرفت که این ساعت ها می توانند جایگزینی برای مراقبت های بهداشتی باشد. اما متخصصان قلب و عروق هشدار دادند که این برنامه می تواند منجر به نقض حریم خصوصی و حتی ایجاد اخلال در مراقبت های بهداشتی گردد.

چرا درباره مخاطرات هوش مصنوعی چیز زیادی نمی دانیم؟

به گزارش سرویس آی تی و فناوری انتخاب به نقل از پولیتیکو، خوب است که یک ارزیابی معتبر از جوانب مثبت و منفی فناوری جدید داشته باشیم. اتفاقی که در ایالات متحده رخ نمی دهد. در انگلیس ، فرانسه و اتحادیه اروپا ، آژانسهای دولتی تأثیر اخلاقی ، اجتماعی و مالی هوش مصنوعی و سایر فناوریهای مهم جدید را آنالیز می نمایند. اما در حالی که تعداد زیادی از نهادها در ایالات متحده مشغول فعالیت های متعدد در حوزه هوش مصنوعی هستند، آنالیز امنیت هوش مصنوعی در ایالات متحده چندان قوی اجرا نمی گردد.

سوء استفاده از هوش مصنوعی در بعضی کشورها بسیار خطرناک است. برای مثال سوء استفاده از هوش مصنوعی در چین در قالب رصد مداوم شهروندان یا دستکاری ژنوم های انسانی رخ می دهد. اما چرا این موضوع تا این حد در ایالات متحد مورد غفلت واقعت شده است؟ بخشی از این بی توجهی به کمبود بودجه و بخشی دیگر نیز به عدم قوانین معتبر و مصوب مرتبط است. قوانینی که می توانند مهار نماینده بعضی تخلفات در حوزه هوش مصنوعی باشند.

جان ویلبانکس ، متخصص و تکنسین در Sage Bionetworks گفت: اگرچه بسیاری از اساتید دانشگاه و اندیشکده های مبتنی بر فناوری ، داده های گسترده و آموزش ماشینی دارند، اما هیچ سیاست نظارتی برای کنترل هوش مصنوعی وجود ندارد.

با این وجود این فناوری ها تأثیرات عمیقی بر آینده ما دارند و سؤالات عظیمی برای جامعه ایجاد می نمایند. مسائل مربوط به حریم خصوصی بیش از هر چیز درباره هوش مصنوعی مطرح می گردد. اریک پراکسلیس ، کارشناس امنیت فضای مجازی دانشگاه دوک در این خصوص می گوید: مصرف نمایندگان ، پزشکان و مؤسسات باید درک نمایند که سلامت شخصی نوعی موضوع مرتبط با حریم خصوصی است و نمی توان به راحتی به هر برنامه ای اعتماد کرد.

یک خطر دیگر فروش یا نقض یا سوء استفاده از داده های الکترونیکی است. درست مثل همان اتفاقی که برای کاربران فیس بوک رخ داد. به گفته منتقدین ، الکتروکاردیوگرام موجود در اپل واچ ، که ضربان قلب قلب فرد را اندازه می گیرد و می تواند دفریب زدایی دهلیزی را تشخیص دهد. می تواد شامل خطاهای گسترده ای باشد یا حتی می تواند اطلاعاتی اشتباه درباره سلامت افراد منتشر کند. اریک توپول ، متخصص قلب ، نویسنده و بنیانگذار موسسه پژوهشی اسکریپس می گوید اساسا این نوع اندازه گیری سلامتی را فاقد اعتبار می داند چرا که نمی تواند با علم پزشکی تطابق کامل داشته باشد.

به نظر می رسد باز هم به موضوع پیشین باز می گردیم که در مقابل این نوع داده سنجی و ثبت داده هیچ قانون دقیقی وجود ندارد و به عبارتی دقیق تر هیچ بحث عمومی درباره چگونگی استفاده از داده ها میلیون ها آمریکایی وجود ندارد. این الگوریتم ها می توانند برای شکل دادن بیمه نامه استفاده شوند، ممکن است بر تصمیم پزشکان تأثیر بگذارند یا حتی در پژوهشهای علمی استفاده شوند اما حقوق مصرف نمایندگان چه می گردد؟

نکته نهایی این است که تبادل نظر در خصوص ابعاد و حوزه حریم خصوصی هوش مصنوعی نیز بسیار مهم است. درک هوش مصنوعی بسیار سخت تر از دیگر حوزه ها است و عده ای معتقدند به همین دلیل تدوین قانون در این زمینه بسیار سخت است.توپول در این زمینه می گوید: فرض کنید بخواهیم قوانینی درباره تکنولوژی های تشخیص چهره وضع کنیم چگونه قرار است ابعاد آن را معین کنیم. اساسا چگونه معین می گردد کدام سازمانها حق دارند از این تکنولوژی ها استفاده نمایند.

نگاهی به قوانین نشان می دهد اروپایی ها نسبت به آمریکایی ها قوانینی سرسختانه تر برابر تکنولوژی و حتی شرکت های سرشناسی مثل گوگل، فیس بوک و مایکروسافت و ... وضع نموده اند. با این حال حتی قوانین اتحادیه اروپا نیز ناقص است.

منبع: انتخاب

به "چرا درباره مخاطرات هوش مصنوعی چیز زیادی نمی دانیم؟" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "چرا درباره مخاطرات هوش مصنوعی چیز زیادی نمی دانیم؟"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید