دولتها و شرکتها به فناوری خواندنِ ذهن مردم نزدیک شدهاند؛ باوجوداین، هنوز قوانین حفاظتی دربرابر جاسوسی سازمانیافته شرکتها از مغزها و جمعآوری و دادوستد دادههای مغزی وجود ندارد.
همین تابستان، نورالینک (Neuralink)، شرکت متعلق به ایلان ماسک، اعلام کرد از سال آینده، آزمایشهای مرحلهی انسانی وسیلهای قابلکاشت در مغز را آغاز خواهد کرد که میتواند ذهن انسان را بخواند. درمقابل با حمایت فیسبوک، محققان دانشگاه سانفرانسیسکو اخیرا نتایج تحقیقی را دربارهی فعالیت مغزی منتشر کردند که نشان میداد میتوان با استفاده از امواج مغزی، گفتار را رمزگشایی کرد. همچنین، شرکت خودروساز نیسان سال ۲۰۱۸ فناوری «مغز به خودرو» را رونمایی کرد که ترجمهی سیگنالهای مغزی راننده را ممکن میساخت. نیسان از گذشته، در حال استفاده از دانش عصبشناسی برای کنترل جنبههای ناخودآگاه تصمیمسازی مصرفکنندگان بوده است.
ایمپلنت مغزی نورالینک با خواندن ذهن افراد کاملا فلج، کنترل لوازمی همچون تلفن هوشمند یا خودرو برقی را ممکن میسازد
البته، اشتیاق افراد به امکان رمزگشایی از مغز دلایل درمانی و غیردرمانی دارد. برای مثال، آزمایشهای بالینی شرکت ایلان ماسک بر بیماران کاملا فلجی متمرکز است که از ناحیهی بالای ستون فقرات آسیب دیدهاند. هدف نیز این است ازطریق مکانیزم کاشتنی به کاربران امکان کنترل مجازی هرنوع وسیلهای اعم از تلفن هوشمند یا خودرو برقی را بدهند؛ آنهم صرفا بهکمک مغزشان. البته، این امکان برای افرادی با محدودیتهای جسمی بسیار انقلابی خواهد بود.
هدف اصلی ایمپلنت مغزی نورالینک اتصال مغز انسان به هوش مصنوعی و همگامشدن با آن است
برنامههای ماسک برای نورالینک تماما جنبهی انساندوستانه ندارد. وی معتقد است نهایتا تمام انسانها از ایمپلنت وی برای همگامشدن با هوش مصنوعی استفاده خواهند کرد. البته، آنچه فعلا و در کوتاهمدت شاهدش خواهیم بود، احتمالا دستگاه موجنگار مغزی مجهز به هوش مصنوعی برای مصرفکنندگان است که مثل دستگاههای سنجش تناسباندام، غیرتهاجمی (بینیاز از جراحی) و نسبتا ارزان خواهد بود که همین حالا هم در کشورهایی همچون چین و استرالیا در حال نصب است.
ماه آوریل، روزنامهای چینی گزارش داد پروژههای نظارتی دولتی در حال اجرای فناوری ذهنخوان بهمنظور تشخیص تغییر حالات احساسی شاغلان در خطوط تولید و ارتش و ناوبری قطارهای سریعالسیر هستند. همچنین، بنابر گزارش روزنامهای استرالیایی، چندین شرکت حفاری معدن دستگاهی موسوم به SmartCap را بهکار گرفتهاند که شبیه کلاه بیسبال با دیوارهای از الکترودهای اسکن مغزی است تا از عوارض منفی خستگی بر ایمنی و بهرهوری کارکنان بکاهند. در برخی موارد، این آشکارسازها را بهمنظور افزایش ایمنی کارگران بهکار بردهاند. برای مثال، وسیلهی مذکور میتواند معدنکاران را از خطر مسمومیت با مونواکسیدکربن پیش از بهوجودآمدن آسیبهای مغزی آگاه کند یا درصورت مشاهدهی خوابآلودگی رانندهی قطار و کامیون به او پیغام توقف بفرستد.
پروفسور نیتا فراهانی، محقق برجسته درزمینهی پیامدهای اخلاقی و حقوقی و اجتماعی فناوریهای نوظهور، نوامبر گذشته در سخنرانی TED Talk هشدار داد درحالحاضر، مکانیزم حفاظتی دربرابر سوءاستفادههای احتمالی از این دادهها وجود ندارد. وی میگوید:
اشتیاق اجتماعی شدیدی برای امکان گوش فرادادن به فعالیتهای مغزی رانندهی کامیون یا خلبان وجود دارد؛ اما پیشازآن، نیازمند حریمی برای مراقبت ذهنی هستیم؛ همان چیزی که اساس مفهوم انسانبودنمان است. دولتها قانونگذاری گستردهای در حیطهی حریم شخصی آغاز کردهاند؛ اما برخی از آنها درصورتی اعمال میشوند که شرکتها بتوانند این اطلاعات را ردیابی کنند. با وجود اینکه اینها نیز دادههایی همچون دیگر دادهها هستند، همچنان توجه خاص دولتها بر دادههای مغزی را نمیبینم. باید در این باره چارهای بیندیشیم.
پروفسور فراهانی دربارهی سوءاستفاده از دادههای مغزی مردم در نبود مکانیزم حفاظتی مناسب هشدار میدهد
فراهانی علاوهبر تدریس در دانشگاه Duke، بهعنوان محقق ارشد آزمایشگاه SLAP نیز فعالیت میکند که محلی برای بهچالشکشیدن علوم در پاسخ به پرسشهای قانونی و خطمشیها است. سال ۲۰۱۸، آزمایشگاه مذکور تحقیقی در آمریکا انجام داد تا مشخص کند مردم چقدر از حساسبودن اطلاعات مغزی آگاه هستند. این تحقیق نشان داد مردم فقط انواع خاصی از افکار را «اطلاعات مغزی حساس» میدانستند. فراهانی معتقد است اولین استفادهکنندگان دادههای مغزی در آمریکا از میان صنایعی همچون بازی، سلامتی، هوانوردی، حملونقل و نورومارکتینگ خواهند بود. حال به پیامدهای آن در کسبوکار فکر کنید. شرکت میتواند حداقل ازنظر تئوری، از این فناوری برای غربال داوطلبان مصاحبههای شغلی یا رصد بهرهوری شغلی و حتی زیرنظرگرفتن افکار مخالف استفاده کند. فراهانی میگوید:
شرکتکنندگان حاضر در این تحقیق اطلاعاتی همچون شمارهی خدمات تأمین اجتماعی و مکالمات تلفنی را حساسترین دادهها میدانستند. مردم هنوز به این دو موضوع پی نبردهاند که چه چیزهایی با فناوری مغزی امکانپذیر است و پیامدهای ناگوار دستیابی دیگران به آن چه خواهد بود.
البته، محدودیتهای فنی دربارهی موجنگارهای مغزی (ElectroEncephaloGram) یا بهاختصار EEG وجود دارد که امکان رمزگشایی افکار پیچیدهی مغز را نامحتمل میکند. این الکترودها در سطح مغز فعالیت میکنند و نمیتوانند به عمق مغز نفوذ کنند؛ جاییکه غالب افکار پیچیده و خاطراتمان قرار دارند. حداقل ۱۵ سال با فناوری ذهنخوان حقیقی فاصله داریم که بتواند بهمعنای واقعی کلمه، افکار و احساساتمان را بهصورتی غیرتهاجمی رمزگشایی کند. ناگفته نماند شاید هرگز هم به آن مرحله نرسیم.
محتملترین و عملیترین راه داشتن ماشین رابط مغزی حقیقی ازطریق الکترودهای کاشتنی (روش تهاجمی و جراحی) است. در غیر این صورت، ازطریق فناوری غیرتهاجمی صرفا میتوانیم بگوییم مثلا آیا افراد احساس موافق یا مخالف یا خنثی دارند، نگران تشنج عصبی هستند، به عکس خاص یا کلمهای ساده یا مجموعهای از اعداد فکر میکنند یا هنگام رانندگی خوابآلود هستند.
درحالحاضر، قوانین حفاظتی دربرابر جاسوسی سازمانهای دولتی همچون سازمان امنیت ملی آمریکا یا جمعآوری و دادوستد دادههای مغزی بهوسیلهی شرکتها وجود ندارد. در انتها، پروفسور فراهانی میگوید:
هراس من از توانایی انسان در همگامشدن با هوش مصنوعی است. بیراه نیست اگر بشر را در آستانهی انقلاب صنعتی جدیدی بدانیم. حضور بازیگران عمدهای همچون فیسبوک و ایلان ماسک که درزمینهی جوامع تندرست سرمایهگذاری هنگفت میکنند، ما را در وضعیتی اضطراری قرار داده است. اگر میخواهیم برندهی این رقابتها باشیم و روشهایی برای حفاظت از مردم ایجاد کنیم، زمان آن همین حالا است.
اولین گام فیس بوک در مقولهی خواندن افکار بشری
با توجه به سابقهی فیسبوک در نقض حریم خصوصی کاربران، توسعهی فناوری واسط مغز و کامپیوتر توسط این شرکت، نگرانیها را در این حوزه افزایش داده است.
اگر هنوز بعد از رسوایی کمبریج آنالیتیکا، که جریمهای 5 میلیارد دلاری برای فیسبوک در پی داشت و نیز دیگر موارد نقض حریم خصوصی و موارد اخلاقی توسط این شرکت که تعدادشان سر به فلک کشیده، از شبکهی اجتماعی فیس بوک استفاده میکنید، قائدتا نباید هیچ نگرانی اخلاقی نسبتبه فناوری واسط مغز و کامپیوتر که نزدیک به دو سال است فیسبوک شروعبه توسعهی آن کرده، داشته باشید. بهنظر میرسد اولین میوه از ثمرهی تلاشهای فیسبوک، رسیده و آمادهی چیدن است.
یک رشته از تحقیقات در دانشگاه سانفرانسیسکو واقع در ایالت کالیفرنیا، تحت حمایت مالی و تحقیقاتی فیسبوک، منجر به ساخت رابطی با توانایی ترجمهی سیگنالهای مغزی به کلمات و گفتوگوها شده که نتایج آن در مؤسسهی Nature Communication منتشر شده است. نرمافزار استفادهشده در این تحقیقات با تجزیهوتحلیل این سیگنالها، بدون دسترسی به صدای مکالمات، قادر به تشخیصدادن کلمات شنیدهشده و پاسخی است که نسبتبه این کلمات داده میشود. این فرایند از فعالیتهای الکتروکوکلئوگرافی (ECoG) حجیم، پاسخ شنیداری ساقهی مغز، استفاده میکند که البته، نیاز به کاشت سنسورهایی در مغز دارد؛ در نتیجه، این احتمال که فیسبوک بدون موافقت اشخاص، اقدامبه خواندن افکار آنها کند، در کوتاهمدت منتفی است.
بیشتر بدانید:هوش مصنوعی فرشته نجات انسان ها نیست
تحقیقات منتشر شدهی آنها، این نکته را بهوضوح مشخص میسازد که فناوری، راهی دراز و طولانی پیش رو دارد تا بتواند سودی عملی و طبیعی داشتهباشد. در بخشی از تحقیقات منتشرشده آمده است:
در این تحقیق، ما در طی پروژهای که پرسشوپاسخهای واقعی در مکالمات را تقلید میکرد، رمزگشایی بیدرنگی را از گفتار درکشده و تولیدشده از فعالیت الکتروکوکلئوگرافی حجیم در انسانها، نشان دادیم. در حالیکه این پروژه، هدفگذاری و زمانبندی روشنی را برای شرکتکنندگان ارائه میکند، جنبههای تعاملی و هدفمند چنین الگوی پرسشوپاسخی، نشاندهندهی گامی بزرگ در جهت خیز نرمافزارها، به سمت طبیعیگرایانهتر شدن هرچه بیشتر است.
در حین ضبط فعالیتهای ECoG، شرکتکنندگان در ابتدا به مجموعه سوالات از پیش ضبطشده گوش فرا داده و سپس مجموعهای از پاسخها را بهصورت شفاهی ارائه کردند. این دادهها بهعنوان ورودی برای آموزش مدلهای رمزگشایی و تشخیص گفتار ارائه میشوند. پس از فرایندی آموزش، شرکتکنندگان در هر آزمایش با گوشدادن به سوالات، به انتخاب خود پاسخهایی را با صدای بلند ارائه کردند. تنها با استفاده از سیگنالهای عصبی، ما تشخیص دادیم چهزمانی شرکتکنندگان در حال گوشدادن یا صحبت کردن هستند و ماهیت این سخنان را با استفاده از نوع صوتی الگوریتم ویتربی (الگوریتمی پویا برای پیداکردن محتملترین مسیر از حالتهای پنهان است)، پیشبینی کردیم.
از آنجایی که برخی از پاسخها تنها برای پرسشهای معدودی معتبر هستند، بههمین جهت ما با استفاده از سوالاتی که پیشبینی میشد پرسیده شوند، هر جواب ممکن را بهصورت پویایی بهروزرسانی کردیم، تا در نهایت پیشبینیهای سؤال و جواب یکی شوند.
دراصل شرکتکنندگان، پاسخهایی را در آن لحظه، برای سوالاتی از پیش تعیینشده ارائه میدادند و محققان از سیگنالهای مغزی آنها برای آموزش مدلهایی، جهت یادگیری هر آنچه شرکتکنندگان گفته یا شنیده بودند، استفاده میکردند. نرمافزار بهطور میانگین ۷۶ درصد از مواقع، سوالات مفروض را بهدرستی تشخیص داده بود و میزان تشخیص پاسخهای شرکتکنندگان، در محدودهای پایینتر از ۶۱ درصد قرار داشت. با توجه به سابقهی فیسبوک، استفادهی شرورانه از این فناوری از طرف این شرکت، بهراحتی قابل نتیجهگیری است، اما خود این فناوری چشمانداز روشنی را برای ارتباط با افرادی میکند که دچار آسیب یا اختلالات عصبی هستند.
اگرچه نتایج این یافته باید بهمنظور دستیابی به موفقیتهای جدید پزشکی و کمک به جامعه، مورد استفاده قرار گیرد؛ باتوجه به سرمایهگذاری در این حوزه بهواسطهی شرکتی که میخواهد اقدامات آیندهی شما را پیشبینی کند و قبلا نیز سابقهی این کار را داشته، نگرانیهای موجود باید با شدتعمل بیشتری پیگیری شود. سؤال مهم این است که آیا این شرکت خواهد توانست، در آیندهی نزدیک ذهن افراد را بخواند؟ با توجه به قصد فیسبوک در متحولکردن اقتصاد جهانی با ارائهی پلتفرم ارز مجازی خود، با نام لیبرا، و در نظرگرفتن مدت زمان لازم برای افزایش دقت ۶۱ درصدی این فناوری در تشخیص پاسخها، که از طریق کاشت حسگر در مغز حاصل شده و همهگیر نبودن آن، جواب این سؤال منفی است. با این حال تجربه ثابت کرده است، در صورت مطرح نشدن نگرانیهای مربوط به این فناوریها و نادیدهگرفتنشان، مشکلات حریمخصوصی که اینقبیل شرکتها ایجاد میکنند، به طرز چشمگیری افزایش خواهد یافت.
آیا میخواهید سیگنالهای مغزی شما، برای تبلیغات مورد استفاده قرار گیرد؟ فیسبوک از تکذیب این ادعا، که قصد استفاده از این فناوری را برای مصارف تبلیغاتی را دارد، سرباز زده است. تبلیغات بسیار فریبنده بوده و مصرفکنندگان هیچ تمایلی به تعامل با آنها ندارند، خواه با ظاهر شستهرفتهی جدید ترویج شوند، خواه در قالب برنامهی سیاسی مشکوک. با این حال سود حاصل از صنعت تبلیغات در سال ۲۰۱۷ میلادی، به رقم چشمگیر ۱۰۵ میلیارد دلار رسیده است. حال تصور کنید شرکتها برای دستیابی به افکار واقعی، چه هزینههایی که پرداخت نمیکنند؟!
قانون حفاظت از حریم خصوصی
البته فیسبوک اصرار دارد، API( رابط نرمافزاری) مغزی این شرکت، تنها افکاری را خواهد خواند، که شما مایل به اشتراکگذاری آنها باشید. سخنگوی این شرکت، ها تای، در بیانیهای این چنین اظهار داشت:
ما در حال ایجاد واسطی هستیم که بهشما امکان خواهد داد، با سرعت و انعطافپذیری صدا و میزانی از امنیت حریم خصوصی که در نوشته وجود دارد، ارتباط برقرار کنید. بهطور خاص، این ارتباطات تنها شامل مواردی میشود که قبلا با ارسال آنها به مرکز گفتار مغز خود، با بهاشتراکگذاری آنها موافقت کردهاید. حریم خصوصی در این سیستم همانند تمامی مواردی که فیسبوک در آنها دست به تلاش برده، ایجاد خواهد شد.
دلایل این شکوتردید را کنار بگذارید. مواردی را که سعی کردید جلوی حرفزدن خود را بگیرید یا بعد از بیان حرفی، آرزو کردید تا به نوع دیگری این صحبت را انجام میدادید، در نظر بگیرید. به این فکر کنید که تمامی مکالمات شما در طول عمر، روی یک حافظه ضبط شده باشد. آیا میخواهید فیسبوک به این اطلاعات دسترسی داشته باشد؟ اصلا آیا میخواهید هر شخص دیگری به این اطلاعات دسترسی داشته باشد؟ اگر نمیخواهید، اکنون زمان مناسبی برای توجه بیشتر، نسبت به تحقیقاتی استکه فیسبوک، مشغول انجام دادنشان است. زیرا با درنظرگرفتن تجربیات گذشته، میدانیم زمانیکه دست روی دست میگذاریم، چه اتفاقی میافتد و دیدهایم که فیسبوک یا شرکتهای مشابه، چگونه با استفاده از این فناوریها، حریم خصوصی کاربران را مورد هجمه قرار میدهند.
گرداورنده:معین کرمی