پایگاه خبری تحلیلی تیتربرتر

تقویم تاریخ

امروز: پنج شنبه, ۰۶ ارديبهشت ۱۴۰۳ برابر با ۱۶ شوّال ۱۴۴۵ قمری و ۲۵ آوریل ۲۰۲۴ میلادی
شنبه, ۰۲ شهریور ۱۳۹۸ ۱۸:۲۹
۱۱
۰
نسخه چاپی

فناوری ذهن خوان آینده ای نه چندان دور!

فناوری ذهن خوان آینده ای نه چندان دور!
سعی کنید تمام افکاری را به‌یاد آورید که امروز هنگام کار از سرتان گذشت؛ از اینکه «برای ناهار چه بخورم» تا مواردی نامناسب‌تر مثل «چه رئیس بی‌خودی دارم!». حال تصور کنید رئیستان به تمام این افکار و احساسات دسترسی داشت؛ دیوانه‌کننده است، نه؟ این اتفاق به‌سرعت در حال نزدیک‌شدن است.

دولت‌ها و شرکت‌ها به فناوری خواندنِ ذهن مردم نزدیک شده‌اند؛ باوجوداین، هنوز قوانین حفاظتی دربرابر جاسوسی سازمان‌یافته شرکت‌ها از مغزها و جمع‌آوری و دادوستد داده‌های مغزی وجود ندارد.

همین تابستان، نورالینک (Neuralink)، شرکت متعلق به ایلان ماسک، اعلام کرد از سال آینده، آزمایش‌های مرحله‌ی انسانی وسیله‌ای قابل‌کاشت در مغز را آغاز خواهد کرد که می‌تواند ذهن انسان را بخواند. درمقابل با حمایت‌ فیسبوک، محققان دانشگاه سان‌فرانسیسکو اخیرا نتایج تحقیقی را درباره‌ی فعالیت مغزی منتشر کردند که نشان می‌داد می‌توان با استفاده از امواج مغزی، گفتار را رمزگشایی کرد. همچنین، شرکت خودروساز نیسان سال ۲۰۱۸ فناوری «مغز به خودرو» را رونمایی کرد که ترجمه‌ی سیگنال‌های مغزی راننده را ممکن می‌ساخت. نیسان از گذشته، در حال استفاده از دانش عصب‌شناسی برای کنترل جنبه‌های ناخودآگاه تصمیم‌سازی مصرف‌کنندگان بوده است.

ایمپلنت مغزی نورالینک با خواندن ذهن افراد کاملا فلج، کنترل لوازمی همچون تلفن هوشمند یا خودرو برقی را ممکن می‌سازد

البته، اشتیاق افراد به امکان رمزگشایی از مغز دلایل درمانی و غیردرمانی دارد. برای مثال، آزمایش‌های بالینی شرکت ایلان ماسک بر بیماران کاملا فلجی متمرکز است که از ناحیه‌ی بالای ستون فقرات آسیب دیده‌اند. هدف نیز این است ازطریق مکانیزم کاشتنی به کاربران امکان کنترل مجازی هرنوع وسیله‌ای اعم از تلفن هوشمند یا خودرو برقی را بدهند؛ آن‌هم صرفا به‌کمک مغزشان. البته، این امکان برای افرادی با محدودیت‌های جسمی بسیار انقلابی خواهد بود.

هدف اصلی ایمپلنت مغزی نورالینک اتصال مغز انسان به هوش مصنوعی و هم‌گام‌شدن با آن است

برنامه‌های ماسک برای نورالینک تماما جنبه‌ی انسان‌دوستانه ندارد. وی معتقد است نهایتا تمام انسان‌ها از ایمپلنت وی برای هم‌گام‌شدن با هوش مصنوعی استفاده خواهند کرد. البته، آنچه فعلا و در کوتاه‌مدت شاهدش خواهیم بود، احتمالا دستگاه موج‌نگار مغزی مجهز به هوش مصنوعی برای مصرف‌کنندگان است که مثل دستگاه‌های سنجش تناسب‌اندام، غیرتهاجمی (بی‌نیاز از جراحی) و نسبتا ارزان خواهد بود که همین حالا هم در کشورهایی همچون چین و استرالیا در حال نصب است.

ماه آوریل، روزنامه‌ای چینی گزارش داد پروژه‌های نظارتی دولتی در حال اجرای فناوری ذهن‌خوان به‌منظور تشخیص تغییر حالات احساسی شاغلان در خطوط تولید و ارتش و ناوبری قطارهای سریع‌السیر هستند. همچنین، بنابر گزارش روزنامه‌ای استرالیایی، چندین شرکت حفاری معدن دستگاهی موسوم به SmartCap را به‌کار گرفته‌اند که شبیه کلاه بیسبال با دیواره‌ای از الکترودهای اسکن‌ مغزی است تا از عوارض منفی خستگی بر ایمنی و بهره‌وری کارکنان بکاهند. در برخی موارد، این آشکارسازها را به‌منظور افزایش ایمنی کارگران به‌کار برده‌اند. برای مثال، وسیله‌ی مذکور می‌تواند معدن‌کاران را از خطر مسمومیت با مونواکسیدکربن پیش از به‌وجود‌آمدن آسیب‌های مغزی آگاه کند یا درصورت مشاهده‌ی خواب‌آلودگی راننده‌ی قطار و کامیون به او پیغام توقف بفرستد.

پروفسور نیتا فراهانی، محقق برجسته در‌زمینه‌ی پیامدهای اخلاقی و حقوقی و اجتماعی فناوری‌های نوظهور، نوامبر گذشته در سخنرانی TED Talk هشدار داد درحال‌حاضر، مکانیزم حفاظتی دربرابر سوء‌استفاده‌های احتمالی از این داده‌ها وجود ندارد. وی می‌گوید:

اشتیاق اجتماعی شدیدی برای امکان گوش فرادادن به فعالیت‌های مغزی راننده‌ی کامیون یا خلبان وجود دارد؛ اما پیش‌از‌آن، نیازمند حریمی برای مراقبت ذهنی هستیم؛ همان چیزی که اساس مفهوم انسان‌بودنمان است. دولت‌ها قانون‌گذاری گسترده‌ای در حیطه‌ی حریم شخصی آغاز کرده‌اند؛ اما برخی از آن‌ها درصورتی اعمال می‌شوند که شرکت‌ها بتوانند این اطلاعات را ردیابی کنند. با وجود اینکه این‌ها نیز داده‌هایی همچون دیگر داده‌ها هستند، همچنان توجه خاص دولت‌ها بر داده‌های مغزی را نمی‌بینم. باید در این باره چاره‌ای بیندیشیم.

پروفسور فراهانی درباره‌ی سوءاستفاده از داده‌های مغزی مردم در نبود مکانیزم حفاظتی مناسب هشدار می‌دهد

فراهانی علاوه‌بر تدریس در دانشگاه Duke، به‌عنوان محقق ارشد آزمایشگاه SLAP نیز فعالیت می‌کند که محلی برای به‌چالش‌کشیدن علوم در پاسخ به پرسش‌های قانونی و خط‌مشی‌ها است. سال ۲۰۱۸، آزمایشگاه مذکور تحقیقی در آمریکا انجام داد تا مشخص کند مردم چقدر از حساس‌بودن اطلاعات مغزی آگاه هستند. این تحقیق نشان داد مردم فقط انواع خاصی از افکار را «اطلاعات مغزی حساس» می‌دانستند. فراهانی معتقد است اولین استفاده‌کنندگان داده‌های مغزی در آمریکا از میان صنایعی همچون بازی، سلامتی، هوانوردی، حمل‌و‌نقل و نورو‌مارکتینگ خواهند بود. حال به پیامدهای آن در کسب‌و‌کار فکر کنید. شرکت می‌تواند حداقل ازنظر تئوری، از این فناوری برای غربال داوطلبان مصاحبه‌های شغلی یا رصد بهره‌وری شغلی و حتی زیرنظرگرفتن افکار مخالف استفاده کند. فراهانی می‌گوید:

شرکت‌کنندگان حاضر در این تحقیق اطلاعاتی همچون شماره‌ی خدمات تأمین اجتماعی و مکالمات تلفنی را حساس‌ترین داده‌ها می‌دانستند. مردم هنوز به این دو موضوع پی نبرده‌اند که چه چیزهایی با فناوری مغزی امکان‌پذیر است و پیامدهای ناگوار دستیابی دیگران به آن چه خواهد بود.

البته، محدودیت‌های فنی درباره‌ی موج‌نگارهای مغزی (ElectroEncephaloGram) یا به‌اختصار EEG  وجود دارد که امکان رمزگشایی افکار پیچیده‌ی مغز را نامحتمل می‌کند. این الکترودها در سطح مغز فعالیت می‌کنند و نمی‌توانند به عمق مغز نفوذ کنند؛ جایی‌که غالب افکار پیچیده و خاطراتمان قرار دارند. حداقل ۱۵ سال با فناوری ذهن‌خوان حقیقی فاصله داریم که بتواند به‌معنای واقعی کلمه، افکار و احساساتمان را به‌صورتی غیرتهاجمی رمزگشایی کند. ناگفته نماند شاید هرگز هم به آن مرحله نرسیم.

محتمل‌ترین و عملی‌ترین راه داشتن ماشین رابط مغزی حقیقی ازطریق الکترودهای کاشتنی (روش تهاجمی و جراحی) است. در غیر این صورت، ازطریق فناوری غیرتهاجمی صرفا می‌توانیم بگوییم مثلا آیا افراد احساس موافق یا مخالف یا خنثی دارند، نگران تشنج عصبی هستند، به عکس خاص یا کلمه‌ای ساده یا مجموعه‌ای از اعداد فکر می‌کنند یا هنگام رانندگی خواب‌آلود هستند.

در‌حال‌حاضر، قوانین حفاظتی دربرابر جاسوسی سازمان‌های دولتی همچون سازمان امنیت ملی آمریکا یا جمع‌آوری و دادوستد داده‌های مغزی به‌وسیله‌ی شرکت‌ها وجود ندارد. در انتها، پروفسور فراهانی می‌گوید:

هراس من از توانایی انسان در هم‌گام‌شدن با هوش مصنوعی است. بی‌راه نیست اگر بشر را در آستانه‌ی انقلاب صنعتی جدیدی بدانیم. حضور بازیگران عمده‌ای همچون فیسبوک و ایلان ماسک که درزمینه‌ی جوامع تندرست سرمایه‌گذاری هنگفت می‌کنند، ما را در وضعیتی اضطراری قرار داده است. اگر می‌خواهیم برنده‌ی این رقابت‌ها باشیم و روش‌هایی برای حفاظت از مردم ایجاد کنیم، زمان آن همین حالا است.

اولین گام فیس بوک در مقوله‌ی خواندن افکار بشری

با توجه به سابقه‌ی فیسبوک در نقض حریم خصوصی کاربران، توسعه‌ی فناوری واسط مغز و کامپیوتر توسط این شرکت، نگرانی‌ها را در این حوزه افزایش داده است.

اگر هنوز بعد از رسوایی کمبریج آنالیتیکا، که جریمه‌ای 5 میلیارد دلاری برای فیسبوک در پی داشت و نیز دیگر موارد نقض حریم خصوصی  و موارد اخلاقی توسط این شرکت که تعدادشان سر به فلک کشیده، از شبکه‌ی اجتماعی فیس بوک استفاده می‌کنید، قائدتا نباید هیچ نگرانی اخلاقی نسبت‌به فناوری واسط مغز و کامپیوتر که نزدیک به دو سال است فیسبوک شروع‌به توسعه‌ی آن کرده، داشته باشید. به‌نظر می‌رسد اولین میوه از ثمره‌ی تلاش‌های فیسبوک، رسیده و آماده‌ی چیدن است.

یک رشته از تحقیقات در دانشگاه سان‌فرانسیسکو واقع در ایالت کالیفرنیا، تحت حمایت مالی و تحقیقاتی فیسبوک، منجر به ساخت رابطی با توانایی ترجمه‌ی سیگنال‌های مغزی به کلمات و گفت‌و‌گوها شده که نتایج آن در مؤسسه‌ی Nature Communication منتشر شده است. نرم‌افزار استفاده‌شده در این تحقیقات با تجزیه‌و‌تحلیل این سیگنال‌ها، بدون دسترسی به صدای مکالمات، قادر به تشخیص‌دادن کلمات شنیده‌شده و پاسخی است که نسبت‌به این کلمات داده می‌شود. این فرایند از فعالیت‌های الکتروکوکلئوگرافی (ECoG) حجیم، پاسخ شنیداری ساقه‌ی مغز، استفاده می‌کند که البته، نیاز به کاشت سنسورهایی در مغز دارد؛ در نتیجه، این احتمال که فیسبوک بدون موافقت اشخاص، اقدام‌‌به خواندن افکار آن‌ها کند، در کوتاه‌مدت منتفی است.

بیشتر بدانید:هوش مصنوعی فرشته نجات انسان ها نیست

تحقیقات منتشر شده‌ی آن‌ها، این نکته را به‌وضوح مشخص می‌سازد که فناوری، راهی دراز و طولانی پیش رو دارد تا بتواند سودی عملی و طبیعی داشته‌باشد. در بخشی از تحقیقات منتشرشده آمده‌ است:

در این تحقیق، ما در طی پروژه‌ای که پرسش‌و‌پاسخ‌های واقعی در مکالمات را تقلید می‌کرد، رمزگشایی بی‌درنگی را از گفتار درک‌شده و تولید‌شده از فعالیت الکتروکوکلئوگرافی حجیم در انسان‌ها، نشان دادیم. در حالی‌که این پروژه، هدف‌گذاری و زمان‌بندی روشنی را برای شرکت‌کنندگان ارائه می‌کند، جنبه‌های تعاملی و هدفمند چنین الگوی پرسش‌و‌پاسخی، نشان‌دهنده‌ی گامی بزرگ در جهت خیز نرم‌افزارها، به سمت طبیعی‌گرایانه‌تر شدن هرچه بیشتر است.

در حین ضبط فعالیت‌های ECoG، شرکت‌کنندگان در ابتدا به مجموعه سوالات از پیش ضبط‌شده گوش فرا داده و سپس مجموعه‌ای از پاسخ‌ها را به‌صورت شفاهی ارائه کردند. این داده‌ها به‌عنوان ورودی برای آموزش مدل‌های رمز‌گشایی و تشخیص گفتار ارائه می‌شوند. پس از فرایند‌ی آموزش، شرکت‌کنندگان در هر آزمایش با گوش‌دادن به سوالات، به انتخاب خود پاسخ‌هایی را با صدای بلند ارائه کردند. تنها با استفاده‌ از سیگنال‌های عصبی، ما تشخیص دادیم چه‌زمانی شرکت‌کنندگان در حال گوش‌دادن یا صحبت کردن هستند و ماهیت این سخنان را با استفاده از نوع صوتی الگوریتم ویتربی (الگوریتمی پویا برای پیدا‌کردن محتمل‌ترین مسیر از حالت‌های پنهان است)، پیش‌بینی کردیم.

از آن‌جایی که برخی از پاسخ‌ها تنها برای پرسش‌های معدودی معتبر هستند، به‌همین جهت ما با استفاده از سوالاتی که پیش‌بینی می‌شد پرسیده شوند، هر جواب ممکن را به‌صورت پویایی به‌روزرسانی کردیم، تا در نهایت پیش‌بینی‌های سؤال و جواب یکی شوند.

در‌اصل شرکت‌کنندگان، پاسخ‌هایی را در آن لحظه، برای سوالاتی از پیش تعیین‌شده ارائه می‌دادند و محققان از سیگنال‌های مغزی آن‌ها برای آموزش مدل‌هایی، جهت یادگیری هر آنچه شرکت‌کنندگان گفته یا شنیده‌ بودند، استفاده می‌کردند. نرم‌افزار به‌طور میانگین ۷۶ درصد از مواقع، سوالات مفروض را به‌درستی تشخیص داده‌ بود و میزان تشخیص پاسخ‌های شرکت‌کنندگان، در محدوده‌ای پایین‌تر از ۶۱ درصد قرار داشت. با توجه به سابقه‌ی فیسبوک، استفاده‌ی شرورانه از این فناوری از طرف این شرکت، به‌راحتی قابل نتیجه‌گیری است، اما خود این فناوری چشم‌انداز روشنی را برای ارتباط با افرادی می‌کند که دچار آسیب یا اختلالات عصبی هستند.

اگرچه نتایج این یافته باید به‌منظور دستیابی به موفقیت‌های جدید پزشکی و کمک به جامعه، مورد استفاده قرار گیرد؛ با‌توجه به سرمایه‌گذاری در این حوزه به‌واسطه‌ی شرکتی که می‌خواهد اقدامات آینده‌ی شما را پیش‌بینی کند و قبلا نیز سابقه‌ی این کار را داشته، نگرانی‌های موجود باید با شدت‌عمل بیشتری پیگیری شود. سؤال مهم این است که آیا این شرکت خواهد توانست، در آینده‌ی نزدیک ذهن افراد را بخواند؟ با توجه به قصد فیسبوک در متحول‌کردن اقتصاد جهانی با ارائه‌ی پلتفرم ارز مجازی خود، با نام لیبرا، و در نظر‌گرفتن مدت زمان لازم برای افزایش دقت ۶۱ درصدی این فناوری در تشخیص پاسخ‌ها، که از طریق کاشت حسگر در مغز حاصل شده و همه‌گیر نبودن آن، جواب این سؤال منفی است. با این حال تجربه ثابت کرده‌ است، در صورت مطرح‌ نشدن نگرانی‌های مربوط به این فناوری‌ها و نادیده‌گرفتن‌شان، مشکلات حریم‌خصوصی که این‌قبیل شرکت‌ها ایجاد می‌کنند، به طرز چشم‌گیری افزایش خواهد یافت.

آیا می‌خواهید سیگنال‌های مغزی شما، برای تبلیغات مورد استفاده قرار گیرد؟ فیسبوک از تکذیب این ادعا، که قصد استفاده از این فناوری را برای مصارف تبلیغاتی را دارد، سرباز زده‌ است. تبلیغات بسیار فریبنده بوده و مصرف‌کنندگان هیچ تمایلی به تعامل با آن‌ها ندارند، خواه با ظاهر شسته‌رفته‌ی جدید ترویج شوند، خواه در قالب برنامه‌ی سیاسی مشکوک. با این حال سود حاصل از صنعت تبلیغات در سال ۲۰۱۷ میلادی، به رقم چشم‌گیر ۱۰۵ میلیارد دلار رسیده‌ است. حال تصور کنید شرکت‌ها برای دستیابی به افکار واقعی، چه هزینه‌هایی که پرداخت نمی‌کنند؟!

قانون حفاظت از حریم خصوصی

البته فیسبوک اصرار دارد، API( رابط نرم‌افزاری) مغزی این شرکت، تنها افکاری را خواهد خواند، که شما مایل به اشتراک‌گذاری آن‌ها باشید. سخنگوی این شرکت، ها تای، در بیانیه‌ای این چنین اظهار داشت:

ما در حال ایجاد واسطی هستیم که به‌شما امکان خواهد داد، با سرعت و انعطاف‌پذیری صدا و میزانی از امنیت حریم خصوصی که در نوشته وجود دارد، ارتباط برقرار کنید. به‌طور خاص، این ارتباطات تنها شامل مواردی می‌شود که قبلا با ارسال آن‌ها به مرکز گفتار مغز خود، با به‌اشتراک‌گذاری آن‌ها موافقت کرده‌اید. حریم خصوصی در این سیستم همانند تمامی مواردی که فیسبوک در آن‌ها دست به تلاش برده، ایجاد خواهد شد.

دلایل این شک‌و‌تردید را کنار بگذارید. مواردی را که سعی کردید جلوی حرف‌زدن خود را بگیرید یا بعد از بیان حرفی، آرزو کردید تا به نوع دیگری این صحبت را انجام می‌دادید، در نظر بگیرید. به این فکر کنید که تمامی مکالمات شما در طول عمر، روی یک حافظه ضبط شده باشد. آیا می‌خواهید فیسبوک به این اطلاعات دسترسی داشته باشد؟ اصلا آیا می‌خواهید هر شخص دیگری به این اطلاعات دسترسی داشته باشد؟ اگر نمی‌خواهید، اکنون زمان مناسبی برای توجه بیشتر، نسبت به تحقیقاتی است‌که فیسبوک، مشغول انجام دادنشان است. زیرا با درنظرگرفتن تجربیات گذشته، می‌دانیم زمانی‌که دست روی دست می‌گذاریم، چه اتفاقی می‌افتد و دیده‌ایم که فیسبوک یا شرکت‌های مشابه، چگونه با استفاده از این فناوری‌ها، حریم خصوصی کاربران را مورد هجمه قرار می‌دهند.

 

گرداورنده:معین کرمی



+ 11
مخالفم - 8
نظرات : 0
منتشر نشده : 0

شما هم می توانید دیدگاه خود را ثبت کنید



کد امنیتی کد جدید

تمام حقوق مادی و معنوی این پایگاه محفوظ و متعلق به سایت تیتربرتر می باشد .
هرگونه کپی و نقل قول از مطالب سايت با ذكر منبع بلامانع است.

طراحی سایت خبری