این مقاله را با پرسیدن چند سوال شروع می کنم، آیا زندگی ما انسان ها به دلیل خطرات ناشی از پیشرفت تکنولوژی در معرض خطر است؟ اگر بله، چه عواقب منفی ممکن است وجود داشته باشد؟ اینترنت اشیا، عینکهای واقعیت مجازی، گردوغبار هوشمند و… آیا همیشه مفید هستند یا معایبی نیز دارند؟
خوب، ما به زودی خواهیم فهمید؛ چون در این مقاله با 8 فناوری خطرناک که ممکن است روی نحوه کار، بازی و زندگی ما در آینده به طور بالقوه تأثیر بگذارد، آشنا می شویم.
در دهه ۱۹۵۰، به نظر میرسید که تا سال ۲۰۲۱، همه ما با ماشینهای پرنده به ماه سفر خواهیم کرد. اما اکنون همچنان در حال زندگی و رفتوآمد با اتومبیل های معمولی هستیم. با این حال، پیشبینی مسیری که تکنولوژی در آن حرکت میکند؛ امروزه نسبت به سالهای گذشته آسانتر است و به همان اندازه که ما از اعتراف آن متنفریم، پیشرفت فناوری همیشه به نفع بشریت نیست ودر موارد خاص، برعکس آن صادق است.
تکنولوژیها به طور کلی به دلیل اثرات مختلفی که میتوانند داشته باشند، میتوانند خطرناک باشند. در ادامه با برخی از آن ها که ممکن است بیشترین خطر را در آینده برای بشریت به همراه داشته باشند آشنا میشویم:
1- رابط های مغز و کامپیوتر (Brain-Computer Interfaces.)
کنترل ماشینها با مغز انسان، ممکن است به نظر یک صحنه از یک فیلم علمی تخیلی بیاید، اما به دلیل رابطهای مغز-کامپیوتر (BCI)، این امر در حال تبدیل شدن به واقعیت است.
تکنولوژی BCI اجازه میدهد تا مغز انسان و یک دستگاه خارجی برای ارسال و دریافت سیگنال با یکدیگر ارتباط برقرار کنند . این امر به انسانها اجازه میدهد که به طور مستقیم ماشین ها را بدون محدودیت های فیزیکی کنترل کنند. به عنوان مثال، یک پروتز طراحی شده به شکل دست میتواند از این تکنولوژی برای برداشتن یک لیوان آب مشابه دست واقعی، استفاده کند. به طور مشابه، افراد ناشنوا و ناتوان در بیان که مایل به برقراری ارتباط با یکدیگر هستند، میتوانند این کار را با کمک دستگاههای ارتباطی کنترل شده توسط BCI انجام دهند.
به نظر می رسد این یک موقعیت برد- برد است. با این حال، هرچه مزایا بیشتر، آسیب های ناشی از آن نیز بیشتر است. مغز عضو پیچیدهای است. گاهی اوقات قادر به درک آنچه درون مغزمان می گذرد، نیستیم. بنابراین انتظار داشتن از یک BCI برای تفسیر درست همه پالس های مغزی، اصلاً منصفانه نیست. این مسائل ممکن است به نظر بی اهمیت بیایند، اما احتمالات نشان میدهد که باید آن ها را پیچیدهتر و ترسناکتر در نظر گرفت.
2- چاپگر سهبعدی (3D Printing.)
زمانی که پرینت سه بعدی برای اولین بار در دهههای پیش رایج شد، تصور میشد که فناوری فریبنده ولی ضعیف و کم کاربرد است. گاهی از آن برای طراحی و نمونهسازی استفاده میشد، اما هرگز به عنوان یک راهحل قابل قبول و قابل اجرا برای کارخانههای تولیدی در نظر گرفته نمیشد.
با این حال، در 10 سال گذشته، این فناوری رونق گرفت و سرمایهگذاری قابل توجهی از سوی چندین تولیدکننده برجسته جهانی روی آن انجام شد.
پس چگونه میتواند یک فناوری خطرناک باشد اگر اکنون به عنوان آینده تولید مورد توجه قرار گیرد؟
شاید در امور پزشکی پرینترهای سه بعدی کارساز باشند اما به گفته محققان دانشگاه فناوری ایلینوی، چاپگرهای سهبعدی ممکن است در صورت استفاده در منزل، خطر جدی برای سلامتی ایجاد کنند. گازهای خروجی چاپگرهای سهبعدی مشابه با گازهایی است که توسط سیگار کشیدن یا پختن غذا روی گاز یا اجاق برقی تولید میشود.
گزارش شده است که در حین گرم کردن پلاستیک و چاپ اشکال کوچک، دستگاههای استفاده کننده از فیلامنت PLA هر دقیقه 20 میلیارد ذرات فوقریز و ABS تا 200 میلیارد ذرات در دقیقه تولید می کند. اگر به طور منظم از این گازها استنشاق شود، این ذرات میتوانند در ریهها یا جریان خون ته نشین شده و خطری جدی برای سلامتی به ویژه برای افراد مبتلا به آسم ایجاد کنند.
3- تشخیص چهره (Facial Recognition.)
تشخیص چهره یک موضوع مهم است و گاهی به عنوان یک توسعه خطرناک در سرمایهگذاری نظارتی موردنظر قرار میگیرد. مردم عادی از این وقایا مطلع نیستند و حتی ممکن است تحت تعفیب قرار گیرند.
آنها همچنین نمی دانند که از تصاویرشان چگونه استفاده میشود. به عنوان مثال، هنگام ورود به اکثر فروشگاهها، دوربین امنیتی برای جلوگیری از دزدی وجود دارد. با این حال، این دوربین ممکن است کارهای بسیار بیشتری از جلوگیری از دزدی انجام دهد. ممکن است چهره شما را در پایگاههای داده دیگری استفاده کنند تا فروشگاه بتواند به جای شما بازاریابی کند و یک پروفایل از شما ایجاد کند که فعالیتهایی به جای شما انجام دهند. این نه تنها حریم خصوصی شما را تهدید میکند، بلکه امنیت زندگی شما را نیز به خطر میاندازد.
نحوه کار این دستگاه ها برای تشخیص افراد سفید پوست کالیبره شده است. در نتیجه، افراد رنگین پوست، به ویژه زنان، به طور بسیار زیادی به اشتباه شناسایی میشوند، که این اشتباه, احتمال خطا در تشخیص مجرمین و جنایتکاران را افزایش می دهد.
4- گرد و غبار هوشمند (Smart Dust.)
دنیایی را تصور کنید که توسط هزاران ربات کوچک احاطه شده و هر حرکتی را که انجام می دهید ردیابی می شود. خوب،Smart Dust این تصور را به واقعیت تبدیل میکند.
گرد و غبار هوشمند؛ حسگرها، رباتها و یا گجتهایی هستند که اندازه آنها تنها چند میلیمتر است و میتوانند حالتهایی مانند تغییر نور، صدا، حرکت، مغناطیس، مواد شیمیایی و/یا دما را تشخیص دهند و میتوانند اطلاعات را به صورت مستقل از طریق یک شبکه بیسیم ارتباطی انتقال دهند. بنابراین، پس از اجرا، گرد و غبار هوشمند میتواند به عنوان چشم و گوش دولتمردان عمل کند. با این حال، مشکل از اینجا شروع می شود.
گرد و غبار هوشمند حتی میتواند کوچکترین تغییرات را نیز تشخیص دهد که حتی تصور آن غر قابل باور است. از آنجایی که این فناوری جدید بسیار کوچک است و همه چیز را ثبت می کند، مردم می ترسند که دولت ها جاسوسی آنها را کنند. و چه بسا که حملات سایبری بدون دردسر شکل بگیرد. بدون شک حفظ حریم خصوصی موضوعی بحث برانگیز در سال های آینده خواهد بود و Smart Dust در مرکز آن قرار دارد.
5- واقعیت افزوده: Augmented Reality (AR).
تلفن های هوشمند همیشه حواس ما را را پرت می کنند، بنابراین ما نباید در حال پیامرسانی یا مرور وب باشیم آنهم در حالی که در خیابان شلوغ قدم میزنیم یا رانندگی میکنیم. این یک مشکل بزرگ است زمانی که ما نیاز به پاسخ دادن به یک پیام یا تماس مهم را داریم. خب، واقعیت افزوده ممکن است بتواند این مشکل را حل کند. به نظر میرسد این فناوری مشابه اینترنت اشیا باشد که این امکان را میدهد تا با ارائه اطلاعات متنی بهصورت شفاف، در محیط حرکت کنید و پیامهایتان را رد و بدل کنید.
درست است؛ چی بهتر از این! اما باید آگاه باشید که علاوه بر این مزایا، AR ها بیخطر نیستند.
ظهور اینترنت و به دنبال آن ظهور رسانه های اجتماعی، منجر به افزایش تصاعدی در ایجاد و اشتراک گذاری اطلاعات شده است. توسط AR مردم میتوانند به مقادیر زیادی از اطلاعات از منابع مختلف دسترسی پیدا کنند، هم با پیشرفت گسترده فناوری های تلفن همراه و هم با فناوریهای جدید مانند عینکهای هوشمند واقعیت افزوده؛ دسترسی به اطلاعات آسانتر شده است. با این حال، این بارش اطلاعات میتواند منجر به استرس، تردید و عدم تصمیم گیری بشود.علاوه بر این، روشهای طراحی و تولید نامناسب عینکها و لنزهای واقعیت افزوده ممکن است منجر به اختلال در ادراک و نیز تاثیر مخرب در بینایی و نورون های عصبی فرد بگذارد. این عوارض منجر به تولد نوزادانی کندذهن و اغلب با چشمانی ضعیف می شود.
6- پهپادها: Drone Swarms.
پهپادها پتانسیل های زیادی دارند، اما ممکن است در پی خود تهدیدات جدی نیز داشته باشند. این تهدیدها ممکن است قابلیتهای دفاعی پیشرفته، مانند آنچه که توسط ارتش ایالات متحده استفاده میشود، را به چالش بکشد. یک مورد دیگر اینست که انبوه پهپادها می توانند هدف را با تعداد زیادی ابزار کوچک و تسلیحات سریع و متحرک در هم بکوبند. پهبادها الهام گرفته از حشرات ساخته شده اند، و میتوانند در بحرانهای جنگی انقلاب بپا کنند، چه با غلبه بر دشمن و چه با پوشش موثر در منطقه ای وسیع برای ماموریت های جستجو و نجات.
پهبادها ارزان، سریع، غیرقابل پیشبینی و قابل استقرار در تعداد زیادی در برابر یک هدف هستند. با این حال، جدا از همه مزایای مثبت، ازدحام پهپادها میتواند به سلاح های کشتار جمعی و ابزار جاسوسی تبدیل شوند.
7- دیپ فیک. Deepfakes.
قابلیت دوربین ها به طور فزاینده ای پیچیده شده اند. کاربران می توانند در ویدیوهای خود پاها را دراز کنند، جوش ها را از بین ببرند، گوش حیوانات را تغییر دهند و اکنون، حتی می توانند ویدیوهایی تولید کنند که بسیار واقعی به نظر می رسد. فناوری مورد استفاده برای ایجاد چنین محتوای دیجیتالی به سرعت در دسترس عموم قرار گرفته است و به آنها ‘دیپ فیک’ می گویند.
کلمه دیپ فیک ترکیبی از اصطلاحات deep learning” and “fake, به معنی «یادگیری عمیق» و «جعلی» است و به نوعی هوش مصنوعی می باشد. به بیان ساده، دیپ فیک ها ویدئوهایی هستند که با استفاده از هوش مصنوعی ساخته شده اند. جالب به نظر می رسد، اما این فناوری بسیار گمراه کننده است. مخصوصاً برای لکه دار کردن شهرت یک نامزد سیاسی و یا بالعکس. این سلاح جدید مختص افرادی است که می خواهند از اطلاعات نادرست برای تحت تأثیر قرار دادن مردم در عملکرد دولت ها و یا حتی بدتر از آن استفاده کنند.
8- هوش مصنوعی (AI). Artificial Intelligence (AI).
سالها تصور میشد که رایانهها هرگز قدرتمندتر از مغز انسان نخواهند بود، اما با پیشرفت فناوری در سالهای اخیر، ثابت شده است که این تصور اشتباه است. هوش مصنوعی به عنوان یک مفهوم به یک سخت افزار محاسباتی اشاره دارد که میتواند اساساً خودش فکر کند و بر اساس داده هایی که دریافت می کند، تصمیم بگیرد.
در خصوص هوش مصنوعی نگرانی ها بسیار جزئی هستند. خطر واقعی زمانی پدیدار میشود که یک هوش مصنوعی طراحی شده به قدرت بازنگری و ارتقاء خود دست یابد. هر هوش مصنوعی که بتواند خود را بهبود بخشد احتمالاً روزی بر محدودیت های هوش انسانی غلبه خواهد کرد. در برخی موارد، هوش مصنوعی ممکن است اصول علت و منطق را که بسیار فراتر از درک ذهن انسان کشف کند و قابلیت های خود را تا بی نهایت گسترش دهد.به طور خلاصه، در حالی که پیشرفت فناوری هوش مصنوعی وعدههای بزرگی برای بهبود زندگیهای ما دارد، همچنین ریسکهای قابل توجهی را نیز با خود به همراه دارد که باید با دقت مدیریت شود. این ضروری است که به توسعه هوش مصنوعی با احتیاط و پیشبینی نگریسته شود تا اطمینان حاصل شود که همواره یک نیروی موثر در جهان باقی مانده است.
نتیجه گیری: پیشرفت تکنولوژی از یک سو بهبود زندگی انسانها را فراهم میکند، اما از سوی دیگر میتواند عواقب منفی نیز داشته باشد. برخی از عواقب پیشرفت تکنولوژی عبارتند از:
- افزایش بیکاری: با پیشرفت تکنولوژی و استفاده از رباتها و هوش مصنوعی، در بسیاری از مشاغل جایگزین نیروی انسانی میشوند و این موجب افزایش بیکاری میشود.
- ایجاد تفاوتهای اجتماعی: عدم دسترسی برخی افراد به فناوریهای پیشرفته، باعث عقب ماندن آنها از توسعه علم می شود.
- افزایش وابستگی به فناوری: وابستگی افراد به گوشیهای هوشمند و اینترنت بیش از قبل می شود.
- تهدید امنیت: پیشرفت تکنولوژی میتواند به افزایش تهدیدات امنیتی، هکرها و سرقت اطلاعات منجر شود.
- تغییرات در روابط انسانی: استفاده از فناوریهای ارتباطی میتواند منجر به کاهش تعاملات انسانی و افزایش ایزولاسیون اجتماعی شود.
- افزایش برخی معضلات سلامتی: افزایش تنبلی چشم، دوبینی، چاقی ناشی از عدم فعالیت فیزیکی
- افزایش آلودگی های زیست محیطی: افزایش زباله های الکترونیکی، شیمیایی، پلاستیکی، فلزی و غیره ناشی از توسعه علم خواهند بود.
به طور کلی، پیشرفت تکنولوژی همزمان با مزایا و معایبی همراه است و نیاز به مدیریت مناسب برای کنترل عواقب منفی آن دارد. هر تکنولوژی اگر به طور نادرست استفاده شود یا اگر نظارت و کنترل مناسبی بر روی آن وجود نداشته باشد، میتواند خطرناک باشد.
مقاله فوق برگرفته از لینک زیر و به صورت خلاصه همراه با تغییر تنظیم شده است.
https://www.linkedin.com/pulse/10-most-dangerous-technologies-future-jordon/