آژانس امنیت ملی آمریکا و ارسال توییت های رمزنگاری شده برای ارتباط با جاسوس روسی

آژانس های جاسوسی تاریخچه ای طولانی در استفاده از روش های عمومی برای ارسال پیام های مخفیانه دارند و در عصر اینترنت نیز، این آژانس ها خود را با روش های نوین تطبیق داده اند. نشریه نیویورک تایمز اخیراً در گزارشی آورده که آژانس امنیت ملی آمریکا از پلتفرم توییتر برای ارسال «نزدیک به دوجین» توییت رمزگذاری شده به یک رابط روسی استفاده کرده که مدعی است به اطلاعات ربوده شده توسط هکرهای «شدو بروکرز» دسترسی داشته.

در بخشی از این گزارش آمده که آژانس امنیت ملی آمریکا، از رابط روسی خواسته تا منتظر توییت هایی خاص، پیش از اینکه منتشر شوند باشد تا به وی درباره موضوعی خاص سیگنال داده یا نشان دهد که برای مذاکره آماده است. این توییت ها در تمام سال 2017 منتشر شده اند.

گفته می شود پیغام مخفی آژانس امنیت ملی، در توییت هایی به ظاهر معمولی نهفته شده که به مسائل رایج این سازمان یا انتشار یک حقیقت تاریخی می پردازند؛ اما مشخص نیست که این توییت ها چطور تنها برای ارتباط با یک رابط روسی ساخته شده اند یا چه تفاوتی با توییت های معمولی دارند.

با این همه به نظر می رسد ارتباطات صورت گرفته از طریق شبکه اجتماعی توییتر آنقدرها موفقیت آمیز نبوده. آژانس امنیت ملی بالغ بر 100 هزار دلار به هکر روسی پرداخته تا اطلاعات شدو بروکرز را مجدداً جمع آوری کند، اما هنگامی که وی مدعی شده به اطلاعاتی درباره ارتباط دونالد ترامپ با سازمان های روسی دسترسی دارد، معامله به هم خورده است. آژانس امنیت ملی حالا نگران است که تمام این ماجرا، تلاش دولت روسیه برای به آشوب کشیدن دولت فعلی آمریکا بوده باشد.

در حال حاضر مشخص نیست که این شیوه برقراری ارتباط، تا چه حد در شبکه های اجتماعی دیگر و نیز میان آژانس های مشابه فراگیر است. با این حال جای تعجب نخواهد داشت اگر این روش به صورت گسترده در حال استفاده باشد و به نظر راهی امن و منطقی برای برقراری ارتباط با اشخاصی خاص به نظر می رسد؛ البته اگر مثل موارد این چینی، خبر آن فاش نشود.

کسب جایگاه آخر توسط سیری در رقابت دستیارهای صوتی هوشمند

شاید سیری نسبت به دیگر دستیارهای صوتی هوشمند همچون گوگل اسیستانت، آلکسا و کورتانا از قدمت بیشتری برخوردار باشد، اما به نظر می رسد دست کم در عرصه اسپیکرهای هوشمند از بقیه رقبا عقب افتاده است.

تازه یکی دو روز از آغاز عرضه اسپیکر هوشمند هوم پاد اپل می گذرد و علاقه مندان به سرعت دست به کار بررسی و مقایسه این محصول با رقبای قدرتمندش از گوگل و آمازون شده اند. گرچه نخسین بازخوردها حاکی از کیفیت بالای محصول و صدای خروجی آن است، اما بررسی های مقایسه ای کمپانی «Loup Ventures» نشان می دهد که از جهت توانمندی دستیارهای صوتی هنوز جای کار بسیاری وجود برای سیری وجود دارد.

در بررسی مورد اشاره حدود ۷۸۲ سوال مختلف از دستیارهای صوتی هوشمند الکسا، کورتانا، گوگل اسیستانت و سیری پرسیده شده که در این میان محصول اپل تنها موفق به ارائه پاسخ مناسب برای حدود ۵۲.۳ درصد از این سوالات شده و بدین ترتیب رتبه آخر را در مقایسه مذکور به دست آورده است.

مقایسه دستیارهای صوتی هوشمند سیری

عملکرد دستیار صوتی هوشمند مایکروسافت نیز چندان بهتر نبوده و کورتانا تنها به ۵۷ درصد از این سوالات پاسخ صحیح داده است. جایگاه دوم نیز به دستیار محبوب اسپیکرهای هوشمند اکو، الکسا می رسد که قادر بوده پاسخی مناسب برای حدود ۶۴ درصد از سوالات ارائه نماید.

وضعیت گوگل اسیستانت اما کاملاً متفاوت است. تلاش های طولانی مدت مهندسان گوگل و داده های عظیم جمع آوری شده توسط موتور جستجوی این کمپانی سبب شده تا اسپیکر Google Home بتواند تا ۸۱ درصد درخواست ها را به درستی جواب دهد.

البته تحلیلگر کمپانی Loup Ventures معتقد است که بخش عمده ای از ضعف سیری مربوط به محدودیت های اسپیکر هوم پاد است، چرا که امکان مدیریت برخی کارها از جمله مسیریابی، مدیریت تقویم، ایمیل ها و برقراری تماس از این طریق وجود ندارد و سیری ناچار است در پاسخ اعلام کند که از انجام چنین کارهایی روی HomePodمعذور است. اگر این قبیل سوالات را از بررسی انجام گرفته حذف نماییم دقت سیری تا ۶۷ درصد افزایش می یابد و تا رتبه دوم بالا می رود.

مقایسه دستیارهای صوتی هوشمند سیری

کارشناس کمپانی مورد بحث در این باره می گوید که سیری بیش از ۹۹ درصد سوالات را درک می کند، اما تمرکز خاص اسپیکر هوشمند اپل روی پخش موسیقی سبب شده سیری از پاسخگویی مناسب به بسیاری از این درخواست ها عاجز بماند. ضمن این که قدرت شنوندگی محصول اپل از دیگر رقبای دیگرش بالاتر بوده و مکالمه با آن حالت انسانی تری نسبت به بقیه دارد.

بر طبق برآوردها در سال جاری هوم پاد اپل در نهایت قادر خواهد بود سهمی ۱۲ درصدی از بازار را به خود اختصاص دهد، در حالی که اکوهای آمازون با ۵۲ و گوگل هوم با ۳۲ درصد سهم حاکمان اصلی بازار بلندگوهای هوشمند خواهند بود.

چگونه به صورت نامحسوس از استوری ها اسکرین شات بگیریم؟

همانطور که می دانید، اینستاگرام در جدیدترین به روزرسانی های خود کسانی که از استوری دیگران اسکرین شات می گیرند را با اقدامی جالب تنبیه می کند. حالا اگر یک استوری بگذارید و کسی از آن اسکرین شات بگیرد، اینستاگرام در صفحه مخصوص استوری ها شما را در جریان این موضوع قرار می دهد.

اینستاگرام این کار را هم با قرار دادن یک آیکون ستاره شکل در کنار نام کاربری افراد انجام می دهد. پس اگر از این به بعد در کنار نام افرادی که استوری تان را مشاهده کردند یک آیکون ستاره شکل دیدید، تعجب نکنید. دیگر ریش و قیچی به دست خودتان است و می توانید با فردی که از استوری تان اسکرین شات گرفته هر طور که می خواهید برخورد کنید.

اما جالب اینجاست که هنوز هم می توان بدون شناسایی شدن از استوری دیگران اسکرین شات گرفت. یکی از ساده ترین راه ها هم فعال کردن حالت پرواز تلفن هوشمند است. فقط کافیست که بگذارید استوری نمایش داده شود و سپس موبایل خود را به حالت پرواز ببرید. آن وقت حتی اگر چند اسکرین شات هم از یک استوری بگیرید، اینستاگرام قادر به شناسایی شما نخواهد بود.

البته با دانلود استوری ها از وبسایت اینستاگرام هم می توان این قضیه را دور زد و از استوری افراد مختلف یک نسخه هم برای خود برداشت. اما یک راه ساده تر هم برایتان داریم که شاید تا کنون کسی به آن اشاره نکرده باشد. به خاطر دارید که چندی پیش در دیجیاتو از اپلیکیشن جالبی به نام fooView برایتان گفتیم؟

خب اگر آن را روی موبایل تان نصب داشته باشید، باید بگوییم که خیلی بی دردسر و همچنین راحت می توانید اینستاگرام را دور بزنید و بدون اینکه شناسایی شوید از استوری دیگران فیلم یا اسکرین شات بگیرید. fooView یک دستیار هوشمند است که از پس خیلی کارها بر می آید که اسکرین شات گرفتن هم جزوی از آن هاست.

نحوه استفاده از آن نیز خیلی شبیه به کار کردن با قلم موبایل های نوت سامسونگ است و شاید اصلا بتوانیم بگوییم که اسکرین شات گرفتن را هم تقریبا از آن ها یاد گرفته. با بیرون کشیدن این دستیار هوشمند از کنار صفحه، fooView کار کادر بندی برای دریافت اسکرین شات از صفحه را آغاز می کند.

از این رو می توانید فقط از آن بخش استوری که می خواهید، اسکرین شات بگیرید. اما اگر تمایل به دریافت اسکرین شاتی تمام صفحه دارید، خیلی راحت با بردن دستیار fooView به گوشه صفحه به این امکان نیز دسترسی پیدا کنید. فقط کافیست برای چند لحظه کوتاه دستیار fooView را در کنار صفحه نگه دارید تا دور پنجره استوری مورد نظرتان قرمز شود.

حال با رها کردن دستیار fooView این رنگ قرمز به زرد تغییر پیدا می کند و امکان ذخیره سازی اسکرین شات دریافت شده برایتان فراهم می شود. این روش شاید یکی از ساده ترین راه هایی باشد که می توان به صورت نامحسوس از استوری دیگران اسکرین شات گرفت. اما شما چه راه هایی را برای گرفتن اسکرین شات از استوری ها پیشنهاد می دهید؟ آن ها را با ما در میان بگذارید.

انقلاب هوش مصنوعی و آینده؛ تهدید واقعی کجاست؟

دیگر تردیدی وجود ندارد که عصر انقلابی فناوری هوش مصنوعی آغاز شده و در همین مدت چنان ابعاد و کاربردهایش گسترش یافته که نمی توان در مورد عمق نفوذ آن و قابلیت هایش در یک دهه آینده و بعدتر از آن با قاطعیت اظهار نظر کرد.

هوش مصنوعی می تواند کیفیت زندگی ما را به شکل شگفت انگیزی بهبود ببخشد و کمک کند تا درک تازه ای از ناشناخته های عالم هستی به دست بیاوریم. اما از دیگر سو بسیاری از چهره های مطرح عرصه تکنولوژی نگران رهاسازی این فناوری و گسترش بی محابای آن هستند.

خیزش ماشین ها؛ مسئله این نیستساندار پیچای مدیرعامل خوش فکر کمپانی گوگل اخیراً در یک مصاحبه هوش مصنوعی را به «آتش» تشبیه کرده بود. یعنی چیزی که هم می تواند بسیار مخرب و خطرناک باشد و هم تصور ادامه زندگی بدون آن واقعاً دشوار است. بشریت ریسک استفاده از آتش را پذیرفت و در کنار بهره مندی از مزایایش تاوان آن را نیز داد. آما آیا بالاخره روزی آتش هوش مصنوعی نیز دامان بشریت را خواهد گرفت؟

پیش از آن که به سراغ هر حرفی برویم باید مشخص کنیم که منظور پیچای از تشبیه فناوری هوش مصنوعی به آتش هیچ ارتباطی با یک پایان غم انگیز آخر الزمانی که در آنها ماشین ها به هوش مطلق رسیده، بر علیه انسان ها قیام کرده و آنها را به بردگی می گیرند نمی شود.

آینده فناوری هوش مصنوعی

مسئله اصلی این است که اصولاً تکیه زیاد و وابسته سازی بیش از حد زندگی انسان به یک فناوری -که هنوز همه جنبه های آن به خوبی شناخته نشده- می تواند یک ریسک و تهدید به حساب بیاید. این دیدگاه فارغ از فرضی است که در آن امکان دستیابی یک ماشین به خودآگاهی با کمک هوش مصنوعی وجود دارد.

ماشین های امروزی می توانند هزاران برابر سریع تر از ما حجم بسیار عظیمی از داده ها را تحلیل و رفتار خود را برای افزایش کارایی در یادگیری و وفق یافت با شرایط جدید تغییر دهند. از این منظر باید گفت که جنبه انسانی کامپیوترها در تطابق پذیری بیشتر از ماست. نگران کننده تر آن که این جنبه هر میزان که بارزتر و توسعه یافته تر بشود، توان انسان برای درک ساز و کار تصمیم گیری ماشین ها کاهش می یابد و ممکن است روزی برسد که ما دیگر قادر به پیش بینی و نظارت بر نتایج خروجی از تحلیل داده ها توسط رایانه ها نباشیم.پیشرفت پر شتاب یادگیری ماشین که منجر به افزایش مهارت های یک هوش مصنوعی به صورت تصاعدی می شود، در نهایت منجر به تولید کامپیوترهایی خواهد شد که قابلیت هایی کاملاً فراتر از انسان ها دارند.

ساندار پیچای مدیر عامل گوگل هوش مصنوعی

ساندار پیچای مدیر عامل گوگل:

«هوش مصنوعی یکی از مهمترین چیز هایی است که انسان در حال حاضر روی آن کار می کند. اهمیت آن از کشف آتش یا الکتریسیته نیز بالاتر است. هوش مصنوعی ظرفیت آن را دارد که بزرگترین پیشرفت های ممکن را برای ما رقم بزند... اما ما می بایست بر جنبه های منفی آن نیز فائق بیاییم.»

همان طور که پیش تر گفتیم عده زیادی نگران بیش از حد هوشمند شدن ماشین ها و شورش احتمالی آنها بر علیه خودمان هستند، اما تهدیدی حتمی تر و نزدیک تر نیز وجود دارد. این که هوش مصنوعی حتی اگر مطیع و رام باقی بماند، باز هم اسلحه ای قدرتمند خواهد بود که در دست های نا اهلان می تواند خسارت هایی بزرگ را به بار بیاورد.

یکی از اصلی ترین مولفه های قدرت در آینده امکان تحلیل موثر و سریع ابر داده هاست. کاری که هوش مصنوعی و یادگیری ماشین هر روز در آن خبره تر می شوند. بدین سان دولت ها می توانند کنترل و نظارت خود روی شهروندانشان را افزایش داده و به شکل موثرتری به محدود سازی حریم های خصوصی اقدام نمایند. افکار سنجی و تحلیل و پیش بینی رویکردهای سیاسی و هدایت افکار عمومی دیگر جنبه هایی است که می بایست از بابت آنها نگران بود.

کمپانی های بزرگ می توانند تحقیقات خود را هدفمندتر کرده و ریسک تجاری را پایین تر بیاورند. به طور حتم همین ابزار نیز می تواند روزی در اختیار جنایتکاران و تروریست ها قرار بگیرد.

آینده فناوری هوش مصنوعی

نتیجه این که نگرانی از پیشرفت سریع هوش مصنوعی بیشتر از آن که ناشی از خطر بالقوه ماشین های فوق پیشرفته باشد، ناشی از قدرتی است که این ماشین ها در کنترل انسان ها ایجاد می کنند. این دقیقاً همان هشداری است که افرادی چون استیفن هاوکینگ و ایلان ماسک مدت هاست آن را مطرح ساخته اند.

نتایج می تواند توسط برخی خطاها که در عمق ذهن مصنوعی ماشین های هوشمند -به صورت تصادفی یا ناشی از داده های ورودی غلط- وجود دارد دستخوش تغییر شوند. یافتن چنین خطاهایی با پیچیده تر شدن الگوریتم های تحلیلی دشوارتر و در نهایت نا ممکن خواهد شد. تکیه مطلق روی این چنین نتایج نامطمئنی می تواند عواقب ناگواری به دنبال داشته باشد.یکی دیگر از خطراتی که وابستگی بیش از حد به فناوری یادگیری ماشین می تواند به دنبال داشته باشد مربوط به نحوه نتیجه گیری ها است. هرقدر که نقش انسان در تولید داده های خروجی یا تصمیم سازی ماشین های بهره مند از هوش مصنوعی کاهش یابد، پیش بینی و یافتن عیب های احتمالی نیز دشوارتر می شود.

این تازه در صورتی است که احتمال بسیار قویِ دستکاری عمدی الگوریتم های یادگیری ماشین به جهت خرابکاری یا نیل به اهداف خاص را در نظر نگیریم. سامانه هوشمند مدیریت ترافیک شهری را در نظر بگیرید که در اختیار مجموعه ای از الگوریتم های معیوب یا دستکاری شده باشد.

اینجا با دوگانه ای مواجه هستیم که حفظ تعادل میان دو قطب آن ناممکن و یا واقعاً دشوار است. این که ماشین ها برای هوشمندتر شدن نیاز به پیچیده تر شدن دارند و از آن طرف هوش مصنوعی پیچیده تر به معنی کاهش قابلیت رصد شدن است.

مخلوقی که همچون خالقش فکر می کند

علی رغم همه نگرانی هایی که به آنها اشاره شد، مدیر عامل گوگل تا حدود زیادی اطمینان دارد که انسان در نهایت قادر خواهد بود با کمترین خسارت از مزایای متعدد فناوری مورد بحث در بهبود زندگی خود استفاده کند. از دیدگاه او شاید در مواردی چون حل معضل تغییرات آب و هوایی هیچ راه حل دیگری جز هوش مصنوعی در پیش روی ما وجود نداشته باشد.

آینده فناوری هوش مصنوعی

او در عین حال روی اهمیت رسیدن به یک توافق عمومی بر سر مشکلاتی که انسان ها می بایست در حل آنها از این تکنولوژی استفاده کنند تاکید دارد. چنین بینشی کاملاً شرافتمندانه است، اما در واقع نقش نفوذ میل و گرایش های درونی انسان ها را در نظر نمی گیرد.

نکته اساسی اینجاست که فناوری یادگیری ماشین هرقدر هم که پیشرفته باشد، باز هم بر پایه داده هایی شکل خواهد گرفت که ما انسان ها در اختیارش قرار می دهیم. مفاهیمی مانند «درست و غلط» یا «هنجار و ناهنجار» تا حدود زیادی برگرفته از دیدگاه ها و جهان بینی ما انسان ها هستند.

نتیجه این که به نظر می رسد ماشین های آینده نیز همانند انسان ها خروجی های متفاوتی را بر اساس داده های یکسان ارائه دهند. افزایش دیدگاه های مختلف خود منجر به پیچیده تر شدن روندها خواهد شد و دنیای ما همین حالا و بدون عقل های مصنوعی نیز از این جهت پیچیده هست.بنابراین ماشین های هوشمند آینده مخلوقاتی خواهند بود که در کنار حقایق علمی، منعکس کننده باورهای خالقین خود نیز خواهند بود. تفاوت میان انسان ها فقط منجر به تفاوت در گزاره های اولیه ذهنی نمی شود، بلکه می تواند روش های حل مسئله نیز دچار تشتت و چند دستگی نماید.

ما قرار است چطور در مقابل تحلیل ها یا تصمیم های صادر شده از هوش مصنوعی واکنش نشان دهیم، اگر که آنها با باورهای اخلاقی و اجتماعی خود در تناقض ببینیم؟ این شاید مهمترین چالش پیش روی ماست که می بایست قبل از سپردن آینده دنیای خود به دست رایانه های فوق هوشمند به آن پاسخ دهیم.

شاید چنین بحث هایی در حوزه درمان سرطان یا بهبود عملکرد سفینه های فضایی هرگز مطرح نشود، اما وقتی بحث به حوزه رفع مشکلات و معضلات جهانی و به خصوص چالش هایی که جوامع انسانی به صورت مستقیم در آنها دخیل هستند برسد، سوال ها شروع به مطرح شدن می کنند.

فناروی هوش مصنوعی

اینجاست که پای بحث های عمیق تری چون فلسفه، ایدئولوژی و مذهب نیز به میان خواهد آمد. سوالاتی اساسی وجود دارند که پیش از پرورش عقل های دیجیتالی می بایست به آنها پاسخ دهیم، وگرنه ظهور ایدئولوژی های جدید و حتی مذاهب تازه دیجیتالی منجر به حل هیچ مشکلی نخواهد شد.

آتشی که می سوزد یا آتشی که می سازد؟

در کتاب ادیسه هومر جمله ای جالب وجود دارد که بی ارتباط با وضع فعلی و آینده فناوری هوش مصنوعی نیست. هومر می نویسد: «ذات شمشیر خود تحریک کننده اعمال خشونت آمیز است.»

وقتی به ظاهر مسئله نگاه کنیم، یادگیری ماشین و هوش مصنوعی پتانسیلی فوق العاده برای بهبود شرایط زندگی ما و حل بسیاری از معضلات بزرگ حیات بشری دارد. البته قرار گرفتن آن در دست افراد ناشایست می تواند منجر به بروز مشکلات حتی بزرگتر و پیچیده تر گردد.

اگر یک لایه پایین تر رویم، قدرت ابر داده ها و افزایش نفوذ هوش مصنوعی به عنوان ذهنی که نمی توان به تصمیمات و داده های آن با اطمینان نگاه کرد، خود می تواند منجر به بروز چالش های جدید در حوزه هایی مثل اقتصاد، سیاست و اخلاقیات شود.

آینده فناوری هوش مصنوعی

اگر کمی منطقی باشیم، نباید نگرانی چندانی از بابت ظهور ربات های نابودگر به دل راه دهیم. بلکه به مانند تمام قرن های گذشته، بیش از هر چیزی باید از تمایلات ذهنی انسان ها و قدرت تخریبگر تفاوت ها بترسیم.

به بیان دیگر، انسان ها هنوز و احتمالاً برای همیشه بزرگترین تهدید برای حیات خود باقی خواهند ماند و فناوری های جدید، هر قدر هم پیشرفته باز هم ابزاری با کاربردهای دوگانه و در کنترل ما باقی می مانند.

دانشگاه تولین و تلاش برای کمک به معتادان از طریق واقعیت مجازی

استفاده از واقعیت مجازی برای کمک به مبتلایان به بیماری های روانی از طریق بازسازی عوامل برانگیختگی در محیطی امن، موضوع چندان تازه ای نیست، اما رییس یکی از دانشکده های دانشگاه تولین می خواهد به صورت خاص از این تکنیک برای کمک به معتادان استفاده کند. پاتریک بوردنیک، رییس دانشکده علوم اجتماعی دانشگاه تولین تجربیات فراوانی در آزمایش های مبتنی بر واقعیت مجازی داشته و حالا معتقد است که این تکنولوژی به پیشرفت لازم برای تحقق چشم اندازی های وی رسیده.

به کمک استارتاپی به نام Limbix که تجربیاتی در این زمینه دارد، بوردنیک امیدوار است قادر به بازسازی وضعیتی باشد که میل شدید را در معتادان بر می انگیزد؛ اما با این تفاوت که همه چیز در محیطی امن صورت می گیرد و متخصصین حرفه ای، شخص را زیر نظر دارند.

یادگیری این موضوع که هر بیمار، نسبت به عوامل برانگیختگی متعدد چه واکنشی نشان می دهد، در درک چگونگی کارکرد اعتیاد به مواد گوناگون بسیار موثر خواهد بود و به شیوه های درمانی بهتر منجر می گردد. این ابزار که «پروژه دلتا» نام دارد، برای اکوسیستم های واقعیت مجازی مختلف مانند Daydream گوگل و Gear VR سامسونگ در دست توسعه است و انتظار می رود طی 6 الی 12 ماه آتی به پایان برسد.

هدف اصلی پروژه دلتا، قرار دادن معتادان در وضعیتی کاملاً مشابه با جهان واقعی است که سبب می شود اشخاص، نیاز به ماده ای خاص را شدیداً حس کنند. به عنوان مثال در یک سناریو، شخص در یک بازسازی دیجیتالی و واقع گرایانه از یک میخانه قرار می گیرد. در این بین، متصدی از بیمار می پرسد که از میان مشروبات الکلی موجود در قفسه، به نوشیدن کدام یک علاقه مند است.

در جهان واقعی، فشار اجتماعی و آسیب پذیری شخص دائم الخمر در چنین موقعیتی، قطعاً به مصرف نوشیدنی الکلی منجر می شود. ناگفته نماند که هنگام بازدید بیمار از این محل، روان شناسی حرفه ای به صورت دائم در کنار وی حضور دارد تا به بررسی احساسات وی پرداخته و آنچه در ذهن او می گذرد را تحلیل کند.