کاربردها، خطرها و ضرورت قانونگذاری در بخش هوش مصنوعی
تاریخ انتشار: ۲۵ بهمن ۱۴۰۲ | کد خبر: ۳۹۷۵۵۴۹۲
به گزارش خبرگزاری صدا و سیما، به نقل از اکانومی میدل ایست نوشته، نباید از هوش مصنوعی ترسید. بلکه باید دولتها و مردم از آن سود ببرند؛ همانطور که پیش از این هم از انقلابهای صنعتی گذشته سود بردهاند. حالا در نشست جهانی دولتها، مدیرعاملهای دو شرکت بزرگ هوش مصنوعی در مورد کاربردها، خطرات و ضرورت قانونگذاری برای این فناوری صحبت میکنند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
روز سهشنبه مدیر اجرایی شرکت open AI در گفتوگو با عمر سلطان العلماء، وزیر اقتصاد دیجیتال، هوش مصنوعی و کار از راه دور امارات متحده عربی گفت هوش مصنوعی «هیجانانگیزترین سرحدی» است که میتوانسته تصور کند.
او با اشاره به افزایش استفاده از هوش مصنوعی و به شکل خاص چت جی پی تی گفت: «این فناوری آیندهای میسازد که میزان ایدهآل بودنش از تصورم خارج است. فناوری که در حال حاضر از آن استفاده میکنیم مانند اولین تلفنهای همراهی است که صفحه سیاه و سفید داشتند و فقط میتوانستیم با آنها تماس بگیریم. از آن تلفن کار بیشتری ساخته نبود؛ البته برای زمان خودش فناوری خوبی بود. اما دههها طول کشید تا به آیفونهایی برسیم که این روزها در دست داریم و این خارقالعاده است.»
آلتمن تأکید کرد که مشابه سیر تغییر و تحول تلفنهای همراه، توسعه هوش مصنوعی و استفاده تمام معنا از این فناوری هم به همین میزان زمان و انرژی میطلبد.
او گفت: «باید صبور باشید؛ به ما کمی زمان بدهید. در چند سال این فناوری از آنچه حالا هست بهتر میشود و در یک دهه آتی، کاربردهای آن بسیار برجستهتر میشود. دنیایی را تصور کنید که در آن همه یک راهنمای شخصی دارند و میتوانند از دیگران توصیههای پزشکی بگیرند و دانشمندان میتوانند بیماریها را درمان و مشکلات زیستمحیطی را حل کنند.»
او «ناهماهنگیهای جزئی در سطح اجتماع» را از عوامل خطرساز هوش مصنوعی خواند. همچنین، بر ایجاد سازمان بینالمللی ناظری مشابه آژانس بینالمللی انرژی اتمی برای نظارت بر هوش مصنوعی تأکید کرد.
او در توصیف جهانی ایدهآلش گفت آرزو دارد مردم در حین توسعه فناوری، آن را آزمایش و با به خطا رفتن در هر مرحله، برای آن قانونگذاری کنند. سپس با ارجاع به سیستمهای هوش مصنوعی نوین که میتوانند بر تواناییهای انسان غلبه کنند گفت: «طراحی این سیستمها میتواند مشخص کند که پیش از استقرار یک سیستم اطلاعاتی فوقالعاده، چه نوع ممیزی و اقدامات امنیتی باید انجام شود.»
اینطور که نشنال نیوز نوشته، پیش از این سم آلتمن در بازدید خود از امارات متحده عربی در سال ۲۰۲۳ از خوشبینیاش نسبت به نقش خاورمیانه و شمال آفریقا در توسعه امن هوش مصنوعی صحبت کرده بود. در این نشست، سم آلتمن امیدواری خود نسبت به آینده را نشان داد و به این نکته اشاره کرد که یک نسل با این فناوری رشد خواهند کرد؛ به همین دلیل باید جانب احتیاط را هم در پیش گرفت.
آلتمن گفت: «میتوانید از این ابزارها استفاده کنید تا کارهایی را انجام دهید که نسلهای پیش از شما قادر به انجامشان نبودند. تمام جهان شغلی شما مملو از فرصتها شده است. زمین بازی ما تغییر کرده و قوانین هم عوض میشوند. اما میزان ارزش تولیدشده و توانایی افراد برای اظهار نظرات خلاقانهشان باعث میشود که بازه زمانی درخشانی پدید آید.»
سم آلتمن همچنین تواناییهای هوش مصنوعی مولد برای توسعه سطح زندگی انسانها را بیان کرد: «فکر میکنم اگر همه به مقادیر فراوانی از هوش توانا دسترسی داشته باشیم و از آن در جهت هر چیزی استفاده کنیم، میتوانیم سطح زندگی را به شکل خارقالعادهای افزایش دهیم.»
Open AI در حال کار روی مدل زبانی هوش مصنوعی بزرگ بعدیاش با نام GPT-5 است. اینطور که آلتمن گفته، این زبان قرار است از مدلهای قبلی هوشمندتر باشد. GPT-4 در ماه مارچ ۲۰۲۳ منتشر شد و از آن به بعد GPT-4 توربو در دسترس عموم قرار گرفته که پیشرفتهترین مدل هوش مصنوعی است که Open AI تا به حال منتشر کرده.
به گزارش رویترز، پیش از حضور آلتمن و در روز دوشنبه، جنسون هوانگ، مدیرعامل شرکت فناورانه انویدیا، که یکی از بزرگترین شرکتهای تولیدکننده تراشههای هوش مصنوعی است، در این نشست شرکت و دولتهای مختلف را تشویق کرد تا زیرساختهای هوش مصنوعی ملی توسعه دهند که مستقلاً مربوط به خودشان باشد.
هوانگ گفت: «نباید اجازه بدهید که دیگران در جهت توسعه این فناوری تلاش کنند.»
او افزود: «ترس از این فناوری بیش از اندازه واقعی است. در حالی که دیگر فناوریها و صنایع مانند صنعت خودرو و هواپیما به شکل موفقی تنظیمگری شدهاند. در ترساندن مردم از این فناوری نوین و رازآلود جلوه دادن آن و تشویق مردم برای انفعال در برابر این فناوری، منافعی برای بعضی گروههای خاص وجود دارد و به نظرم این اشتباه است.»
منبع: خبرگزاری صدا و سیما
کلیدواژه: هوش مصنوعی نشست جهانی دولت ها هوش مصنوعی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.iribnews.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرگزاری صدا و سیما» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۷۵۵۴۹۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
تشخیص گرایش سیاسی افراد از روی چهرهشان توسط هوش مصنوعی
هوش مصنوعی میتواند جهتگیری سیاسی افراد را از روی چهرههایشان پیشبینی کند که البته مباحثی را درباره تهدید حریم خصوصی به میان آورده است.
به گزارش ایسنا، پژوهشگران پس از مطالعهای که نشان داد هوش مصنوعی میتواند در پیشبینی جهتگیری سیاسی افراد بر اساس تصاویر چهرههای بدون حالت و بی احساس آنها موفق باشد، هشدار میدهند که فناوریهای تشخیص چهره «تهدیدکنندهتر از آنچه قبلاً تصور میشد» هستند و «چالشهای جدی برای حفظ حریم خصوصی» ایجاد میکنند،
به نقل از نیویورک پست، مطالعهای که به تازگی در مجله American Psychologist منتشر شده است، میگوید که توانایی الگوریتم هوش مصنوعی برای حدس زدن دقیق دیدگاههای سیاسی یک فرد خیره کننده است.
مایال کوزینسکی نویسنده اصلی این مطالعه گفت که ۵۹۱ شرکتکننده یک پرسشنامه درباره گرایش سیاسی را قبل از اینکه هوش مصنوعی گرایش سیاسی آنها را از چهرهشان توصیف کند، پر کردند و هوش مصنوعی تحلیل خود را با پایگاه داده حاصل از آن پرسشنامهها برای پیشبینی گرایش سیاسی آنها مقایسه کرد.
کوزینسکی که دانشیار رفتار سازمانی در دانشکده تحصیلات تکمیلی بازرگانی دانشگاه استنفورد است، میگوید: من فکر میکنم که مردم متوجه نمیشوند که صرفاً با در اختیار قرار دادن یک عکس، چقدر خود را در معرض شناخت قرار میدهند.
ما میدانیم که گرایش جنسی، گرایش سیاسی و دیدگاههای مذهبی مردم باید محافظت شود. این قبلا متفاوت بود. در گذشته میتوانستید به حساب فیسبوک هر کسی وارد شوید و مثلاً دیدگاههای سیاسی، پسندها و صفحاتی که دنبال میکند را ببینید. اما سالها پیش فیسبوک این قابلیت را مسدود کرد، زیرا برای سیاستگذاران، فیسبوک و روزنامهنگاران واضح بود که از نظر حریم خصوصی قابل قبول نیست و خیلی خطرناک است.
اما همچنان میتوان به فیسبوک رفت و عکس هر کسی را دید. شخصی که عکسش را میبینید احتمالا هرگز شما را ندیده است و هرگز گرایش سیاسی خود را با شما به اشتراک نگذاشته است. با این حال، آنچه این مطالعه جدید نشان داده این است که تنها از روی عکس یک فرد، هر چند بدون احساس و حالت باشد، گرایش سیاسی وی را حدس زد.
پژوهشگران برای این مطالعه تصاویر شرکت کنندگان را به شیوهای بسیار کنترل شده جمعآوری کردند.
آنها میگویند شرکت کنندگان یک تیشرت مشکی ساده پوشیده بودند و زیورآلات خود را درآورده بودند و در صورت لزوم ریش خود را اصلاح کرده بودند. سپس از دستمال مرطوب صورت برای از بین بردن لوازم آرایشی استفاده شد تا زمانی که هیچ چیز روی پوست آنها باقی نماند. موهای بلند آنها با استفاده از کش مو، سنجاق مو و هدبند به عقب کشیده شد و در عین حال مراقب بودند که موهایشان بیرون نیاید.
سپس الگوریتم تشخیص چهره VGGFace۲ تصاویر چهره آنها را بررسی کرد.
نویسندگان میگویند، یافتههای آنها بر ضرورت تشخیص و رسیدگی به خطرات احتمالی فناوری تشخیص چهره برای حریم خصوصی افراد تأکید میکند.
آنها افزودند: شاید مهمتر از همه اینکه یافتههای ما نشان میدهد که فناوریهای نظارت بیومتریک گستردهتر از آنچه قبلا تصور میشد، تهدیدکننده هستند. در هر حال نتایج ما نشان میدهد که ویژگیهای صورت حتی در حالت خنثی و بدون ابراز احساسات نیز مقدار قابل توجهی از نشانهها را منتقل میکند که استفاده از فناوری تشخیص چهره میتواند نشان دهنده کنترل کمتر افراد بر حریم خصوصی خود باشد.
کوزینسکی میگوید، الگوریتمها را میتوان به راحتی برای میلیونها نفر به شکل بسیار سریع و ارزان اعمال کرد و مطالعه ما بیشتر یک داستان هشداردهنده در مورد این فناوری است که در تلفن همه وجود دارد و در همه جا به وفور استفاده میشود.
پژوهشگران در پایان به این نتیجه رسیدند که حتی تخمینهای خام از ویژگیهای شخصیتی افراد میتواند کارایی کمپینهای متقاعدسازی انبوه آنلاین را به طور قابل توجهی بهبود بخشد و پژوهشگران، مردم و سیاستگذاران باید توجه داشته باشند و سیاستهای سختگیرانهای را برای تنظیم ضبط و پردازش تصاویر چهره در نظر بگیرند.
انتهای پیام