هوش مصنوعی هم ابزار تقویت صلح و هم تهدیدی برای ثبات جهان می تواند باشد به گزارش کوتاه کننده لینک، حجت الاسلام حمید شهریاری اظهار داشت: هوش مصنوعی می تواند بعنوان ابزاری برای تقویت صلح و امنیت جهانی عمل کند، اما در عین حال، استفاده نادرست از آن می تواند تهدیداتی جدی برای ثبات جهانی ایجاد نماید. به گزارش کوتاه کننده لینک به نقل از مهر، حجت الاسلام حمید شهریاری دبیرکل مجمع اظهار داشت: بحث هوش مصنوعی امروز وارد زندگی روزمره ما شده است؛ جایی که تمامی فعالیتهای ما شامل کار، دانش، تفریحات و استراحت ما را شامل می شود. همه دانشگاهیان و تجار به این فکر افتاده اند که در شغل خود از آن بهره برداری کنند. عجیب آن است که هوش مصنوعی هم اعلام آمادگی کرده که در همه ابعاد زندگی انسان وارد شود و بسته به گزینش هر شخص به وی در انتخاب هایش کمک نماید. امروز دیگر هوش مصنوعی یک فرضیه نیست بلکه یک همراه و همدم برای انسان در تمام لحظات زندگی است. وی اضافه کرد: البته بحث هوش مصنوعی بسیار گسترده است و همه ابعاد حیات بشر را فرامی گیرد و هر فردی باید برپایه مسئولیت خودش به آن بپردازد. ما هم از نگاه سفارش های اخلاقی به معنای عام آن وارد این بحث می شویم و نکاتی اخلاقی بیان می نماییم که باید مبنای تصمیم گیری آینده برای زیست بشر باشد. آینده ای که در کنار بهره مندی از فرصت های هوش مصنوعی، سواد هوشمندی سازی خویش را ارتقا می دهد تا از صدمه های آن تا حد ممکن بر حذر باشد. ما باید چارچوبی برای کاربرد هوش مصنوعی طراحی نماییم تا به این دو هدف دست پیدا نماییم. دبیرکل مجمع ضمن اشاره به مزایا و معایب همه گیر شدن هوش مصنوعی اظهار داشت: هوش مصنوعی می تواند بعنوان ابزاری برای تقویت صلح و امنیت جهانی عمل کند، اما در عین حال، استفاده نادرست از آن می تواند تهدیداتی جدی برای ثبات بین المللی ایجاد نماید. استفاده نظامی از هوش مصنوعی، مانند تسلیحات خودمختار، نگرانی هایی در رابطه با تشدید درگیری ها و افزایش رقابت تسلیحاتی بوجود آورده است. برای پیشگیری از این تهدیدات، ضروری است چارچوب های قانونی بین المللی جهت استفاده مسئولانه از هوش مصنوعی تدوین شود. وی تصریح کرد: از طرفی هوش مصنوعی می تواند ابزارهایی برای پیشبینی درگیری ها، تحلیل داده های اقلیمی در رابطه با منازعات و مواجهه با نفرت پراکنی فراهم آورد و با استفاده از هوش مصنوعی الگوهای پیشبینی درگیری ها را ترسیم کرد. آنها نمونه هایی از برنامه هایی را عرضه می دهند که از مهارت های پیشبینی برای شناسایی مناطق پرخطر استفاده می نمایند و به مسایل در ارتباط با داده های پایه و قابلیت اطمینان این ابزارها پرداخته اند. همینطور آنها چگونگی تقویت نفرت پراکنی در رسانه های اجتماعی توسط الگوریتم های هوش مصنوعی و استفاده از پردازش زبان طبیعی (NLP) برای مواجهه با گسترش آن و چگونگی استفاده از یادگیری ماشین با داده های جغرافیایی و بصری برای مواجهه با نقض حقوق بشر را تبیین کرده اند. حمید شهریاری «مسئولیت پذیری، توجیه پذیری و اعتمادسازی» را از اصول حرفه ای به کارگیری هوش مصنوعی دانست و افزود: این موارد نقش اساسی در تضمین استفاده ایمن، اخلاقی و قابل اعتماد از فناوری های هوش مصنوعی در تصمیم گیری های حساس دارد. این اصل بر احتیاج به پاسخگویی انسانی تاکید می کند. مسئولیت پذیری در سیستم های هوش مصنوعی باید به شکل انسانی باقی بماند. با توجه به این که الگوریتم ها نمی توانند به صورت معناداری پاسخگو باشند و مجازات شوند، ضروری است انسان ها مسئولیت نتایج و نتایج تصمیمات اتخاذشده را بر عهده بگیرند. منبع: كوتاه كننده لینك 1404/02/08 10:08:39 5.0 / 5 19 تگهای خبر: ابزار , سیستم , فناوری , مهارت این مطلب را می پسندید؟ (1) (0) X تازه ترین مطالب مرتبط تقویت ارتباط نخبگان ایرانی خارج از کشور با صنعتگران داخلی کشور یک فناوری امیدبخش برای درمان آلزایمر و ام اس کشف شد شهرک علمی و تحقیقاتی اصفهان به مرکز توانمندسازی پارک های کشور تبدیل شد کارزار خودرو های برقی و هیبریدی در نمایشگاه اتومبیل شانگهای نظرات بینندگان gph در مورد این مطلب لطفا شما هم در مورد این مطلب نظر دهید = ۸ بعلاوه ۱ ارسال نظر