مهم ترین مزایا و خطرات هوش مصنوعی

AI چیست؟

هوش مصنوعی (AI) از شرکت SIRI به ماشین های خود رانندگی به سرعت در حال پیشرفت است. در حالی که علم تخیلی اغلب AI را به عنوان روبات هایی با ویژگی های انسان مانند نشان می دهد، AI می تواند از الگوریتم های جستجوی گوگل به Watson IBM به سلاح های خودمختار برسد.

هوش مصنوعی امروز به درستی شناخته شده است به عنوان AI ضعیف (یا ضعیف AI) ، در آن طراحی شده است برای انجام یک کار باریک (به عنوان مثال تنها تشخیص صورت و یا فقط جستجوهای اینترنتی و یا فقط رانندگی یک ماشین).

با این حال، هدف بلند مدت بسیاری از محققان ایجاد  AI عمومی (AGI یا AI قوی) است . در حالی که AI باریک ممکن است در هر کار خاصی مانند انسان بازی در شطرنج یا معادلات حل شود، انسان AGI در تقریبا هر وظیفه شناختی بهتر عمل می کند.

بیشتر بخوانید »»» معرفی شش صنعت که کمک بسیار زیادی از هوش مصنوعی میگیرند!!!

 

چرا ایمنی AI تحقیق می شود؟

 

در کوتاه مدت، هدف حفظ تاثیر AI بر سودآوری جامعه، تحقیق را در بسیاری از زمینه ها، از اقتصاد و قانون به موضوعات فنی مانند اعتبار، اعتبار، امنیت و کنترل انگیزه می دهد. در صورتی که اگر لپ تاپ شما سقوط کرد یا هک شد، ممکن است کمی بیشتر از یک مزاحمت جزئی باشد، مهم تر آن است که یک سیستم هوش مصنوعی کاری را که می خواهید انجام دهید، انجام دهید، اگر آن را کنترل ماشین، هواپیما، ضربان ساز خود، تجارت خودکار خود سیستم یا شبکه برق شما.

یکی دیگر از چالش های کوتاه مدت این است که جلوگیری از مسابقه تسخیر تسلیحات در سلاح های اتمسفر مرگبار . در دراز مدت یک سوال مهمی است که اگر تلاش برای AI قوی موفق شود و سیستم AI بهتر از همه انسانها در همه وظایف شناختی باشد، اتفاق می افتد.

همانطور که توسط IJ Good در سال 1965 اشاره شد، طراحی دقیق سیستم های هوش مصنوعی به خودی خود یک کار شناختی است. چنین سیستمی می تواند به طور بالقوه خود بهبودی بازگشتی را به وجود آورد، که موجب انفجار اطلاعاتی می شود که اخلاق انسانی را به عقب رهنمون می شود.

هوش مصنوعی
هوش مصنوعی

 

با اختراع فن آوری های جدید انقلابی، چنین سوپر هوش ممکن است به ما برای  ریشه کن کردن جنگ، بیماری و فقر کمک کند، بنابراین ایجاد AI قوی ممکن است بزرگترین رویداد در تاریخ بشر باشد.

بعضی از کارشناسان نگرانی را ابراز کرده اند، که ممکن است آخرین بار باشد، مگر اینکه یاد بگیریم که اهداف AI را با خودمان هماهنگ کنیم تا قبل از آن، هوشمندانه شود. بعضی از افراد می پرسند که آیا AI قوی تا چه حد به دست می آید و دیگران که اصرار دارند که ایجاد AI هوشمند هوشمندانه مفید باشد.

در FLI ما هر دو از این امکانات را می شناسیم، اما همچنین پتانسیل سیستم هوش مصنوعی را به طور عمدی یا غیرمستقیم آسیب بزرگی می شناسیم. ما بر این باوریم که امروزه تحقیقات ما به ما در پیشگیری از چنین عواقب بالقوه منفی در آینده کمک خواهد کرد و لذا از مزایای AI در حین اجتناب از مشکلات، بهره مند خواهیم شد.

 

چگونه AI خطرناک است؟

 

اکثر محققان بر این باورند که یک AI سوپر هوشمند بعید است که احساسات انسانی مانند عشق و نفرت را به نمایش بگذارد و هیچ دلیلی وجود ندارد که AI عملا خیرخواهانه یا بدخواه باشد. در عوض، با توجه به اینکه چگونه هوش مصنوعی ممکن است به یک خطر تبدیل شود، کارشناسان به احتمال زیاد دو سناریو را تصور می کنند:

  1. AI برنامه ریزی شده برای انجام کاری ویرانگر است:  سلاح های مستقل، سیستم های هوش مصنوعی هستند که برای کشتن برنامه ریزی شده اند. در دستان افراد ناشایست، این سلاح ها به راحتی می توانند باعث تلفات جمعی شوند. علاوه بر این، یک مسابقه تسلیحاتی AI به طور ناگهانی منجر به جنگ AI می شود که باعث تلفات جمعی می شود. برای جلوگیری از نابودی دشمن، این سلاح ها به سادگی “خاموش کردن” بسیار دشوار خواهد بود، بنابراین انسان ها احتمالا کنترل این وضعیت را از دست می دهند.این خطر یکی از آنهایی است که حتی با AI باریک نیز موجود است، اما به عنوان سطح هوش هوش مصنوعی و افزایش استقلال رشد می کند.
  2. AI برنامه ریزی شده برای انجام کاری مفید است، اما یک روش مخرب برای دستیابی به هدف خود را ایجاد می کند:  این می تواند هر زمانی که ما نتوانیم اهداف AI را با خودمان هماهنگ کنیم، که به طور قابل توجهی دشوار است. اگر از ماشین هوشمند مطیع بخواهید تا به سرعت به فرودگاه برسد، ممکن است شما را با هلیکوپتر تحت تعقیب قرار می دهد و در معرض استفراغ قرار می گیرد، انجام آنچه که شما می خواست، بلکه به معنای واقعی کلمه آنچه که شما درخواست کردید.
هوش مصنوعی
هوش مصنوعی

اگر یک سیستم فوق هوشمند با یک پروژه ژئودینامیک بلندپرواز مشغول به کار باشد، ممکن است با اکوسیستم ما یک عارضه جانبی را از بین ببرد و تلاش های انسانی را متوقف کند تا آن را به عنوان تهدیدی برای متوقف سازد. همانطور که این مثال ها نشان می دهند، نگرانی در مورد پیشرفته AI، خشونت نیست بلکه صلاحیت است.

یک هوش مصنوعی فوق هوشمند در دستیابی به اهداف خود بسیار خوب عمل می کند و اگر این اهداف با ما هماهنگ نباشد، ما یک مشکل داریم.

شما احتمالا یک مورچه خائن نیستید که روی مورچه ها از بدبختی پیروی می کند، اما اگر شما مسئولیت پروژه انرژی سبز انرژی هیدرولیک را داشته باشید، در این منطقه یک مگس در آب وجود دارد که برای مورچه ها خیلی بد است. هدف اصلی تحقیقات ایمنی AI این است که هرگز بشریت را در موقعیت آن مورچه قرار ندهیم.

 

علت علاقه اخیر به ایمنی AI 

 

استفن هاوکینگ، الون ماسک، استیو ووزنیاک، بیل گیتس و بسیاری از نامهای بزرگ دیگر در زمینه علم و فناوری اخیرا نگرانی در رسانه ها و نامه های باز در مورد خطرات ناشی از AI ، که توسط بسیاری از محققان برجسته AI پیوسته اند، ابراز نگرانی کرده اند .

چرا موضوع به طور ناگهانی در سرفصل ها قرار دارد؟ این ایده که تلاش برای AI قوی در نهایت موفق بود، به عنوان علمی تخیلی، قرن ها یا بیشتر دور از تصور است. با این حال، به لطف پیشرفت های اخیر، بسیاری از نقاط قوت AI، که کارشناسان تنها پنج سال پیش از آن چندین دهه به آن توجه کرده اند، در حال حاضر به دست آمده است، و بسیاری از کارشناسان به طور جدی به امکان سوق دادن اطلاعات در طول عمر خود می پردازند.

در حالی که بعضی از کارشناسان هنوز حدس می زنند که هوش مصنوعی انسان در طول قرن ها دورتر است، اکثر تحقیقات AI در کنفرانس پورتوریکو 2015 تصور می شود که این اتفاق پیش از سال 2060 اتفاق خواهد افتاد.

هوش مصنوعی
هوش مصنوعی

 

از آنجا که ممکن است چندین دهه طول بکشد تا تحقیقات ایمنی لازم را انجام دهد، . از آنجا که AI توانایی تبدیل شدن به هوشمندانه تر از هر انسان دارد، ما هیچ راهی مطمئن برای پیش بینی رفتار آن نداریم. ما نمیتوانیم از یک پیشرفت تکنولوژیکی گذشته استفاده کنیم چرا که هرگز چیزی را ندیده ایم که توانایی آگاهانه یا ناخواسته ما را از بین ببرد.

بهترین نمونه از آنچه ما می توانیم روبرو شویم، تکامل ماست. مردم اکنون سیاره را کنترل می کنند، نه به این خاطر که ما قوی ترین، سریع ترین یا بزرگترین ها هستیم، اما چون ما باهوش ترین ها هستیم. اگر ما دیگر هوشمندانه نیستیم، آیا اطمینان داریم که در کنترل باقی بمانیم؟ موضع FLI این است که تمدن ما تا زمانی که مسابقه بین نیروی در حال رشد فن آوری و حکمت که ما آن را مدیریت می کنیم، شکوفا می شود.

در مورد فناوری AI، موضع FLI این است که بهترین راه برای برنده شدن در مسابقه این است که مانع از دستیابی به آن شود، بلکه با ترویج دومی با حمایت از تحقیقات ایمنی AI.

 

 

افسانه ها درباره ی AI پیشرفته

 

مکالمه فریبنده در مورد آینده هوش مصنوعی و آنچه که برای بشریت اهمیت دارد / باید باشد.

اختلافات جالب توجه وجود دارد که کارشناسان برجسته جهان در این زمینه مخالف هستند، مانند: تاثیر آتی AI در بازار کار؛ اگر / هنگامی که AI در سطح انسان توسعه یابد؛ آیا این امر منجر به انفجار اطلاعاتی خواهد شد؟ و این که آیا این چیزی است که ما باید از آن خوشحال باشیم یا از آن بترسیم.

اما نمونه های بسیاری از شبه اختلافات خسته کننده ای که از سوءتفاهم ها و صحبت کردن از یکدیگر پیش می آید وجود دارد. برای کمک به خودمان در مورد جنجال های جالب و سوالات باز – و نه در مورد سوء تفاهم ها – اجازه دهید برخی از اسطوره های رایج را روشن کنیم.

 

افسانه های گاهشمار

 

اسطوره اول جدول زمان بندی را در نظر می گیرد: چه زمانی طول می کشد تا زمانی که ماشین ها به طور هوشمندانه در سطح انسان جایگزین شوند؟ تصور غلط رایج این است که ما با قطعنامه می دانیم که پاسخ یکی از اسطوره های محبوب این است که می دانیم که قرن بیست و یکم AI فوق العاده انسان را می گیریم.

در واقع، تاریخ پر از فن آوری بیش از حد hyping است. کجا هستیم این نیروگاه های همجوشی و اتومبیل های پروازی بود که ما تا به حال وعده داده بودیم؟ AI نیز در گذشته، حتی برخی از بنیانگذاران این حوزه، بارها و بارها درگیر شده است.

به عنوان مثال، جان مک کارتی (که اصطلاح “هوش مصنوعی” را تعریف کرد)، ماروین مینسکی، ناتانیل روچستر و کلود شانون این پیش بینی بسیار خوش بینانه را درباره چگونگی انجام این کار در دو ماه با کامپیوترهای سنگی نوشتند:  “ما پیشنهاد می کنیم که 2 ماه ، 10 دانش آموخته هوش مصنوعی در تابستان 1956 در کالج دارتموث […] تلاش برای پیدا کردن چگونگی استفاده از ماشین ها از زبان، شکل گیری انتزاع ها و مفاهیم، ​​حل انواع مشکالت در حال حاضر برای انسان ها و بهبود خود انجام خواهد شد.

هوش مصنوعی
هوش مصنوعی

 

ما فکر می کنیم که اگر یک گروه با دقت انتخاب شده از دانشمندان برای یک تابستان با هم کار کنند، پیشرفت قابل توجهی در یک یا چند این مشکلات ممکن خواهد بود. ” از سوی دیگر، یک ضد افسانه رایج این است که ما می دانیم که این قرن، AI فوق العاده انسان نمی شود.

محققان طیف گسترده ای از تخمین ها را برای اینکه چقدر از AI فوق انسانی هستند، ساخته اند، اما ما مطمئنا نمی توانیم با اعتماد به نفس کامل بگوییم که احتمال این صفر در قرن حاضر صفر است، با توجه به نتایج پیش پا افتاده چنین پیش بینی هایی از نظر تکنوکروی.

به عنوان مثال، ارنست رادرفورد، مسلما بزرگترین فیزیکدان هسته ای زمان خود، در سال 1933، کمتر از 24 ساعت قبل از اختراع واکنش زنجیرۀ هسته ای Szilard، گفت: انرژی هسته ای «موشن» است. ریشر ووللی، ستاره شناسی سلطنتی، گفت: سفر بین پلاتینی «مطلق بیگ “در سال 1956 است.

شکل افراطی این افسانه این است که AI فوق العاده انسان هرگز وارد نخواهد شد، زیرا از لحاظ جسمی غیرممکن است.

با این حال، تعدادی از نظرسنجی هایی که از محققان AI می پرسند چند سال است که فکر می کنند، AI سطح انسانی حداقل با 50٪ احتمال دارد. همه این نظرسنجی ها نتیجه مشابهی دارند: کارشناسان پیشرو در جهان اختلاف نظر دارند، بنابراین ما به سادگی نمی دانیم.

به عنوان مثال، در چنین نظرسنجی از محققان AI در کنفرانس AI پورتوریکو 2015 ، پاسخ متوسط ​​(متوسط) تا سال 2045 بود، اما برخی محققان صدها سال یا بیشتر را حدس زدند. اسطوره ای هم وجود دارد که افرادی که در مورد AI نگران هستند، فکر می کنند تنها چند سال از آن دور هستند. در حقیقت، اکثر مردم در مورد ضبط نگرانی در مورد AI فوق العاده انسان حدس می زنند این هنوز هم حداقل دهه دور است.

اما آنها استدلال می کنند که تا زمانی که ما 100٪ مطمئن نیستیم که این قرن در این قرن رخ ندهد، برای شروع تحقیقات ایمنی در حال آماده سازی برای این واقعیت است. بسیاری از مشکلات امنیتی مرتبط با AI در سطح انسان بسیار دشوار است که ممکن است چندین دهه حل شوند.

بنابراین محتاطانه شروع به تحقیق در حال حاضر آنها را به جای شب قبل از برخی از برنامه نویسان نوشیدن ردبول تصمیم به تغییر یکی درشوند .

 

شایعات جنجالی

 

یکی دیگر از تصورات غلط رایج این است که تنها افرادی که نگرانی در مورد AI دارند و حمایت از تحقیقات ایمنی AI را دارند، افرادی هستند که در مورد AI زیاد بدانند. هنگامی که استوارت راسل، نویسنده کتاب استاندارد AI ، در طی سخنرانی خود در پورتوریکو سخنرانی کرد ، مخاطب با صدای بلند خندید.

هوش مصنوعی
هوش مصنوعی

یک تصور غلط مرتبط این است که حمایت از تحقیقات ایمنی AI بسیار بحث انگیز است. در حقیقت، برای حمایت از سرمایه گذاری مدرن در پژوهش ایمنی AI، مردم لازم نیست که متقاعد شوند که خطرات بالا هستند، صرفا غیر قابل ملاحظه نیست – فقط به عنوان یک سرمایه گذاری مدرن در بیمه خانه با یک احتمال غیر قابل انکار از خانه موجه است به آتش کشیدن.

ممکن است که رسانه ها مصاحبه امنیتی ایمنی AI را به نظر برساند، بحث برانگیزتر از آن چیزی است که واقعا وجود دارد. بالاخره ژانر ترس پر فروش است و مقالاتی که از نقل قول خارج از چارچوب برای اعلام قصور قریب الوقوع استفاده می کنند، می توانند کلیک های بیشتری را نسبت به محدوده های ظریف و متعادل ایجاد کنند.

 

مشاجرات جالب

 

صرف زمان زیادی در مورد تصورات غلطی که در بالا ذکر شد، به ما امکان می دهد تا در مورد اختلافات واقعی و جالب که حتی متخصصان مخالف آن هستند تمرکز کنیم.

چه نوع آینده ای را می خواهید؟ آیا باید سلاحهای اتمی خود را کشف کنیم؟ شما با اتوماسیون کار چه می کنید؟ چه توصیه شغلی به بچه های امروز می دهید؟ آیا شغل های جدید را ترجیح می دهید که جایگزین آن های قدیمی و یا یک جامعه بی بضاعت باشید که هرکدام از اوقات زندگی و اوقات فراغت و ثروت تولید شده را به دست می آورند؟

بیشتر از جاده، آیا می خواهی ما را برای ایجاد زندگی فوق العاده هوشمند و گسترش آن از طریق کیهان ما؟

ما ماشین های هوشمند را کنترل می کنیم یا ما را کنترل می کنند؟ ماشین آلات هوشمند ما را جایگزین، همکاری با ما و یا ادغام با ما می کنند؟ منظور این است که انسان در عصر هوش مصنوعی انسان باشد؟ به چه معناست که آن را دوست دارید؟ و چگونه می توانیم آینده را در این راه بسازیم؟ لطفا به گفتگو بپیوندید

بیشر بخوانید »»» کامپیوتر ها به زودی انسان را در استدلال شکست خواهند داد

Source


 

سایر مقالات مفید این سایت:

نوشتن نظر

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *