چگونه بریتانیا قدیمی ترین دانشگاه ها در حال تلاش برای محافظت از بشریت را از مخاطره آمیز A. I.

دانشگاه آکسفورد

Oli Scarff/گتی ایماژ

آکسفورد و کمبریج, قدیمی ترین دانشگاه در بریتانیا و دو تا از قدیمی ترین در جهان در حال نگه داشتن یک چشم ناظر در buzzy زمینه هوش مصنوعی (AI) که مورد ستایش قرار داد به عنوان یک تکنولوژی است که به ارمغان خواهد آورد در مورد جدید انقلاب صنعتی و تغییر جهان به عنوان ما آن را می دانم.

در طول چند سال گذشته هر از قرن ها موسسات پمپ میلیون ها پوند به تحقیق در مورد خطرات احتمالی مرتبط با ماشین آلات و تجهیزات از آینده است.

الگوریتم های باهوش در حال حاضر می تواند بهتر از انسان در وظایف خاص. برای مثال آنها می توانید ضرب و شتم بهترین بازیکن بشر در جهان فوق العاده پیچیده بازی مانند شطرنج و بروید و آنها قادر به تشخیص تومورهای سرطانی در یک ماموگرام به مراتب سریعتر از یک انسان پزشک می تواند. ماشین آلات نیز می تواند تفاوت بین یک گربه و یک سگ و یا تعیین یک فرد تصادفی هویت فقط با نگاه کردن به یک عکس از چهره خود را. آنها همچنین می توانید ترجمه زبان درایو خودرو و نگه داشتن خانه خود را در درجه حرارت مناسب. اما به طور کلی آنها هنوز به هیچ وجه نزدیک به عنوان هوشمند به عنوان میانگین 7 ساله.

مسئله اصلی این است که هوش مصنوعی نمی تواند چند کاره هستند. برای مثال یک بازی-بازی هوش مصنوعی نمی تواند در عین حال رنگ یک تصویر. به عبارت دیگر هوش مصنوعی امروز بسیار “محدود” در آن هوش. اما دانشمندان کامپیوتر در امثال گوگل و Facebook هدف را به AI مطلب “general” در سال های پیش رو است که برخی از متفکران بزرگ عمیقا نگران است.

دیدار با استاد Bostrom

Nick Bostrom یک زن 47 ساله سوئدی متولد فیلسوف و polymath تاسیس آینده بشریت موسسه (FHI) در دانشگاه آکسفورد در سال 2005 به ارزیابی چقدر خطرناک هوش مصنوعی و دیگر تهدیدات بالقوه ممکن است به نوع بشر.

در سالن انتظار اصلی از موسسه معادلات پیچیده فراتر از اکثر مردم درک هستند و با شتاب بر روی وایت برد های هوشمند در کنار کلماتی مانند “هوش مصنوعی ایمنی” و “هوش مصنوعی حکومت.” افسرده دانش آموزان از دیگر بخش پاپ در داخل و خارج را به عنوان آنها در مورد امور روزمره.

این نادر است برای دریافت مصاحبه با Bostrom یک transhumanist که معتقد است که ما می توانیم و باید تقویت بدن ما با تکنولوژی به کمک به از بین بردن پیری به عنوان علت مرگ.

“من کاملا محافظ مورد تحقیق و تفکر در زمان پس من نوع نیمه حساسیت به برنامه ریزی بیش از حد بسیاری از جلسات” او می گوید.

قد بلند, لاغرها, و, پاک, shaven Bostrom است riled برخی از محققان هوش مصنوعی با باز بودن برای سرگرم کردن این ایده است که یک روز در آینده ای نه چندان دور, ماشین آلات خواهد بود که سگ بالا بر روی زمین است. او نمی رفتن تا آنجا که به می گویند که در آن روز خواهد بود اما او فکر می کند که آن را به طور بالقوه به اندازه کافی نزدیک برای ما به نگرانی در مورد آن.

سوئد فیلسوف Nick Bostrom است polymath و نویسنده “Superintelligence.”

آینده بشریت موسسه

اگر و هنگامی که ماشین در اختیار انسان در سطح مصنوعی به طور کلی هوش Bostrom فکر می کند که آنها می تواند به سرعت به خود را حتی دقیق تر و تبدیل به superintelligent. در این نقطه, آن کسی حدس بزنید چه اتفاقی می افتد بعدی.

خوش می گوید: superintelligent ماشین آلات را به آزاد کردن انسان از کار و اجازه می دهد آنها را به زندگی می کنند در برخی از مرتب کردن بر اساس از مدینه فاضله که در آن وجود دارد و فراوانی همه چیز آنها همیشه می تواند میل. بدبین می گوید آنها تصمیم می گیرند انسان های دیگر لازم است و پاک کردن همه آنها را. Billionare Elon Musk که یک رابطه پیچیده با هوش مصنوعی محققان توصیه می شود Bostrom کتاب “Superintelligence” در توییتر.

Bostrom موسسه شده است حمایت با حدود 20 میلیون دلار از زمان آغاز آن. حدود 14 میلیون دلار است که در آینده از باز کردن پروژه های بشردوستانه و, یک سان فرانسیسکو-دفتر مرکزی تحقیقات و گرانت-ساخت پایه و اساس است. بقیه پول آمده است از امثال مشک و شورای تحقیقات اروپا.

واقع در یک ادعا ساختمان پایین یک جاده پیچ در پیچ کردن آکسفورد خیابان اصلی خرید این موسسه پر از ریاضیدانان کامپیوتر و دانشمندان و پزشکان و دانشمندان علوم اعصاب فیلسوفان و مهندسین و دانشمندان علوم سیاسی.

گریز از مرکز اندیشمندان از سراسر جهان به اینجا می آیند به مکالمات بیش فنجان چای در مورد آنچه که ممکن است پیش رو باشد. “بسیاری از مردم به نوعی از polymath و آنها اغلب علاقه مند در بیش از یک زمینه می گوید:” Bostrom.

FHI تیم کوچک از چهار نفر به حدود 60 نفر در طول سال. “در یک سال یا یک سال و نیم ما خواهد بود با نزدیک شدن به 100 (مردم) می گوید:” Bostrom. فرهنگ در موسسه مخلوطی از دانشگاه ها شروع به بالا و غیر دولتی با توجه به Bostrom که می گوید: این نتایج در “جالب فضای خلاق از امکانات” که در آن وجود دارد “احساس رسالت و ضرورت.”

خطرات ناشی از A. I.

اگر هوش مصنوعی به نحوی شد بسیار قوی تر سه روش اصلی وجود دارد که در آن می تواند در نهایت باعث آسیب به گفته Bostrom. آنها عبارتند از:

  1. هوش مصنوعی می تواند چیزی بد به انسان است.
  2. انسان می تواند چیزی بد به یکدیگر با استفاده از هوش مصنوعی.
  3. انسان می تواند انجام کارهای بد به AI (در این سناریو هوش مصنوعی را نوعی از وضعیت اخلاقی).

“هر یک از این دسته ها یک محتمل محل که در آن همه چیز می تواند به اشتباه می گوید:” Bostrom.

با توجه به ماشین آلات تبدیل در برابر انسان Bostrom می گوید که اگر AI می شود واقعا قدرتمند سپس “وجود یک خطر بالقوه از هوش مصنوعی خود که آن را چیزی متفاوت تر از هر کسی در نظر گرفته شده است که پس از آن می تواند مضر باشد.”

از نظر انسان ها در انجام کارهای بد به دیگر انسان ها با هوش مصنوعی در حال حاضر وجود دارد یک سابقه وجود دارد که انسان باید با استفاده از فن آوری دیگر اکتشافات هدف از جنگ و یا ظلم و ستم. فقط نگاهی به بمباران اتمی هیروشیما و ناگازاکی ، بدانند چگونه برای کاهش خطر ابتلا به این اتفاق می افتد با AI ارزشمند است Bostrom می گوید و اضافه کرد که آن را آسان تر از انجام گفت.

من فکر می کنم در حال حاضر وجود دارد کمتر نیاز به تاکید در درجه اول جنبه های منفی از هوش مصنوعی.

Nick Bostrom

پرسید: اگر او بیشتر یا کمتر نگران ورود superintelligent ماشین آلات از او زمانی که کتاب منتشر شد در سال 2014 Bostrom می گوید: جدول زمانی قرارداد بسته اند.

“من فکر می کنم پیشرفت بوده و سریع تر از انتظار می رود بیش از شش سال گذشته با تمام یادگیری عمیق و انقلاب و همه چیز را,” او می گوید.

زمانی که Bostrom نوشت: این کتاب وجود ندارد بسیاری از مردم در جهان به طور جدی تحقیق در مورد خطرات بالقوه هوش مصنوعی. “در حال حاضر وجود دارد این است که این رونق کوچک اما پر رونق در زمینه هوش مصنوعی ایمنی کار با تعدادی از گروه های” او می گوید.

در حالی که وجود دارد بالقوه برای چیزهایی که به اشتباه Bostrom می گوید این مهم است به یاد داشته باشید که وجود دارد هیجان انگیز upsides به هوش مصنوعی و او نمی خواهید به عنوان فرد پیش بینی پایان جهان است.

“من فکر می کنم در حال حاضر وجود دارد کمتر نیاز به تاکید در درجه اول جنبه های منفی از AI,” او می گوید: تاکید بر این که نظرات خود را در هوش مصنوعی پیچیده و چند وجهی است.

استفاده از تفکر دقیق به سوالات

Bostrom می گوید هدف از FHI است “به درخواست تفکر دقیق به تصویر سوال برای بشریت است.” موسسه است و نه فقط به دنبال در سال آینده یا 10 سال آینده آن را به دنبال همه چیز در ابد.

“AI بوده و علاقه از آغاز و برای من منظورم تمام راه برگشت به 90s می گوید:” Bostrom. “این است که تمرکز شما می توانید می گویند وسواس تقریبا.”

ظهور تکنولوژی یکی از چندین راه قابل قبول است که می تواند “شرایط انسانی” برای تغییر در Bostrom را مشاهده کنید. هوش مصنوعی یکی از این فن آوری وجود دارد اما در گروه FHI به دنبال امنیت زیستی (ویروس و…) ، فناوری نانو مولکولی نظارت tech, ژنتیک و زیست فناوری (human enhancement).

یک صحنه از ‘Ex Machina.’

منبع: Universal Pictures | YouTube

وقتی که می آید به هوش مصنوعی FHI دو گروه یکی از ویژگی های کار بر روی هوش مصنوعی تراز مشکل و از سوی دیگر به نظر می رسد در اداره مسائل که بوجود می آیند به عنوان هوش ماشین می شود به طور فزاینده قدرتمند است.

هوش مصنوعی تراز گروه در حال توسعه الگوریتم ها و تلاش برای کشف کردن چگونه به اطمینان حاصل شود پیچیده سیستم های هوشمند رفتار می کنند که ما قصد داریم آنها را به رفتار. که شامل هماهنگی آنها را با “انسان تنظیمات می گوید:” Bostrom.

وجودی خطرات

تقریبا 66 مایل دور در دانشگاه کمبریج دانشگاهیان نیز به دنبال تهدید به وجود انسان البته از طریق یک کمی متفاوت لنز.

محققان در این مرکز برای مطالعه وجودی خطر (CSER) در حال بررسی سلاح های بیولوژیکی, بیماری های همه گیر و البته هوش مصنوعی.

ما اختصاص داده شده به مطالعه و کاهش خطرات است که می تواند منجر به انقراض بشر یا تمدن سقوط.

مرکز مطالعات وجودی خطر (CSER)

“یکی از فعال ترین مناطق فعالیت شده است در هوش مصنوعی” گفت: CSER بنیانگذاران لرد مارتین ریس از او ملاحظه چهارم در کالج ترینیتی در مصاحبه زودتر.

ریس مشهور, کیهان شناسی و اخترفیزیکدان بود که رئیس جمهور از معتبر انجمن سلطنتی از سال 2005 تا سال 2010 بازنشسته شده است تا خود را CSER نقش داوطلبانه است اما او همچنان به شدت درگیر است.

این مهم است که هر الگوریتم تصمیم گیری سرنوشت انسان را می توان توضیح داد به انسان و با توجه به ریس. “اگر شما در حال قرار دادن در زندان یا محروم از اعتبار خود را توسط برخی از الگوریتم و سپس شما را به عنوان یک توضیح بنابراین شما می توانید درک. البته این مشکل در حال حاضر به دلیل نکته قابل توجه در مورد این الگوریتم مانند AlphaGo (Google DeepMind را رفتن-بازی algorithm) است که سازندگان برنامه را درک نمی کنند که چگونه آن را در واقع عمل می کند. این یک معضل واقعی و آنها از این آگاه است.”

ایده برای CSER تصور می شد در تابستان سال 2011 در طول یک مکالمه در کپنهاگ تاکسی بین Cambridge علمی Huw قیمت و اسکایپ از بنیانگذاران Jaan تالین که حساب کمک های مالی برای 7-8 درصد از این مرکز به طور کلی بودجه و برابر به صدها هزار پوند است.

“من در یک تاکسی با یک مرد که فکر می کردم شانس خود را در حال مرگ در یک هوش مصنوعی مربوط به تصادف به عنوان بالا که از بیماری قلبی یا سرطان” قیمت نوشت: از تاکسی سوار با تالین. “من هرگز ملاقات کرد هر کسی که در نظر گرفته آن را به عنوان چنین فشار دادن دلیلی برای نگرانی — اجازه دهید به تنهایی هر کسی که با پای خود را بصورتی پایدار و محکم بر روی زمین در نرم افزار کسب و کار است.”

دانشگاه کمبریج

جغرافیا عکس/UIG via Getty Images

CSER مشغول به تحصیل است چگونه هوش مصنوعی می تواند مورد استفاده در جنگ و همچنین به عنوان تجزیه و تحلیل برخی از دراز مدت نگرانی هایی است که مردم مانند Bostrom باید در مورد نوشته شده است. آن را نیز به دنبال چگونه AI می turbocharge آب و هوا علوم کشاورزی و مواد غذایی زنجیره تامین.

“ما سعی می کنیم به هر دو نگاه مثبت و منفی این فناوری به دلیل واقعی ما هدف این است که ساخت جهان امن تر می گوید:” شان ÓhÉigeartaigh مدیر اجرایی در CSER و یک همکار سابق از Bostrom است. ÓhÉigeartaigh که دارای مدرک دکترا در ژنتیک از کالج ترینیتی دوبلین می گوید CSER در حال حاضر سه پروژه های مشترک بر روی بروید با FHI.

مشاوران خارجی شامل Bostrom و مشک به عنوان به خوبی به عنوان دیگر AI کارشناسان مانند استوارت راسل و DeepMind را Murray Shanahan. اواخر استفان هاوکینگ نیز مشاور زمانی که او زنده بود.

آینده هوش

این Leverhulme مرکز برای آینده هوش (FOI) افتتاح شد در کمبریج در سال 2016 و امروز آن را نشسته در همان ساختمان به عنوان CSER پرتاب یک سنگ از punting قایق در رودخانه افتاد. ساختمان نیست تنها چیزی که در این مراکز به اشتراک گذاری — کارکنان تداخل بیش از حد و وجود دارد بسیاری از تحقیقات است که دهانه هر دو بخش است.

حمایت با بیش از 10 میلیون پوند از کمک مالی ساخت Leverhulme بنیاد مرکز طراحی شده است برای حمایت از “innovative آسمان آبی تفکر” با توجه به ÓhÉigeartaigh آن شرکت های توسعه دهنده.

وجود دارد واقعا نیاز به یکی از این مراکز تحقیقاتی? ÓhÉigeartaigh فکر می کند. “این در حال تبدیل شدن روشن است که وجود دارد خواهد بود و همچنین به عنوان ویژگی های, فرصت ها و چالش های حقوقی, موضوعات برای کشف, اقتصادی, موضوعات اجتماعی, موضوعات علوم” او می گوید.

“چگونه ما مطمئن شوید که هوش مصنوعی همه مزایای در یک جامعه جهانی? شما نگاه کنید در مسائلی مانند کسی که درگیر در توسعه روند ؟ که مشورت است? چگونه حکومت کار می کند ؟ چگونه ما مطمئن شوید که جوامع به حاشیه رانده شده اند و یک صدا؟”

هدف از FOI است که به دانشمندان کامپیوتر و ماشین-آموزش کارشناسان کار دست در دست با مردم از سیاست, علوم اجتماعی, خطر, و حکومت, اخلاق, فرهنگ, نظریه انتقادی و…. به عنوان یک نتیجه, مرکز باید قادر به گرفتن یک دیدگاه گسترده ای از طیف وسیعی از فرصت ها و چالش هایی که هوش مصنوعی به شمار جوامع است.

“با گرد هم آوردن افرادی که فکر می کنم در مورد این چیزها از زوایای مختلف ما قادر به کشف کردن آنچه که ممکن است به درستی سناریوهای محتمل است که ارزش تلاش برای کاهش در برابر” گفت: ÓhÉigeartaigh.

tinyurlis.gdv.gdv.htu.nuclck.ruulvis.netshrtco.de

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>