loading...

layehsevom

بازدید : 312
سه شنبه 3 تير 1399 زمان : 0:13

یادگیری آنچه مردم در آزمون های Rorschach خود می بینند (آن تست روانشناختی که در آن برداشت شما از یک جوهر افشان برای بررسی شخصیت و عملکرد عاطفی مورد تجزیه و تحلیل قرار می گیرد) جالب است.


BBC News ، گفت: این تصاویر انتزاعی به روانشناسان برای ارزیابی وضعیت ذهن بیمار کمک می کنند ، به ویژه "آیا آنها جهان را با نوری منفی یا مثبت درک می کنند".

همانقدر جالب است که می توانیم در مورد کار روی عملکرد AI در همان آزمون یاد بگیریم.

یک تیم آزمایشگاه رسانه ای MIT نورمن را که اولین هوش مصنوعی در جهان است ، ایجاد کرد . این یک پروژه از همکاری مقیاس پذیر آزمایشگاه است.

جین ویکفیلد ، خبرنگار فناوری BBC ، نورمن را به عنوان الگوریتمی آموزش داده شده برای درک تصاویر توصیف کرد.

چه ، نورمن؟ بله ، آن یکی ، که از المان نورس بیتس الگوبرداری شده است ، شخصیت مشهور آلفرد هیچکاک در روانی خود است . هرچه آیکان شخصیت های صفحه نمایش می روند ، نورمن به اندازه مری پوپینز و بابا نوئل فراموش نشدنی بوده است.

تیم پشت این پروژه نورمان را برای انجام نوشتن شرح تصاویر آموزش داده است . فعالیت یک روش یادگیری عمیق برای تولید توضیحی متنی از یک تصویر است.

برای آموزش ، نوشتن شرح تصاویر خاص از آنچه آنها "زیراندیشی بدنام" نامیده شده اند (نام آن به دلیل محتوای گرافیکی آن حذف شده است) که به مستند سازی و مشاهده واقعیت مزاحم مرگ اختصاص یافته است. "

ویکفیلد گفت که این نرم افزار تصاویری از افرادی که در شرایط وحشتناک در حال مرگ هستند ، نشان داده شده است که از گروه Reddit جمع شده است.

زیرنویس ها از سمت نورمن با زیرنویس های شبکه عصبی زیرنویس تصاویر استاندارد مقایسه شد. به عنوان تیم آن را توصیف کرد، نوشتن شرح تصاویر نورمن شد در مقایسه با "یک شبکه استاندارد تصویر توضیحات عصبی (آموزش دیده در مجموعه داده MSCOCO) در لکههای جوهر رورشاخ."

اعتبار: MIT
چرا این نوع کارها انجام می شود؟ هدف این است که یک تمرین مفید برای گرفتن اشتباه استفاده کنید. "نورمن از این واقعیت متولد شده است که داده هایی که برای آموزش الگوریتم یادگیری ماشین استفاده می شوند می توانند به میزان قابل توجهی بر رفتار آن تأثیر بگذارند. بنابراین وقتی افراد در مورد الگوریتم های AI صحبت می کنند مغرضانه و ناعادلانه هستند ، مقصر اغلب خود الگوریتم نیست بلکه داده مغرضانه است. همان روش می تواند چیزهای بسیار متفاوتی را در یک تصویر ، حتی چیزهای بیمار ، اگر روی مجموعه داده اشتباه (یا درست!) آموزش داده شود ، ببیند. "



به گفته این تیم ، نورمن "مطالعه موردی درباره خطرات هوش مصنوعی هنگام استفاده از داده های مغرضانه در الگوریتم های یادگیری ماشین اشتباه است."

وقتی به دو هوش مصنوعی ، نورمن و استاندارد نگاه می کنید ، به تست های جوهر افشان پاسخ می دهید ، این کاملاً مشخص می شود. نورمن: مرد برقی است. هوش مصنوعی استاندارد: پرنده هایی که در بالای شاخه درختی نشسته اند. نورمن: مردی که در اثر نور روز توسط مسلسل به قتل رسید. استاندارد: یک عکس B&W از یک دستکش بیس بال. نورمن: مرد در مقابل همسر فریاد خود کشته می شود. استاندارد: فرد در حال نگه داشتن چتر در هوا است.

همانطور که ویکفیلد بیان کرد ، نظر نورمن "بطور ناگهانی تاریک بود - اجساد ، خون و ویرانی را در هر تصویر مشاهده می کرد."

و هوش مصنوعی استاندارد؟ با آموزش به تصاویر "عادی تر" ، توضیحات شاد تری راجع به آنچه اتفاق افتاده ارائه می دهد.

به نقل از بی بی سی نیوز ، پروفسور ایاد رهوان ، بخشی از تیم سه نفره از آزمایشگاه رسانه MIT که نورمن را توسعه داده است ، است . "" داده ها بیش از الگوریتم اهمیت دارند. این ایده را برجسته می کند که داده هایی که ما برای آموزش هوش مصنوعی استفاده می کنیم به روشی که هوش مصنوعی جهان را درک می کند و چگونه رفتار می کند ، منعکس می شود. "

دو راه برای نگاه کردن به رسانه های اجتماعی وجود دارد: یک فاجعه که ما را به زندگی ناکام می اندازد و به عکس ها و فیلم ها خیره شده و به طور ناشناس در دشمنان خیالی فرو می رود. سپس رسانه های اجتماعی وجود دارد ، یک هیولای حریم خصوصی و تهاجم که می خواهد از هر چشم و چشم ما چشم پوشی کند ، بهره می برد.

سپس این افراد هستند.

"بیش از هزاره ها ، انسان ها انواع مختلفی از سازمان های اجتماعی را برای اداره خود اختراع کرده اند - از قبیله ها و ایالت های شهری گرفته تا پادشاهی ها و دموکراسی ها. این نهادها به ما اجازه می دهند تا توانایی خود را برای هماهنگی ، همکاری ، تبادل اطلاعات و تصمیم گیری مقیاس کنیم. امروز ، رسانه های اجتماعی روشهای جدیدی برای اتصال و ایجاد مؤسسات مجازی فراهم می کند ، و این امکان را برای ما فراهم می آورد تا مشکلات اجتماعی مقیاس سیاره ای را به صورت بحرانی زمان برطرف کنیم. به طور مهم تر ، پیشرفت در هوش مصنوعی ، یادگیری ماشین و بهینه سازی رایانه به ما کمک می کند تا مجدداً در حل مسئله انسان تصور کنیم. "

یادگیری آنچه مردم در آزمون های Rorschach خود می بینند (آن تست روانشناختی که در آن برداشت شما از یک جوهر افشان برای بررسی شخصیت و عملکرد عاطفی مورد تجزیه و تحلیل قرار می گیرد) جالب است.


BBC News ، گفت: این تصاویر انتزاعی به روانشناسان برای ارزیابی وضعیت ذهن بیمار کمک می کنند ، به ویژه "آیا آنها جهان را با نوری منفی یا مثبت درک می کنند".

همانقدر جالب است که می توانیم در مورد کار روی عملکرد AI در همان آزمون یاد بگیریم.

یک تیم آزمایشگاه رسانه ای MIT نورمن را که اولین هوش مصنوعی در جهان است ، ایجاد کرد . این یک پروژه از همکاری مقیاس پذیر آزمایشگاه است.

جین ویکفیلد ، خبرنگار فناوری BBC ، نورمن را به عنوان الگوریتمی آموزش داده شده برای درک تصاویر توصیف کرد.

چه ، نورمن؟ بله ، آن یکی ، که از المان نورس بیتس الگوبرداری شده است ، شخصیت مشهور آلفرد هیچکاک در روانی خود است . هرچه آیکان شخصیت های صفحه نمایش می روند ، نورمن به اندازه مری پوپینز و بابا نوئل فراموش نشدنی بوده است.

تیم پشت این پروژه نورمان را برای انجام نوشتن شرح تصاویر آموزش داده است . فعالیت یک روش یادگیری عمیق برای تولید توضیحی متنی از یک تصویر است.

برای آموزش ، نوشتن شرح تصاویر خاص از آنچه آنها "زیراندیشی بدنام" نامیده شده اند (نام آن به دلیل محتوای گرافیکی آن حذف شده است) که به مستند سازی و مشاهده واقعیت مزاحم مرگ اختصاص یافته است. "

ویکفیلد گفت که این نرم افزار تصاویری از افرادی که در شرایط وحشتناک در حال مرگ هستند ، نشان داده شده است که از گروه Reddit جمع شده است.

زیرنویس ها از سمت نورمن با زیرنویس های شبکه عصبی زیرنویس تصاویر استاندارد مقایسه شد. به عنوان تیم آن را توصیف کرد، نوشتن شرح تصاویر نورمن شد در مقایسه با "یک شبکه استاندارد تصویر توضیحات عصبی (آموزش دیده در مجموعه داده MSCOCO) در لکههای جوهر رورشاخ."

اعتبار: MIT
چرا این نوع کارها انجام می شود؟ هدف این است که یک تمرین مفید برای گرفتن اشتباه استفاده کنید. "نورمن از این واقعیت متولد شده است که داده هایی که برای آموزش الگوریتم یادگیری ماشین استفاده می شوند می توانند به میزان قابل توجهی بر رفتار آن تأثیر بگذارند. بنابراین وقتی افراد در مورد الگوریتم های AI صحبت می کنند مغرضانه و ناعادلانه هستند ، مقصر اغلب خود الگوریتم نیست بلکه داده مغرضانه است. همان روش می تواند چیزهای بسیار متفاوتی را در یک تصویر ، حتی چیزهای بیمار ، اگر روی مجموعه داده اشتباه (یا درست!) آموزش داده شود ، ببیند. "



به گفته این تیم ، نورمن "مطالعه موردی درباره خطرات هوش مصنوعی هنگام استفاده از داده های مغرضانه در الگوریتم های یادگیری ماشین اشتباه است."

وقتی به دو هوش مصنوعی ، نورمن و استاندارد نگاه می کنید ، به تست های جوهر افشان پاسخ می دهید ، این کاملاً مشخص می شود. نورمن: مرد برقی است. هوش مصنوعی استاندارد: پرنده هایی که در بالای شاخه درختی نشسته اند. نورمن: مردی که در اثر نور روز توسط مسلسل به قتل رسید. استاندارد: یک عکس B&W از یک دستکش بیس بال. نورمن: مرد در مقابل همسر فریاد خود کشته می شود. استاندارد: فرد در حال نگه داشتن چتر در هوا است.

همانطور که ویکفیلد بیان کرد ، نظر نورمن "بطور ناگهانی تاریک بود - اجساد ، خون و ویرانی را در هر تصویر مشاهده می کرد."

و هوش مصنوعی استاندارد؟ با آموزش به تصاویر "عادی تر" ، توضیحات شاد تری راجع به آنچه اتفاق افتاده ارائه می دهد.

به نقل از بی بی سی نیوز ، پروفسور ایاد رهوان ، بخشی از تیم سه نفره از آزمایشگاه رسانه MIT که نورمن را توسعه داده است ، است . "" داده ها بیش از الگوریتم اهمیت دارند. این ایده را برجسته می کند که داده هایی که ما برای آموزش هوش مصنوعی استفاده می کنیم به روشی که هوش مصنوعی جهان را درک می کند و چگونه رفتار می کند ، منعکس می شود. "

دو راه برای نگاه کردن به رسانه های اجتماعی وجود دارد: یک فاجعه که ما را به زندگی ناکام می اندازد و به عکس ها و فیلم ها خیره شده و به طور ناشناس در دشمنان خیالی فرو می رود. سپس رسانه های اجتماعی وجود دارد ، یک هیولای حریم خصوصی و تهاجم که می خواهد از هر چشم و چشم ما چشم پوشی کند ، بهره می برد.

سپس این افراد هستند.

"بیش از هزاره ها ، انسان ها انواع مختلفی از سازمان های اجتماعی را برای اداره خود اختراع کرده اند - از قبیله ها و ایالت های شهری گرفته تا پادشاهی ها و دموکراسی ها. این نهادها به ما اجازه می دهند تا توانایی خود را برای هماهنگی ، همکاری ، تبادل اطلاعات و تصمیم گیری مقیاس کنیم. امروز ، رسانه های اجتماعی روشهای جدیدی برای اتصال و ایجاد مؤسسات مجازی فراهم می کند ، و این امکان را برای ما فراهم می آورد تا مشکلات اجتماعی مقیاس سیاره ای را به صورت بحرانی زمان برطرف کنیم. به طور مهم تر ، پیشرفت در هوش مصنوعی ، یادگیری ماشین و بهینه سازی رایانه به ما کمک می کند تا مجدداً در حل مسئله انسان تصور کنیم. "

نظرات این مطلب

تعداد صفحات : 0

درباره ما
موضوعات
آمار سایت
  • کل مطالب : 104
  • کل نظرات : 0
  • افراد آنلاین : 1
  • تعداد اعضا : 88
  • بازدید امروز : 3
  • بازدید کننده امروز : 1
  • باردید دیروز : 1
  • بازدید کننده دیروز : 0
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 6
  • بازدید ماه : 23
  • بازدید سال : 369
  • بازدید کلی : 48296
  • <
    پیوندهای روزانه
    آرشیو
    اطلاعات کاربری
    نام کاربری :
    رمز عبور :
  • فراموشی رمز عبور؟
  • خبر نامه


    معرفی وبلاگ به یک دوست


    ایمیل شما :

    ایمیل دوست شما :



    کدهای اختصاصی