НОВИНИ


ИЗКУСТВЕНИЯТ ИНТЕЛЕКТ СЕ ОКАЗА РАСИСТ
18.04.2017

Снимка: Pixabay

Когато Майкрософт пусна своя изкуствен интелект - чат бот, наречен Тай (създаден с цел е да провежда забавни чатове и да се учи от разговорите си с потребителите), преди една година в Twitter, нещата поеха към предизвестен крах. Само за 24 часа роботът започна да пуска обидни расистки, неонацистки съобщения, повечето от които събрани от езика на потребителите в социалната мрежа, с които е бил в контакт. 
 

За съжаление ново проучване показва, че троловете в Twitter не са единственият начин, по който изкуственият интелект може да научи расисткия жаргон. Всеки изкуствен интелект, който се учи от човешката реч, е много вероятно да стане предубеден, също както хората са такива. 

Изследователите от Университета в Принстън експериментират с широко използваната система за обучение на машини, наречена Global Vectors for Word Representation (GloVe) и откриват, че всеки вид човешки предразсъдък, който тестват, се появява в изкуствената система. GloVe е инструмент, използван за извличане на асоциации от текстове, в този случай такива от световната мрежа. Проучването е публикувано в списание Science.

"Беше удивително да видим всички резултати в тези модели", коментира Айлин Чалъшкан, изследовател по компютърни науки в Университета Принстън. Дори изкуствените интелекти, които са "обучени" върху предполагаемо неутрални текстове като Wikipedia или новинарски статии, се оказват повлияни от общовалидни човешки предразсъдъци, обяснява тя пред Live Science.

Снимка: Pixabay

На психолозите отдавна е известно, че човешкият мозък прави асоциации между думите, базирани върху техните скрити послания. Инструмент, наречен Implicit Association Test (IAT), използва времето за реакция, за да демонстрира тези асоциации. Например, на хората се показва думата "нарцис" заедно с приятни и неприятни значения като "болка" и "красота" и трябва бързо да натиснат бутон с кое от тях я свързват. Без изненада, цветята по-бързо са свързвани с положителното значение, докато оръжията, например, с негативните значения.

IAT може да бъде използван за разкриване на несъзнателни асоциации, които хората правят относно социални или демографски групи. Например, някои IAT, на разположение в уебсайта Project Implicit, откриват, че хората са по-склонни автоматично да свързват оръжията с чернокожите американци, а безопасните предмети с белите американци.

Относно значението на тези резултати мненията са противоречиви. Дали хората правят тези асоциации защото имат лични, дълбоко залегнали социални предубеждения, за които дори не знаят, или са ги приели от езика, който е статистически по-вероятно да постави негативни думи в близка връзка с етническите малцинства, възрастните и други маргинални групи?

Чалъшкан и нейните колеги разработват IAT за компютри, който наричат WEAT или Word-Embedding Association Test. За всяка асоциация и стереотип, WEAT показва същите резултати, както и IAT. Инструментът за обучение на машини възпроизвежда човешките асоциации между цветята и приятни думи, насекоми и неприятни думи, музикални инструменти и приятни думи, оръжия и неприятни думи.

Тестът установява, че европейско-американските имена са по-приятни отколкото афро-американските имена. Още, че мъжките имена се свързват по-бързо с думи за кариера, докато женските имена - с такива, свързани със семейството. Мъжете са по-силно обвързвани с математиката и науката, а жените с изкуствата. Имена, асоциирани със стари хора, са по-неприятни от имена, свързвани с млади хора.

Като използват втори подобен метод изследователите също така откриват, че инструментът за обучение на машините е успявал точно да представи факти за думите само от тяхното семантично значение. Като сравняват резултатите от GloVe с истински статистични данни от американското Бюро по трудова статистика относно процента на жените с професии, учените откриват 90% корелация между професиите, които GloVe е определил като "женски" и действителния процент жени в тези професии. 

снимка: Pixabay

С други думи, програмите, които се учат от човешкия език, получават "много точна представа за света и културата", коментира Чалъшкан, дори ако тази култура - като стереотипи и предразсъдъци, е проблемна. Изкуственият интелект не успява да хване контекста на човешкото разбиране. Например, статия за Мартин Лутър Кинг, който е пратен в затвора за протест за човешките права през 1963 г., ще бъде свързана с множество негативни думи с афро-американци. Един човек би интерпретирал историята като законов протест от един борец за права, но един компютър би прибавил още към категорията "черен = затвор".

"Не смятаме, че ако се премахнат предразсъдъците, това ще реши проблема, защото вероятно това ще наруши точното представяне на света", смята Чалъшкан.

"Тези резултати не са изненадващи", коментира Сорел Фридлър (Sorelle Friedler), компютърен учен от Хейвърфорд Колидж, която участва в изследването. "Множество системи са изградени с използване на един стандартен метод", допълва тя. Тоест, предразсъдъците много вероятно ще заразят всеки изкуствен интелект, който използва GloVe.

Сорел Фридлър участва в новопоявилото се поле на изследвания, наречено Fairness, Accountability and Transparency in Machine Learning.

Няма лесни начини за разрешаване на тези проблеми, обяснява тя. В някои случаи програмистите може и да успеят да обяснят на системата автоматично да пренебрегва някои стереотипи. Но във всеки един случай на някакъв нюанс ще трябва хората да се намесват, за да бъде сигурно, че машината няма да се развилнее. Решенията зависят от това за какво е разработен изкуственият интелект - дали за научни изследвания, за взимане на директни решения или за нещо друго.

Скритото отношение при хората не се корелира на практика с това на социалните групи. Психолозите са на спорни мнения защо се получава така - дали хората пазят в тайна своите предразсъдъци, за да избегнат публично заклеймяване? Но поне се оказва, че хората имат способността да разбират кое е добро и кое лошо, макар и със своите асоциации, обяснява Чалъшкан. Тя и нейните колеги смятат, че хората трябва да участват, а програмиращият код трябва да бъде прозрачен, така че да могат да правят оценъчни заключения за справедливостта на машините. 

"При предубедена ситуация ние знаем как да вземем правилното решение, но за съжаление машините не са толкова осъзнати", отбелязва Чалъшкан.


 

 

 
източник: nauka.offnews.bg

 


 
337244