OpenAI објави дека е загрижен дека луѓето би можеле да почнат премногу да се потпираат на ChatGPT за дружење, што потенцијално би довело до „зависност“, поради неговиот нов глас кој делува премногу „човечки“.
Во новиот извештај на OpenAI за безбедносен преглед на алатката, кој почнал да се применува за платените корисници пред две недели, и големиот јазичен ВИ модел на кој работи, исто така спомнат е проблемот за емоционално врзување.
Напредниот гласовен режим на ChatGPT звучи неверојатно реалистично. Реагира во реално време, може да се прилагоди за да биде прекинат, прави звуци што луѓето ги испуштаат за време на разговор како смеа или „хмм“. Исто така, може да ја процени емоционалната состојба на говорникот врз основа на неговиот тон на гласот.
Во рок од неколку минути откако OpenAI ја објави новата функција на настан претходно оваа година, таа беше споредувана со ВИ дигитален асистент во филмот „Таа“ од 2013 година, во кој главниот лик се вљубува и останува со скршено срце.
Сега, OpenAI е очигледно загрижен дека измислената приказна е премногу блиску да стане реалност, откако од компанијата велат дека кај корисниците е забележано како зборуваат со гласовниот режим на ChatGPT на јазик што „изразува заеднички врски“.
На крајот, „корисниците би можеле да формираат социјални односи со вештачката интелигенција, намалувајќи ја нивната потреба за човечка интеракција – што може да им користи на осамените поединци, но може да влијае на здравите односи“, се вели во извештајот.
Се додава дека слушањето информации од бот кој звучи како човек може да ги наведе корисниците да и веруваат на алатката повеќе отколку што треба, со оглед на склоноста на ВИ да прави грешки.
Извештајот го нагласува големиот ризик во врска со вештачката интелигенција: технолошките компании се тркаат за побрзо воведување алатки за вештачка интелигенција за кои велат дека би можеле да го променат начинот на кој живееме, работиме, се дружиме и наоѓаме информации. Но, тие го прават тоа пред некој навистина да сфати какви се импликации се можни. Како и кај многуте технолошки напредоци, компаниите често имаат една идеја за тоа како нивните алатки можат и треба да се користат, но корисниците доаѓаат со цела низа други потенцијални примени, често со несакани последици.
Некои луѓе веќе формираат романтични врски со ВИ чатботови, што ги загрижува експертите за социјални односи.
„Голема е одговорноста на компаниите навистина да ја водат pаботата на етички и одговорен начин, а сè е моментално во експериментална фаза. Загрижена сум поради тоа што луѓето создаваат навистина длабоки врски со технологијата што можеби нема да постои на долг рок и која постојано се развива и менува“, вели Лајзел Шараби, професорка на Универзитетот во Аризона, која ја проучува технологијата и човечката комуникација.
OpenAI наведува дека интеракциите на човечките корисници со гласовниот режим на ChatGPT исто така може да влијаат на она што се смета за нормално во социјалните интеракции со текот на времето.
Засега, OpenAI вели дека е посветен на градење вештачка интелигенција на „безбеден начин“ и планира да продолжи да го проучува потенцијалот на „емоционалното потпирање“ на корисниците на неговите алатки.