Лекције из етике вештачке интелигенције и аутономних система извучене из недавног лета Аласка Аирлинес-а где се пилот и копилот нису сложили пре полетања и нагло су одлучили да таксирају назад до терминала и иду својим различитим путевима

Авио-компаније су у последње време доста у вестима.

Налазимо се у летњој гужви летова. Уморни и фрустрирани путници се суочавају са свим врстама прекида летова и поремећаја у распореду авио-компанија. Летови се неочекивано отказују. Летови касне. Испарења путника. Нажалост, било је много случајева када су путници дозволили да ове невоље избију, а ми смо видели ужасно превише вирусних видео снимака међусобних сукоба и понекад ударања песницама.

Ређе сазнајемо о споровима између пилота и копилота до којих може доћи док су у кокпиту.

То је право изненађење.

Заиста, природно смо затечени кад помислимо да би пилот и копилот имали било какав привид озбиљног неслагања током било које фазе лета. Ако се неслагање односи на то која је марка кафе најбоља, наша претпоставка је да то не би ометало радни напор који подразумева летење авионом. Њих двоје би једноставно одбацили њихов недостатак очи у очи о наизглед нерелевантној теми за лет. Њихово професионално држање и дугогодишња обука пилота би се појавили и они би свој фокус вратили на детаље лета.

Ипак, размислите када је а професионално неслагање интервенише.

Укратко ћу са вама поделити вест која је нашироко објављена о недавном случају нечега што се догодило током лета у САД у вези са наводним професионалним неслагањем у пилотској кабини.

Ово се овде углавном цитира како бисмо могли да истражимо сродну тему која је од великог значаја за појаву вештачке интелигенције (АИ). Видите, може постојати облик, да тако кажемо, професионалног неслагања између не само људи у неслагању између људи, већ се може десити и нешто слично усред усвајања АИ и ерго резултирајући професионалним неслагањима између људи и АИ . Појављују се све врсте етичких разматрања АИ. За моје опсежно и стално покривање питања етике вештачке интелигенције и етичких питања вештачке интелигенције, погледајте линк овде линк овде, само да поменемо само неке.

Припремите се за фасцинантну причу.

Као што је недавно објављено у вестима, случај „професионалног неслагања“ је очигледно настао током лета Аласка Аирлинеа који је ишао из Вашингтона за Сан Франциско. Према извештајима вести, лет се удаљио од капије и чекао је на писти дозволу да такси и полети. Невреме је било у току и довело је до кашњења лета више од сат и по. Испоставило се да се авион на крају окренуо и кренуо назад ка капији, за коју су неки од путника обично могли претпоставити да је само мера предострожности везана за олују.

Према разним твитовима, чини се да су пилот и копилот имали неку врсту свађе ван видокруга током свог боравка у пилотској кабини и некако су дошли до закључка да би најразборитији приступ био да прочисти лет и врати се на терминал . Твитови сугеришу да капетан и први официр очигледно нису могли да се слажу један са другим. Авио-компанија је касније издала саопштење да је ситуација била несрећна (ситуација није експлицитно наведена или објашњена сама по себи), руководство је оценило два официра летача и сматрало их способним за летење, посаде су замењене и лет је ипак одржан а касније је стигао у Сан Франциско.

У једном смислу, ако су пилот и копилот у ствари имали професионалне несугласице, на пример да ли је авион био прикладно спреман за лет или да ли је ризик од летења кроз олују био у одговарајућем безбедносном опсегу, ти путници би требало да буду растерећени и захвалан што је авион враћен на капију. Боље бити сигуран него жалити. Додатно кашњење је вредно претпостављеног смањења ризика повезаних са сматраним тешким или неповољним летењем.

Неки људи би могли бити изненађени да може доћи до таквог професионалног неслагања.

Можда имамо погрешан утисак да је све што се дешава у кокпиту потпуно прецизно и добро скриптирано. Чини се да је сваки облик људске дискреције истиснут из процеса. На основу прецизних и темељно израчунатих карата, лет је или у реду да се настави или није. Не може бити било каквог неслагања када се мисли да су цео комплет и цабоодле засновани на непобитној рачуници чињеница и бројки.

То није пуна истина. Наравно, постоји гомила протокола и свих врста провера и равнотеже, али то не истискује сву количину људског расуђивања. Пилоти и копилоти и даље врше људску расуђивање. На срећу, ово људско расуђивање је избрушено годинама летења. Шансе су да пилот и копилот у комерцијалном путничком авиону имају гомилу претходног искуства у летењу и да лако користе своје дугогодишње дубинско расуђивање и расуђивање везано за контролу лета.

С обзиром на значајну улогу људског расуђивања, могли бисмо логично предвидјети да ће пилот и копилот понекад имати професионалне несугласице. Већину времена вероватно постоји врло мало таквих неслагања. Пилот и копилот за свакодневне летове ће вероватно бити добро усклађени у то време. Тек када би сценарио лета могао да изађе ван конвенционалних граница, очекивали бисмо да ће се појавити напетије трење.

Ако постоји јака разлика у мишљењима између њих двојице, усудио бих се рећи да желимо да то избаце.

Замислите ситуацију у којој пилот оштро жели да настави, али копилот сматра да су ризици превисоки. Само да се копилот поклони пилоту изгледало би непожељно. Копилот је провера и равнотежа онога што пилот можда мисли да уради. За оне који желе да копилот ућути и само безумно поступа према ономе што пилот одреди, па, то није нека сигурност. Копилот није само резервни „пилот“ који улази у слику тек када је пилот потпуно неспособан. То је погрешно схватање вредности пилота и копилота у кокпиту.

Постоји и други угао овога.

Узмите у обзир случај пилота који не верује да би лет требало да се настави, а у међувремену копилот је нервозан око подизања у ваздух. Шта онда? По очекиваној хијерархији, пилот би требало да конвенционално превлада над копилотом. Одређена улога да буде примарни главни чини пилота већим од онога што је иначе донекле једнако. Уобичајено, пилот има више укупног времена летења него копилот и ерго копилот хијерархијски треба да се придржава пилотових жеља (када је то у разумном року).

У сваком случају, мислим да се сви можемо сложити да је одлука да не летите сигурно мање ризичан избор од одлуке да летите. Када се авион подигне у ваздух, нивои ризика постају огромни у поређењу са било којим уобичајеним стабилним тлом. Уобичајени комерцијални лет који једноставно таксира назад до терминала без уласка у ваздух био би прилично пријатељско решење за сваку жучну дебату о одласку у лет.

Хајде да променимо брзину и искористимо ову духовиту вест у сасвим другачију, али повезиву сврху.

Постепено међу нама превладавају аутономни системи засновани на вештачкој интелигенцији. Понекад АИ води емисију, такорећи. АИ ради све од А до З, а ми бисмо ово могли протумачити као АИ који је потпуно аутономан или скоро тако. У другим случајевима, можемо имати АИ која је у интеракцији са и у одређеном степену је програмирана да се ослања на човека у петљи.

Желео бих да се концентришем на питање аутономног или полуаутономног система заснованог на вештачкој интелигенцији који од самог почетка има човека у петљи. АИ и човек су намерно спојени и требало би да раде у тандему једно са другим. Они су кохорте у обављању одређеног задатка. АИ сама не би требало да делује на задатку. АИ мора да комуницира са одређеним човеком у петљи.

Помињем ову карактеризацију да бих се разликовао од ситуација у којима се човек-у-петљи сматра опционим аспектом. У суштини, вештачкој интелигенцији су дате слободне руке. Ако АИ одлучи да користи човека, нека тако и буде. Не постоји услов да АИ мора да додирне базу или да ради руку под руку са одређеним човеком. Анализе које ћу сада извести су свакако релевантне за ту врсту опционо договор о интеракцији, али то није оно на шта се конкретно бавим у овој конкретној дискусији.

У реду, имамо неку врсту задатка на којем ће човек и вештачка интелигенција радити заједно, неодвојиво једно од другог. У апстрактном смислу, имамо човека који седи на једном седишту и АИ систем који седи на другом пратећем седишту. Кажем ово дрско јер ову дискусију не ограничавамо на робота, на пример, који би заправо могао да седи у седишту. Метафорички алудирам на идеју да вештачка интелигенција негде учествује у задатку, као и човек. Физички, њихово боравиште није од посебног значаја за дискусију.

Можда нисте сигурни када би се таква околност могла појавити.

Лаганица.

Касније ћу разговарати о појави аутономних возила и аутомобила који се сами возе. На одређеним нивоима аутономије, вештачка интелигенција и човек би требало да раде заједно. АИ можда вози аутомобил и захтева да човек преузме контролу вожње. Човек можда вози ауто и активира АИ да преузме контролу. Смењују се на командама вожње.

Поред тога, неки дизајни имају АИ да буде у суштини активна све време (или, осим ако није искључена), тако да је АИ увек спремна. Штавише, вештачка интелигенција може директно да интервенише, чак и без питања људи, у зависности од ситуације која се одвија. Претпоставимо, на пример, да изгледа да је човек заспао за воланом. Пошто човек наизглед не може да активира вештачку интелигенцију (јер особа спава), вештачка интелигенција може бити програмирана да преузме контролу од човека.

Неки дизајни доводе АИ и људе у двоструки приступ вожњи. АИ вози и човек вози. Или, ако желите, човек вози, а АИ такође вози. Сваки од њих вози возило. Ово упоређујем са оним специјално монтираним аутомобилима које сте можда користили док сте похађали обуку за возача и у возилу су постојала два сета контрола вожње, један за студента возача и један за инструктора вожње.

То је само један пример окружења у којем АИ и људи можда раде заједно на задатку. Све врсте могућности постоје. Друге врсте аутономних возила могу бити слично осмишљене, као што су авиони, дронови, подморнице, површински бродови, возови и тако даље. Не морамо да разматрамо само подешавања возила и транспорта. Замислите медицински домен и операције које заједнички изводе лекар и систем вештачке интелигенције. Листа је бескрајна.

Скоро да се осећам као да се осврнем на класично бурну шалу о човеку и вештачкој интелигенцији који заједно уђу у бар. За оне који се баве вештачком интелигенцијом, то је прави смех.

Озбиљно, вратимо се фокусу на човека и систем вештачке интелигенције који заједно раде на датом задатку. Прво, желим да избегнем антропоморфизацију вештачке интелигенције, што је нешто што ћу истицати у целости. АИ није разуман. Имајте то на уму.

Ево о нечему да размислите: Да ли ће одређени човек-у-петљи увек бити у потпуном слагању са АИ у заједничком тиму?

За било који сложен задатак, чини се мало вероватним да ће човек и вештачка интелигенција у потпуности и увек бити у потпуности усклађени. Човек се у неким приликама вероватно неће сложити са АИ. Ту претпоставку можемо узети све до банке.

Желео бих да размотрите и ову можда изненађујућу могућност: Да ли ће АИ увек бити у потпуној сагласности са одређеним човеком у петљи?

Опет, за било који сложен задатак, изгледало би сасвим замисливо да АИ у неким приликама неће бити у сагласности са људима. Ако већ нагињете идеји да вештачка интелигенција увек мора да греши, док људи увек морају да буду у праву, било би мудро да преиспитате тај исхитрени закључак. Замислите аутомобил који има човека и АИ који заједно возе полуаутономно возило. Човек се креће према зиду од цигле. Зашто? Не знамо, можда је човек опијен или је заспао, али знамо да забијање у зид од цигле није добра идеја, под условом да је све остало једнако. АИ би могао да открије надолазећу несрећу и покуша да се склони од надолазеће баријере.

Све у свему, имаћемо јасну могућност да се вештачка интелигенција и човек не слажу једно са другим. Други начин да се каже иста ствар је да људи и АИ се међусобно не слажу. Имајте на уму да не желим да редослед АИ-и-људи наспрам људи-и-АИ сугерише било шта о правцу или веродостојности неслагања.

Два радника, један човек и један који је АИ, не слажу се једни са другима.

Могли бисмо унапред да изјавимо да кад год дође до неслагања између дате вештачке интелигенције и датог човека, ми унапред проглашавамо да човек преовлађује над АИ. Имајући то у виду, мој илустративни пример о аутомобилу који се залеће у зид од цигала би нас разуверио да ће човек увек бити у праву.

Насупрот томе, могли бисмо се одлучити да унапред изјавимо да ћемо, кад год дође до неслагања, унапред утврдити да је вештачка интелигенција у праву, а да је човек у криву. Ни ово није разумно уопштена одредба. Замислите аутомобил у којем АИ има неку уграђену софтверску грешку или грешку, а АИ покушава да скрене возило са пута у јарак. Под претпоставком да је све остало једнако, човек би требало да буде у стању да превазиђе ову акцију вожње АИ и спречи да возило слети у јаруга.

Хајде да направимо кратак резиме овога:

  • Да ли ће човек-у-петљи увек бити у потпуности сагласан са вештачком интелигенцијом? Одговор: Не.
  • Да ли ће АИ увек бити у потпуној сагласности са човеком у петљи? Одговор: Не.
  • Да ли ће човек-у-петљи увек бити у праву у поређењу са вештачком интелигенцијом? Одговор: Не нужно.
  • Да ли ће АИ увек бити у праву у поређењу са човеком у петљи? Одговор: Не нужно.

Свакако можете подесити АИ да се подразумевано сматра „погрешном“ или слабијом страном и стога се увек повинујете човеку кад год се појави неслагање. Исто тако, можете подесити АИ да претпостави да се АИ сматра „исправним“ кад год се човек не слаже са АИ. Желим да појасним да то можемо програмски да урадимо ако то желимо. Ипак, тврдим да генерално, то неће увек бити случај. Засигурно постоје окружења у којима не знамо унапред да ли је АИ „у праву“ или је човек „у праву“ у смислу одлучивања за једно или друго у вези са неслагањем у вези са датим задатком.

Довео сам вас до веома важног и веома компликованог питања.

Шта треба да урадимо када дође до професионалног неслагања између човека у петљи и вештачке интелигенције (или, што је еквивалентно, ово можемо изразити као да постоји између АИ и човека у петљи)?

Не покушавајте да избегнете питање.

Неки би могли тврдити да се то никада неће догодити, али као што сам навео у свом примеру о аутомобилу, то би се сигурно могло догодити. Неки би могли тврдити да је човек очигледно супериорнији и да мора бити победник у сваком неслагању. Мој пример аута и зида од цигле га обара. Постоје заговорници вештачке интелигенције који би могли инсистирати на томе да АИ мора бити победник, због наводног превазилажења људских емоција и безобзирног размишљања од стране тих насумичних људи са нејасним размишљањем. Још једном, мој други пример који подразумева да аутомобил иде у јарак поткопава ту тврдњу.

У стварном свету, вештачка интелигенција и људи се неће слагати, чак и када су њих двоје намерно доведени у ситуацију да се удруже да би обавили заједнички задатак. То ће се десити. Не можемо гурнути главу у песак и претварати се да се то неће догодити.

Видели смо да су се људи који су пилотирали авионом очигледно посвађали. Срећом, пристали су да се не слажу, тако се чини. Вратили су авион на терминал. Нашли су начин да се изборе са неслагањем. Решење њиховог неслагања је добро успело, у поређењу са тим да су се можда сукобили у кокпиту или су можда полетели у ваздух и наставили да се међусобно боре. То је тужан сценарио који је неодржив и можемо бити захвални да се није догодио.

Дозволите ми да дам своју листу различитих начина на које неслагања између вештачке интелигенције и човек у петљи (или човек у петљи и вештачка интелигенција) могу бити решена:

  • АИ и удружени људи решавају ствари (пријатељски или не)
  • Човек подразумевано превладава над вештачком интелигенцијом
  • АИ превладава над људским, подразумевано
  • Преовладава нека друга унапред одређена фиксна резолуција, подразумевано
  • Људи треће стране су укључени и њихова индикација преовладава над странама
  • АИ треће стране је укључен у петљу и његова индикација преовладава над странама
  • Човек треће стране замењује постојећег човека, ствари иду изнова
  • АИ треће стране замењује постојећу АИ, ствари се настављају изнова
  • Човек треће стране замењује постојећу вештачку интелигенцију, ствари се одвијају изнова (сада од човека до човека)
  • АИ треће стране замењује постојећег човека, ствари се настављају изнова (сада АИ-то-АИ)
  • други

Они су веома вредни распакивања.

Пре него што уђемо у нешто више о месу и кромпиру о дивљим и вунастим разматрањима која леже у основи како се носити са АИ и људским несугласицама, хајде да изложимо неке додатне основе о суштински важним темама. Морамо накратко да заронимо у етику вештачке интелигенције и посебно на појаву машинског учења (МЛ) и дубоког учења (ДЛ).

Можда сте нејасно свесни да се један од најгласнијих гласова ових дана у пољу вештачке интелигенције, па чак и ван поља вештачке интелигенције, састоји у тражењу већег привида етичке вештачке интелигенције. Хајде да погледамо шта значи упућивање на етику вештачке интелигенције и етичку вештачку интелигенцију. Поврх тога, истражићемо шта мислим када говорим о машинском учењу и дубоком учењу.

Један посебан сегмент или део етике вештачке интелигенције који добија велику пажњу медија састоји се од вештачке интелигенције која показује непристрасне пристрасности и неједнакости. Можда сте свесни да је када је почела најновија ера вештачке интелигенције дошло до огромног налета ентузијазма за оно што неки сада називају AI za dobro. Нажалост, за петама тог бујног узбуђења, почели смо да свједочимо AI za loše. На пример, откривено је да различити системи за препознавање лица засновани на вештачкој интелигенцији садрже расне и родне предрасуде, о чему сам говорио на линк овде.

Напори за узврат AI za loše су активно у току. Поред гласног правни настојања да се обузда злодела, постоји и суштински подстицај ка прихватању етике вештачке интелигенције како би се исправила подлост АИ. Идеја је да треба да усвојимо и подржимо кључне етичке принципе вештачке интелигенције за развој и постављање АИ, чинећи то да поткопамо AI za loše и истовремено најављујући и промовишући пожељно AI za dobro.

У вези с тим, ја сам заговорник покушаја да се АИ користи као део решења за невоље АИ, борећи се са ватром ватром на тај начин размишљања. На пример, могли бисмо да уградимо компоненте етичке вештачке интелигенције у систем вештачке интелигенције који ће пратити како остатак АИ ради ствари и на тај начин потенцијално ухватити у реалном времену све дискриминаторске напоре, погледајте моју дискусију на линк овде. Такође бисмо могли да имамо посебан систем вештачке интелигенције који делује као врста монитора етике вештачке интелигенције. Систем вештачке интелигенције служи као надзорник за праћење и откривање када друга вештачка интелигенција иде у неетички понор (погледајте моју анализу таквих способности на линк овде).

За тренутак ћу поделити са вама неке свеобухватне принципе који су у основи етике вештачке интелигенције. Постоји много оваквих листа које лебде ту и тамо. Могло би се рећи да још увек не постоји јединствена листа универзалне привлачности и сагласности. То је несрећна вест. Добра вест је да барем постоје лако доступне листе етике вештачке интелигенције и да су обично прилично сличне. Све у свему, ово сугерише да путем неке врсте разумне конвергенције проналазимо пут ка општем заједништву онога од чега се састоји етика вештачке интелигенције.

Прво, хајде да укратко покријемо неке од укупних етичких правила вештачке интелигенције како бисмо илустровали шта би требало да буде од виталног значаја за свакога ко прави, користи или користи вештачку интелигенцију.

На пример, како наводи Ватикан у Рим позива на етику вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових идентификованих шест примарних етичких принципа АИ:

  • Транспарентност: У принципу, АИ системи морају бити објашњиви
  • Укључење: Потребе свих људских бића морају се узети у обзир како би сви могли имати користи, а свим појединцима могу бити понуђени најбољи могући услови за изражавање и развој
  • Одговорност: Они који дизајнирају и примењују коришћење вештачке интелигенције морају да поступе са одговорношћу и транспарентношћу
  • Непристрасност: Не стварајте и не поступајте у складу са пристрасношћу, штитећи на тај начин правичност и људско достојанство
  • Поузданост: АИ системи морају бити у стању да поуздано раде
  • Безбедност и приватност: Системи вештачке интелигенције морају да раде безбедно и да поштују приватност корисника.

Како наводи Министарство одбране САД (ДоД) у свом Етички принципи за коришћење вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових шест примарних етичких принципа АИ:

  • Одговорни: Особље Министарства одбране ће применити одговарајуће нивое расуђивања и бриге, док ће остати одговорно за развој, примену и коришћење способности вештачке интелигенције.
  • правичан: Одељење ће предузети намерне кораке да минимизира ненамерну пристрасност у способностима вештачке интелигенције.
  • следљиво: АИ способности Одељења ће бити развијене и распоређене тако да релевантно особље поседује одговарајуће разумевање технологије, развојних процеса и оперативних метода применљивих на АИ способности, укључујући транспарентне и проверљиве методологије, изворе података и процедуру и документацију дизајна.
  • Поуздано: АИ способности Одељења ће имати експлицитну, добро дефинисану употребу, а безбедност, безбедност и ефикасност таквих способности биће предмет тестирања и уверавања у оквиру тих дефинисаних употреба током читавог њиховог животног циклуса.
  • којим се може управљати: Одељење ће дизајнирати и конструисати АИ способности да испуне своје предвиђене функције, истовремено поседујући способност откривања и избегавања нежељених последица, као и способност да искључи или деактивира распоређене системе који показују ненамерно понашање.

Такође сам расправљао о различитим колективним анализама етичких принципа АИ, укључујући покривање скупа који су осмислили истраживачи који су испитивали и сажимали суштину бројних националних и међународних етичких начела АИ у раду под насловом „Глобални пејзаж етичких смерница АИ“ (објављен ин Природа), и које моје покривање истражује на линк овде, што је довело до ове кључне листе:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Као што можете директно претпоставити, покушај да се утврде специфичности које леже у основи ових принципа може бити изузетно тежак. Штавише, напор да се ти широки принципи претворе у нешто сасвим опипљиво и довољно детаљно да се користи при изради АИ система такође је тврд орах. Лако је генерално мало рећи шта су етичка правила вештачке интелигенције и како их генерално треба поштовати, док је много компликованија ситуација у кодирању вештачке интелигенције да мора да буде права гума која излази на пут.

Принципе етике вештачке интелигенције треба да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима вештачке интелигенције, па чак и онима који на крају обављају и одржавају АИ системе. Све заинтересоване стране током читавог животног циклуса АИ развоја и употребе се сматрају у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Као што је раније речено, потребно је село да осмисли и примени АИ, а за шта цело село мора да буде упознато и да се придржава етичких прописа АИ.

Хајде да се уверимо да смо на истој страни о природи данашње вештачке интелигенције.

Данас не постоји АИ која је разумна. Ми немамо ово. Не знамо да ли ће разумна АИ бити могућа. Нико не може тачно да предвиди да ли ћемо достићи осећајну АИ, нити да ли ће се осећајна АИ некако чудесно спонтано појавити у облику компјутерске когнитивне супернове (која се обично назива сингуларитет, погледајте моје извештавање на линк овде).

Тип вештачке интелигенције на коју се фокусирам састоји се од вештачке интелигенције коју данас имамо. Кад бисмо хтели да дивље спекулишемо о осетљив АИ, ова дискусија би могла да иде у радикално другом правцу. Разумна АИ би наводно била људског квалитета. Морали бисте узети у обзир да је разумна АИ когнитивни еквивалент човека. Штавише, пошто неки спекулишу да бисмо могли имати супер-интелигентну вештачку интелигенцију, могуће је да би таква вештачка интелигенција могла да буде паметнија од људи (за моје истраживање супер-интелигентне вештачке интелигенције као могућности, види покривеност овде).

Хајде да задржимо ствари на земљи и размотримо данашњу компјутерску неосетљиву вештачку интелигенцију.

Схватите да данашња вештачка интелигенција није у стању да „размишља” ни на који начин на нивоу људског размишљања. Када комуницирате са Алеком или Сири, конверзацијски капацитети могу изгледати слични људским капацитетима, али реалност је да су рачунарски и да им недостаје људска спознаја. Најновија ера АИ је у великој мери користила машинско учење (МЛ) и дубоко учење (ДЛ), који користе упаривање рачунарских образаца. Ово је довело до АИ система који изгледају као склоности налик људима. У међувремену, данас не постоји ниједна вештачка интелигенција која има привид здравог разума нити има било какво когнитивно чудо снажног људског размишљања.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су доносили одлуке по узору на инкорпорирали нежељене предрасуде, шансе су да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји никакав привид здравог разума или других разумних аспеката моделирања направљеног од вештачке интелигенције.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика у МЛ/ДЛ-у може отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји велика шанса да чак и уз релативно опсежна тестирања, постоје пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Могли бисте донекле користити чувену или злогласну изреку смеће-у-ђубре-ван. Ствар је у томе што је ово више слично предрасудама које се подмукло уносе као пристрасности потопљене у АИ. Алгоритам доношења одлука (АДМ) АИ аксиоматски постаје оптерећен неједнакостима.

Није добро.

Вратимо се нашем фокусу на несугласице између АИ и човека.

Раније сам назначио да су ово неке од стратегија за решавање неслагања:

  • АИ и удружени људи решавају ствари (пријатељски или не)
  • Човек подразумевано превладава над вештачком интелигенцијом
  • АИ превладава над људским, подразумевано
  • Преовладава нека друга унапред одређена фиксна резолуција, подразумевано
  • Људи треће стране су укључени и њихова индикација преовладава над странама
  • АИ треће стране је укључен у петљу и његова индикација преовладава над странама
  • Човек треће стране замењује постојећег човека, ствари иду изнова
  • АИ треће стране замењује постојећу АИ, ствари се настављају изнова
  • Човек треће стране замењује постојећу вештачку интелигенцију, ствари се одвијају изнова (сада од човека до човека)
  • АИ треће стране замењује постојећег човека, ствари се настављају изнова (сада АИ-то-АИ)
  • други

Време је да их распакујемо.

Прво, узмите у обзир да се ради о томе професионалац несугласице.

Професионално неслагање је слободно дефинисано као неслагање повезано са задатком у вези са послом.

На пример, неспоразум између пилота и копилота око тога да ли да настави са летом који је суочен са олујом може се разумно означити као професионално неслагање. Насупрот томе, жестоко неслагање око тога за коју се марку кафе пилот залаже у односу на марку коју копилот преферира лако се категорише као непрофесионално неслагање у овом конкретном контексту.

Наравно, ако непрофесионално неслагање прерасте у професионалну несугласицу, на крају бисмо могли бити заинтересовани за непрофесионално неслагање као претпостављени извор или искра за професионално неслагање. Замислите да се пилот и копилот огорчено препиру око тога која је марка кафе најбоља, што се онда, нажалост, прелива у бриге везане за лет (игра речи!), као што је да ли полетети или не.

Друго, морамо имати на уму величину професионалног неслагања.

Можда пилот и копилот или у благом неслагању око наставка летења. Они нису у завади и само размишљају о предностима и недостацима да ли да полете. Ово није калибар или величина професионалног неслагања које ми овде обично разматрамо. Ствар је у томе што је могуће да је професионална неслагања пролазна и да обе стране срдачно или бар благовремено доносе решење. Уопштено говорећи, фокус професионалних неслагања унутар опсега су они који су наизглед нерешиви, а две стране остају упорно у неслагању.

Треће, обично мора да постоји нешто озбиљно да би ове смернице ступиле на снагу.

Одлучити да летите или не летите је одлучна одлука на живот или смрт ако је лет у опасности због олује или се сматра да авион није у потпуности спреман за такво путовање. Ово је озбиљан посао. Још увек можемо да применимо смернице на мање утицајне професионалне несугласице, иако би то могло бити више мучно него што вреди.

У реду, наша разматрања су следеће:

  • Неслагање је углавном професионално оријентисано, а не око нечег непрофесионалног
  • Неспоразум је трајне природе и није само пролазан или се на други начин лако решава
  • Неслагање предвиђа озбиљне последице и обично има утицајан исход
  • Странке су у завади и делују нерешиво

Хајде да сада детаљније погледамо сваку од мојих предложених смерница или приступа у вези са тим како се носити са таквим професионалним несугласицама.

АИ и удружени људи решавају ствари (пријатељски или не)

Почињем листу са једноставном могућношћу да су вештачка интелигенција и човек у петљи у стању да реше професионалне несугласице међу собом. Чини се да можда пример двојице људи, пилота и копилота, илуструје овакву врсту околности. Некако су решили да се врате на терминал и оду својим путем. Могуће је да су систем вештачке интелигенције и човек у стању да смисле приступ решавања који је генерално задовољавајући за обе стране и тако је ствар на задовољавајући начин закључена.

Човек подразумевано превладава над вештачком интелигенцијом

Када постављамо вештачку интелигенцију, могли бисмо да програмирамо правило које каже да ће човек-у-петљи увек превладати кад год дође до професионалног неслагања. Ово би било експлицитно кодирано подразумевано. Такође бисмо могли дозволити неки облик заобилажења, за сваки случај, иако ће постојати правило да људско превлада.

АИ превладава над људским, подразумевано

Када постављамо АИ, могли бисмо да програмирамо правило које каже да ће АИ увек превладати над човеком у петљи кад год дође до професионалног неслагања. Ово је експлицитно кодирано подразумевано. Такође бисмо могли дозволити неки облик заобилажења, за сваки случај, иако ће стално правило бити да АИ преовладава.

Преовладава нека друга унапред одређена фиксна резолуција, подразумевано

Када постављамо АИ, могли бисмо да програмирамо правило које каже да ће нека друга унапред одређена фиксна резолуција преовладати кад год дође до професионалног неслагања са човеком у петљи. Човек у петљи подразумевано не преовлађује. АИ подразумевано не преовлађује. Постоји нека друга унапред идентификована резолуција. На пример, можда постоји бацање новчића који ће се користити да се одлучи која од две стране се сматра правим путем. То би очигледно изгледало прилично произвољно; стога би још један пример приступа био да се активира специјализовано правило које израчунава вредност на основу инпута две стране и долази до резултата као преломног резултата.

Људи треће стране су укључени и њихова индикација преовладава над странама

У случају професионалног неслагања, правило би могло бити да се трећа страна која је човек позове и уплете у окружење како би донела одлуку о решавању неслагања. АИ је програмиран да се придржава онога што човек треће стране одлучи. Човек који је већ у кругу човека-у-петљи је унапред добио инструкције да, ако дође до такве ситуације, и они треба да се повинују човеку треће стране. На страну, вероватно можете предвидети да би човек-у-петљи могао да има љутњу због приступа ономе што човек треће стране одлучи ако се одлука не слаже са ставом човека у петљи.

АИ треће стране је укључен у петљу и његова индикација преовладава над странама

У случају професионалног неслагања, правило би могло бити да се позове трећа страна која је другачији систем вештачке интелигенције и упетља у окружење како би донела одлуку о решавању неслагања. Оригинална АИ је програмирана да се придржава онога што АИ треће стране одлучи. Човек који је већ у кругу човека у петљи је унапред добио инструкције да, ако дође до такве ситуације, и они треба да се препусте АИ треће стране. На страну, вероватно можете да предвидите да би човек у петљи могао да буде забринут због приступа ономе што одлучи АИ треће стране ако се одлука не слаже са ставом човека у петљи.

Човек треће стране замењује постојећег човека, ствари иду изнова

Након професионалног неслагања, човек-у-петљи је замењен трећом страном која је човек и која од сада постаје човек-у-петљи. Човек који је био првобитни човек у петљи за задатак више се не сматра делом задатка. Отворен је аспект онога што се иначе дешава са сада замењеним човеком у петљи, али ми кажемо да они сигурно више немају никакву сталну улогу у радном задатку.

АИ треће стране замењује постојећу АИ, ствари се настављају изнова

У случају професионалног неслагања, АИ је замењен АИ треће стране и то постаје АИ која се од сада користи за радни задатак који је при руци. АИ који је првобитно коришћен за задатак више се не сматра делом задатка. Отворен је аспект онога што се иначе дешава са сада замењеном АИ, али ми кажемо да сигурно АИ више нема никакву сталну улогу у радном задатку.

Човек треће стране замењује постојећу вештачку интелигенцију, ствари се одвијају изнова (сада од човека до човека)

Након професионалног неслагања, АИ је замењен човеком треће стране за кога та особа сада постаје сматрана ко-тимска страна која ће бити коришћена за радни задатак. АИ који је првобитно коришћен за задатак више се не сматра делом задатка. Отворен је аспект онога што се иначе дешава са сада замењеном АИ, али ми кажемо да сигурно АИ више нема никакву сталну улогу у радном задатку. Укратко, ово сада постаје задатак који обављају две стране од човека до човека.

АИ треће стране замењује постојећег човека, ствари се настављају изнова (сада АИ-то-АИ)

Након професионалног неслагања, човек-у-петљи је замењен АИ треће стране и ова АИ постаје од сада допуна за претходни човек-у-петљи. Човек који је био првобитни човек у петљи за задатак више се не сматра делом задатка. Отворен је аспект онога што се иначе дешава са сада замењеним човеком у петљи, али ми кажемо да они сигурно више немају никакву сталну улогу у радном задатку. Укратко, ово сада постаје двострана АИ-то-АИ за обављање задатка.

други

Могу се осмислити и друге варијације како би се изашло на крај са професионалним несугласицама, али ми смо овде покрили неке од кључних ствари.

Како да одлучимо који од тих приступа ће бити прави за дату ситуацију?

За доношење таквог избора улази се у широк спектар питања. Постоје технолошка разматрања. Постоје пословни разлози. Постоје правна и етичка разматрања.

У извесној мери, зато су етика вештачке интелигенције и етичка вештачка интелигенција тако кључна тема. Прописи етике вештачке интелигенције нас наводе да останемо будни. Технолози АИ понекад могу бити заокупљени технологијом, посебно оптимизацијом високе технологије. Они не размишљају нужно о већим друштвеним последицама. Имати етички начин размишљања о вештачкој интелигенцији и чинити то интегрално за развој вештачке интелигенције и њено коришћење на терену је од виталног значаја за производњу одговарајуће вештачке интелигенције, укључујући (можда изненађујуће или иронично) процену тога како компаније усвајају етику вештачке интелигенције.

Поред примене етичких прописа АИ уопште, постоји одговарајуће питање да ли треба да имамо законе који би регулисали различите употребе АИ. На савезном, државном и локалном нивоу се доносе нови закони који се тичу опсега и природе начина на који АИ треба да буде осмишљен. Напори да се израде и донесу такви закони су постепени. Етика вештачке интелигенције у најмању руку служи као зауставно решење и скоро сигурно ће до неког степена бити директно укључено у те нове законе.

Имајте на уму да неки упорно тврде да нам нису потребни нови закони који покривају АИ и да су наши постојећи закони довољни. У ствари, они унапред упозоравају да ћемо, ако донесемо неке од ових закона о вештачкој интелигенцији, убити златну гуску ограничавајући напредак у вештачкој интелигенцији који нуди огромне друштвене предности.

У овом тренутку ове тешке дискусије, кладим се да сте жељни неких илустративних примера који би могли показати ову тему. Постоји посебан и сигурно популаран скуп примера који су ми блиски. Видите, у мом својству стручњака за вештачку интелигенцију, укључујући етичке и правне последице, од мене се често тражи да идентификујем реалне примере који приказују дилеме етике вештачке интелигенције како би се донекле теоријска природа теме могла лакше схватити. Једна од најзанимљивијих области која живописно представља ову етичку дилему АИ је појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији. Ово ће послужити као згодан случај употребе или пример за широку дискусију о овој теми.

Ево онда важног питања о којем вреди размислити: Да ли појављивање правих самовозећих аутомобила заснованих на вештачкој интелигенцији осветљава било шта о решењима неслагања између вештачке интелигенције и људи, и ако јесте, шта ово показује?

Дозволите ми тренутак да распакујем питање.

Прво, имајте на уму да не постоји људски возач који је укључен у прави ауто који самостално вози. Имајте на уму да се истински самовозећи аутомобили возе преко АИ система за вожњу. Не постоји потреба за људским возачем за воланом, нити је предвиђено да човек управља возилом. За моју опсежну и сталну покривеност аутономних возила (АВ) и посебно аутомобила који се сами возе, погледајте линк овде.

Желео бих да додатно разјасним шта се мисли када говорим о правим самовозећим аутомобилима.

Разумевање нивоа самоуправних аутомобила

Као појашњење, истински самовозећи аутомобили су они у којима АИ вози аутомобил потпуно сам и нема никакве људске помоћи током задатка вожње.

Ова возила без возача се сматрају нивоом 4 и нивоом 5 (погледајте моје објашњење на овај линк овде), док се аутомобил за који је потребан људски возач да заједнички дели напор у вожњи обично сматра нивоом 2 или 3. Аутомобили који заједнички деле задатак вожње описани су као полуаутономни и обично садрже различите аутоматизовани додаци који се називају АДАС (Напредни системи за помоћ возачу).

Још увек не постоји прави самовозећи аутомобил на нивоу 5, а ми још не знамо ни да ли ће то бити могуће постићи, нити колико ће времена требати да се стигне тамо.

У међувремену, напори Нивоа 4 постепено покушавају да стекну одређену вучу пролазећи кроз веома уска и селективна испитивања на јавном путу, иако постоје контроверзе око тога да ли ово тестирање треба дозволити само по себи (сви смо ми заморци на живот или смрт у експерименту који се дешавају на нашим аутопутевима и споредним путевима, неки тврде, погледајте моје извештавање на овај линк овде).

С обзиром да је за полуаутономне аутомобиле потребан људски возач, усвајање тих типова аутомобила неће се знатно разликовати од вожње конвенционалних возила, тако да нема много новог што би се само по себи могло покрити на ову тему (мада, као што ћете видјети у тренутку, следеће постављене тачке су углавном применљиве).

За полуаутономне аутомобиле важно је да јавност буде упозорена на узнемирујући аспект који се појављује у последње време, наиме да упркос оним људским возачима који стално објављују видео записе како заспају за воланом аутомобила нивоа 2 или нивоа 3 сви ми морамо да избегнемо да будемо заведени да верујемо да возач може да им одузме пажњу током вожње током вожње полуаутономног аутомобила.

Ви сте одговорна страна за радње у возилу, без обзира на то колико се аутоматизација може убацити у ниво 2 или ниво 3.

Аутомобили који се сами возе и неслагање између АИ-а и човека

За права возила са самосталним управљањем нивоа 4 и ниво 5 неће бити људског возача који је укључен у задатак вожње.

Сви путници биће путници.

АИ вози вожњу.

Један аспект о којем треба одмах разговарати подразумева чињеницу да АИ укључен у данашње системе АИ вожње није осећајан. Другим речима, АИ је у целини колектив рачунарског програмирања и алгоритама, и сигурно није у стању да расуђује на исти начин на који то могу људи.

Зашто овај додатни нагласак на томе да АИ није свестан?

Зато што желим да подвучем да, када расправљам о улози система за управљање АИ, не приписујем људске особине АИ. Имајте на уму да данас постоји стална и опасна тенденција антропоморфизације АИ. У суштини, људи данашњој уметничкој интелигенцији додељују осећај сличан човеку, упркос непорецивој и неспорној чињеници да још увек не постоји такав уметни интелигенција.

Уз то појашњење, можете да замислите да систем управљања уметном интелигенцијом неће некако „знати“ о аспектима вожње. Вожња и све што то подразумева мораће да се програмирају као део хардвера и софтвера самовозећег аутомобила.

Заронимо у безброј аспеката који се играју на ову тему.

Прво, важно је схватити да нису сви самовозећи аутомобили са вештачком интелигенцијом исти. Сваки произвођач аутомобила и технолошка фирма која се самостално вози користи свој приступ осмишљавању аутомобила који се самостално возе. Као такав, тешко је дати свеобухватне изјаве о томе шта ће АИ системи за вожњу учинити или не.

Штавише, кад год констатују да систем управљања АИ не ради неку посебну ствар, то касније могу преузети и програмери који у ствари програмирају рачунар да то уради. Корак по корак, системи вожње АИ се постепено побољшавају и проширују. Постојеће ограничење данас можда више неће постојати у будућој итерацији или верзији система.

Надам се да то пружа довољан низ упозорења у основи онога што ћу сада да кажем.

За потпуно аутономна возила можда не постоји шанса за професионално неслагање између човека и вештачке интелигенције због могућности да не постоји човек у петљи за почетак. Тежња многих данашњих произвођача аутомобила који се сами возе је да у потпуности уклоне људског возача из задатка вожње. Возило неће садржати чак ни команде за вожњу које су доступне људима. У том случају, људски возач, ако је присутан, неће моћи да учествује у задатку вожње јер нема приступ било каквој контроли вожње.

За нека потпуно аутономна возила, неки дизајни и даље дозвољавају да човек буде у току, иако човек уопште не мора да буде доступан или да учествује у процесу вожње. Дакле, човек може да учествује у вожњи, ако то жели. Међутим, ни у једном тренутку АИ се не ослања на човека да изврши било који од задатака вожње.

У случају полуаутономних возила, постоји веза између људског возача и АИ. Људски возач може у потпуности да преузме контролу вожње и у суштини спречи АИ да учествује у вожњи. Ако човек-возач жели да врати вештачку интелигенцију у улогу возача, може то да уради, мада то понекад приморава човека да се одрекне контроле вожње.

Други облик полуаутономног рада би подразумевао да људски возач и АИ раде заједно на тимски начин. АИ вози и човек вози. Возе се заједно. АИ би се могао повиновати човеку. Човек би се могао повиновати АИ.

У неком тренутку, АИ систем вожње и људски возач у петљи могу доћи до тачке „професионалног неслагања“ у вези са задатком вожње.

Да бисте илустровали како нека од горе наведених правила поступања са професионалним неспоразумом могу бити изазовна за имплементацију, размотрите случај позивања човека треће стране да уђе у ствар и понуди одлуку за решавање нерешеног питања.

Претпоставимо да је произвођач аутомобила или технолошка фирма која се самостално вози је договорила да удаљени људски оператери имају приступ контролама вожње возила у оквиру свог возног парка. Људски оператер седи у некој далекој канцеларији или сличном окружењу. Преко компјутерског система, они су у могућности да виде сцену вожње путем приступа камерама и другим сензорским уређајима који су постављени на самовозећи аутомобил. За њих је ово скоро као играње онлајн видео игрице, мада, наравно, околности у стварном животу имају потенцијално страшне последице.

Систем вештачке интелигенције и човек возач у аутомобилу возе полуаутономно возило дугим аутопутем. Одједном, АИ жели да скрене у јарак. Људски возач не жели ово да уради. Њих двојица се свађају око контрола вожње.

Како ће се ово решити?

Могли смо можда унапред да установимо да човек увек побеђује. Претпоставимо ипак да смо одлучили да то не радимо.

Могли смо унапред да установимо да АИ увек побеђује. Претпоставимо да смо одлучили да то не радимо. Све у свему, нисмо усвојили ниједно од тих правила, осим што смо одлучили да дозволимо трећој страни да интервенише и реши професионални неспоразум било које суштинске природе.

У овом случају употребе, АИ и човек возач за воланом се боре за контролу вожње. Ово је рецимо пренето удаљеном људском оператеру (нашем човеку треће стране). Удаљени људски оператер испитује шта се дешава и одлучује да се склони од јарка, наизглед спречавајући оно што је вештачка интелигенција покушавала да уради. У исто време, претпоставимо да се даљински људски оператер усмерава у надолазећи саобраћај, што можда ни АИ ни човек-возач у аутомобилу нису желели да ураде.

Поента је у томе да је начин на који је ово правило примењено да је људски оператер треће стране у стању да у потпуности надјача и АИ и човека у петљи. Да ли ће ово довести до доброг исхода, сигурно није сигурно.

Користићу овај пример да истакнем неке додатне увиде о овим питањима.

Не можете направити дрску претпоставку да је само зато што се једно од ових правила примени, исход решеног неслагања нужно гарантовано добар исход. Можда и није. Не постоји ниједно правило које је увек исправно које се може изабрати.

Затим, нека од ових правила можда неће бити изводљива.

Размотрите пример даљинског људског оператера који интервенише када се АИ и људски возач свађају око контрола вожње. Можда ће бити потребно много секунди да удаљени људски оператер схвати шта се дешава. До тада је возило можда већ завршило у јарку или има неки други неповољан исход. Такође, претпоставимо да локација возила онемогућава даљински приступ, на пример да се налази на неком месту где не постоји никаква мрежна електронска повезаност. Или можда мрежне карактеристике возила не раде у том тренутку.

Као што видите, правило би могло изгледати отмјено на папиру, иако би стављање правила у стварну употребу могло бити веома тежак или врло случајан приступ. Погледајте моју покривеност критичним очима о даљинском оператеру аутономних возила и аутомобила који се самостално возе на линк овде.

Желео бих укратко да покријем још једну сродну тему коју ћу детаљније обрадити у предстојећој анализи.

Једна од све већих забринутости за аутономна возила и аутомобиле који се сами возе који су полуаутономни је тзв. Синдром врућег кромпира.

Ево договора.

Систем за вожњу са вештачком интелигенцијом и човек заједно возе. Појављује се страшна невоља. АИ је програмиран да одустане од задатка вожње и преда ствари на човека када дође до страшног тренутка. Ово се чини можда „разумним“ јер се чини да се позивамо на правило о људском бићу као подразумеваном „победнику“ у сваком потенцијалном професионалном неслагању.

Али одустајање од вештачке интелигенције могло би да буде за подмуклије или подмукле сврхе. Може бити да произвођач аутомобила или технолошка фирма која се самостално вози не жели да се њихова вештачка интелигенција сматра „кривом“ када дође до саобраћајне несреће. Да би наизглед избегао да буде тако прикован, АИ нагло предаје контроле човеку. Воила, човек је сада вероватно потпуно одговоран за возило.

Најважнија ствар је у томе што претпоставимо да АИ изврши ову примопредају са, рецимо, још једном секундом пре него што дође до пада.

Да ли би човек заиста имао времена да спречи пад?

Вероватно не.

Претпоставимо да АИ изврши примопредају са још неколико милисекунди или наносекунди до краја. Усуђујем се да кажем да човек у суштини нема шансе да учини било шта да спречи судар.

Из перспективе произвођача аутомобила или компаније за самовозеће аутомобиле, они могу покушати да се понашају као да су им руке чисте када дође до такве саобраћајне несреће. Аутомобилом је управљао човек. АИ није возио ауто. Чини се да је једини „логичан“ закључак да човек мора бити крив, а вештачка интелигенција мора да буде потпуно беспрекорна.

То је лонац.

О томе ћу детаљније расправљати у наредној колумни.

Zakljucak

Доћи ће до професионалних несугласица.

Тешко је замислити било какав сложени задатак који има две стране које заједно извршавају задатак и за који никада не би дошло до професионалних несугласица. Ово изгледа као земља фантазије или барем велика реткост.

Данас имамо много и много случајева међуљудских професионалних неслагања, за које се на дневној бази, на овај или онај начин, мирно и разумно решавају. У ствари, ми често намерно постављамо ситуације да бисмо подстакли и испливали на површину професионалне несугласице. Можете тврдити да ово показује чувену мудрост да су понекад две главе боље од једне.

Како вештачка интелигенција постаје све распрострањенија, имаћемо много АИ-човека или човека-АИ-а који обављају задатке од две стране и биће професионалне несугласице то ће се догодити. Лењи приступ је да се увек повинујемо човеку. Ово можда није најприкладнији приступ. АИ би можда био бољи избор. Или би једно од других горе наведених правила могло бити разумнији приступ.

Постоји она мудра тврдња која се често понавља да бисмо сви генерално требало да будемо у стању да се сложимо да се не слажемо, мада када је у питању жица, понекад се неслагање мора недвосмислено решити, иначе ће ствар која је при руци довести до неописиве катастрофе. Не можемо само дозволити да неспоразуми чаме на лози. Време би могло бити од суштинског значаја и животи би могли бити у питању.

Постоји јасан захтев за нека разборита средства за решавање несугласица, чак и ако то није неопходно, укључујући случајеве када АИ и човек у петљи не виде очи у очи или бајт у бајт.

Верујем да се нећете сложити са том сасвим прихватљивом тврдњом.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/07/23/аи-етхицс-анд-аутономоус-системс-лессонс-глеанед-фром-тхат-рецент-аласка-аирлинес-флигхт-вхере- се-пилот-и-ко-пилот-не сложили-пре-полетања-и-нагло-одлучили-за-таксирање-назад до-терминала-и-ићи-на своје-раздвојене-путеве/