Moral, pe cine ar trebui să omoare mașina inteligentă în cazul de față?

Moral Machine învață despre moralitate

Inteligența artificială va avea un cuvânt de spus înainte ca cineva să moară. Spun asta pentru că, acum, în timp ce tu citești acest text, un computer învață despre viață și moralitate. Milioane de utilizatori din întreaga lume sunt puși să decidă care sunt morțile morale în funcție de mai multe scenarii.

Moral Machine este un proiect de tip learning program în jurul căruia există o comunitate activă și dornică să răspundă la întrebări, probabil menite să reprezinte noua arhitectură a moralității inteligenței artificiale.

Calculatoarele învață de la oameni

În viitorul apropiat mașinile nu vor mai avea nevoie de un șofer, ci doar de un procesor puternic și senzori cu acuratețe crescută. În cazul unui accident, creierul mașinii va trebui să decidă cine moare și cine trăiește. Pentru un calculator deciziile sunt pură matematică, dar pentru noi, oamenii de rând, există un șir lung de imperfecțiuni de care ne atașăm.Greșim ca să învățăm și învățăm ca să greșim din nou, dar în altă parte. Calculatoarele învață să nu greșească decât intenționat…

 

În acest caz, ce decizie ar trebui să ia autoturismul?

moral machine
Acesta este un exemplu dintr-un amplu șir de întrebări, altele de fiecare dată. De reținut este că în mai toate cazurile moare cineva, iar tu, cel care răspunzi, trebuie să iei decizia cea mai bună, morală și sigură. Atenție la: semnele de circulație, culoarea semaforului, numărul de oameni, vârstele acestora și funcția pe care o au.

Ați făcut alegerea? Credeți că e cea potrivită? De fapt, nici nu cred că există o definiție clară a moralității, ci doar scenarii care primesc mai multe sau mai puține argumente. Important e să fi făcut alegeri înțelepte, care nu țin cont de culoare, greutate sau statut – tind să cred că moralitatea are legătură cu umanitatea, nu cu discriminarea.

Aștept răspunsul vostru în comentarii.


Publicitate: Doar dacă vrei să știi mai multe despre cum a evoluat inteligența artificială, citește cartea asta.

comments

2 comments On Moral, pe cine ar trebui să omoare mașina inteligentă în cazul de față?

  • Nu contează cine e in mașina și cine e pe trecere. Mașina inteligentă trebuie să evită pe cât posibil orice coliziune, pentru că de aia ne lăsăm pe “mana” lor. În cazul excepțional in care coliziune nu poate fi evitată, autoturismul ÎN FRÂNARE ar trebui să mențină direcția, cu avertizare sonoră, punând in pericol pietonii dacă aceștia traversează neregulamentar, respectiv să îi evite punând în pericol pasagerii in cazul in care pietonii traversează regulamentar…. pentru că de aia avem reguli de circulație…

  • Situația dată este în afara subiectului ”inteligență artificială” Inteligența artificială decelează, din mediu, cu ajutorul unor senzori performanți, toate posibilele obstacole de pe traiectoria mașinii cu accent pe ființele vii. Și își va adapta sau optimiza viteza astfel încât nicio coliziune nu va fi posibilă. AI va ”gândi” obiectiv iar ”gândirea” sa nu va putea fi influențată de alcool, narcotice, etc. Prin urmare nu poate fi luată în calcul eroarea de ”gândire” sistemele fiind prevăzute cu module redundante. Aici putem presupune că avem de-a face cu PA, Prostia Artificială. Care își va asuma ”dreptul de a ucide”. Această situație este însă în afara moralei.

Leave a reply:

Your email address will not be published.

Site Footer