Znanost in tehnologija

Ko je panda opica, 'stop znak' omejitev 70 km/h, YouTube pa vas 'prilepi' nase

Ljubljana, 30. 11. 2019 07.00 |

PREDVIDEN ČAS BRANJA: 10 min
Avtor
Natalija Švab
Komentarji
75

"Homo sapiens se v 40.000 letih ni zelo spremenil, moč procesorjev pa raste eksponentno. Moramo se vprašati, kakšno prihodnost si želimo. Zdaj smo na točki, ko se še lahko odločimo," pravi antropolog Dan Podjed. Če na področju umetne inteligence ne bomo delovali etično in transparentno, ljudje pa tej tehnologiji ne bodo zaupali, bodo velike težave, svarijo strokovnjaki.

Umetna inteligenca
Pred nekaj dnevi so v Parizu potrdili, da bo prvi globalni center za umetno inteligenco (AI) pod Unescovim okriljem v Ljubljani. Slovenijo to po mnenju pristojnega ministrstva uvršča na zemljevid najbolj globalno prepoznanih in naprednih držav na področju umetne inteligence.

Center naj bi bil ustanovljen na začetku prihodnjega leta, ustanova pa naj bi služila tudi kot model za podobne centre po svetu.

Center se bo ukvarjal z reševanjem globalnih izzivov, ko gre za AI, podpiral bo Unesco pri študijah in sodeloval pri večjih mednarodnih projektih s področja AI. Sem sodi tudi svetovanje o sistemskih in strateških rešitvah pri uvajanju umetne inteligence na različnih področjih.

Dela strokovnjakom na tem področju ne bo zmanjkalo tako hitro, saj je odprtih ogromno vprašanj, smo pred dnevi slišali na konferenci Soobstoj z umetno inteligenco: vizija Družbe 5.0, ki jo je pripravil Zavod 14. Predvsem ko gre za regulacijo področja in vprašanje, kje bomo AI postavili meje.

Število napak se je drastično zmanjšalo, a v številnih primerih to ni dovolj, saj so napake nesprejemljive

"V zadnjem desetletju je bil na področju globokega učenja dosežen velik preboj. Če je bilo še leta 2010 po takšnem učenju število napak, ki jih je storil algoritem, okoli 25 odstotkov, se je število napak do leta 2016 zmanjšalo na le še okoli dva odstotka," je poudaril dr. Ivan Bratko z ljubljanske fakultete za računalništvo in informatiko.

A napredek ima svojo ceno. "Globoko učenje je pristop k strojnemu učenju, ki temelji na umetnih nevronskih mrežah. Daje najboljše rezultate. Vendar se je povečalo število slojev, in več kot je slojev, težje je sistem razumljiv. Po drugi strani pa se je z večjim številom slojev zmanjšalo število napak." Umetne nevronske mreže so torej postale kompleksne do točke, ko jih je nemogoče razumeti. "Postajajo črne škatle, kjer uporabnik ne ve, kako je sistem iz podatkov ustvaril rezultate," je pojasnil Bratko. Kar je v nasprotju z enim od ciljev evropske strategije za umetno inteligenco, ki predvideva zaupanja vredno AI, ki temelji na principu "transparentne škatle".

AI je sicer precej pri vrhu interesov nove Evropske komisije. Šefica Ursula von der Leyen je že pred časom obljubila, da bo v prvih 100 dneh svoje komisije pripravila zakonodajo, ki bo vsebovala "evropski pristop" k AI. Ta naj bi v ospredje postavljal človeka in etične standarde. Kar je povezano tudi z željo po transparentnosti. Ta je pogosto ključna, poudarja Bratko: "Na primer pri medicinski diagnozi in sprejemanju odločitev o najboljšem zdravljenju. Pacient tukaj zagotovo želi vedeti, kako je sistem postavil diagnozo, na podlagi česa je predlagal  zdravljenje. Podobno moramo to vedeti, če želimo tehnologijo uporabljati pri zaposlovanju, v pravosodju, finančnih storitvah – na primer za odobritev posojila, zavarovanja …"

Tudi ko človek in robot tesno sodelujeta, "črna škatla" ni sprejemljiva, nadaljuje Bratko: "V takšni situaciji moramo vedeti, kaj in zakaj počne robot."

Prav tako je napake mogoče odpraviti samo, če vemo, kako je sistem prišel do rešitve. "Strojno učenje je v zadnjih letih res napredovalo, a še vedno občasno producira povsem nerazumljive napake, ki so na prvi pogled smešne – če pogledamo podrobneje, pa seveda ne." Še posebej postanejo zelo resne, če pomislimo, da bi se takšne napake zgodile med uporabo v realnem svetu.

Med primeri Bratko izpostavlja primer, ko se je sistem naučil prepoznati medvedka pando. Potem pa so dodali "manjšo motnjo", ki človeškega očesa ne bi veliko zmotila. Drugače je sprememba vplivala na sistem, ki je zdaj trdil, da je na fotografiji skoraj zagotovo – opica. Podobno se je sistemu zgodilo na primeru šolskega avtobusa. Je pa sistem na primer kot šolski avtobus "prepoznal" sistem črt v podobnih barvnih odtenkih. Pa čeprav na tej fotografiji ni bilo ne koles ne oken ali ogledal – nekaterih osnovnih značilnosti avtobusa. In še bolj zaskrbljujoč primer? "Sistem je stop znak prepoznal kot znak, ki predvideva omejitev hitrosti na 70 km/h. Avtonomno vozilo s takšnim sistemom se ne bi ustavilo, ampak pospešilo."

Takšne napake so redke, šlo je tudi za primere, ko so poskusili sistem namerno pretentati, razlaga Bratko: "Se pa pojavi vprašanje, ali je takšna tehnologija resnično varna, kako enostavno jo je prelisičiti ali zlorabiti." Pri avtonomnih vozilih so takšne napake enostavno nesprejemljive, je jasen Bratko, težava je tudi, ker takšne napake vzbujajo strah med ljudmi.

Umetna inteligenca se zelo razlikuje od človeške, še dodaja Bratko – najbolj očitna je sposobnost uporabe "zdrave pameti", ki je za človeka samoumevna, za računalnik pa še nepremostljiv izziv.

Ko AI ne prepozna stop znaka. "Pojavi se vprašanje, ali je takšna tehnologija resnično varna, kako enostavno jo je prelisičiti ali zlorabiti." Pri avtonomnih vozilih so takšne napake enostavno nesprejemljive, je jasen profesor Bratko, težava je tudi, ker takšne napake vzbujajo strah med ljudmi.
Ko AI ne prepozna stop znaka. "Pojavi se vprašanje, ali je takšna tehnologija resnično varna, kako enostavno jo je prelisičiti ali zlorabiti." Pri avtonomnih vozilih so takšne napake enostavno nesprejemljive, je jasen profesor Bratko, težava je tudi, ker takšne napake vzbujajo strah med ljudmi. FOTO: Shutterstock

"Naše vedenje pogosto ni v skladu z etičnimi principi"

"Umetna inteligenca izziva človekovo dojemanje sebe – tudi kot univerzalnega racionalnega misleca," pa je prepričan Paul Kuyer z dublinske City University. "Navajeni smo, da smo tisti, ki sprejemamo odločitve. Zdaj pa imamo AI, ki lahko prav tako sprejema odločitve in vpliva na naše odločitve," nadaljuje. Zato vprašanje etične AI prihaja v ospredje.

Da je etika pomemben del razprave in regulacije, ko gre za AI, se strinja tudi psiholog dr. Janek Musek: "Etika je pomembna v vseh aspektih našega življenja. Vsa velika družbena, osebna in profesionalna tveganja so posledica razkoraka med etičnimi principi in etičnim vedenjem na eni strani ter našim dejanskim vedenjem na drugi strani. Naše vedenje pogosto ni v skladu z etičnimi principi."

AI pa etična vprašanja postavlja v povsem novo luč, na novo raven, meni Musek: "Gre za najmočnejše orodje, ki ga je v svoji zgodovini razvilo človeštvo. Koristi AI je mogoče primerjati z drugimi orodji, škodljive posledice pa so multiplicirane."

"Moč ojačevanja določenega dela sporočila je enostavno prevelika, da bi bila neregulirana" – ali kako YouTube širi teorije zarot

Na moč teh orodij opozarja tudi dr. Aljaž Košmerlj z Instituta Jožef Stefan. Kot razlaga, so sicer AI algoritmi, ki se uporabljajo danes, še zelo preprosti – v smislu, da opravljajo zgolj eno nalogo – morda res z nadčloveško učinkovitostjo, ampak še vedno gre za samo eno nalogo.

Vendar pa že v tej obliki platformam, ki jih uporabljajo, omogočajo, da okrepijo določen aspekt sporočila, pri čemer pa za posledice ne želijo biti odgovorne. "Mislim pa, da bodo regulatorji kmalu prepoznali, da je ta moč vendarle prevelika, da bi lahko ostala neregulirana."

"Zelo pomembno je, da je jasno določeno, kaj se z določenim algoritmom optimizira," poudarja Košmerlj. In ta debata je pomembna že zdaj. "Precej prahu je vzbudil sistem optimizacije vsebin, ki ga uporablja YouTube – in je seveda namenjen temu, da podaljša čas, ki ga uporabnik preživi ob gledanju videov. Naloga sistema je, da vam z naslednjim predlaganim posnetkom ponudi vsebino, ki ji ne morete reči ne. Pa čeprav morate jesti, spati, se pogovarjati z otrokom, vseeno kliknete. S poslovnega vidika je stvar jasna – YouTube želi, da si ogledate naslednji posnetek, ker bo tudi tam oglas. Ampak algoritem se je naučil, da obstajajo določene vsebine, ki so še posebej dobre za zadrževanje uporabnika – in ena takšnih vsebin so teorije zarote – vse od ploščate Zemlje do prepričanja, da so nekateri ljudje v resnici kuščarji. To pomeni, da sistem aktivno promovira takšne vsebine. Neodvisni raziskovalci so raziskovali, kako enostavno je 'pasti' v te teme. Takšne lastnosti algoritmov moramo upoštevati. Ne moremo ravno zameriti YouTubu, ker želi čim boljše poslovne rezultate, ampak to lahko ustvari posledice, ki si jih kot družba ne želimo – med drugim razmah teorij zarote. Moč ojačevanja, ki jo imajo te platforme, je nekaj, kar mora urediti regulacija."

Konec demokracije? "Imamo oprane možgane in živimo v idiokraciji"

Posledice možnosti ojačevanja sporočil smo v preteklosti že videli – tudi ko je šlo za škandal Cambridge Analytica ali brexit, opozarja antropolog Dan Podjed. "Vsi imamo oprane možgane, zato je na pohodu nov politični sistem – idiokracija. Živimo v idiokraciji, glasujemo za politike, ki nam perejo možgane. In kako se to dogaja – na spletu rešujemo 'nepomembne' kvize, podjetja pa zbirajo podatke in na tej osnovi ustvarjajo psihološke profile, na podlagi česar nato vedo, kako specifičnemu uporabniku poslati targetirano sporočilo, da bo učinkovito."

Podjed je ob tem kot primer izpostavil invazijo targetiranih lažnih novic pred zadnjimi ameriškimi predsedniškimi volitvami: "Tudi z 'novicami', ki naj bi dokazovale, da ima Hillary Clinton sifilis ali Parkinsonovo bolezen. In mi temu verjamemo! To je strašljivo! Glasujemo za ljudi na podlagi takšnih podatkov. To je lahko konec demokracije, kot jo poznamo, če nismo več zmožni racionalnih odločitev. Skrajni čas je, da temu rečemo ne in algoritmom preprečimo, da nas targetirajo – pa naj bo to z namenom nekaj kupiti ali za nekoga glasovati."

Laganje je postalo sprejemljivo. Zdaj plačujemo ceno

Način targetiranja, kjer sistem prepozna dovzetne posameznike in nato z jasno dodelanimi sporočili krepi njihova prepričanja, je precej strašljiv, se strinjajo strokovnjaki, a po drugi strani gre za novo manifestacijo starega problema, ki ga bo treba znova obvladati.

"Zakonodaja, ki omejuje manipulativno politično propagando, ni neznanka," je dejal Košmerlj. Včasih so sankcionirali posameznike, ki so manipulativna sporočila kričali sredi trga. Srž problema je po njegovem drugod: "Zdaj napadamo algoritme. Seveda je slabo, da se na ta način širijo laži. Ampak javnost se veliko premalo razburja, ko gre za druge laži. Očitno smo kar sprejeli, da je v marketingu laganje do določene meje povsem sprejemljivo. Ljudje lahko v množičnih medijih rečejo kar koli. V oglasih se brez težav pojavlja igralec, ki trdi, da je zdravnik – pa nikogar ne moti. Drži – AI orodja so 'super močna', treba jih je regulirati, ampak poglejmo širšo sliko, kakšna je realnost naše družbe, kaj zastopamo, da se s temi orodji zgolj potencira."

Kibernetski napad

Ključno je, na podlagi kakšnih podatkov operira AI. Ali ko AI zaposli samo moške

"Ko bo AI sprejemala pomembne odločitve, je pomembno, da so prave," poudarja Kuyer. Eden ključnih pogojev za to pa sta kakovost in nepristranskost podatkov, s katerimi pri sprejemanju odločitev operira AI.

Področje, ki se je do zdaj izkazalo za precej vprašljivo. V "realnem svetu" so ljudje danes pogosto prepričani, da so obstoječi sistemi pristranski – da na primer nekdo ni dobil službe, ker je ženska, ne moški, da nekdo ni dobil pogojnega izpusta, ker ni bel, ampak temnopolt.

Prepričanje, da bodo takšno težavo rešili algoritmi, je ravno zaradi možnosti pristranskih vhodnih podatkov nerealno. "Poglejmo primer Amazona," pravi Kuyer. "Tam so imeli AI-sistem, ki je preverjal življenjepise razvijalcev programske opreme, na podlagi tega pa naj bi nato izbrali bodoče kadre. Kaj se je zgodilo? AI, ki je preverjala podatke, je takoj izločila in zavrnila vse ženske. Izkazalo se je, da se je AI na podlagi vhodnih podatkov naučila, da so programerji praviloma moški in na podlagi tega 'spoznanja' zavrnila vse ženske. Pri Amazonu so zato s prijav zbrisali kategorijo spola. In kaj je storil algoritem? Naučil se je iskati besede, ki jih praviloma v prošnjah uporabljajo moški in izbirati na tej podlagi – spet moške. To je precej zgovoren primer, ki kaže na to, da je AI zmožna sprejemati zelo neetične odločitve, če nismo pozorni na to, kaj počne."

Izobraziti se moramo!

Da bo lahko tudi laična javnost vsaj do neke mere razumela tehnologijo in jo nekaj velikih gigantov ne bo žejno peljalo čez vodo, bodo potrebne tudi spremembe v izobraževalnem sistemu, je poudaril Košmerlj.

Boljše znanje o delovanju algoritmov namreč po mnenju strokovnjaka pomeni tudi določeno odpornost posameznikov in družbe na nekatere manj zaželene učinke tovrstne tehnologije: "Družba se bo prilagodila, kot se je že večkrat. Se je pa marsikateri težavi mogoče izogniti z izobraževanjem."

JUTRI preberite pogovor z danskim strokovnjakom Jonasom Valbjornom Andersenom z IT Univerze v Köbenhavnu. Pogovarjali smo se o najboljših načinih regulacije AI in nekaterih praktičnih primerih uporabe AI – tudi o primerih, ko AI odloča o kreditni sposobnosti posameznikov.  

  • image 4
  • image 5
  • image 6
  • image 1
  • image 2
  • image 3

KOMENTARJI (75)

Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.

User1538643
01. 12. 2019 08.04
+3
Kaj je algoritem in kaj logaritem? Berimo Wikipedijo.
Janez_53
01. 12. 2019 10.15
+6
Pomaga tudi, če v osnovni šoli pri pouku poslušaš in sodeluješ.
Pravicnik 17
30. 11. 2019 21.12
+2
No super. Lepo dokoncat pa na baustello poslat..!
flojdi
30. 11. 2019 19.36
+6
.groza bo le če se bodo umetne inteligence lotili ali polastili ozkostneži
gobo
30. 11. 2019 18.17
+6
Še pred leti sem mislil da smo na pragu samouničenja ,ampak realnost je drugačna kajti iztopili smo iz prvega in vstopili v drugi zadnji cikel,tako da povratka nazaj ni,lahko samo čakamo,problematiko toplogrednih plinov lahko opustimo kajti ta ne predstavlja grožnje,kajti kača se je ugriznila ze v rep
SDS_je_poden
30. 11. 2019 15.51
+5
Buoncaffe a imaš ti slučajno v mislih matematične logaritme? Ker to ni isto kot programski algoritem.
BUONcaffee
30. 11. 2019 14.31
-6
Sem siguren da mnogi od vas ne zna računati algoritmov. Rad bi videl naše nesposobne politike, če imajo pojma o tem.
ahim1225
30. 11. 2019 17.18
+3
Spomnim se samo to, da smo imeli v šoli logaritemske tablice (knjižico), kaj smo pa delali se pa ne spomnim. Imam pa univerzitetno izobrazbo, sem pa že tudi v letih.
BLUECUBE
30. 11. 2019 19.27
+10
@BUONcaffee: Kako pa se računa "algoritme"?! Algoritem je niz ukazov, program. BTW: Resno upam, da ne mešeaš "algoritmov" in "logaritmov"...
Uporabnik1552103
30. 11. 2019 21.48
+4
hmm, kakorkoli se tole sliši..v splošnem življenju ne potrebujemo kaj več kot osnovne 4 matematične funkcije, zato je logično, da z leti pozabiš..
Janez_53
01. 12. 2019 09.54
+3
BUONcaffee, sedaj si se pa res "obrukal"!!! A res ne ločiš med pojmoma ALGORITEM in LOGARITEM??? Ti očitno ne le, da ne znaš računati z logaritmi, pravzaprav niti ne veš, kaj to je!!! In bi se rad zgražal nad drugimi, da ne znajo??? Včasih je bolje, če je človek tiho. Takrat ne pokaže svojega neznanja.
Janez_53
01. 12. 2019 10.14
+7
Pa še to: avtor logaritemskih tablic je naš znanstvenik Jurij Vega, ki je eden od slovenskih veleumov.
BUONcaffee
30. 11. 2019 13.58
+5
Če se človek v 40000 letih ni bistveno spremenil se niti več ne bo. Zopet si lažemo, da se je vse začelo z Adamom in Evo in mnogi v to verjamejo. Potem se pa človek vpraša kaj so se v življenju sploh naučili????? AI bo človeka obvladal na polni črti. Ko bo AI začela proizvajat svojo tehnologijo, človeku ne bo več jasno kako deluje in takrat bo konec človeške vrste.
Fukofakic
30. 11. 2019 14.16
+4
vidim da maš dost cajta... pjt mal na sprehod raj
BUONcaffee
30. 11. 2019 13.50
+2
Če je nadzor do interneta zelo slab, bo še slabši do AI.
BUONcaffee
30. 11. 2019 13.45
+1
Mene zanima ali sovražni govor do umetne inteligence se tudi zakonsko preganja???? In seveda obratno.
BUONcaffee
30. 11. 2019 13.44
+6
Umetna inteligenca bo uničila človeštvo.
Janez_53
01. 12. 2019 10.17
+0
BUONcaffee
30. 11. 2019 13.24
+5
Človek se v 40000 letih ni bistveno spremenil, kar dokazujejo tudi zločini, vojne, egoizem, zloba itd. AI pa se vsako leto bolj razvija. Očitno se bo zgodilo to, da človek ne bo več kos svoji neumnosti in bo zadevo prevzela AI.
BUONcaffee
30. 11. 2019 13.18
-1
Vse bo nekako z zamikom, z drugimi besedami prepozno, kar se tiče ukrepov, kot je vse šlo do sedaj, kot je internet, mobilna telefonija itd. Umetna inteligenca pa ne čaka na zamik, ker se stvar tako razvija, da jo bo težko kontrolirat in tehnološko spravit nazaj. Problem naših strokovnjakov ni v tem, da ne poznajo delovanje umetne inteligence, ampak to, da se politika vmešava kjer jim ni mesta samo, da bi bili zraven in pobirali poceni politične točke in še davke. Gre za generacijo politikov kateri so vzgojeni v socialističnem režimu in za računalnike niso slišali prej, oziroma so jih zaničevali, sedaj pa misijo, če imajo nek moderen telefon v roki, da so oni tisti kateri poznajo zadevo in lahko odločajo o tem. Jaz bi take odgovorne zadeve kot je umetna inteligenca prepustil raje Japoncem in Američanom kateri že množično uporabljajo, medtem ko se pri nas zaenkrat samo piše in govori o tem. Lahko pa odpremo tovarno za izdelavo tovrstne tehnologije, kako odlično koorporacijo, da tudi mi mi kaj zaslužimo.
Tir1
30. 11. 2019 11.50
+4
Prihodnost so ljudje... vprašanje je, kakšni? Zadovoljni? Leni? Neumni?
yoda99
30. 11. 2019 11.43
+3
Ker pri nas pamet izumira, jo Unesco skuša nadomestiti z umetno.
štrekeljc
30. 11. 2019 12.06
+5
Ramzess
30. 11. 2019 11.23
+4
Glavno vprašanje je na kakšno podatkovno bazo znanja se naslanja UI, glede na to, da vemo kako filtrirano (cenzurirano) je pravo znanje, podatki itd. Rezultat so potem take napake in ti. šolske napake, ne le pri UI, temveč tudi pri ljudeh, pogosteje kot si morda mislimo. Kako lahko potem pričakujemo, da bo takšen človek naredil pametno UI, če še sam ne ve kaj je pravo znanje, podatki in kaj ne.
Ramzess
30. 11. 2019 11.16
+0
"Med primeri Bratko izpostavlja primer, ko se je sistem naučil prepoznati medvedka pando. Potem pa so dodali "manjšo motnjo", ki človeškega očesa ne bi veliko zmotila. Drugače je sprememba vplivala na sistem, ki je zdaj trdil, da je na fotografiji skoraj zagotovo – opica. Podobno se je sistemu zgodilo na primeru šolskega avtobusa. Je pa sistem na primer kot šolski avtobus "prepoznal" sistem črt v podobnih barvnih odtenkih. Pa čeprav na tej fotografiji ni bilo ne koles ne oken ali ogledal – nekaterih osnovnih značilnosti avtobusa." Manjkajo podatki kakšne primerjave je uporabila UI (ne AI - angleški izraz).
Ramzess
30. 11. 2019 11.15
+8
"najbolj očitna je sposobnost uporabe "zdrave pameti", ki je za človeka samoumevna" Res, za katerega človeka, še vedno ne za vse.
Helix Nebula
30. 11. 2019 10.16
+3
AI + bio inženiring sta prihodnost
Quatflow
30. 11. 2019 11.04
+0
Ja kaksna? Da avijoni dol padajo, da nam roboti jemljejo delo, da nas ljudi polenijo in naredijo cimbolj po okvirjih, da nam ubijejo vsa custva in zdravo pamet, da nam ubijejo vero v Boga, da nas imajo pod nadzorom, da lazje delajo razne agende in depopulacijo, da nam ubijejo clovesko dostojanstvo? Ljudi je dovolj, da sami zmorejo narediti vse, ne rabimo napredka v umetni inteligenci, orozju in bio inzeniringu. To vse je nekje demonsko.
Helix Nebula
30. 11. 2019 11.24
+5
Boeing ni dol pado zarad slabe AI. Problem je bil vgradnja novega motorja na zanj neprimeren dizajn letala. Problem so zatajili in probali rešit z programsko opremo, to pa tajili pilotom, ki se zarad tega niso znali pravilno odzvat. Krivda je na strani vodilnih ki so to odobrili in prekrili
Quatflow
30. 11. 2019 11.29
-5
Problem so zatajili in probali resiti s programsko opremo. No? Saj si odgovoril.
Animal_Pump
30. 11. 2019 10.02
-2
Sej je prav....treba je it naprej...če se pa folk malo nadzoruje pa tudi ne bo nobene škode. Barabe, pijandure, džankije je treba itak popredalčkat....imajo preveč svobode, pa še preveč škode naredijo normalnemu folku. Bo pa treba to zadevo še precej dodelat, da bo to vse brezhibno.
AlternativeFacts
30. 11. 2019 09.56
+0
AI se bojijo samo verski fanatiki....
VolkBrenin
30. 11. 2019 09.57
+10
zelo dvomim...oni svojo AI namreč ŽE imajo...v rahlo drugi obliki - rezultat je enak ...
AlternativeFacts
30. 11. 2019 10.02
-1
Niti približno ne moreš tistemu reči AI, kaj šele da bi bil rezultat enak...
Quatflow
30. 11. 2019 11.12
+1
Torej bomo zaradi drugih fanatikov robotizirani...sami fanatiki tukaj ocitno ;)
VolkBrenin
30. 11. 2019 11.18
-1
af ...če nekaj ali nekdo " razmišlja " namesto tebe in te posledično usmerja v " dejanja/ kakršna koli že/ ...na podlagi " svojega izračuna " ...( to počnejo verski vodje v navezi s politiki ) ..je to kaj ...( moj komentar se nanaša v prenesenem smislu namreč na " umetno inteligenco " izbranih voditelj množic...ki si s pomočjo te iste AI pomagajo - očitno uspešno širiti " vero " v parfum dior , kapitalizem , krompir igor...terorizem ...sovraštvo ...reklame na klikih / in nakupe stvari , ki jih ljudje potem nujno potrebujejo...itd itd ...Razlik pravzaprav ni....so samo odtenki...
AlternativeFacts
30. 11. 2019 11.31
+3
Volk@ AI ni tukaj zato, da bi ti nehal razmišljati, ampak da ti pomaga razmišljati....To da nekdo drug razmišlja namesto tebe pa je pri verstvih. Zato to ni eno in isto...
VolkBrenin
30. 11. 2019 12.06
+1
af...velika večina se ne zaveda. .da namesto njih razmišlja nekdo drug...in živijo v iluziji , da razmišljajo sami ...Vernikom pomaga " razmišljati " verski vodja ...tvojemu navi pa ui...V čem je razlika , če do zaključkov , ki te USMERJAJO / tvoje delovanje in razmišljanje v nadaljevanju / nisi prišel sam ...?!
AlternativeFacts
30. 11. 2019 12.45
Volk@ Žalostno da pišeš o AI, pa niti neveš zakaj je AI....Razlika je v tem, da pri verskem primeru je teza (napačna ali pravilna) napisana in mora tako biti. Pri AI pa je zadeva malo drugačna. Posameznik ali skupina ljudi se loti nekega projekta ki zahteva recimo obilo matematičnega znanja. Seveda, lahko si pameten in se blamiraš z napakami ki jih boš ustvaril med računanjem kompleksnih formul. Lahko pa uporabiš AI in ti ta natančno računa kompleksne formule, pri katerih bi človek (posameznik ali skupina) naredil 1001 napako......
AlternativeFacts
30. 11. 2019 12.47
-1
...rudarjenje kriptovalut je en tak primer, kjer AI računa kompleksne fomule. Posameznik, ali skupina, ne bi skopali nič....
Janez_53
01. 12. 2019 10.28
+2
VolkBrenin, kje si se pa ti učil slovensko slovnico??? Velike začetnice, raba ustreznih ločil, tvorjenje stavkov in podobno (snov drugega, tretjega in četrtega razreda osnovne šole). Veš, človek mora spoštovati svoj materni jezik, zato ga ne sme mrcvariti na vse mogoče načine.