6 çështjet të ndjeshme nga jeta dixhitale, si dhe rreziqet e inteligjencës artificiale …

Kufizimi i lirive personale, diskriminimi, manipulimi i opinionit publik: këto janë rreziqet që sjell me vete inteligjenca artificiale.

Inteligjenca Artificiale ka demonstruar tashmë potencialin e saj të plotë në fushat më të ndryshme të shkencës dhe teknologjisë: nga analiza e të dhënave te lufta kundër terrorizmit, nga kërkimet mjekësore te misionet hapësinore ; të dhënat e mëdha dhe superkompjuterët premtojnë të revolucionarizojnë jetën tonë.

Megjithatë, ekziston një problem “i vogël”… Fuqia e sistemeve të AI, nëse drejtohet gabimisht, mund të bëhet shumë e rrezikshme . Dhe ne nuk po flasim për rrezikun e robotëve vrasës që enden nëpër qytetet tona duke qëlluar këdo, por për “keqpërdorime” më delikate dhe po aq të rrezikshme të aplikacioneve që ekzistojnë tashmë sot.

AKSIDENTET PA SHOFER.

Çiklisti u godit dhe u vra marsin e kaluar në Shtetet e Bashkuara nga një prej makinave pa shofer të Uber-it, ka rihapur debatin mbi pjekurinë efektive të kësaj teknologjie. Sistemi i drejtimit të makinës në fakt nuk ishte në gjendje ta identifikonte saktë viktimën dhe ta klasifikonte si “person me biçikletë”: ai mund ta kishte ngatërruar atë me një qese plastike që fluturonte dhe për këtë arsye e kishte goditur me vetëdije.

Prandaj, një gabim programimi, i cili mund të ishte shmangur me lehtësi. Por kush e verifikon sigurinë efektive të sistemeve autonome të drejtimit? Kush duhet të jetë përgjegjës për dhënien e licencave të robotëve?

Nga pikëpamja rregullatore, ka ende shumë konfuzion.

Dhe synimi i Administratës së Sigurisë së Trafikut në Autostrada, ekuivalenti i yjeve dhe vijave të Ministrive të Transportit, për të zbutur rregullat ekzistuese për këtë çështje, ngre më shumë se disa dyshime.

I NDIKUAR NGA BOTI.

Skandali i Cambridge Analytica , i cili shpërtheu në mars 2018, në vend të kësaj theksoi aftësinë efektive të mediave sociale për të pilotuar ndërgjegjen politike të njerëzve duke u dhënë më shumë rëndësi lajmeve të caktuara dhe burimeve të caktuara të informacionit në dëm të të tjerëve.

Vetë Mark Zuckerberg , gjatë një seance dëgjimore para Senatit të Shteteve të Bashkuara, i premtoi botës krijimin e sistemeve të inteligjencës artificiale të afta për të bllokuar përhapjen e lajmeve të rreme në fillim, si në format teksti ashtu edhe në video. Facebook duhet të nisë testimin e kësaj teknologjie që në muajt e ardhshëm, me rastin e zgjedhjeve që do të mbahen në Nigeri dhe Afrikën e Jugut.

AI PËR PAQEN.

Një rast tjetër është ai që përfshiu disa studiues dhe punonjës të Google vitin e kaluar. Këta ishin bërë të vetëdijshëm për faktin se G i madh do të kishte vënë, me Project Maven (ky është emri i koduar i projektit), teknologjitë e tij në dispozicion të Pentagonit për të klasifikuar dhe njohur imazhet e kapura nga dronët. Në veçanti, frika ishte se sistemet e inteligjencës artificiale të Google mund të përdoreshin për të dhënë indikacione për dronët vrasës ose për të identifikuar objektivat që do t’u caktoheshin armëve autonome.

Google ka pranuar kundërshtimin për ndërgjegje të punonjësve të saj dhe ka hartuar dhe ndarë një kod etike për inteligjencën artificiale, në të cilën ai merr përsipër të mos krijojë sisteme ose softuer që përdorin AI për të shkaktuar dëme te njerëzit. Shkurtimisht, një riinterpretim modern i tre ligjeve të Asimov të robotikës.

Inteligjenca artificiale na bën të shijojmë videolojërat, na e bën jetën më të lehtë me asistentët zanorë dhe bashkëpunon në kërkime shkencore. Por cilat janë efektet anësore? © MAXPIXELS

Por Pentagoni mesa duket po e lë veten të kushtëzohet nga kjo rreth fytyrëse dhe,eshte e interesuar për te arritur e objektivat e veta , ku do të investojë sërish shuma të mëdha në vitet ne vijim për zhvillimin e armëve të bazuara në Inteligjencën Artificiale.
Fjala tani i kalon Kombeve të Bashkuara, e cila gjatë muajve të ardhshëm ka disa takime mbi këtë temë në axhendën e saj, me qëllimin përfundimtar për një ndalim përfundimtar dhe të hershëm të këtyre sistemeve të armëve.

BIG BROTHER ËSHTË MES NESH.

Po çfarë po ndodh në Kinë? Vendi aziatik pranoi, në vitin 2018, se kishte krijuar sistemin më të madh dhe më të përhapur të mbikëqyrjes në botë. Qindra mijëra kamera të shpërndara në të gjithë vendin dhe një softuer shumë i fuqishëm për njohjen e fytyrës, i aftë për të identifikuar praktikisht këdo: kriminelë, të kërkuar, por edhe qytetarë të thjeshtë, disidentë politikë apo kundërshtarë të pushtetit të vendosur.

Shoqatat për mbrojtjen e të drejtave të njeriut paralajmërojnë kundër kësaj teknologjie, e cila tashmë sot na lejon të njohim fytyrat e të gjithëve ne në rrjetet sociale, të ndjekim lëvizjet tona, të kontrollojmë të njohurit tanë. Sipas ekspertëve të MIT, gjatë muajve të ardhshëm njohja e fytyrës do të shkojë edhe më tej dhe ne do të shohim shfaqjen e sistemeve të afta të identifikojnë emocionet tona përpara ekranit, përpara një vitrine dyqani ose një raft supermarketi.

Por mund të shpresohet se do të shohim edhe rregullimet e para ligjore për përdorimin e këtyre sistemeve pushtuese.

PËRTEJ LAJMEVE TË RREME .

Nëse viti 2018 do të ishte viti i lajmeve të rreme, 2019 mund të ishte viti i videove të rreme. Sistemet gjithnjë e më të avancuara të inteligjencës artificiale, si Rrjetet Generative Adversarial, bëjnë të mundur krijimin, në një mënyrë mjaft të thjeshtë, video krejtësisht të rreme, por praktikisht të padallueshme nga ato reale.

Nvidia, një kompani udhëheqëse e grafikës kompjuterike dhe lojërave video, zbuloi një prototip softueri dhjetorin e kaluar që përdor inteligjencën artificiale për të bërë imazhe të njerëzve krejtësisht të trilluar të të gjitha racave, moshave dhe gjinive.

Rreziku, nga pikëpamja politike, ndihet veçanërisht, deri në atë pikë sa vetë DARPA, agjencia e qeverisë amerikane që merret me teknologjitë ushtarake, po punon në sistemet e AI të aftë për të njohur video të rreme. A do të jetë në gjendje AI të na mbrojë nga problemet e shkaktuara nga AI?

Të mirat dhe të këqijat e sistemeve të inteligjencës artificiale

Sipas një studimi nga Instituti i Teknologjisë në Xhorxhia , disa sisteme imazherie në automjete autonome mund ta kenë më të vështirë të dallojnë kalimtarët me lëkurë të errët sesa ato me lëkurë të hapur. Mesatarisht, tetë sistemet e testuara (megjithatë asnjëri prej tyre nuk është aktualisht në përdorim) kishin më pak se 5% saktësi në zbulimin e këmbësorëve të zinj, edhe kur detaje të tilla si kohë të ndryshme të ditës ose prania e barrierave që mund të errësojnë fytyrën e një personi. Ndoshta këto algoritme nuk ishin trajnuar me imazhe të mjaftueshme të njerëzve me lëkurë të errët, ose nuk iu dha peshë e mjaftueshme kampionit të subjekteve me lëkurë të errët.

PARAGJYKIMET DIXHITALE.

Së fundi, është tema e “paragjykimit”, për të cilën dëgjojmë gjithnjë e më shumë në lidhje me sistemet e inteligjencës artificiale: në fakt, është demonstruar se nëse ato nuk programohen siç duhet, këto sisteme mund të bëhen raciste dhe mizogjene, sepse ato pasqyrojnë besimet e lindura, dhe shpesh të pavetëdijshëm se kush i krijoi ato.

Ose, ky është rreziku tjetër, ata mund të trashëgojnë gabime nga sjelljet e kaluara dhe të vazhdojnë t’i praktikojnë ato edhe në të ardhmen. Nje shembull? Një sistem njohjeje vizuale i trajnuar mbi të dhëna “të pabalancuara” mund të ketë probleme në identifikimin e saktë të grave ose njerëzve me ngjyrë. Ose mund të ndodhë që një sistem AI, i përdorur për të zgjedhur personelin që një kompani dhe i cili bazohet në të dhëna nga e kaluara, mund të vazhdojë të pasqyrojë, në zgjedhjet e tij, disa diskriminime që ka trashëguar nga e kaluara.

Këto janë situata të vështira për t’u ndryshuar sepse edhe sot, në kompanitë që merren me inteligjencën artificiale, 70% e roleve menaxheriale i zënë burrat. Dhe kjo ndodh edhe në universitete. Përveç kësaj, zezakët dhe amerikanët latinë përbëjnë një përqindje shumë më të vogël se të bardhët.

Megjithatë, viti 2019 mund të jetë viti i ndryshimit: ekspertët e industrisë në fakt po përgatiten për konferencën e parë të madhe mbi këtë lloj çështjeje që do të mbahet në Etiopi në vitin 2020. Pse ky vend? Sepse shkencëtarët vendas të inteligjencës artificiale shpesh kanë probleme me marrjen e vizave të nevojshme për mërgim.

Doni të informoheni të parët për lajme ekskluzive?
Na ndiqni në Telegram Chanel këtu: https://t.me/patriotikmedia si dhe Twitter: https://twitter.com/PatriotikMedia”
Nuk bëhesh gazetar për qene, i njohur por për të qene i dobishëm”

/Stopfake.al/

Leave a Reply

Your email address will not be published. Required fields are marked *

Previous post FAKTE/ Ja si Plaku Biden i gënjeu amerikanët me gjigantin Whopper në 5 minutat e para të fjalimit …
Next post Shkenca mbi njerëzit dhe AI ​​është shumë efikase – Kjo ishte frika e fundit e shkencëtarit Stephen Hawking …
error: Ky publikimet jane te mbrojtura