February 5th, 2024
Inteligjenca artificiale (IA) është një teknologji në të cilën një kompjuter ose një robot i kontrolluar nga kompjuteri ka aftësinë për të kryer detyra që kryhen normalisht nga njerëzit, edhe nëse inteligjenca artificiale nuk mund të kryejë të gjitha funksionet që një njeri mund të kryejë, disa inteligjenca artificiale mund të arrijë njerëzit në detyra të caktuara.
Në epokën moderne, inteligjenca artificiale (IA) është fusha e re e kërkimit dhe aplikimit të teknologjive të informacionit. Në proporcion të drejtpërdrejtë me këtë, dhuna digjitale me bazë gjinore po shfaqet si një sfidë globale, duke imponuar nevojën për strategji dhe qasje inovative në parandalimin dhe reduktimin e formave të saj.
Duke analizuar ndikimin e IA-së, në kontekstin e dhunës me bazë gjinore, ngrihen çështje për mbrojtjen e privatësisë, drejtësisë dhe standardeve etike që duhet të ndjekin teknologjitë inovative.
Nëse i kthehemi algoritmeve që qeverisin inteligjencën artificiale dhe sjelljet potencialisht invazive të rrjetit, duhet të mendojmë se si teknologjia mund të jetë shprehje e paragjykimeve socio-kulturore dhe pabarazive që çojnë në dhunë me bazë gjinore. Sidoqoftë, duhet të merret parasysh ideja se inteligjenca artificiale mund të luajë një rol kryesor në identifikimin dhe parandalimin e këtyre formave të dhunës.
Prania e shtuar e IA-së në jetën e përditshme shoqërore shihet përmes aplikimit të saj në teknologjinë e asistentëve personalë, sistemeve të navigimit, automjeteve autonome, sigurimeve shoqërore, tregtisë elektronike, sigurisë kibernetike, mediave sociale, etj. Teknologjia e inteligjencës artificiale është një nga shpikjet më të rëndësishme në epokën e teknologjisë, ajo po përhapet me shpejtësi dhe zbatimi i saj pranohet po aq shpejt. Platformat e mediave sociale, aplikacionet celulare, motorët e kërkimit, asistentët virtualë dhe sistemet e sigurisë janë ndër fushat ku inteligjenca artificiale është e përfshirë në jetën e përditshme të përdoruesve dhe ndikimi i saj social po përhapet gradualisht.
Inteligjenca artificiale tregon rezultate të mira kur trajnohet me grupe të mëdha të të dhënave. Edhe pse fokusi kryesor në zhvillimin e këtyre sistemeve është performanca dhe kompetenca e teknologjisë, shqetësimet po shprehen gjithnjë e më shumë në fushën e “llogaridhënies, anshmërisë, drejtësisë, sigurisë, transparencës dhe qëndrueshmërisë”.
IA nuk mund të konsiderohet veçmas nga jeta shoqërore, ndërveprimi shoqëror dhe rendi. Prandaj është thelbësore të zbatohet përmes parimeve konkrete, duke i kushtuar vëmendje llogaridhënies, paragjykimit, drejtësisë, sigurisë dhe transparencës së algoritmeve të inteligjencës artificiale. Hulumtuesit, akademikët dhe aktivistët bëjnë me dije për përhapjen e praktikave diskriminuese me rritjen e sistemeve të inteligjencës artificiale, megjithatë, kompanitë që prodhojnë teknologji të re gjithashtu kanë filluar të mendojnë për parimet etike në fazat e hulumtimit, zhvillimit dhe zbatimit.
Megjithatë, ka një numër të vogël kompanish teknologjike që i zbatojnë këto rregullativa me hapa konkretë. Mund të supozohet se me shfaqjen e aplikacioneve të IA-së, pasojat globale janë të pashmangshme. Një fushë gjithashtu e rëndësishme e studimeve sociologjike, që merren me studimin e IA-së si një teknikë, janë algoritmet dhe funksioni i tyre në riprodhimin e pabarazive sociale. Kjo do të thotë se algoritmi, i cili mund të përkufizohet si komponenti që merr vendimet e inteligjencës artificiale, garanton rëndësinë e të dhënave të inteligjencës artificiale. Prandaj, inxhinierët që kodojnë algoritmet janë bartës të vlerave të tyre, kështu që inteligjenca artificiale është larg teknologjisë objektive dhe është mjaft e politizuar për të qenë në gjendje të marrë një rol aktiv në riprodhimin e pabarazive sociale.
Algoritmet që imponojnë atë që ne do të shohim, dëgjojmë dhe dimë depërtojnë në shumë fusha të jetës shoqërore. Duke u nisur nga ajo që na pëlqen apo jo, me të cilin lidhemi në formën e socializimit të udhëhequr nga teknokracia. Ekziston fakti se algoritmet mund të udhëhiqen nga vlera dhe politika të stereotipizuara tradicionalisht, se në një kuptim të caktuar janë mjete të riprodhimit të pabarazive sociale, se teknologjia është e pakuptueshme dhe nuk rishqyrtohet, dhe si koncept ajo përfshin realitetin dhe e mban atë larg syve. Kjo është konceptualizuar si “shoqëri e kutive të zeza”. Termi “shoqëri e kutive të zeza” përshkruan një situatë ku algoritmet dhe teknologjitë që përdorim nuk janë transparente dhe nuk kemi qasje në punën dhe pasojat e tyre të brendshme. Në këtë shoqëri, nuk mund të kuptojmë se si funksionojnë algoritmet dhe cilat vlera dhe politika janë të inkorporuara në to.
Kjo ide distopike vë në dukje pasojat negative, sepse mos transparenca e algoritmeve mund të ndikojë në përvojat tona, informacionin që marrim, si dhe mbi perceptimin tonë të gjërave. Strukturat dhe algoritmet që kontrollojnë përvojën tonë mund të riprodhojnë pabarazitë dhe stereotipet pa qenë ne të vetëdijshëm për këtë.
Kur flasim për dhunën digjitale me bazë gjinore , ne i referohemi përdorimit të teknologjisë dhe platformave digjitale si një mjet për të kryer dhunë, keqpërdorim dhe diskriminim në bazë të përkatësisë gjinore ose seksit. Kjo përfshin forma të ndryshme të dhunës në platformat digjitale, siç janë sajberbulingu, online ngacmimi, mesazhe të pakëndshme, shfrytëzimi seksual, ndarja e fotografive dhe videove intime pa leje (revenge porn) dhe diskriminimi në bazë të gjinisë. Dhuna digjitale me bazë gjinore ka pasoja të rënda për viktimat, siç janë problemet psikologjike, emocionale dhe fizike, si dhe komprometon privatësinë dhe sigurinë.
Sjellja invazive e rrjetit është gjithashtu një lloj dhune digjitale që mund të identifikohet përmes formave të ndryshme të sjelljes, siç është monitorimi i vazhdueshëm i profileve të të tjerëve, publikimi i vazhdueshëm i informacionit dhe fotografive personale të njerëzve të tjerë, dërgimi i mesazheve ose komenteve të padëshiruara, spiunimi i aktiviteteve në internet dhe veprime të tjera të ngjashme që tejkalojnë normat e privatësisë dhe respektit. Një shembull i tillë i sjelljes invazive në rrjet është shfaqja e grupit "Dhoma Publike" në Telegram në të cilin mijëra anëtarë nga vendi ndanin fotografi dhe video eksplicite të vajzave nga Maqedonia, përfshirë edhe të vajzave të mitura.
Përdorimi i IA-së në dhunën digjitale mund të jetë i paqëllimshëm ose i qëllimshëm. Disa sisteme për IA mund të programohen të kenë stereotipe diskriminuese që rezultojnë në pasoja të padëshiruara. Përdorimi i qëllimshëm i IA-së në sulmet në internet paraqet një sfidë të madhe, pasi algoritmet përdoren për të shfrytëzuar me qëllim të keq informacionin.
Shqetësimet në lidhje me përdorimin e inteligjencës virtuale (IV) në dhunën digjitale janë një temë e përditshme në shoqërinë moderne. Përfshirja e IV në këtë proces është përmes përdorimit të saj për gjenerimin automatik të përmbajtjes së dhunshme,
përhapjen e mesazheve të turpshme dhe manipulim me informacionet. Ky shqetësim buron nga mundësia që IA të gjenerojë dhe shpërndajë përmbajtje të dhunshme dhe diskriminuese.
Përmes IA-së, përmbajtja e dhunshme mund të gjenerohet dhe shpërndahet pa pasur nevojë për ndërveprim të drejtpërdrejtë. IA mund të programohet për të manipuluar informacionin dhe për të krijuar iluzionin e vërtetësisë. Për të zvogëluar shqetësimet në lidhje me përdorimin e IA-së në dhunën digjitale, është e nevojshme të zbatohen masat e llogaridhënies, të zhvillohen dhe zbatohen standardet ligjore dhe etike që do të rregullojnë aktivitetet e IA-së në hapësirën digjitale. Kjo do të kufizonte aftësinë e IA-së për të gjeneruar dhe shpërndarë përmbajtje të dhunshme dhe diskriminuese.
Inteligjenca virtuale (IV) ka potencial të madh në luftën kundër dhunës me bazë gjinore. Sistemet inteligjente mund të zhvillojnë dhe shpërndajnë materiale arsimore që do të informojnë njerëzit për barazinë gjinore dhe do të nxisin respektin dhe pranimin e identiteteve të ndryshme gjinore. Këto sisteme mund të programohen për të njohur dhe identifikuar format e dhunës dhe ngacmimit në hapësirat virtuale, duke mundësuar kështu reagim dhe ndërhyrje të shpejtë.
IV mund të ndihmojë në identifikimin dhe mbrojtjen e viktimave të dhunës me bazë gjinore dhe duke përdorur algoritme të njohjes së imazhit dhe tekstit, mund të ndihmojë gjithashtu në zbulimin dhe shqyrtimin e përmbajtjes në internet që përmban dhunë ose ngacmim, duke përfshirë mesazhe dhe fotografi që ndahen pa leje. Kjo do të lejonte ekipet operacionale dhe autoritetet gjyqësore të përgjigjen dhe të mbrojnë viktimat e dhunës me bazë gjinore.
Mund të përdoret gjithashtu për të mbledhur dhe analizuar të dhëna mbi dhunën me bazë gjinore. Duke përpunuar sasi të mëdha të të dhënave, IV mund të identifikojë tendencat, format dhe shkaqet e dhunës. Kjo do t'i lejonte hulumtuesit dhe vendimmarrësit të kuptojnë rrënjët e problemit dhe të formulojnë strategji efektive për të trajtuar dhunën me bazë gjinore.
Kur flasim për dhunën algoritmike , nënkuptojmë përdorimin e algoritmeve kompjuterike dhe sistemeve të automatizuara për të krijuar dhe përhapur dhunë dhe diskriminim. Kjo mund të ndodhë përmes filtrimit algoritmikdhe rekomandimeve të mediave sociale, të cilat mund të ndikojnë në informacionin dhe perceptimet e përdoruesve dhe t'i ekspozojnë ndaj dhunës dhe diskriminimit. Dhuna algoritmike mund të marrë forma të ndryshme, të tilla si sajberbuling, online ngacmimi, shfrytëzimi seksual dhe diskriminimi. Kjo lloj dhune bazohet në një kombinim të algoritmeve, të dhënave dhe paragjykimeve të brendshme që mund të kenë pasoja negative në opinionin publik, drejtësinë dhe demokracinë. Për të adresuar këtë dhunë, duhet të identifikojmë dhe analizojmë algoritmet dhe sistemet që i mbështesin ato, si dhe të zhvillojmë korniza etike dhe ligjore për menaxhimin dhe kontrollin e tyre.
Ndikimi i paragjykimeve dhe stereotipeve në dhunën algoritmike është një problem serioz. Algoritmet e krijuara nga njerëzit mund të përmbajnë paragjykime dhe stereotipe, dhe kjo reflektohet në përpunimin e informacionit dhe në rezultatet që ato prodhojnë. Për shembull, algoritmet për rekomandimin e përmbajtjes në internet mund të kenë paragjykime ndaj grupeve të caktuara të njerëzve, të cilat mund të përforcojnë stereotipet dhe të përjashtojnë të njëjtat grupe nga qasja në informacion dhe mundësitë për të marrë pjesë në jetën publike.
Dhuna algoritmike ndodh edhe në sisteme plotësisht të automatizuara që zbatojnë algoritme vendimmarrëse. Këto sisteme mund të përdoren në fusha të ndryshme, si në forenzikë ose në procesin e rekrutimit. Nëse algoritmet bazohen në stereotipe dhe paragjykime, kjo mund të çojë në trajtim të pabarabartë dhe diskriminim të grupeve të caktuara të njerëzve. Për shembull, algoritmet për rekomandimin e vendeve të punës mund të sugjerojnë më shumë kandidatë meshkuj sesa femra, gjë që mund të përkeqësojë pabarazinë gjinore në tregun e punës.
Kur algoritmet për vendimmarrje përdoren në sisteme të tilla si gjyqësori ose institucionet financiare, sjellja e padrejtë dhe diskriminimi kanë pasoja të rënda mbi të drejtat dhe liritë e njerëzve. Këto sisteme mund të amplifikojnë pabarazitë ekzistuese dhe të kufizojnë mundësitë për grupe të caktuara njerëzish për të hyrë dhe marrë pjesë në hapësirën publike.
Një nga sfidat me të cilat përballemi është marrja e bazave të të dhënave cilësore dhe të gjithanshme për algoritmet për trajnim. Është e nevojshme të jemi të kujdesshëm në krijimin dhe përzgjedhjen e të dhënave për trajnim për të shmangur riprodhimin e pabarazive sociale tashmë ekzistuese. Gjithashtu, transparenca dhe llogaridhënia e algoritmeve dhe krijuesve të tyre është thelbësore për të njohur dhe korrigjuar ndikimin e paragjykimeve dhe stereotipeve në dhunën algoritmike.
IV ka potencial të jetë një mjet i fuqishëm në identifikimin dhe parandalimin e dhunës, por gjithashtu mund të paraqesë sfida për sa i përket privatësisë, diskriminimit dhe abuzimit të mundshëm. Shkaku kryesor i nevojës për mbikëqyrje dhe standarde etike është shmangia dhe minimizimi i pasojave negative dhe keqpërdorimeve të IV në kontekstin e luftës kundër dhunës me bazë gjinore. Përvojat e kaluara me IV tregojnë sfida dhe rreziqe të mundshme, të tilla si diskriminimi dhe paragjykimi.
Standardet etike janë të nevojshme për të siguruar që IV përdoret në një mënyrë që mbron të drejtën e njerëzve për privatësi dhe dinjitet. Sistemet e IV-së, duhet të projektohen me mekanizma të integruara të mbrojtjes së privatësisë dhe vendosja e standardeve etike do të ndihmojë në shmangien e abuzimit të mundshëm.
Aktualisht po ndërmerren hapa me të cilat do të mbroheshim nga rreziqet që paraqet nga zbatimi i IV-së. Një shembull është marrëveshja e përkohshme e Kuvendit dhe Parlamentit të BE-së për Ligjin për inteligjencën artificiale. Kjo rregullativë synon të sigurojë mbrojtjen e të drejtave themelore të njeriut, demokracisë dhe qëndrueshmërisë mjedisore.
Në procesin e zhvillimit dhe zbatimit të IA-së, si një mjet në luftën kundër dhunës, është e nevojshme të përfshihen aktorë dhe grupe të ndryshme të interesit. Këto përfshijnë skenën akademike, organizatat për të drejtat e njeriut dhe mbrojtjen e viktimave, si dhe vetë viktimat e dhunës. Vetëm përmes bashkëpunimit dhe dialogut mund të garantohet që IA do të përdoret në një mënyrë që është etike dhe e përshtatshme në luftën kundër dhunës.
Duke pasur parasysh pjesën në rritje të teknologjisë në jetën tonë, lindin sfida serioze, prandaj apelohet nevoja për të kapërcyer mangësitë dhe lëshimet e sistemeve “inteligjente” që krijohen për të përmirësuar cilësinë e jetës. Sfidat etike të inteligjencës artificiale në kontekstin e dhunës me bazë gjinore janë një aspekt kritik që kërkon analizë të hollësishme dhe zbatim të qasjeve të ndryshme. Është e nevojshme të investohet në zhvillimin e IA-së me standarde etike dhe morale të integruara, të cilat do të parandalojnë pasojat negative të përdorimit të tyre.
Përmes përdorimit të algoritmeve dhe teknikave inovative, inteligjenca artificiale mund të jetë një mjet i rëndësishëm në parandalimin dhe reduktimin e dhunës me bazë gjinore. Megjithatë, duhet të jemi të vetëdijshëm për rreziqet e mundshme etike që lindin, të tilla si sjelljet invazive të rrjetit dhe trajtimi i pabarabartë i viktimave.
Një nga sfidat është zhvillimi i algoritmeve dhe modeleve të bazuara në objektivitet dhe drejtësi. Është thelbësore të zhvillohet aftësia e inteligjencës artificiale për të njohur dhe interpretuar informacionin pa krijuar ose riintegruar stereotipet. Duke mbështetur përpjekjet kërkimore dhe duke synuar parimet e barazisë dhe drejtësisë sociale, teknologjia mund të bëhet bashkëpunëtore në luftën kundër dhunës me bazë gjinore.
Në përpjekjen për të parandaluar dhunën me bazë gjinore, teknologjia nuk duhet të jetë vetëm një mjet, por edhe një bashkëpunëtor në mbështetjen e të drejtave themelore dhe sigurisë së të gjithë njerëzve. Zbatimi i suksesshëm kërkon krijimin e një qasjeje kolektive që përfshin institucionet qeveritare, objektet kërkimore, ekspertët e teknologjisë dhe komunitetin në përgjithësi.
Zbatimi i inteligjencës artificiale në luftën kundër dhunës me bazë gjinore duhet të bëhet duke përmbushur standardet dhe parimet etike. Është e nevojshme të garantohet se algoritmet dhe modelet e përdorura janë të sakta dhe nuk krijojnë diskriminim ndaj grupeve të caktuara. Duhet gjithashtu të sigurohet privatësia dhe siguria e të dhënave të përdorura dhe të parandalohet keqpërdorimi i mundshëm.
Vetëm përmes përpjekjeve të përbashkëta dhe standardeve të rrepta etike mund të përfitojmë nga inteligjenca artificiale në parandalimin dhe zvogëlimin e dhunës me bazë gjinore, pa shkelur të drejtat dhe privatësinë e viktimave.
Literatura e përdorur:
Stefka Hristova, Hong, S., & Jennifer Daryl Slack. (2021). Algorithmic culture : how big data and artificial intelligence are transforming everyday life. Lanham, Maryland: Lexington Books, An Imprint Of The Rowman & Littlefield Publishing Group, Inc.
Whitby, B. (2003). The social implications of artificial intelligence. Middlesex University.
YAKIMOVA, Y. (2023, September 12). Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI | News | European Parliament. Retrieved from www.europarl.europa.eu website: https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai
Ky ese/artikull është pjesë e Publikimit: Jashtë ekranit: Ekspozimi i dhunës digjitale me bazë gjinore përmes një rishikimi kritik të botuar nga Rrjeti Stella, në kuadër të projektit "Kur dhuna digjitale me bazë gjinore del jashtë ekranit" mbështetur nga Qeveria Zvicerane në Republika e Maqedonisë së Veriut.
Martina Lozanoska Najdovska është eksperte e diplomuar në çështjet gjinore, aktualisht në studimet pasuniversitare në Institutin për Studime Gjinore. Interesi i saj teorik është inteligjenca artificiale (IA) në kontekstin e feminizmit kibernetik dhe barazisë gjinore. Ajo është e përfshirë në projekte që lidhen me përdorimin e inteligjencës artificiale për të promovuar barazinë gjinore.
TË NDRYSHME
Përmbajtja e kësaj ueb-faqeje është përgatitur nga Mollëkuqja me mbështetje të popullit Amerikan përmes Agjencionit për Zhvillim Ndërkombëtar të Shteteve të Bashkuara të Amerikës (USAID). Pikëpamjet e autorëve të shprehura në këtë ueb-faqe nuk reflektojnë medoemos pikëpamjet e Agjencionit për Zhvillim Ndërkombëtar të Shteteve të Bashkuara apo të Qeverisë së Shteteve të Bashkuara të Amerikës.
Platforma mollëkuqja.mk është projekt i Qendrës për Mundësi të Barabarta "Mollëkuqja". Nëpërmjet kësaj platforme ne synojmë të krijojmë një hapësirë të sigurtë për gratë dhe burrat, ku të njëjtët jo vetëm mund të informohen për problemet aktuale që kanë të bëjnë me diskriminimin gjinor, por edhe të mund të ndajnë mendimet dhe eksperiencat e tyre.
Të gjitha të drejtat janë të rezervuara © 2024 / Mollëkuqja.mk | Made by LuckyMedia