EXPO 2020
PROMOCIJA NAŠEGA PODJETJA EXPO 2020 Client Poleton Inc. Completed July...
Preberi večČe niste bili zadnjih nekaj mesecev na počitnicah nekje daleč stran, brez dostopa do interneta ali družabnih stikov, se zagotovo zavedate vzhičenja in strahu glede ChatGPT in drugih podobnih orodij umetne inteligence (AI).
Obstajajo številne razprave, ki zajemajo na eni strani vznemirjenje nad neomejenimi možnostmi potencialne uporabe ChatGPT in zaskrbljenost zaradi njegovega možnega vpliva na svet, kot ga poznamo. Vmes se najdejo poskusi navdušenih posameznikov, ki prosijo GPT, naj jim napiše pesem za punco v stilu Chucka Berryja ali sprašujejo, kako s pomočjo arašidovega masla spraviti slona iz hladilnika.
Vendar je med temi (bolj ali manj) zabavnimi poskusi le malo pozornosti namenjene temu, kako orodja AI predstavljajo tveganja ali koristi na področju informacijske varnosti.
Nobeno orodje iz trenutne generacije klepetalnih robotov ni sposobno sprejemati inteligentno podprtih odločitev.
ChatGPT je klepetalni robot, brezplačen za uporabo, ki ga je razvil OpenAI . Izdaja najnovejše, plačljive različice GPT-4, 14. Marca 2023 je takoj prišla na večino naslovnic zaradi pomembne posodobitve in tudi granje ugleda za kompleksna ‘plonk’ besedila. Microsoft, ki financira OpenAI, je uvedel ChatGPT tudi v svojem iskalniku Bing.
GPT je kratica za ‘generative pre-trained transformer’, kar pomeni, da gre za jezikovni model, ki preverja verjetnost, katere besede bodo verjetno naslednje v zaporedju. Ker gre za algoritem globokega učenja, se nevronska mreža nauči konteksta katerega koli jezikovnega vzorca, govorjenega ali računalniškega.
Zato je pomembno opozoriti, da nobeno tovrstno orodje iz trenutne generacije klepetalnih robotov z umetno inteligenco, bodisi ChatGPT bodisi njegov Googlov tekmec Bard, DeepMind-ov Sparrow in drugi LLM, v resnici ne sprejema inteligentno podprtih odločitev. Delujejo bolj kot papige, saj ponavljajo besede, ki se najverjetneje nahajajo ena poleg druge.
Podjetja nenehno iščejo stroškovno učinkovite načine za izboljšanje ponudbe izdelkov, zagotavljanja storitev in skalabilnosti. Zmožnost umetne inteligence, da avtomatizira določene naloge, kot je ustvarjanje vsebine za družbene medije ali trženje, in delovanje v vlogi pomočnika pri iskanju informacij ali zagotavljanju osnovnih storitev za stranke (kot je odgovarjanje na pogosta vprašanja) je torej dobrodošla.
Na spletu je veliko vsebine in orodij, ki jih lahko preizkusi vsak. Večina jih hvali prednosti, ki jih prinaša nova tehnologija, zato se na to ne bomo osredotočali. Poglejmo si raje tveganja, za katera morda sploh niste vedeli, da obstajajo
Etična vprašanja pri uporabi generativne umetne inteligence so očitna in skrb, zaradi katere je italijanski organ za varstvo podatkov 1. aprila prepovedal uporabo ChatGPT. Uporaba je bila ponovno dovoljena mesec dni kasneje, z večjo preglednostjo in pravicami za uporabnike v EU, vendar ostaja veliko pomislekov.
Nedavna študija* je opredelila šest različnih varnostnih tveganj, ki vključujejo uporabo ChatGPT in drugih velikih jezikovnih modelov (LLM):
Veliki jezikovni modeli (LLM) so lahko zavezniki kibernetske varnosti
ali pa grožnja.
Ustvarjanje zlonamernega besedila
Ena izmed najbolj priljubljenih funkcij – zmožnost kreiranja besedil – se lahko uporablja tudi za ustvarjanje škodljivih tekstov. To lahko vključuje dezinformacije, lažne novice, neželeno pošto, celo lažno predstavljanje in ustvarjanje phishing napadov z lažnim predstavljanjem.
Ustvarjanje zlonamerne kode
Impresivne zmožnosti orodja na področju generiranja kod bi lahko uporabili tudi za izdelavo hitre kode in jo uporabili v škodljiv namen, kar bi potencialnim napadalcem omogočilo hitrejše izvajanje groženj. Čeprav ima chatbot nekaj omejitev in noče generirati zlonamernih kod (kot je zakrita koda), se lahko strinja z generiranjem kode, ki bi lahko testirala ranljivost sistema.
Generiranje žaljivih vsebin
Sicer ima orodje vgrajene zaščitne mehanizme, ki preprečujejo širjenje žaljivih in neetičnih vsebin, a če je uporabnik dovolj odločen, se da žal doseči tudi to.
Orodja umetne inteligence že ponujajo dinamičen pristop k informacijski varnosti z uporabo inteligentnih algoritmov in tehnik strojnega učenja za odkrivanje, odzivanje in ublažitev nastajajočih tveganj v realnem času.
Z zmožnostjo obdelave velikih količin podatkov lahko algoritmi umetne inteligence prepoznajo sumljive dejavnosti, označijo morebitne grožnje in varnostnim ekipam zagotovijo pravočasna opozorila. To omogoča organizacijam, da se hitro in učinkovito odzovejo, ublažijo vpliv kibernetskih incidentov in zmanjšajo možnost kršitev podatkov ali ogrožanja sistema.
Orodja AI, vključno s ChatGPT , se lahko uporabljajo tudi kot platforme za usposabljanje. S simulacijo scenarijev iz resničnega sveta ta orodja zagotavljajo varno okolje za ekipe informacijske varnosti, da izboljšajo svoje sposobnosti, vadijo odziv na incidente in razvijejo učinkovite strategije za boj proti kibernetskim grožnjam.
Uporablja se lahko za okrepitev prizadevanj podjetij za izboljšanje informacijske varnosti. Na primer, orodje lahko zagotovi določeno stopnjo podpore junior IT sodelavcem, da jim pomaga bolje razumeti kontekst problema, na katerem delajo. Pomaga lahko tudi ekipam z nezadostnim osebjem pri prepoznavanju notranjih ranljivosti. Zastavljanje vprašanja, kot je “Kako lahko prepoznam lažno spletno trgovino?” ali »Kako prepoznam lažno e-pošto?« lahko zagotovi precej soliden odgovor, ki bo uporabniku pomagal ostati na varni strani.
Upajmo, da bodo v prihodnosti informacijske varnosti uporabniki uporabljali umetno inteligenco, da bi pomagali rešiti težave za te in številne druge vrste poizvedb, na primer, kaj bi lahko bil naslednji najverjetnejši možen napad na organizacijo. Jasno mora biti, da če kibernetski napadalci uporabljajo ChatGPT in druga orodja umetne inteligence za izboljšanje svojih napadov, bi jih morale tudi organizacije uporabljati za krepitev svojih prizadevanj za informacijsko varnost. Na srečo pri tem niste sami.
PROMOCIJA NAŠEGA PODJETJA EXPO 2020 Client Poleton Inc. Completed July...
Preberi večUnec 21
SI-1381 Rakek
Kronstadter Str. 4
DE-81677 München
Za najboljšo spletno izkušnjo uporabljamo piškotke. S strinjanjem se strinjate z uporabo piškotkov v skladu z našo politiko piškotkov.
Ko obiščete katero koli spletno mesto, to lahko shrani ali pridobi informacije v vašem brskalniku, večinoma v obliki piškotkov. Tukaj lahko nadzorujete svoje osebne nastavitve piškotkov.