» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 219 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Nordkorea är en stat i östra Asien, belägen på den norra delen av Koreahalvön. Landet gränsar till Kina, Ryssland och Sydkorea. Nordkorea är en enpartistat som styrs av Arbetarpartiet, med Kim Jong-un som högsta ledare. Landet är känt för sin isolering från omvärlden och stränga kontroll över medborgarna. Nordkorea har en kommunistisk ekonomi och en stor militär styrka. Landet har genomfört flera kärnvapenprov och missiltester, vilket har lett till internationella spänningar och sanktioner. Mänskliga rättigheter är begränsade och levnadsstandarden är låg jämfört med grannländer.

Senaste nytt kring Nordkorea

Anthropics VD diskuterar potentialen för AI-självreplikering

Artificiell intelligens (AI) utvecklas i en aldrig tidigare skådad takt, med vissa experter som förutser dess potential för självhållbarhet och replikation. Dario Amodei, VD för Anthropic, diskuterade idén om ´ansvarsfull skalning´ inom AI-teknologi i en nyligen podcastintervju. Han varnade för att AI utan ordentlig övervakning kan börja reproducera sig självständigt inom en snar framtid. Amodei jämförde den nuvarande staten av AI med biosäkerhetsnivåerna i ett virologilabb, vilket indikerar att vi är på ASL 2. Han antydde att ASL 4, karaktäriserad av ´autonomi´ och ´övertalning´, kan vara i horisonten. Amodei uttryckte oro över länder som Nordkorea, Kina och Ryssland som använder AI för att förbättra sina militära förmågor. Han föreslog att detta potentiellt kunde skifta den geopolitiska balansen till deras fördel.

Direktlänk Dela NewsBytes fördjupade 17 april
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

AI kan bli självförsörjande och självreplikerande inom kort tid, säger Anthropic CEO

AI kan snart bli självförsörjande och självreplikerande, enligt Dario Amodei, VD för Anthropic. I en podcastintervju med New York Times Ezra Klein diskuterade Amodei ´ansvarsfull skalning´ av tekniken och hur den utan styrning kan börja föröka sig. Amodei jämförde AI med biosäkerhetsnivåer i virologilaboratorier. Han sa att världen för närvarande är på ASL 2, men att ASL 4, som skulle innefatta ´autonomi´ och ´övertalning´, kan vara precis runt hörnet. Han förutspår att nivån ´replikera och överleva i det vilda´ kan uppnås mellan 2025 och 2028.

Direktlänk Dela Futurism fördjupade 16 april

Japan uppmanar amerikanska företag att investera i landets tekniksektorer

Japan, som en gång sågs som USA:s största ekonomiska utmanare, söker nu samarbete med världens största ekonomi genom att uppmana amerikanska företagsledare att investera i landets framväxande tekniksektorer, inklusive artificiell intelligens, halvledare och ren energi. Japans premiärminister Fumio Kishida talade vid en lunch med amerikanska VD:ar i Washington och hävdade att alla investeringar skulle flöda åt båda håll. Kishida är i USA inför ett toppmöte med president Joe Biden som förväntas fokusera på försvars- och ekonomiska band. Microsoft meddelade att de planerar att investera $2.9 miljarder för att öka sin molndator- och AI-infrastruktur i Japan.

Direktlänk Dela CNN fördjupade 10 april

Kina tros använda AI för att påverka val, enligt Microsoft

Enligt en rapport från Microsoft Threat Analysis Centre (MTAC) kommer Kina sannolikt att skapa och förstärka AI-genererat innehåll för att gynna sina intressen under de stora val som äger rum runt om i världen i år, särskilt i Indien, Sydkorea och USA. Trots att chansen att sådant innehåll påverkar valresultat förblir låg, kommer Kinas ökande experiment med att förstärka memes, videor och ljud sannolikt att fortsätta. Rapporten nämner också att Nordkorea har ökat sina kryptovalutakupper och leveranskedjeattacker för att finansiera och främja sina militära mål.

Direktlänk Dela The Times of India fördjupade 7 april

Microsoft varnar för Kinas AI-baserade valstörningar

Microsoft har varnat för att Kina kommer att försöka störa valen i USA, Sydkorea och Indien i år med innehåll genererat av artificiell intelligens (AI), efter att ha gjort en provkörning med presidentvalet i Taiwan. Enligt Microsoft kommer kinesiska statligt stödda cybergrupper att rikta in sig på högprofilerade val 2024, med Nordkorea också inblandat. Företaget förutspår att Kina kommer att skapa och distribuera genom sociala medier AI-genererat innehåll som gynnar deras ståndpunkter i dessa val. Microsoft rapporterar att Kina redan har försökt en AI-genererad desinformationskampanj i det taiwanesiska presidentvalet i januari.

Direktlänk Dela The Guardian fördjupade 5 april

Analytiker varnar för att Nordkorea kan förbereda sig för krig

Efter årtionden av tomma hot, ignorerar större delen av världen när Nordkorea svär att släppa lös förstörelse på sina fiender. Men under de senaste månaderna har några framstående analytiker börjat varna för att Kim Jong Un faktiskt kan vara seriös om att förbereda sig för krig.

Direktlänk Dela Yahoo News UK fördjupade 4 april

Cyberkriminella använder alltmer ChatGPT för att skapa skadligt innehåll

ChatGPT-jailbreak har blivit populära verktyg för cyberkriminella och fortsätter att spridas på hackerforum nästan två år efter den offentliga lanseringen av den banbrytande chatten. Under denna tid har flera olika taktiker utvecklats och marknadsförts som effektiva sätt att kringgå OpenAI:s innehålls- och säkerhetspolicyer, vilket möjliggör för illvilliga aktörer att skapa phishing-e-post och annat skadligt innehåll. Microsoft avslöjade tidigare i år att medlemmar av fem statssponsrade hotgrupper från Ryssland, Nordkorea, Iran och Kina använder ChatGPT för uppgifter som social ingenjörskonst till skriptinghjälp och sårbarhetsforskning. Abnormal Security publicerade på måndagen ett blogginlägg som belyser fem uppmaningar som cyberkriminella använder för att jailbreaka ChatGPT. OpenAI arbetar för att mildra skadliga uppmaningar och stärka ChatGPT:s förmåga att hålla sig inom företagets riktlinjer.

Direktlänk Dela SC Media fördjupade 2 april

OpenAI avslöjar chockerande teknik för att klona din röst med 15 sekunders prov

OpenAI har avslöjat en banbrytande ny AI-teknik som kan klona din röst med hjälp av bara ett 15 sekunders prov. Trots potentialen för tekniken erkänner företaget att den för närvarande är för farlig för utbredd allmän användning, särskilt med tanke på kommande val i USA och Storbritannien. Elon Musk, som har inlett rättsliga åtgärder mot OpenAI, ser AI som ett av de största hoten mot mänskligheten. OpenAI har tidigare visat sin förmåga att snabbt generera text med ChatGPT, samt bilder och nyligen videor.

Direktlänk Dela Central Recorder fördjupade 1 april

OpenAI avslöjar AI som kan klonar en röst med bara 15 sekunders prov

OpenAI har avslöjat en ny AI som kan klonar en röst med bara 15 sekunders prov. Trots farhågor om att tekniken kan missbrukas, fortsätter OpenAI att utveckla den för att se hur den kan användas för gott. Företaget har delat flera exempel, som att ge hjälp till barn eller de som inte kan läsa med ´naturligt klingande, emotionella röster´. OpenAI medger dock att tekniken är för riskabel för allmänheten just nu, särskilt med tanke på de kommande valen i USA och Storbritannien. Elon Musk, som har stämt OpenAI, tror att AI kan vara ett av de största hoten mot mänskligheten.

Direktlänk Dela The Sun fördjupade 1 april

USA:s fiender utnyttjar AI för cyberattacker

Utländska motståndare till USA, som Ryssland, Kina, Nordkorea och Iran, utnyttjar framsteg inom artificiell intelligens (AI) för att förbättra sina hackningskampanjer, enligt en rapport från Microsoft. De använder verktyg från Microsoft-stödda OpenAI för att förbättra sina angrepp. Fienderna kan få amerikaner att överlämna sina data, störa finansmarknaderna och utlösa falska flaggor som utlöser ett försvarssvar. En ny lagstiftning, AI PLAN Act, har föreslagits av amerikanska representanter Abigail Spanberger och Zach Nunn för att förhindra att AI används för att äventyra USA:s ekonomi och nationella säkerhet.

Direktlänk Dela Augusta Free Press fördjupade 28 mars

Cyber risk ökar på grund av snabb AI-verktygsutveckling

Snabba framsteg inom artificiell intelligens (AI) förväntas leda till ökad användning av cyberkriminella och cybersäkerhetsexperter varnar för detta. Lloyd´s of London förutspår en ökning av frekvensen, allvaret och mångfalden av mindre cyberförluster på grund av angriparens användning av alltmer effektiva generativa AI och stora språkmodeller. Brittiska National Cyber Security Center (NCSC) förutspår att förbättringar av generativ AI och stora språkmodeller kommer att göra det svårt för alla att bedöma äktheten hos ett e-postmeddelande eller en lösenordsåterställningsbegäran. NCSC förväntar sig också att AI kommer att förbättra angriparnas förmåga att hitta opatcherad programvara och utnyttja den.

Direktlänk Dela Information Security Media fördjupade 22 mars
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Sydkoreas president varnar för AI-baserad desinformation som hot mot demokratin

Sydkoreas president Yoon Suk Yeol har kallat falska nyheter och desinformation baserad på AI och digital teknik för hot mot demokratin, då vissa tjänstemän på en global toppmöte anklagade Ryssland och Kina för att bedriva skadliga propaganda kampanjer. På toppmötet för demokrati i Seoul uppmanade Yoon länder att dela erfarenheter och visdom så att AI och teknik kan användas för att främja demokratin. Sydkorea är värd för det tredje toppmötet för demokrati, ett initiativ av USA:s president Joe Biden, för att diskutera sätt att stoppa demokratisk tillbakagång och erosion av rättigheter och friheter. På mötet deltar representanter från mer än 30 länder.

Direktlänk Dela Raidió Teilifís Éireann fördjupade 18 mars

AI, MOSA och framtiden för säker obemannad krigföring

Artificiell intelligens (AI) och autonoma system har revolutionerat militära operationer och modern krigföring. Dessa obemannade system är lämpliga för farliga och repetitiva uppgifter, förbättrar situationell medvetenhet och logistiska kapabiliteter samtidigt som de minskar risker för mänsklig personal. Men deras växande roll väcker betydande säkerhetsproblem. Obemannade fordon är starkt beroende av maskininlärning (ML) och kan vara sårbara för cyberattacker som kan äventyra uppdrag, trupper och kritiska teknologier. För att stärka försvar bör utvecklare av obemannade system använda principer för modulär öppen systemarkitektur (MOSA). MOSA ger robusta och flexibla cybersäkerhetsskydd genom öppna standarder och gränssnitt. Utvecklare kan också integrera sensorer, processorer och funktioner från olika leverantörer som modulära komponenter i ett AI-drivet system. Detta gör det lättare att snabbt byta ut sårbara delar och anpassa försvar mot snabbt utvecklande hot.

Direktlänk Dela Military Embedded Systems fördjupade 13 mars

Ryssland och Kina kan använda AI för att skada USA, enligt underrättelsetjänster

Enligt USA:s underrättelsetjänsters årliga bedömning av globala hot kan Ryssland och Kina nu öka och förbättra sina förmågor att skapa splittring och skada USA:s image, tack vare artificiell intelligens (AI). Ryssland överväger hur resultaten av USA:s val 2024 kan påverka västerländskt stöd till Ukraina och kommer troligen att försöka påverka valet på sätt som bäst tjänar dess mål och intressen. Kina visar en högre grad av sofistikering i sina påverkansoperationer och experimenterar med AI-teknologier. FBI-direktör Christopher Wray uttryckte oro över att AI används som ett vapen mot väljare. En studie av Microsoft och OpenAI avslöjade att AI-verktyg används av flera hackargrupper från Ryssland, Kina, Iran och Nordkorea för att öka produktiviteten och bedrägerierna.

Direktlänk Dela Tech Times fördjupade 12 mars

Attackers använder AI för att förbättra sina cyberattacker

Joe Ariganello, VP för produktmarknadsföring på MixMode, diskuterar hur angripare använder artificiell intelligens (AI) för att förbättra sina cyberattacker. Enligt en rapport från Microsoft och OpenAI använder nationellt stödda grupper stora språkmodeller (LLMs) för forskning, manus och phishing-e-post. MixMode har upptäckt ökad aktivitet från Kina och Ryssland. AI kan automatisera uppgifter som att skapa phishing-e-post eller skanna efter sårbarheter, vilket gör attacker mer exakta och effektiva. MixMode´s AI kan identifiera och neutralisera hot från vilseledande AI-agenter och skadliga aktörer.

Direktlänk Dela Tech Gate fördjupade 5 mars

Cyberattacker använder alltmer AI för att förbättra sina attacker

En ny rapport från Microsoft och OpenAI visar att cyberattacker i ökande grad använder artificiell intelligens (AI) för att förbättra sina attacker. Rapporten visade att nationellt stödda grupper använder stora språkmodeller (LLM) för forskning, skriptning och phishing-e-post. Microsoft och OpenAI har upptäckt försök av ryska, nordkoreanska, iranska och kinesiska stödda grupper att använda LLM för att förbättra sina cyberattacker. Detta stämmer överens med MixModes analytiker som nyligen upptäckt ökad nationell aktivitet från Kina och Ryssland. AI kan automatisera uppgifter som att generera phishing-e-post eller skanna efter sårbarheter. Detta kan frigöra angriparens tid för att fokusera på andra uppgifter, såsom att utveckla nya attackmetoder. AI kan göra attacker mer riktade och effektiva.

Direktlänk Dela Security Boulevard fördjupade 5 mars

Hackare använder AI för att förbättra sina cyberattacker enligt Microsoft och OpenAI

Microsoft och OpenAI meddelade på onsdagen att hackare använder storskaliga språkmodeller (LLM) som ChatGPT för att förbättra sina nuvarande cyberattacktekniker. Företagen har noterat försök av ryska, nordkoreanska, iranska och kinesiska grupper att använda verktyg som ChatGPT för forskning om mål och utveckling av sociala tekniker. I samarbete med Microsoft Threat Intelligence har OpenAI stört fem statligt ägda aktörer som försöker använda AI-tjänster för att stödja skadliga cyberaktiviteter. Dessa dåliga aktörer avser att använda OpenAI-tjänster för att söka efter öppen källkodsinformation, översätta, hitta kodningsfel och utföra grundläggande kodningsuppgifter.

Direktlänk Dela PiPaNews fördjupade 3 mars

Hackare använder AI-modeller som ChatGPT för att förbättra cyberattacker, varnar Microsoft och OpenAI

Stora språkmodeller (LLM) som ChatGPT används av hackare för att förbättra befintliga cyberattacktekniker, rapporterade Microsoft och OpenAI på onsdagen. Det har identifierats ansträngningar av grupper som stöds av Ryssland, Nordkorea, Iran och Kina att använda verktyg som ChatGPT för att forska och utveckla sociala strategier. Microsoft och OpenAI har uttryckt oro över nya hackningshot som ChatGPT utgör. I samarbete med Microsoft Threat Intelligence har OpenAI avbrutit fem landsrelaterade aktörer som försökte använda AI-tjänster för att stödja skadliga cyberaktiviteter.

Direktlänk Dela Proiqra fördjupade 22 februari

OpenAI täpper till kritiska säkerhetshål i ChatGPT

Säkerhetsforskare har upptäckt flera säkerhetsbrister i OpenAI:s ChatGPT som potentiellt kan leda till att användarkonton tas över. Forskarna identifierade två cross-site scripting (XSS) sårbarheter och andra säkerhetsproblem i ChatGPT. Dessa sårbarheter kan utnyttjas av illvilliga hackare för att kapa användares konton. OpenAI åtgärdade dessa brister inom några timmar efter att de rapporterats. Upptäckten kommer i ljuset av ökade bekymmer om användningen av AI-verktyg som ChatGPT i cyberattacker.

Direktlänk Dela Investing.com United Kingdom fördjupade 20 februari

Nordkoreanska hackare använder AI för att bedra LinkedIn-användare

Nordkoreanska hackargrupper använder artificiell intelligensverktyg som ChatGPT för att lansera komplexa cyberattacker mot amerikanska tjänstemän. Aktörerna utnyttjar AI-drivna LLM:er för att generera innehåll som sannolikt används i spear-phishing-kampanjer. Målen för dessa attacker verkar vara koncentrerade inom specifika sektorer, inklusive global cybersäkerhet, försvar och kryptovalutaföretag. Sociala medieplattformar som LinkedIn, Facebook, WhatsApp, Discord och Telegram fungerar som primära slagfält för dessa operationer. Experter tror att pengar som förvärvats genom dessa cyberattacker kanaliseras mot att finansiera Nordkoreas ballistiska missil- och kärnprogram.

Direktlänk Dela MSPoweruser fördjupade 19 februari

Nordkoreanska hackare använder AI för att finansiera kärnvapenprogram

Nordkoreanska hackargrupper, kända för sina cyberbrottsvågor, använder allt mer artificiell intelligens (AI) för att utföra sofistikerade bedrägerier och finansiera landets kärnvapenprogram. Hackarna riktar in sig på anställda inom globala försvars-, cybersäkerhets- och kryptovalutaföretag på LinkedIn och andra nätverksplattformar för att avslöja känslig information eller få tillgång till datornätverk eller kryptovalutaplånböcker. Microsoft bekräftar att hackare som arbetar för Nordkorea, Kina, Ryssland och Iran använder företagets AI-tjänster för skadlig cyberverksamhet.

Direktlänk Dela New Delhi Television fördjupade 19 februari
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Ryska och nordkoreanska nätverk använder AI för att hitta systemets sårbarheter

En rapport som släpptes tidigare denna vecka pekar ut flera nätverk, inklusive en rysk grupp kopplad till GRU och en nordkoreansk grupp, som har använt AI-verktyg i form av stora språkmodeller för att undersöka teknik och söka efter systemets sårbarheter. Enligt rapporten kan man se vad hackergrupperna kan ta reda på och hur verktygen används, trots att aktiviteterna inte har kunnat kopplas till specifika attacker. Pontus Johnson, professor på KTH, uttrycker oro för framtiden och potentiella konsekvenser om hackergrupper hittar sårbarheter i programkod snabbare än försvararna.

Direktlänk Dela Sveriges Television fördjupade 19 februari

Microsoft rapporterar att statligt stödda hackare använder OpenAI-verktyg för informationsinsamling

Microsoft rapporterar att statligt stödda online-angripare från Ryssland, Kina och Iran använder företagets OpenAI-verktyg för att möjligtvis lura mål och få information. Microsoft spårade online-angripare som arbetar med flera stater, inklusive Rysslands militära underrättelsetjänst, Irans revolutionsgarde och de kinesiska och nordkoreanska regeringarna. Enligt företaget försökte hackarna förbättra sina kampanjer med stora språkmodeller som OpenAI´s ChatGPT. Microsoft sade att det skulle förbjuda statligt stödda hackargrupper från att använda sina AI-produkter.

Direktlänk Dela Voice of America fördjupade 19 februari

USA måste bestämma tillgången till AI efter att Microsoft avslöjat statliga aktörers användning

USA måste avgöra hur öppet de vill tillåta allmän tillgång till artificiell intelligens (AI), vilket potentiellt kan påverka dataskyddspolicyn, efter att Microsoft avslöjat att statliga aktörer från rivaliserande nationer använt tekniken för att träna sina operatörer. OpenAI identifierade fem statligt anknutna ´ondskefulla´ aktörer: Charcoal Typhoon och Salmon Typhoon från Kina, Crimson från Iran, Sandstorm från Nordkorea och Emerald Sleet och Forest Blizzard från Ryssland. OpenAI föreslog en flerstegsstrategi för att bekämpa sådan skadlig användning av företagets verktyg, inklusive ´övervakning och störning´ av skadliga aktörer genom ny teknik för att identifiera och avbryta aktörernas aktiviteter.

Direktlänk Dela Fox News Network fördjupade 17 februari

USA:s militär bör använda maskininlärning för att förutse hot, enligt amiral

Amiral Samuel Paparo har talat till Silicon Valley-chefer om de svårigheter USA har haft med att upptäcka militära varningar. Han noterade att Kinas militär har genomgått betydande förändringar i sina styrkenivåer och förberedelser. Paparo föreslog att USA:s gemensamma styrkor bör använda maskininlärning för att bättre förutse hot i Stilla havet, med tanke på Kinas aktiviteter i Taiwan-strädet och Sydkinesiska havet. Han tillade att Folkets befrielsearmé ´höjer varningströskeln´ till en punkt där USA snart kommer att se ´en styrka tillräcklig för att utföra en djupgående militär operation´. Han nämnde även andra regionala utmaningar, inklusive Nordkoreas militära provokationer, Rysslands marina ambitioner i Stilla havet och vapenhandel mellan de två länderna.

Direktlänk Dela EMEA Tribune fördjupade 17 februari

AI-verktyg förstärker skadlig verksamhet av statligt anslutna cyberhot

OpenAI har inaktiverat konton för flera statligt anslutna cyberhot, inklusive Charcoal Typhoon, Salmon Typhoon, Crimson Sandstorm, Emerald Sleet och Forest Blizzard. Dessa ´hotaktörer´ har använt OpenAI:s tjänster för att genomföra skadliga handlingar, med tekniker som förbättrats av stora språkmodeller och generativa AI-verktyg. Forest Blizzard, en rysk militär underrättelseaktör, har riktat sig mot försvar, regeringar, ideella organisationer och IT-organisationer under Ukrainakriget. Salmon Typhoon och Charcoal Typhoon, båda kinesiska hotaktörer, har använt OpenAI-tjänster för att utföra forskning och kodfelsökning, och för att skapa innehåll för phishing-kampanjer. Emerald Sleet, en nordkoreansk enhet, och Crimson Sandstorm, en iransk enhet, har också genererat innehåll för phishing-e-post.

Direktlänk Dela Quartz Media fördjupade 17 februari

Google öppnar källkoden för AI-verktyget Magika för filidentifiering

Google har tillkännagivit att det öppnar källkoden för Magika, ett AI-drivet verktyg för att identifiera filtyper. Magika överträffar traditionella filidentifieringsmetoder och ger en precision på upp till 95% på traditionellt svåra att identifiera, men potentiellt problematiska innehåll som VBA, JavaScript och Powershell. Programvaran använder ett ´anpassat, mycket optimerat djupinlärningsmodell´ som möjliggör exakt identifiering av filtyper inom millisekunder. Google använder internt Magika i stor skala för att förbättra användarnas säkerhet genom att dirigera Gmail, Drive och Safe Browsing-filer till lämpliga säkerhets- och innehållspolicy-skannrar.

Direktlänk Dela The Hacker News fördjupade 17 februari

Microsoft upptäcker statliga aktörer som använder AI för hackning; Andrej Karpathy lämnar OpenAI; Salesforce lanserar AI-funktioner på Slack; Google öppnar AI-center i Paris

Microsoft har upptäckt att statliga aktörer från Kina, Ryssland, Iran och Nordkorea använder OpenAIs generativa AI-tjänster, som ChatGPT, för att förbättra sina hackningsförmågor. Forskning publicerad i samarbete med OpenAI visar att skadliga aktörer använder AI-verktyg för olika uppgifter, inklusive forskning, utveckling av skadlig programvara och förbättring av deras engelska språkkunskaper. OpenAI:s medgrundare Andrej Karpathy har lämnat företaget för att jaga personliga projekt. Salesforce lanserar AI-funktioner på sin Slack-app, inklusive AI-drivna sökfunktioner. Google har öppnat ett nytt AI-center i Paris med cirka 300 forskare och ingenjörer.

Direktlänk Dela AI Business fördjupade 17 februari

Vision Pro-återbetalningar, hackare utnyttjar ChatGPT och varning för AI-pojkvänner

Köpare av Vision Pro har fram till idag, fredag, att returnera sina hörlurar till Apple och få återbetalning enligt tillverkarens 14-dagars gratis returpolicy. Hackare finansierade av de ryska, kinesiska, iranska och nordkoreanska regeringarna utnyttjar ChatGPT för att organisera sina attacker. Microsoft har detaljerat hur cyberbrottslingar använder AI för att underlätta sitt arbete. AI-pojkvänner är inte våra vänner, enligt den senaste studien från Mozilla Foundation. Chattrobotar som erbjuder ´romantiska´ relationer är ofta datafällor som kan leda till allvarliga problem. BCKL-elcykeln lockar uppmärksamhet med sin färg och avslappnade utseende.

Direktlänk Dela Gearrice fördjupade 16 februari

OpenAI stänger konton kopplade till statliga enheter på grund av misstänkta cyberaktiviteter

OpenAI har vidtagit åtgärder för att stänga flera konton kopplade till statliga enheter från Kina, Ryssland, Iran och Nordkorea. Beslutet fattades på grund av oro för att dessa konton utnyttjade företagets AI-chattbot-tjänster för vad OpenAI beskrev som ´ondskefulla cyberaktiviteter´. Detta meddelades av företaget i ett blogginlägg på onsdagen. Beslutet kom från ett samarbete mellan OpenAI och Microsoft Threat Intelligence. De statligt kopplade grupperna utnyttjade OpenAIs tjänster för olika ändamål, inklusive forskning om företag och underrättelsebyråer, översättning, innehållsgenerering för hackningskampanjer och enkla kodningsuppgifter. Noterbart är att OpenAIs produkter, som ChatGPT och Whisper, stämde överens med dessa användningsfall. Alla identifierade konton har inaktiverats. OpenAI betonade sitt engagemang för att främja innovation, samarbete och informationsdelning för att bekämpa ondskefulla aktiviteter i det digitala ekosystemet samtidigt som man förbättrar den totala användarupplevelsen för legitima användare.

Direktlänk Dela The Artistree fördjupade 16 februari

OpenAI introducerar Sora, en AI-modell för text-till-video

OpenAI, företaget bakom ChatGPT, har avslöjat en ny AI-verktyg som kan skapa videor baserade på textprompter. Den nya AI-modellen, Sora, kan skapa videor på upp till 60 sekunder med mycket detaljerade scener, komplex kamerarörelse och flera karaktärer med levande känslor. Medan detta är imponerande, är det inte utan sina växande smärtor och klassiska AI-tabbar. Det har funnits text-till-video AI-verktyg ett tag nu, men OpenAI verkar vara ett ytterligare steg längs denna konstiga väg. Trots att företaget arbetar med ´domänexperter inom områden som desinformation, hatinnehåll och bias´, kan ingen verkligen säga hur dessa verktyg kommer att användas av allmänheten och om dåliga aktörer kommer att kunna utnyttja dem.

Direktlänk Dela Shacknews fördjupade 16 februari

Statligt finansierade hackare från Ryssland, Kina, Iran och Nordkorea utnyttjar ChatGPT för att orkestrera sina attacker

Statligt finansierade hackare från Ryssland, Kina, Iran och Nordkorea använder OpenAI:s chatbot ChatGPT för att underlätta sina cyberattacker. Enligt Microsoft och Europol har cyberbrottslingar massivt antagit generativ AI för att identifiera systemfel, blockera antivirusförsvarsmekanismer och orkestrera phishing-attacker. Hackarna använder språkmodeller för att samla in information om sina offer, få hjälp med att koda skadlig programvara och övervinna språkbarriärer. Microsoft nämner specifikt hackargrupperna Forest Blizzard (Ryssland), Emerald Sleet (Nordkorea), Crimson Sandstorm (Iran) och Charcoal Typhoon och Salmon Typhoon (Kina) som utnyttjar ChatGPT i sina attacker.

Direktlänk Dela Gearrice fördjupade 15 februari

OpenAI och Microsoft stör statligt anknutna skadliga aktörsnätverk

OpenAI meddelar, i samarbete med Microsoft, att de har stört fem nätverk av skadliga aktörer som är anknutna till stater, två i Kina, ett i Iran, ett i Nordkorea och ett i Ryssland. Dessa grupper hade använt AI-tjänster, inklusive ChatGPT, för olika ändamål som forskning, översättning, identifiering av kodningsfel och utförande av grundläggande kodningsuppgifter för att underlätta sina operationer. OpenAI betonar de unika risker som statligt anknutna grupper utgör, som ofta har avancerad teknik, betydande finansiella resurser och skicklig personal.

Direktlänk Dela DIGIT fördjupade 15 februari

OpenAI och Microsoft samarbetar för att motverka hackargrupper

OpenAI, det amerikanska teknikföretaget bakom konversationsplattformen för artificiell intelligens Chat GPT, har samarbetat med teknikjätten Microsoft för att motverka aktiviteterna hos fem hackargrupper. Denna gemensamma åtgärd ledde till att deras konton på Chat GPT-plattformen avslutades, vilket effektivt stoppade deras illasinnade avsikter. Enligt uppgifter från Microsoft-ägda företaget identifierades försök av hackargrupper från Kina, Iran, Nordkorea och Ryssland, alla med syfte att utnyttja plattformens avancerade teknik för att förbättra sina hackningsförmågor.

Direktlänk Dela Middle East North Africa Financial Network fördjupade 15 februari

Microsoft och OpenAI varnar för hackares användning av AI

Microsoft och OpenAI har upptäckt att hackare använder stora språkmodeller som ChatGPT för att förbättra sina befintliga cyberattacker. Ryska, nordkoreanska, iranska och kinesiska grupper har identifierats som använder verktyg som ChatGPT för forskning om mål, för att förbättra skript och för att bygga sociala tekniker. Trots frånvaron av stora cyberattacker med hjälp av språkmodeller har Microsoft och OpenAI förblivit vaksamma, demonterat konton och tillgångar kopplade till dessa skadliga grupper. Microsoft betonar att AI ger motståndare möjlighet att höja sofistikeringen av deras attacker, men att de är rustade för att bekämpa detta hot.

Direktlänk Dela Pragativadi fördjupade 15 februari

OpenAI och Microsoft stör statligt stödda hackare

OpenAI, skaparen av ChatGPT, har meddelat att det har stört flera nätverk av statligt stödda hackare som försökte använda AI-chattboten för att främja sina ´onda´ aktiviteter. Tillsammans med Microsoft har företaget stört fem grupper från Kina, Iran, Nordkorea och Ryssland. OpenAI sa att de olika statslänkade grupperna hade använt dess AI-tjänster för att utföra forskning, översättning, hitta kodfel och utföra grundläggande kodningsuppgifter för att stödja sina aktiviteter. De identifierade konton som associerades med de olika grupperna har avslutats.

Direktlänk Dela Shropshire Star fördjupade 15 februari

Microsoft och OpenAI stör statligt stödda cyberbrottslingar

Microsoft och OpenAI rapporterade på onsdagen att hackare använder stora språkmodeller (LLM) som ChatGPT för att förbättra sina befintliga cyberattacktekniker. Företagen har upptäckt försök av ryska, nordkoreanska, iranska och kinesiskt stödda grupper att använda verktyg som ChatGPT för att forska i mål och bygga upp sociala ingenjörstekniker. I samarbete med Microsoft Threat Intelligence avbröt OpenAI fem statligt anknutna aktörer som försökte använda AI-tjänster för att stödja skadlig cyberaktivitet. De identifierade OpenAI-konton som var knutna till dessa aktörer avslutades.

Direktlänk Dela Network18 Media & Investments fördjupade 15 februari

Microsoft avslöjar att fiender till USA använder AI för cyberoperationer

Teknikjätten Microsoft avslöjade på onsdagen att ett antal fiender till USA, inklusive Iran, Nordkorea, Ryssland och Kina, har börjat använda generativ artificiell intelligens (AI) för att iscensätta offensiva cyberoperationer. Microsoft meddelade att det, i samarbete med sin partner OpenAI, hade identifierat och avvärjt hot som försökte utnyttja AI-teknik utvecklad av dessa motståndare. Trots att dessa tekniker beskrivs som ´tidiga´ och inte särskilt innovativa, betonade Microsoft vikten av att offentligt exponera dem. Företaget släppte även en rapport som belyser generativ AI:s potential att förbättra skadlig social manipulation, vilket leder till mer sofistikerade deepfakes och röstkloning.

Direktlänk Dela Firstpost fördjupade 15 februari

Hackare utnyttjar AI för att förbättra cyberattacker, enligt Microsoft

Microsoft och OpenAI har avslöjat att hackare utnyttjar stora språkmodeller (LLMs) som ChatGPT för att förbättra sina cyberattacker. Hackare från Ryssland, Nordkorea, Iran och Kina har upptäckts använda LLMs för olika ändamål. Microsoft varnar för framtida AI-drivna bedrägeririsker som röstimitation och meddelar att de använder AI för att upptäcka, reagera och skydda mot de över 300 hotaktörer de spårar. Företaget arbetar också på en Security Copilot, en kommande AI-assistent designad för cybersäkerhetsexperter.

Direktlänk Dela NewsBytes fördjupade 15 februari

Google lanserar AI-chatbot Gemini i Kanada efter förhandlingar om Online News Act

Google har officiellt lanserat sin AI-drivna chatbot Gemini i Kanada, sju månader efter att tjänsten rullades ut till över 230 länder. Gemini, tidigare känd som Bard, är baserad på Googles stora språkmodell (LLM) med samma namn. Chatboten är en direkt konkurrent till OpenAIs ChatGPT och Google erbjuder både en gratis version och en premiumversion, Gemini Advanced, som kostar 26,99 CAD per månad. Kanada var ett av få länder som inte fick tillgång till Bard som en del av Googles internationella utrullning förra året, på grund av förhandlingar med den kanadensiska regeringen om Online News Act. Google har också lanserat en mobilapp för användare i USA, med planer på att lansera samma i Kanada ´mycket snart´, enligt Jules Walter, grupp produktchef för Gemini-upplevelser på Google.

Direktlänk Dela Madras Tribune fördjupade 8 februari

Nordkorea gör betydande framsteg inom AI och maskininlärning

Nordkorea gör betydande framsteg inom artificiell intelligens (AI) och maskininlärning, enligt en rapport från James Martin Center for Nonproliferation Studies (CNS). Landet använder AI inom ett brett spektrum av tillämpningar, från att hantera covid-19-pandemin till att övervaka kärnreaktorer. Trots internationella sanktioner, är Nordkorea engagerad i att anamma den senaste tekniken. Rapporten lyfter också fram landets samarbete med utländska forskare, inklusive experter från Kina. Sydkoreas underrättelsetjänst är vaksam på Nordkoreas framsteg, särskilt dess användning av AI inom hackningsaktiviteter.

Direktlänk Dela Cryptopolitan fördjupade 4 februari

Nordkoreanska hackare använder AI för att identifiera mål

Sydkoreanska underrättelsemyndigheter övervakar användningen av generativ AI av hackare i Nordkorea i takt med att kryptostölder ökar. En tjänsteman vid Sydkoreas nationella underrättelsetjänst (NIS) uppgav anonymt att nordkoreanska hackare använder AI-verktyg för att identifiera potentiella mål, trots att de ännu inte sett dem använda AI i själva attackerna. Nordkoreanska hotaktörer har observerats använda AI i phishing-försök, ofta riktade mot enskilda individer. Nordkoreanska hackare riktar sig också i stor skala mot offentliga sektorer, främst för att förvärva immateriella rättigheter. Enligt blockchain-teknikföretaget Chainalysis stal nordkoreanska hackare nästan 1 miljard dollar i kryptovaluta 2023.

Direktlänk Dela Cyberdaily.au fördjupade 29 januari

Nordkorea utvecklar AI och maskininlärning för allt från COVID-19 till kärnreaktorsäkerhet

Enligt en ny studie utvecklar Nordkorea artificiell intelligens (AI) och maskininlärning för allt från att svara på COVID-19 och skydda kärnreaktorer till krigsspelssimuleringar och statlig övervakning. Internationella sanktioner kan ha hindrat Nordkoreas försök att säkra AI-hårdvara, men landet verkar sträva efter den senaste tekniken, skriver studieförfattaren Hyuk Kim. Nordkoreas AI-forskare har samarbetat med utländska forskare, inklusive i Kina. Seoul:s spionorgan har upptäckt tecken på att Nordkoreas hackare har använt generativ AI för att söka efter mål och teknik som behövs för hacking.

Direktlänk Dela Channel NewsAsia fördjupade 24 januari

Nordkorea utvecklar AI för allt från COVID-19-svar till kärnsäkerhet

Enligt en ny studie utvecklar Nordkorea artificiell intelligens (AI) och maskininlärning för allt från att svara på COVID-19 och säkra kärnreaktorer till krigsspelssimuleringar och regeringens övervakning. Internationella sanktioner kan ha hindrat Nordkoreas försök att säkra AI-hårdvara, men landet verkar sträva efter den senaste tekniken, skriver studiens författare Hyuk Kim. Nordkorea har använt AI för att skapa en modell för att utvärdera korrekt maskanvändning och prioritera kliniska symtomindikatorer för infektion under COVID-19-pandemin.

Direktlänk Dela Network18 Media & Investments fördjupade 24 januari

Nordkorea utvecklar AI-teknologi trots sanktioner

Nordkorea har gjort betydande framsteg inom artificiell intelligens (AI) och maskininlärning (ML), trots internationella sanktioner och landets isolerade position. Landet har investerat i dessa teknologier för civila och militära tillämpningar, inklusive krigsspel och övervakning. Trots svårigheterna att skaffa hårdvara för AI-utveckling tyder öppen källkodsinformation på att Nordkorea aktivt utvecklar och främjar AI/ML-teknologi inom olika sektorer. Det är viktigt att övervaka sådana aktiviteter och vid behov införa åtgärder för att mildra potentiella sanktionsrisker inom den akademiska och privata sektorn.

Direktlänk Dela 38 North fördjupade 23 januari

Nordkorea utvecklar AI för allt från COVID-19-svar till kärnreaktorsskydd

Enligt en ny studie utvecklar Nordkorea artificiell intelligens (AI) och maskininlärning för allt från att svara på COVID-19 och skydda kärnreaktorer till krigsspelssimuleringar och regeringens övervakning. Internationella sanktioner kan ha hindrat Nordkoreas försök att säkra AI-hårdvara, men det verkar som att landet förföljer den senaste tekniken. Nordkorea har etablerat Artificial Intelligence Research Institute 2013 och under de senaste åren har flera företag marknadsfört kommersiella produkter med AI. Under COVID-19-pandemin använde Nordkorea AI för att skapa en modell för att utvärdera korrekt maskanvändning och prioritera kliniska symptomindikatorer för infektion.

Direktlänk Dela America Online fördjupade 23 januari

USA:s säkerhetsledare varnar för hot mot AI-företag

Amerikanska säkerhetsledare varnar för eskalerande hot mot amerikanska företag inom artificiell intelligens (AI). FBI-direktör Christopher Wray och general Paul Nakasone från U.S. Cyber Command varnar för att både Kina och cyberbrottslingar aktivt riktar in sig på dessa företag. Den amerikanska AI-industrin, med techjättar som Alphabet Inc´s Google, Microsoft Corp och OpenAI, står inför allvarliga hot om cyberattacker. Wray och Nakasone betonade vikten av att skydda amerikansk AI-forskning och utveckling. De påpekade att USA:s motståndare utnyttjar AI-förmågor utvecklade av amerikanska företag, vilket gör skyddet av denna immateriella egendom till en fråga om nationell säkerhet.

Direktlänk Dela Benzinga fördjupade 10 januari

Hot mot amerikanska AI-företag eskalerar, varnar FBI och U.S. Cyber Command

Ledarna för amerikanska säkerhetsorgan har larmat om de eskalerande hot som amerikanska företag inom artificiell intelligens (AI) står inför. FBI-chefen Christopher Wray och general Paul Nakasone från U.S. Cyber Command varnade under en virtuell rundabordssamtal att både Kina och cyberbrottslingar aggressivt angriper dessa företag. De framhöll att USA:s motståndare utnyttjar AI-kapaciteter utvecklade av amerikanska företag, vilket gör skyddet av denna immateriella egendom till en fråga om nationell säkerhet. De betonade behovet av partnerskap mellan statliga organ, allmänheten och privata sektorer samt globala allierade för att skapa ett robust försvar mot dessa hot.

Direktlänk Dela Benzinga fördjupade 10 januari

AI och deepfakes kan förändra ansiktet på USA:s presidentval 2024

Theresa Payton, tidigare underrättelsechef vid Vita huset, varnar för att AI och deepfakes kommer att förändra det amerikanska presidentvalet 2024. Hon säger att amerikanska väljare kommer att möta en flod av propaganda som syftar till att påverka valkampanjer, vilket suddar ut gränserna mellan verklighet och fiktion. Payton varnar också för att externa aktörer som Ryssland, Kina och Nordkorea kommer att försöka störa den demokratiska processen. Hon tror att dessa länder redan arbetar med att kapra presidentvalet med hjälp av AI-verktyg.

Direktlänk Dela The Sun fördjupade 2 januari

USA:s ledarskap är avgörande för att hantera framväxande teknologier, säger rådgivare

Amerikanskt ledarskap är avgörande för att etablera normer och lagar för att hantera framväxande teknologier som artificiell intelligens och digitala ekonomiska och sociala plattformar, enligt Anne Neuberger, biträdande nationell säkerhetsrådgivare för cyber och framväxande teknik vid National Security Council. Biden-administrationen har lanserat flera initiativ på ämnet, senast en verkställande order som syftar till att fastställa nya AI-säkerhets- och säkerhetsstandarder. Denna order är beroende av samarbete från privata utvecklare och andra länder. Neuberger diskuterade även administrationens arbete för att förhindra illvillig användning av generativ AI och dess arbete för att bekämpa cyberattacker från Nordkorea och Ryssland.

Direktlänk Dela Voice of America fördjupade 30 november

Drama på OpenAI: VD sparkad och återanställd, Microsoft steg in för att stödja

OpenAI:s styrelse sparkade VD:n Sam Altman på grund av meningsskiljaktigheter kring säkerhetsfrågor. Många toppchefer på OpenAI avgick, vilket ledde till risk för personaluppror. Microsoft ingrep och uttryckte stöd för OpenAI och vilja att anställa Altman och andra som lämnat företaget. Kort därefter återanställde OpenAI Altman och många anställda återvände. En del av OpenAI:s avtal att ta tillbaka Altman innebär skapandet av en ny styrelse. Korea Advanced Institute of Science and Technology har tillkännagivit en ny AI-modell för att förutsäga socioekonomiska situationer i svårtillgängliga platser som Nordkorea. A121 Labs säkrade en förlängning på 30 miljoner dollar på sin tidigare tillkännagivna finansieringsrunda. Meta har tillkännagivit planer för två nya generativa AI-verktyg för bildredigering och videoklippsskapande. Nya AI-verktyg och appar inkluderar Off/Script, Google Holiday Shopping AI-verktygssvit, Google Dreamtrack, Luminar Neo och Grok.

Direktlänk Dela Android Authority fördjupade 22 november

Avancerad AI kan möjliggöra storskalig planering och arbetsplatsdemokrati

Avancerad artificiell intelligens (AI) kan möjliggöra storskalig planering och arbetsplatsdemokrati, vilket kan öppna vägen för en förstärkt planekonomi. Diskussionen om AI och artificiell generell intelligens (AGI) har nyligen rört sig från konsekvenserna för arbetsmarknaden till frågan om mänsklighetens potentiella undergång. Men ett perspektiv som har saknats är vad AGI innebär för möjligheten till en traditionell socialistisk ekonomi. AGI kan konstruera en ´vektor´ där alla potentiella konsumenter ingår, tillsammans med en uppskattning av deras preferenser och betalningsvilja. AI har förmåga att hantera stora mängder information, vilket kan leda till att länder som Kina tar ledningen i denna utveckling.

Direktlänk Dela Flamman fördjupade 12 november

Googles AI-genererade sökutvidgningar når 120 nya länder, men inte Kanada

Googles sökmotorupplevelse (SGE) som erbjuder AI-genererade sammanfattningar har nu utvidgats till 120 nya länder, men inte till Kanada. Tekniken har fått mycket positiv feedback i USA, Indien och Japan. Nu stöder AI-sökningen fyra nya språk, inklusive spanska, portugisiska, koreanska och indonesiska, vilket gör att totalt sju språk stöds. SGE-experimentet kan aktiveras inom Search Labs för att uppleva de nya funktionerna. Sökupplevelsen kommer snart att inkludera AI-driven översättning för att lösa tvetydigheter i språköversättning. Sökmotorn kommer också att tillhandahålla interaktiva definitioner för specialiserade termer. Ytterligare utvidgningar till fler länder och språk planeras för den närmaste framtiden. Kanada, likt Kina, Ryssland och Nordkorea, väntar fortfarande på denna nya teknik.

Direktlänk Dela iPhone in Canada fördjupade 9 november

Ny seminarium om Nordkoreas kärnvapenfråga

CNS forskningsstipendiat, Hyuk Kim, har hållit en unik seminarium för politiska beslutsfattare för att omvärdera sina politik mot Nordkorea. Genom att använda en oövervakad inlärningsteknik presenterar Kim en visuell representation av den globala kärnpolitiska landskapet, som illustrerar den politiska inriktningen bland FN:s medlemsstater om kärnfrågor. Den kvantitativa analysen avslöjar oväntade resultat, inklusive ett potentiellt område för diplomatiskt samarbete med Nordkorea. Kim ger också en kvalitativ analys för att hjälpa politiska beslutsfattare att förstå Nordkoreas världsbild.

Direktlänk Dela James Martin Center for Nonproliferation Studies fördjupade 4 november

» Nyheterna från en dag tidigare

Några av våra kursdeltagare