» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 141 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Mörka webben är en dold del av internet som inte kan nås via vanliga webbläsare eller sökmotorer. Den består av webbplatser och tjänster som är krypterade och kräver speciella verktyg, som Tor-webbläsaren, för att få tillgång. Mörka webben används ofta för att skydda användarnas anonymitet och säkerhet, men den har också blivit en plats för kriminell aktivitet, som droghandel, vapenhandel och illegal informationsspridning. Användning av mörka webben kan vara riskabelt, eftersom det kan leda till att man blir utsatt för skadlig kod eller brottslingar.

Senaste nytt kring Dark Web

Google lanserar Google One AI Premium med avancerade Gemini-funktioner

Google har omarbetat sina AI-erbjudanden, döpt om Bard till Gemini och lanserat en dedikerad Android-app. Det finns nu också en betalnivå för Googles generativa AI-motor, som innebär en ytterligare digital prenumeration att överväga. Google One AI Premium kostar $19.99 / £18.99 / AU$32.99 per månad och inkluderar 2TB lagring att använda över Google-tjänster som Gmail, Google Drive och Google Photos. Det inkluderar också prioriterat stöd, 10% tillbaka i Google Store, extra Google Photos-redigeringsfunktioner, en övervakningstjänst för dark web och användning av Google One VPN. Dessutom får du tillgång till Gemini Advanced, vilket innebär den ´mest kapabla´ versionen av Googles Gemini-modell, känd som Ultra 1.0.

Direktlänk Dela TechRadar fördjupade 11 februari
2 400+ svenska företag och offentliga verksamheter har gått vår kurs "AI på jobbet".

Cybersäkerhetsrisker 2024: Artificiell intelligens och blockkedjor i fokus

Trend Micros senaste årliga prognosrapport för 2024 varnar för hot mot företag som försöker skala upp sina verksamheter med framväxande teknologier, särskilt inom cybersäkerhet. Rapporten fokuserar på generativ artificiell intelligens (GenAI), som förväntas öka nivån och effektiviteten av sociala ingenjörskonster som bedragare använder för att lura potentiella offer. Rapporten förutspår att röstkloning kommer att vara i centrum för riktade bedrägerier 2024. Dessutom kan GenAI spela en roll inom datorscheman, som spear phishing, harpoon whaling och virtuella kidnappningar. Rapporten varnar också för problem med privata blockkedjor, som kan vara mindre säkra än offentliga blockkedjor, och hot mot decentraliserade autonoma organisationer (DAO) som styrda av självkörande smarta kontrakt på offentliga blockkedjor. Dessutom identifierar rapporten hot mot molnteknologi och maskininlärningsmodeller.

Direktlänk Dela The Cryptonomist fördjupade 8 februari

Cyberbrottslingar utforskar olaglig användning av AI på dark web, enligt ny Kaspersky-studie

Kasperskys Digital Footprint Intelligence-tjänst har upptäckt nästan 3000 inlägg på dark web där användningen av ChatGPT och andra språkmodeller för olagliga aktiviteter diskuteras. Hotaktörer utforskar olika system för att implementera ChatGPT och AI för olika olagliga ändamål, inklusive utveckling av skadlig programvara och bearbetning av stulna användardata. En marknad för stulna ChatGPT-konton och autoregistreringstjänster har uppstått på dark web, vilket utgör ett hot mot användare och företag. Cyberbrottslingar utnyttjar språkmodeller och AI-verktyg för att sänka inträdesbarriären till cyberbrott och potentiellt öka antalet cyberattacker.

Direktlänk Dela BollyInside fördjupade 5 februari

Ökning av olagligt missbruk av ChatGPT och AI på dark web, enligt Kaspersky

Kaspersky Digital Footprint Intelligence service upptäckte över 3000 inlägg på dark web 2023 som diskuterade missbruk av ChatGPT för olagliga ändamål och AI-drivna verktyg. Diskussionerna spänner över ämnen som att skapa skadliga alternativ till att jailbreaka original-ChatGPT. Stulna ChatGPT-konton och tjänster som erbjuder automatiserad massproduktion översvämmar dark web-kanaler. Hotaktörer utforskar olika system för att implementera ChatGPT och AI, från att utveckla skadlig programvara till att olagligt använda språkmodeller för att bearbeta stulna användardata. Integreringen av automatiserade svar från ChatGPT i cyberbrottsforum ökar.

Direktlänk Dela Backend News fördjupade 5 februari

Ökning av inlägg på Dark Web om olämplig användning av AI-verktyg

Enligt Kasperskys Digital Footprint Intelligence-tjänst har det funnits nästan 3000 inlägg på Dark Web som huvudsakligen diskuterar användningen av ChatGPT och andra LLM:er för olika scheman, inklusive skapandet av skadliga alternativ till chatbot och jailbreaking av originalet. Stulna ChatGPT-konton och tjänster som erbjuder deras automatiserade skapande i massor översvämmar också Dark Web-kanaler, med ytterligare 3000 inlägg. Hackare ger också betydande uppmärksamhet åt projekt som XXXGPT, FraudGPT och andra, som marknadsförs på Dark Web som alternativ till ChatGPT. Dessa alternativ erbjuder ytterligare funktionalitet och har inga begränsningar som begränsar de legitima chatbotarna.

Direktlänk Dela The Times of India fördjupade 3 februari

Bedrägerilandskapet förändras snabbt med hjälp av Gen AI

Bedrägerilandskapet förändras snabbt i den alltmer digitala eran, med cyberbrottslingar som använder den senaste tekniken för att rikta in sig på företag och konsumenter med sofistikerade bedrägerier. Generativ AI (Gen AI) har blivit ett viktigt verktyg för moderna bedragare, vilket gör det enklare att skapa falska identiteter, klona röster och utföra olagliga aktiviteter snabbare än någonsin. Association of Certified Fraud Examiners (ACFE) upptäckte att cirka 5% av företagens intäkter förloras till bedrägerier varje år globalt, vilket motsvarar cirka 4,7 biljoner dollar. I Krolls 2023 Fraud and Financial Crime Report förväntar sig sju av tio undersökta chefer och riskproffs att finansiella brottsrisker kommer att öka de kommande månaderna, med cybersäkerhet och dataintrång som de främsta drivkrafterna. Men Gen AI hjälper inte bara bedragare, det ger också organisationer mer intelligenta verktyg för att upptäcka och bekämpa bedrägerier. Genom Gen AI:s förmåga att ständigt lära sig och utvecklas, kommer företag att kunna vara mer proaktiva än reaktiva i sin inställning till bedrägeribekämpning.

Direktlänk Dela FinTech Magazine fördjupade 31 januari

Ökning av olaglig användning av AI-teknik på dark web enligt Kaspersky

Enligt Kasperskys Digital Footprint Intelligence-tjänst har det skett en betydande ökning av diskussioner på dark web om olaglig användning av ChatGPT och andra storskaliga språkmodeller (LLM). Nästan 3000 inlägg på dark web identifierades som fokuserade på ett spektrum av cyberhot, från att skapa skadliga chatbot-versioner till att utforska alternativa projekt som XXXGPT och FraudGPT. Cyberkriminella utforskar aktivt olika system för att implementera ChatGPT och AI, inklusive utveckling av skadlig programvara och olaglig användning av språkmodeller. En annan oroande aspekt som avslöjats av Kaspersky är marknaden för stulna ChatGPT-konton, med ytterligare 3000 inlägg som annonserar dessa konton till salu över hela dark web.

Direktlänk Dela Infosecurity Magazine fördjupade 24 januari

Barnpornografiskt material upptäckt i AI-träningsdatabas

Forskare vid Stanford University har upptäckt mer än 1 000 bilder av barnpornografiskt material i en databas som används för att träna artificiell intelligens. Materialet ingår i utbildningsset och förorenade modeller, vilket blir allt mer brådskande med ökningen av dessa modellers användning för att producera inte bara genererade, men också verkliga bilder av barn, ofta för kommersiella ändamål. Enligt Stanford finns det sätt att minimera barnpornografiskt material i databaser som används för att träna AI-modeller, men det är utmanande att rensa eller stoppa distributionen av öppna databaser.

Direktlänk Dela NewsNation fördjupade 22 december

AI och maskininlärning används för att bekämpa människohandel

Polisen och regeringsorgan använder artificiell intelligens (AI) och maskininlärning för att bekämpa människohandel genom att söka igenom datamängder för att identifiera misstänkt aktivitet. Tekniken används för att identifiera tecken på människohandel i online sexannonser och för att analysera digitala bevis. Forskare vid Carnegie Mellon University har utvecklat ett AI-baserat verktyg, Traffic Jam, som jämför bilder uppladdade av hotellgäster med en databas över kända människohandelsplatser. Andra program som DARPA´s Memex och IBM´s Traffik Analysis Hub analyserar stora datamängder för att upptäcka högriskplatser och mönster.

Direktlänk Dela Analytics India Magazine fördjupade 13 december

ChatGPT avslöjar användares kontaktinformation, Booking.com drabbas av bedrägerier

Forskare har upptäckt att AI-chattboten ChatGPT kan avslöja användares kontaktinformation genom en enkel knep. Genom att få boten att upprepa ett ord kunde forskarna få fram riktiga telefonnummer och e-postadresser. I ett annat fall avslöjade ChatGPT kontaktinformation för en amerikansk advokatbyrå. Samtidigt drabbas Booking.com av bedrägerier där hotellbokningar kapas via stulna konton från darknet. Studien bakom de riskfyllda lösenorden för 2023 har också släppts, vilket detaljerar vilka som är mest sannolika att bli hackade eller lätt gissade av andra.

Direktlänk Dela Tech Times fördjupade 4 december

RICOCHET: Anti-Cheat™ förbereder sig för lanseringen av Call of Duty®: Modern Warfare® III med förbättrade fuskdetekteringssystem

#TeamRICOCHET kombinerar maskininlärning med sina utvecklade tekniker för att förbättra och påskynda fuskdetekteringen inför lanseringen av Call of Duty: Modern Warfare III. De använder maskininlärning för att analysera klient- och serverdata, utmana konton för att bekräfta onormalt beteende och samla problemkonton för åtgärder. Dessutom har de utvecklat ett nytt trick kallat Splat, som stör fuskare genom att inaktivera deras fallskärm eller justera spelarens hastighet. #TeamRICOCHET har också förbättrat säkerheten genom att identifiera och återställa över 110 000 spelarkonton som hittades på dark web.

Direktlänk Dela Activision Publishing fördjupade 9 november

AI-drivna phishing-attacker blir allt mer sofistikerade

Ondsinta aktörer utnyttjar AI-kraften i LLMs som FraudGPT och WormGPT för att generera personliga phishing-e-postmeddelanden och skadlig kod. Dessa tjänster, som finns tillgängliga på darknet för så lite som $200 per månad, skapar e-posttexter utan de vanliga tecknen på skadlig e-post, som felaktig grammatik. Under 2022 föll över 300 000 människor i USA offer för phishing-attacker, vilket resulterade i en total förlust på $52 089 159. LLMs gör det mycket enklare för dåliga aktörer att rikta in sig på individer i medelstora till stora företag, enligt Jesse Barbour, chef för dataforskning på Q2. Utredningar av den reformerade svarta hatt-hackaren Daniel Kelley avslöjar att arbete pågår med förbättrade versioner av FraudGPT och WormGPT, som förväntas ha tillgång till internet och kunna integreras med Google Lens.

Direktlänk Dela Tearsheet fördjupade 2 november

AI-genererade bilder av sexuellt barnmissbruk hotar att överväldiga internet, varnar säkerhetsvakt

Internet Watch Foundation (IWF) varnar för att ´värsta mardrömmarna´ om artificiell intelligens-genererade barnsexuella missbrukbilder håller på att bli verklighet och hotar att överväldiga internet. IWF har hittat nästan 3 000 AI-genererade missbrukbilder som bryter mot brittisk lag. Organisationen säger att befintliga bilder på riktiga missbruksoffer används för att bygga AI-modeller som sedan producerar nya avbildningar av dem. Tekniken används också för att skapa bilder av kändisar som har ´föryngrats´ och sedan avbildas som barn i sexuella missbruksscenarier. IWF har även sett bevis på att AI-genererade bilder säljs online. Dess senaste resultat baserades på en månads undersökning av ett barnmissbruksforum på dark web.

Direktlänk Dela The Guardian fördjupade 25 oktober

AI-forskare varnar för teknologins snabba utveckling

Yoshua Bengio, grundare och vetenskaplig direktör för Mila vid Quebec AI Institute, uttrycker oro över den snabba utvecklingen inom artificiell intelligens (AI). Bengio anser att AI kan uppnå mänskliga nivåer av kognitiv kompetens inom några år eller decennier, vilket kan utgöra ett hot mot demokrati, nationell säkerhet och vår gemensamma framtid. Han uppmanar till reglering och potentiella lagstiftningar för att hantera teknologins utveckling. Bengio är också bekymrad över AI:s potentiella inverkan på klimatförändringar och biologisk säkerhet.

Direktlänk Dela Bulletin of the Atomic Scientists fördjupade 17 oktober

Försvar mot hot från generativ AI: Strategier och förutsägelser

Är vi redo att försvara oss mot hot som generativ AI medför med sina många fördelar? I åratal har säkerhetsforskare varnat för att stater och andra kriminella aktörer snart kommer att använda artificiell intelligens (AI) för att automatisera attacker från början till slut, vilket ökar deras hastighet, skala och allvar. Steve Povolny från Exabeam delar med sig av hur man försvarar sig mot vanliga hot som kommer med generativ AI. Med lanseringen av stora språkmodell (LLM) generativa AI-verktyg som ChatGPT, kommer dagen som verkade långt borta i framtiden troligen att bli verklighet. Säkerhetsforskare har använt ChatGPT4 för att skriva in uppmaningar, söka upp kod och sätta ihop kodblock för att skapa skadlig programvara. Verktyg finns redan tillgängliga på Dark Web som gör det möjligt för angripare att automatisera utvecklingen av skadlig kod, dess kvalitetssäkringstestning och utförande. Dåliga aktörer kan använda dessa förmågor för att producera och vapenföra utvecklingen av skadlig programvara och verktyg för utpressningsprogram, ständigt ändra viktiga attribut, såsom signaturer, funktionssatser och attacktaktiker när de försöker överträffa företags säkerhetsteam. Här är fem förutsägelser om hur skadliga angripare kommer att använda generativ AI för att öka framgången för deras attacker, följt av fem strategier för att förbättra organisationers cybersäkerhetsförsvar. Nationer kommer att utveckla sina egna LLM:er. Kriminella aktörer kommer att tjäna pengar på generativ AI. Utpressningsprogram kommer att bli ett ännu värre hot. Automationens verkliga värde är upprepbarhet. Dåliga aktörer kommer att utnyttja betrodda verktyg och data. Så, hur kan organisationer förbereda sig för generativ AI-drivna attacker? Överraskande nog kan svaret ligga i tekniken själv. 67% av IT-ledarna sa att de har prioriterat generativ AI för sin organisation inom det närmaste året eller så, och över en tredjedel har nämnt det som en topprioritet. Samarbeta med kollegor är nödvändigt. Generativ AI kan förbättra hotinformation. Företag kan använda ny teknik för att simulera hot. Generativ AI kommer att förbättra sårbarhetstestning. Generativ AI kommer att förbättra detektering. Tiden att förbereda sig för generativ AI-attacker är idag. Stater och kriminella aktörer experimenterar redan med denna nya teknik och använder den för att utveckla sina attackstrategier och verktyg. På den senaste DefCon-konferensen uppmanade AI Village´s Red Team Challenge säkerhetsproffs att testa hur man kan utnyttja generativ AI för skadliga vinster. Deltagarna kunde skapa en bedräglig detaljhandelswebbplats, skapa falska företagskonton och vara värd för en skadlig programvaruserver. Företag och statliga myndigheter kan arbeta med cybersäkerhetsleverantörer för att utvärdera deras förmåga att stå emot avancerade attacker, implementera nya generativa AI-förmågor och utveckla utbildning och processer för att maximera de insikter som dessa verktyg ger. Hur använder du generativ AI för att hantera utvecklade attacker? Dela med oss på Facebook, X och LinkedIn. Vi skulle älska att höra från dig!

Direktlänk Dela Spiceworks fördjupade 13 oktober

AI förstärker phishing-attacker men kan också användas för att bekämpa dem

Priserna på attack-som-en-tjänst phishing-verktyg ökar på dark web, eftersom människor är mottagliga för bedrägeri och över 90% av cyberattacker börjar med phishingförsök. Cyberbrottslingar utnyttjar AI-drivna verktyg för att automatisera och skala upp rekognoseringsuppgifter, sårbarhetsskanning och sociala ingenjörstaktiker för att utnyttja omedvetna anställda och utpressa och destabilisera så många sårbara SME:er som möjligt. Lyckligtvis finns det flera bästa praxis och resurser som små och medelstora företag kan använda för att skydda sig från skadliga phishingtaktiker. AI gör phishing mycket värre, men SME kan också utnyttja AI för att bekämpa eld med eld. AI utnyttjas av cyberbrottslingar för att påskynda deras skadliga agendor, men det används också av säkerhetsproffs för att stärka försvarsmekanismer och detekteringsförmågor. Därför förväntas marknadsvärdet för AI-drivna cybersäkerhetslösningar växa till över 46 miljarder dollar 2027, en betydande ökning från dess värdering på 10 miljarder dollar 2020. Ekonomiskt motiverade cyberbrottslingar finner SME:er att vara särskilt enkla phishingmål eftersom de typiskt saknar tillräckligt skydd mot cybersäkerhet och utbildad personal. SME:er kan vidare utnyttja AI för att köra simuleringar av phishing för att träna anställda om hur man upptäcker nyckelindikatorer och etablerar en incidentresponsplan för att reagera korrekt vid ett phishing-e-postmeddelande.

Direktlänk Dela Forbes Media fördjupade 23 augusti

AI-drivna verktyg för cyberbrott växer på darknet

Utvecklingen av artificiell intelligens (AI) har gjort det möjligt för cyberbrottslingar att skala upp sina skadliga aktiviteter. Sedan lanseringen av OpenAI:s ChatGPT har forum på darknet diskuterat hur man kan använda tekniken för brottsliga ändamål. Nyligen har nya AI-drivna verktyg börjat dyka upp på darknet, specifikt designade för cyberbrottslingars behov. Det första av dessa verktyg, WormGPT, baseras på den öppna källkoden GPT-J och används för att generera sofistikerade phishing- och företagsmejlattacker. Ett annat verktyg, FraudGPT, baseras på GPT-3-tekniken och används för att skapa skadlig kod, skapa oupptäckbar skadlig programvara och hitta säkerhetsbrister. Det är för tidigt att säga hur effektiva dessa verktyg är, men det är säkert att säga att detta bara är början på en ny våg av AI-drivna cyberbrott.

Direktlänk Dela The Australian Strategic Policy Institute fördjupade 22 augusti

Så får du ut det mesta av Googles AI-chatbot, Bard

Google har delat några värdefulla tips om hur man får ut det mesta av sin AI-chatbot, Bard. Dessa inkluderar att använda Bard för att analysera och skapa bilder, vilket kan vara särskilt användbart för innehållsskapare och forskare. Bard kan också vara en utmärkt resurs för att skapa kod och förklara programmeringskoncept, vilket kan vara fördelaktigt för studenter och självlärare. Slutligen kan Bard hjälpa till med att planera resor genom att skapa en resplan anpassad till användarens intressen. Trots dessa fördelar är det viktigt att vara försiktig när man interagerar med AI-chatbots som Bard, eftersom de kan vara sårbara för hackare och det har varit fall av stulna konton och lösenord som säljs på darknet. Google har till och med varnat sina anställda för att dela för mycket känslig information med AI-chatbots.

Direktlänk Dela Global Village Space fördjupade 18 augusti

Cyberbrottslingar använder AI-verktyg för att förbättra sina bedrägerier

Cyberbrottslingar använder skadliga versioner av artificiell intelligens (AI)-verktyget ChatGPT för att förbättra sina bedrägerier. De skadliga plattformarna, kända som WormGPT och FraudGPT, används för att skapa phishing-e-post eller skriva hackningskoder. Till skillnad från andra AI-bots från Google, Microsoft och OpenAI, har dessa inte block för att förhindra missbruk. WormGPT och FraudGPT annonseras till bedragare på dark web. Oberoende cybersäkerhetsforskare Daniel Kelly och Rakesh Krishnan, senior hotanalys på säkerhetsföretaget Netenrich, upptäckte dessa plattformar.

Direktlänk Dela The Sun fördjupade 7 augusti

Ny skadlig programvara riktad mot Mac upptäckt på Dark Web

Cybersäkerhetsföretaget Guardz har upptäckt en ny skadlig programvara på Dark Web som kan skada Mac-datorer. Guardz lärde sig om denna skadliga programvara genom att fråga OpenAI:s chatbot ChatGPT om andra hot mot macOS på Dark Web. Det visade sig att ryska hackare säljer en dold virtuell nätverksdator (HVNC) som kan få tillgång till Mac-datorer och stjäla viktig information, till exempel inloggningsuppgifter. För att bevisa att verktyget fungerar har de deponerat 100 000 dollar på ett escrow-konto. Verktyget säljs för 60 000 dollar och kan köras utan användarens tillstånd.

Direktlänk Dela Wccftech fördjupade 3 augusti

AI upptäcker farlig Mac-malware till salu på Darknet

Ett säkerhetsföretag frågade nyligen OpenAI:s ChatGPT om hot mot Mac online och använde resultaten för att upptäcka farlig malware till salu från Ryssland på Darknet. För 60 000 dollar kan en angripare få total kontroll över någons Mac. En mer skadlig version finns tillgänglig för 80 000 dollar. Om malwares hamnar på din Mac, kommer du inte att veta att den är där, den är mycket svår att bli av med och den kan stjäla mycket av din information. Lyckligtvis kan du förmodligen undvika den.

Direktlänk Dela Cult of Mac fördjupade 2 augusti

AI-verktyg för bedrägeri upptäckt på darknet

En forskare från Netenrich Security har nyligen upptäckt ett AI-verktyg kallat Fraud GPT på darknet, som marknadsförs på Telegram-kanaler. Verktyget, skapat av en person känd som ´CanadianKingPin´, fungerar utan begränsningar, censur eller brist på tillgång till den senaste informationen på internet. Det fungerar liknande som ChatGPT men utan övervakning. Fraud GPT har redan över 3000 prenumeranter och kostar 200 dollar per månad eller mellan 1000 till 1700 dollar för ett årsabonnemang. Verktyget kan användas för olika kriminella aktiviteter, som att skapa osynlig skadlig programvara, hitta sårbarheter på webbplatser och applikationer, och till och med läcka information eller transaktioner.

Direktlänk Dela Fagenwasanni.com fördjupade 31 juli

Ny AI-baserad cyberkriminell verktyg FraudGPT dyker upp på dark web

Mindre än två veckor efter framträdandet av WormGPT, en skadlig alternativ till den populära AI-chattboten ChatGPT, har ett annat verktyg kallat FraudGPT dykt upp på dark web. Enligt en rapport av cybersecurity-företaget Netenrich erbjuder FraudGPT cyberkriminella mer effektiva metoder för att lansera phishing-attacker och skapa skadlig kod. FraudGPT har cirkulerat på Telegram Channels sedan 22 juli och är exklusivt riktat för offensiva syften. Det säljs på olika dark web-marknader och Telegram-plattformen genom en prenumerationsbaserad modell. Huvudfokus för FraudGPT är på phishing-baserade företags e-postkompromisskampanjer.

Direktlänk Dela Fagenwasanni.com fördjupade 26 juli

FTC undersöker OpenAI:s chattbot ChatGPT för potentiella brott mot konsumentskyddslagar

Federal Trade Commission (FTC) genomför för närvarande en undersökning av OpenAI:s AI-drivna chattbot, ChatGPT, för att avgöra om den har överträtt några konsumentskyddslagar. FTC har uttryckt oro över OpenAIs dataskyddspraxis och spridningen av ´falsk information´ av ChatGPT och dess potentiella negativa inverkan på användarreputationer. Om OpenAI bedöms vara skyldigt, kan Microsoft också möta påföljder eftersom det är indirekt associerat med Microsofts BingChat. FTC:s undersökning kommer att utvärdera OpenAI:s praxis för lagring av konsumentdata, säkerhetsåtgärder, tidigare attacker på chattboten och potentiell skada på ryktet.

Direktlänk Dela Fagenwasanni.com fördjupade 23 juli

Cyberbrottslingar utnyttjar AI för att förbättra sina attacker

AI-verktyg har blivit en viktig del av vår vardag, men de har också gett cyberbrottslingar möjlighet att utföra automatiserade attacker effektivare. En metod som cyberbrottslingar utnyttjar AI-teknologi är genom att jailbreaka ChatGPT Plus, vilket ger dem tillgång till GPT-4 utan de begränsningar som är avsedda att förhindra oetisk eller olaglig användning. Forskare har upptäckt att obehörig tillgång till ChatGPT:s API också erhålls genom att utnyttja GitHub-repositorier. Dessa repositorier eliminerar geofencing och andra kontobegränsningar, vilket gör det möjligt för cyberbrottslingar att gå obemärkta. Dessutom kan ChatGPT användas för credential-stuffing attacker när användare hittar bypassar från resurser som GitHub:s gpt4free. Dessa bypassar lurar OpenAI:s API att tro att förfrågan kommer från en legitim källa, vilket gör det möjligt för bedragare att lansera framgångsrika kontotakeover-attacker. Stulna ChatGPT Plus-konton köps och säljs aktivt på Dark Web, vilket utgör ett betydande hot mot kontoinnehavare och andra webbplatser och applikationer. En annan metod som hotaktörer använder för att utnyttja AI för attacker är genom att kringgå CAPTCHAs. För att bekämpa sådana hot är det avgörande att öka medvetenheten, främja samarbetsinsatser och implementera robusta säkerhetsåtgärder utformade för att effektivt motverka AI-drivna cyberhot.

Direktlänk Dela Fagenwasanni.com fördjupade 22 juli

Över 200 000 OpenAI-inloggningsuppgifter upptäckta till salu på darknet

Ny forskning visar att över 200 000 inloggningsuppgifter för OpenAI LP har upptäckts till salu på darknet. Säkerhetsföretaget Flare Systems Inc. har analyserat forum och marknadsplatser på darknet och funnit att OpenAI-inloggningsuppgifter är bland de senaste varorna som finns tillgängliga. Detta är betydande med tanke på det uppskattade antalet OpenAI-användare, inklusive användare av ChatGPT, som uppgick till cirka 100 miljoner i januari. De stulna inloggningsuppgifterna visar att AI-verktyg har potential för skadlig aktivitet. Philipp Pointner, chef för digital identitet på Jumio Corp., kommenterade den ökande användningen av AI och efterfrågan på AI-chattbots inloggningsuppgifter. Han varnar för att med över 200 000 OpenAI-inloggningsuppgifter tillgängliga på darknet kan cyberbrottslingar lätt få tillgång till personlig information.

Direktlänk Dela Fagenwasanni.com fördjupade 21 juli

Silk Roads andra i kommandot, Roger Thomas Clark, döms till 20 år i fängelse

Roger Thomas Clark, även känd som Variety Jones och andra online-alias, har dömts till 20 år i fängelse för sin roll i uppbyggnaden och driften av Silk Road, en anonym, kryptovaluta-baserad modell för olagliga online-försäljningar av droger och annat kontraband på dark web. Clark, en 62-årig kanadensisk medborgare, kommer sannolikt att tillbringa större delen av resten av sitt liv i fängelse. Domaren Sidney Stein påpekade att Clark medvetet hjälpt till med Silk Roads verksamhet och att hans straff måste reflektera den omfattande kriminella verksamhet han var en ledare för.

Direktlänk Dela Wired fördjupade 11 juli

Över 101 000 ChatGPT-konton säljs på darknet

Över 101 000 ChatGPT-konton har sålts på darknet, varnar cyberunderrättelseföretaget Group-IB, baserat i Singapore. Företaget upptäckte trenden mot ChatGPT-kontos sårbarhet medan de analyserade data om informationsstjälande skadlig programvara. I maj 2023 postade illvilliga aktörer över hela darknet 26 800 par ChatGPT-inloggningsuppgifter. OpenAI påpekar att ChatGPT-inloggningsuppgifterna har hamnat på darknet som ett resultat av denna typ av skadlig programvara på maskiner runt om i världen, snarare än på grund av något centralt dataintrång hos företaget. Det innebär att det är mer komplicerat att hantera situationen eftersom det inte finns någon enskild attack att hantera, utan över 100 000 individuella fall av informationsintrång, på olika maskiner.

Direktlänk Dela TechHQ fördjupade 11 juli

Japansk hamn stängd efter cyberattack av LockBit-ransomwaregäng

Japans största hamn, hamnen i Nagoya, har stängts ned efter en cyberattack av LockBit-ransomwaregänget. De ryska cyberbrottslingarna har varit på en brottsturné denna vecka och hävdar tio nya offer under de senaste fem dagarna. Hamnen har varit ur funktion sedan igår morse, när problemet upptäcktes. Biltillverkaren Toyota är bland de stora japanska företag som drabbats av avbrott som ett resultat av överträdelsen. Detta är andra gången hamnen i Nagoya har attackerats. I september förra året drabbades hamnen av en stor DDoS-attack där NUTS var nere i nästan en timme.

Direktlänk Dela Tech Monitor fördjupade 6 juli

Hacktivistgruppen Anonymous Sudan hotar Israel och påstår att de har stulit 30 miljoner kundkonton från Microsoft

Hacktivistgruppen Anonymous Sudan hotar att attackera Israel och hävdar att de har stulit 30 miljoner kundkonton från Microsoft. Gruppen, som misstänks ha kopplingar till ryska hackare som Killnet, Usersec, Passion Group och MistNet, har ökat sin aktivitet de senaste veckorna. De har också nyligen påstått att de har genomfört en DDoS-attack mot Israels premiärminister Benjamin Netanyahus webbplats. Trots sitt namn tror säkerhetsforskare att gruppen faktiskt består av ryska hackare. Microsoft har förnekat gruppens påstående om att de har stulit kunddata.

Direktlänk Dela Tech Monitor fördjupade 6 juli

Över 100 000 ChatGPT-konton stulna och säljs på Dark Web

Artificiell intelligens-baserade tjänster som ChatGPT, skapad av OpenAI, har blivit ett populärt mål för cyberbrottslingar. Nyligen lyckades en grupp cyberbrottslingar stjäla över 100 000 ChatGPT-konton för att sedan sälja dem på Dark Web. Kontona säljs på digitala auktioner, vilket ökar risken för nya former av bedrägeri baserade på identitetsstöld. Det är viktigt att ChatGPT-användare vidtar cybersäkerhetsåtgärder för att skydda sin digitala identitet. Detta inkluderar att inaktivera chatthistorik, radera gamla konversationer och stärka lösenord.

Direktlänk Dela Revista Semana fördjupade 5 juli

Dataintrång på USPTO exponerar privata adresser för patentansökare

Omkring 3% av dem som nyligen lämnat in patentansökningar till USA:s patent- och varumärkeskontor (USPTO) kan ha fått sina privata hemadresser exponerade i en dataläcka, totalt cirka 61 000 personer. USPTO säger att en API-sårbarhet fanns mellan februari 2020 och mars 2023, vilket gjorde det möjligt för obehöriga tredje parter att hämta adresser kopplade till patentansökningar. Det verkar inte som om angripare systematiskt har skrapat alla de exponerade ansökningarna. USPTO säger att de cirka 61 000 personer som påverkades var cirka 3% av det totala antalet inlämnare under sårbarhetsfönstret.

Direktlänk Dela CPO Magazine fördjupade 5 juli

Skolor drabbade av ransomware-attacker, känsliga dokument dumpade online

Konfidentiella dokument stulna från skolor och dumpade online av ransomware-gäng beskriver studentsexuella övergrepp, psykiatriska sjukhusvistelser, missbrukande föräldrar, skolk - till och med självmordsförsök. Minneapolis Public Schools vägrade att betala en lösensumma på 1 miljon dollar, vilket resulterade i att mer än 300 000 filer dumpades online i mars. Data inkluderade medicinska journaler, diskrimineringsklagomål, socialförsäkringsnummer och kontaktinformation för distriktets anställda. Efter attacken har skoladministratörerna inte uppfyllt sitt löfte att informera enskilda offer. Andra distrikt som nyligen drabbats av datatjuvar inkluderar San Diego, Des Moines och Tucson, Arizona.

Direktlänk Dela Journal-Courier fördjupade 5 juli

» Nyheterna från en dag tidigare

Några av våra kursdeltagare