» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 221 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

GDPR står för ´General Data Protection Regulation´ och är en EU-förordning som trädde i kraft den 25 maj 2018. Syftet med GDPR är att stärka skyddet av personuppgifter för EU-medborgare och ge dem större kontroll över hur deras uppgifter används. Förordningen innebär att företag och organisationer måste följa striktare regler när det gäller insamling, lagring och behandling av personuppgifter. De måste också informera om hur uppgifterna används och inhämta samtycke från individer. Om ett företag inte följer GDPR kan de drabbas av böter på upp till 20 miljoner euro eller 4% av den globala årsomsättningen.

Senaste nytt kring GDPR

Elon Musk kritiserar OpenAI:s nya AI-modell

Elon Musk, medgrundare till OpenAI, är inte imponerad av företagets nya AI-modell GPT-4o. Musk, som lämnade OpenAI 2018, kallade demonstrationen av den nya modellen för ´pinsam´. Den nya modellen fungerar som en digital assistent och låter användare kommunicera verbalt och visuellt med AI-chattbotten. Musk har även kritiserat OpenAI för att ha skapat chattbotten GPT med vad han anser vara en vänstervriden bias. Han har även stämt OpenAI och anklagat företaget för att ha övergett sina grundläggande principer i samband med ett flermiljardpartnerskap med Microsoft.

Direktlänk Dela Breaking Latest News fördjupar idag
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

EU-parlamentariker uttrycker oro för Europas tillväxtmöjligheter

Under AI Strategy Summit uttryckte EU-parlamentarikern Jörgen Warborn oro för Europas framtida tillväxtmöjligheter. Han menar att Europa riskerar att halka efter om vi inte ändrar kurs. USA växer nu mer än dubbelt så snabbt som Europa och jämfört med Asien ser det ännu värre ut. Warborn pekar på den kulturella skillnaden mellan USA och Europa och ´Brysseleffekten´ som orsaker till detta, vilket innebär en vilja från EU-kommissionen att ´gå före och reglera´ nya tekniker som AI. Han kritiserar EU:s horisontella tillvägagångssätt och förespråkar ett mer amerikanskt ´stuprörstänk´.

Direktlänk Dela Dagens Industri fördjupade 13 maj

Etiska strategier för AI-drivna lösningar: Insikter från åtta branschprofiler

I en snabbt utvecklande AI-teknologisk landskap är det viktigt att ta itu med etiska frågor och integritetsproblem. Åtta branschprofiler delar sina strategier, från att genomföra etiska riskanalyser till att säkerställa mänsklig tillsyn i AI-transkription. De diskuterar vikten av att säkerställa transparens i dataanvändning, genomföra rättvisakontroller, ansvarsfullt källa till diversifierade data, klargöra datapraxis med transparens, utveckla en omfattande etisk AI-ram, prioritera anonymisering och användarsamtycke och mänsklig tillsyn i AI-transkription. De belyser också hur viktigt det är för företag att granska sina AI-drivna lösningar inte bara ur ett datasekretess och säkerhetsperspektiv, men också ur perspektivet att upprätthålla etik.

Direktlänk Dela BlockTelegraph fördjupade 13 maj

Red Hat OpenShift AI stöder AI Sverige i utvecklingen av AI-lösningar

Red Hat, Inc., världsledande inom öppna källkods-lösningar, meddelar att AI Sverige har blivit Sveriges nationella centrum för tillämpad AI. AI Sverige samlar över 120 partners från offentliga och privata sektorer samt akademi. Centret, som finansieras av den svenska regeringen och dess partners, investerar i att generera verktyg och resurser för att påskynda användningen av AI till nytta för Sverige. AI Sverige har valt att implementera Red Hat OpenShift AI i sina laboratorier för att ge organisationer möjlighet att utforska en flexibel, skalbar MLOps-plattform för att bygga, distribuera och hantera AI-aktiverade applikationer.

Direktlänk Dela Silicon Canals fördjupade 10 maj

Red Hat OpenShift AI tillgänglig i AI Swedens labb

Red Hat, en global leverantör av öppen källkodslösningar, meddelar att deras produkt Red Hat OpenShift AI nu finns tillgänglig i AI Swedens AI Labs. AI Sweden är Sveriges nationella center för tillämpad AI och har kontor på åtta platser i Sverige samt i Montreal. Genom att inkludera Red Hat OpenShift AI i AI Swedens utvecklingsmiljö kan organisationer snabbt testa nya koncept och iterera dem i en lågriskmiljö. AI Sweden fortsätter att utveckla sitt infrastrukturerbjudande och utvärderar ledande AI-plattformar och verktyg.

Direktlänk Dela Dagens Infrastruktur fördjupade 8 maj

Red Hat OpenShift AI nu tillgängligt i AI Sveriges laboratorier

Red Hat, världsledande inom öppen källkods-lösningar, meddelade att Red Hat OpenShift AI nu finns tillgängligt i AI Sveriges AI-laboratorier. AI Sverige, Sveriges nationella centrum för tillämpad AI, ger organisationer möjlighet att utveckla AI-modeller, applikationer och användningsfall med hjälp av ledande teknologier. Centret finansieras av den svenska regeringen och dess partners, och syftar till att accelerera användningen av AI till förmån för Sveriges samhälle och konkurrenskraft. Red Hat OpenShift AI ger team möjlighet att experimentera, värdmodeller för integration i applikationer och leverera applikationer över AI/ML-livscykeln.

Direktlänk Dela Business Wire fördjupade 7 maj

AI förändrar resebranschen med möjlighet till ökad inkomst och förbättrad kundupplevelse

Artificiell intelligens (AI) skapar stora framsteg inom turismsektorn, med allt från bokningsprocesser till genomförandet av komplexa marknadsföringsstrategier. AI kan bidra till en betydande ökning av den årliga omsättningen, med en potentiell ökning på 180 till 300 miljarder dollar. AI påverkar reseindustrin på flera sätt, inklusive chatbots och virtuella assistenter som tillhandahåller kundservice dygnet runt, samt rekommendationsmotorer som skapar personliga resealternativ. Trots fördelarna väcker AI också frågor kring datasekretess och jobbsäkerhet.

Direktlänk Dela Elblog fördjupade 6 maj

OpenAI står inför rättslig strid i Österrike, ingår avtal med Financial Times och möter ny konkurrent

OpenAI, ledande inom artificiell intelligens (AI), står inför en ny rättslig strid, denna gång i Österrike. Den österrikiska integritetsrättsgruppen NOYB har lämnat in en anmälan mot OpenAI till den österrikiska dataskyddsmyndigheten, med anklagelser om att företaget öppet medger att det inte kan korrigera felaktig information på sin ChatGPT-modell. OpenAI har också ingått ett licensavtal med Financial Times, där AI-företaget kommer att träna sina modeller på den brittiska tidningens arkiverade innehåll. ChatGPT står inför en ny konkurrent, Reka Core, utvecklad av Reka AI, ett San Francisco-baserat startup.

Direktlänk Dela CoinGeek fördjupade 3 maj

OpenAI anklagas för att bryta mot GDPR genom att sprida falsk information

Teknikjätten OpenAI är under granskning igen efter att en ledande tillsynsmyndighet i Österrike anklagat företaget för att bryta mot GDPR. Detta gäller dess populära verktyg ChatGPT, som anklagats för att sprida falsk information om människor online. Tillsynsmyndigheten anklagade även OpenAI för att inte göra tillräckligt för att motverka desinformation. Flera AI-modeller var i färd med att ´hallucinera´ material, vilket inte är något nytt fenomen. Om noggrannheten inte förbättras kan företaget ställas inför allvarliga böter. OpenAI har uttryckt svårigheter med att rätta fel och hoppas att följa alla regulatoriska lagar, inklusive GDPR, för att säkerställa en säker och givande arbetsupplevelse för alla dess användare.

Direktlänk Dela Digital Information World fördjupade 30 april

Open AI:s chattbot anklagas för att bryta mot GDPR

Den österrikiska organisationen Noyb anklagar Open AI:s chattbot Chat GPT för att bryta mot Dataskyddsförordningen (GDPR). Anklagelserna grundar sig i att det är svårt för Open AI att korrigera eller ta bort felaktig information från Chat GPT. Noyb planerar att driva fallet baserat på en känd person som sett felaktiga uppgifter om sig själv. Trots att Open AI tillåter användare att skicka in rättelser, erkänner företaget att det kanske inte är möjligt att korrigera alla fel på grund av modellernas tekniska komplexitet.

Direktlänk Dela Computersweden.se fördjupade 29 april

OpenAI anklagas för att bryta mot GDPR-reglerna av integritetsgrupp

Integritetsaktivistgruppen noyb (None of Your Business) har lämnat in ett klagomål mot OpenAI, med påståendet att ChatGPT-tjänsten bryter mot GDPR-reglerna eftersom dess information inte kan korrigeras om den visar sig vara felaktig. Enligt klagomålet kunde ChatGPT inte korrigera en felaktig födelsedag för en offentlig person. Det fanns heller inget sätt att förhindra att en felaktig födelsedag returnerades utan att blockera all information som hölls om ämnet. Detta är mindre än idealiskt där den europeiska dataskyddslagen GDPR är berörd. Lagen är tydlig - personuppgifter måste vara korrekta och individer har rätt att få dem ändrade om de är felaktiga. En talesperson för noyb berättade att klagomålet hade lämnats in i Österrike eftersom det var där klaganden bor. Men gruppen förväntade sig att det skulle vidarebefordras till den irländska myndigheten eftersom OpenAI finns där. En böter är också möjlig.

Direktlänk Dela The Register fördjupade 29 april
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

OpenAI står inför GDPR-klagomål över ´hallucinationer´ i ChatGPT

Den digitala rättighetsorganisationen Noyb har lämnat in ett GDPR-klagomål mot OpenAI i EU på grund av att ChatGPT sprider falska personuppgifter. Noyb hävdar att individer har rätt till full tillgång till lagrad information och att GDPR kräver att information om dem ska vara korrekt. Organisationen påstår att OpenAI:s ChatGPT sprider felaktiga personuppgifter om användare och att företaget inte kan säga varifrån datan kommer eller vilka data ChatGPT lagrar om användare. Noyb har lämnat in ett GDPR-klagomål i Österrike på uppdrag av en anonym offentlig person, som hävdar att ChatGPT gav felaktig information om den offentliga personens födelsedag.

Direktlänk Dela Pinkvilla.com fördjupade 29 april

OpenAI anklagas för GDPR-brott

Den ideella organisationen noyb - European Center for Digital Rights, tillsammans med en påverkad europeisk medborgare, har lämnat in ett dataskyddsklagomål mot chattbot-leverantören OpenAI för brott mot den europeiska dataskyddsförordningen (GDPR). Organisationen, medgrundad av dataskyddsaktivisten Max Schrems, anklagar OpenAI för att ha gjort falska påståenden om personuppgifter utan att ge möjlighet till lagstadgad korrigering eller radering. Schrems har tidigare lanserat två stämningar mot Facebook-gruppen Meta, och har två gånger upphävt viktiga dataöverenskommelser mellan USA och Europa inför EU-domstolen. I tvisten med OpenAI anklagar noyb företaget för att neka människor i Europa deras rättigheter enligt GDPR. Noyb och den drabbade personen har nu uppmanat den österrikiska dataskyddsmyndigheten (DSB) att undersöka OpenAIs datatillämpningspraxis.

Direktlänk Dela Yahoo fördjupade 29 april

EU:s AI-lagstiftning: Vad innebär det för arbetsgivare?

EU:s AI-lagstiftning, som beskrivs som världens första heltäckande juridiska ramverk för AI, har nu formellt antagits av Europaparlamentet. Lagstiftningen syftar till att säkerställa att AI-system används på ett säkert och etiskt sätt, och förbjuder vissa praxis som innebär en oacceptabel risknivå. Lagstiftningen gäller inte bara för arbetsgivare i EU, utan även för dem utanför EU där systemets output används inom EU. AI-system klassificeras i fyra riskkategorier: oacceptabel, hög, begränsad och minimal. Många arbetsrelaterade användningsfall kommer sannolikt att falla in under kategorin högrisk.

Direktlänk Dela Lewissilkin.com fördjupade 23 april

Telekomindustrin anpassar sig till AI och etiska överväganden

För att bli en AI-inriktad telekomorganisation krävs en strategisk vision, ledningsåtagande och en plan för AI-adoption. Generative AI (GenAI) har visat sig vara ett kraftfullt paradigm inom AI. GenAI-modeller skapar nytt innehåll, simulerar naturligt språk och genererar kreativa resultat. Telekomindustrins adoption av GenAI påverkas av en komplex reglerande miljö. EU spelar en central roll i att forma AI-regleringar, vilket kräver att telekomföretag följer riktlinjer som prioriterar transparens, rättvisa och ansvar. Telekomföretag står inför utmaningar som att säkerställa datakvalitet, integrera med befintliga system, brist på kvalificerade AI-proffs och behovet av att hantera säkerhets- och integritetsfrågor. Lösningar inkluderar att implementera robusta datastyrningsrutiner, utveckla API:er för smidig integration, investera i AI-expertis genom utbildning och anställning, och säkerställa överensstämmelse med regler som GDPR.

Direktlänk Dela Thefastmode.com fördjupade 19 april

Datasekretess och maskininlärning förändrar annonsbranschen

Under de senaste åren har datasekretess blivit ett återkommande tema inom annonsbranschen. Dataskyddslagarna har ökat i antal och stärkts i rigor, då reglerare söker att ge konsumenterna kontroll över sina personuppgifter. Europeiska Digital Markets Act, som trädde i kraft 2022, syftar till att ytterligare reglera datainsamling och delning av stora teknikföretag som Apple och Google. Samtidigt har dessa företag också bidragit med sina egna datasekretessinitiativ. Fler och fler företag har börjat uppskatta kraften i första partens data och börjat använda detta för att köra bättre riktade, mer personliga kampanjer. Maskininlärning kommer in när första partens data kombineras med andra datapunkter.

Direktlänk Dela Game Developer fördjupade 15 april

Indien söker balans i AI-reglering mellan USA:s och EU:s strategier

Frågan om hur Artificiell Intelligens (AI) bör regleras är för närvarande ett intensivt debatterat ämne i Indien. Landets IT-ministerium har tidigare intagit en pro-innovativ hållning liknande USA:s, men under de senaste månaderna har policybeslutsfattare visat ökat intresse för att reglera vissa aspekter av AI. Den första dataskyddslagen, ´Digital Personal Data Protection Act´, infördes i Indien i augusti 2023. Dessutom utarbetades Digital India Bill 2023, som syftar till att ersätta Indiens nuvarande IT-lag från 2000 och ge en omfattande tillsyn över det digitala landskapet. Indien förväntas släppa utkastet till AI-regleringsramen i juli i år, efter att det elektroniska processen är över och en ny regering tar över. En balanserad ansats är nyckeln till att bestämma den lämpliga omfattningen och typen av styrning.

Direktlänk Dela The Times of India fördjupade 8 april

Användning av AI-verktyg för att förbättra produkt- och säljteamssamarbete i startups

Artificiell intelligens (AI) är allt mer utbredd och påverkar alla system och strukturer i vår omedelbara närhet. Företag, även de mest traditionella, tvingas följa denna trend. AI kan användas för att förbättra samarbetet mellan försäljnings- och produktteam. Enligt en undersökning från McKinsey kan företag som använder AI i sina beslutsprocesser göra bedömningar dubbelt så snabbt och korrekt. Salesforce-data visar att 61% av de bäst presterande säljteamen använder eller vill använda AI för att få en djupare förståelse för sina kunder och skapa skräddarsydda interaktioner. Enligt en annan undersökning från Salesforce tror 86% av IT-cheferna att generativ AI snart kommer att spela en stor roll i deras företag, och 57% kallar det för en ”game changer”. Dessutom anser 33% av IT-ledarna att generativ AI bör vara deras högsta prioritet, och 67% av IT-ledarna har prioriterat det för sina företag inom de närmaste 18 månaderna.

Direktlänk Dela Open The News fördjupade 8 april

Microsoft och OpenAI planerar att bygga en superdator värd 100 miljarder dollar

Microsoft och OpenAI planerar att bygga en superdator kallad Stargate, till ett värde av 100 miljarder dollar (cirka 92,6 miljarder euro). Superdatorn, baserad i USA, skulle överträffa nuvarande datorkraft betydligt. Stargate är en del av företagens femfasplan, som kan starta så tidigt som 2028. Projektet visar hur mycket pengar som kommer att flöda in i branschen när artificiell intelligens utvecklas ytterligare under de kommande åren. Stargate har potentialen att överträffa den beräkningskraft som Microsoft för närvarande tillhandahåller OpenAI från sina datacenter över hela landet, men skulle kräva minst flera gigawatt ström för att göra det.

Direktlänk Dela Breaking Latest News fördjupade 30 mars

CIO:er uppmanas att förbereda sig för AI-förordning

CIO:er uppmanas att ta på sina dataskyddsglasögon och se över sina processer för att vara redo för den kommande AI-förordningen. Det handlar i grunden om samma bedömningar som redan görs idag kopplat till GDPR. Om dessa processer redan finns på plats, är AI-förordningen en förlängning av det. Det är också viktigt att ha kontroll över immateriella rättigheter och företagshemligheter. Den nya förordningen är bara en pusselbit när det gäller AI, det finns redan mycket lagstiftning som berör AI idag, inklusive sekretesslagstiftning.

Direktlänk Dela Computersweden.se fördjupade 26 mars

Marknaden för mobil AI förväntas växa till $81,51 miljarder till 2030

En rapport med titeln ´Mobile Artificial Intelligence Market by Technology Node (10nm, 20-28nm, 7nm), Functionalities (Image Recognition, Intelligent Virtual Assistants, Predictive Text), Device Type, Application, Industry - Global Forecast 2024-2030´ visar att marknaden för mobil AI förväntas växa från $17,46 miljarder 2023 till $81,51 miljarder 2030, med en årlig tillväxttakt på 24,61%. Trots utmaningar som integritetsfrågor och begränsad bearbetningskapacitet jämfört med molnbaserade motsvarigheter, förbättrar mobil AI användarupplevelser genom personaliserat innehåll och innovativa funktioner.

Direktlänk Dela PR Newswire fördjupade 26 mars
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

EU:s AI-lag godkänd av Europaparlamentet

Den 12 mars 2024 antog Europaparlamentet EU:s AI-lag, som beskrivs som världsledande inom AI-reglering. Lagen kategoriserar olika typer av AI i riskpooler: minimal, hög och oacceptabel risk. För närvarande verkar det inte finnas några AI-verktyg som EU anser vara av minimal risk. Hög risk inkluderar verktyg som faller under EU:s produktsäkerhetslagstiftning och verktyg som påverkar mänskliga rättigheter eller kritisk infrastruktur. Oacceptabla riskverktyg kommer att förbjudas. Lagen kommer inte att träda i kraft förrän den ratificeras av medlemsstaterna, vilket troligtvis kommer att ske 2024. Amerikanska företag som skapar eller använder AI-verktyg kommer inte att påverkas direkt, såvida de inte genererar intäkter inom EU. När ratificeringen av EU:s AI-lag är klar måste amerikanska företag som gör affärer inom EU omedelbart följa lagen. Liksom EU:s dataskyddsförordning, GDPR, medföljer EU:s AI-lag höga böter för icke-efterlevnad.

Direktlänk Dela JD Supra fördjupade 22 mars

Användning av generativ AI för att förbättra kundupplevelsen och produktiviteten

Generativa AI-applikationer som drivs av grundläggande modeller (FMs) möjliggör betydande affärsvärde inom kundupplevelse, produktivitet och processoptimering. Dock innebär införandet av dessa FMs att man måste ta itu med vissa utmaningar, inklusive kvalitetsresultat, datasekretess, säkerhet, integration med organisationsdata, kostnad och kompetens för leverans. Inlägget utforskar olika tillvägagångssätt när man bygger applikationer som använder generativ AI. Med den snabba utvecklingen av FMs är det en spännande tid att utnyttja deras kraft, men det är också avgörande att förstå hur man korrekt använder dem för att uppnå affärsresultat.

Direktlänk Dela Amazon Web Services fördjupade 14 mars

UKA Group blir första kunden till Deutsche Telekoms AI-verktyg

Deutsche Telekom (DT) har signerat sitt första företagsavtal för Generative AI (GenAI) med UKA Group, ett företag specialiserat på förnybar energi. UKA kommer att ha tillgång till ett säkert, regleringskompatibelt, molnbaserat verktyg för GenAI. Verktyget kommer att testas för IT-säkerhet och dataskydd och kommer att köras på Telekoms molnmiljöer, vilket betyder att UKA behåller kontrollen över sina data i enlighet med GDPR och tysk dataskyddslagstiftning. Verktyget är webbaserat och kan nås via UKAs eget intranät. Det är flerspråkigt och kan därför användas av internationella organisationer som UKA.

Direktlänk Dela Mobile Europe fördjupade 8 mars

Juridiska och etiska frågor kring AI och chattrobotar diskuteras

I en utgåva av TechLaw10 diskuterar Jonathan Armstrong från Cordery och professor Eric Sinrod juridiska och etiska frågor kring AI och uppkomsten av chattroboten ChatGPT. Diskussionen omfattar etik och teknik, behovet av att AI inte diskriminerar, användningen av AI i rekrytering, användningen av chattrobotar för skada, AI och upphovsrättsfrågor, om ChatGPT ljuger och konsekvenserna av detta, politisk bias med chattrobotar, ett fall från 1996 som kan begränsa vissa chattrobotars lagliga aktiviteter, hur AI:s datainsamling kan vara ett brott enligt datamissbruklagstiftning och hur dataskyddsrättigheter enligt GDPR kan påverka AI.

Direktlänk Dela JD Supra fördjupade 23 februari

GDPR borde förhindra skolor från att träna AI med elevers skrivningar

EU:s dataskyddsdirektiv, GDPR, borde förhindra skolor från att dela gamla skrivningar och svar för att träna artificiell intelligens (AI)-program, enligt en pensionerad lärare. Användning av sådana data kan riskera att AI-programmet lär sig information som GDPR syftar till att skydda. Risken för intrång i personlig integritet finns både för minderåriga och vårdnadshavare. Om verkliga data ska användas bör det vara explicit godkänt av varje deltagare.

Direktlänk Dela Dagens Nyheter fördjupade 15 februari

EU:s nya lag om artificiell intelligens: En genomgång

EU:s kommande lag om artificiell intelligens (AI) kommer att tillhandahålla en bred definition av AI som gäller för många olika enheter, inklusive leverantörer, distributörer och importörer av AI-system. Lagen kommer att ha en omfattande extra-territoriell räckvidd. Den föreslår ett tvärsektoriellt, riskbaserat klassificeringssystem med ett totalt förbud mot vissa AI-praktiker som anses innebära oacceptabel risk. Nya skyldigheter riktar sig främst mot AI-system som anses vara ”hög risk” och skyldigheter för leverantörer av allmänna AI-system, inklusive generativa AI-system som ChatGPT. Böter liknande GDPR kan uppgå till 7% av den globala årliga omsättningen för vissa brott. Den föreslagna AI-lagen, när den väl är antagen, kommer att vara ett omfattande tvärsektoriellt regelverk för AI. Dess syfte är att reglera utvecklingen och användningen av AI genom att tillhandahålla en ram med skyldigheter för parterna som är involverade i hela AI-försörjningskedjan. Precis som med dataskyddsförordningen (GDPR) strävar EU genom att vara den första att agera, att sätta den nya globala standarden för AI-reglering.

Direktlänk Dela JD Supra fördjupade 6 februari

Italienska regulatorer anklagar OpenAI för brott mot EU:s dataskyddsregler

Italienska regulatorer har informerat OpenAI om påstådda överträdelser av EU:s dataskyddsregler genom ChatGPT. OpenAI har getts 30 dagar att svara på anklagelserna och har uttryckt sin avsikt att samarbeta med regulatorerna under utredningen. Brottet är kopplat till massinsamling av användardata och OpenAIs misslyckande med att kontrollera innehåll olämpligt för minderåriga. Om de befinner sig skyldiga kan företaget bötfällas upp till 4% av sin globala omsättning. Utredningen kommer sannolikt också att ha konsekvenser för Microsoft, som har investerat miljarder i OpenAI.

Direktlänk Dela Spiceworks fördjupade 31 januari

Företag försäkrar att deras AI-praxis överensstämmer med GDPR

Enligt ett företagsuttalande, tror de att deras praxis överensstämmer med GDPR och andra sekretesslagar, och de vidtar ytterligare åtgärder för att skydda människors data och integritet. De vill att deras AI lär sig om världen, inte om privata individer. De arbetar aktivt för att minska personuppgifter i träningen av sina system som ChatGPT, som också avvisar förfrågningar om privat eller känslig information om människor.

Direktlänk Dela News Net Media fördjupade 31 januari

OpenAI försvarar sig mot anklagelser om dataskyddsbrott i Italien

AI-forskningsorganisationen OpenAI har fått möjlighet att presentera sitt försvar mot anklagelser om att ha brutit mot dataskyddslagar i Italien med sin AI-modell ChatGPT. Anklagelserna kommer från Italiens DPA, en regulator som samarbetar med Europeiska unionens Europeiska dataskyddsstyrelse. Förra året förbjöd Italiens dataskyddsmyndighet tillfälligt ChatGPT på grund av oro kring massinsamling och lagring av personuppgifter. Nu måste OpenAI återigen presentera sitt försvar inom 30 dagar. OpenAI hävdar att dess praxis överensstämmer med EU:s integritetsregler.

Direktlänk Dela CryptoCoinNews fördjupade 30 januari

Israel och världen fortsätter att fokusera på dataskydd och AI-reglering under 2023

Under 2023 fortsatte dataskydd och AI-reglering att vara i fokus både i Israel och globalt. I Israel reflekterades detta i riktlinjer utfärdade av Dataskyddsmyndigheten och genom införande av regler för överföring av data från Europa till Israel. På internationell nivå inkluderade utvecklingen införandet av dataskyddslagar i fler amerikanska delstater, ny lagstiftning av EU och betydande verkställighetsåtgärder. AI tog också centrum under året, vilket ledde till att beslutsfattare över hela världen övervägde reglering i förhållande till risker och utmaningar som denna nya teknik innebär.

Direktlänk Dela JD Supra fördjupade 29 januari

Italiensk dataskyddsmyndighet undersöker påstådda överträdelser av OpenAI

OpenAI, ett företag stöttat av Microsoft, har rapporterats vara under utredning av Italiens dataskyddsmyndighet för misstänkta överträdelser av EU:s dataskyddslagar. Utredningen rör företagets AI-chattbot, ChatGPT, som i stor utsträckning baseras på stora mängder internetdata. Myndigheten har inte offentliggjort detaljerna i sitt utkast till resultat, men har gett OpenAI 30 dagar att svara på anklagelserna. Förra året förbjöd Italiens tillsynsmyndighet, Garante, tillfälligt ChatGPT på grund av påstådda överträdelser av EU:s dataskyddslagar.

Direktlänk Dela RTTNews fördjupade 29 januari

OpenAI anklagas för att bryta mot EU:s dataskyddslagar

Efter en lång utredning anklagar Italiens dataskyddsmyndighet (DPA) OpenAI för att ha brutit mot EU:s dataskyddslagar med sin AI-chattbot ChatGPT. Överträdelser kan resultera i böter upp till 20 miljoner euro eller 4% av årlig omsättning. OpenAI har 30 dagar på sig att svara på anklagelserna. Italienska myndigheter uttryckte oro över OpenAI:s efterlevnad av GDPR förra året, vilket ledde till en tillfällig avstängning av chattboten från den europeiska marknaden. OpenAI undersöks också för GDPR-efterlevnad i Polen och försöker mildra potentiella regulatoriska risker i EU genom att etablera en egen organisation i Irland.

Direktlänk Dela Tech News Space fördjupade 29 januari

Italienska regulatorn anklagar OpenAI för överträdelser av dataskyddslagar

Den italienska regulatorn, Garante, har meddelat OpenAI, som drivs av Sam Altman, om överträdelser av europeiska dataskyddslagar. OpenAI har utvecklat chattboten ChatGPT och har nu 30 dagar på sig att svara på anklagelserna. Detta följer efter en flera månader lång utredning av ChatGPT och en tillfällig förbud mot bearbetning som Garante införde mot OpenAI förra året. Om överträdelser bekräftas kan böter på upp till 20 miljoner euro, eller upp till 4 procent av den globala årsomsättningen, utdömas. OpenAI har ännu inte kommenterat regulatorns rapport.

Direktlänk Dela Punjab News Express fördjupade 29 januari

OpenAI anklagas för överträdelse av EU:s integritetslagar av italienska dataskyddsmyndigheten

OpenAI, AI-företaget, står återigen inför italienska myndigheter på grund av påstådda överträdelser av Europeiska unionens integritetslagar. Italiens dataskyddsmyndighet, Garante, har formellt anklagat OpenAI för att bryta mot dessa lagar efter en flera månader lång utredning. Garante har gett OpenAI 30 dagar att svara på anklagelserna och de kan stå inför böter på upp till 20 miljoner euro eller 4% av sin globala årliga omsättning. Utredningen kommer från oro som den italienska myndigheten uttryckte förra året om att OpenAI:s AI-chatbot, ChatGPT, potentiellt bröt mot GDPR.

Direktlänk Dela PC Magazine UK fördjupade 29 januari

Italiensk regulator anklagar OpenAI för brott mot dataskyddslagen

Den italienska regulatorn informerade på måndagen OpenAI, som leds av Sam Altman, om att de har brutit mot den europeiska dataskyddslagen. OpenAI, utvecklaren av chattboten ChatGPT, har 30 dagar på sig att svara på anklagelserna. Efter en flera månader lång undersökning av ChatGPT, meddelade den italienska dataskyddsmyndigheten (Garante) att OpenAI brutit mot dataskyddslagen. Brott mot EU:s dataskyddsregler kan resultera i böter på upp till 20 miljoner euro, eller upp till 4 procent av den globala årliga omsättningen.

Direktlänk Dela The Hans India fördjupade 29 januari

OpenAI, företaget bakom AI-chattboten ChatGPT, misstänks för att ha brutit mot EU:s dataskyddslagar, enligt Italiens dataskyddsmyndighet. Detaljerna i myndighetens preliminära slutsatser har inte offentliggjorts, men OpenAI har fått en anmälan och 30 dagar på sig att försvara sig mot anklagelserna. Om brott mot EU:s dataskyddsregler bekräftas kan det leda till böter på upp till 20 miljoner euro, eller upp till 4% av den globala årsomsättningen. OpenAI kan också tvingas ändra hur det behandlar data eller dra tillbaka sin tjänst från EU-länder där dataskyddsmyndigheterna kräver ändringar.

TechCrunch fördjupade 29 januari

AI och 5G förändrar telekombranschen

Telekomindustrin genomgår betydande förändringar drivna av teknologier som AI, stordata och Internet of Things. Efter pandemin har fokus skiftat mot att skapa ett värdeadderande ekosystem och stödja företag och kunder genom digital transformation. I detta sammanhang spelar telekomföretag en viktig roll för att möta den ökade efterfrågan på digitala tjänster. AI bidrar till att omforma affärsverksamhet, kundengagemang och tjänsteoptimering inom telekomsektorn. Detta inkluderar att minska kostnader, förbättra kundengagemang, effektivisera nätverksdesign och hantering, etablera nya affärsmöjligheter och påskynda innovation.

Direktlänk Dela Techiexpert fördjupade 19 januari

EU:s nya regler kan kväva teknisk innovation

EU-kommissionens nya regler för standardiserade laddare syftar till att spara konsumenter 250 miljoner euro per år och minska avfallet av 11.000 ton oanvända laddare. Men dessa regler kan kväva innovationer inom batterier och laddteknik. EU:s reglering av mobiloperatörers priser och förbud mot separata roamingkostnader kan också hämma innovation. EU har tidigare haft konflikter med amerikanska techföretag som Microsoft och Intel, resulterande i miljardböter. EU:s integritetslagstiftning GDPR och ny lagstiftning kring AI kan också påverka företagens innovationsförmåga.

Direktlänk Dela Dagens Industri fördjupade 17 januari

Beräkningsstyrning kan främja AI-utveckling samtidigt som dataskyddet säkerställs

Företag som utvecklar AI i hårt reglerade branscher, som hälso- och sjukvård och finans, står inför ökande krav på att skapa lösningar som är förenliga med dataskyddsbestämmelser. En lösning kan vara beräkningsstyrning, vilket innebär att övervaka och kontrollera alla aspekter av beräkningar på data. Detta kan hjälpa företag att uppfylla krav som GDPR och HIPAA, samtidigt som det möjliggör att data görs tillgängligt för utvecklare på ett säkert sätt. Beräkningsstyrning kan också spela en viktig roll i utvecklingen av etiska och ansvarsfulla AI-modeller.

Direktlänk Dela TechRadar fördjupade 15 januari

OpenAI flyttar EU-datakontroll till Irland

AI-företaget OpenAI, känt för ChatGPT, planerar att ändra sin officiella datakontroller för EU-kunder till Irland för att lugna oro över dataskyddsbrott. Företaget, baserat i Kalifornien, har redan mött en mängd kontroverser över sin insamling och användning av personuppgifter. Flytten följer öppningen av OpenAIs Dublin-kontor i september, men följer också en rad oro från EU-medlemsstater över dess bearbetning och förvaring av personuppgifter. OpenAI överlämnar EU-datatillsynsuppgifterna till den irländska dataskyddsmyndigheten för att hantera alla EU-lagar.

Direktlänk Dela DIGIT fördjupade 3 januari

OpenAI flyttar europeisk dataverksamhet till Irland för att efterleva GDPR

OpenAI planerar att flytta sin europeiska dataverksamhet till Irland för att säkerställa överensstämmelse med GDPR. Detta följer på öppnandet av ett kontor i Dublin i september och ändringen ska ske den 15 februari. OpenAI har varit inblandat i en rad dataskyddsrelaterade strider under det senaste året, med italienska regulatorer som upphävde användningen av ChatGPT i april 2023 på grund av GDPR-bekymmer. Den nya flytten verkar vara ett försök att minska regulatoriska friktioner över hela EU. Trots detta varnar experter fortfarande för företagets amerikanska inflytande.

Direktlänk Dela IT Pro fördjupade 3 januari

OpenAI ändrar villkor för att minska regulatoriska risker i EU

OpenAI arbetar med att ändra sina villkor efter att ha kritiserats för att kränka användares integritet. Företagets AI-verktyg, ChatGPT, anklagades för att negativt påverka användarnas integritet och Italien gick så långt som att tillfälligt stänga verktyget. OpenAI har nu börjat skicka ut e-post om hur de har ändrat sin ChatGPT-tjänst i de regioner där mest oro uppstått. Företagets Dublin-baserade dotterbolag kommer att vara den ledande regulatorn för användardata i EEA-regionen inklusive Schweiz från nästa månad. Om användare inte håller med om ändringarna uppmanas de att omedelbart ta bort sina konton på OpenAI.

Direktlänk Dela Digital Information World fördjupade 3 januari

OpenAI tar steg för att hantera dataskyddsreglering i EU

OpenAI, skaparen av ChatGPT, har tagit betydande steg för att hantera regulatoriska risker relaterade till datasekretess inom Europeiska unionen (EU). Företaget har ändrat sin operativa struktur genom att etablera en ny enhet i Dublin, Irland, för att följa EU:s allmänna dataskyddsförordning (GDPR). OpenAI har meddelat att det kommer att flytta sina datahanteringsansvar för användare i Europeiska ekonomiska området (EEA) och Schweiz till sin nyetablerade enhet, OpenAI Ireland Limited. Genom att etablera sin närvaro i Dublin siktar OpenAI på att erhålla huvudetableringsstatus, vilket skulle möjliggöra för det att dra nytta av huvudövervakning av den irländska dataskyddskommissionen (DPC).

Direktlänk Dela Robots.net fördjupade 2 januari

Maskininlärning revolutionerar marknadsföring

Maskininlärning (ML) förändrar marknadsföring genom att erbjuda företag nya möjligheter att engagera kunder. ML-analyserar stora datamängder för att avslöja dolda mönster och förutsäga trender. Dessutom anpassar ML marknadsföringsinitiativ till individuella preferenser, vilket förbättrar kundupplevelsen och ökar engagemanget. Predictive analytics tillåter marknadsförare att förutse framtida trender och konsumentbeteenden. ML har även transformerat SEO och innehållsmarknadsföring, sociala medier marknadsföring och e-postmarknadsföring. Trots utmaningar och etiska överväganden som datasekretess, är framtiden för ML i marknadsföring ljus och lovande.

Direktlänk Dela US Times Post fördjupade 31 december

Konfidentiell information kan användas av AI-chatbotar som OpenAI´s ChatGPT

OpenAI´s AI-chatbot, ChatGPT, kan använda personlig information i vissa fall, enligt företagets sekretesspolicy. Detta inkluderar OpenAI-kontodata som användarens namn eller betalkortinformation, personlig information som användaren utbyter med ChatGPT eller företaget, samt data som användaren ger företaget i dess undersökningar eller evenemang. Företag som OpenAI, Microsoft och Google kan avslöja information till tjänsteleverantörer för att uppfylla sina affärsbehov. Generativ AI, som ChatGPT, drar nytta av en stor mängd data, varav en del är personlig, och genererar originalinnehåll utifrån den informationen.

Direktlänk Dela El País fördjupade 29 december

EU når politisk överenskommelse om banbrytande AI-lag

EU har nått en politisk överenskommelse om sin banbrytande artificiella intelligenslag (AI-lag), som först föreslogs 2021. Lagen är riskbaserad, vilket innebär att ju större risk, desto strängare reglering. Den innehåller en lista över förbjudna AI-applikationer, de flesta skadliga för integriteten. Vissa undantag kommer att finnas för brottsbekämpning och militära eller försvarsändamål. System klassificerade som ´hög risk´ kommer att vara föremål för en rad skyldigheter. Företag som bryter mot de nya reglerna riskerar böter från €35 miljoner till €7,5 miljoner, beroende på överträdelsen och företagets storlek. Lagen kommer att bli tillämplig två år efter ikraftträdandet, vilket troligen kommer att ske tidigt nästa år.

Direktlänk Dela Private Internet Access fördjupade 15 december

EU når kompromiss om AI-lag

Den lagstiftningsprocess som inleddes den 21 april 2021 med Europeiska kommissionens förslag till AI-lag har nått en kompromiss. Rådet antog förhandlingsmandatet för förslaget den 25 november 2022 och parlamentet bekräftade sin position i en plenaromröstning den 14 juni 2023. Efter att Spanien tog över ordförandeskapet för rådet i juli meddelade rådet att AI-lagen skulle prioriteras. Förhandlingarna tycktes dock stanna av den 10 november 2023 när Tyskland, Frankrike och Italien starkt motsatte sig parlamentets stränga tillvägagångssätt för reglering av grundmodeller. Rådet föredrog en lättare metod för självreglering genom uppförandekoder, vilket skulle ha tillåtit utvecklare av grundmodeller att anta en frivillig överensstämmelsemekanism. För att övervinna det resulterande dödläget enades parlamentet och rådet om en stegvis metod för att införa ett strängare system för ´hög-impact´ grundmodeller och allmänna AI-system, vilket banade väg för en slutlig kompromiss. Regleringen av så kallade grundmodeller har lockat mycket lagstiftningsuppmärksamhet och kontrovers under de senaste månaderna. Enligt den nu uppnådda kompromissen kommer AI-lagen att skilja mellan de regler och skyldigheter som gäller för alla grundmodeller och de extra som gäller för särskilt kraftfulla, ´systemiska´ grundmodeller. Leverantörer av alla grundmodeller - med undantag för de som är ´open source´ - förväntas vara skyldiga att följa vissa öppenhetskrav. Speciella regler kommer också att gälla för särskilt kraftfulla grundmodeller. AI-lagen fokuserar på högrisk-AI-system, för vilka den fastställer ett antal krav. Utvecklare och organisationer som använder eller driver högrisk-AI-system är de två huvudparterna som omfattas av AI-lagen. Obligationer placeras främst på utvecklarna (´leverantörer´). De är skyldiga att genomföra ett brett utbud av tekniska och styrningsåtgärder innan AI-systemet säljs, licensieras eller används i en produktionsmiljö. Dessutom måste högrisk-AI-system utformas och utvecklas för att uppnå noggrannhet, robusthet, cybersäkerhet, hållbarhet och livslängd. För användarna av högrisk-AI-system inkluderar skyldigheterna att endast använda AI-systemet i enlighet med den tekniska dokumentation som tillhandahålls av leverantören; övervaka systemets drift löpande; genomföra en obligatorisk grundläggande rättighetspåverkan bedömning innan ett AI-system tas i bruk; och rapportera eventuella funktionsfel som upptäckts till leverantörerna. Begränsade risk-AI-system måste följa öppenhetskrav, i synnerhet att informera naturliga personer om att de interagerar med ett AI-system eller avslöja att innehåll har genererats av en artificiell intelligens. AI-lagen kommer troligen inte att ställa några krav på lågrisk-AI-system. Istället uppmuntrar det leverantörer att utveckla frivilliga uppförandekoder. Det finns ett begränsat antal AI-användningsfall som anses utgöra en oacceptabel risknivå för EU-medborgare och är därför förbjudna. Dessa kommer att inkludera, till exempel, AI-system som: innebär ospecifikt skrapning av ansiktsbilder från internet för att skapa ansiktsigenkänningsdatabaser; känslomässiga igenkänningssystem som används på arbetsplatsen; Använda subliminala tekniker bortom nivån för mänskligt medvetande; utnyttja sårbarheterna hos vissa individer på grund av deras ålder, fysiska eller psykiska funktionshinder för att betydligt förvränga deras beteende; och involverar sociala poängsystem för att utvärdera personliga egenskaper. EU-institutionerna kom överens om att en rad maximala böter kommer att gälla för överträdelser av AI-lagen. Dessa varierar från €35 miljoner eller 7% global omsättning (som är högre än GDPR) till €7,5 miljoner eller 1,5% global omsättning, beroende på företagets storlek och den specifika överträdelsen av AI-lagen. Nästa steg Den politiska överenskommelsen mellan EU-institutionerna måste nu översättas till en slutlig lagtext. Tekniska trilogmöten planeras till den 11 och 13 december 2023, under vilka detaljerna kommer att arbetas igenom. Detta kommer att följas av en slutlig språklig granskning. Det förväntas att denna process kan ta mellan en till tre månader. Efter detta kommer AI-lagen att formellt antas och publiceras. När den väl har antagits kommer organisationer att ha två år på sig att förbereda sig för efterlevnad innan förordningen blir verkställbar. Men när det gäller förbjudna AI-system kommer sådana förbud att bli verkställbara efter sex månader. Det är mycket viktigt att AI-lagen kommer att bli en modell för global AI-styrning på ett liknande sätt som GDPR har blivit en modell för dataskyddsbestämmelser runt om i världen. Men komplexiteten i AI-lagen och de juridiska nyheterna som den introducerar kommer sannolikt att skapa betydande organisatoriska utmaningar för leverantörer och användare av AI-system. Det kommer därför att bli avgörande att ägna betydande resurser och ansträngningar åt att förstå den praktiska effekten av det nya ramverket för att vara redo för efterlevnad när tiden kommer.

Direktlänk Dela JD Supra fördjupade 11 december

Google lanserar Gemini, en ny stor språkmodell, men EU och Storbritannien är uteslutna

Den 6 december avtäckte Google Gemini, en ny stor språkmodell (LLM) med tre olika lägen: Nano, Pro och Ultra. Den nya varianten Gemini Pro driver nu Bard i USA och över 170 andra länder, men Europeiska unionen och Storbritannien är för närvarande uteslutna. Anledningen är främst regleringar. Google är i aktiva diskussioner med UK´s Safety Institute och godkännande bör anlända någon gång nästa år. Vad gäller EU måste GDPR godkänna nya LLM:er och säkerställa att de uppfyller alla regler för AI. Google kommer att ge en förhandsvisning av Bard Advanced till Europa 2024, som kommer att köras på Gemini Ultra.

Direktlänk Dela Android Authority fördjupade 7 december

Uppmaning till feedback på teknikbrief med GDPR-regler

Artikeln handlar om åsikter kring en teknikbrief och uppmanar läsare att lämna feedback. Men för att följa GDPR-reglerna, ber författaren att ingen personlig information som namn, telefonnummer eller e-postadress ska inkluderas i kommentarerna. Om läsare har frågor om sin prenumeration eller tekniska problem, bör de kontakta kundservice.

Direktlänk Dela Svenska Dagbladet fördjupade 7 december

Förhandlingar om reglering av AI inom EU närmar sig slutet

Efter fem månaders förhandlingar om AI-akten mellan EU-lagstiftare, planeras ett försök att nå en politisk överenskommelse den 6 december under det spanska ordförandeskapet. En av de största frågorna är hur generativ AI ska regleras. Näringslivet har efterfrågat tydlig reglering kring vad AI-teknik inte får användas till. Förslaget inkluderar en teknikneutral del, samt en rad regler i andra lagar som fortsatt kommer att gälla, såsom diskriminering, produktsäkerhet, produktansvar och GDPR. Dessutom införs krav på användning inom definierade högriskområden.

Direktlänk Dela Svenskt Näringsliv fördjupade 5 december

AI:s säkerhetsrisker och hur företag kan hantera dem

Artificiell intelligens (AI) används allt mer i olika branscher, men medför även säkerhetsrisker. AI-verktyg som ChatGPT kan användas för att skapa övertygande phishing-mejl, vilket oroar säkerhetschefer. Företagens säkerhetschefer (CISOs) behöver balansera riskerna med fördelarna med AI. Stora språkmodeller (LLMs) som ChatGPT från OpenAI, LLaMA från Meta och Googles PaLM2 kan i fel händer ge dåliga råd till användare, uppmuntra dem att avslöja känslig information eller skapa sårbar kod. Företag kan hantera dessa risker genom att utveckla samarbetspolicys som omfattar alla avdelningar och nivåer i organisationen, samt genom att utbilda personalen om riskerna med AI.

Direktlänk Dela Help Net Security fördjupade 4 december

EU:s AI-lag riskerar att försenas

EU:s AI-lag, en omfattande uppsättning regler och bestämmelser för AI-system som tycks vara modellerade efter EU:s inflytelserika dataskyddsförordning GDPR, verkar vara på väg att stöta på problem. Lagförslaget har varit under arbete sedan 2017 och var nära att slutföras. Ursprungligen var planen att anta lagen före 2024 för att undvika att den skulle bli en valfråga under EU-valet 2024. Nu tycks dock antagandet av lagen bli försenat. Tre av EU:s största medlemsländer - Frankrike, Italien och Tyskland - har uttryckt oro över lagen och vill ändra delar av den innan de godkänner den. Det finns flera konkurrerande politiska preferenser mellan den ursprungliga utkastet från Europeiska kommissionen, förslag från Europaparlamentet och förslag från de tre nyckelmedlemsstaterna.

Direktlänk Dela The National Law Review fördjupade 1 december

Generativ AI förändrar arbetsplatser

Generativ AI håller på att förändra traditionella arbetsmetoder och öka produktiviteten inom olika sektorer. Denna AI-teknik kan skapa innehåll från grunden, vilket inkluderar texter, bilder, musik och videor. Generativ AI har potential att automatisera innehållsgenerering, förbättra kreativiteten och öka effektiviteten och produktiviteten. Men det finns också utmaningar, såsom datasekretess och behovet av att följa lokala och internationella dataskyddsförordningar. En annan fråga är om användare behöver avslöja för sina arbetsgivare att de har använt AI för vissa uppgifter. Reglering av generativ AI är en komplex utmaning för regeringar över hela världen.

Direktlänk Dela Dentons.com fördjupade 30 november

Sju steg för att framgångsrikt implementera AI i företag

Enligt McKinsey har detta år blivit ett verkligt genombrott för AI inom företag från olika domäner över hela världen. Från att automatisera rutinuppgifter till att ge djupa insikter från data, förvandlar AI-teknologier industrier över hela världen. Men att framgångsrikt integrera AI i affärsverksamheten är ingen liten bedrift och kräver en väl genomtänkt strategi. Artikeln syftar till att avmystifiera processen och erbjuda bästa tips för företag som vill utnyttja kraften i AI. Här är stegen för effektiv AI-implementering: 1. Definiera klara mål och användningsfall 2. Säkerställ datakvalitet och tillgänglighet 3. Välj rätt AI-verktyg 4. Prova det valda AI-verktyget och samla in feedback 5. Testning och iteration 6. Förändringshantering och adoption 7. Övervakning och kontinuerlig förbättring.

Direktlänk Dela TechGenYZ fördjupade 29 november

Generativa AI-tillägg för säkerhetskopiering och katastrofåterställning: Mer hype än verklighet?

Företag inom säkerhetskopiering och katastrofåterställning vill att deras generativa AI-assistenter blir företagens nya bästa vän, men fördelarna är fortfarande oklara. Dessa GenAI-tillägg inkluderar någon form av chattbot för att automatisera uppgifter eller rapporteringsuppgifter, med en rad andra funktioner, såsom kodgenerering eller varningshantering. Jerome Wendt, VD för Data Center Intelligence Group, säger att dessa tillägg handlar mer om att hålla en produkt i diskussionen snarare än att meningsfullt förändra verksamheten. Sid Nag, vice ordförande och analytiker på Gartner, säger att leverantörer måste göra ett starkt fall för hur deras egna AI-vändningar inte äventyrar kundens säkerhet och erbjuder mervärde.

Direktlänk Dela TechTarget fördjupade 28 november

Barn och tonåringar utsätts för risker genom AI-chattbotar

Företag har börjat införa generativa AI-verktyg i befintliga produkter som används av barn och tonåringar, vilket utsätter dem för risker som ännu inte har studerats och förståtts fullt ut. Ett exempel är integrationen av en AI-chattbot i Snapchat, en app som används av över 109 miljoner barn och tonåringar dagligen. Teknikindustrin kan dock vidta åtgärder för att skydda mot fel- och desinformation, såsom realtidsfaktagranskning och transparens etiketter. Dessutom kan implementering av effektiva åldersverifieringsverktyg minska risken för olämpliga råd till minderåriga.

Direktlänk Dela Forbes Media fördjupade 28 november

Artificiell intelligens (AI) blir allt viktigare i marknadsföringstaktiker och förändrar hur företag interagerar med sina målmarknader. AI erbjuder sofistikerade verktyg och strategier som överträffar konventionella metoder. Fördelarna inkluderar datadriven beslutsfattande, förbättrad personalisering och automatisering för effektivitet. Nackdelarna inkluderar initiala implementeringskostnader och problem med datasekretess. Att skapa en framgångsrik AI-marknadsföringsstrategi kräver en systematisk metod som integrerar flera komponenter. Företag kan generera intäkter med Shopify genom att integrera AI i sina verksamheter.

Sepoy fördjupade 27 november

AI i cybersäkerhet: Löften, fallgropar och balansering

Artificiell intelligens (AI) har framträtt som ett kraftfullt vapen mot cyberhot, med förmågan att analysera stora datamängder, identifiera mönster och upptäcka anomalier i realtid. AI erbjuder avancerad hotdetektering, beteendeanalys, automatiserade svar och kontinuerligt lärande. Trots dess sofistikation är AI dock mottagligt för fientliga attacker. Cyberbrottslingar kan manipulera AI-modeller genom att introducera subtila förändringar i indata, vilket lurar systemet att missklassificera information. Överförtroende på AI utan mänsklig tillsyn kan leda till eftergivenhet. AI-driven cybersäkerhet innebär ofta analys av stora mängder data, inklusive användarbeteende och personlig information, vilket väcker legitima integritetsproblem. Implementering av AI i cybersäkerhet introducerar komplexitet och integrationsutmaningar.

Direktlänk Dela TechBullion fördjupade 25 november

Förklarbar AI-marknad förväntas växa från 6,2 miljarder USD till 16,2 miljarder USD fram till 2028

Storleken på marknaden för förklarbar AI (XAI) förväntas växa från 6,2 miljarder USD 2023 till 16,2 miljarder USD 2028, med en genomsnittlig årlig tillväxttakt (CAGR) på 20,9% under prognosperioden. Ökade regler och krav på transparens och ansvar i AI-system driver efterfrågan på XAI-lösningar för att säkerställa överensstämmelse med lagar som GDPR och HIPAA. Inom hälso- och sjukvårdssektorn förväntas XAI växa mest under prognosperioden. XAI-teknologier används för att göra AI-modellernas förutsägelser och rekommendationer mer transparenta och tolkningsbara.

Direktlänk Dela Digital Journal fördjupade 20 november

AI och ML kan revolutionera anomalidetektion för att förbättra företags cybersäkerhet

Sociala medier är ett viktigt verktyg för företag, men det är också fullt av så kallade anomalier, som hatprat, bedrägerier och cybersäkerhetshot. Maskininlärning (ML) och artificiell intelligens (AI) har revolutionerat anomalidetektion, vilket gör det möjligt för företag att utföra anomalidetektion snabbare och mer effektivt. Med hjälp av AI-drivna lösningar kan företag detektera olika anomalier i olika typer av innehåll, inklusive text, bilder och videor. Det finns dock flera utmaningar att navigera medan man bygger ett AI-drivet anomalidetektionsverktyg för ditt företag, inklusive att säkerställa kvalitetsdatauppsättningar för anomalidetektion, hantera fördomar i anomalidetektionsalgoritmer, överväga priset på molnhårdvara för att vara värd för anomalidetektionsprogramvara, skydda användarnas integritet och täcka behovet av nisch anomalidetektionsexpertis.

Direktlänk Dela Forbes Media fördjupade 18 oktober

» Nyheterna från en dag tidigare

Några av våra kursdeltagare