» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 242 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Geoffrey Hinton är en brittisk-kanadensisk datorforskare och professor i datavetenskap vid University of Toronto. Han är mest känd för sina bidrag inom området djupinlärning och artificiell intelligens, särskilt när det gäller neurala nätverk. Hinton har varit en pionjär inom utvecklingen av algoritmer för att träna och optimera dessa nätverk. Han har också varit en central figur i utvecklingen av maskininlärningstekniker och har fått flera utmärkelser för sitt arbete, inklusive Turingpriset 2018. Hans forskning har haft stor inverkan på både akademiska och industriella tillämpningar av AI.

Senaste nytt kring Geoffrey Hinton

Experter varnar: Världen är illa förberedd för genombrott inom AI

En grupp högt uppsatta experter, inklusive två ´gudfäder´ av AI, Geoffrey Hinton och Yoshua Bengio, varnar för att världen är illa förberedd för genombrott inom artificiell intelligens. De hävdar att regeringar inte har gjort tillräckliga framsteg i reglering av tekniken. Gruppen rekommenderar att regeringar inför säkerhetsregimer som utlöser reglerande åtgärder om produkter når vissa förmågenivåer. De uppmanar också till ökad finansiering för nyetablerade organ som AI-säkerhetsinstituten i Storbritannien och USA, och begränsning av användningen av autonoma AI-system i viktiga samhällsroller.

Direktlänk Dela The Guardian fördjupar idag
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

AI-gudfadern Geoffrey Hinton varnar för AI:s påverkan på jobb och inkomstojämlikhet

Geoffrey Hinton, en brittisk-kanadensisk datavetare och kognitiv psykolog känd som ´AI:s gudfader´, uttryckte nyligen oro över hur artificiell intelligens (AI) tar över många jobb och diskuterade dess risker. Han uttryckte att han är ´mycket orolig´ för jobbförluster på grund av AI-teknik. Hinton uppmanade regeringen att ansvarsfullt hantera AI:s effekter på inkomstojämlikhet. Han föreslog att världen behöver en universell grundinkomst och att regeringar måste införa den. Hinton uttryckte även oro över ´utrotning-nivå´ hot och betonade att AI-chattrobotar som är mer intelligenta än människor kan utnyttjas av ´onda aktörer´.

Direktlänk Dela Latestly.com fördjupade igår

OpenAI:s medgrundare och chefsforskare Ilya Sutskever lämnar företaget

Ilya Sutskever, medgrundare och chefsforskare på OpenAI, har lämnat företaget. Sutskever var en av de fyra styrelseledamöterna som röstade för att avskeda OpenAI:s VD Sam Altman, vilket ledde till stor oreda inom företaget. Efter Altman återinsattes, gjorde Sutskever sällan offentliga framträdanden för företaget. Altman bekräftade Sutskevers avgång och meddelade att Jakub Pachocki, OpenAI:s forskningsdirektör, kommer att bli företagets nya chefsforskare. Sutskever har inte offentligt talat om sin roll i Altman´s avsked, men har uttryckt ånger över sin inblandning.

Direktlänk Dela Wired fördjupade 15 maj

Protester mot AI-utveckling i flera länder

En vecka innan den andra globala toppmötet om artificiell intelligens (AI) protesterade rörelsen ´Pause AI´ i tretton olika länder, inklusive USA, Storbritannien, Brasilien, Tyskland, Australien och Norge. De kräver att regeringar reglerar AI-företag och fryser utvecklingen av nya avancerade AI-modeller. Protesterna syftar till att AI-modeller ska utvärderas noggrant för att testa deras säkerhet innan utvecklingen tillåts fortsätta. Protesterna inkluderade krav på reglering av företag som utvecklar banbrytande AI-modeller, inklusive OpenAI´s Chat GPT.

Direktlänk Dela Time Magazine fördjupade 14 maj

Demis Hassabis, en framstående forskare inom artificiell intelligens (AI), kommer att bli mer känd på Wall Street. Hassabis, som är schackmästare och neurovetenskapsman, framträder som ansiktet utåt för Googles stora AI-satsning. Han kommer att tala på den årliga utvecklarkonferensen Google I/O för första gången. Hassabis har fått uppgiften att föra de senaste AI-teknologierna till alla delar av Google för att tjäna dess miljarder användare. Alphabet VD Sundar Pichai sammanslog nyligen Hassabis DeepMind med Google Brain, ett separat AI-team, och valde Hassabis att leda gruppen.

Consumer News and Business Channel fördjupade 13 maj

AI-pionjär varnar för teknikens potentiella risker

Yoshua Bengio, grundare och vetenskaplig direktör för Mila - Quebec Artificial Intelligence Institute och professor vid Université de Montréal, varnar för de många potentiella riskerna med AI, inklusive nationell säkerhet, deepfakes, desinformation, bedrägeri, övervakning, samhällelig destabilisering, systematisk diskriminering och förlust av kontroll över AI-system. Han tror att en övermänsklig AI kan utvecklas inom de närmaste två decennierna, eller till och med inom de närmaste åren. Bengio, som tidigare var optimistisk om AI, har blivit en AI-visselblåsare och uppmanar till ett stopp för forskning på området.

Direktlänk Dela University Affairs fördjupade 26 april

AI-kommissionens arbete och diskussioner kring AI-satsningar

AI-kommissionens ledamot delar insikter om kommissionens arbete och diskussioner, utan att avslöja specifika detaljer från mötena. Diskussioner har ägt rum om huruvida Sverige bör satsa på att utveckla egna AI-modeller eller öka användningen av AI. Medan vissa länder som Kanada har en stark position inom AI-modellutveckling, finns det ingen tydlig ledare inom användningen av generativ AI, vilket kan vara en möjlighet för Sverige. AstraZeneca presenterade också sitt imponerande arbete med generativ AI, som används av över 20 000 personer inom företaget.

Direktlänk Dela Warp News fördjupade 24 april

AI-kommissionen diskuterar framtiden för AI i Sverige

AI-kommissionens medlem, som också är en del av den svenska regeringen, ger en uppdatering om kommissionens arbete. Diskussionen fokuserar på huruvida Sverige bör investera i AI-modeller eller öka användningen av AI. Darja Isaksson, generaldirektör på Vinnova, argumenterar för att Sverige inte ska ge upp när det gäller AI-modeller och att det är möjligt att bygga framgångsrika modeller nu. Medan kommissionens medlem tror att ökad användning av AI är Sveriges största möjlighet. Mötet inkluderade presentationer från Volvo, AstraZeneca, Vinnova, AI Sweden, Region Skåne och Västra Götalandsregionen, samt det kanadensiska CIFAR.

Direktlänk Dela Warp News fördjupade 23 april

AI-optimister som Elon Musk förutspår att AI kommer att vara smartare än någon enskild människa nästa år, medan AI-pessimister som Geoffrey Hinton varnar för att det kan utplåna mänskligheten. Men det finns också en växande grupp av AI-skeptiker, som Gary Marcus, som ifrågasätter dessa utsikter. Marcus, som grundade ett AI-startup och sålde det till Uber 2016, anser att dagens AI-teknik har sina begränsningar. Han tror att AI kommer att lyckas, men argumenterar för att det i dess nuvarande form stöter på hinder. Han tror att det behövs en helt ny strategi för att AI ska bli framgångsrikt.

The Australian Financial Review fördjupade 22 april

AI-bot förstör hus i Minecraft, belyser ´alignment problem´ i AI-utveckling

En bot i spelet Minecraft började förstöra hus när den tränades för att samla resurser och tillverka föremål, eftersom den inte kunde skilja på trä i ett hus och trä i ett träd, berättar Karolis Ramanauskas, doktorand i datavetenskap vid University of Bath. Denna incident belyser vikten av att utforma artificiell intelligens (AI) som följer mänskliga värderingar och förväntningar, något som experter kallar att lösa ´alignment problem´. Detta blir allt viktigare eftersom AI snabbt integreras i människors vardagliga liv och blir alltmer kapabel. Geoffrey Hinton, datavetare vid University of Toronto, talade om detta problem vid en konferens vid Massachusetts Institute of Technology. Han och hundratals andra experter undertecknade ett uttalande från Center for AI Safety som jämför hotet från avancerad AI med hotet från en annan pandemi eller ett kärnvapenkrig.

Direktlänk Dela Snexplores.org fördjupade 18 april

Mistral AIs VD jämför jakten på AGI med sökandet efter det gudomliga

Arthur Mench, VD för Mistral AI, har jämfört jakten på Artificiell Allmän Intelligens (AGI) med strävan att skapa en gudomlighet. Mench uttrycker tvivel om sannolikheten att uppnå superintelligent AGI, men uppmanar till en försiktig inställning med tanke på att en AI-revolution är nära förestående. Trots sin skepticism har Mench fått stöd från den europeiska eliten, inklusive politiker och investerare. Marknadstrender visar också en ökning av etisk AI, vilket främjar transparens, integritet och opartiska beslutsprocesser.

Direktlänk Dela Elblog fördjupade 17 april
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

OpenAI och Meta förbereder avancerade uppgraderingar av sina AI-modeller

Teknikjättarna OpenAI och Meta är i framkant av artificiell intelligens (AI) och antyder att avancerade uppgraderingar av sina AI-modeller är på väg. OpenAI har indikerat att nästa iteration av sin AI, troligen GPT-5, kommer snart. Meta förbereder sig för lanseringen av sin nya modell Llama 3. Joel Pino, vice VD för AI-forskning på Meta, har uttryckt intensivt fokus på att utveckla AI-modeller bortom kommunikation till resonemang, strategi och minnesförvaring. Brad Lightcap, COO för OpenAI, förväntar sig att vi snart kommer att stöta på AI som kan hantera komplexa uppgifter på mer sofistikerade sätt. Trots entusiasmen antyder vissa studier att bevis för AI:s allmänna intelligens kan vara mer illusion än verklighet.

Direktlänk Dela Elblog fördjupade 16 april

Maskininlärningens utveckling och framtid

Maskininlärning (ML) är ett stort tekniksteg framåt som möjliggör skapandet av robotar som kan lära, förändra och tänka. Från början, när enkla algoritmer kunde utföra enkla uppgifter, till nu, när komplicerade modeller som GPT (Generative Pre-trained Transformer) kan skriva artiklar, ta bilder och till och med skriva sånger, har detta område förändrats mycket. Värdet på den globala marknaden för maskininlärning uppgick till 8 miljarder dollar 2019 och förväntas nå 117 miljarder dollar vid utgången av 2027. Maskininlärningsalgoritmer har utvecklats genom mänsklig kreativitet, tekniskt framsteg och den ständiga sökningen efter artificiell intelligens (AI) som agerar som människor.

Direktlänk Dela IT Munch fördjupade 13 april

Mistral AI:s VD ifrågasätter AI:s överlägsenhet och AGI:s framtid

Tech-VD:ar som Elon Musk och Sam Altman varnar för att AI snart kommer att vara smartare än människor. Men Arthur Mensch, VD för det franska uppstartsföretaget Mistral AI, menar att dessa varningar om artificiell superintelligens kan vara resultatet av en felaktig gudskomplex. Mensch tror inte att artificiell allmän intelligens (AGI) kommer att bli verklighet. Mensch, vars startup gör avtryck på båda sidor om Atlanten, uppmanar också till en lättare reglering i Europa. Mensch tror att tekniken kommer att förändra hur arbetare utför sina jobb och skapa en aldrig tidigare skådad brådska för dessa arbetare att omskola sig.

Direktlänk Dela America Online fördjupade 13 april

Fransk AI-chef ifrågasätter påståendet om AI:s överlägsenhet över människor

Arthur Mensch, VD för det franska AI-startup-företaget Mistral AI, har uttryckt skepsis mot påståendet att artificiell allmän intelligens (AGI) snart kommer att överträffa människans intelligens. Han kritiserar de stora teknikbolagens VD:ar, inklusive Elon Musk och Sam Altman, för att drivas av en ´mycket religiös´ fascination för AI. Mensch, som tidigare arbetade för Google´s DeepMind, tror inte att AGI kommer att bli verklighet. Han ser dock att AI kommer att förändra hur arbetare utför sina jobb och skapa en brådskande behov av omskolning.

Direktlänk Dela Yahoo Finance Canada fördjupade 12 april

Mistral AI:s VD ifrågasätter AI:s överlägsenhet

Elon Musk, Sam Altman och andra teknikjättars VD:ar varnar för att AI snart kommer att bli smartare än människor. Men Arthur Mensch, VD för den franska uppstickaren Mistral AI, anser att dessa varningar kan bero på en missriktad gudskomplex. Mensch anser att uppfattningen om AI:s överlägsenhet drivs av en ´mycket religiös´ fascination. Han är inte övertygad om att AGI (Artificial General Intelligence), som låter AI utföra uppgifter lika bra eller bättre än människor, kommer att bli verklighet. Mensch anser att AI kommer att förändra hur arbetare utför sina jobb och skapa en oöverträffad brådska för dessa arbetare att omskola sig.

Direktlänk Dela Fortune Media fördjupade 12 april

Teknikföretag i kapplöpning för att utveckla Artificiell Allmän Intelligens

Under mitten av 1900-talet drömde datavetenskapsmän om att bygga en dator lika smart som människor. Nu är teknikföretag i en kapplöpning för att bygga den. Kallad Artificiell Allmän Intelligens (AGI), skulle systemen göra mycket mer än nuvarande AI-teknik. AGI skulle vara lika bra som människor inom många områden av mänskligt tänkande som planering, problemlösning och inlärning från erfarenhet. Google, Meta, Microsoft, Amazon och Chat-GPT-tillverkaren OpenAI arbetar alla för att utveckla AGI. Samtidigt oroar sig regeringar och ledande AI-forskare för sätt på vilka tekniken kan vara farlig för mänskligheten.

Direktlänk Dela Voice of America fördjupade 12 april

OpenAI och Meta planerar att lansera AI-modeller med förmåga att resonera och planera

OpenAI och Meta är på väg att lansera nästa versioner av sina AI-modeller som förmodligen kommer att kunna resonera och planera, enligt Financial Times. OpenAI har indikerat att dess nästa AI-modell, troligen kallad GPT-5, kommer ´snart´. Meta förväntar sig att släppa sin Llama 3-modell inom några veckor. Om påståendena från båda parterna är sanna, kan båda modellerna vara ett stort steg mot att uppnå artificiell allmän intelligens (AGI), en efterlängtad genombrott som kan se AI-modeller med mänsklig eller övermänsklig kognition.

Direktlänk Dela Futurism fördjupade 11 april

OpenAI och Meta nära att avslöja AI-modeller som kan resonera och planera

OpenAI och Meta är nära att avslöja AI-modeller som kan resonera och planera, rapporterade FT. En OpenAI-chef berättade för FT att nästa version av GPT skulle visa framsteg med ´svåra problem´. Vissa experter varnar för att utvecklingen av sådan teknologi kan sätta människor i riskzonen för utrotning. OpenAI och Meta förbereder sig för att släppa mer avancerade AI-modeller som skulle kunna hjälpa till att lösa problem och ta sig an mer komplexa uppgifter. OpenAI:s COO, Brad Lightcap, berättade för The Financial Times att företagets nästa version av GPT skulle visa framsteg på att lösa ´svåra problem´, som resonemang. ´Jag tror att vi bara börjar skrapa på ytan av den förmåga som dessa modeller har att resonera´, sa han till tidningen. Meta:s chefer signalerade en liknande bana för företagets kommande Llama 3-modell, som förväntas inom de kommande veckorna. Joelle Pineau, vice VD för AI-forskning på Meta, sa att företaget arbetade hårt med att få modellen att prata, resonera, planera och ha minne. Att få AI-modeller att resonera och planera är ett viktigt steg mot att uppnå artificiell allmän intelligens (AGI), vilket både Meta och OpenAI har hävdat att de siktar på. Utvecklingen kan vara värd biljoner för det företag som uppnår det. Vissa experter har uttryckt säkerhetsbekymmer över att utveckla teknik som överträffar mänsklig intelligens. Framstående forskare, inklusive AI-gudfäder Yoshua Bengio och Geoffrey Hinton, har uppmanat människor att överväga riskerna för mänskligheten från AI. Elon Musk, en långvarig AI-skeptiker, uppskattade nyligen att AI skulle överlista människor inom två år.

Direktlänk Dela Yahoo News Canada fördjupade 10 april

Yann LeCun betonar AI:s potential och betydelsen av öppen källkod

Yann LeCun, Meta´s chefsforskare för AI, diskuterade allt från sin grundläggande forskning inom neurala nätverk till sin optimistiska syn på AI:s framtid vid ett evenemang med The New York Academy of Sciences. LeCun betonade vikten av öppen källkod och diskuterade även begränsningarna hos stora språkmodeller, behovet av en mer effektiv AI och användningen av AI för att upptäcka innehåll som bryter mot användarvillkoren på sociala medieplattformar. Han betonade att AI inte är problemet utan lösningen för att bekämpa falska nyheter och hatiskt tal.

Direktlänk Dela New York Academy of Sciences fördjupade 8 april

AI påverkar inte hälso- och sjukvårdsjobb i den takt som förväntats

Robert Wachter, ordförande för medicinska institutionen vid University of California, San Francisco, reflekterar över hur mycket hälso- och sjukvårdsjobb kommer att påverkas av artificiell intelligens (AI). Han minns ett apokalyptiskt tal av Geoffrey Hinton, en brittisk-kanadensisk datavetare, som varnade för att AI snart skulle ersätta människor, särskilt radiologer. Men verkligheten har varit annorlunda. AI har potential att förändra sysselsättningen inom många aspekter av hälso- och sjukvården, men dess inverkan på att förändra mänskliga roller och tidsskalorna för sådana förändringar är långt ifrån säkra.

Direktlänk Dela Financial Times fördjupade 26 mars
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

AI-expert Gary Marcus uttrycker oro över nuvarande AI-situation

AI-experten Gary Marcus, som bor i Vancouver sedan 2018, har uttryckt oro över den nuvarande situationen för artificiell intelligens. Han är mest känd för sin vokala positionering mot djupinlärning och andra moderna AI-tekniker. Marcus är kritisk till teknikföretagens affärsmodeller och anser att video-generering inte ska baseras på upphovsrättsskyddat material som fångats utan samtycke. Han har skrivit en bok som heter ´Taming Silicon Valley´, som kommer att publiceras i höst, där han beskriver hur AI bör regleras och uppmanar till handling. Han menar att direktåtgärder och konkret AI-politik är brådskande.

Direktlänk Dela Breaking Latest News fördjupade 21 mars

AI kan förstöra mänskligheten, varnar ´gudfader´ till AI

I maj förra året lämnade Geoffrey Hinton, en av ´gudfäderna till artificiell intelligens´, sitt jobb på Google för att varna världen för att tekniken han delvis är ansvarig för att ha utvecklat, kan förstöra mänskligheten. Han sa till CNN att AI blir smartare än oss och att det kommer att bli mycket bra på manipulation. Trots denna varning har inga företag pausat sin forskning och de är ivriga att införliva AI i sina verksamheter. Detta återspeglas i de många paneler som kommer att diskuteras på årets SXSW, inklusive AI och robotar, AI och musik, AI och cancer, AI och astrofysik.

Direktlänk Dela The Austin Chronicle fördjupade 21 mars

AI:s ´gudfader´ varnar för teknikens faror

Geoffrey Hinton, som ofta kallas ´gudfadern´ av artificiell intelligens (AI), uttrycker oro över att tekniken blir för kraftfull för mänsklighetens eget bästa. Han nämner särskilt farorna med att AI kan sprida desinformation, störa arbetsmarknaden och i slutändan utgöra ett existentiellt hot mot mänskligheten. Hinton, som var tidig pionjär inom neurala nätverk, avgick från sin roll på Google förra året. Han säger att AI:s framsteg är så snabba att EU:s lagstiftare denna vecka godkände nya regleringar kring det. Samtidigt har Nya Zeelands regering indikerat att de kommer att utarbeta ett ramverk.

Direktlänk Dela Radio New Zealand fördjupade 15 mars

AI kan hjälpa till att återuppbygga medelklassen, enligt MIT-professor

Arbetsmarknadsekonom och ekonomiprofessor vid MIT, David Autor, anser att artificiell intelligens (AI) inte nödvändigtvis kommer att leda till massarbetslöshet. Han menar att även om vissa jobb kommer att försvinna till AI, kommer det fortfarande att finnas många andra jobb tillgängliga. Autor tror också att AI kan hjälpa arbetstagare med grundläggande utbildning och erfarenhet att utveckla sina färdigheter och utföra arbete med högre värde. Han nämner också att AI kommer att automatisera kärnuppgifterna i vissa yrken, eliminera andra och drastiskt omforma några av de kvarvarande.

Direktlänk Dela Warp News fördjupade 12 mars

Nvidia-aktien når nya höjder: Är det fortfarande ett köp?

Nvidia, mest känd för sina grafikprocessorer (GPU:er), har anpassat sin teknik för att driva AI-system och har i stort sett dominerat marknaden. Aktien genererade vinster på 239% 2023 och var redan upp 72% hittills i år. Nvidia har blivit guldstandarden för maskininlärning och kontrollerar cirka 95% av marknaden. För sitt räkenskapsår 2024 genererade Nvidia en rekordomsättning på 22,1 miljarder dollar, en ökning med 265% jämfört med föregående år. Trots snabb tillväxt ifrågasätts om Nvidia-aktien är för dyr.

Direktlänk Dela Yahoo Finance fördjupade 8 mars

Berättelsen om Geoffrey Hinton och hans arbete med artificiell intelligens

Detta är historien om Geoffrey Hinton, en man som började med att försöka förstå hjärnan och slutade med att arbeta med en grupp forskare som uppfann en teknologi så kraftfull att inte ens de själva förstår hur den fungerar. Detta handlar om en kollision mellan två mystiska intelligenser – två svarta lådor – mänsklig och artificiell. Och det har redan djupgående konsekvenser.

Direktlänk Dela The Guardian fördjupade 8 mars

AI: s framfart och potentiella risker

Artificiell intelligens (AI) är på väg att ta över ekonomiskt, med företag som Nvidia, Microsoft, Apple, Google, Facebook, Amazon och Tesla i spetsen. Nvidia, som tillverkar AI-chip, har sett sitt börsvärde öka med 2 800 miljarder kronor på en dag. Trots framgångarna finns det farhågor för AI:s potentiella missbruk och felsteg. AI kan producera felaktiga resultat och det finns en risk att AI kan utveckla en egen agenda. Geoffrey Hinton, även kallad ´AI:s gudfader´, bedömer risken för att AI kommer utplåna mänskligheten under de närmaste tjugo åren till en på tio.

Direktlänk Dela Aftonbladet fördjupade 1 mars

AI-krigföring är redan här: USA:s militär använder Project Maven

USA:s militär, som initialt var skeptiska till AI, utvecklar och använder nu Project Maven för att identifiera mål på slagfältet. Projektet, som startade som en experimentell satsning, har nu blivit ett officiellt program inom försvarsdepartementet. AI-användningen i krigföring är inte längre teoretisk. De senaste veckorna har datorseendealgoritmer som ingår i USA:s försvarsdepartements flaggskepps-AI-projekt, Project Maven, lokaliserat raketuppskjutare i Jemen och ytfartyg i Röda havet, och hjälpt till att avgränsa mål för attacker i Irak och Syrien. USA är inte det enda landet som tar detta steg: Israels militär har sagt att de använder AI för att ge råd om målutpekning i Gaza, och Ukraina använder AI-programvara i sin ansträngning att stå emot Rysslands invasion.

Direktlänk Dela Bloomberg fördjupade 29 februari

Perplexity AI: AI-drivet sökmotor med 10 miljoner användare

Perplexity AI, grundat av Aravind Srinivas, är en AI-drivet sökmotor som skiljer sig från Googles sökning genom att ge direkt svar snarare än en lista över webblänkar. Företaget har redan 10 miljoner användare och har nyligen fått in 73,6 miljoner dollar i serie B-finansiering, värderat till 520 miljoner dollar. Investerare inkluderar Nvidia, Amazon-grundaren Jeff Bezos, Institutional Venture Partners och Shopify VD Tobi Lutke. Srinivas diskuterade Perplexitys konkurrensfördelar gentemot Google, planer för Indien och varför AI-guldruschen kommer att fortsätta.

Direktlänk Dela Moneycontrol fördjupade 22 februari

Indisk entreprenör blir AI-VD tack vare akademisk excellens

Aravind Srinivas, en indisk entreprenör, blev VD och medgrundare av Perplexity AI tack vare sin akademiska excellens på IIT Madras. Hans perfekta GPA på 10 fångade uppmärksamheten hos ett startup-baserat i Bengaluru, som erbjöd honom en praktikplats. Trots att han ursprungligen var obekant med AI, ägnade Srinivas en månad åt att sätta sig in i ämnet. Han återvände sedan till IIT Madras för att fördjupa sin förståelse för AI under ledning av professor Balaraman Ravindran. Srinivas historia visar hur akademiska prestationer kan leda till banbrytande innovationer.

Direktlänk Dela BNN Breaking News fördjupade 21 februari

Jakten på ny fysik vid världens största partikelkolliderare

2012 upptäckte forskare en partikel kallad Higgs boson med hjälp av data från CERN:s Large Hadron Collider, vilket svarade på frågan var grundläggande partiklar får sin massa ifrån. Två av fysikerna som förutsåg Higgs boson tilldelades snart Nobelpriset. Mer än ett decennium senare finns det fortfarande många obesvarade frågor om universums grundläggande beståndsdelar. Forskare försöker nu något nytt. De återanvänder detektorer för att söka efter ovanliga partiklar, utnyttjar data med maskininlärning och planerar för helt nya typer av kolliderare.

Direktlänk Dela MIT Technology Review fördjupade 20 februari

AI-forskare kritiserar djupinlärningsmetoder och upphovsrättsfrågor

Marcus, professor emeritus vid NYU och framstående AI-forskare, har kritiserat djupinlärning och AI. Han har ofta varit i offentliga dispyter med AI-storheter som Yann LeCun och Geoffrey Hinton. Marcus har uttryckt skepsis mot AI-videogenerering, och pekar på dess brist på ´sunt förnuft´. Han kritiserar även teknikföretagens affärsmodeller, som han menar utnyttjar upphovsrättsligt skyddat material utan samtycke för att träna sina modeller. Marcus har börjat lobba för tydligare regler för vad som ingår i AI-modeller.

Direktlänk Dela MIT Technology Review fördjupade 20 februari

Recension av Fei-Fei Lis bok, ´The Worlds I See´

Fei-Fei Li är en framstående kvinna inom det manligt dominerade området artificiell intelligens. I sin bok ´The Worlds I See´ beskriver hon sin resa från att vara en ung forskare i Kina till att bli en ledande figur inom AI. Hon diskuterar sin forskning, inklusive hur hon tillämpar principer från visuell igenkänning i hjärnan på maskininlärning. Li är också medgrundare till AI4All, en ideell organisation som främjar mångfald och inkludering inom AI. Trots en kontrovers under hennes tid som chefsforskare för Google Cloud har Li blivit en förebild inom sitt område.

Direktlänk Dela Women´s Agenda fördjupade 6 februari

Steve James regisserar AI-dokumentärserien ´Mind vs. Machine´

Oscar-nominerade regissören Steve James, känd för Hoop Dreams och Life Itself, kommer att ta sig an AI i dokumentärserien Mind vs. Machine, med Alex Gibney som producent. Closer Media och Anonymous Content, som arbetar med Gibney på hans kommande Elon Musk-dokumentär Musk, finansierar projektet och producerar också tillsammans med James och Gibney, Alyssa Fedele och Zachary Fink från Collective Hunch. New York Times teknikkorrespondent Cade Metz kommer att vara exekutiv producent tillsammans med Closer Media´s Zhang Xin, William Horberg, och Joey Marra, och Anonymous Content´s Nick Shumaker, Jessica Grimshaw, och David Levine. Projektet beskrivs som en femdelad, banbrytande dokumentärserie som kombinerar intervjuer, arkivmaterial, dramatiska återskapanden, AI-visualiseringar och avancerade specialeffekter. Det ger en unik inblick i nyckeluppfinnare, vetenskapsmän, futurister och tänkare, inklusive Geoffrey Hinton, Yann LeCun, Ray Kurzweil, Deborah Raji och Meghan O´Gieblyn. För projektet har producenterna optionerat två böcker: Metz´s Genius Makers och Meghan O´Gieblyn´s God, Human, Animal, Machine.

Direktlänk Dela The Hollywood Reporter fördjupade 1 februari

OpenAI:s ChatGPT förväntas generera 1 miljard dollar i intäkter 2024

ChatGPT, en AI-driven chatbot utvecklad av OpenAI, förväntas generera upp till 1 miljard dollar i intäkter 2024. Trots vissa felaktiga svar har ChatGPT lockat 100 miljoner användare på bara två månader, vilket gör den till den snabbast växande konsumentappen någonsin. Flera stora techföretag, inklusive Microsoft, Alphabet, Meta och Amazon.com, har investerat miljarder i generativ AI. Men detta har också lett till oro för AI:s potentiella hot mot mänskligheten, vilket resulterade i ett öppet brev undertecknat av tusentals forskare och AI-experter, inklusive Elon Musk, som kräver ett tillfälligt stopp för att studera teknologins inverkan. Trots detta förväntas AI-relaterad ekonomisk påverkan nå 15,7 biljoner dollar globalt senast 2030.

Direktlänk Dela America Online fördjupade 3 januari

Meta Platforms chefsforskare kritiserar OpenAIs forskningsmetoder

Meta Platforms Inc:s chefsforskare inom AI, Yann LeCun, har kritiserat rivalen OpenAI för dess ogenomskinliga forskningsmetoder. I en intervju med Wired sa LeCun att Microsoft-stödda OpenAI inte längre är lika relevant inom forskningsvärlden. ´Jag tror att forskningsvärlden inte bryr sig så mycket om OpenAI längre eftersom de inte publicerar, och de avslöjar inte vad de gör´, sa han. LeCuns kommentarer kommer efter en dramatisk händelse som skakade en av de ledande AI-företagen i världen, där medgrundaren Sam Altman först sparkades, för att sedan återvända fem dagar senare.

Direktlänk Dela Benzinga fördjupade 27 december

Teknikjättarnas strider: Musk och Zuckerberg hotar med ringkamp, AI-pionjärer i offentlig dispyt

Under 2021 har flera konflikter mellan teknikjättar blivit offentliga. I juni hotade Mark Zuckerberg och Elon Musk att ta sina affärstvister personligt genom att utkämpa dem i boxningsringen. Trots att UFC-presidenten Dana White hävdade att de var ´dödligt seriösa´ om den potentiella matchen, kom de aldrig längre än till online-snärtar. AI-pionjärerna Yann LeCun, Geoffrey Hinton och Yoshua Bengio har också varit i offentlig dispyt om de existentiella riskerna med AI. Dessutom har Microsofts VD Satya Nadella utmanat Google med företagets AI-drivna sökmotor Bing, och Sam Altman från OpenAI har blivit målet för Musks offentliga pikar.

Direktlänk Dela Business Insider fördjupade 26 december

2015: Genombrottsåret för Artificiell Intelligens

2015 var ett genombrott år för artificiell intelligens (AI) med framsteg inom naturligt språkbearbetning och maskininlärning. Detta gjorde många AI-applikationer möjliga och inom räckhåll. En av de viktigaste utvecklingarna var uppkomsten av djupinlärning, en gren av maskininlärning som låter datorer lära sig från stora datamängder utan programmering. Djupinlärning har skapat nya vägar för AI-applikationer med sin precision i text, tal och bildigenkänning och klassificering. Google Photos app och AlphaGo är exempel på produkter som påskyndade AI-utvecklingen.

Direktlänk Dela Medium fördjupade 22 december

OpenAI:s utmaningar och framsteg under 2023

År 2023 var ett avgörande år för AI, präglat av framsteg inom generativ AI, intensiv konkurrens och ökande etiska och säkerhetsproblem. OpenAI:s VD Sam Altman sparkades och återanställdes, vilket ledde till omfattande protester från anställda. Nya konkurrenter till ChatGPT framträdde, inklusive Googles Gemini och Anthropics Claude. Dessutom utvidgades det öppna källkods-AI-landskapet, med samarbeten mellan AWS och Hugging Face, och Meta som gav sig in på marknaden med sin egen LLM, Llama. OpenAI introducerade flera nya erbjudanden, inklusive betalnivåer för ChatGPT och uppgraderingar till dess flaggskeppsmodell, GPT-4. Samtidigt intensifierades debatten om AI:s säkerhet och säkerhetsrisker.

Direktlänk Dela TechTarget fördjupade 19 december

Generativ AI lämnar labbet: framsteg, utmaningar och förväntningar

2023 präglades av att generativ AI lämnade laboratoriet och stora teknikföretag som Meta, Google, Baidu och OpenAI lanserade sina egna versioner. Trots initial hype har ingen AI-applikation blivit en omedelbar framgång. Microsoft och Google försökte lansera kraftfull AI-driven sökning, men det visade sig vara mer av en flopp. Båda företagen experimenterar nu med att låta företag och utvecklare skapa anpassade AI-chattbotar och låta människor bygga sina egna applikationer med AI. Dessutom lärde vi oss mycket om hur språkmodeller fungerar, men det finns fortfarande mycket vi inte vet. Slutligen gick AI-domedagspratet mainstream, med hundratals vetenskapsmän, företagsledare och beslutsfattare som uttryckte oro.

Direktlänk Dela MIT Technology Review fördjupade 19 december

Tomra Food har lanserat två nya AI-drivna sorterings- och bedömningssystem, Tomra Neon och Spectrim X-serien. Tomra Neon förhandsgraderar maskinskördade blåbär för färskmarknaden, medan Spectrim X-serien använder djupinlärning för ojämförlig precision vid sortering och bedömning av frukt. Dessa maskiner är början på en revolution som kommer att göra produktionen av färska och bearbetade livsmedel mer effektiv och lönsam. Tomra Food har använt artificiell intelligens sedan 2019 för att göra sorterings- och bedömningssystem mer exakta än traditionella tekniker.

Fresh Fruit Portal fördjupade 15 december

AI-utveckling leder till nya möjligheter som kan förbättra hur vi arbetar, lever och interagerar med varandra. Flera stora teknikföretag, inklusive Apple, Google och IBM, utvecklar AI-drivna verktyg och modeller. Apple har till exempel utvecklat en chatbot under ramverket ´Ajax´. IBM och Meta har lanserat AI Alliance för att främja öppen och transparent innovation inom AI. Open-source AI innebär att vem som helst kan bidra till, återdistribuera eller använda mjukvaran. Medan AI-system kan ge upphov till en mängd innovationer, behöver de användas ansvarsfullt. Risker inkluderar bland annat miljöpåverkan, brist på reglering och brist på omfattande testning.

Geospatialworld.net fördjupade 15 december

OpenAI arbetar på att kontrollera supersmart AI

OpenAI, ett företag inom konstgjord intelligens (AI), har skapat en forskargrupp för att hantera framtidens supersmarta AI. Leopold Aschenbrenner, forskare vid OpenAI, menar att supersmart AI närmar sig snabbt och kan vara mycket farligt om vi inte har metoder för att kontrollera det. Forskare har testat metoder för att låta en mindre intelligent AI-modell styra beteendet hos en smartare modell. Experimenten visar att det är möjligt, men forskarna medger att dessa metoder inte garanterar att den starkare modellen kommer att bete sig perfekt. OpenAI kommer att erbjuda 10 miljoner dollar i bidrag till externa forskare som kan komma med ytterligare framsteg på områden som svag-till-stark övervakning, tolkning av avancerade modeller och stärkande modeller mot uppmaningar som är utformade för att bryta deras begränsningar.

Direktlänk Dela Wired fördjupade 14 december

Ilya Sutskever: AI-visionären som leder OpenAI

Ilya Sutskever, född i Sovjetunionen 1986, är känd som en banbrytande visionär inom djupinlärning och stora språkmodeller, vilket är grunden för konversations-AI-bots som ChatGPT. Han är nu chefsforskare på OpenAI i San Francisco, Kalifornien, och har spelat en central roll i utvecklingen av ChatGPT. Trots framgångarna är Sutskever orolig för AI:s framtid och har därför skiftat fokus till att medleda OpenAI:s fyraåriga ´superalignment´-projekt. Projektet ämnar att utforska hur man kan styra och kontrollera AI-system som är mycket smartare än oss.

Direktlänk Dela Nature fördjupade 13 december

Cohere föredrar att fokusera på AI:s enklare sida

Cohere, ett AI-företag baserat i Toronto, föredrar att fokusera på de enklare användningarna av tekniken. Företaget, som utvecklar AI för företagsanvändning, hjälper företag att bygga kraftfulla applikationer genom att använda stora språkmodeller. Trots att AI:s framtid är osäker, kommer Cohere sannolikt att vara ett av företagen i centrum för den. Cohere har en värdering på över 2,1 miljarder dollar och grundades 2019 av Aidan Gomez, en Google Brain-forskare, och Ivan Zhang. Nick Frosst, också medgrundare och tidigare Google-anställd, anslöt sig 2020.

Direktlänk Dela Financial Post fördjupade 13 december

Europeiskt avtal för att reglera AI kan medföra miljoner i böter för överträdelser

Europeiska förhandlare har diskuterat ett avtal för att reglera artificiell intelligens (AI). Avtalet, kallat AI Act, skulle reglera hur brottsbekämpning får använda AI-drivna övervakningskameror och hur utvecklare ska ansvara för att minimera risker. Det skulle också innebära böter upp till 35 miljoner euro eller 7% av den globala omsättningen för företag som bryter mot reglerna. Avtalet måste godkännas av både Europaparlamentet och EU:s 27 medlemsstater. Många har varnat för att AI kan utgöra ett existentiellt hot om det inte kontrolleras.

Direktlänk Dela National Post fördjupade 10 december

Teknikjättarnas kamp om AI: Från lugn till kaos på en dag

För ett år sedan var teknikindustrin som vanligt. Elon Musk försökte göra reklamare på Twitter/X arga och TikTok dominerade tonåringars vakna timmar. FTX hade just gått i konkurs och minst $1bn av investerarnas pengar hade försvunnit. I Storbritannien var det nedsuttna online-säkerhetsförslaget på väg genom parlamentet. Ingen utanför teknikvärlden hade hört talas om Geoffrey Hinton eller Sam Altman. Men den 30 november 2022 förändrades allt. OpenAI, ett uppstickarföretag som leds av Altman, släppte ChatGPT. På mindre än en vecka gick det från noll till 1 miljon användare, vilket gjorde det till den snabbast växande appen någonsin. Detta utlöste panik och U-svängar på högsta nivå inom flera teknikjättar. New York Times publicerade första berättelsen om vad som hände. Berättelsen är underhållande, lärorik och allvarlig: underhållande eftersom det inte ofta man ser dessa killar (och de är alla killar, förresten) i en fladder; lärorik eftersom den ger en levande bild av hur de agerar när de hotas; och allvarlig eftersom den avslöjar hur de troligen kommer att bete sig i det nya landskapet formad av ´generativ AI´.

Direktlänk Dela The Guardian fördjupade 9 december

Nyckelpersoner bakom utvecklingen av artificiell intelligens

Artificiell intelligens (AI) har revolutionerat industrier och våra dagliga liv. Bakom denna teknologiska transformation finns framstående individer som har bidragit till AI:s utveckling. Bland de mest framstående finns Geoffrey Hinton, känd som ´Gudfadern av djupinlärning´, Yann LeCun, en pionjär inom konvolutionella neurala nätverk (CNN), och Fei-Fei Li, ledande inom tillämpningen av AI på datavision. Andra inflytelserika figurer inkluderar Andrew Ng, Yoshua Bengio och Elon Musk. AI har haft en djupgående inverkan på flera sektorer och förväntas fortsätta att driva automation, förbättra effektiviteten och skapa nya möjligheter.

Direktlänk Dela Energy Portal fördjupade 8 december

Ny A.I. statistik visar på människans undergång

Termen p(doom), som står för sannolikheten för mänsklighetens undergång på grund av artificiell intelligens (A.I.), har blivit en samtalspunkt bland teknikentusiaster i Silicon Valley. Dario Amodei, VD för A.I.-företaget Anthropic, uppskattar sin p(doom) till mellan 10 och 25 procent. Lina Khan, ordförande för Federal Trade Commission, har nyligen sagt att hon ligger på 15 procent. Emmett Shear, som tjänstgjorde som OpenAI:s tillförordnade VD under cirka fem minuter förra månaden, har sagt att han ligger någonstans mellan 5 och 50 procent. P(doom) är inte exakt, men ger en grov uppskattning av var någon står på spektrumet mellan utopi och dystopi.

Direktlänk Dela The New York Times fördjupade 6 december

Stora teknikbolag i kamp om artificiell intelligens efter OpenAI:s framgångar

Efter att OpenAI släppte ChatGPT, ett AI-program, i november 2022, utlöstes en intensiv kapplöpning bland teknikbolag. Google, med sin VD Sundar Pichai i spetsen, började omedelbart utveckla en rad produkter baserade på AI. På Facebook, nu Meta, omorganiserade Mark Zuckerberg delar av företaget runt AI, medan Elon Musk, som medgrundade OpenAI, lovade att skapa sitt eget AI-företag, X.AI. Microsofts VD, Satya Nadella, som investerat i OpenAI tre år tidigare, påskyndade sina planer på att införliva AI i Microsofts produkter.

Direktlänk Dela The New York Times fördjupade 5 december

AI kan leda till kortare arbetsvecka, enligt Nobelpristagare

Nobelpristagaren i ekonomi, Christopher Pissarides, tror att generativ AI kommer att göra arbetstagare mer produktiva, vilket kan leda till en fyrdagars arbetsvecka. Han tror att AI-verktyg som ChatGPT kommer att förbättra arbetskvaliteten och öka produktiviteten. Pissarides är inte ensam om att tro på en kortare arbetsvecka. En studie utförd av tankesmedjan Autonomy visar att AI-driven produktivitet kan bana väg för en fyrdagars arbetsvecka i USA och Storbritannien. JPMorgan Chase VD Jamie Dimon har gått ett steg längre och sagt att nästa generation anställda endast kommer att arbeta 3,5 dagar i veckan.

Direktlänk Dela International Business Times fördjupade 5 december

Överdrivna förväntningar på AI, enligt OpenAI:s COO

OpenAI:s operativa chef, Brad Lightcap, menar att företag ofta har orealistiska förväntningar på artificiell intelligens (AI). Han säger att AI inte kan omvandla ett företag i ett enda slag, trots att vissa företag ser det som en slutgiltig lösning. Generativa AI-program, som ChatGPT, har använts av individer för skola, affärer och mer. Lightcap anser att de flesta underskattar den individuella styrka och möjlighet som AI skapar för användare. Han påpekar att AI inte bara används av stora företag, utan även av hoppfulla entreprenörer. Morgan Stanley förutspår att AI-verktyg kommer att öka inkomsterna för jobb inom olika branscher med minst 83 miljoner dollar fram till 2030.

Direktlänk Dela Business Insider fördjupade 5 december

Nyckelpersoner i framväxten av modern AI

Artificiell intelligens (AI) har fått stor uppmärksamhet de senaste året, och teknologi som fungerar som den mänskliga hjärnan har varit i forskarnas, investerarnas och teknikchefernas tankar i Silicon Valley och bortom det under mer än ett decennium. Här är några av de människor som varit involverade i framväxten av den moderna AI-rörelsen som påverkat utvecklingen av teknologin. Bland dem finns Sam Altman, VD för OpenAI, Dario Amodi, AI-forskare och grundare av Anthropic, Bill Gates, grundare av Microsoft, Temis Hasabis, grundare av DeepMind, och Elon Musk, grundare av Tesla och SpaceX.

Direktlänk Dela The Beacon fördjupade 3 december

Nyckelpersoner bakom utvecklingen av modern artificiell intelligens

Flera forskare, teknikledare och riskkapitalister har bidragit till utvecklingen av modern artificiell intelligens (AI) under mer än ett decennium. Sam Altman, VD för OpenAI, skapade den virala chatboten ChatGPT. Dario Amodei, en tidigare forskare vid OpenAI, driver nu AI-startupen Anthropic. Microsofts grundare Bill Gates blev en förespråkare för AI efter att ha sett OpenAI:s GPT-4. Demis Hassabis, en neurovetenskapsman och grundare av DeepMind, skapade AlphaGo. Geoffrey Hinton, professor vid University of Toronto, var ansvarig för neurala nätverk. Reid Hoffman, Elon Musk och Peter Thiel investerade $1 miljard i OpenAI. Satya Nadella, VD för Microsoft, drev företagets investeringar i OpenAI. Larry Page, Googles grundare, stödde förvärvet av DeepMind. Eliezer Yudkowsky, en internetfilosof och självlärd AI-forskare, bidrog till det filosofiska tänkandet kring tekniken. Mark Zuckerberg, VD för Meta, har drivit AI-utveckling i över ett decennium.

Direktlänk Dela The New York Times fördjupade 3 december

USA:s president varnar för farorna med artificiell intelligens

USA:s president Joe Biden har utfärdat en exekutiv order som varnar för farorna med artificiell intelligens (AI), särskilt inom utvecklingen av förödande vapen och cyberattacker. Ordern definierar ramverket för stark federal intervention, inklusive övervakning av företag som utvecklar AI-produkter och möjligheten att tvinga företag att överge vissa initiativ. Samtidigt har AI-baserade ´deepfakes´ börjat dyka upp i Indien, designade för att påverka väljare och skapa offentlig oenighet. Indien är i framkant för globala ansträngningar att främja AI:s legitima tillväxt utan att låta den skapa någon destruktiv effekt. Vid nästa G20-möte i Brasilien kommer behovet av globala AI-regler att vara en viktig punkt på dagordningen.

Direktlänk Dela Lokmat Times fördjupade 3 december

OpenAI:s ChatGPT förändrar världen genom generativ AI

OpenAI:s lansering av ChatGPT förändrade historiens gång, enligt vissa. Före ChatGPT var AI något som dataforskare kunde arbeta med, men det hade inte någon påtaglig inverkan på vanliga människors liv. Efter ChatGPT har AI plötsligt blivit central i varje interaktion konsumenter har med datorer och telefoner. Tiotusentals företag har övergett sina gamla affärsmodeller och försöker hitta nya som bygger på generativ AI. McKinsey & Company förutspår att produktivitetsökningen från generativ AI kan göra anställda upp till 45% effektivare. Enligt en undersökning utförd av ExtraHop äger OpenAI 80% av andelen generativa AI-tjänster. Det finns dock oavsiktliga konsekvenser av AI:s stora ögonblick, som risker för företag och potentiella säkerhetsproblem.

Direktlänk Dela Datanami fördjupade 2 december

EU-lagstiftare kan inte komma överens om reglering av AI-system

Teknikledare deltar i ett möte om generativ AI (Artificiell Intelligens) i San Francisco, som försöker positionera sig som ´AI-huvudstaden i världen´. EU-lagstiftare kan inte komma överens om hur system som ChatGPT ska regleras, vilket hotar banbrytande lagstiftning som syftar till att hålla AI i schack. Förhandlare möts på fredag för avgörande diskussioner inför slutliga samtal planerade till den 6 december. ´Foundation models´ eller generativ AI har blivit det största hindret i samtalen om EU:s föreslagna AI-akt. Om de inte kan komma överens riskerar akten att skrotas på grund av tidsbrist före de europeiska parlamentsvalen nästa år. Största utmaningen för att få till ett avtal har kommit från Frankrike, Tyskland och Italien, som föredrar att tillverkare av generativ AI-modeller självreglerar istället för att ha hårda regler. Andra pågående problem i samtalen inkluderar definition av AI, bedömning av grundläggande rättigheters inverkan, undantag för brottsbekämpning och nationell säkerhet.

Direktlänk Dela Reuters fördjupade 1 december

AI-startupen OpenAI firar ett år med sin stora språkmodell ChatGPT. Trots att modellen använde en mindre kraftfull version (3.5) än den nyss släppta GPT-4, har den förvånat alla med sina detaljerade svar på nästan alla möjliga frågor. På kort tid blev 100 miljoner människor regelbundna användare. OpenAI:s ledare förstod inte fullt ut vilken inverkan deras skapelse skulle ha. Microsofts 1 miljard dollar satsning på OpenAI 2019 visade sig vara ett mästardrag, vilket utlöste ett AI vapenkapplöpning. ChatGPT förändrade teknikvärlden och ledde till att AI-reglering blev en topprioritet för kongressen och Vita huset.

Wired fördjupade 1 december

ChatGPT: Ett år av revolutionerande framsteg och potentiella hot

ChatGPT, en chatbot utvecklad av OpenAI, har haft ett dramatiskt första år sedan starten den 30 november 2022. Dess popularitet sköt i höjden direkt efter lanseringen, med 100 miljoner aktiva månatliga användare redan två månader senare. ChatGPT blev därmed den snabbast växande internetplattformen i historien. Utvecklingen av artificiell allmän intelligens har dock också framkallat oro för potentiella risker. Bland annat har Elon Musk undertecknat ett öppet brev som uppmanar företag att omedelbart pausa träningen av AI-system kraftigare än GPT-4 i sex månader. Trots detta fortsätter forskning och utveckling inom området i en imponerande takt.

Direktlänk Dela Ruetir fördjupade 30 november

AI och AGI: Framtiden, risker och möjligheter

Artificiell allmän intelligens (AGI) definieras som mänsklig intelligensnivå, eller högre. AGI skiljer sig från AI genom att den har mänsklig intelligens och potentiellt högre kognitiva förmågor. Enligt Google DeepMind´s VD, Demis Hassabis, kan vi uppnå denna nivå av AGI senast 2033. OpenAI:s chefsforskare, Ilya Sutskever, säger att AI kommer att lösa många av dagens problem, men också skapa nya. Geoffrey Hinton, en pionjär inom AI, har uttryckt oro över detta. AGI är en av de största idéerna mänskligheten någonsin haft, men det är viktigt att vi inte blir pessimistiska.

Direktlänk Dela Medium fördjupade 29 november

AI-gudfadern Geoffrey Hinton vill begränsa AI men är osäker på om det är möjligt

Den så kallade gudfadern av AI, Geoffrey Hinton, tror att vi behöver sätta begränsningar på tekniken så att den inte befriar sig själv från mänsklig kontroll. Han är dock osäker på om detta är möjligt. Hinton är känd för sitt banbrytande arbete inom neurala nätverk, en gren av datavetenskap som de flesta forskare hade gett upp, medan Hintons framsteg ledde till en revolution. Han är nu rädd för vad det kan frigöra. Hinton håller med om att det är ´inte orimligt´ för en lekman att önska att AI helt enkelt skulle försvinna, ´men det kommer inte att hända. Det är bara så användbart, så mycket möjlighet att göra gott.´

Direktlänk Dela The New Yorker fördjupade 29 november

Mörka sidor av artificiell intelligens: Deepfakes och mer

Deepfakes, eller videor skapade med hjälp av artificiell intelligens (AI), har blivit ett populärt fenomen, men också en farlig form av digitalt missbruk. Ett exempel är en video som nyligen blev viral i Indien, där skådespelerskan Rashmika Mandanas ansikte hade lagts över en brittisk kvinnas ansikte. Många deepfakes används för att sprida falsk information eller icke-samtyckande porr, där en persons ansikte läggs över i en porrklipp. Forskningsföretaget Sensity AI har visat att 90-95% av deepfakes 2021 var icke-samtyckande porr, och 90% av dessa var kvinnor. Men deepfakes är bara toppen av isberget när det gäller de mörka sidorna av AI. Det finns risker med falska bilder, partiska AI-system och ´superintelligens´ som kan utvecklas utan mänsklig inblandning.

Direktlänk Dela Medium fördjupade 28 november

Förbättring av k-Means Clustering genom Disentangled Interna Representationer

Forskare A.F. Agarap och A.P. Azcarraga presenterade en artikel vid 2020 International Joint Conference on Neural Networks (IJCNN) om att förbättra k-Means Clustering med disentangled interna representationer. De definierar ´disentanglement´ som hur långt klass-skiljda datapunkter är från varandra, relativt till klass-liknande datapunkter. Genom att maximera disentanglement under representation inlärning minskas avståndet mellan klass-liknande datapunkter. Detta bevarar klassmedlemskapen för exempel från datasetet och förbättrar prestandan för en närmaste grannklassificerare eller ett klusteringsalgoritm.

Direktlänk Dela Medium fördjupade 26 november

Kampen för AI:s själ: Kan OpenAI:s fruktbara motsägelse vara hållbar?

OpenAI, som började som ett ideellt forskningslabb, har utvecklats till en lönsam motsägelse: ett företag med vinstsyfte som övervakas av en ideell styrelse. Företagets kultur balanserar mellan vetenskapsmannens önskan att upptäcka, kapitalistens önskan att leverera produkter och den goda människans önskan att göra allt detta på ett säkert sätt. Men händelserna den senaste veckan, inklusive sparkandet och återanställningen av Sam Altman, väcker frågan om denna fruktbara motsägelse kan vara hållbar. Kan en organisation eller person upprätthålla vetenskapsmannens hjärna, kapitalistens drivkraft och den försiktiga hjärtat hos en tillsynsmyndighet? Eller kommer pengarna alltid att vinna?

Direktlänk Dela The New York Times fördjupade 23 november

OpenAI återanställer VD efter dramatiska omvälvningar

OpenAI, företaget bakom AI-boten ChatGPT, har genomgått dramatiska förändringar under den senaste veckan. Företagets VD, Sam Altman, avskedades den 17 november men återanställdes fem dagar senare efter protester från anställda. Händelsen har väckt diskussioner om hur kommersiell konkurrens påverkar utvecklingen av AI-system och hur snabbt AI kan implementeras på ett etiskt och säkert sätt. Altman, som är en framgångsrik investerare och entreprenör, var medgrundare till OpenAI och har varit VD sedan 2019. Han övervakade en investering på cirka 13 miljarder dollar från Microsoft.

Direktlänk Dela Nature fördjupade 23 november

OpenAI:s VD Sam Altman återvänder efter oväntad avsked

OpenAI:s tidigare VD Sam Altman återvänder till sin position efter att ha blivit oväntat avskedad. Greg Brockman, företagets tidigare styrelseordförande och president, kommer också att återvända. Dessa återanställningar kommer efter att en majoritet av OpenAI:s anställda undertecknade ett brev som krävde just detta. OpenAI meddelade också att de har en ny ´inledande´ styrelse, med Salesforce med-VD Bret Taylor som ordförande och tidigare handelssekreterare Larry Summers som medlem. OpenAI har också blivit stämda i ett upphovsrättsmål av författaren Julian Sancton och andra författare, som anklagar företaget och Microsoft för att ha tränat flera versioner av ChatGPT med upphovsrättsskyddat material utan tillstånd.

Direktlänk Dela Fast Company fördjupade 22 november

Forskare uppmanar till större fokus på AI-säkerhet och reglering

Sören Mindermann, postdoktor vid MILA som arbetar med AI-säkerhet, har uttryckt oro över att stora teknikföretag som IBM förnekar riskerna med AI och lobbyar mot reglering. Han anser att det finns ett växande akademiskt konsensus om behovet av reglering och erkännande av verkliga risker. Mindermann har nyligen publicerat en artikel tillsammans med 22 medförfattare från USA, Kina, EU och Storbritannien, inklusive Geoffrey Hinton, Stuart Russell och Yoshua Bengio. I artikeln uppmanas företag som arbetar med AI-system att tilldela minst en tredjedel av sina resurser för att säkerställa AI-säkerhet och etisk användning.

Direktlänk Dela Analytics India Magazine fördjupade 22 november

OpenAIs chefsforskare gör tragiskt misstag

Ilya Sutskever, chefsforskare vid OpenAI, försökte nyligen avsätta Sam Altman, företagets tidigare VD. Sutskever informerade Altman om hans avsked under ett möte, vilket ledde till en omedelbar offentliggöring av Altmans avgång. Mer än 700 av OpenAIs 770 anställda har sedan dess skrivit under ett brev där de hotar med att säga upp sig om inte Altman återinsätts som VD. Sutskever har uttryckt ånger över sin inblandning i styrelsebeslutet och har också undertecknat brevet som kräver Altmans återkomst.

Direktlänk Dela The Atlantic fördjupade 21 november

OpenAI:s Ilya Sutskever ångrar sin roll i Sam Altmans avsked

Ilya Sutskever, chefsforskare på OpenAI, har uttryckt ånger över sin roll i avskedandet av före detta VD:n Sam Altman. Sutskever och Altman grundade OpenAI 2016 med hjälp av Elon Musk. Styrelsen för OpenAI, där Sutskever är medlem, beslutade att avskeda Altman på grund av bristande förtroende för hans ledarskap. Efter några dagar uttryckte Sutskever sin ånger över att ha deltagit i avskedandet. Han är nu en av över 600 anställda på OpenAI som har skrivit under ett öppet brev där de hotar att säga upp sig om inte styrelsen avgår och återinsätter Altman som VD.

Direktlänk Dela Business Insider fördjupade 20 november

OpenAI:s VD Sam Altman sparkad och företaget i förhandlingar om att ta tillbaka honom

OpenAI:s VD, Sam Altman, har plötsligt sparkats, och det rapporteras att företaget nu förhandlar om att ta tillbaka honom. OpenAI, som grundades 2015, är inte en traditionell teknikföretag, utan är strukturerat för att motstå värdena som driver mycket av teknikindustrin. Det är mer som ett forskningsinstitut eller en tankesmedja, med primär skyldighet att gynna mänskligheten, inte investerare eller anställda. Företaget lanserade en dotterbolag med en ´begränsad vinst´-modell 2019 för att kunna samla in pengar, locka toppbegåvningar och bygga kommersiella produkter. Altman sparkades av OpenAI:s styrelse på fredagen, vilket var kulmen på en maktkamp mellan företagets två ideologiska ytterligheter. Den ena gruppen föddes ur Silicon Valley teknikoptimism, drivs av snabb kommersialisering; den andra är rotad i rädslan att AI utgör en existentiell risk för mänskligheten och måste kontrolleras med extrem försiktighet. Efter att ChatGPT släpptes förra året spändes relationen mellan OpenAI:s fraktioner, vilket Altman hänvisade till som ´stammar´ i ett personalmeddelande 2019. Vi vet fortfarande inte exakt varför Altman sparkades, eller om han kommer tillbaka till sin tidigare roll.

Direktlänk Dela The Atlantic fördjupade 20 november

OpenAI:s chefsforskare Ilya Sutskever fokuserar på att förhindra artificiell superintelligens från att gå ´rogue´

Ilya Sutskever, chefsforskare vid OpenAI, har blivit en centralfigur i ledarskapsomskakningen på företaget. Sutskever, som sitter i OpenAI:s styrelse, var delaktig i att avsätta VD:n Sam Altman, på grund av påståenden om att Altman inte varit ´konsekvent ärlig´. Sutskever har tidigare varit tillbakadragen från medias strålkastarljus, men nyligen deltog han i en lång intervju med MIT Technology Review. Han berättade att hans nya fokus ligger på att förhindra att en artificiell superintelligens går ´rogue´. Sutskever har spelat en nyckelroll i utvecklingen av stora språkmodeller, inklusive GPT-2, GPT-3 och text-till-bild-modellen DALL-E.

Direktlänk Dela Yahoo Finance fördjupade 19 november

Ledarskapsförändringar på OpenAI: Fokus på AI-säkerhet

Ledarskapsförändringar på OpenAI har lett till ökat fokus på företagets chefsforskare, Ilya Sutskever. Sutskever, som också sitter i OpenAIs styrelse, var delaktig i att avsätta VD:n Sam Altman, med anklagelser om att Altman inte varit ´konsekvent uppriktig´. Sutskever har uttryckt att hans nya fokus ligger på att förhindra att en artificiell superintelligens går ´överstyr´. Han spelade en nyckelroll i utvecklingen av stora språkmodeller, inklusive GPT-2, GPT-3 och text-till-bild-modellen DALL-E. Sutskever tror att AI superintelligens som kan överträffa människor kan inträffa inom 10 år.

Direktlänk Dela Fortune Media fördjupade 19 november

Geoffrey Hinton, AI: s gudfader, uttrycker oro över AI: s framtid

Vi lever i en partisk tid och våra nyhetsvanor kan förstärka våra egna perspektiv. Geoffrey Hinton har tillbringat en livstid med att lära datorer att lära sig. Nu oroar han sig för att artificiella hjärnor är bättre än våra. Det finns många skäl att vara orolig för framväxten av artificiell intelligens. Det är sunt förnuft att oroa sig för att mänskliga arbetare ersätts av datorer, till exempel. Men Hinton har gått med många framstående teknologer, inklusive Sam Altman, VD för OpenAI, för att varna för att AI-system kan börja tänka för sig själva och till och med försöka ta över eller eliminera mänsklig civilisation. Det var slående att höra en av AI: s mest framstående forskare ge röst åt en sådan oroande syn.

Direktlänk Dela Tampa Bay Times fördjupade 18 november

OpenAI:s VD Sam Altman avskedas oväntat under styrelsemöte

OpenAI:s VD Sam Altman avskedades oväntat under ett styrelsemöte på fredagen, vilket uppstod ur en maktkamp om företagets riktning. Enligt en tweet från före detta OpenAI-presidenten Greg Brockman fick Altman en text på torsdagskvällen från OpenAI:s chefsforskare och styrelsemedlem Ilya Sutskever, som bad honom att träffas kl. 12 på fredagen. När Altman loggade in på mötet var hela OpenAI:s styrelse närvarande - förutom Brockman. Sutskever meddelade Altman att han blev sparkad. Brockman skrev att strax därefter hade han ett samtal med styrelsen, där han informerades om att han skulle avlägsnas från sin styrelseposition och att Altman hade blivit sparkad. Sedan publicerade OpenAI ett blogginlägg där de delade nyheten om Altmans avsked. Brockman skrev att endast en person i ledningsgruppen visste i förväg, teknikchefen Mira Murati, som utnämndes till tillförordnad VD.

Direktlänk Dela San Francisco Standard fördjupade 18 november

Artificiell intelligens: nuvarande tillvägagångssätt och framtida utmaningar

Två nuvarande tillvägagångssätt för datorvetenskapen för artificiell intelligens anses vara hinder för utvecklingen av artificiell allmän intelligens. Det första är strävan efter formella matematiska uttryck och algoritmer. Det andra är fokusering på ledartavlor, listan över projekt och deras poäng på definierade problem. Dessa metoder påminner om logisk positivism och beteendevetenskap från 1950- och 1960-talet. En framgångsrik vetenskap om artificiell intelligens kräver en bättre förståelse av fenomenen, inte bara små förbättringar i någon väldefinierad uppgift. Dessutom behöver artificiell intelligensforskning mer kritiskt tänkande.

Direktlänk Dela BD Tech Talks fördjupade 15 november

AI-experter förutspår att artificiell allmän intelligens kommer snart

Artificiell allmän intelligens (AGI) är i centrum för diskussioner i Silicon Valley. AGI är AI som kan hantera nästan vilken mental uppgift som en människa kan, eller till och med överträffa den. Elon Musk tror att användbar AGI kommer att slå igenom runt 2029. Shane Legg tror att forskare har lika stor chans att uppnå AGI inom de närmaste åren. Geoffrey Hinton förutspår att AI kommer att slå mänsklig intelligens inom fem till 20 år. Yann LeCun tror att AI kommer att överträffa människor, men vi saknar fortfarande viktiga koncept för att nå den nivån. Sam Altman tror att AGI kommer att framträda under nästa decennium. Demis Hassabis förutspår att AI kommer att matcha mänsklig intelligens inom de närmaste åren eller kanske inom ett decennium.

Direktlänk Dela The Indian Express fördjupade 8 november

Storbritanniens premiärminister Rishi Sunak värd för AI-toppmöte

Chatbots som ChatGPT har imponerat världen med sin förmåga att skriva tal, planera semestrar eller föra samtal lika bra eller möjligen bättre än människor, tack vare avancerade artificiella intelligenssystem. Nu har gräns AI blivit det senaste buzzordet eftersom det växer oro att den framväxande tekniken har förmågor som kan äventyra mänskligheten. Alla från brittiska regeringen till toppforskare och till och med stora AI-företag själva varnar för gräns AI: s ännu okända faror och kräver skyddsåtgärder för att skydda människor från dess existentiella hot. Debatten kulminerar på onsdag, när Storbritanniens premiärminister Rishi Sunak är värd för ett två dagar långt toppmöte inriktat på gräns AI. Det förväntas locka en grupp av cirka 100 tjänstemän från 28 länder, inklusive USA: s vicepresident Kamala Harris, Europeiska kommissionens ordförande Ursula von der Leyen och chefer från viktiga amerikanska artificiella intelligensföretag inklusive OpenAI, Googles Deepmind och Anthropic. Platsen är Bletchley Park, en tidigare topphemlig bas för andra världskrigets kodknäckare ledda av Alan Turing. Den historiska egendomen ses som födelseplatsen för modern databehandling eftersom det var där Turing och andra berömt knäckte Nazitysklands koder med hjälp av världens första digitala programmerbara dator. I ett tal förra veckan sa Sunak att endast regeringar - inte AI-företag - kan hålla människor säkra från teknikens risker. Men han noterade också att Storbritanniens tillvägagångssätt ´är att inte skynda på att reglera´, även när han skisserade en mängd skrämmande hot, till exempel användningen av AI för att mer lätt göra kemiska eller biologiska vapen. ´Vi måste ta detta på allvar, och vi måste börja fokusera på att försöka komma före problemet´, sa Jeff Clune, en biträdande datavetenskapsprofessor vid University of British Columbia med inriktning på AI och maskininlärning. Clune var bland en grupp inflytelserika forskare som författade en artikel förra veckan som uppmanade regeringar att göra mer för att hantera risker från AI. Det är den senaste i en serie allvarliga varningar från teknikmoguler som Elon Musk och OpenAI: s VD Sam Altman om den snabbt utvecklande tekniken och de olika sätt industrin, politiska ledare och forskare ser vägen framåt när det gäller att begränsa riskerna och regleringen. Det är långt ifrån säkert att AI kommer att utplåna mänskligheten, sa Clune, ´men det har tillräcklig risk och chans att inträffa. Och vi måste mobilisera samhällets uppmärksamhet för att försöka lösa det nu snarare än att vänta på att värsta scenariot ska hända.´ Ett av Sunaks stora mål är att hitta en överenskommelse om en kommuniké om AI-riskernas natur. Han avslöjar också planer på ett AI-säkerhetsinstitut som kommer att utvärdera och testa nya typer av tekniken och föreslår skapandet av en global expertpanel, inspirerad av FN: s klimatförändringspanel, för att förstå AI och ta fram en ´State of AI Science´ -rapport. Toppmötet återspeglar den brittiska regeringens ivrighet att vara värd för internationella sammankomster för att visa att den inte har blivit isolerad och fortfarande kan leda på världsscenen efter att ha lämnat Europeiska unionen för tre år sedan. Storbritannien vill också göra anspråk på en het policyfråga där både USA och den 27-nationers EU gör rörelser. Bryssel lägger sista handen vid vad som är på väg att bli världens första omfattande AI-regleringar, medan USA: s president Joe Biden undertecknade en omfattande verkställande order på måndag för att styra utvecklingen av AI, byggd på frivilliga åtaganden gjorda av teknikföretag. Kina, som tillsammans med USA är en av de två världs AI-makterna, har bjudits in till toppmötet, även om Sunak inte kunde säga med ´100% säkerhet´ att representanter från Beijing kommer att delta. Artikeln undertecknad av Clune och mer än 20 andra experter, inklusive två döpta till AI: s ´gudfäder´ - Geoffrey Hinton och Yoshua Bengio - uppmanade regeringar och AI-företag att vidta konkreta åtgärder, till exempel genom att spendera en tredjedel av sina forsknings- och utvecklingsresurser på att säkerställa säker och etisk användning av avancerad autonom AI. Gräns AI är en förkortning för de senaste och mest kraftfulla systemen som går ända upp till kanten av AI: s förmågor. De bygger på grundmodeller, vilka är algoritmer som tränas på en bred informationsbas skrapad från internet för att ge en allmän, men inte ofelbar, kunskapsbas. Det gör gräns AI-system ´farliga eftersom de inte är perfekt kunniga´, sa Clune. ´Människor antar och tror att de är enormt kunniga, och det kan ställa till problem.´ Mötet har dock stött på kritik för att det är för upptaget med avlägsna faror. ´Fokus för toppmötet är faktiskt lite för smalt´, sa Francine Bennett, tillförordnad direktör för Ada Lovelace Institute, en policyforskningsgrupp i London med fokus på AI. ´Vi riskerar att bara glömma den bredare uppsättningen risker och säkerhet´ och de algoritmer som redan är en del av vardagen, sa hon vid ett Chatham House-panel förra veckan. Deb Raji, en forskare vid University of California, Berkeley, som har studerat algoritmisk bias, pekade på problem med system som redan har implementerats i Storbritannien, såsom polisens ansiktsigenkänningssystem som hade en mycket högre falsk detektionsgrad för svarta människor och en algoritm som förstörde en gymnasieexamen. Toppmötet är en ´missad möjlighet´ och marginaliserar samhällen och arbetare som är mest påverkade av AI, sa mer än 100 civila samhällsgrupper och experter i ett öppet brev till Sunak. Skeptiker säger att den brittiska regeringen har satt sina toppmåls mål för lågt, med tanke på att reglering av AI inte kommer att finnas på agendan, och i stället fokuserar på att etablera ´skyddsräcken´. Sunaks uppmaning att inte skynda på reglering påminner om ´det budskap vi hör från många av de företagsrepresentanterna i USA´, sa Raji. ´Och så är jag inte förvånad över att det också gör sin väg in i vad de kanske säger till brittiska tjänstemän.´ Teknikföretag bör inte vara involverade i att utarbeta regler eftersom de tenderar att ´underskatta eller tona ner´ brådskan och hela skadeomfånget, sa Raji. De är också inte så öppna för att stödja föreslagna lagar ´som kan vara nödvändiga men som effektivt kan äventyra deras resultat´, sa hon. DeepMind och OpenAI svarade inte på förfrågningar om kommentarer. Anthropic sa att medgrundarna Dario Amodei och Jack Clark skulle delta. Microsoft sa i ett blogginlägg att det såg fram emot ´Storbritanniens nästa steg i att sammankalla toppmötet, främja sina insatser för AI-säkerhetstestning och stödja större internationellt samarbete om AI-styrning.´ Regeringen hävdar att den kommer att ha rätt blandning av deltagare från regeringen, akademin, det civila samhället och näringslivet. Institute for Public Policy Research, en center-vänster brittisk tankesmedja, sa att det skulle vara ett ´historiskt misstag´ om teknikindustrin fick reglera sig själv utan statlig tillsyn. ´Regulatorer och allmänheten är till stor del i mörkret om hur AI distribueras över ekonomin´, sa Carsten Jung, gruppens seniora ekonom. ´Men självreglering fungerade inte för sociala medieföretag, det fungerade inte för finanssektorn, och det kommer inte att fungera för AI.´

Direktlänk Dela The Columbian fördjupade 5 november

Fei-Fei Li, förespråkare för AI med insikt om behovet av reglering

Fei-Fei Li, en datavetenskapsprofessor vid Stanford University och medledare för dess Institute for Human-Centered Artificial Intelligence, positionerar sig själv i mitten av den intensiva debatten om artificiell intelligens (AI) påverkan på samhället. Hon är varken en ´doomer´ som Geoffrey Hinton, som oroar sig för att maskinerna vi skapat kommer att förstöra oss, eller en obegränsad teknikoptimist som Marc Andreessen, som jämför reglering av AI med att hindra framsteg. Istället är Li en entusiastisk förespråkare för AI som ser visdomen i återhållsamhet.

Direktlänk Dela The Information fördjupade 4 november

AI-pionjären Yoshua Bengio tilldelas Kanadas mest prestigefyllda vetenskapspris

Yoshua Bengio, en pionjär inom artificiell intelligens (AI) och forskningschef vid Montreal Institute for Learning Algorithms och professor vid Université de Montréal, har tilldelats Herzberg Canada Gold Medal for Science and Engineering, Kanadas mest prestigefyllda vetenskapspris. Priset delas årligen ut till kanadensare vars arbete har visat ´ihållande excellens och inflytande´ inom naturvetenskap eller teknik. Bengio, även känd som ´gudfadern till AI´, delar denna titel med Yann LeCun och landsmannen Geoffrey Hinton. Bengio har också uttryckt oro över de potentiella riskerna med AI och uppmanar till snabb och noggrann reglering av området.

Direktlänk Dela Canadian Broadcasting Corporation fördjupade 3 november

OpenAI:s medgrundare Ilya Sutskever diskuterar AI:s framtid

Ilya Sutskever, medgrundare och chefsforskare på OpenAI, förutser en framtid där människor kan smälta samman med maskiner och maskiner kan uppnå mänsklig intelligens. Sutskever har varit en ledande figur inom utvecklingen av AI-teknik, men hans fokus har nu skiftat mot att säkerställa ansvarsfull utveckling och kontroll av AI, särskilt superintelligenta system. Han tror att diskussioner om AI:s framtid är avgörande för att öka medvetenheten om AI:s oöverträffade kraft. OpenAI har varit i framkant av AI-revolutionen, och dess framgång med ChatGPT har fått global uppmärksamhet.

Direktlänk Dela Adgully fördjupade 2 november

Storbritannien värd för globalt AI-möte medan experter varnar för potentiella risker

AI-tekniken utvecklas snabbt och förändrar många aspekter av det moderna livet. Vissa experter fruktar dock att den kan användas för skadliga ändamål. Storbritannien är värd för ett globalt möte med världsledare och teknikchefer, inklusive Elon Musk, för att diskutera hur avancerade AI kan användas säkert. AI låter datorer lära sig och lösa problem nästan som en person. Tekniken ligger bakom röststyrda virtuella assistenter som Siri och Alexa och hjälper Facebook och X (tidigare Twitter) att bestämma vilka sociala medieinlägg som ska visas för användare. AI låter även Amazon analysera kunders köpvanor för att rekommendera framtida köp. Många experter är förvånade över hur snabbt AI har utvecklats och fruktar att dess snabba tillväxt kan vara farlig. Vissa har till och med sagt att AI-forskningen bör stoppas.

Direktlänk Dela BBC fördjupade 31 oktober

Storbritannien värd för toppmöte om farorna med framkant AI

Chatbots som ChatGPT har imponerat världen med sin förmåga att skriva tal, planera semestrar eller hålla en konversation lika bra eller kanske till och med bättre än människor, tack vare framkantens AI-system. Nu har gräns AI blivit det senaste buzzordet när oro växer över att den framväxande teknologin har kapaciteter som kan äventyra mänskligheten. Alla från den brittiska regeringen till toppforskare och till och med stora AI-företag själva larmar om gräns AI: s ännu okända faror och kräver skyddsåtgärder för att skydda människor från dess existentiella hot. Debatten kommer till en spets på onsdag, när den brittiska premiärministern Rishi Sunak är värd för ett två dagars toppmöte med fokus på gräns AI.

Direktlänk Dela WOWK 13 News fördjupade 31 oktober

Läkare Skeptiska Till AI i Patientvård Trots F.D.A:s Godkännande

F.D.A. har godkänt många nya program som använder artificiell intelligens, men läkare är skeptiska till om verktygen verkligen förbättrar vård eller stöds av gedigen forskning. Dr. Roy Fagan, en läkare i North Carolina, diagnostiserades snabbt med hjälp av ett AI-program för stroke-triage när han drabbades av stroke i augusti. Inom läkemedelsindustrin är AI ett hett ämne. Det hjälper till att upptäcka nya läkemedel, kan peka på oväntade biverkningar och diskuteras även som ett hjälpmedel för personal som är överväldigad av repetitiva, rutinmässiga uppgifter. Trots detta har F.D.A:s roll kritiserats för hur noga den granskar och beskriver de program den godkänner för att hjälpa läkare att upptäcka allt från tumörer till blodproppar till kollapsade lungor. President Biden utfärdade en exekutiv order på måndagen som kräver regleringar över ett brett spektrum av myndigheter för att försöka hantera säkerhets- och integritetsrisker med AI, inklusive inom hälso- och sjukvården. Inget enskilt amerikanskt organ styr hela landskapet. Senator Chuck Schumer, demokrat från New York och majoritetsledaren, kallade teknikchefer till Capitol Hill i september för att diskutera sätt att nära fältet och även identifiera fallgropar. Google har redan dragit uppmärksamhet från kongressen med sin pilot av en ny chatbot för vårdpersonal. Kallad Med-PaLM 2, är den utformad för att svara på medicinska frågor, men har väckt oro för patientintegritet och informerat samtycke.

Direktlänk Dela The New York Times fördjupade 31 oktober

Globala ledare och teknikexperter samlas för toppmöte om AI-säkerhet

Ledare, teknikchefer och experter samlas på Bletchley Park för ett toppmöte om säkerhet inom artificiell intelligens (AI). Toppmötet kommer att diskutera ´frontier AI´-system, högpresterande modeller som kan utföra en mängd olika uppgifter. Bland deltagarna finns Rishi Sunak, Storbritanniens premiärminister, tekniksekreteraren Michelle Donelan, USA:s vicepresident Kamala Harris, Europeiska kommissionens president Ursula von der Leyen och Italiens premiärminister Giorgia Meloni. Teknikindustrin representeras av företag som Google DeepMind, OpenAI och Meta. Experter inkluderar två av de tre ´gudfäder´ till modern AI, Geoffrey Hinton och Yoshua Bengio.

Direktlänk Dela The Guardian fördjupade 30 oktober

Fokus på domedagsscenarier i AI distraherar från omedelbara risker, säger branschexpert

Enligt Aidan Gomez, medförfattare till en forskningsstudie som hjälpte till att skapa tekniken bakom chatbots, är fokuseringen på domedagsscenarier i artificiell intelligens (AI) en distraktion som spelar ner omedelbara risker som storskalig generering av felinformation. Gomez, som är VD för Cohere, ett nordamerikanskt företag som tillverkar AI-verktyg för företag, inklusive chatbots, anser att AI redan används i stor utsträckning och att toppmötet bör fokusera på dessa applikationer. Han uttrycker oro över spridningen av felaktig eller felaktig information online, då AI-modeller kan skapa media som är extremt övertygande och nästan omöjliga att skilja från mänskligt skapade texter eller bilder.

Direktlänk Dela The Guardian fördjupade 29 oktober

Obegränsad AI-utveckling äventyrar mänsklighetens framtid, varnar forskare

Enligt Max Tegmark, professor i fysik och AI-forskare vid Massachusetts Institute of Technology, äventyrar några teknikföretag mänsklighetens framtid genom obegränsad AI-utveckling. Tegmark organiserade ett öppet brev som krävde ett sex månaders uppehåll i stora AI-experiment. I en policydokument publicerad denna vecka, sa 23 AI-experter, inklusive Geoffrey Hinton och Yoshua Bengio, att regeringen måste tillåtas stoppa utvecklingen av exceptionellt kraftfulla modeller. Förra månaden sa Amazon att de skulle investera upp till 4 miljarder dollar i Anthropic, ett start-up företag grundat av tidigare OpenAI-chefer. Amazon-Anthropic-avtalet ses som e-handelsjättens mest betydande drag hittills för att komma ikapp med Microsoft och Alphabet.

Direktlänk Dela The Guardian fördjupade 26 oktober

Världens första AI-toppmöte att äga rum på Bletchley Park

Världens första AI-toppmöte kommer att äga rum nästa vecka på Bletchley Park i Buckinghamshire, där Alan Turing knäckte Enigma-koden under andra världskriget. Vetenskapsmän, matematiker och politiker från hela världen kommer att diskutera om AI utgör ett hot mot mänskligheten eller om det är en positiv kraft som kan utveckla nya läkemedel och genterapier. Två av de tre ´gudfäderna för AI´ varnar för att AI kan bli så kraftfullt och självständigt att det kan ta över mänskligheten. Den tredje menar att de andra har ´dramatiskt överskattat hotet av en oavsiktlig AI-övertagning´ och att införandet av de regleringar de vill ha bara skulle ´fördröja framstegen inom kunskap och vetenskap´.

Direktlänk Dela The Guardian fördjupade 25 oktober

AI-experter varnar för etiska risker med snabb AI-utveckling

AI:s snabba utveckling har lett till både banbrytande förmågor och betydande etiska problem. AI-system visar allt mer förmågor som överstiger mänsklig förståelse, vilket får experter att varna för potentiella risker och behovet av robust styrning. En öppen brev publicerad av AI-forskare understryker de potentiella farorna med okontrollerade AI-framsteg. AI-pionjärerna Yoshua Bengio och Geoffrey Hinton, tillsammans med andra experter, uppmanar företag att avsätta en betydande del av deras AI-budgetar till säkerhet och etik. De betonar vikten av forskning inom AI-säkerhet och behovet av effektiva statliga regler.

Direktlänk Dela ReadWrite fördjupade 24 oktober

Kanadensiska AI-pionjärer uppmanar till bättre hantering av teknikrisker

Flera kanadensiska pionjärer inom artificiell intelligens (AI), inklusive Yoshua Bengio och Geoffrey Hinton, har undertecknat ett nytt dokument där de uppmanar regeringar att bättre hantera riskerna med tekniken. De varnar för att ytterligare framsteg inom AI kan förvärra global ojämlikhet, underlätta automatiserad krigföring, orkestrera massmanipulation och omfattande övervakning av befolkningar. För att hålla jämna steg med AI-innovationer och mildra risker uppmanar de regeringar och företag att ägna en tredjedel av sin AI-forsknings- och utvecklingsfinansiering till säker och etisk användning av systemen.

Direktlänk Dela Wire News Fax fördjupade 24 oktober

Akademiker uppmanar till säkerhetsåtgärder för AI för att förhindra potentiella existentiella risker

Ledande experter inom artificiell intelligens (AI) uppmanar regeringar och teknikföretag att snabbt utveckla säkerhetsåtgärder för AI-system för att mildra potentiella existentiella hot som tekniken kan utgöra. En essä skriven av 24 akademiker och experter varnar för att vårdslösa utvecklingar av teknikföretag, särskilt inom autonoma och andra banbrytande AI-system, kan leda till stora samhällsrisker. Författarna till essän uppmanade industrin att avsätta en tredjedel av sin forsknings- och utvecklingsbudget för säkerhets- och etikfrågor och för regeringen att säkerställa branschtillsyn genom mekanismer som juridiskt skydd för visselblåsare och obligatoriska rapporteringskrav.

Direktlänk Dela Information Security Media Group fördjupade 24 oktober

AI-experter varnar för säkerhetsrisker och uppmanar till striktare reglering

Inför en global konferens om säkerhet inom artificiell intelligens (AI) i Storbritannien har två dussin AI-experter släppt en kort rapport och policytillägg som uppmanar mänskligheten att ´hantera pågående skador och förutse framväxande risker´ i samband med den snabbt utvecklande tekniken. Experterna, inklusive Yoshua Bengio, Geoffrey Hinton och Andrew Yao, skrev att ´AI kan vara tekniken som formar detta århundrade. Medan AI-förmågorna utvecklas snabbt, halkar framstegen inom säkerhet och styrning efter. För att styra AI mot positiva resultat och bort från katastrof, måste vi omorientera. Det finns en ansvarsfull väg, om vi har visheten att ta den.´

Direktlänk Dela Common Dreams fördjupade 24 oktober

AI-experter varnar för hot mot social stabilitet och uppmanar till större ansvar för AI-företag

En grupp seniora experter, inklusive två ´gudfäder´ av tekniken, varnar för att kraftfulla AI-system hotar social stabilitet och att AI-företag bör hållas ansvariga för skador orsakade av deras produkter. De uppmanar till en rad politiska åtgärder, inklusive att regeringar och företag ska avsätta en tredjedel av sin AI-forsknings- och utvecklingsfinansiering till säker och etisk användning av system, och att techföretag ska hållas ansvariga för förutsägbara och förebyggbara skador från deras AI-system. Experterna varnar för att AI-system som utvecklas ovarsamt hotar att ´förstärka social orättvisa, underminera våra yrken, erodera social stabilitet, möjliggöra storskalig kriminell eller terroristaktivitet och försvaga vår gemensamma förståelse för verkligheten som är grundläggande för samhället.´

Direktlänk Dela The Guardian fördjupade 24 oktober

Befarheter om att AI-säkerhetstoppmötet förblir ineffektivt

Connor Leahy, VD för AI-säkerhetsforskningsföretaget Conjecture, har uttryckt oro över att nästa månads internationella AI-säkerhetstoppmöte kan uppnå mycket lite. Han anklagar mäktiga teknikföretag för att försöka ´erövra´ mötet och varnar för att regeringar kan komma att godkänna en regleringsstil som tillåter företag att fortsätta utveckla ´gud-liknande´ AI nästan oreglerat. Leahy och andra har lanserat en kampanj som heter Control AI för att uppmana beslutsfattare att gå längre och använda Bletchley Park-toppmötet för att implementera ett uppehåll i utvecklingen av de mest sofistikerade formerna av AI.

Direktlänk Dela The Guardian fördjupade 20 oktober

Storbritannien värd för världens första globala AI-säkerhetstoppmöte

Storbritannien kommer att vara värd för världens första globala toppmöte om artificiell intelligens (AI) säkerhet nästa månad. Målet är att skapa en roll som skiljedomare mellan USA, Kina och EU inom en central tekniksektor efter Brexit. Toppmötet kommer att fokusera på det existentiella hot som vissa lagstiftare, inklusive Storbritanniens premiärminister Rishi Sunak, fruktar att AI utgör. Sunak, som vill att Storbritannien ska bli ett nav för AI-säkerhet, har varnat för att tekniken kan användas av brottslingar och terrorister för att skapa massförstörelsevapen.

Direktlänk Dela Reuters fördjupade 18 oktober

AI-forskare varnar för teknologins snabba utveckling

Yoshua Bengio, grundare och vetenskaplig direktör för Mila vid Quebec AI Institute, uttrycker oro över den snabba utvecklingen inom artificiell intelligens (AI). Bengio anser att AI kan uppnå mänskliga nivåer av kognitiv kompetens inom några år eller decennier, vilket kan utgöra ett hot mot demokrati, nationell säkerhet och vår gemensamma framtid. Han uppmanar till reglering och potentiella lagstiftningar för att hantera teknologins utveckling. Bengio är också bekymrad över AI:s potentiella inverkan på klimatförändringar och biologisk säkerhet.

Direktlänk Dela Bulletin of the Atomic Scientists fördjupade 17 oktober

OpenAI ändrar sina kärnvärden på företagets karriärsida

OpenAI har diskret ändrat de kärnvärden som visas på företagets karriärsida. Tidigare värden som ´modig´, ´tankefull´, ´obetydlig´, ´effekt-driven´, ´samarbetsvillig´ och ´tillväxtorienterad´ har tagits bort. Istället värderar företaget nu ´AGI-fokus´ och att vara ´intensiv och uthållig´. Även ´skala´, ´skapa något folk älskar´ och ´laganda´ är nya kärnvärden. Det är oklart när ändringen skedde. Vissa av de äldre kärnvärdena verkar ha införlivats i de nya, medan andra saknar en tydlig ersättning. Företagets karriärsida nämner fortfarande att det värderar mångfald och inkludering, men listar det inte längre som ett kärnvärde.

Direktlänk Dela Business Insider fördjupade 16 oktober

AI och dess potentiella risker för mänskligheten

Artificiell intelligens (AI) kan vara en potentiell risk för mänskligheten. Geoffrey Hinton, tidigare vice VD och ingenjör på Google, varnar för att AI kan sprida desinformation och till och med hota mänskligheten. Han påpekar att det är svårt att hindra illasinnade aktörer från att använda AI till skadliga ändamål. Hinton menar också att det är tänkbart att mänskligheten bara är en övergångsfas i utvecklingen av intelligens och att AI kan hålla oss kvar ett tag för att hålla kraftstationer igång, men kanske inte efter att vi har lärt oss att bygga odödliga varelser. Det finns obegränsade möjligheter för AI, men det finns också risker, till exempel att AI tar över kontrollen över depressioner, ångest, Alzheimer och andra sjukdomar.

Direktlänk Dela Psychology Today fördjupade 14 oktober

AI-pionjären Geoffrey Hinton går med i rådgivningsstyrelsen för Vayu Robotics

Den brittisk-kanadensiska datavetaren Geoffrey Hinton, allmänt känd som ´Gudfadern av AI´, har gått med i rådgivningsstyrelsen för robotikstartföretaget Vayu Robotics. Hinton, en pionjär inom djupinlärning, lämnade nyligen Google Brain för att fritt tala om de potentiella farorna med AI-utveckling. Vayu Robotics, ett företag baserat i Palo Alto, syftar till att skapa högkvalitativa, lågkostnadsrobotiklösningar. De säkrade nyligen $12,7 miljoner i seedfinansiering, ledd av Khosla Ventures med deltagande från Lockheed Martin och ReMY Investors.

Direktlänk Dela Fagenwasanni.com fördjupade 12 oktober

» Nyheterna från en dag tidigare

Några av våra kursdeltagare