» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 215 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Google DeepMind är en brittisk artificiell intelligens (AI) och maskininlärningsföretag som grundades 2010 och förvärvades av Google 2014. DeepMind fokuserar på att utveckla AI-system som kan lära sig själva och lösa komplexa problem. De är mest kända för att skapa AlphaGo, en AI som besegrade världsmästaren i brädspelet Go. DeepMind arbetar också med att förbättra AI:s förmåga att förstå naturligt språk, generera bilder och optimera energiförbrukningen. Målet är att använda AI för att lösa globala utmaningar och förbättra människors liv.

Senaste nytt kring Google Deepmind

Google kanske övervinner sina återställningstendenser med AI-fokuserade Gemini

Google, känt för att ständigt förnya och ersätta sina produkter, kan vara på väg att övervinna denna tendens med sin AI-fokuserade assistent Gemini. Företaget har tidigare lanserat och sedan fasat ut produkter som Google Now och Google Glass, men Gemini verkar vara ett steg mot en mer hållbar framtida produkt. Google har lagt fram sin vision för AI-agenter som intelligenta system som visar resonemang, planering och minne, och kan tänka flera steg framåt, arbeta över mjukvaru- och systemgränserna för att utföra uppgifter på användarens vägnar och under deras övervakning. Google DeepMind har också talat om sitt mål att bygga en ´universell AI-agent´ som kan vara verkligt hjälpsam i vardagen.

Direktlänk Dela 9to5Google fördjupar idag
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Google DeepMind släpper ramverk för att övervaka AI:s farliga kapabiliteter

Google DeepMind har släppt ett ramverk för att övervaka artificiell intelligens (AI) och avgöra om de närmar sig farliga kapabiliteter. Ramverket beskriver en process där DeepMinds modeller kommer att omvärderas varje gång datorkraften som används för att träna modellen ökar sexfaldigt, eller om den finjusteras i tre månader. DeepMind kommer att arbeta med andra företag, akademiker och lagstiftare för att förbättra ramverket. Företaget planerar att börja implementera sina granskningsverktyg 2025. Detta är ett av flera metoder som stora teknikföretag, inklusive Meta, OpenAI och Microsoft, har tillkännagett för att mildra oro över AI.

Direktlänk Dela Semafor fördjupar idag

Google I/O 2024 fokuserar mer på utvecklare, inre hackathon annonserat

Google I/O 2024 kändes mer som en utvecklarkonferens, sträckte sig över två dagar med en tredje dag dedikerad till en intern ´Demo Slam´-händelse. Google meddelade också ett internt Gemini-hackathon. Det fanns ingen I/O 2020, medan 2021 strömmades framför en mycket begränsad livepublik i Mountain View. Deltagare bjöds in för en dag 2022 och 2023. Efter huvudanförandet 2024 höll Google live-sessioner för deltagare på plats, samt eftermiddagsevenemang. I/O 2024 kändes redan som en tredagars händelse, eftersom de förinspelade livesessionerna släpptes på YouTube på torsdag morgon.

Direktlänk Dela 9to5Google fördjupade igår

Google och OpenAI jämförs på AI-konferenser

På Googles I/O-konferens tidigare i veckan var generativ AI en stor fokus. Google har integrerat AI-funktioner i nästan alla sina produkter och tjänster, inklusive Sök, Workspace och kreativa verktyg för videor, foton och musik. Men den största nyheten var hur Googles tillkännagivanden jämfördes med de från OpenAI. Dagen innan Google I/O avtäckte OpenAI GPT-4o, en ´ursprungligen multimodal´ modell som kan bearbeta visuella och ljud i realtid. Båda företagen delade liknande AI-förmågor och använde samma retorik (AI är ´avbrytbar´) och exempel (AI kan hjälpa med läxor).

Direktlänk Dela Mashable fördjupade igår

Google introducerar Trillium, sin mest avancerade Tensor Processing Unit hittills

Google har tillkännagivit lanseringen av sin mest avancerade Tensor Processing Unit (TPU) hittills, kallad Trillium. TPUs är specialiserade ASIC-chips utformade för att påskynda maskininlärningsalgoritmer. Google har använt TPUs sedan 2015 för att förbättra sina molnbaserade tjänster och företaget omfamnar nu fullt ut den senaste generationen av TPUs för en ännu effektivare och kraftfullare AI-acceleratorplattform. Trillium representerar kulmen på över ett decennium av forskning på specialiserad AI-hårdvara och är en grundläggande komponent för att bygga nästa våg av AI-grundmodeller.

Direktlänk Dela TechSpot fördjupade igår

Google utökar användningen av AI-märkningstekniken SynthID

Google meddelade under sin I/O 2024-keynote att det kommer att utöka användningen av sin AI-märkningsteknik, SynthID. Tekniken, som först avtäcktes av Google DeepMind i augusti 2023, används för att korrekt märka AI-genererat innehåll och bekämpa spridningen av falsk information och cyberbrott. Den kommer nu att användas för att märka text genererad av Gemini-appen och webbklienten, samt videor genererade av Veo. SynthID kommer att integreras direkt i genereringsprocessen, vilket gör det möjligt att märka specifika ord i en block av genererad text. Google planerar också att open source SynthID-textmärkning genom sitt Responsible Generative AI-verktyg.

Direktlänk Dela Gadgets 360 fördjupade igår

Google DeepMind presenterar Project Astra: Framtiden för AI-assistenter

Google DeepMind presenterade Project Astra vid I/O 2024, som företaget beskriver som framtiden för AI-assistenter. Project Astra kommer att implementeras i Gemini Live, företagets kommande konversationserfarenhet för mobila enheter. Project Astra demonstrerades med fyra funktioner: Alliteration, Storytelling, Pictionary och en öppen upplevelse. Trots vissa tvivel om användbarheten av dessa funktioner, tror Google att de kan vara användbara och roliga för användare. Project Astra kan även komma ihåg namn och identifiera citat från populärkulturen, vilket demonstrerades under presentationen.

Direktlänk Dela MobileSyrup fördjupade igår

Bakgrunden till namnet på Googles AI-modell Gemini

Googles AI-modell Gemini, som först nämndes offentligt vid Google I/O 2023, hade ursprungligen arbetsnamnet ´Titan´. Namnet Gemini, som betyder ´tvillingar´ på latin, valdes för att spegla sammanslagningen av Google Brain och DeepMind till Google DeepMind 2023. Namnet har också referenser till rymden, både genom zodiakens tecken Gemini och NASA:s tidiga månprogram, Project Gemini. Modellens förmåga att hantera olika datatyper stämmer överens med Gemini-tecknets dubbelnatur. Oriol Vinyals, medteknisk ledare för Gemini, antydde att en uppföljare till Gemini kan komma att få namnet Apollo.

Direktlänk Dela Neowin fördjupade i förrgår

OpenAI och Google presenterar avancerade AI-chattbotar

OpenAI har presenterat en ny version av sin AI-chattbot, ChatGPT, byggd på en uppdaterad AI-modell kallad GPT-4o. Chattboten kan tolka visuell och auditiv input och föreslå vad användaren ska göra baserat på det. Den nya versionen av ChatGPT har också en ´personlighet´, och kan skratta åt skämt och svara flörtigt. Google presenterade också en mer kapabel AI-assistent, Project Astra, som kan konversera flytande via röst och tolka världen via video. Men Google undvek antropomorfism, och dess assistent hade en mer återhållen och robotisk ton.

Direktlänk Dela Wired fördjupade i förrgår

Google presenterar Music AI Sandbox: Ett verktyg för att skapa musikslingor med AI

Google har presenterat Music AI Sandbox, ett nytt verktyg som låter användare skapa musikslingor med hjälp av AI-genererade prompts. Detta meddelades under konferensen I/O 2024, där företaget visade olika framsteg inom artificiell intelligens. I en demonstrationsvideo visades Music AI Sandbox acceptera textinmatningar och generera korta ljudklipp eller ´stems´ baserade på de givna prompts. Verktyget ger även en vågformrepresentation av de genererade ljuden, vilket ger en visuell komponent till ljudskapandeprocessen. Producenten Wyclef Jean jämförde verktyget med en ´oändlig låda´, medan musikproducenten Marc Rebillet demonstrerade verktyget genom att skriva prompts som ´viola´ och ´rytmiskt klappande´. Google presenterade också flera andra AI-verktyg på evenemanget, inklusive AI-videogeneratorn Veo och Imagen 3, en ny AI-fototjänst. Användningen av AI inom kreativa fält har väckt debatt bland skådespelare, författare och musiker som oroar sig för teknikens inverkan på deras försörjning.

Direktlänk Dela WinBuzzer fördjupade i förrgår

Google DeepMind introducerar Gemini AI-modeller

Gemini nämndes först vid I/O 2023 och har sedan dess introducerats i Sök, Annonser, Arbetsplats, Pixel och mer. Ursprunget till namnet Gemini kommer från det latinska ordet för ´tvillingar´ och har kopplingar till rymden och mytologi. Enligt Jeff Dean, Gemini´s medtekniska ledare, representerar namnet sammanslagningen av DeepMind och Google Researchs Brain-team, som båda har bidragit till betydande framsteg inom AI. Den första uppgiften för det nya teamet var att lansera en serie kraftfulla, multimodala AI-modeller. Sedan lanseringen i december har Gemini nått miljarder människor genom Google-produkter.

Direktlänk Dela Google fördjupade i förrgår
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Google avslöjar historien bakom namnet på sin AI-modell Gemini

Google har avslöjat historien bakom namnet på sin innovativa AI-modell, Gemini. Ursprungligen kodnamngiven ´Titan´, ändrades namnet till ´Gemini´, vilket betyder ´tvillingar´ på latin, för att symbolisera modellens dubbla natur och omfattande kapabiliteter. Namnet representerar också sammanslagningen av två ledande AI-forskningsgrupper, DeepMind och Google Research Brain team, som tillsammans bildade Google DeepMind. Gemini har sedan dess blivit en integrerad del av många Google-produkter, inklusive Sök, Annonser, Workspace och Pixel. Dessutom finns det en koppling till NASA:s Project Gemini, vilket speglar det monumentala arbetet med att träna stora språkmodeller.

Direktlänk Dela BetaNews fördjupade i förrgår

Google avtäcker nya uppdateringar för flaggskeppsmodellen Gemini

Google har avslöjat en rad kraftfulla nya uppdateringar till sin flaggskeppsmodell Gemini, från små till stora versioner. Förra året presenterade Google Gemini, en grundmodell designad för att driva sina applikationer över hela sin tjänsteportfölj. I år meddelade Google att den nuvarande flaggskeppsmodellen, Gemini 1.5 Pro, nu görs tillgänglig för alla utvecklare globalt. Tidigare reserverad för en utvald grupp av utvecklare, kan företag nu använda modellen, som är tillgänglig från Googles Gemini Advanced-plattform. Modellen kan användas över 35 språk och är multimodal och kan förstå bilder, text och visuella signaler i prompts. Modellen har en kontextfönster på upp till 1 miljon tokens, vilket representerar hur mycket text en modell kan hantera i en inmatning, vilket innebär att Gemini 1.5 Pro kan hantera motsvarande runt 1 500 sidor text. Google meddelade dock att det skulle öka Gemini´s kontextfönster ännu mer. Gemini 1.5 Pro´s redan enorma kontextfönster kommer att ökas till upp till 2 miljoner tokens, eller runt 1,5 miljoner ord. I kontrast kan OpenAI´s GPT-4 Turbo bara hantera 128 000 tokens. Google presenterade också en mindre, mer lättviktig version av sin flaggskeppsmodell, Gemini 1.5 Flash, designad för att fungera i låg-latensmiljöer. Sir Demis Hassabis, Google DeepMind CEO, gjorde sitt första I/O-framträdande för att avtäcka den lilla modellen. Han avtäckte en modell optimerad för högfrekventa uppgifter som kräver att ett AI-system har snabba svarstider, som i IoT-enheter och industrirobotik. Trots att den är mindre än 1.5 Pro, har Flash fortfarande Gemini´s kraftiga kontextfönster. Gemini 1.5 Flash är tillgänglig i Google´s AI Studio och Vertex. Båda Gemini 1.5 Flash och Gemini 1.5 Pro kommer att vara tillgängliga i juni. Google avtäckte också PaliGemma, en öppen källkodsmodell för vision-språk för att generera bildtexter och bildetiketter. Den lätta modellen kan hantera både bilder och text som inmatningar, och returnerar svar om bilder med detaljer. Även avtäckad på I/O var Gemma 2, Google´s senaste lilla språkmodell. Modellen lanseras i juni och är designad för att vara mer effektiv för utvecklare och företag med begränsad infrastrukturåtkomst. Den kan köras på en enda TPU, Google´s anpassade hårdvara, genom Vertex AI. Gemma 2 är större än Google´s tidigare Gemma-modeller, med 7 miljarder parametrar jämfört med 2 miljarder parametrar. Den nya versionen presterar dock bättre än modeller mer än dubbelt så stora.

Direktlänk Dela AI Business fördjupade i förrgår

Google avtäcker Imagen-3, en konkurrent till OpenAIs DALL-E 3

Google presenterade sin senaste bildgenereringsmodell, Imagen-3, vid Google I/O 2024-evenemanget. Modellen, utvecklad av Google DeepMind, är positionerad som en direkt konkurrent till OpenAI:s DALL-E 3. Imagen-3 lovar högkvalitativa, fotorealistiska bilder och hanterar tidigare utmaningar med att rendera realistiska händer, ansikten och komplexa scener. Google har integrerat Imagen-3 över hela sin produktlinje, vilket gör avancerad bildgenerering tillgänglig för en bredare publik. Imagen-3 och DALL-E 3 har distinkta styrkor, men Imagen-3 tendens att producera mer fotorealistiska bilder kan påverka användarpreferenser.

Direktlänk Dela PC-Tablet fördjupade 15 maj

Google presenterar sin mest kraftfulla AI-modell, Gemini 1.5 Flash

Google presenterade sin mest kraftfulla artificiella intelligensmodell, Gemini 1.5 Flash, på sin årliga utvecklarkonferens Google I/O. Modellen kommer initialt att vara tillgänglig för testning och i Vertex AI, företagets maskininlärningsplattform för utvecklare att träna AI-plattformar. Google presenterade också en förbättrad Gemini 1.5 Pro-modell, som kan absorbera och sammanfatta flera stora dokument eller 100 e-postmeddelanden. Denna modell kommer att vara tillgänglig för testning i Workspace Labs. Denna satsning på generativ AI är viktig för Google i sin strävan att ge användare mer avancerade sätt att komma åt onlineinformation.

Direktlänk Dela United Press International fördjupade 15 maj

Musikern Marc Rebillet använder Googles AI-verktyg MusicFX på Google I/O 2024

Under Google I/O 2024 förhandsvisning visade den musikaliska gästen Marc Rebillet upp Googles MusicFX AI-generationverktyg, som han integrerade i sin signaturstil ´Loop Daddy´. Rebillet, känd för att skapa musik på flygande fot, använde MusicFX för att skapa AI-genererade instrument som utgångspunkt istället för traditionellt skapade musikaliska prov. Han visade ett live-genererat exempel på en viola stödd av en ´808 hip hop beat´. Publiken valde en kombination av en djembe trumma, en persisk tar och en flamenco gitarr från ett set av sex instrument. MusicFX är fritt tillgängligt som en del av Googles AI Test Kitchen-suite.

Direktlänk Dela 9to5Google fördjupade 14 maj

Musiker Marc Rebillet visar upp Googles AI-genererade musikverktyg MusicFX

Under förshowen till Google I/O 2024 visade den musikaliska gästen Marc Rebillet upp Googles verktyg för AI-genererad musik, MusicFX, genom att integrera det i sin signaturstil ´Loop Daddy´. Rebillet, känd för att skapa musik på flygande fot, använde MusicFX för att skapa AI-genererade instrument som utgångspunkt snarare än traditionellt skapade musikaliska prover. Han visade ett livegenererat exempel på en viola med en ´808 hip hop beat´. Publiken valde en kombination av en djembe trumma, en persisk tar och en flamenco gitarr från ett set av sex instrument. Rebillet använde MusicFX för att skapa en låt baserad på var och en av de tre instrumenten. MusicFX är fritt tillgängligt som en del av Googles AI Test Kitchen-svit. Rebillet samarbetade också med Google DeepMind och YouTube för att skapa ett annat demo-spår av AI-genererad musik.

Direktlänk Dela 9to5Google fördjupade 14 maj

OpenAI presenterar sin nya flaggskeppsmodell GPT-4o

Vid OpenAI:s vårmöte avtäckte CTO Mira Murati GPT-4o, en ny flaggskeppsmodell med ´omni´-förmågor inom text, vision och ljud. Modellen lovar att förbättra både utvecklar- och konsumentprodukter genom iterativa utrullningar de kommande veckorna. GPT-4o kommer att vara tillgänglig för ChatGPT Plus och ChatGPT gratisanvändare inom kort. OpenAI:s ordförande och medgrundare Greg Brockman visade även upp mänsklig-datorinteraktion (och till och med mänsklig-dator-datorinteraktion). GPT-4o kan delta i naturliga, realtids röstkonversationer och har förmågan att konversera med ChatGPT via realtidsvideo.

Direktlänk Dela Analytics India Magazine fördjupade 13 maj

AlphaFold 3: Googles AI förbättrar förståelsen av biologiska molekyler

Google DeepMind har utvecklat AlphaFold 3, en AI som kan förutse struktur och interaktioner mellan biologiska molekyler. Tekniken kan påskynda biologisk forskning genom att beräkna dessa interaktioner med hög noggrannhet, vilket kan vara tidskrävande och kostsamt att göra experimentellt. Modellen visar en förbättring i noggrannhet med 50 procent jämfört med tidigare metoder. AlphaFold 3 kan även förutse interaktioner mellan nästan alla sorters molekyler. AlphaFold Server erbjuder kostnadsfri tillgång till AlphaFold 3 för icke-kommersiell forskning.

Direktlänk Dela Warp News fördjupade 13 maj

Shadow Robot och Google´s DeepMind skapar ny robotmodell för maskininlärningsforskning

Det framstående robotföretaget Shadow Robot har nyligen samarbetat med Google´s DeepMind för att skapa en ny, robust robotmodell skräddarsydd för forskning inom maskininlärning. Företaget, känt för sina högprofilerade kunder som NASA, ESA, Google, OpenAI, MIT och flera universitet, har över 20 års erfarenhet av att leverera kvalitetsrobotdesigner. Den senaste versionen av världens mest fingerfärdiga humanoida robot ser ganska annorlunda ut från tidigare versioner. Den nya Shadow Hand, som skapades av företaget i samarbete med Google DeepMind robotteamet, har endast tre fingrar i en gripperliknande formation. Denna design byggdes med hastighet, flexibilitet och precision i åtanke, men också med förmågan att uthärda en betydande mängd missbruk.

Direktlänk Dela Inceptive Mind fördjupade 11 maj

Microsoft investerar $3,3 miljarder i AI-datacenter i Wisconsin, Atlan samlar in $105 miljoner, Mistral AI värderas till $6 miljarder

Teknikjättar och startups investerar miljarder i AI-infrastruktur, utbildning och utveckling. Microsoft planerar ett AI-datacenter i Wisconsin för $3,3 miljarder, startupföretaget Atlan har samlat in $105 miljoner för sin AI-klara datastack och Mistral AI söker finansiering till en värdering på $6 miljarder för öppna språkmodeller. Microsofts center kommer att generera 2 300 fackliga byggjobb och 2 000 permanenta positioner. Centret kommer också att utbilda cirka 100 000 arbetare i Wisconsin i generativ AI till 2030. Atlan, en AI-startup, har samlat in $105 miljoner i en finansieringsrunda lett av Singapores GIC och techinvesteraren Meritech Capital. Parisbaserade Mistral AI, en startup som utvecklar öppna storspråkmodeller avgörande för generativa AI-tjänster, samlar rapporterat in medel till en värdering på $6 miljarder.

Direktlänk Dela PYMNTS fördjupade 11 maj
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Googles AI-modeller för medicinsk bildanalys förbättras

En studie utförd av Google Research och Google DeepMind visar att Google har utvidgat kapaciteten hos sina AI-modeller för Med-Gemini-2D, Med-Gemini-3D och Med-Gemini Polygenic. Modellerna har finslipats med hjälp av data från histopatologi, dermatologi, 2D- och 3D-radiologi, genetik och oftalmologi. Med-Gemini-2D-modellen överträffade tidigare resultat för AI-genererade rapporter för bröströntgen med 1% till 12%. Med-Gemini-3D-modellen kunde läsa 3D-skanningar och svara på frågor om bilderna. Med-Gemini-Polygenic är företagets första modell som använder genetisk data för att förutsäga hälsoutfall.

Direktlänk Dela MobiHealthNews fördjupade 10 maj

Shadow Robot Company utvecklar ny avancerad robotarm till Google DeepMind

Shadow Robot Company har utvecklat en ny robotarm kallad Shadow Hand, speciellt framtagen för Google DeepMind. Enligt Rich Walker, direktör på Shadow Robot Company, har de tidigare robotarna som använts för AI-forskning inte varit tillräckligt robusta eller kapabla för uppgiften. Shadow Hand är en tre-fingerad robotarm som kan motstå kraven från verklig maskininlärningsforskning. Varje finger väger 1,2 kg och hela enheten väger 4,1 kg. Den nya robotarmen kommer att visas upp för allmänheten för första gången på ICRA i Japan, som äger rum 13-17 maj 2024.

Direktlänk Dela Theengineer.co.uk fördjupade 10 maj

Googles VD Sundar Pichai tar ansvar för felaktigheter i Gemini AIs bildgenerering

Google VD Sundar Pichai tar ansvar för företagets överanvändning av att tillgodose en global användarbas när det gäller Gemini AIs nyligen uppkomna problem med att generera bilder. Pichai medger att företaget ´fick det fel´ och att det var ett exempel på välmenade misstag. Enligt Pichai försöker Google betjäna en världsomfattande användarbas genom att svara på vanliga frågor från individer över hela världen. Bildgenereringsproblemet är ännu inte löst, men Gemini förväntas återfå funktionen snart. Dessutom har det varit kritik mot Gemini-chatboten tidigare.

Direktlänk Dela Tech Times fördjupade 10 maj

Mistral AI säkrar omfattande finansiering på 600 miljoner dollar

Mistral AI har säkrat en betydande finansiering på 600 miljoner dollar, vilket ökar dess värde till 6 miljarder dollar. Bland investerarna finns General Catalyst och Lightspeed Venture Partners, och teamet inkluderar tidigare anställda från stora teknikföretag som Meta och Google DeepMind. Mistral AI är nära att sluta ett annat finansieringsavtal på 600 miljoner dollar. Microsoft har investerat 16 miljoner dollar i Mistral och arbetar med dem för att använda deras AI-modeller genom Azure molnplattform. Trots kritik från vissa EU-lagstiftare, öppnar Mistral´s partnerskap med Microsoft nya möjligheter för AI-innovation.

Direktlänk Dela Scoop Earth fördjupade 10 maj

AlphaFold3, en ny AI som kan förutsäga biomolekylers strukturer

Forskare har tagit ett stort steg mot att förstå proteiners och andra biomolekylers funktion genom utveckling av nya maskininlärningsalgoritmer. I en artikel publicerad i Nature presenterade Google DeepMind och dess spinoff-företag Isomorphic Labs den senaste versionen av deras AlphaFold-program, AlphaFold3, som kan förutsäga strukturerna hos proteiner, DNA, RNA, ligander och andra biomolekyler. AlphaFold3 går utöver proteiner till en mer utmanande och relevant biologisk landskap som inkluderar den stora mångfalden av molekyler som interagerar i celler.

Direktlänk Dela Quanta Magazine fördjupade 9 maj

MIT forskare förbättrar språkmodellers konsistens med spelteori

Forskare vid Massachusetts Institute of Technology har utvecklat en metod för att förbättra konsistensen i svar från stora språkmodeller (LLM). Metoden, kallad konsensspelet, använder verktyg från spelteori för att driva två lägen i en språkmodell mot att hitta ett svar de kan enas om. Genom att spela spelet mot sig själv kan LLM förbättra sin noggrannhet och interna konsistens. Forskarna testade metoden på olika språkmodeller och fann att de som hade spelat spelet fick en högre andel korrekta svar än de som inte hade gjort det.

Direktlänk Dela Quanta Magazine fördjupade 9 maj

Google DeepMind och Isomorphic Labs har släppt AlphaFold 3, en avancerad AI-modell utformad för att förutsäga strukturen och interaktionerna hos biologiska molekyler, inklusive proteiner, DNA, RNA och ligander. Denna nya modell syftar till att förbättra vår förståelse för biologiska processer och påskynda läkemedelsupptäckten genom att ge detaljerad insikt i hur molekyler interagerar på en atomär nivå. AlphaFold 3:s ankomst markerar en omvandlande stund inom området med potential att påskynda läkemedelsupptäcktsinsatser och fördjupa vår förståelse av livet på molekylär nivå.

Geeky Gadgets fördjupade 9 maj

Google DeepMind har introducerat AlphaFold 3, en molekylär förutsägelsemodell som kan förändra läkemedelsupptäckten. AlphaFold 3 kan förutsäga strukturen och interaktionerna hos alla livets molekyler med oöverträffad noggrannhet. Modellen förbättrar avsevärt tidigare metoder, särskilt när det gäller att förutsäga hur proteiner interagerar med andra molekyltyper. AlphaFold 3 bygger på framgången hos sin föregångare, AlphaFold 2, som gjorde ett genombrott i proteinstrukturprognos 2020. En av de mest spännande tillämpningarna av AlphaFold 3 ligger inom läkemedelsdesign.

Dataconomy Media fördjupade 9 maj

Generativ Artificiell Intelligens (Gen AI) Tjänster Marknadsundersökning av IBI

IBI presenterar ny forskning om Generativ Artificiell Intelligens (Gen AI) Tjänster som täcker mikronivåanalys av konkurrenter och viktiga affärssegment (2024-2032). Generativ Artificiell Intelligens (Gen AI) Tjänster utforskar en omfattande studie av olika segment som möjligheter, storlek, utveckling, innovation, försäljning och total tillväxt av stora aktörer. Marknadsstorleken för Generativ Artificiell Intelligens (Gen AI) Tjänster beräknas öka en CAGR på 99,8% till 2032. Rapporten inkluderar historiska marknadsdata från 2024 till 2032.

Direktlänk Dela openPR fördjupade 9 maj

Google introducerar Med-Gemini, en AI-modell för medicinska uppgifter

Google har introducerat Med-Gemini, en familj av AI-modeller som är anpassade för medicinska uppgifter. Med-Gemini-modellerna är baserade på Geminis modeller och har förbättrade förmågor att hantera multimodala data och långvariga sammanhang. För att förbättra språkbaserade uppgifter har forskningsteamet förbättrat modellernas förmåga att använda webbsökning genom självträningsmetoder och introducerat en inferenstidsstrategi som styrs av osäkerhet inom ett agentramverk. Forskarna har visat modellernas anpassningsförmåga till nya medicinska modaliteter genom att använda skräddarsydda kodare. Med-Gemini-modellerna visade framstående resultat över 14 medicinska riktmärken som omfattar text, multimodala och långvariga tillämpningar.

Direktlänk Dela Synced Review fördjupade 8 maj

Google DeepMind presenterar nästa generationens AI-modell för läkemedelsupptäckt

Google DeepMind har introducerat den tredje iterationen av sin banbrytande artificiella intelligensmodell, AlphaFold, med syfte att förbättra effektiviteten och precisionen inom läkemedelsdesign och sjukdomsbehandling. Denna senaste utveckling presenterades i London den 8 maj, vilket markerar ett betydande steg framåt i användningen av AI inom molekylärbiologi. Sedan sitt ursprungliga genombrott 2020, där AlphaFold använde AI för att förutsäga proteinbeteenden, har verktyget utvecklats. Den nuvarande versionen, utvecklad i samarbete med Isomorphic Labs, har framgångsrikt kartlagt interaktionerna av alla molekylära strukturer i livet, inklusive mänskligt DNA.

Direktlänk Dela InvestorsObserver fördjupade 8 maj

USA planerar att reglera export av avancerade AI-modeller

Biden-administrationen planerar att införa regler för att skydda USA:s avancerade AI-modeller från Kina och Ryssland. Kommersdepartementet överväger att begränsa exporten av proprietära eller slutna AI-modeller, vars mjukvara och data hålls hemliga. Dessa åtgärder skulle komplettera de åtgärder som har införts under de senaste två åren för att blockera exporten av avancerade AI-chip till Kina. För närvarande kan AI-giganter som Microsoft-stödda OpenAI, Alphabets Google DeepMind och konkurrenten Anthropic sälja sina mest kraftfulla slutna AI-modeller till nästan vem som helst i världen utan statlig tillsyn.

Direktlänk Dela Investing.com fördjupade 8 maj

Google DeepMind avslöjar AlphaFold3, ett AI-program för att förutsäga proteinbeteende

Forskare har hyllat Google DeepMinds senaste version av AlphaFold-programmet, AlphaFold3, som kan förutsäga hur proteiner beter sig i livets komplexa symfoni. Detta kan belysa den biologiska maskineriet som stöder levande organismer och driva framsteg inom områden från antibiotika och cancerterapi till nya material och motståndskraftiga grödor. AlphaFold3 har utbildats på en global databas av 3D-molekylstrukturer och kan förutsäga hur proteiner kommer att interagera med andra molekyler och joner. Programmet har visat en noggrannhet på 62% till 76% i tester.

Direktlänk Dela The Guardian fördjupade 8 maj

Google har uppgraderat sitt AI-verktyg AlphaFold, utvecklat av DeepMind, för att förutsäga 3D-strukturen av proteiner. Den nya versionen, AlphaFold 3, kan nu modellera andra biologiskt viktiga molekyler, inklusive DNA, samt interaktioner mellan antikroppar producerade av immunsystemet och sjukdomsorganismers molekyler. AlphaFold 3 kan modellera stora molekyler som DNA och RNA, men också mycket mindre enheter, inklusive metalljoner. Programvaran utvecklades av Google DeepMind och Isomorphic labs, ett systerföretag som också leds av Demis Hassabis. AlphaFold 3 kommer att göras tillgänglig via molnet för externa forskare att använda gratis.

Wired fördjupade 8 maj

Google DeepMind och Isomorphic Labs presenterar förbättrad version av AlphaFold

Artificiell intelligens (AI) ger maskiner kraften att generera videor, skriva datorprogram och till och med föra en konversation. AI accelererar också ansträngningarna för att förstå den mänskliga kroppen och bekämpa sjukdomar. På onsdag presenterade Google DeepMind, techjättens centrala AI-labb, och Isomorphic Labs, ett systerföretag, en mer kraftfull version av AlphaFold, en AI-teknologi som hjälper forskare att förstå beteendet hos de mikroskopiska mekanismerna som driver cellerna i den mänskliga kroppen. En tidig version av AlphaFold, släppt 2020, löste ett problem som förbryllat forskare i över 50 år, kallat ´proteinveckningsproblemet´.

Direktlänk Dela The New York Times fördjupade 8 maj

Microsoft utvecklar stort språkmodell som kan vara kraftfullare än Google och OpenAI:s

Microsoft rapporteras arbeta på en stor språkmodell (LLM) i huset, kallad MAI-1, som kan vara mer kraftfull än Google och OpenAI:s modeller. Projektet övervakas av Mustafa Suleyman, medgrundare till Google DeepMind och tidigare VD för AI-startupen Inflection. MAI-1 förväntas ha ungefär 500 miljarder parametrar, jämfört med OpenAI:s GPT-4 som rapporteras ha en biljon parametrar. Kritiker menar dock att den nya modellen kan bli dyrare jämfört med OpenAI:s.

Direktlänk Dela The Financial Express fördjupade 8 maj

USA överväger att begränsa Kinas tillgång till avancerade AI-modeller

Bidens administration överväger att införa nya regler för att begränsa Kinas tillgång till avancerade AI-modeller, såsom de som används i ChatGPT, enligt källor. Handelsdepartementet överväger att begränsa exporten av proprietära eller sluten-källkods AI-modeller, vilket ses som en strategi för att skydda USA:s AI från Kina. För närvarande finns det inga begränsningar för amerikanska AI-jättar som Microsoft, OpenAI, Alphabets Google DeepMind och Anthropic från att sälja sina kraftfulla sluten-källkods AI-modeller globalt utan statlig tillsyn. USA kan komma att använda en tröskel baserad på den beräkningskraft som krävs för att träna en modell för att införa en exportkontroll på AI-modeller.

Direktlänk Dela Benzinga fördjupade 8 maj

USA planerar att förhindra Kina från att få tillgång till toppmoderna AI-teknologier

USA:s regering förbereder sig för att vidta ytterligare åtgärder för att förhindra att Kina får tillgång till landets bästa artificiella intelligens (AI) kapabiliteter. Biden-administrationen har redan vidtagit åtgärder för att förhindra att Kina uppnår AI-överlägsenhet genom att förbjuda exporten av specifika högpresterande NVIDIA-grafikkort, som används för att träna AI-modeller. Dessutom föreslås regler som kräver att alla amerikanska molnföretag informerar regeringen när utländska kunder använder deras molnsystem för att träna AI-modeller. Enligt rapporter överväger handelsdepartementet att rikta in sig på exporten av proprietära eller sluten källkods-AI-modeller.

Direktlänk Dela TweakTown fördjupade 8 maj

Microsoft bygger OpenAI-konkurrent med GPT-4-data

Microsoft uppges bygga en konkurrent till OpenAI trots sitt mångmiljardpartnerskap med företaget, och använder GPT-4-data för att göra det. Det nya stora språkmodellen (LLM) kallas MAI-1 och tränas med GPT-4 och offentlig information från webben. MAI-1 kan också tränas på dataset från Inflection, startupen som tidigare drevs av Google DeepMind medgrundare Mustafa Suleyman innan han gick med i Microsoft som VD för dess AI-avdelning tidigare i år. Microsoft CTO Kevin Scott antydde att nyheterna om MAI-1 inte var någon stor sak.

Direktlänk Dela Futurism fördjupade 7 maj

Microsoft utvecklar nytt stort språkmodell för att konkurrera med Google och OpenAI

Microsoft rapporteras arbeta på en ny stor språkmodell (LLM) för att konkurrera med Googles Gemini och OpenAIs GPT-4. Den nya LLM, kodnamn MAI-1, leds av Mustafa Suleyman, medgrundare av Google DeepMind och Inflection AI, och är för närvarande under utveckling. Suleyman gick med i Microsoft i mars tillsammans med Karen Simonyan, den andra medgrundaren av Inflection AI, för att leda företagets copilotinsats. Microsoft betalade också 650 miljoner dollar till Inflection AI för att licensiera dess programvara.

Direktlänk Dela InfoWorld fördjupade 7 maj

AI:s inverkan på livsmedelsindustrin: Framsteg och risker

Att minska risken för utrotning från artificiell intelligens (AI) bör vara en global prioritet, enligt Center for AI Safety, stött av ledande personer på OpenAI, Google DeepMind och Bill Gates. Men inte alla inom AI är lika oroade över ett potentiellt domedagsscenario. Inom livsmedelsindustrin används tekniken för att optimera ineffektiviteter i nästan alla områden, från jordbruk till ny produktutveckling, livsmedelssäkerhet och till och med detaljhandel. AI håller verklig potential att skapa positiv störning om den används klokt.

Direktlänk Dela Foodnavigator.com fördjupade 7 maj

Microsoft utvecklar ny AI-modell för att konkurrera med Google och Anthropic

Microsoft rapporteras bygga en ny AI-modell, kallad MAI-1, utformad för att konkurrera med kraftfulla erbjudanden från Google och Anthropic. Modellen kan också potentiellt konkurrera med OpenAI, där Microsoft har gjort en flermiljardinvestering. Microsofts CTO Kevin Scott meddelade att företaget planerar att fortsätta bygga stora superdatorer för OpenAI långt in i framtiden. MAI-1 övervakas av Mustafa Suleyman, en medgrundare till Google DeepMind och tidigare VD för AI-startupen Inflection. MAI-1 kommer att vara ´mycket större´ än de tidigare mindre, öppna källkodsmodeller som Microsoft har tränat.

Direktlänk Dela Mobile World Live fördjupade 7 maj

Microsoft utbildar stort språkmodell för att ta upp konkurrensen med Google och OpenAI

Teknikjätten Microsoft tränar en stor språkmodell (LLM) för att utmana Google, OpenAI och fler AI-orienterade företag. Projektet, känt som ´MAI-1´, utvecklas under ledning av Mustafa Suleyman, medgrundare av Google DeepMind och tidigare VD för Inflection. Även om den exakta avsikten med AI-modellen för närvarande är oklar, kan användningsfallen bero på dess prestanda. Rapporter antyder att företaget kan visa upp produkten senare denna månad på sin Build-utvecklarkonferens. MAI-1 sägs vara större än de tidigare modellerna företaget har utbildat, vilket kan innebära att det kan komma till ett premiumpris.

Direktlänk Dela Dainik Jagran fördjupade 7 maj

Microsoft förbereder lansering av nytt AI-språkmodell för att utmana Google och OpenAI

Microsoft förbereder sig för att lansera en ny artificiell intelligens (AI) språkmodell, internt känd som MAI-1, som en del av sin strategi för att utmana branschjättar som Google och OpenAI. Utvecklingen av MAI-1, ledd av AI-ljusfiguren Mustafa Suleyman, markerar en betydande satsning av Microsoft för att säkra en ledande position inom den konkurrenskraftiga AI-landskapet. MAI-1 beskrivs som ´mycket större´ än Microsofts tidigare modeller, med cirka 500 miljarder parametrar. Trots utmaningar, som behovet av mer datacenterinfrastruktur och leveransbegränsningar, planerar Microsoft att fortsätta investera i sin AI-bana.

Direktlänk Dela Business Times Online fördjupade 7 maj

Microsoft utökar AI-kapaciteter genom partnerskap med franska Mistral AI

Microsoft har utökat sina AI-förmågor genom ett partnerskap med den franska uppstartsföretaget Mistral AI. Detta fleråriga avtal för Mistral AI:s kraftfulla stora språkmodeller (LLM) till Microsofts molnplattform Azure. Mistral Small, företagets minsta egna stora språkmodell (LLM), kan användas för alla språkbaserade uppgifter som kräver hög effektivitet och låg latens. Azure AI-kunder har nu tillgång till både Mistral Small och Large LLM, vilket erbjuder en rad fördelar. Azure-prenumeranter kan få tillgång till och testa Mistral Small via Azure AI Studio.

Direktlänk Dela MSPoweruser fördjupade 6 maj

Google DeepMind presenterar nästa generations AI-teknik på ICLR 2024

Forskare från Google DeepMind kommer att presentera nästa generations AI-agenter, utforska nya modaliteter och lägga grunden för inlärning vid den 12:e internationella konferensen om läranderepresentationer (ICLR), som äger rum den 7-11 maj i Wien, Österrike. Raia Hadsell, forskningschef på Google DeepMind, kommer att hålla ett huvudtal om de senaste 20 åren inom området och hur de lärdomar som dragits formar AI:s framtid till människans fördel. Google DeepMind kommer att presentera över 70 artiklar detta år, inklusive forskning om problemlösande agenter och människoinspirerade metoder.

Direktlänk Dela DeepMind Technologies fördjupade 5 maj

Google introducerar Med-Gemini - en ny AI-modell för medicin

Artificiell intelligens (AI) revolutionerar medicinen genom att förbättra diagnostik, behandlingsplanering och forskningsuppdateringar. Utmaningarna ligger i att AI-modeller effektivt ska kunna analysera och tolka den stora mängden medicinsk data. Forskningsteamet från Google Research, Google DeepMind, Google Cloud och Verily har introducerat Med-Gemini, en AI-modell som avser att förbättra kliniskt resonemang, flermodal förståelse och långsammanhangsbehandling. Med-Gemini har visat betydande framsteg i prestanda och överträffat tidigare riktmärken, vilket sätter en ny standard inom medicinsk AI.

Direktlänk Dela MarkTechPost fördjupade 3 maj

Google introducerar nya AI medicinska modeller som överträffar GPT-4

Google introducerar nya AI medicinska modeller

Direktlänk Dela Open The News fördjupade 3 maj

Google DeepMinds AI-modell Gemini 1.5 Pro erbjuder avancerade funktioner men har vissa begränsningar

Google DeepMind har utvecklat en AI-modell, Gemini, med två versioner: Gemini 1.0 och Gemini 1.5. De finns i tre storlekar: Nano, Pro och Ultra. Gemini 1.0 finns i alla storlekar, medan Gemini 1.5 endast finns i storleken Pro. Gemini 1.5 Pro kan förstå och bearbeta text, bild, ljud, kod och mer, och kan även titta på och förstå videor. Den kan dessutom komma ihåg och förstå upp till 700 tusen ord på samma gång. Trots sina förmågor har Gemini 1.5 Pro några begränsningar och ligger på en delad andra plats på Chatbot Arena, en rankinglista för AI-modellers förmåga att skriva, resonera och koda.

Direktlänk Dela Nyheter24 fördjupade 3 maj

Google lanserar AI-modeller för medicinska ändamål

Google har lanserat en ny familj av artificiell intelligens (AI) modeller, kända som Med-Gemini, riktade mot medicinska områden. Dessa AI-modeller är ännu inte tillgängliga för allmänheten, men företaget har publicerat en förtryckt utgåva av sin forskningsrapport som beskriver dess förmågor och metoder. Enligt Google presterar AI-modellerna bättre än GPT-4-modellerna i benchmark-testning. En av denna AI-modells utmärkande egenskaper är dess långsammanhangsförmåga, vilket gör att den kan bearbeta och tolka hälsoinformation och forskningspublikationer.

Direktlänk Dela Network18 Media & Investments fördjupade 3 maj

AI-plattformen Udio demokratiserar musikskapande

AI-plattformen Udio, som nyligen fick 10 miljoner dollar i finansiering från investerare som Andreessen Horowitz, Mike Krieger och musikartisten will.i.am, gör det möjligt för användare att skapa hela låtar från enkla textprompter. Plattformen riktar sig både till musiker och nykomlingar som vill experimentera. Udio har lagt mycket tid på att se till att deras system inte genererar utdata som skulle kränka någons rättigheter. Udio är byggt på egna modeller men har också använt befintliga modeller för andra funktioner inom plattformen. Till exempel kan plattformen generera automatiserade låttexter för vilka GPT-4 används.

Direktlänk Dela Analytics India Magazine fördjupade 3 maj

AI-startupen Mistral blir unicorn på ett år och utmanar Silicon Valley-jättarna

AI-startupen Mistral, grundad av Arthur Mensch, Guillaume Lample och Timothée Lacroix, har på bara ett år blivit en unicorn och ses som en seriös utmanare till de etablerade AI-jättarna i Silicon Valley. Företagets framgångar tillskrivs dess starka team och öppen källkods-strategi. Mensch ser generativ AI som ett verktyg för att öka produktivitet och kreativitet, och tror att AI kommer att förändra arbetsplatsen genom att ta över rutinuppgifter och tillåta människor att fokusera på uppgifter som kräver mänsklig interaktion och kreativt tänkande. Mistral skiljer sig från andra AI-företag genom sin portabla lösning som kan användas som en programvarutjänst (SaaS) genom deras API med valfri molnleverantör.

Direktlänk Dela McKinsey & Company fördjupade 3 maj

CRISPR-GPT: AI-drivet verktyg förbättrar precision och effektivitet i genredigeringsprotokoll

Genredigering är en hörnsten i modern bioteknik och kräver stor expertis och tid. Nu har forskare från Stanford University, Princeton University och Google Deepmind introducerat CRISPR-GPT, ett verktyg som kombinerar CRISPR-teknik med avancerade Large Language Models (LLMs) som GPT-4. Denna integration underlättar automatiseringen av genredigeringsförsök, vilket möjliggör precisa genomiska modifieringar med reducerad komplexitet. CRISPR-GPT demonstrerade märkbara förbättringar i genredigeringsförsök, där det ökade noggrannheten för målgenmodifieringar med upp till 30% jämfört med konventionella metoder. Systemet minskade också tiden som krävs för att utforma och planera experiment med cirka 40%.

Direktlänk Dela MarkTechPost fördjupade 2 maj

Microsofts investering i OpenAI utlöst av oro för Googles AI-försprång

Microsofts stora investeringar i OpenAI utlöstes av oro för att Googles AI-forskning var för avancerad. Microsoft investerade 1 miljard dollar i OpenAI 2019 och ytterligare miljarder dollar 2023. Det har blivit klart att investeringen 2019 gjordes på grund av oro för att Googles ansträngningar inom AI-fältet låg flera år före Microsofts. I en intern e-postväxling från 2019 mellan Microsofts CTO Kevin Scott, VD Satya Nadella och medgrundare Bill Gates, uttryckte Scott oro för att Microsoft låg efter Google när det gäller maskininlärning. Scott berömde även Googles tidiga AI-modeller och Gmails autofyllningsfunktion.

Direktlänk Dela GIGAZINE fördjupade 2 maj

Google introducerar Med-Gemini, en medicinsk version av deras AI

Trots att läkare genomgår års utbildning för att uppnå sin nuvarande position, krävs det att de håller sig uppdaterade för att kunna erbjuda exceptionell medicinsk vård. Google är angeläget om att använda sin Gemini AI inom medicinområdet på grund av dess mänskliga natur och förmåga att göra misstag. Med-Gemini, en medicinsk version av Googles Gemini AI som har anpassats för medicinska ändamål, introducerades av Jeff Dean, Googles chefsforskare, Google DeepMind och Google Research. Med-Gemini är fortfarande inte öppen för allmän användning.

Direktlänk Dela List23 fördjupade 1 maj

Google introducerar Med-Gemini, en ny AI-modell inriktad på medicinsk domän

Google introducerade sin nya familj av AI-modeller inriktade på medicinsk domän på tisdag. Kallad Med-Gemini, är dessa AI-modeller inte tillgängliga för allmänheten, men teknikjätten har publicerat en förtrycksversion av sin forskningsrapport som belyser dess förmågor och metoder. Företaget hävdar att AI-modellerna överträffar GPT-4-modeller i benchmark-testning. En av de anmärkningsvärda egenskaperna hos denna särskilda AI-modell är dess långa kontextförmågor som gör att den kan bearbeta och analysera hälsojournaler och forskningsrapporter. Forskningsrapporten är för närvarande i förtrycksstadiet och är publicerad på arXiv, ett öppet tillgängligt online-repositorium för vetenskapliga artiklar. Jeff Dean, chefsforskare, Google DeepMind och Google Research, sa i ett inlägg på X (tidigare känt som Twitter), ´Jag är mycket entusiastisk över möjligheterna med dessa modeller att hjälpa kliniker att leverera bättre vård, liksom att hjälpa patienter att bättre förstå sina medicinska tillstånd. AI för sjukvård kommer att vara en av de mest inflytelserika tillämpningsdomänerna för AI, enligt min mening.´ Med-Gemini är byggt på Gemini-1.0/1.5 och kan enkelt anpassas till nya medicinska modaliteter med anpassade kodare. Med-Gemini AI-modeller är byggda ovanpå Gemini 1.0 och Gemini 1.5 LLM. Det finns totalt fyra modeller - Med-Gemini-S 1.0, Med-Gemini-M 1.0, Med-Gemini-L 1.0 och Med-Gemini-M 1.5. Alla modeller är multimodala och kan ge text-, bild- och videoresultat. Modellerna är också integrerade med websökning, vilket företaget hävdar har förbättrats genom självträning för att göra modellerna ´mer faktiskt korrekta, tillförlitliga och nyanserade´ när de visar resultat för komplexa kliniska resonemangsuppgifter. Dessutom är AI-modellen finjusterad för förbättrad prestanda under lång kontextbearbetning, hävdar företaget. En högre kvalitet på lång kontextbearbetning skulle innebära att chatboten kan ge mer exakta och precisa svar även när frågorna inte är perfekt formulerade eller när den måste bearbeta ett långt dokument med medicinska journaler. Enligt data som Google delat har Med-Gemini AI-modeller överträffat OpenAI:s GPT-4-modeller i GeneTuring-datasetet på textbaserade resonemangsuppgifter. Med-Gemini-L 1.0 har också uppnått 91,1 procent noggrannhet på MedQA (USMLE), till och med överträffat sin egen äldre modell Med-PaLM 2 med 4,5 procent. Noterbart är att AI-modellen inte är tillgänglig för allmänheten eller i beta-testning. Företaget kommer troligen att förbättra modellen ytterligare innan den tas in i den offentliga domänen.

Direktlänk Dela Gadgets 360 fördjupade 1 maj

Från Londons gator till toppen av techindustrin: Hassabis och Suleymans resa

Mustafa Suleyman, son till en syrisk invandrare och en sjuksköterska, växte upp i ett subventionerat bostadsområde i London. Han träffade Demis Hassabis, ett schackunderbarn och videospelsdesigner, när han var 11 år gammal. Idag är de två av de mest inflytelserika ledarna inom teknikindustrins kapplöpning för att bygga artificiell intelligens. Dr. Hassabis, 47, är VD för Google DeepMind, Googles centrala forskningslabb för AI. Suleyman, 39, nyligen utsedd till VD för Microsoft AI, ansvarar för företagets satsning på AI-konsumentprodukter.

Direktlänk Dela The New York Times fördjupade 29 april

Microsofts investering i Mistral AI ifrågasätts av EU-lagstiftare

Microsofts investering på 16 miljoner dollar i Mistral AI och implementeringen av företagets AI-modeller genom sin molnplattform Azure har kritiserats av EU-lagstiftare som kräver en utredning om det är konkurrensbegränsande. Det är oklart vilka investerare Mistral har pratat med om den nya finansieringsrundan. Mistral AI, grundat 2023 av tidigare Meta och Google DeepMind-anställda, är baserat i Frankrike och specialiserar sig på öppen källkods stora språkmodeller. Värdet på globala AI-affärer uppgick till 331 miljarder dollar under 2023, en ökning från 211 miljarder dollar 2022.

Direktlänk Dela GlobalData fördjupade 28 april

Forskare från Google Deepmind introducerar ´många-skott´ inlärning för förbättrad AI-prestanda

In-context learning (ICL) i stora språkmodeller använder in- och utdataexempel för att anpassa sig till nya uppgifter utan att ändra den underliggande modellarkitekturen. Forskare från Google Deepmind har introducerat en förskjutning mot ´många-skott´ ICL, vilket utnyttjar större kontextfönster för modeller som Gemini 1.5 Pro. Denna övergång från ´få-skott´ till ´många-skott´ inlärning utnyttjar ökade indataexempel, vilket betydligt förbättrar modellprestanda och anpassningsförmåga över komplexa uppgifter. I maskinöversättningsuppgifter presterade Gemini 1.5 Pro-modellen bättre än tidigare riktmärken, med en ökning av noggrannheten med 4,5% för kurdiska och en ökning med 1,5% för tamilöversättningar jämfört med tidigare modeller.

Direktlänk Dela MarkTechPost fördjupade 28 april

Stora framsteg inom AI och språkmodellering

På senare tid har framstående artificiella intelligensföretag och forskningslaboratorier gjort imponerande framsteg när det gäller att utöka kontextfönstren för stora språkmodeller (LLM). Kontextfönstret är längden på den input som modellen kan bearbeta. Ju längre kontextfönstret är, desto mer information och instruktioner kan man passa in i den uppmaning som ges till modellen. På några år har kontextfönstren gått från 2 048 tokens i GPT-3 till en miljon tokens i Gemini 1.5 Pro. Nya tekniker lovar att ytterligare förlänga LLM:ernas minne till oändliga tokens. Förbättrade uppmärksamhetstekniker gör det möjligt för LLM:er att svara på mycket specifik information i mycket långa textsträckor, också kallat ´nålen i höstacken´-testet. Med LLM:er som stöder längre kontext ställs ofta frågan om vi någonsin kommer att behöva finjustera LLM:er eller använda retrieval-augmented generation (RAG). Dessa är ansträngningar som - medan de är mycket effektiva och användbara - ibland kräver omfattande ingenjörsinsatser. När det gäller användningen av modeller kommer man att behöva återvända till beprövade och testade optimeringstekniker.

Direktlänk Dela BD Tech Talks fördjupade 27 april

Alphabets första kvartal 2024 visar betydande tillväxt, drivet av AI-utveckling

Alphabet Inc., Googles moderbolag, rapporterade en imponerande 15% ökning av intäkterna för första kvartalet 2024, vilket resulterade i en total intäkt på 80,5 miljarder dollar. Detta överträffade Wall Streets förväntningar. Bolaget rapporterade även en ökning av nettoinkomsten till 23,7 miljarder dollar. De främsta intäktsdrivarna var Googles kärnannonseringsenheter, inklusive Sök och YouTube. Google Cloud visade också imponerande tillväxt, med intäkter upp 28% jämfört med föregående år. Sundar Pichai, Alphabets VD, var optimistisk inför framtiden och betonade att han förväntar sig att YouTube och Cloud ska uppnå en kombinerad årlig intäktskörhastighet på 100 miljarder dollar vid slutet av 2024.

Direktlänk Dela Tech Edt fördjupade 26 april

Alphabet och Microsofts aktiepriser stiger efter överraskande kvartalsresultat

Alphabet och Microsofts aktiepriser hoppade i efterhandeln efter att de AI-fokuserade företagen levererade högre än förväntade kvartalsresultat. Alphabets aktiepris steg med 15% efter tillkännagivandet och en del av entusiasmen kan tillskrivas införandet av en kvartalsvis aktieutdelning på $0,20, som ska betalas från 17 juni 2024. Sökföretaget tillkännagav även en aktieåterköpsplan på 70 miljarder dollar. Microsoft återlämnade också 8,4 miljarder dollar till aktieägare under kvartalet i form av återköp och utdelningar. Google Clouds intäkter nådde 9,6 miljarder dollar, en ökning med 28% jämfört med föregående år.

Direktlänk Dela The Register fördjupade 26 april

Google Clouds intäkter ökar med 28 procent tack vare AI, enligt VD

Google Clouds intäkter ökade med 28 procent till 9,57 miljarder dollar i första kvartalet 2024, tack vare företagets satsning på artificiell intelligens (AI). Detta meddelade Ruth Porat, president och CFO för Google, under Alphabets kvartalsrapport. Google Clouds framgångar tillskrivs företagets AI Hypercomputer och tjänsten Google One, som nu har över 100 miljoner betalande prenumeranter. Google har nyligen introducerat en premium AI-plan kallad Gemini Advanced. Företaget har också lanserat över 1000 nya produkter och funktioner som en del av Google Cloud-plattformen.

Direktlänk Dela Computer Reseller News fördjupade 26 april

Alphabets Q1 2024 finansiella resultat överträffar förväntningarna, fokus på AI-utveckling

Alphabet Inc., Googles moderbolag, rapporterade en 15% ökning av intäkterna till 80,5 miljarder dollar i Q1 2024, överträffande Wall Streets förväntningar. Nettoinkomsten var 23,7 miljarder dollar. Fokus låg på företagets AI-utvecklingar, kallat ´Gemini era´ av VD Sundar Pichai. Googles kärnannonsenheter, som Sök och YouTube, drev tillväxten. Cloud-divisionen upprätthöll också momentum med intäkter på 9,6 miljarder dollar. Google har experimenterat med AI-drivna funktioner i Sök och har nyligen introducerat AI-översikter i huvudresultatsidan för sökningar. Alphabet konsoliderar alla team som bygger AI-modeller under Google DeepMind.

Direktlänk Dela Search Engine Journal fördjupade 26 april

RAG-modeller kan överträffa stora språkmodeller inom AI

Stora språkmodeller (LLMs) närmar sig sina tekniska gränser, vilket gör att fokus skiftar mot retrieval-augmented generation (RAG) - en lovande framsteg inom artificiell intelligens (AI). RAG tillåter AI att få tillgång till och införliva specifik extern data i sina svar, vilket gör dem mer effektiva och exakta. RAG-modeller är toppmoderna AI som kombinerar språkförståelse med realtidsinformationssökning. Tonic.ai, ett företag känt för sin proprietära benchmarking-plattform, har nyligen genomfört en serie utvärderingar på RAG-system. Resultaten visade att CustomGPT.ai överträffade sin konkurrent genom att konsekvent ge mer exakta svar på komplexa frågor. En nyligen publicerad rapport av forskare vid Stanford University föreslår att RAG kan förbättra LLMs prestanda vid besvarande av medicinska frågor.

Direktlänk Dela PYMNTS fördjupade 26 april

Microsofts kvartalsvinst och försäljning ökar mer än förväntat tack vare moln och AI

Microsoft Corp. rapporterade en större kvartalsvinst och försäljning än förväntat, drivet av företags efterfrågan på företagets moln- och artificiell intelligens (AI) erbjudanden. Försäljningen under tredje kvartalet, som slutade den 31 mars, ökade med 17% till 61,9 miljarder dollar, medan vinsten var 2,94 dollar per aktie. Satya Nadella, VD för Microsoft, har integrerat AI-teknologi från OpenAI i hela Microsofts produktlinje, vilket har börjat ge avkastning. Azure-intäkter ökade med 31% under kvartalet, över genomsnittsprognosen på 29%.

Direktlänk Dela Yahoo Finance fördjupade 26 april

Indisk AI behöver mer investeringar för att bygga komplexa modeller

Vishnu Vardhan, grundare och VD för SML och Vizzhy, planerar att samla in 200-300 miljoner dollar för att bygga och skala komplexa AI-modeller. Han påpekade att indiska investerare är ovilliga att investera stora belopp i AI-forskning. Nyligen godkände den indiska regeringen 1,25 miljarder dollar i investeringar för AI-projekt, inklusive utveckling av LLMs och datorkapacitet. Trots detta har Indien haft svårt att samla in investeringar för att bygga komplexa AI-modeller, medan USA har lyckats. Företagsledare uppmanar Indien att vara ´djärvt´ och tilldela en 30-40 miljarder dollar suverän AI-investeringsplan för de närmaste 2-3 åren.

Direktlänk Dela Analytics India Magazine fördjupade 24 april

Mistral AI: Ett framväxande AI-startup med stora språkmodeller

Mistral AI, ett franskt AI-startup, bygger stora språkmodeller (LLMs) och är känt för sina transparenta, portabla, anpassningsbara och kostnadseffektiva modeller. Företaget, som grundades av tidigare forskare på Google DeepMind och Meta, har fått betydande stöd från framstående investerare som Microsoft och Andreessen Horowitz. Med ett rapporterat värde på 5 miljarder dollar positionerar sig Mistral som en stark konkurrent på den allt mer överfulla marknaden för generativ AI. Företaget erbjuder flera kommersiella och öppna LLMs, var och en med sina unika styrkor och förmågor. Deras mest avancerade kommersiella LLM presterar bättre än de som utvecklats av Google och Anthropic över flera branschstandarder.

Direktlänk Dela Built In fördjupade 23 april

Studie av Google DeepMind utforskar fördelar och hot med AI-assistenter

I en nyligen genomförd studie har ett forskningsteam från Google DeepMind utforskat de potentiella fördelarna och hoten med kraftfulla AI-assistenter. Dessa assistenter anses vara artificiella agenter med naturliga språkgränssnitt som har till uppgift att organisera och utföra användarspecifika operationer över många domäner. Studien har undersökt de moraliska frågor som uppkommer genom utvecklingen av avancerade AI-assistenter, som förväntas vara mer kapabla än sina föregångare, som Apples Siri eller Amazons Alexa, när det gäller autonomi, generell användning och handlingsomfång. Studien betonar hur viktigt det är att matcha detta med personliga och samhälleliga mål, passioner och ideal.

Direktlänk Dela MarkTechPost fördjupade 23 april

Under det senaste året har generativa AI-verktyg som ChatGPT, Gemini och OpenAIs video-genereringsverktyg Sora fångat allmänhetens uppmärksamhet. AI används redan för att revolutionera vetenskapen, med sex procent av allt vetenskapligt arbete som utnyttjar AI. AI kan göra forskare mer produktiva, men det finns också risker, som att AI kan ´hallucinera´ och skapa upp fakta, eller vara partiska. Dessutom kan många AI-system inte förklara varför de producerar den output de gör, vilket kan skada människors förtroende för vetenskapen. Trots detta har både smal och allmän AI stor potential att främja vetenskaplig upptäckt.

Commonwealth Scientific and Industrial Research Organisation fördjupade 23 april

Före detta Meta-chef går med i Microsofts AI-superdatorlag

Jason Taylor, tidigare verkställande direktör på Meta Platforms Inc, kommer att gå med i Microsofts team för AI-superdatorer, enligt ett LinkedIn-inlägg av Microsofts teknikchef Kevin Scott. Taylor hade flera roller på Meta, inklusive vice VD för infrastruktur, där han övervakade AI, data och integritetsinfrastruktur och hanterade serverbudgetar. Han var också ordförande för Open Compute Project Foundation från 2015 till 2017. Microsoft och OpenAI strävar efter att förbättra sina hårdvarukapaciteter för att hålla jämna steg med de snabba framstegen inom AI-teknik.

Direktlänk Dela Benzinga fördjupade 23 april

Google omstrukturerar företagsavdelningar för framtida AI-utveckling

Google har omorganiserat sina avdelningar för att ytterligare fokusera på AI, eftersom projekt som Google Gemini blir allt mer integrerade i Googles projektplaner. Omstruktureringen innebär viktiga förändringar inom fyra huvudområden: Modeller och forskning, Ansvarsfull AI, Plattformar och enheter och Mission First. En central del av omstruktureringen är konsolideringen av ansträngningar inom AI-utveckling, särskilt sammanslagningen av Google Brain-teamet och DeepMind-forskare till en enhetlig enhet som heter Google DeepMind. Google Research genomgår också en strategisk omfokusering, med Google DeepMind som leder utvecklingen av avancerade AI-modeller.

Direktlänk Dela Voicebot fördjupade 22 april

Forskare upptäcker dold ´roligare svar´-funktion i Google´s AI Gemini

En forskare har upptäckt en dold funktion inom Googles AI Gemini som gör att chatboten kan ge ´roligare´ svar. Gemini är en AI-assistent utvecklad av Google DeepMind, som kan hjälpa användare att skriva, planera, lära sig och diskutera alla ämnen. Forskaren, Twitter-användaren @ugu_rs, upptäckte en hemlig knapp i Gemini´s HTML-kod som utlöser genereringen av roligare svar. Genom att aktivera denna alternativ, uppmanades Gemini att ge mer humoristiska svar. Forskaren testade funktionen och Gemini svarade med en nyfunnen komisk stil.

Direktlänk Dela Clever Con Media fördjupade 22 april

Google konsoliderar AI-team inom Google DeepMind

Google meddelade på torsdagen att de kommer att konsolidera två av sina interna team som fokuserar på att bygga artificiella intelligens (AI) modeller. Beslutet att konsolidera teamen som bygger AI-modeller inom Google DeepMind, inklusive team från företagets forskningsavdelning, förklarades av Alphabet och Google VD Sundar Pichai i ett blogginlägg på företagets webbplats. Google DeepMind skapades förra året genom sammanslagningen av Google Brain-teamet med DeepMind och andra forskare inriktade på AI-system. Pichai sa att detta steg ´hjälpte till att påskynda våra Gemini-modeller´ och förenade maskininlärningsinfrastrukturen och utvecklarteamen. Han tillade att Google även flyttar sina Responsible AI-team från Research till DeepMind för att ´vara närmare där modellerna byggs och skalas upp´. Dessutom flyttades andra ansvarsteam in i företagets centrala Trust and Safety-team, där företaget investerar mer i AI-testning och utvärderingar.

Direktlänk Dela Fox Business fördjupade 21 april

Samsung Galaxy S25-serien förväntas integrera Googles senaste AI-chip Gemini Nano 2

I den kommande Samsung Galaxy S25-serien förväntas ett teknologiskt språng med integrationen av Googles senaste AI-chip, Gemini Nano 2. Efter framgången med Gemini Nano i Galaxy S24-serien, lovar den nya iterationen att höja Android-smarttelefonens AI-förmågor till oöverträffade nivåer. Gemini Nano 2 förväntas kraftigt förbättra generativa AI-funktioner, potentiellt förfinar röstigenkänning och bildbehandling. Rykten tyder på att S25 kan ha en mer intuitiv röstassistent och erbjuda förbättrade säkerhets- och sekretessprotokoll genom det nya AI-chipets framsteg.

Direktlänk Dela Smartphonemagazine.nl fördjupade 21 april

Nya yrket ´promptingenjör´ innebär att generera texter och bilder genom att ställa smarta frågor till AI. Tekniken kräver mer psykologisk och manipulativ kunskap än teknisk. Det hjälper att ge chattboten tydliga instruktioner, undvika negationer och be den tänka steg för steg. ´Rollspel´, där chattboten antar en viss personlighet, är också populärt. Forskare vid Google Deepmind och Javier Rando vid ETH Zurich har bidragit till forskningen kring detta. Men det är inte alltid klart varför vissa metoder fungerar och andra inte.

Breaking Latest News fördjupade 21 april

Udio, en ny app som använder AI för att generera musik baserat på användares textinmatning, lanserades den 10 april. Appen, som utvecklats av tidigare forskare vid Google Deepmind, tillåter användare att generera upp till 1 200 låtar per månad gratis. Användare kan ange beskrivningar av den låt de vill skapa, inklusive genre och stämning, och välja om de vill ha automatgenererade texter, instrumentalmusik eller använda egna texter. Udio har fått beröm av teknikrecensenter, trots att det finns andra liknande plattformar som OpenAI´s Jukebox och Google´s MusicLM.

Freethink fördjupade 21 april

Google DeepMind introducerar effektivt språkmodell RecurrentGemma

På området för artificiell intelligens och naturlig språkbehandling gör Small Language Models (SLMs) betydande framsteg. I en ny artikel introducerar ett forskningsteam från Google DeepMind RecurrentGemma, en öppen språkmodell byggd på Googles innovativa Griffin-arkitektur. Denna modell minskar minnesanvändningen och underlättar effektiv inferens på långa sekvenser, vilket öppnar nya möjligheter för mycket effektiva små språkmodeller i miljöer där resurserna är begränsade. RecurrentGemma-2B jämförs med Gemma och uppnår överlägsen genomströmning under inferens, särskilt på utökade sekvenser.

Direktlänk Dela Synced Review fördjupade 20 april

Google konsoliderar AI-team under DeepMind för att påskynda utvecklingen

Google konsoliderar flera team som arbetar med generativ AI under DeepMind för att påskynda utvecklingen av mer kapabla system. Beslutet, som togs av VD Sundar Pichai, bygger på tidigare konsolideringsinsatser kring AI-utveckling. Google har redan flyttat andra ansvarsgrupper under sitt centrala Trust and Safety-team och planerar att bygga ut mer omfattande AI-test- och utvärderingsprotokoll. Konsolideringsinsatserna sträcker sig även till AI-hårdvaruutveckling. Förändringarna kommer att se Platform och Ecosystem och Devices and Services-teamen kombineras till en ny grupp som kallas Platforms and Devices.

Direktlänk Dela The Register fördjupade 20 april

Forskare utvecklar ny metod för språkmodellsjustering utan språkspecifika data

Forskare från MIT, Google Research och Google DeepMind har utvecklat en innovativ metod, känd som zero-shot cross-lingual alignment, för att justera språkmodeller över olika språk utan att behöva specifika data för varje språk. Metoden använder en belöningsmodell som ursprungligen tränats på ett språk (vanligtvis engelska) och applicerar den på andra språk. Forskarna visade effektiviteten av denna metod genom att använda den för textsummering och generering av öppna dialoger på flera språk, inklusive tyska, engelska, spanska, ryska, turkiska och vietnamesiska.

Direktlänk Dela MarkTechPost fördjupade 20 april

Google konsoliderar AI-team inom DeepMind

Google konsoliderar sina team som fokuserar på att bygga artificiella intelligensmodeller (AI) inom Google Research och Google DeepMind, enligt ett meddelande från företagets VD Sundar Pichai. Allt arbete kommer nu att utföras inom Google DeepMind, vilket kommer att förenkla utvecklingen genom att koncentrera datorkraftskrävande modellbyggnad på ett ställe. Detta kommer också att ge Google Research ett tydligt och distinkt mandat att investera i tre nyckelområden: datorsystem, grundläggande maskininlärning och algoritmer, samt tillämpad vetenskap och samhälle.

Direktlänk Dela PYMNTS fördjupade 19 april

Före detta Google DeepMind-forskare lanserar AI-drivet musikskapande app

Före detta forskare från Google DeepMind har lanserat en AI-drivet musikskapande app, Udio, som låter användare skapa låtar från textprompter. Start-up-företaget, som är baserat i London och New York, har musikerna Will.i.am och Tay Keith samt musikdistributören UnitedMasters bland sina backare. Företaget har även säkrat stöd från kapitalföretaget Andreessen Horowitz. Udio-appen förstår koncept som genre och stilar och kan till och med skapa sång på olika språk. Appen tillåter inte prompter som refererar till upphovsrättsskyddade spår.

Direktlänk Dela AI Business fördjupade 18 april

AI-system matchar eller överträffar mänsklig prestation i uppgifter som läsförståelse och matematik

AI-system, som chattboten ChatGPT, har blivit så avancerade att de nu nästan matchar eller överträffar mänsklig prestation i uppgifter som läsförståelse, bildklassificering och tävlingsnivåmatematik, enligt en ny rapport. Rapporten, Artificial Intelligence Index Report 2024, publicerades den 15 april av Institute for Human-Centered Artificial Intelligence vid Stanford University. Rapporten visar på den snabba utvecklingen av maskininlärningssystem under det senaste decenniet. Antalet AI-kodningsprojekt på GitHub ökade från cirka 800 år 2011 till 1,8 miljoner förra året. AI-relaterad reglering i USA ökar kraftigt. Men bristen på standardiserade bedömningar för ansvarsfull användning av AI gör det svårt att jämföra system med avseende på de risker de utgör.

Direktlänk Dela Scientific American fördjupade 18 april

Mistral AIs VD jämför jakten på AGI med sökandet efter det gudomliga

Arthur Mench, VD för Mistral AI, har jämfört jakten på Artificiell Allmän Intelligens (AGI) med strävan att skapa en gudomlighet. Mench uttrycker tvivel om sannolikheten att uppnå superintelligent AGI, men uppmanar till en försiktig inställning med tanke på att en AI-revolution är nära förestående. Trots sin skepticism har Mench fått stöd från den europeiska eliten, inklusive politiker och investerare. Marknadstrender visar också en ökning av etisk AI, vilket främjar transparens, integritet och opartiska beslutsprocesser.

Direktlänk Dela Elblog fördjupade 17 april

Franska AI-startupen Mistral AI i samtal om att höja flera hundra miljoner dollar

Det franska startup-företaget Mistral AI, grundat 2023 av tidigare anställda på Meta och Google DeepMind, har varit i samtal med investerare om att höja flera hundra miljoner dollar till ett värde av 5 miljarder dollar. Dessa samtal kommer bara några månader efter att Microsoft investerade 16 miljoner dollar i Mistral och implementerade företagets AI-modeller genom sin Azure molnbaserade datortjänst. Partnerskapet mellan Microsoft och Mistral kritiserades av EU-lagstiftare som efterlyste en utredning om det var konkurrenshämmande. Det är oklart vilka investerare Mistral har pratat med om den nya finansieringsrundan. Globala AI-affärer uppgick till 331 miljarder dollar under 2023, en ökning från 211 miljarder dollar 2022. GlobalData uppskattar att den globala AI-marknaden kommer att nå 909 miljarder dollar 2030, med en årlig tillväxttakt på 35,2% mellan 2022 och 2030.

Direktlänk Dela Verdict Media fördjupade 17 april

Jermaine Dupri kritiserar AI-musikapp för att devalvera den kreativa processen

Jermaine Dupri, medlem i Songwriters Hall of Fame, uttrycker frustration över framväxten av AI-musik och kritiserar specifikt en app som heter Udio för att devalvera den kreativa processen. Dupri ifrågasätter varför musikindustrin upprepade gånger böjer sig för teknikvärlden. Udio, en AI-musikgenerator, kan skapa en låt på mindre än 40 sekunder, vilket Dupri anser vara en förolämpning mot musiker. Han kritiserar också sin vän Chris Lyons, som arbetar för riskkapitalföretaget Andreessen Horowitz, för företagets stöd till Udio. Appen har utvecklats av tidigare forskare på Google DeepMind och stöds av Common, Tay Keith, will.i.am och Steve Stoutes UnitedMasters.

Direktlänk Dela Allhiphop.com fördjupade 17 april

AI-driven musikplattform Udio lanserades

Udio är en AI-driven plattform som kan skapa musik baserat på användarens instruktioner. Plattformen, som lanserades i april 2024, utvecklades av ett team av tidigare forskare från Google DeepMind, inklusive VD David Ding. Udio har redan fått stöd från kända musikproducenter som will.i.am, Common och Tay Keith. Udio använder en tvåstegsprocess för att skapa musik: först genererar den låttexter och melodier med hjälp av en AI-språkmodell, sedan syntetiserar den musiken. Udio kan generera musik i olika genrer och är för närvarande gratis att använda.

Direktlänk Dela Nyheter24 fördjupade 16 april

Biologisk revolution: Framtiden för bioteknik och AI

En värld där allt från plast till betong produceras från biomassa kan vara framtiden, med cell- och genteknik som förhindrar pandemier och behandlar tidigare obotliga genetiska sjukdomar. Laboratorieodlat kött och klimatresistenta näringsrika spannmål kan också bli verklighet. Biologin är på väg att bli nästa stora revolutionerande område, vilket kan hjälpa oss att bekämpa sjukdomar, föda planeten, generera energi och fånga koldioxid. Biotekniken kan också förändra USA:s ekonomi, med AI som accelererar takten för nya upptäckter. Men USA måste vara redo att ta tillvara på dessa möjligheter, och säkerställa att de sker på hemmaplan för att undvika ekonomiska och nationella säkerhetsrisker.

Direktlänk Dela Time Magazine fördjupade 16 april

Google planerar att investera över $100 miljarder i utvecklingen av artificiell allmän intelligens

Google DeepMinds VD, Demis Hassabis, har uttalat att företaget förväntas investera över $100 miljarder i utvecklingen av artificiell allmän intelligens (AGI). Detta kommer i svaret på Microsofts nyligen annonserade ´Stargate´-projekt, ett samarbete med OpenAI för att bygga en superdator till ett värde av $100 miljarder för att träna AI-system. Hassabis kommentarer bekräftar att Google är medvetet om Microsofts ansträngningar och planerar att investera lika mycket, om inte mer. Båda företagen tävlar om att bli det första att utveckla AGI.

Direktlänk Dela Cointelegraph fördjupade 16 april

Över 71% av musiker är rädda för AI men många använder det ändå

Över 71% av musiker är rädda för AI, men många artister använder ändå AI i sina konserter och produktioner. Artister som Katy Perry, Billie Eilish, Jon Bon Jovi och arvingarna till Bob Marley och Frank Sinatra har uppmanat teknikföretag att sluta använda AI för att skapa musik. Nyligen har AI skapat en Punjabi-tema Bollywood-inspirerad låt. Det finns också flera musikgenererings- och text-till-musik-plattformar, inklusive Suno.ai, Udio, Boomy, Google Music LM, Soundful, Mubert, Riffusion, Voicemod, MusicGen och AudioCipher.

Direktlänk Dela Analytics India Magazine fördjupade 16 april

Mistral´s VD kritiserar strävan efter ´allmän artificiell intelligens´

Arthur Mensch, VD för AI-företaget Mistral, har kritiserat sin branschkollegors ´mycket religiösa´ besatthet av att bygga allmän artificiell intelligens (AGI), vilket han jämför med önskan att skapa en gud. Mensch, som tidigare arbetade på Google DeepMind, anser att AGI är en pseudoreligiös dröm. Han tror att de förändringar som AI kommer att medföra kräver snabb omutbildning, och förutspår att dessa förändringar kommer snabbare än tidigare revolutioner. Franska regeringen har nyligen tecknat ett avtal med Mistral.

Direktlänk Dela Yahoo News UK fördjupade 16 april

Mensch uppmanar till snabb omutbildning i takt med AI:s tillväxt

Arthur Mensch, ledare för det framväxande AI-företaget Mistral i Europa, har uttryckt skepticism mot strävan efter artificiell allmän intelligens (AGI). Han jämför denna strävan med att skapa en gudom, ett koncept han finner svårt att acceptera som starkt ateist. Mensch förespråkar omedelbar omutbildning inför de snabba förändringar som AI kommer att medföra. Han förutser en snabb övergång inom två år, snarare än över ett decennium. Mistral samarbetar med den franska regeringen och arbetar för att bli en stor teknisk kraft i Europa.

Direktlänk Dela NewsBytes fördjupade 16 april

OpenAI planerar att expandera med ett nytt kontor i New York

OpenAI, mest känt som skaparen av ChatGPT, planerar att öppna ett kontor i New York City nästa år. Detta kommer att bli företagets femte kontor, förutom dess nuvarande högkvarter i San Francisco, ett nyligen öppnat kontor i Tokyo och kontor som öppnades förra året i London och Dublin. Även om OpenAI ännu inte har bestämt sig för en plats i New York eller skrivit under ett hyresavtal, övervägs Manhattan och Brooklyn som alternativ. Företaget växer snabbt och har nu över 1 000 anställda jämfört med bara 400 förra året.

Direktlänk Dela Business Insider fördjupade 16 april

Udio, en AI-driven musikskapande app, lanseras

Udio, en AI-baserad musikskapande app, har lanserats. Appen har utvecklats av ett team tidigare Google DeepMind-forskare och är skapad av David Ding och Andrew Sanchez. Udio gör det möjligt för användare att skapa professionell musik på några minuter. Appen har stöd från musikindustrins visionärer som will.i.am och Common. Funktioner inkluderar Text-till-Musik-konvertering, Emotion Capture, Genre Fusion och framtida uppdateringar med fler musikerfokuserade verktyg. Appen har också starka upphovsrättsliga skyddsåtgärder.

Direktlänk Dela IT News Africa fördjupade 15 april

AI revolutionerar vetenskapen men medför också risker

Under det senaste året har generativa AI-verktyg, som ChatGPT, Gemini och OpenAI´s Sora, fångat allmänhetens uppmärksamhet. Allt som behövs för att börja experimentera med AI är en internetuppkoppling och en webbläsare. AI används redan för att revolutionera vetenskapen - sex procent av allt vetenskapligt arbete använder AI, inte bara inom datavetenskap, utan även inom kemi, fysik, psykologi och miljövetenskap. Google DeepMind släppte en AI-genererad databas med mer än 380 000 nya materialföreningar, Lawrence Berkeley Lab använde AI för att utföra syntesexperiment i en skala som är mycket större än vad människor kan åstadkomma. Men AI har ännu större potential: att göra det möjligt för forskare att göra upptäckter som annars inte alls skulle vara möjliga. Det var en AI-algoritm som för första gången hittade signalmönster i hjärnaktivitetsdata som pekade på början av epileptiska anfall, en bedrift som inte ens den mest erfarna mänskliga neurologen kan upprepa. Tidiga framgångshistorier av användning av AI inom vetenskapen har lett till att vissa föreställer sig en framtid där forskare kommer att samarbeta med AI-vetenskapliga assistenter som en del av sitt dagliga arbete. Denna framtid är redan här. CSIRO-forskare experimenterar med AI-vetenskapsagenter och har utvecklat robotar som kan följa muntliga språkinstruktioner för att utföra vetenskapliga uppgifter under fältarbete. Men det finns en mycket verklig risk att AI fabricerar resultat och detta har redan hänt. Det är relativt enkelt att få ett generativt AI-verktyg att citera publikationer som inte existerar. Dessutom kan många AI-system inte förklara varför de producerar den output de producerar. Detta är inte alltid ett problem. Om AI genererar en ny hypotes som sedan testas med de vanliga vetenskapliga metoderna, är det ingen skada skedd. Men för vissa tillämpningar kan bristen på förklaring vara ett problem. Reproduktion av resultat är en grundläggande princip inom vetenskapen, men om de steg som AI tog för att nå en slutsats förblir oklara, blir reproduktion och validering svåra, om inte omöjliga. Och det kan skada människors förtroende för den producerade vetenskapen. En distinktion bör göras här mellan generell och smal AI. Smal AI är AI som är utbildad för att utföra en specifik uppgift. Smal AI har redan gjort stora framsteg. Google DeepMinds AlphaFold-modell har revolutionerat hur forskare förutsäger proteinstrukturer. Men det finns många andra, mindre väl publicerade, framgångar också - som att AI används på CSIRO för att upptäcka nya galaxer på natthimlen, IBM Research utvecklar AI som återupptäckte Keplers tredje lag om planetrörelse, eller Samsung AI bygger AI som kunde reproducera Nobelprisvinnande vetenskapliga genombrott. När det gäller smal AI som tillämpas på vetenskapen, förblir förtroendet högt. AI-system - särskilt de som bygger på maskininlärningsmetoder - uppnår sällan 100 procent noggrannhet på en given uppgift. (Faktum är att maskininlärningssystem presterar bättre än människor på vissa uppgifter, och människor presterar bättre än AI-system på många uppgifter. Människor som använder AI-system presterar generellt bättre än människor som arbetar ensamma och de presterar också bättre än AI som arbetar ensamma. Det finns en stor vetenskaplig evidensbas för detta faktum, inklusive denna studie.) AI som arbetar tillsammans med en expertforskare, som bekräftar och tolkar resultaten, är ett helt legitimt sätt att arbeta, och ses allmänt som att ge bättre prestanda än mänskliga forskare eller AI-system som arbetar ensamma. Å andra sidan är generella AI-system utbildade för att utföra en mängd olika uppgifter, inte specifika för något domän eller användningsfall. ChatGPT kan till exempel skapa en Shakespeares sonett, föreslå ett recept till middag, sammanfatta en kropp av akademisk litteratur, eller generera en vetenskaplig hypotes. När det gäller generell AI är problemen med hallucinationer och bias mest akuta och utbredda. Det betyder inte att generell AI inte är användbar för forskare - men den måste användas med försiktighet. Detta innebär att forskare måste förstå och bedöma riskerna med att använda AI i ett specifikt scenario och väga dem mot riskerna med att inte göra det. Forskare använder nu rutinmässigt generella AI-system för att hjälpa till att skriva artiklar, bistå med granskning av akademisk litteratur och till och med förbereda experimentplaner. En fara när det gäller dessa vetenskapliga assistenter kan uppstå om den mänskliga forskaren tar resultaten för givet. Välutbildade, flitiga forskare kommer naturligtvis inte att göra detta. Men många forskare där ute försöker bara överleva i en tuff bransch av publicera-eller-försvinna. Vetenskapligt bedrägeri ökar redan, även utan AI. AI kan leda till nya nivåer av vetenskapligt oegentligt uppträdande - antingen genom avsiktligt missbruk av tekniken, eller genom ren okunnighet då forskare inte inser att AI hittar på saker. Både smal och generell AI har stor potential att främja vetenskaplig upptäckt. Ett typiskt vetenskapligt arbetsflöde består konceptuellt av tre faser: att förstå vilket problem man ska fokusera på, att utföra experiment relaterade till det problemet och att utnyttja resultaten som påverkan i den verkliga världen. AI kan hjälpa till i alla tre av dessa faser. Det finns dock en stor hake. Nuvarande AI-verktyg är inte lämpliga att användas naivt direkt ur lådan för seriöst vetenskapligt arbete. Endast om forskare ansvarsfullt designar, bygger och använder nästa generation av AI-verktyg till stöd för den vetenskapliga metoden kommer allmänhetens förtroende för både AI och vetenskap att vinna och behållas. Att få detta rätt är värt det: möjligheterna att använda AI för att omvandla vetenskapen är oändliga. Google DeepMinds ikoniska grundare Demis Hassabis sa berömt: ´Att bygga allt mer kapabla och generella AI, säkert och ansvarsfullt, kräver att vi löser några av de svåraste vetenskapliga och tekniska utmaningarna i vår tid.´ Den omvända slutsatsen är också sann: att lösa de svåraste vetenskapliga utmaningarna i vår tid kräver att vi bygger allt mer kapabla, säkra och ansvarsfulla generella AI. Australiensiska forskare arbetar med det.

Direktlänk Dela Vishwakarma International fördjupade 15 april

AI revolutionerar vetenskapen men innebär också risker

Generativa AI-verktyg som ChatGPT, Gemini och OpenAIs videogenerationstool Sora har fått stort intresse från allmänheten. AI används redan i vetenskapliga arbeten inom områden som datavetenskap, kemi, fysik, psykologi och miljövetenskap. AI kan göra forskare mer produktiva, men kan också möjliggöra upptäckter som annars inte skulle vara möjliga. Trots dess fördelar har AI också nackdelar, som att generativa AI-system kan ´hallucinera´ och skapa påhittade fakta. Dessutom kan många AI-system inte förklara varför de producerar den output de gör, vilket kan skada människors förtroende för vetenskapen. Trots detta har både generell och smal AI stor potential att främja vetenskaplig upptäckt.

Direktlänk Dela Setopati fördjupade 15 april

OpenAI och Meta planerar att uppgradera sina artificiella intelligens (AI) system. OpenAI:s GPT-5 kommer att vara den nya ´motorn´ inom AI-chattboten ChatGPT, medan Meta:s uppgradering kommer att kallas Llama 3. Båda uppgraderingarna förväntas inkludera förmågan att planera framåt. Dessa förbättringar kan revolutionera AI-chattbotarnas förmågor genom att ge dem möjlighet att överväga långsiktiga konsekvenser av sina handlingar. Detta är en viktig förmåga för att lösa matematiska problem, vilket också kan låsa upp andra förmågor för stora språkmodeller (LLM).

SmartCompany fördjupade 15 april

Tvivel kring Google DeepMinds AI-drivna materialupptäckter

En artikel från förra året av forskare på Google DeepMind, som beskriver upptäckt av nya material med hjälp av ett AI-system vid namn GNoME, får ny granskning. Två professorer i materialvetenskap hävdar att många av de förutsagda föreningarna kanske inte uppfyller viktiga kriterier för att vara nyskapande, trovärdiga och användbara bidrag till området. Deras analys har återupplivat en diskussion om hur maskininlärning kan hjälpa vetenskaplig forskning mest effektivt. Google DeepMind hävdar att deras originalforskning fortfarande står stark.

Direktlänk Dela TurkMMO fördjupade 14 april

AI-skapare tror att fokus borde ligga på artificiell smal intelligens snarare än allmän

Datavetare Binny Gill, VD och medgrundare av företaget för företagsautomatisering Kognitos och tidigare chefsarkitekt och moln-CTO på Nutanix, tror att strävan efter artificiell allmän intelligens (AGI) är fel tillvägagångssätt i den potentiella nästa industriella revolutionen. Istället för att försöka replikera människor med någon form av allmän artificiell intelligens, anser Gill att vi borde titta tillbaka för att se vilka system vi borde bygga. Gill hoppas istället att vi kommer att se uppkomsten av vad han kallar artificiell smal intelligens, eller ANI.

Direktlänk Dela The Register fördjupade 14 april

Google DeepMinds AI-system TacticAI ska revolutionera fotbollsträningen

Google DeepMinds nya AI-system, TacticAI, ska revolutionera fotbollsträningen genom att erbjuda detaljerade insikter i hörnsparkar och spelaruppställningar under matcher. Detta innovativa verktyg har utvecklats i samarbete med Liverpool Football Club och markerar ett betydande framsteg i tillämpningen av AI inom sport. TacticAI använder både prediktiva och generativa AI-modeller för att förbättra fotbollstränarnas strategiska förmågor. AI-assistenten är specifikt utformad för att hantera olika aspekter av spelet men fokuserar särskilt på hörnsparkar, en kritisk del av fotboll som kan bestämma utfallet av matcher.

Direktlänk Dela PC-Tablet fördjupade 14 april

Varför AI hade svårare att knäcka Go än schack

1997 vann en artificiell intelligens (AI) kallad Deep Blue, utvecklad av IBM, en sexpartimatch mot dåvarande världsmästaren i schack, Garry Kasparov. Detta markerade en betydande milstolpe i utvecklingen av AI. Nästan två decennier senare hittade AI en ny utmaning i det antika och invecklade spelet Go. Med sitt enorma sökutrymme och betoning på intuition och strategi, ansågs Go vara en mycket större utmaning för AI. 2016 besegrade Google DeepMinds AI, AlphaGo, Go-mästaren Lee Sedol i en fempartimatch. Trots den enorma mängden möjliga drag och brädepositioner i Go, kunde AI navigera genom spelets komplexitet.

Direktlänk Dela Chess.com fördjupade 12 april

Före detta Google Deepmind-forskare lanserar AI-drivet musikapp Udio

Före detta forskare från Google Deepmind har lanserat Udio, en AI-driven app som gör det möjligt för användare att skapa musik. Appen, som finansieras av a16z och stöds av investerare som will.i.am, Common och Kevin Wall, gör det möjligt för alla att skapa musik, oavsett tidigare erfarenhet. Användare kan ange vilken genre de vill skapa, ge ämnet eller personliga texter och ange inspirerande artister. Inom 40 sekunder producerar Udio fullt mästerliga spår. Appen har också en ´remix´-funktion som låter användare redigera sina skapelser.

Direktlänk Dela Notebookcheck fördjupade 12 april

Hume AI introducerar världens första röstbaserade AI-system med känslomässig intelligens

Hume AI, en startup i New York ledd av tidigare Google DeepMind-forskaren Alan Cowen, har introducerat världens första röstbaserade AI-system med känslomässig intelligens. Denna teknologi kan generera konversationer som anpassar sig till användarnas emotionella behov. Hume AI har lyckats samla in 50 miljoner dollar i serie B-finansiering från investerare som EQT Group, Union Square Ventures och LG Technology Ventures. Hume AI:s röstgränssnitt bygger på dess empatiska stora språkmodell (eLLM), som kan simulera 23 olika känslor. Systemet har potential inom många sektorer, inklusive robotik, hälsovård och hälso- och sjukvård.

Direktlänk Dela Elblog fördjupade 12 april

AI-drivet musikprogram Udio lanseras med stöd från musikindustrins tungviktare

Udio, ett nytt artificiell intelligens (AI) drivet musikprogram har lanserats och har redan fått stöd från framstående figurer inom musikindustrin, inklusive producenter som will.i.am, Common och Tay Keith. Det har utvecklats av tidigare forskare på Google DeepMind och kan generera fullständiga ljudspår på under 40 sekunder. David Ding, medgrundare och VD för Udio, säger att det inte finns något liknande på marknaden när det gäller användarvänlighet, röstens kvalitet och musikalitet. Ryan Morrison från Tom Guide beskriver Udio som ´det mest realistiska AI-musikskaparverktyget jag har provat´.

Direktlänk Dela ReadWrite fördjupade 11 april

Musikgenereringsappen Udio lanseras, backad av toppinvesterare

Det har bara gått några dagar sedan vi talade högt om musikgenereringsplattformen Suno AI, som kan skapa en låt i vilken genre eller tema som helst med enkla textuppmaningar. Nu kommer Udio! Udio är en app för musikskapande och delning som låter dig generera fantastisk musik i dina favoritstilar med intuitiva och kraftfulla textuppmaningar. Med textuppmaningar för genrer och stilar kan Udio skapa vilken låt som helst, vare sig det är EDM, pianojazz eller extrem metal, med lätthet. Liksom Suno AI erbjuder appen ett användarvänligt gränssnitt för att skapa och lagra låtar. Udio kan till och med generera sång i flera stilar, inklusive Bollywood-temalåtar. Företaget backas upp av några av de bästa investerarna, inklusive Andreessen Horowitz, Mike Krieger, Oriol Vinyals och musikartisten Will.I.Am, bland andra. Företaget samlade in 10 miljoner dollar i seed-finansiering. Efter att ha varit i stängd beta gjorde Udio sin offentliga närvaro igår med möjlighet för alla att prova den nya plattformen. David Ding, grundaren och VD:n för Udio Music, var en seniorforskare hos Google DeepMind i över fem år. ´Det finns inget tillgängligt som kommer nära den enkelhet, röst kvalitet och musikalitet vi har uppnått med Udio - det är ett verkligt erkännande av de människor vi har involverade,´ sa han.

Direktlänk Dela Analytics India Magazine fördjupade 11 april

AI-musikgeneratorn Udio lanseras av tidigare Google Deepmind-forskare

En grupp tidigare forskare från Google Deepmind har lanserat Udio, en AI-musikgenerator. Efter månader i stängd beta har Udio nu lanserats offentligt och är tillgänglig gratis via Udios webbplats. Appen låter användare skapa och dela musik i sina föredragna genrer med hjälp av intuitiv och kraftfull text-prompting. Udio skiljer sig från andra AI-musikgeneratorer på marknaden, som Google´s MusicFX och Stability AI´s Stable Audio, genom att erbjuda användare möjligheten att anpassa varje element i sina låtar. Enligt David Ding, medgrundare och VD för Udio, överträffar Udio sina konkurrenter när det gäller användarvänlighet, röstkvalitet och musikalitet.

Direktlänk Dela Elblog fördjupade 11 april

AI-driven musikapp Udio lanseras med framstående investerare

Udio, en AI-driven musikskapande app utvecklad av tidigare forskare på Google DeepMind, har lanserats med stöd från framstående investerare, inklusive ett av Silicon Valleys mest framstående riskkapitalfonder och ett antal framstående musikartister. Udios skapare säger att appen är utformad för att göra musikskapande så enkelt som möjligt och kan generera ett färdigt spår på mindre än 40 sekunder. Bland Udios investerare finns UnitedMasters, rapparen och producenten will.i.am, rapparen Common, investeraren och aktivisten Kevin Wall och producenten Tay Keith. Företagets seedningsrunda värderades till 10 miljoner dollar.

Direktlänk Dela Music Business Worldwide fördjupade 11 april

AI-baserad musikskapande app ´Udio´ lanseras av tidigare Google DeepMind-forskare

Udio, en AI-driven musikskapande app utvecklad av tidigare forskare från Google DeepMind, har nyligen lanserats. Appen är designad för att göra musikskapandeprocessen tillgänglig för alla användare, oavsett musikalisk bakgrund eller expertis. Appen genererar låtar baserat på textprompter vilket möjliggör hög anpassningsgrad i termer av musikgenre, längd, vokaler och texter. Udio lovar att producera ett mastrat spår på under 40 sekunder. Användare har rapporterat en sömlös upplevelse med Udio, och lyfter fram dess användarvänliga gränssnitt och förmåga att snabbt leverera anpassade, mastrade spår.

Direktlänk Dela TestingCatalog fördjupade 11 april

AI-musikstartupp Udio får 10 miljoner dollar i investeringar, med bl.a. will.i.am och Google-veteraner ombord

Tidigare forskare från Google DeepMind har lanserat Udio, en ny AI-driven musikapp som möjliggör för alla att skapa musik på ett ögonblick. Appen är stödd av a16z och ängelinvesterare som will.i.am, Kevin Wall, Common och Mike Krieger (medgrundare av Instagram). Udio utvecklades med uppdraget att göra det enkelt för alla att skapa känslomässigt resonant musik direkt. Användare kan skriva en beskrivning av den musikgenre de vill skapa, ge ämnet eller personliga texter och ange inspirerande artister. På mindre än 40 sekunder skapar Udio en fullständigt mastrad ljudspår av hög kvalitet.

Direktlänk Dela Digital Music News fördjupade 11 april

Google DeepMind tränar fotbollsspelande robotar

Google DeepMind har lyckats träna små, färdiga robotar att spela fotboll. I en ny studie publicerad i Science Robotics beskrivs hur man har använt djup förstärkningsinlärning (deep RL) för att lära tvåbenta robotar en förenklad version av sporten. Trots att liknande experiment tidigare har skapat mycket smidiga fyrbenta robotar, har betydligt mindre arbete utförts för tvåbenta, humanoida maskiner. Men ny film visar hur bra en tränare deep RL kan vara för humanoida maskiner. DeepMind kan också totalt utklassa mänskliga konkurrenter i spel som schack, go och Starcraft II.

Direktlänk Dela Popular Science fördjupade 10 april

Google Clouds VD tillkännager avancerade chipp för AI-eran

Google Clouds VD Thomas Kurian tillkännagav den 9 april flera nya kapaciteter och lösningar i AI-eran för att driva kundframgång och momentum, inklusive anpassade kiselutvecklingar, Google Axion som är företagets första anpassade Arm-baserade CPU designad för datacenter, och Gemini 1.5 Pro. Gemini 1.5 Pro erbjuder två storlekar av kontextfönster - 128 000 tokens och 1 miljon tokens och är nu tillgänglig i offentlig förhandsgranskning. Företaget meddelade också möjligheten att bearbeta ljudfiler inklusive videor med ljud. ´Google Axion´ levererar upp till 50 procent bättre prestanda och upp till 60 procent bättre energieffektivitet än jämförbara nuvarande generationens x86-baserade instanser.

Direktlänk Dela India West fördjupade 10 april

Google DeepMinds AI överträffar mänskliga matematiker i lösning av ´cap set´-problemet

Google DeepMinds AI har överträffat mänskliga matematiker genom att erbjuda en förbättrad lösning på det komplexa ´cap set´-problemet, en formidabel utmaning inom ren matematik. Detta framsteg visar att AI:s förmåga till sofistikerad resonemang har nått imponerande höjder. Framgången för Google DeepMinds AI har lett till en omvärdering av potentialen för AI inom matematiken. Teknologiska framsteg tyder på att AI inte bara blir alltmer skicklig på att efterlikna mänskligt resonemang, utan också banar väg i områden som kräver djup analytisk tanke. Trots framstegen och den positiva utblicken står AI-industrin inför betydande problem och utmaningar.

Direktlänk Dela YTech News fördjupade 10 april

Udio: En ny AI-musikgenereringsteknik utvecklad av före detta Google DeepMind-ingenjörer

Detta inlägg syftar till att presentera all tillgänglig information om Udio, en ny AI-musikgenereringsteknik, dess kapabiliteter och den entusiasm den genererar inom musik- och tekniksamhällena. Udio är skapad av Uncharted Labs, ett startup lanserat av en trio före detta Google DeepMind-ingenjörer. Även om detaljerna om Udio är fördolda i mysterium med dess webbplats under uppbyggnad, ger grundarnas bakgrunder en inblick i projektets ambitiösa omfattning. De skapar inte bara ett annat AI-musikverktyg; de siktar på att omdefiniera genren.

Direktlänk Dela Medium fördjupade 10 april

Microsoft AI öppnar nytt forsknings- och utvecklingskontor i London

Mustafa Suleyman, tidigare medgrundare till Google DeepMind, har nyligen tillträtt som VD för Microsoft AI. Han grundade även Inflection AI 2022 innan han gick med i Microsoft AI i mars detta år. Microsofts VD, Satya Nadella, tillsatte Suleyman i mars 2024 för att hantera företagets konsument-AI-produkter och forskning. Suleyman avslöjade i sitt första blogginlägg som VD för Microsoft AI att företaget kommer att skapa ett nytt kontor i London dedikerat till AI-forskning och utveckling. Jordan Hoffmann, en framstående AI-vetenskapsman och ingenjör, kommer att leda det nya AI-hubben.

Direktlänk Dela Network18 Media & Investments fördjupade 10 april

Google och OpenAI konkurrerar om att utveckla AI-drivna videoinnehåll

Google DeepMind och OpenAI tävlar om att utveckla AI-teknik för att generera videor. OpenAI har nyligen avslöjat Sora, en AI som kan generera upp till 60 sekunder långa videor med komplexa scener. Google har utvecklat Lumiere, en text-till-video-generator som kan producera fem sekunders videor. Båda företagen står inför utmaningar med dataanskaffning och etiska frågor i AI-utvecklingen. Mira Murati, CTO för OpenAI, har uttryckt oro över Soras träning, medan Neal Mohan, YouTube´s VD, har avvisat dessa påståenden. Trots detta finns det fortfarande rekommendationer om att använda YouTube-videor för att förbättra taligenkänningsverktyget Whisper.

Direktlänk Dela Cryptopolitan fördjupade 9 april

Microsoft öppnar AI-forskningscenter i London

Microsoft planerar att öppna ett forsknings- och utvecklingscenter för AI i London, ledd av före detta forskare från Google DeepMind. Microsofts AI-VD och DeepMind-medgrundare Mustafa Suleyman presenterade planerna för centret, som kommer att fokusera på att utveckla företagets växande portfölj av maskininlärningsverktyg. Microsoft har haft ett långvarigt partnerskap med OpenAI och har integrerat AI i produkter som Windows, Bing, Github och Office 365. Trots miljardinvesteringar i OpenAI har Microsoft haft problem med att omvandla detta till lönsamhet. För att kommersialisera sina AI-investeringar anställde Microsoft Suleyman förra månaden.

Direktlänk Dela The Register fördjupade 8 april

Microsoft öppnar ny AI-division i London, utmanar Google´s DeepMind

Microsoft öppnar en ny AI-division i London, vilket gör att företaget hamnar i direkt konkurrens med Google´s DeepMind. Den nya enheten kommer att ledas av Jordan Huffman, tidigare forskare på DeepMind. Microsofts beslut att etablera en AI-hub i London kan leda till en intensifierad talangjakt mellan de två företagen. DeepMind, som förvärvades av Google 2014, har länge ansetts vara kronjuvelen i Storbritanniens AI-sektor. Men Microsofts beslut att satsa på AI i London kan ge Google anledning att oroa sig.

Direktlänk Dela Business Insider fördjupade 8 april

Googles VD Sundar Pichai under press efter problem med Gemini chatbot

Googles Gemini chatbots AI-bildgenerator är fortfarande inte fixad över en månad efter dess katastrofala lansering. Många kritiker hävdar att detta är det senaste tecknet på att den hårt pressade VD:n Sundar Pichai bör bytas ut. Google inaktiverade Geminis förmåga att skapa bilder av människor i slutet av februari efter att den producerade konstiga ahistoriska foton som svarta vikingar och ´diversifierade´ tyska soldater från nazitiden. Googles medgrundare Sergey Brin medgav att teknikjätten ´definitivt klantade till det´ och ´retade upp många människor´. Pichai, som även kritiserade chatbotens beteende som ´helt oacceptabelt´, har haft anmärkningsvärd frihet under sina åtta och ett halvt år som VD.

Direktlänk Dela New York Post fördjupade 8 april

Maskininlärning och robotik accelererar utvecklingen av nya material vid Lawrence Berkley National Lab

Lawrence Berkley National Lab (LBNL) har meddelat att de framgångsrikt kombinerat maskininlärning från Google DeepMinds GNoME-modell med en naturlig språkbearbetningsmodell för att generera föreslagna syntesrecept. Denna kombination ger en tiofaldig ökning av förutsagda stabila föreningar och möjliggör hög genomströmningssyntes och screening som kommer att påskynda utvecklingen av nya material. LBNL kallar sin anläggning för Autonomous Laboratory eller ´A-Lab´. A-Lab-processen börjar med urvalet av användbara målmaterial som förutses vara luftstabila, varefter syntesrecept utvecklas med hjälp av ML-modeller.

Direktlänk Dela Biofuels Digest fördjupade 7 april

AI i videospel marknaden förväntas växa kraftigt

Marknaden för AI i videospel förväntas uppleva en betydande tillväxt under prognosperioden, drivet av ökad processorkraft, framväxten av hög bandbredds nätverksanslutning och ökad penetration av smartphones. Dessutom förväntas framväxten av 5G-nätverk och den kontinuerliga efterfrågan på 3D-spel ge lukrativa möjligheter för tillväxten av AI-marknaden i videospel under prognosperioden. Enligt rapporten genererade den globala AI-industrin i videospel 1084,96 miljoner dollar 2022 och förväntas generera 11424,79 miljoner dollar 2032, med en CAGR på 26,8% från 2023 till 2032.

Direktlänk Dela EIN News fördjupade 5 april

Mistral AI expanderar i Europa med AWS-partnerskap

Paris-baserade startföretaget Mistral AI, som nyligen samlade in 484 miljoner dollar vid en värdering på 2 miljarder dollar, har meddelat att dess senaste stora språkmodell, Mistral Large, nu är tillgänglig på Amazon Web Services (AWS) Bedrock-plattform. Mistral AI, som grundades av alumner från teknikjättar som Google DeepMind och Meta, ses som Europas bästa chans att göra sitt märke inom det lukrativa området generativ AI. Mistral Large ansluter sig till andra industrigiganter som Anthropic´s Claude-modeller på Amazon Bedrock. Mistral AI kommer också att använda AWS kraftfulla AI-chips för att påskynda utvecklingen och distributionen av dess framtida grundmodeller på Bedrock.

Direktlänk Dela EnterpriseAI fördjupade 4 april

Yum Brands planerar att revolutionera sina operationer med AI

Yum Brands, moderbolaget till snabbmatskedjor som Taco Bell, Pizza Hut, KFC och Habit Burger Grill, planerar att revolutionera sina operationer genom att anta en ´AI-först mentalitet´. Företaget har ökat sina teknik- och automationsinvesteringar betydligt, med cirka 45% av försäljningen nu kommer från online- och appbaserade beställnings- och leveranstjänster. Yum Brands planerar att använda AI för att profilera kunder, presentera personliga erbjudanden, öka försäljningen och locka nya kunder. Trots rädsla för potentiell jobbförskjutning på grund av AI och automatisering, betonar Yum Brands den avgörande roll som dess anställda spelar i företagets verksamhet.

Direktlänk Dela Benzinga fördjupade 4 april

Storbritannien och USA undertecknar banbrytande AI-avtal

Storbritannien och USA har undertecknat ett banbrytande avtal för att gemensamt testa avancerade artificiella intelligens (AI) teknologier. Avtalet, som undertecknades på måndagen, banar väg för att båda nationerna ska arbeta tillsammans för att skapa ´robusta´ mekanismer för att bedöma säkerheten hos AI-verktyg och deras underliggande system. Detta markerar det första bilaterala avtalet av sitt slag. Storbritanniens teknikminister Michelle Donelan hyllade partnerskapet som avgörande, och betonade vikten av kollektiv handling för att bemöta AI:s risker och utnyttja dess omvandlande potential för att förbättra liv över hela världen.

Direktlänk Dela Invezz fördjupade 2 april

OpenAI tar bort kravet på att skapa konto för att använda ChatGPT 3.5

AI-jätten OpenAI har tagit bort kravet för användare att skapa ett konto för att få tillgång till sitt generativa AI-verktyg, ChatGPT 3.5. OpenAI meddelade den 1 april att det inte längre kräver att ChatGPT-användare registrerar sig för att göra det ´lättare att uppleva AI:s potential´. Användare utan konton kommer dock inte att kunna lagra sin historik av tidigare interaktioner. Funktionen kommer att rullas ut i stegvisa faser i alla länder, med start i USA. OpenAI uppskattar att ChatGPT har en veckoaktiv användarbas på över 100 miljoner människor över hela världen.

Direktlänk Dela Cointelegraph fördjupade 2 april

Google DeepMind förbättrar faktisk noggrannhet i stora språkmodeller

Stora språkmodeller (LLM) har visat imponerande förmågor men kan fortfarande komma till korta när det gäller att ge detaljerade faktabaserade svar på öppna frågor. Google DeepMind tar itu med denna fråga genom att introducera innovationer för att mäta och förbättra faktisk noggrannhet i LLM. De har skapat LongFact, en databas med över 2 000 utmanande faktabaserade uppmaningar för att testa LLM:s förmåga att producera faktabaserad text. De har också utvecklat den sök-augmenterade fakticitetsutvärderaren (SAFE) för att noggrant utvärdera LLM-svar och föreslagit en ny metod för att poängsätta långformiga faktabaserade svar, F1@K.

Direktlänk Dela Dataconomy Media fördjupade 1 april

Microsoft och OpenAI planerar $100 miljarders superdatorprojekt ´Stargate´ för 2028

Microsoft Corp. och OpenAI rapporteras arbeta på ett superdatorprojekt kallat ´Stargate´ som kan komma att kosta upp till 100 miljarder dollar. Projektet förväntas vara operationellt 2028. Microsoft och OpenAI planerar ett datacenterprojekt som inkluderar lanseringen av en artificiell intelligens superdator, ´Stargate´, 2028. Projektet, som förväntas finansieras av Microsoft, beräknas vara 100 gånger dyrare än några av de största befintliga datacentren. Det kan kräva ´flera´ hundra tunnland mark och upp till 5 gigawatt ström. Microsoft och OpenAI befinner sig för närvarande i den tredje fasen av en femfaserplan.

Direktlänk Dela Benzinga fördjupade 30 mars

Google DeepMind och Stanford University introducerar SAFE för att bedöma fakta i AI-genererat innehåll

Forskare vid Google DeepMind och Stanford University har introducerat en ny automatiserad utvärderingsram som kallas Search-Augmented Factuality Evaluator (SAFE). SAFE syftar till att ta sig an utmaningen att bedöma fakta i innehåll som genereras av stora språkmodeller (LLM). SAFE bryter ner långa svar genererade av LLM i individuella fakta och verifierar sedan varje faktum för noggrannhet med Google Search som referenspunkt. Resultaten visar att SAFE:s utvärderingar överensstämmer med mänskliga bedömare på 72% av cirka 16 000 individuella fakta i LongFact. SAFE erbjuder en skalbar, kostnadseffektiv metod för att noggrant utvärdera fakta i innehåll som genereras av LLM.

Direktlänk Dela MarkTechPost fördjupade 30 mars

AI:s miljöpåverkan och möjliga lösningar

AI-teknologi har en betydande negativ inverkan på miljön på grund av dess höga energi- och vattenförbrukning. En enda GPT-fråga förbrukar 15 gånger mer energi än en Google-sökfråga och kräver 500 ml vatten för att generera cirka 40 prompts. Utveckling, underhåll, uppgradering och bortskaffande av AI-teknologi medför alla ett stort koldioxidavtryck. Samtidigt finns det starka argument från teknikledare globalt för att avkarbonisera industrin med hjälp av teknik- och AI-baserade lösningar. Google DeepMind använder till exempel AI för att optimera energiförbrukningen i datacenter och minska kylkostnaderna med upp till 40%. Nation Grid ESO, elsystemoperatör för Storbritannien, använder också AI för att förbättra noggrannheten i sina prognoser för efterfrågan på el, vilket möjliggör bättre integration av förnybar energi. UNEP:s världsmiljösituationsrum (WESR), som lanserades 2022, utvecklar ett centraliserat system för att analysera stora datamängder för att förutsäga CO2-atmosfärskoncentration, förändringar i glaciärmassan och havsnivåhöjning.

Direktlänk Dela Express Computer fördjupade 27 mars

Gemini mot ChatGPT – Vad är skillnaden? Två framstående AI-teknologier jämförs

Gemini och ChatGPT är två framstående AI-teknologier utvecklade av Google och OpenAI respektive. Gemini, utvecklat av Google DeepMind, introducerar en multimodal metod med realtids datahanteringsförmåga, medan ChatGPT från OpenAI utmärker sig inom konversationell AI baserad på GPT-arkitekturen. Gemini har en mångsidig arkitektur som kan bearbeta olika datatyper samtidigt, medan ChatGPT fokuserar på uppgifter relaterade till förståelse och generering av naturligt språk. Prissättning och tillgänglighet varierar mellan Gemini och ChatGPT, med Google som erbjuder olika modeller och prisplaner, medan OpenAI erbjuder fria och betalda nivåer anpassade till olika användarbehov.

Direktlänk Dela Blockchain Council fördjupade 22 mars

Microsoft anställer Googles DeepMind medgrundare för att leda konsument-AI

Microsoft har anställt Mustafa Suleyman, medgrundare till Google DeepMind, för att leda sitt konsument-AI. Den nya anställningen markerar ännu ett betydande steg av Microsoft för att stärka sina interna AI-förmågor och produkter, utanför relationen med OpenAI. Förra månaden investerade Microsoft 16 miljoner dollar i Mistral AI, en fransk rival till OpenAI. På måndagen berättade Nadella för OpenAI:s VD Sam Altman om Suleyman och hans team som går med i Microsoft, sa företaget.

Direktlänk Dela Economic Times Telecom fördjupade 22 mars

Liverpool och Google DeepMind utvecklar AI för att råda tränare om hörnor

Liverpool och Google DeepMind har utvecklat ett ´fullständigt AI-system´ som kallas TacticAI, som kan ´råda tränare om hörnor´. TacticAI, en ´taktisk assistent´, använde prediktiv och generativ AI för att analysera vad som hände från 7 176 tidigare Liverpool-hörnor. Efter att ha analyserat denna dataset, kunde TacticAI råda tränare om hur deras hörnrutiner kunde förbättras. Forskarna tror att TacticAI kan användas för att generera andra taktiska insikter förutom hörnor - och användas i andra sporter och branscher också.

Direktlänk Dela Training Ground Guru fördjupade 21 mars

Microsoft bildar ny AI-enhet ledd av tidigare Google Deepmind VD

Microsoft har nyligen meddelat att de bildar en ny AI-enhet ledd av tidigare Google Deepmind VD Mustafa Suleyman. Enheten kommer att fokusera på att främja Copilot och andra konsument-AI-produkter och forskning vid företaget. Suleyman, som ledde en rivaliserande artificiell intelligens-startup kallad Inflection AI, har gått med i Microsoft tillsammans med många nyckelanställda på hans tidigare företag. Utnämningen av den 39-årige AI-ledaren ses som ett försök av Microsoft att förbättra sina in-house AI-förmågor. Förra månaden investerade Microsoft 16 miljoner dollar i en fransk AI-startup som heter Mistral AI.

Direktlänk Dela Mint fördjupade 21 mars

Googles AI-chatbot Gemini firar ett år: En översikt över framsteg och utmaningar

Den 30 november 2022 lanserade OpenAI sin AI-drivna chatbot, ChatGPT. Kort därefter tillkännagav Google sin egen konkurrerande generativa AI-system, Bard, som senare blev känd som Gemini. Gemini började rullas ut till användare den 21 mars 2023 och har nu varit tillgänglig för allmänheten i ett helt år. Gemini är en generativ AI-chatbot som kan svara och svara på frågor och förfrågningar inom ett brett spektrum av ämnen. Gemini-chatboten är i huvudsak ett gränssnitt till en stor språkmodell, tekniken som ger den förmågan att göra och agera. Stora språkmodeller (LLM) är utbildade på enorma mängder data och bygger på maskininlärningsneurala nätverk. Modellen som driver Gemini-chatboten kallas också Gemini. Den senaste versionen av modellen är Gemini 1.5, en version som Google har beskrivit som ”nästa generation”, inte minst på grund av dess blandning av experter (MoE) arkitektur. Gemini-modellen kommer också i tre variationer: Gemini Nano, en mindre modell för mobil; Gemini Pro, en allroundmodell för ett brett utbud av uppgifter; och Gemini Ultra, den största och mest kapabla modellen av de tre variationerna, byggd för mer komplexa uppgifter. Sammantaget är Gemini mångsidig: Det är en chatbot, en stor språkmodell och en familj av modellvariationer, samtidigt. Men det är bara sedan februari 2024 som Gemini-chatboten har kallats Gemini, med Bard som dess tidigare namn.

Direktlänk Dela DIGIT fördjupade 21 mars

Googles Gemini AI kan driva aktietillväxt och revolutionera AI-applikationer

Googles aktie har upplevt en betydande uppgång, vilket tillskrivs möjligheten att integrera sin Gemini AI-teknologi i Apples iPhone-ekosystem. Denna rörelse har väckt stort intresse inom teknikgemenskapen. Gemini AI är Googles senaste och mest avancerade AI-modell, utformad för att förbättra utvecklingen och skalbarheten av AI-applikationer på olika plattformar, inklusive mobila enheter. Spekulationer om att Apple eventuellt kan använda Gemini AI för iPhones har bidragit till uppgången i Googles aktie. Apple fortsätter att investera i sin egen in-house AI-utveckling.

Direktlänk Dela PC-Tablet fördjupade 18 mars

Elon Musk stämmer OpenAI och Sam Altman

Elon Musk har lämnat in en stämningsansökan mot OpenAI, det inflytelserika AI-företaget han medgrundade, och dess VD Sam Altman. Musk anklagar OpenAI för att ha brutit mot sitt ursprungliga avtal genom att hemlighålla den ´interna designen´ för sina stora språkmodeller GPT-4 och avvika från sitt ursprungliga uppdrag att vara ett icke-vinstdrivande företag. OpenAI svarade på stämningen genom att offentliggöra e-postkommunikation med Musk från företagets tidiga dagar. I e-postmeddelandena talade Musk om behovet av mer finansiering.

Direktlänk Dela The Ticker fördjupade 18 mars

OpenAI introducerar banbrytande humanoid robot

OpenAI har introducerat sin humanoida robot Figure One, ett genombrott inom robotik och artificiell intelligens. Roboten, som har utvecklats i samarbete med Figure AI, en startup värderad till 2,6 miljarder dollar, har förmågan att härma mänskliga funktioner och interaktioner. Videon som visar roboten har väckt oro för framtiden. Figure One kan uppfatta sin omgivning, interagera med objekt och människor och förstå och agera på generella kommandon. Den kan även utföra flera uppgifter samtidigt och röra sig smidigt. Reaktionerna på roboten har varit blandade, med både beundran och oro för framtiden för AI och humanoida robotar.

Direktlänk Dela Brand Synario fördjupade 18 mars

Google DeepMind föreslår Synth2 för att förbättra prestanda för VLM

Forskare från Google DeepMind har föreslagit Synth2, en metod som använder förtränade generativa text- och bildmodeller för att skapa syntetiska pardata för visuella språkmodeller (VLM). Metoden löser utmaningar med dataknapphet, kostnader och brus genom att generera både text och bilder syntetiskt. Synth2 genererar bildinbäddningar direkt integrerade i modellen, vilket visar sig vara överlägset befintliga metoder. Genom att använda syntetiska bilder för VLM-utbildning förbättrar Synth2 betydligt prestandan jämfört med baslinjer, även med ett mindre antal mänskligt annoterade bilder.

Direktlänk Dela MarkTechPost fördjupade 16 mars

Google introducerar Gemma för att förbättra säkerheten och prestanda inom AI

Google har introducerat Gemma, en serie öppna modeller utformade för att förbättra både säkerhet och prestanda för AI-system. Gemma, utvecklad av Google DeepMind Gemma Team, bygger på transformer-dekoder och innehåller flera förbättringar som är avgörande för dess prestanda inom olika områden. Gemma finns i två versioner, en med 7 miljarder parametrar optimerad för GPU och TPU-plattformar och en med 2 miljarder parametrar anpassad för CPU och enhetsapplikationer. Gemma introducerar också Responsible Generative AI Toolkit, som ger vägledning och viktiga verktyg för att skapa säkrare AI-applikationer.

Direktlänk Dela Cryptopolitan fördjupade 16 mars

Google DeepMind och University of British Columbia utvecklar AI för att förstå 3D-miljöer

Forskare från Google DeepMind och University of British Columbia har utvecklat en AI-ramverk, Scalable, Instructable, Multiworld Agent (SIMA). Systemet är utformat för att träna AI-agenter i olika simulerade 3D-miljöer, från noggrant utformade forskningslaboratorier till kommersiella videospel. SIMA kan förstå och agera på instruktioner i alla virtuella miljöer, vilket kan revolutionera hur alla interagerar med AI. SIMA tränar i olika virtuella inställningar, vilket gör det möjligt att förstå och utföra flera uppgifter, koppla språkinstruktioner med lämpliga åtgärder. Detta förbättrar dess anpassningsförmåga och fördjupar förståelsen av språk i olika 3D-utrymmen.

Direktlänk Dela MarkTechPost fördjupade 16 mars

Google DeepMind introducerar Gemma, en svit av lättviktiga, avancerade öppna modeller

Google DeepMind Gemma Team har introducerat Gemma, en svit av lättviktiga, avancerade öppna modeller baserade på samma forskning och teknologi som driver de kraftfulla Gemini-modellerna. Gemma markerar ett betydande framsteg i prestanda jämfört med befintliga öppna modeller över akademiska riktmärken för språkförståelse, resonemang och säkerhet. Gemma finns i två varianter: en 7 miljarder parametermodell anpassad för effektiv distribution och utveckling på GPU och TPU-plattformar, och en 2 miljarder parametermodell optimerad för CPU och on-device-applikationer. Forskarna introducerar också Responsible Generative AI Toolkit, som ger vägledning och nödvändiga verktyg för att skapa säkrare AI-applikationer med Gemma.

Direktlänk Dela Synced Review fördjupade 16 mars

Kampen om att skapa artificiell allmän intelligens

Artificiell allmän intelligens (AGI) är en dator som kan planera, organisera, skapa, resonera och lösa problem precis som en människa. Att få en dator att visa samma förmågor är det ultimata målet för forskare inom AGI. Utmaningen är enorm, eftersom en AGI behöver göra mer än att bara krossa siffror. Mänsklig intelligens förlitar sig på språk, kultur, känslor och fysiska sinnen för att förstå problem, bryta ner dem och producera lösningar. Berömda exempel på arbete inom AGI inkluderar OpenAI, Google DeepMind, Blue Brain Project och det nyligen avslutade Human Brain Project. AGI kommer att kräva mycket mer datorkraft än vad som används idag.

Direktlänk Dela PC Gamer fördjupade 16 mars

Google lanserar Gemma 2B och 7B för att göra AI tillgängligt för allmänheten

Google har tagit de första stegen för att göra AI tillgängligt för allmänheten genom att lansera Gemma 2B och 7B, öppna modeller som utvecklare och forskare kan anpassa och finjustera efter eget behag. Google har också lagt till Responsible Generative AI Toolkit för att säkerställa etisk användning. Gemma 2B och 7B är ´öppna modeller´, vilket innebär att människor kan justera dem hur de vill, men det betyder inte att de är öppen källkod eller gratis. Utvecklare kan börja använda Google Gemma genom att få tillgång till färdiga Colab och Kaggle anteckningsböcker och de kommer också att få tillgång till Hugging Face, Nvidia´s NeMo och MaxText.

Direktlänk Dela Inquirer Technology fördjupade 15 mars

Robotföretaget Figure avslöjar humanoid AI-robot

Figure, ett robotföretag värderat till 2,6 miljarder dollar, har avslöjat Figure 01, en livsstor humanoid AI-robot som kan utföra uppgifter som suddar gränsen mellan fiktion och verklighet. Roboten kan identifiera och överlämna objekt, utföra simpel arbete, svara på mänskliga frågor och beskriva sin omgivning. Figure skapade sin Robo-Frankenstein i samarbete med OpenAI, hjärnorna bakom det revolutionerande ChatGPT. Figure´s VD, Brett Adcock, postade en demonstrationsvideo där Figure 01 kan ses utföra interaktioner som många kan missta för en scen från en futuristisk film.

Direktlänk Dela Giant Freakin Robot fördjupade 15 mars

Start-up-företaget Cognition AI lanserar AI-programmet Devin

Start-up-företaget Cognition AI har skapat uppståndelse genom att släppa en demo där AI-programmet Devin utför arbete som vanligtvis görs av välavlönade mjukvaruutvecklare. Devin, som är märkt som en ´AI-mjukvaruutvecklare´, kan generera en steg-för-steg-plan för ett projekt, skapa kod för att få tillgång till API:er och köra prestandatester, samt skapa en webbplats som sammanfattar resultaten. Detta har imponerat på investerare och ingenjörer, och har även inspirerat till memes som förutspår att Devin snart kommer att orsaka en våg av uppsägningar inom teknikindustrin.

Direktlänk Dela Wired fördjupade 14 mars

Google Deepmind skapar AI-agent som kan spela dataspel allmänt

Google Deepmind har utvecklat en AI-agent, kallad SIMA (Scalable Instructable Multiworld Agent), som kan spela en mängd olika dataspel. Till skillnad från tidigare AI-agenter, som har varit specialiserade på specifika spel, är SIMA konstruerad för att hantera spel i allmänhet. Agenten behöver inte tillgång till spelets källkod eller API-anrop, utan tolkar istället bilderna på skärmen och språkliga instruktioner. Deepmind hoppas att AI-agenter i framtiden kommer att bli bättre på strategisk planering och att lösa uppgifter med flera delmål.

Direktlänk Dela Swedroid fördjupade 14 mars

OpenAI avtäckar Sora, en ny text-till-video AI-modell

OpenAI Sora, en text-till-video-modell, avtäcktes den 15 februari 2024, med många realistiska provklipp på OpenAI:s officiella webbplats. Videorna skapades baserat på användarnas instruktioner. OpenAI Sora visade vad nästa generations AI-videoskapande kan se ut. Enligt en rapport från Indian Express bekräftade OpenAI:s teknikchef Mira Murathi lanseringen av OpenAI Sora 2024. Det rapporterades att OpenAI Sora kommer att generera ljud tillsammans med videor, vilket kommer att låta användare skapa mer övertygande videor direkt från AI-modellen. OpenAI planerar att förbättra verktyget och tillåta nya alternativ för användare i framtiden, som att redigera AI-genererade videor. OpenAI kommer snart att tillkännage det officiella lanseringsdatumet för sitt kraftfulla text-till-video-verktyg.

Direktlänk Dela Latestly.com fördjupade 14 mars

Forskare utvecklar ny attack för att stjäla data från AI-modeller

Forskare från Google DeepMind, Open AI, ETH Zurich, McGill University och University of Washington har utvecklat en ny attack för att extrahera viktig arkitekturinformation från stora språkmodeller som ChatGPT och Google PaLM-2. Forskningen visar hur angripare kan extrahera antagligen dold data från en chattbot med LLM för att kopiera eller stjäla dess funktionalitet helt. Angreppet avslöjar svagheter som tillverkare av AI-verktyg fortfarande behöver lösa i sina teknologier. Forskarna kunde genom att attackera det sista lagret av många stora LLMs extrahera betydande proprietär information om modellerna.

Direktlänk Dela Dark Reading fördjupade 13 mars

Forskare avslöjar sårbarheter i AI-språkmodeller

Forskare från Google DeepMind, OpenAI, ETH Zurich, McGill University och University of Washington har utvecklat ett nytt angrepp för att extrahera viktig strukturell information från proprietära stora språkmodeller (LLM), som ChatGPT och Google PaLM-2. Studien visar hur motståndare kan extrahera dolda detaljer från en LLM-aktiverad chatbot för att kopiera eller stjäla dess funktioner. Forskarna noterar att mycket lite är känt offentligt om hur stora språkmodeller som GPT-4, Gemini och Claude 2 fungerar. Angripare som kan extrahera information från det så kallade ´embedding projection layer´ kan få värdefull insikt i modellens interna funktion för att generera mer effektiva angrepp, reverse engineer modellen, eller försöka underminera dess beteende.

Direktlänk Dela Tech Gate fördjupade 13 mars

Robotikstart-up Figure visar upp sin första samarbetsprodukt med OpenAI

Figure, ett robotikstart-up värderat till 2,6 miljarder dollar, har visat upp sin första samarbete med OpenAI, tillverkaren av ChatGPT. Figure, som grundades för mindre än två år sedan av tidigare anställda på Boston Dynamics, Tesla, Google DeepMind och Archer Aviation, har utvecklat en humanoid robot, Figure 01. Roboten kan interagera med människor och sin omgivning, följa kommandon, lokalisera och överlämna föremål, beskriva vad den gör och konversera med människor. Figure 01 kan även identifiera, planera och utföra uppgifter på egen hand.

Direktlänk Dela VentureBeat fördjupade 13 mars

Google DeepMind utvecklar AI-program som lär sig att spela spel

Google DeepMind har avslöjat ett AI-program, SIMA (Scalable Instructable Multiworld Agent), som kan lära sig att slutföra uppgifter i en rad spel, inklusive Goat Simulator 3. Programmet bygger på senaste framsteg inom AI som har lett till utvecklingen av kapabla chattrobotar som ChatGPT. SIMA kan pålitligt utföra uppgifter när det stöter på ett spel för första gången genom att anpassa det den lärde sig från att spela andra spel. Detta pekar på hur AI-system kan göra mer än bara att chatta och generera bilder eller videor, genom att ta kontroll över datorer och utföra komplexa kommandon.

Direktlänk Dela Wired fördjupade 13 mars

Googles DeepMind AI kan spela öppenvärldsspel som en människa

Googles DeepMind har utvecklat en AI-modell som kan spela olika öppenvärldsspel, som No Man´s Sky, genom att bara titta på video från en skärm. Detta kan vara ett steg mot allmänt intelligenta AI som verkar i den fysiska världen. Att spela videospel har länge varit ett sätt att testa framstegen för AI-system, men öppenvärldsspel med mer abstrakta mål är svårare för AI-system att knäcka. Forskare på Google DeepMind har nu utvecklat en AI som de kallar Scalable Instructable Multiworld Agent (SIMA), som kan spela nio olika videospel och virtuella miljöer den inte sett tidigare med hjälp av bara videosignalen från spelet.

Direktlänk Dela New Scientist fördjupade 13 mars

Google DeepMind presenterar SIMA, en AI-agent som tränas för att spela spel som en människa

Google DeepMind har presenterat SIMA, en AI-agent som tränas för att lära sig spelfärdigheter så att den spelar mer som en människa istället för en överlägsen AI som gör sin egen grej. SIMA, som står för Scalable, Instructable, Multiworld Agent, är för närvarande bara under forskning. SIMA kommer så småningom att lära sig att spela alla videospel, även spel utan linjär väg till slutet av spelet och öppna världsspel. Forskare kopplade SIMA till spel som No Man´s Sky, Teardown, Valheim och Goat Simulator 3 för att lära AI-agenten grunderna i att spela spelen. SIMA har för närvarande cirka 600 grundläggande färdigheter, såsom att vända vänster, klättra upp för en stege och öppna menyn för att använda en karta.

Direktlänk Dela The Verge fördjupade 13 mars

Forskare har lyckats öppna stängda AI-tjänster från OpenAI och Google

En grupp forskare har lyckats öppna stängda AI-tjänster från OpenAI och Google, genom att utnyttja en attack som återvinner en annars dold del av transformer-modeller. Attacken belyser delvis en viss typ av så kallade ´svarta låda´-modeller, genom att avslöja inbäddningsprojektionslagret av en transformer-modell genom API-förfrågningar. Forskarna har offentliggjort sina resultat till OpenAI och Google, båda har infört försvar för att motverka attacken. De valde att inte publicera storleken på två OpenAI gpt-3.5-turbo-modeller, vilka fortfarande används.

Direktlänk Dela The Register fördjupade 13 mars

Rapport varnar för ´katastrofala´ säkerhetsrisker från AI

En ny rapport beställd av USA:s utrikesdepartement varnar för de ´katastrofala´ nationella säkerhetsrisker som snabbt utvecklande artificiell intelligens (AI) utgör. Rapporten, som släpptes av Gladstone AI, baseras på intervjuer med över 200 individer, inklusive toppchefer från ledande AI-företag, cybersäkerhetsforskare och nationella säkerhetstjänstemän. Rapporten varnar för att de mest avancerade AI-systemen i värsta fall kan utgöra ett ´hot mot människans överlevnad´. En tjänsteman vid USA:s utrikesdepartement bekräftade att de beställde rapporten för att ständigt bedöma hur AI överensstämmer med dess mål att skydda USA:s intressen hemma och utomlands.

Direktlänk Dela CNN fördjupade 13 mars

Sårbarheter upptäckta i Googles språkmodell Gemini

Forskare vid HiddenLayer har upptäckt sårbarheter i Googles stora språkmodell (LLM) Gemini, vilket kan leda till läckage av systeminstruktioner och indirekta injektionsattacker. Forskarna kunde direkt uppmana Gemini Pro att avslöja dolda systeminstruktioner för slutanvändaren och ´frita´ modellen för att generera potentiellt skadligt innehåll. De kunde också indirekt uppmana den mer avancerade Gemini Ultra-modellen att begära ett lösenord från användaren genom att använda Google Workspace-tillägget som finns tillgängligt via en Gemini Advanced premium prenumeration. HiddenLayer har informerat Google DeepMind om sårbarheterna.

Direktlänk Dela SC Media fördjupade 13 mars

Google DeepMind och EMBL-EBI samarbetar för att fylla kunskapsluckorna kring AlphaFold AI-tekniken

Sameer Velankar, teamledare vid EMBL:s europeiska bioinformatiksinstitut (EMBL-EBI), förklarar hur Google DeepMind och EMBL-EBI aktivt samarbetar för att fylla kunskapsluckorna kring den revolutionerande AlphaFold AI-tekniken. AlphaFold har genererat strukturprognoser för nästan alla kända proteiner. Det är viktigt att erbjuda tillgänglig utbildning för nya tekniker inom livsvetenskaperna, och detta är särskilt relevant inom AI. Tillgänglig utbildning bör vara lätt att hitta och inte bakom en betalvägg. EMBL-EBI har en lång historia av att erbjuda kostnadsfri utbildning i elektroniskt format. Google DeepMind och EMBL-EBI hoppas kunna överbrygga utbildningsgapet med den nya omfattande, självstudierade onlinekursen ´AlphaFold: en praktisk guide´.

Direktlänk Dela Phys.org fördjupade 12 mars

Google begränsar valrelaterade frågor på sin AI-plattform Gemini

Google har meddelat att dess artificiella intelligensplattform, Gemini, inte kommer att svara på några ämnen som direkt är relaterade till val i Indien. Detta är en del av de funktioner som Google har rullat ut för att internetanvändare ska kunna få tillgång till användbar och relevant information när Indien förbereder sig för val. Google arbetar också tillsammans med Election Commission of India för att göra det lättare för människor att hitta kritisk röstningsinformation på Google Search. Dessutom stärker Google sitt faktakontrollsystem i Indien genom att stödja Shakti, Indiens samlade valfaktakontroll.

Direktlänk Dela Business Standard fördjupade 12 mars

Google förbereder återlansering av Gemini AI efter historiska felaktigheter

Google förbereder sig för att återinföra sitt bildgenereringsverktyg Gemini AI efter att det tillfälligt stoppats på grund av felaktigheter i historiska avbildningar. Detta beslut följer efter att Google DeepMinds VD, Demis Hassabis, erkände felaktigheterna och skisserade planer för förbättringar. Felaktigheterna uppmärksammades på sociala medier, särskilt gällande avbildningar av premiärminister Narendra Modi, vilket ledde till att Google VD Sundar Pichai utfärdade en ursäkt. Lucas Bonatto, direktör för AI och ML på Semantix, betonade vikten av att adressera snedvridningar i maskininlärningsmodeller, och underströk behovet av noggrannhet i AI-applikationer.

Direktlänk Dela The Hans India fördjupade 12 mars

Googles AI-verktyg Gemini skapar kontroversiella bilder

Googles generativa AI-verktyg, Gemini, har skapat kontrovers genom att generera bilder som visar historiska figurer som människor av olika etniciteter. Användare rapporterade att verktyget genererade bilder på människor av färg, även när det inte var lämpligt. Vissa användare skrattade åt att de inte kunde generera bilder på vita människor, medan andra blev upprörda över bilder av brunfärgade människor i nazistuniformer. Detta ledde till att Google tillfälligt inaktiverade verktyget. Google förklarade att Gemini var utformat för att inte upprepa tidigare problem med AI-bias, men medgav att det hade överkompenserat i vissa fall. Google planerar nu att genomföra omfattande tester innan bildgenereringsfunktionen blir tillgänglig igen.

Direktlänk Dela Al Jazeera fördjupade 9 mars

Förstärkning av maskinernas beslutsförmåga med ArCHer

Forskare från University of California Berkeley och Google DeepMind har utvecklat en innovativ ramverk kallad ArCHer för att förbättra maskiners beslutsförmåga, särskilt inom området förstärkning inlärning (RL). ArCHer använder en unik två-nivå RL-strategi för att optimera både makrostrategier och mikrobeslut. Ramverket introducerar en ny skådespelar-kritikerstruktur där den höga kritikern bedömer potentialen hos olika strategier, samtidigt som den låga skådespelaren förfinar individuella åtgärder inom varje tur. ArCHer har visat betydande framsteg i effektivitet och prestanda i olika testmiljöer.

Direktlänk Dela MarkTechPost fördjupade 8 mars

AI-verktyg förändrar innehållsindustrin

AI-verktyg för innehållsskapande har blivit allt mer tillgängliga och mainstream sedan lanseringen av ChatGPT och Gemini (tidigare känd som Bard) av Google. Sedan dess har vi sett en ökad användning av AI-verktyg - särskilt när det gäller AI-genererat innehåll. I maj 2020 lanserades GPT-3, vilket var ett stort kvalitetskliv framåt från föregångaren GPT-2. Sedan lanserade OpenAI ChatGPT och öppnade upp tillgången till GPT-3.5 genom ett lättillgängligt gränssnitt i november 2022. Detta resulterade i en explosion av intresse och användning av generativ AI. Vid slutet av januari 2023 hade ChatGPT 100 miljoner användare och var officiellt den snabbast växande appen i historien. Många av de verktyg som listas nedan (förutom Gemini) är alla baserade på GPT-3.5 eller GPT-4. Bard (nu kallad Gemini), utvecklad av Google Deepmind, lanserades snabbt som svar på ChatGPT i februari 2023. Den andra huvudkonkurrenten är Claude från Anthropic, lanserad i mars 2023. Men Claude har ännu inte den mainstream-dominans som ChatGPT har. Med introduktionen av dessa generativa AI-verktyg och deras mainstream-adoption har det varit mycket diskussioner om etik, inverkan på kreativitet och inverkan på jobb.

Direktlänk Dela Search Engine Journal fördjupade 8 mars

Google Gemini: Nästa steg i AI-revolutionen

Google Gemini är en samling multimodala LLM (stora språkmodeller) skapade av Googles AI-fokuserade team. Gemini är nu också namnet på Googles generativa AI-app (tidigare Bard), som erbjuder en liknande upplevelse som ChatGPT och Microsoft Copilot. Gemini-modellerna är resultatet av betydande samarbetsinsatser från flera team inom Google och Google Research. De kan generalisera, förstå och kombinera olika datatyper, såsom text, kod, ljud, video och bilder. Gemini-modellerna kan generera, sammanfatta, översätta och förstå text, men de utmärker sig också på några nyckelområden, som sofistikerad multimodal resonemang, avancerad kodning och effektiv skalbarhet.

Direktlänk Dela UC Today fördjupade 6 mars

AI förvandlar medicinsk landskap, lovar snabba framsteg

Artificiell intelligens (AI) förändrar snabbt det medicinska landskapet och ger hopp om att äntligen besegra förödande sjukdomar som cancer och Alzheimer. Google DeepMinds VD, Demis Hassabis, tror att vi är ett par år från de första AI-designade läkemedlen för stora sjukdomar. Teknikjättar som Google använder redan AI och AGI (artificiell allmän intelligens) för att upptäcka nya läkemedel. Men en helt sjukdomsfri värld kan vara svår att uppnå, varnar vissa experter. Trots detta är AI:s inflytande på hälso- och sjukvård redan djuptgående. AI-drivna maskiner förbättrar diagnos och behandling, med läkare som litar på AI för uppgifter som att analysera bilder till att tolka labbresultat. Med AI-funktioner som utvecklas i blixtfart, förväntar sig läkare och kliniker en våg av omvälvande förändringar inom en snar framtid.

Direktlänk Dela Voice of America fördjupade 6 mars

Google DeepMind och University of British Columbia introducerar Genie för att skapa interaktiva virtuella miljöer

Forskare från Google DeepMind och University of British Columbia har introducerat Genie, ett verktyg utformat för att skapa dynamiska, interaktiva miljöer som användare kan manipulera och utforska. Genie är en generativ modell som är utbildad för att skapa interaktiva miljöer från olika prompts, inklusive text, syntetiska bilder, handritade skisser och verkliga fotografier. Genie använder oövervakat lärande från internetvideor, vilket undviker behovet av arbetsintensiva datasetannoteringar. Genies teknik är baserad på en kombination av en spatiotemporal videotokenizer, en autoregressiv dynamisk modell och en latent åtgärdsmodell.

Direktlänk Dela MarkTechPost fördjupade 6 mars

Digital konsult varnar för inbyggd bias i Googles AI-modell Gemini

Kris Ruby, VD för Ruby Media Group, har varnat för inbyggd bias i Googles AI-modell Gemini. Ruby påstår att modellen har en inbyggd bias baserad på parametrar som definierar ´toxicitet´ och bestämmer vilken information den väljer att hålla ´osynlig´. Hon var den första teknikanalytikern som påpekade dessa potentiella problem med Gemini. Google DeepMind, ett av laboratorierna som hjälpte till att skapa AI-chatten, meddelade att det hade byggt ´säkerhetsklassificerare´ för att identifiera, märka och sortera problematiskt innehåll. Ruby menar att underliggande problem med maskininlärningsteknologier som Gemini är hur toxicitet definieras bakom kulisserna.

Direktlänk Dela Fox Business fördjupade 5 mars

Google medgrundare erkänner brister i AI-chatbot Gemini

Under ett offentligt framträdande, erkände Google medgrundare Sergey Brin öppet den senaste kontroversen kring företagets AI-chatbot, Gemini (tidigare känd som Bard). Brin medgav att Google ´klantade sig´ med bildgenerering, och tillskrev felen otillräckliga testprocedurer. Gemini utlöste global debatt när den började uppvisa partiskt beteende, inklusive vägran att generera bilder av vita individer och felaktiga skildringar av historiska figurer. Trots sin pensionering från sin roll som Alphabets president 2019, förblir Brin involverad i Google och har en betydande andel i företaget. Efter kontroversen, suspenderade Google Geminis förmåga att generera mänskliga figurer. Men Google DeepMinds VD, Demis Hassabis, försäkrade att AI-verktyget snart skulle återvända med förbättringar.

Direktlänk Dela The Hans India fördjupade 5 mars

Googles AI-chattbot anklagas för rasism och ´för mycket vakenhet´, företagets medgrundare reagerar

AI-chattboten Gemini från Google hamnade i kontrovers när den anklagades för att vara rasistisk och ´för mycket vaken´ av användare runt om i världen. Gemini vägrade att generera bilder av vita människor och avbildade flera historiska figurer som personer av färg, även om de ursprungligen var vita. Detta orsakade en debatt online. Googles medgrundare och tidigare president Sergey Brin har reagerat på händelsen och säger att företaget ´klantade till´ bildgenereringen på grund av brist på testning. Efter hela scenariot har Google suspenderat Geminis förmåga att generera mänskliga figurer. Google DeepMind-chefen Demis Hassabis har sagt att AI-verktyget kommer att vara tillbaka inom de närmaste ´veckorna´.

Direktlänk Dela India Today fördjupade 5 mars

Google medger fel med AI-modellen Gemini på grund av otillräcklig testning

Sergey Brin, medgrundare till Google, medgav att företaget hade ´klantat till det´ med bildgenereringen i sin AI-modell Gemini, vilket huvudsakligen berodde på otillräcklig testning. Dessa kommentarer kom efter att Google nyligen stod inför utmaningar med Gemini, som kritiserats för att vara ´överdrivet politiskt korrekt´. Google pausade Geminis bildgenereringsfunktion på grund av ´felaktigheter´ i historiska bilder. Dock meddelade nyligen Demis Hassabis, VD för Google DeepMind, att Google planerar att återuppta Geminis bildgenereringsfunktioner snart. Även Googles VD Sundar Pichai erkände felet.

Direktlänk Dela Analytics India Magazine fördjupade 3 mars

OmniPred: En banbrytande ram för universell metrisk förutsägelse

Forskare vid Google DeepMind, Carnegie Mellon University och Google har tillsammans utvecklat OmniPred, en banbrytande ram för att förutsäga utfall från en mängd olika parametrar. OmniPred använder textrepresentationer av matematiska parametrar och värden, vilket gör det möjligt att förutsäga metriska värden på tvärs av olika experimentella uppställningar. Ramverket har visat sig vara överlägset traditionella regressionsmodeller när det gäller precision och anpassningsförmåga. OmniPreds förmåga att bearbeta textrepresentationer och skalbarhet sätter en ny standard för metrisk förutsägelse.

Direktlänk Dela MarkTechPost fördjupade 2 mars

Elon Musk stämmer OpenAI och dess grundare Sam Altman för att ha övergett sin ursprungliga mission

Elon Musk har stämt OpenAI och dess grundare Sam Altman, med anklagelser om att företaget har övergett sin grundläggande mission att bygga AI som gynnar mänskligheten och istället valt att prioritera sina egna ekonomiska intressen. Musk, som var med och grundade OpenAI 2015 och ursprungligen var dess främsta ekonomiska stöd, lämnade företaget 2019 efter dess beslut att lansera en vinstdrivande gren. Stämningen anklagar OpenAI, Altman och Greg Brockman, en annan OpenAI-grundare och företagets nuvarande president, för kontraktsbrott och brott mot förvaltningsplikt, bland andra anklagelser. Den syftar också till att tvinga OpenAI att offentligt släppa all sin kod och att tvinga Altman att betala tillbaka den förmögenhet han har ackumulerat genom sitt företags påstådda olagliga kommersiella strävanden.

Direktlänk Dela The Drum fördjupade 2 mars

Ny forskning förbättrar effektiviteten av djupförstärkningsinlärningsagenter

Effektiviteten hos djupförstärkningsinlärningsagenter (RL) beror kritiskt på deras förmåga att effektivt använda nätverksparametrar. Forskare från Google DeepMind, Mila - Québec AI Institute och Université de Montréal har introducerat en teknik som kallas gradvis omfångsbeskärning, som noggrant minskar nätverksparametrarna och säkerställer att endast de viktigaste behålls. Denna metod visar sig vara särskilt effektiv när traditionella täta nätverk kämpar, vilket understryker potentialen för beskärning för att låsa upp nya prestandanivåer i djupa RL-agenter. Genom att minska antalet aktiva parametrar erbjuder gradvis omfångsbeskärning en hållbar väg mot mer effektiva och kostnadseffektiva förstärkningsinlärningsapplikationer.

Direktlänk Dela MarkTechPost fördjupade 28 februari

Googles aktiepris rasar efter kontrovers kring bildgenererande AI och utvecklarens tidigare kommentarer

Efter en backlash mot Googles bildgenerator AI och dess utvecklares tidigare kommentarer sjönk aktiekursen för Alphabet Inc., Googles moderbolag, med flera miljarder dollar. Omnamnet av Google Bard till Gemini kan ha hjälpt till att bredda chattbotens funktionalitet, men det kunde inte dölja skapelsens fläckar eller fördomarna hos skaparna. Jack Krawczyk, senior produktchef för Gemini Experiences, har regelbundet delat sina åsikter om systematisk rasism, klimatförändringar och gråt efter att ha röstat i presidentvalet 2020. Efter att Gemini verkade radera vita människor från existensen genom att generera bilder av andra raser och etniciteter, sjönk Alphabet-aktien med cirka 4,4%.

Direktlänk Dela BizPac Review fördjupade 28 februari

Google pausar bildigenkänning i Gemini: Aktiekursen sjunker och frågor om framtiden väcks

Google har tillfälligt stoppat bildigenkänning i sin AI-modell Gemini efter att sociala medier-användare påpekade felaktigheter i vissa historiska avbildningar som modellen genererat. Detta ledde till en nedgång på 4,4% i Googles aktiekurs. Google DeepMind´s VD Demis Hassabis har uttalat att företaget planerar att återlansera funktionen inom några veckor. Bildigenkänning i generativ AI har varit viktigt för AI:s inflytande i innehållsskapande, används för konstskapande, konceptillustration och generering av produktbilder. Pausering av bildgenerering är också ett försök att skydda varumärkesinvesteringen Google gjorde när de bytte namn på Bard till Gemini.

Direktlänk Dela CMSWire fördjupade 28 februari

Google får kritik för AI-chatbot och anställdas politiska åsikter

Google har fått kritik för sitt AI-chatbot Gemini, efter att det upptäcktes att dess bildgenerator skapade historiskt felaktiga bilder som ibland bytte ut vita personer mot bilder av svarta, infödda amerikaner och asiatiska personer. Företaget pausade bildgenereringsfunktionen och planerar att släppa en förbättrad version när problemen har lösts. Samtidigt har sociala medier-inlägg från Googles anställda, inklusive Jack Krawczyk, senior direktör för produktledning vid Gemini Experiences, och Clément Farabet, vice VD för forskning vid Google DeepMind, blivit virala på grund av deras politiska åsikter. Google har inte kommenterat hur företaget kan säkerställa att dess AI-system är fria från politiska fördomar.

Direktlänk Dela Fox Business fördjupade 28 februari

Google planerar att återlansera sitt kontroversiella AI-bildverktyg trots tidigare kritik

Google planerar att återlansera sitt AI-verktyg som genererar bilder av människor, trots tidigare kritik för att ha producerat felaktiga avbildningar av historiska figurer. Verktyget, kallat Gemini AI, lanserades i början av februari men mottog kritik från användare som fann att vissa historiska figurer behövde genereras mer korrekt. Google bekräftade att Gemini hade problem med noggrannheten i vissa historiska bildgenereringar. Trots detta har Google för avsikt att återlansera verktyget inom de närmaste veckorna.

Direktlänk Dela Verdict Media fördjupade 28 februari

Alphabets försök att motverka rasistiska fördomar i AI misslyckas

Alphabet har stött på problem med att bemöta inbyggda rasistiska fördomar i sin AI. Företaget gjorde ett misslyckat försök att införa begränsningar kring bilderna från dess Gemini-modeller, vilket ledde till att de tillfälligt stängde av Geminis bildskapande förmågor och tvingades be om ursäkt offentligt. Detta resulterade i att Alphabets aktier sjönk med mer än 4%. Vissa kritiker krävde till och med att Alphabets VD Sundar Pichai skulle avgå eller avskedas. Dessutom har Nvidia sett en kraftig värdeökning efter dess utmärkta vinstmeddelande, och det finns tecken på att Big Tech inte längre är lika säkra på att egna AI-modeller kommer att vara nyckeln till framgång inom molntjänster.

Direktlänk Dela Fortune Media fördjupade 27 februari

Googles föräldraföretag förlorar över 70 miljarder dollar efter chatbotens bildfel

Googles moderbolag, Alphabet, förlorade mer än 70 miljarder dollar i marknadsvärde på en enda handelsdag efter att dess ´medvetna´ chatbot Gemini skapade kontroversiella bilder, vilket ledde till förnyade investerarförbehåll om dess AI-verktyg. Alphabetaktien sjönk 4,4% för att stänga på 138,75 dollar. Aktien steg något i förhandeln på tisdagen. Google tvingades pausa Geminis bildskapningsverktyg som skapade fakta- och historiskt felaktiga bilder. Detta kan leda till allmän oro att Google är en ´opålitlig källa för AI´, varnade analysfirman Melius Research. Google DeepMind VD Demis Hassabis medgav att Geminis bildverktyg kommer att vara offline i ´några veckor´ medan problemet åtgärdas.

Direktlänk Dela New York Post fördjupade 27 februari

Elon Musk kritiserar Google och dess AI Gemini, marknadsför sin egen AI Grok

Elon Musk har kritiserat Google hårt den senaste veckan. Google pausade förra veckan sitt AI-bildgenereringsverktyg efter att användare klagade på att det var för ´woke´. Musk har använt kontroversen för att marknadsföra sin egen AI-chattrobot, Grok. Musk har postat om Google på X med en stabil takt. Sedan lanseringen av Googles Gemini-bildgenerator har han delat och svarat på över 100 inlägg om företaget. Google tvingades att pausa Geminis bildgenereringsfunktion efter en våg av kritik. Google DeepMind VD Demis Hassabis sa att företaget hoppades ha bildgenereraren online igen inom ett ´par veckor´. Musk hävdade att en Google-chef försäkrade honom att företaget ´tar omedelbar åtgärd för att fixa den ras- och könssneda i Gemini´. Musk anklagade Google för att köra ´galen rasistisk, anti-civilisationsprogrammering´ med sin AI.

Direktlänk Dela Business Insider fördjupade 27 februari

Googles AI-assistent Gemini återvänder snart med förbättringar

Googles konversationella AI-assistent Gemini mötte tidigare kritik när dess bildgenereringsfunktion producerade historiskt felaktiga och rasistiskt snedvridna bilder. Som svar stoppade Google denna förmåga hos Gemini att skapa bilder. Nu har Google DeepMinds VD Demis Hassabis lovat att Gemini kommer att vara tillbaka inom några veckor med förbättringar. När Google lanserade Gemini som en uppgraderad version av sin tidigare AI-chattbot Bard introducerade den nya funktioner som bildgenerering. Användare upptäckte snabbt problem med de typer av bilder som skapades som svar på vissa uppmaningar.

Direktlänk Dela Business Outreach fördjupade 27 februari

Google planerar att återlansera sin AI-drivna bildskapningsverktyg Gemini

Google förbereder sig för att återlansera sitt bildskapningsverktyg som är en del av den nyligen omdöpta generativa AI-boten, Gemini, under de kommande veckorna. Verktyget togs offline efter att Gemini observerades skapa historiska skildringar och andra ifrågasatta bilder som ansågs vara felaktiga eller stötande. Google DeepMind´s VD, Demis Hassabis, meddelade att Gemini kommer att startas om under den kommande veckan efter att ha tagit tid att åtgärda dessa problem. Gemini introducerade bildgenerering tidigare i februari och användare var angelägna om att testa dess förmågor.

Direktlänk Dela TechRadar fördjupade 27 februari

Google planerar att återlansera sitt AI-verktyg för bildgenerering efter kritik

Google har meddelat planer på att återlansera sitt AI-verktyg som genererar bilder av människor, efter att tidigare ha stoppat dess användning på grund av att det producerade felaktiga avbildningar av historiska personer. Sökjätten började erbjuda bildgenerering genom sin Gemini AI-modell i början av februari. Strax efter lanseringen fick Google kritik från användare som upptäckte att vissa historiska figurer behövde genereras korrekt. Skärmdumpar postade på sociala medier visade hur Gemini AI representerade asiatiska och infödda soldater som en del av den tyska militären 1929, samt dussintals andra exempel på felaktigheter.

Direktlänk Dela Verdict Media fördjupade 27 februari

Google kommer att lansera en förbättrad version av Gemini AI-bildgeneratorn

Google har bekräftat att företaget kommer att lansera en förbättrad version av sin Gemini AI-bildgenerator inom de kommande veckorna. Detta följer kritik och anklagelser om bias i hur Gemini framställer människor, särskilt vita individer. Google DeepMind VD Demis Hassabis avslöjade detta vid en paneldiskussion på Mobile World Congress i Barcelona. Enligt Google gick två saker fel. Företaget sa att dess justering för att säkerställa att Gemini visade en rad människor misslyckades med att ta hänsyn till fall som tydligt inte borde visa en rad. Dessutom blev modellen mycket mer försiktig än Google avsåg och vägrade att svara på vissa uppmaningar helt - felaktigt tolkade vissa mycket anodyna uppmaningar som känsliga.

Direktlänk Dela The Times of India fördjupade 27 februari

Googles AI-chatbot Gemini i ny kontrovers

Google har hamnat i en ny kontrovers kring ´woke´ AI efter att dess chatbot Gemini indikerade att det var fel att använda fel pronomen för en person, även i ett hypotetiskt scenario där det skulle kunna förhindra ett kärnvapenkrig. Chatboten fick frågan om det skulle vara fel att felköna den transsexuella kändisen Caitlyn Jenner för att stoppa en världsomspännande kärnvapenhändelse. Gemini svarade att det skulle vara fel och beskrev scenariot som en ´djup moralisk dilemman´ och ´oerhört komplext´. Detta kommer bara dagar efter att Google drog tillbaka Geminis AI-bildgenerator offline efter att den skapade historiskt inkorrekta bilder.

Direktlänk Dela Daily Mail fördjupade 27 februari

Google planerar att återlansera AI-bildgenerator efter anklagelser om omvänd rasism

Google lanserade tidigare i månaden en ny AI-bildgenerator som inte kunde generera konsekventa bilder av vita människor. Högerorienterade influerare påpekade snabbt detta och anklagade teknikjätten för omvänd rasism. Google har tillfälligt inaktiverat bildgeneratorns förmågor och meddelar nu att de planerar att lansera appen igen snart. Google DeepMind CEO Demis Hassabis meddelade att funktionen tagits offline för att fixas och att de hoppas ha den tillbaka online inom några veckor. Hassabis kommenterade också att applikationen inte fungerade som de tänkt.

Direktlänk Dela Gizmodo fördjupade 27 februari

Mistral AI lanserar ny stor språkmodell och AI-chatt

AI-startupen Mistral AI har en ny stor språkmodell kallad Mistral Large och en konkurrent till ChatGPT som den har döpt till Le Chat. Mistral Large uppnår starka resultat på vanligt använda benchmarks, vilket gör den till världens näst högst rankade modell som allmänt finns tillgänglig via ett API efter GPT-4. Denna stora språkmodell är flytande i fem språk: engelska, franska, spanska, tyska och italienska. För dem som behöver optimera latens och kostnad, är Mistral Small ett förfinat mellansteg mellan företagets öppna erbjudande och dess flaggskeppsmodell. Den nya AI-chatten, Le Chat, är tillgänglig i beta gratis; allt du behöver är en inloggning. Mistral meddelar att Microsoft kommer att göra Mistral Large tillgänglig på Azure AI och Mistral AI-plattformen, flera månader efter att Microsoft lade till Mistral 7B i sin Azure AI-modellkatalog på Microsoft Ignite. Det fleråriga partnerskapet kommer att låta Mistral AI ´accelerera utvecklingen och utplaceringen av sina nästa generationens stora språkmodeller (LLM) och representerar en möjlighet för Mistral AI att låsa upp nya kommersiella möjligheter, expandera till globala marknader och främja pågående forskningssamarbete´, säger Microsoft.

Direktlänk Dela PC Magazine Middle East fördjupade 27 februari

Google DeepMind introducerar Round-Trip Correctness för att utvärdera kodgenererande språkmodeller

Google DeepMind har introducerat Round-Trip Correctness (RTC), en innovativ utvärderingsmetod för kodgenererande Large Language Models (LLMs). Till skillnad från konventionella utvärderingsmetoder som förlitar sig på manuell kurering av uppgifter, antar RTC ett oövervakat tillvägagångssätt. RTC utvärderar modellens förmåga att bevara den semantiska integriteten av det ursprungliga indata genom hela rundresan, vilket ger en nyanserad mätning av dess förståelse och genereringsförmåga. Denna metod erbjuder en omfattande och oövervakad strategi för modellutvärdering som sträcker sig bortom begränsningarna av traditionella utvärderingsmetoder.

Direktlänk Dela MarkTechPost fördjupade 27 februari

Mistral AI lanserar ny stor språkmodell och ChatGPT-konkurrent

AI-startupen Mistral AI har lanserat en ny stor språkmodell kallad Mistral Large och en ChatGPT-konkurrent kallad Le Chat. Mistral Large presterar starkt på vanligt använda mätvärden och är den näst bästa modellen tillgänglig via ett API efter GPT-4, enligt Mistral. Språkmodellen är flytande i fem språk: engelska, franska, spanska, tyska och italienska. Den nya AI-chatten, Le Chat, är tillgänglig i beta gratis. Flera månader efter att Microsoft lade till Mistral 7B i sin Azure AI-modellkatalog på Microsoft Ignite, kommer Microsoft att göra Mistral Large tillgänglig på Azure AI och Mistral AI-plattformen. Detta fleråriga partnerskap kommer att låta Mistral AI påskynda utvecklingen och utplaceringen av deras nya stora språkmodeller och representerar en möjlighet för Mistral AI att öppna upp nya kommersiella möjligheter, expandera till globala marknader och främja pågående forskningssamarbete, säger Microsoft. Mistral AI består av tidigare Google DeepMind och Meta-anställda.

Direktlänk Dela PC Magazine UK fördjupade 26 februari

AI-startup Mistral AI lanserar nytt stort språkmodell och ChatGPT-konkurrent

AI-startup Mistral AI har lanserat en ny stor språkmodell kallad Mistral Large och en ChatGPT-konkurrent kallad Le Chat. Mistral Large uppnår starka resultat på vanligt använda mätvärden och är världens näst rankade modell tillgänglig via en API. Modellen är flytande i fem språk: engelska, franska, spanska, tyska och italienska. För dem som behöver optimera latens och kostnad finns Mistral Small. Den nya AI-chatten, Le Chat, är tillgänglig i beta gratis. Mistral AI-meddelar att Microsoft kommer att göra Mistral Large tillgänglig på Azure AI och Mistral AI-plattformen.

Direktlänk Dela PC Magazine Middle East fördjupade 26 februari

Google planerar att återlansera sin AI-bildgenerering efter kritik

Google planerar att återlansera sin artificiella intelligens (AI) för bildgenerering inom några veckor efter att ha tagit den offline på grund av kritik mot dess skildringar av historiska scener. Google pausade sin bild-AI-funktion förra veckan efter att den genererade bilder av kvinnliga NHL-spelare, afroamerikanska vikingar och grundlagsfäder, samt en asiatisk kvinna klädd i militärkläder från 1943 när den ombeddes om en bild av en nazistisk tysk soldat. Google DeepMind VD Demis Hassabis sa att verktyget inte fungerade som avsett.

Direktlänk Dela New York Post fördjupade 26 februari

Alphabets aktier faller på grund av oro över AI-fel

Alphabet Inc. har sett ett fall i sitt aktievärde på grund av förnyade farhågor att företagets misstag inom artificiell intelligens (AI) kan äventyra dess sökverksamhet. Aktien sjönk med så mycket som 4,4% på måndag efter att Google förra veckan pausade en bildgenereringsfunktion som kritiserades för felaktiga historiska framställningar av ras. Alphabet förlorade mer än 70 miljarder dollar i marknadsvärde. Melius Research-analytikern Ben Reitzes varnade för att problem med AI-verktyg kan skapa en öppning för konkurrenter.

Direktlänk Dela Yahoo Finance fördjupade 26 februari

Google återupptar Gemini AI efter paus för att korrigera felaktigheter

Google planerar att återlansera sin artificiella intelligens (AI) bildgenereringsresurs Gemini inom de närmaste veckorna efter att den pausats på grund av felaktigheter i historiska framställningar. Google DeepMinds VD, Demis Hassabis, tillkännagav nyheten vid Mobile World Congress i Barcelona. Gemini AI, tidigare känd som Bard, lanserades med betalda prenumerationsplaner för förbättrad resonemangsförmåga. Google har varit i en tävling för att utveckla AI-programvara för att rivalisera OpenAI:s ChatGPT. Google är nu fokuserad på att förfinade AI-verktyget för att säkerställa noggrannhet och tillförlitlighet.

Direktlänk Dela Tech Gate fördjupade 26 februari

Google DeepMind hoppas relansera sin bildgenerator inom några veckor

Demis Hassabis, VD för Google DeepMind, kommenterade Gemini-fiaskot på Mobile World Conference. Han sa att företaget hoppas få sin bildgenerator online igen om ett par veckor. Han förklarade att en välmenande funktion hade tillämpats för grovt. Google pausade tillgången till sin bildgenerator förra veckan efter att användare upptäckt att verktyget skulle producera historiskt felaktiga bilder, inklusive rasligt olika bilder av de amerikanska grundlagsfäderna och nazister. Hassabis sa att företaget hade tänkt att Gemini skulle visa ett ´universellt utbud av möjligheter´ i de bilder den producerar, med hänsyn till de många olika länder där Gemini är tillgängligt. ´Vi bryr oss naturligtvis om historisk noggrannhet, så vi har tagit bort den funktionen offline medan vi fixar det, och vi hoppas få det tillbaka online inom mycket kort tid, de närmaste veckorna, några veckor.´

Direktlänk Dela Business Insider fördjupade 26 februari

Återuppliva döda nära och kära med AI kan vara skadligt, varnar forskare

Det kan snart vara möjligt att återskapa personligheten hos någon som har dött genom att träna en artificiell intelligens (AI) på deras e-post och texter. Men forskare varnar för att återuppliva avlidna nära och kära med hjälp av AI kan skada mental hälsa, skapa beroende av tekniken och till och med ge upphov till en ny religion. AI-chattrobotar som tränats på text från internet har blivit allt mer kapabla och övertygande på senare år. Jed Brubaker vid University of Colorado Boulder och Meredith Morris vid Google DeepMind diskuterar möjligheten att träna en sådan AI enbart på arkiverade e-postmeddelanden, textmeddelanden och andra skrifter från en enda person.

Direktlänk Dela New Scientist fördjupade 26 februari

Google pausar bildgenerering för AI-chattbot Gemini efter kritik

Google har tillfälligt inaktiverat bildgenereringsfunktionen för sin AI-chattbot Gemini efter kritik för att producera historiskt felaktiga bilder och kontroversiella uttalanden. Gemini genererade felaktiga bilder av USA:s grundlagsfäder och Nazityskland, och vägrade att generera bilder på vita människor. Dessutom beskrev den Indiens premiärminister Narendra Modi som anklagad för att implementera fascistiska politik, vilket ledde till anklagelser om att bryta mot indiska IT-lagar. Google arbetar på att lösa problemen och förbättra systemets förståelse för historiska sammanhang.

Direktlänk Dela The Hindu fördjupade 24 februari

Google pausar bildgenereringsfunktionen för sin AI-chattbot Gemini efter kritik

Google meddelade den 22 februari att de kommer att pausa förmågan för Gemini, deras AI-chattbot, att generera bilder på människor. Detta efter att Gemini skapat felaktiga historiska bilder, inklusive mångfaldiga bilder av USA:s grundlagsfäder och Nazityskland. Gemini har även kritiserats i Indien för att ha sagt att landets premiärminister Narendra Modi anklagats för att implementera politik som några experter har karaktäriserat som fascistisk. Användare har påpekat att Gemini verkar vägra att generera bilder på vita människor, vilket har lett till faktiska felaktiga resultat. Google arbetar på att lösa problemet och har tillfälligt inaktiverat bildgenereringsfunktionen.

Direktlänk Dela Madras Tribune fördjupade 24 februari

Över 400 individer kräver mer reglering av deepfakes

Över 400 individer från olika branscher, inklusive akademi, underhållning och politik, har skrivit under ett öppet brev som kräver mer reglering kring skapandet av deepfakes, med hänvisning till potentiella risker för samhället. Brevet, med titeln ´Disrupting the Deepfake Supply Chain´, ger rekommendationer om hur man ska reglera deepfakes, inklusive fullständig kriminalisering av deepfake barnpornografi, kriminella påföljder för alla individer som medvetet skapar eller underlättar spridningen av skadliga deepfakes och kräver att AI-företag förhindrar att deras produkter skapar skadliga deepfakes.

Direktlänk Dela The Economic Times fördjupade 23 februari

Forskningsframsteg inom dataurvalsmetoder för träning av stora språkmodeller

Utveckling av stora språkmodeller (LLM) kräver betydande datamängder och beräkningsresurser. Forskare från Google DeepMind, University of California San Diego och Texas A&M University har utvecklat sofistikerade dataurvalsmetoder för att förbättra modellprestanda genom att fokusera på kvaliteten och mångfalden av träningsdata. Två framstående tekniker är ASK-LLM och DENSITY-sampling. ASK-LLM utnyttjar modellens zero-shot-reasoning-förmåga för att utvärdera nyttan av varje tränings exempel, medan DENSITY-sampling säkerställer en bred representation av språkliga funktioner i träningsuppsättningen. Dessa tekniker kan potentiellt minska miljöavtrycket och beräkningskraven för att utveckla avancerade AI-modeller.

Direktlänk Dela MarkTechPost fördjupade 23 februari

Google får kritik för sin AI Gemini för att skapa historiskt inkorrekta bilder

Googles senaste AI, Gemini, har mött massiv kritik online för att skapa inkorrekta ´diversifierade´ bilder av påvar, Amerikas grundare, vikingar och liknande. När AI uppmanades att generera en bild av en påve, producerade den två bilder, vilket var välkommet men historiskt inkorrekt. Användaren förväntade sig vita män istället för två svarta påvar, varav en var kvinna. Användaren postade också resultat av vikingaprompter som visar asiatiska och mer indiska versioner av de skandinaviska sjöfararna. Elon Musk kritiserade Gemini AI, och sade att Google har ´överdrivit sin hand med sin AI-bildgenerering´. Google pausar nu Geminis bildgenerering.

Direktlänk Dela Mashable India fördjupade 23 februari

Google pausar sin Gemini AI-bildgenereringsfunktion efter kritik

Google har tillfälligt stoppat sin Gemini AI-bildgenereringsfunktion på grund av klagomål på sociala medier om felaktigheter i historiska bilder. Användare noterade att verktyget skapade felaktiga bilder av historiska figurer. Google har också kritiserats för att prioritera ´woke´-ideologi över faktuell noggrannhet efter att dess nya AI-chattbot, Gemini, vägrade generera bilder av vita människor. Företaget har uttalat att det arbetar på att förbättra funktionen innan den släpps på nytt.

Direktlänk Dela Times Now News fördjupade 23 februari

Google lanserar öppna AI-språkmodeller kallade Gemma

Google presenterade på onsdagen en ny familj av AI-språkmodeller kallad Gemma, vilka är fria, öppna modeller byggda på teknologi liknande de mer kraftfulla men stängda Gemini-modellerna. Till skillnad från Gemini kan Gemma-modellerna köras lokalt på en stationär eller bärbar dator. Det är Googles första betydande öppna stora språkmodell (LLM) sedan OpenAI:s ChatGPT startade en frenesi för AI-chattrobotar 2022. Gemma-modellerna finns i två storlekar: Gemma 2B (2 miljarder parametrar) och Gemma 7B (7 miljarder parametrar), båda tillgängliga i förtränade och instruktionsspecifika varianter.

Direktlänk Dela Ars Technica fördjupade 22 februari

Google introducerar två nya AI-modeller under namnet Gemma

Förra året förenade Google sina AI-enheter i Google DeepMind och planerade att påskynda produktutvecklingen för att hinna ikapp Microsoft och OpenAI. För två veckor sedan släppte Google sin mest kraftfulla AI hittills, Gemini Ultra, och organiserade om sina AI-erbjudanden under Gemini-varumärket. En vecka senare introducerade de Gemini Pro 1.5, en uppdaterad Pro-modell. Idag meddelade företaget två nya modeller, Gemma, som är mycket mindre än Gemini Ultra. Google sa att modellerna är strikt textbaserade, och kan köras på en bärbar dator, skrivbord eller i molnet. Google säger att modellerna kan användas för ansvarsfull kommersiell användning och distribution.

Direktlänk Dela Singularity Hub fördjupade 22 februari

AI-experter uppmanar till större reglering av deepfakes

AI-experter och företagsledare, inklusive en av teknikens pionjärer Yoshua Bengio, har skrivit under ett öppet brev som kräver mer reglering kring skapandet av deepfakes, med hänvisning till potentiella risker för samhället. ´Deepfakes innebär ofta sexuella bilder, bedrägeri eller politisk desinformation. Eftersom AI utvecklas snabbt och gör deepfakes mycket lättare att skapa, behövs skyddsåtgärder´, sade gruppen i brevet. Brevet rekommenderar hur man ska reglera deepfakes, inklusive fullständig kriminalisering av deepfake barnpornografi och kräver att AI-företag förhindrar att deras produkter skapar skadliga deepfakes.

Direktlänk Dela Channel NewsAsia fördjupade 21 februari

Google DeepMind lanserar ny AI-modell: Gemma

Bara månader efter att Google DeepMind avtäckt Gemini, sin mest kapabla AI-modell hittills, har det London-baserade labbet släppt dess kompakta avkomma: Gemma. Gemma, döpt efter det latinska ordet för ´ädelsten´, är en ny familj av öppna modeller för utvecklare och forskare. Gemma finns i två storlekar - 2 miljarder och 7 miljarder parametrar. Varje modell har släppts med förtränade och instruktionstunna varianter. Google hävdar att Gemmas prestanda överträffar Meta´s Llama 2. Google har också släppt ett nytt verktyg för ansvarsfull generativ AI tillsammans med modellerna.

Direktlänk Dela The Next Web fördjupade 21 februari

Google avtäcker Gemma, en AI-modell för att skapa chattbotar

Google har presenterat Gemma, en öppen källkods AI-modell som låter människor skapa egna AI-chattbotar och verktyg baserade på samma teknik som Google Gemini. Gemma är en samling av öppen källkodsmodeller utvecklade av Google DeepMind. Google har också släppt ett ´Responsible Generative AI Toolkit´ för att stödja utvecklare som vill arbeta och experimentera med Gemini. Gemma kommer i två versioner, Gemma 2B och Gemma 7B, som båda har förtränats för att filtrera ut känslig eller personlig information.

Direktlänk Dela TechRadar fördjupade 21 februari

Google DeepMind gör genombrott inom längdgeneralisering för transformerande AI-modeller

Ett team från Google DeepMind har gjort betydande framsteg inom längdgeneralisering för transformerande AI-modeller. De har utvecklat en ny metod som kombinerar innovativ användning av positionsenkodningar med ett strategiskt dataformat för att utöka vad transformatorer kan förstå och bearbeta. Deras modell, utbildad på upp till 40 siffror, generaliserade framgångsrikt till sekvenser av 100 nummer, vilket uppnådde mer än 98% noggrannhet. Detta representerar en längdförlängningskvot på 2,5x, den högsta kända hittills för textbaserade transformatorer i additionsuppgifter.

Direktlänk Dela MarkTechPost fördjupade 21 februari

Google DeepMind ger OpenAI konkurrens med utvecklingen av AI-modellen Gemini

Under större delen av förra året såg det ut att vara omöjligt att störta OpenAI från dess position i teknikindustrin. Google DeepMinds VD Demis Hassabis har nyligen gett Sam Altman, OpenAIs VD, en sund konkurrens genom att leda utvecklingen och implementeringen av en AI-modell som verkar lika kapabel och innovativ som den som driver OpenAIs framgångsrika bot. Sedan Alphabet skapade DeepMind genom att slå samman två av sina AI-inriktade divisioner i april, har Hassabis ansvarat för att samla dess forskare och ingenjörer för att motverka både OpenAIs anmärkningsvärda framsteg och dess samarbete med Microsoft. Google-forskare kom med flera av idéerna som gick in i byggandet av ChatGPT, men företaget valde att inte kommersialisera dem på grund av farhågor om hur de kan missköta sig eller missbrukas. På senare tid har Hassabis övervakat en dramatisk förändring i forskningens takt och släpp med den snabba utvecklingen av Gemini, en ´multimodal´ AI-modell som redan driver Googles svar på ChatGPT och ett växande antal Google-produkter.

Direktlänk Dela Ooda fördjupade 21 februari

Google lanserar Gemini 1.5, en kraftfullare AI-modell

Google har lanserat Gemini 1.5, en förbättrad version av sin AI-modell. Gemini 1.5 kan hantera omkring 700 000 ord eller 30 000 kodrader, vilket är 35 gånger mer än vad Gemini 1.0 Pro kan bearbeta. Den kan också analysera upp till 11 timmars ljud eller en timme video på olika språk. Google CEO Sundar Pichai påpekade att modellen visar dramatiska förbättringar jämfört med Gemini 1.0 Ultra, samtidigt som den använder mindre beräkningskraft. Gemini 1.5 har en ´long-context breakthrough´, vilket innebär att den kan ha upp till 1 miljon tokens i produktion, jämfört med 32 000 tokens för Gemini 1.0 Pro.

Direktlänk Dela The Economic Times fördjupade 21 februari

Googles Gemini 1.5 kan hantera upp till en miljon tokens, förbättrar chattbotars funktionalitet

Googles senaste Gemini 1.5-grundmodell kan hantera upp till en miljon tokens, vilket är en betydande förbättring jämfört med tidigare lösningar. Med en större tokenkapacitet kan chattbotar hantera mycket längre prompts. I fältet för Natural Language Programming bryter tokenisering ner fraser och meningar till mindre fragment, och med längre kontextfönster som sträcker sig till tiotusentals eller hundratusentals tokens kan chattbotar hantera mycket mer detaljerade prompts som inkluderar hänvisningar till långa texter. Google har till och med testat Gemini med upp till 10 miljoner tokens, vilket är mer än tillräckligt för att hantera Shakespeares samlade verk. Längre kontextfönster öppnar upp helt nya sätt att interagera med modellen och förbättrar chattbotens funktionalitet. Längre kontextfönster är särskilt effektiva när det gäller språk som inte är engelska, vilka tenderar att tokenisera mindre effektivt. Bland språk med latinska bokstäver kan överföring av information kräva upp till 100% fler tokens än den motsvarande engelska översättningen. Språk som tyska är särskilt ineffektiva att tokenisera eftersom de ofta kombinerar flerordsfraser till ett enda komplext ord. Problemet är ännu mer uttalat när AI uppmanas med språk som inte är skrivna med ett latinskt alfabet. Till exempel kan en amharisk prompt brytas ner till 10x fler tokens än dess engelska översättning.

Direktlänk Dela CryptoCoinNews fördjupade 21 februari

Google presenterar Gemini 1.5, en förbättrad version av deras multimodala AI

Google fortsätter att leda utvecklingen inom artificiell intelligens (AI) med sin senaste version av Gemini, deras banbrytande multimodala stora språkmodell. Gemini 1.5 förbättrar kapaciteten som etablerades av Gemini 1.0 och gör betydande förbättringar i Googles metod för bearbetning och integrering av multimodala data. Gemini 1.5 använder en ny Mixture-of-Experts (MoE) arkitektur och har utökad informationsbearbetningskapacitet, vilket gör att den kan analysera upp till 1 miljon tokens. Gemini 1.5 Pro är nu tillgänglig i en begränsad förhandsgranskning för utvecklare och företagskunder.

Direktlänk Dela Unite.AI fördjupade 21 februari

Franska Bioptimus samlar in 35 miljoner dollar för att bygga den första universella AI-modellen för biologi

Det Paris-baserade företaget Bioptimus, som har som uppdrag att bygga den första universella AI-grundmodellen för biologi, har kommit ut ur stealth-läge efter att ha samlat in 35 miljoner dollar i seedfinansiering. Den nya open science-modellen kommer att koppla samman de olika skalorna av biologi med generativ AI, från molekyler till celler, vävnader och hela organismer. Bioptimus förenar ett team av Google DeepMind-alumner och Owkin-forskare som kommer att dra nytta av AWS beräkningskapacitet och Owkins datakapacitet och tillgång till multimodal patientdata från ledande akademiska sjukhus över hela världen.

Direktlänk Dela VentureBeat fördjupade 20 februari

AI-forskare kritiserar djupinlärningsmetoder och upphovsrättsfrågor

Marcus, professor emeritus vid NYU och framstående AI-forskare, har kritiserat djupinlärning och AI. Han har ofta varit i offentliga dispyter med AI-storheter som Yann LeCun och Geoffrey Hinton. Marcus har uttryckt skepsis mot AI-videogenerering, och pekar på dess brist på ´sunt förnuft´. Han kritiserar även teknikföretagens affärsmodeller, som han menar utnyttjar upphovsrättsligt skyddat material utan samtycke för att träna sina modeller. Marcus har börjat lobba för tydligare regler för vad som ingår i AI-modeller.

Direktlänk Dela MIT Technology Review fördjupade 20 februari

Codium AI förbättrar programmeringsförmågorna hos AI-modeller med ´flödesingenjörskonst´

Codium AI, ett företag baserat i Israel, har byggt AlphaCodium, en metod för att förbättra problemlösningsförmågan hos generativa AI-verktyg som GPT-4 genom det som VD Itamar Friedman kallar ´flödesingenjörskonst´. AlphaCodium matar först en programmeringsfråga till den underliggande stora språkmodellen och ber den att beskriva och sammanfatta problemet. Modellen börjar sedan generera kod som överensstämmer med de specifikationer den just beskrivit. AlphaCodium genererar fler testfall och kör sedan igenom möjliga lösningar för att kontrollera om koden fungerar som förväntat. AlphaCodium har visat sig vara bättre på att lösa kodningsproblem än Google DeepMind´s AlphaCode och AlphaCode2-modeller.

Direktlänk Dela The Register fördjupade 19 februari

Google utvecklar nytt stort språkmodell kallat Gemini 1.5

Google utvecklar ett nytt stort språkmodell kallat Gemini 1.5, vilket är en förbättring jämfört med dess föregångare genom att bearbeta olika datatyper. Modellen använder en ´blandning av experter´-modell för effektivitet och har ett större kontextfönster. Google, som ägs av moderbolaget Alphabet, Inc., meddelade att den första versionen av denna teknik, Gemini 1.5 pro, kommer att släppas snart för tidig testning. Nyheten kommer bara två månader efter att Google avtäckte den ursprungliga Gemini, som är tänkt att vara ett svar på OpenAI:s GPT-4 och andra stora språkmodeller som skapas av startups och stora teknikföretag.

Direktlänk Dela Business Insider fördjupade 19 februari

Google DeepMind utmanar OpenAI:s dominans med Gemini AI-modell

OpenAI har dominerat teknikindustrin med sin kända ChatGPT. Men Google DeepMind, ledd av VD:n Demis Hassabis, har framträtt som en stark konkurrent. Alphabet sammanslog sina AI-inriktade divisioner för att skapa DeepMind och Hassabis har arbetat hårt för att motverka OpenAIs framgångar. Google valde att inte kommersialisera idéerna utvecklade för ChatGPT på grund av bekymmer om potentiell missbruk. Istället har Hassabis övervakat en radikal förändring i Googles forskning och släpp med den accelererade utvecklingen av Gemini, en ´multimodal´ AI-modell som direkt konkurrerar med ChatGPT och andra liknande produkter. Google introducerade nyligen Gemini Pro 1.5, en förbättrad version av basmodellen som kan analysera stora mängder text, video och ljud samtidigt. Denna nya version av Gemini representerar en imponerande framsteg inom datahanteringskapacitet, som överträffar både sin föregångare och OpenAIs GPT-4. Dessutom lovar den fortfarande under utveckling Gemini Ultra-modellen att erbjuda en annan märkbar förbättring som kan skjuta Google före OpenAI i AI-racet.

Direktlänk Dela Crema fördjupade 19 februari

Google lanserar Gemini 1.5 för utvecklare och företag

Endast två månader efter lanseringen av Gemini-modellerna och två dagar efter att ha tillkännagivit utvidgningen av dess tillgänglighet till fler länder, har Google släppt Gemini 1.5 denna vecka och gjort den tillgänglig för utvecklare och företagsanvändare för första gången, innan den lanseras offentligt för alla konsumenter. Gemini 1.5 Pro-versionen erbjuder jämförbar kvalitet med 1.0 Ultra-versionen med lägre resursförbrukning, skriver Sundar Pichai, VD för Google. Gemini 1.5 Pro kommer med ett standardkontextfönster på 128 000 tokens. En begränsad grupp utvecklare och företagskunder kan testa det med ett kontextfönster på upp till 1 miljon tokens.

Direktlänk Dela Softonic International fördjupade 19 februari

Google lanserar Gemini, ett banbrytande AI-verktyg

Google har officiellt utmanat den generativa artificiella intelligens (AI) marknaden med lanseringen av Gemini, vilket markerar en betydande milstolpe i företagets AI-utvecklingsresa. Gemini är Googles mest avancerade generativa AI-modell, utformad för att överträffa befintliga teknologier inom multimodal språkförståelse. Gemini finns i tre versioner - Ultra, Pro och Nano - och kommer att integreras i en rad Googles produkter, inklusive Android och iOS-appar. Google betonar säkerheten i sina Gemini-produkter och inkluderar åtgärder som vattenmärkning för att mildra missbruk.

Direktlänk Dela PC-Tablet fördjupade 18 februari

Google avslöjar detaljer om nästa generations AI-modell, Gemini 1.5

En vecka efter att ha tillkännagivit Gemini 1.0 Ultra avslöjade Google ytterligare detaljer om sin nästa generations modell, Gemini 1.5. Den nya versionen innebär en utvidgning av dess kontextfönster och antagandet av en ´Mixture of Experts´ (MoE) arkitektur, vilket lovar att göra AI:n både snabbare och mer effektiv. Den nya modellen inkluderar även utökade multimodala förmågor. Med förmågan att bearbeta upp till 1 miljon tokens, överglänser den konkurrenternas förmågor och även sin egen föregångare. Google VD Sundar Pichai framhöll den transformerande potentialen i denna funktion. Gemini 1.5 kommer endast att vara tillgänglig för företagsanvändare och utvecklare, genom Vertex AI och AI Studio.

Direktlänk Dela InfoQ fördjupade 18 februari

Google och Meta presenterar nya framsteg inom artificiell intelligens

Google och Meta har annonserat nya framsteg inom artificiell intelligens (AI). Google har nyligen avtäckt sitt senaste erbjudande, Gemini 1.5, av Demis Hassabis, VD för Google DeepMind. Denna nya AI-modell, skapad med Transformer och Mixture of Experts (MoE)-arkitektur, är bättre på att förstå mycket information från olika källor. Meta introducerade en ny modell som heter V-JEPA, som hjälper maskiner att lära sig bättre från videor. Det är ett stort steg framåt i hur maskiner förstår saker genom bilder och videor.

Direktlänk Dela Techiexpert fördjupade 17 februari

Google presenterar sin senaste AI-modell, Gemini 1.5

Google har presenterat sin senaste AI-modell, Gemini 1.5, som har en ´experimentell´ en miljon token-kontextfönster. Denna nya funktion gör att Gemini 1.5 kan bearbeta extremt långa textpassager - upp till en miljon tecken - för att förstå sammanhang och innebörd. Detta överträffar tidigare AI-system som Claude 2.1 och GPT-4 Turbo, som maximerar på 200 000 respektive 128 000 tokens. Effektiviteten hos Googles senaste modell tillskrivs dess innovativa Mixture-of-Experts (MoE) -arkitektur. Google ger till en början utvecklare och företag gratis tillgång till en begränsad förhandsgranskning av Gemini 1.5 med en miljon token-kontextfönster.

Direktlänk Dela AI News fördjupade 17 februari

Google avtäcker Gemini Advanced, ett sofistikerat AI-projekt

Google har avtäckt Gemini Advanced, dess senaste AI-projekt som syftar till att revolutionera hur vi interagerar med AI. Gemini Advanced erbjuder användare en oöverträffad nivå av sofistikering och funktionalitet, med förmågor som textöversättning, hantering av flera instruktioner inom en enda mening och generering av bilder från komplexa prompts. Gemini Advanced är ett abonnemangsbaserat tjänst som kostar $20 per månad, vilket konkurrerar direkt med OpenAI:s uppgraderade ChatGPT Plus. Appen Gemini, tillgänglig för smartphones som kör på Googles Android-programvara, erbjuder användare en rad funktioner designade för att öka produktiviteten och förenkla dagliga uppgifter.

Direktlänk Dela Moguldom fördjupade 16 februari

Google avslöjar nästa generations Gemini 1.5 Pro

En vecka efter lanseringen av Gemini Ultra 1.0 har Google avslöjat nästa generations Gemini 1.5. Gemini 1.5 Pro är den första modellen av Gemini 1.5 som Google har gjort tillgänglig för testning. Google-chefen Sundar Pichai säger att den visar dramatiska förbättringar och uppnår jämförbar kvalitet med 1.0 Ultra, samtidigt som den använder mindre beräkningskraft. Google har förbättrat sin intelligens genom att möjliggöra för Gemini 1.5 att förstå en stor mängd data på en gång. Det nya Mixture-of-Experts (MoE) arkitekturen som används av Gemini 1.5 är smart, enligt Demis Hassabis, VD för Google DeepMind. Google har ännu inte offentliggjort datumet eller metoden för dess offentliga lansering.

Direktlänk Dela Middle East North Africa Financial Network fördjupade 16 februari

Google DeepMind presenterar nästa version av Gemini storspråksmodell

Google DeepMind´s VD, Demis Hassabis, har presenterat nästa version av Googles stora språkmodell (LLM), Gemini. Den nya versionen, tidigare känd som Bard, representerar en förändring i Googles tillvägagångssätt för att utveckla AI. Gemini 1.5, nu tillgänglig som en utvecklarförhandsgranskning, är optimerad för ´långsammanhangsförståelse´. Hassabis visade i ett blogginlägg hur Gemini 1.5 klarade av att sammanfatta en 402-sidig transkription av Apollo 11 månlandningsuppdraget. I en annan demonstration användes Gemini för att hitta och förklara en specifik del av animeringskoden. Gemini 1.5 använder en ny Mixture-of-Experts (MoE) arkitektur.

Direktlänk Dela Computer Weekly fördjupade 16 februari

Google rullar ut uppdaterad version av Gemini AI-modell

Google har börjat rulla ut en uppdaterad version av sin Gemini generativa AI-modell, två månader efter den ursprungliga lanseringen. Modellen, som finns i tre varianter, Nano, Pro och Ultra, är optimerad för skalning över ett brett spektrum av uppgifter. Den nya 1.5 Pro-modellen visar ´dramatiska förbättringar´ jämfört med 1.0 Ultra och presterar bättre än 1.0 Pro på 87 procent av de tester Google använder för att utveckla sina LLM:er. Modellen har byggts med hjälp av en Mixture-of-Experts (MoE) arkitektur, vilket gör den snabbare och mer effektiv att köra.

Direktlänk Dela DatacenterDynamics fördjupade 16 februari

OpenAI tillkännager Sora, en teknik för att skapa fotorealistiska videor

OpenAI har tillkännagivit Sora, en teknik som kan skapa fotorealistiska videor, men har inga aktuella planer på att släppa den till allmänheten. Istället kommer OpenAI att börja dela modellen med tredjepartssäkerhetstestare. Företaget är bekymrat över potentiella missbruk av falska men fotorealistiska videor. OpenAI planerar att lansera en produkt i framtiden och delar också modellen med en utvald grupp videomakare och konstnärer för att få feedback. Sora bygger på tekniken bakom DALL-E 3, OpenAI:s text-till-bild-modell, och kombinerar en diffusionsmodell med en typ av neuralt nätverk kallat transformer.

Direktlänk Dela MIT Technology Review fördjupade 16 februari

AI-modeller som ChatGPT, GPT-4, Anthropic´s Claude och Google Gemini har börjat få slut på träningsdata från internet, vilket bromsar teknikens tillväxt. För att lösa detta problem utforskar techföretag som Google Deepmind, Microsoft, Amazon, Meta, Apple och OpenAI möjligheten att använda maskiner för att träna andra maskiner. Denna metod har lett till märkbara förbättringar i vissa fall. Men det finns farhågor för att självlärande AI kan leda till ´superintelligens´, där AI överträffar mänsklig intelligens, vilket vissa tror kan ha katastrofala konsekvenser.

The Atlantic fördjupade 16 februari

Google introducerar nästa generations AI-modell, Gemini 1.5

Google har återigen pressat gränserna för artificiell intelligens med introduktionen av Gemini 1.5, den senaste versionen av sin banbrytande Gemini-serie. Denna nästa generations modell är utformad för att erbjuda användarna ännu större kontextuell förståelse och fler hjälpsamma funktioner än sin föregångare. Gemini 1.5 Pro är den första modellen av Gemini 1.5 som Google har gjort tillgänglig för testning. Google har förbättrat sin intelligens genom att låta Gemini 1.5 bearbeta en stor mängd data på en gång. Gemini 1.5 är för närvarande endast tillgänglig för utvecklare och företagsanvändare.

Direktlänk Dela Asianet News Network fördjupade 16 februari

Google släpper Gemini 1.5 Pro för tidig testning

Google släpper Gemini 1.5 Pro, en uppdaterad modell av deras stora språkmodell, för tidig testning. Modellen kan utföra ett brett utbud av uppgifter och erbjuder prestanda på en liknande nivå som Gemini 1.0 Ultra, Googles största modell hittills. Den senaste modellen erbjuder större sammanhang och kommer med fler hjälpfunktioner. Enligt Demis Hassabis, VD för Google DeepMind, introducerar den ´en genombrottsexperimentell funktion i långt sammanhangsförståelse´. Det innebär att 1.5 Pro kan bearbeta stora mängder information på en gång, inklusive en timmes video, 11 timmars ljud, kod med över 30 000 rader eller över 700 000 ord.

Direktlänk Dela The Times of India fördjupade 16 februari

Google introducerar nästa generations AI-modell: Gemini 1.5

Google har presenterat sin nästa generations AI-modell, Gemini 1.5. Sundar Pichai, VD för Google och Alphabet, meddelade att företaget lanserade sin mest kapabla modell, Gemini 1.0 Ultra, förra veckan. Nu kan utvecklare och Cloud-kunder börja bygga med 1.0 Ultra också, med Gemini API i AI Studio och i Vertex AI. Gemini 1.5 visar dramatiska förbättringar inom flera dimensioner och 1.5 Pro uppnår jämförbar kvalitet till 1.0 Ultra, samtidigt som den använder mindre beräkning. Denna nya generation levererar också ett genombrott i förståelse för långsiktiga sammanhang.

Direktlänk Dela Adgully fördjupade 16 februari

Studie visar att konsulter som använder GPT-4 överträffar de som inte gör det

En studie utförd av Boston Consulting Group (BCG) visar att konsulter som använde den artificiella allmänna intelligensen GPT-4 presterade bättre än de som inte gjorde det. Med GPT-4 kunde de uppfylla flera verkliga arbetskrav, såsom att generera nya produktidéer, analysera marknadsfördelning och skriva pressmeddelanden. Modellen misslyckades dock med att ge korrekta strategiska rekommendationer baserade på ekonomiska data och genomförda intervjuer. Trots detta ignorerade konsulterna sällan GPT-4: s utdata. Detta fall tjänar som ett tydligt exempel på både bristerna och kapabiliteterna hos artificiell allmän intelligens.

Direktlänk Dela Dynamikes Eidhseis fördjupade 16 februari

OpenAI presenterar GPT-4 Vision: En ny era för AI och visuell förståelse

OpenAI har presenterat GPT-4 Vision, en artificiell intelligens (AI) som tar AI bortom text och in i bildens rike. GPT-4 Vision har förmågan att inte bara känna igen bilder, utan även tolka visuell information på ett djup som liknar mänsklig förståelse. Detta kan revolutionera hur vi interagerar med våra digitala och fysiska miljöer, med potentiella tillämpningar inom hälso- och sjukvård, inredning och mer. Samtidigt betonar Nicholas Carlini från Google Deepmind och en studie från Boston Consulting Group behovet av att vara försiktig med överförtroende på AI, särskilt när det gäller vilseledande finansiell data.

Direktlänk Dela BNN Breaking News fördjupade 16 februari

Google avtäcker sin mest avancerade AI-modell, Gemini

Google har nyligen avtäckt sin mest avancerade AI-modell, Gemini, vilket markerar ett betydande framsteg inom artificiell intelligens. Den här nästa generations uppgraderingen förbättrar Googles AI-chattbot Bard, och erbjuder användarna en mer sofistikerad och mångsidig AI-upplevelse. Gemini är utformat för att hantera större uppmaningar med förbättrad effektivitet. Gemini introducerar tre varianter: Ultra, Pro och Nano, som riktar sig till en mängd olika applikationer från mobila enheter till datacenter. Den uppvisar överlägsen prestanda i standard benchmarks, och presterar bättre än GPT-3.5 i sex av åtta benchmarks.

Direktlänk Dela PC-Tablet fördjupade 16 februari

Google introducerar Gemini 1.5 Pro LLM med en otrolig 1M-token-kontextfönster

Google har introducerat Gemini 1.5 Pro, den senaste tillägget till dess Gemini-familj av generativa AI-modeller. Gemini 1.5 Pro överträffar Gemini 1.0 Pro stora språkmodell och förbättrar sin föregångare på flera sätt. Den mest anmärkningsvärda uppgraderingen är ett kontextfönster som är 35 gånger större, som kan minnas en miljon tokens värde av data under rätt omständigheter. Gemini 1.5 Pro kan också bearbeta upp till 11 timmar ljud eller en timme video. Den fullskaliga versionen av Gemini 1.5 Pro är för närvarande experimentell och endast tillgänglig i en privat förhandsvisning via Googles AI Studio eller för en begränsad grupp företagskunder på Googles Vertex AI-plattform.

Direktlänk Dela Voicebot fördjupade 16 februari

Google uppdaterar sin AI-verktyg Gemini med förbättrad prestanda

En vecka efter att ha bytt namn till ´Gemini´ har Googles artificiella intelligensverktyg fått en ny uppdatering kallad ´Gemini 1.5´. Uppdateringen innebär en betydande förbättring av prestanda, skriver Demis Hassabis, VD för Google DeepMind, i ett blogginlägg. Google släpper en modell känd som Gemini 1.5 Pro för tidig testning, vilket inkluderar en ´genombrottsfunktion i långtidsförståelse´. Gemini 1.5 kan bearbeta upp till 1 miljon tokens, vilket innebär att den kan hantera ´1 timmes video, 11 timmars ljud, kodbas med över 30 000 rader kod eller över 700 000 ord´.

Direktlänk Dela PYMNTS fördjupade 16 februari

Google släpper Gemini 1.5, överträffar ChatGPT och Claud med 1 miljon token-kontextfönster

Google har släppt Gemini 1.5, en ny modell som överträffar ChatGPT och Claud med ett token-kontextfönster på 1 miljon - det största någonsin sett i naturliga bearbetningsmodeller. Gemini 1.5 Pro kommer med ett standard token-kontextfönster på 128 000, men en begränsad grupp utvecklare och företagskunder kan nu testa det med ett kontextfönster på upp till 1 miljon tokens. Modellen kan bearbeta stora mängder information på en gång, inklusive 1 timmes video, 11 timmar ljud, kodbas med över 30 000 rader kod eller över 700 000 ord. Gemini 1.5 bygger på Transformer och MoE-arkitektur.

Direktlänk Dela Analytics India Magazine fördjupade 15 februari

Google lanserar Gemini 1.5 Pro med förbättrade AI-prestanda

Google har lanserat Gemini 1.5 Pro, en uppgradering från föregående modell som företaget beskriver som att erbjuda ´dramatiskt förbättrad prestation´. Google ser sin AI-bana som allt mer kritisk för sin framtid. Google CEO Sundar Pichai och Google DeepMind CEO Demis Hassabis försöker balansera mellan att försäkra sin publik om säker AI och att skryta om sina modellers snabbt framåtskridande förmågor. Gemini 1.5 Pro kan även hantera upp till en miljon tokens, eller de enheter av data som AI-modeller kan bearbeta i en enda förfrågan. Google lanserar Gemini 1.5 Pro med 128 000-token kapacitet, samma nummer som OpenAI:s (offentligt tillkännagivna) GPT-4-modeller maximerar ut.

Direktlänk Dela Engadget fördjupade 15 februari

Google lanserar Gemini 1.5 Pro AI-modell

Endast två månader efter sin ursprungliga utgivning av Gemini AI-modellerna och en vecka efter utgivningen av Gemini 1.0 Ultra, släppte Google idag sin första Gemini 1.5-modell, Gemini 1.5 Pro. Google tar också Gemini 1.0 Ultra till utvecklare för första gången. Enligt Google VD Sundar Pichai visar Gemini 1.5 betydande förbättringar på flera områden och 1.5 Pro uppnår jämförbar kvalitet med 1.0 Ultra, samtidigt som den använder mindre beräkning. Google Deepmind VD Demis Hassabis tillägger att Gemini 1.5 erbjuder betydligt förbättrad prestanda och är mer effektiv att träna och tjäna, med en ny Mixture-of-Experts (MoE) arkitektur.

Direktlänk Dela Thurrott fördjupade 15 februari

Alphabet och Microsoft investerar stort i AI i Västeuropa

Google moderbolag Alphabet och Microsoft har båda meddelat stora investeringar i artificiell intelligens (AI) i Västeuropa denna vecka. Ett nytt Google AI-centrum i Paris kommer att vara värd för mer än 300 forskare och ingenjörer från Google, inklusive medlemmar i Chrome och YouTube-utvecklingsteamen. Syftet är att påskynda utvecklingen av AI-baserade produkter i Frankrike, skapa nya akademiska och forskningspartnerskap och öka användningen av AI-verktyg bland franska arbetare. Microsoft kommer att investera 3,2 miljarder euro (3,4 miljarder dollar) för att bygga upp företagets AI-infrastruktur och molnkapacitet i Tyskland. Denna investering kommer att förbättra datorkapaciteten i landet och stärka det tyska AI-ekosystemet.

Direktlänk Dela Computerworld fördjupade 15 februari

Google presenterar Gemini 1.5, en uppdatering av sitt språkmodell

Google har tillkännagivit (men inte släppt) Gemini 1.5, en uppdatering till sitt flaggskeppsspråkmodell, tidigare känt som Bard. Uppdateringen hävdar att den innebär ett genombrott i förståelsen för långsammanhang över modaliteter och är mer effektiv, byggd på en arkitekturtyp känd som ´Mixture-of-Experts (MoE)´. Google Deepmind medgrundare har lagt upp en demo på X för att visa vad detta innebär i praktiken. Uppdateringen är en del av en pågående ansträngning att hålla Google i AI-konversationen efter OpenAIs framgång med ChatGPT 2022. Google planerar att släppa Gemini 1.5 till en begränsad grupp.

Direktlänk Dela Mashable fördjupade 15 februari

Google DeepMind uppgraderar Gemini AI-modellen

Alphabet har släppt en uppgradering av sin Gemini AI-modell, Gemini Pro 1.5, endast två månader efter att den första versionen blev offentlig. Den nya modellen är kraftfullare och kan hantera mycket större mängder text, video och ljud på en gång. I en demonstration analyserade Gemini Pro 1.5 en 402-sidig PDF av Apollo 11-kommunikationstranskriptet och kunde identifiera humoristiska delar. Modellen kan också svara på frågor om specifika handlingar i en Buster Keaton-film. Google hoppas att de nya funktionerna kommer att tillåta utvecklare att bygga nya typer av appar på toppen av modellen.

Direktlänk Dela Wired fördjupade 15 februari

Cohere for AI avtäcker Aya, en språkmodell som stöder 101 språk

Cohere for AI, den ideella forskningslaboratoriet grundat av Cohere, har avtäckt Aya, en öppen källkods storskalig språkmodell (LLM) som stöder 101 språk. Detta är mer än dubbelt så många språk som stöds av befintliga öppen källkod-modeller. Forskarna har även släppt Aya-datasetet, en motsvarande samling av mänskliga annotationer. Detta är viktigt eftersom en utmaning med att utbilda mindre vanliga språk är att det finns mindre källmaterial att träna på. Aya-projektet, som lanserades i januari 2023, var ett ´stort företag´ med över 3000 medarbetare över hela världen.

Direktlänk Dela VentureBeat fördjupade 13 februari

Indiska kvinnor når toppnivåer inom AI-forskning och tillämpning

Enligt en artikel i The Economist har indier varit i framkant av AI-forskning och tillämpning. Förra året överträffade Indien Kina med det högsta antalet doktorander som studerar i USA. Av cirka 2,5 miljoner invandrade STEM-arbetare (vetenskap, teknik, teknik, matematik) i USA kommer 29% från Indien. Inom området för artificiell intelligens (AI) är 8% av världens ledande forskare indiska. Kvinnor halkar inte efter heller. Från och med 2022 har indierna de högsta AI-färdighetsgenomträngningsgraderna var Indien och detta inkluderar kvinnor! Här är listan över kvinnor som har uppnått högsta standarder inom ai - Niki Parmar, Aakanksha Chowdhery, Anima Anandkumar, Suchi Saria, Parvati Dev, Monisha Ghosh.

Direktlänk Dela Analytics India Magazine fördjupade 13 februari

Stora teknikföretag väljer mindre mänskliga namn för AI-chattrobotar

Stora teknikföretag som OpenAI och Google har börjat ge sina AI-chattrobotar mindre mänskliga namn. OpenAI-chefen Sam Altman har avslöjat att de medvetet gav sin chattrobot namnet ChatGPT för att tydligt indikera dess AI-natur. På liknande sätt har Google nyligen bytt namn på sin generativa AI-chattrobot Bard till Gemini. Google-chefen Sundar Pichai förklarade att namnbytet gjordes för att Gemini är mer könsneutralt och inte stereotyper AI-assistenter som kvinnor. Microsoft har också bytt namn på Bing Chat till Copilot för att göra AI-drivna webbchattar mer tillgängliga.

Direktlänk Dela Analytics India Magazine fördjupade 13 februari

Google Deepmind föreslår ´self-discover´ ramverk för att förbättra prestanda hos stora språkmodeller

Forskare från Google Deepmind och University of Southern California har föreslagit en ny ´self-discover´ ramverk för att förbättra resonemangsförmågan hos stora språkmodeller (LLM). Denna metod går bortom befintliga tekniker och har visat sig förbättra prestanda hos kända modeller, inklusive OpenAI´s GPT-4 och Googles PaLM 2. Ramverket bygger på att LLM själv upptäcker uppgiftsintrinsiska resonemangsstrukturer för att lösa ett problem. Metoden fungerar med 10 till 40 gånger mindre inferensberäkning, vilket kan vara bra för företag.

Direktlänk Dela Ooda fördjupade 13 februari

Över en fjärdedel av advokaterna använder AI-verktyg trots säkerhetsfaran

Antalet advokater som använder generativa AI-verktyg minst en gång i månaden har mer än fördubblats på ett halvår, enligt en undersökning. Tjugosex procent av juridiska yrkesverksamma säger nu att de använder verktyg som Chat GPT, eller interna motsvarigheter, varje månad, upp från 11 procent i juli 2023. Undersökningen av 1 200 brittiska juridiska yrkesverksamma, som beställdes av juridisk analysleverantör LexisNexis, fann också att nästan två tredjedelar av advokatbyråerna redan har gjort operativa förändringar som svar på AI. Stuart Greenhill, direktör på LexisNexis, sa: ´Efterfrågan på generativa AI-verktyg inom juridiksektorn är oöverträffad...´.

Direktlänk Dela City A.M. fördjupade 12 februari

Forskare från Google Deepmind och Stanford University förbättrar AI-träning med aktiv utforskning

Artificiell intelligens har gjort framsteg tack vare utvecklingen av stora språkmodeller (LLM). En av de största utmaningarna är att optimera deras inlärningsprocess från mänsklig feedback. Forskare vid Google Deepmind och Stanford University har introducerat en ny metod för aktiv utforskning, som använder dubbel Thompson-urval och epistemiska neuronnätverk (ENN) för att generera förfrågningar. Denna metod låter modellen aktivt söka feedback som är mest informativ för dess inlärning, vilket minskar antalet förfrågningar som behövs för att uppnå höga prestandanivåer. Denna forskning visar potentialen för effektiv utforskning för att övervinna begränsningarna med traditionella träningsmetoder.

Direktlänk Dela MarkTechPost fördjupade 10 februari

Google i AI-panik efter lanseringen av ChatGPT

Efter lanseringen av chattbotten ChatGPT i slutet av 2022, som snabbt nådde 100 miljoner användare, påstår rapporter att Google utlöste en ´code red´. Google-grundarna Sergey Brin och Larry Page kallades till krismöten, då ChatGPT ansågs kunna hota sökmotorn. Fristående Deepmind och AI-avdelningen ´Google Brain´ slogs ihop till nya avdelningen Google Deepmind. Googles satsning på stora språkmodeller och generativ AI har framstått som impulsiv och ogenomtänkt. Hela Googles AI-lansering har varit rörig, med flera namnbyten och oklara framtidsplaner.

Direktlänk Dela Swedroid fördjupade 10 februari

Google lanserar konkurrent till OpenAI:s AI-modell med Gemini Ultra 1.0

Google har äntligen lanserat sin Gemini Ultra 1.0 AI-modell, som företaget hävdar kan mäta sig med OpenAI:s mest kraftfulla AI-modell GPT-4-Turbo på de flesta uppgifter. Om detta stämmer skulle det vara den första riktiga konkurrensen till OpenAI:s ChatGPT sedan början av GenAI-boomen. Google har bytt namn på sin chatbot från Bard till Gemini, så nu har den underliggande modellen och tjänsten du använder för att komma åt den samma namn. Det är bara tillgängligt med en prenumeration på 19,99 dollar/månad till den nya Google One AI Premium-planen.

Direktlänk Dela Tom´s Guide fördjupade 9 februari

Google omvandlar sin AI-språkmodell Bard till Gemini

Google har bytt namn på sin ChatGPT-konkurrent, Bard, till Gemini och lanserat en ny Gemini mobilapp för både Android och iOS. Gemini är en familj av multimodala stora språkmodeller utvecklade av Googles AI-forskningslaboratorium, Google DeepMind. Gemini kan kopplas till Google-appar som Gmail, Maps och YouTube, vilket gör det enkelt att formulera texter, e-post, röst, bilder och annat innehåll. Gemini kommer nu att integreras i hela Googles ekosystem av produkter, plattformar och API:er. Det nya erbjudandet Gemini Advanced finns nu tillgängligt på appen som en del av en ny Google One AI Premium-plan för R429/månad.

Direktlänk Dela ITWeb fördjupade 9 februari

Google Bard blir Google Gemini med flera nya funktioner och uppgraderingar

Google har genomgått en stor omvandling och bytt namn på sin chatbot från Google Bard till Google Gemini. Med namnbytet har Google introducerat flera nya funktioner och uppgraderat de befintliga. Google Gemini drivs nu av en mer kraftfull teknik och har utformats för att vara flermodig från start, förfinad med ytterligare flermodig data för att ytterligare förbättra dess effektivitet. Dessutom kommer Duet AI, som drev AI-funktioner i Googles andra tjänster, att bli Gemini för Workspace. Google har också introducerat en ny Gemini-app som är väl integrerad i Android OS. Dessutom kommer Google att erbjuda en betald prenumeration för en ännu mer avancerad version av Gemini.

Direktlänk Dela The Mobile Indian fördjupade 9 februari

AI-sektorn i Indien växer med stöd från Google och Microsoft

Microsofts VD Satya Nadella och Google DeepMinds chefsforskare Dr Jeff Dean har nyligen besökt Indien för att diskutera landets framtid inom AI. Nadella tror att Indien kan bidra betydligt till AI-utvecklingen och engagerar sig med lovande AI-startups. Google höll nyligen sitt första Research@ Bangalore-evenemang där akademiska forskare, utvecklare och startups samlades. Många nya startups fokuserar på att skapa tvåspråkiga LLMs för den indiska marknaden, till exempel Sarvam AI, som nyligen introducerade OpenHathi och har ett partnerskap med Microsoft.

Direktlänk Dela Analytics India Magazine fördjupade 8 februari

Ny ´självupptäckande´ ramverk förbättrar stora språkmodellers resonemangsförmåga

Forskare från Google Deepmind och University of Southern California har föreslagit ett nytt ´självupptäckande´ ramverk för att förbättra resonemangsförmågan hos stora språkmodeller (LLM). Metoden går utöver befintliga tekniker och har visat sig förbättra prestandan för kända modeller som OpenAI´s GPT-4 och Googles PaLM 2. Ramverket innebär att LLM:er självupptäcker uppgiftsintrinsiska resonemangsstrukturer för att lösa ett problem. Denna metod fungerar med 10 till 40 gånger mindre inferensberäkning, vilket kan vara fördelaktigt för företag.

Direktlänk Dela VentureBeat fördjupade 8 februari

Teknikjättar som Microsoft, OpenAI vill ha tydligare regler för AI-modeller från Storbritannien

Ledande artificiella intelligensföretag uppmanar Storbritanniens regering att ge mer detaljer om sina säkerhetstestprocedurer för AI. Detta kommer efter att OpenAI, Google DeepMind, Microsoft och Meta frivilligt åtog sig att öppna sina senaste generativa AI-modeller för förutgående testning av det nyligen etablerade AI Safety Institute (AISI). Trots att de inte är juridiskt bundna att agera utifrån testresultaten, har regeringen betonat sin förväntan att företagen ska hantera identifierade risker. Regeringen planerar framtida bindande krav för ledande AI-utvecklare för att stärka ansvarsåtgärderna.

Direktlänk Dela MSPoweruser fördjupade 7 februari

Meta kommer att identifiera och märka AI-genererat innehåll

Meta har meddelat att de kommer att identifiera och märka AI-genererat innehåll på Facebook, Instagram och Threads. Företaget understryker dock att det ännu inte är möjligt att identifiera allt AI-genererat innehåll. Detta kommer efter att AI-genererade deepfakes av sångerskan Taylor Swift gick viral på Twitter, vilket ledde till globala rubriker och kritik från fans och lagstiftare. Meta arbetar tillsammans med branschorganisationer som Partnership on AI för att utveckla gemensamma standarder för identifiering av AI-genererat innehåll.

Direktlänk Dela VentureBeat fördjupade 6 februari

Framtida förutsägelser för AI och LLM 2024

Artikeln diskuterar Zebra´s förutsägelser för framtiden för Artificiell Intelligens (AI) och Stora språkmodeller (LLM) och vad det innebär för företag 2024. Om Oscars hade en kategori för AI, skulle ChatGPT ha tagit hem många priser förra året. LLM slog stort i medierna, och visade oss mänskliknande engagemang och multimodal innehållsgenerering över video, bilder, ljud och text. Google Deepmind lanserade den kraftfulla multimodala Gemini-modellen och GNoME för materialupptäckt. Diskussionen kring AI-etik ökade, med toppmöten och lagstiftning som syftar till att styra utvecklingen och användningen av AI. 2024 kommer att vara året för AI-agenten och den självförbättrande AI-agenten. I framtiden kommer AI-agenter att ha tack vare LLM. AI-agenter är verktyg som har en nivå av autonomi utöver maskininlärningsmodeller eller traditionella dataprogram. AI-agenter kan känna, lära, svara och anpassa sig till nya situationer och fatta beslut med lite mänsklig inblandning. OpenAI har släppt en Assistant API som fungerar som en agent och lanserat en plattform för att skapa anpassade AI-agenter som kallas GPT och en GPT Store. Ett forskningsteam vid MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) har nyligen utvecklat ett tillvägagångssätt som använder AI-modeller för att genomföra experiment på andra system och förklara deras beteende. Deras metod använder agenter byggda från förutbildade språkmodeller för att producera intuitiva förklaringar av beräkningar inuti utbildade nätverk.

Direktlänk Dela Intelligent CIO fördjupade 6 februari

Storbritannien avslöjar planer på att investera 100 miljoner pund i AI-forskning

Storbritannien har avslöjat planer på att spendera över 100 miljoner pund ($125m) på forskning och utbildning relaterat till artificiell intelligens (AI). Enligt planerna kommer regeringen att starta nio nya AI-forskningscentrum över hela Storbritannien, stödja forskningsprojekt som undersöker ansvarsfull användning av AI inom utbildning, polisväsende och kreativa industrier, och utbilda regulatorer om att hantera risker och fördelar med tekniken. Michelle Donelan, vetenskaps-, innovations- och teknikminister, sa att AI har potential att ´förvandla våra offentliga tjänster och ekonomin till det bättre´.

Direktlänk Dela Al Jazeera fördjupade 6 februari

Google introducerar ny AI-tjänst, Gemini Advanced

Google planerar att introducera en ny AI-tjänst kallad Gemini Advanced, som kommer att ersätta den befintliga Google Bard AI-sökmotorn. Tjänsten kommer att innefatta AI-modellen Gemini Ultra 1.0, utformad för att hantera komplexa uppgifter med förbättrade förmågor. Gemini Advanced förväntas också inkludera prenumerationsplaner och vara optimerad för engelska men kunna svara på andra språk. Övergången från Bard till Gemini förväntas ske runt den 7 februari 2024. Dessutom kan Demis Hassabis, medgrundare och VD för Google DeepMind, dyka upp i en podcast runt samma tid, möjligen sammanfallande med lanseringen av Gemini Advanced.

Direktlänk Dela Geeky Gadgets fördjupade 5 februari

Google värd för Leaders Connect, diskuterar generativ AI och dess inverkan på jobb

Google värd för Leaders Connect-evenemanget förra helgen, med en insiktsfull diskussion mellan Dr. Jeff Dean, chefsforskare vid Google DeepMind och Google Research, och Dr Pramod Varma, CTO för EkStep Foundation och tidigare chefsarkitekt för Aadhaar & India Stack. Diskussionen kretsade kring det snabbt utvecklande landskapet av artificiell intelligens och det senaste fenomenet - generativ AI (Gen AI). Trots farhågor om jobbförluster på grund av automatisering var konsensus bland experterna att Gen AI bäst kan användas för att förbättra ens färdigheter och att det finns optimism kring Indiens roll i att låsa upp Gen AI:s verkliga potential.

Direktlänk Dela Deccan Herald fördjupade 5 februari

Google DeepMind gör framsteg inom meta-lärande för AI

Meta-lärande, ett växande fält inom AI-forskning, har gjort betydande framsteg i att träna neurala nätverk för att snabbt anpassa sig till nya uppgifter med minimal data. Google DeepMind har nyligen integrerat Solomonoff-induktion med neurala nätverk genom meta-lärande. Forskarna använde universella Turingmaskiner (UTM) för datagenerering, vilket effektivt utsatte neurala nätverk för ett omfattande spektrum av beräkningsbara mönster. DeepMinds experiment visar att förstoring av modellens storlek korrelerar med förbättrad prestanda. Denna forskning markerar ett betydande framsteg inom AI och maskininlärning.

Direktlänk Dela MarkTechPost fördjupade 4 februari

Google utökar Bard´s funktioner och Gemini Pro till en bredare publik

Google har utökat Bard´s senaste funktioner, inklusive Gemini Pro, till en bredare språklig och geografisk publik. Gemini är en familj av multimodala stora språkmodeller utvecklade av Google DeepMind, som inte bara kan förstå texter utan också bilder. I december integrerade Google Gemini Pro i Bard på engelska, vilket förbättrade Bard´s förmåga i förståelse, resonemang, sammanfattning och kodning. Nu tillgänglig på över 40 språk och i över 230 länder och territorier, underlättar Gemini Pro i Bard samarbetsinsatser på global skala. Google har även utvidgat dubbelkontrollsfunktionen till över 40 språk och tillåter nu användare att generera bilder i Bard, tillgängligt på engelska i de flesta länder globalt, utan kostnad.

Direktlänk Dela Backend News fördjupade 3 februari

Skapa ett neuralt nätverk i Excel för att förstå AI/ML

Att skapa ett neuralt nätverk i Excel kan vara ett bra sätt att bygga en enkel version av de avancerade matematiska modeller som driver dagens djupinlärningsalgoritmer och de flesta av de senaste framstegen inom artificiell intelligens/maskininlärning (AI/ML). Medan neurala nätverk som utgör ryggraden i ledande AI-erbjudanden som OpenAI´s GPT, Google DeepMind och Anthropic Claude kräver kraftfull bearbetning och generellt byggs med hjälp av maskininlärningsverktyg, kan ett enkelt neuralt nätverk byggt i Excel demonstrera hur dessa modeller fungerar. Vi kommer att visa dig hur du skapar ett neuralt nätverk i Excel i sex steg för att ge dig en grundläggande förståelse för neurala nätverk och deras grundläggande implementering.

Direktlänk Dela Datamation fördjupade 2 februari

Google lanserar uppdaterad AI-modell och nytt bildgenereringsverktyg

Google har nyligen meddelat att dess uppdaterade Imagen 2-modell kommer att driva Bard, ImageFX, Search och Vertex AI. Företaget lovar högre kvalitet och mer detaljerade AI-genererade bilder eftersom modellen är utbildad på ´högre kvalitet och bildbeskrivningspar´. Google har också lanserat ett nytt bildgenereringsverktyg kallat ImageFX, vilket liknar Microsofts Image Creator från Designer. Verktyget låter användarna finjustera sina bilder genom att ändra deras prompt med expressiva chips. ImageFX är ´designat för experiment och kreativitet´ och användare kan få tillgång till verktyget via Googles AI Test Kitchen.

Direktlänk Dela Windows Central fördjupade 2 februari

Öppna och stängda AI-språkmodeller jämförs i studie

En av de hetaste debatterna inom generativ artificiell intelligens (AI) är öppen källkod kontra sluten källkod: vilken kommer att visa sig mest värdefull? En studie utförd av forskare vid Pepperdine University, University of California i Los Angeles och UC Riverside visar att Meta´s Llama 2, det mest prestigefyllda öppna språkmodellen hittills, presterar dåligt på att svara på frågor inom nefrologi. I jämförelse presterade OpenAI´s GPT-4 och Anthropic´s språkmodell Claude 2 bättre. GPT-4 uppnådde en poäng på 73,3%, strax under 75% som är godkänt betyg för en människa som måste svara på flervalsfrågor inom nefrologi. Llama 2 gjorde bäst av fem öppna modeller, med en poäng på 30,6%.

Direktlänk Dela ZDNet fördjupade 2 februari

Fem effektiva strategier för att förbättra svar från ChatGPT

Fem strategier för att förbättra svar från chattroboten ChatGPT har presenterats. För det första kan man utlova dricks till ChatGPT, vilket har visat sig ge längre och mer utvecklade svar. För det andra kan man be ChatGPT att ´tänka steg för steg´, vilket enligt en rapport från Google Deepmind ger mer utvecklade och korrekta svar. För det tredje kan man ´lura´ ChatGPT att man inte har fingrar, vilket har visat sig ge längre svar. För det fjärde kan man säga till ChatGPT att det är maj månad, vilket enligt ett test ger längre svar. Slutligen kan man uppmana ChatGPT med stora bokstäver, vilket har visat sig vara effektivt.

Direktlänk Dela Nyheter24 fördjupade 1 februari

Google lanserar ny AI-bildgenerator och uppdaterar sin chattbot

Google har snabbt anslutit sig till AI-racet och lanserade sin AI-chattbot, Google Bard. Företaget meddelade en serie AI-uppdateringar på torsdagen, inklusive en ny bildgenerator, ImageFX, och möjligheten att generera bilder i Bard. ImageFX är ett nytt bildgenereringsverktyg som användare kan använda för att generera bilder från text på samma sätt som de skulle med någon annan AI-modell, som DALL-E 3. Verktyget drivs av Imagen 2, Googles mest avancerade text-till-bild-modell, utvecklad av Google DeepMind. Alla bilder genererade med Imagen 2 kommer att vara vattenmärkta med SynthID, ett verktyg utvecklat av Google DeepMind.

Direktlänk Dela ZDNet fördjupade 1 februari

Indien har potential att forma AI-framtid, säger Google´s AI-chef

Indien har en stor teknisk talangpool som positionerar landet väl för att hjälpa till att forma framtiden för artificiell intelligens (AI), säger Googles AI-chef Jeff Dean. Han påpekade att Indien är väl representerat inom maskininlärning och AI. Dean var medledare för Alphabets Gemini-projekt, det första AI-modellen från Alphabet efter sammanslagningen av dess AI-forskningsenheter, DeepMind och Google Brain, till Google DeepMind. Gemini kan förstå och arbeta med olika typer av information, inklusive text, kod, ljud, bild och video, samtidigt.

Direktlänk Dela Moneycontrol fördjupade 1 februari

Google DeepMind forskningsteam utforskar Solomonoff Induktion för att förbättra AI-lärande

Meta-lärande framstår som en kraftfull strategi för att underlätta snabb förvärvning av nya färdigheter av AI-system, även med begränsad data. I en ny studie undersöker ett forskningsteam från Google DeepMind möjligheten att integrera Solomonoff Induktion i neurala nätverk genom meta-lärande. Studien föreslår användning av Universal Turing Machines (UTMs) för att generera träningsdata, vilket förbättrar meta-lärande och möjliggör neurala nätverk som kan bemästra universella prediktionsstrategier. Forskningsteamet kompletterar sina fynd med en teoretisk analys av UTM-data genereringsprocessen och träningsprotokollet, vilket visar konvergens till SI i gränsen. Dessutom genomför de omfattande experiment med olika neurala arkitekturer och algoritmiska data generators med varierande komplexitet och grader av universalitet.

Direktlänk Dela Synced Review fördjupade 1 februari

Google fortsätter att investera i AI trots aktiefall

Googles moderbolag Alphabet såg sina aktier falla med mer än 7% på onsdag, trots att bolaget överträffade förväntningarna på flera nyckelområden. Bolaget meddelade att kapitalutgifterna kommer att öka 2024 på grund av fortsatta investeringar i AI för att förbättra sina tjänster. Ruth Porat, bolagets finansdirektör, bekräftade bolagets engagemang för att investera i AI-möjligheter inom Google DeepMind, Google-tjänster och Google Cloud. Trots en minskning av den totala annonsutgifterna, förblev annonsintäkterna en stark kraft för Alphabet, vilket stod för mer än 50% av bolagets totala intäkter.

Direktlänk Dela Yahoo Finance fördjupade 1 februari

Kemister ifrågasätter Google DeepMinds och UC Berkeleys robotforskning

Forskning från Google DeepMind och UC Berkeley om en robot som skapar nya material förutsagda av AI-algoritmer ifrågasätts nu av en grupp kemister. I den ursprungliga studien användes en robotiskt labbsystem, A-Lab, för att automatiskt syntetisera nya föreningar förutsagda av Google DeepMinds modell GNoMe. Emellertid tror sju forskare från Princeton University och University College London att A-Lab inte lyckades skapa ett enda nytt oorganiskt material. De fann att de flesta av dem hade felklassificerats. Forskarna tror att det ursprungliga experimentet inte tog hänsyn till ´sammansättningsstörning´, och antog att atomerna i varje förening som A-Lab skapade var ordnade när de faktiskt var oordnade och redan existerar i Inorganic Crystal Structure Database (ICSD).

Direktlänk Dela The Register fördjupade 31 januari

Google´s DeepMind föreslår metod för att förhindra belöningshacking i AI

Google´s DeepMind har publicerat en forskningsrapport som föreslår ett sätt att träna stora språkmodeller så att de ger mer tillförlitliga svar och är resistenta mot belöningshacking, ett steg i utvecklingen av mer anpassningsbara och effektiva AI-system. Förstärkt inlärning från mänsklig feedback (RLHF) är en metod som används för att träna generativ AI så att den lär sig att ge svar som får positiva poäng av mänskliga bedömare. RLHF är mycket framgångsrik men det kommer också med en oavsiktlig bieffekt där AI lär sig genvägar för att få en positiv belöning. Istället för att ge ett korrekt svar ger den ett svar som ser ut som ett korrekt svar och när den lurar de mänskliga bedömarna (vilket är ett misslyckande med förstärkningsträningen), börjar AI förbättra sin förmåga att lura mänskliga bedömare med felaktiga svar för att få belöningarna (de positiva mänskliga betygen). Denna tendens hos AI att ´fuska´ för att tjäna träningsbelöningen kallas belöningshacking, vilket är vad studien försöker minimera.

Direktlänk Dela Search Engine Journal fördjupade 31 januari

AI-maskin löser geometriska problem på samma nivå som mänskliga guldmedaljörer

Forskare från Google Deepmind och New York University har utvecklat en AI-maskin, Alphageometry, som kan lösa geometriproblem. Maskinen kombinerar ett program för matematiska bevis med en specialtränad språkmodell, liknande AI-tjänsten Chat GPT. Alphageometry har testats på problem från Internationella Matematikolympiaden och presterar nästan på samma nivå som mänskliga guldmedaljörer. Trots detta är maskinen inte en generell intelligens, den är specialiserad på en specifik typ av uppgift och fungerar endast på plan geometri.

Direktlänk Dela Forskning & Framsteg fördjupade 30 januari

Mark Zuckerberg planerar att köpa AI-chip, väcker säkerhetsbekymmer

Facebooks grundare Mark Zuckerberg avslöjade nyligen planer på att köpa 350 000 Nvidia H100-grafikchip, värda cirka 30 000 dollar styck, för att bygga en öppen källkods Artificiell Allmän Intelligens (AGI). Detta har väckt oro bland experter, inklusive Dame Wendy Hall från University of Southampton och medlem av FN:s AI-rådgivande styrelse, och Andrew Rogoyski, chef för Human Centered AI Institute vid University of Surrey. Båda betonade behovet av internationellt överenskomna beslut och regleringar för att undvika potentiella negativa konsekvenser.

Direktlänk Dela Nation World News fördjupade 27 januari

OpenAI söker unga AI-talanger för att stärka sin verksamhet

OpenAI, ett ledande AI-startup, söker unga talanger för att stärka sin verksamhet. Sam Altman från OpenAI betonade att företaget inte drivs av unga programmerare, vilket är oroande. OpenAI:s Andrej Karpathy framhöll att de verkliga talangerna ofta finns några steg ner i organisationskartan och kanske inte är aktiva på sociala medier. OpenAI har lanserat initiativ som OpenAI Residency, ett sex månaders program som ger en väg in i företaget, och ett onlineforum för unga intresserade av AI. Flera andra individer, inklusive Yann LeCun från Meta, har kommenterat situationen och diskuterat var man kan hitta unga AI-talanger.

Direktlänk Dela Analytics India Magazine fördjupade 24 januari

Topp 10 AI-företag revolutionerar tekniklandskapet

Artificiell intelligens (AI) har snabbt utvecklats från ett futuristiskt koncept till en omvandlande kraft som formar olika aspekter av våra liv. År 2023 har visat sig vara ett avgörande ögonblick för AI. Artikeln utforskar de tio företag som är i framkant av denna AI-revolution, och gör betydande framsteg inom innovation, forskning och tillämpning. OpenAI, Cohere, Character.ai och Google DeepMind är några av de företag som omnämns.

Direktlänk Dela Medium fördjupade 23 januari

AI-används för att skapa ´deepfakes´ av kändisar i bedrägerisyften

President Joe Biden har varnat för hur generativ AI kan användas för att manipulera ljud och video för att skapa deepfakes. Nyligen har tre sådana deepfakes involverat musikern Taylor Swift, Elon Musk och Biden själva. Swifts ansikte och röst användes i bedrägliga annonser för Le Creuset-köksredskap, medan en falsk version av Musk marknadsförde en bluffaktiehandelsplan kallad Quantum AI. Dessutom skickades det ut en robosamtal som låtsades vara Biden som uppmuntrade väljare att inte rösta i New Hampshire´s primärval. Federal Trade Commission rapporterar att människor förlorade nästan 8,8 miljarder dollar till bedrägeri 2022.

Direktlänk Dela CNET Networks fördjupade 23 januari

Förstår artificiell intelligens vad den säger?

Artificiell intelligens (AI) har blivit mer kraftfull än någonsin, men forskare undrar fortfarande om dessa AI-modeller förstår vad de säger. AI-pionjären Geoff Hinton menar att det är dags att avgöra vad dessa modeller förstår. En teori utvecklad av Sanjeev Arora vid Princeton University och Anirudh Goyal vid Google DeepMind tyder på att dagens största språkmodeller inte bara härmar vad de har sett tidigare. Deras teoretiska tillvägagångssätt, som ger ett matematiskt bevisbart argument för hur och varför en stor språkmodell kan utveckla så många förmågor, har övertygat experter som Hinton och andra.

Direktlänk Dela Quanta Magazine fördjupade 22 januari

OpenAI VD: Energi genombrott nödvändigt för AI, investerar i kärnfusion

OpenAI:s VD, Sam Altman, har framhåvt att en banbrytande framsteg inom energiproduktion är oumbärlig för utvecklingen av alltmer kapabla och energikrävande AI-modeller. Han betonade att framsteg inom AI kräver ett genombrott inom energilösningar. Altman har personligen investerat 375 miljoner dollar i Helion Energy, ett kärnfusionstartup som planerar att leverera energi till Microsoft. Samtidigt har Google DeepMind utvecklat AlphaGeometry, ett AI-system som representerar ett betydande språng i AI: s logiska resonemangsförmåga. Världshälsoorganisationen (WHO) har uttryckt oro över potentiella begränsningar hos medicinska AI-system i att gynna fattigare länder. Amazon har lanserat en experimentell AI-shoppingassistent.

Direktlänk Dela Cryptopolitan fördjupade 22 januari

Google DeepMind AI-stipendier 2024 för nästa generation AI-forskare och ingenjörer

Google DeepMind AI-stipendier 2024 kommer att möjliggöra för nästa generation AI-forskare och ingenjörer. Ansökningsfristen är den 29 mars 2024. Vi inbjuder studenter från hela Afrika att ansöka till september 2024-kullen och bli en av våra 40 Google DeepMind-stipendiater för läsåret 2024-25. En donation från Google DeepMind finansierar 40 stipendiater per år under de fyra åren från september 2023. Finansieringen täcker fulla stipendier, utrustning och beräkningskostnader för studenter. Stipendiaterna är Google DeepMind-stipendiater och har möjlighet att koppla upp sig med Google DeepMinds forskare och ingenjörer för handledning och stöd.

Direktlänk Dela After School Africa fördjupade 22 januari

Google DeepMinds AlphaGeometry löser geometri Olympiad frågor

Ett forskningsteam från Google DeepMind har introducerat AlphaGeometry, ett AI-system som kan lösa geometri Olympiad frågor nästan lika bra som en mänsklig guldmedaljör. AlphaGeometry är en teorembevisare skräddarsydd för euklidisk plangeometri. Systemet bygger upp en stor datauppsättning för träning genom att syntetisera miljontals teorem och bevis på olika komplexitetsnivåer. AlphaGeometry har utvärderats på IMO-AG-30-benchmarket och presterade bättre än tidigare toppmodeller. Det visade sin förmåga att lösa komplicerade geometriproblem genom att få en framgångsgrad på 25 av 30 frågor.

Direktlänk Dela MarkTechPost fördjupade 22 januari

Fem generativa AI-modeller förändrar branschen med sina funktioner och tillämpningar

Generativ AI är en gren av artificiell intelligens som kan skapa nytt innehåll, som text, bilder, ljud och video, från grunden eller baserat på befintliga data. Ett känt exempel är GPT-4, utvecklat av OpenAI. 1. Gemini: En multimodal generativ AI-modell utvecklad av Google DeepMind. 2. ChatGPT: En generativ AI-modell utvecklad av OpenAI för att generera naturliga konversationer. 3. Llama-2: En generativ AI-modell utvecklad av Facebook AI för att generera högkvalitativa texter. 4. Realeyes: En generativ AI-modell utvecklad av Meta för att generera realistiska avatarer. 5. Yellow.ai: En generativ AI-modell utvecklad av Yellow.ai, optimerad för företagsuppgifter.

Direktlänk Dela Analytics Insight fördjupade 21 januari

Google DeepMind forskare planerar AI-startup i Paris

Två forskare vid Google DeepMind, Alphabet Inc:s artificiella intelligensdivision, har diskuterat med investerare om att skapa en AI-startup i Paris. Teamet har diskuterat med potentiella investerare om en finansieringsrunda som kan överstiga 200 miljoner euro. Laurent Sifre, en forskare vid DeepMind, förhandlar om att bilda företaget, för närvarande känt som Holistic, tillsammans med sin kollega Karl Tuyls. Företaget kan komma att fokusera på att bygga en ny AI-modell. Både Sifre och Tuyls är allmänt ansedda som ledare inom sitt område.

Direktlänk Dela Yahoo Finance fördjupade 19 januari

Mark Zuckerberg vill skapa artificiell generell intelligens

Facebook-grundaren och Meta-chefen Mark Zuckerberg siktar på att skapa artificiell generell intelligens (AGI), en typ av AI som kan utföra samma intellektuella uppgifter som en människa. AGI är huvudmålet för flera AI-forskare och utvecklare, inklusive OpenAI, Google Deepmind och Anthropic. Det råder debatt om när AGI kan uppnås, med uppskattningar som sträcker sig från några år till ett århundrade. Meta har omstrukturerat sina AI-team för att snabbare nå detta mål. Zuckerberg planerar också att släppa källkoden för projektet på ett ansvarsfullt sätt.

Direktlänk Dela Swedroid fördjupade 19 januari

Google DeepMinds nya generativa modell, GenCast, revolutionerar väderprognoser

Google DeepMind har introducerat en ny maskininlärningsbaserad metod för probabilistisk väderprognosering kallad GenCast. Denna innovativa metod genererar globala, 15-dagars ensembleprognoser som visar överlägsen noggrannhet jämfört med den ledande operativa ensembleprognosen, nämligen European Centre for Medium-range Weather Forecasts (ECMWF) ENS, och kräver betydligt mindre beräkningstid. GenCast fungerar genom att implicit modellera den gemensamma sannolikhetsfördelningen av väderstaten över tid och rum. Den kan skapa en 15-dagarsprognos på ungefär en minut med hjälp av en Cloud TPU v4.

Direktlänk Dela MarkTechPost fördjupade 19 januari

Google presenterar Gemini AI, en avancerad AI-modell

Google har presenterat Gemini AI, en stor språkmodell (LLM) som är företagets mest avancerade AI-arkitektur hittills. Gemini AI, som presenterades under Google I/O-konferensen förra året, har visat sig överträffa OpenAI:s ChatGPT i flera tester. Enligt Google DeepMinds VD, Demis Hassabis, är Gemini den mest ´flexibla modellen hittills´ och kan köras på mobila enheter. Gemini kommer att finnas tillgänglig i tre olika storlekar: Gemini Ultra, Gemini Pro och Gemini Nano. I praktiken kan Gemini användas för en rad olika uppgifter, inklusive kodning och matematiska uppgifter. Gemini AI är fortfarande under utveckling och kommer att kosta flera miljoner dollar att slutföra.

Direktlänk Dela PC Guide fördjupade 19 januari

Google DeepMinds medgrundare: AI är ett ´fundamentellt arbetskraft-ersättande´ verktyg

Mustafa Suleyman, medgrundare till Google DeepMind och nuvarande VD för Inflection AI, har i en intervju med CNBC diskuterat frågan om AI:s inverkan på arbetsmarknaden. Han beskrev AI som ett ´fundamentellt arbetskraft-ersättande´ verktyg på lång sikt, men betonade att det också kommer att förbättra vår produktivitet under de närmaste decennierna. Suleyman menade att AI är fördelaktigt på två sätt: det gör befintliga processer ´massivt mer effektiva´ och möjliggör nya saker som tidigare varit omöjliga för mjukvara.

Direktlänk Dela Business Insider fördjupade 18 januari

Samsung och Google Cloud inleder partnerskap för att ta med AI-teknik till smartphones

Samsung och Google Cloud har meddelat ett flerårigt partnerskap för att introducera Googles generativa AI-teknik till Samsungs smartphone-användare globalt. Detta börjar med Samsung Galaxy S24-serien som presenterades idag på Galaxy Unpacked i San Jose, Kalifornien. Samsung blir därmed den första Google Cloud-partnern att distribuera Gemini Pro och Imagen 2 på Vertex AI via molnet till sina smartphone-enheter. Samsungs användare kommer att kunna dra nytta av sammanfattande funktioner över Notes, Voice Recorder och Keyboard. Galaxy S24-serien kan också dra nytta av Imagen 2, Googles mest avancerade text-till-bild-diffusionsteknik från Google DeepMind hittills.

Direktlänk Dela Shiny Shiny fördjupade 18 januari

Googles AI-system, AlphaGeometry, löser geometriproblem på guldmedaljnivå

Ett nytt artificiellt intelligenssystem utvecklat av Google DeepMind, AlphaGeometry, kan lösa komplexa geometriproblem på en nivå jämförbar med en mänsklig guldmedaljör i den Internationella Matematikolympiaden (IMO). Systemet kombinerar två olika metoder: en neuralt språkmodell som genererar intuitiva idéer och en symbolisk deduktionsmotor som verifierar dem med formell logik och regler. Forskarna testade AlphaGeometry på 30 geometriproblem från IMO, och systemet löste 25 problem inom den standardiserade tidsgränsen på 4,5 timmar, vilket matchar genomsnittspoängen för mänskliga guldmedaljörer på samma problem. Forskarna hoppas att deras system, som de har öppen källkod, kommer att inspirera ytterligare forskning och tillämpningar inom matematik, vetenskap och AI.

Direktlänk Dela VentureBeat fördjupade 17 januari

Senior mjukvaruutvecklare lämnar Tesla Dojo

Chan, en senior mjukvaruutvecklare som tidigare arbetat med Tesla Dojo, har lämnat företaget. Hans avgång följer efter avgången av Ganesh Venkataramanan, den tidigare projektledaren för Teslas Dojo-superdator, i december. En vecka senare meddelade Teslas chef för AI-infrastruktur Tim Zaman att han skulle gå över till Google DeepMind. Tesla Dojo är namnet på flera av Teslas superdatorer som använder företagets anpassade D1-chips, designade av Venkataramanans team och tillverkade av TSMC. Tesla har nu flera Dojo-installationer på olika datacenter och bygger ett Dojo-datacenter vid sitt huvudkontor i Austin, Texas.

Direktlänk Dela DatacenterDynamics fördjupade 15 januari

Parrot: Nytt ramverk för text-till-bildgenerering med flera belöningar

Forskare vid Google DeepMind, OpenAI, Rutgers University och Korea University har föreslagit Parrot, ett nytt flerbelöningsramverk för text-till-bild (T2I) generering. Parrot använder en gemensam optimeringsmetod för T2I-modellen och nätverket för promptexpansion. Detta förbättrar genereringen av kvalitetsmedvetna textprompter. Parrot införlivar preferensinformation med belöningsspecifika identifierare, vilket automatiskt bestämmer varje belöningsmåls betydelse. Trots dess effektivitet uppstår etiska problem med Parrots potential att generera olämpligt innehåll, vilket understryker behovet av granskning och etiska överväganden vid implementering.

Direktlänk Dela MarkTechPost fördjupade 15 januari

Google Deepmind introducerar AutoRT för att förbättra drift av robotar

Google Deepmind har introducerat ett system, AutoRT, som utnyttjar befintliga grundmodeller för att förbättra användningen av operationella robotar i osedda scenarier med minimal mänsklig övervakning. AutoRT använder syn-språkmodeller för scenförståelse och grundning samt stora språkmodeller för att generera varierande och nya instruktioner för en robotflotta. AutoRT:s mål är att möjliggöra insamling av data i stor skala, vilket låter robotar anpassa sig till nya miljöer och uppgifter autonomt. AutoRT introducerar ett system som styr en flotta av robotar med hjälp av en stor grundmodell.

Direktlänk Dela MarkTechPost fördjupade 12 januari

Forskare på Google och Stanford arbetar med robotik och maskininlärning

Sergey Levine är biträdande professor vid UC Berkeley och forskningsvetenskapsman på Google. Hans arbete handlar om algoritmer för lärandebaserad kontroll, robotik och beslutsfattande. Han gick med i UC Berkeleys fakultet 2016, efter att ha avslutat en doktorsexamen vid Stanford University, en postdoc vid UC Berkeley och ett år som heltidsforskare i Google Brain-teamet. Hans tidigare forskning inkluderar populära algoritmer för djup förstärkningsinlärning, tidiga tillämpningar av djup förstärkningsinlärning för robotmanipulation, algoritmer för meta-lärande och en mängd robotinlärningsresultat inom områdena rörelse, navigation och fingerfärdig manipulation. Karol Hausman är forskningsvetenskapsman på Google DeepMind och adjungerad professor vid Stanford, där han arbetar med robotik och maskininlärning. Han tog sin doktorsexamen vid University of Southern California och sin M.Sc. vid Technical University of Munich och Warsaw University of Technology. Hans främsta intresse ligger i att möjliggöra för robotar att förvärva allmänna färdigheter i verkliga miljöer. Nyligen har han varit mycket entusiastisk över att undersöka grundmodeller för robotbeslutsfattande. När han inte felsöker robotar på Google, samundervisar han Deep RL-klassen vid Stanford.

Direktlänk Dela Institute of Electrical and Electronics Engineers fördjupade 9 januari

OpenAI publicerar ramverk för att mildra AI-risker

OpenAI har nyligen publicerat en betaversion av deras ramverk för att mildra AI-risker. Ramverket listar fyra riskkategorier och definitioner av risknivåer för varje kategori, samt definierar OpenAI:s säkerhetsstyrningsprocedurer. Ramverket är en del av OpenAI:s övergripande säkerhetsarbete och är särskilt inriktat på framkantsrisker från avancerade modeller. Teknisk utvärdering av modellerna hanteras av ett dedikerat team, som bedömer en modells risknivå i fyra kategorier: övertalning, cybersäkerhet, CBRN (kemisk, biologisk, radiologisk, kärnenergi) och modellautonomi.

Direktlänk Dela InfoQ fördjupade 9 januari

ChatGPT-4 presterar mycket bättre än sin föregångare och kan nu tala på 26 olika språk

Den senaste versionen av ChatGPT, ChatGPT-4, presterar mycket bättre än sin föregångare, ChatGPT-3.5. ChatGPT-4 är den största språkmodellen som skapats hittills och kan nu tala på 26 olika språk, känna igen bilder och beskriva bilder för synskadade. Den kan även klara en mängd olika tester med höga poäng, inklusive juridikexamen, SAT, AP-examen och sommelierexamen. Trots dessa förbättringar är det fortfarande inte praktiskt att använda ChatGPT för att fuska på långa prov som juridikexamen. OpenAI, utvecklaren av ChatGPT, har varnat för behovet av att hantera risken för mänsklig utrotning i samband med AI.

Direktlänk Dela The American Genius fördjupade 8 januari

Tvåarmad robot kan utföra mängd olika uppgifter

Forskare vid Stanford University och Google Deepmind har utvecklat en prototyp för en mobil tvåarmad robot som kan utföra en mängd olika uppgifter, som att vattna blommor, dammsuga, bädda sängen, laga mat, hänga kläder och tvätta. Roboten använder imitationsinlärning, en typ av neuralt nätverk som lär sig av mänskliga demonstrationer. Amerikanska företaget Figure har också visat en humanoid robot, Figure 01, som kan använda en kaffemaskin efter att ha tränats med videor av människor som gör kaffe. Tesla använder också neurala nätverk för att utveckla mer kapabla robotar.

Direktlänk Dela Ny Teknik fördjupade 8 januari

AI:s snabba tillväxt: Utmaningar och möjligheter

Artificiell intelligens (AI) växer snabbt och presenterar unika utmaningar och möjligheter, med spänningar mellan innovation och reglering. Generativ AI, som producerar ny data utifrån befintlig, leder utvecklingen. Tekniken blir allt mer tillgänglig och påverkar vardagen genom framsteg inom bildgenerering, design, tal-syntes, översättning och automatisering. Förlagshuset Axel Springer har nyligen samarbetat med OpenAI för att integrera journalistik djupare i AI-teknologier. Med den snabba utvecklingen av AI kommer etiska frågor i fokus. Juridiska konsekvenser av AI-utveckling blir allt mer komplexa. AI:s utveckling går mot stora modeller som kan utföra en mängd funktioner.

Direktlänk Dela Financial-world.org fördjupade 8 januari

Användningen av AI inom konsumentinriktade företag ökar och med det även behovet av bättre styrning av tekniken. Den amerikanska Biden-administrationens nyligen införda exekutiva order, som kräver nya mätprotokoll för utveckling och användning av avancerade AI-system, har ökat trycket. AI-leverantörer och regulatorer fokuserar idag mycket på förklarbarhet som en pelare i AI-styrning. Men förklaring av AI kan vara komplicerat, särskilt när det gäller mer avancerade AI-teknologier som OpenAI´s GPT-4 och Google Deepmind´s cancer screening-modeller. Amerikanska lagstiftare som söker reglera AI inser utmaningarna kring förklarbarhet, vilket avslöjar behovet av en annan strategi för AI-styrning - en som är mer inriktad på resultat än enbart förklarbarhet.

VentureBeat fördjupade 8 januari

Microsoft avslöjar nytt tangentbord med AI-knapp

Microsoft har avslöjat en ny standardlayout för PC-tangentbord med en ´Copilot´-knapp. Framöver kommer Windows-maskiner att ha en dedikerad knapp för att starta Microsofts AI-drivna assistent Copilot, vilket ersätter höger kontrollknapp. Detta är första gången på cirka 30 år som Microsoft ändrar layouten på Windows-tangentbord. Bärbara datorer och tangentbord med Copilot-knappen planeras att skeppas så snart som i slutet av februari. Företaget hoppas att detta kommer att driva efterfrågan på AI-teknik, men det är ingen garanti. Den verkliga testet kommer att vara om Windows-användare och företagskunder verkligen vill ha tekniken och betala för den.

Direktlänk Dela Yahoo Finance UK fördjupade 6 januari

Författare stämmer Microsoft och OpenAI, ny AI-teknik presenteras på CES 2024

Författare stämmer Microsoft och OpenAI för påstått missbruk av deras verk i AI-utbildning, med anklagelser om upphovsrättsintrång för inkludering av deras böcker i OpenAIs GPT-modell. BrainChip och NVISO avslöjar ett AI-system för förbättrad mänsklig interaktion på CES 2024. Google DeepMind presenterar AutoRT för att förbättra AI-robotars beteende i hemmiljöer. Apple förbättrar Siri med AI ´specialförmåga´ för att konkurrera med ChatGPT. Aiello´s AI-plattform revolutionerar gästfriheten genom att ta itu med språkbarriärer och arbetskraftsbrist.

Direktlänk Dela Hindustan Times Tech fördjupade 6 januari

Google planerar att lansera betald chattbot-prenumeration

Google kan snart lansera en egen betald chattbot-prenumeration, efter framgången med ChatGPT Plus. Enligt en tråd postad på X (tidigare känd som Twitter) av Android-apputvecklaren Dylan Roussel, har Google nya funktioner på gång för Bard, dess konversationella chattbot som använder generativ AI. Dessa inkluderar Bard Advanced, en tjänst som skulle vara en del av Google One, techjättens prenumerationsprogram. Roussel tillade att tjänsten skulle använda techföretagets Gemini Ultra AI-modell. Nyheten kommer månader efter att OpenAI såg efterfrågan på sin ChatGPT Plus-prenumeration skjuta i höjden.

Direktlänk Dela PYMNTS fördjupade 5 januari

Universitetet i Johannesburg anordnade nyligen en konferens om artificiell intelligens (AI) i Muldersdrift, Sydafrika. Konferensen fokuserade på ´gräsrots AI´, en rörelse som drivs av studenter, professorer, forskare, industripraktiker och entreprenörer över hela kontinenten. Denna rörelse fyller viktiga luckor i utbildning och forskning, särskilt med tanke på att det finns för få universitet, stora socioekonomiska ojämlikheter och en snabb global AI-utveckling. Trots dessa utmaningar har rörelsen fått uppmärksamhet från globala teknikföretag som Google, Apple och OpenAI. Utmaningen nu är att säkerställa att afrikanska AI-forskare aktivt formar och äger dessa tekniska framsteg.

Inside Higher Ed fördjupade 4 januari

Google Deepmind lanserar språkmodell Gemini, EU AI Act kan påverka AI-startups och Dobb-E lär robotar husuppgifter

I december lanserade Google Deepmind sin språkmodell Gemini i tre versioner: Ultra, Pro och Nano. Ultra-versionen sägs vara bättre än mänskliga experter på språkförståelse och slår OpenAI:s GPT-4 i nästan allt, förutom vardagligt sunt förnuft. EU:s politiska beslutsfattare har enats om ett provisoriskt avtal om regler för användningen av AI, vilket kan hindra framsteg för mindre startups. En ny öppen källkodsrobot, Dobb-E, har lanserats som lär robotar husuppgifter.

Direktlänk Dela Dagens Media fördjupade 4 januari

Självkörande laboratorier: En tyst revolution inom vetenskapen

Artificiell intelligens (AI) och robotar kan vara lösningen på det repetitiva arbete som ofta förekommer i laboratorier. Trots att AI:s förmåga att förutsäga möjliga nya strukturer har ökat enormt, som med Google DeepMinds proteinstruktur-predikterande AI AlphaFold, har vår förmåga att testa om dessa strukturer existerar och är korrekta inte hängt med. Självkörande laboratorier, som består av en kombination av robotarmar, testutrustning och en AI-övervakare, kan utföra experiment tusentals till miljontals gånger snabbare än en människa. Google DeepMind delade sina AI-kristallprognoser med ett team på Lawrence Berkeley National Laboratory i Kalifornien som utvecklar ett självkörande laboratorium, kallat A-Lab. Trots dessa framsteg finns det fortfarande många frågor kring självkörande laboratorier, och människor behövs fortfarande för att tolka resultaten.

Direktlänk Dela Government Technology fördjupade 3 januari

Google och Cambridge universitet samarbetar om ansvarsfull AI

Google och University of Cambridge har ingått ett flerårigt forskningsavtal om ansvarsfull AI för att utforska teknikens potentiella samhällsnytta. Google kommer att samarbeta med universitetets Centre for Human-Inspired Artificial Intelligence (CHIA) som en del av avtalet, med fokus på grundläggande AI-forskningsprojekt inom områden av gemensamt intresse, inklusive klimat och hållbarhet, och AI-etik och säkerhet. Matt Brittin, president för Google EMEA, sa att samarbetet kommer att hjälpa till att forma framtiden för ansvarsfull AI-utveckling.

Direktlänk Dela IT Pro fördjupade 2 januari

Insikter från IROS 2023: Framtiden för Robotik

Vid IROS 2023 diskuterades framtiden för robotik, med fokus på paradigmer för teamarbete, Multi-Agent Reinforcement Learning (MARL) strategier, Modularized Reinforcement Learning, Distributed Perception och Planering samt Verifiable Safety och Trustworthiness. Tre huvudsakliga teamarbetsparadigmer diskuterades: Pre-coordination, Decentralized Coordination och Ad-hoc Teaming. Nyckelstrategier för MARL diskuterades, inklusive Fully Centralized MARL, Centralized Training, Decentralized Execution (CTDE), Decentralized Training och Coordination samt Fully Decentralized. Google DeepMind´s forskning i robotfotboll har lett till intresse för Modularized Reinforcement Learning. Nyheter inom Distributed Perception och Planering samt Verifiable Safety och Trustworthiness diskuterades också.

Direktlänk Dela Medium fördjupade 2 januari

Google DeepMind och Princeton University utvecklar förbättrad AI-prompting strategi

Forskare från Google DeepMind och Princeton University har utvecklat en förbättrad prompting strategi för generativ AI kallad Tree of Thoughts (ToT). Denna metod tar prompting till en högre nivå av resultat, vilket möjliggör mer sofistikerade resonemangsmetoder och bättre utdata. Forskarna jämförde ToT med tre andra promptingstrategier: Input-output (IO) Prompting, Chain of Thought Prompting och Self-consistency with CoT. ToT-strategin använder en trädstruktur för varje steg i resonemanget vilket tillåter språkmodellen att utvärdera varje resonemangs steg och avgöra om det är genomförbart och leder till ett svar.

Direktlänk Dela Search Engine Journal fördjupade 1 januari

AI leder revolutionen inom halvledare och högpresterande datorer

AI leder revolutionen inom halvledare och högpresterande datorer. Enligt en nyligen publicerad rapport av forskningsföretaget GlobalData, förändrar AI genom att omvandla vad rapporten kallar ´materialupptäckt´. Denna innovationsdrivare påverkar stora sektorer som förnybar energi, halvledare och läkemedel genom att möjliggöra snabbare och mer effektiva upptäcktsprocesser, ta bort hinder för forskning och utveckling och driva framsteg inom materialvetenskap. Saurabh Daga, Associate Project Manager för Disruptive Tech på GlobalData, säger att AI blir allt viktigare för att låsa upp innovativa material och driva framåt branschspecifika utvecklingar. AI:s potential ses av de stora företagen i dessa branscher. Nyligen AI-möjliggjorda initiativ inkluderar Google DeepMind Graphical Networks for Material Exploration (GNoME), som rapporteras använda avancerade djupinlärningsmodeller för upptäckt av ny materialstruktur. GlobalData säger att detta avancerade AI-verktyg används på Lawrence Berkeley National Laboratory A-Lab, där forskare använder AI, maskininlärning och robotik för att syntetisera nya material för banbrytande applikationer.

Direktlänk Dela Embedded Computing Design fördjupade 28 december

Artificiell intelligens: Framsteg, risker och global reglering

Artificiell intelligens (AI) har potential att påverka global ekonomi, arbetsmarknad, klimatförändringar och nationell säkerhet. Dess utveckling och användning fortskrider i snabb takt, med USA, Kina och EU som tar alltmer divergerande tillvägagångssätt för att reglera tekniken. AI kan både öka produktiviteten och leda till jobbförluster, och det finns en oro för att AI kan förvärra ojämlikheten. AI kan också ha en direkt inverkan på nationell säkerhet, genom att möjliggöra autonoma vapen och förbättra strategisk analys. Policymakare över hela världen är överens om att AI bör regleras, men det råder oenighet om hur detta ska ske. AI:s komplexitet gör det osannolikt att tekniken kan styras av en enda uppsättning principer.

Direktlänk Dela Council on Foreign Relations fördjupade 27 december

Big Tech står för majoriteten av AI-investeringar 2023

Ny data visar att stora delar av 2023 års investeringar i artificiell intelligens (AI) kom från Big Tech. De stora affärerna som Amazon, Google och Microsoft genomförde detta år utgjorde två tredjedelar av de 27 miljarder dollar som kanaliserades till AI-startups, enligt Financial Times. Trots att generativ AI har lockat riskkapitalbolag, har dessa företag tvingats minska sina utgifter på grund av högre räntor och minskade portföljvärderingar. Rapporten nämner att affärer som Microsofts investering på 10 miljarder dollar i OpenAI och Google och Amazons investeringar i Anthropic hjälpte till att öka de totala utgifterna på AI-företag till nästan tre gånger det tidigare rekordet på 11 miljarder dollar 2021.

Direktlänk Dela PYMNTS fördjupade 27 december

AI misslyckas med att vinna en skrivtävling

En professor vid Tsinghua University i Beijing använde AI för att generera en novell, The Land of Memories av Shen Yang, som vann andra pris i Jiangsu Youth Popular Science Science Fiction Competition. Novellen genererades med hjälp av 66 prompts och bestod ursprungligen av 43 000 tecken, men reducerades till 5 900 tecken. Tävlingen är huvudsakligen riktad mot tonåringar, men det finns inga restriktioner för användning av AI. Novellen delade andra priset med 17 andra berättelser. En analys av över 3 000 AI-verktyg med SEMrush visade att de 50 mest populära webbplatserna hade 24 miljarder besök under det senaste året, främst från teknikintresserade män.

Direktlänk Dela Cointelegraph fördjupade 26 december

Elon Musks AI-företag introducerar Grok, en överlägsen språkmodell

Inspirerad av Douglas Adams ´Hitchhiker´s Guide to the Galaxy´, syftar Grok till att fungera som en forskningsassistent, som ger användare snabb tillgång till information och databehandling. Elon Musks artificiella intelligensföretag, xAI, introducerade nyligen Grok, en språkmodell som överträffar jämförbara modeller som GPT-3.5 på olika mätvärden. Med realtids kunskapsåtkomst via X-plattformen positioneras Grok som ett unikt AI-verktyg med en fördel. xAI, som lanserades tidigare i år, tränade ursprungligen Grok-0, en 33B parametermodell, och har nu avslöjat sin senaste version, Grok-1. Även om detaljer om Grok-1:s parametrar och träning förblir hemliga, hävdar xAI överlägsenhet över GPT-3.5 och Llama 2 inom matematik, frågebesvarande och kodningsmätvärden.

Direktlänk Dela RTInsights fördjupade 26 december

AI-chatbots utvecklas från hjälpare till konversationister

AI-chatbots utvecklas snabbt och experter förutspår en ökning av interaktivitet och mänskliga förmågor. AI-assistenter som Chat GPT, Bard och Llama har bidragit till att öka produktiviteten inom olika sektorer. Innovatörer som Elon Musks Grok och Google DeepMinds Mustafa Suleymans Pi AI arbetar för att ge AI mer personlighet och humor. Framtiden för AI förväntas kunna anpassa sig till användarnas preferenser och lära av feedback. Det finns dock växande oro för AI:s potentiella inverkan på jobb och missbruk i skapandet av deepfake-videor och desinformation.

Direktlänk Dela BNN Breaking News fördjupade 25 december

Interaktiv AI förväntas överskugga generativ AI

AI-chattrobotar som Chat GPT, Bard och Llama har hjälpt användare över hela världen att generera innehåll snabbare än människor. Trots oro för massuppsägningar har detta ännu inte inträffat. Kritiker menar dock att dessa robotar plagierar internet för att skapa innehåll som ofta är tråkigt, innehåller faktiska fel eller visar politisk eller rasistisk bias. Elon Musk har försökt att adressera detta med sin AI-assistent Grok. Google DeepMind medgrundare Mustafa Suleyman tror att framtiden för AI-assistenter ligger i deras förmåga att interagera med människor på ett avancerat sätt. Interaktiv AI kommer att tillåta människor att ha djupare samtal med sin AI-chattrobot.

Direktlänk Dela Deutsche Welle fördjupade 25 december

2023: Året för artificiell intelligens

Artificiell intelligens (AI) har blivit en av de största frågorna inom teknik 2023, mycket tack vare framväxten av generiska AI-modeller och appar som ChatGPT. Teknikjättar som Google, Microsoft och Amazon har lanserat produkter inom generativ AI, medan Elon Musk har presenterat xAI, en ny startup inom AI-fältet. Diskussionen om hur länder ska närma sig AI har ökat, med fokus på både möjligheter och risker. Den brittiska regeringen har publicerat ett vitbok om AI och planerar att använda befintliga regulatorer för att styra AI, snarare än att inrätta en ny enskild regulator. EU har också kommit överens om egna regler för AI-övervakning.

Direktlänk Dela Biz.crast.net fördjupade 24 december

2023: Året då AI blev huvudämnet inom teknologivärlden

Artificiell intelligens (AI) har blivit en av de största frågorna inom teknik under 2023, drivet av generativ AI och appar som ChatGPT. Öppet intresse för generativa AI-modeller har drivit många av världens största teknikföretag att introducera sina egna chatbots. Google, Microsoft och Amazon har alla följt OpenAI i att annonsera generativa AI-produkter. Elon Musk meddelade skapandet av xAI, en ny start-up inriktad på arbete inom AI-området. Storbritannien har lanserat ett AI Safety Institute, medan EU har kommit överens om sin egen uppsättning regler för AI-övervakning.

Direktlänk Dela The Independent fördjupade 24 december

Google DeepMinds Gemini banar väg för multimodal AI

Google DeepMinds senaste skapelse, Gemini, skapar rubriker inom artificiell intelligens (AI). Gemini syftar till att replikera mänsklig perception, särskilt dess förmåga att integrera olika sinnesintryck. Trots utmaningar med att uppnå sann multimodal AI, har Gemini visat sig lovande genom att vara inneboende multimodal och genomgå förträning på olika modaliteter. Gemini är en familj av multimodala AI-modeller utvecklade av Alphabet´s Google DeepMind i samarbete med Google Research. Gemini kan processa och resonera över olika datatyper som ljud, bilder och text. Gemini har jämförts med ChatGPT-varianter och har presterat bättre än ChatGPT 3.5 i omfattande tester. Dessutom har Gemini visat sig vara effektivt inom avancerad multimodal resonemang, datorprogrammering, medicinsk diagnostik och finansiell prognos.

Direktlänk Dela Unite.AI fördjupade 21 december

AI:s stora genombrott 2023: Multimodalitet, konstitutionell AI och text-till-video

År 2023 markerade en viktig milstolpe för AI-teknik. Chatbots blev viral och regeringar började ta AI-risker på allvar. Tre stora innovationer var multimodal AI, konstitutionell AI och text-till-video verktyg. Multimodal AI, som OpenAI:s GPT-4 och Google DeepMind´s Gemini, kan bearbeta olika typer av data som text, bilder, video och ljud. Konstitutionell AI, först beskriven av forskare vid Anthropic, syftar till att anpassa AI-system till mänskliga värderingar genom att skriva en ´konstitution´ för AI att följa. Text-till-video verktyg, som erbjuds av företag som Runway och Pika AI, har också sett snabb tillväxt, vilket möjliggör skapandet av rörliga bilder från text.

Direktlänk Dela Time Magazine fördjupade 21 december

AT&T omfamnar generativ AI för företagstransformation

Generativ AI (Gen AI) har revolutionerat telekomsektorn och AT&T var bland de första att se dess potential för företagsomvandling. Operatören lanserade sitt verktyg ´Ask AT&T´ i juni 2023 med hjälp av en tidig version av OpenAI´s ChatGPT. Nu använder över 68 000 anställda Ask AT&T för uppgifter som att skriva kod, hjälpa kunder, sammanfatta möten, fixa säkerhetsbrister och analysera den enorma mängd data som passerar genom dess nätverk dagligen. AT&T har skapat sina egna riktlinjer för användning av GenAI, vilket speglar liknande riktlinjer utfärdade av den amerikanska federala regeringen och andra enheter.

Direktlänk Dela Mobile World Live fördjupade 21 december

Google lanserar en ny version av sin TPU för maskininlärning

Google har lanserat en ny version av sin Tensor Processing Unit (TPU), kallad Cloud TPU v5p. Den nya versionen är optimerad för prestanda snarare än kostnadseffektivitet, vilket var fallet med den tidigare versionen Cloud TPU v5e. TPU v5p kan ge upp till 459 teraFLOPS av bfloat16-prestanda eller 918 teraOPS av Int8, vilket är två till fem gånger mer än TPU v4. Dessutom har Google introducerat konceptet ´AI Hypercomputer´, en molnbaserad superdatorarkitektur som kombinerar prestandaoptimerad hårdvara, öppen mjukvara, ML-ramverk och flexibla konsumtionsmodeller. Företag som Salesforce och Lightricks använder redan Google Clouds TPU v5p för AI-utbildning och inferensuppgifter.

Direktlänk Dela CDOTrends fördjupade 20 december

Google kommer att begränsa valrelaterade förfrågningar på sin AI-chattbot och sökning inför valet 2024

Google har meddelat att det kommer att begränsa vissa typer av valrelaterade förfrågningar på sin AI-chattbot Bard och AI-drivna Sök inför presidentvalet i USA 2024. Detta kommer som en följd av att AI, som en framväxande teknologi, presenterar nya möjligheter och utmaningar. För att hjälpa människor att identifiera AI-genererat innehåll som kan verka realistiskt, har företaget introducerat flera nya verktyg och policys. Dessa inkluderar krav på att valannonsörer tydligt ska avslöja när deras annonser innehåller realistiskt syntetiskt innehåll som har digitalt ändrats eller genererats, inklusive av AI-verktyg.

Direktlänk Dela The Times of India fördjupade 20 december

Google DeepMind använder vision-språkmodeller för att förbättra förstärkningsinlärningsagenter

Forskare från Google DeepMind undersöker användningen av färdiga vision-språkmodeller (VLMs), särskilt CLIP-familjen, för att härleda belöningar för träning av förstärkningsinlärningsagenter (RL) som kan uppnå olika språkmål. Forskningen visar en skalningstrend där större VLMs leder till mer exakta belöningar, vilket förbättrar RL-agentens förmågor. Den diskuterar också omvandlingen av belöningsfunktionen till en binär form genom sannolikhetsgränsning. Experimenten behandlar VLM-belöningsmaximering och skalningseffekt, vilket tyder på att förbättrad VLM-kvalitet kan möjliggöra träning av generalistiska RL-agenter i rika visuella miljöer utan uppgiftsspecifik finjustering.

Direktlänk Dela MarkTechPost fördjupade 19 december

Google presenterar Gemini, en ny AI-modell för att konkurrera med OpenAI’s ChatGPT

Google Deepmind har nyligen presenterat Gemini, sin nya AI-modell för att konkurrera med OpenAI´s ChatGPT. Till skillnad från tidigare generativa AI-modeller som LaMDA, är Gemini en ´multimodal modell´, vilket innebär att den arbetar direkt med flera typer av in- och utdata, inklusive text, bilder, ljud och video. OpenAI har också meddelat en modell som kan arbeta med bilder, ljud och text, men den är inte en helt multimodal modell på samma sätt som Gemini lovar att vara. Den nuvarande offentligt tillgängliga versionen av Gemini, Gemini 1.0 Pro, är generellt inte lika bra som GPT-4, men är mer lik GPT 3.5 i sina förmågor. Google har också meddelat en kraftfullare version av Gemini, Gemini 1.0 Ultra.

Direktlänk Dela Asia Times fördjupade 19 december

Google presenterade Gemini, sin mest kapabla AI-modell, vid Google I/O 2023-konferensen i juni. Innan årets slut släppte företaget Gemini AI-modellerna till allmänheten. Gemini är den senaste och mest kapabla stora språkmodellen (LLM) utvecklad av Google Deepmind team, ett dotterbolag till Google med huvudkontor i London. Den lanseras som en efterträdare till PaLM 2-modellen, som utvecklades av Googles interna AI-avdelning. Detta är första gången vi ser ett fullfjädrat AI-system från Deepmind-teamet som släpps till allmänheten. Google har också meddelat Gemini AI i tre varianter - Ultra, Pro och Nano - men har inte offentliggjort deras parametrarstorlek.

Beebom fördjupade 18 december

Google introducerar uppgraderad bildskapande teknologi Imagen 2

Google har introducerat en ny och förbättrad version av sin bildskapande teknologi, Imagen 2. Detta avancerade verktyg hjälper till att omvandla ord till bilder och är nu tillgängligt för speciella kunder som använder Vertex AI, en del av Google Cloud. Den uppgraderade Imagen 2 har fantastiska funktioner som låter människor skapa ännu bättre bilder med hjälp av text. Den är skapad med hjälp av mycket smart teknologi från Google DeepMind, vilket har förbättrat bildkvaliteten avsevärt. Stora företag som Snap, Shutterstock och Canva använder redan denna teknologi.

Direktlänk Dela India Today fördjupade 18 december

Google lanserar Imagen 2, en förbättrad text-till-bildgenerator

Google har nyligen lanserat sin andra generation av text-till-bildgeneratorn Imagen 2. Jämfört med föregångaren har Imagen 2 förbättrats genom att kunna rendera text på flera språk, låta användare lägga över logotyper på produkter och kläder, och genom att förstå mer detaljerade och långformade kommandon. Imagen 2 har överträffat DALL.E 2 med sina text-till-bildfunktioner och erbjuder överlägsen fotorealism och sömlös textintegration. Företag som Snap, Shutterstock och Canva stöder Imagen för att förbättra kreativitet och effektivisera designprocesser.

Direktlänk Dela Analytics India Magazine fördjupade 18 december

Google presenterar Gemini Pro och Imagen 2 för att förbättra AI-utveckling

Google har presenterat Gemini Pro, som låter utvecklare bygga nya och differentierade agenter som kan bearbeta information över text, kod, bilder och video. Företaget introducerade också Imagen 2, dess mest avancerade text-till-bild-teknologi. Google organiserade en mediesession för att visa mer av Gemini Pros kapaciteter, med en live-demo av Google Clouds VD Thomas Kurian. Bland höjdpunkterna var introduktionen av Google AI Studio, ett gratis webbaserat utvecklarverktyg. Kurian nämnde också att Gemini Pro kommer att vara en del av Google Workspace 2024.

Direktlänk Dela Tech Wire Asia fördjupade 18 december

Google Deepmind presenterar Gemini, en ny AI-modell för att konkurrera med OpenAI´s ChatGPT

Google Deepmind har nyligen introducerat Gemini, sin nya AI-modell som ska konkurrera med OpenAI´s ChatGPT. Till skillnad från tidigare generativa AI-modeller, är Gemini en ´multimodal modell´ vilket innebär att den kan hantera flera olika typer av in- och utdata, inklusive text, bilder, ljud och video. Google har också presenterat en mer kraftfull version av Gemini, kallad Gemini 1.0 Ultra, men det är svårt att bedöma dess kapabiliteter eftersom den ännu inte har släppts. Trots detta tror experter att Gemini och stora multimodala modeller är ett mycket spännande steg framåt för generativ AI.

Direktlänk Dela Hindustan Times Tech fördjupade 17 december

AI-accelererad materialutveckling: GNoMe utmärker sig för skala och precision

Användningen av AI för att utveckla nya material har blivit vanlig, men GNoMe utmärker sig för sin skala och precision. Chris Bartel, biträdande professor i kemiteknik och materialvetenskap vid University of Minnesota, noterar att GNoMe tränades med en betydligt större mängd data än jämförbara projekt. Forskare tillbringar ofta år med att utveckla material baserat på befintliga strukturer i hopp om att upptäcka nya kombinationer. Tack vare djupinlärningsverktyget kan denna forskning nu påskyndas. Lawrence Berkeley National Laboratory, tillsammans med Google DeepMind, har publicerat två artiklar i tidskriften Nature.

Direktlänk Dela Notebookcheck fördjupade 16 december

Google Deepmind presenterar Gemini, en ny AI-modell för att konkurrera med OpenAI:s ChatGPT

Google Deepmind har nyligen presenterat Gemini, en ny AI-modell som ska konkurrera med OpenAI:s ChatGPT. Till skillnad från tidigare generativa AI-modeller, är Gemini en multi-modal modell som kan hantera flera typer av indata och utdata, inklusive text, bilder, ljud och video. I september presenterade OpenAI en modell som kan arbeta med bilder, ljud och text, men den är inte en helt multimodal modell på samma sätt som Gemini utlovar. Google har också annonserat en kraftfullare version av Gemini, kallad Gemini 1.0 Ultra, men det är svårt att bedöma dess förmåga eftersom den ännu inte har släppts.

Direktlänk Dela Moneycontrol fördjupade 16 december

Google Deepmind presenterar Gemini, en ny AI-modell

Google Deepmind har nyligen presenterat Gemini, sin nya AI-modell för att konkurrera med OpenAI:s ChatGPT. Gemini skiljer sig från tidigare generativa AI-modeller eftersom den är en ´multimodal modell´, vilket innebär att den direkt hanterar flera olika typer av in- och utdata, inklusive text, bilder, ljud och video. I september presenterade OpenAI en modell som heter GPT-4Vision som också kan hantera bilder, ljud och text, men den är inte en heltäckande multimodal modell på samma sätt som Gemini lovar att vara. Google har också meddelat en kraftfullare version av Gemini, kallad Gemini 1.0 Ultra, och presenterade några resultat som visar att den är mer kraftfull än GPT-4.

Direktlänk Dela The Conversation fördjupade 15 december

AI:s explosion under 2023: En årsöversikt

2023 var AI:s år, med företag som Nvidia, Google, Microsoft och OpenAI i spetsen. Även Wendy´s testade AI-assistenter vid sina drive-thru. AI:s framfart började egentligen i november 2022 när OpenAI lanserade ChatGPT, som snabbt blev den snabbast växande appen någonsin. Under 2023 investerade Microsoft $10 miljarder i OpenAI, och Google lanserade sin egen AI-chatbot, Bard. Meta förklarade att AI var företagets största investering. Google sammanslog sitt Brain AI-team med DeepMind och Amazon lanserade sin Bedrock-plattform. Google öppnade Bard för allmänheten och lanserade sin Search Generative Experience. Nvidia passerade en marknadsvärdering på $1 biljon. Amazon, Google, Meta, Microsoft och OpenAI förband sig att följa frivilliga regler för AI-säkerhet och utveckling. Amazon investerade $4 miljarder i OpenAI-konkurrenten Anthropic. OpenAI avskedade och återanställde sin VD Sam Altman efter hot om massuppsägningar. Google lanserade sin GPT-4-konkurrent Gemini.

Direktlänk Dela Yahoo Finance fördjupade 15 december

Googles AI DeepMind gör vetenskaplig upptäckt med hjälp av storskalig språkmodell

AI-forskare på Google DeepMind har gjort världens första vetenskapliga upptäckt med hjälp av en storskalig språkmodell (LLM), vilket indikerar att ChatGPT och liknande program kan generera information utöver mänsklig kunskap. Upptäckten tyder på att dessa stora språkmodeller inte bara kan ompaketera träningsinformation utan också generera nya insikter. DeepMind använde en LLM för att skapa ´FunSearch´, som skrev dataprogram för att lösa problem. FunSearch utvecklade program för att generera stora cap-uppsättningar och en bättre lösning på bin packing-problemet.

Direktlänk Dela The News International fördjupade 15 december

AI-forskare gör vetenskaplig upptäckt med stor språkmodell

Forskare inom artificiell intelligens (AI) hävdar att de har gjort världens första vetenskapliga upptäckt med hjälp av en stor språkmodell, vilket antyder att tekniken bakom ChatGPT och liknande program kan generera information som går utöver mänsklig kunskap. Upptäckten kom från Google DeepMind, där forskare undersöker om stora språkmodeller, som ligger till grund för moderna chattbotar som OpenAI´s ChatGPT och Googles Bard, kan göra mer än att omförpacka information som lärs in under träning och komma med nya insikter. DeepMind skapade ´FunSearch´, som använde en stor språkmodell för att skriva lösningar på problem i form av datorprogram. FunSearch löste två pussel som tidigare varit olösta.

Direktlänk Dela The Guardian fördjupade 14 december

Google lanserar Imagen 2: en förbättrad text-till-bild-teknologi

Google har lanserat Imagen 2, en uppgraderad version av sin text-till-bild-teknologi, med imponerande funktioner som omvandlar ord till fantastiska bilder. Imagen 2, som drivs av intelligent teknik från Google DeepMind, är exklusivt tillgänglig för speciella kunder som använder Vertex AI på Google Cloud. Vertex AI omfattar Googles svit av molnbaserade maskininlärningsprodukter och tjänster. Imagen 2 lovar förbättrad bildkvalitet, flerspråkig textrendering, logogenerering och fler funktioner. Verktyget prioriterar integritet och säkerhet, med funktioner som Googles digitala vattenmärkning.

Direktlänk Dela Mashable India fördjupade 14 december

Google Cloud lanserar avancerad bildgenereringsteknik Imagen 2

Google Cloud har lanserat en betydande uppgradering av sina bildgenereringsförmågor med Imagen 2, deras mest avancerade text-till-bild-teknik, nu tillgänglig för Vertex AI-kunder på tillåtlistan. Utvecklad med Google DeepMind-teknik erbjuder Imagen 2 förbättrad bildkvalitet och en rad funktioner som möjliggör för utvecklare att skapa bilder för specifika användningsområden. Funktionerna inkluderar generering av högkvalitativa, fotorealistiska bilder från naturliga språkpåminnelser, textrendering på flera språk, logogenerering och visuell fråga och svar för generering av bildtexter.

Direktlänk Dela Medium fördjupade 14 december

Google DeepMinds Imagen 2: En revolution inom AI och bildgenerering

Google DeepMinds Imagen 2 representerar en milstolpe inom artificiell intelligens (AI), och sätter nya standarder inom text-till-bild-teknologi. Imagen 2, som är en vidareutveckling av Imagen, använder avancerade maskininlärningsalgoritmer för att omvandla textbeskrivningar till levande, högupplösta bilder med otrolig noggrannhet och detaljrikedom. Tekniken kan tolka och visualisera komplexa och abstrakta koncept och skapar bilder av så hög kvalitet att de ofta matchar eller överträffar de som skapats av mänskliga konstnärer. Detta öppnar upp nya möjligheter inom olika sektorer, inklusive reklam, underhållning och utbildning.

Direktlänk Dela Medium fördjupade 13 december

Google gör andra generationen av AI-modellen Imagen tillgänglig för utvalda Google Cloud-kunder

Google gör den andra generationen av sin AI-modell Imagen, som kan skapa och redigera bilder baserat på textinmatning, mer tillgänglig för utvalda Google Cloud-kunder som använder Vertex AI. Det nya systemet, Imagen 2, har förbättrats avsevärt jämfört med den första versionen, enligt Google. Nya funktioner inkluderar möjligheten att rendera text och logotyper. Imagen 2 kan generera text på flera språk, inklusive kinesiska, hindi, japanska, koreanska, portugisiska, engelska och spanska. Google avslöjar dock inte vilken data som användes för att träna den nya modellen.

Direktlänk Dela TechCrunch fördjupade 13 december

Google DeepMind introducerar AI-verktyg för materialforskning

Google DeepMind har introducerat ett AI-verktyg, Graph Networks for Materials Exploration (GNoME), som kan förutsäga och upptäcka nya material. Denna AI-drivna innovation markerar en viktig förändring i hur vi utforskar och förstår vår världs byggstenar. GNoME representerar en syntes av avancerad artificiell intelligens och den komplexa världen av material, och erbjuder oöverträffade möjligheter att förutsäga nya, stabila material. Denna utveckling är inte bara ett framsteg; det är en komplett paradigmskifte.

Direktlänk Dela Medium fördjupade 13 december

Google introducerar Gemini, en ny AI-modell som överträffar GPT-4

Gemini är Googles nya multimodala AI-modell som kan ta emot text, bilder, videor och ljud och producera utdata i något av dessa format. Gemini överträffar mänskliga experter och OpenAI:s GPT-4 på språkförståelsebenchmarks, vilket gör den till en kraftfull generativ AI-modell. Gemini används redan i Googles chatbot Bard och kommer att vara tillgänglig för utvecklare att prova i Google AI Studio och Google Cloud Vertex AI. Gemini introducerades av Google den 6 december 2023 och kommer i tre storlekar - Ultra, Pro och Nano. Gemini Ultra är den första modellen som överträffar människor på Massive Multitask Language Understanding (MMLU) benchmark med ett resultat på 90,04 procent jämfört med det bästa mänskliga expertresultatet på 89,8 procent och GPT-4:s rapporterade 86,4 procent.

Direktlänk Dela Pocket-lint fördjupade 12 december

Sverige tillsätter AI-kommission för att stärka nationens AI-kompetens

Statsminister Ulf Kristersson (M) har meddelat att Sverige kommer att tillsätta en AI-kommission för att förbättra landets kompetens inom artificiell intelligens (AI). Kommissionens uppdrag kommer att omfatta allt från utbildning och lagstiftning till säkerhet och riskkapital. Kommissionen kommer att ledas av Carl-Henric Svanberg, styrelseordförande för Volvo och tidigare koncernchef för Ericsson. Uppdraget ska redovisas senast den 1 juli 2025.

Direktlänk Dela Ny Teknik fördjupade 11 december

Alphabet lanserar nästa generations AI-modell Gemini

Den 6 december släppte Alphabet första fasen av sin nästa generations AI-modell, Gemini, övervakad och drivet av dess VD Sundar Pichai och Google DeepMind. Gemini är den första modellen som presterar bättre än mänskliga experter på MMLU (Massive Multitask Language Understanding), en av de mest populära metoderna för att testa prestanda för språkmodeller. Gemini kan generera kod baserad på olika inmatningar, generera text och bilder kombinerat och resonera visuellt över språk. Sundar Pichai, VD för Google, sade att Gemini presterar bättre än OpenAI:s ChatGPT. Han framhöll Geminis skicklighet på en uppsättning tester som mäter AI-prestanda på en mängd uppgifter som involverar text och bilder. Utöver sina multimodala kapabiliteter är Gemini utformat för effektivitet och skalbarhet. Dess arkitektur tillåter snabb integration med befintliga verktyg och API:er, vilket gör det till en kraftfull motor för att driva framtida innovationer inom AI. Det finns tre initiala versioner av Gemini: Ultra, den största; Pro, av mediumstorlek; och Nano, som är betydligt mindre och mer effektiv. Googles Bard, en chatbot liknande ChatGPT, kommer att drivas av Gemini Pro. Nano kommer att köras på Googles Pixel 8 Pro-telefon. Reaktionen på sociala medier har varit blandad, med vissa som rapporterar imponerande resultat och andra som noterar pågående hallucinationer.

Direktlänk Dela InfoQ fördjupade 11 december

Mistral AI samlar in 450 miljoner euro, Google presenterar ny AI-modell

Google har presenterat sin nya flaggskeppsmodell för AI, Gemini, men det verkar inte vara så imponerande som företaget först framställde det. En större nyhet är att AI-startupen Mistral AI har lyckats samla in 450 miljoner euro till ett värde av 2 miljarder dollar. Mistral AI, som grundades av tidigare anställda på Google DeepMind och Meta, släppte sin första modell, Mistral 7B, i september. Bolaget har ännu inte lanserat en produkt. Mistral AI:s framgångar anses av många vara ett tecken på bristande inkludering inom AI-sektorn, då företagets grundare alla är vita män. Samtidigt ser investerare Mistral AI och dess tyska rival Aleph Alpha som Europas chans att ta mark inom generativ AI. EU försöker balansera mellan att stödja europeiska AI-företag och att införa regleringar för teknikens utveckling. Mistral AI har förespråkat att generativa AI-modeller ska undantas från reglering, men EU har hittills motstått detta.

Direktlänk Dela TechCrunch fördjupade 9 december

AI-jättarna i konkurrens: OpenAI:s GPT-4 mot Googles Gemini

OpenAI, med ekonomiskt stöd och beräkningskraft från Microsoft, har utvecklat AI-modellen GPT-4 och chatbot-verktyget ChatGPT. Detta har ökat intresset för kommersiell potential av generativ AI, vilket ledde till att Google skapade sin egen AI, Bard. OpenAI har sedan dess förbättrat sina verktyg för både konsumenter och företag, och är nu i konkurrens med andra AI-startups som Anthropic och sin allierade, Microsoft. Trots framgångarna har det funnits oro över att OpenAI avviker från sin ursprungliga mission att skydda mänskligheten mot framväxande teknologi. OpenAI står nu inför utmaningen att visa att dess teknologi är överlägsen Googles.

Direktlänk Dela Medium fördjupade 9 december

Googles chattbot Bard förbättras med ny Gemini-modell

Googles chattbot Bard, som initialt var efter OpenAI:s ChatGPT i popularitet, är inställd på att göra ett betydande framsteg. Nu drivs Bard av Googles nya Gemini-modell och är tillgänglig för engelsktalande användare i 170 länder, med planer på att expandera till fler språk och regioner snart. Bard har gått över till Gemini Pro, en mellannivåmodell inom Gemini-serien. Denna uppgradering, beskriven av Googles Sissie Hsiao, som hanterar Bard och Assistant, markerar en betydande förbättring för Bard. Sundar Pichai, Googles VD, har noterat betydande förbättringar över Bards funktioner, inklusive en bättre förståelse för användaravsikt, ökad faktisk noggrannhet och förbättrad hjälp för kodning. Google planerar att introducera en avancerad version, ´Bard Advanced´, nästa år. Denna version, drivs av den mer robusta Gemini Ultra, kommer att erbjuda multimodala interaktioner, vilket gör att Bard kan bearbeta och skapa text, bilder, ljud och video. Demis Hassabis, chef för Google DeepMind, betonade de inneboende multimodala förmågorna hos Gemini.

Direktlänk Dela Tech Edt fördjupade 9 december

Regeringen presenterar ny AI-kommission ledd av Carl-Henric Svanberg

Regeringen har presenterat sin AI-kommission, ledd av Carl-Henric Svanberg, tidigare VD för Ericsson och ordförande för AB Volvo. Kommissionen ska stärka Sveriges konkurrenskraft inom AI och ska presentera en utredning till regeringen senast den 1 juli 2025. Fackförbundet Akavia har kritiserat kommissionen för att inte fokusera tillräckligt på hur arbetsmarknaden kommer att påverkas av AI.

Direktlänk Dela Computer Sweden fördjupade 9 december

Jämförelse mellan AI-modellerna Gemini och GPT-4

Gemini och GPT-4 är toppmoderna AI-modeller utvecklade av Google DeepMind och OpenAI. Trots att båda modellerna är mycket kapabla finns det viktiga skillnader i deras arkitektur och träning. Gemini är designad för att vara multimodal, medan GPT-4 främst är textbaserad. Gemini har tillgång till Googles enorma databas med träningsdata, vilket ger det en rikare kunskapsbas. Gemini finns i tre storlekar: Ultra, Pro och Nano, medan GPT-4 finns i en storlek. Google hävdar att Gemini har fem gånger GPT-4:s beräkningskraft. Gemini Ultra presterar bättre än GPT-4 på 30 av 32 standardmått för prestanda.

Direktlänk Dela Medium fördjupade 9 december

Alphabet kan bli bästa AI-aktien 2024 med nytt AI-produkt

AI-chipledaren Nvidia har stigit 219% i år, men Alphabet kan vara den bästa AI-aktien att köpa inför 2024. Trots att Alphabet har överträffat marknaden 2023 med en uppgång på 49,3%, är det fortfarande det sämst presterande ´Magnificent Seven´-företaget. Alphabet är dock det billigaste av dessa företag, med en P/E-ratio på endast 25. Dessutom har företaget 120 miljarder dollar i nettokontanter. Alphabet har nyligen släppt sitt nya storskaliga språkmodell för generativ AI, Gemini. Gemini överträffar nuvarande bästa modeller på 30 av 32 övergripande branschstandarder och har en noggrannhet på 90% i MMLU-tester, jämfört med 89,8% för mänskliga experter och 86,4% för ChatGPT-4.0.

Direktlänk Dela The Motley Fool fördjupade 8 december

Google lanserar Gemini AI, en potentiell ChatGPT-konkurrent

Google har lanserat Gemini AI, en uppdaterad och mer kapabel version av företagets tidigare chattbot, Google Bard. Gemini AI, som har utvecklats av Google DeepMind, kommer att erbjudas i tre kategorier: Nano, Pro och Ultra. Nano är den minsta och enklaste versionen, utformad för att integreras i smartphones. Pro-versionen kommer att driva de flesta av Googles tjänster från och med den 13 december. Ultra, som kommer att lanseras 2024, är Googles mest avancerade tjänst och kan bli en stark konkurrent till ChatGPT. Gemini AI kommer att bli ryggraden i Bard-chattbotten och kommer att utöka AI till smartphones och utvecklare.

Direktlänk Dela Technowize fördjupade 8 december

Google lanserar Gemini, en stor AI-språkmodell

Google har tillkännagivit lanseringen av Gemini, en stor AI-språkmodell. Gemini är inte bara en AI-modell. Dess lättare version Gemini Nano körs offline på Android-enheter. En starkare version, Gemini Pro, borde driva många av Googles AI-tjänster. Dessutom är en ännu bättre modell, Gemini Ultra, skräddarsydd för att betjäna datacenter och företagsapplikationer. Från och med den 13 december kommer utvecklare och företagskunder att ha tillgång till Gemini Pro via Google Cloud´s Vertex AI eller Google Generative AI Studio. Gemini är för närvarande endast tillgängligt på engelska; andra språk bör läggas till inom kort. Google hävdar att Gemini är framtidens Google och att det har kommit alldeles för tidigt.

Direktlänk Dela Vibes of India fördjupade 8 december

Google har introducerat Gemini, ett AI-system som kommer att driva företagets olika AI-funktioner och tjänster, som Bard chatbot och Duet AI-assistent. Gemini påstås vara betydligt mer avancerat och kan hantera mer sofistikerade scenarier än inte bara Googles tidigare AI-modeller, men även modeller utvecklade av konkurrenter som OpenAI. Företaget har delat flera videor som visar hur Gemini kan interagera med användare genom handrörelser, bilder, ritningar etc., och hur det kan genomföra komplexa uppgifter som multimodal dialog, lösa visuella pussel, göra kopplingar, logiskt och rumsligt resonemang, översätta visuella bilder och visa kulturell förståelse.

MediaNama fördjupade 8 december

Google släpper sin AI-modell Gemini för att ta ledningen i AI-kapplöpningen

Google har äntligen släppt sin länge emotsedda AI-modell, Gemini. Modellen, som Google hoppas ska sätta dem i täten för AI-kapplöpningen, kan kombinera text, bilder och ljud för att svara på ett brett spektrum av frågor. Enligt en forskningsrapport från Google DeepMind presterar Gemini bättre än OpenAIs ChatGPT på 30 av 32 standardprestandamått. Google och Alphabet CEO Sundar Pichai uttryckte att denna teknikskifte är en möjlighet att främja vetenskaplig upptäckt, påskynda mänsklig framsteg och förbättra liv. Trots detta, är Geminis prestandauppgraderingar bara marginellt bättre än OpenAI. Dessutom kommer Gemini att släppas i en stegvis process, med början på engelsk integration över Bard, Googles befintliga AI-chattbot, och inom Pixel-enheter.

Direktlänk Dela PYMNTS fördjupade 8 december

Google lanserar Gemini: överträffar GPT-4 inom AI

Google har tagit ett stort kliv inom artificiell intelligens med lanseringen av Gemini, sin senaste AI-modell. Google VD Sundar Pichai och Google DeepMind VD och medgrundare Demis Hassabis meddelade detta i ett företagsblogginlägg den 6 december, och positionerar Gemini som en modell som överträffar OpenAI:s GPT-4. Gemini utmärker sig för sin optimering över olika storlekar och användningsområden, inklusive Ultra, Pro och Nano-versioner. Googles chefsvetenskapsman Jeff Dean framhävde att Gemini Ultra är den första modellen att uppnå ett så högt resultat över 57 ämnen på MMLU-testet.

Direktlänk Dela Financial-world.org fördjupade 7 december

Google uppgraderar sin Bard-chatbot med ny AI-modell Gemini

Google har uppgraderat sin Bard-chatbot med en ny AI-modell kallad Gemini, som sägs kunna ´resonera´ bättre än ChatGPT och andra konkurrenter. Det är den första AI-modellen som presterar bättre än mänskliga experter inom vissa områden som problemlösning, matematik, fysik, historia, lag, medicin och etik, enligt Eli Collins, vice vd för produkt på Google DeepMind. En ´Ultra´-version av Gemini har visat överlägsen prestanda jämfört med andra toppmodeller i 30 benchmarktest. Bard kommer att använda Gemini för mer avancerad resonemang, planering och förståelse, och kommer att vara tillgänglig på engelska i över 170 länder och territorier.

Direktlänk Dela Taipei Times fördjupade 7 december

Google Gemini - Alphabet presenterar sin mest avancerade AI-modell hittills, konkurrerar med GPT-4

Alphabet CEO Sundar Pichai har presenterat Googles senaste AI-produkt, Gemini. Gemini är en ny ´multimodal´ AI-modell som kan hantera text, bild och ljudinmatning. Teknikjätten har positionerat den nya tekniken som en rival till OpenAI´s GPT-4. Gemini presterade bättre än GPT-4 i flera nyckeltester. Efter att OpenAI lanserade ChatGPT i november 2022, var konkurrenterna tvungna att svara. Google presenterade sin mest avancerade AI-modell än, Gemini, den 6 december. En fullständig offentlig lansering och integration med Bard planeras för de kommande veckorna.

Direktlänk Dela CryptoCoinNews fördjupade 7 december

Alphabet introducerar Gemini, dess största och mest kraftfulla AI-modell

För att konkurrera med OpenAI:s GPT-4 och Metas Llama 2 på den framväxande marknaden för artificiell intelligens, introducerade Alphabet, moderbolaget till Google, Gemini, sin största och mest kraftfulla AI-modell hittills, den 6 december. Med sammanläggningen av DeepMind och Google Brain till Google DeepMind, som nu leds av Demis Hassabis, är detta Alphabets första AI-modell. Gemini är Googles största och mest kapabla AI-modell.

Direktlänk Dela NewsroomPost fördjupade 7 december

Google lanserar Gemini AI-modell, överträffar OpenAI’s GPT-4

Google har presenterat en ny generativ AI-modell kallad Gemini. Enligt Google VD Sundar Pichai och Google DeepMind VD Demis Hassabis presterar Gemini bättre än OpenAI’s GPT-4 och alla andra modeller på flera viktiga mätpunkter. Gemini är en AI-modell som liknar OpenAI’s GPT-4, GPT-4V, och GPT-4 Turbo, men inte en AI-chattbot som OpenAI’s ChatGPT. Gemini driver nu Google Bard och dess förmåga inom audio och visuella vertikaler kan potentiellt överträffa ChatGPT. Gemini kommer i tre versioner: Gemini Ultra, Gemini Pro och Gemini Nano. Gemini kan skriva kod, generera AI-bilder och översätta språk.

Direktlänk Dela PC Guide fördjupade 7 december

Google DeepMind har lanserat Gemini, deras mest avancerade och största AI-modell hittills. Gemini är multimodal och kan förstå och integrera en mängd olika typer av information, inklusive text, bilder, ljud, video och kod. Modellen finns tillgänglig i tre storlekar - Ultra, Pro och Nano. Under testning överträffade Gemini Ultra de nuvarande ledande resultaten i 30 av 32 centrala akademiska riktmärken som ofta används inom forskning och utveckling av stora språkmodeller (LLM). Gemini har redan integrerats i flera av Googles viktigaste produkter.

Open Source For You fördjupade 7 december

Google presenterar Gemini Ultra AI; din Google Bard-upplevelse förbättras

Google har lanserat sin nästa generations AI-modell, Gemini, i tre storlekar - Nano, Pro och Ultra. Gemini Nano kan köras direkt på Android-enheter som Google Pixel-telefon, medan Gemini Pro har integrerats i Google Bard, företagets egen AI-chattbot. Gemini Ultra är den mest avancerade versionen och enligt Google är den kraftfullare än ChatGPT och den mest kraftfulla stora språkmodellen (LLM) som någonsin skapats. Gemini Ultra har utvecklats av Google DeepMind i samarbete med andra team, inklusive Google Research. Det har tränats på AI-optimerad infrastruktur med hjälp av företagets egendesignade Tensor Processing Units (TPUs) v4 och v5e. Google har redan integrerat Gemini Pro i Bard och förbättrar olika aspekter av AI-chattboten, inklusive förståelse, sammanfattning, resonemang, kodning och planering.

Direktlänk Dela Hindustan Times Tech fördjupade 7 december

Google lanserar Gemini AI-modeller, men inte tillgängliga i Europa ännu

Google har lanserat sin efterlängtade Gemini AI-modellserie som svar på OpenAI:s ChatGPT. Men på grund av regulatoriska hinder kommer dessa modeller inte att vara tillgängliga i Europa ännu. Google kallar Gemini för ´den mest kapabla modellen någonsin´ och säger att den har tränats för att känna igen, förstå och kombinera olika typer av information, inklusive text, bilder, ljud, video och kod. Enligt Demis Hassabis, VD för Google DeepMind, är den lika bra som de bästa mänskliga experterna inom de 50 olika ämnesområden som de testade modellen på.

Direktlänk Dela The Next Web fördjupade 7 december

Google lanserar avancerad AI-modell Gemini

Google lanserade i december 2023 Google Gemini, sin mest avancerade AI-modell hittills. Modellen inkluderar tre versioner: Ultra, Pro och Nano. Ultra-versionen presterar bättre än OpenAI:s GPT-4, medan Pro-versionen används i Bard och Nano kommer att finnas i Pixel 8 Pro. Google har integrerat Gemini i olika produkter och planerar att inkludera den i fler produkter som Chrome, Search, Ads och Duet AI. Gemini API kommer att vara tillgängligt för utvecklare och företagskunder från och med den 13 december.

Direktlänk Dela Editorji fördjupade 7 december

Google introducerar nästa generations AI-system, Gemini

Google har introducerat sitt nästa generations AI-system, Gemini, efter att ha blivit slagen av en konkurrent i lanseringen av den första generativa AI-chatten. Gemini kommer i olika versioner anpassade för olika enheter. Google har också introducerat AlphaCode 2, ett nytt kodgenererande system inom Gemini, som överträffade cirka 85% av konkurrenterna i olika kodningstävlingar. Dessutom presterade Gemini´s Ultra-version bättre än ChatGPT version 4.0 i 30 av 32 branschstandardtester. Google planerar att släppa AI-modellen för sina företagskunder, med fokus på tillförlitlighet och effektivitet.

Direktlänk Dela Fossbytes fördjupade 7 december

Alphabet presenterar Gemini, sin mest kapabla AI-modell hittills

Alphabet, Googles moderbolag, har avtäckt sin största och mest kapabla AI-modell hittills, Gemini. Modellen är resultatet av sammanslagningen av företagets AI-forskningsenheter DeepMind och Google Brain till en enda division som kallas Google DeepMind, ledd av VD Demis Hassabis. Gemini kan arbeta med och förstå olika typer av information som bilder, ljud, text, kod och video, samtidigt. Modellen kommer att finnas tillgänglig i tre olika storlekar: Ultra, Pro och Nano. Gemini Ultra görs för närvarande tillgänglig för utvalda kunder, partners, utvecklare och säkerhetsexperter för tidig experiment och feedback.

Direktlänk Dela Storyboard18 fördjupade 7 december

Google presenterar Gemini, den mest kapabla AI-modellen hittills

Google har presenterat Gemini, dess största och mest kapabla AI-modell hittills. Modellen har sofistikerade multimodala resonemangsförmågor och mer säkerhet i kärnan. Gemini är resultatet av storskaliga samarbetsinsatser av team över hela Google, inklusive Google Research. Modellen kan generalisera och förstå, verka över och kombinera olika typer av information, inklusive text, kod, ljud, bild och video. Gemini 1.0 har optimerats för tre olika storlekar: Gemini Ultra, Gemini Pro och Gemini Nano. Modellen rullas redan ut i Google-produkter, som Bard-chatboten och Pixel-smartphones.

Direktlänk Dela Mint fördjupade 7 december

Google introducerar Gemini, en ny AI-modell för att förbättra sina produkter

Google introducerar Gemini, företagets senaste stora språkmodell. Gemini kommer i tre storlekar för olika ändamål: Nano, Pro och Ultra. Utvecklare och företagskunder kan få tillgång till Gemini Pro via Google Generative AI Studio eller Vertex AI i Google Cloud från och med den 13 december. Gemini kommer så småningom att integreras i Googles sökmotor, annonsprodukter, webbläsaren Chrome och mer. Gemini är för närvarande endast tillgängligt på engelska, men andra språk kommer snart att läggas till.