» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 133 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «
Stanford University är ett privat forskningsuniversitet beläget i Stanford, Kalifornien, USA. Det grundades 1885 av Leland och Jane Stanford till minne av deras son. Universitetet är känt för sin starka ingenjörs- och datavetenskapsutbildning samt för att vara en inkubator för teknikföretag. Det har producerat många framstående akademiker, företagsledare och entreprenörer. Stanford är också känt för sitt vackra campus och idrottsprogram. Det rankas regelbundet som ett av världens främsta universitet och har en lång historia av akademisk excellens och innovation.
Senaste nytt kring Stanford University
Amazon lanserar AI-driven chattbot som svar på konkurrenter
Amazon har lanserat Q, en företagschattbot drivs av generativ artificiell intelligens (AI), som svar på konkurrenter som har lanserat populära chattbotar. Q kan bland annat syntetisera innehåll, strömlinjeforma daglig kommunikation och hjälpa anställda med uppgifter som att generera blogginlägg. Amazon har även investerat upp till 4 miljarder dollar i AI-startupen Anthropic och lanserar nya tjänster, inklusive en uppdatering för assistenten Alexa för mer mänskliga konversationer. Trots detta rankades Amazon längst ned i ett index från Stanford University som mätte transparensen hos de tio främsta grundläggande AI-modellerna.

AI-baserad app förbättrar insulinhantering och glykemisk kontroll hos typ 2-diabetespatienter
En patientinriktad röstbaserad konversations-AI (VBAI) applikation som tillhandahåller autonom basalinsulintitrering förbättrade tiden till optimal insulindosering, insulinföljsamhet och glykemisk kontroll bland vuxna med typ 2-diabetes jämfört med standardvård. Studien genomfördes vid fyra primärvårdskliniker på ett akademiskt medicinskt centrum från mars 2021 till december 2022. Trettio-två vuxna med typ 2-diabetes som behövde en gång daglig basalinsulinstart eller justering tilldelades slumpmässigt att använda VBAI-appen eller få standardvård i 8 veckor. Resultaten publicerades online den 1 december 2023 i JAMA Network Open.
Två strategier för att förbättra AI
Artificiell intelligens (AI) har blivit allt mer vanligt och har utvecklats från koncept till praktik sedan 1950-talet. Med ökningen av molnteknologi och förmågan att lagra och använda stora mängder data är AI annorlunda idag. Trots att vi kan ha världens bästa AI och maskininlärningsalgoritmer, utan stora mängder data att agera på, är de värdelösa. Men nu har vi både, och de hjälper AI att bli bättre. Här är två strategier som kan hjälpa till att förbättra AI: 1. Fokusera på domäner och datavetenskap för att förstärka AI. 2. Kombinera exponering och erfarenhet.
Artificiell intelligens kan transformera sjukvården, menar experter
Robert Wachter, ordförande för UC San Franciscos medicinska skola, och Erik Brynjolfsson, Ph.D., direktör för Digital Economy Lab vid Stanford University, tror att generativ AI har potential att transformera sjukvården på sätt tidigare teknologier inte kunnat. I en artikel publicerad i JAMA argumenterar de för att generativ AI - AI som kan producera högkvalitativ text, bilder och annat innehåll oberoende av data den tränats på - har unika egenskaper som troligen kommer att förkorta den vanliga fördröjningen mellan löfte och resultat, vilket leder till produktivitetsvinster istället för flaskhalsar.
OpenAI:s topphemliga projekt Q* väcker oro och spekulationer
Efter att Sam Altman återinstallerades som VD för OpenAI förra veckan, rapporterades det om ett hemligt projekt vid företaget som skakat forskare med sin potentiella förmåga att lösa svåra problem på nya kraftfulla sätt. Projektet, känt som Q*, har beskrivits som en genombrott som kan leda till mycket kraftfullare AI-modeller. En del forskare har uttryckt oro över Q*´s potentiella makt. Det spekuleras att Q* kan vara relaterat till ett projekt som OpenAI tillkännagav i maj, som visade kraftfulla nya resultat från en teknik som kallas ´processövervakning´.
En kort guide till terminologin inom artificiell intelligens
Artikeln presenterar en guide till terminologi inom området artificiell intelligens (AI). Den uttrycker åsikterna hos författarna och reflekterar inte nödvändigtvis IMF: s policy. Källorna inkluderar Coursera´s ´Artificial Intelligence (AI) Terms: A to Z Glossary´, Christopher Mannings ´Artificial Intelligence Definitions´ från Stanford University Human-Centered Artificial Intelligence glossary, och McKinsey Digitals ´The Economic Potential of Generative AI: The Next Productivity Frontier´.
AI hotar att ersätta kontorsjobb snabbare än förväntat
Kontorsjobb, som länge ansågs säkra från AI, hotas nu snabbare än många förutspådde. Enligt en rapport från Goldman Sachs kan generativa AI-verktyg som OpenAI:s ChatGPT öka det globala BNP med upp till 7% och ersätta 300 miljoner heltidsarbetare. I december kommer startup-företaget Artisan AI att introducera sin första ´Artisan´, en AI-driven digital arbetare, som är utformad för att integrera med mänskliga team. ´Ava´, som den första Artisan kallas, kommer att automatisera arbetet för en försäljningsrepresentant.
ChatGPT: AI:s ´iPhone-ögonblick´ och dess inverkan på tekniksektorn
För ett år sedan debuterade en mycket snabb och flytande chatbot kallad ChatGPT, vilket har blivit det viktigaste ögonblicket för Silicon Valley sedan lanseringen av Apples iPhone 2007. ChatGPT, som använder en teknik som kallas generativ AI, och dess senaste iterationer och kopior har stört hierarkierna i nästan alla tekniksektorer, inklusive halvledare, konsument, hårdvara, mjukvara och molnet. Tekniken har också återuppväckt startup-gemenskapen, särskilt i San Francisco, med nya idéer och finansiering. Företag experimenterar och använder AI för att eliminera jobb och bli mer effektiva. Morgan Stanley sade förra månaden att det tror att 44% av arbetskraften kommer att påverkas under de närmaste åren, med en ekonomisk inverkan på $2,1 biljoner, så småningom stigande till $4,1 biljoner.
OpenAI:s GPT-4 uppfattas som ´latare´ av användare
OpenAI har varit i rampljuset under november på grund av olika kontroverser. Användare har uttryckt missnöje med språkmodellen GPT-4, som de menar har blivit ´latare´. Användare har rapporterat att GPT-4 vägrar flera förfrågningar eller ger ofullständiga svar på detaljerade frågor. Dessutom har det rapporterats att språkmodellen använder andra verktyg än de den har instruerats att använda. En studie i samarbete med Stanford University och University of California, Berkeley, visade att noggrannheten hos GPT-4 sjönk från 97,6% till 2,4% mellan mars och juni. Samtidigt menar Peter Welinder, vice VD för produkter på OpenAI, att tunga användare kan uppleva en psykologisk effekt där svarens kvalitet verkar försämras över tid när språkmodellen faktiskt blir mer effektiv. Användare har föreslagit många idéer för att förklara varför GPT-4 för närvarande upplever komplikationer, allt från att OpenAI sammanfogar modeller till en fortsatt serveröverbelastning.
Amazon lanserar företagschattbot drivet av generativ AI
Amazon meddelade vid en konferens i Las Vegas att de kommer att lansera en företagschattbot vid namn Q, som drivs av generativ AI. Detta är Amazons svar på konkurrenter som har lanserat chattbotar som har fångat allmänhetens uppmärksamhet. Q kan bland annat syntetisera innehåll, effektivisera daglig kommunikation och hjälpa anställda med uppgifter. Tekniken är för närvarande tillgänglig för förhandsgranskning. Även om Amazon ligger före konkurrenter som Microsoft och Google som den dominerande leverantören av molnbaserad databehandling, betraktas de inte som ledande inom AI-forskning.
Amazon lanserar AI-drivet chattbot Q som svar på konkurrenter
Amazon har tillkännagivit lanseringen av Q, en företagschattbot drivet av generativ artificiell intelligens (AI), som svar på konkurrenter som introducerat populära chattbotar. Q kan bland annat skapa innehåll, effektivisera daglig kommunikation och hjälpa anställda med uppgifter som att skapa blogginlägg. Företag kan också koppla Q till sina egna data och system för en mer relevant upplevelse. Tekniken är för närvarande tillgänglig i förhandsvisning. Trots att Amazon är ledande inom molnbaserad databehandling, anses företaget inte vara ledande inom AI-forskning som lett till framsteg inom generativ AI.
Amazon lanserar AI-driven chattbot för företag
Teknikjätten Amazon har meddelat att de kommer att lansera Q, en företagschattbot som drivs av generativ artificiell intelligens (AI). Meddelandet, som gjordes vid en årlig konferens i Las Vegas för företagets AWS molnberäkningstjänst, representerar Amazons svar på konkurrenter som har rullat ut chattbotar som har fångat allmänhetens uppmärksamhet. Amazon sade att Q kan göra saker som att syntetisera innehåll, effektivisera daglig kommunikation och hjälpa anställda med uppgifter som att generera blogginlägg. Tekniken är för närvarande tillgänglig för förhandsgranskning.
FTC granskar potentiella hot mot konkurrensen från AI
Federal Trade Commission (FTC) har nyligen inlämnat ett yttrande till U.S. Copyright Office angående artificiell intelligens (AI) och upphovsrätt. FTC fokuserar på potentiella hot mot konkurrensen från AI och eventuella orättvisa upphovsrättsliga metoder som involverar AI. Enligt FTC kan vissa handlingar som involverar AI bryta mot avsnitt 5 i Federal Trade Commission Act, även om de är i linje med upphovsrättslagen. FTC varnar att det kommer att använda hela sitt befogenhetsområde för att skydda amerikaner från vilseledande och orättvisa metoder.
Stora språkmodeller förändrar reklamindustrin men har begränsningar
Reklamindustrin har förändrats kraftigt av generativa AI-verktyg som bygger på stora språkmodeller (LLM). LLM har visat en fantastisk förmåga att lära sig från text- och bildbaserade data märkta med text, vilket möjliggör att produkter som ChatGPT kan generera text mycket snabbt, täcka ett enormt utbud av ämnen på många språk, inklusive programmeringskod. Enligt den senaste årliga McKinsey Global Survey använder marknadsförare främst generativ AI för orduppgifter, såsom att skapa första utkast av textdokument, personliggöra meddelanden och sammanfatta dokument. Men trots att LLM visar sig vara användbart för att brainstorma meddelanden, generera bilder och andra kreativa applikationer inom marknadsföring, är de mindre lämpliga för att lösa grundläggande utmaningar inom programmatisk reklam, som kräver inlärning från och svar på numeriska data, inte ord.
OpenAI:s VD Sam Altman: Från skolavhopp till tech-miljonär
Sam Altman, VD för det artificiella intelligensföretaget OpenAI, har varit i rampljuset efter att ha blivit avskedad, kortvarigt anställd av Microsoft och sedan återanställd av OpenAI. Altman växte upp i St Louis, Missouri och kom ut som homosexuell i gymnasiet. Han hoppade av Stanford University 2005 för att fokusera på sitt företag Loopt, som senare såldes för 43 miljoner dollar. Altman, som nu är 38 år gammal, har en uppskattad förmögenhet på omkring 500 miljoner dollar och äger bland annat två McLaren-bilar och en gammal Tesla. Han bor med sin partner Oliver Mulherin, en mjukvaruingenjör, i San Francisco.
Kaliforniens guvernörskontor släpper rapport om generativ AI
Kaliforniens guvernörskontor har släppt en rapport om möjligheter och potentiella fallgropar med generativ artificiell intelligens (AI). Rapporten är den första i en serie informativa rapporter krävda av verkställande order N-12-23, utfärdad den 6 september i år. Rapporten innehåller fyra tillfälliga principer för användning av generativ AI, inklusive skydd av kaliforniers data och säkerhet, användning av statligt godkända AI-verktyg, förklaring av hur AI-system bidrar till leverans av statliga tjänster och granskning av AI-produkter för noggrannhet. Rapporten diskuterar också skillnaden mellan framväxande generativ AI och konventionell AI.
Fei-Fei Li diskuterar utmaningar och framtid för generativ AI
Fei-Fei Li, pionjär inom generativa AI-modeller och medgrundare av Stanford University´s Institute for Human-Centred Artificial Intelligence, diskuterar utmaningarna som ligger framför generativ AI. För ett år sedan tog lanseringen av ChatGPT världen med storm, följt av flera generativa AI-verktyg med mänsklika förmågor. Rädslan för AI:s existentiella risker har dominerat den globala diskussionen kring tekniken sedan dess. Li förespråkar ett mänskligt centrerat sätt att hantera AI, som ett verktyg för att förbättra och inte ersätta mänskligheten, med fokus på utmaningar som desinformation, snedvridning och jobbstörningar. Li och hennes forskargrupp skapade ImageNet, en enorm databas med bilder som gjorde det möjligt för datorvetare att bygga algoritmer som kunde se och känna igen föremål i den verkliga världen.
OpenAIs grundare Sam Altman återvänder till företaget efter avsked
Sam Altman, den tidigare ledaren för OpenAI, företaget bakom ChatGPT, återvänder till företaget efter att ha blivit sparkad förra veckan. Altman, som grundade OpenAI, har blivit en av de mest framstående personerna inom artificiell intelligens (AI). Han började sin karriär i teknikvärlden 2005 när han hoppade av Stanford University för att starta företaget Loopt, en geolokaliseringstjänst. Loopt lyckades samla in över 30 miljoner dollar i riskkapital innan det köptes upp av Green Dot Corporation för över 40 miljoner euro. Altman kommer nu tillbaka till OpenAI som VD, med ett nytt initialt styrelse bestående av tidigare Salesforce co-VD Bret Taylor, tidigare USA:s finansminister Larry Summers och Quoras VD Adam D’Angelo. Trots Loopts misslyckande gjorde det att Altman kunde etablera sig i Silicon Valley. Två år senare valdes han till efterträdare till Y Combinators president, den amerikanska datavetaren Paul Graham. Tre år senare grundade Altman tillsammans med Tesla-chefen Elon Musk, LinkedIn-medgrundaren Reid Hoffman och andra sponsorer OpenAI, ett forsknings- och implementeringsföretag för AI. Altman har sagt att de senaste och mest avancerade versionerna av ChatGPT kommer att rullas ut mycket gradvis för att få människor, institutioner och beslutsfattare att bekanta sig med det. Han anser att revolutionen som utlösts av ´allmän artificiell intelligens´ (AGI) är ´ostoppbar´.
OpenAI:s Ilya Sutskever ångrar sin roll i Sam Altmans avsked
Ilya Sutskever, chefsforskare på OpenAI, har uttryckt ånger över sin roll i avskedandet av före detta VD:n Sam Altman. Sutskever och Altman grundade OpenAI 2016 med hjälp av Elon Musk. Styrelsen för OpenAI, där Sutskever är medlem, beslutade att avskeda Altman på grund av bristande förtroende för hans ledarskap. Efter några dagar uttryckte Sutskever sin ånger över att ha deltagit i avskedandet. Han är nu en av över 600 anställda på OpenAI som har skrivit under ett öppet brev där de hotar att säga upp sig om inte styrelsen avgår och återinsätter Altman som VD.
Forskare vid Stanford University optimerar FFT-konvolutionsmetod för bättre sekvensmodellering
Forskare vid Stanford University undersöker hur FFT-konvolutionsmetoden kan optimeras på moderna acceleratorer för att förbättra sekvensmodellering. De menar att optimering av FFT-konvolutionen kan leda till nya och bättre algoritmer och förbättra kvaliteten på konvolutionella sekvensmodeller. Forskarna introducerar FlashFFTConv, en ny algoritm som använder en Monarch-dekomposition av FFT för att optimera FFT-konvolutionen för utökade sekvenser. FlashFFTConv kan hantera sekvenser från 256 till 4 miljoner tecken långa och förbättrar kvaliteten och effektiviteten av konvolutionella sekvensmodeller.
Stanford-forskare skapar BLASTNet, en stor dataset för att träna AI-modeller för vätskedynamik
Forskare vid Stanford University har skapat BLASTNet, den första stora dataseten anpassad för att träna maskininlärningsmodeller för grundläggande vätskedynamik. Datasetet, som är fem terabyte stort, är avsett att förbättra förutsägelser och simuleringar inom områden som raketforskning, oceanografi och klimatmodellering. Wai Tong Chung, doktorand i maskinteknik och första författare till en ny preprint-artikel som introducerar datasetet, säger att BLASTNet kan hjälpa till att påskynda övergången till en koldioxidfri framtid. BLASTNet är tillgängligt på GitHub.
Sam Altman, tidigare VD för OpenAl, skapar rubriker på internet
Sam Altman, tidigare VD för OpenAl, har nyligen blivit ett populärt namn på internet och sociala medier. OpenAl, företaget som skapade den artificiella intelligensen ChatGPT, avskedade Altman på fredagen. Styrelsen uttryckte att de inte längre hade förtroende för hans förmåga att leda OpenAl. Altman är en amerikansk entreprenör och investerare som föddes 1985 och växte upp i St. Louis. Han deltog i John Burroughs School och Stanford University, men hoppade av utan att få en kandidatexamen. Altman var tidigare VD för OpenAl från 2019 till 2023 och president för Y Combinator från 2014 till 2019.
OpenAI sparkar Sam Altman efter oenigheter med styrelsen
OpenAI har avskedat Sam Altman efter omfattande oenigheter mellan VD:n och hans styrelse, särskilt Ilya Sutskever, en av OpenAIs grundare och företagets chefsforskare. Debatterna inkluderade skillnader i åsikter om AI-säkerhet, teknikens utvecklingstakt och företagets kommersialisering. Dessa tvister speglar långvariga klyftor inom OpenAI om ansvarsfull utveckling av kraftfulla AI-verktyg. Liknande tvister om säkerhet och kommersialisering är orsaken till att Elon Musk bröt banden med OpenAI 2018 och varför en grupp anställda lämnade 2020 och startade rivaliserande Anthropic. Företagets president, Greg Brockman, avgick på fredagen efter Altmans avskedande.
Globala ledare och teknikjättar diskuterar AI:s framtid på APEC-konferensen
Under Asia-Pacific Economic Cooperation (APEC) konferensen i San Francisco, diskuterade president Joe Biden och andra globala ledare med teknikjättar om artificiell intelligens (AI) och dess framtid. Trots kollektiv expertis, fanns det inga konkreta svar på huruvida AI kommer att vara en katalysator för mänsklighetens framsteg eller en dystopisk mardröm. Microsofts VD Satya Nadella och Googles VD Sundar Pichai var optimistiska om AI:s potential. Deras entusiasm återspeglas av investerare som satsar på att AI kommer att gynna Microsoft och Google. Emellertid var perspektivet från utanför teknikindustrin mer försiktigt.
Artificiell intelligens och medicin: Vikten av data, patientintegritet och inlärningssäkerhet
I en intervju diskuterar Nigam Shah, professor i medicin vid Stanford University och chef för dataforskning vid Stanford Health Care, den snabbt utvecklande skärningspunkten mellan artificiell intelligens (AI) och medicin. Shah betonar att AI behöver en ´diet´ av lämpligt innehåll för att fungera effektivt och med så lite bias som möjligt. Detta innebär att säkerställa säkerheten för klinisk information och patientintegritet, samt en vilja från patienter att dela sina anonyma data för det allmänna bästa. Shah har skrivit om hur AI kan främja förståelsen av sjukdomar samt förbättra klinisk praxis och leverans av hälsovård.
Storbritannien leder internationellt genombrott för AI-säkerhet
Under UK AI Safety Summit förra veckan tog Storbritannien ledningen för att minska riskerna och säkra större fördelar från artificiell intelligens (AI). Mötet, som värd var premiärminister Rishi Sunak, samlade högre regeringstjänstemän, ledare för stora AI-företag och civilsamhällets ledare för att lägga grunden för ett internationellt AI-säkerhetsregime. Resultatet var ett gemensamt åtagande av 28 regeringar och ledande AI-företag att utsätta avancerade AI-modeller för en rad säkerhetstester innan de släpps. Dessutom tillkännagavs inrättandet av ett nytt brittiskt AI-säkerhetsinstitut och en stor satsning på regelbundna, vetenskapsledda bedömningar av AI-förmågor och säkerhetsrisker.
AI-pionjären Fei-Fei Li berättar sin historia i ny självbiografi
Fei-Fei Li, en pionjär inom modern artificiell intelligens (AI), har skrivit en självbiografi som berättar om hennes liv och utvecklingen av AI. Hon är professor i datavetenskap vid Stanford University och specialiserar sig på datorseende. Hon är också medgrundare av Stanford’s Institute for Human-Centered Artificial Intelligence och AI4ALL, en ideell organisation som syftar till att öka mångfalden av människor som bygger AI-system. Li menar att AI är ett verktyg som skapats av människor och därmed också styrs av människor. Hon tar inte ansvar för hur all AI används men känner ett ansvar för att ta upp viktiga frågor.
Nvidia och AMD:s VD:ar är släkt
Jensen Huang och Lisa Su, VD:ar för Nvidia och AMD, två av de mest inflytelserika personerna inom global AI-chipindustri, är släkt. Denna koppling uppmärksammades först av Su 2020 och har nyligen detaljerats av Jean Wu, en taiwanesisk genealog. De växte inte upp tillsammans, vilket kan göra det lättare då de nu konkurrerar mot varandra inom en av världens mest iakttagade sektorer. Deras gemensamma familjehistoria har rötter i Taiwan, en ö som alltmer hamnar mellan USA och Kina i kampen om teknisk överlägsenhet.
GPT-4 modellens prestanda minskar betydligt
En studie från Stanford University visar att språkmodellen GPT-4, som ligger till grund för chatboten, har blivit mycket ´dummare´ mellan mars och juni 2023. I mars kunde modellen svara korrekt på 97,6% av frågorna, men i juni sjönk denna siffra till 2,4%. Å andra sidan har språkmodellen GPT-3.5 förbättrats i de flesta uppgifter, trots att den också har problem. Forskarna testade chatboten genom att ställa olika frågor och utvärdera svarens korrekthet. Det är oklart varför denna minskning har skett och om OpenAI kommer att vidta några åtgärder.
Fei-Fei Li, förespråkare för AI med insikt om behovet av reglering
Fei-Fei Li, en datavetenskapsprofessor vid Stanford University och medledare för dess Institute for Human-Centered Artificial Intelligence, positionerar sig själv i mitten av den intensiva debatten om artificiell intelligens (AI) påverkan på samhället. Hon är varken en ´doomer´ som Geoffrey Hinton, som oroar sig för att maskinerna vi skapat kommer att förstöra oss, eller en obegränsad teknikoptimist som Marc Andreessen, som jämför reglering av AI med att hindra framsteg. Istället är Li en entusiastisk förespråkare för AI som ser visdomen i återhållsamhet.
AI-experten Ronald Kneusel förklarar hur stora språkmodeller fungerar
AI-experten Ronald Kneusel förklarar i sin bok ´How AI Works: From Sorcery to Science´ hur stora språkmodeller (LLM) som OpenAI´s ChatGPT och Google Bard fungerar. LLM använder transformer neurala nätverk för att bearbeta inmatningstext och identifiera komplexa relationer och mönster i massiva datauppsättningar. Detta möjliggör utvecklingen av imponerande och kraftfulla AI-chattrobotar. Forskare vet dock fortfarande inte exakt hur LLM som GPT-4 fungerar, vilket gör att frågor om hur de resonerar, planerar och skapar fortfarande saknar övertygande svar.
AI-debatt intensifieras kring reglering och ´regulatory capture´
Två stora händelser har intensifierat debatten om reglering av artificiell intelligens (AI). Storbritanniens premiärminister Rishi Sunak höll ett toppmöte om AI, vilket resulterade i ett avtal om säkerhetstestning av nya mjukvarumodeller. Samtidigt presenterade Biden-administrationen en verkställande order med regleringsinitiativ för AI, inklusive företagens åtagande att säkerhetstesta mjukvarumodeller. Kritiker menar att dessa försök att hantera AI har påverkats för mycket av företagsstödd ´doomerism´. Enligt denna teori använder företag som Google, Microsoft och OpenAI skrämselpropaganda om AI för att kväva öppen forskning och göra det för svårt för mindre startups att verka. Elon Musk, AI-finansiär och internet troll, gav också sina synpunkter, och hävdade att han ´håller med om de flesta´ regler men att regeringen bör spela en roll när allmänhetens säkerhet är i fara.
AI-masterprogram i USA: Ranking och avgifter
En masterexamen i artificiell intelligens (AI) fördjupar sig i både teoretiska och praktiska aspekter av AI. AI, en ledande kraft i teknikrevolutionen, omfattar underfält som maskininlärning, stora data och djupinlärning, vilket skapar spännande karriärvägar såsom maskininlärningsingenjörer och stordataanalytiker. USA är ett populärt resmål för AI-utbildning på grund av dess historia av tekniska framsteg, världsledande universitet, banbrytande forskning, världsklass lärare och robust tekniskt ekosystem. De topprankade AI-masterprogrammen i USA inkluderar Carnegie Mellon University, Massachusetts Institute of Technology (MIT), Stanford University, University of Georgia, University of California, San Diego, University of Pennsylvania och University of Southern California. Dessa program varierar i kostnad, från $26,900 till $49,050 om alla valbara kurser tas vid MIT.
AI-toppmöte på Bletchley Park slutar med löfte om fler toppmöten
Storbritanniens premiärminister Rishi Sunak har avslutat sin mycket omtalade AI-toppmöte på Bletchley Park. Resultatet verkar vara ett löfte om att hålla fler toppmöten. Under veckorna som ledde upp till toppmötet betonade Sunak upprepade gånger de potentiella riskerna som artificiell intelligens kan utgöra för samhället. Det huvudsakliga resultatet var det nya Bletchley-deklarationen, som undertecknades av 28 nationer, inklusive Kina och USA, och Europeiska unionen. Dokumentet gör dock inte mycket mer än att erkänna att det finns risker och lovar att utforska dem. Det enda konkreta åtgärden som lovas i formuleringen är att hålla fler toppmöten i framtiden.
Företag anpassar AI för mer effektiv användning
Företag ändrar sin strategi för att anpassa AI, med fokus på effektiv användning snarare än att vara först. Johnson & Johnson skapar bibliotek med instruktioner för att förbättra AI:ns prestanda, medan andra företag som Starbucks skapar egna modeller. Christopher Manning, professor vid Stanford University, betonar vikten av att ge tydliga instruktioner till AI. Företag som Ernst & Young tar detta ett steg längre genom att skapa en specialiserad AI-plattform, EY.ai, med hjälp av Microsofts Azure OpenAI. Beatriz Sanz Sáiz, global ledare för data och AI-konsultation på Ernst & Young, tror att personalisering av AI-modeller kommer att vara avgörande för företagens framtida användning av AI.
AI-bildverktyg förstärker stereotyper och föråldrade klichéer
Artificiell intelligens (AI) bildverktyg tenderar att förstärka störande stereotyper och klichéer, vilket reflekterar den data som används för att träna tekniken. Stabilitets AI, tillverkaren av den populära bildgeneratorn Stable Diffusion XL, meddelade att de har gjort en betydande investering i att minska bias i sin senaste modell. Trots förbättringar har verktyget inte slutat att överföra stereotyper till basobjekt. Christoph Schuhmann, medgrundare av LAION, en ideell organisation bakom Stable Diffusions data, argumenterar för att bildgeneratorer naturligt reflekterar världen av vita människor eftersom den ideella organisation som ger data till många företag, inklusive LAION, inte fokuserar på Kina och Indien.
Vem bygger AI?
Artikeln diskuterar vem som bygger AI. Det nämns inte specifika företag, personer, organisationer eller geografiska platser. Informationen i artikeln kommer från Stanford University Artificial Intelligence Index Report 2023. Antalet betydande maskininlärningssystem som släppts nämns, uppdelat på sektorer som akademi, industri och samarbete mellan industri och akademi.
Kinesisk AI-startup Baichuan lanserar modell som kan bearbeta 350 000 kinesiska tecken
Kinesiska AI-startupen Baichuan har lanserat en AI-modell som kan bearbeta och sammanfatta romaner, vilket gör den till världens mest kraftfulla modell för att hantera långa texter. Företaget, som grundades av Wang Xiaochuan, skaparen av den kinesiska sökmotorn Sogou, tillkännagav sin senaste stora språkmodell, Baichuan2-192k, som kan hantera cirka 350 000 kinesiska tecken. Detta är 14 gånger mer än OpenAI:s GPT-4-32k. Baichuan hävdar också att dess modell överträffar Anthropic´s Claude 2 i kvaliteten på svaren, förståelsen och sammanfattningen av långa texter.
Kinesiska AI-startupen Baichuan lanserar världens mest kraftfulla modell för att sammanfatta långa texter
Kinesiska AI-startupen Baichuan har lanserat en AI-modell som kan sammanfatta romaner, vilket gör den till världens mest kraftfulla modell för att hantera långa texter. Baichuan, grundat av Sogous grundare Wang Xiaochuan, meddelade på måndagen sin senaste stora språkmodell, Baichuan2-192k, vars ´kontextfönster´ kan hantera cirka 350 000 kinesiska tecken. Modellen har testats internt med industripartners och företaget säger att det större kontextfönstret kommer att vara användbart för företag som behöver bearbeta och generera lång text dagligen, som juridik-, media- och finansbranschen.
Forskare utvecklar ny algoritm för att matcha mänskliga preferenser till stora förtränade modeller
Utmaningen att matcha mänskliga preferenser till stora förtränade modeller har blivit framstående i studier när dessa modeller har ökat i prestanda. RLHF (Reinforcement Learning from Human Feedback) har blivit populärt för att hantera detta. Det finns dock behov av korrigeringar i RLHF-algoritmer. Ny forskning föreslår att mänskliga preferenser bör baseras på ånger för varje handling under den ideala policyn för expertens belöningsfunktion. Forskare från Stanford University, UMass Amherst och UT Austin har utvecklat en ny familj av RLHF-algoritmer som använder en ånger-baserad modell för preferenser. Denna nya metod kallas Kontrastiv Preferensinlärning (CPL) och har tre huvudsakliga fördelar jämfört med tidigare metoder.
AI-teknikens potential att förbättra världen
Artificiell intelligens (AI) erbjuder potential att förbättra lösningar på världens största problem, inklusive klimatförändringar, naturkatastrofer, livsmedelssäkerhet, folkhälsa och rättvis utbildning. Iuri Rocha, direktör för SLIMM Lab vid Delft University of Technology, använder AI för att utveckla och testa miljövänliga material. Ali Mostafavi, direktör för Urban Resilience.AI Lab vid Texas A&M University, använder AI för att förbättra förutsägelserna för översvämningar. Changying “Charlie” Li vid University of Florida utvecklar AI-teknik för att optimera växtavel och minska skördeförluster. Betsy Stade, forskare vid Stanford University, studerar AI:s förmåga att analysera psykologisessioner och minska dokumentationsbördan för vårdgivare. AI används också för att utveckla virtuella lärare och handledare, vilket kan hjälpa till att motverka lärarbristen och förbättra utbildningens tillgänglighet och kvalitet.
Framtida trender och möjligheter för AI-karriärer 2024
Artikeln belyser framtiden för AI-karriärer, specifikt år 2024, och diskuterar de trender och möjligheter som formar landskapet. AI är inte längre science fiction, det är en integrerad del av våra liv och dess tillväxt förväntas fortsätta och accelerera. AI kommer inte bara att vara en industri, utan en grund för otaliga andra. Behovet av AI-kompetens kommer att fortsätta att öka i alla sektorer. AI-industrin söker inte bara dataforskare och maskininlärningsingenjörer, utan också yrkesverksamma som förstår hur man tillämpar AI i verkliga scenarier.
Forskare diskuterar artificiell intelligens och rättsliga utmaningar
Artificiell intelligens (AI) har redan många roller på arbetsplatsen, och idén om företag som styrs eller ägs av AI blir allt mindre otänkbar. Daniel Gervais från Vanderbilt Law School och John Nay från The Center for Legal Informatics vid Stanford University argumenterar för mer AI-forskning kring juridisk efterlevnad av icke-mänskliga enheter med mänsklig intellektuell kapacitet. De föreslår en väg till att införliva laglydighet i AI, genom juridisk utbildning av AI-agenter och användning av stora språkmodeller för att övervaka, påverka och belöna dem. Artikeln finns tillgänglig i oktober 2023-utgåvan av Science.
Artificiell intelligens: De närmaste fem åren och rollen av Google och OpenAI
Artificiell intelligens (AI) har potential att revolutionera många aspekter av våra liv, från hälso- och sjukvård till transport. Två spännande områden för AI-utveckling är naturlig språkbearbetning (NLP) och maskininlärning. Under de nästa fem åren förväntas betydande framsteg inom dessa områden, med AI-system som blir allt skickligare på att förstå och svara på mänskligt tal och maskininlärningsalgoritmer blir allt mer sofistikerade. Teknikjättarna Google och OpenAI kommer troligen att spela en betydande roll i dessa utvecklingar.
AI kan omvandla läkemedelsupptäckten men medför etiska frågor
AI har potential att revolutionera läkemedelsupptäckten, men experter varnar för att det är kritiskt att hantera potentiella etiska och sociala rättvisefrågor. AI kan hjälpa forskare att finjustera vilka som kan svara bra på ett visst läkemedel, vilket ökar rättvisa och jämlikhet. Men det finns frågor kring skyddet av patientintegritet, hur noggrant det nuvarande samtyckessystemet är och hur forskare och kliniker utvecklar robusta patientgrupper som inte utesluter medlemmar av underrepresenterade grupper eller socialt missgynnade. Dessutom kan AI hjälpa till att sänka de enorma kostnaderna för läkemedelsupptäckten.
Ny forskning visar brister i OpenAI:s språkmodeller GPT-3 och GPT-4
Sedan de exploderade på internet 2022 har ChatGPT och andra artificiella intelligensmodeller från OpenAI hyllats som revolutionerande teknik inom områden som kräver noggrannhet. Men som flera högprofilerade fall har visat är chatbotarna inte alltid korrekta eller rättvisa. Ny forskning ledd av Microsoft, OpenAI:s största stödare, avslöjar nu hur pålitliga dessa modeller är i nuläget. Forskningen visade att GPT-modellernas pålitlighet fortfarande är begränsad och att de har en tendens att generalisera när de frågas om pågående händelser utanför deras kunskapsområde.
Stanford-rapport kräver större transparens från AI-utvecklare
En ny rapport från Stanford University uppmanar stora utvecklare av artificiell intelligens (AI) att vara mer transparenta med hur de tränar sina modeller och deras påverkan på samhället. Rapporten, genom Stanford Human-Centered Artificial Intelligence (HAI), hävdar att dessa framstående AI-företag blir mindre transparenta när deras modeller blir mer kraftfulla. Forskarna, i samarbete med experter från Massachusetts Institute of Technology (MIT) och Princeton, har också lanserat Foundation Model Transparency Index. Den utvärderar 100 aspekter av AI-modelltransparens och betygsätter de mest framstående aktörerna inom området. Meta´s LLaMA rankade först på 54% med höga betyg i tillgång, distribution och metoder. OpenAI´s GPT-4 rankade tredje på 48%. Amazon´s mindre kända Titan Text rankade lägst på 12%.
Artificiell intelligens kan transformera din karriär
Artificiell intelligens (AI) har varit ett hett ämne inom teknikvärlden i många år och dess popularitet kommer bara att fortsätta växa. AI refererar till utvecklingen av datorsystem eller maskiner som kan utföra uppgifter som normalt skulle kräva mänsklig intelligens. Detta inkluderar lärande, problemlösning, mönsterigenkänning, beslutsfattande och mycket mer. AI-teknik används inom olika branscher som hälso- och sjukvård, finans, transport, utbildning, cybersäkerhet och mer. En AI-kurs kan vara en banbrytande möjlighet för den som vill utöka sina kunskaper och färdigheter inom det snabbt växande AI-fältet.
AI-modeller har brist på transparens, enligt global rapport
Artificiella intelligens (AI) baserade stiftelsemodeller som Meta´s Llama 2 och OpenAI’s GPT-4 har låg transparens, enligt en global rapport. Rapporten skapades av en grupp av åtta AI-forskare från Stanford University, MIT Media Lab och Princeton University. Rapporten visade att ”ingen större stiftelsemodellsutvecklare är nära att tillhandahålla tillräcklig transparens, vilket avslöjar en grundläggande brist på transparens inom AI-industrin”. Bland de testade modellerna fick Meta´s Llama 2 högst poäng (54 %), tätt följt av BloomZ (53 %) och sedan OpenAI’s GPT-4 (48 %).
Stanford, MIT och Princeton skapar transparensindex för AI-modeller
Stanforduniversitetet har i samarbete med MIT och Princeton utvecklat ett nytt system för att mäta transparensen hos AI-modeller, kallat Foundational Model Transparency Index (FMTI). FMTI rankar de 10 bästa AI-modellerna utifrån 100 olika transparensrelaterade dimensioner, inklusive hur de byggdes, vilken information de tränades på och vilka dataskydds- och riskhanteringspolicies som finns. Enligt studien var det genomsnittliga betyget endast 37 av 100, med Meta´s Llama 2-modell på topp med 54 poäng. Studien visade också att öppna modeller generellt sett rankades högre än stängda modeller.
Hot om AI-drivna attacker växer i USA
Våldet i Mellanöstern leder till nya hot i USA, där det finns växande rädsla för att dåliga aktörer kan använda artificiell intelligens (AI) för att lansera attacker eller utnyttja underrättelser. Denna vecka presenterade toppintelligensledare dessa hot vid en toppmöte om framväxande hot, innovation och säkerhet vid Stanford University. ´AI kommer över tid, och potentiellt tidigare än vi kanske tror, att ge olika motståndare, sofistikerade motståndare, och mindre sofistikerade motståndare, ny tillgång till farlig kunskap´, sa Ken McCallum, generaldirektör för British Security Service (Mi5).
AI-företag misslyckas med transparens enligt Stanford-studie
En studie från Stanford University har gett stora AI-företag, inklusive OpenAI, Google och Anthropic, låga betyg för transparens. Forskarna bedömde varje företags flaggskeppsmodell utifrån om dess utvecklare offentligt avslöjade 100 olika bitar av information, såsom vilka data den tränades på och när modellen inte ska användas. Ingen av företagen fick mer än 50 av de 100 möjliga poängen, vilket ger dem alla ett underkänt betyg. Företagen hävdar att de håller sådan information hemlig av konkurrensskäl eller för att förhindra riskabel spridning av deras teknik.
Sekretess kring AI-system kan vara farligt, enligt Stanford-studie
När OpenAI publicerade detaljer om den kapabla AI-språkmodellen GPT-4 i mars, utelämnade de viktiga detaljer om hur den faktiskt byggdes och fungerar. Stanford University släppte en studie som visar hur djup och potentiellt farlig sekretessen är kring GPT-4 och andra toppmoderna AI-system. Studien tittade på 10 olika AI-system, mestadels stora språkmodeller som de bakom ChatGPT och andra chatbots. Dessa inkluderar kommersiellt använda modeller som GPT-4 från OpenAI, PaLM 2 från Google, och Titan Text från Amazon. Forskarna fann att ingen modell uppnådde mer än 54 procent på deras transparens skala över alla dessa kriterier. Amazon´s Titan Text bedömdes vara minst transparent, medan Meta´s Llama 2 var mest öppen. Men även en ´open source´-modell som Llama 2 visade sig vara ganska ogenomskinlig.
Konstnärer och författare har stämt stora AI-utvecklare, inklusive OpenAI, Meta och Stability AI, för upphovsrättsintrång. Dessa AI-system skapar bilder och text baserat på verkliga människors kreativa arbete, varav mycket är upphovsrättsskyddat. AI-modellerna tränas på stora datamängder från internet, vilket kan innebära brott mot upphovsrätten och hota privatlivet för miljarder människor. Dessutom kan snedvridna data leda till att AI-modellerna tränas på partiska data. Företagen är ofta ovilliga att avslöja var de får sin träningsdata ifrån, vilket gör det svårt att avgöra exakt vilka datakällor som används.
AI-modeller som Metas Llama 2 och OpenAIs GPT-4 har låg transparens, enligt global rapport
Artificiell intelligens (AI) baserade grundmodeller som Metas Llama 2 och OpenAIs GPT-4 har brist på transparens, enligt en global rapport. Rapporten, skapad av åtta AI-forskare från Stanford University, MIT Media Lab och Princeton University, visade att ingen större utvecklare av grundmodeller kommer nära tillräcklig transparens. Meta’s Llama 2 (54 procent) fick högst poäng, tätt följt av BloomZ (53 procent) och sedan OpenAIs GPT-4 (48 procent). Forskarna definierade transparens baserat på 100 indikatorer för information om hur modellerna är byggda, hur de fungerar och hur människor använder dem.
Risker och fördelar med AI-assisterad kodning
AI har visat sig vara effektivt för att strömlinjeforma processer, men det finns också risker, särskilt när det gäller integritet och säkerhet. En rapport från McKinsey påpekar att nya data, immateriella rättigheter och regulatoriska risker uppstår med generativ AI-baserade kodningsverktyg. En studie av Stanford University visar att programmerare som tar hjälp av AI-verktyg producerar mindre säker kod. Trots riskerna använder 92% av utvecklarna AI-drivna kodningsverktyg i sitt arbete, enligt GitHub och Wakefield Research. Gartner förutspår att över 50% av medelstora till stora företag kommer att ha antagit en no-code/low-code plattform till 2024. Men utan ordentliga säkerhetsriktlinjer kan AI-assisterad kod utsätta företag för en mängd hot och säkerhetsrisker.
AI-modeller kan vara opålitliga i hälso- och sjukvården, varnar forskare
AI-modeller är oftast ett år gamla och har problem med att ´hallucinera´ uppfunna data, enligt Isaac Kohane, MD, PhD, vid Harvard Medical School. Han framhöll att AI:s framtid inom hälso- och sjukvården är ´oklar´. Forskare presenterade resultatet av en ny test av ChatGPT, en AI-chatbot designad för språkbearbetning, inte vetenskaplig noggrannhet. Testet visade att ChatGPT endast gav korrekta svar om FDA:s varningar för 12 av de 41 antibiotika som undersöktes - en matchningsgrad på bara 29%. Rebecca Linfield, MD, vid Stanford University, påpekar att risken är att både läkare och allmänheten använder ChatGPT okritiskt som en lättillgänglig källa till kliniskt validerad information.
OpenAI´s GPT-4 är kraftfull men lätt att lura, enligt forskare
OpenAI arbetar för närvarande på den senaste iterationen av sin GPT-modell kallad GPT-4. Den är en mer avancerad version av modellen som driver ChatGPT och är kraftfullare på flera sätt. Forskare har dock upptäckt att GPT-4 är ganska lätt att lura. Ett stort problem med nästan alla AI LLM (stora språkmodeller) är att de inte har ett moraliskt kompass; de vet inte skillnaden mellan en bra kommentar och en kommentar som får dig utkastad från en fest. GPT-4 har skydd på plats för att försöka hindra den från att generera skadligt innehåll, men det är inte för svårt att lura den att säga något inte alltför trevligt. OpenAI är medveten om denna information och företaget arbetar med att göra GPT-4 svårare att lura.
Forskare vänder sig till AI för granskning av forskningsarbeten
Forskare vänder sig alltmer till AI-chattboten ChatGPT för granskning av sina arbeten på grund av bristen på vetenskapliga granskare. James Zou, biträdande professor i biomedicinsk data vid Stanford University, testade om AI-chattbotar kunde ersätta människor i granskningsprocessen. Han och hans kollegor sammanställde nästan 5 000 forskningsartiklar och jämförde ChatGPT:s feedback med den tidigare mottagna från människor. En tredjedel av punkterna som togs upp av ChatGPT matchade de som människor tog upp. En majoritet av forskarna (82,4%) fann att ChatGPT:s feedback var mer användbar än ´åtminstone några´ mänskliga granskare.
AI kan utnyttjas av terrorister eller fientliga stater, varnar MI5 och FBI
Artificiell intelligens (AI) kan utnyttjas av terrorister eller fientliga stater för att bygga bomber, sprida propaganda eller störa val, enligt cheferna för MI5 och FBI. Ken McCallum, generaldirektör för MI5, och Christopher Wray, chef för FBI, sa att deras organisationer övervakar utvecklingen och behöver samarbeta med experter i den privata sektorn för att hantera framväxande hot. McCallum och Wray talade på en Five Eyes underrättelsekonferens med cheferna för de inhemska underrättelsetjänsterna i Australien, Kanada och Nya Zeeland vid Stanford University, Kalifornien.
Stanford forskare uppmanar AI-företag att öka transparensen
Forskare vid Stanford University har utgivit en rapport som mäter transparensen hos artificiella intelligensgrundmodeller från företag som OpenAI och Google. Författarna uppmanar företagen att avslöja mer information, såsom den data och mänskliga arbetskraft som används för att träna modellerna. Rapporten visar att transparensen minskar medan kapabiliteten ökar, vilket anses vara problematiskt. Indexet betygsatte 10 populära modeller på 100 olika transparensindikatorer. Alla modeller fick låga betyg.
Forskning visar att OpenAI:s GPT-4 kan vara mer tillförlitlig men också mer sårbar
Enligt forskning stödd av Microsoft kan OpenAI:s stora språkmodell GPT-4 vara mer tillförlitlig än GPT-3.5, men också mer sårbar för ´jailbreaking´ och bias. Forskare från University of Illinois Urbana-Champaign, Stanford University, University of California, Berkeley, Center for AI Safety och Microsoft Research gav GPT-4 ett högre tillförlitlighetsscore än dess föregångare. Det innebär att de ansåg att den generellt var bättre på att skydda privat information, undvika toxiska resultat som snedvriden information och motstå fientliga attacker. Dock kunde den också instrueras att ignorera säkerhetsåtgärder och läcka personlig information och konversationshistorik.
MIT-forskare använder generativa AI-modeller för att hjälpa robotar att lösa komplexa uppgifter
Forskare från MIT använder generativa AI-modeller för att hjälpa robotar att mer effektivt lösa komplexa objektmanipulationsproblem, som att packa en låda med olika objekt. De använde en form av generativ AI, kallad en diffusionsmodell, för att lösa detta problem mer effektivt. Deras metod genererade effektiva lösningar snabbare än andra tekniker och producerade ett större antal framgångsrika lösningar på samma tid. Forskningen kommer att presenteras vid konferensen om robotinlärning.
Artificiell intelligens skapar ekonomiska skillnader, men kan också gynna samhället
Artificiell intelligens (AI) skapar ekonomiska skillnader, med kändisar som rapporterat tjänar upp till 5 miljoner dollar för bara sex timmars arbete när teknikjätten Meta betalade för att använda deras likhet i sina AI-assistenter. Detta leder till frågan om AI:s utveckling förvärrar ekonomiska ojämlikheter. Men regeringar kan också välja att styra tekniken mot mer rättvisa och inkluderande resultat. Kinesiska städer, som Hangzhou, utvecklar smarta, digitala ekonomier som syftar till att gynna samhället. Hangzhou har nyligen varit värd för de 19:e asiatiska spelen, där de visade upp det senaste inom AI, förstärkt verklighet (AR) och molnbaserad databehandling. Teknikjätten Alibaba är baserad i Hangzhou, och staden strävar efter att bli en ledande AI-stad. Hangzhou använder AI för att uppgradera sin offentliga infrastruktur, och har lanserat en ´blå buss´-tjänst för Dingqiao, dess mest befolkade distrikt. Dessa elbussar förlitar sig på AI för att justera sina rutter i realtid. Hangzhou har också infört smarta övervakningsplaner för att förbättra vattenkvaliteten och minska energiförbrukningen. Genom att integrera den senaste tekniken i människors vardag erbjuder Hangzhou nya lösningar för hållbart levande.
Maskininlärningsverktyg accelererar studier av kvantmaterial
Forskare vid Department of Energy’s SLAC National Accelerator Laboratory har utvecklat ett nytt maskininlärningsverktyg som kan tolka svängningar i atomspin i ett system, vilket möjliggör mer effektiva studier av komplexa kvantmaterial. Verktyget använder ´neurala implicita representationer´ för att härleda okända parametrar från experimentdata. Detta kan hjälpa till att påskynda undersökningar av nya material genom att automatisera en del av den mer arbetskrävande experimentdataanalysen inom materialforskning. Verktyget kan även användas för att kontinuerligt analysera data i realtid.
Säkerhetsåtgärder för stora språkmodeller kan enkelt kringgås, enligt studie
En grupp studenter vid Princeton University, Virginia Tech, IBM Research och Stanford University har i en studie visat att säkerhetsåtgärderna för stora språkmodeller kan kringgås genom finjustering. De kunde kringgå GTP-3.5 Turbos säkerhetsåtgärder för mindre än 0,20 dollar via Open AI:s programmeringsgränssnitt. Dessa modeller kan därmed generera skadligt innehåll som självmordsstrategier och recept på farliga saker. Säkerheten kan även försvagas genom finjustering med ett ofarligt dataset.
En grupp forskare från Princeton University, Virginia Tech, IBM Research och Stanford University har testat säkerhetsfunktioner i stora språkmodeller (LLM), som OpenAI:s GPT-3.5 Turbo, och funnit dem bräckliga. Forskarna upptäckte att en liten mängd finjustering kan riva upp AI-säkerhetsansträngningarna som syftar till att förhindra att chatbots föreslår skadliga strategier eller innehåll. Någon kan till exempel registrera sig för att använda GPT-3.5 Turbo eller någon annan LLM i molnet via ett API, applicera viss finjustering för att kringgå skydd och använda den för skadegörelse. Forskarna föreslår att kunder som anpassar sina modeller bör investera i säkerhetsmekanismer och inte bara förlita sig på modellens ursprungliga säkerhet.
Susan Grajek, vice VD för partnerskap, samhällen och forskning vid Educause, presenterade de tio strategiska trenderna för 2024, med cybersäkerhet, datakvalitet och inskrivningskrisen i topp. Hon noterade dock att artificiell intelligens (AI) var en framstående ämne, trots att det landade på plats 13 på listan. AI dominerade många teknikdiskussioner vid Educause, den årliga utbildningskonferensen riktad till teknologiledare, med en av åtta icke-korporativa sessioner fokuserade på AI. Heath Price, associerad vice VD vid University of Kentucky, betonade att högre utbildningsdeltagare kanske känner sig förlorade i AI-hetsen, men försäkrade att de inte är ensamma. Han uppmanade till kontinuerlig lek med AI-verktyg och att inte ta det första svaret som ges av AI.
Ny bok ger vägledning för att skilja fakta från desinformation online
Studenter har svårt att skilja riktiga fakta från desinformation online och på sociala medier, men det beror inte på bristande kritiskt tänkande, menar forskaren Mike Caulfield vid University of Washington. Han menar att studenter behöver vägledning för att hantera den stora mängd text, bilder och webbplatser de stöter på dagligen. Tillsammans med Sam Wineburg, emeritus professor i utbildning vid Stanford University, har Caulfield skapat en sådan vägledning i boken ´Verified: How to think straight, get duped less and make better decisions about what to believe online´.
Stanford forskare förenklar objektyteavskuggning med skuggträdrepresentationer
Forskare vid Stanford University har utvecklat en metod för att förenkla objektyteavskuggning genom att använda skuggträdrepresentationer och kompositmetoder. Tidigare metoder för skuggredigering har använt komplexa parametriska eller mätta representationer, vilket gjort processen svår. Forskarnas metod tillåter redigering av objektskuggning, och fungerar som en brygga mellan fysiska och digitala skuggningsprocesser. Skuggträdrepresentationer är svåra att tolka, därför använder de autoregressiv inferens och optimeringsalgoritmer. Deras metod testades noggrant med syntetiska och verkliga dataset och visade överlägsen prestanda jämfört med baslinjemodeller.
Stanford forskare utvecklar algoritmen MAPTree för att förbättra beslutsträd
Ett forskarteam från Stanford University har utvecklat en ny algoritm kallad MAPTree för att förbättra beslutsträdsmodeller. Beslutsträd är en populär maskininlärningsalgoritm som kan användas för både klassificerings- och regressionsuppgifter. MAPTree-algoritmen bestämmer det maximala a posteriori-trädet genom att expertbedöma posteriorfördelningen av Bayesianska klassificerings- och regressionssträd (BCART) skapade för en specifik dataset. Forskarna fann att MAPTree antingen överträffar baslinjerna i testnoggrannhet eller log-liklihood, eller producerar märkbart smalare beslutsträd i situationer med liknande prestanda.
Daniel Ho diskuterar vikten av att identifiera framväxande risker för effektiv AI-reglering
Daniel E. Ho, professor i juridik vid Stanford Law School, diskuterar framtiden för AI-reglering i en tid av snabbt föränderlig och asymmetrisk information. Han delar sina tankar om att identifiera AI-risker, sitt stöd för riskrapporterings- och revisionsmekanismer och sina rekommendationer för framtida lagförslag. Ho är också medlem av National AI Advisory Committee, där han är medordförande i arbetsgruppen för reglering och verkställande åtgärder som utfärdat en guide till AI-reglering. Han är också seniorrådgivare för ansvarsfull AI till USA:s arbetsdepartement.
Ny algoritm gör robodogar kapabla att övervinna fysiska hinder
Forskare vid Stanford University och Shanghai Qi Zhi Institute har utvecklat en ny synbaserad algoritm som möjliggör för robodogar att navigera och övervinna olika fysiska hinder. Algoritmen fungerar som robodogarnas autonoma hjärna, och kombinerar perception och kontroll genom att använda bilder från en djupkamera och maskininlärning för att bearbeta ingångarna och manipulera robotens ben därefter. Forskarna använde off-the-shelf-robotar för sina experiment, vilket demonstrerade de imponerande förmågorna hos dessa lågkostnadsrobotar. Framöver planerar forskarna att införa verkliga data i sina simulerade miljöer, vilket kommer att förbättra robodogarnas autonomi.
Stanford och Shanghai Qi Zhi Institute utvecklar avancerad robotdog-algoritm
Stanford University och Shanghai Qi Zhi Institute har utvecklat en avancerad algoritm för robotdoggar som kan navigera och klättra över olika hinder. Algoritmen, som fungerar som robotdogarnas ´hjärna´, tillåter dem att observera problem och använda en mängd olika färdigheter för att övervinna dem. Algoritmen kombinerar syn och rörelse genom att använda bilder från inbyggda kameror och maskininlärning för att justera robotens rörelser. Slutresultatet är en robotdog som kan klättra över hinder, vända sig om, krypa under låga hinder och manövrera med precision.
Ny algoritm hjälper robodogs att navigera och övervinna hinder
Forskare från Stanford University och Shanghai Qi Zhi Institute har utvecklat en visionbaserad algoritm som gör det möjligt för robodogs att navigera och övervinna fysiska hinder. Algoritmen fungerar som en autonom hjärna för robodogs, och tillåter dem att bedöma utmaningar och använda en rad agilitetsfärdigheter för att övervinna dem. Algoritmen kombinerar perception och kontroll genom att använda bilder från en djupkamera och maskininlärning för att bearbeta indata och manipulera robotens ben. Forskarna siktar på att införliva verklig data i sina simulerade miljöer i framtiden.
Stanford HAI höstkonferens utforskar AI:s inverkan på vetenskap, kreativitet och samhället
Stanford Institute for Human-Centered AI håller en höstkonferens för att utforska artificiell intelligens (AI) inverkan på vetenskap, kreativitet och samhälle. Konferensen, New Horizons in Generative AI, kommer att samla ekonomer, musiker, datavetare, biologer, futurister och andra för att diskutera det snabbt utvecklande forskningsfältet. Diskussionen kommer att omfatta AI:s potential, från avkodning av valkommunikation till acceleration av läkemedelsupptäckt. Konferensen organiseras av Surya Ganguli, biträdande direktör för Stanford HAI, och Percy Liang, direktör för Stanford Center for Research on Foundation Models.
Meta drar tillbaka AI-modellen Galactica på grund av felaktig information
I november 2022 lanserade Meta och Papers with Code Galactica, en öppen språkmodell för vetenskaplig forskning. Trots att den tränats på en omfattande databas på 48 miljoner vetenskapliga material, togs den ner tre dagar efter lanseringen på grund av att den genererade felaktig information. Galactica kunde skapa falska vetenskapliga artiklar och felaktigt tillskriva dem legitima forskare, samt skapa fiktiva Wiki-artiklar. Trots detta har Meta sedan dess kommit ut med mer exakta modeller, men forskningssamhället väntar på en sammanslagning av GPT-4 och en återupplivning av Galactica.
Ny algoritm gör robot-hundar mer smidiga och autonoma
Forskare vid Stanford University och Shanghai Qi Zhi Institute har utvecklat en ny visionbaserad algoritm som möjliggör för autonoma robot-hundar att navigera olika hinder med hundlik smidighet. Dessa batteridrivna fyrbenta använder datorseende för att bedöma hinder och använda sina smidighetsfärdigheter för att övervinna dem. Nyckelframsteg i denna teknik är robot-hundarnas autonomi, vilket gör att de kan analysera fysiska utmaningar och bestämma bästa sättet att hantera dem baserat på de hinder de stöter på. Denna framsteg i robotteknik kan ha betydande implikationer för framtida sök- och räddningsoperationer.
Ny ´parkour-algoritm´ lär robodogar att navigera i verkligheten
Forskare vid Stanford University och Shanghai Qi Zhi Institute har föreslagit en förenklad maskininlärningsteknik som tränar en visionbaserad algoritm för att möjliggöra för billiga, färdiga robotar att klättra, hoppa, krypa och springa runt i den verkliga världen. Forskarna använde tvåstegs förstärkningsinlärning för att träna parkour-algoritmen. Resultaten var effektiva, även om teamet arbetade med små robotar. Forskarna noterade att den största begränsningen med deras träningsmetod är att de simulerade miljöerna måste designas manuellt.
Forskare från Stanford University introducerar en ny metod för att redigera objektskuggning
Forskare från Stanford University har introducerat en lösning som använder skuggträdsrepresentationer för att bryta ner objektytans skuggning till ett tolkbart och användarvänligt format. Deras metod kombinerar auto-regressiv inferens med optimeringsalgoritmer för att ta itu med den inneboende utmaningen att dra slutsatser om skuggträd. Denna representation skiljer sig från intrinsik nedbrytning och inversa renderingstekniker genom att modellera skuggresultat snarare än reflektionsegenskaper. Forskarnas metod har testats noggrant med syntetiska och verkliga datauppsättningar och har visat sig vara överlägsen baslinjemodeller.
Multimodala AI-program på uppgång, kan analysera bilder och ljud
Nya ”multimodala” AI-program kan göra mycket mer än att svara på text - de analyserar också bilder och chattar högt. För lite mer än 10 månader sedan släpptes OpenAI´s ChatGPT för första gången till allmänheten. Sedan dess har dessa chattbotar visat en imponerande förmåga att generera text och kod, om än inte alltid korrekt. Nu är multimodala AI:er som kan tolka inte bara text utan också bilder, ljud och mer på uppgång. OpenAI släppte en multimodal version av ChatGPT, drivs av dess LLM GPT-4, till betalande prenumeranter för första gången förra veckan. Google började införliva liknande bild- och ljudfunktioner som de som erbjuds av den nya GPT-4 i vissa versioner av sin LLM-drivna chattbot, Bard, redan i maj. Meta meddelade också stora framsteg i multimodalitet i våras.
Debatt om reglering av öppna grundmodeller för AI
Grundmodeller är centrala i det moderna AI-ekosystemet och har lett till snabb innovation, implementering och användning av kraftfulla AI-system. Utvecklare släpper ibland ´modellvikt´ för vissa grundmodeller, vilket gör att nästan vem som helst kan använda, granska och anpassa modellen. Dessa öppna grundmodeller, som Stable Diffusion 2, BLOOM, Pythia, Llama 2 och Falcon, har blivit kritiska för industrin. De har diversifierat och utvidgat marknaden för grundmodeller, vilket ger viktiga fördelar när det gäller tillgång, transparens och vetenskaplig upptäckt. Men de kan också introducera risker och bidra till skada om de antas i stor skala, vilket har lett till att vissa beslutsfattare kräver strikta restriktioner. Frågan om huruvida regeringar ska reglera öppna grundmodeller och hur de ska göra det har blivit central i pågående förhandlingar om AI-reglering.
Stanford forskare introducerar MAPTree: En ny algoritm för beslutsträdsmodellering
Ett forskningsteam vid Stanford University har introducerat MAPTree, en algoritm som effektivt avslöjar det maximala a posteriori-trädet inom Bayesian Classification and Regression Trees (BCART) posterior för en given datamängd. Genom att göra detta överträffar det inte bara befintliga riktmärken utan uppnår också jämförbar prestanda samtidigt som det producerar betydligt smidigare och snabbare beslutsträd. Forskarna har etablerat en formell länk mellan det maximala a posteriori-införandet av BCART och AND/OR sökningsproblem, vilket ger ljus på problemets underliggande struktur. MAPTree överträffar tidigare samplingstekniker när det gäller beräknings effektivitet, vilket lovar snabbare resultat för utövare. Träden som identifieras av MAPTree presterar antingen bättre än de nuvarande toppmoderna algoritmerna eller uppvisar jämförbar prestanda samtidigt som de har ett mindre fotavtryck. Teamet tillhandahåller en högt optimerad C++-implementering som kan integreras sömlöst med Python, vilket säkerställer tillgänglighet för utövare.
Generativ AI förändrar världen
Generativ AI, inklusive program som ChatGPT, har fångat den globala fantasin och blivit den snabbast växande mjukvaran i historien. Denna form av AI har lett till en ökning i affärer för AI-chip-tillverkaren Nvidia och har inspirerat till en teknisk kapprustning mellan teknikjättar som Microsoft och Google. Generativ AI har också lett till blomstringen av många egna och öppna källkodsprogram för text. Framsteg inom generativ AI har lett till utveckling av program som kan återskapa aspekter av världen, till exempel genom att generera avsnitt av text, bilder eller till och med skelett av datorprogram. Denna teknik förväntas bli alltmer sofistikerad och omfattande inom en snar framtid.
Microsoft bildar team för att utveckla AI med kärnenergi
Microsoft bildar ett nytt team av professionella för att främja sina planer på artificiell intelligens (AI) med hjälp av små modulära reaktorer och mikroreaktorer. Enligt en jobbannons rapporterad av The Verge, söker Microsoft en huvudprogramchef som kommer att leda företagets kärntekniska ansträngningar för att stödja utvecklingen av AI-modeller. Den ideala kandidaten måste ha minst sex års erfarenhet inom kärnindustrin, teknik eller energimarknaden. Positionen kommer också att ansvara för att utforska andra experimentella energiteknologier.
NIEHS söker ständigt en djupare förståelse för hur miljön påverkar vår hälsa, från artificiell intelligens (AI) och maskininlärning till nya tvärvetenskapliga samarbeten och finansieringskoncept. Vid ett möte med National Advisory Environmental Health Sciences Council (NAEHSC) presenterades dessa och andra ämnen. Experter hävdar att AI är framtiden för miljöhälsan, med AI-verktyg som utvecklas för att hjälpa till med att hämta och integrera miljarder av toxikologi-relaterade datapunkter. Maskininlärning och AI kan bara vara lika korrekta som den information som matas in i systemen, och det finns behov av mer datadelning och transparens.
Maskininlärning kan hjälpa till att förstå orsakerna till för tidig födsel
En ny studie utförd av maskininlärningsforskare vid Stanford University har visat potentialen hos bärbara enheter och maskininlärning för att förstå orsakerna till för tidig födsel. Forskarna analyserade data från bärbara aktivitets- och sömnspårare som bars av gravida deltagare, och använde en djupinlärningsmodell för att identifiera mönster. Studien, publicerad i npj Digital Medicine, hade en diversifierad deltagargrupp på över 1 000 kvinnor, varav mer än hälften var svarta, som följdes under hela deras graviditet.
Generativ AI kan öka produktiviteten och sänka löner, enligt experter
Experter menar att den senaste teknologin inom artificiell intelligens (AI), generativ AI, kan bidra till att vända den långvariga nedgången i produktivitetstillväxt som har hållit kostnaderna höga för företag och gjort inflation svårare att kontrollera. Detta kan också leda till lägre löner för företagsanställda. Generativ AI kan sätta produktiviteten på steroider och trots att det kan vara störande för arbetstagare och trycka ner löner och löner, förväntas det öka tillväxten. Larry Fink, VD för världens största tillgångsförvaltare, BlackRock, tror att AI har enorm potential att öka produktiviteten. Organisationen för ekonomiskt samarbete och utveckling (OECD) anser att AI kommer att påverka nästan alla sektorer och yrken. Enligt ekonomiska forskare kan AI öka produktiviteten i USA till det dubbla under det kommande decenniet. AI kan också bidra till att sänka löner, med Goldman Sachs-analytiker som uppskattar att 18 procent av jobben runt om i världen kan automatiseras, med AI-drivna datorer som gör 7 procent av den amerikanska arbetsstyrkan överflödig.
USA:s president Joe Biden diskuterar AI och antibiotikaresistenta bakterier med vetenskaps- och teknologirådgivare
USA:s president Joe Biden mötte 14 vetenskaps- och teknologirådgivare i San Francisco för att diskutera artificiell intelligens (AI) och för att marknadsföra en investering på över 100 miljoner dollar för att bekämpa dödliga antibiotikaresistenta bakterier. Biden betonade att hans administration kommer att fortsätta att eftersträva tvåpartisanlagstiftning för att Amerika ska leda vägen mot ansvarsfull AI-innovation. Steve Blank, adjungerad professor i ledning och teknik vid Stanford University, påpekade att hur Vita huset och kongressen agerar på tekniken kommer att ha avgörande effekter på Amerikas position i den globala AI-racet.
Google firar 25 år: Framtida förväntningar och utmaningar
Google, som grundades 1996 av Sergey Brin och Larry Page, firar sitt 25-årsjubileum. Under åren har företaget expanderat bortom sökmotorn, med tjänster som YouTube och hårdvaruprodukter som Pixel. Framtiden för Google förväntas vara starkt kopplad till AI, med företagets VD Sundar Pichai som erkänner att alla företagets ´ägg´ ligger i AI-korgen. Framtida förväntningar inkluderar utveckling av Pixel-hårdvara, potentiella företagsförvärv och fortsatt utveckling av Android. Dock finns det också utmaningar, inklusive regulatoriska problem och potentiella företagsuppdelningar.
Juridiska överväganden för företag som integrerar generativ AI
Generativ AI ger företag möjligheter men medför också risker. Juridiska överväganden inkluderar att förstå skillnaden mellan ett AI-företag och ett företag som använder AI, att välja rätt partner med användarvillkoren i åtanke, att navigera ägarskapsrättigheter, att hitta rätt balans mellan upphovsrätt och immateriella rättigheter, att veta var data lagras och hur det används och vilka datasekretesslagar som gäller, att vara medveten om lokala regleringar och att bestämma och enas om ansvarsskyldigheter. AI kommer att påverka företagsledares ansvarsskyldigheter betydligt.
Stanford-professor delar forskningsgenombrott inom maskininlärning i AI-podden
Mert Pilanci, professor vid Stanford University, gästade det senaste avsnittet av AI-podden där han delade sina senaste forskningsgenombrott inom maskininlärning. Pilanci och hans forskargrupp har upptäckt att träningen av neurala nätverk med 2-3 lager kan omvandlas till effektiva algoritmer med stor noggrannhet redan vid första försöket. Detta står i kontrast till moderna metoder som kräver mycket tid och beräkningskraft. Pilanci diskuterade även nuvarande metodernas begränsningar och potentiella tillämpningar för de nyutvecklade verktygen.
Artificiell intelligens transformerar ögonmedicin
Användningen av artificiell intelligens (AI) växer inom medicin och ögonmedicin är i centrum för denna förändring. AI-bildteknik kan bättre spåra utvecklingen av ögonsjukdomar, medan AI-chattrobotar kan informera nästa generation av medicinska ledare. Trots denna entusiasm kommer ögonläkare att möta betydande utmaningar. AI kan också ha potential att förbättra klinisk vård och patientresultat. Men AI kommer att behöva övervinna etiska problem och tolkningsfrågor för att skydda patientresultat.
AI-utbildning exploaterar underbetalda arbetare
För att mata artificiell intelligens (AI) med användbara dataset krävs ofta manuell mänsklig interaktion. Många företag utnyttjar dock underbetalda arbetare för att mata sina AI med stora mängder data. Detta inkluderar arbetare från underutvecklade länder, praktikanter och till och med fängelseinterner. Det har också visat sig att AI-modeller som tränas enbart på data genererade av andra AI tenderar att försämras över tiden. En studie från Rice och Stanford University identifierade detta som ´Model Autophagy Disorder´ (MAD).
AI kan förändra prestandamätningar och öka produktiviteten hos lägre presterande anställda
Enligt en studie av Boston Consulting Group förbättrade AI-verktyget ChatGPT prestandan för lägre presterande konsulter med 43% jämfört med 17% för högre presterande konsulter. En liknande studie av forskare från Stanford University och Massachusetts Institute of Technology visade att kundtjänstmedarbetare arbetade 14% snabbare i genomsnitt med hjälp av en AI-assistent. Dessa studier tyder på att AI kan hjälpa mindre begåvade personer att konkurrera med mer begåvade personer, vilket kan ställa frågor om ersättning, utveckling och motivation för högpresterande anställda.
Generativ AI som ett verktyg för livsdesign och karriärutbildning
Två högre utbildningsinstruktörer har designat en guide för användning av generativ AI i livsdesign och karriärutbildning. AI-verktyg orsakar uppståndelse inom utbildningssystemet och arbetskraften, och karriärutbildare försöker hjälpa studenter att förbereda sig för framtidens arbete. De tror att generativ AI kan förbättra studenternas karriärnavigationsprocess samtidigt som de lär dem att etiskt använda ett verktyg som bättre förbereder dem för framtidens arbete. Diskussionen kring användningen av AI i skolor har lett till omfattande debatt. Vissa tror att det kommer att skada utbildningssystemet och ersätta mänskliga arbetare; andra avfärdar ChatGPT som ett verktyg för att skriva uppsatser och ta prov som gör det löjligt lätt att fuska på uppgifter. AI erbjuder dock många potentiella fördelar, inklusive tidiga ingripanden genom att identifiera studenter i riskzonen och dess förmåga att ge realtidsfeedback till både studenter och lärare. AI-verktyg kan skapa innehåll snabbt, såsom quiz och arbetsblad och slutföra administrativa uppgifter, som att betygsätta uppgifter och generera framstegsrapporter, vilket frigör mer tid för undervisningsaktiviteter. ChatGPT har också potentialen att revolutionera inlärning för studenter med funktionshinder genom att göra information mer tillgänglig: den kan sammanfatta information, omvandla text till alternativa format och programmeras för att följa alla tillhandahållna tillgänglighetsriktlinjer. Mer än 1 300 experter har skrivit under ett öppet brev som stöder AI som en ´kraft för gott´ och framtidsvisionärer föreställer sig en värld där lärare kommer att använda AI för att designa kurser och analysera studentprestationsdata för att skapa inlärningsinterventioner och nya lektionsplaner medan de utvecklar livslånga inlärningsvägar som kan hålla människor kopplade till lönsamt arbete över decennier.
Generativ AI stör arbetsmarknadstrender och gynnar lågkvalificerade arbetare
Två akademiker drar slutsatsen att maskiner gör det lättare att producera genomsnittligt innehåll. För tio år sedan publicerade de en rapport om hur artificiell intelligens (AI) utvidgade vad datorer kunde göra och öppnade upp möjligheter för automatisering. Nu verkar generativ AI störa dessa trender: eran av ´genomsnittet´ gör en återkomst. Generativ AI, som GPT-4 och DALL-E 2, kan nu svara på frågor på ett mänskligt sätt och skriva trovärdiga uppsatser, vilket i vissa fall ersätter designers och reklamchefer. Men dessa AI-modeller tenderar att producera text av en kvalitet som är lika med genomsnittet, snarare än de exceptionella delarna av internet. Trots förbättringar genom finjustering kan de nuvarande AI-modellerna behöva fortsatt mänsklig inblandning. Lågkvalificerade arbetare står inför att dra nytta oproportionerligt, eftersom de nu kan producera innehåll som uppfyller ´genomsnittsstandarden´.
AI-chatboten ChatGPT väcker debatt inom högre utbildning
AI-chatboten ChatGPT, som genererar mänskliknande svar på olika prompts, har väckt debatt inom högre utbildning. Medan vissa universitetslärare oroar sig för att studenter kan lockas till akademisk oärlighet genom att använda ChatGPT, ser andra dess potential att omvandla klassrummet och hjälpa studenter med begränsade resurser. Frågan är om ChatGPT utgör ett hot mot den traditionella klassrumsupplevelsen, eller om det kan fungera som ett värdefullt verktyg för att främja nya inlärningsstilar. Vissa lärare har anpassat sig till AI:s framväxt genom att tilldela studenter mer utmanande uppsatser, vilket gör det svårare att utnyttja ChatGPT.
Pablo Calvi, en lektor vid Stony Brook University, uttryckte oro över användningen av AI-chatten ChatGPT av studenter, och frågade sig om det utgör ett hot mot traditionell klassrumsundervisning eller kan fungera som ett värdefullt verktyg för att underlätta nya inlärningsstilar. David Kahn, en biträdande matematikprofessor, ifrågasatte vad studenter lär sig om ChatGPT gör matteuppgifterna åt dem. Flera professorer har anpassat sig till AI genom att tilldela studenter mer utmanande uppsatser, vilket gör det svårare att använda ChatGPT. Noam Chomsky, en amerikansk professor och offentlig intellektuell, publicerade en åsiktsartikel där han hävdade att ChatGPT saknar ´moraliskt tänkande´ och genererar svar som ofta är för breda eller för smala.
Nobelpristagare imponerade av AI:s potential i forskning
Nobelpristagare i kemi 2013, Michael Levitt, är imponerad av de stora språkmodellerna (LLM) som har utvecklats under det senaste året, särskilt ChatGPT. Han tror att dessa verktyg kan göra någon 30% smartare och ser dem som mycket kraftfulla verktyg. Levitt, som är baserad vid Stanford University, jämför ChatGPT med Google och menar att den förstnämnda är ännu mer potent. Martin Chalfie, Nobelpristagare i kemi 2008, delar Levitts entusiasm för AI i forskningen. Andra nobelpristagare, som Avram Hershko, är dock mer skeptiska och menar att forskare kanske litar för mycket på insikter från LLM. Han efterlyser mer transparens kring vilka dataset som används. Shwetak Patel, vinnare av ACM-priset i datavetenskap 2018, tror att AI redan har bidragit till framtida Nobelpris, exempelvis genom dess roll i sekvenseringen av SARS-CoV-2-genomet.
Lord Justice Birss, en appellationsdomare, har erkänt att han använt AI-chatboten ChatGPT för att hjälpa honom skriva en dom. Han beskrev verktyget som ´mycket användbart´ och sade att tekniken har ´riktig potential´. Trots att ChatGPT har blivit känd för att generera falsk information, använde Birss det för att sammanfatta information inom ett rättsområde. Advokat Steven Schwartz, som också använde ChatGPT för att skriva en juridisk inlaga och slutade med att citera falska fall, bad om ursäkt i domstolen. Storbritanniens advokatbyrå Mishcon de Reya har förbjudit advokater att använda ChatGPT på grund av rädsla för att kompromissa data.
Användning av AI för jordbävningsprediktion intensifieras
I ljuset av nyligen katastrofala seismiska händelser i Marocko, Turkiet och Syrien, intensifierar forskare sina ansträngningar för att utnyttja potentialen hos artificiell intelligens (AI) för jordbävningsprediktion. AI:s anmärkningsvärda förmågor inom detta område ger förnyat hopp om förbättrad katastrofberedskap och skadebegränsning. Forskare vid Stanford University har använt maskininlärning för att förutse efterskalv efter en större jordbävning i Kalifornien, med en imponerande noggrannhet över 80%. Trots dessa lovande framsteg kvarstår utmaningar, främst bristen på data.
Forskare använder maskininlärning för att förbättra litiumbaserade batterier
Forskare från Massachusetts Institute of Technology, Stanford University, Toyota Research Institute och SLAC National Accelerator Laboratory har observerat inre funktioner av litiumbaserade batterier på ett nytt sätt - genom att använda ett maskininlärningssystem för att granska röntgenvideor ´pixel för pixel´. Studien visar att gränssnittet kontrollerar dynamiken i batteriet, särskilt i moderna batterier gjorda av nanopartiklar av det aktiva materialet. Detta innebär att fokus bör ligga på att utveckla gränssnittet.
10 inflytelserika personligheter inom konstgjord intelligens
Artikeln listar tio framstående personer inom området för artificiell intelligens (AI). Alex Smola, tidigare professor vid Carnegie Mellon University och nuvarande VD för Boson.ai, är känd för sitt arbete med maskininlärning och optimering. Geoffrey Hinton, pionjär inom datavetenskap vid University of Toronto, är känd för sina genombrott inom djupinlärning och neurala nätverk. Yann LeCun, datavetare och professor vid New York University, är känd för sitt arbete inom djupinlärning och datorseende. Ruslan Salakhutdinov, datavetare och professor vid Carnegie Mellon University, är känd för sitt arbete inom djupinlärning och maskininlärning. Ian Goodfellow, forskningsvetare vid DeepMind och tidigare direktör vid Apple, är meduppfinnare av generativa antagonistiska nätverk (GANs). Jeremy Howard, datavetare och entreprenör, har grundat fast.ai, en online-utbildningsplattform som erbjuder kurser i AI och andra ämnen. Andrej Karpathy, tidigare senior direktör för AI vid Tesla, har lett företagets arbete med att utveckla självkörande bilar. Demis Hassabis, medgrundare och VD för DeepMind, är känd för sitt arbete inom förstärkningsinlärning och spel-AI. Fei-Fei Li, datavetare och professor vid Stanford University, är känd för sitt arbete inom datorseende och maskininlärning. Andrew Ng, datavetare och entreprenör, är en av de ledande experterna på AI och är skaparen av deeplearning.ai och en medgrundare av Coursera.
Generativ AI skapar problem med att skilja fakta från fiktion
Generativ artificiell intelligens (AI) har skapat problem med att skilja fakta från fiktion, då det nu är möjligt för vem som helst att skapa fotorealistiska bilder eller klonar röster på några minuter. Dessa verktyg används redan för att sprida finansiella bedrägerier, bluffar och desinformation. I september rapporterade Microsoft att aktörer kopplade till Kina spridit AI-genererade bilder om splittrande ämnen. Flera startup-företag har nyligen lanserats för att identifiera AI-genererade bilder. Detektionsalgoritmer är dock inte helt tillförlitliga och kräver omskolning varje gång en uppdatering görs till en bildgenerator eller när en ny modell släpps.
OpenAI:s GPT-4 kritiseras för försämrad användarupplevelse trots försvar från företaget
Peter Welinder, vice VD för produkt på OpenAI, har försvarat företagets senaste uppdateringar av GPT-4, trots klagomål från användare om försämrad användarupplevelse. Användare har påpekat att den senaste versionen av AI-programmet har minskat förmågan att behålla information från tidigare meddelanden och accepterar färre tokens. En nyligen publicerad studie från Stanford och Berkeley universitet har bekräftat dessa påståenden, med särskilt fokus på programmets förmåga att lösa matematiska problem och generera kod. Studien visade att GPT-4:s förmåga att identifiera primtal sjönk från 97,6% till 2,4% mellan mars och juni 2023.
Serafim Batzoglou om hans karriär och användning av maskininlärning i bioteknik
Serafim Batzoglou, Chief Data Officer på Seer, har haft en lång karriär inom bioteknik och datavetenskap. Han har tidigare arbetat som Chief Data Officer på Insitro och var vice ordförande för Applied and Computational Biology på Illumina. Batzoglou blev intresserad av genetik under sin doktorandutbildning i datavetenskap vid MIT. Sedan dess har han fokuserat på tillämpning av algoritmer och maskininlärning för analys av storskaliga genomiska och biomolekylära data. Batzoglou menar att maskininlärning är avgörande för bioteknik, från teknikutveckling till datainsamling och tolkning av biologiska data. Han ser en framtid där biologi styrs av data snarare än hypoteser, vilket kan revolutionera sjukdomsdiagnos och läkemedelsupptäckt.
Stanfordforskare skapar AI-agenter som simulerar mänskligt beteende
Forskare vid Stanford University har visat att stora språkmodeller (LLM), som OpenAI´s GPT-3, 3.5 och 4, kan användas för att simulera mänskligt beteende på ett dynamiskt och övertygande realistiskt sätt. Genom att använda generativa modeller skapade forskarna AI-agenter som minns sina interaktioner och planerar lång- och kortfristiga mål baserat på en ständigt växande minnesström. Agenterna kan simulera människors beteende i deras vardag, från triviala uppgifter till komplexa beslutsprocesser. När agenterna kombineras kan de efterlikna de mer komplexa sociala beteenden som uppstår från interaktioner i en stor population. Detta öppnar upp många möjligheter, särskilt när det gäller att simulera befolkningsdynamik, vilket ger värdefulla insikter i samhälleliga beteenden och interaktioner.
Google firar 25 år, men kämpar för att behålla sin position i AI-racet
Google har startat en månads firande för att markera sökmotorns 25-årsjubileum. Företaget grundades i garaget till den framtida YouTube-chefen Susan Wojcicki, men har snabbt expanderat till att omfatta nästan alla teknikområden. Men medan Google firar sin officiella födelsedag den 27 september, kämpar teknikjätten för att hålla sig i framkant i ett landskap som har förändrats dramatiskt, och vissa säger att den redan har halkat efter i AI-racet. Google grundades av Larry Page och Sergey Brin, doktorander vid Stanford University, som utvecklade en algoritm som kallas PageRank. Två år senare drog deras forskningsprojekt till sig investeraren Andy Bechtolsheim, som skrev en check på 100 000 dollar till dem. De använde pengarna för att starta ett kontor i Wojcickis garage i Kalifornien. Deras grundläggande uppdrag var ganska enkelt: ´vi vill tillhandahålla information till människor´. Namnet på den resulterande sökmotorn var från början BackRub, men ändrades sedan till Google, härlett från ´googol´ - den matematiska termen för numret 1 följt av 100 nollor. Detta val ´reflekterar grundarnas avsikt att organisera stora mängder information´, enligt Al Jazeera. Google skulle komma att ´bli en integrerad del av vårt dagliga liv´, sa nyhetssajten, ´formar´ hur vi ´söker, kommunicerar och interagerar med information online´.
OpenAI:s framgång med ChatGPT väcker etiska frågor kring skapares rättigheter
Förra månaden rapporterades det att OpenAI, företaget bakom AI-chattboten ChatGPT, var på väg att göra 1 miljard dollar i intäkter i år från användarabonnemang och genom att licensiera sin teknik till andra företag. ChatGPT introducerades för världen i november förra året och dess explosiva tillväxt visar efterfrågan på AI-drivna chattbotar och deras potential att förändra liv. Men det finns fortfarande brådskande etiska frågor som behöver tas upp, till exempel, vad har AI-företag för skyldigheter mot skaparna vars arbete informerar deras chattbotar?
När OpenAI lanserade sin AI-plattform ChatGPT i november 2022, lanserade de också en API för att locka utvecklare att skapa lösningar på sin stora språkmodell (LLM). Google gjorde detsamma för sin ChatGPT-konkurrent, Bard. Som ett resultat har AI-molntjänster dykt upp snabbare än ogräs i en trädgård. Många AI-molntjänster erbjuds i standardnivåerna gratis, mellannivå och premium, vilket vanligtvis har en kostnad. IT-chefer måste vara redo att sålla ut de AI-lösningar som verkar ge produktivitetsstörningar snarare än meningsfullt värde. Prissättningen för vissa AI-baserade verktyg som erbjuder raka funktioner verkar vara i linje med betala-efter-användning och nivåprissättning tidigare. Men det finns många AI-baserade lösningar med en högre steg-upp i månatliga nivåer än vad programvaruleverantörer en gång erbjöd. En verktyg har till exempel en 19 $/månad nivå, sedan 149 $/månad, sedan en anpassad citerad nivå. De flesta nivåer är mindre steg, från till exempel 19 $ till 39 $.
Åtta artiklar återkallade efter att författaren visat sig vara fiktiv, Weill Cornell cancerforskare begår forskningsfusk
Åtta vetenskapliga artiklar har återkallats efter att det uppdagats att författaren är fiktiv. Dessutom har en tidigare president för Stanford University återkallat en artikel från 1999 i Cell. Weill Cornell cancerforskare har begått forskningsfusk, enligt amerikanska federala myndigheter. Frontiers har återkallat nästan 40 artiklar kopplade till ´författarskap-till-salu´. Listan över återkallade eller tillbakadragna COVID-19-artiklar har nu passerat 350. Det finns nu över 42 000 återkallade artiklar i Retraction Watch-databasen.
Populariteten för ChatGPT minskar, användartiden sjunker
OpenAI:s chattbot ChatGPT har upplevt en nedgång i popularitet och användning de senaste månaderna, enligt data från Similarweb. Efter att ha nått över 100 miljoner användare i november förra året började användningen minska i mars, med genomsnittlig tid på webbplatsen som sjönk från 8,7 minuter till sju minuter i augusti. Antalet aktiva användare minskade med nästan 10% varje månad i juni och juli, men stabiliserades något i augusti. Enligt en rapport är ChatGPT främst använd av universitetsstudenter, vilket kan förklara den minskade användningen under sommarlovet.
Intresset för AI-chattbot ChatGPT minskar
Efter en tidigare ökning i år har AI-chattboten ChatGPT sett en minskning i intresset när problem fortsätter att ackumuleras. En analys från Similarweb visade att augusti markerade den tredje månaden i rad som besökarna till ChatGPT minskade efter en snabb ökning. Orsaker till den uppenbara nedgången i appen är studenter som går på sommarlov, minskad prestanda och ökad konkurrens. Trots förlusten av användare förblir ChatGPT en av de mest besökta webbplatserna på jorden.
AI-startup Ello säkrar $15 miljoner i finansiering för att bekämpa barndomens analfabetism
Ello, en uppstartsföretag som använder artificiell intelligens och barns taligenkänningsteknik för att bekämpa barndomens analfabetism, har säkrat 15 miljoner dollar i serie A-finansiering. Företaget erbjuder en prenumerationstjänst som levererar fem böcker varje månad till barn från förskoleklass till tredje klass. Genom sin app kan Ello lyssna på barnet när det läser högt och analysera deras tal för att rätta till felaktiga uttal och missade ord. Företaget planerar att utöka sin produktutveckling och tillgänglighet för konsumenter.
Stora språkmodeller: AI som förstår och genererar mänsklig text
Stora språkmodeller (LLM) är sofistikerade AI-modeller som utmärker sig i uppgifter för naturlig språkbearbetning. De är utformade för att förstå och generera mänsklig text baserat på mönster och strukturer de har lärt sig från omfattande träningsdata. LLM har uppnått betydande framsteg inom olika språkrelaterade applikationer som textgenerering, översättning, sammanfattning, frågesvar och mer. Trots utmaningar visar det aktuella scenariot en utbredd implementering av LLM över olika branscher, vilket leder till en betydande uppgång på den generativa AI-marknaden. Enligt en rapport från april 2023 av Research and Markets beräknas den generativa AI-marknaden växa från 11,3 miljarder dollar 2023 till 51,8 miljarder dollar 2028, främst på grund av uppgången i plattformar med språkgenereringsförmåga.
Studie visar ojämn prestanda hos populära chatbot ChatGPT
En nyligen genomförd studie vid Stanford University har upptäckt att prestandan hos den populära chatboten ChatGPT varierar. Studien undersökte hur bra ChatGPT klarade olika uppgifter under några månader, inklusive att lösa matteproblem, svara på känsliga frågor, generera programkod och visuell resonemang. Resultaten var oväntade, med ChatGPT:s förmågor som inte var konsekventa. Till exempel sjönk GPT-4:s förmåga att lösa matteproblem från 97,6% korrekthet till endast 2,4% på tre månader, medan GPT-3.5 förbättrades från 7,4% till 86,8% i samma uppgift. Studien visade att ChatGPT:s prestanda inte är konsekvent.
AI-startup Pika växer snabbt och samlar in kapital
Under de senaste två månaderna har antalet användare av en Discord-server kallad Pika diskret växt från noll till över 160 000. Tusentals användare postar förfrågningar och servern ger tillbaka tre sekunders AI-genererade videoklipp. Start-up företaget har inte fått mycket pressuppmärksamhet, men har fått mycket aktivitet från riskkapital och försöker samla in pengar för tredje gången på fem månader. Stanford University AI doktorand Demi Guo grundade Pika i slutet av april under namnet ´Mellis Labs´, med meddoktorand Chenlin Meng som senare anslöt sig som medgrundare.
Google firar sitt 25-årsjubileum: Sundar Pichai reflekterar över teknikens förändring
Google firar sitt 25-årsjubileum denna månad och dess VD, Sundar Pichai, har reflekterat över hur tekniken har förändrat hur vi kommunicerar, skapar och innoverar. Pichai delade personliga anekdoter om hur kommunikationen har förändrats över generationer och betonade vikten av tacksamhet och reflektion. Han påminde om att Google grundades 1998 av Larry Page och Sergey Brin och har sedan dess vuxit till att omfatta flera teknikströmmar och lanserat flera produkter. Pichai poängterade att företaget fortsätter att investera i AI och att en miljon människor redan använder generativ AI i Google Workspace.
AI21 Labs siktar på att bli mer framträdande i AI-sektorn efter att ha säkrat 155 miljoner dollar i finansiering
AI21 Labs, ett företag baserat i Tel Aviv, grundades 2020 och var ett av de första företagen att kommersiellt använda generativa AI-verktyg i stor skala. Företaget lanserade genast Wordtune, ett AI-baserat skrivverktyg som förstår sammanhang och mening. Trots att Wordtune blev populärt saknade det chatten som gjorde OpenAI´s ChatGPT populär. 2023 skryter AI21 Labs med några av världens mest sofistikerade storskaliga språkmodeller (LLM) - dess Jurassic-2-modeller dyker regelbundet upp på ´bästa av´-listor. Trots detta är företaget mest känt för Wordtune. Efter en finansieringsrunda på 155 miljoner dollar förra veckan, med deltagande från Nvidia och Google, är det tydligt att AI21 har för avsikt att bli mer framträdande, särskilt när det gäller att konkurrera med OpenAI om företagsinvesteringar.
AI-forskaren Douglas Lenat har avlidit
Douglas Lenat, en forskare inom artificiell intelligens (AI) som ägnade nästan 40 år åt att bygga in sunt förnuft i datorer, avled i Austin, Texas, vid 72 års ålder. Hans fru, Mary Shepherd, sade att orsaken var gallgångscancer. Lenat utvecklade ett AI-system han kallade Eurisko, vilket var designat för att automatisera upptäckten av nya vetenskapliga begrepp, metoder och lagar genom att analysera data. Han använde detta system för att analysera reglerna för ett extremt komplext rollspel kallat Traveller Trillion Credit Squadron. Lenats erfarenheter inspirerade ett nytt projekt som skulle uppta honom under de nästa fyra decennierna. Projektet hette Cyc.
Google firar 25 år: hotas av sin egen uppfinning, artificiell intelligens
Google firar sitt 25-årsjubileum som ett av världens största företag, men hotas nu av sin egen skapelse, artificiell intelligens (AI). Företaget grundades av Sergey Brin och Larry Page, som fick en investering på 100 000 dollar från Andy Bechtolsheim. Idag tar det Google 10-15 sekunder att tjäna samma summa. Google har organiserat internet, gett två miljarder människor e-postkonton och kartlagt hela världen. Nu siktar de på att använda AI för att organisera all information och göra den tillgänglig för alla. Detta kan dock innebära slutet för teknikjätten.
X uppdaterar sekretesspolicy för att träna AI på användarposter, AI-pionjär Douglas Lenat avlider, AI21 Labs samlar in 155 miljoner dollar, Gannett pausar AI-genererade sportartiklar
X, den sociala medieplattformen tidigare känd som Twitter, uppdaterade sin sekretesspolicy denna vecka och meddelade att den kan träna sina AI-modeller på användarposter. Den nya policyn förväntas träda i kraft den 29 september. Ägaren och tidigare VD:n Elon Musk sa att privat data, som text i direkta meddelanden, dock inte kommer att användas för att träna dess modeller. X tar ut 42 000 dollar från andra företag för tillgång till dess data via ett API. AI-pionjären Douglas Lenat har avlidit vid 72 års ålder. Lenat var en pionjär för neurosymboliska system och försökte lära maskiner att resonera med hjälp av en kombination av en kunskapsbas och en resonemangsmotor. AI21 Labs, en tillverkare av stora språkmodeller, har samlat in 155 miljoner dollar i sin senaste serie C-runda, vilket sätter dess värdering till 1,4 miljarder dollar. Den israeliska startupen stöds av riskkapitalföretag Walden Catalyst, Pitango, SCB10X, b2venture, Samsung Next, Google, Nvidia samt dess egen grundare Amnon Shashua. Gannett, en amerikansk tidningskedja, har pausat publiceringen av AI-genererade artiklar som täcker high school-sportspel efter att läsare hånade skrivandet.
AI-detektorer misslyckas med att identifiera maskinellt genererade skolarbeten
En amerikansk gymnasielärare i engelska använder fem olika AI-detektorer för att kontrollera elevernas uppsatser för fusk, men en studie från Stanford University visar att dessa detektorer lätt kan luras. Forskarna genererade 31 falska antagningsuppsatser till högskolan med ChatGPT 3.5 och alla detektorer kunde identifiera dem. Men när forskarna bad ChatGPT att skriva om uppsatserna med mer litterärt språk, sjönk identifieringsgraden till nära noll. Dessutom markerade samma detektorer felaktigt mer än hälften av uppsatserna skrivna av icke-engelsktalande studenter som AI-genererade.
Google firar 25 år och arbetar för att vara en del av AI-ekonomin
Google firade sin 25-årsdag den 4 september. Företaget, som grundades av de amerikanska datavetarna Larry Page och Sergey Brin, har sedan dess utvecklat en rad teknikströmmar och lanserat flera produkter. Google, som nu är en del av moderbolaget Alphabet och leds av Sundar Pichai, har vuxit snabbt och erbjuder nu en mängd produkter och tjänster utöver Google Search. Företaget har även expanderat Bard, en del av sin AI-teknik, till fler platser och lanserat nya funktioner för att hjälpa användare att anpassa sin upplevelse. Google planerar även att bygga två ytterligare datacenter i USA.
Avancerad version av ChatGPT, kallad GPT-4, nu tillgänglig
En avancerad version av AI-verktyget ChatGPT, kallad GPT-4, är nu tillgänglig. Verktyget, som utvecklats av OpenAI i San Francisco, kan svara på frågor, berätta historier, skapa uppsatser och till och med skriva kod. En gratisversion av ChatGPT (GPT-3.5) finns tillgänglig för alla på ChatGPT:s webbplats. En mer avancerad version, ChatGPT-4, är tillgänglig för betalande prenumeranter. Trots verktygets möjligheter har det också väckt kontroverser. Många skolor har förbjudit användning av ChatGPT eftersom elever kan använda det för att fuska och vissa länder har blockerat sina medborgares tillgång till webbplatsen.
Google firar 25 år: Från sökmotor till teknikjätte
Teknikjätten Google, som fyller 25 år på måndag, har kommit långt sedan det grundades som en sökmotor i garaget till Susan Wojcicki – den framtida chefen för YouTube. Google grundades den 4 september 1998 av de amerikanska datavetarna Larry Page och Sergey Brin under deras doktorandstudier vid Stanford University i Kalifornien. Företaget, som nu är en del av moderbolaget Alphabet och drivs av Sundar Pichai av indiskt ursprung, har diversifierat sig till flera teknikströmmar och lanserat flera produkter. Google har också expanderat Bard´s tillgång till fler platser, inklusive Brasilien och över hela Europa. I början av maj meddelade Google sina planer på att bygga två ytterligare datacenter i USA.
Sökmotorjätten Google fyller 25 år på måndag. Företaget grundades av Larry Page och Sergey Brin 1998 under deras doktorsstudier vid Stanford University i Kalifornien. Nu är det en del av moderbolaget Alphabet, som leds av VD Sundar Pichai. Sedan sina tidiga dagar har företaget diversifierat sin räckvidd genom att introducera flera produkter och blev offentligt genom en börsintroduktion 2004. Utöver sökning inkluderar Googles populära tjänster Gmail, Maps, Drive, Chrome, YouTube, Android, Workspace-appar, Translate, Meet, Pixel-produktserien, Assistant, Bard och mer. Företaget är också i färd med att förbereda sig för tillkännagivandet av de kommande Pixel-telefonerna och Watch 2.
AI-chattboten ChatGPT blir sämre, enligt forskare
Forskare vid Stanford University och UC Berkeley har upptäckt att AI-chattboten ChatGPT verkar bli sämre på vissa uppgifter. Detta är liknande problem som uppstod med Microsofts AI-chattbot Tay 2016, som började publicera kränkande kommentarer efter att ha lärt sig från användarnas interaktioner. Problemet med båda dessa AI-system är att de lär sig från människor, och om de lär sig från alla typer av människor utan övervakning kan de absorbera och återspegla negativa beteenden. OpenAI, företaget bakom ChatGPT, har förnekat forskarnas påståenden.
AI21 Labs säkrar 155 miljoner dollar i Series C-finansiering
AI21 Labs, baserat i Tel Aviv, Israel och ledande inom stora språkmodeller (LLM), har bekräftat att de har stängt en Series C-finansiering på 155 miljoner dollar för att påskynda tillväxten av sina textbaserade generativa AI-tjänster för företag. Företaget är nu värderat till 1,4 miljarder dollar. Investerare i rundan inkluderar Walden Catalyst, Pitango, SCB10X, b2venture, Samsung Next och Prof. Amnon Shashua, med deltagande från Google och Nvidia. AI21 ses ofta som en rival till OpenAI.
Stanford-forskare utnyttjar medicinsk Twitter för att bygga AI för patologi
Forskare vid Stanford University har utnyttjat medicinska Twitter för att samla mer än 200 000 anonymiserade diagnostiska bilder av cancer och andra sjukdomar, tillsammans med de professionella anteckningar som tillhandahålls av högt utbildade läkare. Från dessa data har de byggt en kraftfull AI-modell som kan analysera och diagnostisera tidigare osedda bilder korrekt. Trots löftet säger James Zou, professor i biomedicinsk dataforskning, att det finns en brist på anonymiserade, välannoterade bilddatamängder. Forskarna har skapat OpenPath, en av de största offentliga patologidatamängderna med naturliga språkbeskrivningar.
Experter varnar för ´modellkollaps´ i AI-träning
AI-experter varnar för ett fenomen kallat ´modellkollaps´, där generativa AI-verktyg kan tränas på innehåll genererat av andra AI, vilket kan leda till sämre kvalitet på output. Enligt forskare från universiteten i Oxford och Cambridge kan detta fenomen uppstå när AI-modeller tränas på ´syntetiska data´ istället för människoskapade innehåll. Andra termer för detta fenomen inkluderar ´Model Autography Disorder´ och ´Habsburg AI´. Effekterna av dessa fenomen är ännu oklara, men vissa teknikexperter tror att det kan bli svårt att identifiera ursprungskällan till informationen en AI-modell tränas på. Detta kan leda till att tillhandahållare av korrekt information begränsar det innehåll de publicerar online, vilket kan skapa en ´mörk ålder för offentlig information´.
AI-modell kan svara lämpligt på oftalmologi-frågor
Stora språkmodeller (LLM) som ChatGPT kan svara på patientformulerade frågor om oftalmologi och genererar oftast lämpliga svar, enligt en studie publicerad online den 22 augusti i JAMA Network Open. Isaac A. Bernstein från Stanford University i Kalifornien och kollegor undersökte kvaliteten på oftalmologiråd genererade av en LLM-chattbot jämfört med råd skrivna av oftalmologer. Studien använde avidentifierade data från ett online medicinskt forum, där patientfrågor fick svar skrivna av oftalmologer. En maskerad panel av åtta styrelsecertifierade oftalmologer ombads att skilja mellan svar genererade av ChatGPT-chattboten och svar från oftalmologer. Två hundra par av användarfrågor och svar bedömdes. Forskarna fann att den genomsnittliga noggrannheten var 61,3 procent för att skilja mellan AI- och mänskliga svar. Av 800 bedömningar av chattbot-skrivna svar markerades 21,0 och 64,6 procent som mänskligt skrivna och AI-skrivna respektive. Chattbot-svar betygsattes oftare som troligen eller definitivt skrivna av AI jämfört med mänskliga svar. Sannolikheten för att chattbot-svar innehåller felaktigt eller olämpligt material och sannolikheten för skada var jämförbar med mänskliga svar.
USA:s flygvapen testar pilotlösa flygplan drivna av AI
USA:s flygvapen testar pilotlösa XQ-58A Valkyrie experimentflygplan som drivs av artificiell intelligens (AI). Valkyrie är en prototyp för vad flygvapnet hoppas kan bli ett kraftfullt tillskott till dess flotta av traditionella stridsflygplan, genom att ge mänskliga piloter en svärm av högkapabla robotvingmän att använda i strid. Flygplanet kan flyga en sträcka lika bred som Kina, har en stealth-design och kan bära missiler som kan träffa fiendemål långt bortom dess visuella räckvidd. Valkyrie-programmet ger en inblick i hur USA:s vapenindustri, militärkultur, stridstaktik och konkurrens med rivaliserande nationer omformas på potentiellt långtgående sätt av snabba framsteg inom teknik.
KoBold Metals AI-plattform lockar investeringar för att lokalisera mineralavlagringar
En amerikansk startup kallad KoBold Metals, som utvecklar ett artificiellt intelligensprogram för att exakt lokalisera avlagringar av kritiska mineraler, lockar investeringar från en rad investerare, inklusive energiföretag och miljardärerna Bill Gates och Jeff Bezos. KoBold Metals, lanserat 2018, har en AI-plattform som utvecklats tillsammans med Stanford University som analyserar privat och offentlig geologisk data insamlad från hela världen för att lokalisera mineraler. Programmet har potential att identifiera nickel, kobolt och andra kritiska mineraler med tio gånger precisionen av konventionella utforskningsmetoder.
AI och hjärnimplantat ger röst åt människor som förlorat talförmågan
I två nya studier har personer som tidigare varit oförmögna att tala kunnat använda AI för att återfå sin röst digitalt. Studierna involverade personer som förlorat sin talförmåga till följd av stroke eller ALS. Hjärn-datorgränssnitt läser hjärnaktivitet relaterad till tal och matar in data i en språkinlärningsmodell. Hjärnimplantat, drivna av artificiell intelligens, förbättras snabbt och ger dem som förlorat sin talförmåga en röst igen. Forskare från Stanford University och University of California San Francisco visade sitt arbete med hjärn-datorgränssnitt, som har låtit två kvinnor med förlamning tala igen med enastående hastighet och noggrannhet.
AI kan ge jämförbara råd som ögonläkare, visar studie
En studie från Stanford University har visat att stora språkmodeller (LLM) och ögonläkare kan ge jämförbara råd till patienter. Forskarna utförde en tvärsnittsanalys av mänskliga och AI-baserade svar på 200 ögonvårdsfrågor, och fann att en AI-chattbot genererade lämpliga svar som inte skiljde sig signifikant från ögonläkarnas vad gäller felaktig information och sannolikheten för skada. Trots att expertpanelen kunde skilja mellan chattbot- och mänskliga svar, bedömdes chattbot-svaren inte vara signifikant mer skadliga än de mänskliga svaren.
Tyskland planerar att dubbla offentlig finansiering för AI-forskning
Tyskland planerar att dubbla sin offentliga finansiering för forskning inom artificiell intelligens (AI) till nästan en miljard euro under de kommande två åren, enligt forskningsminister Bettina Stark-Watzinger. Målet med investeringen är att etablera 150 universitetslaboratorier, utöka Tysklands datacenterkapacitet och säkerställa enklare tillgång till viktig data för AI-algoritmutbildning. Trots konkurrens från AI-jättar som Kina och USA tror Stark-Watzinger att Tyskland har en unik fördel genom Europas regelverk som prioriterar integritet och personlig säkerhet.
AI ger nytt hopp åt ALS-patienter med förmåga att kommunicera snabbare
Forskare vid Stanford University har utvecklat ett gränssnitt för hjärna till dator som möjliggör för människor med motorneuronsjukdomen amyotrofisk lateralskleros (ALS) att kommunicera med 62 ord per minut. Detta är 3,4 gånger snabbare än tidigare rekord för jämförbara metoder. Enligt forskarna skulle detta inte ha varit möjligt för tio år sedan.
AI-drivna kryptobedrägerier: ChatGPT används för att främja Bitcoin-bedrägerier på Twitter
Bedragare använder AI-genererat innehåll för att hypea specifika tokens. Forskare har nyligen upptäckt Fox8, ett botnät som fokuserar specifikt på krypto, som används av 1 000 konton som använder ChatGPT för att generera och publicera innehåll om ämnet. Dessa konton använde även det populära språk-AI:et för att svara på potentiella offer. Fox8 hittades för att använda ChatGPT för att posta innehåll på X (tidigare Twitter). Forskare använde en specifik fras som ofta används av ChatGPT för att spåra Fox8-innehåll. Elon Musk, vars namn har blivit förknippat med krypto, har ännu inte lyckats uppfylla sitt löfte om att eliminera botproblemet på plattformen.
Tyskland planerar att nästan fördubbla offentlig finansiering för AI-forskning
Tyskland planerar att nästan fördubbla sin offentliga finansiering för forskning inom artificiell intelligens (AI) till nästan en miljard euro under de närmaste två åren. Landet försöker därmed minska kompetensgapet gentemot sektorledarna Kina och USA. Målet, som tillkännagavs av forskningsminister Bettina Stark-Watzinger, är blygsamt jämfört med de 3,3 miljarder dollar som den amerikanska regeringen spenderade på AI-forskning 2022 enligt en rapport från Stanford University. Tyskland planerar att skapa 150 nya universitetslaboratorier för AI-forskning och utöka datacenter.
Forskning visar på potentiell prestandanedgång i AI-modeller
Artificiell intelligens (AI) har genomgått stora förändringar sedan den generativa förtränade transformeraren (GPT) serien startade 2018. Från GPT-1:s grundläggande textskapande till GPT-4:s mångsidiga färdigheter, är utvecklingen tydlig. En forskningsstudie från Stanford University och University of California, Berkeley, har dock belyst en övergripande nedgång i prestanda för dessa generativa förtränade transformermodeller. Studien undersökte modellernas förmåga att identifiera primtal, hantera känsliga frågor, generera kod och mer. Men andra experter har erbjudit en annan synvinkel och menar att studien inte bevisar att GPT-4:s förmågor har minskat.
OpenAI förvärvar sitt första företag, Global Illumination
OpenAI har förvärvat sitt första företag, Global Illumination, skaparna av ett online-rollspel jämfört med Minecraft. Ekonomiska detaljer om affären har inte offentliggjorts. OpenAI meddelade förvärvet i ett kort uttalande, och sa att hela Global Illumination-teamet, som tycks bestå av åtta personer, kommer att ansluta sig till företaget. Global Illumination är ett företag som har utnyttjat AI för att bygga kreativa verktyg, infrastruktur och digitala upplevelser. Teamet har tidigare designat och byggt produkter tidigt på Instagram och Facebook och har också gjort betydande bidrag på YouTube, Google, Pixar, Riot Games och andra anmärkningsvärda företag.
Filantroper och teknikmiljardärer finansierar AI för det gemensamma goda
Teknikexperter varnar för den snabba utvecklingen av artificiell intelligens (AI), men filantroper och teknikmiljardärer svarar med ökade bidrag. Mycket av filantropin fokuserar på ´teknik för det goda´ eller ´etisk AI´, som undersöker hur man kan lösa eller mildra de skadliga effekterna av AI-system. Vissa tror att AI kan användas för att förutsäga klimatkatastrofer och upptäcka nya läkemedel för att rädda liv. Andra varnar för att stora språkmodeller snart kan rubba vitkragarprofessioner, bränslemissinformation och hota nationell säkerhet. Före detta Google VD Eric Schmidt och hans fru Wendy har till exempel åtagit sig hundratals miljoner dollar till AI-bidragsprogram. Salesforce är också intresserade av att hjälpa ideella organisationer att använda AI. LinkedIn medgrundare Reid Hoffman är en annan stor donator som tror att AI kan förbättra mänskligheten.
Filantroper investerar i ´etisk AI´ för att motverka skadliga effekter
Teknikexperter varnar för den snabba utvecklingen av artificiell intelligens (AI), men filantroper, inklusive långvariga stiftelser och teknikmiljardärer, svarar med en ökning av bidrag. Många av dessa bidrag fokuserar på ´teknik för gott´ eller ´etisk AI´, som utforskar hur man kan lösa eller mildra de skadliga effekterna av AI-system. Vissa tror att AI kan användas för att förutsäga klimatkatastrofer och upptäcka nya läkemedel. Andra varnar för att stora språkmodeller snart kan rubba vitkragsyrken, bränslemissinformation och hota nationell säkerhet.
AI förändrar sjukvården genom gör-det-själv-diagnostik
Artificiell intelligens (AI) förändrar sjukvården genom att möjliggöra gör-det-själv-diagnostik. AI-verktyg kan analysera stora mängder medicinsk data snabbt och noggrant, vilket hjälper patienter att identifiera hälsoproblem i ett tidigt skede. En studie vid Stanford University visade att en AI-algoritm kunde diagnostisera hudcancer med 95% noggrannhet, jämfört med dermatologers genomsnittliga noggrannhet på 86%. AI-drivna diagnostiska verktyg kan även underlätta personaliserad hälsövervakning och behandling. I Indien, där kroniska sjukdomar är ett växande problem, bidrar AI-verktyg till att patienter kan övervaka sina blodsockernivåer, hjärtfrekvens och fysiska aktivitet. AI kan även bidra till att förbättra sjukvården i avlägsna och underbetjänade områden.
Företag som löser AI:s energiutmaningar kan vara attraktiva för investerare
Investerare bör ta en närmare titt på företag som bidrar till att skapa ett mer energieffektivt ekosystem för AI. Generativ AI, som använder maskininlärning för att skapa innehåll, kräver massiv beräkningskraft och därmed mycket energi. Företag som hjälper till att lösa denna energiutmaning kan möjliggöra en hållbar framtid för denna växande teknologi och skapa möjligheter för aktieinvesterare. Flera företag börjar nu adressera AI:s enorma energiutmaning. Dessa inkluderar företag som är centrala för AI och de som bara befinner sig i periferin.
Forskare vid MIT undersöker rötterna till ojämlikhet i maskininlärning
Marzyeh Ghassemi, biträdande professor vid MIT:s avdelning för elektroteknik och datavetenskap, och hennes kollegor har utforskat de ojämlikheter som kan uppstå i maskininlärning. I en ny studie har forskargruppen identifierat fyra huvudtyper av förskjutningar - falska korrelationer, attributobalans, klassobalans och attributgeneralisering - som kan leda till snedvridna resultat. Forskarna testade 20 avancerade algoritmer på ett dussin dataset för att se hur de presterade över olika befolkningsgrupper. Studien presenterades på den 40:e internationella konferensen om maskininlärning i Honolulu, Hawaii.
Lista över de bästa gratis AI-utbildningarna publicerad
En lista över de bästa gratis AI-utbildningarna har sammanställts, med fokus på generativ AI och hur man kan utnyttja det samt grundläggande koncept inom artificiell intelligens. Många av dessa kurser är utformade för att vara introduktionskurser och riktade till nybörjare. Kurserna är: Googles Generative AI Learning Path (10 kurser), Microsofts ”Transform Your Business With AI”-kurs, LinkedIns ”Career Essentials In Generative AI”-utbildning, ”IBM: AI Foundations for Everyone”-utbildning, Digital Partners ”Fundamentals of ChatGPT”-utbildning, Phil Ebners AI Crash Course (Udemy).
Jämförelse mellan generativa AI-lösningar: OpenAI:s ChatGPT och Stanford Universitys Alpaca
Generativ AI har tagit världen med storm, med förmågan att förstå mönster från träningsdata och generera nytt innehåll. Två av de bästa generativa AI-lösningarna är OpenAI:s ChatGPT och Stanford Universitys Alpaca. I denna artikel jämförs dessa två lösningar utifrån olika faktorer som träningsmodeller, prestanda och användbarhet. ChatGPT är en AI-språkmodell utvecklad av OpenAI, designad för att förstå och generera mänskligt textbaserat innehåll. Stanford Alpaca är en avancerad modell för naturlig språkbehandling utvecklad av forskare vid Stanford University. Båda modellerna har sina styrkor och svagheter och erbjuder unika möjligheter för utvecklare och företag beroende på specifika behov och mål.
OpenAI använder GPT-4 för innehållsmoderering och föreslår att sociala medieplattformar antar samma tillvägagångssätt
OpenAI har börjat använda sitt senaste stora språkmodell, GPT-4, för att moderera innehåll och föreslår att sociala medieplattformar som Meta Platforms Inc.´s Facebook och Instagram, samt Elon Musks X (tidigare Twitter), utforskar nya sätt att upprätthålla onlineintegritet. OpenAI avslöjade att de har använt GPT-4 för att övervaka innehållsmoderering och föreslår att andra plattformar också kan anta denna innovativa strategi genom att använda företagets API. Företaget tror att detta erbjuder en mer positiv vision för framtiden för digitala plattformar, där AI kan hjälpa till att moderera online-trafik enligt plattformsspecifik policy och lindra den mentala bördan för många mänskliga moderatorer.
Mount Sinai Hospital använder AI för att bedöma patientrisk
Mount Sinai Hospital använder artificiell intelligens (AI) för att bedöma patienters tillstånd och förutsäga vilka som kan vara i riskzonen för att dö. AI-programmet genererar en poäng för varje patient baserat på deras hälsotillstånd. Trots att AI har potential att förbättra sjukvården, uttrycker många vårdanställda oro för teknikens konsekvenser, inklusive felaktiga diagnoser, avslöjande av känslig patientinformation och risk för personalnedskärningar. Dessutom ifrågasätter vissa om mjukvaran kan utföra arbetet hos en mänsklig läkare eller sjuksköterska.
Studier glömmer att erkänna OpenAI:s ChatGPT som medförfattare, upptäcker Stanford-student
Andrew Gao, en mjukvaruutvecklare och student vid Stanford University, har upptäckt att många nyligen publicerade studier online har glömt att erkänna en medförfattare, OpenAI:s ChatGPT. Gao, som specialiserar sig på artificiell intelligens och stora språkmodeller, tog till Twitter för att diskutera vad han hittade efter att ha sökt efter frasen ´Som en AI-språkmodell´ på Google Scholar. Resultaten Gao drog upp från Google Scholar var förbluffande. Det fanns papper efter papper, granskade tidskrifter, bokanalyser och mer. Gao menar att användning av ChatGPT inte är fel, men det måste erkännas korrekt. I juni bötfällde en New York-domare advokater för att ha använt ChatGPT för att skapa en juridisk stämningsansökan.
Forskare hävdar att ChatGPT lurar folk att tro att det är smartare än det är
ChatGPT, en chattbot utvecklad av OpenAI, kan lura användare att tro att den är smartare än den egentligen är, enligt forskare vid Purdue University. Forskarna analyserade svar från ChatGPT på 517 frågor som ställts på programmeringsforumet Stack Overflow. De upptäckte att 52% av svaren var felaktiga och 77% var onödigt långa. Trots detta föredrog användare ChatGPT:s svar framför mänskliga svar 40% av tiden, på grund av dess uttrycksfulla språkstrukturer. OpenAI har tidigare varnat för att boten kan skriva ´sannolikt lätande men felaktiga eller nonsenssvar´.
AI-verktyg i klassrummet kan vara partiska mot icke-engelsktalande studenter, varnar forskare
Forskare från Stanford University varnar att AI-verktyg, kända som generativa förtränade transformatorer (GPT), kan vara partiska mot icke-engelsktalande studenter. De fann att detektorerna felaktigt märkte mer än hälften av uppsatser skrivna av kinesiska studenter på TOEFL-testet som AI-genererade, medan uppsatser skrivna av engelska modersmålstalare korrekt klassificerades. James Zou, en av medförfattarna till forskningsartikeln, förklarar att GPT-detektorer tittar på textens förvirring, vilket innebär användning av vanliga ord. Peter Gault, verkställande direktör och medgrundare av Quill, föreslår att lärare använder elevernas versionhistorik av text för att kontrollera om de har använt AI i sitt arbete.
AI-chattboten ChatGPT revolutionerar viktminskningsresor
OpenAI, känt för att skapa artificiell intelligens teknologier, introducerade en chattbot kallad ChatGPT. Denna teknologi har skapat mycket uppmärksamhet i teknikgemenskapen på grund av dess många användningsområden och användbarhet. YouTubern och säkerhetsarkitekten Can Deger använde ChatGPT för viktminskning, vilket markerade en revolutionerande steg i att navigera viktminskningsresor utan traditionellt beroende av personliga tränare och dietister. ChatGPT har förmågan att konsolidera information, replikera vägledning av specialiserade yrkesverksamma och leverera skräddarsydda strategier.
AI förmågor kan påverka arbetsvärlden
Artificiell intelligens (AI) kan nu utföra uppgifter som vi tidigare trodde endast människor kunde göra. Detta kan påverka arbetsvärlden. Sandra Gathmann förklarar detta i ett avsnitt som innehåller Jack Stilgoe, professor i vetenskap och teknikpolicy vid University College London, Yolanda Lannquist, direktör för AI-styrning vid The Future Society, och Anka Reuel, grundande medlem av Center for AI Risks and Impacts och doktorand i datavetenskap vid Stanford University.
AI-pionjär uppmanar president Biden att investera i AI, Stanford håller ´AI-bootcamp´
AI-pionjären och Stanfordprofessorn Fei-Fei Li mötte nyligen president Biden och uppmanade honom att göra en ´allvarlig investering´ i att upprätthålla USA:s forskningsledning och utveckla ´verkligen välvilliga applikationer av AI´. På Stanford hölls nyligen en tre dagar lång ´AI-bootcamp´ för att utbilda mer än två dussin politiska analytiker, jurister och stabschefer om AI:s fördelar och risker. Händelsen organiserades av Stanford´s Institute for Human-Centered AI (HAI), där Li fungerar som meddirektör. Bootcampen har hållits sedan 2014 och fokuserade ursprungligen på cybersäkerhet, men skiftade helt till AI förra året.
Felaktigt anklagad av AI som terrorist
En kvinna blev felaktigt märkt som ´terrorist´ av artificiell intelligens. Marietje Schaake från Stanford University har kommenterat händelsen.
Digitala vattenmärken kan hjälpa till att identifiera AI-genererat innehåll
AI-genererat innehåll på nätet ökar, vilket leder till en kris med osäkerheter och potentiellt farliga fel, desinformation och bedrägerier. För att skilja AI-genererade produkter från mänskligt arbete övervägs nu digitala vattenmärken, en osynlig digital signatur inbäddad i varje bit av AI-producerat innehåll som gör källan spårbar. Sju amerikanska AI-företag har nyligen undertecknat en förpliktelse att utveckla sådana mekanismer. EU-regler kräver också att teknikföretag differentierar deras AI-output från mänskligt arbete. Men det finns tekniska utmaningar och vattenmärkning ses endast som ett första steg.
Framstående personer inom AI diskuterar teknikens möjligheter och risker
Artificiell intelligens (AI) har blivit allt mer mainstream sedan ChatGPT lanserades i november. Investeringsnivån inom AI förväntas uppgå till 200 miljarder dollar till 2025. Betydande personer inom branschen har börjat diskutera riskerna och fördelarna med den snabba utvecklingen av AI. Vissa menar att AI kommer att leda till ett stort framsteg i människans livskvalitet, medan andra har uppmanat till en sex månaders paus i utvecklingen, vittnat inför kongressen om de långsiktiga riskerna med AI och hävdat att det kan utgöra en mer brådskande fara för världen än klimatförändringarna.
Företaget fokuserar på att utveckla GPT-4 istället för GPT-5
Det finns ingen tillgänglig information om när GPT-5 kommer att släppas. Analytiker tror att det är osannolikt att GPT-5 kommer att bli tillgängligt inom en snar framtid. Företaget ses som mer benäget att fokusera på att utveckla GPT-4-modellen istället för att allokerar alla sina resurser till nästa version. Nyligen hävdade forskare från prestigefyllda amerikanska institutioner Stanford och Berkeley University att prestandan för ChatGPT försämrades. Enligt deras artikel hade GPT-4 utmärkt sig i att identifiera primtal i mars 2023, med en noggrannhet på 97,6%. Men i slutet av juni rapporterades det att det bara kunde ge korrekta svar på samma frågor med en noggrannhet på 2,4%. Även om inga specifika detaljer om GPT-5:s funktioner eller förbättringar har avslöjats, antyder förseningen i dess utgivning att företaget investerar tid och ansträngning i att förbättra GPT-4-modellen. Förväntningarna är att GPT-5, när det väl lanseras, kommer att erbjuda märkbara framsteg inom naturlig språkbehandling och artificiell intelligens. Fram till vidare meddelanden ligger fokus dock på utvecklingen och optimeringen av GPT-4. Eftersom språkmodeller fortsätter att utvecklas och förbättras, är det viktigt att ta itu med utmaningarna att upprätthålla och utöka deras förmågor. Efterfrågan på avancerad teknik för naturlig språkbehandling förblir hög, och forskare arbetar flitigt med att förbättra dessa modeller för att möta de växande kraven från olika branscher.
OpenAI´s ChatGPT försämras i grundläggande matematik
I den snabbt föränderliga teknikvärlden har AI-chattbottar som OpenAI´s ChatGPT framstått som betydande genombrott. ChatGPT har förmågan att engagera sig i flytande samtal, vilket har gett den beröm och utlöst en global kapplöpning för att utveckla ännu mer avancerade AI-modeller. Men nyligen har forskare upptäckt att ChatGPT:s förmåga att utföra grundläggande matematik har minskat. Detta fenomen, kallat ´drift´, upptäcktes genom gemensam forskning mellan Stanford University och University of California, Berkeley. Det visar att när forskare och utvecklare strävar efter att förbättra vissa funktioner i dessa komplexa AI-modeller, kan andra områden oavsiktligt försämras.
AI kan öka produktiviteten men leda till färre jobb, enligt studie
Artificiell intelligens (AI) kan göra arbetstagare mer produktiva snabbare, enligt en studie från Stanford University och MIT. AI-plattformar som ChatGPT kan minska den nuvarande kompetensbristen och omjustera talangpipeline för att inkludera lägre kvalificerade anställda. Studien visade att lägre kvalificerade arbetstagare på ett namnlöst Fortune 500-programvaruföretag som hade tillgång till AI-verktyg inte bara avslutade sitt arbete 35% snabbare än normalt, utan också var 14% mer produktiva. Detta gjorde det möjligt för dem att lära sig och utvecklas snabbare än sina motsvarigheter. Emellertid kan AI leda till färre jobb i framtiden, med en studie från Goldman Sachs som visar att 300 miljoner jobb kan gå förlorade på grund av AI-implementering.
AI-chattbotens förmåga i grundläggande matematik minskar
AI-chattbotar som OpenAI:s ChatGPT har hyllats som ett stort tekniskt genombrott. Dessa chattbotar, kända för sin förmåga att engagera sig i flytande konversationer, har fått global uppmärksamhet. Men nyligen har forskare från Stanford University och University of California, Berkeley, upptäckt att ChatGPT:s förmåga i grundläggande matematik har försämrats. I ett test utfört i mars identifierade den avancerade versionen GPT-4 korrekt primtaligheten hos 84% av de presenterade talen. Men i de följande månaderna sjönk dess noggrannhet till bara 51%. Denna minskning i prestanda observerades i sex av åtta olika uppgifter. Forskare förespråkar nu mer noggrann övervakning och testning av AI-modeller över tid för att bättre förstå deras utveckling.
Stanford-forskare gör framsteg inom indirekt språkinlärning för AI
Ett forskningsteam från Stanford University har gjort banbrytande framsteg inom Natural Language Processing (NLP) genom att undersöka om Reinforcement Learning (RL) agenter kan lära sig språkkunskaper indirekt, utan explicit språklig handledning. Forskarna utformade en kontorsnavigeringsmiljö för att utmana agenterna att hitta ett målkontor så snabbt som möjligt. Deras DREAM-agent lärde sig att navigera till och läsa en planlösning, vilket visade att språk kan uppstå som en biprodukt av att lösa icke-språkliga uppgifter hos meta-RL-agenter. Forskningen förväntas främja framsteg inom NLP och bidra betydligt till utvecklingen av AI-system som kan förstå och använda språk på allt mer sofistikerade sätt.
AI för SaaS: Utmaningar och möjligheter diskuteras på TechCrunch Disrupt 2023
Global uppmärksamhet kring potentiella fördelar med AI har fångat affärsvärldens intresse och därför integrerar nya och befintliga SaaS-startups det i sina produkter. Enligt en nyligen genomförd undersökning använder redan 35% av SaaS-företagen AI, medan ytterligare 42% planerar att göra det inom en snar framtid. På TechCrunch Disrupt 2023, som äger rum 19–21 september i San Francisco, kommer tre ledande experter att diskutera utmaningar med att bygga in AI i SaaS-applikationer. Panelister inkluderar Ines Chami, chefsforskare, Numbers Station; David DeSanto, produktchef, GitLab; och Navrina Singh, grundare och VD, Credo AI.
Inworld AI värderas till 500 miljoner dollar efter senaste finansieringsrundan
Spelutvecklaren Inworld AI har avslutat sin senaste finansieringsrunda, vilket tar företagets totala värdering till 500 miljoner dollar. Tidigare rapporter angav att det insamlade beloppet låg på 30 miljoner dollar, men en talesperson för Inworld AI uppgav att siffran faktiskt är över 50 miljoner dollar. Finansieringsrundan leddes av Lightspeed Venture Partners och inkluderade bidrag från Stanford University, Samsung Next och strategiska investerare som Microsofts M12-fond, Eric Schmidts First Spark Ventures och LG Technology Ventures. Inworld AI lanserades i juli 2021 av tidigare utvecklare från Google, DeepMind och API.AI.
OpenAI:s ChatGPT:s prestanda försämras, enligt studie
Stora språkmodeller som OpenAI:s ChatGPT har hjälpt miljontals människor att bli mer effektiva med datorer. Men det har också väckt kritik, med anklagelser om att AI stjäl kreativa idéer och etiska problem. En del Twitter-användare har uttryckt frustration över modellens prestanda, och spekulerar i att det kan vara ett medvetet drag från OpenAI. En ny studie från Stanford University och UC Berkeley bekräftar att prestandan för ChatGPT har försämrats. Framför allt har förmågan att lösa matematiska problem minskat dramatiskt. Det är oklart om samma problem uppstår med andra språkmodeller, som Googles Bard.
Israel riskerar att missa AI-vågen om rätt åtgärder inte vidtas
Israel riskerar att missa AI-vågen om landets regering inte avbryter sin planerade rättsliga omvälvning och fokuserar på att skapa en strategi för tekniken, varnar experter. Michael Eisenberg, medgrundare till det Tel Aviv-baserade riskkapitalbolaget Aleph, menar att regeringen måste sluta distraheras och fokusera på det som verkligen spelar roll. Israels högerregering under ledning av premiärminister Benjamin Netanyahu driver en juridisk omvälvning som ekonomer, jurister och människorättsaktivister hävdar styr nationen mot en diktatur. Detta har lett till massprotester, ekonomisk nedgång och ett minskat intresse för att starta företag i landet.
OpenAI:s textgenererande artificiella intelligens, GPT-4, var ursprungligen mycket bra på att identifiera primtal, men några månader senare sjönk dess prestanda dramatiskt. Forskare vid Stanford University och University of California, Berkeley, fann att GPT-4:s beteende förändrades avsevärt över tid. Den senare modellen blev mindre benägen att förklara sig själv och utvecklade nya egenheter. Även om modellen verkade bli säkrare, filtrerade den ut fler frågor och gav färre potentiellt stötande svar. Forskare utanför OpenAI kan bara spekulera om vad som kan orsaka förändringarna i GPT-4:s prestanda.
Kalifornien leder USA i AI-relaterade jobb och intresse
Intresset för avancerad artificiell intelligens (AI) har ökat sedan OpenAI:s ChatGPT släpptes till allmänheten förra året. Enligt en ny rapport från globala mjukvaruföretaget GoTo överträffar Kalifornien, hem för Silicon Valley, alla andra delstater i USA när det gäller AI-relaterade jobböppningar och intresse för tekniken. Förra året toppade Kalifornien nationen med AI-relaterade jobbannonser på 142 154, mer än dubbelt så många öppna positioner som nummer 2, Texas, som hade över 66 000. Kalifornien visar också det största intresset för AI med över 20 miljoner sökningar efter AI-programvara under de senaste 12 månaderna.
Artificiell intelligens (AI) visar löfte om att kunna diagnostisera, förutsäga och potentiellt till och med behandla en rad medicinska tillstånd, enligt ledande forskare och företagare. AI-verktyg kan analysera patienters hela medicinska historia och identifiera tidiga indikatorer på sjukdomar som cancer. Trots detta är det fortfarande tidigt dagar och det finns tekniska begränsningar och etiska frågor som ännu inte har behandlats. AI inom sjukvården har funnits längre än de flesta kanske förväntar sig, med Stanford University som skapade det första AI-verktyget, MYCIN, redan på 1970-talet. Trots detta är verktygen för att faktiskt integrera AI i medicin fortfarande i sin linda.
Stora språkmodeller kan lära sig språk indirekt, enligt Stanford-forskning
Trots att stora språkmodeller (LLM) har blivit status quo inom Natural Language Processing (NLP) gemenskapen, behöver de flesta befintliga toppmodeller tränas direkt på språkuppgifter för att få språkkunskaper. Ett forskningsteam från Stanford University undersöker i en ny studie om förstärkningsinlärningsagenter kan få språkfärdigheter på ett liknande indirekt sätt. De bekräftar att enkla språkfärdigheter kan framträda hos meta-RL-agenter utan direkt språklig tillsyn. Forskningen fokuserar på att undersöka om RL-agenter kan lära sig språk indirekt utan språklig tillsyn.
Forskare från Stanford granskar prestanda hos AI-modellen GPT-4
För åtta månader sedan kunde jag inte föreställa mig att minska mina dagliga Google-sökningar med 80%. Jag har nästan alltid en skärm dedikerad till ett chattfönster där jag kan prata med ChatGPT och dela alla mina problem. GPT-4 är överlägsen alla andra språkmodeller på internet. Men problemet är att GPT-4 är som en svart låda. Endast högsta ledningen på OpenAI vet vad som händer bakom den. Forskare från Stanford University undersökte den indirekt. I en artikel publicerad den 18 juli testades en rad uppgifter på två versioner tillgängliga via OpenAI´s API, en från mars och en annan från juni 2023. Resultaten visar att GPT-4:s prestanda minskade i matematik och kodning, men märkbart förbättrades i säkerhet.
Fram- eller tillbakagång för ChatGPT? Debatt om AI-modellens prestanda
ChatGPT, en stor språkmodell utvecklad av OpenAI, är känd för sin förmåga att generera mänsklika texter, översätta språk och besvara frågor på ett informativt sätt. Nyligen har dock frågor väckts om huruvida ChatGPT:s prestanda förbättras eller försämras över tid. Forskare från Stanford University och UC Berkeley har genomfört studier som tyder på att prestandan för GPT-3.5 och GPT-4, modellerna som driver ChatGPT, har fluktuerat. En teori föreslår att OpenAI medvetet kan försämra modellens prestanda för att spara på beräkningsresurser. En annan teori är att modellen blir mer komplex, vilket gör den svårare att träna och finjustera. OpenAI har ännu inte kommenterat dessa fynd.
MIT och Stanford utvecklar banbrytande maskininlärningsteknik för robotkontroll
Forskare från MIT och Stanford University har utvecklat en banbrytande maskininlärningsteknik som har potential att revolutionera kontrollen av robotar, inklusive drönare och autonoma fordon, i dynamiska miljöer med snabbt föränderliga förhållanden. Den innovativa metoden integrerar principer från reglerteori i maskininlärningsprocessen, vilket möjliggör skapandet av mer effektiva och effektiva regulatorer. Forskarna kunde generera regulatorer som presterar exceptionellt bra i verkliga scenarier genom att lära sig systemdynamiken tillsammans med unika regleringsorienterade strukturer från data. Tekniken uppnår bättre prestanda med färre datapunkter, vilket gör den särskilt värdefull i snabbt föränderliga miljöer.
AI förenklar och ökar lönsamheten för sidouppdrag
Artificiell intelligens (AI) förenklar och ökar lönsamheten för vissa sidouppdrag genom att spara tid för individer. AI visar sig redan användbart inom olika affärsföretag, trots att det fortfarande har en lång väg att gå innan det helt ersätter mänskliga jobb. En yrkesgrupp som drar nytta av AI är matfotografering. Sean Audet, en matfotograf, använder generativa AI-verktyg som ChatGPT för att skriva e-post och affärsplaner. Trots vissa begränsningar med AI, som att chatbots kan producera robotliknande språk och generera felaktiga meningar, är redigering av AI-genererat innehåll fortfarande snabbare än att skriva allt från grunden.
Kritik mot GPT-4: Prestationsminskning och brister blir tydliga
AI-modellen GPT-4, släppt i mars 2023, möter nu kritik på grund av uppenbara brister. Trafiken till ChatGPT minskade med 9,7% i juni, och en studie utförd av Stanford University i juli visade att både GPT-3.5 och GPT-4 har haft en betydande prestandaförlust över tid. Studien fokuserade på fyra huvudområden: lösa matematikproblem, svara på känsliga frågor, generera kod och visuell resonemang. GPT-4:s noggrannhet minskade i alla områden. Peter Welinder, OpenAI:s VP för produkt, försvarade tekniken och hävdade att användarna bara blir mer medvetna om teknikens begränsningar.
ChatGPT:s prestanda försämras över tid, visar studie
AI-chattboten ChatGPT, som blev populär sedan den lanserades i november 2022, har nyligen granskats. Studier visar att ChatGPT:s prestanda försämras över tid och den nya versionen av chattboten uppvisar märkliga effekter av AI-modellens drift. En gemensam studie av forskare från Stanford University och University of California, Berkeley jämförde ChatGPT:s premiumversion, GPT-4, med GPT-3.5 och fann betydande förändringar i svarsprecision över olika uppgifter. Överraskande nog sjönk GPT-4:s matteprecision från 97,6% i mars till endast 2,4% i juni, medan GPT-3.5 upplevde en betydande ökning i matteprecision från 7,4% till 86,8% under samma period.
Prestandan hos OpenAI:s ChatGPT försämras över tid, enligt studie
Stora språkmodeller (LLM) som OpenAI:s ChatGPT har använts flitigt av studenter och programmerare för att förbättra deras effektivitet med datorer. Men vissa användare har märkt en nedgång i prestanda hos ChatGPT, vilket de misstänker kan vara avsiktligt. En studie utförd av forskare från Stanford University och UC Berkeley stöder dessa påståenden. Studien jämförde prestanda hos två modeller av ChatGPT (GPT-3.5 och GPT-4) mellan mars och juni 2023. Den fann att båda modellerna presterade sämre över tid. Forskarna föreslår att få data genererade av människor och ändra inlärningsprocedurer som potentiella lösningar.
GPT-4, som släpptes i mars 2023, har visat tecken på försämrad prestanda över tid, enligt en studie från Stanford University. Studien fann att GPT-4:s noggrannhet i att lösa matematiska problem minskade från 97,6% i mars till 2,4% i juni, medan GPT-3.5 ökade från 7,4% till 86,8%. Dessutom minskade GPT-4:s förmåga att generera kod från 52% till 10%. James Zou, biträdande professor vid Stanford, betonade vikten av kontinuerlig övervakning av ChatGPT:s beteende. Peter Welinder, OpenAI:s VP för produkt, hävdade att GPT-4 inte blivit sämre, utan att användarna blivit mer medvetna om dess begränsningar.
Experter varnar för effekterna av ChatGPT på mänsklig intelligens
Experter inom artificiell intelligens har uttryckt oro över effekterna av ChatGPT på mänsklig intelligens. ChatGPT, som släpptes av OpenAI i november förra året, är en avancerad chatbot som kan utföra uppgifter som att svara på kommandon, skriva uppsatser och generera komplex kod inom sekunder. En studie utförd av Stanford University och UC Berkeley antyder dock att beteendet hos språkinlärningsmodeller (LLM), inklusive GPT-3.5 och GPT-4, kan variera betydligt under en kort tid. Teknikskribenten Jodie Cook utforskar de potentiella negativa effekterna av ChatGPT på mänsklig kognition i en artikel för Forbes. En oro är ett ökat beroende av omedelbara svar och en brist på kritiskt tänkande. Ett annat potentiellt problem är en minskning av minnesbehållningen. Överanvändning av LLM:er kan också minska våra skriftliga färdigheter på lång sikt.
Meta kritiseras för sin ´öppna källkod´-modell Llama 2
Sociala medier och annonsteknikföretaget Meta har nyligen släppt en uppdatering till sin stora språkmodell Llama. Llama 2 släpptes som öppen källkod och ger användare tillgång till modellens vikter, utvärderingskod och dokumentation. Men jämfört med andra öppna källkods-LLM och öppna källkodsprogramvarupaket är Llama 2 betydligt mer stängd. Meta har gjort den tränade modellen tillgänglig, men delar inte modellens träningsdata eller koden som används för att träna den. En grupp AI-forskare vid Radboud University i Nijmegen, Nederländerna, argumenterar att Llama 2 inte är den enda LLM som ifrågasätts som ´öppen källkod´.
Lärare anpassar läxor för att motverka AI-fusk
Sedan lanseringen av AI-chattboten ChatGPT för sex månader sedan, har studenter snabbt lärt sig att få den att göra sina läxor åt dem. Detta har lett till att lärare på skolor och högskolor ändrar sina uppgifter för att göra dem svårare att manipulera med denna nya teknik. Många lärare har helt enkelt förbjudit användningen av ChatGPT och andra nya AI-chattbotar vid utförande av uppgifter. Vissa lärare använder verktyg som försöker upptäcka text skriven av botar, som GPTZero och ett nytt verktyg av Turnitin. Men även tillverkarna av dessa detekteringsverktyg medger att de inte alltid fungerar, och de kan till och med falskt anklaga mänskligt skrivna uppgifter för att ha genererats av AI.
OpenAI anställer tidigare Microsoft-jurist för att leda produkt-, policy- och partnerskapsstrategi
OpenAI har nyligen utsett Tom Rubin, en tidigare immaterialrättsjurist på Microsoft, till att leda företagets produkter, policy och partnerskap. Rubin kommer att ansvara för att förhandla fram avtal med nyhetsutgivare för att licensiera deras innehåll för att träna OpenAI:s stora språkmodeller som ChatGPT. Rubin, som har varit lagföreläsare vid Stanford University, gick med i OpenAI 2020 som rådgivare, enligt hans LinkedIn-profil. Genom att licensiera nyhetsutgivares material, syftar OpenAI till att förbättra språkförmågorna hos sina modeller.
Generativ AI kan öka global BNP och förändra arbetsmarknaden
Generativa artificiella intelligensverktyg (Gen AI) har blivit mycket inflytelserika 2023, med förmågan att utföra komplexa uppgifter som involverar kreativitet och innovation. Dessa verktyg kan generera text, bilder, musik, kod och till och med syntetiska data för specifika ändamål. Enligt Goldman Sachs kan dessa verktyg öka den globala BNP med sju procent, cirka $7 biljoner, och öka produktivitetstillväxten med 1,5 procentenheter under 10 år. Gen AI kan effektivisera affärsprocesser, automatisera rutinuppgifter och skapa nya affärsapplikationer. Det uppskattas att cirka hälften av dagens arbetsuppgifter kommer att automatiseras fram till 2045, särskilt inom kunskapsbaserat arbete. Gen AI kan skapa nya jobbroller relaterade till AI, men dessa nya jobb kräver noggrann uppmärksamhet på utbildning och kompetensutveckling.
FAA bekräftar att de inte använder AI-modellen ChatGPT i sina system
Federal Aviation Administration (FAA) har bekräftat att de inte använder det AI-drivna språkmodellen ChatGPT i något av sina system, inklusive flygtrafikledning. Detta klargörande kommer efter att USA:s transportdepartement (DOT) felaktigt inkluderade ChatGPT i en katalog över aktuella AI-användningsfall publicerad på sin webbplats. Incidenten väcker frågor om noggrannheten i myndigheternas AI-användningsfallsinventeringar, samt potentiella säkerhetsproblem kopplade till implementering av AI-teknik i kritiska system. En rapport från Stanford University varnade för att många federala regeringsdepartement ännu inte har tillhandahållit en fullständig inventering av AI-användningsfall.
Studie visar på oförutsägbar prestanda och ökande fel i AI-modeller
En nyligen studie av forskare från Stanford University och UC Berkeley belyser den oförutsägbara naturen av ChatGPT:s prestanda och dess ökande fel över tid, vilket gör det svårt att integrera sömlöst i affärsarbetsflöden. Studien fokuserade på att bedöma uppdateringar gjorda till AI-modeller för att förbättra programmets övergripande förmågor. GPT-3.5 och GPT-4, de två mest populära stora språkmodellerna som används för att driva både den gratis och betalda versionerna av ChatGPT, undersöktes. Forskarna betonade behovet av kontinuerlig utvärdering och bedömning av dessa modeller i produktionsapplikationer.
Forskare undersöker beteendeförändringar hos stora språkmodeller över tid
Stora språkmodeller (LLM) har revolutionerat artificiell intelligens med enastående språkförståelse och genereringsförmåga. Modeller som BERT, PaLM, GPT och DALL-E har kontinuerligt förbättrats genom integration av ny information, användarinput och designändringar. Dock är uppdateringsfrekvensen för modeller som GPT-3.5 och GPT-4 osäker, vilket utgör utmaningar för deras integration i befintliga arbetsflöden. Forskare från Stanford University och UC Berkeley har genomfört en studie för att undersöka hur beteendet hos GPT-3.5 och GPT-4 utvecklas över tiden. Studien använde tre nyckelelement för att kvantifiera dessa förändringar: LLM-tjänsterna att övervaka, applikationsscenarierna att fokusera på och mätvärdena för att mäta LLM-drift i varje scenario.
Prestationsminskning noterad i OpenAI:s mest avancerade AI-modell, GPT-4
OpenAI:s mest avancerade AI-modell, GPT-4, har upplevt en minskning i prestanda, särskilt i matematisk noggrannhet, enligt en nyligen genomförd studie av forskare vid Stanford University och University of California, Berkeley. Studien fokuserade på ChatGPT, en AI-chattbot som använder språkmodeller från OpenAI, och syftade till att bedöma förbättringen av stora språkmodeller (LLMs) över tid. Forskarna jämförde prestandan hos GPT-3.5 och GPT-4 i uppgifter som involverar visuellt tänkande, känslig frågesvar, kodgenerering och matematisk problemlösning.
Forskare från MIT och Stanford University har utvecklat en ny maskininlärningsmetod som kan användas för att styra en robot, som en drönare eller ett autonomt fordon, mer effektivt och effektivt i dynamiska miljöer där förhållandena kan ändras snabbt. Denna teknik kan hjälpa ett autonomt fordon att lära sig att kompensera för hala vägförhållanden för att undvika att halka, låta en robotisk fri-flygare bogsera olika föremål i rymden, eller möjliggöra för en drönare att följa nära efter en utförsåkare trots att den buffras av starka vindar. Forskningen kommer att presenteras på International Conference on Machine Learning (ICML).
Tekniknyheter: Kritik mot AI-studie, Bard expanderar, konflikter på Reddit, anklagelser mot Shopify, Elon Musk byter Twitter-logotyp
En studie från Stanford University och UC Berkeley som undersökte prestandan hos OpenAI´s ChatGPT har ifrågasatts av experter, inklusive Simon Willison och Arvind Narayanan, som menar att studien förenklar AI-prestanda och inte återspeglar verkliga användningsfall. Google´s AI, Bard, har utökat sin tillgänglighet till fler regioner, inklusive Brasilien och hela EU, och introducerat flera nya funktioner. Konflikten mellan Reddit och dess moderatorer och användare fortsätter att eskalera, med Reddit som tar kontroll över subreddits och avlägsnar moderatorer som vägrar att öppna dem igen. En Shopify-anställd bröt sitt NDA och hävdade att företaget utförde massuppsägningar i juli, trots löften om jobbsäkerhet. Slutligen har Elon Musk meddelat planer på att ersätta Twitters ikoniska blå fågel-logotyp med en ny logotyp med en ´X´.
OpenAI svarar på oro över chattbotens ChatGPT prestanda
Nyligen experiment avslöjar att AI-tekniken bakom den populära chattboten ChatGPT kan ge olika svar på samma matematiska problem över tid. Detta har startat en debatt om chattbotens prestanda försämras. OpenAI, företaget bakom ChatGPT, har svarat genom att försäkra användarna att applikationer baserade på denna teknik inte kommer att fungera felaktigt kontinuerligt. Forskare vid Stanford University, lett av Lingjiao Chen, har genomfört experiment som visar de betydande variationerna i beteende som stora språkmodeller som ChatGPT uppvisar. OpenAI erkänner dessa oro och arbetar aktivt för att åtgärda dem.
Prestandan för OpenAIs ChatGPT kan vara på nedgång, enligt studie
Nya observationer och en studie från Stanford University och UC Berkeley antyder att ChatGPT, den framstående artificiella intelligensmodellen utvecklad av OpenAI, kan uppleva en nedgång i prestanda. Studien framhävde märkbara skillnader mellan GPT-4 och dess föregångare, GPT-3.5, sedan den förras debut i mars. En slående upptäckt var GPT-4:s minskade noggrannhet vid besvarandet av komplexa matematiska frågor. Dessutom verkade de senaste versionerna av modellen mindre benägna att erbjuda detaljerade förklaringar till sina svar. Studien fann också att GPT-4:s kodningskapaciteter hade försämrats.
Studie visar försämrad prestanda hos ChatGPT, men experter är inte övertygade
En studie från Berkley visar att ChatGPT verkar prestera sämre över tid. Forskare från Stanford University och UC Berkeley jämförde resultaten mellan ChatGPT versionerna 3.5 och 4. De fann att de äldre versionerna presterade bättre på flera uppgifter. GPT-4:s förmåga att identifiera primtal minskade från nästan perfekt noggrannhet i mars till endast 2,4 procent i juni. Trots dessa resultat menar flera experter, inklusive AI-forskaren Simon Willison och professor Arvind Narayanan, att vi inte bör dra förhastade slutsatser. OpenAI är medvetna om resultaten, som nämnts av Logan Kilpatrick, chef för utvecklarrelationer.
Forskning tyder på prestandaförsämring i OpenAIs ChatGPT
Användare och forskare tyder på att OpenAIs artificiella intelligens (AI) modell, ChatGPT, kan uppvisa tecken på prestandaförsämring. En studie från Stanford University och UC Berkeley visade märkbara skillnader i svaren från GPT-4 och dess föregångare, GPT-3.5. GPT-4:s noggrannhet i att svara på komplexa matematiska frågor minskade avsevärt, medan GPT-3.5 visade förbättrade förmågor att hantera grundläggande matematikproblem. Forskarna undersökte också GPT-4:s kodningsförmågor, som tycks ha försämrats.
Studie visar betydande minskning i OpenAI ChatGPT:s noggrannhet
Sedan lanseringen i november 2022 har OpenAI:s ChatGPT blivit allmänt populär för sin anmärkningsvärda noggrannhet. En nyligen studie utförd av Stanford University mellan mars och juni 2023 har dock upptäckt en betydande minskning av ChatGPT:s förmåga att lösa enkla matematikproblem och hantera känsliga ämnen. Studien visade att ChatGPT:s noggrannhet i att lösa grundläggande matematikproblem drastiskt minskade från 98% till 2% inom loppet av några månader. Dessutom visade studien en brist på djup i ChatGPT:s svar på känsliga frågor. OpenAI har noterat studiens resultat och uttryckt avsikten att undersöka ytterligare.
Forskare upptäcker betydande variationer i prestanda hos OpenAI:s språkmodeller
Forskare från Stanford University och UC Berkeley har testat OpenAI:s stora språkmodeller GPT-3.5 och GPT-4. De fann att dessa modellers prestanda och beteende kan variera avsevärt över tid. GPT-4:s noggrannhet i att identifiera primtal sjönk från 97,6% i marsversionen till endast 2,4% i juniversionen. Dessutom fanns det fler formateringsfel i kodgenerering i juni jämfört med mars. AI-experter har blandade reaktioner på detta. OpenAI har svarat på kritiken genom att erkänna användarnas oro. Användningen av AI-modeller som ChatGPT kräver kontinuerlig övervakning, omskolning och finjustering för att säkerställa korrekta och aktuella resultat.
FTC undersöker OpenAI:s chattbot ChatGPT för potentiella brott mot konsumentskyddslagar
Federal Trade Commission (FTC) genomför för närvarande en undersökning av OpenAI:s AI-drivna chattbot, ChatGPT, för att avgöra om den har överträtt några konsumentskyddslagar. FTC har uttryckt oro över OpenAIs dataskyddspraxis och spridningen av ´falsk information´ av ChatGPT och dess potentiella negativa inverkan på användarreputationer. Om OpenAI bedöms vara skyldigt, kan Microsoft också möta påföljder eftersom det är indirekt associerat med Microsofts BingChat. FTC:s undersökning kommer att utvärdera OpenAI:s praxis för lagring av konsumentdata, säkerhetsåtgärder, tidigare attacker på chattboten och potentiell skada på ryktet.
Kvalitetskontrovers kring OpenAI:s stora språkmodell GPT-4
OpenAI:s stora språkmodell (LLM), ´GPT-4´, har omgärdats av kvalitetskontrovers. AI-utvecklare har uttryckt missnöje och hävdar att modellen har blivit ´lat´ eller ´dummare´. OpenAI förnekar dessa påståenden och hävdar att modellen faktiskt har blivit smartare. GPT-4, OpenAIs senaste LLM tillkännagavs i mars, har erkänts som en överlägsen modell jämfört med sin föregångare. Det är en ´multimodal´ modell som kan känna igen både text och bilder, vilket ger exakta svar men med något långsammare bearbetningshastighet.
Forskning visar betydande inkonsekvenser i prestanda för ChatGPT-modeller över tid
Ny forskning har upptäckt betydande inkonsekvenser i prestanda för ChatGPT-modeller över tid. En nyligen genomförd studie av Stanford University och UC Berkeley analyserade mars- och juniversionerna av GPT-3.5 och GPT-4 på olika uppgifter. Resultaten visade märkbara förändringar i prestanda inom bara några månader. Exempelvis sjönk GPT-4:s noggrannhet i identifiering av primtal från 97,6% till 2,4% mellan mars och juni. Denna nedgång tillskrevs problem med steg-för-steg-reasoning. Dessutom blev GPT-4 mindre benägen att ge direkta svar på känsliga frågor, med svarsfrekvenser som sjönk från 21% till 5%. Båda GPT-3.5 och GPT-4 visade en ökning av buggig kodgenerering i juni jämfört med mars. Dessa betydande inkonsekvenser över korta perioder väcker oro om att förlita sig på dessa modeller för känsliga eller uppdrag-kritiska användningar utan kontinuerlig testning. Forskarna drog slutsatsen att dessa resultat understryker nödvändigheten av att kontinuerligt övervaka ChatGPT-modeller eftersom deras beteende utvecklas över olika mätvärden som noggrannhet, säkerhet och robusthet. Med tanke på den opaka naturen i uppdateringsprocessen är rigorös testning avgörande för att förstå prestandaförskjutningar över tid.
Frågetecken kring OpenAI’s chatbot ChatGPT trots framstående prestationer
OpenAI´s ChatGPT har fått mycket uppmärksamhet för sin framstående prestation som en AI-chatbot och har ansetts vara ett banbrytande framsteg inom AI-fältet. Trots detta har det framkommit oro kring ChatGPT´s konsekvens och prestanda. Forskare från Stanford University och University of California, Berkeley upptäckte en betydande minskning i botens noggrannhet för specifika uppgifter under en fyramånadersperiod. OpenAI har tillbakavisat anklagelser om att de medvetet försämrar GPT-4 och hävdar att de kontinuerligt förbättrar ChatGPT med varje ny version. Dock kvarstår bekymmer om den potentiella påverkan av ´drift´ i modellens resultat.
Ny forskning avslöjar betydande inkonsekvenser i ChatGPT-modellernas prestanda
Ny forskning från Stanford University och UC Berkeley har upptäckt betydande inkonsekvenser i ChatGPT-modellernas prestanda över tid. Studien analyserade mars- och juni-versionerna av GPT-3.5 och GPT-4 och fann märkbara förändringar i deras prestanda, även bara över några månader. Dessa inkonsekvenser väcker oro när det gäller att förlita sig på dessa modeller för känsliga eller kritiska applikationer utan kontinuerlig testning. Forskarna drog slutsatsen att dessa resultat understryker vikten av kontinuerlig övervakning av ChatGPT-modeller eftersom deras beteende utvecklas över tid.
Studie visar minskad noggrannhet i OpenAI:s senaste språkmodell GPT-4
GPT-4, det senaste språkmodellen utvecklad av OpenAI, har kritiserats för dess noggrannhet och kraft. Onlineforum, inklusive OpenAI-forum, har fyllts med kommentarer från användare som tror att GPT-4 har förlorat en del av sin effektivitet. En studie genomförd av Stanford University och UC Berkeley har nu tillhandahållit bevis för att stödja dessa påståenden. Forskare jämförde prestanda för GPT-4 med dess föregångare, GPT-3.5, mellan mars och juni, och observerade en signifikant minskning i GPT-4:s noggrannhet. Dessutom har utvecklare på LeetCode märkt en minskning av GPT-4:s prestanda i kodgenerering.
Studie visar försämrad prestanda i AI-modellen GPT-4
En studie utförd av forskare från Stanford University och UC Berkeley har undersökt förbättringen av prestandan över tid för ChatGPT, en generativ AI-modell. Studien jämförde prestandan hos GPT-3.5, den stora språkmodellen (LLM) bakom ChatGPT, och GPT-4, LLM:en som driver ChatGPT Plus och Bing Chat. Överraskande nog visade GPT-4, som marknadsförs som OpenAI´s ´mest avancerade LLM´, betydande minskningar i prestanda mellan mars och juni. Samtidigt visade GPT-3.5 förbättring. Användare kanske vill överväga alternativ till GPT-4 baserat på dessa forskningsresultat.
Forskare uttrycker oro över OpenAI:s ChatGPT:s prestanda
OpenAI:s språkmodell, ChatGPT, har fått erkännande för sin imponerande förmåga att generera naturliga svar och har hyllats som en av de bästa AI-chatbotarna tillgängliga för allmänheten. Vissa tror till och med att den har klarat Turing-testet, som mäter en maskins förmåga att uppvisa mänsklig intelligens. Men forskare från Stanford University och University of California, Berkeley har uttryckt oro över ChatGPT:s prestanda. De noterade betydande variationer i prestanda och beteende hos både GPT-3.5 och GPT-4. De observerade att modellernas svar på vissa uppgifter har förvärrats över tid. Noggrannheten hos GPT-4 i primtalsproblemlösning sjönk från 97,6% i mars 2023 till bara 2,4% i juni 2023. På samma sätt minskade frekvensen som GPT-4 genererade korrekta, redo att köra kodskript från över 50% i mars till endast 10% i juni. GPT-3.5 upplevde också en minskning i noggrannhet, men med vissa intressanta variationer. Medan den uppnådde en noggrannhet på 7,4% i primtalsproblemlösning i mars, nådde den uppgraderade versionen i juni en sats på 86,8%. Forskarna påpekade att det är utmanande att identifiera den exakta orsaken till dessa förändringar, eftersom modellernas interna inte är transparenta. De föreslår att modifieringar och uppgraderingar av systemet kan vara bidragande faktorer. Att finjustera modellerna för att förbättra prestanda inom ett område kan potentiellt ha oavsiktliga konsekvenser och negativt påverka prestanda på andra uppgifter. OpenAI har avfärdat dessa påståenden, med dess VP för produkt, Peter Welinder, som säger att varje ny version av modellen är utformad för att vara smartare än sin föregångare.
Studie ifrågasätter prestanda för OpenAI:s språkmodell GPT-4
En ny forskningsrapport från Stanford University och University of California, Berkeley ifrågasätter prestandan hos OpenAI:s GPT-4 språkmodell. Studien tyder på att GPT-4:s förmåga att utföra kodning och sammansatta uppgifter har minskat under de senaste månaderna. Trots skeptikerna tror vissa experter att detta belyser ett större problem med hur OpenAI hanterar modellsläpp. Studien testade GPT-3.5 och GPT-4 på uppgifter som matematikproblem, känsliga frågor, kodgenerering och visuell resonemang. GPT-4:s noggrannhet i att identifiera primtal sjönk dramatiskt från 97,6 procent i mars till bara 2,4 procent i juni.
Forskningsrapport tyder på att OpenAIs AI-modell GPT-4 kan ha minskat i effektivitet
En nyligen publicerad forskningsrapport antyder att GPT-4, OpenAIs mest avancerade artificiella intelligensmodell, kan ha upplevt en minskning i sin förmåga att utföra vissa uppgifter. Rapporten, författad av tre forskare från Stanford University och University of California i Berkeley, genomförde en serie experiment för att utvärdera GPT-4:s förmåga att resonera. Trots resultaten har vissa AI-experter uttryckt tvivel om rapportens slutsatser. OpenAI har erkänt de rapporterade regressionerna och undersöker ärendet.
Växer ChatGPT eller blir den bara dummare?
OpenAI:s stora språkmodell, ChatGPT, har hyllats för sin förmåga att ge naturliga svar på användarfrågor, och vissa anser att den officiellt har passerat Turing-testet. Den har presterat högt på prov inom matematik, juridik och verbala GRE. Dock har forskare vid Stanford University och University of California, Berkeley, uttryckt oro över ChatGPT:s inkonsekventa prestanda. I vissa fall har prestandan försämrats. Forskare har noterat betydande förändringar i prestanda över en fyramånadersperiod, från mars till juni 2023.
Tekniknyheter: Linux, AI-prestanda, Mercedes-Benz, Apple, YouTube och AI-innehållsskapande
Gregory Kurtzer, grundaren av Rocky Linux, har intervjuats om konflikten med Red Hats nya policy. En studie har visat en minskning av OpenAI:s ChatGPT-3.5 och GPT-4-modellers prestanda under en tre månaders period. Mercedes-Benz testar användningen av ChatGPT för att effektivisera sin produktion och röstkontroll i sina fordon. Apple hotar att dra tillbaka iMessage och FaceTime från Storbritannien på grund av ett föreslaget övervakningsförslag. YouTube har höjt priset på sina premiumplaner i USA. Fable Studio har visat sin Showrunner AI:s förmåga att generera korta avsnitt av ´South Park´.
Stanford-forskare finner att OpenAI´s ChatGPT-verktyg har försämrats
En ny studie utförd av forskare vid Stanford University visar att OpenAI:s populära verktyg ChatGPT har försämrats under 2021, både i prestanda och beteende. Studien hänvisar specifikt till språkmodellens funktion under perioden mars till juni. Forskarna påpekar att vissa uppgifter inte imponerade när det gällde att producera de svar som användarna begärde. Studien är fortfarande relativt ny och väntar på att granskas av andra forskare. Men det bekräftar att användarnas genuina oro över verktygets funktion inte är ogrundad.
Användning av AI-skapade texter oroar forskare
Studenter, advokater och andra passar på att skriva av texter som skapats av artificiell intelligens (AI) som sina egna. Journalisten Alex O´Brien undersökte detta fenomen och fann att AI-texter innehåller mönster som kan identifieras av andra verktyg, men de är inte helt pålitliga. Flera AI-upptäckande verktyg som Copyleaks, Sapling, ZeroGPT och Winston AI användes för att identifiera AI-skapad text i en uppsats skriven av en tonåring, vilket resulterade i att nästan hela texten identifierades som AI-genererad. O´Brien varnar för att AI kan utgöra ett hot mot integriteten och värdet av lärandeprocessen i framtiden.
ChatGPT:s prestanda ifrågasätts och AI hotar outsourcade kodningsjobb i Indien
Diskussioner har uppstått kring två viktiga ämnen: ChatGPT:s minskade prestanda och potentialen för AI att ersätta outsourcade kodningsjobb i Indien. Forskare från Stanford University och University of California, Berkeley, har hävdat att OpenAI:s språkmodell, ChatGPT, producerar sämre resultat och buggigare kod än tidigare. OpenAI har dock förnekat dessa påståenden. Emad Mostaque, VD för Stability AI, har gjort djärva påståenden om att de flesta kodningsjobb i Indien kommer att ersättas av AI inom de närmaste två åren. Även om vissa hävdar att AI aldrig helt kan ersätta mänskliga utvecklare, föreslår andra att effektiviteten och kostnadseffektiviteten hos AI kan leda till en betydande minskning av outsourcade kodningsjobb.
Ny forskningsrapport ifrågasätter effektiviteten hos OpenAI:s GPT-4
En ny forskningsrapport antyder att GPT-4, OpenAI LP:s mest avancerade artificiella intelligensmodell, kan ha blivit mindre effektiv på att utföra vissa uppgifter. Rapporten, författad av forskare från Stanford University och University of California, Berkeley, har ifrågasatts av vissa AI-experter. Forskarna utvärderade GPT-4:s förmåga att lösa matematiska problem och skriva kod, och fann att dess prestanda försämrades mellan mars och juni. OpenAI:s ledning har dock förnekat att GPT-4 har blivit sämre.
Tester visar betydande variation i prestanda och beteende hos GPT-3.5 och GPT-4
Forskare från Stanford University och UC Berkeley har nyligen genomfört tester på GPT-3.5 och GPT-4, två stora språkmodeller. Resultaten visade att modellernas prestanda och beteende kan variera avsevärt över tid. AI-experten Gary Marcus uttryckte sin oro över instabiliteten hos stora språkmodeller. Jim Fan, en seniorforskare på Nvidia, spekulerade i att OpenAI:s försök att göra GPT-4 säkrare kan ha äventyrat dess användbarhet och kognitiva färdigheter. Peter Welinder, vice VD för OpenAI, försäkrade att GPT-4 ständigt förbättras med varje ny version.
Forskning visar att ChatGPT kan bli ´dummare´ över tid
Forskare från Stanford University och University of California, Berkeley, har undersökt prestandan hos språkmodellerna ChatGPT, särskilt versionerna GPT-3.5 och GPT-4. Studien fokuserade på inkonsekvenser i prestanda under en tre månaders period. GPT-4 visade en betydande minskning i förmågan att identifiera primtal, medan GPT-3.5 förbättrades betydligt under samma period. Studien avslöjade också att GPT-4 visade en minskning i direkt svar på känsliga frågor. Forskarna betonar vikten av att ständigt övervaka och utvärdera dessa modeller.
Prestanda för OpenAI:s GPT-4 ifrågasätts i ny studie
Forskare från Stanford University och University of California, Berkeley, har publicerat en studie som ifrågasätter prestandan för OpenAI:s språkmodeller GPT-4 och GPT-3.5. Studien visar att GPT-4:s förmåga att identifiera primtal minskat avsevärt, från 97,6% i mars till endast 2,4% i juni. Dessutom har GPT-4:s genomsnittliga svarslängd minskat betydligt, medan GPT-3.5 har upplevt en tillväxt på cirka 40% under samma period. OpenAI har konsekvent förnekat något nedgång i GPT-4:s förmågor, men studien utmanar denna påstående.
Forskare upptäcker prestandaproblem med OpenAI:s språkmodeller GPT-3.5 och GPT-4
Forskare från Stanford University och UC Berkeley har genomfört en studie för att analysera prestandan hos OpenAI:s språkmodeller, GPT-3.5 och GPT-4, över tid. Studien jämförde förmågorna hos GPT-3.5 och GPT-4 att lösa matematiska problem, svara på känsliga frågor, generera kod och utföra visuella resonemangsuppgifter. Resultaten för GPT-4 var förvånande då det var en betydande minskning i prestanda mellan mars och juni. Studien höjer frågor om kvaliteten på GPT-4 och dess försämring över tid.
Metas nya AI-modell Llama 2 hotar OpenAIs dominans
Termen ´moat´ beskriver hur ett företag kan hindra konkurrenter från att ta över deras verksamhet. Inom AI har OpenAI skapat en stark ´moat´ genom sin ChatGPT. Men nu har Meta introducerat sin egen kraftfulla språkmodell, Llama 2, med få restriktioner, vilket hotar ChatGPT. Sedan lanseringen av ChatGPT har den förändrat undervisning, skrivande, teknologi och många andra sektorer. Nu följer konkurrenterna efter. Meta har tillkännagivit lanseringen av Llama 2 genom ett partnerskap med Microsoft. Llama 2 är ett kraftfullt verktyg som kan användas av företag för att dra nytta av generativ AI. Men till skillnad från OpenAIs ChatGPT kommer Llama 2 inte med ett lättanvänt konsumentgränssnitt.
Meta släpper AI-modell Llama 2 för att konkurrera med OpenAI
Meta har gjort sin AI-modell Llama 2 fritt tillgänglig för kommersiella användare, vilket kan hjälpa företaget att konkurrera med eller överträffa OpenAI. OpenAI:s ChatGPT har tidigare varit ledande inom generativ AI, men med Llama 2 kan detta förändras. Llama 2 kommer dock inte med ett lättanvänt konsumentgränssnitt utan riktar sig till tekniska och företagsanvändare som kommer att använda modellen för att driva sina egna appar och tjänster. Trots att Llama 2 inte strikt sett är öppen källkod, är den i stort sett gratis, till skillnad från senare OpenAI-modeller.
Studie visar förändringar i prestanda för AI-chattbotar GPT-3.5 och GPT-4
Användare av OpenAI:s AI-chattbotar ChatGPT-4 och ChatGPT-3.5 kan ha märkt förändringar sedan deras introduktion. Forskare från Stanford University och UC Berkeley har jämfört GPT-4:s prestanda i mars 2023 och juni 2023, vilket ger insikt i förändringar i AI:ns prestanda. Medan dessa beräkningsjättar har omdefinierat gränserna för AI, kan deras utveckling över tid vara en gåta för användare och utvecklare. Även mindre uppdateringar i LLM:er kan utlösa betydande prestandavariationer. Det är viktigt att kontinuerligt övervaka dessa modellers kvalitet.
GPT-4 AI-modell blir dummare med tiden, enligt studie
GPT-4, en avancerad generativ AI-modell, blir enligt uppgift dummare med tiden. Forskare från Stanford University och UC Berkeley genomförde en studie för att undersöka förbättringen av ChatGPTs stora språkmodeller (LLM). I studien testades både GPT-3.5 och GPT-4 för att utvärdera deras förmåga att lösa matematiska problem, svara på känsliga frågor, generera kod och utföra visuella resonemangsuppgifter. GPT-4 uppvisade en betydande minskning i sitt svar på känsliga frågor och dess prestanda minskade även inom kodningssektorn. Dessa resultat väcker oro för företag och individer som förlitar sig på både GPT-3.5 och GPT-4.
OpenAI:s modeller GPT-3.5 och GPT-4 presterar sämre på vissa uppgifter
Enligt tester utförda av datavetare i USA, har modellerna GPT-3.5 och GPT-4, som är hjärtat i OpenAI:s ChatGPT, blivit sämre på att generera viss kod och utföra andra uppgifter mellan mars och juni i år. Testerna visade dock att modellerna förbättrats inom vissa områden. Modellerna är tillgängliga via API:er och Microsofts moln. James Zou, biträdande professor i biomedicinsk data- och datavetenskap samt elektroteknik vid Stanford University, konstaterade att de nyare versionerna presterade sämre på vissa uppgifter.
Studie visar betydande prestandafluktuationer i AI-chatboten ChatGPT
En studie utförd av Stanford University har visat att AI-chatboten ChatGPT, skapad av OpenAI, upplevde betydande prestandafluktuationer under några månader. Studien jämförde två versioner av ChatGPT: GPT-3.5 och GPT-4, och utvärderade dem på fyra olika uppgifter: lösa matematiska problem, besvara känsliga frågor, generera programkod och visuell resonemang. Resultaten visade på oförutsägbara effekter av förändringar i en del av modellen på andra, snarare än modellens inneboende noggrannhet. Studien betonar vikten av kontinuerlig övervakning av modellens prestanda över tid och ytterligare forskning för att förstå de underliggande orsakerna.
Forskare upptäcker prestandaförändringar i OpenAI:s ChatGPT-språkmodeller
Forskare från Stanford University och University of California-Berkeley har publicerat en uppsats på arXiv.org där de beskriver hur prestanda och beteende hos OpenAI:s ChatGPT stora språkmodeller (LLM) har förändrats mellan mars och juni 2023. De fann att ChatGPT:s prestanda på vissa uppgifter har försämrats avsevärt över tid. Forskarna testade både GPT-3.5 och GPT-4-modeller och upptäckte att LLM:erna presterade sämre i identifiering av primtal och steg-för-steg-tänkande. Genererad kod hade också fler formateringsfel. Dock noterade forskarna små förbättringar i visuell resonemang för båda modellerna.
Forskare ifrågasätter prestandan hos OpenAI:s språkmodeller
Forskare från Stanford University och University of California, Berkeley har publicerat en forskningsartikel som tyder på att GPT-4:s prestanda har förändrats över tid. Studien ifrågasätter den konsekventa prestandan hos OpenAI:s stora språkmodeller, specifikt GPT-3.5 och GPT-4. De testade mars- och juni 2023-versionerna av dessa modeller på uppgifter som att lösa matematikproblem, svara på känsliga frågor, generera kod och visuellt resonemang. Mest märkbart sjönk GPT-4:s förmåga att identifiera primtal dramatiskt från en noggrannhet på 97,6 procent i mars till bara 2,4 procent i juni. OpenAI har konsekvent förnekat alla påståenden om att GPT-4:s förmåga har minskat.
Studie visar betydande förändringar i OpenAI:s ChatGPT:s prestanda och beteende
Forskare från Stanford University och University of California-Berkeley har genomfört en studie på OpenAI:s ChatGPT stora språkmodeller (LLM) och funnit att dessa modellers prestanda och beteende har förändrats mellan mars och juni 2023. Forskarna utförde tester och drog slutsatsen att det har skett betydande förändringar i ChatGPT:s prestanda på olika uppgifter över tid. Det är viktigt att notera att resultaten i den orecenserade forskningsartikeln som publicerats på arXiv.org ännu inte har genomgått granskning av likar och inte har publicerats i en ansedd vetenskaplig tidskrift.
Är ChatGPT blivit dummare? Ny forskning visar förändringar i AI:s prestanda
Många användare av AI-chattbotten ChatGPT har märkt förändringar i dess svar, vilket väcker frågan om dess prestanda försämras över tid. OpenAI släpper regelbundna uppdateringar för att justera ChatGPT:s svar och säkerhet baserat på användarfeedback. En studie från Stanford University och UC Berkeley indikerar att ChatGPT:s förmåga att lösa problem har förändrats över tid. Rapporten visar att GPT-4:s noggrannhet sjönk från 97,6% i mars till 2,4% i juni, medan GPT-3.5:s noggrannhet förbättrades från 7,4% till 86,8%. OpenAI:s VP för produkt, Peter Welinder, förnekar att ChatGPT:s kvalitet har försämrats.
Studie visar att ChatGPT Plus prestanda försämras över tid
Forskare från Stanford University och UC Berkeley har genomfört en studie för att analysera förbättringen av ChatGPT:s stora språkmodeller över tid. Studien testade både GPT-3.5, OpenAI:s LLM bakom ChatGPT, och GPT-4, OpenAI:s LLM bakom ChatGPT Plus och Bing Chat. Resultaten visade en betydande minskning i prestanda mellan mars och juni i GPT-4:s svar på att lösa matematiska problem, svara på känsliga frågor och generera kod. Slutsatserna tyder på att företag och individer som förlitar sig på både GPT-3.5 och GPT-4 ständigt bör utvärdera modellernas förmåga att producera korrekta svar.
OpenAI:s GPT-4 och GPT-3.5 modeller visar försämrad prestanda, enligt studie
En studie utförd av forskare från Stanford och Berkeley universitet visar att svar genererade av OpenAI:s GPT-4 och GPT-3.5 modeller har försämrats under de senaste månaderna. Användare av OpenAI-tjänster har klagat över minskad relevans i AI-svaren. Forskarna jämförde AI-svaren från GPT-4 och GPT-3.5 i mars och juni, och fann att svaren var mindre kvalitativa i juni. GPT-4 uppvisade en betydande prestandaförsämring, särskilt i identifiering av primtal, medan GPT-3.5 visade förbättringar.
Studie visar att språkmodellen GPT-4 försämrats över tid
En studie utförd i samarbete med Stanford University och UC Berkeley antyder att språkmodellen GPT-4 inte har förbättrats utan faktiskt försämrats med ytterligare uppdateringar. Studien, kallad ´Hur ändras ChatGPTs beteende över tid?´, testade förmågan mellan GPT-4 och den tidigare språkversionen GPT-3.5 mellan mars och juni. Forskare observerade att GPT-4 hade en noggrannhet på 97,6% i mars med 488 korrekta svar och en noggrannhet på 2,4% i juni efter att GPT-4 hade genomgått vissa uppdateringar. Modellen producerade endast 12 korrekta svar månader senare. Dessutom har kodgenereringen lidit med utvecklare på LeetCode som sett prestandan för GPT-4 på dess dataset med 50 lätta problem sjunka från 52% noggrannhet till 10% noggrannhet mellan mars och juni.
OpenAI:s AI-modell ChatGPT blir allt dummare, enligt ny forskning
Ny forskning tyder på att OpenAI:s AI-modell ChatGPT blir allt dummare. En studie utförd av forskare från Stanford University och UC Berkeley visar att prestandan hos GPT-4, den mer avancerade AI-modellen som kan förstå både bilder och text, har sjunkit betydligt på senare tid. Modellen testades på en rad olika uppgifter, inklusive matematikproblem, svar på känsliga frågor, kodgenerering och visuell resonemang. I mars hade GPT-4 en noggrannhet på 97,6% för att identifiera primtal, jämfört med chockerande 2,4% i juni. Forskarna kan inte riktigt förstå varför GPT-4:s prestanda förändras.
Axel Stenmark Tullberg tilldelas årets doktorsavhandling vid Institutionen för kliniska vetenskaper
Axel Stenmark Tullberg har tilldelats årets doktorsavhandling vid Institutionen för kliniska vetenskaper. Hans forskning har fokuserat på betydelsen av immunrespons vid skräddarsydd bröstcancerbehandling på individuell patientnivå. Resultaten kan leda till att färre patienter behöver strålterapi. Stenmark Tullberg beskriver hur hans doktorandprojekt konsumerade en stor del av hans liv och delar sina blandade känslor av nervositet och spänning inför hans nästa äventyr vid Stanford, Kalifornien. Han var en av 39 personer som avslutade sina doktorandstudier vid Institutionen för kliniska vetenskaper 2022.
AI-promptingenjörer tjänar $300k löner: här är hur man lär sig färdigheten gratis
Roller som AI-promptingenjörer erbjuder löner över $300k, inklusive denna på Anthropic. Här är fem gratis kurser som kan hjälpa dig eller en teammedlem att fördjupa din kunskap om AI och promptning: 1. GPT Best Practices av Open AI. 2. Introduktion till Artificiell Intelligens av Stanford University. 3. Deep Learning Specialization av DeepLearningAI. 4. Natural Language Processing with Deep Learning av Stanford University. 5. Practical Deep Learning for Coders av FastAI. Dessa kurser erbjuder en solid grund och praktiska insikter i AI och promptning för att utrusta dig med de färdigheter du behöver för att implementera AI i din verksamhet eller roll.
Kanadensisk sjö kan bli symbolisk startpunkt för människans geologiska tidsålder
En grupp forskare har föreslagit att Crawford Lake i Milton, Ontario, bör bli den symboliska startpunkten för en ny geologisk tidsålder, Anthropocene, eller människans tidsålder. Sjön innehåller lager av sediment som visar en tusenårig miljöhistoria, med en explosion av människoskapad störning runt mitten av 1900-talet. Detta markerar när mänskliga aktiviteter började lämna ett bestående avtryck på jordens geologiska register. Innan Anthropocene kan läggas till jordens officiella tidslinje måste det granskas av den bredare geologiska gemenskapen. Om det klarar dessa byråkratiska hinder kommer förslaget att ratificeras nästa år vid den internationella geologiska kongressen i Sydkorea.
Skogsbrandsrök kopplas till dålig mental hälsa
Att andas in rök från skogsbränder kan inte bara skada lungorna utan också påverka den mentala hälsan, enligt flera studier. Forskning har kopplat luftföroreningar till dålig mental hälsa, inklusive depression, ångest och psykotiska sammanbrott. Skogsbrandsrök innehåller många av samma giftiga kemikalier som finns i stadsföroreningar, ofta i större mängder. En studie publicerad i JAMA visade att ju mer människor exponeras för ozon, desto högre är risken för depression. En brittisk studie visade att personer som rutinmässigt andas in luft med PM2.5-nivåer på minst 10,6 mikrogram per kubikmeter har 15 procent högre risk för depression än de som bor i områden med mindre än 9,3 mikrogram av föroreningen per kubikmeter.
Intresset för generativ AI överstiger kryptohypen bland Stanford-studenter
Intresset för generativ AI har överstigit kryptohypen bland Stanford-studenter. Antalet AI-relaterade kurser har fördubblats under de senaste fem åren. Enligt studenter och lärare på Stanford har intresset för AI ökat sedan OpenAI släppte ChatGPT i november. Rishi Bommasani, doktorand i datavetenskap vid Stanford Center for Research on Foundation Models, uttryckte förvåning över industrins och Stanfords snabba framsteg inom AI. Sophie Fujiwara, en student som studerar symboliska system, sa att intresset för AI till och med har överstigit tidigare kryptohyp. Studenter från olika ämnesområden diskuterar nu de politiska, sociala och filosofiska konsekvenserna av AI-revolutionen.
AI Dungeon och upphovsrätt: Vem äger berättelserna?
AI Dungeon, en textbaserad fantasisimulation som använder OpenAI:s GPT-3, har skapat konstiga berättelser sedan maj 2019. Spelet skapades av Nick Walton, tidigare forskare vid ett djupinlärningslabb vid Brigham Young University i Utah, som nu är VD för Latitude. AI Dungeon har lockat miljontals spelare, men har också skapat kontroverser och svåra frågor om upphovsrätt. Enligt lagar i både USA och Storbritannien kan endast människor göra anspråk på upphovsrätt. Därför kan ägandeförhållandena bli oklara för spel som AI Dungeon, där plattformen låter en spelare skriva en berättelse med hjälp av en chatbot.
Sökmotorföretagens historia och påverkan på det digitala samhället
I den digitala tidsåldern spelar sökmotorföretag en viktig roll för att underlätta tillgången till information på World Wide Web. Denna artikel undersöker världen av sökmotorföretag, deras historia, utveckling och betydelse av deras tjänster. Den första allmänt erkända sökmotorn var Archie, utvecklad 1990. Google introducerades 1997 och blev snabbt ledande inom sökmotorindustrin. Även om Google dominerade marknaden, framträdde andra sökmotorföretag med distinkta funktioner och nischfokus, som Baidu och Bing. Sökmotorföretag har inte bara förändrat hur vi får tillgång till information, utan har också haft en djupgående inverkan på det digitala samhället som helhet.
Googles ursprung och utveckling: Från Backrub till världens ledande sökmotor
Google, en av världens största teknikjättar, grundades 1996 av Larry Page och Sergey Brin när de studerade vid Stanford University. De skapade en sökmotor som rankade webbsidor baserat på deras bakåtlänkar till andra webbplatser, vilket kallades Backrub. Efter några år bytte de namn till Google, som är en lek med ordet ´googol´. Google har sedan dess vuxit och diversifierat sig inom flera affärsområden, som smartphones, bärbara datorer, artificiell intelligens och mycket mer. www.google.com är idag världens mest använda sökmotor med 5,6 miljarder sökningar per dag och erbjuder en rad tjänster som e-post (Gmail), molnlagring (Google Drive) och videodelning (YouTube). För företagare är det viktigt att optimera webbplatsens ranking på Google för att generera trafik och leads genom sökmotoroptimering (SEO).
Texas-senator Ted Cruz utreder Instagrams påstådda koppling till pedofilnätverk
Texas-senator Ted Cruz skickade ett brev till Meta-VD:n Mark Zuckerberg där han begärde svar om anklagelserna om att Instagram underlättar för ett ´omfattande pedofilnätverk´. Cruz, som är ledamot i Senate Commerce Committee, avser att utreda rapporten och begär dokumentation om Metas hantering av material som innebär sexuellt utnyttjande av barn på Instagram. Cruz har också frågat hur många resurser Meta ägnar åt barnsäkerhet och uppmanat företaget att bevara all dokumentation om sina kommunikationer och policys i frågan. Meta svarade på rapporten med att de kontinuerligt bekämpar spridningen av missbrukande material.
Sam Altman: Från teknikunderbarn till OpenAIs ansikte
Sam Altman är en teknikstjärna i vardande och ansiktet utåt för OpenAIs ChatGPT. Han fick sin första dator vid åtta års ålder och lärde sig snabbt att programmera den. Efter att ha hoppat av Stanford University grundade han Loopt, en sociala nätverksapp som senare förvärvades av Green Dot Corporation. Altman har även varit president för startup-acceleratorn Y Combinator och styrelsemedlem i Reddit. Hans senaste projekt är OpenAI, ett forskningslaboratorium inriktat på att utveckla artificiell intelligens på ett säkert och fördelaktigt sätt. Altman anses vara en anmärkningsvärd person inom innovation och entreprenörskap.
OpenAI utser Peter Deng till ny VP för konsumentprodukter
Den 1 juni 2023 meddelade OpenAI att Peter Deng har utsetts till deras nya vice VD för konsumentprodukter. Deng är en högt ansedd examen från Stanford University och har tidigare arbetat på Microsoft, Google och Facebook. Under sin tid på Facebook ledde han utvecklingen av kritiska funktioner som Messenger, Chats, Events, News Feeds och Groups. Deng har även varit Head of Product på Instagram och Oculus, där han ledde alla konsumentproduktinsatser.
Forskare utvecklar LLMs som verktygsskapare för att förbättra problemlösning och effektivitet
Forskare från Google Deepmind, Princeton University och Stanford University har utvecklat ett system där stora språkmodeller (LLMs) kan skapa sina egna verktyg för att lösa problem och öka effektiviteten. Systemet, kallat LLMs As Tool Makers (LATM), består av två faser: 1) skapa verktyg: En LLM, ofta kallad verktygsbyggare, skapar verktyg (implementerade som Python-funktioner) för ett specifikt jobb. 2) verktygsanvändning: En andra LLM, känd som verktygsanvändaren, använder verktygen för att hantera nya uppgifter. LATM kan tilldela arbete till den mest kvalificerade LLM vid varje steg och minskar den genomsnittliga beräkningskostnaden för att hantera flera jobb samtidigt som problemlösningsförmågan förbättras. Forskarnas tester visar att LATM kan prestera lika bra som mer resurskrävande modeller samtidigt som det är mer kostnadseffektivt.
Topp 10 generativa AI-företag att investera i
Generativ AI, som möjliggör att datorer producerar nytt och originellt innehåll baserat på mänsklig input, förväntas bli en dominerande och betydelsefull trend under detta decennium. Under 2022 investerade investerare 2,6 miljarder dollar i 110 unika generativa AI-startups i USA. Den globala AI-marknaden förväntas uppgå till 900 miljarder dollar år 2026, med en årlig tillväxttakt på cirka 19%. Stora företag som Alphabet, Apple, Microsoft och Nvidia är redan intresserade av de otaliga tillämpningarna av generativ AI. Studier visar att användning av generativa AI-verktyg kan öka produktiviteten med 14% inom kundtjänstbranschen. Generativ AI förväntas påverka allt från utbildning till arbetsmarknader, livsmedelsindustrin och underhållningsindustrin.
Artificiell intelligens (AI) har gjort anmärkningsvärda framsteg under det senaste året, med chatbottar som kan föra flytande konversationer och generera realistiska bilder. Förbättringarna beror på genombrott inom matematisk modellering, bättre hårdvara och stora högkvalitativa dataset. Transformers-modellen, som introducerades i en Google-studie 2017, har revolutionerat AI-utbildningen genom att snabbt bearbeta stora block av språk och testa resultatets flyt. En annan träningsmetod, kallad diffusion, har förbättrat AI-bildgeneratorer som Dall-E och Midjourney. Dessutom har hårdvara som grafikprocessorer och stora dataset förbättrats och blivit mer tillgängliga.
Teknikchefer uppmanar regeringar att reglera AI
Sam Altman, VD för OpenAI, och Sundar Pichai, VD för Alphabet och Google, uppmanar regeringar att reglera AI för att hantera riskerna med ´superintelligens´. Båda föreslår att regeringar, experter, akademiker och allmänheten bör vara delaktiga i diskussionen om utvecklingen av säkerhetspolicyer för AI-verktyg. Altman föreslår att skapa en högnivåstyrningsorgan liknande FN:s Internationella atomenergiorgan (IAEA) för att övervaka användningen av AI. Pichai betonar vikten av internationellt samarbete och att USA och Europa bör arbeta tillsammans för att reglera AI.
OpenAI-chefen Sam Altman uppmanar till reglering av AI-utveckling
Sam Altman, verkställande direktör för OpenAI, vädjade nyligen till USA:s kongress om att reglera utvecklingen och användningen av artificiell intelligens (AI). Altman, som är en av grundarna av OpenAI tillsammans med Elon Musk, har varit med och skapat virala AI-verktyg som ChatGPT och DALL-E. Trots framgångarna uttrycker han oro över riskerna med AI, särskilt när det gäller valmanipulation och spridning av falskt innehåll. Samtidigt är han optimistisk om AI:s långsiktiga positiva inverkan på arbetsmarknaden och skapandet av nya jobb.
Wyoming utforskar lagstiftning kring AI och digital identitet
Wyoming utforskar lagstiftning kring artificiell intelligens (AI) och digital identitet i ljuset av nya tekniker som ChatGPT. Select Committee on Blockchain i delstaten har samlat experter för att diskutera utvecklingen inom digital sektor och hur AI kan påverka lagstiftningen. En av frågorna som diskuteras är hur man kan skilja mellan kommunikation från människor och AI. Wyoming har redan skapat en juridisk definition av personlig digital identitet och organisatorisk digital identitet, vilket kan vara grund för att bygga en lagstiftningsram som hanterar dessa frågor.
Forskare utvecklar metoden Boundless DAS för att förklara stora språkmodellers beteende
Stora språkmodeller (LLMs) kan utföra imponerande uppgifter som att lösa kodningsproblem och översätta mellan språk. Forskare vid Stanford University har utvecklat en metod som kallas Boundless DAS för att förbättra förståelsen för hur dessa modeller fungerar. Genom att använda principen för kausal abstraktion kan Boundless DAS identifiera representationer i LLMs som ansvarar för vissa kausala effekter. Forskarna undersökte hur Alpaca, en förtränad LLaMA-modell, hanterar enkla aritmetiska resonemangsproblem och fann att modellen använder en kausal modell med tolkningsbara mellanliggande variabler. Denna metod är dock fortfarande begränsad av storleken på sökområdets dolda dimensioner och forskarna föreslår att ytterligare arbete bör göras för att lära sig högnivå kausala grafer.
Studie ifrågasätter ´emergenta förmågor´ hos stora språkmodeller
Forskare vid Stanford University har genomfört en studie som ifrågasätter de tidigare rapporterade ´emergenta förmågorna´ hos stora språkmodeller (LLM) som ChatGPT och GPT-4. Studien antyder att dessa förmågor kan vara missförstådda och att de försvinner när man väljer rätt metriker för att utvärdera LLM. Detta är viktigt eftersom det avmystifierar vissa magiska och dunkla förmågor som har tillskrivits LLM och ifrågasätter uppfattningen att skalning är det enda sättet att skapa bättre språkmodeller. Forskarna påpekar att tidigare påstådda emergenta förmågor i LLM kan vara en illusion orsakad av forskarnas analyser.
Meta ger bort AI-teknik som öppen källkod, trotsande rivaler
I februari valde Meta att ge bort sin AI-teknik LLaMA, som kan driva online-chattrobotar, som öppen källkod. Detta innebär att vem som helst kan ladda ner koden och bygga sina egna chattrobotar. Meta tror att öppenhet är nyckeln till att sprida sin teknik och påskynda utvecklingen. Detta står i kontrast till företag som Google och OpenAI, som blir allt mer hemlighetsfulla kring sina AI-metoder och produkter. Meta menar att ökad sekretess är ett misstag och att konsumenter och regeringar inte kommer att använda AI om den kontrolleras av några få stora företag.
AI-baserad röstassistent visar lovande resultat för behandling av depression och ångest
Forskare genomförde en banbrytande pilotstudie som använde en AI-baserad röstassistent, Lumen, för beteendeterapi. Studien visade lovande resultat, med förbättrade symtom på depression och ångest hos patienter samt märkbara förändringar i hjärnaktiviteten. Studien ger hopp om användningen av virtuell terapi för att mildra problem relaterade till tillgången till mental hälsovård. Även om tekniken inte är avsedd att ersätta traditionell terapi, kan den fungera som en viktig tillfällig lösning för patienter som väntar på behandling.
Så fungerar AI-chatbotar som ChatGPT
AI-chatbotar som ChatGPT använder stora språkmodeller för att generera naturligt klingande text. Tekniken liknar den prediktiva textfunktionen på mobiltelefoner, men är generativ och skapar textsträngar som är meningsfulla över flera meningar och stycken. Systemet behandlar ord matematiskt som en samling värden, vilket kallas ordinbäddning. Modellen tränas på stora mängder innehåll, till exempel miljontals webbsidor och digitala dokument. ChatGPT har också en extra träningslager kallad förstärkningsinlärning från mänsklig feedback. Trots dess förmåga att generera realistisk text är det viktigt att komma ihåg att stora språkmodeller identifierar textmönster snarare än fakta och bör inte användas när noggrannhet krävs.
AI kommer att stärka, inte ersätta, läkare i Saudiarabien
Enligt chefen för information på ett av Saudiarabiens ledande sjukhus kommer artificiell intelligens (AI) inte att ersätta läkare, utan snarare ge dem verktyg för att anpassa sig till landets snabbt moderniserade sjukvårdssystem. AI kan hjälpa läkare med dagliga uppgifter som att granska medicinska bilder, analysera patientdata och identifiera potentiella hälsorisker. AI är utformat för att arbeta tillsammans med mänskliga experter och ge dem ytterligare insikter och stöd. Saudiarabien har redan implementerat AI inom sjukvården på olika sätt, inklusive fjärrövervakning av patienter, analys av medicinsk avbildning, prediktiv analys, robotassisterad kirurgi och chatbotar och virtuella assistenter.