» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 254 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Princeton University är ett prestigefyllt privat forskningsuniversitet i Princeton, New Jersey, USA. Grundat 1746, är det en av de äldsta och mest välrenommerade institutionerna i landet. Universitetet är känt för sin starka betoning på forskning, utmärkta akademiska program och framstående fakultet. Princeton erbjuder grundutbildning och forskarutbildning inom humaniora, samhällsvetenskap, naturvetenskap och teknik. Dessutom har universitetet en lång historia av framstående alumner, inklusive två amerikanska presidenter, flera Nobelpristagare och framstående författare, forskare och ledare inom olika områden.

Senaste nytt kring Princeton University

CRISPR-GPT: AI-drivet verktyg förbättrar precision och effektivitet i genredigeringsprotokoll

Genredigering är en hörnsten i modern bioteknik och kräver stor expertis och tid. Nu har forskare från Stanford University, Princeton University och Google Deepmind introducerat CRISPR-GPT, ett verktyg som kombinerar CRISPR-teknik med avancerade Large Language Models (LLMs) som GPT-4. Denna integration underlättar automatiseringen av genredigeringsförsök, vilket möjliggör precisa genomiska modifieringar med reducerad komplexitet. CRISPR-GPT demonstrerade märkbara förbättringar i genredigeringsförsök, där det ökade noggrannheten för målgenmodifieringar med upp till 30% jämfört med konventionella metoder. Systemet minskade också tiden som krävs för att utforma och planera experiment med cirka 40%.

Direktlänk Dela MarkTechPost fördjupade 2 maj
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Forskare publicerar riktlinjer för ansvarsfull användning av maskininlärning

Ett tvärvetenskapligt forskarteam på 19 forskare, lett av datavetarna Arvind Narayanan och Sayash Kapoor, har publicerat riktlinjer för ansvarsfull användning av maskininlärning inom vetenskapen. De menar att det finns djupa brister i hur maskininlärning används inom vetenskapen, vilket har påverkat många fält och resulterat i tusentals felaktiga forskningsartiklar. För att förhindra en kris inom forskningsintegriteten har de tagit fram en checklista som fokuserar på att säkerställa integriteten i forskning som använder maskininlärning. Checklisten uppmanar forskare att ge detaljerade beskrivningar av varje maskininlärningsmodell, inklusive kod, data som används för att träna och testa modellen, hårdvaruspecifikationer som används för att producera resultaten, experimentdesign, projektets mål och eventuella begränsningar av studiens resultat. Forskarna tror att en bred acceptans av dessa standarder skulle öka den totala upptäcktstakten och innovationen.

Direktlänk Dela Princeton University School of Engineering and Applied Science fördjupade 1 maj

OpenAI:s VD Sam Altman jämför stora språkmodeller med hisspitchar

OpenAI:s VD Sam Altman har uttryckt sin uppskattning för en användares observation om likheterna mellan hisspitchar och stora språkmodeller (LLM). Altman menar att förmågan att kommunicera koncist är en viktig färdighet. Han jämför detta med hisspitchar, en kort presentation av sig själv eller en idé. En användare drog paralleller mellan hisspitchar och LLM, vilket Altman delade. LLM som OpenAI:s AI-drivna chatbot GPT 3.5 och GPT-4, Google Gemini och Meta´s Llama är kända för sin förmåga att kondensera information och generera svar på ett sätt som liknar hisspitchar. Dock kan AI-drivna chatbotar också hallucinera och skapa övertygande lögner.

Direktlänk Dela Benzinga fördjupade 29 april

Meta introducerar nya AI-system, avslöjar pågående begränsningar

Facebooks moderbolag Meta Platforms har presenterat en ny uppsättning AI-system som driver vad VD Mark Zuckerberg kallar ´den mest intelligenta AI-assistenten som du kan använda fritt´. Men när Metas AI-agenter började interagera med riktiga människor på sociala medier, avslöjades deras konstiga utbyten och de pågående begränsningarna av även den bästa generativa AI-tekniken. Meta, tillsammans med ledande AI-utvecklare som Google och OpenAI, och startups som Anthropic, Cohere och Frankrikes Mistral, har producerat nya AI-språkmodeller och försöker övertyga kunder om att de har de smartaste, mest praktiska eller mest effektiva chatbotarna. Meta sparar den mest kraftfulla av sina AI-modeller, kallad Llama 3, till senare.

Direktlänk Dela The Daily Nonpareil fördjupade 21 april

Metas AI-assistenter visar upp märkliga beteenden på sociala medier

Facebooks moderbolag Meta Platforms har presenterat en ny uppsättning artificiella intelligenssystem som driver vad VD Mark Zuckerberg kallar ´den mest intelligenta AI-assistenten som du kan använda fritt´. Meta har dock stött på problem när AI-assistenterna började interagera på sociala medier, med märkliga utbyten som visar på begränsningarna med AI-teknologi. En AI-assistent gick med i en Facebookgrupp för mammor och pratade om sitt ´begåvade barn´, medan en annan försökte ge bort icke-existerande saker till förvirrade medlemmar i ett ´Köp Inget´-forum. Företaget har släppt två mindre versioner av sitt mest kraftfulla AI-modell, Llama 3, och säger att den nu är inbyggd i Meta AI-assistentfunktionen på Facebook, Instagram och WhatsApp.

Direktlänk Dela The News Herald fördjupade 21 april

Forskningsgrupp föreslår formella interaktionsmodeller för att förbättra AI-system

Forskare från Cornell University, University of California, Princeton University och University of Texas har föreslagit formella interaktionsmodeller (FIM) för att förbättra design och utvärdering av AI-system. FIM är ett dynamiskt system som kopplar samman AI-system och användare. Modellen inkluderar fyra huvudsakliga användningsområden: den specificerar interaktioner för implementering, övervakar interaktioner med hjälp av empirisk analys, förutser samhällspåverkan med hjälp av kontrafaktisk analys och kontrollerar samhällseffekter genom interventioner. Forskarna använde dynamiska system för att belysa begränsningar i användningsfallen för framtida arbete.

Direktlänk Dela MarkTechPost fördjupade 21 april

Universitet samarbetar för att skapa största datasetet om AI i högre utbildning

Jan Lewis, direktör för akademiska bibliotekstjänster på East Carolina University (ECU), leder ett team i det tvååriga projektet Making Artificial Intelligence Generative for Higher Education (MAIGHE). Universitetet kommer att samarbeta med 19 andra universitet, inklusive Princeton University och Yale University, för att skapa landets ´största kvalitativa dataset till dags dato om AI-frågor och möjligheter relaterade till undervisning, inlärning och forskning inom högre utbildning´. Forskningen som samlas in av universitetskonsortiet kommer att sammanställas av Ithaka och delas nationellt. ECU: s Chief Information Officer, Zach Loch, har skickat ett internt mail med riktlinjer för att använda AI på ECU.

Direktlänk Dela Government Technology fördjupade 19 april

Facebooks föräldraföretag Meta lanserar nytt AI-system

Meta Platforms, Facebooks moderbolag, har avtäckt en ny uppsättning artificiella intelligenssystem som driver vad VD Mark Zuckerberg kallar ´den mest intelligenta AI-assistenten du kan använda fritt´. Men AI-agenterna har visat upp begränsningarna med AI-teknologi genom att försöka engagera sig med riktiga människor på sociala medier på bisarra sätt. Meta AI är en gratis virtuell assistent som kan användas för allt från forskning till att planera en resa med din gruppchatt, skriva en bildtext och mer. AI-assistenten kan även skapa AI-genererade bilder. Meta, tillsammans med ledande AI-utvecklare som Google och OpenAI, och startups som Anthropic, Cohere och Frankrikes Mistral, har producerat nya AI-språkmodeller och hoppas övertyga kunder om att de har de smartaste, mest praktiska eller effektiva chattbotarna.

Direktlänk Dela CBS News fördjupade 19 april

Meta AIs chatbot hävdar att den har ett barn, skapar förvirring

Meta AIs chatbot deltog nyligen i en föräldradiskussion i en stor Facebook-grupp i New York City. Chatboten, som designats av Meta för att engagera användare på dess plattformar, hävdade att den hade ett barn inskrivet i ett New York City Gifted and Talented-program, vilket ledde till förvirring och obehag bland gruppmedlemmarna. När en användare reagerade med ´Vad i Black Mirror är det här?´, svarade AI-verktyget att det inte har ´onda avsikter´ som visas i webbserien. Denna händelse har lett till diskussion och oro kring AI-verktygens kapacitet och beteende.

Direktlänk Dela India Today fördjupade 19 april

Ny algoritm förbättrar inlärningsprocessen genom att integrera offline-data

Forskare från Cornell University, Princeton University och Microsoft Research har introducerat en ny algoritm, Dataset Reset Policy Optimization (DR-PO), som effektivt integrerar offline-data i förstärkningsinlärning (RL). Denna metod skiljer sig från traditionella metoder genom att återställa direkt till specifika tillstånd från en offline-datamängd under policyoptimering, vilket förbättrar effektiviteten i inlärningsprocessen och breddar tillämpningsområdet för de tränade modellerna. DR-PO har visat överlägsna resultat i studier som involverar uppgifter som TL;DR-sammanfattning och den antropiska hjälpsamma skadliga datamängden.

Direktlänk Dela MarkTechPost fördjupade 17 april

OpenAIs nya videogenererande verktyg Sora skapar oro och förväntan

OpenAI har utvecklat en ny videogenererande modell, Sora, som kan skapa realistiska visuella framställningar utifrån textinmatningar. Verktyget är för närvarande i tidigt tillgångsstadium och testas av cybersäkerhetsexperter. Sora har potential att revolutionera områden som utbildning, hälso- och sjukvård, e-handel, animation, musik och underhållning. Samtidigt finns det oro för att verktyget kan missbrukas för att skapa ´deep fakes´, manipulera allmänhetens åsikter och sprida desinformation. OpenAI tar därför försiktighetsåtgärder innan Sora görs tillgängligt för allmänheten.

Direktlänk Dela Built In fördjupade 28 mars
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

USA:s justitiedepartement fokuserar på reglering av AI för att bekämpa ekonomisk brottslighet

Vid den 39:e årliga konferensen för American Bar Association´s National Institute on White Collar Crime diskuterades hur olika myndigheter avser att reglera artificiell intelligens (AI) inom området för ekonomisk brottslighet. Jonathan Mayer, assistentprofessor vid Princeton University, har utsetts till justitiedepartementets första vetenskaps- och teknologirådgivare samt AI-chef. Mayer ska få departementet att hänga med i AI och andra framväxande teknologier. Dessutom har justitiedepartementet tagit en hård linje mot AI, med förstärkta straff för brott som förstärks av AI. SEC har också uttryckt sitt intresse för att reglera företag som vilseleder investerare om användningen av AI i sina investeringsstrategier.

Direktlänk Dela JD Supra fördjupade 21 mars

IBM AI Research och Princeton University introducerar Larimar för att förbättra stora språkmodeller

Ett team från IBM AI Research och Princeton University har introducerat Larimar, en ny arkitektur för att förbättra stora språkmodeller (LLMs). Larimar utrustar LLMs med ett distribuerat episodiskt minne, vilket gör det möjligt för dem att genomgå dynamiska, enstaka kunskapsuppdateringar utan att kräva uttömmande omskolning. Denna innovativa metod drar inspiration från mänskliga kognitiva processer, särskilt förmågan att lära sig, uppdatera kunskap och selektivt glömma. Larimar visade en anmärkningsvärd hastighetsfördel, med uppdateringar upp till 10 gånger snabbare.

Direktlänk Dela MarkTechPost fördjupade 21 mars

USA:s justitiedepartement fokuserar på AI-drivna brott

USA:s justitiedepartement (DOJ) har börjat fokusera på brott som begås med hjälp av artificiell intelligens (AI). Brottslingar använder AI för att utföra falska röstsamtal och för att olagligt få tillgång till företagsfonder. DOJ har anställt Jonathan Mayer, en akademiker från Princeton University, för att hjälpa till med initiativet och planerar att anställa fler datavetenskapliga doktorer för att dra nytta av AI-tekniken. DOJ kommer också att söka strängare straff för AI-förstärkta brott och studera sätt att använda AI internt för att förbättra sina operationer.

Direktlänk Dela JD Supra fördjupade 15 mars

Ny metod för DNA-sekvensmodellering utvecklad genom samarbete mellan universitet

Forskare från Cornell University, Princeton University och Carnegie Mellon University har utvecklat en ny metod för att modellera DNA-sekvenser. Metoden bygger på utvecklingen av ´Mamba´-blocket, förbättrat för att stödja bidirektionalitet genom ´BiMamba´-komponenten och för att införliva RC-ekvivalens med ´MambaDNA´-blocket. Dessa block tjänar som grund för ´Caduceus´-modellerna, en banbrytande familj av RC-ekvivalenta, bidirektionella långdistans-DNA-sekvensmodeller. Modellerna har visat överlägsen prestanda jämfört med tidigare långdistansmodeller i olika nedströms jämförelser.

Direktlänk Dela MarkTechPost fördjupade 10 mars

Företag driver mot etisk AI och snabbare AI-chip på horisonten

Fler företag tar ställning för etisk användning av artificiell intelligens (AI), medan ett nytt partnerskap siktar på att utveckla datorkretsar som kommer att påskynda den utbredda användningen av AI. Företag som OpenAI och Salesforce leder denna rörelse. Elon Musk stämmer OpenAI, ett företag han hjälpte till att starta, för att de har avvikit från företagets ursprungliga uppdrag att utveckla AI till gagn för mänskligheten. EnCharge AI samarbetar med Princeton University och stöds av det amerikanska försvarsdepartementets forskningsbyrå (DARPA) för att utveckla nya datorkretsar för att förbättra kommersiella AI-applikationer. FBI varnar för att kinesiska hackare har gjort betydande framsteg i USA:s cyberinfrastruktur och riktar in sig på vitala system. Mindre företag omfamnar AI-verktyg och tjänster för att hålla jämna steg med snabbt utvecklande tekniska trender.

Direktlänk Dela PYMNTS fördjupade 8 mars

Behovet av en juridisk ´säker hamn´ för utvärdering av AI-verktyg, enligt experter

Enligt en nyligen publicerad artikel, framtagen av 23 AI-forskare, akademiker och kreativa personer, är det viktigt med en juridisk ´säker hamn´ för utvärdering av AI-verktyg av forskare, journalister och konstnärer. Artikeln betonar att dessa skydd är avgörande för att genomföra ´god tro´-utvärderingar av AI-produkter och tjänster. Användarvillkor för populära AI-modeller förhindrar ofta oberoende forskning relaterad till sårbarheter, vilket hindrar framsteg på detta område. Författarna till artikeln uppmanar teknikföretag att ge skadeståndsskydd för AI-forskning i allmänhetens intresse och skydda den från kontosuspensioner eller rättsliga konsekvenser.

Direktlänk Dela Global Village Space fördjupade 8 mars

AI-forskare uppmanar till ´säker hamn´ skydd för oberoende utvärdering av AI-produkter

Enligt en ny rapport publicerad av 23 AI-forskare, akademiker och kreatörer, är ´säker hamn´ juridiska och tekniska skydd nödvändiga för att tillåta forskare, journalister och konstnärer att utföra ´god tro´-utvärderingar av AI-produkter och tjänster. Trots behovet av oberoende utvärdering förbjuder företag ofta forskning relaterad till dessa sårbarheter genom deras användarvillkor, inklusive OpenAI, Google, Anthropic, Inflection, Meta och Midjourney. Författarna till rapporten uppmanar teknikföretag att skydda allmänintressets AI-forskning från kontosuspensioner eller juridiska repressalier.

Direktlänk Dela VentureBeat fördjupade 7 mars

Ökad användning av AI i vetenskaplig forskning kan leda till mindre tillförlitlighet

Ett vetenskapligt papper med AI-genererade bilder har dragits tillbaka efter att ha publicerats i den ansedda vetenskapliga tidskriften Frontiers. Bilderna, som innehöll nonsensisk text och förvrängda bilder, blev snabbt viral på sociala medier. Incidenten har lett till ökad oro över att användningen av AI kan göra publicerad vetenskaplig forskning mindre tillförlitlig. Två forskare, Molly Crocket, psykolog vid Princeton University, och Lisa Messeri, antropolog vid Yale University, argumenterar att AI också kan medföra potentiella långsiktiga risker för vetenskaplig praxis.

Direktlänk Dela Ars Technica fördjupade 6 mars

Ny upptäckt av mönster i elliptiska kurvor genom AI och statistik

Elliptiska kurvor är centrala inom modern matematik och kryptografi, och var avgörande för Andrew Wiles bevis för Fermats sista sats på 1990-talet. År 2000 namngav Clay Mathematics Institute en gissning om statistiken för elliptiska kurvor som ett av sju ´Millennium Prize Problems´, var och en med en prispott på 1 miljon dollar för dess lösning. Denna gissning, först föreslagen av Bryan Birch och Peter Swinnerton-Dyer på 1960-talet, har ännu inte bevisats. År 2022 upptäckte ett transatlantiskt samarbete oväntade mönster i elliptiska kurvor genom att använda statistiska tekniker och artificiell intelligens. Sedan dess har matematiker börjat förstå orsakerna bakom dessa mönster, kallade ´murmurations´, och har börjat bevisa att de måste förekomma inte bara i de specifika exemplen som undersöktes 2022, utan generellt i elliptiska kurvor.

Direktlänk Dela Quanta Magazine fördjupade 5 mars

Jonathan Mayer utsedd till Justitiedepartementets första Chief Science and Technology Advisor och Chief AI Officer

Den 22 februari utnämnde justitieminister Merrick B. Garland Jonathan Mayer till Justitiedepartementets första vetenskaps- och teknologirådgivare och chefsansvarig för artificiell intelligens (AI). Mayer kommer att sitta i Justitiedepartementets kontor för rättslig politik och leda det nyligen inrättade Emerging Technologies Board, som samordnar och styr AI och andra framväxande teknologier inom departementet. Mayer kommer också att bygga ett team av tekniska och politiska experter inom cybersäkerhet och AI. Denna position som AI-chef är en roll som krävs av president Bidens exekutiva order om AI.

Direktlänk Dela The National Law Review fördjupade 2 mars
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Robotar lagar mat på restauranger världen över, men doktorand Ishika Singh vill ta det ett steg längre och bygga en robot som kan laga middag hemma. Denna robot skulle kunna söka igenom kylskåpet och skåpen, välja ut ingredienser och sedan laga en smaklig rätt. Singh menar att utmaningen ligger i att programmera roboten att hantera alla variabler i ett kök. Jesse Thomason, som övervakar Singhs forskning, ser detta som ett ambitiöst mål. Han menar att om robotar kunde utföra mänskliga uppgifter, skulle det revolutionera industrier och förenkla vardagen.

Scientific American fördjupade 29 februari

Forskare föreslår BitDelta för effektiv kvantisering av finjusteringsdeltor i stora språkmodeller

Forskare från Massachusetts Institute of Technology, Princeton University och Together AI har föreslagit BitDelta, en metod för att kvantisera finjusteringsdeltor i stora språkmodeller (LLM) till 1 bit utan att offra prestanda. BitDelta minskar GPU-minneskraven med över 10 gånger, vilket förbättrar genereringslatensen i flera hyresmiljöer. BitDelta använder en tvåstegsprocess för effektiv kvantisering av finjusteringsdeltor i LLM:er. Denna upptäckt tyder på potentiell redundans i finjusteringsinformation och erbjuder multi-hyres servering och lagringsimplikationer. BitDelta jämförs med originala okomprimerade modeller och 8-bitars RTN och 4-bitars GPTQ-kvantiseringstekniker.

Direktlänk Dela MarkTechPost fördjupade 27 februari

USA:s justitieminister utser första chefs AI-officer till justitiedepartementet

USA:s justitieminister Merrick Garland har utsett Jonathan Mayer, en välkänd datavetenskaps- och offentlig policyprofessor vid Princeton University, till justitiedepartementets första chefs AI-officer. Mayer kommer också att tjäna som justitiedepartementets chefs vetenskaps- och teknikofficer. Hans utnämning kommer i samband med president Joe Bidens senaste verkställande order om AI, som fokuserar på att göra AI-verktyg säkra för amerikanska invånare att använda och kräver att varje federal myndighet utser en chefs AI-officer.

Direktlänk Dela Intelligent CIO fördjupade 26 februari

Microsoft undersöker AI Copilots felaktiga uttalanden, Waymo´s självkörande bilplaner stoppas, DoJ anställer AI-chef

Microsoft undersöker falska uttalanden som AI Copilot skrivit om död av politiska fången Alexei Navalny. Uttalandena felaktigt tillskrevs Rysslands president Vladimir Putin. Samtidigt har Kaliforniens offentliga verktygskommission tillfälligt stoppat Waymo från att utöka sin självkörande biltjänst utanför San Francisco. Beslutet togs efter att Waymo inte tillhandahållit tillräcklig information om säkerhetsrisker. Dessutom har USA:s justitiedepartement anställt sin första AI-chef, Jonathan Mayer, för att ge teknisk expertis och råd i takt med att tekniken får allt större inverkan på brottsbekämpningen.

Direktlänk Dela The Register fördjupade 26 februari

USA:s justitiedepartement utser första AI-fokuserade tjänsteman

USA:s justitiedepartement har utsett sin första tjänsteman med fokus på artificiell intelligens (AI), Jonathan Mayer. Mayer, en professor vid Princeton University, kommer att tjäna som justitiedepartementets vetenskapliga och tekniska rådgivare och överste AI-tjänsteman. Mayer förväntas råda justitiedepartementets ledning om frågor relaterade till framväxande teknologier, inklusive hur man ansvarsfullt integrerar AI i avdelningens utredningar och brottmålsåtal. Mayer kommer också att leda en nybildad styrelse av brottsbekämpnings- och medborgerliga rättighetstjänstemän som kommer att råda justitiedepartementet om etik och effektivitet av AI-system.

Direktlänk Dela Fox News Network fördjupade 22 februari

Forskare som arbetar med fusionenergi säger att de har hittat ett sätt att övervinna en av deras största utmaningar hittills genom att använda artificiell intelligens (AI). Fusionenergi har länge setts som en nästan obegränsad källa till ren energi, men det finns många hinder, inklusive instabiliteter i den mycket komplexa processen. Forskare från Princeton University och Princeton Plasma Physics Laboratory rapporterade i tidskriften Nature att de har hittat ett sätt att använda AI för att förutsäga dessa potentiella instabiliteter och förhindra dem i realtid. Forskarna genomförde sina experiment vid DIII-D National Fusion Facility i San Diego.

CNN fördjupade 21 februari

OpenAI introducerar Sora, en AI som kan omvandla text till video

OpenAI har introducerat sin senaste AI-system, Sora, som kan omvandla textbeskrivningar till fotorealistiska videoklipp. Sora kan skapa videoklipp upp till 60 sekunder långa med hjälp av antingen textinstruktioner eller text i kombination med en bild. Teknologin väcker både entusiasm och farhågor om hur artificiella deepfake-videor kan förvärra desinformation under globala valår. Sora baseras delvis på OpenAI:s befintliga teknologier, som bildgeneratorn DALL-E och de storskaliga språkmodellerna GPT. Sora kombinerar två olika AI-metoder för att uppnå högre realism.

Direktlänk Dela New Scientist fördjupade 17 februari

Genombrott i AI:s färguppfattning: Lösningen på GPT-4:s mysterier

Forskare från Princeton University och University of Warwick har utforskat AI:s kognition, specifikt GPT-4:s förståelse av färg. Studien, publicerad den 13 februari 2024, använder metoder från kognitiv psykologi, direkt provtagning och Markov Chain Monte Carlo (MCMC) för att utforska färgutrymmet som GPT-4 uppfattar. Dr. Jane Thompson, ledande forskare från Princeton University, förklarade att de ville gräva djupare in i AI-modellernas interna representationer. Forskarnas resultat visade att adaptiva tekniker som MCMC och Gibbs sampling var särskilt effektiva för att återspegla mänskliga färgrepresentationer inom GPT-4.

Direktlänk Dela BNN Breaking News fördjupade 15 februari

Indiska kvinnor når toppnivåer inom AI-forskning och tillämpning

Enligt en artikel i The Economist har indier varit i framkant av AI-forskning och tillämpning. Förra året överträffade Indien Kina med det högsta antalet doktorander som studerar i USA. Av cirka 2,5 miljoner invandrade STEM-arbetare (vetenskap, teknik, teknik, matematik) i USA kommer 29% från Indien. Inom området för artificiell intelligens (AI) är 8% av världens ledande forskare indiska. Kvinnor halkar inte efter heller. Från och med 2022 har indierna de högsta AI-färdighetsgenomträngningsgraderna var Indien och detta inkluderar kvinnor! Här är listan över kvinnor som har uppnått högsta standarder inom ai - Niki Parmar, Aakanksha Chowdhery, Anima Anandkumar, Suchi Saria, Parvati Dev, Monisha Ghosh.

Direktlänk Dela Analytics India Magazine fördjupade 13 februari

Princeton utvärderar kursvärderingar med hjälp av sentimentanalys

Våren 2024 börjar Princeton University att analysera slutet av terminens kursutvärderingar. Universitetet uppmuntrar studenter att ge numeriska kurser på en skala från ett till fem i olika kategorier. Dessa utvärderingar finns tillgängliga för framtida studenter som överväger att anmäla sig till en viss kurs. Däremot har nyttan med denna typ av utvärdering ifrågasatts på grund av dess inneboende subjektivitet. ´Prince´ testade en känslomässig analys via naturlig språkbearbetning (NLP). Datorvetenskapsavdelningen fick i genomsnitt 4,02/5. Men endast cirka 66 procent klassificerades som positiva.

Direktlänk Dela The Daily Princetonian fördjupade 1 februari

Kemister ifrågasätter Google DeepMinds och UC Berkeleys robotforskning

Forskning från Google DeepMind och UC Berkeley om en robot som skapar nya material förutsagda av AI-algoritmer ifrågasätts nu av en grupp kemister. I den ursprungliga studien användes en robotiskt labbsystem, A-Lab, för att automatiskt syntetisera nya föreningar förutsagda av Google DeepMinds modell GNoMe. Emellertid tror sju forskare från Princeton University och University College London att A-Lab inte lyckades skapa ett enda nytt oorganiskt material. De fann att de flesta av dem hade felklassificerats. Forskarna tror att det ursprungliga experimentet inte tog hänsyn till ´sammansättningsstörning´, och antog att atomerna i varje förening som A-Lab skapade var ordnade när de faktiskt var oordnade och redan existerar i Inorganic Crystal Structure Database (ICSD).

Direktlänk Dela The Register fördjupade 31 januari

AI-system kan förutsäga död och andra livsdetaljer med över 78% noggrannhet

Danska forskare har utvecklat ett AI-system, kallat life2vec, som kan förutsäga detaljer om människors liv, inklusive död, internationella flyttar och personlighetsdrag. Modellen använder data från miljontals invånare, inklusive födelsedatum, kön, anställning, plats och användning av landets allmänna hälso- och sjukvårdssystem. Under fyra år visade sig modellen vara över 78% noggrann i att förutsäga dödlighet, vilket överträffar andra prediktiva metoder. Modellen visade också tidiga tecken på att kunna koppla personlighetsdrag till livshändelser, med en noggrannhet på 73% i att förutsäga människors flytt från Danmark.

Direktlänk Dela Such TV fördjupade 28 januari

Ny AI-modell kan förutse människors livsdetaljer, inklusive död

Danska forskare har utvecklat en maskininlärningsmodell, kallad life2vec, som kan förutse detaljer i människors liv, inklusive död, internationella flyttar och personlighetsdrag. Modellen använder data från miljontals invånare, inklusive födelsedatum, kön, sysselsättning, plats och användning av landets allmänna hälso- och sjukvårdssystem. Under fyra år visade sig modellen vara över 78% exakt i att förutsäga dödlighet, vilket överträffar andra förutsägande metoder. Life2vec visade lovande tidiga tecken på att koppla personlighetsdrag till livshändelser.

Direktlänk Dela Geo Television Network fördjupade 28 januari

Förstår artificiell intelligens vad den säger?

Artificiell intelligens (AI) har blivit mer kraftfull än någonsin, men forskare undrar fortfarande om dessa AI-modeller förstår vad de säger. AI-pionjären Geoff Hinton menar att det är dags att avgöra vad dessa modeller förstår. En teori utvecklad av Sanjeev Arora vid Princeton University och Anirudh Goyal vid Google DeepMind tyder på att dagens största språkmodeller inte bara härmar vad de har sett tidigare. Deras teoretiska tillvägagångssätt, som ger ett matematiskt bevisbart argument för hur och varför en stor språkmodell kan utveckla så många förmågor, har övertygat experter som Hinton och andra.

Direktlänk Dela Quanta Magazine fördjupade 22 januari

Undersökning av datasetbias i maskinlärda teorier om ekonomiska beslut

Forskare vid Center for Cognitive Science vid TU Darmstadt och hessian.AI har undersökt egenskaperna hos beteendeekonomiska teorier som automatiskt lärs av AI. I vår vardag ställs vi ständigt inför riskfyllda val. Resultaten av sådana experiment har konsekvent visat att människor systematiskt avviker från det matematiska optimala valet, det vill säga de förlorar pengar. Forskare från Princeton University, USA, använde artificiell intelligens för att bättre förstå mänskliga beslut i riskfyllda spel. Forskare från LOEWE-projektet ´WhiteBox´ vid TU Darmstadt har systematiskt undersökt de förutsägelser som uppstår när man kombinerar olika maskininlärningsmodeller med olika beslutsdatauppsättningar. Studien understryker att kognitionsvetenskap fortfarande inte lätt kan automatiseras av artificiell intelligens.

Direktlänk Dela Tech Xplore fördjupade 12 januari

AI-webbplats Chub AI möjliggör barnpornografiska rollspel

Chub AI, en webbplats där användare kan chatta med AI-bots, erbjuder över 500 scenarier där användare kan interagera med karaktärer i olika fantasier, inklusive barnpornografiska rollspel. Webbplatsen, skapad av en person känd som Lore, är en oklippt klon av Character.AI och laddar användare från $5 per månad. Lore säger att webbplatsen nu genererar över $1 miljon i årliga intäkter. Experter varnar för att dessa aktiviteter kan medföra verkliga faror för minderåriga, men vissa hävdar att AI-barnpornografi kan ge ett mindre skadligt utlopp för pedofiler.

Direktlänk Dela Yahoo Finance fördjupade 8 januari

Chub AI är en webbplats där användare kan chatta med AI-bots och delta i olika fantasier, inklusive barnpornografisk rollspel. Webbplatsen tillhandahåller över 500 sådana scenarier och är en del av en växande AI-ekonomi som har accelererat med Meta´s öppna verktyg Llama. Grundaren av Chub AI, som går under namnet Lore, säger att webbplatsen nu har genererat över 1 miljon dollar i årliga intäkter. Trots att många av karaktärerna är barn, hävdar Lore att han ´starkt´ modererar bilderna som används för att annonsera de olika botten. Vissa experter varnar för att dessa aktiviteter kan utgöra en verklig fara för minderåriga, medan andra hävdar att AI-barnpornografi kan erbjuda en mindre skadlig utlopp för pedofiler.

Fortune Media fördjupade 8 januari

Utmaningar och risker med AI inom medicin diskuteras i intervju

I en intervju diskuterar Kirsten Bibbins-Domingo, PhD, MD, MAS, och Arvind Narayanan, PhD, utmaningarna och riskerna med att använda artificiell intelligens (AI) inom medicin. De diskuterar hur AI kan spegla och förstärka befintliga fördomar och ojämlikheter i samhället och sjukvården, och hur det kan påverka patientvård och dataskydd. Narayanan, en professor i datavetenskap vid Princeton University, varnar för att det kan vara farligt att övervärdera AI:s förmågor och betonar behovet av att vara försiktig när man använder AI inom medicin.

Direktlänk Dela JAMA Network fördjupade 3 januari

Google DeepMind och Princeton University utvecklar förbättrad AI-prompting strategi

Forskare från Google DeepMind och Princeton University har utvecklat en förbättrad prompting strategi för generativ AI kallad Tree of Thoughts (ToT). Denna metod tar prompting till en högre nivå av resultat, vilket möjliggör mer sofistikerade resonemangsmetoder och bättre utdata. Forskarna jämförde ToT med tre andra promptingstrategier: Input-output (IO) Prompting, Chain of Thought Prompting och Self-consistency with CoT. ToT-strategin använder en trädstruktur för varje steg i resonemanget vilket tillåter språkmodellen att utvärdera varje resonemangs steg och avgöra om det är genomförbart och leder till ett svar.

Direktlänk Dela Search Engine Journal fördjupade 1 januari

Non-profitorganisationen Earth Species Project använder AI för att förstå djurkommunikation

Earth Species Project (ESP), en icke-vinstdrivande organisation, samarbetar med forskare för att utveckla verktyg för att förstå djurkommunikation genom att använda maskininlärning och artificiell intelligens. Målet är att bidra till att rädda hotade arter. Organisationen har nyligen fått 1,2 miljoner dollar i finansiering från Paul G. Allen Family Foundation för att stödja sitt arbete. ESP:s arbete väcker dock också etiska frågor och säkerhetsproblem för vilda djur, eftersom AI kan missbrukas för att locka djur till jägare och tjuvjägare.

Direktlänk Dela GeekWire fördjupade 26 december

New Jersey planerar att bli global ledare inom AI

New Jerseys guvernör Phil Murphy och Princeton Universitys president Christopher Eisgruber har meddelat planer på att etablera ett nav för aktiviteter inom artificiell intelligens (AI) vid Princeton University. Navet förväntas skapa jobb och ekonomisk utveckling samtidigt som det främjar New Jerseys ledarskap inom AI. Teknikföretaget, som involverar samarbete med New Jersey Economic Development Authority (NJEDA), förväntas locka start-up företag, AI-forskare och branschledare till New Jersey för att påskynda utvecklingen av AI. Initiativet kommer också att samarbeta med andra universitet, community colleges och yrkesskolor i delstaten.

Direktlänk Dela NewsBytes fördjupade 21 december

Ny AI-hubb i New Jersey för att främja ansvarsfull utveckling av AI-teknologier

New Jerseys tjänstemän har lanserat en ny AI-hubb i samarbete med Princeton University och NJEDA. Hubbens syfte är att stimulera ansvarsfull innovation kring AI-teknologi, driva jobbtillväxt och ekonomisk utveckling samt vägleda statliga enheter i implementering av AI. Initiativet kommer att förena AI-forskare, branschledare, uppstartsföretag och andra intressenter för att främja forskning och utveckling. Princeton University har erfarenhet av AI inom en rad olika områden. Universitetet och staten kommer att vara värd för en konferens om AI den 11 april 2024.

Direktlänk Dela Government Technology fördjupade 19 december

New Jersey och Princeton University samarbetar för att främja artificiell intelligens

New Jerseys guvernör Phil Murphy har tillkännagivit att framtidens artificiell intelligens (AI) har anlänt till New Jersey genom ett partnerskap med Princeton University. Murphy och Princetons president Christopher Eisgruber presenterade planer på att skapa ett samarbetscentrum för forskning och innovation inom AI. Eisgruber nämnde att Princeton har varit ledande inom AI och maskininlärningsupptäckter och föreställde sig en gemenskap av forskare, industriledare och uppstartsföretag som kommer att fokusera på utveckling och innovation av AI-tekniker, applikationer och hårdvara.

Direktlänk Dela Shore News Network fördjupade 19 december

New Jersey och Princeton University planerar AI-forskningshub

New Jerseys guvernör Phil Murphy och Princeton Universitys president Christopher Eisgruber har tillkännagivit planer på att skapa ett samarbete för forskning och innovation inom artificiell intelligens (AI). Murphy nämnde Thomas Edison och Bell Labs som exempel på New Jerseys uppfinningsrika arv och sa att staten återigen är redo att forma framtiden genom att etablera ett nytt hem för världens djärvaste och ljusaste att banbryta genombrott för mänsklighetens förbättring. Eisgruber sa att Princeton har varit bland ledarna inom AI och maskininlärning och ser en gemenskap av forskare, industriledare, uppstartsföretag och andra som kommer att fokusera på utveckling och innovation av AI-tekniker, applikationer och hårdvara, samt de samhälleliga konsekvenserna av AI, som policy, utbildning och arbetskraftsutveckling.

Direktlänk Dela Princeton Alumni Weekly fördjupade 19 december

Jeff Bezos förespråkar rymdkolonier och AI:s potential att rädda mänskligheten

Jeff Bezos, Amazon-grundare och före detta VD, tror att artificiell intelligens (AI) är mer sannolikt att rädda mänskligheten än att förstöra den. Bezos menar att han skulle vilja se en mänsklig population på en biljon, med de flesta människor som bor på stora cylindriska rymdstationer. Han förkastar idén om att människor ska kolonisera andra planeter och förespråkar istället byggandet av rymdkolonier. Bezos, vars nettovärde är 172 miljarder dollar, menar att människor skulle kunna bo på O´Neill-rymdkolonier nära jorden, byggda med råmaterial från månen och objekt i asteroidbältet. Dessa kolonier skulle stödja en population som är 125 gånger större än jordens nuvarande befolkning.

Direktlänk Dela MarketWatch fördjupade 15 december

Säkerhetsrisker med AI-modellvikter: Skydd av Claude´s modellvikter prioriteras hos Anthropic

Jason Clinton, säkerhetschef på AI-startupen Anthropic, ägnar mycket tid åt att skydda företagets AI-modellvikter för att förhindra att de hamnar i fel händer. Modellvikterna lagras i en stor fil och anses vara avgörande för AI-nätverkets förmåga att ´lära sig´ och göra förutsägelser. Enligt en ny rapport från Rand Corporation kan förvärv av vikterna möjliggöra för skadliga aktörer att utnyttja hela modellen till en bråkdel av kostnaden för att träna den. Clinton, som tidigare arbetade för Google, betonar att Anthropic är mer oroade över icke-spridning av den kraftfulla tekniken än att skydda sin intellektuella egendom.

Direktlänk Dela VentureBeat fördjupade 15 december

Artificiell intelligens kan revolutionera vetenskapen, enligt undersökning

Artificiell intelligens (AI) kan revolutionera vetenskapen genom att göra den snabbare, mer effektiv och mer exakt, enligt en undersökning av Europeiska forskningsrådets (ERC) stipendiater. Rapporten tittar på AI:s inverkan på alla vetenskapliga områden, men kemifältet kan förväntas dra stor nytta av revolutionen. Forskare varnar dock för att AI överhypas och betonar vikten av mänskliga experter inom kemisk forskning. Rapporten sammanfattar hur 300 forskare använder AI i sitt arbete och vilka potentiella effekter och risker de ser fram till 2030.

Direktlänk Dela Royal Society of Chemistry fördjupade 15 december

Artificiell intelligens inte en lösning på alla problem

Artificiell intelligens (AI) används allt mer för att förutsäga framtiden. Banker använder det för att förutsäga om kunder kommer att betala tillbaka ett lån, sjukhus använder det för att förutsäga vilka patienter som löper störst risk att bli sjuka, och bilförsäkringsbolag använder det för att bestämma försäkringspremier genom att förutsäga hur troligt det är att en kund kommer att råka ut för en olycka. Men AI kan också ge felaktiga förutsägelser på grund av problem som dataläckage och urvalsbias. Sayash Kapoor, forskare och doktorand vid Princeton University, påpekar att felaktiga algoritmer kan ha katastrofala effekter.

Direktlänk Dela National Public Radio fördjupade 14 december

AI-laboratorieassistent ifrågasätts av forskare

En autonom laboratorieassistent, A-Lab, som använder AI och robotik för att skapa nya material, har kritiserats av forskare som ifrågasätter dess upptäckter. När A-Lab presenterades rapporterade man att den hade skapat 41 nya material på 17 dagar. Men efter granskning av A-Labs data hävdar kritiker att dessa material är en illusion. Robert Palgrave, fast tillstånds-kemist vid University College London, menar att det inte finns tillräckligt med bevis för att stödja påståendet att nya material har syntetiserats. Leslie Schoop, fast tillstånds-kemist vid Princeton University, betonar vikten av att forskningsresultat som involverar AI uppfyller samma standarder som förväntas av mänskliga forskare.

Direktlänk Dela Nature fördjupade 12 december

AI förväntas automatisera 60-70% av anställdas arbetsbörda

Enligt en rapport från McKinsey kommer generativ AI att automatisera 60-70% av anställdas arbetsbörda. AI ersätter redan jobb, ansvarig för nästan 4000 nedskärningar i maj 2023. OpenAI uppskattar att 80% av den amerikanska arbetskraften kommer att ha minst 10% av sina jobb påverkade av stora språkmodeller. Generativ AI kan också påverka kvinnors jobb oproportionerligt mycket. Cirka 79% av arbetande kvinnor har positioner som är mottagliga för automatisering jämfört med 58% av arbetande män. AI kan också påverka jobb genom att ersätta dem, men det kan också förbättra arbetsupplevelsen genom att automatisera monotona, repetitiva uppgifter.

Direktlänk Dela TechTarget fördjupade 9 december

Hantering av generativ AI: Utmaningar och möjligheter för chefer

Generativ artificiell intelligens (AI) har betydande förmågor, men kan också vara problematisk för chefer att hantera. Stora språkmodeller (LLM), som driver AI som ChatGPT, kan förbättra många saker, men har också överraskande brister. LLM:s kan spara tid genom att generera mötessammanfattningar, analysera data eller skriva pressmeddelanden. De kan förbättra kundtjänsten. AI kan till och med främja innovation. Karan Girotra från Cornell University jämförde idégenererande förmågor hos den senaste versionen av ChatGPT med studenter vid amerikanska toppuniversitet. LLM:s användningsvänlighet har också både för- och nackdelar. Reid Hoffman, en seriell AI-investerare, råder att börja experimentera med det. Exponering för LLM kan lindra oro för automation. Men tekniken har också brister. Enligt en ny studie av R. Thomas McCoy och hans medförfattare vid Princeton University kan de bli förvirrade av oväntade saker. Dessutom är det svårt för företag att hålla reda på anställdas användning av AI. Tidigare i år begränsade Samsung, ett elektronikjätte, användningen av ChatGPT av anställda efter att ingenjörer rapporterat delat källkod med chatten. Denna kombination av superkrafter, enkelhet och misstag är komplicerad för chefer att navigera.

Direktlänk Dela The Economist Newspaper fördjupade 27 november

Dr Jeff Lichtman, professor vid Harvard University, leder ett projekt för att skapa en detaljerad karta över mössens hippocampus, en del av hjärnan ansvarig för komplexa uppgifter som minneskonsolidering och rymdlig navigering. Projektet, som stöds av 30 miljoner dollar från National Institutes of Health och 3 miljoner dollar från Harvard och Princeton, syftar till att förstå hjärnans nästan 100 miljarder neuroner och biljoner synapser. Lichtman och hans partnerorganisationer, inklusive University of Cambridge, John Hopkins, MIT och Princeton University, kommer att försöka avbilda en 10 kubikmillimeter-region i mössens hippocampal formation. Resultaten kan leda till nya metoder för diagnos och behandling av en rad hjärnsjukdomar, såsom schizofreni.

Drug Target Review fördjupade 24 november

Samsung Electronics öppnar AI-forum för att dela forskningsframsteg

Samsung Electronics Co., Ltd. har öppnat Samsung AI Forum, där företaget delar de senaste forskningsframstegen inom artificiell intelligens (AI) och datateknik (CE), vilket bidrar till att förbättra företagets nästa generations halvledarteknik. Forumet samlade över 1000 deltagare, inklusive ledande akademiker, branschexperter, forskare och studenter. Yoshua Bengio, expert på djupinlärningsteknik och professor vid University of Montreal, och Jim Keller, VD för AI-halvledarstartföretaget Tenstorrent, var bland talarna. Under forumet tillkännagavs också vinnarna av Samsung AI Researcher Award och Samsung AI/CE Challenge.

Direktlänk Dela AiThority fördjupade 9 november

Forskare utvecklar metod för att upptäcka problematisk träningsdata i stora språkmodeller

Forskare från University of Washington och Princeton University har utvecklat en metod för att identifiera om en stor språkmodell (LLM) har tränats på specifik text. De introducerar en ny detektionsmetod, MIN-K% PROB, som identifierar ord med låg sannolikhet under LLM. De har även introducerat en benchmark kallad WIKIMIA som automatiskt utvärderar detektionsmetoderna på nyligen utgivna förtränade LLMs. Forskarna har applicerat metoden på tre verkliga scenarier - upptäckt av upphovsrättsskyddade böcker, detektering av förorenade downstream-exempel och integritetsgranskning av maskinavläsning. De fann starka bevis för att GPT-3-modellen kan ha tränats på upphovsrättsskyddade böcker.

Direktlänk Dela MarkTechPost fördjupade 30 oktober

AI förutsäger hur Mar del Plata kommer att se ut om 100 år

Bing/Dall-e 3, en bildgenereringsverktyg med artificiell intelligens (AI) från OpenAI, har skapat futuristiska bilder av hur staden Mar del Plata i Argentina kan se ut år 2123. Enligt AI:ns förutsägelser kommer staden att se en betydande minskning av sina stränder, men kommer att genomgå en otrolig arkitektonisk utveckling, med höga torn och byggnader liknande de i stora globala städer som New York. Detta är inte första gången staden har utsatts för sådana projektioner. Tidigare har klimatcentralen och forskare från Princeton University och Potsdam Institute skapat realistiska illustrationer av de översvämningar staden kan uppleva på grund av global uppvärmning.

Direktlänk Dela Diario 0223 fördjupade 26 oktober

Prometheus, AI och kärnvapen: En modern belysning av framsteg och fara

Prometheus, den grekiska titanen som stal elden från gudarna, har blivit en symbol för både framsteg och fara. I dagens värld, där teknologisk optimism förvandlas till farhågor för cyberkapitalistisk ondska, klimatkatastrofer och potentiella faror med AI, ses Prometheus som en symbol för vår kapacitet för självdestruktion. Två framstående figurer i denna berättelse är fysikern J. Robert Oppenheimer, ofta kallad atombombens fader, och John von Neumann, en pionjär inom AI och spelteori. Båda männen ses som moderna inkarnationer av Prometheus, deras bidrag till vetenskapen har både främjat mänsklighetens utveckling och inneburit potentiella faror för vår existens.

Direktlänk Dela The New York Times fördjupade 21 oktober

AI-modeller har brist på transparens, enligt global rapport

Artificiella intelligens (AI) baserade stiftelsemodeller som Meta´s Llama 2 och OpenAI’s GPT-4 har låg transparens, enligt en global rapport. Rapporten skapades av en grupp av åtta AI-forskare från Stanford University, MIT Media Lab och Princeton University. Rapporten visade att ”ingen större stiftelsemodellsutvecklare är nära att tillhandahålla tillräcklig transparens, vilket avslöjar en grundläggande brist på transparens inom AI-industrin”. Bland de testade modellerna fick Meta´s Llama 2 högst poäng (54 %), tätt följt av BloomZ (53 %) och sedan OpenAI’s GPT-4 (48 %).

Direktlänk Dela Daijiworld Media fördjupade 21 oktober

AI-modeller som Metas Llama 2 och OpenAIs GPT-4 har låg transparens, enligt global rapport

Artificiell intelligens (AI) baserade grundmodeller som Metas Llama 2 och OpenAIs GPT-4 har brist på transparens, enligt en global rapport. Rapporten, skapad av åtta AI-forskare från Stanford University, MIT Media Lab och Princeton University, visade att ingen större utvecklare av grundmodeller kommer nära tillräcklig transparens. Meta’s Llama 2 (54 procent) fick högst poäng, tätt följt av BloomZ (53 procent) och sedan OpenAIs GPT-4 (48 procent). Forskarna definierade transparens baserat på 100 indikatorer för information om hur modellerna är byggda, hur de fungerar och hur människor använder dem.

Direktlänk Dela The Hans India fördjupade 19 oktober

Internationella forskare lanserar Polymathic AI för vetenskaplig upptäckt

Ett team av internationella forskare, inklusive de från University of Cambridge, har inlett ett nytt forskningssamarbete för att bygga ett AI-drivet verktyg för vetenskaplig upptäckt, som använder samma teknik som ChatGPT. AI kommer att använda numeriska data och fysiksimuleringar från olika vetenskapliga områden för att hjälpa forskare att modellera allt från superjättestjärnor till jordens klimat. Ett initiativ kallat Polymathic AI har lanserats, och forskare publicerade en serie relaterade rapporter på arXiv denna vecka.

Direktlänk Dela Parhlo fördjupade 16 oktober

SWE-bench: Nytt utvärderingsramverk för språkmodellers förmåga att hantera verkliga mjukvaruutmaningar

Forskare från Princeton University och University of Chicago har utvecklat ett nytt utvärderingsramverk, SWE-bench, som använder GitHub-problem och pull-förfrågningar för att bedöma språkmodellers förmåga att hantera programmeringsuppgifter och problemlösning. Resultaten visar att även de mest avancerade modellerna endast klarar av enkla problem, vilket understryker behovet av ytterligare framsteg inom språkmodeller för att möjliggöra praktiska och intelligenta lösningar inom mjukvaruteknik. SWE-bench fokuserar på verkliga mjukvaruteknikproblem, vilket ger en mer realistisk och omfattande utvärdering för att förbättra språkmodeller med mjukvaruteknikfunktioner.

Direktlänk Dela MarkTechPost fördjupade 16 oktober

Internationellt samarbete lanserar Polymathic AI för att revolutionera vetenskaplig upptäckt

Ett internationellt team av forskare, inklusive forskare från det prestigefyllda University of Cambridge, har nyligen lanserat ett banbrytande forskningssamarbete kallat Polymathic AI. Huvudsyftet med detta samarbete är att utveckla ett artificiell intelligens (AI)-drivet verktyg som kan underlätta vetenskaplig upptäckt genom att lära sig från numeriska data och fysiksimulationer över olika vetenskapliga fält. Partnerskapet med Simons Foundation har tillhandahållit unika resurser för att prototypa dessa modeller för tillämpning inom grundläggande vetenskap. Polymathic AI:s projekt skiljer sig från andra AI-modeller genom att behandla tal som faktiska tal, vilket säkerställer noggrannhet och undviker begränsningar som vanligtvis observeras i andra AI-modeller. Deras slutliga mål är att demokratisera AI för vetenskaplig forskning genom att göra allt deras arbete offentligt.

Direktlänk Dela Mix 247 EDM fördjupade 15 oktober

Karriärcoach använder AI för att förbereda jobbintervjuer

Karriärcoachen Darci Smith använder artificiell intelligens (AI) för att förbereda sig inför jobbintervjuer. Smith rekommenderar att använda OpenAI:s ChatGPT för att generera potentiella intervjufrågor och svar baserat på jobbeskrivningen. Hon råder kandidater att kopiera och klistra in hela jobbeskrivningen i ChatGPT, och sedan be AI:n att generera en lista med sannolika intervjufrågor. Smith uppmanar också kandidater att vända processen genom att mata in dessa frågor och fundera över hur de skulle svara på varje fråga. Detta ger kandidaterna en förhandsgranskning av intervjun.

Direktlänk Dela TDPel Media fördjupade 14 oktober

Forskare bygger AI för vetenskaplig upptäckt med tekniken bakom ChatGPT

Ett internationellt team av forskare, inklusive från University of Cambridge, har startat ett nytt forskningssamarbete som kommer att använda samma teknik bakom ChatGPT för att bygga ett AI-drivet verktyg för vetenskaplig upptäckt. Det nya initiativet, kallat Polymathic AI, kommer att lära sig från numeriska data och fysiksimuleringar från olika vetenskapliga områden för att hjälpa forskare att modellera allt från superjättestjärnor till jordens klimat. Forskarna hoppas att detta kommer att ändra hur AI och maskininlärning används inom vetenskapen. Trots att AI-verktyg har använts tidigare, har de främst varit ändamålsenligt byggda och tränade med relevant data.

Direktlänk Dela Tech Xplore fördjupade 13 oktober

Säkerhetsåtgärder för stora språkmodeller kan enkelt kringgås, enligt studie

En grupp studenter vid Princeton University, Virginia Tech, IBM Research och Stanford University har i en studie visat att säkerhetsåtgärderna för stora språkmodeller kan kringgås genom finjustering. De kunde kringgå GTP-3.5 Turbos säkerhetsåtgärder för mindre än 0,20 dollar via Open AI:s programmeringsgränssnitt. Dessa modeller kan därmed generera skadligt innehåll som självmordsstrategier och recept på farliga saker. Säkerheten kan även försvagas genom finjustering med ett ofarligt dataset.

Direktlänk Dela Computer Sweden fördjupade 13 oktober

Princeton-forskare utvecklar metod för att identifiera fel i kvantdatorer

Forskare vid Princeton University har utvecklat en metod för att identifiera fel i kvantdatorer, vilket gör dem upp till tio gånger lättare att rätta till. Metoden innebär att qubits övervakas under beräkning, och de qubits som har fel avger en ljusblixt, vilket gör det möjligt att upptäcka fel i realtid utan att förstöra qubitarna. Forskarna tror att med ytterligare ingenjörskonst bör nära 98 procent av alla fel kunna upptäckas med denna metod. Denna teknik har potential att avsevärt minska beräkningskostnaderna för att implementera felkorrigering i kvantdatorer.

Direktlänk Dela Fagenwasanni.com fördjupade 12 oktober

» Nyheterna från en dag tidigare

Några av våra kursdeltagare