» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 202 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Cornell University är ett privat forskningsuniversitet i Ithaca, New York, USA. Det grundades 1865 av Ezra Cornell och Andrew Dickson White. Det är medlem i Ivy League, en grupp av åtta prestigefyllda amerikanska universitet. Cornell har omkring 24 000 studenter och erbjuder över 100 olika ämnen att studera. Universitetet är känt för sin höga akademiska standard, framstående forskning och starka fokus på tillämpad vetenskap. Det har 14 college och skolor som erbjuder både grundutbildning och forskarutbildning. Några av dess mest kända områden är arkitektur, hotell- och restaurangadministration, ingenjörsvetenskap och arbetsrelationer.

Senaste nytt kring Cornell University

Forskare från Cornell University och Amazon introducerar COLLAGE för att förbättra träningen av stora språkmodeller

Stora språkmodeller (LLM) har revolutionerat naturligt språkbearbetning genom att möjliggöra banbrytande framsteg inom olika applikationer. Men utbildningen av dessa modeller innebär betydande utmaningar, inklusive höga resurskrav och långa utbildningstider. För att lösa detta problem har forskare från Cornell University och Amazon introducerat COLLAGE, en ny metod som använder en Multi-Component Float (MCF) representation för att hantera operationer med numeriska fel. COLLAGE optimerar effektivitet och minnesanvändning under träning och introducerar metriken ”effektiv nedstigningskvalitet” för en mer nyanserad utvärdering av precisionstrategier. COLLAGE uppvisar betydande hastighetsökningar i träningsgenomströmningen, och uppnår upp till 3,7 gånger bättre genomströmning på en GPT-6.7B-modell.

Direktlänk Dela MarkTechPost fördjupade 10 maj
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

San Francisco-startupen Krea AI lanserar video-genereringsfunktion

Krea AI, ett San Francisco-baserat generativt AI-medie-startup, har lanserat en funktion som låter betalande prenumeranter generera videor. Företaget, som grundades av Victor Pérez och Diego Rodriguez, lanserade sin offentliga beta 2023 med AI-bilduppgradering och realtids AI-bildgenereringsfunktioner. Krea AI skiljer sig från konkurrenter som Pika och Runway genom att ge användarna möjlighet att använda både ´nyckelbild´-stilla bilder och textprompter i samma projekt. Användare kan också välja olika ramar att radera, ändra ordning på eller ändra längden på.

Direktlänk Dela VentureBeat fördjupade 10 maj

Högskolor och universitet prioriterar AI-utbildning för att förbereda studenter för arbetslivet

För att bättre förbereda studenter för sina karriärer efter college prioriterar lärare och campusledare utbildning om generativa artificiella intelligensverktyg och funktioner. Generativ artificiell intelligens (AI) har varit en av de mest störande teknologierna under de senaste åren. För att uppfylla högre utbildnings uppdrag att utrusta studenter med livslånga färdigheter och inlärning inkluderar lärare över discipliner AI-verktyg i sina klassrum. En nyligen undersökning av akademiska chefer och prorektorer fann att 14% har granskat läroplanen för att säkerställa att den kommer att förbereda studenter för AI på arbetsplatsen och ytterligare 73% planerar att göra det. Bland studenter tror 72% av respondenterna i en studentröstundersökning att deras institution bör förbereda dem ´mycket´ eller ´något´ för att använda AI på arbetsplatsen. De flesta av studenterna har inte tagit till sig generativ AI för personligt eller akademiskt bruk. Från och med november 2023 säger en undersökning att drygt en tredjedel av studenterna i USA använder dessa verktyg månatligen och en annan fann att 20% använder AI för kursarbete.

Direktlänk Dela Inside Higher Ed fördjupade 7 maj

New York förväntas uppleva AI-boom värd $320 miljarder

New York förväntas uppleva en boom inom artificiell intelligens (AI) värd $320 miljarder fram till 2038, tack vare inhemska talanger, enligt en ny rapport från Accenture och Tech:NYC. Rapporten visar att 90% av cheferna anser att stadens talangpool är nyckeln till framgång. New York har redan 40 000 AI-professionella och är den näst största platsen för att samla in pengar för AI-företag. Inom 15 år kommer AI att bli så utbrett att två tredjedelar av New York-borarnas arbetstid kommer att automatiseras eller förstärkas av AI, vilket kommer att lägga till miljarder till ekonomin.

Direktlänk Dela New York Post fördjupade 4 maj

New Yorks guvernör lanserar Empire AI för att säkra statens ledande position inom AI-forskning

New Yorks guvernör Kathy Hochul firade ett historiskt avtal med lagstiftaren för att inrätta Empire AI, ett konsortium som ska säkra New Yorks ledande position inom forskning om artificiell intelligens (AI). Konsortiet kommer att dra nytta av en statlig investering på 275 miljoner dollar för att skapa och lansera ett toppmodernt AI-beräkningscenter på University at Buffalo. Centret kommer att användas av ledande institutioner i New York för att främja ansvarsfull forskning och utveckling, skapa jobb och främja AI för allmänheten.

Direktlänk Dela Caribbean Life News fördjupade 4 maj

AI-genererad artikel drar tillbaka, väcker oro för AI i vetenskapen

Frontiers in Cell and Developmental Biology drog tillbaka en artikel med titeln ´Cellulära funktioner av spermatogoniala stamceller i förhållande till JAK/STAT-signalvägen´ efter att läsare påpekade att figurerna tydligt genererats med artificiell intelligens (AI) och var fulla av stavfel och icke-sensiska diagram. Artikeln är bara ett exempel som bidrar till växande oro över AI:s tillämpningar inom vetenskapen. En nyligen rapport från Cornell University beskriver de potentiella fördelarna med generativ AI, men även utmaningarna. Professorerna Allison Koenecke och James Grimmelmann vid Cornell uttrycker oro för att användningen av generativ AI kan leda till minskad forskningskvalitet och noggrannhet.

Direktlänk Dela The Cornell Daily Sun fördjupade 2 maj

Apple planerar att förbättra iPhone 16-serien med avancerade AI-funktioner

Apple planerar att förbättra iPhone 16 och iPhone 16 Pro med avancerade AI-funktioner. Företaget utvecklar kompakta men kraftfulla stora språkmodeller (LLMs), designade speciellt för mobilintegration. Genom sitt engagemang med Hugging Face hub har Apple registrerat en serie av LLMs. Dessa är avgörande för funktionen hos generativa AI-appar. Apple förväntas förbättra sin Axx-chipserie för att möjliggöra lokal AI-beräkning för iPhone 16-serien. Apple har också visat sitt samarbete med akademiska sektorer genom ett partnerskap med Cornell University. Deras gemensamma forskning utforskar LLMs för att hjälpa synskadade användare och effektivisera röststyrd navigering.

Direktlänk Dela Smartphonemagazine.nl fördjupade 25 april

AI kan förbättra noggrannheten i väderprognoser och öka vinsterna för företag

Framsteg inom artificiell intelligens (AI) kan drastiskt förbättra noggrannheten i väderprognoser, vilket potentiellt kan öka vinsterna för företag som är beroende av prognoser. Google har introducerat en ny AI-modell som kan producera exakta, storskaliga väderprognoser till en lägre kostnad än traditionella metoder. AI-modeller kan effektivisera verksamheten, minska kostnaderna och stärka beslutsfattandet inom olika branscher genom att erbjuda mer exakt och aktuell väderinformation. En ny studie stärker idén att AI slår traditionella prognosmetoder. Forskare från University of Reading jämförde nyligen prestandan för AI-baserade vädermodeller med traditionella fysikbaserade modeller. Studien fann att väderprognoser som använder maskininlärning kan uppnå liknande noggrannhet som konventionella metoder men med större hastighet, minskade kostnader och mindre beräkningskrav.

Direktlänk Dela PYMNTS fördjupade 24 april

Forskare använder maskininlärning för att bevisa existensen av en sällsynt fas av materia

Forskare från US Department of Energy´s (DOE) Argonne National Laboratory, tillsammans med medarbetare från Stanford University och Cornell University, har använt maskininlärning för att upptäcka experimentella bevis för existensen av Bragg-glas i ett material. Bragg-glas uppvisar strukturella egenskaper av både ordnade och oordnade strukturer, vilket gör det till en sällsynt fas av materia. Forskarna använde stora mängder röntgenstrålningsdata och ett nytt verktyg för dataanalys med maskininlärning som utvecklats vid Cornell för att undersöka glasens natur. Denna upptäckt kan bidra till en bättre grundläggande förståelse för fasövergångar i materia.

Direktlänk Dela EnterpriseAI fördjupade 23 april

Forskning visar att LLMs som ChatGPT kan vara nästa stora cybersäkerhetsrisk

Enligt de senaste forskningsresultaten kan språkmodeller som LLMs, till exempel ChatGPT, utgöra nästa stora oro inom cybersäkerhet. Tidigare trodde man att LLMs endast kunde utnyttja enklare cybersäkerhetssårbarheter, men de har visat en förvånansvärt hög kompetens när det gäller att exploatera komplexa sådana. Forskare vid University of Illinois Urbana-Champaign (UIUC) upptäckte att GPT-4 uppvisar en skrämmande hög förmåga att utnyttja ´one-day´-sårbarheter i verkliga system. I en datamängd av 15 sådana sårbarheter kunde GPT-4 utnyttja en oroande 87% av dem.

Direktlänk Dela TechRadar fördjupade 23 april

Forskningsgrupp föreslår formella interaktionsmodeller för att förbättra AI-system

Forskare från Cornell University, University of California, Princeton University och University of Texas har föreslagit formella interaktionsmodeller (FIM) för att förbättra design och utvärdering av AI-system. FIM är ett dynamiskt system som kopplar samman AI-system och användare. Modellen inkluderar fyra huvudsakliga användningsområden: den specificerar interaktioner för implementering, övervakar interaktioner med hjälp av empirisk analys, förutser samhällspåverkan med hjälp av kontrafaktisk analys och kontrollerar samhällseffekter genom interventioner. Forskarna använde dynamiska system för att belysa begränsningar i användningsfallen för framtida arbete.

Direktlänk Dela MarkTechPost fördjupade 21 april
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Ny algoritm förbättrar inlärningsprocessen genom att integrera offline-data

Forskare från Cornell University, Princeton University och Microsoft Research har introducerat en ny algoritm, Dataset Reset Policy Optimization (DR-PO), som effektivt integrerar offline-data i förstärkningsinlärning (RL). Denna metod skiljer sig från traditionella metoder genom att återställa direkt till specifika tillstånd från en offline-datamängd under policyoptimering, vilket förbättrar effektiviteten i inlärningsprocessen och breddar tillämpningsområdet för de tränade modellerna. DR-PO har visat överlägsna resultat i studier som involverar uppgifter som TL;DR-sammanfattning och den antropiska hjälpsamma skadliga datamängden.

Direktlänk Dela MarkTechPost fördjupade 17 april

Utveckling av AI-assistenter: Siri och Ferret-UI

För 90-talets barn var den första mötet med AI ´Siri´, en AI-driven röstassistent som lanserades med iPhone 4S 2011. Siri gjorde livet enklare genom att utföra uppgifter som att ställa in samtal eller larm. Men på senare år har det inte skett mycket utveckling av Siri. I samband med AI-explosionen rapporteras det nu att Siri också kommer att genomgå denna omvandling och bli smartare. Apple har arbetat med Gen AI för Siri under en tid. Enligt en ny forskningsartikel från Cornell University finns det en ny MLLM (Multimodal Large Language Model) som förstår hur ett telefongränssnitt fungerar. Denna modell, kallad ´Ferret-UI´, lanserades i oktober 2023 och är utvecklad för att förstå UI-skärmar samt hur appar fungerar. Ferret-UI är ett resultat av omfattande forskning mellan Apple och Cornell University om hur stora språkmodeller kan känna igen och förstå element inom bilder.

Direktlänk Dela Trakin Tech Network fördjupade 15 april

Säkerhetsproblem med AI-assistenter: Vän eller fiende?

Från och med lanseringen av ChatGPT i slutet av 2022 har alla försökt rida på AI-vågen, vilket har översvämmat marknaden med olika AI-assistenter. Forskning publicerad av forskare vid University of Ber-Gurion visade att våra hemligheter kan exponeras trots kryptering av AI-assistentens svar. Studien visade att en angripare kunde avkoda en konversation med överraskande noggrannhet. Dessutom visade forskarna att när angriparen byggde ett verktyg för att avkoda en konversation kunde detta verktyg fungera på andra tjänster också. I slutet av mars förbjöd USA:s representanthus strikt användning av Microsofts Copilot av kongresspersonal. I början av april publicerade Cyber Safety Review Board (CSRB) en rapport som skyllde Microsoft för en ´kaskad av säkerhetsbrister´ som möjliggjorde för kinesiska hotaktörer att få tillgång till amerikanska regeringstjänstemäns e-post under sommaren 2023.

Direktlänk Dela Cointelegraph fördjupade 10 april

Cornell-forskare introducerar RLCM, en snabbare metod för text-till-bild-konvertering

Forskare vid Cornell University har introducerat ramverket Reinforcement Learning for Consistency Models (RLCM), en ny metod som påtagligt påskyndar processen för text-till-bild-konvertering. Till skillnad från traditionella metoder som förlitar sig på iterativ förfining, använder RLCM förstärkningsinlärning för att finjustera konsistensmodeller, vilket möjliggör snabb bildgenerering utan att offra kvaliteten. RLCM-ramverket tillämpar ett policygradienttillvägagångssätt för att finjustera konsistensmodeller, specifikt riktat mot Dreamshaper v7-modellen för optimering. Genom att använda dataset som LAION för estetiska bedömningar tillsammans med ett specialdesignat dataset, anpassar RLCM effektivt dessa modeller för att generera högkvalitativa bilder.

Direktlänk Dela MarkTechPost fördjupade 10 april

Ny era i grödprognoser: AI:s roll i jordbruket

En studie från Purdue University, i samarbete med Cornell University och Dale Bumpers National Rice Research Center, belyser betydelsen av offentliga avelsprogram för att förbättra grödornas motståndskraft för en hållbar framtid. I den ständigt föränderliga jordbrukslandskapet, där klimatförändringar presenterar aldrig tidigare skådade utmaningar, vänder sig forskare mot teknik som artificiell intelligens och maskininlärning för att säkra livsmedelssäkerheten. En studie publicerad i Proceedings of the National Academy of Sciences belyser en prediktiv modell som använder maskininlärningsalgoritmer för att förutsäga effekterna av klimatförändringar på risutbyten.

Direktlänk Dela Krishi Jagran fördjupade 26 mars

En grupp AI-forskare har upptäckt att skadliga aktörer kan manipulera de datamängder som generativa AI-verktyg, som ChatGPT, förlitar sig på för att ge korrekta svar, för så lite som $60. Forskare vid ETH Zürich fann att en angripare kan ´förgifta´ data som en AI-modell tränas på, vilket kan leda till att modellen ger felaktiga svar. En metod involverar att köpa utgångna domäner och lägga upp valfri information på webbplatserna. En annan metod innebär att förgifta data på Wikipedia genom att tajma redigeringar precis innan en moderator kan återställa ändringarna och innan webbplatsen tar snapshots.

Business Insider fördjupade 24 mars

AI-verktyg blir allt mer subtilt rasistiska, enligt ny rapport

Enligt en ny rapport blir populära artificiella intelligensverktyg allt mer subtilt rasistiska. Forskare inom teknik och lingvistik har avslöjat att stora språkmodeller som OpenAI:s ChatGPT och Googles Gemini håller rasistiska stereotyper om talare av African American Vernacular English (AAVE), en engelsk dialekt skapad och talad av svarta amerikaner. Forskarna fann att AI-modellerna var betydligt mer benägna att beskriva AAVE-talare som ´dumma´ och ´lata´, och tilldela dem lägre betalande jobb. AI-modellerna var också betydligt mer benägna att rekommendera dödsstraff för hypotetiska brottslingar som använde AAVE i sina rättsliga uttalanden.

Direktlänk Dela The Guardian fördjupade 16 mars

Rappaports unika karriärväg till underhållningsjuridik

Rappaport, som förutom sin nuvarande roll på Columbia Records även har tjänstgjort som Senior Director of Business and Legal Affairs för Sony Music Entertainment och RCA Records, intervjuades nyligen om sin unika karriärväg till underhållningsjuridik. Hon började sin professionella karriär med en kandidatexamen i arkitektur från Cornell University, men bytte snart inriktning och tog en juristexamen vid American University Washington College of Law. Rappaports juridiska karriär inleddes på Arnold & Porter i Washington D.C., där hon fick möjlighet att bryta in i underhållningsjuridiken.

Direktlänk Dela Law Weekly fördjupade 14 mars

Ny metod för DNA-sekvensmodellering utvecklad genom samarbete mellan universitet

Forskare från Cornell University, Princeton University och Carnegie Mellon University har utvecklat en ny metod för att modellera DNA-sekvenser. Metoden bygger på utvecklingen av ´Mamba´-blocket, förbättrat för att stödja bidirektionalitet genom ´BiMamba´-komponenten och för att införliva RC-ekvivalens med ´MambaDNA´-blocket. Dessa block tjänar som grund för ´Caduceus´-modellerna, en banbrytande familj av RC-ekvivalenta, bidirektionella långdistans-DNA-sekvensmodeller. Modellerna har visat överlägsen prestanda jämfört med tidigare långdistansmodeller i olika nedströms jämförelser.

Direktlänk Dela MarkTechPost fördjupade 10 mars

Microsoft står inför utmaningar kring AI säkerhet och upphovsrättsintrång

Microsoft står inför både interna och externa utmaningar. Företaget svarade på en stämning från New York Times genom att lämna in en inlaga för att avfärda anklagelserna. AI-ingenjören Shane Jones på Microsoft har skickat brev till Federal Trade Commissions ordförande Lina Khan och Microsofts styrelse, där han uttrycker allvarliga farhågor om säkerheten för Microsofts AI-modell Copilot Designer. Jones påstår att Copilot Designer, som drivs av OpenAIs Dall-E-bildgenerator, producerar bilder som strider mot molnleverantörens principer för ansvarsfull AI. Jones brev kommer samtidigt som Google, Microsofts huvudkonkurrent inom generativ AI, också kritiseras för sin multimodala modell Gemini.

Direktlänk Dela TechTarget fördjupade 8 mars
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

AI-maskar hotar säkerheten för chattbotar som Google Gemini och OpenAI´s ChatGPT

Generativ AI, som OpenAI´s ChatGPT, har revolutionerat hur vi lever och arbetar under de senaste två åren. Men enligt en ny studie är denna teknik lika sårbar för externa hot som all annan teknologi. En AI-mask, kallad Morris II, har hittat ett säkerhetshål i två av världens mest populära AI-chattbotar - Google Gemini och OpenAI´s ChatGPT. Masken kan manipulera dessa AI-chattbotar och använda dem för att sprida skadlig kod, genomföra phishing-attacker och skicka skräppost. Trots att OpenAI och Google ständigt jobbar på att släppa säkerhetsuppdateringar, kan maskar fortfarande hitta nya svagheter i AI-chattbotar och utnyttja dem för skadliga syften.

Direktlänk Dela August Man fördjupade 6 mars

AI-maskar hotar populära chattbotar som Google Gemini och OpenAI´s ChatGPT

Världen har tagit stora kliv framåt med OpenAI´s ChatGPT, som har gett allmänheten en smak av generativ AI. Men enligt en nyligen genomförd studie är generativ AI lika sårbar för yttre hot som vilken annan teknik som helst idag. Nyligen har en generativ AI-mask hittat en lucka i säkerhetssystemen för två av världens mest populära AI-chattbotar - Google Gemini och OpenAI´s ChatGPT. Denna mask kan manipulera dessa AI-chattbotar i sina klientappar och använda dem för att sprida skadlig programvara, genomföra phishingattacker och skicka skräppost. Trots att teamen på OpenAI och Google ständigt arbetar med att släppa säkerhetsuppdateringar, kan maskar fortfarande hitta nya svagheter i AI-chattbotar och hitta en lucka för att främja sina illvilliga avsikter.

Direktlänk Dela August Man fördjupade 6 mars

Ny självutbredande AI-mask kan stjäla data och sprida skadlig kod

Forskare har skapat en självutbredande mask, kallad Morris II, som kan stjäla personlig information genom applikationer som använder AI-drivna chatbots. Morris II använder en prompt-injektionsattack för att lura AI-drivna e-postassistenter som innehåller chatbots, till exempel ChatGPT och Gemini, vilket möjliggör för hackare att infiltrera offer-e-post för att stjäla personlig information, lansera spamkampanjer och förgifta AI-modeller. Offren behöver inte klicka på något för att utlösa den skadliga aktiviteten: masken är utformad så att den automatiskt sprider skadlig kod utan mänsklig inblandning.

Direktlänk Dela Information Security Media fördjupade 5 mars

AI-mask hittar säkerhetslucka i populära chattbotar

Enligt en nyligen genomförd studie har en AI-mask hittat en säkerhetslucka i två av världens mest populära AI-chattbotar - Google Gemini och OpenAI:s ChatGPT. Denna mask kan manipulera dessa AI-chattbotar i deras klientappar och använda dem för att sprida skadlig programvara, utföra phishingattacker och skicka skräppost. Trots att teamen på OpenAI och Google ständigt arbetar med att släppa säkerhetsuppdateringar, kan maskar fortfarande hitta nya svagheter i AI-chattbotar och hitta en lucka för att vidarebefordra sina skadliga avsikter. AI-masken, kallad Morris II, skapad av forskare från Cornell University, kan bryta skyddet av dessa AI-modeller och styra dem att stjäla känslig information.

Direktlänk Dela August Man fördjupade 5 mars

AI-mask kan stjäla konfidentiell data och bryta säkerhetsåtgärder

Forskare vid Cornell University, Technion-Israel Institute of Technology och Intuit har utvecklat den första generativa AI-masken, kallad ´Morris II´, som kan stjäla data eller sprida skadlig kod och sprida sig från ett system till ett annat. AI-masken kan bryta vissa säkerhetsåtgärder i OpenAI:s ChatGPT och Googles Gemini genom att attackera en generativ AI e-postassistent med avsikt att stjäla e-postdata och skicka skräppost. Forskarna rapporterade sina observationer till Google och OpenAI. Google avböjde att kommentera ämnet.

Direktlänk Dela New Delhi Television fördjupade 4 mars

Forskare skapar farlig AI-mask kallad ´Morris II´

Forskare från Cornell University, Intuit och Technion-Israel Institute of Technology har skapat en artificiell intelligensmask känd som ´Morris II´, uppkallad efter den ökända internetmasken från 1988. Denna AI-mask kan sprida skadlig programvara, stjäla känslig information och till och med kringgå säkerhetsskydd i välkända AI-chattbotar som Gemini och ChatGPT. Masken kan använda AI-modeller för att duplicera och sprida farliga nyttolaster utan behov av mänskligt deltagande. Forskarna delade snabbt sina resultat med Google, företaget som skapade Gemini, och OpenAI, företaget som skapade ChatGPT.

Direktlänk Dela Daily News & Analysis India fördjupade 3 mars

Hur ChatGPT skyddar mig från phishing-attacker

ChatGPT, en AI-plattform, har visat sig vara effektivt för att upptäcka och försvara mot phishing-attacker. Trots avancerade cybersäkerhetsförsvar, finns det alltid luckor som kan utnyttjas av illvilliga aktörer. ChatGPT kan identifiera och peka ut misstänkta element i e-postmeddelanden, vilket kan hjälpa till att skydda användare från potentiella attacker. Forskare på mxHERO Labs undersöker hur AI kan tillämpas i e-postsammanhang och har sett AI:s nytta som ett anti-phishing-verktyg. De använder sin gratis tillgängliga ChatGPT-app, Chat for Email, för att bedöma om ett visst e-postmeddelande potentiellt är en phishing-attack.

Direktlänk Dela Data Driven Investor fördjupade 2 mars

Ny datormask ´Morris II´ kan attackera AI-system

En ny datormask kan attackera AI-system, inklusive OpenAI´s ChatGPT och Googles Gemini. Denna mask kan lura AI-baserade e-posthjälpmedel att stjäla personlig information och sända oönskade e-postmeddelanden. Masken, som kallas ´Morris II´, kan använda både text och bilder för att skada AI-system och fungerar genom att smyga in skadliga uppmaningar som får AI att upprepa dessa uppmaningar och utföra skadliga åtgärder utan att behöva några klick eller direktiv från användare. Skaparna av denna mask, från Cornell University, Intuit och Israels Technion, varnar att sådana maskar kan användas för storskaliga attacker i framtiden, vilket sätter fler AI-verktyg i fara. OpenAI har svarat genom att säga att de arbetar på att göra sina system starkare och bättre skyddade.

Direktlänk Dela Digital Information World fördjupade 2 mars

Ny AI-mask hotar generativa AI-modeller

Forskare har utvecklat en ny AI-mask känd som ´zero-click´ som utgör ett hot mot generativa AI-modeller. Masken har potential att sprida sig över system och eventuellt stjäla data eller initiera en ´fientlig självreplikerande prompt´ genom text- och bildinmatningar. Den utgör ett nytt cyberhot som utnyttjar sammanlänkningen och autonomi av AI-ekosystem. AI-masken kan utgöra ett betydande hot mot AI-plattformar som OpenAI´s ChatGPT-4 och Googles Gemini. Forskare från CISPA Helmholtz Center för informationssäkerhet betonar nödvändigheten av att utvecklingsgemenskapen tar dessa risker på allvar. Masken kan användas för phishing-attacker, skicka skräppost eller sprida propaganda.

Direktlänk Dela NewsX fördjupade 2 mars

ChatGPT skyddar mot phishingattacker

Enligt en artikel av Alex Panagides på mxHERO Labs kan AI, och specifikt ChatGPT, vara ett effektivt verktyg för att skydda mot phishingattacker. Trots avancerade cybersäkerhetsförsvar kan dessa attacker fortfarande tränga igenom och utnyttja välkända varumärken som MSN, VMware, McAfee, The Economist, Cornell University, CBS, Marvel och eBay. Men med hjälp av AI kan potentiella phishingattacker identifieras och undvikas. Genom att använda mxHERO Labs gratis ChatGPT-app, Chat for Email, kan användare be ChatGPT att bedöma om ett visst e-postmeddelande potentiellt är en phishingattack. Artikeln ger exempel på hur AI har identifierat och varnat för sådana attacker.

Direktlänk Dela Data Driven Investor fördjupade 2 mars

Forskare från Cornell University introducerar C3PO för att förbättra språkmodeller

Forskare från Cornell University har introducerat en ny metod, Contextualized Critiques with Constrained Preference Optimization (C3PO), för att förbättra språkmodellernas responsbeteende. C3PO-metoden finjusterar strategiskt språkmodeller för att tillämpa feedback där det är relevant och undvika övergeneralisering. Detta uppnås genom att använda Direct Preference Optimization (DPO) för data som anses vara inom räckvidd och Supervised Fine-Tuning (SFT) förluster för data utanför och nära räckvidd, vilket säkerställer att modellens prestanda förblir robust över olika sammanhang. C3PO har visat överlägsen prestanda genom att effektivt följa inom räckvidd prompts samtidigt som övergeneralisering minimeras.

Direktlänk Dela MarkTechPost fördjupade 27 februari

Biden-administrationen söker allmänhetens åsikter om AI:s öppenhet

Den amerikanska Biden-administrationen har inlett en debatt om huruvida de mest kraftfulla artificiella intelligenssystemen bör vara öppna eller stängda. Vita huset söker nu allmänhetens åsikter om risker och fördelar med att ha en AI-systems nyckelkomponenter tillgängliga för alla att använda och modifiera. Teknikföretag är splittrade i frågan, med vissa som betonar farorna med allmänt tillgängliga AI-modellkomponenter och andra som understryker att öppen vetenskap är viktig för forskare och startups. Facebooks moderbolag Meta Platforms och IBM har varit bland de mest framstående förespråkarna för en öppen inställning. President Joe Biden har gett handelssekreterare Gina Raimondo till juli att tala med experter och komma tillbaka med rekommendationer om hur man ska hantera de potentiella fördelarna och riskerna. Nu säger handelsdepartementets National Telecommunications and Information Administration att det också öppnar en 30-dagars kommentarsperiod för att samla idéer som kommer att ingå i en rapport till presidenten.

Direktlänk Dela SecurityWeek fördjupade 24 februari

Forskare utvecklar plattform för att lära barn om AI och robotik

Forskare vid University of Southern California har utvecklat en öppen källkodsplattform för att hjälpa studenter bygga sin egen AI-drivna, lågkostnads robotkompis. Målet är att förbereda nästa generation för ett samhälle drivet av AI. Plattformen lär ut grunderna i AI, men också viktiga färdigheter inom robotik, programvaruteknik och maskinteknik. Jämfört med andra alternativ, som NAO-roboten som kostar cirka 150 000 SEK, kostar teamets anpassningsbara robot cirka 2 500 SEK och erbjuder stor flexibilitet. Denna prisvärda och mångsidiga lösning uppnåddes genom att utnyttja den öppna källkodsroboten Blossom, tidigare utvecklad vid Cornell University.

Direktlänk Dela Hackster fördjupade 24 februari

Graf Mamba-nätverk förvandlar maskininlärning baserat på graf

Forskare från Cornell University har utvecklat Graf Mamba-nätverk (GMN), en banbrytande lösning på utmaningar som traditionella Graf Neurala Nätverk (GNN) står inför, som att hantera långdistansberoenden inom grafer och problemet med överkomprimering. GMN integrerar principerna för State Space Models (SSM) för att erbjuda en ny metod för grafisk inlärning. Denna ram är utformad för att övervinna begränsningarna hos både traditionella GNN och deras senaste framsteg, såsom Graftransformatorer. GMN utmärker sig genom sin beräknings effektivitet, vilket sätter en ny standard inom området.

Direktlänk Dela MarkTechPost fördjupade 21 februari

Indiska kvinnor når toppnivåer inom AI-forskning och tillämpning

Enligt en artikel i The Economist har indier varit i framkant av AI-forskning och tillämpning. Förra året överträffade Indien Kina med det högsta antalet doktorander som studerar i USA. Av cirka 2,5 miljoner invandrade STEM-arbetare (vetenskap, teknik, teknik, matematik) i USA kommer 29% från Indien. Inom området för artificiell intelligens (AI) är 8% av världens ledande forskare indiska. Kvinnor halkar inte efter heller. Från och med 2022 har indierna de högsta AI-färdighetsgenomträngningsgraderna var Indien och detta inkluderar kvinnor! Här är listan över kvinnor som har uppnått högsta standarder inom ai - Niki Parmar, Aakanksha Chowdhery, Anima Anandkumar, Suchi Saria, Parvati Dev, Monisha Ghosh.

Direktlänk Dela Analytics India Magazine fördjupade 13 februari

AI i utvecklingsländer: Hur ´tiny machine learning´ kan ha stor påverkan

Tiny Machine Learning (TinyML) är en teknik som tillåter AI-applikationer att köras på små, energieffektiva enheter snarare än på resurskrävande servrar. Dessa enheter är billiga och små nog att kunna användas i fält, exempelvis för att detektera myggvingeslag för att hjälpa till att förhindra spridning av malaria. TinyML-enheter fungerar inom begränsningar som påminner om persondatorns tidiga dagar, med minne mätt i kilobyte och hårdvara som kan köpas för så lite som 1 US-dollar. Dessa enheter kräver inte en bärbar dator eller mobiltelefon, utan kan köras på enkla mikrokontroller som driver standard elektroniska komponenter över hela världen.

Direktlänk Dela Tech Xplore fördjupade 10 februari

Will Oremus går med som medvärd för The Technology 202; Meta planerar att märka AI-genererat innehåll

Will Oremus, en teknikanalytiker och skribent, kommer att gå med som medvärd för The Technology 202, och skriva en utgåva i veckan. Oremus började på The Post 2021 och har hjälpt till att leda tidningens täckning av konkurrensrätt, Elon Musk och artificiell intelligens. Med hans tillägg kommer nyhetsbrevet nu vanligtvis att skickas ut tre gånger i veckan, från tisdag till torsdag. Meta planerar att märka AI-genererat innehåll på sina plattformar. Detta steg överensstämmer med Biden-administrationens verkställande order om AI förra hösten, som uppmanade till ´vattenmärkning´ som en politisk prioritering.

Direktlänk Dela The Washington Post fördjupade 7 februari

Facebook och Instagram inför etiketter för AI-genererat innehåll

Facebook och Instagram-användare kommer snart att se etiketter på bilder som visas i deras sociala medieflöden, som en del av en bredare teknikindustrins initiativ för att skilja mellan vad som är verkligt och inte. Detta är ett försök att identifiera bilder och så småningom video och ljud som genereras av AI-verktyg. Det återstår att se hur väl det kommer att fungera i en tid då det är lättare än någonsin att skapa och distribuera AI-genererade bilder som kan orsaka skada. Meta kommer att arbeta för att märka bilder från Google, OpenAI, Microsoft, Adobe, Midjourney och Shutterstock.

Direktlänk Dela WEAR-TV fördjupade 7 februari

Facebook och Instagram inför etiketter för AI-genererade bilder

Användare på Facebook och Instagram kommer snart att börja se etiketter på AI-genererade bilder som visas i deras sociala medieflöden. Detta är en del av en bredare teknikindustriinitiativ för att skilja mellan vad som är verkligt och inte. Meta, företaget bakom Facebook och Instagram, meddelade att de arbetar med industrins partners på tekniska standarder som gör det lättare att identifiera bilder och så småningom video och ljud som genereras av AI-verktyg. Det återstår att se hur väl detta kommer att fungera i en tid då det är lättare än någonsin att skapa och distribuera AI-genererade bilder som kan orsaka skada.

Direktlänk Dela The Associated Press fördjupade 7 februari

Facebook och Instagram börjar märka AI-genererade bilder

Facebook och Instagram kommer att börja märka bilder som visas på deras sociala medieflöden för att hjälpa användare att skilja mellan verkliga och AI-genererade bilder. Detta är en del av en bredare teknikindustriinitiativ för att identifiera innehåll skapat med artificiell intelligens. Det är dock oklart hur effektivt detta kommer att fungera, särskilt med tanke på den ökande förmågan att skapa och distribuera AI-genererade bilder som kan orsaka skada. Märkningen kommer att lanseras ´under de kommande månaderna´ och på olika språk.

Direktlänk Dela KFOX-TV fördjupade 7 februari

Facebook och Instagram inför etiketter för AI-genererade bilder

Facebook och Instagram kommer att börja märka bilder som visas på deras sociala medier för att skilja mellan vad som är verkligt och inte. Detta är en del av en bredare teknikindustrins initiativ för att identifiera bilder, och så småningom video och ljud, genererade av artificiell intelligens. Det är dock oklart hur väl detta kommer att fungera, särskilt med tanke på hur lätt det är att skapa och distribuera AI-genererade bilder som kan orsaka skada. Meta arbetar med att märka bilder från Google, OpenAI, Microsoft, Adobe, Midjourney och Shutterstock.

Direktlänk Dela WWMT-TV fördjupade 6 februari

Facebook och Instagram kommer att börja märka AI-genererade bilder

Facebook och Instagram kommer att börja märka AI-genererade bilder som visas på deras sociala medieflöden, som en del av en bredare teknikindustrins initiativ för att skilja mellan vad som är verkligt och inte. Meta sa att de arbetar tillsammans med branschpartners för att skapa tekniska standarder som gör det lättare att identifiera bilder och eventuellt video och ljud genererade av AI-verktyg. Nick Clegg, Metas president för globala frågor, specificerade inte när etiketterna skulle dyka upp, men sa att det kommer att ske ´under de kommande månaderna´ och på olika språk.

Direktlänk Dela Yahoo Finance Canada fördjupade 6 februari

Facebook och Instagram kommer att märka AI-genererade bilder

Användare av Facebook och Instagram kommer att börja se etiketter på AI-genererade bilder som visas på deras sociala medieflöden. Detta är en del av en bredare teknikindustriinitiativ för att skilja mellan vad som är verkligt och inte. Meta, företaget bakom Facebook och Instagram, sa att de arbetar med branschpartners på tekniska standarder som kommer att göra det lättare att identifiera bilder och så småningom video och ljud som genereras av artificiella intelligensverktyg. Det återstår att se hur väl detta kommer att fungera.

Direktlänk Dela The San Diego Union-Tribune fördjupade 6 februari

AI-modell utvecklad för att minska globala ammoniakutsläpp från jordbruket

Ett internationellt forskarteam ledd av Hong Kong University of Science and Technology (HKUST) har utvecklat en artificiell intelligens (AI) modell för att minska globala ammoniak (NH3) utsläpp från jordbruket. Studien visar att globala NH3-utsläpp från åkermark är lägre än tidigare uppskattat och att optimering av gödselhanteringen kan minska utsläppen med cirka 38%. Forskningen ger viktiga insikter för att uppnå FN:s hållbarhetsmål relaterade till fattigdomsbekämpning, livsmedelssäkerhet och hållbart jordbruk. AI-modellen kan skapa anpassade gödselhanteringsplaner för olika regioner.

Direktlänk Dela AiThority fördjupade 5 februari

Forskare utvecklar AI för hållbar kemisk tillverkning

Forskarna Yuhe Tian och Austin Braniff utvecklar artificiell intelligens för att göra den energikrävande kemiska tillverkningsindustrin mer hållbar. De arbetar med att skapa AI som ska fungera på en blixtsnabb kvantdatorplattform och ha kapacitet att innovera nya, ´utanför boxen´-designer för tillverkningsprocesser. Tian tror att innovationer i nuvarande kemiska tillverkningsprocesser kan drivas av ´kvant AI´, eller maskininlärning på en banbrytande kvantdator. Med 240 000 dollar från National Science Foundation lanserar Tian ett tvåårigt projekt som kommer att utnyttja kvantintelligens för att innovera designen av miljövänliga kemiska anläggningar. Austin Braniff, en doktorand i kemiteknik, kommer att arbeta med Tian på projektet, som stöds av EPSCoR RII Track-4 Research Fellows Program och är värd för Cornell University AI for Science Institute.

Direktlänk Dela West Virginia University fördjupade 25 januari

AI-utvecklingens kostnad skjuter i höjden, uppstartsföretag föreslår alternativa lösningar

Kostnaden för att göra ytterligare framsteg inom artificiell intelligens (AI) blir alltmer chockerande. Efterfrågan på grafikkort (GPU:er) för AI-utbildning har drivit upp priserna på dessa viktiga komponenter. OpenAI har sagt att det kostade dem över 100 miljoner dollar att träna algoritmen som nu driver ChatGPT. Uppstartsföretag som Normal Computing och Extropic föreslår en radikal omprövning av hur datorchips designas för att möta dessa utmaningar. Normal Computings SPU utnyttjar elektriska oscillatorers termodynamiska egenskaper för att utföra beräkningar med slumpmässiga fluktuationer som uppstår inuti kretsarna. Extropic, å andra sidan, planerar att använda termodynamisk databehandling för AI.

Direktlänk Dela Wired fördjupade 18 januari

Miljöpåverkan av generativ AI ökar, men byråer mäter inte effekten

Medvetenheten om att generativ AI har en miljöpåverkan sprider sig, men det är mindre klart hur byråer kan mäta effekten av deras användning. Generativ AI har identifierats som en energikrävande teknologi, och det krävs en stor mängd el för att driva verktyg som ChatGPT. Dessutom använder molnbaserad databehandling, som driver de flesta AI-verktyg, enorma mängder vatten. Microsofts globala vattenanvändning ökade till exempel med 34% mellan 2021 och 2022, främst på grund av utvecklingen av AI-teknologi. Trots detta mäter många byråer inte de miljöeffekter som deras AI-experiment kan ha.

Direktlänk Dela The Drum fördjupade 18 januari

AI-modeller kan ´minnas´ kända dikter, enligt studie

ChatGPT, en artificiell intelligens (AI) modell, kan ´minnas´ och återge hela dikter, särskilt kända som ofta finns online, enligt en studie från Cornell University. Studien väcker etiska frågor om hur AI-modeller tränas, sannolikt med data skrapad från internet. Forskarna noterade att ChatGPT:s svar förändrades över tid när modellen utvecklades. Från att ursprungligen skapa en dikt eller återanvända en dikt från en annan författare om den inte kände till en dikt, skulle den i juli 2023 fråga om dikten ens existerade om den inte kände till den.

Direktlänk Dela Eurasia Review fördjupade 9 januari

New York lanserar konsortium för AI-forskning

New Yorks guvernör Kathy Hochul har tillkännagivit skapandet av Empire AI, ett nytt konsortium som syftar till att stärka New Yorks position inom artificiell intelligens (AI). Konsortiet kommer att omfatta sju grundläggande institutioner och kommer att lansera ett toppmodernt AI-datorcenter i norra New York. Det kommer att finansieras med över $400 miljoner i offentliga och privata investeringar. University of Buffalo, som redan är hem för ett superdatorcenter och flera AI-forskningsprojekt, övervägs som en potentiell plats för konsortiet. Konsortiet syftar till att främja ansvarsfull forskning och utveckling, skapa AI-jobb och ´låsa upp AI-möjligheter för allmänheten´, enligt Hochul.

Direktlänk Dela Government Technology fördjupade 9 januari

NVIDIA lanserar beta-versioner av BioNeMo moln-API:er, främjar läkemedelsupptäckt

NVIDIA har avslöjat BioNeMo moln, en serie generativa AI molntjänster, på GTC-konferensen i mars 2023. Nu lanserar företaget beta-versioner av moln-API:er för BioNeMo, integrerade i plattformar anpassade för läkemedelsupptäcktsarbetsflöden. BioNeMo innehöll ursprungligen verktyg som AlphaFold2 av DeepMind, DiffDock av MIT, ESMFold, ESM2 av Meta, MoFlow av Cornell University och ProtGPT-2. De uppdaterade moln-API:erna kommer nu att omfatta modeller från tre distinkta källor: interna modeller, öppen källkod-modeller optimerade av NVIDIA och modeller skapade av dess partners. Dessutom meddelade biopharmaceutical MNC Amgen att de planerar att utnyttja generativ AI för läkemedelsupptäckt.

Direktlänk Dela Analytics India Magazine fördjupade 9 januari

New York Times stämmer OpenAI och Microsoft för upphovsrättsintrång

New York Times (NYT) har stämt teknikföretagen OpenAI och Microsoft för att de illegalt använt miljontals upphovsrättsskyddade NYT-artiklar för att utveckla AI-modeller bakom verktyg som ChatGPT och Bing. NYT hävdar att dess rättigheter kränktes när dess artiklar skrapades för inkludering i de stora datamängder som AI-modellerna tränades på. Dessutom anklagar NYT verktygen för att ha kränkt dess upphovsrätt genom att producera detaljerade sammanfattningar av betalväggsartiklar eller hela avsnitt av specifika NYT-artiklar. OpenAI och Microsoft försvarar sig med att träningen av AI-modeller kvalificerar som ´fair use´.

Direktlänk Dela The Washington Post fördjupade 4 januari

Forskare utvecklar matematisk guide till operatorinlärning inom vetenskaplig maskininlärning

Forskare från University of Cambridge och Cornell University har utvecklat en matematisk guide till operatorinlärning, ett lovande område inom vetenskaplig maskininlärning (SciML). SciML kombinerar klassiska modelleringsmetoder baserade på partiella differentialekvationer (PDE) med maskininlärnings approximationsförmågor. Operatorinlärning är särskilt användbar när det är nödvändigt att bestämma egenskaperna hos ett dynamiskt system eller PDE. Forskarna har delat med sig av att operatorinlärning använder en mängd olika neurala nätverkstopologier och det är viktigt att förstå vilka som väljs.

Direktlänk Dela MarkTechPost fördjupade 30 december

Arbetsmarknaden kämpar för större inflytande över AI

Arbetare krävde 2023 större inflytande över hur artificiell intelligens (AI) omformar deras branscher, med oöverträffade vinster från Hollywood till Silicon Valley. Microsoft och AFL-CIO, en koalition av dussintals fackföreningar, meddelade ett partnerskap för att utöka arbetarnas roll i skapandet av arbetarcentrerad design, arbetskraftsutbildning och pålitliga AI-praxis. Avtalet inkluderar ´inlärningssessioner´ med arbetsledare och arbetare underlättade av Microsofts AI-experter. Det skisserar också planer för de två organisationerna att föreslå nya policys till kongressen om AI-omskolning som skulle hjälpa till att skapa och bevara jobb för människor när tekniken expanderar.

Direktlänk Dela NBC News fördjupade 27 december

ChatGPT utforskar musikkomposition med hjälp av artificiell intelligens

ChatGPT, den mångsidiga språkmodellen, äventyrar in i musikkomposition i en anmärkningsvärd fusion av artificiell intelligens och musik. Ett samarbetsprojekt lett av Filipe dos Santos Branco och Edward Gu har tagit ChatGPTs förmågor utöver dess traditionella textbaserade applikationer. Initiativet kretsar kring att generera 10-notmelodier med ChatGPTs språkbearbetningsförmåga och översätta dem till musik genom en Raspberry Pi Pico-baserad synthesizer. Denna uppfinningsrika projekt är ett bevis på AI: s anpassningsförmåga och dess potential att utforska otraditionella domäner.

Direktlänk Dela Cryptopolitan fördjupade 26 december

Forskare utvecklar effektivare djupa neurala nätverk

Forskare vid Cornell University, Sony Research och Qualcomm undersöker hur man kan maximera effektiviteten i maskininlärningsmodeller som hanterar stora datamängder. De introducerar ett ramverk för neural arkitektursökning (NAS) som syftar till att hitta den mest effektiva strukturen för tidiga utgångar. Deras metod erbjuder en automatiserad metod för att underlätta effektiv och anpassningsbar inferens för alla huvudmodeller vid hantering av stora bildströmmar. De föreslår också en effektiv metod för att säkerställa korrekta tidiga utgångsbeslut för indataströmmar.

Direktlänk Dela MarkTechPost fördjupade 23 december

Johns Hopkins dra in stor finansiering för AI-nav tack vare COVID-19-dashboard

Johns Hopkins University har dragit in betydande finansiering för att bygga ett nav för artificiell intelligens (AI) i Baltimore, tack vare dess framstående COVID-19-dashboard som har fått över 2,5 miljarder visningar. Universitetet har redan börjat utforma sin stora satsning på AI och planerar att bygga ett institut för datavetenskap och AI på Homewood-campus. Målet är att göra Hopkins och Baltimore till nationens främsta destination för datavetenskap, maskininlärning och AI. Universitetet har avböjt att ange hur mycket finansiering som går till det nya institutet och dess källor.

Direktlänk Dela The Baltimore Banner fördjupade 11 december

Utmaningar med att detektera AI-genererat innehåll

Forskare vid Cornell University har funnit att människor anser att fejkade nyhetsartiklar genererade av GPT-2 är trovärdiga 66% av tiden. Detta har lett till en ökning av start-ups som syftar till att upptäcka innehåll genererat av artificiell intelligens (AI), vare sig det är text, video eller ljud. AI-innehållsdetektorer har dock problem med höga falsk-positiva frekvenser, vilket felaktigt märker mänskligt skrivet innehåll som AI-genererat. Dessutom är det lätt att undvika sådana detektorer genom att omformulera innehållet för att undvika upprepning av ord eller meningsstrukturer. Som ett resultat har forskning visat att AI-detektorer ännu inte är tillförlitliga i praktiska scenarier.

Direktlänk Dela Jumpstart Magazine fördjupade 5 december

AI-chattrobotar kan läcka personlig information, enligt forskare

Enligt en grupp forskare från Google DeepMind, Cornell University och fyra andra universitet kan generativa AI-chattrobotar som ChatGPT läcka stora mängder träningsdata, inklusive personligt identifierbar information, om de uppmanas att upprepa samma ord om och om igen. Genom att uppmana ChatGPT att upprepa ord som ´dikt´, ´företag´, ´skicka´, ´göra´ och ´del´ oändligt, kunde forskarna få chattroboten att återge minnesdelar av sin träningsdata. Data som forskarna kunde extrahera från ChatGPT på detta sätt inkluderade personligt identifierbar information om dussintals individer, explicit innehåll, direkta stycken från böcker och dikter samt URL:er, unika användaridentifierare, bitcoin-adresser och programmeringskod.

Direktlänk Dela Dark Reading fördjupade 2 december

Hantering av generativ AI: Utmaningar och möjligheter för chefer

Generativ artificiell intelligens (AI) har betydande förmågor, men kan också vara problematisk för chefer att hantera. Stora språkmodeller (LLM), som driver AI som ChatGPT, kan förbättra många saker, men har också överraskande brister. LLM:s kan spara tid genom att generera mötessammanfattningar, analysera data eller skriva pressmeddelanden. De kan förbättra kundtjänsten. AI kan till och med främja innovation. Karan Girotra från Cornell University jämförde idégenererande förmågor hos den senaste versionen av ChatGPT med studenter vid amerikanska toppuniversitet. LLM:s användningsvänlighet har också både för- och nackdelar. Reid Hoffman, en seriell AI-investerare, råder att börja experimentera med det. Exponering för LLM kan lindra oro för automation. Men tekniken har också brister. Enligt en ny studie av R. Thomas McCoy och hans medförfattare vid Princeton University kan de bli förvirrade av oväntade saker. Dessutom är det svårt för företag att hålla reda på anställdas användning av AI. Tidigare i år begränsade Samsung, ett elektronikjätte, användningen av ChatGPT av anställda efter att ingenjörer rapporterat delat källkod med chatten. Denna kombination av superkrafter, enkelhet och misstag är komplicerad för chefer att navigera.

Direktlänk Dela The Economist Newspaper fördjupade 27 november

Stor omvälvning på OpenAI leder till oroligheter inom AI-sektorn

OpenAI, en AI-forskning och utvecklingsorganisation, har nyligen genomgått stora förändringar som har skapat oro inom teknikindustrin. OpenAI:s VD, Sam Altman, avskedades av styrelsen på grund av påstådd brist på transparens. Företagets president, Greg Brockman, avgick i protest. Båda har nu tagit jobb hos Microsoft, en stor investerare i OpenAI. Som ett resultat hotar 95% av OpenAIs anställda att också gå över till Microsoft. Denna utveckling har lett till frågor om säkerheten och etiken kring AI-utveckling, då Microsoft inte har samma fokus på AI-säkerhet som OpenAI.

Direktlänk Dela Vox fördjupade 22 november

OpenAI i kaos efter VD:s avsked och anställning av Microsoft

OpenAI, en icke-vinstdrivande organisation som skapar populära artificiella intelligensverktyg, har hamnat i kaos efter att VD:n Sam Altman sparkades och sedan anställdes av Microsoft. OpenAI:s personal begärde att Altman skulle återanställas, men styrelsen ersatte honom med CTO Mira Murati. Microsoft, som tidigare investerat miljarder dollar i OpenAI och använt dess AI-modeller, gynnas mest av situationen. OpenAI:s styrelse förlorade förtroendet för Altman på grund av hans bristande ärlighet och hans prioritering av snabb kommersialisering av produkter som ChatGPT och Dall-E 3 över organisationens grundläggande uppdrag. Efter att Altman och OpenAI:s grundande styrelsemedlem Greg Brockman anställdes av Microsoft, hotade nästan alla OpenAIs 770 anställda att sluta och följa dem om inte styrelsen avgick och återanställde Altman.

Direktlänk Dela The Washington Post fördjupade 20 november

AI kommer att förändra allt inom cybersäkerhet, men inte som du tror

Nima Baiati från Lenovo diskuterar hur artificiell intelligens (AI) kommer att förändra cybersäkerhet. AI har potential att förbättra riskanalys, hotdetektering och automatisera larm och svar. AI kan också hjälpa till att balansera säkerhet och användarupplevelse genom att analysera beteendedata och förenkla verifiering. Baiati påpekar att teknik framsteg inte kommer att ändra den grundläggande infrastrukturen i varje organisations säkerhetssystem. Han betonar att människor, inte teknik, är de viktigaste komponenterna i alla säkerhetssystem. Organisationer behöver bygga bättre säkerhetskulturer och utrusta anställda med utbildning och stöd för att upprätthålla ständig medvetenhet om hotens natur och vaksamhet mot attacker.

Direktlänk Dela Solutions Review fördjupade 16 november

Samsung Electronics öppnar AI-forum för att dela forskningsframsteg

Samsung Electronics Co., Ltd. har öppnat Samsung AI Forum, där företaget delar de senaste forskningsframstegen inom artificiell intelligens (AI) och datateknik (CE), vilket bidrar till att förbättra företagets nästa generations halvledarteknik. Forumet samlade över 1000 deltagare, inklusive ledande akademiker, branschexperter, forskare och studenter. Yoshua Bengio, expert på djupinlärningsteknik och professor vid University of Montreal, och Jim Keller, VD för AI-halvledarstartföretaget Tenstorrent, var bland talarna. Under forumet tillkännagavs också vinnarna av Samsung AI Researcher Award och Samsung AI/CE Challenge.

Direktlänk Dela AiThority fördjupade 9 november

Forskare utvecklar verktyg för att skydda konstnärers upphovsrätt mot AI

Forskare utvecklar ett nytt verktyg, kallat Nightshade, för att skydda digitala konstnärers immateriella rättigheter mot påstådda upphovsrättsintrång från artificiell intelligens (AI)-företag. Nightshade är designat för att ´förgifta´ datamängder som används för att träna generativa AI-modeller, vilket får dem att fungera felaktigt. Resultat från tidiga tester vid University of Chicago visar att verktyget effektivt kan förorena maskininlärningsdata. Forskarna planerar att göra Nightshade till open-source, så att andra team kan skapa sina egna versioner av produkten.

Direktlänk Dela CoinGeek fördjupade 29 oktober

Mänsklig hjärna fortfarande oöverträffad trots AI framsteg

Nästan 70 år efter introduktionen av ´den första maskinen som kan ha en originalidé´, finns det fortfarande ingen seriös konkurrent till den mänskliga hjärnan. Psykologen Frank Rosenblatt trodde på 1950-talet att hans uppfinning, Perceptron, skulle inleda en ny era. Trots framsteg inom AI, inklusive IBMs Deep Blue som besegrade schackstormästaren Garry Kasparov 1997, finns det fortfarande ingen AI som kan matcha den mänskliga hjärnans förmåga att hantera oklara regler och saknad information.

Direktlänk Dela HeadTopics fördjupade 28 oktober

Microsofts AI Copilot för Windows: En tillgång eller säkerhetsmardröm?

Microsoft har börjat implementera inbyggd artificiell intelligens (AI) i form av Copilot för Windows. Men innan man integrerar Copilot i systemen är det viktigt att granska företagets eller organisationens policyer och rutiner för användning av AI. Copilot kommer inte att aktiveras för användare i EU eller för de med endast ett lokalt konto eller ett Active Directory-baserat domän. En studie har visat att 40% av programmen genererade av Copilot var sårbara, vilket visar att utvecklare bör vara vaksamma när de använder Copilot. Slutligen behöver företag börja planera för implementering av AI-moduler i sina operativsystem, API:er och kod.

Direktlänk Dela CSO Online fördjupade 26 oktober

Artificiell intelligens kan revolutionera medicinsk diagnostik

Artificiell intelligens (AI) används allt mer inom medicinsk diagnostik och kan förändra sättet läkare får tillgång till information. Dr Michael Mansour från Massachusetts General Hospital är en tidig användare av AI för att hjälpa till med diagnoser. Mansour använder ett program som heter UpToDate, som är ett slags Google för läkare, med över 2 miljoner användare i mer än 190 länder. Företaget Wolters Kluwer Health, som utvecklar UpToDate, testar en AI-förstärkt version av programmet. Programmet OpenEvidence, lett av forskare på Harvard University, Massachusetts Institute of Technology och Cornell University, använder AI för att läsa igenom de senaste medicinska forskningsstudierna och sammanfatta informationen för användarna.

Direktlänk Dela West Kentucky Star fördjupade 25 oktober

Reddit kan blockera sökmotorer om de inte betalas för dataanvändning

Reddit kan komma att blockera sökmotorer om de inte kan nå avtal med generativa AI-företag om betalning för sin data. Redan har 535 nyhetsorganisationer, inklusive New York Times, Reuters och Washington Post, installerat blockeringar som förhindrar att innehåll på nyhetssajter samlas in och används i AI-utbildningskorpusar. Diskussionerna fokuserar nu på att betala utgivare så att chattbotar kan visa länkar till enskilda nyhetsartiklar i sina svar. Reddit har träffat ledande generativa AI-företag för att diskutera betalning för sin data. Om inget avtal nås överväger Reddit att blockera sökmotorer som Google och Bing.

Direktlänk Dela TechHQ fördjupade 23 oktober

» Nyheterna från en dag tidigare

Några av våra kursdeltagare