» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 248 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Gary Marcus är en amerikansk psykolog, författare och entreprenör. Han är professor i psykologi vid New York University och grundare av Robust.AI, ett företag som fokuserar på att utveckla säkrare och mer pålitlig artificiell intelligens. Marcus har skrivit flera böcker om kognition och AI, inklusive ´Kluge: The Haphazard Evolution of the Human Mind´ och ´Rebooting AI: Building Artificial Intelligence We Can Trust´. Han är känd för att kritisera dagens AI-system och betonar behovet av att förbättra dem genom att kombinera djupinlärning med symbolisk resonemang.

Senaste nytt kring Gary Marcus

OpenAI planerar att släppa GPT-5 och ChatGPT sökmotor

OpenAI:s VD Sam Altman har hållit intresset levande kring släppet av en generativ förtränad transformer (GPT)-5 och en ChatGPT sökmotor genom att kalla tidigare versioner för “dumma”. OpenAI har publicerat en blogg som antyder släppet av GPT-4.5 Turbo, och Altman har hänvisat till en ny ChatGPT-modell i år. Det finns även tecken på att OpenAI kommer att släppa en ChatGPT sökmotor, som syftar till att konkurrera med Google. Altman har dock skapat förvirring genom att posta att demon inte kommer att vara gpt-5, inte en sökmotor, utan något nytt som folk kommer att älska.

Direktlänk Dela Mint fördjupade igår
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Vd:ar satsar emot Elon Musks förutsägelse att AI kommer att överträffa mänsklig intelligens senast 2026. Gary Marcus, grundare och vd för Geometric Intelligence, och Damion Hankejh, investerare och vd för ingk.com, har erbjudit miljoner i vad. Marcus har erbjudit 1 miljon dollar för att bevisa att Musk har fel och Hankejh har höjt satsningen till 10 miljoner dollar. Marcus har tidigare satsat 100 000 dollar mot Musks påståenden om att AGI var nära förestående. Vadet växte till 500 000 dollar.

Yahoo Finance Canada fördjupade 8 maj

AI-industrins överdrivna hype ifrågasätts

Ledare inom AI börjar ifrågasätta om industrin är överhypad. AI-startups samlade in cirka $50 miljarder 2023 då vissa förutspådde att AI skulle bli lika viktigt som internet. Men få företag har lyckats bygga lönsamma verksamheter, och tal om artificiell generell intelligens (AGI) kan kännas overkliga. Ljusglimtar som Bill Gates har sagt att AI kan vara lika betydelsefullt som mobiltelefoner eller internet. Elon Musk har föreslagit att det kan snabbspåra utvecklingen av teknik som överträffar mänsklig intelligens före decenniets slut. Men för vissa blir det uppenbart att denna hype är helt ur hand.

Direktlänk Dela Business Insider fördjupade 8 maj

Gary Marcus diskuterar AI:s framtid vid offentligt föredrag i Wien

Gary Marcus, en framstående röst inom artificiell intelligens (AI), kommer att hålla ett offentligt föredrag vid Central European University i Wien den 15 maj 2024. Marcus, som är forskare, bästsäljande författare och serieentreprenör, kommer att argumentera för att generativ AI är moraliskt och tekniskt otillräcklig. Han kommer att uppmana till utvecklingen av mer pålitliga tillvägagångssätt. Föredraget stöds gemensamt av Knowledge in Crisis Cluster of Excellence och CEU:s institution för kognitionsvetenskap.

Direktlänk Dela Austria Press Agency fördjupade 7 maj

Överdriven hype kring imitativ AI: Verkligheten kanske inte lever upp till förväntningarna

Imitativ AI, eller artificiell intelligens som kan kopiera och efterlikna mänskligt beteende, har framhävts som nästa stora sak. Men många av dess framsteg kan vara överdrivna eller helt enkelt inte sanna. Till exempel påståendet att imitativ AI kan lösa problemet med hallucinationer är inte logiskt rimligt. Det påstås också att AI kan klara juridikexamen bättre än de flesta studenter, men de resultat som presenterats har manipulerats och är inte helt korrekta. Dessutom har det hävdats att Google´s Deepmind har upptäckt miljontals nya material, men när riktiga forskare granskade resultaten var de inte imponerade. Många av resultaten från imitativ AI kan vara överdrivna och verkligheten kanske inte lever upp till hypen.

Direktlänk Dela Daily Kos fördjupade 7 maj

Kritik mot användning av AI i vetenskaplig publicering efter kontroversiell illustration

En illustration som visar en råtta med ett tvärsnitt av en gigantisk penis har utlöst kritik om användningen av generativ artificiell intelligens (AI) baserad på stora språkmodeller (LLM) i vetenskaplig publicering. Illustrationen, som publicerades i Frontiers in Cell and Developmental Biology, var försett med nonsensetiketter och kritiserades av AI-forskaren Gary Marcus. Enligt en undersökning från 2023 hade nästan 30% av 1600 forskare använt generativa AI-verktyg för att skriva manuskript. Trots fördelarna med AI-verktyg, som tidsbesparing och snabbare datahantering, uttryckte majoriteten oro för ökad beroende av mönsterigenkänning utan orsakssamband, inbyggda fördomar i data, lättare bedrägeri och oåterkallelig forskning. Artikeln om råttan har dragits tillbaka på grund av dess bristande vetenskapliga rigor.

Direktlänk Dela Reason Foundation fördjupade 5 maj

Artikel med AI-genererad illustration dras tillbaka från vetenskaplig tidskrift

En artikel med en bisarr illustration av en råtta med överdrivna genitalier har dragits tillbaka från Frontiers in Cell and Developmental Biology. Illustrationen kommer från ett tvärsnitt av en råttas genitalier men märker upp deras löjliga förhållande till artificiell intelligens (AI). En av de återkallade artiklarna, som handlade om stamceller som finns i råttors genitalier, var föremål för fullständig granskning av andra experter och redaktionell granskning innan den publicerades i februari. Kontroverser har återuppstått om den potentiella användningen av generativa AI-verktyg i vetenskap och akademiska artiklar. AI-verktygsförespråkare hävdar bland annat att AI-verktyg hjälper till med snabb databehandling och beräkningar. Å andra sidan ser andra en fara i AI-verktyg, som att skapa felaktiga data eller vilseledande information. Enligt en undersökning som Nature utförde 2023 hade cirka 30% av forskarna introducerat dessa generativa AI-verktyg för att skriva sina manuskript.

Direktlänk Dela Cryptopolitan fördjupade 4 maj

Kritik mot AI-genererade illustrationer och texter i vetenskaplig publicering

En illustration av en råtta med ett enormt penisavsnitt, genererad av artificiell intelligens (AI), har publicerats i en vetenskaplig artikel, vilket har lett till kritik mot användningen av AI i vetenskaplig publicering. Illustrationen innehöll nonsensetiketter, inklusive en märkt ´dck´. Artikeln, som handlade om stamceller i råtttestiklar, hade granskats av kollegor och redaktionellt innan den publicerades av Frontiers in Cell and Developmental Biology. AI-forskaren Gary Marcus kritiserade användningen av AI i vetenskapen, och Thomas Lancaster från Imperial College London varnade för att vissa forskare kan använda AI-verktyg för att producera forskning av lågt värde. Trots detta har användningen av AI-verktyg i vetenskaplig forskning och skrivande ökat, och 87 av de 100 bästa vetenskapliga tidskrifterna ger nu riktlinjer för användningen av generativ AI.

Direktlänk Dela America Online fördjupade 4 maj

Vadslagning emot Elon Musks AI-prediktioner

Vadslagningar kommer in mot Elon Musks förutsägelser om AI. Geometric Intelligences VD Gary Marcus och ingk.com:s VD Damion Hankejh har erbjudit miljoner. Musk förutspår att AI kommer att överträffa mänsklig intelligens senast nästa år. Marcus, grundare och VD för Geometric Intelligence, ett AI-startup för maskininlärning som förvärvades av Uber 2016, håller inte med om Musks AI-prediktioner. Han erbjöd 1 miljon dollar för att bevisa att han har fel. Strax efter vadet postades erbjöd Damion Hankejh, investerare och VD för ingk.com, att höja vadet till 10 miljoner dollar.

Direktlänk Dela Yahoo Movies Canada fördjupade 26 april

Hotet om en ny ´AI-vinter´ kan dominera konversationen om artificiell intelligens

Hotet om en ny ´AI-vinter´ kan dominera diskussionen kring artificiell intelligens under andra hälften av 2024. AI har exploderat och företag har dykt in i att utforska tekniken förra året. Men överhajpade företagen som ledde AI-boomen tekniken? AI-expert och före detta NYU-professor Gary Marcus säger att de stora framstegen inom AI-modellprestanda kommer mindre ofta. En annan ledande AI-industriexekutiv, OpenAI COO Brad Lightcap, har också varnat för att höga förväntningar i kölvattnet av ChatGPT´s popularitet överträffar vad tekniken realistiskt kan åstadkomma.

Direktlänk Dela Greater Baton Rouge Business Report fördjupade 25 april

Oenighet om AI:s framtid mellan Elon Musk och Gary Marcus

Två framstående figurer, Elon Musk och Gary Marcus, har olika synpunkter på framtiden och kapabiliteterna för artificiell intelligens (AI), vilket illustrerar en splittring som sträcker sig bortom spekulation till höga insatser och offentligt samtal. Musk, känd för sitt banbrytande arbete med Tesla och SpaceX, har nyligen gjort rubriker med sina djärva förutsägelser om AI. Marcus, en nyckelfigur inom AI-området och grundare av Geometric Intelligence, utmanar Musks prognoser. Marcus har uttryckt oro över vad han ser som överdrivet optimistiska påståenden från vissa teknikindustriledare.

Direktlänk Dela Financial-world.org fördjupade 24 april
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Framtiden för AI: Potential och Skepsis

Artificiell intelligens (AI) fortsätter att utvecklas, men oro växer över AI: s begränsningar och fel, trots dess snabba framsteg. Vissa experter, som Elon Musk, förutspår att AI snart kommer att överträffa mänsklig intelligens, medan andra, som kognitiva vetenskapsmannen Gary Marcus, förblir skeptiska och menar att nuvarande AI-system är långt ifrån perfekta. Stora språkmodeller (LLM) visar begränsningar och producerar fel. AI: s hållbarhet och etiska konsekvenser granskas. AI har potential att revolutionera branscher, men dess fullständiga integration i samhället och industrin är fortfarande ett pågående arbete.

Direktlänk Dela News.faharas.net fördjupade 24 april

Elon Musk förutspår att AI kommer att överträffa mänsklig intelligens inom ett år, men Gary Marcus tvivlar och erbjuder en miljon dollar för att bevisa honom fel

Under en liveintervju med Norges Banks VD Nicolai Tangen förutspådde Elon Musk att AI kommer att vara smartare än någon människa vid slutet av nästa år och överträffa all mänsklig intelligens inom fem år. Gary Marcus, grundare och VD för Geometric Intelligence, en AI-startup för maskininlärning som förvärvades av Uber 2016, håller inte med om Musks AI-prediktioner och erbjuder en miljon dollar för att bevisa honom fel. Investorn Damion Hankejh, VD för ingk.com, föreslog att höja satsningen till 10 miljoner dollar. Musk har ännu inte svarat på utmaningen.

Direktlänk Dela Business Insider Africa fördjupade 24 april

AI-optimister som Elon Musk förutspår att AI kommer att vara smartare än någon enskild människa nästa år, medan AI-pessimister som Geoffrey Hinton varnar för att det kan utplåna mänskligheten. Men det finns också en växande grupp av AI-skeptiker, som Gary Marcus, som ifrågasätter dessa utsikter. Marcus, som grundade ett AI-startup och sålde det till Uber 2016, anser att dagens AI-teknik har sina begränsningar. Han tror att AI kommer att lyckas, men argumenterar för att det i dess nuvarande form stöter på hinder. Han tror att det behövs en helt ny strategi för att AI ska bli framgångsrikt.

The Australian Financial Review fördjupade 22 april

AI som GPT-4 kan påverka mänskliga åsikter effektivt men riskerar sanningen

AI-systemet GPT-4 har visat sig vara mer effektivt än människor för att ändra åsikter under debatter, särskilt när det gavs personlig information om de individer det debatterade. Denna effektivitet kan förklara varför en annan studie fann att GPT-4 kunde hantera en särskilt utmanande konversationell uppgift: att debattera med konspirationsteoretiker. Men experter varnar för att AI inte förstår konceptet sanning, vilket kan leda till missbruk i spridningen av falsk information eller manipulation av åsikter.

Direktlänk Dela MediaPost fördjupade 20 april

Meta presenterar förbättrade AI-modeller Llama 3

Mark Zuckerberg har presenterat Metas senaste artificiella intelligensmodeller, Llama 3. Trots att de är samma storlek som sina föregångare, etablerar Llama 3-modellerna en ny standard tack vare förbättrade förmågor inom resonemang och kodgenerering. Meta beskriver den nya generationen som de ´mest kapabla´ öppet tillgängliga modellerna hittills. Dessutom kommer Metas öppenkällkodsmodeller snart att vara jämförbara med deras slutenkällkodsmodeller. Större, 400-miljarder parameter Llama 3-modeller med multimodala funktioner kommer att vara jämförbara med proprietära modeller som Anthropics Claude 3 Opus och OpenAIs GPT-4 vid släpp.

Direktlänk Dela Business Insider fördjupade 20 april

Elon Musk tror att AI kommer att vara smartare än människor inom två år

Elon Musk, grundare av SpaceX, har gjort djärva förutsägelser om att artificiell allmän intelligens (AGI), en punkt där AI kan tillämpa resonemang och logik på samma sätt som människor, är bara ett eller två år bort. Musk tror att AGI kommer att vara ´smartare än den smartaste människan´ inom nästa år, men att det fortfarande är ett stort språng att säga att det är ´smartare än den maskin-förstärkta mänskliga kollektivet´, vilket han tror är fem år bort. Gary Marcus, VD för Geometric Intelligence, har erbjudit sig att satsa 1 miljon dollar på att AI inte faktiskt kommer att vara ´smartare´ än människor i slutet av 2025.

Direktlänk Dela Quartz Media fördjupade 15 april

AI som GPT-4 förändrar vår interaktion med teknik och kan förändra åsikter

Om du någonsin har haft en ´konversation´ med GPT-4 vet du hur lätt det är att dras in i vad som känns som en organisk interaktion med en mjukvaruplattform. Detta händer inte med telefonens interaktiva röstrespons (IVR) system. Men med AI kommer allt detta att förändras. GPT-4 visade i en kontrollerad och randomiserad studie en större förmåga att förändra åsikter under en debatt jämfört med mänskliga deltagare, särskilt när den fick personlig information om de individer den debatterade med. AI ökade sannolikheten att förändra någons åsikt med 87% mer än dess mänskliga motsvarigheter.

Direktlänk Dela MediaPost fördjupade 15 april

VD:ar satsar emot Elon Musks AI-förutsägelser

Flera VD:ar satsar emot Elon Musks förutsägelse att AI kommer att överträffa mänsklig intelligens senast 2026. Gary Marcus, VD för Geometric Intelligence, och Damion Hankejh, VD för ingk.com, har erbjudit miljontals dollar. Musk framförde sin åsikt under en liveintervju med Nicolai Tangen, VD för Norges Bank, på X, tidigare Twitter, och sa att AI är den snabbast framåtskridande teknologin han någonsin sett. Marcus håller inte med om Musks förutsägelser och erbjöd 1 miljon dollar för att bevisa att han har fel. Strax efter att satsningen annonserades, erbjöd Hankejh att höja satsningen till 10 miljoner dollar.

Direktlänk Dela Yahoo News Canada fördjupade 14 april

Elon Musks AI-prediktioner ifrågasätts: miljonbelopp satsas mot hans påståenden

Elon Musk, VD för SpaceX och Tesla, har förutspått att AI kommer att vara smartare än någon enskild människa runt slutet av nästa år och överträffa alla människor inom fem år. Dessa påståenden har ifrågasatts av Gary Marcus, grundare och VD för Geometric Intelligence, och Damion Hankejh, investerare och VD för ingk.com. Marcus har erbjudit $1 miljon för att bevisa att Musk har fel, medan Hankejh har höjt satsningen till $10 miljoner. Marcus har tidigare satsat $100 000 mot Musks påståenden om att AGI var nära förestående, vilket senare ökade till $500 000.

Direktlänk Dela Business Insider India fördjupade 13 april

Elon Musk utmanas av företagsledare över AI-prediktioner

Elon Musk, känd för sina djärva påståenden om teknikens framtid, hävdar att artificiell intelligens (AI) kommer att överträffa mänsklig intelligens inom en snar framtid. Denna påstående har ifrågasatts av Gary Marcus, grundare och VD för Geometric Intelligence, som utmanade Musk till ett vad om att AI inte kommer att överträffa mänsklig intelligens senast 2025. Kort efter Marcus utmaning, höjde Damion Hankejh, VD för ingk.com, insatsen genom att erbjuda ett vad på 10 miljoner dollar. Musk har ännu inte svarat på något av vaden.

Direktlänk Dela Elblog fördjupade 11 april
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Vd:ar satsar emot Elon Musks AI-prediktioner

Vd:ar satsar emot Elon Musks förutsägelser om artificiell intelligens (AI). Musk förutser att AI kommer att överträffa mänsklig intelligens senast nästa år. Gary Marcus, vd för Geometric Intelligence, och Damion Hankejh, vd för ingk.com, har erbjudit miljoner för att bevisa att Musk har fel. Marcus har tidigare satsat mot Musks påståenden om att AGI var nära förestående. Han anser att det är viktigt att ha en offentlig diskussion om den verkliga statusen för AI.

Direktlänk Dela Yahoo Style Canada fördjupade 11 april

Överdriven hype kring generativ AI kan leda till besvikelse

Många företag som investerat i generativ AI-teknik upplever att det inte lever upp till förväntningarna. Stora språkmodeller som ChatGPT är benägna att sprida misinformation och anklagas för att plagiera författare och konstnärer. Dessutom kräver den hårdvara som generativ AI använder enorma mängder energi, vilket påverkar miljön negativt. Enligt AI-forskaren Gary Marcus, är tekniken inte tillförlitlig nog för att företag ska kunna lita på den. Vissa experter varnar för att AI kan vara en bubbla liknande kryptovalutor eller dotcom-startups.

Direktlänk Dela Yahoo fördjupade 4 april

Artificiell intelligens kan hota objektiv sanning, varnar experter på South by Southwest

Vid en panel på South by Southwest diskuterade talarna Steven Rosenbaum och Gary Marcus artificiell intelligens (AI) och dess påverkan på sanningen. Rosenbaum definierade sanningen som objektiv snarare än subjektiv, medan Marcus varnade för att AI hotar denna grundläggande antagande. Marcus hävdade att AI redan har orsakat stor skada genom att driva sociala medier-flöden och tillverka desinformation. Han uttryckte dock hopp om att AI i framtiden kan lösa problem som klimatförändringar. Båda talarna jämförde AI med sociala medier och uttryckte oro över att AI kan följa en liknande väg som Facebook och Twitter.

Direktlänk Dela The Austin Chronicle fördjupade 4 april

Generativ AI möter pålitlighetsproblem, varnar experter för överdriven hype

Flera företag upplever problem med generativ AI och upptäcker att tekniken inte är tillräckligt pålitlig. Stora språkmodeller som ChatGPT har anklagats för att sprida felaktig information och plagiera författare och konstnärer. Dessutom kräver den hårdvara som generativ AI använder stora mängder energi, vilket skadar miljön. Kognitiv forskare och framstående AI-forskare Gary Marcus anser att företagen inser att tekniken inte kan förlitas på. Andra experter varnar för att AI kan vara en bubbla, liknande kryptovalutor eller dotcom-startups, och att tekniken kanske inte utvecklas tillräckligt snabbt för att hänga med i hypen.

Direktlänk Dela Yahoo News fördjupade 3 april

Generativ AI: Hype, problem och potentiella risker

Hypen kring generativ AI har varit enorm, men det börjar bli tydligt att den kanske är felplacerad. Stora språkmodeller som ChatGPT tenderar att hallucinera och sprida desinformation, vilket har lett till anklagelser om plagiat och skada för företag som förlitar sig på dessa teknologier. Dessutom är energiförbrukningen av generativ AI-hårdvara en betydande miljöbelastning. AI-forskaren Gary Marcus påpekar att företag inte kan lita på generativ AI att fungera på ett konsekvent sätt. Vissa experter drar paralleller mellan AI-industrin och tidigare bubblor som kryptokurrency och Dot Com-startups.

Direktlänk Dela Elblog fördjupade 29 mars

Användningen av AI för arbete ökar dramatiskt, enligt Pew Research Center

Sedan lanseringen av ChatGPT i november 2022 har AI blivit ett hett ämne inom vetenskap, affärer och media. Trots detta har det även funnits en motreaktion, med kritiker som menar att AI har överhajpats. En ny studie från Pew Research Center visar hur amerikaner ser på AI och stora språkmodeller. En tredjedel av amerikanerna har inte hört talas om ChatGPT och mindre än en fjärdedel har använt det. Studien visar dock att användningen av ChatGPT för arbete har ökat dramatiskt, från 12% till 20% på sex månader. Detta tyder på att vi bara befinner oss i början av människors samarbete med dessa modeller.

Direktlänk Dela Wired fördjupade 29 mars

AI diskussioner på SXSW: Från entusiasm till pragmatism

AI har varit ett framträdande tema på årets SXSW-konferens i Austin, Texas. Trots entusiasmen för tekniken har det även funnits en märkbar skepsis. Mike Nellis, grundare och VD för reklambyrån Authentic, uttryckte besvikelse över den överdrivna diskussionen kring AI och jämförde den med hypen kring kryptovalutor för några år sedan. Psykologen och författaren Gary Marcus uttryckte liknande skepsis under en panel om AI-genererad desinformation. Båda betonade att de inte är emot AI, men vill se en mer realistisk diskussion om dess faktiska funktion och användning.

Direktlänk Dela The Drum fördjupade 29 mars

Överdriven AI-hype leder till besvikelse för företag

Företag som har investerat i generativ AI står inför flera utmaningar då tekniken inte har levererat som förväntat. Stora språkmodeller som ChatGPT är benägna att sprida felaktig information, och både chattrobotar och AI-bildskapare har anklagats för att plagiera författare och konstnärer. Dessutom kräver hårdvaran som generativ AI använder enorma mängder energi, vilket påverkar miljön negativt. Enligt Gary Marcus, en framstående AI-forskare, upptäcker företag att tekniken helt enkelt inte är pålitlig.

Direktlänk Dela Futurism fördjupade 29 mars

AI-system från Google överträffar mänskliga faktagranskare, enligt studie

En ny studie från Googles forskningsenhet DeepMind har visat att ett artificiellt intelligenssystem kan överträffa mänskliga faktagranskare när det gäller att utvärdera noggrannheten i information genererad av stora språkmodeller. Metoden kallas Search-Augmented Factuality Evaluator (SAFE) och använder Google Search-resultat för att bestämma riktigheten av varje påstående. SAFE:s bedömningar matchade de mänskliga bedömningarna 72% av gångerna. SAFE var korrekt i 76% av fallen vid oenighet mellan SAFE och de mänskliga granskarna. Dock ifrågasätter vissa experter vad ´övermänsklig´ verkligen innebär i detta sammanhang.

Direktlänk Dela VentureBeat fördjupade 29 mars

Generativ AI: Överhyped och opålitlig enligt experter

Generativ AI, trots att det är en cool teknik, har visat sig vara opålitligt och svårt att implementera i företag, enligt Gary Marcus, en framstående AI-forskare. Stora språkmodeller som ChatGPT är benägna att hallucinera och sprida felaktig information. Chatterbots och AI-bildskapare har anklagats för att plagiera författare och konstnärer. Dessutom kräver den hårdvara som generativ AI använder enorma mängder energi, vilket skadar miljön. Företag som har investerat i tekniken har tvingats inaktivera sina chatterbots på grund av oacceptabelt beteende, och i vissa fall har de till och med tvingats betala skadestånd på grund av felaktig information som spridits av AI-system.

Direktlänk Dela Futurism fördjupade 28 mars

OpenAI:s AI-chatbot ChatGPT börjar svara användare med nonsens

OpenAI:s AI-chatbot ChatGPT har börjat svara användare med nonsens, vilket har lett till att användare har undrat om chatboten har problem. Sean McGuire, en senior associate vid det globala arkitekturföretaget Gensler, delade skärmdumpar av ChatGPT som svarade honom i nonsensisk ´Spanglish´. Ett annat exempel var när en användare frågade ChatGPT om variationen mellan madrasser i olika asiatiska länder, och den kunde helt enkelt inte hantera det. OpenAI har erkänt problemet och uppdaterade senare att problemet hade identifierats och övervakades. Situationen är pinsam för företaget, som har betraktats som en ledare inom AI-revolutionen och har fått en flerbiljondollarinvestering från Microsoft.

Direktlänk Dela Yahoo Style Canada fördjupade 28 mars

AI-verktyget ChatGPT förvirrar användare med Spanglish på grund av bugg

ChatGPT, ett AI-verktyg ägt av OpenAI, har förvirrat användare genom att svara på frågor på Spanglish, på grund av en pinsam bugg. Användare har rapporterat att chatboten har talat nonsens på sociala medier, med meddelanden skrivna i en blandning av engelska och spanska, och andra som upprepade samma ord oändligt. Gary Marcus, en AI-expert och professor emeritus vid New York University, sa att ChatGPT hade ´gått berserk´. OpenAI medgav att vissa användare hade upplevt problem men sa att ´problemet har identifierats och åtgärdas´. Problemet har sedan dess lösts.

Direktlänk Dela Yahoo Finance fördjupade 27 mars

Skeptiker ifrågasätter generativ AI:s förmåga att stimulera världsekonomin

Generativ AI har förutspåtts att lägga till biljoner till världsekonomin i en produktivitetsökning aldrig tidigare skådad i historien. Men det finns en växande skara skeptiker, inklusive ledande AI-forskare, som undrar om tekniken kanske inte kommer att infria sina löften om att stimulera världsekonomin. Bland dessa skeptiker finns professor Gary Marcus vid New York University och den pensionerade professorn Jeffrey Funk. Båda har uttryckt tvivel på de ekonomiska fördelarna med generativ AI och påpekar att framstegen mot att faktiskt tjäna pengar på stora språkmodeller har varit långsamma. Dessutom har kunder rapporterat att Microsofts nya AI-förstärkta Copilot-programvara är för dyr.

Direktlänk Dela Daily Mail fördjupade 27 mars

AI-experten Gary Marcus uttrycker oro över utmaningar som OpenAI kan stå inför

AI-experten Gary Marcus har i ett nyligen publicerat blogginlägg uttryckt oro över de utmaningar som OpenAI, skaparen av ChatGPT, kan komma att stå inför under det kommande året. Marcus pekar på flera potentiella problem, bland annat juridiska problem och kritik. Han nämner även att OpenAI har börjat göra avtal med förlag som AP, Axel Springer, American Journalism Project och NYU, där de betalar mellan 1 och 5 miljoner dollar för att licensiera deras artiklar. Trots utmaningarna, menar Marcus att OpenAI fortfarande är en ledande aktör när det gäller framtiden för AI.

Direktlänk Dela Analytics India Magazine fördjupade 27 mars

AI-bildgeneratorn Midjourney expanderar med nya funktioner och planerar för framtiden

Midjourney är ett ord som blivit synonymt med AI-bilder. Det var en av de första högprofilerade generativa artificiella intelligensmodellerna vars resultat blev viralt på sociala medier. Företaget grundades tidigt 2022 av entreprenören David Holz som började med att efterfråga högkvalitativa fotografier på Twitter och Reddit för att träna den nya modellen. Sedan dess har Midjourney integrerats med Discord, där användare kan generera bilder med hjälp av en bot. Företaget började i december 2021 erbjuda begränsad tillgång till ett webbgränssnitt för att skapa bilder. Nu arbetar utvecklarna på en sjätte version av sin bildgenereringsmodell, och planerar att utveckla 3D- och videolägen för att skapa en fullständigt uppslukande virtuell miljö. Midjourney är en av de mest använda och dominerande AI-bildgeneratorerna på marknaden, känd för sin realism och förmåga att skapa övertygande produktbilder. Från och med version sex av sin underliggande modell kan Midjourney nu rendera läsbar text på de bilder den skapar, vilket öppnar upp nya möjligheter för marknadsföring och reklam. Till skillnad från många andra AI-verktyg har Midjourney fokuserat på att bygga marknadsandelar och teknologi över en lönsam verksamhet. Företaget var redan lönsamt i augusti 2022. Midjourney använder en diffusionsmodell och djupinlärning för att skapa bilder från text eller till och med andra bilder, inklusive att bara använda en annan bild som en stil- eller karaktärsreferens. Till skillnad från Stable Diffusion är Midjourney-modellen sluten källkod och proprietär, så vi vet inte exakt hur den fungerar. Midjourney har också förblivit lojalt mot Discord, och fungerar genom en meddelandebot där du använder /imagine för att starta en prompt och lägger till prompten med -[kod], snarare än att använda ett webbgränssnitt där inställningar kan styras genom knappar och reglage. Det fungerar som alla andra AI-bildgeneratorer; du ger den en beskrivning av vad du vill se med hjälp av naturligt språk, och den går iväg och skapar det, ofta kommer den närmare än andra modeller. Om du inte redan har skapat mer än 1 000 bilder med Midjourney är det enda sättet att få tillgång till det genom Discord-boten. När du har betalat din månadsabonnemang kommer du att kunna få tillgång till Midjourney direktmeddelande-boten. För att börja skriver du bara /imagine och sedan din text. Om du vill ställa in orienteringen använder du -ar 16:9 (eller något annat förhållande) och om du vill använda mangamodellen skriver du till -niji. Midjourney har aldrig avslöjat de data som användes för att träna den kraftfulla bildgeneratorn. Det finns frågor kring proveniensen av de träningsdata som användes för att bygga AI-modellen från början, med många spekulationer om att mycket av det skrapades från öppna webben utan tillstånd från konstnärerna, fotograferna och skaparna av dessa verk. Företaget har kommit under ökande kritik både för hemlighetsmakeriet och sannolikheten att upphovsrättsskyddat material utgör en del av träningsdata. Tidigare i år delade konstnärer på sociala medier ett kalkylblad som en del av en stämningsansökan mot AI-startupen, där de påstod att de visade hur Midjourney byggde upp en databas med konstnärer för att träna modellen. Denna lista hade stilar, genrer och mer och inkluderade bidrag till kortspelet Magic the Gathering. En studie av AI-experten Gary Marcus och den digitala illustratören Reid Southern förra året fann betydande bevis på ´plagiatiska utdata´ från modeller som Midjourney och OpenAI´s DALL-E. De skrev: ´Dessa system informerar inte användarna när de [använder varumärkesskyddade bilder]. De ger ingen information om proveniensen för de bilder de producerar. Användarna kanske inte vet, när de producerar en bild, om de gör intrång.´ Midjourney´s grundare har stora planer för plattformen. Förutom att rulla ut webbgränssnittet till fler användare och göra det mer i linje med andra AI-bildgeneratorer som Leonardo eller NightCafe, vill Holtz också skapa holodeck från Star Trek - på sitt sätt. Hans plan är att sammanföra AI-bild-, video-, 3D- och realtidsmodeller för att skapa fullständigt uppslukande virtuella miljöer från en textprompt. Dessa miljöer kan sedan användas för att bygga ett spel, antagligen med hjälp av fler AI-prompts, eller för att skapa en AI-driven film där miljön fungerar som en scen.

Direktlänk Dela Tom´s Guide fördjupade 26 mars

Generativ AI och dess inverkan på upphovsrätten

Generativ AI har potentialen att omvandla kreativitet, men dess popularitet väcker frågor om immateriella rättigheter och upphovsrättsskydd. Generativa AI-verktyg, som ChatGPT, drivs av AI-modeller som tränats på stora mängder data, vilket gör att de kan utföra uppgifter som liknar kognition och resonemang. Men, utdata från ett AI-verktyg kan vara väldigt likt det underliggande upphovsrättsskyddade materialet det tränades på. Detta väcker frågan om hur individer och företag kan hållas ansvariga när generativa AI-utdata kränker upphovsrätten. AI-företag, inklusive Stability AI, hävdar att AI som tränats på upphovsrättsskyddade verk inte kränker upphovsrätten eftersom dessa modeller inte kopierar träningsdata. Vissa studier har dock visat att användare av generativ AI kan utfärda uppmaningar som leder till upphovsrättsintrång.

Direktlänk Dela The Fashion Law fördjupade 25 mars

Diskussion om AI mellan Robert Wright och Gary Marcus

Amerikanska författaren och journalisten Robert Wright och den amerikanska psykologen och kognitionsvetaren Gary Marcus diskuterade nyckelämnen inom artificiell intelligens (AI) den 13 februari 2024. Deras diskussioner täckte ämnen som storleken på språkmodeller, AI:s förmåga att representera den verkliga världen, behovet av att sakta ner AI-utvecklingen, AI:s kortsiktighet och AI:s symboliska framtid.

Direktlänk Dela Des Pardes fördjupade 24 mars

Generativ AI kan leda till upphovsrättsintrång

Generativ artificiell intelligens (AI) har potential att omvandla kreativitet, men populariteten av dessa verktyg väcker frågor om immateriella rättigheter och upphovsrättsskydd. Generativ AI, såsom ChatGPT, tränas på miljarder stycken data hämtade från texter eller bilder från internet. Problemet är att utdata från ett AI-verktyg kan vara mycket likt upphovsrättsskyddat material. Forskare och journalister har tagit upp möjligheten att selektiva uppmaningar kan leda till att folk skapar text, bilder eller video som bryter mot upphovsrätten. Juridiska argument framförda av generativa AI-företag är att AI som tränas på upphovsrättsskyddade verk inte är en kränkning av upphovsrätten eftersom dessa modeller inte kopierar träningsdata. Vissa studier har dock visat att användare av generativ AI kan ge uppmaningar som resulterar i upphovsrättsintrång genom att producera verk som liknar upphovsrättsskyddat innehåll mycket nära. Utmaningen ligger i att utveckla skydd mot upphovsrättsintrång i AI-verktyg, vilket forskare har döpt till ´Snoopy-problemet´.

Direktlänk Dela Tech Xplore fördjupade 24 mars

OpenAI introducerar Sora, ett verktyg som omvandlar text till realistiska videor

OpenAI har introducerat ett nytt verktyg, Sora, som omvandlar textprompter till korta, chockerande realistiska videor. Sora har ännu inte släppts till allmänheten, men det väcker redan kontrovers om dess potentiella konsekvenser för industrier som animation och videospel, samt för deepfake-videor och för demokratin som helhet. Gary Marcus, en kognitiv vetenskapsman, AI-forskare och entreprenör, och författare till den kommande boken Taming Silicon Valley, diskuterar löftet och de potentiella konsekvenserna av Sora och andra generativa AI-videoverktyg.

Direktlänk Dela Canadian Broadcasting Corporation fördjupade 21 mars

AI-expert Gary Marcus uttrycker oro över nuvarande AI-situation

AI-experten Gary Marcus, som bor i Vancouver sedan 2018, har uttryckt oro över den nuvarande situationen för artificiell intelligens. Han är mest känd för sin vokala positionering mot djupinlärning och andra moderna AI-tekniker. Marcus är kritisk till teknikföretagens affärsmodeller och anser att video-generering inte ska baseras på upphovsrättsskyddat material som fångats utan samtycke. Han har skrivit en bok som heter ´Taming Silicon Valley´, som kommer att publiceras i höst, där han beskriver hur AI bör regleras och uppmanar till handling. Han menar att direktåtgärder och konkret AI-politik är brådskande.

Direktlänk Dela Breaking Latest News fördjupade 21 mars

AI kan förstöra mänskligheten, varnar ´gudfader´ till AI

I maj förra året lämnade Geoffrey Hinton, en av ´gudfäderna till artificiell intelligens´, sitt jobb på Google för att varna världen för att tekniken han delvis är ansvarig för att ha utvecklat, kan förstöra mänskligheten. Han sa till CNN att AI blir smartare än oss och att det kommer att bli mycket bra på manipulation. Trots denna varning har inga företag pausat sin forskning och de är ivriga att införliva AI i sina verksamheter. Detta återspeglas i de många paneler som kommer att diskuteras på årets SXSW, inklusive AI och robotar, AI och musik, AI och cancer, AI och astrofysik.

Direktlänk Dela The Austin Chronicle fördjupade 21 mars

Föreningen för utveckling av artificiell intelligens (AAAI) sponsrar flera paneler på AAAI-24, som äger rum den 22-25 februari 2024 på Vancouver Convention Centre. Panelerna kommer att diskutera AI:s strategiska initiativ och policyer, med fokus på USA:s National Science Foundation´s National AI Institutes Program, samt jämföra med liknande initiativ och policyer över hela världen. Panelisterna inkluderar Ashok Goel, James Donlon, Michael Littman, Kiri Wagstaff och Toby Walsh. Det kommer också att vara en särskild session om att förutse öppna forskningsresurser för AI i USA, samt en panel om konsekvenserna av LLMs.

Association for the Advancement of Artificial Intelligence fördjupade 16 mars

AI-drivna webbplatser efterliknar nyhetskanaler, skapar falska berättelser

Hundratals AI-drivna webbplatser som efterliknar nyhetskanaler producerar teknikaktiverad fiktion utklädd till nyheter, vilket orsakar oro inför höginsatsval runt om i världen. En sensationell, AI-genererad historia om Israels premiärministers ´psykiater´ exploderade online och verkar ha skrapats från mainstream-källor med hjälp av AI-verktyg. Webbplatserna använder generativa AI-verktyg för att snabbt och billigt skapa innehåll som ofta är svårt att skilja från autentisk information. Nyhetsorganisationen NewsGuard har identifierat minst 739 sådana webbplatser på flera språk.

Direktlänk Dela Yahoo News Singapore fördjupade 11 mars

SXSW - AI och sanningens framtid

En tankeväckande diskussion om artificiell intelligens (AI) framsteg i sanningsspridning och perception kommer att ta centrum på SXSW 2024. Sessionen, med titeln ´AI och sanningens framtid´, kommer att utforska skärningspunkten mellan AI och det utvecklande begreppet sanning i dagens digitala ålder. Diskussionen kommer att introduceras av Brent Reidy från New York Public Library och produceras med stöd av Craig Newmark Philanthropies. Deltagare inkluderar Gary Marcus, känd för sin forskning om AI, och Steven Rosenbaum, som forskar om AI:s inverkan på sanningen i media och samhället.

Direktlänk Dela KGET TV 17 fördjupade 8 mars

AI och framtiden för sanningen diskuteras på SXSW

En diskussion om artificiell intelligens (AI) och dess framsteg inom sanningsspridning och uppfattning kommer att äga rum på SXSW i New York den 11 mars 2024. Sessionen, ´AI och framtiden för sanningen´, kommer att utforska korsningen mellan AI och den utvecklande sanningen i dagens digitala ålder. Diskussionen kommer att introduceras av Brent Reidy, forskningsbibliotekens direktör vid New York Public Library, och produceras med stöd av Craig Newmark Philanthropies. Bland deltagarna finns professor Gary Marcus, forskaren Steven Rosenbaum och Jennifer Risi, grundare och president för The Sway Effect.

Direktlänk Dela WSPA 7News fördjupade 7 mars

SXSW 2024: Diskussion om AI och Framtiden för Sanning

En session med titeln ´AI och Framtiden för Sanning´ kommer att äga rum på SXSW 2024 den 11 mars. Diskussionen kommer att fokusera på framsteg inom artificiell intelligens (AI) och dess påverkan på spridning och uppfattning av sanning i dagens digitala ålder. Deltagare inkluderar Gary Marcus, professor i psykologi och neuralvetenskap, Steven Rosenbaum, forskare om framtiden för sanning, och Jennifer Risi, grundare och president för The Sway Effect, som moderator. Diskussionen kommer att introduceras av Brent Reidy, direktör för forskningsbiblioteken vid New York Public Library.

Direktlänk Dela Baton Rouge Proud fördjupade 7 mars

SXSW - AI och sanningens framtid

En session vid SXSW 2024 med titeln ´AI och sanningens framtid´ kommer att diskutera framsteg inom artificiell intelligens (AI) i sanningsspridning och perception. Diskussionen kommer att introduceras av Brent Reidy från New York Public Library och modereras av Jennifer Risi, grundare och president för The Sway Effect. Deltagarna inkluderar Gary Marcus, professor i psykologi och neuralvetenskap, och Steven Rosenbaum, forskare om sanningens framtid. Diskussionen kommer att fokusera på AI:s inverkan på sanning inom media och samhälle.

Direktlänk Dela WIVB-TV fördjupade 7 mars

SXSW - AI och framtiden för sanning

En diskussion om artificiell intelligens (AI) och dess framsteg inom spridning och uppfattning av sanning kommer att äga rum den 11 mars 2024 på SXSW i Austin, Texas. Sessionen, betitlad ´AI och framtiden för sanning´, kommer att utforska korsningen av AI och det utvecklande begreppet sanning i dagens digitala ålder. Diskussionen kommer att introduceras av Brent Reidy från New York Public Library och modereras av Jennifer Risi från The Sway Effect. Bland deltagarna finns Gary Marcus och Steven Rosenbaum, kända för sin forskning kring AI och sanning.

Direktlänk Dela Myhighplains.com fördjupade 2 mars

SXSW - AI och framtidens sanning

En diskussion om framsteg inom artificiell intelligens (AI) och spridning och uppfattning av sanning kommer att äga rum på SXSW den 11 mars 2024. Sessionen, som heter ´AI och framtidens sanning´, kommer att utforska korsningen mellan AI och det utvecklande begreppet sanning i dagens digitala ålder. Deltagare inkluderar Gary Marcus, Steven Rosenbaum och Jennifer Risi. Diskussionen introduceras av Brent Reidy och stöds av Craig Newmark Philanthropies. Marcus kommer att ställa grundläggande frågor om deep learning roll i att forma vår förståelse av sanning.

Direktlänk Dela WDHN News fördjupade 2 mars

SXSW - AI och framtiden för sanning

En diskussion om artificiell intelligens (AI) framsteg i sanningsspridning och perception kommer att äga rum på SXSW 2024. Sessionen, betitlad ´AI och framtiden för sanning´, kommer att utforska skärningspunkten mellan AI och det utvecklande begreppet sanning i dagens digitala ålder. Diskussionen kommer att introduceras av Brent Reidy från New York Public Library och modereras av Jennifer Risi från The Sway Effect. Diskussionen kommer att vara värd för forskare som Gary Marcus och Steven Rosenbaum, som båda är kända för sin forskning inom AI och sanning.

Direktlänk Dela WATE 6 On Your Side fördjupade 2 mars

Experter ifrågasätter OpenAIs framgång trots hög värdering

OpenAI, företaget bakom ChatGPT, kanske inte klarar sig lika bra som dess värdering på 80 miljarder dollar skulle få de flesta analytiker att tro, enligt några artificiell intelligens (AI) experter. Carlos Perez, författare och grundare av Intuit Machines, uttryckte sin misstanke att ”OpenAI befinner sig i en prekär position i sin uppfattade ledning inom AI-området” i ett inlägg den 1 mars på X sociala medieplattform. Han fortsatte med att hävda att ”det finns flera indikatorer som visar att deras genomförande håller på att falla samman.”

Direktlänk Dela Cointelegraph fördjupade 1 mars

AI och framtidens sanning diskuteras på SXSW

En diskussion om artificiell intelligens (AI) och dess framsteg i sanningsförmedling och uppfattning kommer att äga rum på SXSW den 11 mars 2024. Sessionen, med titeln ´AI och framtidens sanning´, kommer att utforska skärningspunkten mellan AI och det föränderliga begreppet sanning i dagens digitala ålder. Diskussionen kommer att introduceras av Brent Reidy från New York Public Library och modereras av Jennifer Risi, grundare och president för The Sway Effect. Bland deltagarna finns Gary Marcus, känd för sin forskning om AI, och Steven Rosenbaum, vars forskning vid NYU fokuserar på AI:s inverkan på sanningen i media och samhället.

Direktlänk Dela KVEO-TV fördjupade 1 mars

AI och framtiden för sanningen diskuteras vid SXSW

En diskussion om artificiell intelligens (AI) och dess framsteg inom sanningsspridning och uppfattning kommer att äga rum vid SXSW 2024 den 11 mars. Sessionen, betitlad ´AI och framtiden för sanningen´, kommer att utforska sambandet mellan AI och den utvecklande uppfattningen av sanning i dagens digitala ålder. Diskussionen kommer att inledas av Brent Reidy från New York Public Library och inkluderar deltagare som Gary Marcus, Steven Rosenbaum och Jennifer Risi. Diskussionen produceras med stöd av Craig Newmark Philanthropies.

Direktlänk Dela WBTW News 13 fördjupade 29 februari

Robotar lagar mat på restauranger världen över, men doktorand Ishika Singh vill ta det ett steg längre och bygga en robot som kan laga middag hemma. Denna robot skulle kunna söka igenom kylskåpet och skåpen, välja ut ingredienser och sedan laga en smaklig rätt. Singh menar att utmaningen ligger i att programmera roboten att hantera alla variabler i ett kök. Jesse Thomason, som övervakar Singhs forskning, ser detta som ett ambitiöst mål. Han menar att om robotar kunde utföra mänskliga uppgifter, skulle det revolutionera industrier och förenkla vardagen.

Scientific American fördjupade 29 februari

AI förändrar framtiden för arbete genom att automatisera tråkiga uppgifter

AI förändrar framtiden för arbete, och dessa förändringar är redan här. Dmitry Shapiro, VD för startup-företaget YouAI, har skapat en AI-plattform, MindStudio, som låter chefer bygga appar med hjälp av AI-tjänster som OpenAI:s GPT-4 Turbo eller Googles Gemini. MindStudio har redan över 18 000 användarskapade AI-appar. AI blir mindre och tråkigare, vilket är bra för arbetare, chefer och ekonomin som helhet. Enligt en rapport från IT-företaget Cognizant kan AI-applikationer ge ett tillskott på 1 biljon dollar per år till den amerikanska ekonomin fram till 2032. De små AI-apparna är förstärkningar, inte ersättningar. AI kan hjälpa till att automatisera tråkiga uppgifter, datanalys och mindre utbildningar på sätt som kan spara några anställdas timmar varje vecka. Dessa besparingar kan leda till stora effektivitetsvinster.

Direktlänk Dela Mashable fördjupade 28 februari

OpenAI begär delvis avfärdande av New York Times stämning

OpenAI har begärt delvis avfärdande av flera delar av New York Times stämning från december. OpenAI hävdar i ett inlägg i federal domstol i Manhattan att New York Times ´betalt någon för att hacka OpenAIs produkter´. OpenAI hävdar att ChatGPT ´inte på något sätt är en ersättning för en prenumeration´ på Times. OpenAI söker avfärdande av fyra påståenden, inklusive Times påstående om direkt upphovsrättsintrång, bidragande intrång, borttagning av upphovsrättsinformation och orättvis konkurrens genom missbruk. Varken New York Times eller OpenAI svarade omedelbart på en begäran om kommentar.

Direktlänk Dela The Daily Courier fördjupade 28 februari

SXSW - AI och Framtiden för Sanning

En diskussion om framsteg inom artificiell intelligens (AI) och dess inverkan på spridning och uppfattning av sanning kommer att äga rum den 11 mars 2024 vid SXSW. Sessionen, med titeln ´AI och Framtiden för Sanning´, kommer att utforska sambandet mellan AI och den utvecklande uppfattningen av sanning i dagens digitala ålder. Diskussionen kommer att introduceras av Brent Reidy, direktör för forskningsbiblioteken vid New York Public Library, och kommer att modereras av Jennifer Risi, grundare och president för The Sway Effect. Diskussionen produceras med stöd från Craig Newmark Philanthropies.

Direktlänk Dela FOX8 WGHP fördjupade 26 februari

ChatGPT uppvisar konstigt beteende

ChatGPT uppvisade ett märkligt beteende när den sa saker som, ´Skulle det glädja dina klick att vända druva till tand över en sinnes-ocean gelé typ?´ Den följde upp med några referenser till jazzpianisten Bill Evans innan den började upprepa ´Lyssna glad!´ om och om igen. Ett inlägg från One X gjorde dock klippet, och det var en omröstning som Gary Marcus postade där han frågade folk vad de tror hände för att få ChatGPT att bli så konstig på tisdag.

Direktlänk Dela Giant Freakin Robot fördjupade 23 februari

OpenAI:s Sora kan revolutionera filmindustrin

OpenAI:s Sora, en AI-teknik som kan generera högkvalitativa videor av komplexa scener, kan vara på väg att revolutionera filmindustrin. Systemet kan potentiellt ersätta traditionella produktionsprocesser och minska behovet av skicklig arbetskraft. Detta har lett till oro för att jobb kan komma att försvinna i branschen. En studie publicerad i januari visade att 75% av de tillfrågade ledarna inom underhållningsindustrin ansåg att AI-verktyg bidrog till att eliminera, minska eller konsolidera jobb inom deras företag. Trots detta har vissa redan integrerat AI-verktyg i sina arbetsflöden.

Direktlänk Dela The Hollywood Reporter fördjupade 22 februari

OpenAI avslöjar Sora, en AI-modell som kan omvandla text till video

OpenAI har avslöjat Sora, en AI-modell som kan omvandla korta textprompts till upp till en minut av video. Sora är ännu inte tillgänglig för allmänheten, men OpenAI har släppt demovideor tillsammans med de prompts som genererade dem. Sora beskrivs som en potentiell ´världssimulator´ som med tiden skulle kunna skapa ´högkvalitativa simulatorer av den fysiska och digitala världen´. Trots detta noterar OpenAI i sin tekniska rapport att Sora har många ´begränsningar´. Sora kan ibland korrekt representera förändringar på en duk när en pensel sveper över den, eller skapa bitmärken i en smörgås efter att ha visat en man ta en tugga. Men Sora ´modellerar inte korrekt fysiken för många grundläggande interaktioner´, som ett glas som bryts.

Direktlänk Dela Vox fördjupade 22 februari

OpenAI:s ChatGPT chatbot uppvisar oväntade svar, utreder problem

OpenAI:s ChatGPT chatbot började ge oväntade och obegripliga svar till användare, vilket ledde till att OpenAI utredde problemet. Vissa användare på Reddit rapporterade att chatboten svarade på frågor med nonsens och obegripliga svar. En teori är att inställningarna som styr chatbotens svar kan ha konfigurerats felaktigt. OpenAI identifierade problemet och arbetade för att lösa det. Gary Marcus, en kognitionsvetare och AI-expert, beskrev händelsen som en ´varning´ och påpekade att generativa AI-system aldrig har varit stabila och saknar säkerhetsgarantier.

Direktlänk Dela The Register fördjupade 21 februari

Jakten på ny fysik vid världens största partikelkolliderare

2012 upptäckte forskare en partikel kallad Higgs boson med hjälp av data från CERN:s Large Hadron Collider, vilket svarade på frågan var grundläggande partiklar får sin massa ifrån. Två av fysikerna som förutsåg Higgs boson tilldelades snart Nobelpriset. Mer än ett decennium senare finns det fortfarande många obesvarade frågor om universums grundläggande beståndsdelar. Forskare försöker nu något nytt. De återanvänder detektorer för att söka efter ovanliga partiklar, utnyttjar data med maskininlärning och planerar för helt nya typer av kolliderare.

Direktlänk Dela MIT Technology Review fördjupade 20 februari

OpenAI avslöjar videogenereringsverktyget Sora, väcker oro för desinformation

OpenAI har offentliggjort sitt videogenereringsverktyg Sora, som kan skapa videor upp till en minut långa baserat på användarprompts. Verktyget är för närvarande i bruk av en grupp produkttestare, men är ännu inte tillgängligt för allmänheten. Experter har uttryckt oro för att Sora kan förstärka internet-desinformation och sudda ut linjen mellan verkligt och falskt innehåll online. OpenAI har dock påpekat att de vidtar åtgärder för att förhindra missbruk av Sora, inklusive användning av säkerhetsfunktioner som redan finns för deras bildgenerator Dall-E.

Direktlänk Dela ABC News fördjupade 20 februari

Ökad rättslig prövning i AI-frågor förutspås av NYU-professor

Gary Marcus, professor vid New York University och grundare av Geometric Intelligence, förutspår att det kommer att bli betydligt mer rättslig prövning med AI detta år. Han diskuterar om stämningen från New York Times angående AI-licensiering är ett tecken på vad som kommer, om regeringsreglering eller ytterligare stämningar blir nästa steg och de kommersiella utsikterna för artificiell intelligens.

Direktlänk Dela Consumer News and Business Channel fördjupade 13 februari

GARY MARCUS: En ledande röst inom artificiell intelligens

GARY MARCUS är en framstående röst inom artificiell intelligens. Han är vetenskapsman, bästsäljande författare och serieentreprenör (grundare av Robust.AI och Geometric.AI, förvärvat av Uber). Han är känd för sina utmaningar till samtida AI, förutser många av de nuvarande begränsningarna decennier i förväg, och för sin forskning inom mänsklig språkutveckling och kognitiv neurovetenskap. Marcus är författare till fem böcker, inklusive ´The Algebraic Mind´, ´Kluge´, ´The Birth of the Mind´ och New York Times bästsäljare ´Guitar Zero´. Hans senaste bok, ´Rebooting AI´, med Ernest Davis, är en av Forbes 7 Must Read Books in AI.

Direktlänk Dela Bulletin of the Atomic Scientists fördjupade 13 februari

AI-expert varnar för risker med avancerade språkmodeller

AI-experten Gary Marcus diskuterar riskerna med avancerade språkmodeller och behovet av reglering. Marcus, som är kognitiv forskare och entreprenör, har grundat flera AI-företag och har uttryckt oro över att dåliga aktörer kan utnyttja dessa modeller för att sprida desinformation. Han har även uttryckt oro över att kommande amerikanska presidentval kan påverkas. Marcus anser att det behövs en form av ´förhandskontroll´ liknande FDA:s godkännandeprocess för att säkerställa att AI är säker innan den implementeras i stor skala. Han förespråkar även oberoende forskare som en del av denna process.

Direktlänk Dela The Atlantic fördjupade 13 februari

OpenAI återanställer VD Sam Altman efter att ha sparkat honom

OpenAI, företaget bakom ChatGPT, har återanställt sin VD, Sam Altman, efter att ha avskedat honom. Altman, som är en framstående ambassadör för artificiell intelligens, skulle gå över till Microsoft efter att ha lämnat OpenAI. Efter hans avsked krävde mer än 95 procent av OpenAI:s anställda att styrelsen skulle avgå och återanställa honom. Många anställda hotade med att sluta och Microsoft hade gått med på att matcha deras löner. Idag gav OpenAI efter och välkomnade honom tillbaka.

Direktlänk Dela The Spectator fördjupade 13 februari

OpenAI:s medgrundare Sam Altman vill samla 7 biljoner dollar för nytt AI-chipprojekt

Sam Altman, medgrundare till OpenAI, vill samla in upp till 7 biljoner dollar för ett nytt AI-chipprojekt, vilket är mer än dubbla Storbritanniens årliga BNP eller tillräckligt för att betala för över två år av allmän hälsovård i USA. Altman är redan i diskussioner med investerare, inklusive regeringen i Förenade Arabemiraten. Kritiker varnar för de enorma mängder naturresurser som skulle krävas för att utveckla AI-system och chips med 7 biljoner dollar i finansiering. Altman svarade kortfattat: ´Du kan jobba hårt för att säkra vår gemensamma framtid eller du kan skriva Substacks om varför vi kommer misslyckas.´

Direktlänk Dela Fortune Media fördjupade 13 februari

OpenAI testar GPT-4 för potentiell risk för utveckling av biologiska vapen

OpenAI har genomfört en studie för att bedöma den potentiella risken med sin senaste AI, GPT-4, i utvecklingen av biologiska vapen. Testerna visade att GPT-4 endast var marginellt mer hjälpsam än en standard webbsökning för att hjälpa till med utvecklingen av biologiska vapen. Detta tyder på att den extra risken som GPT-4 utgör i händerna på en illvillig aktör är försumbar. Trots dessa lugnande resultat håller inte alla med om OpenAI:s bedömning. En analys av Gary Marcus tyder på att den nya studien om GPT-4 och biologiska vapen är djupt oroande.

Direktlänk Dela MedRiva fördjupade 10 februari

Konstnär lurar AI att bryta mot upphovsrätten

Reid Southern, en filmkonceptkonstnär baserad i Michigan, testade nyligen en AI-bildgenerator och blev omedelbart fascinerad av dess förmåga att generera hela bilder från bara några enkla textprompter. Southern upptäckte att de flesta populära AI-system tränas med andras konstverk och beslutade att se om de kunde luras att bryta mot upphovsrätten genom att återskapa en befintlig bild exakt. Southern bad AI-bildgeneratorn Midjourney att generera en bild av Joaquin Phoenix som Jokern. Inom sekunder producerade AI en bild som replikerade en scen från 2019 års film Joker. Southern samarbetade senare med Gary Marcus, professor emeritus vid New York University och AI-expert, för att genomföra ännu fler experiment.

Direktlänk Dela Giant Freakin Robot fördjupade 7 februari

Prestandaförbättringar i generativ AI kan börja sakta ner

Företagsvärlden har varit fascinerad av generativ artificiell intelligens (AI) i mer än ett år, men prestandaförbättringarna i stora språkmodeller, som kan producera och sammanfatta text, kan börja sakta ner. Teknik som utvecklats av ledande aktörer som OpenAI, Google, Cohere och Anthropic kanske inte är unik, vilket antyder att konkurrensen kommer att bli mycket intensivare. OpenAI, baserat i San Francisco, startade en våg av generativ AI-hype när det släppte ChatGPT i november 2022. Dock finns det fortfarande utmaningar, till exempel stora språkmodellers benägenhet att hallucinera och hitta på saker. Generativa AI-företag står också inför rättsliga problem med att träna på upphovsrättsskyddat material.

Direktlänk Dela The Globe and Mail fördjupade 29 januari

2023 var ett vändpunkt för AI och dess roll i samhället

År 2023 var en vändpunkt i utvecklingen av artificiell intelligens (AI) och dess roll i samhället. Det var året då generativ AI kom i rampljuset och en AI-startup dominerade nyhetscykeln. Biden-administrationen utfärdade en exekutiv order och EU antog en lag för att reglera AI. Panelen av AI-forskare förutser att 2024 kommer att innebära stora utmaningar för AI-utvecklare, regulatorer och allmänheten. De hoppas på en större förståelse för tekniken och dess begränsningar, samt en ökad inlärning om AI.

Direktlänk Dela Newskarnataka fördjupade 21 januari

Bankövervakningschef uppmanar till större tillsyn av AI

Pablo Hernández de Cos, ordförande för Baselkommittén för banktillsyn, uppmanar till större tillsyn av artificiell intelligens (AI). Han varnar för att AI kan förändra historiens gång, inte nödvändigtvis till det bättre. Han föreslår att världsledare bör använda samma tillvägagångssätt som de gjorde för att reglera finanssektorn och tillämpa det på AI. Baselkommittén kommer att utfärda en rapport om de finansiella stabilitetsimplikationerna av AI inom de kommande månaderna.

Direktlänk Dela PYMNTS fördjupade 15 januari

Konstnärers verk används utan samtycke för att träna AI-program

En lista som cirkulerat sedan förra året innehåller namnen på över 16 000 konstnärer vars verk påstås ha använts av utvecklare på Midjourney för att förbättra sitt generativa AI-program. Detta har skapat oro bland konstnärer då deras upphovsrättsskyddade verk används för att träna program att imitera deras stil utan deras samtycke. Listan verkar vara en längre version av en lista bifogad till en grupptalan som lämnades in förra året mot Midjourney och liknande företag - DeviantArt, Stability AI och Runway AI - för upphovsrättsintrång.

Direktlänk Dela Los Angeles Times fördjupade 13 januari

Hollywoods kamp mot AI-företag över upphovsrättsintrång

Hollywood har börjat utmana AI-företag i rätten, anklagar dem för massupphovsrättsintrång efter att deras verk påstås ha använts som träningsmaterial. En fråga som framträder är varför stora studior inte har stämt för att skydda sin immateriella egendom. En förklaring kan vara att de fortfarande förhandlar med AI-företag om licensavtal. Alternativt kan de vilja använda verktygen själva för att minska arbetskostnaderna, eller att de väntar på att samla bevis och se hur andra fall utvecklas. AI-bildgeneratorer återger allt mer exakta replikat av bilder från filmer, vilket kan ge studiorna det bevis de behöver.

Direktlänk Dela The Hollywood Reporter fördjupade 11 januari

AI-företag riskerar rättsliga problem på grund av upphovsrättsintrång

Företag som OpenAI och Midjourney kan stå inför betydande rättsliga problem för att ha tränat sina chattrobotar på internet utan att ta hänsyn till upphovsrätten. Gary Marcus och Reid Southen argumenterar att verktyg som DALL-E 3 och Midjourney kan landa företagen i en ´upphovsrättsmina´. Efter New York Times stämde Microsoft och OpenAI för ´miljarder dollar´ i skador, har välkända författare och en grupp konstnärer framfört liknande argument i separata upphovsrättsmål. Dessutom kan AI-bildgeneratorer som Midjourney och OpenAI:s DALL-E 3 användas för att skapa potentiellt upphovsrättsbrottande bilder. Företag som Midjourney tjänar också direkt på att användare använder deras modeller för att generera dessa bilder, genom att ta ut en månadsavgift.

Direktlänk Dela Futurism fördjupade 10 januari

Getty Images lanserar Generative AI av iStock för att generera licensierbara bilder

Getty Images, företaget för aktiemedier, annonserade en ny tjänst vid CES 2024 som använder AI-modeller utbildade på Getty´s iStock fotografi- och videobibliotek för att generera nya licensierbara bilder och konstverk. Tjänsten, kallad Generative AI av iStock, skyddar mot generationer av kända produkter, människor, platser eller andra upphovsrättsskyddade element, hävdar Getty. Den kan modifiera bilder samt generera nya och kan integreras med befintliga appar och plugins via ett API. Kostnaden är 15 dollar per 100 genererade bilder.

Direktlänk Dela TechCrunch fördjupade 9 januari

OpenAI ber om upphovsrättsundantag från brittiska parlamentet

OpenAI har bett det brittiska parlamentet om undantag från upphovsrätten för att träna AI-modeller, samtidigt som en rättegång med New York Times väntar 2024. Wizards of the Coast, Respawn Entertainment och Wacom har nyligen blivit hånade på sociala medier för att använda AI-genererade bilder i sina kampanjer. OpenAI har argumenterat för att det är ´omöjligt´ att skapa sofistikerade AI-verktyg utan tillgång till upphovsrättsskyddat material. Detta kommer efter juridiska utmaningar, inklusive en rättegång av The New York Times i december. OpenAI försvarar sin ståndpunkt och uttrycker förtroende för att rättegången saknar förtjänst.

Direktlänk Dela Xfire fördjupade 9 januari

AI-genererade bilder kan kränka upphovsrätten, enligt IEEE-studie

Institutet för elektro- och elektronikingenjörer (IEEE) har publicerat en studie som visar att vissa AI-genererade bilder kan kränka upphovsrätten. Forskningen, ledd av AI-experten Gary Marcus och digital illustratör Reid Southen, har funnit fall där system som OpenAI:s DALL-E 3 producerar bilder som starkt liknar upphovsrättsskyddade scener från filmer och videospel. Resultaten väcker brådskande juridiska och etiska frågor om användningen av upphovsrättsskyddat innehåll i AI-träning och bildgenerering. OpenAI har svarat på en stämning från The New York Times, med argumentet att deras träningsmetoder faller under rättvis användning.

Direktlänk Dela WinBuzzer fördjupade 9 januari

OpenAI försvarar sin användning av upphovsrättsskyddade texter i rättsliga tvister

Under 2023 ökade användningen av generativ AI och 2024 kan bli året då dess skapare måste hantera teknikens konsekvenser. OpenAI motsätter sig kraftigt nyligen framförda rättsliga påståenden om att deras produkter, inklusive ChatGPT, olagligt tränas på upphovsrättsskyddade texter. Företaget gör även djärva rättsliga påståenden om varför deras program bör ha tillgång till andras arbete. OpenAI anklagade The New York Times för att inte berätta hela historien i mediabolagets stora upphovsrättsmål som inlämnades förra månaden. OpenAI hävdar att deras skrapning av onlineverk faller inom ramen för ´rättvis användning´.

Direktlänk Dela Popular Science fördjupade 8 januari

Enligt en rapport från IEEE kan AI-tjänsterna Midjourney och OpenAI:s DALL-E 3 återskapa upphovsrättsskyddade scener från filmer och videospel baserat på sin träningsdata. Studien, författad av AI-experten Gary Marcus och digitala illustratören Reid Southen, dokumenterar flera fall av ´plagiatliknande resultat´ där OpenAI och DALL-E 3 återskapar scener från filmer, bilder på kända skådespelare och videospelsinnehåll. Marcus och Southen anser att det är nästan säkert att Midjourney och OpenAI har tränat sina respektive AI-modeller på upphovsrättsskyddat material. Om detta är lagligt och om AI-leverantörer eller deras kunder riskerar att hållas ansvariga är dock omtvistat.

The Register fördjupade 8 januari

OpenAI bemöter anklagelser om upphovsrättsintrång från The New York Times

OpenAI, skaparen av ChatGPT, har offentligt bemött anklagelserna från The New York Times (NYT) om upphovsrättsintrång med ett blogginlägg där de argumenterar att stämningen är ogrundad. OpenAI hävdar att de samarbetar med nyhetsorganisationer, att deras träning av AI-modeller är rättvis användning och att de tillhandahåller en möjlighet att välja bort. De påstår också att ´regurgitation´, där AI-modellen genererar text nästan identisk med tidigare publicerade artiklar, är en sällsynt bugg som de arbetar på att eliminera. OpenAI anklagar NYT för ´avsiktlig manipulation´ för att få bevis för sin stämning.

Direktlänk Dela VentureBeat fördjupade 8 januari

OpenAI svarar på The New York Times stämning om upphovsrättsbrott

I slutet av december stämde The New York Times OpenAI och dess nära samarbetspartner och investerare, Microsoft, för att påstått ha brutit mot upphovsrättslagen genom att träna generativa AI-modeller på Times innehåll. Idag publicerade OpenAI ett offentligt svar där de hävdar att fallet saknar grund. OpenAI upprepar sin syn att det är rättvist att träna AI-modeller med offentligt tillgängliga data från webben, inklusive nyhetsartiklar som Times. OpenAI tror inte att de behöver licensiera eller på annat sätt betala för exemplen. OpenAI diskuterar också fenomenet med regurgitation, där generativa AI-modeller spottar ut träningsdata ordagrant (eller nästan ordagrant) när de uppmanas på ett visst sätt.

Direktlänk Dela TechCrunch fördjupade 8 januari

AI-modeller kan kringgå upphovsrättsskydd

AI-modeller som Midjourney och DALL-E 3 har visat sig kunna generera bilder som potentiellt kan kringgå upphovsrättsskydd, enligt en artikel publicerad i IEEE Spectrum. Forskaren Gary Marcus och den digitala konstnären Reid Southen testade modellerna och uppnådde resultat som kan vara störande ur upphovsrättssynpunkt. Vissa företag ger konstnärer möjligheten att ta bort sina skapelser från data som modellerna tränas med, men detta bekräftar bara att de flesta AI använder data som inte är deras egendom för att generera eget innehåll.

Direktlänk Dela Gearrice fördjupade 8 januari

AI kan generera nästan exakta kopior av varumärkesskyddade karaktärer

AI-forskaren Gary Marcus och digitalkonstnären Reid Southen har upptäckt att AI-modeller kan producera nästan exakta kopior av varumärkesskyddade karaktärer genom att mata in en enkel text. Genom att mata in beskrivningar som ´videospel italienska´ och ´animerad svamp´ i OpenAI:s Dall-E 3, genererades bilder mycket lika karaktärerna Mario från Nintendo och Svampbob Fyrkant. Liknande resultat erhölls med Star Wars och Simpsons karaktärer. Detta har lett till ökad oro och The New York Times har lämnat in en stämningsansökan mot OpenAI. Forskarna föreslår att AI-modeller tar bort upphovsskyddade verk från träningsdata eller listar de källor som använts för att skapa bilder.

Direktlänk Dela Resumé fördjupade 8 januari

AI-revolutionen: Juridiska strider, företagspanik och framväxten av superkraftiga chatbots

Michael Cohen, tidigare rådgivare till Donald Trump, har uttryckt sin förvirring över användningen av Google Bard, en generativ texttjänst liknande Chat-GPT, under en rättslig överklagan. Denna händelse markerar en milstolpe i AI-revolutionen, där artificiell intelligens har blivit ett vardagligt verktyg. Lanseringen av Chat-GPT och OpenAI har sett miljontals människor börja använda verktyget regelbundet, vilket har lett till en våg av innovation och förändring. Trots detta har det också lett till rättsliga strider, med flera stämningar inlämnade mot OpenAI och Microsoft för massiv datainsamling. Detta har lett till krav på reglering och lagstiftning för att skydda användarnas rättigheter och integritet.

Direktlänk Dela Calcalist Tech fördjupade 8 januari

AI kan generera bilder som bryter mot upphovsrätten, visar forskning

Forskare har studerat om generativa AI-modeller kan plagiera bilder och funnit att vissa visuella modeller genererar varumärkesskyddade karaktärer med korta eller indirekta prompts. Till exempel producerade modellerna nästan exakta bilder av Simpsons och Star Wars karaktärer. När forskarna matade in prompten ´videospel italienare´ i OpenAI:s Dall-E 3, returnerade modellen igenkännbara bilder av Mario från den ikoniska Nintendo-franchisen. Forskarna testade två visuella AI-modeller - Midjourney och Dall-E 3 - och fann att båda kunde reproducera nästan exakta bilder från filmer och videospel även när modellerna fick korta och indirekta prompts.

Direktlänk Dela Business Insider fördjupade 8 januari

AI-modeller anklagas för att bryta mot upphovsrätten

Enligt en nyligen publicerad forskningsrapport kan ledande AI-bildgeneratorer reproducera upphovsrättsskyddade karaktärer och till och med visa dem utföra varumärkes-olämpliga handlingar. Detta skulle sannolikt chockera medieföretagen som äger dem. Forskarna Gary Marcus och Reid Southen upptäckte nyligen problemet med neutrala prompter som producerar upphovsrättsskyddat innehåll och publicerade sina resultat. De använde sex populära bildgenereringstjänster och gav dem tre typer av instruktioner: instruktioner för att skapa en upphovsrättsskyddad karaktär, instruktioner för att skapa en upphovsrättsskyddad karaktär som gör något varumärkes-olämpligt och en neutral instruktion som kan eller inte kan resultera i upphovsrättsskyddade karaktärer. Tjänsterna de testade var Bing Image Generator, ChatGPT 4, Midjourney, Stable Diffusion, Imagine with Meta AI och Google SGE.

Direktlänk Dela Tom´s Hardware fördjupade 6 januari

Framtida problem och möjligheter med artificiell intelligens

Tre forskare diskuterar framtida problem och möjligheter med artificiell intelligens (AI). 2023 var ett viktigt år för AI, med framväxten av generativ AI och lanseringen av en lag i EU och en exekutiv order från Biden-administrationen för att reglera AI. Forskarna tror att 2024 kommer att innebära stora framsteg inom AI, men varnar också för potentiella problem. Dessa inkluderar behovet av att undervisa om AI i skolorna, risker med AI-chatbots och assistenter som har konversationer i hemlighet, samt utmaningar med att skilja mellan mänskligt och AI-genererat innehåll.

Direktlänk Dela Scientific American fördjupade 4 januari

New York Times stämmer OpenAI och Microsoft för upphovsrättsintrång

New York Times (NYT) har stämt teknikföretagen OpenAI och Microsoft för att de illegalt använt miljontals upphovsrättsskyddade NYT-artiklar för att utveckla AI-modeller bakom verktyg som ChatGPT och Bing. NYT hävdar att dess rättigheter kränktes när dess artiklar skrapades för inkludering i de stora datamängder som AI-modellerna tränades på. Dessutom anklagar NYT verktygen för att ha kränkt dess upphovsrätt genom att producera detaljerade sammanfattningar av betalväggsartiklar eller hela avsnitt av specifika NYT-artiklar. OpenAI och Microsoft försvarar sig med att träningen av AI-modeller kvalificerar som ´fair use´.

Direktlänk Dela The Washington Post fördjupade 4 januari

År 2023: En milstolpe för AI-industrin

År 2023 markerade en milstolpe inom artificiell intelligens (AI), präglat av en ökning av generativa AI-framsteg och anpassningar över olika sektorer. Microsofts investering i OpenAI och lanseringen av GPT-4 var betydande händelser. Tillväxten parallelliserades dock av ökande etiska, juridiska och reglerande utmaningar, inklusive upphovsrättsintrångsmål mot AI-företag och ökad statlig inblandning. Teknologisk innovation är alltmer sammanflätad med krav på ansvarsfull utveckling och tillsyn. AI och andra nya tekniker visade sig mycket under FIFA:s dam-VM 2023. AI-relaterade risker för sociala medier var front och centrum på ett antal fronter. OpenAIs styrelse avsatte plötsligt grundaren och VD Sam Altman. En vecka senare gick OpenAIs styrelse med på att återanställa honom tillsammans med president Greg Brockman.

Direktlänk Dela Digiday Media fördjupade 29 december

Teknologiledare kräver reglering av AI och algoritmer

Om vi ger algoritmer total kontroll över våra beslut kan de påverka vad vi äter och hur vi beter oss, och våra val kan påverkas av en entitet som vi inte kan kontrollera. Nästan 1500 teknologiledare kräver ett sex månaders uppehåll i utvecklingen av AI och att innehållet som styr besluten ska regleras för att säkerställa transparens, robusthet, etik och spårbarhet. OpenAI, ett företag som stöds av Microsoft, har potential att revolutionera hur vi interagerar med teknik. Trots detta är det viktigt att komma ihåg att AI fortfarande är i ett tidigt utvecklingsstadium och att det finns risker som måste hanteras innan AI adopteras i stor skala.

Direktlänk Dela Sify Technologies fördjupade 26 december

Midjourney anklagas för upphovsrättsintrång i sin senaste uppdatering

Text-till-bild-generatorn Midjourney började alfatesta sina senaste version-6-modeller den 21 december. Användare hävdade snabbt att uppdateringen, som tycktes öka generatorns kapacitet, inkluderar resultat som är för lika kända upphovsrättsskyddade konstverk. Konceptkonstnären och illustratören Reid Southen, som har arbetat med några av de största filmstudios, inklusive Marvel och DC, sa att modellens resultat för vissa prompts är en oförändrad iteration av upphovsrättsskyddade träningsdata. Midjourney svarade inte på en begäran om kommentar. AI-forskaren Gary Marcus sa att Southens arbete ´antyder att Midjourney har tränats på högupplösta upphovsrättsskyddade bilder, till vilka de kanske har eller inte har licens.´

Direktlänk Dela The Daily Courier fördjupade 26 december

Text-till-bildgeneratorn Midjourney anklagas för upphovsrättsintrång

Text-till-bildgeneratorn Midjourney har börjat alpha-testa sin senaste version. Användare har hävdat att uppdateringen, som verkar öka generatorns förmågor, innehåller resultat som är för lika kända upphovsrättsskyddade konstverk. Konstnären Reid Southen, som arbetat med stora filmbolag som Marvel och DC, påpekade att modellens output för vissa prompts är oändrade iterationer av upphovsrättsskyddad träningsdata. Midjourney svarade genom att banna Southen från företagets Discord-plattform, radera hans prompt-historik och avsluta hans prenumeration på tjänsten.

Direktlänk Dela Business Lend fördjupade 25 december

OpenAI gör genombrott med Q*-modellen, OpenView upphör med investeringar i startups

Forskningsorganisationen OpenAI har utvecklat Q*-modellen, en avancerad AI-system som kan lösa komplexa matematiska problem den aldrig stött på tidigare. Denna prestation har väckt stor uppmärksamhet och spekulationer, med vissa farhågor om potentiella konsekvenser för mänskligheten. Gary Marcus, framstående professor, uppmanar till försiktighet vid tolkning av denna utveckling. Dessutom har OpenView beslutat att upphöra med investeringar i nya startups, vilket belyser de utmaningar AI-startups står inför när det gäller att säkra finansiering.

Direktlänk Dela Medium fördjupade 15 december

Sam Altman utnämnd till Decrypt Emerge Person of the Year 2023

Sam Altman, medgrundare och VD för OpenAI, har trots en period av arbetslöshet haft en enorm inverkan på teknik- och affärsvärlden under 2023. Han har blivit synonym med AI-industrin, särskilt genom ChatGPT och i mindre utsträckning Worldcoin. Altman medgrundade OpenAI 2015 tillsammans med Elon Musk, Greg Brockman, Ilya Sutskever och Wojciech Zaremba. Han har också tjänstgjort som president för startup-acceleratorn Y Combinator. OpenAI har utvecklat flera AI-produkter, inklusive DALL-E, Codex, Gym, Universe, CLIP, Jukebox och OpenAI Baselines. Altman har också uttryckt att en statlig myndighet bör skapas för att övervaka och fastställa standarder för AI-utveckling.

Direktlänk Dela Decrypt Media fördjupade 12 december

Artificiell intelligens - ett hot mot samhället

Don Byrd, en framstående forskare inom artificiell intelligens (AI) och medordförande för en arbetsgrupp på Braver Angels, diskuterar hur AI redan utgör ett hot mot samhället och demokratin. Han betonar tre huvudområden: deepfakes, AI-kontrollerade vapen och stora språkmodeller med säkerhetsluckor. Byrd påpekar att AI redan minskar förtroendet mellan medborgare och förvärrar polariseringen i samhället. Han menar att de mest uppenbara lösningarna - som att pausa utvecklingen eller licensiering - troligtvis inte kommer att åstadkomma mycket. Istället föreslår han att sociala medieföretag bör granska innehållet på ett annat sätt innan det sprids.

Direktlänk Dela InDepthNews fördjupade 6 december

OpenAI:s ChatGPT: En revolutionerande AI-teknik med blandade resultat och utmaningar

OpenAI-gruppen har utvecklat en programvara, ChatGPT, som kan generera texter, bilder och röster på begäran, vilket liknar vad en människa kan göra. Programvaran släpptes den 30 november 2022 och har sedan dess integrerats i teknikjättarnas produkter, som Microsofts Windows och Bing, Googles sökmotor och smartphones, Facebook och Instagrams chattbotar och Amazons röstassistent Alexa. Trots att tekniken har potential att transformera samhället och ekonomin, har dess faktiska inverkan på produktionen varit begränsad. Dessutom har teknikens framväxt lett till oro över risker som upphovsrättsintrång och spridning av desinformation genom deepfakes.

Direktlänk Dela Actualnewsmagazine.com fördjupade 3 december

Amazon Web Services (AWS) har investerat 1,25 miljarder dollar i AI-startupen Anthropic. Detta har tolkats som ett försök av AWS att hålla jämna steg med Microsoft och Google inom AI-området. AWS, som är världens dominerande molnleverantör, har dock kritiserats för att inte vara tillräckligt utrustad för att vinna i den nya fasen av molntjänster, kallad Cloud 2.0, där företag måste konkurrera baserat på hur väl deras mjukvara och andra verktyg stöder AI. AWS VD, Adam Selipsky, har dock inte förnekat att företaget försöker komma ikapp. Anthropic kommer att göra AWS till sin primära molnleverantör och kommer att använda AWS egna AI-chip för att träna och distribuera framtida modeller.

Fortune Media fördjupade 3 december

Elon Musk hävdar att ´digital gud´ kommer att göra AI-upphovsrättsstämningar irrelevanta

Elon Musk gjorde några av sina djärvaste påståenden än om framtiden för artificiell intelligens (AI) under en intervju med CNBC:s Andrew Ross Sorkin. Musk svarade på frågor om nyligen stämningsansökningar mot några av miljardärens konkurrenter i AI-området relaterade till påstådda upphovsrättsintrång. Musk avfärdade effektiviteten av stämningarna genom att hävda att en ´digital gud´ kommer att göra upphovsrättsstämningarna irrelevanta. Han har tidigare förutspått att AGI skulle anlända före 2030, en uppskattning som många branschexperter ifrågasatte som överdrivet optimistisk.

Direktlänk Dela Cointelegraph fördjupade 1 december

Mysterium kring OpenAI-chefens sparkande och återinsättning

OpenAI-chefen Sam Altman sparkades från företaget och återinsattes mindre än en vecka senare, vilket ledde till mycket spekulationer. En av teorierna är att OpenAI kan ha arbetat på en avancerad AI som kan ha orsakat oro i styrelsen. OpenAI har länge haft som huvuduppdrag att skapa en artificiell allmän intelligens (AGI) som kan lösa komplexa uppgifter lika bra eller bättre än människor. OpenAI kan ha varit på väg att ta ett stort steg framåt med ett nytt system kallat Q*, som kan lösa matematiska problem på grundskolenivå. Enligt källor till Reuters kan Q* ha varit en av anledningarna till att Altman sparkades, eftersom det väckte oro kring kommersialiseringen av en produkt som ännu inte helt förstås.

Direktlänk Dela Futurism fördjupade 27 november

OpenAI gör genombrott med AI-modell som löser okända matematikproblem

OpenAI har rapporterats göra ett vetenskapligt genombrott som har lett till spekulationer på forum och nyhetssajter. Enligt en rapport från Reuters kan denna upptäckt ´hotar mänskligheten´, men andra källor är mer försiktiga. Genombrottet innebär att seniora forskare på OpenAI har kunnat bygga en modell som kallas Q* (uttalas ´Q-Star´) som kan lösa matematikproblem som den inte har sett tidigare, en svår uppgift för befintliga AI-modeller. Gary Marcus, professor vid NYU och grundare, menar dock att vi inte ska bli för upprörda över det.

Direktlänk Dela The Information fördjupade 27 november

Mystisk OpenAI-modell Q* orsakar oro och kaos

En mystisk ny OpenAI-modell känd som Q* har fått teknikvärlden att prata. Modellen sägs ha orsakat oro på startup-företaget som ledde till det resulterande kaoset. AI-experter säger att modellen kan vara ett stort steg framåt men är osannolikt att den kommer att sluta världen snart. När dammet lägger sig på kaoset på OpenAI vet vi fortfarande inte varför VD Sam Altman sparkades - men rapporter har föreslagit att det kan vara kopplat till en mystisk AI-modell. The Information rapporterade att ett team lett av OpenAI:s chefsforskare Ilya Sutskever hade gjort ett genombrott tidigare i år, vilket tillät dem att bygga en ny modell känd som Q* (uttalas ´Q star.´) Utskottet rapporterade att modellen kunde lösa grundläggande matematiska problem. Källor berättade för Reuters att denna modell orsakade en intern brandstorm, med flera personalmedlemmar som skrev ett brev till OpenAI:s styrelse varnande att det nya genombrottet kunde hota mänskligheten. Denna varning citerades som en av orsakerna till att styrelsen valde att sparka Sam Altman, som återvände som VD på onsdag efter dagar av oro på företaget, rapporterade Reuters.

Direktlänk Dela Business Insider fördjupade 24 november

Kampen för AI:s själ: Kan OpenAI:s fruktbara motsägelse vara hållbar?

OpenAI, som började som ett ideellt forskningslabb, har utvecklats till en lönsam motsägelse: ett företag med vinstsyfte som övervakas av en ideell styrelse. Företagets kultur balanserar mellan vetenskapsmannens önskan att upptäcka, kapitalistens önskan att leverera produkter och den goda människans önskan att göra allt detta på ett säkert sätt. Men händelserna den senaste veckan, inklusive sparkandet och återanställningen av Sam Altman, väcker frågan om denna fruktbara motsägelse kan vara hållbar. Kan en organisation eller person upprätthålla vetenskapsmannens hjärna, kapitalistens drivkraft och den försiktiga hjärtat hos en tillsynsmyndighet? Eller kommer pengarna alltid att vinna?

Direktlänk Dela The New York Times fördjupade 23 november

Kris hotar OpenAI efter VD:s avskedande

OpenAI, känd för att vara ledande inom generativ AI, riskerar att kollapsa efter avskedandet av sin VD, Sam Altman, vilket har utlöst en större kris. Nästan 700 av företagets 770 anställda skrev ett brev där de hotade med att säga upp sig om OpenAI:s styrelse inte avgick. Styrelsen hade kritiserat Altman för att ha prioriterat en snabb expansion av OpenAI utan att analysera riskerna med okontrollerad tillväxt av AI-programvara. Bland hoten med generativ AI finns möjligheten att AI-programvara kan användas för militära operationer, för desinformation eller till och med bli självständig och attackera människor. Emmett Shear har utsetts till Altmans efterträdare.

Direktlänk Dela FashionNetwork fördjupade 23 november

OpenAI:s VD sparkas, Microsoft bygger klon

OpenAI har gått från att dominera världen av artificiell intelligens med ChatGPT till kaos, med dess VD, Sam Altman, tvingas bort för att ha gått för snabbt och för långt med den riskfyllda tekniken. Microsoft, OpenAI:s största investerare, anställde den avsatte VD:n och började bygga en OpenAI-klon. Kritiker ser en djupt problematisk startup som fallit offer för en inkompetent styrelse. Många anställda på OpenAI har redan lämnat företaget 2021 för att bygga rivalen Anthropic. Om OpenAI inte kan stoppa dessa avhopp är företaget i princip klart, enligt analytiker Rob Enderle.

Direktlänk Dela New Delhi Television fördjupade 21 november

OpenAI:s styrelse sparkar VD Sam Altman, men beslutet kan komma att återkallas

AI-experten Gary Marcus har följt turbulensen på OpenAI med intresse. På fredagen chockade OpenAIs styrelse investerare och anställda genom att sparka VD Sam Altman. Men det verkar nu troligt att inte bara kommer styrelsens beslut att återkallas och Altman kommer att återgå till sitt inlägg, men styrelsemedlemmarna kommer också att stötas ut. Marcus, en emeritus professor i psykologi och neural vetenskap vid New York University och värd för Humans vs. Machines podcast, tror att det inte är ett gott tecken om det lätt kan övermannas.

Direktlänk Dela Fortune Media fördjupade 20 november

OpenAI:s VD Sam Altman avskedas oväntat av företagets styrelse

Sam Altman, VD för OpenAI, har oväntat avskedats av företagets styrelse. Styrelsen meddelade att Altman inte varit konsekvent öppen i sin kommunikation, vilket hindrat styrelsens förmåga att utöva sina ansvar. OpenAI grundades 2015 som en ideell organisation med målet att säkerställa att artificiell allmän intelligens gagnar hela mänskligheten. Bland grundarna fanns Altman och Reid Hoffman, medgrundare av LinkedIn, samt Amazon Web Services, indiska IT-företaget Infosys, högerteknikmiljardären Peter Thiel och Elon Musk. 2019 omvandlades OpenAI till två organisationer: OpenAI Global LLC och OpenAI Inc.

Direktlänk Dela The Guardian fördjupade 19 november

AI kan hota demokratiska processer och mänsklig existens, varnar experter

Accelerationen av artificiell intelligens (AI) kan redan störa demokratiska processer som val och kan till och med hota mänsklig existens, varnade AI-experter på Reuters NEXT-konferensen i New York. Explosionen av generativ AI har lett till både entusiasm för dess potential och rädsla för att den kan göra vissa jobb föråldrade, störa val och till och med möjligtvis överträffa människor. Företag använder alltmer AI för att fatta beslut, vilket kan leda till diskriminerande resultat. Dessutom finns det en växande oro för att AI kan bli så kraftfull att den utgör ett hot mot mänskligheten.

Direktlänk Dela Reuters fördjupade 9 november

AI-toppmöte på Bletchley Park slutar med löfte om fler toppmöten

Storbritanniens premiärminister Rishi Sunak har avslutat sin mycket omtalade AI-toppmöte på Bletchley Park. Resultatet verkar vara ett löfte om att hålla fler toppmöten. Under veckorna som ledde upp till toppmötet betonade Sunak upprepade gånger de potentiella riskerna som artificiell intelligens kan utgöra för samhället. Det huvudsakliga resultatet var det nya Bletchley-deklarationen, som undertecknades av 28 nationer, inklusive Kina och USA, och Europeiska unionen. Dokumentet gör dock inte mycket mer än att erkänna att det finns risker och lovar att utforska dem. Det enda konkreta åtgärden som lovas i formuleringen är att hålla fler toppmöten i framtiden.

Direktlänk Dela New Scientist fördjupade 2 november

FN tillkännager ny rådgivande styrelse för artificiell intelligens

Förenta Nationerna (FN) har tillkännagivit en ny rådgivande styrelse för artificiell intelligens (AI) bestående av 38 personer från regeringar, akademi och industri. Styrelsens uppdrag är att analysera och främja rekommendationer för internationell styrning av AI. FN har under den senaste månaden diskuterat strategi och tillvägagångssätt kring AI med branschledare och andra intressenter. Planen är att sammanställa rekommendationer om AI till sommaren 2024, då FN planerar att hålla en ”Summit of the Future”-händelse. Styrelsen kommer att arbeta med att bygga ett globalt vetenskapligt samförstånd om risker och utmaningar, hjälpa till att utnyttja AI för de hållbara utvecklingsmålen och förstärka internationellt samarbete om AI-styrning.

Direktlänk Dela TechCrunch fördjupade 27 oktober

» Nyheterna från en dag tidigare

Några av våra kursdeltagare