» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 232 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Hugging Face är ett företag som specialiserar sig på att utveckla Artificiell Intelligens (AI) och maskininlärningsteknik. De fokuserar främst på att skapa AI-modeller för naturlig språkbehandling (NLP) och konversations-AI, vilket hjälper datorer att förstå och kommunicera med människor på ett mer naturligt sätt. Hugging Face är känt för sitt arbete med Transformer-modeller och deras öppna källkodsramverk, som används av forskare och utvecklare över hela världen för att bygga och förbättra AI-system för språk och kommunikation.

Senaste nytt kring Hugging Face

Generativ AI: Ett energikrävande system belastar datacenter

Generativ AI är ett energikrävande system, enligt Sasha Luccioni på maskininlärningsföretaget Hugging Face. Dessa system kan använda cirka 33 gånger mer energi än maskiner som kör uppgiftsspecifik programvara. Detta skapar belastning på datacenter, som förväntas fördubbla sin energianvändning till 1 000 terawattimmar årligen fram till 2026, enligt Internationella energiorganet. I vissa länder, som Irland, förbrukar datacenter redan nästan en femtedel av landets el. Trots att hårdvaran bakom generativ AI ständigt utvecklas, och vissa framsteg görs för att minska energiförbrukningen, förväntas energibehoven för datacenter fortsätta att öka.

Direktlänk Dela Yahoo News Australia fördjupar idag
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Kan vi bli av med fördomar i artificiell intelligens?

Utmaningen för AI-giganter är att skapa artificiella intelligensmodeller som återspeglar världens mångfald utan att vara överdrivet politiskt korrekta. Artificiell intelligens byggd på potentiellt snedvriden information löper risk att automatisera diskriminering. Detta är särskilt brådskande i ChatGPT-eran, där AI kommer att generera allt fler beslut för hälso- och sjukvård, bankutlånare eller jurister. Joshua Weaver, direktör för Texas Opportunity & Justice Incubator, varnar för att människors och kulturens egna fördomar kan förstärkas genom AI. Företag har hamnat i problem för diskriminering genom användning av AI, som i fallet med den amerikanska apotekskedjan Rite-Aid. AI-giganter är medvetna om problemen och rädda för att deras modeller kan avspegla en västerländsk samhällsbild när deras användarbas är global. Men att motverka detta kan leda till anklagelser om överdriven politisk korrekthet, som när Googles bildgenerator Gemini genererade en bild av tyska soldater från andra världskriget som inkluderade en svart man och en asiatisk kvinna. Sasha Luccioni, forskare vid Hugging Face, varnar för att tro att det finns en teknologisk lösning på fördomar. Det är upp till människor att se till att AI genererar vad som är lämpligt eller uppfyller deras förväntningar. Men med den intensiva fokus på AI är detta ingen lätt uppgift. Hugging Face har cirka 600 000 AI- eller maskininlärningsmodeller tillgängliga på sin plattform. Det finns metoder under utveckling för att ta bort innehåll utan att förstöra hela modellen, men det råder tvivel om dessa faktiskt kan fungera. En annan metod skulle ´uppmuntra´ en modell att gå i rätt riktning, ´finjustera´ den, ´belöna för rätt och fel´, säger Ram Sriharsha, teknisk chef på Pinecone. Pinecone är specialist på återhämtningsförstärkt generering (eller RAG), en teknik där modellen hämtar information från en fast betrodd källa. Weaver menar att dessa ´nobla´ försök att fixa fördomar är ´projektioner av våra förhoppningar och drömmar om hur en bättre version av framtiden kan se ut.´ Men fördomar ´är också inneboende i vad det innebär att vara människa och därför är de också inbakade i AI´, säger han.

Direktlänk Dela Tech Xplore fördjupade i förrgår

Är GPTs bra inbäddningsmodeller? Ett överraskande experiment visar att detaljerna är viktiga

Enligt MTEB-ledartavlan är de fem bästa inbäddningsmodellerna generativa förtränade transformatorer (GPTs). Men är dessa verkligen de bästa för inbäddningar? Ett experiment utfört av Yu-Cheng Tsai visar att det kan vara mer komplicerat. Genom att använda GPT-modeller kan du få inbäddade vektorer, men processen är mer komplex än så. Tsai använde en tokenizer för att konvertera text till token-ID och passera dem genom ett neuralt nätverk för att få utdata. Med hjälp av kosinlikhet kan man sedan mäta kvaliteten på dessa GPT-inbäddningar. Trots att GPT-modellerna rankas högt, kan resultaten variera beroende på relevansen mellan par av frågor och svar. Detta tyder på att användning av GPT-modeller som inbäddningsmodeller kanske inte alltid ger bästa resultat. Men genom att använda kontrastförlust kan inbäddningarna bli mer meningsfulla och diskriminerande.

Direktlänk Dela Towards Data Science fördjupade i förrgår

Microsoft äger Chat GPT genom förvärvet av Hugging Face

Microsoft har investerat kraftigt i AI och forskning inom naturlig språkbehandling (NLP), vilket har lett till skapandet av Chat GPT. Microsoft förvärvade Hugging Face, en ledande leverantör av NLP-teknologier, den 16 september 2021 för 4,5 miljarder dollar. Förvärvet gav Microsoft tillgång till en mängd verktyg och teknologier som används av Hugging Face, samt en stor talangpool av experter inom NLP. Microsofts huvudmål med investeringen i Chat GPT var att förbättra sin förmåga att utveckla avancerade språkmodeller. Trots detta äger inte Microsoft Chat GPT eller någon annan NLP-teknologi utvecklad av företaget, utan licensierar teknologin till tredjepartsutvecklare och företag.

Direktlänk Dela MIS Asia fördjupade 18 maj

Hugging Face engagerar 10 miljoner dollar i fria delade GPU:er för att stödja AI-utveckling

Hugging Face, ett ledande namn inom maskininlärning, åtar sig att ge 10 miljoner dollar i gratis delade GPU:er för att hjälpa utvecklare att skapa nya AI-teknologier. Målet är att hjälpa små utvecklare, akademiker och startups att motverka centraliseringen av AI-utveckling. Hugging Face är i en position där de kan investera i gemenskapen eftersom företaget nyligen höjde 235 miljoner dollar i finansiering, vilket värderar företaget till 4,5 miljarder dollar. Företagets VD, Clem Delangue, uttryckte oro över AI-startups förmåga att konkurrera med teknikjättarna. Hugging Face syftar till att göra toppmoderna AI-teknologier tillgängliga för alla, inte bara teknikjättarna.

Direktlänk Dela The Verge fördjupade 16 maj

Tencent lanserar uppgraderad version av sitt stora språkmodell med text-till-bild-funktion

Kinesiska Tencent Holdings, en jätte inom videospel och sociala medier, har lanserat en uppgraderad version av sin stora språkmodell (LLM) med text-till-bild-generering som är öppen källkod för företag och individer. Den åtta månader gamla Hunyuan stora språkgrundmodellen utvecklad av Tencent genomgick en större uppgradering tidigare i år, vilket förbättrade dess totala prestanda med 20 procent jämfört med den tidigare versionen. Företaget tillade att dess primära databas är på kinesiska, vilket gör att verktyget effektivt och korrekt kan förstå kinesiska språkkommandon.

Direktlänk Dela South China Morning Post fördjupade 16 maj

Fujitsu och AI-forskare utvecklar språkmodell med Fugaku-superdatorn

Fujitsu och ett forskarlag har utvecklat en stor språkmodell utbildad på Fugaku-superdatorn. Modellen, Fugaku-LLM, kan hantera både engelsk och japansk text och är i huvudsak utbildad på japansk text. Modellen har 13 miljarder parametrar, vilket är större än de 7 miljarder parametrar som har sett bredare användning i Japan, som Alibaba Clouds Qwen-7B och RakutenAI-7B. Fugaku-LLM kan också utföra naturlig dialog baserad på Keigo, en hedersspråk som används i Japan. Modellen kan användas för att utveckla kommersiella och icke-kommersiella applikationer.

Direktlänk Dela AI Business fördjupade 15 maj

Anthropic lanserar Claude AI-mobilapp och ny betalplan

Anthropic, företaget som specialiserar sig på att utveckla artificiella intelligensmodeller, har äntligen lanserat sin efterlängtade mobilapp Claude. Denna nya app kommer att erbjuda användarna större flexibilitet i användningen av Claudes AI-modeller, som fram till nu endast var tillgängliga via Claude.ai-webbplatsen och vissa tredjepartsmodellbibliotek. Mobilappen Claude representerar en stor utveckling för Anthropic, och låter användare komma åt Claudes AI-modeller direkt från sin iOS-enhet. Dessutom meddelade Anthropic införandet av en ny betalplan som låter team dela tillgång till Claude AI-modeller.

Direktlänk Dela Syrus Today fördjupade 14 maj

Google introducerar Gemini 1.5 för att förbättra konversationella och multimodala förmågor

Google gör betydande framsteg inom AI med sin senaste modell, Gemini 1.5, designad för att förbättra konversationella och multimodala förmågor och positionera sig som en stark konkurrent till OpenAI:s GPT-4. Gemini 1.5 representerar ett språng i AI-tekniken, med sin effektiva arkitektur och långa kontextfönster som gör att den kan bearbeta upp till en miljon tokens. Modellen har integrerats i Googles produkter, inklusive Bard chatbot, vilket förbättrar dess lärande- och resonemangsförmågor avsevärt. Google planerar att fortsätta förbättra Gemini, med löften om uppgraderingar som Gemini Ultra-modellen.

Direktlänk Dela PC-Tablet fördjupade 14 maj

U.K. Safety Institute lanserar AI-säkerhetsverktyg ´Inspect´

Det nyligen etablerade U.K. Safety Institute har lanserat en verktygssats för att stärka AI-säkerheten. Verktyget, kallat Inspect, är tillgängligt under en öppen källkodslicens och syftar till att utvärdera vissa kapaciteter hos AI-modeller och generera ett resultat baserat på resultaten. Verktyget består av tre grundläggande komponenter: datauppsättningar, lösningsmedel och poängsättare. Inspect kan utökas med tredjepartspaket skrivna i Python. Clément Delangue, VD för AI-startup Hugging Face, föreslog att integrera Inspect med Hugging Faces modellbibliotek eller skapa en offentlig ledartavla med resultaten av verktygssatsens utvärderingar.

Direktlänk Dela TechCrunch fördjupade 11 maj

Mistral AI höjer kapital för att konkurrera mot OpenAI och Anthropic

Paris-baserade startupen Mistral AI, som arbetar med öppen källkod för stora språkmodeller, har höjt pengar till ett värde av 6 miljarder dollar för att konkurrera mer intensivt mot företag som OpenAI och Anthropic. Investerare som DST, General Catalyst och Lightspeed Venture Partners är alla intresserade av att delta i denna investeringsrunda. Rundan förväntas ligga runt, men under, 600 miljoner dollar. SoftBank, som tidigare nämnts flera gånger, är för närvarande inte delaktig i affären. Mistrals senaste finansieringsrunda har varit föremål för mycket spekulationer de senaste månaderna, men företaget har inte avslöjat hur många användare det har eller hur dess intäkter ser ut.

Direktlänk Dela Yahoo News Canada fördjupade 11 maj
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Mistral AI samlar in kapital till värdering på $6 miljarder för att konkurrera med OpenAI och Anthropic

Paris-baserade tech-startupen Mistral AI, som arbetar med öppen källkodsmodeller för stora språk - byggstenarna för generativa AI-tjänster - har höjt kapital till en värdering på $6 miljarder, tre gånger dess värdering i december. Investerare som DST, General Catalyst och Lightspeed Venture Partners planerar att delta i denna finansieringsrunda. Rundan förväntas vara omkring, men mindre än, $600 miljoner. Företaget SoftBank nämndes flera gånger men är inte involverat i affären. Mistral AI har släppt tre stora språkmodeller sedan starten i september 2023, men har inte offentliggjort antalet användare eller intäkter.

Direktlänk Dela Yahoo News Australia fördjupade 11 maj

Mistral AI samlar in pengar till en värdering av 6 miljarder dollar för att konkurrera mot OpenAI och Anthropic

Paris-baserade start-up företaget Mistral AI, som arbetar med open source stora språkmodeller för generativ AI-tjänster, samlar in pengar till en värdering av 6 miljarder dollar för att konkurrera mer effektivt mot OpenAI och Anthropic. Investerare som DST, General Catalyst och Lightspeed Venture Partners överväger att delta i denna finansieringsrunda. Mistral AI:s värdering har ökat från 5 miljarder dollar till 6 miljarder dollar på bara några veckor. Företaget har släppt tre språkmodeller sedan lanseringen i september 2023, men har inte avslöjat antalet användare eller intäkter.

Direktlänk Dela Yahoo Movies UK fördjupade 11 maj

Fujitsu släpper Fugaku-LLM, en stor språkmodell med avancerad japansk språkbearbetning

Fujitsu har släppt sin Fugaku-LLM, en stor språkmodell med avancerade japanska språkbearbetningsfunktioner som är utformad för både forskning och kommersiella tillämpningar. Fugaku-LLM tränades med 380 miljarder tokens på 13 824 noder av Fugaku-superdatorn baserad på A64FX-processorn. Modellen har 13 miljarder parametrar, vilket är mindre än GPT-4:s 175 miljarder, men kräver inte enorma beräkningsresurser för inferens, vilket är optimalt för företag och forskare i Japan. Fugaku-LLM är nu tillgänglig för både akademiska och kommersiella ändamål under specificerade licensvillkor från GitHub och Hugging Face.

Direktlänk Dela Tom´s Hardware fördjupade 11 maj

Japanska forskare lanserar Fugaku-LLM, en stor språkmodell med förbättrad japansk språkförmåga

Ett forskarteam i Japan har lanserat Fugaku-LLM, en stor språkmodell med förbättrad japansk språkförmåga, med hjälp av RIKENs superdator Fugaku. Teamet utvecklade distribuerade träningsmetoder för att träna stora språkmodeller på Fugaku, inklusive portering av det djupa inlärningsramverket Megatron-DeepSpeed till Fugaku för att optimera prestandan för Transformers på Fugaku. Fugaku-LLM har 13 miljarder parametrar och är större än de 7-miljardersparametrar-modeller som har utvecklats i Japan. Fugaku-LLM är tillgänglig på GitHub och kan användas för forskning och kommersiella ändamål.

Direktlänk Dela HPCwire fördjupade 10 maj

Mistral AI samlar in pengar till en värdering på 6 miljarder dollar

Parisbaserade startup Mistral AI, som arbetar med stora språkmodeller med öppen källkod, har samlar in pengar till en värdering på 6 miljarder dollar för att konkurrera mer intensivt mot OpenAI och Anthropic. Investeringsfonden DST, tillsammans med General Catalyst och Lightspeed Venture Partners, planerar att delta i denna finansieringsrunda. Rundan beräknas vara på mindre än 600 miljoner dollar. Mistral AI:s finansieringsrunda bygger på ett stort intresse och har pågått sedan mars. Företaget har släppt tre stora språkmodeller sedan lanseringen i september 2023.

Direktlänk Dela Yahoo News UK fördjupade 10 maj

Hugging Face lanserar ny poängtavla för att förbättra AI:s förståelse av hebreiska

Hebreiska anses vara ett lågresursspråk inom AI. Det har ett sofistikerat rotsystem och är ett morfologiskt rikt språk. På grund av detta kan nuvarande språkmodeller ha svårt att tolka och processa hebreiskans subtiliteter korrekt. En ny studie från Hugging Face syftar till att revolutionera detta område med sin banbrytande initiativ: den helt nya öppna LLM-poängtavlan. Denna poängtavla, utformad för att bedöma och förbättra hebreiska språkmodeller, är ett betydande steg mot att förbättra vår förståelse och bearbetning av hebreiskans komplexitet. Hugging Face-teamet har skapat fyra väsentliga dataset för att utvärdera språkmodellernas förståelse och produktion av hebreiska.

Direktlänk Dela MarkTechPost fördjupade 9 maj

Eclypsium introducerar nya säkerhetsfunktioner för GenAI-teknikstacken

Eclypsium har tillkännagivit nya GenAI-bedömningsfunktioner för sin Supply Chain Security Platform. De nya funktionerna hjälper till att säkra de grundläggande lagren av GenAI-teknikstacken genom stöd för NVIDIA-hårdvara och populära GenAI-grundmodeller. När efterfrågan på GenAI ökar snabbt, förändras IT-infrastrukturen snabbt för att tillgodose kraven på utbildning och inferens. Eclypsiums tillagda stöd för NVIDIA-hårdvara innebär att molntjänstleverantörer och andra datacenteroperatörer kan identifiera sårbarheter och osäkra konfigurationer och upptäcka kompromisser.

Direktlänk Dela Help Net Security fördjupade 8 maj

8th Wall tillkännager nya GenAI-moduler för att integrera Inworld och OpenAI i WebAR-upplevelser

8th Wall, ett dotterbolag till Niantic och en leverantör av en webbaserad plattform för augmenterad verklighet (WebAR), har tillkännagivit introduktionen av Generative AI (GenAI) -moduler och provprojekt till sin plattform för Inworld och OpenAI. GenAI kombinerat med 8th Walls WebAR erbjuder nu utvecklare, varumärken och byråer ett nytt sätt att utnyttja kreativa resurser och ge publiken större kontroll över immersiva upplevelser. GenAI-teknologin inkluderar DALL·E och Stable Diffusion för att lägga till text-till-bild-input, Blockade Labs för att lägga till 360-graders bilder till himlen, Inworld AI för att införliva mänsklika interaktiva karaktärer, Hugging Face och ControlNet för att lägga till textur till ansiktet, eller Move.ai och Wonder Dynamics för att lägga till realistisk rörelse.

Direktlänk Dela Auganix fördjupade 8 maj

Virtuella affärsmöten förväntas bli allt vanligare, AI kan automatiskt sammanfatta möten

Enligt en undersökning utförd av American Express 2023 förväntas 41% av affärsmöten att äga rum i hybrid- eller virtuellt format till 2024. Ett effektivt sätt att hantera mötessammanfattningar är att skapa dem automatiskt i slutet av ett samtal med hjälp av generativ AI och tal-till-text-teknologier. Detta tillåter deltagare att fokusera enbart på konversationen, med vetskapen att en transkription kommer att göras tillgänglig automatiskt i slutet av samtalet. En lösning presenteras för att automatiskt generera en mötessammanfattning från ett inspelat virtuellt möte med flera deltagare.

Direktlänk Dela Amazon Web Services fördjupade 7 maj

Anthropic, stöttat av Amazon, framträder som en nyckelspelare inom AI

Anthropic, stöttat av bland annat Amazon, har framträtt som en betydande aktör inom AI. Företaget har nyligen lanserat sin AI-produktsvit, Claude, som rivaliserar med OpenAI:s ChatGPT. Anthropic kan vara bättre rustat att ta sig an kostnaderna jämfört med sina konkurrenter, tack vare Amazons fortsatta investeringar i företaget. Amazon har sagt att det kommer att investera upp till 4 miljarder dollar i Anthropic; denna senaste utbetalning tar det till det fulla beloppet. Anthropic grundades 2021 av syskonen Dario och Daniela Amodei efter att de lämnat sina jobb på nuvarande konkurrenten OpenAI för att fokusera på att bygga säker AI. Sedan den ursprungliga lanseringen har Anthropic släppt en rad nya AI-modeller.

Direktlänk Dela Yahoo News Canada fördjupade 6 maj
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Anthropic lanserar Claude mobilapp för iOS

AI-företaget Anthropic har äntligen lanserat en mobilapp för sin AI-assistent Claude på iOS. Appen erbjuder gratis och betalande prenumeranter tillgång till Claude-chatbotten som kan bearbeta text och tolka bilder. Appen synkroniseras sömlöst med claude.ai-webbplatsen så att användare helt enkelt kan ´ta vid där de slutade´. Det finns dock ett villkor: de måste använda en iPhone. Claude.ai är inte en ny tjänst - Anthropic släppte först chatbotten tidigt förra året för företag. Anthropic har också meddelat en ny Teams-plan för företagsprenumeranter.

Direktlänk Dela Notebookcheck fördjupade 3 maj

Intel når milstolpe med över 500 AI-modeller optimerade för Core Ultra-processorer

Dataprocessortillverkaren Intel meddelar att de har nått en milstolpe inom AI med över 500 AI-modeller nu optimerade med sina Core Ultra-processorer. Detta var möjligt tack vare Intels investeringar i klient-AI, ramverksoptimeringar och AI-verktyg, inklusive OpenVINO-verktyget. Modellerna kan kategoriseras i olika kategorier som storspråk, bildklassificering och segmentering, lokal AI-infärande, objektdetektering, datorvision och 15 andra. Vice VD och AI och teknisk marknadschef för Intel, Robert Hallock, firade denna milstolpe och sa att företaget har en rik historia av att arbeta med ekosystemet för att föra AI-applikationer till klientsenheter. Han tillade att detta oöverträffade urval återspeglar deras engagemang för att bygga inte bara PC-industrins mest robusta verktygskedja för AI-utvecklare, men också en stabil grund AI-programvaruanvändare kan lita på. Intel markerade att dess Core Ultra-processor är den snabbast säljande AI PC-processorn och att den har sålt fler av dessa på ett kvartal jämfört med konkurrenternas processorer, som de sålde under hela 2023.

Direktlänk Dela Cryptopolitan fördjupade 2 maj

Mistral AI utvecklar avancerad språkmodell MIXTRAL 8x22B

Mistral AI har utvecklat MIXTRAL 8x22B, en språkmodell som representerar nya framsteg inom naturlig språkbearbetning (NLP). Modellen är utformad för att effektivt och noggrant hantera komplex flerspråkig data och stöder en mängd olika språk, inklusive engelska, franska, tyska, spanska, italienska och mer. Den avancerade arkitekturen möjliggör snabb bearbetning av stora mängder data och har en omfattande kontextfönster på 64 000 tokens. Modellen är tillgänglig på den populära Hugging Face-plattformen och har en kraftfull Retrieval-Augmented Generation (RAG) -funktion som optimerar datahämtnings effektivitet.

Direktlänk Dela Geeky Gadgets fördjupade 2 maj

Intel Core Ultra-processorer driver över 500 AI-modeller

Intel har meddelat att deras Core Ultra-processorer nu kan köra över 500 AI-modeller. Detta är ett resultat av Intels satsning på klient-AI, AI PC-transformation, ramverksoptimeringar och AI-verktyg, inklusive OpenVINO-verktygssats. De 500 modellerna kan användas över CPU, GPU och NPU och finns tillgängliga från populära branschkällor, inklusive OpenVINO Model Zoo, Hugging Face, ONNX Model Zoo och PyTorch. Dessa framsteg gör Intel Core Ultra-processorn till den snabbast växande AI PC-processorn hittills och den mest robusta plattformen för AI PC-utveckling.

Direktlänk Dela Wccftech fördjupade 1 maj

Anthropic lanserar iOS-app och ny betalplan för Claude 3 AI-modeller

Anthropic, som tillverkar AI-modellerna Claude 3, lanserar en iOS-app och en andra betalplan för grupper att dela tillgång till modellerna. Claude-appen kan fungera som en chatbot och användare kan också ladda upp foton direkt till appen för ´bildanalys´. Appen kommer att vara gratis för alla användare av Claude AI-modeller, inklusive gratisanvändare, prenumeranter på Claude Pro och den nya Claude Team-planen. Anthropic planerar också att lansera en Android-version inom kort.

Direktlänk Dela The Verge fördjupade 1 maj

JFrog integrerar MLflow för förbättrad maskininlärningslivscykel

Programvaruleveranskedjeplattformen JFrog har meddelat en ny integration med MLflow, en öppen källkodsplattform från Databricks, för att förbättra maskininlärningslivscykeln. Detta bygger vidare på JFrogs tidigare integrationer med Qwak och Amazon SageMaker, vilket stärker dess närvaro inom AI-lösningshantering. Det nya JFrog-pluginet för MLflow förbättrar plattformen genom att styra artefaktlagring till JFrog Artifactory. JFrog Artifactory fungerar nu också som en universell modellregister, vilket gör utvecklingen, hanteringen och distributionen av maskininlärningsmodeller och GenAI-drivna applikationer smidigare.

Direktlänk Dela Application Development Trends Magazine fördjupade 30 april

Sektorspecifika AI-modeller kan hjälpa till att bekämpa klimatförändringar

AI-modeller kan anpassas för specifika sektorer och användas för att lösa utmaningar som klimatförändringar. Agrepreneur har utvecklat en AI-driven agri-fintech-plattform som ger realtidsråd till småbrukare om jordbrukshantering. Viamo är en annan AI-lösning som ger råd om hållbara jordbruksmetoder via röstuppringningar. ClimateGPT är ett AI-verktyg utbildat på tvärvetenskaplig forskning för att ge användare en helhetssyn på klimatförändringarna. Sektorspecifika AI-modeller kan vara särskilt användbara för Asien och Stillahavsområdet, som är mycket utsatta för extrema väderhändelser på grund av klimatförändringarna. Med relativt minimala krav kan sektorspecifika modeller byggas av enskilda individer eller institutioner, oavsett storleken på datamängden eller modellens komplexitet. AI-modeller kan byggas genom att definiera dess omfång och syfte, förbereda träningsdata, anpassa modellen med hjälp av plattformar som GitHub och Hugging Face, och sedan träna modellen med kontinuerlig utvärdering och finjustering för att säkerställa noggrannhet och sammanhang. Beroende på modellens komplexitet och tillgängliga resurser kan det ta allt från några timmar till veckor innan en fungerande klimatmodell är redo för driftsättning. Användare som utvecklar sina egna sektorspecifika modeller bör vara medvetna om att AI-modeller är starkt beroende av data. Dålig datakvalitet resulterar i dåliga analyser och eventuella bias i data kan återspeglas i vad AI-modellen producerar. I framtiden kommer mindre modeller att implementeras under ansvarsfulla AI-ramverk.

Direktlänk Dela Express Tribune fördjupade 29 april

Mistral.rs: En ny plattform för snabbare språkmodellsinferens

Utmaningen med långsam språkmodellsinferens i artificiell intelligens kan nu tacklas med en ny plattform, Mistral.rs. Plattformen erbjuder olika funktioner för att göra inferensen snabbare och mer effektiv på olika enheter. Den stöder kvantisering, vilket minskar modellens minnesanvändning och snabbar upp inferensen. Dessutom tillhandahåller Mistral.rs en lättanvänd HTTP-server och Python-bindningar, vilket gör det tillgängligt för utvecklare att integrera i sina applikationer. Mistral.rs stöder även avancerade tekniker som Flash Attention V2 och X-LoRA MoE, vilket ytterligare förbättrar inferenshastigheten och effektiviteten.

Direktlänk Dela MarkTechPost fördjupade 29 april

AI-modelltjänstmarknaden växer, enligt Orbis Research

Orbis Research har publicerat en rapport om marknaden för AI-modelltjänster. Rapporten ger en detaljerad analys av marknadsdynamiken och hjälper företagsledare att skapa robusta strategier och fatta informerade beslut för hållbar tillväxt. Rapporten analyserar marknadsandelar av nyckelspelare, konkurrensstrategier och marknadspositionering. Den sträcker sig också utanför traditionella gränser genom att erbjuda insikter i potentiella investeringsmöjligheter. Rapporten betonar konkurrensanalys och ger en omfattande översikt över den konkurrensutsatta landskapet.

Direktlänk Dela Amore Nigeria fördjupade 28 april

Microsoft utvecklar kompakt AI-modell med hög prestanda

Microsoft har utvecklat Phi-3 Mini, en AI-modell med höga prestanda som kan köras på din telefon eller bärbara dator. Trots att den bara väger in på 3,8 miljarder parametrar, hävdar Microsoft att denna lilla högpresterande modell kan producera resultat nära vad man skulle få från en modell 10 gånger dess storlek. Microsoft planerar att följa upp Mini med Phi-3 Small (7 miljarder parametrar) och Phi-3 Medium (14 miljarder) senare. Microsofts forskare har uppnått fantastiska resultat genom att raffinera träningsdata. Modellen är redan tillgänglig på Azure moln, samt via open-source AI-modellvärdar Hugging Face och Ollama.

Direktlänk Dela TechSpot fördjupade 27 april

Snowflake AI Research lanserar Arctic - en kostnadseffektiv och avancerad AI-modell

Snowflake AI Research har lanserat Arctic, en banbrytande open-source stor språkmodell (LLM) specifikt utformad för företags-AI-applikationer, vilket sätter en ny standard för kostnadseffektivitet och tillgänglighet. Arctic kan hantera SQL-generering, kodning och instruktioner effektivt genom att använda en unik Dense-MoE Hybrid transformer-arkitektur. Modellen är designad för att vara anpassningsbar och skalbar för att möta olika företags behov. Snowflake Arctic är open-source under Apache 2.0-licensen för att förbättra transparens och samarbete.

Direktlänk Dela MarkTechPost fördjupade 26 april

Meta lanserar Llama 3 för säkrare AI-upplevelse

Meta har lanserat Llama 3, den senaste stora språkmodellen (LLM) för en säkrare och mer exakt generativ AI-upplevelse. Tillsammans med LLM introducerade Meta Llama Guard 2, Code Shield och CyberSec Eval 2, verktyg för att säkerställa överensstämmelse med branschens och användarnas säkerhetsförväntningar. Meta utvecklar fortfarande Llama 3 AI-modeller, men företaget släpper de första två modellerna till allmänheten nu. Företag som snart kommer att vara värd för Llama 3 LLM inkluderar AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, Nvidia NIM och Snowflake. LLM kommer också att stödjas på hårdvara från AMD, AWS, Dell, Intel, Nvidia och Qualcomm.

Direktlänk Dela All About Circuits fördjupade 26 april

Apple planerar att förbättra iPhone 16-serien med avancerade AI-funktioner

Apple planerar att förbättra iPhone 16 och iPhone 16 Pro med avancerade AI-funktioner. Företaget utvecklar kompakta men kraftfulla stora språkmodeller (LLMs), designade speciellt för mobilintegration. Genom sitt engagemang med Hugging Face hub har Apple registrerat en serie av LLMs. Dessa är avgörande för funktionen hos generativa AI-appar. Apple förväntas förbättra sin Axx-chipserie för att möjliggöra lokal AI-beräkning för iPhone 16-serien. Apple har också visat sitt samarbete med akademiska sektorer genom ett partnerskap med Cornell University. Deras gemensamma forskning utforskar LLMs för att hjälpa synskadade användare och effektivisera röststyrd navigering.

Direktlänk Dela Smartphonemagazine.nl fördjupade 25 april

Hugging Face´s talardiarisering integreras med Amazon SageMaker

Talardiarisering är en viktig process inom ljudanalys som segmenterar en ljudfil baserat på talarens identitet. Hugging Face´s PyAnnote kan nu integreras med Amazon SageMaker för talardiarisering. Detta ger en omfattande guide för att distribuera talarsegmentering och klusterlösningar med SageMaker på AWS Cloud. Lösningen kan användas för applikationer som hanterar flertalig (över 100) ljudinspelningar. Hugging Face är en populär öppen källkodshubb för maskininlärningsmodeller. AWS och Hugging Face har ett partnerskap som möjliggör sömlös integration genom SageMaker med AWS Deep Learning Containers för träning och inferens i PyTorch eller TensorFlow.

Direktlänk Dela Amazon Web Services fördjupade 25 april

Apple förväntas lansera iOS 18 med nya AI-funktioner

Apple förväntas tillkännage uppdateringen av iPhone-programvaran iOS 18 på WWDC 2024 den 10 juni. Uppdateringen tros vara full av nya AI-funktioner från Apple. Även om de exakta funktionerna ännu inte är kända, har det rapporterats om överväganden kring integritet och hastighet. Apple planerar att göra sina AI-funktioner snabbare och mer privata genom att hålla de stora språkmodellerna (LLM) som gör dem möjliga på själva iPhone. Projektet, kallat OpenELM, är tillgängligt på Hugging Face Hub, en gemenskap för att dela kod som är avsedd för AI-ändamål.

Direktlänk Dela iMore fördjupade 25 april

Microsoft introducerar Phi-3, en ny familj av små språkmodeller

Microsoft har introducerat Phi-3, en ny familj av små språkmodeller (SLMs) som syftar till att leverera hög prestanda och kostnadseffektivitet i AI-applikationer. Dessa modeller har visat starka resultat över benchmarks inom språkförståelse, resonemang, kodning och matematik jämfört med modeller av liknande och större storlekar. Den första modellen i Phi-3-serien är Phi-3-mini, en 3,8B parametermodell nu tillgänglig på Azure AI Studio, Hugging Face och Ollama. Phi-3-mini har finjusterats för ONNX Runtime och NVIDIA GPU:er. Microsoft planerar att utöka Phi-3-familjen snart med lanseringen av Phi-3-small (7B parametrar) och Phi-3-medium (14B parametrar).

Direktlänk Dela Unite.AI fördjupade 25 april

Nova AI strävar efter att överträffa konkurrenter med unika testverktyg och minskad användning av OpenAI

Nova AI, ett startup-företag som är ett år gammalt och nyligen har samlat in en miljon dollar i en pre-seed-runda, strävar efter att överträffa sina konkurrenter med sina verktyg för testning från början till slut. Företaget, som strävar efter att bryta många av Silicon Valleys regler för hur startups borde fungera, riktar sig mot företag av medelstorlek till stora företag med komplexa kodbasar. Nova AI:s teknik genomsöker sina kunders kod för att automatiskt bygga tester med hjälp av GenAI. Nova AI använder OpenAI:s Chat GPT-4 så lite som möjligt och matar inte kunddata till OpenAI. Istället förlitar sig Nova AI tungt på öppna källkodsmodeller som Llama utvecklad av Meta och StarCoder, samt bygger sina egna modeller.

Direktlänk Dela TechCrunch fördjupade 25 april

Nova AI samlar in $1 miljon för att förbättra kodtestning med AI

Nova AI, en startup som är ett år gammal och som har tagit examen från Unusual Academy-acceleratorn, har samlat in en för-seed-runda på $1 miljon. Företaget försöker överträffa sina konkurrenter med sina verktyg för end-to-end-testning genom att bryta många av Silicon Valley-reglerna för hur startups bör fungera. Nova AI siktar på medelstora till stora företag med komplexa kodbaser. Företagets teknik går igenom sina kunders kod för att automatiskt bygga tester med GenAI. Nova AI använder OpenAI´s Chat GPT-4 så lite som möjligt och matar inte kunddata till OpenAI. Istället förlitar sig Nova AI tungt på öppen källkodsmodeller som Llama utvecklad av Meta och StarCoder.

Direktlänk Dela Startup News fördjupade 24 april

Snowflake lanserar stort språkmodell, Arctic, för företag

Snowflake har tillkännagett sin stora språkmodell (LLM), Snowflake Arctic, utformad för att sätta en standard för öppna företagsklassade LLM. Arctic, optimerad för komplexa företagsarbetsbelastningar, syftar till att sätta en ny öppenhetsstandard för företags AI-teknologi. Arctic lovar att förbättra både träningssystem och modellprestanda, med en datakomposition inriktad på företagsbehov. Enligt Snowflake levererar Arctic högkvalitativa resultat genom att aktivera 17 av 480 miljarder parametrar åt gången för att uppnå kvalitet med token-effektivitet.

Direktlänk Dela ERP Today fördjupade 24 april

Snowflake introducerar kostnadseffektiv AI-modell, Arctic

Databasföretaget Snowflake introducerar en ny stor språkmodell (LLM) till AI-ekosystemet, kallad Snowflake Arctic. Arctic är designad för komplexa företagsarbetsbelastningar och dess kostnadseffektivitet är en viktig höjdpunkt. Den kan effektivt utföra uppgifter som SQL-generering, kodning och instruktionsföljning. Arctic är jämförbar med LLama 3 8B och Llama 2 70B i företagsintelligens men använde mindre än hälften av träningsbudgetarna. Arctic är också öppen källkod under Apache 2.0-licensen och är nu tillgänglig via Hugging Face och kommer snart till andra modellträdgårdar.

Direktlänk Dela Software Development Times fördjupade 24 april

Apple delar fyra öppen källkodsmodeller för att förbättra framtida AI

Apple har offentligt delat fyra öppen källkodsmodeller med förbättrad exakthet för frågor, vilket kan hjälpa till med utvecklingen av framtida AI-modeller. Modellerna kallas Open Source Efficient LLMs, eller OpenELMs, och är värd på samarbetsplattformen Hugging Face. OpenELM hänvisar till ett öppen källkodsbibliotek som kombinerar flera stora språkmodeller (LLMs) med hjälp av evolutionära algoritmer. Modellerna använde en ´lager-skalastrategi´ för att fördela parametrar inom lager av en transformerande modell för ökad exakthet. Forskarna bakom projektet säger att reproducerbarheten och transparensen hos stora språkmodeller är ´avgörande för att främja öppen forskning´.

Direktlänk Dela AppleInsider fördjupade 24 april

Snowflake utvecklar öppen källkodsmodell för storskaligt språk för att konkurrera med andra modeller

Data warehouse-företaget Snowflake har utvecklat en öppen källkodsmodell för storskaligt språk (LLM), Arctic, för att konkurrera med modeller som Meta´s Llama 3, Mistral´s familj av modeller, xAI´s Grok-1 och Databricks DBRX. Arctic är inriktad på företagsuppgifter som SQL-generering, kodgenerering och instruktionsföljande. Modellen kan nås via Snowflakes maskininlärning och AI-tjänst, Cortex, och kan laddas ner från Hugging Face. Arctic använder en blandning av experter (MoE) arkitektur och består av 128 mindre modeller. Snowflake hävdar att Arctic presterar bättre än de flesta öppen källkodsmodeller och använder mindre datorkraft för träning.

Direktlänk Dela InfoWorld fördjupade 24 april

Snowflake lanserar Arctic: Den mest öppna, företagsklassade stora språkmodellen

Data Cloud-företaget Snowflake har lanserat Snowflake Arctic, en toppmodern stor språkmodell (LLM) som är unikt utformad för att vara den mest öppna, företagsklassade LLM på marknaden. Med sin unika Mixture-of-Experts (MoE) arkitektur levererar Arctic toppklassig intelligens med oöverträffad effektivitet i skala. Den är optimerad för komplexa företagsarbetsbelastningar och slår flera branschstandarder inom SQL-kodgenerering, instruktionsföljande och mer. Dessutom släpper Snowflake Arctics vikter under en Apache 2.0-licens och detaljer om forskningen som ledde till hur den tränades.

Direktlänk Dela Morningstar fördjupade 24 april

Snowflake lanserar Arctic LLM, en AI-modell optimerad för företag

Molndatatjänstföretaget Snowflake har lanserat Arctic LLM, en generativ AI-modell anpassad för företagsarbetsbelastningar. Arctic LLM, som är optimerad för att generera databaskod, är tillgänglig under en Apache 2.0-licens och är gratis för både forskning och kommersiellt bruk. Modellen tog cirka tre månader, 1 000 GPU:er och 2 miljoner dollar att träna. Snowflake jämför Arctic LLM med Databricks DBRX och hävdar att deras modell presterar bättre på kodning och SQL-generering. Arctic LLM kommer först att finnas tillgänglig på Cortex, Snowflakes plattform för att bygga AI- och maskininlärningsdrivna appar och tjänster.

Direktlänk Dela TechCrunch fördjupade 24 april

Ökning av AI-drivna lösningar inom flera sektorer förväntas

Det är mycket troligt att vi kommer att se framväxten av många AI-drivna lösningar som kommer att härledas från grundläggande modeller, som användargränssnitt, chatbots eller särskilda uppgifter för tjänstesektorn. Investerare ser stora möjligheter inom sektorer som medicin och hälsovård, kundsupport, datahantering, bearbetning och moln, och fintech. Dessa sektorer har lockat enorma mängder privata investeringar endast under 2022 och 2023. De flesta av dessa lösningar kommer sannolikt inte att köras i den offentliga domänen. Företag som äger privat information kanske vill utveckla tjänster för att låsa upp dessa på ett mer intelligent (AI-liknande) sätt.

Direktlänk Dela ING Group fördjupade 24 april

Indisk AI behöver mer investeringar för att bygga komplexa modeller

Vishnu Vardhan, grundare och VD för SML och Vizzhy, planerar att samla in 200-300 miljoner dollar för att bygga och skala komplexa AI-modeller. Han påpekade att indiska investerare är ovilliga att investera stora belopp i AI-forskning. Nyligen godkände den indiska regeringen 1,25 miljarder dollar i investeringar för AI-projekt, inklusive utveckling av LLMs och datorkapacitet. Trots detta har Indien haft svårt att samla in investeringar för att bygga komplexa AI-modeller, medan USA har lyckats. Företagsledare uppmanar Indien att vara ´djärvt´ och tilldela en 30-40 miljarder dollar suverän AI-investeringsplan för de närmaste 2-3 åren.

Direktlänk Dela Analytics India Magazine fördjupade 24 april

Microsoft introducerar Phi-3 Mini, en kompakt AI-modell

Microsoft har introducerat Phi-3 Mini, en AI-språkmodell med 3,8 miljarder parametrar, vilket är betydligt mindre än många andra modeller. Trots sin storlek jämförs dess prestanda med modeller som Mixtral 8x7B och GPT-3.5. Phi-3 Mini är utformad för att hantera enklare uppgifter, vilket gör den idealisk för företag som kanske inte behöver full kraft av mer komplexa AI-modeller. Phi-3 Mini kommer att vara tillgänglig på flera plattformar, inklusive Microsofts egna Azure molntjänst. Det kan också nås via Hugging Face, en populär maskininlärningsplattform, och Ollama, ett ramverk utformat för att köra AI-modeller direkt på lokala maskiner.

Direktlänk Dela Computing fördjupade 24 april

Microsoft lanserar lättviktig AI-modell Phi-3-mini

Microsoft har lanserat en lättviktig AI-modell kallad Phi-3-mini. Modellen kommer att vara tillgänglig omedelbart på Microsofts molntjänstplattform Azure´s AI-modellkatalog, maskininlärningsmodellplattformen Hugging Face och Ollama, ett ramverk för att köra modeller på en lokal maskin, meddelade företaget.

Direktlänk Dela The Economic Times CIO fördjupade 24 april

Microsoft lanserar Phi-3-mini, en lättviktig och kostnadseffektiv AI-modell

Microsoft har presenterat sin senaste innovation, en lättviktig artificiell intelligensmodell kallad Phi-3-mini. Detta är ett led i företagets strategi att erbjuda mer prisvärda alternativ inom AI-teknologi för att nå ut till en bredare kundkrets. Phi-3-mini är den första i en trilogi av små språkmodeller (SLM) från Microsoft. Företaget ser stor potential i dessa modeller att revolutionera olika branscher och förändra hur människor interagerar med teknologi i sina professionella liv. Phi-3-mini är nu tillgänglig på Microsofts molntjänstplattform Azure, samt på maskininlärningsplattformen Hugging Face och Ollama. Modellen är optimerad för Nvidias grafikprocessorer (GPU) och integrerad med Nvidias programverktyg Nvidia Inference Microservices (NIM).

Direktlänk Dela Business Today fördjupade 24 april

Microsoft lanserar kostnadseffektiv AI-modell Phi-3-mini

Microsoft lanserade på tisdagen en lättviktig artificiell intelligensmodell, i ett försök att locka en bredare kundbas med kostnadseffektiva alternativ. Den nya versionen kallas Phi-3-mini och är den första av tre små språkmodeller (SLM) som företaget ska släppa, eftersom det satsar på en teknik som förväntas ha en stor inverkan på världen och hur människor arbetar. ´Phi-3 är inte lite billigare, den är dramatiskt billigare, vi talar om en 10x kostnadsskillnad jämfört med andra modeller med liknande kapacitet,´ sa Sébastien Bubeck, Microsofts vice VD för GenAI-forskning. SLM:er är utformade för att utföra enklare uppgifter, vilket gör det lättare för företag med begränsade resurser att använda dem. Phi-3-mini kommer att finnas tillgänglig omedelbart på Microsofts molntjänstplattform Azures AI-modellkatalog, maskininlärningsmodellplattformen Hugging Face och Ollama, ett ramverk för att köra modeller på en lokal maskin. Förra veckan investerade Microsoft 1,5 miljarder dollar i UAE-baserade AI-företaget G42. Det har också tidigare samarbetat med franska startupföretaget Mistral AI för att göra deras modeller tillgängliga via dess Azure molnbaserade datorplattform.

Direktlänk Dela Network18 Media & Investments fördjupade 24 april

Microsoft lanserar ny, kostnadseffektiv AI-modell

Microsoft har lanserat en lättviktig artificiell intelligens (AI) modell, Phi-3-mini, i ett försök att attrahera en bredare klientbas med kostnadseffektiva alternativ. Phi-3-mini är den första av tre små språkmodeller (SLM) som företaget planerar att släppa, och är en teknik som förväntas ha en omfattande inverkan på världen och arbetslivet. Modellen är inte bara något billigare, den är dramatiskt billigare med en kostnadsskillnad på 10x jämfört med andra modeller med liknande kapabiliteter, enligt Sébastien Bubeck, Microsofts vice VD för GenAI-forskning. Phi-3-mini kommer att finnas tillgänglig omedelbart på Microsofts molntjänstplattform Azure, maskininlärningsplattformen Hugging Face och Ollama.

Direktlänk Dela Business Standard fördjupade 24 april

Silicon Valley-jättar investerar i AI-startups, brittisk myndighet uttrycker oro

Silicon Valley-jättar såsom Google, Apple, Microsoft, Meta, Amazon och Nvidia, gemensamt kallade Gamman, har börjat investera stora summor i AI-startups. Detta är ett symptom på deras oro att bli omsprungna i AI-racet. Microsoft investerade exempelvis $13 miljarder i OpenAI och var huvudinvesterare i en finansieringsrunda för Inflection. Amazon investerade $4 miljarder i Anthropic och Google har investerat $500 miljoner i samma företag, med löfte om ytterligare $1,5 miljarder. Trots att dessa tech-jättar har sina egna AI-modeller, köper de upp potentiella konkurrenter. Storbritanniens konkurrensmyndighet, Competition and Markets Authority (CMA), har uttryckt oro för detta och planerar att vara proaktiva för att säkerställa rättvis konkurrens och starkt konsumentskydd på marknaden för AI.

Direktlänk Dela The Guardian fördjupade 24 april

Microsoft lanserar nästa version av lättviktig AI-modell Phi-3 Mini

Microsoft har lanserat nästa version av sin lätta AI-modell Phi-3 Mini, den första av tre små modeller som företaget planerar att släppa. Phi-3 Mini mäter 3,8 miljarder parametrar och är utbildad på en datamängd som är mindre i förhållande till stora språkmodeller som GPT-4. Den är nu tillgänglig på Azure, Hugging Face och Ollama. Microsoft planerar att släppa Phi-3 Small (7B parametrar) och Phi-3 Medium (14B parametrar). Microsoft säger att Phi-3 presterar bättre än den tidigare versionen och kan ge svar nära hur en modell 10 gånger större än den kan.

Direktlänk Dela The Verge fördjupade 24 april

Microsoft drar tillbaka AI efter att ha missat ´toxicitetstestning´, men den dyker upp igen på nätet

Microsoft-forskare släppte förra veckan en öppen källkods-LLM vid namn WizardLM 2. Kort efter lanseringen togs AI-modellen ned då det upptäcktes att den inte hade genomgått ett nödvändigt ´toxicitetstest´. Trots den snabba borttagningen lyckades flera personer ladda ner modellen och ladda upp den igen på Github och Hugging Face. Trots Microsofts försök att förhindra användning av AI:n rapporterar 404 Media att den finns tillgänglig på Github och Hugging Face, samt via en länk i WizardLM:s Discord-kanal.

Direktlänk Dela Android Authority fördjupade 23 april

Microsoft lanserar ny lättviktig AI-språkmodell för lokal användning

Microsoft har tillkännagivit en ny, fritt tillgänglig AI-språkmodell vid namn Phi-3-mini. Denna modell är mindre och billigare att köra än traditionella stora språkmodeller som OpenAI´s GPT-4 Turbo. Tack vare dess lilla storlek kan den köras lokalt, vilket gör att en AI-modell med liknande kapabilitet som den fria versionen av ChatGPT kan köras på en smartphone utan internetanslutning. Phi-3-mini innehåller endast 3,8 miljarder parametrar och har tränats på 3,3 biljoner tokens, vilket gör den idealisk att köra på konsument-GPU:er eller AI-accelerationshårdvara som finns i smartphones och bärbara datorer. Microsoft planerar att släppa fler versioner av Phi-3 med 7 miljarder och 14 miljarder parametrar senare.

Direktlänk Dela Ars Technica fördjupade 23 april

Microsoft lanserar Phi-3 Mini, en mindre AI-modell

Microsoft har lanserat Phi-3 Mini, den första av tre små AI-modeller som företaget planerar att lansera de kommande månaderna. Phi-3 Mini har tränats på 3,8 miljarder parametrar, vilket är variabler som AI-modeller använder för att leverera bättre resultat. Trots sin mindre storlek presterar Phi-3 Mini bra, enligt Microsoft. Företaget berättade för The Verge att Phi-3 Mini erbjuder samma prestanda som modeller som tränats på mer än 10 gånger antalet parametrar som Microsoft använde. Microsoft gör Phi-3 Mini tillgänglig gratis på sin Azure molnplattform, modellsamarbetsplatsen Hugging Face och AI-modelltjänsten Ollama.

Direktlänk Dela ZDNet fördjupade 23 april

AI-startupen Perplexity höjer minst 250 miljoner dollar till en värdering mellan 2,5 och 3 miljarder dollar

AI-startupen Perplexity, som har utvecklat en sökmotor, är i färd med att höja minst 250 miljoner dollar till en värdering mellan 2,5 och 3 miljarder dollar. Detta kommer efter två stora finansieringsrundor som har sett företagets värdering skjuta i höjden under de senaste fyra månaderna. I januari höjde företaget nästan 74 miljoner dollar till en värdering av 540 miljoner dollar och i början av mars stängde företaget en finansieringsrunda på en värdering av 1 miljard dollar. Företaget utvecklar sina algoritmer genom att inkorporera en mängd olika LLMs för att producera mer exakta och rika svar. Nu använder de dessa för att bygga vad de beskriver som en mer avancerad företagsprodukt.

Direktlänk Dela TechCrunch fördjupade 23 april

Microsoft introducerar kostnadseffektivt, litet AI-modell, Phi-3-mini

Microsoft meddelade på tisdagen att företaget lanserar en kostnadseffektiv, liten artificiell intelligens (AI) modell som kan utföra uppgifter som innehållsskapande och skapa sociala medieinlägg medan den använder mindre mängder data. Den nya AI-modellen kallas Phi-3-mini och kan överträffa modeller som är dubbelt så stora över en mängd olika standarder som utvärderar språk, kodning och matematiska förmågor. Phi-3-mini kommer omedelbart att finnas tillgänglig på Microsofts molntjänstplattform Azure, maskininlärningsmodellplattformen Hugging Face och Ollama.

Direktlänk Dela The Globe and Mail fördjupade 23 april

AWS tillkännager tillgängligheten av Mistral Large Foundation Model på Amazon Bedrock

Under den nyligen hållna AWS Paris Summit meddelade AWS tillgängligheten av Mistral Large Foundation Model på Amazon Bedrock. Denna modell har en förståelse för grammatik och kulturell kontext och är flytande på engelska, franska, spanska, tyska och italienska. Med en 32K-token gör den noggrann informationsextraktion från stora dokument möjlig. Mistral AI:s systemnivåmoderering för sin betaassistent, le Chat, visar en exakt instruktionsföljningskapacitet som möjliggör anpassning av modereringsregler. Dessutom accelererar deras färdigheter inom naturligt språk och kodningsuppgifter utvecklingsprocesser.

Direktlänk Dela InfoQ fördjupade 23 april

AWS lanserar Custom Model Import för att förenkla användning av egna AI-modeller

AWS, Amazon´s molnbaserade datortjänst, vill bli det självklara valet för företag att vara värd för och finjustera sina egna generativa AI-modeller. AWS har lanserat Custom Model Import, en ny funktion i Bedrock, AWS´ företagsfokuserade paket med generativa AI-tjänster, som låter organisationer importera och få tillgång till sina egna generativa AI-modeller som fullt hanterade API:er. Företagens egna modeller, när de väl är importerade, drar nytta av samma infrastruktur som andra generativa AI-modeller i Bedrocks bibliotek. Funktionen är ännu i förhandsvisning.

Direktlänk Dela TechCrunch fördjupade 23 april

Microsoft introducerar minsta AI-modell för företag med begränsade resurser

Microsoft har introducerat sin minsta artificiella intelligens (AI) modell, Phi-3-mini, som är riktad till företag med begränsade resurser. Modellen kan utföra uppgifter som innehållsskapande för sociala medier med mindre dataanvändning och överträffar modeller som är dubbelt så stora. Microsoft hävdar att mindre AI-modeller är lättare att hantera för företag med färre resurser. Phi-3-mini kommer att vara tillgänglig omedelbart på Microsofts molntjänstplattform Azure, maskininlärningsplattformen Hugging Face och Ollama. Microsoft samarbetade tidigare denna vecka med Cognizant för att utöka användningen av generativ AI-lösningar.

Direktlänk Dela PYMNTS fördjupade 23 april

Installer No. 35 presenterar en rad nya teknikprodukter

Installer No. 35 presenterar flera nya teknikprodukter, inklusive ett nytt par hörlurar, en handhållen kamera, ett AI-minnessystem och ett nytt ljudbaserat socialt nätverk. Appen DropDelta, en retrospels-emulator, har snabbt blivit populär. Airchat är en röstbaserad social nätverksapp som kan vara värd att hålla koll på. Limitless är en AI-gadget som kan sammanfatta möten och ge användaren tillgång till sina livsinspelningar. Insta360 X4 är en actionkamera som kan filma i 8K. Soulver 3 för iPhone är en smart räknare. Nothing Ear (a) är hörlurar med gula accenter. Maestro för Amazon Music är en AI-baserad musiktjänst. Meta AI är en ny AI-bot från Facebook. PodcastAP är en podcastapp för fediverse. The Circle säsong 6 är en realityshow på Netflix med en AI-bot karaktär.

Direktlänk Dela The Verge fördjupade 21 april

Meta avtäcker banbrytande AI-språkmodell Llama 3

Meta har nyligen avtäckt Llama 3, en banbrytande stor språkmodell inom artificiell intelligens. Denna kraftfulla modell kommer i två distinkta versioner: en modell med 8 miljarder parametrar och en mer avancerad variant med 70 miljarder parametrar. Llama 3 är konstruerad för att drastiskt förbättra prestandan för AI-drivna uppgifter, såsom översättning, dialoggenerering och innehållsskapande. Llama 3 kommer att vara tillgänglig via AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM och Snowflake. Meta har också planer på att rulla ut nya funktioner för Llama 3, inklusive utökade kontextfönster, olika modellstorlekar och förbättrad prestanda. Meta AI, drivet av Llama 3, positioneras som en ledande AI-assistent som syftar till att förbättra mänsklig intelligens och produktivitet.

Direktlänk Dela Geeky Gadgets fördjupade 21 april

Meta leder inom generativ AI med introduktionen av Llama 3

Meta fortsätter att leda inom generativ AI genom att tillgängliggöra sin avancerade Large Language Model Meta AI (Llama) serie globalt för utvecklare och forskare. Meta har nyligen introducerat den tredje iterationen av denna serie, Llama 3, som förbättrar Llama 2 betydligt och utmanar branschkonkurrenter som Google, Mistral och Anthropic. Llama 3 har ett utökat ordförråd, längre kontextlängd och en större träningsdatauppsättning. Dessutom är Llama 3 nu integrerad i Hugging Face-ekosystemet och tillgänglig via molnplattformar som AWS SageMaker, Azure ML och Vertex AI.

Direktlänk Dela Unite.AI fördjupade 21 april

Meta introducerar uppdaterad AI-modell Llama 3 för att förbättra användarupplevelsen på sociala medier

Meta har introducerat en uppdaterad version av sin stora språkmodell för AI-utveckling, Llama 3. För första gången läggs Llama till i MetaAI, vilket ger användarna en AI-prompt och responsupplevelse liknande ChatGPT och Gemini. Kombinationen av Llama 3 och Meta AI skapar spännande nya förbättringar för Instagram, WhatsApp, Facebook Messenger och Facebook, men också nya utmaningar. Denna uppdatering förbättrar användarens engagemang genom att möjliggöra mer interaktiv och personlig innehållsskapande, såsom bildgenerering och AI-assistans direkt inom plattformarnas gränssnitt.

Direktlänk Dela CMSWire fördjupade 20 april

Stanford-rapport belyser AI:s utmaningar och etiska frågor

Stanford Universitys Institute for Human-Centered AI (HAI) har i sin AI Index 2024 belyst att AI-teknologi har potential att revolutionera produktivitetstillväxten, men det finns fortfarande begränsningar och etiska frågor kring dess användning. AI har gjort betydande framsteg i uppgifter som bildklassificering och engelskförståelse, men kämpar fortfarande med mer komplexa uppgifter som matematik och planering. Trots AI:s tillväxt och kapabiliteter under det senaste året har kostnaderna för att utveckla och underhålla stora språkmodeller (LLM) skjutit i höjden. Investeringsfronten har finansieringen för generativ AI skjutit i höjden under det senaste året, med 25,2 miljarder dollar. Stora aktörer som OpenAI, Anthropic, Hugging Face och Inflection har rapporterat betydande insamlingsrundor. Men det finns ett rop på mer transparens från AI-utvecklare, särskilt när det gäller att avslöja träningsdata och metoder. Denna brist på öppenhet hindrar förmågan att förstå robustheten och säkerheten hos AI-system, föreslår rapporten.

Direktlänk Dela Globe Echo fördjupade 19 april

Linux Foundation lanserar ny öppen källkodsplattform för AI/data för att demokratisera Gen AI-teknik

Linux Foundation har lanserat en ny öppen källkodsplattform för AI/data, i partnerskap med Intel, Anyscale, Cloudera, Datastax, Domino Data Lab, Hugging Face och andra industrispelare, i ett försök att ´demokratisera´ AI-teknik. Den nya plattformen, Open Platform for Enterprise AI (OPEA), är ett ´Sandbox-projekt´ från organisationens LF AI & Data-arm, som stöder öppen källkodsinnovation inom AI och data. Målet är att underlätta och möjliggöra utvecklingen av flexibla, skalbara generativa AI-system (Gen AI) som utnyttjar de bästa öppna källkodsinnovationerna från hela ekosystemet.

Direktlänk Dela Campustechnology.com fördjupade 19 april

Träna Llama 3 med ORPO-teknik för förbättrad prestanda

ORPO är en ny finjusteringsteknik som kombinerar traditionell övervakad finjustering och preferensanpassning i en enda process. Detta minskar de beräkningsresurser och tid som krävs för träning. Empiriska resultat visar att ORPO överträffar andra anpassningsmetoder på olika modellstorlekar och mätvärden. I denna artikel kommer vi att finjustera den nya Llama 3 8B-modellen med ORPO med hjälp av TRL-biblioteket. Koden finns tillgänglig på Google Colab och i LLM-kursen på GitHub.

Direktlänk Dela Towards Data Science fördjupade 19 april

Hugging Face introducerar Open Medical benchmark för att testa tillförlitligheten hos LLM:er inom medicin

Hugging Face har nyligen introducerat sin Open Medical benchmark. Denna lösning testar LLM:er på tillförlitlighet och kvalitet av den medicinska information de tillhandahåller. Med detta vill AI-plattformen säkerställa att den medicinska sektorn kan använda GenAI ansvarsfullt. GenAI används alltmer inom sjukvården, men de olika underliggande LLM:erna är fortfarande inte tillräckligt tillförlitliga för detta ändamål. Hugging Face vill lösa detta problem och har skapat sin egen benchmark, Open Medical-LLM, för att göra det. Det gjorde det i samarbete med Open Life Science AI och University of Edinburghs Natural Language Processing Group.

Direktlänk Dela Techzine fördjupade 19 april

KissanAI släpper Dhenu Llama 3, finjusterad på Llama3 8B

KissanAI har släppt Dhenu Llama 3, en modell som är finjusterad på Llama3 8B, enligt företagets grundare Pratik Desai. Modellen är tillgänglig för alla att experimentera med och ge feedback. Desai meddelade också att en instruktionsversion med ett dataset som är fem gånger större kommer att släppas inom en snar framtid. Meta har nyligen släppt Llama 3, en modell som är tillgänglig i 8B och 70B parameter versioner och har tränats på över 15 biljoner tokens. Modellerna är nu också tillgängliga på Hugging Face.

Direktlänk Dela Analytics India Magazine fördjupade 19 april

Microsoft och Amazon konkurrerar om att dominera AI-marknaden

Microsoft, världens mest värdefulla företag med ett marknadsvärde på över 3 biljoner dollar, har sett sina aktier öka med mer än 72% sedan början av 2023 tack vare den växande adoptionen av AI-teknik. Företaget har snabbt monetiserat sitt partnerskap med OpenAI och erbjuder ett brett utbud av AI-fokuserade lösningar. Analytiker på Evercore förutspår att AI kan lägga till 100 miljarder dollar till Microsofts årliga intäkter fram till 2027. Amazon, världens sjätte största företag, har också integrerat AI i sina erbjudanden. Företaget har förstärkt sin molnberäkningsverksamhet, Amazon Web Services (AWS), genom att erbjuda kunderna ´den mest omfattande samlingen av beräkningsinstanser´. Amazon har också introducerat AI-verktyg inom e-handel. Analytiker förväntar sig att Amazon kommer att ha en årlig inkomsttillväxt på 30% de närmaste fem åren.

Direktlänk Dela The Motley Fool fördjupade 19 april

Meta släpper två modeller av sitt stora språkmodell Llama 3 och introducerar Meta AI

Meta har släppt två modeller av sin senaste stora språkmodell (LLM), Llama 3, den 18 april 2024. Modellerna kommer snart att finnas tillgängliga på AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM och Snowflake. Meta AI, en AI-assistent integrerad i Metas plattformar, presenterades också. Llama 3 är skicklig på språknyanser, kontextuell förståelse och komplexa uppgifter som översättning och dialoggenerering. Meta AI kommer att finnas tillgänglig på plattformar som Facebook, Instagram, WhatsApp, Messenger i flera länder, inklusive USA, Australien, Kanada och Singapore.

Direktlänk Dela MediaNama fördjupade 19 april

Databricks lanserar DBRX, en stor språkmodell för allmänt bruk

Databricks har lanserat DBRX, en stor språkmodell (LLM) för allmänt bruk som överträffar andra liknande modeller i programmering och matematik. DBRX använder en blandning av expertarkitekturer och har använt 12T token av text- och koddata under modellträningsfasen. Både basmodellen och den finjusterade versionen är tillgängliga via Hugging Face under en öppen licens och kan även laddas ner från Databricks marknadsplats. Databricks kunder kan använda Databricks Mosaic AI Foundation Model APIs för att bygga GenAI-applikationer utan att behöva underhålla modellimplementering.

Direktlänk Dela Accelerationeconomy.com fördjupade 19 april

Meta släpper Llama 3 öppen källkods AI-modell, presterar bättre än konkurrenter

Meta har lanserat de senaste tilläggen till sin Llama-serie av öppen källkods generativa AI-modeller, nämligen Llama 3. Den nya familjen består av två modeller, Llama 3 8B och Llama 3 70B, som innehåller åtta miljarder respektive 70 miljarder parametrar. Denna utveckling markerar en betydande prestandaförbättring jämfört med deras föregångare, Llama 2-modellerna. Llama 3-modellerna är några av de bäst presterande generativa AI-modellerna som finns tillgängliga. De har tränats på två specialbyggda GPU-kluster med en kapacitet på 24 000 enheter. Meta styrker detta påstående genom att hänvisa till de imponerande poäng som Llama 3-modellerna uppnått på populära AI-benchmarks som MMLU, ARC och DROP.

Direktlänk Dela NewsBytes fördjupade 19 april

Meta introducerar nästa generation av AI-modeller, Llama 3

Meta introducerade nästa generation av sina artificiella intelligensmodeller, Llama 3 8B och 70B. Llama 3 har förbättrade kapaciteter jämfört med sin föregångare och företaget har även antagit nya träningsmetoder för att optimera modellernas effektivitet. Största modellen hos Llama 2 var 70B men nu kommer företagets stora modeller att innehålla mer än 400 miljarder parametrar. Meta kommer att lansera sina mindre AI-modeller i april och de större modellerna senare under sommaren. De nya modellerna kommer att vara öppen källkod, precis som tidigare modeller, och kommer snart att vara tillgängliga på AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM och Snowflake. Meta har även integrerat Llama 3 med sin egen Meta AI som kan nås via Facebook Messenger, Instagram och WhatsApp i stödda länder.

Direktlänk Dela Gadgets 360 fördjupade 19 april

Meta Platforms Inc. avslöjar att deras AI-modell Llama 3 överträffar konkurrenter i tester

Meta Platforms Inc., tidigare känd som Facebook, har avslöjat att dess nya stora språkmodell, Llama 3, har överträffat andra AI-modeller i jämförelsetester. Llama 3 har presterat bättre än flera andra AI-modeller, inklusive de från Alphabet Inc.´s Google, Jeff Bezos-stödda Anthropic och Mistral AI. Modellen förväntas snart vara tillgänglig för molnleverantörer som Amazon.com Inc.´s Amazon Web Services (AWS) och modellbibliotek som Hugging Face. Llama 3, som finns i två storlekar med 8B och 70B parametrar, har visat betydande förbättringar i textbaserade svar. Den har visat en högre diversitet i att svara på prompts, färre falska vägran och förbättrade resonemangsförmågor.

Direktlänk Dela Benzinga fördjupade 19 april

Meta lanserar nästa generation av AI-modellen Llama

Meta har lanserat nästa generation av sin stora språkmodell Llama, som nu är tillgänglig för molnleverantörer som AWS och modellbibliotek som Hugging Face. Llama 3 presterar bättre än de flesta nuvarande AI-modeller och erbjuder än så länge endast textbaserade svar. Modellen har visat mer mångfald i att svara på prompts, har färre falska vägran att svara på frågor och kan resonera bättre. Meta hävdar att Llama 3 förstår fler instruktioner och skriver bättre kod än tidigare. Modellen har också presterat bättre än liknande modeller som Googles Gemma och Gemini, Mistral 7B och Anthropic´s Claude 3 i vissa benchmarkingtester. Meta planerar att släppa större versioner av Llama 3 som kan förstå längre instruktioner och data och vara kapabla att generera mer multimodala svar.

Direktlänk Dela The Verge fördjupade 19 april

Meta lanserar Llama 3, en AI-modell för sociala medieplattformar

Den amerikanska sociala mediejätten Meta har tillkännagett Llama 3, sin senaste öppna storspråksmodell (LLM). Meta planerar att först integrera den nya AI-modellen med sina sociala medieplattformar, som WhatsApp och Instagram, innan den rullas ut till utvecklare på Amazon AWS, Databricks, Google Cloud, Hugging Face, Microsoft Azure, Nvidia NIM och mer. Dessutom kommer Llama 3 AI-modellen att stödja hårdvaruplattformar som erbjuds av AMD, NVIDIA, Intel och Qualcomm. Meta planerar att ta sin AI-assistent, Meta AI, till fler regioner, inklusive Australien, Kanada, Ghana, Jamaica, Malawi, Nya Zeeland, Nigeria, Pakistan, Singapore, Sydafrika, Uganda, Zambia och Zimbabwe.

Direktlänk Dela Business Standard fördjupade 19 april

Meta lanserar tidiga versioner av sin nya stora språkmodell Llama 3

Meta Platforms har lanserat tidiga versioner av sin nya stora språkmodell, Llama 3, och en bildgenerator för att konkurrera med OpenAI, ledaren inom generativ AI. Företaget förklarar att den nya Llama 3 8B innehåller 8 miljarder parametrar, medan Llama 3 70B har 70 miljarder parametrar. Meta lovar en enorm prestandaökning jämfört med de tidigare modellerna Llama 2 8B och Llama 2 70B. Företaget utbildade sin nya Llama 3-modell på över 15 biljoner tokens som alla samlats in från ´offentligt tillgängliga källor´.

Direktlänk Dela TweakTown fördjupade 19 april

AI-startupen Hugging Face lanserar benchmark-test för AI i hälso- och sjukvården

AI-startupen Hugging Face har i samarbete med forskare från Open Life Science AI och University of Edinburghs Natural Language Processing Group tagit fram ett benchmark-test kallat Open Medical-LLM. Testet syftar till att standardisera utvärderingen av generativa AI-modeller inom hälso- och sjukvård. Open Medical-LLM är en sammansättning av befintliga testuppsättningar designade för att undersöka modellernas allmänna medicinska kunskap och relaterade fält. Trots att testet ses som ett framsteg varnar experter för att sätta för mycket tilltro till Open Medical-LLM, då det kan leda till illa informerade implementeringar.

Direktlänk Dela Yahoo Movies UK fördjupade 19 april

Meta lanserar AI-modellen Llama 3 för att konkurrera med andra AI-chattbotar

Meta har lanserat sin senaste AI-modell, Llama 3, för att konkurrera med andra AI-chattbotar som OpenAI´s ChatGPT, Microsoft´s Copilot, Google Gemini och Perplexity AI´s modeller. Meta AI kommer att integreras i WhatsApp, Instagram, Facebook och Messenger, samt på webbplatsen meta.ai. Llama 3-modellen kommer att rullas ut i två versioner, en för konsumentinriktade AI-chattbotar i Meta´s appar och en större och multimodal version tillgänglig på plattformar som Amazon Web Services, Google Cloud och Microsoft Azure. Funktionerna kommer att variera något beroende på vilken app eller tjänst du använder Meta AI från, men funktionaliteten är omfattande.

Direktlänk Dela Hindustan Times fördjupade 19 april

Neural Speed: Snabb inferens på CPU för 4-bitars stora språkmodeller

Att köra stora språkmodeller (LLM) på konsumenthårdvara kan vara utmanande. Om LLM inte passar på GPU-minnet, tillämpas kvantisering vanligtvis för att minska dess storlek. Men även efter kvantisering kan modellen fortfarande vara för stor för att passa på GPU:n. Ett alternativ är att köra den på CPU RAM med hjälp av ett ramverk optimerat för CPU-inferens som llama.cpp. Intel arbetar också med att påskynda inferens på CPU. De föreslår ett ramverk, Intels förlängning för Transformers, byggt på Hugging Face Transformers och lätt att använda för att utnyttja CPU:n. Med Neural Speed (Apache 2.0 licens), som bygger på Intels förlängning för Transformers, accelererar Intel ytterligare inferens för 4-bitars LLM på CPU:er. Enligt Intel kan användning av detta ramverk göra inferens upp till 40x snabbare än llama.cpp.

Direktlänk Dela Towards Data Science fördjupade 19 april

Meta introducerar sitt senaste stora språkmodell, Llama 3

Meta har lanserat sin senaste stora språkmodell, Llama 3, som de hävdar kommer att utmana större modeller från Google, Mistral och Anthropic. Llama 3 finns i versioner från åtta miljarder till över 400 miljarder parametrar. Meta har ännu inte tränat sina största och mest komplexa modeller, men antyder att de kommer att vara flerspråkiga och multimodala. Även med bara 70 miljarder parametrar hävdar Meta att Llama 3 kan mäta sig med mycket större modeller. Meta har även utvecklat nya och uppdaterade verktyg för att skydda modellen från missbruk.

Direktlänk Dela The Register fördjupade 19 april

Hugging Face släpper benchmarktest för AI-modeller inom sjukvård

AI-startupen Hugging Face har tillsammans med forskare vid Open Life Science AI och University of Edinburghs Natural Language Processing Group skapat ett benchmarktest kallat Open Medical-LLM. Testet syftar till att standardisera utvärderingen av generativa AI-modellers prestanda inom en rad medicinska uppgifter. Open Medical-LLM är en sammanfogning av befintliga testuppsättningar, såsom MedQA, PubMedQA och MedMCQA, och innehåller flervals- och öppna frågor som kräver medicinsk resonemang och förståelse. Hugging Face ser benchmarktestet som en ´robust bedömning´ av generativa AI-modeller inom sjukvården, men varnar för att det inte bör användas ensamt utan bör kompletteras med mer djupgående tester i verkliga förhållanden.

Direktlänk Dela Yahoo Finance Australia fördjupade 19 april

Meta introducerar nästa generation av sitt stora språkmodell Llama 3

Sociala mediejätten Meta har introducerat nästa generation av sin öppen källkods stora språkmodell, Llama 3. De två första modellerna i Llama 3-familjen, 8B och 70B, är nu tillgängliga för bred användning. Llama 3 400B-plus parametermodeller är fortfarande under utbildning, men Meta planerar att släppa nya modeller de kommande månaderna. De nya modellerna har förbättrad anpassning och större mångfald i modellsvar jämfört med Llama 2. Meta planerar att göra Llama 3 flerspråkig och multimodal, med ett större kontextfönster i framtiden.

Direktlänk Dela TechTarget fördjupade 19 april

AI-startup föreslår nytt test för att utvärdera AI-modeller inom hälso- och sjukvården

AI-startupen Hugging Face har, i samarbete med forskare från Open Life Science AI och University of Edinburgh, föreslagit en ny standard för att utvärdera prestandan hos generativa AI-modeller inom medicinska uppgifter. Den nya teststandarden, kallad Open Medical-LLM, är inte ett helt nytt test, utan snarare en sammanfogning av befintliga testuppsättningar som MedQA, PubMedQA och MedMCQA. Trots detta har vissa medicinska experter på sociala medier varnat för att lägga för mycket vikt vid Open Medical-LLM, eftersom det kan leda till oinformerade implementeringar.

Direktlänk Dela TechCrunch fördjupade 19 april

Neural Speed: Snabb inferens på CPU för stora språkmodeller på 4-bit

Att köra stora språkmodeller (LLM) på konsumenthårdvara kan vara utmanande. Om LLM inte passar på GPU-minnet, används vanligtvis kvantisering för att minska dess storlek. Men även efter kvantisering kan modellen fortfarande vara för stor för att passa på GPU:n. Ett alternativ är att köra den på CPU RAM med hjälp av ett ramverk optimerat för CPU-inferens, som llama.cpp. Intel arbetar också med att påskynda inferens på CPU. De föreslår ett ramverk, Intels förlängning för Transformers, byggt ovanpå Hugging Face Transformers och lätt att använda för att utnyttja CPU:n. Med Neural Speed (Apache 2.0-licens), som bygger på Intels förlängning för Transformers, accelererar Intel ytterligare inferens för 4-bitars LLM på CPU:er. Enligt Intel kan användning av detta ramverk göra inferens upp till 40x snabbare än llama.cpp.

Direktlänk Dela Towards Data Science fördjupade 18 april

Meta släpper nästa generation av AI-modellen Llama

Meta har släppt den nästa generationen av sin stora språkmodell Llama. Den nya versionen, Llama 3, presterar bättre än de flesta nuvarande AI-modeller och erbjuder hittills endast textbaserade svar. Modellen har två modellvikter med 8B och 70B parametrar och visar en större mångfald i att svara på frågor, färre falska vägran att svara på frågor och bättre resonemang. Meta hävdar att Llama 3 förstår fler instruktioner och skriver bättre kod än tidigare. Båda storlekarna av Llama 3 slog liknande storleksmodeller som Google´s Gemma och Gemini, Mistral 7B och Anthropic´s Claude 3 i vissa benchmarkingtester.

Direktlänk Dela The Verge fördjupade 18 april

Meta lanserar Llama 3, den senaste generationen av sin LLM

Meta har lanserat Llama 3, den senaste generationen av sin LLM som erbjuder SOTA-prestanda och effektivitet. Modellen finns i 8B och 70B parameter-versioner och har tränats på över 15 biljoner tokens, vilket gör den sju gånger större än Llama 2´s dataset. Llama 3 erbjuder förbättrade resonemangs- och kodningsförmågor och dess utbildningsprocess är tre gånger mer effektiv än dess föregångare. Modellerna kommer snart att vara tillgängliga på AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM och Snowflake. Dessutom kommer modellerna att vara kompatibla med hårdvaruplattformar som tillhandahålls av AMD, AWS, Dell, Intel, NVIDIA och Qualcomm.

Direktlänk Dela Analytics India Magazine fördjupade 18 april

Meta släpper Llama 3, sin senaste AI-modell

Meta har släppt de två första modellerna i sin nya Llama 3-serie av AI-modeller med öppen källkod. Modellerna, Llama 3 8B och Llama 3 70B, innehåller 8 respektive 70 miljarder parametrar och beskrivs av Meta som ett stort framsteg jämfört med de tidigare Llama-modellerna. Enligt Meta är Llama 3 8B och Llama 3 70B, som tränades på två specialbyggda GPU-kluster med 24 000 enheter, bland de bäst presterande generativa AI-modellerna som finns tillgängliga idag. Företaget stöder detta påstående med modellernas resultat på populära AI-benchmarkar som MMLU, ARC och DROP.

Direktlänk Dela TechCrunch fördjupade 18 april

Artificiell intelligens tar snabbt över: 10 insikter från Stanfords AI Index-rapport 2024

Stanfords årliga AI Index-rapport för 2024 ger en omfattande översikt över artificiell intelligens (AI) och dess påverkan på samhället. Rapporten täcker ett brett spektrum av ämnen, från tekniska framsteg till allmänhetens uppfattningar. AI utvecklas snabbt och kan nu producera text, generera bilder och videor, efterlikna röster och klassificera bilder. Rapporten innehåller även nya data om AI-utbildningskostnader, analyser av ansvarsfulla AI-praktiker och ett nytt kapitel om AI:s påverkan på vetenskap och medicin. Bland de tio huvudpunkterna i rapporten framgår det att AI ökar produktiviteten, men behöver lämplig tillsyn, att människor är mer oroliga än entusiastiska över AI, och att USA är den främsta källan till toppmodeller för AI.

Direktlänk Dela News9 Live fördjupade 18 april

Alibaba stärker sitt engagemang i öppen källkodsutveckling av AI

Alibaba Group Holding Ltd har förstärkt sitt engagemang i öppen källkodsutvecklingen av sin stora språkmodell (LLM), teknologin bakom generativa AI-tjänster som ChatGPT. Detta följer efter lanseringen av Tongyi Qianwen till tredjepartsutvecklare, med Alibaba´s Lin Junyang som framhäver den ovärderliga feedback och styrka som fås från öppen källkods-gemenskapen. Alibaba Cloud har släppt enklare former och mer komplexa versioner av sin LLM, inklusive en 72-miljarder-parameterversion och en ljudförståelsemodell, genom ModelScope och Hugging Face.

Direktlänk Dela Benzinga fördjupade 17 april

Linux Foundation lanserar Open Platform för företags-AI

Linux Foundation har lanserat Open Platform for Enterprise AI (OPEA), ett stort steg mot utvecklingen av öppen källkod, interoperabla generativa AI-verktyg anpassade för företagsapplikationer. Initiativet, övervakat av Foundations LF AI och Data-organisation, syftar till att underlätta skapandet av skalbara, robusta generativa AI-system genom att utnyttja den kollektiva innovationen inom öppen källkodsgemenskapen. Branschledare som Intel, Cloudera, IBM-ägda Red Hat, Hugging Face, Domino Data Lab, MariaDB och VMware deltar i OPEA, vilket banar väg för banbrytande framsteg inom AI-teknik för företag.

Direktlänk Dela WinBuzzer fördjupade 17 april

Teknikjättar samarbetar för att bygga öppen källkods AI-verktyg för företag

Linux Foundation (LF) har meddelat ´Open Platform for Enterprise AI´ (OPEA), ett projekt som syftar till att främja skapandet av öppna, flerleverantörsgenerativa AI-system. Intel, Cloudera och flera andra organisationer har åtagit sig att utveckla öppen källkods generativa AI-verktyg för företagsbruk. OPEA är en del av Linux Foundations LF AI och Data-organisation. Initiativet inkluderar stora företagsaktörer som IBM-ägda Red Hat, Hugging Face, Domino Data Lab, MariaDB och VMware. OPEA planerar att standardisera komponenter och implementera ett betygssystem för generativa AI-system.

Direktlänk Dela NewsBytes fördjupade 17 april

Storskaliga språkmodeller och generativ AI förbättrar teknologisk interaktion

Storskaliga språkmodeller (LLM) och generativ AI tränas på massiva datauppsättningar för att generera intelligent innehåll. Promptteknik används för att effektivt styra dessa modeller för att uppnå avsedda resultat. Microsoft har omfamnat gränssnitt som Open AI´s ChatGPT-3 och GPT-4, vilket gör LLM lättillgängliga för allmänheten. Andra marknadsledare inkluderar Googles PaLM-modeller och Metas Llama-modeller. LLM kan användas för att skriva kod, översätta mellan programmeringsspråk och hjälpa till med kreativt skrivande. Även om inte alla generativa AI-verktyg bygger på LLM, är alla LLM en form av generativ AI.

Direktlänk Dela Open Source For You fördjupade 17 april

Linux Foundation har, tillsammans med organisationer som Cloudera och Intel, lanserat Open Platform for Enterprise AI (OPEA). Syftet är att främja utvecklingen av öppna, multi-leverantörs och komponerbara generativa AI-system. OPEA:s mål är att bana väg för utgivningen av skalbara generativa AI-system som utnyttjar den bästa öppna källkodsinnovationen från hela ekosystemet. OPEA kommer att samarbeta med industrin för att standardisera komponenter, inklusive ramverk, arkitekturblåkopior och referenslösningar. Betydande företag som Intel, IBM-ägda Red Hat, Hugging Face, Domino Data Lab, MariaDB och VMware är medlemmar i OPEA.

TechCrunch fördjupade 17 april

ServiceNows senaste plattform revolutionerar användningen av Generative AI

I en exklusiv intervju med Sumeet Mathur, Senior Vice President & Managing Director för ServiceNow India Technology & Business Center, diskuteras hur ServiceNows senaste Washington, D.C. plattform revolutionerar användningen av Generative AI (GenAI) och dess påverkan på företagsverksamheter. Plattformen inför innovativa funktioner som inbäddar ansvarsfull och intelligent automatisering direkt i ServiceNow-plattformen. Med avancerade språkmodeller kan plattformen förstå och förklara komplexa varningar på ett enkelt språk, vilket hjälper team att lösa problem snabbare. ServiceNow bidrar aktivt till GenAI-ekosystemet för företag genom att ständigt utöka sin GenAI-portfölj.

Direktlänk Dela CXO Today fördjupade 16 april

WizardLM introducerar WizardLM-2, ett kraftfullt öppen källkods-språkmodell

WizardLM har introducerat WizardLM-2, en öppen källkods-språkmodell som erbjuder förbättrad prestanda i komplexa chatt-, flerspråkiga, resonemang och agentuppgifter. Modellen inkluderar tre avancerade versioner: WizardLM-2 8x22B, WizardLM-2 70B och WizardLM-2 7B. Modellvikt för WizardLM-2 8x22B och WizardLM-2 7B var tillgängliga på Hugging Face men drogs sedan tillbaka på grund av en för tidig release. Modellen har tränats på syntetiska data genererade av AI-modeller och har en total parameterstorlek på 141 miljarder. Modellen rankas fjärde på MT-Bench, vilket är direkt kopplat till HumanEval på chatbot-arenan.

Direktlänk Dela Analytics India Magazine fördjupade 16 april

Alibabas AI-initiativ bygger på öppen källkod och ligger efter toppföretag i USA

Alibabas molntjänst, ansvarig för AI-initiativ, lanserade Tongyi Qianwen i april förra året och öppnade källkoden för två enklare former av sin LLM som tränades på 7 miljarder ´parametrar´. Enligt Lin Junyang, ansvarig för modellens öppna källkodsutbyggnad, kunde Alibaba ha varit ´mer aggressivt i öppen källkodsutveckling´ det senaste året. Alibaba Cloud öppnade i december tillgång till sina 72 miljarder parameter och 1,8 miljarder parameter versioner av LLM. Nästa steg är att jämföra Alibabas framsteg med de ledande internationella aktörerna, där franska start-up företaget Mistral AI och Meta Platforms för närvarande leder den globala öppna källkodsgemenskapen inom LLM-utveckling.

Direktlänk Dela South China Morning Post fördjupade 16 april

H2O-Danube2-1.8B toppar Hugging Face Open LLM Leaderboard för 2B-parametrar

H2O.ai, en ledande aktör inom Generativ AI och maskininlärning, meddelar att deras senaste öppna vikter (Apache v2.0) lilla språkmodell, H2O-Danube2-1.8B, har säkrat toppositionen på Hugging Face Open LLM Leaderboard för <2B-parametrar, överträffar till och med den betydligt större Gemma-2B-modellen från Google i 2,5B-parametrarkategorin. H2O-Danube2-1.8B bygger på framgången hos sin föregångare, H2O-Danube 1.8B, med märkbara uppgraderingar och optimeringar som har fört den till framkant av 2B SLM-kategorin.

Direktlänk Dela Datanami fördjupade 15 april

Insider listar 100 ledande personer inom AI

Insider har sammanställt en lista över 100 personer som är ledande inom artificiell intelligens (AI). Bland dem finns Naveen Rao, vice VD för generativ AI på Databricks, Dario Amodei, medgrundare och VD för AI-startupen Anthropic, och Greg Brockman, president och medgrundare av OpenAI. Listan inkluderar också ledare från företag som Hugging Face, Cohere, Baidu, Seek AI, Grammarly, Google, Salesforce, Microsoft, Inflection AI och Amazon Web Services. Dessa individer och företag har bidragit till den snabba utvecklingen och tillämpningen av generativ AI inom olika branscher.

Direktlänk Dela Yahoo Movies Canada fördjupade 15 april

Vision Transformers marknadsrapport till 2031 är tillgänglig

Orbisresearch.com har en databas med nyligen rapporter, som ´Vision Transformers Industry Forecast to 2031´. Rapporten erbjuder insiktsfull information om viktiga faktorer som påverkar marknadsbeteendet, inklusive nya utmaningar och kundpreferenser. Rapporten integrerar Porter´s Five Forces ramverk och SWOT-analys och ger en omfattande bild av den konkurrensutsatta marknaden. Rapporten täcker över 12 regioner och ger en global perspektiv. Den analyserar också effekten av COVID-19 på marknaden och hjälper företag att planera sina resursallokeringar och investeringsplaner. Nyckelspelare på Vision Transformers marknaden inkluderar Google, OpenAI, Meta, LeewayHertz, AWS, Nvidia, Vision Transformers (ViT), Synopsys, Quadric, DECI, Hugging Face, Clarifai, V7 Labs, Microsoft, Qualcomm, INTEL.

Direktlänk Dela Amore Nigeria fördjupade 15 april

Mistral släpper ny AI-modell utan förvarning, konkurrerar med OpenAI och Google

Mistral har släppt sin senaste artificiella intelligens (AI) modell, 8X22B, utan någon föregående tillkännagivelse. AI-modellen, som följer efter 8X7B-modellen släppt i december 2023, erbjuder en större parametersstorlek. Trots att det inte finns några benchmarks tillhandahållna av AI-företaget själv, testade Hugging Face community användare det och postade benchmarks poäng för 8X22B-modellen. Resultaten tycks minska gapet med de stängda modellerna från OpenAI och Google. Den totala filstorleken är 262GB. Tidiga benchmarks poäng baserade på ett Hugging Face community-inlägg visar att den senaste Mistral-modellen erbjuder betydande uppgraderingar över sina föregångare och minskar gapet med andra stora modeller.

Direktlänk Dela Gadgets 360 fördjupade 11 april

Google Cloud Next 2024: Nyheter inom moln- och AI-teknik

Google Cloud Next 2024 ägde rum i Las Vegas och presenterade en mängd nyheter inom moln- och AI-teknik. Bland dessa fanns Google Vids, ett AI-drivet videoredigeringsverktyg, och Gemini Code Assist, ett AI-baserat kodkompletteringsverktyg. Google Workspace introducerade nya funktioner, inklusive röststyrda skrivhjälpmedel i Gmail och anpassningsbara larm i Sheets. Google planerar också att monetarisera två nya AI-funktioner för Google Workspace. Dessutom presenterades Imagen 2, ett förbättrat bildgenereringsverktyg, och Vertex AI Agent Builder, ett verktyg för att bygga AI-agenter. Google förnyade sitt fokus på datans suveränitet och introducerade nya AI-drivna säkerhetsverktyg.

Direktlänk Dela TechCrunch fördjupade 11 april

H2O.ai:s AI-modell toppar Hugging Face Open LLM Leaderboard

H2O.ai, ledande inom generativ AI och maskininlärning, har med sin senaste lilla språkmodell, H2O-Danube2-1.8B, säkrat toppositionen på Hugging Face Open LLM Leaderboard för <2B-kategorin, och har till och med överträffat den mycket större Gemma-2B-modellen från Google i 2,5B parameter-kategorin. H2O-Danube2-1.8B bygger på framgångarna med sin föregångare, H2O-Danube 1.8B, med märkbara uppgraderingar och optimeringar som har skjutit den till framkant av 2B SLM-kategorin. Modellen utnyttjar en enorm databas med 2 biljoner högkvalitativa tokens och bygger på Mistral-arkitekturen och optimeringar.

Direktlänk Dela Business Wire fördjupade 11 april

AI-verktyg som kan hjälpa dataforskare

Artificiell intelligens (AI) utvecklas snabbt och förändrar våra liv på flera sätt, inklusive inom dataanalys. AutoAI eller AutoML är tekniker som automatiserar skapandet av AI och automatiserar dataforskares arbetsmetoder. Några AI-verktyg som kan hjälpa dataforskare inkluderar Bing AI, utvecklad av Microsoft, som kan hjälpa till med uppgifter som kodgenerering och felsökning. Code Interpreter, ett plugin av OpenAI, kan göra vem som helst till en direkt dataanalytiker. Dataiku är en plattform som främjar sömlös samverkan mellan dataforskare, ingenjörer och analytiker. Ellie AI är en omfattande data design plattform. Github Copilot är ett program som är användbart för Python-programmerare och datafackfolk. Hugging Face erbjuder en rad AI-verktyg för olika uppgifter inom dataanalys.

Direktlänk Dela National Portal for Artificial Intelligence, India fördjupade 10 april

CognitiveLab skapar Indic LLM Leaderboard för att jämföra AI-modeller på indiska språk

Adithya S Kolavi, grundare och VD för CognitiveLab, har skapat en rangordning för AI-modeller på indiska språk, kallad Indic LLM Leaderboard. CognitiveLab har även lanserat Ambari, den första tvåspråkiga Kannada-modellen byggd på Llama 2. Indic LLM Leaderboard stöder sju indiska språk, inklusive Hindi, Kannada, Tamil, Telugu, Malayalam, Marathi och Gujarati. Kolavi planerar nu att bygga en pålitlig LLM-benchmark för Indic-modeller, med hänvisning till kinesiska papper som skapade liknande benchmarks för det kinesiska språket. Han tror att AI bör bli tillgängligt för alla, även i de mest avlägsna byarna i Indien.

Direktlänk Dela Analytics India Magazine fördjupade 10 april

Google avtäcker nya AI-projekt och stora språkmodeller på Google Cloud Next 24

Google presenterade tre öppen källkodsprojekt för att bygga och köra generativa AI-modeller på Google Cloud Next 24. Företaget introducerade också nya stora språkmodeller till sitt MaxText-projekt av JAX-byggda LLMs. De nya LLM-modellerna i MaxText inkluderar Gemma, GPT-3, Llama 2 och Mistral, som stöds på både Google Cloud TPUs och Nvidia GPUer. De nyligen avtäckta öppen källkodsprojekten är MaxDiffusion, JetStream och Optimum-TPU. Google introducerade också JetStream, en öppen källkods optimerad LLM-införandemotor som stöder XLA-kompilatorer, och lanserade Optimum-TPU för PyTorch-användare i Hugging Face-gemenskapen.

Direktlänk Dela InfoWorld fördjupade 9 april

CAST AI introducerar AI Optimizer för att minska kostnaden för AI-applikationer

CAST AI har lagt till en funktion för att upptäcka vilken stor språkmodell (LLM) som används för att driva en AI-applikation, och sedan rekommendera och installera en alternativ inferensmotor som är billigare att köra. AI Optimizer-funktionen kommer att läggas till CAST AI: s automatiseringsplattform för Kubernetes-kluster under andra kvartalet och kommer initialt att göras tillgänglig på Google Kubernetes Engine (GKE) -tjänsten. AI Optimizer analyserar användare och deras associerade API-nycklar, övergripande användarmönster och balansen mellan inmatning och utmatning för att bestämma vilken molninstans av en grafisk processor (GPU) som kommer att köra en AI-modell mest effektivt. Den här funktionen kommer att minska de totala kostnaderna för AI betydligt genom att göra det möjligt för organisationer att rätta storleken på AI-inferensmotorer baserat på pris/prestanda-mått, sade Laurent Gil, produktchef för CAST AI.

Direktlänk Dela Cloud Native Now fördjupade 9 april

Intel avtäcker Gaudi 3 AI-acceleratorer

Intel har avtäckt sin tredje generation Gaudi AI-acceleratorer vid sitt Vision 2024-evenemang. Gaudi 3-acceleratorerna kommer att tillverkas i samarbete med Taiwan Semiconductor Manufacturing Co. Habana Labs, som förvärvades av Intel 2019, lanserade Gaudi 1-acceleratorn 2019. Intel hoppas kunna tillverka och sälja fler Gaudi 3-chip än tidigare modeller, trots konkurrens från Nvidia. Gaudi 3-acceleratorernas pris kommer att vara direkt proportionellt mot prestandan hos Nvidias ´Hopper´ H100 GPU-accelerator och gatupriset för Hopper H100 GPU:er med 96 GB HBM3-minneskapacitet och 3,9 TB/sek bandbredd.

Direktlänk Dela The Next Platform fördjupade 9 april

Ny rapport utforskar framtida tillväxtpotential för Large Language Model (LLM) Cloud Service-marknaden

En ny rapport från WMR ger en djupgående bedömning av marknaden för Large Language Model (LLM) Cloud Service, inklusive nyckelmarknadstrender, kommande tekniker, branschdrivare, utmaningar, regulatoriska politik, företagsprofiler och strategier. Rapporten täcker framtida trender, nuvarande tillväxtfaktorer, fakta och marknadsdata fram till 2031. Ledande aktörer på marknaden inkluderar Amazon Web Services (AWS), Google Cloud Platform (GCP), Microsoft Azure, IBM Watson, OpenAI, Hugging Face, Salesforce, Baidu AI, Tencent Cloud, Alibaba Cloud, NVIDIA, Intel, Meta AI, Apple, Samsung och Qualcomm.

Direktlänk Dela openPR fördjupade 8 april

Mistral AI släpper ny öppen källkodsmodell för språkmodellering

AI-forskningsföretaget Mistral AI har nyligen släppt en grundmodell för Mistral 7B v0.2, en öppen källkodsmodell för språkmodellering. Modellen, som presenterades under företagets hackathon-event i mars 2024, har 7,3 miljarder parametrar och överträffar Llama 2 13B och Llama 1 34B på nästan alla mätvärden. Den senaste v0.2-modellen introducerar en 32k-kontextfönster bland andra framsteg, vilket förbättrar dess förmåga att bearbeta och generera text. Dessutom är den nyligen tillkännagivna versionen grundmodellen för den instruktionsjusterade varianten ´Mistral-7B-Instruct-V0.2´, som släpptes tidigare förra året.

Direktlänk Dela KDnuggets fördjupade 8 april

Viktiga verktyg för att arbeta effektivt med stora språkmodeller

Stora språkmodeller (LLM) som GPT-4 har blivit oumbärliga verktyg för utvecklare och dataforskare. Här presenteras en samling viktiga verktyg för att förbättra effektiviteten och effektiviteten vid arbete med LLM. Hugging Face erbjuder en omfattande ekosystem för AI-modeller, LangChain förbättrar LLM:s sammansättning och integration, Qdrant är en högpresterande vektorsökmaskin, MLflow erbjuder en omfattande plattform för att hantera maskininlärningslivscykeln, vLLM är en skärningspunkt för inferens och tjänande motor, LlamaIndex revolutionerar semantisk sökning, Haystack erbjuder en allt-i-ett ramverk för att bygga dokument sökning och frågesvarssystem och Helicone är ett specialiserat ramverk som förenklar interaktioner med öppna GPT-modeller.

Direktlänk Dela MarkTechPost fördjupade 8 april

AI-verktyg transformerar mjukvaruutvecklingslandskapet

Generativa AI-verktyg förändrar mjukvaruutvecklingslandskapet genom att påskynda kodningsprocesser och förbättra kodkvaliteten över ett stort antal programmeringsspråk. Dessa verktyg ökar utvecklarnas produktivitet avsevärt. Ledande inom denna AI-drivna kodningsrevolution är IBM Codenet, Microsofts GitHub Copilot, Amazons CodeWhisperer, ServiceNows StarCoder och Hugging Face. Deras avancerade verktyg ökar utvecklarnas hastighet med upp till 50%. Dessa AI-lösningar omvandlar vanlig text till fungerande kod, minskar kodningstiden med över hälften i vissa fall och upprätthåller kodkvaliteten över ett stort antal språk. Trots entusiasmen är implementeringen av dessa verktyg av stora företag försiktig, med fokus på att säkerställa kodkorrekthet och undanröja säkerhetsrisker.

Direktlänk Dela YTech News fördjupade 7 april

AI-drivna text-till-kod-verktyg revolutionerar mjukvaruutveckling

Mjukvaruutvecklare världen över använder generativa AI text-till-kod-verktyg för att öka produktiviteten och effektivisera sina arbetsflöden. Verktyg som IBM Codenet, GitHub CoPilot, Code Whisperer från Amazon och StarCoder från ServiceNow och Hugging Face förändrar sättet kod skrivs och granskas. Genom att utnyttja dessa AI-modeller kan utvecklare generera kod från enkla textprompter upp till 55% snabbare än traditionella metoder. Dessa verktyg erbjuder också möjlighet att kontrollera kodkvaliteten och utföra granskningar i olika programmeringsspråk. Trots de spännande möjligheterna som AI-drivna text-till-kod-verktyg erbjuder är indiska företag fortfarande i de tidiga stadierna av skalförädling.

Direktlänk Dela Elblog fördjupade 7 april

Bästa alternativen till Microsoft Copilot för Windows PC

Artificiell intelligens är här för att stanna och ingen kan förneka det. Microsoft Copilot är en av de bästa på marknaden, men det finns andra alternativ att prova. Några av de bästa alternativen till Microsoft Copilot för Windows PC inkluderar ChatGPT, Anthropic Claude, Jasper, Gemini och HuggingChat. Dessa AI-chattbotar kan hjälpa användare med att generera texter, skriva och förklara kod och ha imponerande konversationsförmågor. Trots vissa begränsningar, som brist på internetåtkomst och kunskapsavsnitt, kan dessa verktyg vara värdefulla resurser för att brainstorma text eller hjälpa till med kodning.

Direktlänk Dela The Windows Club fördjupade 6 april

Gretel släpper världens största öppna Text-to-SQL-dataset för att påskynda AI-utbildning

Gretel, en pionjär inom industrin för syntetiska data, har släppt världens största öppna Text-to-SQL-dataset, vilket kan påskynda AI-modellträning och öppna nya möjligheter för företag över hela världen. Datasetet, som innehåller över 100 000 noggrant utformade syntetiska Text-to-SQL-exempel över 100 branscher, finns nu tillgängligt på Hugging Face under Apache 2.0-licensen. Detta drag av Gretel syftar till att utrusta utvecklare med de verktyg de behöver för att skapa kraftfulla AI-modeller som kan förstå naturliga språkfrågor och generera SQL-frågor. Datasetet genererades med hjälp av Gretel Navigator, ett sofistikerat AI-system.

Direktlänk Dela VentureBeat fördjupade 5 april

CognitiveLab lanserar Indic LLM Leaderboard för bedömning av Indic språkmodeller

CognitiveLab har lanserat Indic LLM Leaderboard, ett utvärderingsverktyg för det växande antalet Indic språkmodeller. Leaderboarden stödjer sju Indic-språk, inklusive hindi, kannada, tamil, telugu, malayalam, marathi och gujarati, och erbjuder en omfattande utvärderingsplattform. Den är värd på Hugging Face och stödjer inledningsvis fyra Indic-benchmarks, med planer på fler i framtiden. Adithya S Kolavi, grundare av CognitiveLab, har också presenterat indic_eval-utvärderingsramverket, som integreras sömlöst med leaderboarden. Systemet är implementerat i Indien, vilket säkerställer robusta säkerhetsåtgärder. Basmodellerna ´meta-llama/Llama-2-7b-hf´ och ´google/gemma-7b´ har lagts till i leaderboarden som referens.

Direktlänk Dela Analytics India Magazine fördjupade 5 april

Så kan du upptäcka AI-genererade bilder

AI-verktyg som DALL-E, Midjourney, Stable Diffusion och Bing AI har gjort det enkelt att skapa AI-genererade bilder, men dessa verktyg kan också missbrukas för att sprida deepfakes och felinformation. Det finns dock några metoder för att upptäcka AI-genererade bilder. Kontrollera bildbeskrivning, vattenmärke och kommentarer. Kolla efter förvrängningar i bilden, särskilt kring ansiktet, näsan, ögonen och tänderna. AI-bilder har ofta en slät textur, vilket kan ge dem ett artificiellt utseende. En omvänd bildsökning med Google kan också avslöja om en bild är AI-genererad. Dessutom finns det verktyg som Is It AI, AI or Not och Hugging Face som kan hjälpa till att upptäcka AI-genererade bilder.

Direktlänk Dela Phandroid fördjupade 5 april

Gretel lanserar omfattande öppen källkod Text-till-SQL-dataset

Gretel har lanserat det mest omfattande och mångsidiga öppna källkods Text-till-SQL-datasetet, vilket kommer att påskynda träningen av AI-modeller och förbättra kvaliteten på datainsikter inom olika branscher. Datasetet, tillgängligt på Hugging Face, innehåller 105 851 poster, med 100 000 avsedda för träning och 5 851 för testning. Det omfattar cirka 23 miljoner totala tokens, inklusive cirka 12 miljoner SQL-tokens, och sträcker sig över 100 distinkta domäner eller vertikaler. Det är utformat för att täcka ett omfattande utbud av SQL-uppgifter, inklusive datadefinition, hämtning, manipulation, analys och rapportering.

Direktlänk Dela MarkTechPost fördjupade 5 april

AMD lanserar Ryzen Embedded 8000-serien med integrerad neuralt processenhetsaccelerator

Chipdesignjätten AMD har tillkännagivit en ny familj av Ryzen Embedded-processorer. Den nya serien, Ryzen Embedded 8000, har en integrerad neuralt processenhetsaccelerator (NPU) som levererar upp till 16 teraoperationer per sekund för arbetsbelastningar inom AI på enhetsnivå och generativ AI. Detta är de första AMD-inbyggda enheterna som kombinerar NPU:er baserade på AMD:s XDNA-arkitektur med traditionella CPU- och GPU-element. De nya chippen kommer att användas i industriella AI-applikationer som maskinsyn, robotik och industriell automatisering.

Direktlänk Dela Hackster fördjupade 5 april

Kostnaderna för att träna AI-modeller ökar exponentiellt

Träning av AI-modeller som OpenAIs GPT-4 och Googles Gemini är en extremt dyr verksamhet, och kostnaderna ökar i takt med att modellerna blir större och mer kapabla. Lambda, en molnleverantör, föreslog att OpenAIs GPT-3, som släpptes 2020, kostade över $4,6 miljoner att träna. OpenAI har inte avslöjat storleken på GPT-4, men rapporter varierar från 1 biljon till 1,8 biljoner parametrar, och VD Sam Altman har vagt uppskattat träningskostnaden till ´mer än´ $100 miljoner. Forskare har påpekat att denna typ av exponentiell kostnadstillväxt är realistisk, men om det är hållbart är en annan fråga. Enligt Jaime Sevilla, direktör för Epoch AI, har kostnaden för träning ungefär fördubblats varje år sedan det djupa inlärningsfältet tog fart i början av 2010-talet.

Direktlänk Dela Fortune Media fördjupade 5 april

NVIDIA-ingenjör skriver guide för att förbättra stora språkmodeller med LoRA

NVIDIA-ingenjören Amit Bleiweiss har skrivit en guide för att arbeta med Low-Rank Adaptation (LoRA) för att förbättra stora språkmodeller (LLMs) med hjälp av företagets öppna källkod TensorRT-LLM för att påskynda prestanda på kompatibla grafikprocessorer. Anpassning av LLMs är en utmanande uppgift som ofta kräver en fullständig träningsprocess som är tidskrävande och beräkningsintensiv. LoRA är en finjusteringsmetod som kan minska antalet träningsbara parametrar, minneskravet och träningsperioden, samtidigt som den uppnår jämförbar eller till och med bättre prestanda än finjustering på olika NLP-uppgifter och domäner. För att demonstrera konceptet, går Bleiweiss guide igenom att använda förinställda LLMs från Hugging Face-plattformen och optimera dem med NVIDIA:s nyligen släppta öppna källkod TensorRT-LLM-bibliotek.

Direktlänk Dela Hackster fördjupade 3 april

Bygg RAG-appar utan OpenAI: en guide på BentoML, OctoAI och Milvus

ChatGPT förde AI till allmänhetens medvetande 2023. Nu finns det dock fler alternativ, så utvecklingen är inte längre bunden till OpenAI. Detta är det tredje inlägget i en serie om hur du kan bygga retrieval-augmented generation (RAG) appar med LLM som inte är OpenAIs GPT. I denna handledning använder vi BentoML för att servera inbäddningar, OctoAI för att få LLM och Milvus som vår vektordatabas. Vi täcker följande ämnen: Servering av inbäddningar med BentoML, Införande av dina data i en vektordatabas för RAG, Skapande av din Milvus-samling, Tolkning och inbäddning av dina data för införande, Inställning av din LLM för RAG, övervägande av ett RAG-exempel och Sammanfattning av BOM dot COM: BentoML, OctoAI och Milvus för RAG.

Direktlänk Dela The New Stack fördjupade 3 april

Cloudflare tillåter nu AI-applikationer att distribueras på dess globala nätverk genom Hugging Face

Cloudflare har nyligen meddelat att utvecklare nu kan distribuera AI-applikationer på Cloudflares globala nätverk med ett enda klick direkt från Hugging Face, den ledande öppna och samarbetsplattformen för AI-byggare. Med Workers AI allmänt tillgänglig kan utvecklare nu distribuera AI-modeller med ett enda klick direkt från Hugging Face, för det snabbaste sättet att få tillgång till en mängd olika modeller och köra inferensförfrågningar på Cloudflares globala nätverk av GPU:er. Det finns nu 14 kuraterade Hugging Face-modeller som är optimerade för Cloudflares globala serverlösa inferensplattform.

Direktlänk Dela Analytics India Magazine fördjupade 3 april

Upstage lanserar Solar-modellen på Amazon SageMaker JumpStart

Upstage har lanserat sin Solar-stiftelsemodell på Amazon SageMaker JumpStart. Solar är en stor språkmodell (LLM) som är 100% förtränad med Amazon SageMaker och utmärker sig genom sin kompakta storlek och starka prestanda, särskilt inom syftesträning, vilket gör den mångsidig över språk, domäner och uppgifter. Modellen kan nu användas med Solar Mini Chat och Solar Mini Chat - Quant förtränade modeller inom SageMaker JumpStart. Solar är en kompakt och kraftfull modell för engelska och koreanska språk och är speciellt finjusterad för flerstegs chattändamål, vilket visar förbättrad prestanda över ett brett spektrum av naturliga språkbearbetningsuppgifter. Solar-modellen kan nu upptäckas och distribueras via SageMaker JumpStart.

Direktlänk Dela Amazon Web Services fördjupade 2 april

Öppen källkods AI utmanar Big Techs stängda system

I kölvattnet av ChatGPTs debut har kampen om stiftelsemodeller blossat upp bland teknikjättarna. Microsofts snabba förvärv av Inflection markerade en ny era av AI-dominans. Men ökningen av öppen källkods AI erbjuder ett strå av hopp för teknikdemokratisering. Franska pionjärer som Mistral och Hugging Face leder an, erbjuder fri tillgång och anpassning, och utmanar Silicon Valleys status quo. Kommer öppen källkodsinnovation att segra över Big Techs stängda system?

Direktlänk Dela BizNews fördjupade 2 april

Microsoft tillkännager nya verktyg för att skydda AI-applikationer mot hot

Microsoft har meddelat flera nya funktioner i Azure AI Studio för att hjälpa utvecklare att bygga generativa AI-applikationer som är mer tillförlitliga och motståndskraftiga mot illasinnad modellmanipulation och andra framväxande hot. Enligt Sarah Bird, Microsofts produktchef för ansvarsfull AI, är det växande oron över att hotaktörer använder promptinjektionsattacker för att få AI-system att bete sig farligt och oväntat som den primära drivkraften för de nya verktygen. Azure AI Studio är en värdplattform som organisationer kan använda för att bygga anpassade AI-assistenter, medhjälpare, bots, sökverktyg och andra applikationer, baserade på sin egen data.

Direktlänk Dela Dark Reading fördjupade 2 april

Skapa en privat och kostnadsfri AI-assistent med LM Studio och Anything LLM Desktop

Timothy Carat, grundare av Mintplex Labs och skapare av Anything LLM, introducerar en metod för att installera alternativa AI-modeller till ChatGPT på din dator, vilket gör att du kan köra kraftfulla AI-assistenter utan behov av någon kostsam prenumeration. Processen involverar användning av två applikationer, LM Studio och Anything LLM Desktop, som är utformade för enkel installation och stöd för olika operativsystem, inklusive Mac, Linux och Windows. Populära alternativ inkluderar Llama 2 eller Mistral, som enkelt kan integreras i ditt lokala system. Varje modell har sina egna unika styrkor och egenskaper, så det är viktigt att forskning och välja den som bäst passar dina behov. Anything LLM Desktop förbättrar din upplevelse genom att erbjuda omfattande anpassning samtidigt som din integritet prioriteras. Denna öppna källkodsverktyg låter dig ställa in en lokal server inom LM Studio för att hantera AI-modellkompletteringar, vilket leder till snabbare och stabilare prestanda. Med Anything LLM Desktop har du full kontroll över din AI-assistentinställningar, vilket gör att du kan skräddarsy dess beteende och utdata för dina specifika behov.

Direktlänk Dela Geeky Gadgets fördjupade 1 april

Konstvärlden grapples med generativ AI: Konstnärer delade över teknikens potential

Konstvärlden utforskar hur man bäst använder generativ AI, en teknologi som kan skapa bilder från skriftliga prompts. Vissa konstnärer uttrycker oro över teknikens potential och dess inverkan på upphovsrätten, medan andra är spända på möjligheterna. Installationskonstnären Rubem Robierb var chockad över vad generativ AI kan göra och föreslår att det bör införas lagliga gränser för att skydda konstnärers immateriella egendom. I Europa syftar Europeiska kommissionens AI-lag till att reglera tekniken beroende på hur riskfylld den anses vara för medborgarnas rättigheter eller säkerhet. Gallerier som Serpentine i London och 37xDubai i Förenade Arabemiraten omfamnar AI-genererad konst.

Direktlänk Dela Consumer News and Business Channel fördjupade 1 april

Thomas Padilla, biträdande direktör på Archive.org, diskuterade vad som exakt utgör en ´öppen AI´ under National Information Standards Organizations konferens. Han identifierade fem egenskaper som öppen AI bör ha, inklusive att den ska vara återanvändbar och att användarna ska väga avvägningar mellan prestanda och ´bredare återanvändbarhet och potentialen för andra i vårt samhälle att bygga på den nedre modellen´. Padilla granskade också licensvillkoren för Meta´s Llama 2 på dess GitHub-förråd och ifrågasatte om det verkligen är öppen källkod. Han nämnde också det öppna språkmodellen OLMo som ett exempel på en modell som visar löfte om att ha en starkare överensstämmelse med andan av öppen källkod.

The New Stack fördjupade 31 mars

Chatbot Arena: En ny plattform för att jämföra AI-språkmodeller

Sedan ChatGPT:s ankomst har många språkmodeller lanserats på AI-marknaden. Det omfattande utbudet gör det svårt för användare att bedöma kvaliteten på olika modeller. För att ge en objektiv bedömning av språkmodellernas prestanda har Large Model Systems Organization (LMSYS) beslutat att erbjuda sin egen ranking. LMSYS är ett projekt initierat av studenter vid University of Berkeley och stöttat av Hugging Face. De har skapat Chatbot Arena, en plattform för att jämföra olika AI-modeller. Den mest framstående modellen är inte GPT-4, utan Claude 3 Opus, utvecklad av Anthropic.

Direktlänk Dela Blogdumoderateur.com fördjupade 31 mars

Topp tio Python-bibliotek för AI-utveckling 2024

Python-bibliotek för maskin- och djupinlärning fortsätter att utvecklas 2024. TensorFlow är ett kraftfullt öppen källkods-bibliotek som underlättar numeriska beräkningar och accelererar maskininlärningsprocessen, ofta använt på Google. PyTorch är känt för sin anpassningsbarhet och användarvänlighet. Scikit-learn erbjuder tillgång till olika klassificerings-, regressions- och klusteringsalgoritmer och är utmärkt för datautvinning och analys. Keras underlättar snabbt experiment med djupa neurala nätverk. XGBoost är effektivt för storskalig datautvinning. LightGBM är framstående för att hantera stora mängder data. JAX kombinerar kraften i NumPy med automatisk differentiering och GPU/TPU-stöd. FastAI gör djupinlärning mer tillgänglig. Hugging Face Transformers-biblioteket erbjuder en imponerande samling förtränade modeller för NLP-uppgifter. OpenCV är ett gratis och öppen källkodsprogram för datorvision och maskininlärning.

Direktlänk Dela MarkTechPost fördjupade 31 mars

Teknikjättar investerar miljarder i AI

Teknikjättar som Microsoft, Google och Amazon investerar miljarder i artificiell intelligens (AI) för att inte hamna efter i en marknad som förväntas överstiga $1 miljard i intäkter inom ett decennium. Amazon har nyligen investerat $2,75 miljarder i AI-startupen Anthropic, vilket är deras största venture deal hittills. Anthropic är utvecklaren bakom AI-modellen Claude, som konkurrerar med GPT från Microsoft-stödda OpenAI och Googles Gemini. Microsoft har tidigare investerat $1 miljard i OpenAI, en investering som sedan har växt till cirka $13 miljarder. Google har åtagit sig att investera $2 miljarder i Anthropic.

Direktlänk Dela EMEA Tribune fördjupade 31 mars

ROUTERBENCH - ett nytt ramverk för att utvärdera stora språkmodeller

I den digitala tidsåldern har stora språkmodeller (LLM) blivit hörnstenar i utvecklingen av applikationer som kräver nyanserad förståelse och generering av text som liknar mänskligt tal. Detta har lett till utmaningar för utvecklare och forskare att välja den mest lämpliga LLM som optimerar både prestanda och kostnadseffektivitet. Forskare från Martian, UC Berkeley och UC San Diego introducerar ROUTERBENCH, ett omfattande benchmark för att bedöma effektiviteten hos LLM routing-system. Detta nya ramverk erbjuder ett systematiskt sätt att utvärdera routerprestanda och banar väg för mer informerat och strategiskt modellimplementering.

Direktlänk Dela MarkTechPost fördjupade 30 mars

Amazon har investerat $2,75 miljarder i AI-startupen Anthropic, vilket är dess största venture deal hittills. Anthropic utvecklar AI-modellen Claude, som konkurrerar med GPT från Microsoft-stödda OpenAI, och Googles Gemini. Stora teknikföretag som Meta och Apple försöker integrera generativ AI i sina produktportföljer för att inte hamna efter på en marknad som förväntas överstiga $1 miljard i intäkter inom ett decennium. 2023 investerade investerare totalt $29,1 miljarder i nästan 700 generativa AI-erbjudanden, en ökning med mer än 260% jämfört med föregående år.

Consumer News and Business Channel fördjupade 30 mars

Forskare reproducerar framgångsrikt OpenAI:s RLHF-pipeline med hög precision

Forskare från Hugging Face, Mila och Fuxi AI lab har framgångsrikt reproducerat OpenAI:s RLHF (Reinforcement Learning from Human Feedback) pipeline med hög precision. De skapade en RLHF-pipeline och fokuserade på över 20 nyckelimplementationer. För att förbättra reproducerbarheten använde de en enhetlig inlärningshastighet för SFT, RM och PPO-utbildning. De använde transformeringsbibliotekets implementation av Pythia-modellerna tillsammans med deepspeeds ZeRO Stage 2 för att passa modellerna i GPU-minnet. Forskarnas bästa 6,9B-modell föredras av GPT nästan 80% av tiden, vilket visar dess praktiska överlägsenhet.

Direktlänk Dela MarkTechPost fördjupade 29 mars

Nästa generations NVIDIA GPU:er dominerar i MLPerf AI-prestandatester

Nästa generations NVIDIA GPU:er dominerade de senaste MLPerf prestandatesterna för artificiell intelligens (AI). Testerna, som administreras av AI-teknikkonsortiet MLCommons, inkluderade för första gången två nya tester för att approximera inferensarbetsbelastningar för generativa AI-applikationer. NVIDIA använde sina snart tillgängliga NVIDIA H200 Tensor Core GPU:er (byggda på Nvidia Hopper-arkitekturen) i dessa hastighetstester. GPU:erna förbättrades med NVIDIA TensorRT-LLM, en programvara som effektiviserar LLM-bearbetning. I testerna kunde H200 GPU:erna, tillsammans med TensorRT-LLM, producera upp till 31 000 tokens/sekund, vilket satte ett rekord att slå i denna första omgång av LLM-benchmarking. Denna nästa generation av GPU:er visade en prestandaförbättring på cirka 43% jämfört med de för närvarande tillgängliga H100:erna.

Direktlänk Dela The New Stack fördjupade 29 mars

OpenAI kan bli första privatägda företaget värderat till 1 biljon dollar, enligt Kai-Fu Lee

OpenAI kan bli det första privatägda företaget med en värdering på 1 biljon dollar, enligt Kai-Fu Lee, tidigare president för Google Kina. Lee tror att OpenAI kan uppnå denna milstolpe inom två till tre år, förutsatt att det behåller sin nuvarande bana. Sam Altman, VD för OpenAI, anses av många riskkapitalister vara en mästare på att samla in pengar. Trots potentiella utmaningar och företagets rapporterade status som ett förlustbringande företag, värderade riskkapitalister och privata kapitalinvesterare nyligen det till över 80 miljarder dollar under sin senaste insamlingsrunda.

Direktlänk Dela Firstpost fördjupade 29 mars

AI-hot ökar i många industrier, företag söker nya skyddsmetoder

Många industrier som sjukvård, finans och försäkring och teknik är oförberedda på de datarisker som AI medför. Tillverkningsindustrin har mest AI-trafik och står för 20,9% av alla AI/ML-transaktioner. För att skydda mot cyberattacker har CISO och andra team beslutat att blockera AI/ML-verktyg om de utgör ett hot mot systemet. ChatGPT är det mest använda AI-verktyget idag men också det mest blockerade. Företag som CrowdStrike, Palo Alto Networks och Zscaler arbetar med att hitta nya sätt att blockera dessa AI-transaktioner. Rapporten talar också om två kategorier av AI-hot; dataskydds- och säkerhetsrisker och risker med nya cyberhotlandskap.

Direktlänk Dela Digital Information World fördjupade 29 mars

Konkurrensen om de bästa AI-talangerna intensifieras när företag av alla storlekar strävar efter att skapa de bästa produkterna inom den blomstrande sektorn. Stora teknikföretag med stora bankkonton tycks för närvarande ha övertaget. Mustafa Suleyman, medgrundare till Googles DeepMind, lämnade nyligen sin startup Inflection AI för att leda Microsofts konsument-AI-avdelning som VD. Rekryterare påpekar att mindre företag och startups har svårt att anställa personal med tekniska och icke-tekniska AI-färdigheter, med vissa tech-chefer som tror att Big Tech pressar dem ut ur sektorn.

Business Insider fördjupade 29 mars

Analytiker diskuterar LLM-observabilitet och dess betydelse för systeminsikter

Janikiram MSV, en oberoende analytiker och frekvent bidragsgivare, har diskuterat LLM-observabilitet, ett nytt ekosystem som har utvecklats under det senaste året. LLM-stacken omfattar stora språkmodeller, vektordatabaser, inbäddade modeller, hämtningsystem och läsankarmodeller. Målet med LLM-observabilitet är att övervaka de gyllene signalerna som kommer från denna nya stack och säkerställa att systemet ger de önskade resultaten. MSV detaljerade kritiska aspekter av LLM-observabilitet, inklusive GPU, CPU, lagring och vektordatabas, modelltjänst, modellanvändning och ändringar i applikationens agenter. Han betonade vikten av att övervaka infrastrukturresurser, hålla vektordatabasen tillgänglig och säkerställa att modellkatalogen är synkroniserad med en extern modellleverantör som Hugging Face.

Direktlänk Dela The New Stack fördjupade 29 mars

Kan OpenAI snart vara värt en biljon dollar?

OpenAI, ett företag grundat av Sam Altman för att konkurrera med Google´s DeepMind, kan snart vara värt en biljon dollar, enligt Kai-Fu Lee, tidigare president för Google Kina. Trots att företaget för närvarande troligen går med förlust och nyligen värderades till lite över 80 miljarder dollar, tror Lee att OpenAI kommer att nå denna sällsynta höjd inom bara två eller tre år. Han menar att OpenAI är ´guldstandarden´ inom framtida teknik och att dess GPT-4 fortfarande är den bästa kommersiella produkten ett år efter lanseringen.

Direktlänk Dela Fortune Media fördjupade 28 mars

De 7 bästa AI-verktygen för dataforskare

AI har blivit ett viktigt verktyg inom olika branscher, inklusive dataforskning. Utvecklare och forskare använder alltmer AI-drivna verktyg för att förenkla sina arbetsflöden. Bland dessa verktyg finns PandasAI, GitHub Copilot, ChatGPT, Colab AI, Perplexity AI, Grammarly och Hugging Face. PandasAI automatiserar dataanalys med olika AI-modeller. GitHub Copilot förbättrar förmågan att skriva ren och effektiv kod snabbare. ChatGPT används för att generera innehåll, kod och lösa komplexa problem. Colab AI är en AI-driven kodassistent. Perplexity AI är en smart sökmotor och forskningsassistent. Grammarly AI erbjuder skrivhjälp, och Hugging Face fungerar som en omfattande ekosystem för åtkomst till datamängder, modeller och API:er för att utveckla och distribuera maskininlärningslösningar.

Direktlänk Dela KDnuggets fördjupade 28 mars

Stor språkmodellmarknad förväntas växa till 36,1 miljarder dollar år 2030

Den globala marknaden för stora språkmodeller (LLM) förväntas växa med en årlig tillväxttakt på 33,2% och nå 36,1 miljarder dollar år 2030, upp från en uppskattad 6,4 miljarder dollar 2024. Tillväxten drivs av tillgången på stora datamängder, framsteg inom djupinlärningsalgoritmer och ökad efterfrågan på automatiserad innehållsskapande och -kurering. Allmänna LLM:er förväntas ha den största marknadsandelen, medan videosegmentet förväntas växa snabbast. Ledande spelare på marknaden inkluderar Google, OpenAI, Anthropic, Meta, Microsoft, NVIDIA, AWS, IBM, Oracle, HPE, Tencent, Yandex, Naver, AI21 Labs, Hugging Face, Baidu, SenseTime och Huawei.

Direktlänk Dela openPR fördjupade 28 mars

Acceleration Economy presenterar topp 10 företag inom AI-ekosystemet

Acceleration Economy har presenterat sina topp 10 företag inom AI-ekosystemet. Listan inkluderar OpenAI, NVIDIA, IBM, Anthropic, Microsoft, Cohere, Databricks, UiPath, Celonis och ServiceNow. OpenAI, värderat till över 80 miljarder dollar, har en central roll i ekosystemet och har inspirerat andra utvecklare som Anthropic och Cohere. NVIDIA tillhandahåller nödvändig hårdvara för AI-programvara. IBM har lanserat sin nya AI- och dataplattform för företag, watsonx. Anthropic, grundat 2021, har en ljus framtid inom ansvarsfull AI-forskning. Microsoft har transformerat Azure till en AI-plattform. Cohere, en plattformsleverantör som OpenAI och Anthropic, har ett unikt fokus på företagskunder. Databricks hjälper organisationer med dataförberedelse och träning för AI-system. UiPath har positionerat sig som ledare inom processautomation med hjälp av AI. Celonis har fokuserat på processgruvdrift och processintelligens. ServiceNow, en molnbaserad arbetsflödesautomatiseringsplattform, har visat ökat intresse för partnerskap för att snabbt kunna erbjuda produkter till olika marknader.

Direktlänk Dela Accelerationeconomy.com fördjupade 28 mars

Meta lanserar Code Llama med 70 miljarder parametrar

I slutet av sommaren 2023 tillkännagav Meta Code Llama, en LLM för mjukvaruutveckling. Code Llama finns nu i fyra versioner: 7, 13, 34 och nu 70 miljarder parametrar. Driven av 500 miljarder tokens, förblir de första tre modellerna av Code Llama kraftfulla, snabba verktyg som är bättre lämpade för små konfigurationer. 7B kan köras på en enda GPU. 70B har tränats med 1 000 miljarder tokens och presenteras av Meta som den perfekta utvecklingsassistenten. Meta marknadsför också två versioner av Code Llama: Code Llama Python och Code Llama Instruct, i alla möjliga versioner (7, 13, 34 och 70). Alla dessa modeller härstammar från Llama 2 och är värd av Hugging Face.

Direktlänk Dela DataScientest fördjupade 28 mars

IEA: Energiförbrukning från datacenter och AI kan fördubblas till 2026

Internationella energiorganet (IEA) förutspår att den globala energianvändningen för datacenter, kryptovaluta och artificiell intelligens (AI) kan fördubblas till 2026, vilket skulle motsvara den mängd elektricitet som hela Japan använder. IEA uppskattar att dessa användningsområden representerade nästan 2 procent av den globala energiefterfrågan 2022. Ett av de områden som har den snabbast växande efterfrågan på energi är formen av maskininlärning kallad generativ AI. Enligt IEA tar en enda Google-sökning 0,3 wattimmar elektricitet, medan en ChatGPT-begäran tar 2,9 wattimmar. Om ChatGPT integrerades i de 9 miljarder sökningar som görs varje dag, skulle elbehovet öka med 10 terawattimmar per år.

Direktlänk Dela Vox fördjupade 28 mars

Databricks släpper kraftfull öppen modell DBRX

Databricks har släppt DBRX, en kraftfull öppen modell som överträffar Metas LlaMA2, Mixtral och Grok på språkförståelse, kodning och matematik, enligt Hugging Face Open LLM Leaderboard och Databricks Model Gauntlet benchmarks. Modellens vikter och kod är licensierade för kommersiellt och forskningsbruk under dess egen ´Databricks Open Model License´, med vissa begränsningar. Databricks, som har en stor företagskundbas för sina datahanteringsverktyg, erbjuder att anpassa DBRX för kunder eller bygga skräddarsydda versioner av den öppna modellen anpassade till deras specifika behov.

Direktlänk Dela The Stack fördjupade 28 mars

Databricks lanserar öppen källkod för storskalig språkmodell, DBRX

Analysplattformen Databricks har lanserat en öppen källkod för en storskalig språkmodell, DBRX, utvecklad av Mosaic AI. Modellen, som tränades på Nvidia DGX Cloud, påstår sig överträffa öppna källkods-rivaler och OpenAI:s GPT-3.5 inom språkförståelse, programmering och matematik. Databricks hoppas att företag kommer att använda DBRX som grund för sina egna storskaliga språkmodeller. Modellen finns tillgänglig gratis på GitHub och Hugging Face. Databricks har även ett långvarigt strategiskt partnerskap med Microsoft.

Direktlänk Dela The Register fördjupade 28 mars

Förklaring av Retrieval Augmented Generation (RAG) och hur man skapar ett RAG-system

Stora språkmodeller (LLM), som GPT3.5, GPT-4, Bard och Llama, har gett nya möjligheter för moderna applikationer, särskilt förmågan att generera text i svar på en användarfråga. För att förbättra LLM:ernas förmåga att svara på användarfrågor med relevant och korrekt information har AI-ingenjörer och utvecklare utvecklat två huvudsakliga metoder. Den första är att finjustera bas-LLM med äganderättslig och kontextrelevant data. Den andra, och mest kostnadseffektiva, metoden är att koppla LLM till en databas med en återvinningsmodell som extraherar semantiskt relevant information från databasen för att lägga till kontext till LLM-användarinmatningen. Denna metod kallas för Retrieval Augmented Generation (RAG).

Direktlänk Dela Built In fördjupade 27 mars

Databricks tillkännager DBRX, en ny generativ AI-modell

Databricks har tillkännagivit DBRX, en ny generativ AI-modell som liknar OpenAI:s GPT-serie och Googles Gemini. Modellen är tillgänglig på GitHub och AI-utvecklingsplattformen Hugging Face för både forskning och kommersiellt bruk. DBRX kan köras och finjusteras på offentliga, anpassade eller annars proprietära data. Modellen har tränats för att vara användbar och ge information om en mängd olika ämnen. Databricks beskriver DBRX som ´open source´, liknande modeller som Meta´s Llama 2 och AI-startupen Mistrals modeller. Databricks påstår att det tog ungefär $10 miljoner och två månader att träna DBRX.

Direktlänk Dela TechCrunch fördjupade 27 mars

Marknaden för storskaliga språkmodeller förväntas växa kraftigt fram till 2030

En ny forskningsrapport från MarketsandMarkets förutspår en snabb tillväxt för marknaden för storskaliga språkmodeller (LLM). Marknaden förväntas växa från 6,4 miljarder dollar 2024 till 36,1 miljarder dollar 2030, med en årlig tillväxttakt på 33,2% under prognosperioden 2024-2030. Denna tillväxt drivs av det ökande behovet av förbättrad kommunikation mellan människor och maskiner, ökad efterfrågan på automatiserad innehållsskapande och kurering, samt ökad tillgänglighet av omfattande datamängder. Allmänna LLM:er förväntas registrera den största marknadsandelen under prognosperioden, medan videosegmentet förväntas ha den snabbaste tillväxten. Nordamerika förväntas stå för den största marknaden under prognosperioden.

Direktlänk Dela WhaTech fördjupade 25 mars

Använda LLM för att skapa ett expertsystem

Expertsystem är datorprogram som använder artificiell intelligens för att lösa komplexa problem. De är utformade för att efterlikna beslutsförmågan hos en mänsklig expert inom ett visst område. LLM, eller Language Model for Knowledge Graphs and Text Generation, är ett kraftfullt verktyg för att skapa expertsystem. I det här blogginlägget diskuterar vi hur man använder LLM för att skapa ditt eget expertsystem. LLM är en språkmodell som kan användas för att generera text baserat på en kunskapsgraf. En kunskapsgraf är ett sätt att representera information i form av noder och kanter. Noder representerar enheter, som människor, platser eller begrepp, medan kanter representerar relationerna mellan dem. Genom att använda en kunskapsgraf kan LLM förstå sammanhanget av den information den bearbetar och generera mer exakt och relevant text.

Direktlänk Dela Medium fördjupade 25 mars

Stora framsteg i AI-utbildning utan upphovsrättsmaterial

En internationell samarbetsinitiativ, Common Corpus, har utmanat OpenAI:s påstående att det är ´omöjligt´ att träna topp AI-modeller utan att använda upphovsrättsligt skyddat innehåll. Common Corpus är den största offentliga datamängden för att träna stora språkmodeller (LLM) och visar att LLM kan tränas utan upphovsrättsliga problem. Fairly Trained, en ledande icke-vinstdrivande organisation inom AI-industrin, har tilldelat sin första certifiering för en LLM byggd utan upphovsrättsintrång, en modell känd som KL3M. Modellen har utvecklats av 273 Ventures, en legal tech-konsultfirma baserad i Chicago.

Direktlänk Dela MarkTechPost fördjupade 23 mars

Öppen källkods-AI utmanar marknadsdominansen hos jättar som OpenAI

Företag som Mistral AI och Hugging Face utmanar dominansen av stora aktörer som OpenAI genom att omfamna en öppen källkodsmodell. Denna strategiska förändring mot fritt tillgänglig AI-teknik är inte bara ett försök att demokratisera tillgången utan också en utmaning för den samlade marknadsmakten hos etablerade spelare. Trots att övergången till öppen källkod innebär utmaningar, kan det leda till innovation och samarbete inom AI. Företag som Databricks och Mistral AI utforskar hybridmodeller, som erbjuder både öppen källkod och proprietära produkter, för att möta ett bredare spektrum av behov.

Direktlänk Dela Xpert Times fördjupade 22 mars

Marknaden för Large Language Models väntas vara värd 36,1 miljarder dollar 2030

Marknaden för Large Language Models (LLM) förväntas växa från 6,4 miljarder USD 2024 till 36,1 miljarder USD 2030, enligt en rapport från MarketsandMarkets. Denna tillväxt drivs av utvecklingar inom naturlig språkförståelse och multimodal integration samt ökad industriintegration. Regleringar och implementering på kanten kommer att vägleda marknadens utveckling mot personliga, varierade och integritetsmedvetna applikationer. Samtidigt kommer etiska överväganden, integritetsfrågor och samarbete med domänspecifika AI-modeller att driva ansvarsfull utveckling.

Direktlänk Dela Itnewsonline.com fördjupade 21 mars

Forskning visar att AI kan tränas utan att bryta mot upphovsrätten

OpenAI hävdade 2023 att det var ´omöjligt´ att träna ledande AI-modeller utan att använda upphovsrättsskyddat material, vilket ledde till en våg av stämningar för upphovsrättsintrång. Två nyligen offentliggjorda framsteg visar att stora språkmodeller faktiskt kan tränas utan att använda upphovsrättsskyddat material utan tillstånd. En grupp forskare, stödda av den franska regeringen, har släppt vad som anses vara den största AI-träningsdatamängden bestående helt av text som är i allmän egendom. Dessutom har den ideella organisationen Fairly Trained tilldelat sin första certifiering för en stor språkmodell byggd utan upphovsrättsintrång, vilket visar att teknik som den bakom ChatGPT kan byggas på ett annat sätt än AI-industrins omstridda norm.

Direktlänk Dela Wired fördjupade 21 mars

AI-verktyg blir allt mer subtilt rasistiska, enligt ny rapport

Enligt en ny rapport blir populära artificiella intelligensverktyg allt mer subtilt rasistiska. Forskare inom teknik och lingvistik har avslöjat att stora språkmodeller som OpenAI:s ChatGPT och Googles Gemini håller rasistiska stereotyper om talare av African American Vernacular English (AAVE), en engelsk dialekt skapad och talad av svarta amerikaner. Forskarna fann att AI-modellerna var betydligt mer benägna att beskriva AAVE-talare som ´dumma´ och ´lata´, och tilldela dem lägre betalande jobb. AI-modellerna var också betydligt mer benägna att rekommendera dödsstraff för hypotetiska brottslingar som använde AAVE i sina rättsliga uttalanden.

Direktlänk Dela The Guardian fördjupade 16 mars

Google lanserar Gemma 2B och 7B för att göra AI tillgängligt för allmänheten

Google har tagit de första stegen för att göra AI tillgängligt för allmänheten genom att lansera Gemma 2B och 7B, öppna modeller som utvecklare och forskare kan anpassa och finjustera efter eget behag. Google har också lagt till Responsible Generative AI Toolkit för att säkerställa etisk användning. Gemma 2B och 7B är ´öppna modeller´, vilket innebär att människor kan justera dem hur de vill, men det betyder inte att de är öppen källkod eller gratis. Utvecklare kan börja använda Google Gemma genom att få tillgång till färdiga Colab och Kaggle anteckningsböcker och de kommer också att få tillgång till Hugging Face, Nvidia´s NeMo och MaxText.

Direktlänk Dela Inquirer Technology fördjupade 15 mars

Privat AI: Skydda din data medan du utnyttjar AI:s fördelar

Användare kan nu använda AI-verktyg som OpenAI’s ChatGPT på sina personliga enheter, vilket garanterar att känslig data aldrig lämnar deras egna hårdvara. Detta är särskilt viktigt i dagens värld där datasekretess är en stor oro för alla. VMware är i framkant av denna tekniska förändring, och tillhandahåller företag verktygen för att vara värd för sina egna AI-modeller inom sina datacenter. Hugging Face är en plattform som värd för en mängd AI-modeller, inklusive Llama 2 LLM utvecklad av Meta (tidigare Facebook). VMware har samarbetat med Nvidia för att tillhandahålla verktyg som underlättar denna anpassningsprocess, vilket gör det möjligt för fler företag att utveckla sina egna skräddarsydda AI-lösningar.

Direktlänk Dela Geeky Gadgets fördjupade 15 mars

OpenAI:s styrelse uttrycker fullt förtroende för VD Sam Altman trots tidigare avsked

OpenAI har nyligen tillkännagivit resultatet av en oberoende juridisk granskning av VD Sam Altmans avsked i november. Företaget presenterade resultaten som en frikännande av dess handlingar. OpenAI:s nya styrelse uttryckte fullt förtroende för Altmans ledarskap baserat på advokatfirmans analys. Granskningen bekräftade att Altman inte hade blivit avskedad på grund av oro för produktsäkerhet eller företagsekonomi, utan det hade varit en förtroendekris mellan honom och styrelsen. Altman har nu möjlighet att återställa förtroendet inte bara med sin styrelse, utan också med allmänheten.

Direktlänk Dela Mint fördjupade 14 mars

Google introducerar Croissant, ett nytt metadataformat för maskininlärningsklara dataset

Google har introducerat Croissant, ett nytt format för metadata i maskininlärningsklara dataset. Croissant, en utbyggnad av den etablerade standarden schema.org, lägger till omfattande lager för dataresurser, standardiserade maskininlärningssemantik, metadata och dataskötsel för att göra det mer relevant för maskininlärning. Croissant kommer med en öppen källkods Python-bibliotek för att validera, konsumera och generera Croissant-metadata, samt en visuell redigerare för att läsa in, inspektera och intuitivt skapa Croissant datasetbeskrivningar. Croissant stöds nu av populära maskininlärningsdatasetkollektioner som Kaggle, Hugging Face och OpenML.

Direktlänk Dela MarkTechPost fördjupade 12 mars

Googles AI-verktyg Gemini skapar kontroversiella bilder

Googles generativa AI-verktyg, Gemini, har skapat kontrovers genom att generera bilder som visar historiska figurer som människor av olika etniciteter. Användare rapporterade att verktyget genererade bilder på människor av färg, även när det inte var lämpligt. Vissa användare skrattade åt att de inte kunde generera bilder på vita människor, medan andra blev upprörda över bilder av brunfärgade människor i nazistuniformer. Detta ledde till att Google tillfälligt inaktiverade verktyget. Google förklarade att Gemini var utformat för att inte upprepa tidigare problem med AI-bias, men medgav att det hade överkompenserat i vissa fall. Google planerar nu att genomföra omfattande tester innan bildgenereringsfunktionen blir tillgänglig igen.

Direktlänk Dela Al Jazeera fördjupade 9 mars

Hugging Face lanserar öppet robotikprojekt

Hugging Face, startup-företaget bakom den populära öppna källkoden för maskininlärning och ChatGPT-rivalen Hugging Chat, utvidgar till nytt område med lanseringen av ett öppet robotikprojekt. Den ambitiösa expansionen tillkännagavs av tidigare Tesla-personalvetenskapsman Remi Cadene. Cadene, som kommer att leda robotikinitiativet, avslöjade att Hugging Face anställer robotingenjörer i Paris, Frankrike. En jobbannons för en ´Inkroppad Robotingenjör´ ger insikt i projektets mål, som inkluderar ´utformning, byggande och underhåll av öppna källkod och lågkostnadsrobotiska system som integrerar AI-teknologier, specifikt inom djupinlärning och inkroppad AI.´

Direktlänk Dela AI News fördjupade 8 mars

Hugging Face lanserar öppen källkodsrobotikprojekt under ledning av före detta Tesla-vetenskapsman

New York-startupen Hugging Face, känd för sin öppna källkod för maskininlärning och AI, samt den öppna källkoden ChatGPT-rival Hugging Chat, lanserar ett nytt robotikprojekt under ledning av före detta Tesla-personalen Remi Cadene. Cadene meddelade att Hugging Face-robotprojektet skulle vara ´öppen källkod, inte som i Open AI´, vilket överensstämmer med Hugging Faces uttalade etos och också ett lekfullt hugg mot OpenAI:s senaste svar på en stämning från medgrundaren och rivalen, Tesla VD Elon Musk. Han söker också ingenjörer i Paris, Frankrike.

Direktlänk Dela Ooda fördjupade 7 mars

AI-genererade recept leder ofta till oväntade resultat, varnar experter

Artificiell intelligens (AI) skapar allt fler recept, men resultaten är ofta oväntade och inte alltid på ett bra sätt. Livsmedelsmärken som Heinz och Avocados From Mexico försöker integrera tekniken på sina webbplatser, men experter varnar för att AI inte är så smart som vi tror, särskilt när det gäller mat. AI kan inte förstå alla de multisensoriska upplevelser som gör god mat bra, eftersom de är utformade för att matcha tvådimensionella ord och färger. Dessutom kan AI inte kontrollera sitt arbete, eftersom det saknar luktsinne och smaklökar. Det finns även risk för att AI kan sätta ihop saker som kan vara giftiga eller skadliga, eller interagera med människors mediciner utan att kunna flagga för det eller märka det.

Direktlänk Dela The Washington Post fördjupade 7 mars

Före detta Google-ingenjör anklagas för stöld av AI-hemligheter

Leon Ding, även känd som Linwei Ding, en tidigare ingenjör på Google, rapporteras ha stulit företagets konfidentiella filer som innehåller handelshemligheter om artificiell intelligens (AI). Ding är nu häktad och anklagad för fyra brott i Kalifornien. Enligt uttalanden från biträdande justitieminister Lisa Monaco, hade Ding arbetat i hemlighet för kinesiska företag i hopp om att få fördelar inom AI-teknologi. Han planerade även att starta ett eget företag i Kina med hjälp av stulna teknologier.

Direktlänk Dela Tech Times fördjupade 7 mars

AI-chattbotar formar den digitala landskapet i januari 2024

AI-chattbotar har blivit oumbärliga verktyg som revolutionerar hur vi interagerar med teknologi och varandra. ChatGPT, utvecklad av OpenAI, utmärker sig med sin förmåga att engagera användare i naturliga och meningsfulla konversationer. Google Bard, ett erbjudande från Google, fungerar som ett mångsidigt forskningsverktyg integrerat med Googles sökkraft. Hugging Chat, utvecklad av Hugging Face, fångar användare med sin vänliga attityd och stöd för flera språk. Dessa AI-chattbotar symboliserar innovationspotentialen inom konstgjord intelligens.

Direktlänk Dela Ukraine Business Journal fördjupade 4 mars

Artighet kan förbättra chatten med AI

Användare på sociala nätverk Reddit hävdar att chatboten ChatGPT ger mer detaljerade svar om de frågar den artigt eller erbjuder den pengar. Detta bekräftas av forskare från Microsoft, Beijing Normal University och Chinese Academy of Sciences. Enligt dem presterar generativa AI-modeller bättre när de ombeds artigt eller med en känsla av syfte. Giada Pistilli, en filosofiforskare och chef för etik för start-up-företaget Hugging Face, noterar att ChatGPT gav detaljerade svar när den erbjöds tips. Adrien-Gabriel Chifu, datavetenskapsdoktor och lärare-forskare vid University of Aix-Marseille, konstaterar att detta bara är matematik och att ChatGPT helt baseras på data den tränades med.

Direktlänk Dela Code List fördjupade 3 mars

Skadliga AI-modeller upptäckta på Hugging Face-plattformen

Säkerhetsföretaget Jfrog har upptäckt att ett hundratal skadliga AI-modeller för maskininlärning har laddats upp på den amerikanska teknikplattformen Hugging Face. Dessa AI-modeller kan användas av hackare för att installera bakdörrar och få tillgång till känslig information. Trots att Hugging Face har vidtagit åtgärder för att hitta skadlig kod i uppladdade filer, har dessa AI-modeller lyckats förbli oupptäckta fram till nu.

Direktlänk Dela Computersweden.se fördjupade 1 mars

ServiceNow, Hugging Face och Nvidia lanserar StarCoder2 för kodgenerering

ServiceNow, Hugging Face och Nvidia har meddelat lanseringen av StarCoder2, en familj av öppen tillgång till stora språkmodeller (LLM) för kodgenerering, syftande till att hjälpa till att bygga företagsapplikationer. StarCoder2 utvecklades av BigCode-gemenskapen, med stöd av det digitala arbetsflödesföretaget ServiceNow och öppna källkodsplattformen Hugging Face. Tränad på 619 programmeringsspråk kan StarCoder2 vidareutbildas och bäddas in i företagsapplikationer för att utföra specialiserade uppgifter som generering av källkod för applikationer, arbetsflödesgenerering, textsummering och mer. StarCoder2 erbjuder tre modellstorlekar: en modell med tre miljarder parametrar tränad av ServiceNow, en modell med sju miljarder parametrar tränad av Hugging Face, och en modell med 15 miljarder parametrar byggd av Nvidia och tränad på dess accelererade infrastruktur.

Direktlänk Dela Technology Magazine fördjupade 1 mars

Servicenow, Hugging Face och Nvidia släpper Starcoder 2

Servicenow, Hugging Face och Nvidia har släppt Starcoder 2, nästa generation av företagens öppna och avgiftsfria stora språkmodeller som är tränade att generera kod. Starcoder2 är en familj bestående av tre olika stora språkmodeller: en modell med 3 miljarder parametrar tränad av Service Now, en med 7 miljarder parametrar tränad av Hugging Face och en med 15 miljarder parametrar tränad av Nvidia. Modellerna kan användas för kodkomplettering, avancerad kodsummering och hämtning av kodsnuttar och stödjer upp till 619 programmeringsspråk.

Direktlänk Dela Computersweden.se fördjupade 1 mars

H2O.ai släpper H2O-Danube-1.8B, en öppen källkodsmodell för naturligt språk

H2O.ai, ledande inom öppen källkod för generativ AI och maskininlärning, meddelar släppet av H2O-Danube-1.8B - en öppen källkodsmodell för naturligt språk med 1,8 miljarder parametrar. Trots att den tränats på betydligt mindre data än jämförbara modeller, visar resultaten att H2O-Danube-1.8B presterar mycket konkurrenskraftigt över ett brett spektrum av uppgifter inom naturligt språk. Företaget meddelade även släppet av H2O-Danube-1.8B-Chat, en version av modellen specifikt finjusterad för konversationsapplikationer.

Direktlänk Dela Business Wire fördjupade 29 februari

Maliciösa AI ML-modeller upptäckta på Hugging Face-plattformen

Minst 100 fall av skadliga AI ML-modeller hittades på Hugging Face-plattformen, varav några kan köra kod på offrets maskin, vilket ger angripare en bestående bakdörr. Hugging Face är ett teknikföretag som arbetar med artificiell intelligens (AI), naturlig språkbehandling (NLP) och maskininlärning (ML). JFrogs säkerhetsteam upptäckte att cirka hundra modeller på plattformen har skadlig funktionalitet, vilket utgör en betydande risk för dataintrång och spionageattacker. Detta sker trots Hugging Faces säkerhetsåtgärder. JFrog utvecklade och implementerade ett avancerat skanningssystem för att undersöka PyTorch- och Tensorflow Keras-modeller på Hugging Face.

Direktlänk Dela Bleeping Computer fördjupade 28 februari

Musikindustrin vid en transformation tack vare AI

Musikindustrin står inför en transformation tack vare ett banbrytande projekt som utnyttjar Metas MusicGen och Hugging Faces AI-teknik. Projektet leds av Pai, en datavetenskapsstudent och musikproducent från UC Berkeley, i samarbete med musikern Nimsins. Tillsammans har de skapat ett åtta-spårs, 15-minuters album, en AI-genererad musikvideo och en omfattande tvådelad dokumentär. Denna satsning markerar en betydande milstolpe i integrationen av artificiell intelligens med kreativa konstnärer, vilket utmanar de konventionella gränserna för musikproduktion och konstnärligt uttryck.

Direktlänk Dela BNN Breaking News fördjupade 28 februari

Google pausar bildgenerering i AI-chatbot Gemini efter kritik

Google har pausat funktionen för att generera bilder av människor i sin AI-chatbot Gemini efter att användare påpekade att den inte visade vita personer i historiska sammanhang. Företaget tillät att Gemini användare genererade realistiska bilder av människor, men användare på sociala medier plattformen X påpekade att Gemini undvek att visa vita människor, även i historiska sammanhang där de sannolikt skulle dominera skildringarna. Google tog tillfälligt bort bildgenereringsfunktionen för människor och företagets senior vice VD Prabhakar Raghavan publicerade ett blogginlägg för att försöka förklara företagets beslut. Google har kritiserats för att inte ha varit tillräckligt transparenta om sitt tillvägagångssätt.

Direktlänk Dela Time Magazine fördjupade 28 februari

Säkerhetsbrist i Hugging Face Safetensors kan leda till AI-kapningar och leveranskedjeattacker

Säkerhetsforskare från HiddenLayer har upptäckt ett sätt att missbruka konverteringsverktyget Hugging Face Safetensors för att kapa AI-modeller och utföra leveranskedjeattacker. Hugging Face är en plattform där mjukvaruutvecklare kan samarbeta på obegränsade förtränade maskininlärningsmodeller, dataset och applikationer. Safetensors är Hugging Faces format för säker lagring av tensors, vilket också tillåter användare att konvertera PyTorch-modeller till Safetensor via en pull request. HiddenLayer säger att konverteringstjänsten kan kompromissas och att det är möjligt att skicka skadliga pull requests med angriparstyrd data från Hugging Face-tjänsten till alla repositories på plattformen, samt kapar alla modeller som skickas genom konverteringstjänsten.

Direktlänk Dela TechRadar fördjupade 28 februari

Google pausar Gemini-bildgenereringsfunktion efter kontroversiella resultat

Google har tillfälligt stoppat sin bildgenereringsfunktion på Gemini, företagets främsta chatbot, efter att försöket att främja mångfald ledde till ´pinsamma´ och ´anstötliga´ bilder. Funktionen lanserades för tre veckor sedan för att konkurrera med marknadsledare som Midjourney, Stable Diffusion och OpenAI:s DALL-E 3. Förra veckan hamnade funktionen i rampljuset för kontroversiella resultat, till exempel inkludering av ursprungsbefolkningar och asiater när den uppmanades att generera ´ett porträtt av Amerikas grundläggande fäder´. I respons tog Google ner funktionen, med Senior Vice President Prabhakar Raghavan som erkände att ´det är klart att den här funktionen missade målet.´

Direktlänk Dela CoinGeek fördjupade 28 februari

Microsoft lanserar PyRIT för att identifiera risker i AI-system

Microsoft har lanserat ett öppet automatiseringsramverk kallat PyRIT (Python Risk Identification Tool). Verktyget kan användas av säkerhetsexperter och utvecklare av maskininlärning som en anpassningsbar bot för att proaktivt identifiera risker i generativa AI-system. PyRIT kan användas för att identifiera både säkerhetsrisker och ansvarsrelaterade AI-risker, inklusive bristande rättvisa eller produktion av oetiskt eller felaktigt innehåll. Verktyget automatiserar också uppgifter som tidigare var manuella och tidskrävande. PyRIT fungerar med modeller från Microsoft Azure Open AI Service, Hugging Face och Azure Machine Learning Managed Online Endpoint.

Direktlänk Dela Computersweden.se fördjupade 27 februari

Google planerar att återlansera sin AI-bildgenereringstjänst

Google planerar att återlansera sitt AI-verktyg för bildgenerering inom de närmaste veckorna, enligt företagets DeepMind VD Demis Hassabis. Verktyget togs offline efter en rad kontroverser. Verktyget introducerades tidigare denna månad genom Gemini, företagets huvudsakliga uppsättning AI-modeller. Användare upptäckte historiska felaktigheter och tvivelaktiga svar, vilket har spridits på sociala medier. Hassabis sade att produkten inte fungerade som avsett. Sundar Pichai, VD för Alphabet, får en del av skulden.

Direktlänk Dela Tech Gate fördjupade 26 februari

Google planerar att återlansera sitt AI-bildgenereringsverktyg efter kontroverser

Google planerar att återlansera sin artificiella intelligensbildgenereringsverktyg efter att ha dragit tillbaka det på grund av kontroverser. Verktyget, introducerat genom Gemini, Googles huvudsakliga AI-modellsuite, tillät användare att skapa bilder genom att mata in prompts. Användare upptäckte emellertid historiska felaktigheter och tvivelaktiga svar i bilderna, vilket ledde till att Google tog offline funktionen för att åtgärda problemen. Kontroversen följer efter en högprofilerad omprofilering av Google, där företaget ändrade namnet på sin chatbot och rullade ut en ny app och nya prenumerationsalternativ. Chatboten och assistenten, tidigare känd som Bard, heter nu Gemini.

Direktlänk Dela Consumer News and Business Channel fördjupade 26 februari

AI-chattbotar överträffar Google Translate i språköversättning

Google Translate, trots att det kan översätta meningar till över 100 språk, har fortfarande utrymme för förbättring. Stora språkmodeller (LLM) som ChatGPT förväntas leda nästa era av språköversättning. I en blindtest jämförde PCMag ChatGPT med Google Translate och andra AI-tjänster. Resultaten visade att AI-chattbotar generellt sett slog ut Google Translate för översättning. OpenAI erbjuder en gratisplan samt en betald Plus-plan för 20 dollar per månad. Med ett Plus-konto kan du använda ChatGPT:s mer avancerade modell, GPT-4, samt få tillgång till en ny tjänst som kallas GPTs. Dessa anpassade AI:er är tränade för specifika uppgifter, som att översätta ett språk.

Direktlänk Dela PC Magazine Middle East fördjupade 23 februari

AI-finansiering ökar trots global nedgång i start-up-finansiering

Globalt sett minskade finansieringen för start-ups med 38% under 2023. Trots detta ökade AI-finansieringen globalt med 9% och uppgick till nästan 50 miljarder dollar. Frankrike var ett av två länder i Europas tio största teknikmarknader där finansieringen ökade. Totalt samlade landet in 4,7 miljarder dollar under året, en ökning från 4,4 miljarder dollar året innan. En viktig faktor för detta är regeringens stöd. Frankrike är Europas ledare inom AI-forskning med 338 start-ups, inklusive sociala AI-plattformen Hugging Face, data science-företaget Dataiku, medicinsk och biologisk forskningsverktyg OWKIN och Mistral AI, ett generativt AI-företag.

Direktlänk Dela Silicon Canals fördjupade 23 februari

Google blockerar bildgenerering på AI-verktyget Gemini efter anklagelser om partiskhet

Google har blockerat möjligheten att generera bilder av människor på sitt artificiella intelligensverktyg Gemini efter anklagelser om anti-vit partiskhet. En viral post på sociala medier visade att Gemini, som konkurrerar med OpenAI:s ChatGPT, svarade på en uppmaning om ´en porträttbild av en av Amerikas grundläggande fäder´ med bilder av en ursprungsbefolkning, en svart man, en mörkhyad icke-vit man och en asiatisk man, alla i kolonial klädsel. Elon Musk och psykologen och YouTubern Jordan Peterson anklagade Google för att ha en pro-mångfaldspartiskhet i sin produkt. Google svarade att Gemini ´missade märket´ i detta fall och blockerade bildgenereringsfunktionen.

Direktlänk Dela The Washington Post fördjupade 23 februari

Google lanserar öppna AI-språkmodeller kallade Gemma

Google presenterade på onsdagen en ny familj av AI-språkmodeller kallad Gemma, vilka är fria, öppna modeller byggda på teknologi liknande de mer kraftfulla men stängda Gemini-modellerna. Till skillnad från Gemini kan Gemma-modellerna köras lokalt på en stationär eller bärbar dator. Det är Googles första betydande öppna stora språkmodell (LLM) sedan OpenAI:s ChatGPT startade en frenesi för AI-chattrobotar 2022. Gemma-modellerna finns i två storlekar: Gemma 2B (2 miljarder parametrar) och Gemma 7B (7 miljarder parametrar), båda tillgängliga i förtränade och instruktionsspecifika varianter.

Direktlänk Dela Ars Technica fördjupade 22 februari

Guardrails: Ett nytt verktyg för att säkerställa tillförlitlighet och kvalitet av AI-genererade resultat

Utvecklare inom artificiell intelligens står inför utmaningen att säkerställa tillförlitligheten och kvaliteten på resultat genererade av stora språkmodeller (LLM). För att adressera detta har Guardrails, ett öppen källkods Python-paket, utvecklats. Guardrails introducerar konceptet ´rail spec´, ett mänskligt läsbart filformat (.rail) som låter användare definiera den förväntade strukturen och typerna av LLM-utdata. Verktyget använder validerare för att upprätthålla dessa kriterier och vidtar korrigerande åtgärder, som att be LLM om ny generering när valideringen misslyckas. Guardrails är kompatibelt med olika LLM:er, inklusive populära som OpenAI´s GPT och Anthropic´s Claude.

Direktlänk Dela MarkTechPost fördjupade 21 februari

AI-modellernas kamp: Rankinglistor visar teknikföretagens strävan efter AI-överlägsenhet

Rankinglistor över artificiella intelligensmodeller har blivit populära på nätet, vilket ger en inblick i kampen mellan teknikföretag för AI-överlägsenhet. Antalet rankinglistor har ökat de senaste månaderna. Varje lista spårar vilka AI-modeller som är mest avancerade baserat på deras förmåga att slutföra vissa uppgifter. Nya modeller som Googles Gemini och Mistral-Medium från Paris-baserade startup Mistral AI har skapat spänning i AI-gemenskapen. OpenAI´s GPT-4 fortsätter dock att dominera. Rankingarna är baserade på tester som bestämmer vad AI-modeller generellt kan göra, samt vilken modell som kan vara mest kompetent för ett specifikt användningsområde.

Direktlänk Dela NBC News fördjupade 20 februari

Meta öppnar källkoden till AI-motorn Code Llama

Meta CEO Mark Zuckerberg meddelade nyligen att företaget öppnar källkoden till sin stora språkmodell (LLM) Code Llama, en AI-motor liknande GPT-3.5 och GPT-4 i ChatGPT. Code Llama är designad för att hjälpa till att skriva och redigera kod och har 70 miljarder parametrar. Genom att öppna källkoden kan utvecklare ladda ner och installera modellen på egna servrar för att få programmeringshjälp utan att riskera att Facebook samlar in deras kod för träning eller andra syften. Experterna på Hugging Face har redan implementerat Code Llama 70B LLM i sitt HuggingChat-gränssnitt.

Direktlänk Dela ZDNet fördjupade 19 februari

Flower Labs får 20 miljoner dollar i serie A-finansiering för att främja decentraliserad AI

Flower Labs, en ledande ramverk för öppen källkod för AI-utbildning på distribuerad data har tillkännagivit en serie A-finansieringsrunda på 20 miljoner dollar för att påskynda adaptionen av federerad och decentraliserad AI. Felicis ledde finansieringsrundan och bland investerarna i Flower Labs finns First Spark Ventures, Factorial Capital, Beta Works, Y Combinator, Pioneer Fund, Mozilla Ventures och framstående änglar som Hugging Face VD Clem Delangue och GitHub medgrundare Scott Chacon. Flower Labs är känt för att ha ett av de starkaste tekniska teamen inom området, med alla nödvändiga färdigheter, inklusive distribuerade system, maskininlärning och systemteknik. Flower Labs strävar efter att orsaka en grundläggande förändring i hur AI-modeller tränas och används.

Direktlänk Dela Pulse 2.0 fördjupade 18 februari

Nvidia blir USA:s tredje mest värdefulla företag tack vare AI-investeringar

Nvidia, en ledande tillverkare av artificiell intelligens (AI) chips, har blivit USA:s tredje mest värdefulla företag, med en marknadsvärdering som överstiger både Amazon och Alphabet. Aktierna i företaget har ökat med mer än 200% under det senaste året. Nvidia har investerat i flera AI-företag, inklusive SoundHound, Nano-X, och TuSimple, och dessa företags aktier har också ökat kraftigt efter att Nvidia offentliggjorde sina investeringar. Nvidia förväntas rapportera en årlig intäktsökning på över 200% till mer än $20 miljarder nästa vecka.

Direktlänk Dela Consumer News and Business Channel fördjupade 15 februari

Pengar var viktiga i WGA/SAG-AFTRA-strejken, men det långsiktiga slaget handlar om intuitiv/generativ AI och dess fördelar för studior, skapare och publik. AI-experter som Greg Brockman (OpenAI), Clement Delangue (Hugging Face), Sundar Pichai (Alphabet/Google), Satya Nadella (Microsoft), Aidan Gomez (Cohere) och hundratals VC-finansierade start-ups runt om i världen har framhållit AI:s potential att leverera bättre, snabbare och billigare produkter, tjänster och lösningar. Nvidia har noterat att tekniken kan användas för nästan alla applikationer/krav/mål. WGA/SAG-AFTRA ville dock införa vissa regler för hur, när och var den används och försäkringar om att den inte ersätter skapande/produktionsspecialister. Trots oro ser många AI som en värdefull verktyg för att assistera yrkesverksamma och förutspår att den kommer att förbättra vissa jobb och skapa nya möjligheter inom industrin.

Mesa Association for Sports and Physical Education fördjupade 15 februari

OpenAI utmanas av uppstickare Abacus.AI med öppen källkod AI-modell

OpenAI, som stöds av Microsoft Corp., och känt som en pionjär inom AI-innovation, står nu inför konkurrens från nya aktörer som utnyttjar potentialen av öppen källkodsmodeller. Ett sådant företag, Abacus.AI, har nyligen framträtt som en ledare på den framstående LLM-topplistan, Hugging Face. Abacus.AI:s flaggskeppsmodell, Smaug-72B, har snabbt tagit över rampljuset och överträffat GPT-3.5 med en betydande marginal på 7%. Meta Platforms Inc., det framstående teknikbolaget, har ekat denna känsla och förespråkar större transparens och öppenhet i AI-utveckling och implementering. Elon Musk har också varit en uttalad förespråkare för behovet av att AI-utveckling ska vara öppen källkod.

Direktlänk Dela Yahoo Finance fördjupade 13 februari

Cohere for AI avtäcker Aya, en språkmodell som stöder 101 språk

Cohere for AI, den ideella forskningslaboratoriet grundat av Cohere, har avtäckt Aya, en öppen källkods storskalig språkmodell (LLM) som stöder 101 språk. Detta är mer än dubbelt så många språk som stöds av befintliga öppen källkod-modeller. Forskarna har även släppt Aya-datasetet, en motsvarande samling av mänskliga annotationer. Detta är viktigt eftersom en utmaning med att utbilda mindre vanliga språk är att det finns mindre källmaterial att träna på. Aya-projektet, som lanserades i januari 2023, var ett ´stort företag´ med över 3000 medarbetare över hela världen.

Direktlänk Dela VentureBeat fördjupade 13 februari

OpenAI:s medgrundare Sam Altman vill samla 7 biljoner dollar för nytt AI-chipprojekt

Sam Altman, medgrundare till OpenAI, vill samla in upp till 7 biljoner dollar för ett nytt AI-chipprojekt, vilket är mer än dubbla Storbritanniens årliga BNP eller tillräckligt för att betala för över två år av allmän hälsovård i USA. Altman är redan i diskussioner med investerare, inklusive regeringen i Förenade Arabemiraten. Kritiker varnar för de enorma mängder naturresurser som skulle krävas för att utveckla AI-system och chips med 7 biljoner dollar i finansiering. Altman svarade kortfattat: ´Du kan jobba hårt för att säkra vår gemensamma framtid eller du kan skriva Substacks om varför vi kommer misslyckas.´

Direktlänk Dela Fortune Media fördjupade 13 februari

Apple utvecklar AI-modell för bildredigering med hjälp av textkommandon

Apple har nyligen utvecklat en ny artificiell intelligensmodell tillsammans med University of California, Santa Barbara. Modellen, som kallas MGIE (MLLM-Guided Image Editing), låter användare redigera sina foton genom att ge textkommandon på vanligt språk. Modellen kan utföra uppgifter som beskärning, ändring av storlek, rotation och tillägg av filter till bilder. Till exempel, om en användare ber om en blåare himmel, ökar modellen ljusstyrkan i himmelsdelen av bilden. Apple har gjort MGIE tillgänglig för nedladdning på GitHub och släppt en webbdemo på Hugging Face.

Direktlänk Dela Parametric Architecture fördjupade 10 februari

Ökning av ansiktsbyten och behovet av AI-reglering

Tekniken för ansiktsbyte har ökat kraftigt med 704% under det senaste året, vilket främst beror på den ökade tillgängligheten av generativa AI-verktyg. Detta har lett till en större efterfrågan på AI-reglering. Biometriska lösningar kan snabbt bli föråldrade på grund av snabba framsteg inom AI. Ansiktsbytstekniker har blivit det föredragna valet för de som vill skapa vilseledande media. Dessa uppgifter kommer från iProov, en brittisk leverantör av biometrisk verifiering och autentisering. Taylor Swift och Morgan Freeman är exempel på personer som har fallit offer för deepfake-tekniken. Jesse McGraw, en etisk hacker och offentlig talare, förutspår en betydande ökning av AI-identitetsmissbruk.

Direktlänk Dela CryptoCoinNews fördjupade 9 februari

Microsoft Azure AI Studio: En ny plattform för generativ AI

I mitten av november 2023 lanserade Microsoft Azure AI Studio, en ny plattform för att utveckla generativa AI-applikationer baserade på olika Large Language Models (LLMs). Plattformen erbjuder ett system för att välja generativa AI-modeller och finjustera dem med hjälp av Retrieval Augmented Generation (RAG), vektorteknologier och data. Azure AI Studio är främst riktat mot erfarna utvecklare och dataforskare och är ett grundläggande verktyg för att utveckla AI-baserade assistenter. Plattformen kan filtrera modeller baserat på samlingar, de inferensuppgifter de stöder och de uppgifter de stöder för finjustering.

Direktlänk Dela Computerwoche fördjupade 9 februari

Hantering av risker med artificiell intelligens: En guide för företag

Artificiell intelligens (AI) kan hjälpa företag genom automatisering eller förbättring av befintliga uppgifter, men det medför också risker om det inte hanteras korrekt. Riskbedömning är ett viktigt steg för företag som använder AI för att säkerställa regelefterlevnad och datasäkerhet. Företag kan utvärdera sin exponering för AI, bedöma riskerna och införa riktlinjer och strategier för att hantera de mest affärskritiska frågorna. Bedömningsstrategierna varierar beroende på vilken typ av AI det handlar om, men kan generellt delas in i tre kategorier: interna AI-projekt, AI från tredje part och AI som används av angripare i onda syften.

Direktlänk Dela Computer Sweden fördjupade 9 februari

Biden-administrationen lanserar U.S. AI Safety Institute Consortium med över 200 representanter från ledande teknikföretag

Fyra månader efter att ha utfärdat en exekutiv order som kräver att artificiell intelligens (AI) ska byggas och användas säkert, meddelade Biden-administrationen idag lanseringen av U.S. AI Safety Institute Consortium (AISIC). Det nya konsortiet består av över 200 representanter, inklusive ledande AI-konkurrenter som Amazon, Google, Apple, Anthropic, Microsoft, OpenAI och NVIDIA. Konsortiet samlar AI-utvecklare, akademiker, statliga och industriella forskare, civila organisationer och användare för att utveckla och implementera säker och pålitlig AI. Bland de deltagande företagen finns representanter från hälso- och sjukvården, akademin, arbetarfacken och banksektorn, inklusive JP Morgan, Citigroup, Carnegie Mellon University, Bank of America, Ohio State University och Georgia Tech Research Institute, liksom statliga och lokala representanter.

Direktlänk Dela Decrypt Media fördjupade 9 februari

Apple planerar att introducera AI-funktioner till iPhones

Apple planerar att introducera generativa AI-funktioner till iPhones senare i år. En nyligen publicerad forskningsartikel tyder på att en av dessa kan vara en ny typ av redigeringsprogramvara som kan ändra bilder via textinstruktioner. Den kallas MGIE, eller MLLM-Guided Image Editing, och är resultatet av ett samarbete mellan Apple och forskare från University of California, Santa Barbara. MGIE är kapabel att göra ´Photoshop-stil´ ändringar, från enkla justeringar som beskärning till mer komplexa redigeringar som att ta bort objekt från en bild. Detta görs möjligt av MLLM (multimodal storspråksmodell), en typ av AI som kan bearbeta både ´text och bilder´ samtidigt.

Direktlänk Dela TechRadar fördjupade 8 februari

AI-modeller tenderar att eskalera konflikter i simulerade krigsscenarier, enligt forskning

Ny forskning från Stanford föreslår att AI-modellen GPT-4 har en tendens att eskalera konflikter snarare än att avväpna dem i simulerade krigsscenarier. Alla fem testade AI-modeller slutade med att eskalera konflikterna, och GPT-4 eskalerade plötsligt och startade ett globalt kärnvapenkrig. Forskarna rekommenderar en ´mycket försiktig strategi´ för att integrera språkliga modeller i ´höginsats militära och utrikespolitiska operationer´. OpenAI har nyligen tagit bort det generella förbudet mot ´militär och krigföring´ från sin användarpolicy och har medgett att de arbetar med USA:s försvarsdepartement.

Direktlänk Dela Cointelegraph fördjupade 8 februari

Maskininlärning och MLOps: En nyckel till framgång för AI-drivna företag

Maskininlärning (ML) är en kraftfull teknologi som kan lösa komplexa problem och leverera kundvärde. Men ML-modeller är utmanande att utveckla och distribuera. Detta är varför Machine Learning Operations (MLOps) har framträtt som ett paradigm för att erbjuda skalbara och mätbara värden till artificiell intelligens (AI) drivna företag. MLOps automatiserar och förenklar ML-arbetsflöden och distributioner. MLOps gör ML-modeller snabbare, säkrare och mer tillförlitliga i produktion. MLOps förbättrar också samarbetet och kommunikationen mellan intressenter. Men mer än MLOps behövs för en ny typ av ML-modell som kallas Large Language Models (LLMs).

Direktlänk Dela Unite.AI fördjupade 7 februari

Smaug-72B, ett nytt öppen källkods språkmodell, toppar rangordningen

En ny öppen källkods språkmodell kallad ´Smaug-72B´, som lanserats av startup-företaget Abacus AI, har utsetts till världens bästa enligt senaste rankningen från Hugging Face, en ledande plattform för forskning och tillämpningar inom naturligt språkbearbetning (NLP). Smaug-72B, en finjusterad version av ´Qwen-72B´, presterar bättre än GPT-3.5 och Mistral Medium, två av de mest avancerade öppna källkods språkmodellerna, i flera populära bedömningsmetoder. Smaug-72B är också den första och enda öppna källkodsmodellen att ha ett genomsnittligt resultat över 80 i alla stora LLM-utvärderingar.

Direktlänk Dela VentureBeat fördjupade 7 februari

Fem sätt att använda AI-verktyget GPT-4 gratis

Artificiell intelligens har etablerat sig som ett mycket kraftfullt verktyg, och ChatGPT:s GPT-4 är ett lysande exempel på denna revolution. Denna del av AI lovar att öppna nya dörrar i mänsklig interaktion med maskiner, och det bästa är att du kan uppleva dess kraft gratis. I dag kommer du att se fem sätt att använda GPT-4 utan att betala något, vilket avslöjar oändliga möjligheter för att öka kreativiteten, lösa komplexa problem och förbättra effektiviteten över en mängd olika uppgifter. GPT-4:s mångsidighet översätts till en unik upplevelse, där artificiell intelligens blir din allierade för att övervinna utmaningar och nå nya nivåer av innovation.

Direktlänk Dela Nation World News fördjupade 7 februari

Hugging Face lanserar anpassningsbar AI-assistent för att utmana Open AI

Det amerikanska teknikföretaget Hugging Face har utvecklat en ny anpassningsbar AI-assistent, Hugging Chat, som är tänkt att utmana marknadsledande Open AI:s GPT:er. Assistenten baseras på öppen källkod och är kompatibel med kraftfulla språkmodeller som Llama 2 och Mixtral. Den kan anpassas efter företag och organisationers behov för att skapa egna chattbotar. Version 0.7.0 av Hugging Chat är nu tillgänglig för testning.

Direktlänk Dela Computer Sweden fördjupade 6 februari

Hugging Face lanserar ´Hugging Chat Assistants´ för att konkurrera med OpenAI

Hugging Face har avtäckt en ny funktion kallad ´Hugging Chat Assistants´ som låter användare skapa och anpassa sina egna AI-chattbotar. Funktionen är ett försök att erbjuda ett öppet alternativ till OpenAI:s ´GPT Store´. Tillkännagivandet gjordes av Hugging Face:s tekniska ledare och LLM-direktör, Phillip Schmid. Schmid sa att personliga chattbotar kunde skapas med bara ´två klick´, komplett med anpassade namn, avatarer och systemprompter. Han hävdade också att Hugging Face:s nya kapacitet kan rivalisera andra AI-företag, och beskrev den nya funktionen som ´liknande´ OpenAIs anpassade GPT-erbjudande.

Direktlänk Dela IT Pro fördjupade 6 februari

Hugging Face lanserar gratis tjänst för anpassade chattassistenter

Direktlänk Dela ReadWrite fördjupade 6 februari

ByteDance lanserar Coze, en AI-botbyggplattform

ByteDance har lanserat sin senaste innovation, Coze-plattformen, vilket markerar ett betydande steg inom området för artificiell intelligens. Denna nya plattform framstår som en direkt konkurrent till OpenAI:s anpassade GPTs, vilket gör det möjligt för användare att skapa AI-drivna botar med anmärkningsvärd lätthet och flexibilitet. Coze skiljer sig genom sin användarcentrerade strategi, vilket ger användarna verktyg för att inte bara bygga utan också distribuera sina AI-skapelser på en mängd sociala plattformar som Discord, Telegram, Messenger, Slack och Reddit. Trots sin omfattande funktionssätt och stöd av ByteDance, har Coze ännu inte fått stor uppmärksamhet.

Direktlänk Dela TestingCatalog fördjupade 5 februari

Decentraliserad AI: Framtiden för artificiell intelligens

Artificiell intelligens (AI) är vår mest kraftfulla och uttrycksfulla teknologi hittills. AI kan analysera data, känna igen mönster och fatta beslut mycket mer effektivt och snabbt än någon människa någonsin kunnat. Decentraliserad AI använder blockkedjeteknik för att omvandla svarta lådor AI-system, vars inre funktioner är dolda för allmänheten, till öppna nätverk för att koordinera maskinintelligens mot gemensamma mål. Detta möjliggör decentraliserade, tillitslösa applikationer att använda AI utan att behöva lita på en liten uppsättning betrodda organisationer. Öppna källkodsplattformar som Hugging Face har mer än 450 000 öppna källkods AI-modeller, inklusive stora språkmodeller, bildgeneratorer och mer. Decentraliserad AI fördelar kontrollen över mänsklighetens mest kapabla teknologi någonsin, snarare än att koncentrera dess makt, vilket minskar potentialen för överväldigande inflytande av någon entitet.

Direktlänk Dela Built In fördjupade 2 februari

Datacentrerad tillvägagångssätt för maskininlärning mer hållbar, säger NielsenIQs exekutiva datavetare

Ayon Roy, den exekutiva datavetaren för NielsenIQ, hävdade vid MLDS 2024 att den datacentrerade inställningen till maskininlärning är mycket mer hållbar än den modellcentrerade. AI-industrins tillväxt väcker etiska frågor på grund av dess betydande koldioxid- och vattenavtryck. En studie av Hugging Face avslöjade att deras språkmodell BLOOM genererade över 50 metriska ton CO2, motsvarande 60 flygningar från London till New York. Roy förklarade att att prova olika tillvägagångssätt vid träning och finjustering av modellen gör skillnad. Andrew Ng stöder detta tillvägagångssätt och betonade vikten av att förbättra datakvaliteten för att uppnå önskad prestanda i AI-system.

Direktlänk Dela Analytics India Magazine fördjupade 2 februari

ChatGPT dominerar som det mest populära AI-verktyget

ChatGPT är det mest populära AI-verktyget, enligt en studie av writerbuddy.ai. ChatGPT, utvecklat av OpenAI, stod för över 60 procent av trafiken till AI-verktyg mellan september 2022 och augusti 2023, med totalt 14 miljarder besök. Totalt observerade writerbuddy.ai 24 miljarder besök till AI-verktyg gjorda av användare över hela världen under samma tidsram. AI-industrin upplevde en genomsnittlig månatlig trafikökning på 236,3 miljoner besök. Det andra mest populära AI-verktyget var chatboten Character AI, följt av QuillBot, MidJourney och Hugging Face. Majoriteten av användarna var män (69,5 procent).

Direktlänk Dela Euronews fördjupade 1 februari

Meta presenterar AI-drivet kodverktyg Code Llama 70B

Meta har nyligen presenterat sin senaste innovation inom AI-drivna kodverktyg: Code Llama 70B. Detta verktyg utgör ett betydande steg inom AI-programmering och utmanar förmågorna hos GPT-4. Code Llama 70B är Metas största och mest effektiva AI-modell för kodgenerering. Den är tränad på 1TB kod och kodrelaterade data, med 70 miljarder parametrar. Den uppnådde en noggrannhet på 53% på HumanEval-benchmarken. Verktyget finns i versioner som Code Llama - Python och Code Llama - Instruct, och är gratis för både forskning och kommersiellt bruk, hostad på Hugging Face.

Direktlänk Dela PC-Tablet fördjupade 30 januari

Hugging Face och Google Cloud ingår strategiskt partnerskap för att främja AI-forskning

Hugging Face och Google Cloud har tillkännagivit ett strategiskt samarbete för att främja maskininlärning och öppen AI-forskning. Partnerskapet fokuserar på Google Cloud-kunder, Hugging Face Hub-användare och öppen källkod. Google vill göra banbrytande AI-upptäckter tillgängliga via Hugging Faces öppna ramverk. Tack vare Googles specialiserade hårdvara kan Hugging Faces modeller snabbare tränas och implementeras för Google Cloud-användare. Genom partnerskapet kommer Hugging Faces plattform att integreras med Vertex AI och andra Google Cloud-tjänster. Detta ökar användbarheten och tillgängligheten av generativ AI för utvecklare.

Direktlänk Dela InfoQ fördjupade 30 januari

Meta lanserar Code Llama 70B för att utmana GitHub Copilot

Meta har lanserat Code Llama, företagets mest kraftfulla och kostnadsfria stora språkmodell, som en AI-kodningskonkurrent till GPT-4. Denna generativa AI-modell har 70 miljarder parametrar och avslöjades först i augusti 2023. Code Llama är det mest avancerade och bäst presterande modellen i Llama-familjen. Den finns tillgänglig gratis i tre versioner: CodeLlama - 70B, den grundläggande kodmodellen, CodeLlama - 70B - Python, en Python-specifik version och CodeLlama - 70B - Instruct 70B, en version som är fininställd med mänsklig instruktion och självinstruktionskodsyntes.

Direktlänk Dela Analytics Insight fördjupade 30 januari

Meta lanserar Code Llama 70B, ett avancerat AI-modell för kodgenerering

Meta har släppt Code Llama 70B, en förbättrad version av sin AI-modell för kodgenerering. Modellen, som är öppen källkod, har 70 miljarder parametrar och kan skriva kod på C++, Java, PHP och Python. Code Llama 70B är byggd på toppen av Llama, en AI-modell med 175 miljarder parametrar. Modellen är tillgänglig för forskare och utvecklare att ladda ner gratis och kan användas på plattformar som Hugging Face eller PyTorch. Meta har också bekräftat att vissa av dessa framsteg kommer att inkluderas i den kommande Llama 3 och framtida modeller.

Direktlänk Dela The Indian Express fördjupade 30 januari

Meta släpper uppdatering till AI-modell för kodgenerering, Code Llama 70B

Meta har släppt en uppdatering till sin AI-modell för kodgenerering, Code Llama 70B, vilket är deras största och bäst presterande modell hittills. Verktygen för Code Llama lanserades i augusti och är gratis för både forskning och kommersiellt bruk. Code Llama 70B kan hantera fler frågor än tidigare versioner, vilket innebär att utvecklare kan mata in fler uppmaningar under programmeringen och den kan vara mer exakt. Modellen utbildades på 1TB kod och kodrelaterade data och är värd på kodlagringsplatsen Hugging Face.

Direktlänk Dela The Verge fördjupade 30 januari

Hugging Face lanserar AI-verktyg för bildredigering

Hugging Face har utvecklat ett nytt AI-verktyg som kan redigera och ersätta delar av en bild med en enkel textprompt. Verktyget kallas ReplaceAnything och kan användas för att ersätta människor, kläder, bakgrunder och mer i bilder. Användare kan ladda upp en bild och lägga till eller ta bort en specifik del av bilden med hjälp av en textprompt. Bilderna som skapas med ReplaceAnything kallas AIGC (AI-genererat innehåll). Detta framsteg kan dock leda till en ökning av deep fake-innehåll, vilket kan vara svårt att skilja från originalbilden.

Direktlänk Dela The Indian Express fördjupade 28 januari

AI förändrar vårt sätt att interagera med den digitala världen

Artificiell intelligens (AI) förändrar snabbt hur vi interagerar med den digitala världen, med nya AI-appar som förbättrar vårt engagemang med innehåll på olika plattformar. Detta märks i de senaste AI-utvecklingarna som omformar våra online-upplevelser, från hur vi tittar på videor med realtidsöversättning till hur vi bygger webbplatser med hjälp av ett enda skärmdump. AI förbättrar även den visuella upplevelsen, med AI-drivet läppsynchronisering, vilket skapar en mer autentisk och uppslukande tittarupplevelse. Även den kreativa industrin känner av AI:s påverkan, med artister och designers som använder AI-verktyg för att skapa och förbättra digital konst.

Direktlänk Dela Geeky Gadgets fördjupade 27 januari

AI-robot identifierar sjukdomar i potatisväxter men väcker frågor om koldioxidavtryck

På en gård i St. Peters Bay, P.E.I., används en robot kallad AgriRobot för att identifiera sjukdomar i potatisväxter. AgriRobot, utvecklad av Charan Preet Singh, en masterstudent vid University of Prince Edward Island (UPEI), kan skapa en karta över infekterade växter för att hjälpa till med borttagning. Teamet vid UPEI, ledda av Aitazaz Farooque, arbetar med AI för att möta jordbruksutmaningar orsakade av klimatförändringar. Men AI:s energianvändning och utsläpp är en växande fråga. Priya Donti, medgrundare och ordförande för Climate Change AI, uppmanar till större transparens kring AI:s koldioxidavtryck.

Direktlänk Dela Canadian Broadcasting Corporation fördjupade 27 januari

OpenAI:s ChatGPT är den mest populära AI-chattboten 2023

OpenAI:s ChatGPT är den mest populära AI-chattboten 2023, med totalt 14,6 miljarder besök, varav 60% registrerades från november 2022 till augusti 2023. Characters.AI, en mer personlig chattbot, och QuillBot, ett skrivverktyg, var också populära. Bland AI-webbplatser var MidJourney, en AI-bildgenerator, fjärde mest populär, följt av Hugging Face och Google Bard. Andra AI-verktyg på listan inkluderade NovelAI, CapCut, JanitorAI och CivitAI. Dessa AI-verktyg visar att framtiden kommer att handla om artificiell intelligens.

Direktlänk Dela Digital Information World fördjupade 27 januari

Forskare tror att det finns 5% chans att AI kan utrota mänskligheten

En studie publicerad på preprint-servern arXiv.org visar att forskare tror att det finns en 5 procent chans att artificiell intelligens (AI) kan utrota mänskligheten. Studien genomfördes av AI Impacts, en organisation som har finansierats av organisationer som Open Philanthropy, som främjar effektiv altruism - en filosofisk rörelse känd för sin dystra syn på AI:s framtida interaktioner med mänskligheten. Vissa AI-forskare uttrycker dock oro över att studiens resultat kan vara vinklade mot en alarmistisk synvinkel. Kritiker menar att denna fokusering på spekulativa framtida scenarier distraherar samhället från diskussion, forskning och reglering av de risker som AI redan utgör idag.

Direktlänk Dela Scientific American fördjupade 26 januari

Google Cloud och Hugging Face inleder strategiskt samarbete för att främja AI-utveckling

Google Cloud och startupföretaget Hugging Face har inlett ett strategiskt samarbete för att påskynda utvecklingen av generativ AI och maskininlärning. Samarbetet innebär att utvecklare kan använda Google Clouds infrastruktur för alla Hugging Face-tjänster i öppen källkod och även använda Google Clouds AI-optimerade resurser för att träna och distribuera Hugging Face-modeller. Reuters rapporterar att samarbetet bildades eftersom molnkunder idag visar mer intresse för att modifiera eller bygga egna AI-modeller snarare än att använda färdiga alternativ. Företagen kommer att dela på intäkterna från samarbetet, men har inte avslöjat detaljerna för upplägget. Vertex AI och Googles Kubernetes Engine kommer också att bli tillgängliga på Hugging Face-plattformen under första halvan av 2024.

Direktlänk Dela Computer Sweden fördjupade 26 januari

Google löser patenttvist och ingår partnerskap med AI-startup

Googles moderbolag, Alphabet Inc, såg en ökning av sina aktier på torsdagen efter att ha löst en patenttvist om AI-teknologi på onsdagen, där kravet uppgick till hela 1,67 miljarder dollar. Tvisten inleddes av Singular Computing, grundat av datavetaren Joseph Bates, som anklagade Google för att missbruka dess datalösningar. Google har också ingått ett partnerskap med Hugging Face, en startup specialiserad på AI-programvara, för att vara värd för dess plattform på Googles molndatornätverk. Detta samarbete kommer att tillåta Hugging Face att erbjuda sin plattform via Google Cloud, vilket avsevärt utökar utvecklares tillgång till startupens AI-verktyg.

Direktlänk Dela Yahoo Finance fördjupade 25 januari

Google Cloud och Hugging Face bildar partnerskap för att förenkla AI-utveckling

Alphabet Inc:s molndatordivision har bildat ett partnerskap med startup-företaget Hugging Face för att underlätta utvecklingen av artificiell intelligens (AI) mjukvara i Google Cloud. Partnerskapet kommer att låta utvecklare som använder Google Clouds tekniska infrastruktur få tillgång till och distribuera Hugging Faces öppna källkods-AI-mjukvara, som modeller och datamängder. Hugging Face har vuxit till en central hubb för öppen källkods-AI-mjukvara och undertecknade ett liknande arrangemang med Amazon.com:s molnenhet i februari förra året.

Direktlänk Dela Yahoo Finance fördjupade 25 januari

Protect AI lanserar Guardian för att förhindra skadlig kod i AI-modeller

Protect AI har lanserat en Guardian-grind som möjliggör för organisationer att tillämpa säkerhetspolicyer för att förhindra skadlig kod från att köra inom en AI-modell. Guardian bygger på ModelScan, ett öppen källkod verktyg från Protect AI som skannar maskininlärningsmodeller för att avgöra om de innehåller osäker kod. Guardian utökar denna förmåga till en grind som organisationer kan använda för att motverka till exempel en modellserialiseringsattack. Cybersecurity är ett av de mer utmanande problemen när det gäller AI och det är ett problem som inte får den uppmärksamhet det förtjänar.

Direktlänk Dela Security Boulevard fördjupade 25 januari

IBM Consulting introducerar GenAI-bots för att stödja sina konsulter

IBM Consulting-anställda kan nu använda GenAI-bots för att hjälpa till att implementera sina klienters generativa AI-projekt. Botsen kan eventuellt också frågas av Watsonx-användare. Företaget har lanserat rollbaserade chatbots på sin Consulting Advantage-plattform. AI-assistenterna har tränats för att hitta svar för projektledare, utvecklare, affärsanalytiker, säljare, programvarutestare och fler av de 160 000 IBM Consulting-anställda. Verktygslådan är en del av Watsonx, IBM:s rad av generativa AI-molntjänster som släpptes förra året.

Direktlänk Dela TechTarget fördjupade 23 januari

Ny AI-verktyg KlimaGPT erbjuder verifierade klimatdata

Artificiell intelligens är en revolution i alla bemärkelser av ordet, i Spanien och resten av världen. Mycket har sagts om dess potentiella fördelar i klimatförändringar och den globala krisen vi upplever idag. Därför har ett nytt verktyg skapats, motsvarande ChatGPT på klimatfrågor: KlimaGPT. Ett chattbot-verktyg som syftar till att erbjuda exakt verifierade klimatdata, med idén att detta system skulle eliminera de stora problemen som föregick det programvara från OpenAI och Google, särskilt när det gäller förtroende och transparens. KlimaGPT, utan vidare, syftar till att vara en open source chattbot baserad på vetenskapliga data. Dess författare chattbot, EQTY Lab AI, framställd som en GETTING som förespråkar ansvarsfulla AI-modeller, som också är integrerade i blockchain public Hedera, för ett större åtagande för transparens och förtroende. Ett klimat ChatGPT Driven av Erasmus.AI och utbildad av Apptek, är ClimateGPT positionerad som en svit av AI-modeller tillgängliga på mer än 20 språk. Den inkluderar en ny modell som står med 7 miljarder parametrar och mer än 300 miljarder specifika klimat tokens. Som om det inte var nog, drivs och värd endast med förnybar energi. Idén med denna ClimateGPT är att låta användare söka efter exakta klimatförändringsdata, och den kommer att vara tillgänglig för utvecklare och forskare på Hugging Face AI-plattformen. Den började sin resa den 18 januari, och tjänar till att använda och expandera vetenskapliga och klimatdata. Dessutom är det en open source chattbot, tillgänglig för alla och allmänt tillgänglig. KlimaGPT. Erasmus.AI Omicrono Som Climate Intelligence Fund-webbplatsen förklarar kan ClimateGPT sammanfatta viktiga vetenskapliga resultat om effekterna av klimatförändringar, samt identifiera nya teknologier. Som om det inte var nog, låter det utforskningen av de förvärrande riskerna med klimatförändringar för hälsa eller arbete och etableringen av testscenarier för resursallokering. Den erbjuder översättningar på mer än 20 språk och dess LLM (Large Language Model) inkluderar 100 ´evolutionära´ klimatteknologier, 200 miljoner akademiska artiklar och 10 miljarder webbsidor, plus 1,5 miljoner artiklar om ´lokala effekter av extremt väder under de senaste 10 åren.´ Erasmus.AI specificerar att modellen är utbildad på en ny klimatspecifik IFT-datauppsättning. (Den ambitiösa planen att återfrysa polerna: flygplan som skapar svaveldioxidmoln) Några av de vetenskapliga forskningsområden där ClimateGPT är optimerad inkluderar geoengineering, centralbankspolitik, hållbara ekonomiska system eller regenerativt jordbruk. Webbplatsen erbjuder en bra mängd modeller att ladda ner, från 7 000 miljoner parametrar till 70 000. I ytterligare framsteg Ariana Fowler, forskningschef vid EQTY Lab, noterar att ClimateGPT fortfarande är under utveckling, och är i de tidiga stadierna av utveckling. Faktum är att resultaten den erbjuder för närvarande inte är särskilt viktiga, kanske på grund av dess korta historia chattbot. Lista över kapaciteter av modeller som finns tillgängliga för nedladdning. Erasmus.AI Omicrono Men Fowler lovar att nyckeln är dess open source-natur. ´Detta är avgörande för att skapa transparenta, säkra och inkluderande AI-lösningar.´ Dessutom förklarade han att integrationen av blockchain ´Hedera säkerställer att de data och beräkningar som används för att utveckla ClimateGPT förblir ansvariga och verifierbara.´ Trots det nuvarande tillståndet för ClimateGPT, betonar de ansvariga för chattbot dess potential. Leemon Baird, medgrundare av Hedera, detaljerade hur ClimateGPT: s integration ´med EQTY Lab: s ansvarsfulla AI-verktyg kommer att låta AI-gemenskapen ha den proveniensspårning och förtroendeskapande den behöver.´ (Uppfinningen som kommer att pensionera luftkonditionering: det sänker temperaturen i huset med 25 grader utan att konsumera nästan någon elektricitet) På detta sätt lovar ClimateGPT att kraftigt utvidga forskarnas och utvecklarnas förmågor runt klimatförändringar, eftersom det tillhandahåller - åtminstone på papper - snabb tillgång till pålitliga, säkra och kompletta vilka är verifierade klimatdata. Å andra sidan, du ger källor för att stödja dina svar, något som är utmärkt chattbots rutiner gör inte detta. Erasmus.AI försäkrar att utvecklingen av BODY ClimateGPT tog över 4 år av tester, forskning och förfining av över 100 stora språkmodeller. Det skapades från hans korpus på en planetarisk skala, en av ´världens största akademiska och webbsamlingar´ som kombinerar klimatforskning och medvetenhet och extrema väderförhållanden. Du kanske gillar ... Följ ämnen som intresserar dig

Direktlänk Dela World Nation News fördjupade 22 januari

2023 var året för stora språkmodeller och öppen källkod. Flera företag och startups öppnade källkoden för sina modeller och vikter för att bekämpa proprietära LLMs som ChatGPT och Claude. Bland de viktiga företagen och modellerna (öppen källkod) för 2023 fanns Meta (LLama, LLamav2), TII (Falcon 7B, 40B, 180B) och Mistral (Mistral 7B, Mixtral8x7B). Zephyr 7B är en modell skapad av HuggingFace H4-teamet vars huvudmål var att skapa en mindre språkmodell som är i linje med användarens avsikt och presterar bättre än större modeller. Zephyr är en anpassad version av Mistral-7B som främst skapats med hjälp av destillation och är jämförbar med 70B-modeller inom akademiska och konversationella riktmärken.

KDnuggets fördjupade 22 januari

Microsoft lanserar Azure AI Studio för generativ AI-apputveckling

Den 15 november meddelade Microsoft lanseringen av Azure AI Studio, en ny plattform för utveckling av generativa AI-applikationer. Plattformen använder sig av OpenAI-modeller som GPT-4, samt modeller från Microsoft Research, Meta, Hugging Face och andra. Azure AI Studio är ett system för att välja generativa AI-modeller, för att grundlägga dem med RAG (Retrieval-Augmented Generation) med hjälp av vektorinbäddningar, vektorsökningar och data, och för att finjustera dessa modeller för att skapa AI-drivna kopiloter eller agenter. Azure AI Studio har konkurrens från företag som Amazon och Google, samt från mindre kända aktörer som LangChain och LangSmith.

Direktlänk Dela InfoWorld fördjupade 22 januari

Erasmus.AI har tillsammans med AppTek och EQTY Lab utvecklat KlimatGPT, en öppen källkods AI-modell designad för att hantera klimatförändringarnas snabba och komplexa inverkan. Modellen, som är tillgänglig på över 20 språk, har över 7 miljarder parametrar och har tränats på över 300 miljarder klimatspecifika tokens. Den har släppts på Hugging Face och representerar en ny era inom ansvarsfull AI-utveckling. Modellen har tränats för att syntetisera tvärvetenskaplig forskning och bryta ner silos för att skapa en helhetssyn på klimatförändringarnas inverkan inom natur-, samhälls- och ekonomivetenskap.

AiThority fördjupade 21 januari

Generera 10 000 dollar i månaden med hjälp av AI

Att generera $10 000 i månaden med hjälp av AI kräver en strategisk inställning och engagemang. Här är flera potentiella områden där AI kan spela en roll i inkomstgenerering: 1. AI-baserade frilans tjänster. 2. AI-konsulttjänster. 3. Utveckla AI-produkter. 4. AI-förstärkt innehållsskapande. 5. AI i e-handelsoptimering. 6. Utveckla och sälj AI-modeller. 7. AI-drivna sociala medier. 8. AI inom digital marknadsföring.

Direktlänk Dela Medium fördjupade 19 januari

OpenAI introducerar GPT-4, en kraftfullare AI-modell

GPT-4 är den senaste stora språkmodellen skapad av artificiell intelligensföretaget OpenAI. Den kan generera innehåll med större noggrannhet, nyans och skicklighet än sin föregångare, GPT-3.5. GPT-4 har multimodala kapabiliteter, vilket innebär att den kan ta emot både text- och bildinmatningar och producera naturliga språktextutmatningar. GPT-4 lanserades i mars 2023 och är tillgänglig med en månatlig prenumeration på ChatGPT Plus för $20, samt via ett API som gör det möjligt för betalande kunder att bygga sina egna produkter med modellen. GPT-4 kan också nås gratis via plattformar som Hugging Face och Microsofts Bing Chat. GPT-4 kan analysera, läsa och generera upp till 25 000 ord - mer än åtta gånger kapaciteten hos GPT-3.5. OpenAI hävdar att GPT-4 överträffar GPT-3.5 i avancerad resonemang, vilket innebär att den kan tillämpa sin kunskap på mer nyanserade och sofistikerade sätt. GPT-4 är också ´mycket bättre´ på att följa instruktioner än GPT-3.5, enligt Julian Lozano, en mjukvaruingenjör som har gjort flera produkter med båda modellerna. GPT-4 är mer kreativ, mer tillförlitlig och generellt mer pålitlig än GPT-3.5.

Direktlänk Dela Built In fördjupade 19 januari

Andra upplagan av ´Machine Learning Engineering with Python´ erbjuds gratis

Den andra upplagan av ´Machine Learning Engineering with Python´ är en praktisk guide för MLOps och ML-ingenjörer för att bygga lösningar på verkliga problem. Boken tar ett exempelbaserat tillvägagångssätt för att hjälpa dig utveckla dina färdigheter och täcker tekniska koncept, implementeringsmönster och utvecklingsmetoder. Den utforskar de viktigaste stegen i ML-utvecklingslivscykeln och skapar en egen standardiserad ´modellfabrik´ för träning och omskolning av modeller. Denna upplaga går djupare i alla aspekter av ML-ingenjörskonst och MLOps, med betoning på de senaste open-source och molnbaserade teknologierna.

Direktlänk Dela BetaNews fördjupade 18 januari

IMPACT 50-listan för Q1 2024: De mest inflytelserika företagen inom Big Data

Inom Big Data-sektorn har en kvartalsvis IMPACT 50-lista publicerats, som rangordnar företag baserat på deras inverkan på företag genom ledande produkter och tjänster. Rankningen baseras på en anpassad RankBoost-algoritm och ett antal offentliga och privata datakällor. Listan inkluderar indikatorer för uppåtgående rörelse och nytillkomna företag. De utvalda företagen har visat sin relevans genom tekniskt ledarskap, styrka i erbjudandet, bevisad innovation, positivitet i budskap, kvalitetsuppfattning av företagssamhället, sentiment och frekvens av sociala medier, hög profil av C-suite-medlemmar och i fallet med publika företag: positiva finansiella indikatorer och aktiekurs.

Direktlänk Dela Inside Big Data fördjupade 18 januari

Miljöpåverkan av generativ AI ökar, men byråer mäter inte effekten

Medvetenheten om att generativ AI har en miljöpåverkan sprider sig, men det är mindre klart hur byråer kan mäta effekten av deras användning. Generativ AI har identifierats som en energikrävande teknologi, och det krävs en stor mängd el för att driva verktyg som ChatGPT. Dessutom använder molnbaserad databehandling, som driver de flesta AI-verktyg, enorma mängder vatten. Microsofts globala vattenanvändning ökade till exempel med 34% mellan 2021 och 2022, främst på grund av utvecklingen av AI-teknologi. Trots detta mäter många byråer inte de miljöeffekter som deras AI-experiment kan ha.

Direktlänk Dela The Drum fördjupade 18 januari

Hugging Face Spaces: En plattform för att värd och distribuera maskininlärningsmodeller

Hugging Face Spaces är en plattform för att värd och distribuera maskininlärningsmodeller och applikationer. Den erbjuder en sömlös upplevelse för att dela maskininlärningsprojekt globalt, underlättar realtidssamarbete och visar upp användarens arbete i en imponerande portfölj. Med ankomsten av GenAI har många coola modeller och appar dykt upp på Hugging Face, vilket gör att forskare och utvecklare kan skapa utrymme och modeller. Med hjälp av Gradio, Streamlit, Docker eller statisk HTML kan användare enkelt skapa interaktiva webbgränssnitt eller fristående applikationer för sina maskininlärningsmodeller.

Direktlänk Dela Analytics India Magazine fördjupade 17 januari

Förbättra AI-modeller med Orca 2 och Python

I den snabbt växande världen av maskininlärning är förmågan att finjustera AI-modeller och storskaliga språkmodeller en färdighet som skiljer de skickliga från nybörjare. Orca 2-modellen, känd för sina imponerande frågesvarsförmågor, är en utmärkt utgångspunkt för finjustering av AI. Att förbättra Orca 2-modellen med Python kan inte bara förbättra modellens prestanda, utan också ge ett enkelt sätt att lägga till anpassad kunskap till din AI-modell. Detta är särskilt användbart vid skapande av kundtjänst AI-assistenter som behöver kommunicera med kunder om företagets specifika produkter och tjänster.

Direktlänk Dela Geeky Gadgets fördjupade 13 januari

OpenDalleV1.1: Ett alternativ till DallE 3 för AI-genererad konst

OpenDalleV1.1 är ett lokalt alternativ till kommersiella AI-konstgeneratorer som DallE 3 från OpenAI. OpenDalle har nyligen fått uppmärksamhet för sin förmåga att följa användarinstruktioner och skapa bilder med extraordinär detaljrikedom och mångfald. OpenDalle är byggd på stabil diffusteknologi, känd för sin text-till-bild-genereringskapacitet. Hugging Face-plattformen fungerar som en samlingsplats för AI-entusiaster och professionella att utforska och interagera med modeller som OpenDalle. OpenDalle jämförs också med sin föregångare, Dall-E, som är en avancerad bildgenereringsmodell utvecklad av OpenAI.

Direktlänk Dela Geeky Gadgets fördjupade 12 januari

Hur man använder GPT 4 gratis: En guide till att undvika OpenAI:s månadsavgift

Kan du använda GPT 4 gratis och undvika OpenAI:s månadsavgift på 20 dollar? Det finns några sätt att använda denna LLM på olika plattformar, och vi är här för att avslöja sanningen för dig! I AI-världen erbjuder OpenAI:s senaste underverk, GPT 4, fantastiska förmågor att förstå text och bilder på olika språk. Haken är att GPT 4 vanligtvis kommer med en månadsavgift på 20 dollar under ChatGPT Plus-prenumerationen. Men frukta inte! I den här guiden har vi tre enkla sätt för dig att utnyttja GPT 4:s potential utan att spendera en enda krona. OpenAI:s senaste språkunderverk, GPT 4, är tillgängligt och stoltserar med sin skicklighet i att förstå text och bilder på många språk. Även om ChatGPT Plus erbjuder en premium-prenumeration för 20 dollar i månaden för tillgång till GPT 4, finns det goda nyheter för dem som söker ett kostnadsfritt alternativ. I den här guiden avslöjar vi tre enkla metoder för att utnyttja GPT 4 gratis utan att tömma plånboken. Kan du använda GPT 4 gratis? Absolut! Även om GPT 4 vanligtvis kommer i ett paket med en prenumerationsavgift under ChatGPT Plus, har vi hittat alternativa vägar för att få tillgång till dess förmågor utan att spendera en enda krona. Även om ChatGPT Pro erbjuder extra förmåner för 20 dollar i månaden, är vårt fokus här på gratistjänsterna.

Direktlänk Dela Dataconomy Media fördjupade 9 januari

De 20 mest populära AI-verktygen 2023

För att hålla sig uppdaterad med de senaste AI-verktygen och hur man kan använda dem för att bli rikare och mer produktiv, bör du prenumerera på LUFF Letter veckovis nyhetsbrev. 1. ChatGPT, utvecklad av OpenAI, är det mest populära generativa AI-verktyget i världen, med över 14 miljarder besök mellan september 2022 och augusti 2023. 2. Character AI, en AI-chattbot, rapporterade totalt 3,8 miljarder besök. 3. QuillBot är ett AI-program som specialiserar sig på skrivning. 4. Midjourney, en AI-driven bildgenerator, registrerade 500,4 miljoner besök under året. 5. Hugging Face, en öppen AI-plattform, registrerade 316,6 miljoner besök. 6. Googles Bard är den tredje snabbast växande AI-chattboten efter ChatGPT och Character AI. 7. NovelAI, ett annat AI-skrivverktyg, rapporterade totalt 238,7 miljoner besök.

Direktlänk Dela Medium fördjupade 6 januari

Topp 20 mest populära AI-verktyg som du behöver använda

Artificiell intelligens (AI) har blivit en oumbärlig del av olika industrier och vardagen. Det förändrar hur vi arbetar, lär oss och interagerar med världen runt oss. Denna artikel listar de 20 mest populära AI-verktygen, inklusive Google AI Platform, IBM Watson, OpenAI GPT-3, TensorFlow, Amazon Lex, Microsoft Azure AI, Salesforce instein, Hugging Face, Scikit-Learn, Jasper (tidigare Jarvis) och Chatbot.com.

Direktlänk Dela Medium fördjupade 6 januari

Framtiden för generativ AI: 5 revolutionerande effekter på globala angelägenheter till 2024

Generativ AI revolutionerar teknikinteraktion och kommer att ha långtgående effekter, inklusive produktion av mänskligt ljudande skrivande och fotorealistiska bilder. Framtida utvecklingar bör ge ännu mer avancerade användningsområden för generativ AI. Här är fem sätt som generativ AI kommer att förändra världen till 2024: framväxten av multimodala AI-modeller, kraftfulla och kapabla små språkmodeller, uppgången av autonoma agenter, öppna modeller blir jämförbara med proprietära modeller och molnnativ blir nyckeln till on-prem GenAI.

Direktlänk Dela Analytics Insight fördjupade 6 januari

Topp 10 företag inom generativ AI som formar framtiden

Artikeln lyfter fram de tio ledande företagen inom generativ AI, som förvandlar teknikens framtid. Företagen inkluderar OpenAI, Anthropic, Midjourney, Stability AI, Hugging Face, Glean, Inflection AI, Jasper, Promptly AI och Perplexity AI. Dessa företag har inte bara utvecklat banbrytande AI-teknik, utan har också visat en djup förståelse för de etiska implikationerna av AI och dess potentiella inverkan på samhället. Många av dessa företag har utvecklat AI-verktyg som förändrar hur vi interagerar med teknik och data, från att skapa mänskligt liknande text till att generera fantastisk visuell konst.

Direktlänk Dela Fox Chronicle fördjupade 5 januari

Verktyg och plattformar för utveckling av AI-applikationer med stora språkmodeller

Stora språkmodeller (LLM) är centrala verktyg inom artificiell intelligens, som möjliggör för maskiner att förstå och generera text med mänsklik flyt. Det finns en viktig skillnad mellan öppen källkods- och äganderättsliga modeller. Öppen källkods-LLM:er erbjuder transparens genom att göra sin träningsdata, modellarkitektur och vikter offentligt tillgängliga. Flera verktyg kan användas för LLM-applikationsutveckling, inklusive LangChain, Chainlit, Helicone, LLMStack, Gradio, Flowise AI, LlamaIndex, Weaviate, Semantic Kernel, Superagent och LeMUR.

Direktlänk Dela MarkTechPost fördjupade 4 januari

Snowflakes framgång drivs av stora företag som Disney

Walt Disney är ett exempel på hur mjukvarutillverkaren Snowflake har blomstrat, med ett hopp på 38% för SNOW-aktien under 2023. Disney vände sig till Snowflake när de ville modernisera sin Big Data-strategi. Underhållningsjätten flyttade från Teradata-mjukvara installerad på datorer i sina egna datacenter i Orlando, Florida, till en fjärrstyrd molndatorplattform som drivs av Amazon Web Services (AWS), en del av Amazon.com. Snowflake säljer dataanalysmjukvara som körs på molndatorplattformar. Disney kör Snowflake-mjukvara på AWS-datorservrar. Dessutom utvärderar Disney generativ artificiell intelligens och analytiker förväntar sig att gen AI kommer att driva mer efterfrågan på Snowflakes datahanteringsmjukvara.

Direktlänk Dela Investor´s Business Daily fördjupade 4 januari

Lokal maskininlärning kan bli en framväxande trend 2024

År 2024 kan se en samordnad förskjutning mot en ´lokal´ maskininlärningsutveckling och träningsansats för att minska kostnaderna, enligt en ledande branschfigur. Med 2023 dominerad av rubriker om kraftfulla stora språkmodeller (LLM) och de branta energi- och kostnadskraven som behövs för AI-utveckling, föreslog Hugging Face CTO Julien Chaumond att ´lokal maskininlärning´ kan bli en framväxande trend det kommande året. Chaumonds kommentarer kom i ett inlägg på LinkedIn där han beskrev ett viktigt område att bevaka. ´Lokal ML kommer att bli enorm´, sa han. ´Den kommer delvis att drivas av antagandet av Apple Silicon och annan innovativ hårdvara, men också på rå CPU och mobila enheter.´

Direktlänk Dela IT Pro fördjupade 3 januari

Fyra sätt AI kan hjälpa till med klimatförändringar

Artificiell intelligens (AI) har blivit ett viktigt verktyg för att bekämpa klimatförändringar. AI används för att upptäcka metanutsläpp, en stor bidragsgivare till global uppvärmning. Företaget Kayrros använder AI för att tolka satellitbilder och spåra globala metanutsläpp dagligen. AI används också för tidig upptäckt av skogsbränder. Berlinbaserade startupen Dryad använder AI med sensorer i skogar för att hitta små bränder innan de sprider sig till stora bränder. AI används även för att förebygga nya skogsbränder genom att sätta ´kontrollerade bränder´ för att ta bort överflödig vegetation som kan brinna. Yolanda Gil vid University of Southern California har skapat en AI-assistent för att hjälpa till med detta. Slutligen används AI inom grön teknikutvinning för att hitta mineraler som kobolt, litium och koppar som behövs för klimatlösningar som solpaneler och elbilar.

Direktlänk Dela National Public Radio fördjupade 2 januari

2024 förväntas bli ett banbrytande år för AI

År 2024 förväntas bli ett avgörande år för artificiell intelligens (AI). Detta kommer efter att AI definitivt har trängt in i mainstream under 2023. Framsteg inom AI-teknik, till exempel uppkomsten av konsumentchattrobotar som OpenAI:s GPT-4 och Elon Musks Grok, har lett till att AI blivit allt mer integrerad i våra liv. Det finns dock också en risk för att AI-bubblan kan brista under 2024. För att ta reda på vad vi kan förvänta oss av det kommande året har experter och intressenter delat med sig av sina förutsägelser för AI under 2024.

Direktlänk Dela Los Angeles Times fördjupade 2 januari

SD4J: Ett nytt verktyg för att generera bilder från text med hjälp av djupinlärning

Stable Diffusion in Java (SD4J) är ett verktyg för att generera bilder från text. Med hjälp av djupinlärning kan SD4J omvandla textbeskrivningar till levande bilder, och förstår negativa inmatningar. Detta innebär att användarna kan specificera element som de inte vill ha i bilden, vilket ger mer anpassning och kontroll. SD4J använder sig av förbyggda modeller från Hugging Face och ONNXRuntime-Extensions-biblioteket. För att börja använda SD4J behöver användarna först installera Git Large File Storage. Verktyget körs på ONNX Runtime, en robust maskininlärningsaccelerator som påskyndar bildgenereringen avsevärt.

Direktlänk Dela MarkTechPost fördjupade 2 januari

Statligt stödda AI-företag växer globalt

Under de senaste veckorna 2023 har flera statligt stödda artificiella intelligens (AI) företag lanserats globalt. Abu Dhabi lanserade AI71, som kommer att kommersialisera deras stora språkmodell (LLM), Falcon. Mistral, en fransk modellbyggare, meddelade en finansieringsrunda på 400 miljoner dollar. Krutrim, en indisk startup, avtäckte Indiens första flerspråkiga LLM. Dessa företag strävar efter att bli nationella AI-mästare, och konkurrerar globalt med företag som OpenAI. Samtidigt har länder som USA och Kina lovat att investera 40-50 miljarder dollar vardera i AI, och andra länder följer efter för att inte hamna efter i teknologiracet.

Direktlänk Dela The Economist Newspaper fördjupade 1 januari

AI-modeller för text-till-kod förändrar mjukvaruutveckling

AI-modeller för text-till-kod blir allt mer populära inom mjukvaruutveckling. Dessa modeller använder maskininlärning för att generera kodsnuttar och hela funktioner baserat på naturliga språkbeskrivningar. Salesforce CodeGen är en sådan modell som fungerar som en AI-parprogrammerare, omvandlar naturliga språkbeskrivningar till faktisk kod. CodeGeeX är ett annat öppet källkodsprojekt som finns på Hugging Face Spaces. CodeBERT är en förtränad modell designad för programmeringsspråk. Duckargs förenklar skapandet av Python- eller C-program som accepterar kommandoradsargument. CodeT5+ är en avancerad öppen kod stor språkmodell introducerad av Salesforce Research. GitHub Copilot ger autofullständiga förslag baserat på sammanhanget i din befintliga kod.

Direktlänk Dela MarkTechPost fördjupade 31 december

24 AI-startups att hålla ett öga på 2024

År 2024 förväntas bli ett betydande år för artificiell intelligens (AI) och maskininlärning, med framväxten av innovativa uppstartsföretag. Dessa företag kommer att omdefiniera AI-landskapet, driva banbrytande framsteg och störa industrier genom sina banbrytande tekniska lösningar. De 24 företagen som förväntas göra mest avtryck är Adarga, Aleph Alpha, Anthropic, AI21 Labs, BrainSight AI, Causaly, Cleerly, Cohere, Cropin, Dataiku, Dataminr, DeepL, DeepMind, DefinedCrowd, Hugging Face, Luminar Technologies, Midjourney, Miso Robotics, Nuro, OpenAI, Rad AI, Robust Intelligence, Stability AI och Sylvera. Dessa företag har visat enastående förmåga att utnyttja AI för att ta itu med komplexa utmaningar, från hälsovårdsdiagnostik och miljöbevarande till naturlig språkbearbetning och autonoma fordon.

Direktlänk Dela Medium fördjupade 29 december

2023: Året för AI med miljarder dollar i VC-finansiering och viktiga frågor om teknikens plats i samhället

2023 var AI:s år med miljarder dollar i VC-finansiering som flödade in i fältet. Efter lanseringen av ChatGPT i november 2022 blev det en av de snabbast växande apparna någonsin, med 100 miljoner månatliga användare inom två månader. Microsoft investerade 10 miljarder dollar i AI MVP OpenAI, som nu växer till ett värde av 80 miljarder dollar. Högt profilerade AI-startups, som Inflection och Hugging Face, nådde värderingar på 4 miljarder dollar. Amazon planerade att investera 4 miljarder dollar i OpenAI-utmanaren, Anthropic. Trots framstegen ställdes det frågor om teknikens plats i samhället, inklusive oro över utnyttjandet av AI-verktyg för att skapa skadligt innehåll och frågor om rättigheter och betalning för upphovsrättsligt skyddat material som används i AI-modeller.

Direktlänk Dela Biz.crast.net fördjupade 27 december

AI-assisterad kodning förändrar spelplanen för mjukvaruutveckling

År 2023 har varit ett banbrytande år för AI inom mjukvaruutveckling, med verktyg som GitHub´s Copilot som hjälper utvecklare att bygga applikationer. AI-drivna utvecklarverktyg som GitHub Copilot upplever massiv tillväxt och har en omvandlande inverkan på mjukvaruutveckling, med positiva effekter på produktivitet, kvalitet och jobbtillfredsställelse. Användningen av AI-verktyg av utvecklare har växt exponentiellt. Nittiotvå procent av utvecklarna använder nu någon form av AI i sitt arbete, enligt GitHub. Detta beror till stor del på uppkomsten av GenAI-modeller som har demokratiserat tillgången till AI.

Direktlänk Dela The New Stack fördjupade 26 december

2023 utnämnd till AI-året: ChatGPT mest populära AI-verktyget

Många har döpt 2023 till AI-året, eftersom takten på genombrott inom artificiell intelligens har varit snabb detta år. En ny studie bekräftar att trots vissa farhågor har människor inte tvekat att hoppa på AI-vagnen. Med över 14 miljarder besök mellan september 2022 och augusti 2023 är ChatGPT det mest populära generativa AI-verktyget i världen, enligt en ny undersökning från Writerbuddy.ai, ett onlineinnehållsskrivningsföretag. De 50 bästa AI-verktygen lockade över 24 miljarder besök, de flesta från manliga användare.

Direktlänk Dela Ooda fördjupade 25 december

OpenAI i tidiga samtal om att höja finansiering till ett värde av över 100 miljarder dollar

Microsoft-stödda OpenAI är i tidiga samtal för att höja en ny finansieringsrunda till ett värde på eller över 100 miljarder dollar, enligt källor. Om finansieringsrundan genomförs som planerat, skulle det göra AI-företaget till det näst mest värdefulla start-up-företaget i USA, endast bakom Elon Musks Space Exploration Technologies Corp. OpenAI har hittills samlat in 13 miljarder dollar från bland annat Microsoft. Amazon.com och Googleägda Alphabet har sedan dess investerat miljarder i OpenAI-konkurrenten Anthropic. OpenAI har också diskuterat att höja finansieringen för ett nytt chipföretag med Abu Dhabi-baserade G42.

Direktlänk Dela Yahoo Finance UK fördjupade 25 december

ChatGPT toppar listan över mest populära AI-verktyg 2023

År 2023 har sett snabba framsteg inom artificiell intelligens (AI), med ChatGPT som det mest populära generativa AI-verktyget i världen, enligt en ny undersökning från Writerbuddy.ai. Undersökningen analyserade över 3000 AI-verktyg och fann att de 50 bästa AI-verktygen lockade över 24 miljarder besök, mestadels från manliga användare. Trots negativ press fortsätter folk att använda ChatGPT, ett verktyg som kan utföra en mängd olika uppgifter. Susan Gonzales, grundare och VD för AIandYou, betonar att AI-verktyg kan hjälpa till att förbättra företag och identifiera nya intäktsmöjligheter.

Direktlänk Dela Consumer News and Business Channel fördjupade 24 december

OpenAI i diskussioner för ny finansieringsrunda som kan överstiga 100 miljarder dollar

OpenAI, företaget bakom ChatGPT och en ledare inom AI-innovation, är rapporterat i tidiga skeden av diskussioner för att säkra en ny finansieringsrunda som potentiellt kan överstiga 100 miljarder dollar. Diskussioner med potentiella investerare har börjat, vilket skulle stärka OpenAIs position bland världens mest värdefulla startups. Om denna finansiering blir verklighet, skulle det placera OpenAI som den näst mest värdefulla startupen i USA, endast efter Elon Musks Space Exploration Technologies Corp. OpenAI undersöker också möjligheter att finansiera ett nytt chipmakeri-projekt, i samtal med Abu Dhabi-baserade G42.

Direktlänk Dela Tekedia fördjupade 24 december

Skapande av digitala produkter med AI-verktyg

Skapandet av digitala produkter med hjälp av AI-verktyg kan avsevärt förbättra effektiviteten och innovationen. Här är tio AI-verktyg inom olika kategorier som kan vara avgörande för utvecklingen av digitala produkter: OpenAI GPT-3, TensorFlow (utvecklat av Google), IBM Watson, Amazon SageMaker, Microsoft Azure Cognitive Services, Dialogflow (Google Cloud), Clarifai, Hugging Face Transformers. Dessa verktyg erbjuder en mängd olika tjänster, inklusive naturlig språkbearbetning, visuell igenkänning, maskininlärning och mycket mer.

Direktlänk Dela Medium fördjupade 22 december

Apples AI ska köras på hårdvara, inte molnet

Apple har inte varit särskilt framstående inom artificiell intelligens (AI) och stora språkmodeller, särskilt jämfört med konkurrenter som Google och Microsoft. I sin senaste forskning framhäver företaget att deras mål för AI är att köra den direkt på hårdvara, särskilt iPhones, och inte via molnet som andra företag gjort. Forskningen, betitlad ´LLM in a Flash´, detaljerar fokus på hårdvaruenheter för att köra AI-utveckling, med en ny inställning till stora språkmodeller på enheter. Forskarna säger att deras integration av sparsamhetsmedvetenhet, kontextanpassad lastning och en hårdvaruorienterad design bana väg för effektiv inferens av LLM på enheter med begränsat minne.

Direktlänk Dela Tech Times fördjupade 22 december

Microsoft har introducerat en rad AI-utvecklingsverktyg under sin Ignite 2023-händelse. Azure AI Studio stöder AI-utveckling i stor skala för molnbaserade applikationer, medan Copilot Studio utökar de äldre Power Virtual Agents AI-verktygen med OpenAI-drivna ´boosts´. Dessutom har Microsoft nu gjort Windows AI Studio tillgängligt i en förhandsgranskning. Verktyget syftar till att föra Microsofts och dess partners AI-modeller till PC:er, först med hjälp av GPU:er men så småningom även ombord AI-acceleratorer, som Arm och Intel NPUs i Microsofts senaste Surface-hårdvara.

InfoWorld fördjupade 21 december

Generativa AI-motorer som ChatGPT och Google Bard kan installeras och användas lokalt på din dator, vilket ger fördelar som ökad integritet och tillgänglighet. För att komma igång behövs ett program för att köra AI och en stor språkmodell (LLM) för att generera svar. Dessa LLM:er är baserade på AI-textgeneratorer, som GPT-4 och Gemini från Google. LLM:er tränas på stora mängder exempeldata och lär sig att känna igen relationer mellan ord och meningar. För att installera en LLM lokalt kan du använda LM Studio, vilket är gratis att använda och kan installeras på Windows, macOS och Linux-system.

Biz.crast.net fördjupade 20 december

AI-bildgeneratorer innehåller tusentals bilder på barnsexuella övergrepp

Enligt en ny rapport från Stanford Internet Observatory finns det tusentals bilder på sexuella övergrepp mot barn inbäddade i populära artificiella intelligens (AI) bildgeneratorer. Dessa bilder har gjort det lättare för AI-system att skapa realistiska och explicita bilder av falska barn och förvandla sociala mediefoton av fullt klädda tonåringar till nakenbilder. Rapporten uppmanar företag att vidta åtgärder för att åtgärda denna skadliga brist i tekniken de har skapat. LAION, en stor AI-databas som används för att träna ledande AI-bildskapare, hittade mer än 3200 bilder på misstänkt barnsexuella övergrepp.

Direktlänk Dela Fortune Media fördjupade 20 december

Artificiella intelligensbildgeneratorer innehåller tusentals bilder på sexuellt utnyttjade barn

Enligt en ny rapport innehåller populära artificiella intelligensbildgeneratorers fundament tusentals bilder på sexuellt utnyttjade barn. Dessa bilder har underlättat för AI-system att skapa realistiska och explicita bilder på falska barn och förvandla sociala mediebilder på fullt klädda tonåringar till nakenbilder. Stanford Internet Observatory hittade över 3 200 misstänkta bilder av sexuellt utnyttjade barn i LAION, en databas som använts för att träna ledande AI-bildskapare. LAION, som står för Large-scale Artificial Intelligence Open Network, svarade omedelbart genom att tillfälligt ta bort sina dataset. Londonbaserade startupföretaget Stability AI, som hjälpte till att utforma LAIONs dataset, har gjort det svårare att skapa skadligt innehåll i nya versioner av sin text-till-bild-modell Stable Diffusion, men en äldre version är fortfarande inbakad i andra program och verktyg.

Direktlänk Dela ABC News fördjupade 20 december

Hugging Faces tekniska ledare ifrågasätter Googles påståenden om sin AI-modell Gemini

Google har nyligen avtäckt sin nya AI-modell Gemini och hävdar att den presterar bättre än OpenAI:s GPT-4 på vissa benchmark. Men Philipp Schmid, teknisk ledare på Hugging Face, ifrågasätter trovärdigheten hos dessa benchmark. Han menar att de är statiska och inte representerar verkliga användarfall, och att det finns risk för datakontaminering. Schmid påpekar också att Google har valt att inte lyfta fram de områden där GPT-4 presterar bättre än Gemini. Han uppmanar till försiktighet när det gäller marknadsföringsinnehåll och betonar vikten av att utvärdera modeller baserat på ens egna behov och användarfall.

Direktlänk Dela Analytics India Magazine fördjupade 20 december

OpenAI:s utmaningar och framsteg under 2023

År 2023 var ett avgörande år för AI, präglat av framsteg inom generativ AI, intensiv konkurrens och ökande etiska och säkerhetsproblem. OpenAI:s VD Sam Altman sparkades och återanställdes, vilket ledde till omfattande protester från anställda. Nya konkurrenter till ChatGPT framträdde, inklusive Googles Gemini och Anthropics Claude. Dessutom utvidgades det öppna källkods-AI-landskapet, med samarbeten mellan AWS och Hugging Face, och Meta som gav sig in på marknaden med sin egen LLM, Llama. OpenAI introducerade flera nya erbjudanden, inklusive betalnivåer för ChatGPT och uppgraderingar till dess flaggskeppsmodell, GPT-4. Samtidigt intensifierades debatten om AI:s säkerhet och säkerhetsrisker.

Direktlänk Dela TechTarget fördjupade 19 december

Artificiell intelligens bidrar till klimatpåverkan

AI-modeller som ChatGPT och Stable Diffusion kräver stora mängder energi och koldioxid, vilket är en oroande trend. Generativ AI är en kraftfull teknik som används inom olika områden, men dess användning har ett betydande koldioxidavtryck. Enligt en nyligen genomförd studie av forskare på Hugging Face och Carnegie Mellon University, förbrukar generering av en enda bild med AI lika mycket energi som att fulladda en smartphone. Att skapa 1000 bilder genererar ungefär samma mängd koldioxid som att köra en genomsnittlig bensindriven bil i 4,1 miles. Dock har textgenereringsmodeller ett betydligt lägre koldioxidavtryck.

Direktlänk Dela Notebookcheck fördjupade 19 december

Generativ AI lämnar labbet: framsteg, utmaningar och förväntningar

2023 präglades av att generativ AI lämnade laboratoriet och stora teknikföretag som Meta, Google, Baidu och OpenAI lanserade sina egna versioner. Trots initial hype har ingen AI-applikation blivit en omedelbar framgång. Microsoft och Google försökte lansera kraftfull AI-driven sökning, men det visade sig vara mer av en flopp. Båda företagen experimenterar nu med att låta företag och utvecklare skapa anpassade AI-chattbotar och låta människor bygga sina egna applikationer med AI. Dessutom lärde vi oss mycket om hur språkmodeller fungerar, men det finns fortfarande mycket vi inte vet. Slutligen gick AI-domedagspratet mainstream, med hundratals vetenskapsmän, företagsledare och beslutsfattare som uttryckte oro.

Direktlänk Dela MIT Technology Review fördjupade 19 december

AI-programmet GatorTronGPT kan skapa medicinska journaler lika bra som läkare

En grupp på 19 forskare från NVIDIA och Floridas universitet har tränat superdatorer att skapa medicinska journaler med hjälp av en ny modell, GatorTronGPT, som fungerar liknande som ChatGPT. I en studie kunde läkare inte skilja på journaler skrivna av läkare och de genererade av AI-programmet mer än 49% av gången. GatorTron-modellerna har laddats ner över 430 000 gånger från open-source AI-webbplatsen Hugging Face, och är de enda modellerna tillgängliga för medicinsk forskning på webbplatsen. Modellerna kan ha en stor inverkan på medicinsk forskning och vård, men kräver stora mängder data och omfattande beräkningsförmåga att bygga.

Direktlänk Dela Medium fördjupade 18 december

Förbättring av AI-svar med Retrieval Augmented Generation (RAG)

Generativ artificiell intelligens förvandlar publicering, marknadsföring och kundservice genom att erbjuda personaliserade svar på användarfrågor. En stor utmaning är dock att säkerställa att svaren är korrekta och varumärkesanpassade. Ett effektivt sätt att förbättra noggrannheten är att använda en metod som kallas ´RAG´, vilket står för Retrieval Augmented Generation. RAG gör det möjligt för LLM (Large Language Models) att få tillgång till aktuell, varumärkesspecifik information för att generera högkvalitativa svar. I en tidig forskningsrapport fann människor att RAG-baserade svar var nästan 43% mer korrekta än svar skapade av en LLM som förlitade sig på finjustering.

Direktlänk Dela CMSWire fördjupade 18 december

Ökning av AI-baserade startups och betydande investeringar i AI-sektorn

Antalet företag som utnyttjar artificiell intelligens (AI) har ökat betydligt inom startup-landskapet. Av de tio enhörningarna som har uppstått i år är sex baserade på AI-startups. Denna trend har orsakat stor uppståndelse inom industrin, med befintliga AI-startups som också upplever en märkbar ökning i värdering. Bland de företag som har investerat i flera AI-startups finns Nvidia/nVentures, Google/GV, SVA, Salesforce Ventures, Coatue, A.Capital, Microsoft/12, Y Combinator, Samsung NEXT, Madrona, Lux Capital, General Catalyst, b2venture och Andreessen Horowitz. Framstående individer som Nat Friedman, Howie Liu och Amjad Masad har också investerat i flera AI-startups.

Direktlänk Dela Analytics India Magazine fördjupade 16 december

OpenAI kritiseras för brist på mångfald i sin styrelse

OpenAI, en av världens mest kraftfulla teknikstartups med en uppskattad värdering på över 90 miljarder dollar, har nyligen kritiserats för brist på mångfald inom sitt nuvarande styrande organ. Efter en kort företagskollaps förra månaden, där VD Sam Altman avsattes och återinsattes inom en vecka, har OpenAI sagt att företaget kommer att återgå till att fokusera på sitt kärnuppdrag med en ny styrelse. Denna består nu endast av tre vita män, varav två passar in i Silicon Valleys ´tech bros´-mönster. Den tredje, en ekonom från östkusten, har tidigare gjort kontroversiella uttalanden om kvinnor. Många röster inom och utanför teknikindustrin ifrågasätter nu hur OpenAI kan uppnå sitt mål att säkerställa att artificiell allmän intelligens ´gagnar hela mänskligheten´ utan att inkludera personer från olika bakgrunder i sitt tillsynsorgan.

Direktlänk Dela Biz.crast.net fördjupade 16 december

Säkerhetsrisker med AI-modellvikter: Skydd av Claude´s modellvikter prioriteras hos Anthropic

Jason Clinton, säkerhetschef på AI-startupen Anthropic, ägnar mycket tid åt att skydda företagets AI-modellvikter för att förhindra att de hamnar i fel händer. Modellvikterna lagras i en stor fil och anses vara avgörande för AI-nätverkets förmåga att ´lära sig´ och göra förutsägelser. Enligt en ny rapport från Rand Corporation kan förvärv av vikterna möjliggöra för skadliga aktörer att utnyttja hela modellen till en bråkdel av kostnaden för att träna den. Clinton, som tidigare arbetade för Google, betonar att Anthropic är mer oroade över icke-spridning av den kraftfulla tekniken än att skydda sin intellektuella egendom.

Direktlänk Dela VentureBeat fördjupade 15 december

Samtal med AI-forskaren Sasha Luccioni om energikostnaden för AI-utbildning och utplacering

AI-forskaren och klimatledaren vid Hugging Face, Sasha Luccioni, diskuterade nyligen energikostnaden för AI-utbildning och utplacering. Hennes senaste papper jämför de pågående driftskostnaderna för olika kategorier av maskininlärningssystem. Diskussionen täckte energiförbrukning och koldioxidpåverkan av olika AI-modeller, huruvida debatterna om existentiell risk skadar våra chanser att hantera de omedelbara riskerna med AI-utplacering, och utmaningen med maktförskjutningen inom AI-forskning.

Direktlänk Dela Exponential View fördjupade 15 december

Utforska kategorier och funktioner av generativa AI-verktyg

Generativa AI-tjänster som ChatGPT har ökat intresset för att tillämpa dessa nya verktyg på praktiska företagstillämpningar. Nu förbättras nästan varje företagsapp med generativa AI-funktioner. De flesta AI, data science, maskininlärningsutveckling, drift och operativa verktyg stöder generativa AI-fall. Det finns också många framväxande typer av generativ AI som inte använder sådana stora språkmodeller (LLM) för uppgifter som att generera bilder, video, ljud, syntetiska data och översättning över språk. Detta inkluderar modeller byggda med generativa motståndsnätverk, diffusion, variational autoencoders och multimodala tekniker. Här är mer information om de främsta kategorierna av generativa AI-utvecklingsverktyg och deras funktioner med några av de ledande leverantörs- eller öppna källkodsimplementationerna.

Direktlänk Dela TechTarget fördjupade 15 december

Mistral AI:s nya AI-modell Mixtral 8x7B presterar lika bra som ChatGPT

En ny öppen källkods AI-modell som kan köras ´på enheten´ och är gratis att installera, presterar lika bra som ChatGPT på vissa nyckeltester. Modellen, som utvecklats av det franska startup-företaget Mistral AI, kallas Mixtral 8x7B och har visat sig prestera bra på vetenskap, matematik, kodning och resonemangstester. Mistral AI har gjort modellen tillgänglig via torrentlänk och placerat den på den öppna AI-plattformen Hugging Face. Den har även gjorts tillgänglig i tredjeparts AI-aggregatorer som Poe och för installation på lokala enheter. Mixtral 8x7B är den andra modellen från Mistral AI, och ersätter 7B-modellen. Den nya AI:n är en ´blandningsmodell av experter´ som använder flera nivåer av beslutsfattande för att förbättra svar och noggrannhet. Mistral AI påstår att den är mindre partisk än andra modeller och finns tillgänglig på flera språk inklusive franska, spanska och engelska. Mistral AI har snabbt blivit en viktig aktör inom generativ AI, genom att skriva partnerskapsavtal med Google och släppa öppen källkodsmodeller som presterar bättre än de stora spelarna. Företaget värderas nu till 2 miljarder euro, vilket är dubbelt så mycket som tröskelvärdet för enhörningsstatus.

Direktlänk Dela Biz.crast.net fördjupade 14 december

Artificiell intelligens kan öka energianvändningen och klimatpåverkan, enligt studie

En ny studie från AI-utvecklaren Hugging Face och Carnegie Mellon University visar att användningen av artificiell intelligens (AI) kan leda till ökad energianvändning och klimatpåverkan. Forskarna fann att generering av en bild med hjälp av en kraftfull AI-modell kräver lika mycket energi som att ladda om en genomsnittlig smartphone helt. Skapandet av 1000 bilder med en AI-modell skapar utsläpp jämförbara med att köra 6,5 kilometer i en genomsnittlig bil. Studien visade också att stora generativa modeller har mycket högre utsläpp än mindre AI-modeller skapade för specifika uppgifter. Forskarna hoppas att deras studie leder till att människor väljer mer specialiserade, mindre koldioxidintensiva modeller när det är möjligt.

Direktlänk Dela ZME Science fördjupade 13 december

Mistral AI presenterar nytt AI-språkmodell Mixtral 8x7B

Mistral AI, baserat i Paris, har tillkännagivit en ny AI-språkmodell, Mixtral 8x7B, en ´blandning av experter´ (MoE) modell med öppna vikter som rapporteras matcha OpenAI:s GPT-3.5 prestanda. Detta innebär att vi är närmare att ha en ChatGPT-3.5-nivå AI-assistent som kan köras fritt och lokalt på våra enheter, givet rätt implementering. Mistrals modeller kör lokalt med öppna vikter som kan laddas ner och användas med färre begränsningar än stängda AI-modeller från OpenAI, Anthropic eller Google. Mixtral 8x7B kan bearbeta ett 32K token-kontextfönster och fungerar på franska, tyska, spanska, italienska och engelska.

Direktlänk Dela Ars Technica fördjupade 12 december

Fem viktiga verktyg för att utveckla och distribuera applikationer drivna av stora språkmodeller

Utvecklare och dataforskare söker ständigt effektiva verktyg för att bygga, distribuera och hantera sina projekt, särskilt när stora språkmodeller (LLMs) som GPT-4 blir allt mer populära. Fem viktiga verktyg för utveckling och distribution av LLM-drivna applikationer är Hugging Face, LangChain, Qdrant, MLflow och vLLM. Hugging Face är en omfattande plattform för att hosta modeller, dataset och demonstrationer. LangChain är ett verktyg som används för att bygga kontextmedvetna applikationer. Qdrant är en Rust-baserad vektorsökning och databas. MLflow inkluderar nu stöd för LLMs och vLLM är en högpresterande och minneseffektiv motor för LLMs.

Direktlänk Dela KDnuggets fördjupade 12 december

AI-bildgenerering: Hur företag väljer rätt verktyg för deras behov

AI-bildgenerering fångar miljontals människors fantasi men har hittills mest känts som ett roligt leksak snarare än ett professionellt verktyg. Detta börjar förändras när företag experimenterar mer med generativ AI och implementerar kraftfullare lösningar i sina professionella arbetsflöden och kreativa processer. Det finns både stängda och öppna källkodslösningar tillgängliga. Stängda källkodslösningar, som Midjourney, Dalle-3 och Adobe Firefly, är enklare att använda och producerar tillräckligt bra resultat för de flesta ändamål. Öppna källkodslösningar, som de som erbjuds av Invoke, Stability AI och Hugging Face, erbjuder större anpassning och flexibilitet men kräver mer tekniskt engagemang.

Direktlänk Dela Forbes Media fördjupade 12 december

Nvidia investerar kraftigt i AI-startups

Nvidia, världens mest värdefulla chip-tillverkare, har stärkt sin position som en framstående investerare i AI-startups. Företaget har deltagit i 35 affärer 2023, vilket markerar en betydande ökning från föregående år och gör det till en av de mest aktiva investerarna inom AI-området. Nvidias investeringar sträcker sig från stora AI-plattformar värderade i miljarder dollar till mindre startups som fokuserar på att tillämpa AI inom sektorer som hälso- och sjukvård och energi. Nvidia har etablerat en dedikerad venturekapitalarm kallad NVentures, som tillsammans med sitt företagsutvecklingsteam har byggt en portfölj som inkluderar framstående AI-aktörer som Inflection AI och Cohere.

Direktlänk Dela PYMNTS fördjupade 11 december

Meta lanserar Purple Llama-initiativet för att förbättra säkerheten i AI-utveckling

Meta har lanserat Purple Llama-initiativet för att öka säkerheten och tillförlitligheten i utvecklingen av generativ AI. Initiativet kombinerar offensiva och defensiva strategier för att utvärdera och minska potentiella risker. Detta kommer efter att Meta gick med i IBM AI-alliansen för att främja förtroende, säkerhet och styrning av AI-modeller. Meta har även släppt CyberSec Eval, ett omfattande säkerhetsevalueringssystem för stora språkmodeller (LLM), och Llama Guard, en säkerhetsklassificerare för in/ut-filtrering. Dessutom har Meta publicerat en ansvarsfull användarguide som erbjuder bästa praxis för att implementera ramverket.

Direktlänk Dela VentureBeat fördjupade 11 december

Nvidia investerar i AI-startups för potentiella vinster

Nvidia Corp. kommer att göra mer vinst i år än vad chip-tillverkaren samlat in under sina första 25 år som ett börsnoterat företag, tack vare artificiell intelligens. Nvidia använder några av dessa nya miljarder till att investera i AI-startups för att potentiellt skörda ännu större vinster. Företaget investerar i strategiska partnerskap med företag som Hugging Face, en konkurrent till OpenAI, satsar riskkapital i startups och tillhandahåller gratis teknik till tusentals startups. Nvidia har inte avslöjat hur mycket kapital det investerar genom NVentures, men har meddelat att VC-grenen hittills har gjort 19 investeringar. Mer än en tredjedel av dessa 19 företag fokuserar på att använda AI för att förbättra upptäckten av nya läkemedel.

Direktlänk Dela MarketWatch fördjupade 11 december

Meta lanserar verktyg för att stärka cybersäkerheten för AI-modeller

Meta har lanserat projektet Purple Llama för att främja ansvarsfull och säker utveckling av generativa AI-modeller. För att uppnå detta kommer Purple Llama att släppa olika verktyg och utvärderingstekniker. Initialt släpps Purple Llama Cybersec Eval, som består av flera riktmärken för att utvärdera och stärka stora språkmodellers cybersäkerhet. Dessutom släpps Llama Guard, en säkerhetsklassificerare för in- och utdatafiltrering. På längre sikt planerar Meta att genomföra forskning på området och skapa ett öppet ekosystem med bland annat AI Alliance, AMD, AWS, Google, Hugging Face, IBM, Intel, Microsoft, Nvidia och Oracle.

Direktlänk Dela Computer Sweden fördjupade 11 december

Galileo, ett ledande företag inom maskininlärning för ostrukturerade data, har släppt ett Hallucinationsindex utvecklat av sin forskningsgren, Galileo Labs. Indexet hjälper användare av dagens ledande LLM:er att avgöra vilken modell som är minst benägen att hallucinera för deras avsedda användning. Bland de 11 LLM:er som utvärderas finns modeller från Open AI, Meta, TII UAE, Mosaic ML, Mistral.ai och Hugging Face. OpenAI:s GPT-4 framstår som den överlägsna presteraren i alla uppgiftstyper, trots kostnaderna associerade med OpenAI:s API-baserade prismodell. Inom OpenAI:s modellerbjudanden kan organisationer minska utgifterna genom att välja lägre kostnadsalternativ av deras modeller, såsom GPT-3.5-turbo.

Inside Big Data fördjupade 8 december

Franska GenAI-startupen Pimento samlar in 3,2 miljoner dollar i finansiering

Den franska startupen Pimento, som omvandlar kreativa briefar till visuella humörbrädor med hjälp av generativ AI (GenAI), har samlat in 3,2 miljoner dollar i finansiering. Finansieringsrundan leddes av den tidiga investeraren Partech och Cygni Capital deltog också i rundan. Flera ängelinvesterare bidrog också, inklusive Julien Chaumond, Stanislas Polu, Thibaud Elzière, Jean-Charles Samuelian, Igor Manceau, Jonathan Widawski, Alessandro Sabatelli och Nicolas Steegmann. Pimento planerar att använda finansieringen för att lansera nya funktioner, skapa en användarvänlig design och förbättra modellerna för att bättre passa de kreativa projekten.

Direktlänk Dela Tech Funding News fördjupade 7 december

OpenAI:s medgrundare stöder återinsättningen av Sam Altman som VD

OpenAI:s medgrundare Reid Hoffman anser att företaget är bättre med Sam Altman som VD, och han var chockad över att styrelsemedlemmar han tidigare tjänade med skulle tycka annorlunda. Hoffman, som lämnade OpenAI:s styrelse i mars efter att ha grundat konkurrenten Inflection AI, gav sina första kommentarer om den senaste oredan på OpenAI. Efter att anställda och investerare gjorde uppror, återfick Altman sitt jobb några dagar senare. Hoffman talade under en panel kallad ´AI Optimist Club´ på tisdagen. Stödet för Altman från teknikledare är betydande när OpenAI försöker röra sig förbi krisen.

Direktlänk Dela Wired fördjupade 7 december

Hugging Face: En plattform för utveckling av AI och maskininlärning

Hugging Face är ett företag och plattform inriktad på utveckling av AI/maskininlärningsteknologier. Ursprungligen startade företaget som en chatbot för tonåringar, men har sedan dess förvandlats till en maskininlärningsplattform. Företaget har lockat till sig högprofilerade investerare som Amazon, Google, NVIDIA, Sequoia och Salesforce. På plattformen kan användare skapa profiler, utveckla modeller och webbapplikationer, och tillhandahålla dataset för träning av modeller. Företaget erbjuder även värdtjänster och en funktion som kallas AutoTrain, som låter användare träna och distribuera AI-modeller utan kod. Hugging Face är gratis att använda, men erbjuder även betalda abonnemang för proffs och företag.

Direktlänk Dela Android Authority fördjupade 6 december

Meta och IBM ansluter sig till AI Alliance för öppen och ansvarsfull AI

Artificiell intelligens (AI) är en av de teknologier som vuxit mest i år, och i takt med dess tillväxt kräver olika sektorer, organisationer och företag starkare regleringar och transparens kring utveckling och användning av AI. Nu har Meta och IBM allierat sig i denna fråga. De två företagen ansluter sig till över 50 andra organisationer som en del av en internationell gemenskap av teknikutvecklare, forskare och användare för att driva på utvecklingen av öppen och ansvarsfull AI. AI Alliance presenterar sig själv som en samarbetsplattform som styrs av principer för öppen innovation, etisk praxis och global inklusivitet.

Direktlänk Dela ZDNet fördjupade 6 december

Apple och Google presenterar de bästa AI-apparna för 2023

Apple och Google presenterade sina listor över de bästa apparna för 2023, med flera AI-drivna appar i fokus. Apple inkluderade appar som ChatGPT, Canva och Picsart i en separat lista över generativa AI-appar. Andra appar som Pinterest, Craft, Artifact och Sololearn belönades också för sina AI-integrationer. På Googles lista utsågs AI-chattappen Character AI till ´bäst med AI´, medan ChatGPT fick ett hedersomnämnande. ChatGPT, som debuterade i maj, firade nyligen ettårsjubileumet för lanseringen av webbversionen. Andra generativa AI-appar som lanserats under året inkluderar chatbots som Anthropic´s Claude, Inflection AI´s Pi och Quora´s Poe, samt AI-videoverktyg som Runway AI.

Direktlänk Dela Digiday Media fördjupade 6 december

AI-startupen Replicate samlar in 40 miljoner dollar för att utöka användarbasen

AI-startupen Replicate, som har över 25 000 öppen källkodsmodeller i sitt bibliotek, har samlat in 40 miljoner dollar i en serie B-finansieringsrunda. Rundan leddes av Andreessen Horowitz med deltagande från Nvidia´s VC-arm NVentures, Heavybit, Sequoia och Y Combinator. Företaget, som används av två miljoner mjukvaruutvecklare, värderas nu till 350 miljoner dollar. Medlen kommer att användas för att locka fler mjukvaruutvecklare till plattformen och erbjuda företagskunder ytterligare tjänster som säkerhet, efterlevnad och övervakning av hur en modell presterar.

Direktlänk Dela Forbes Media fördjupade 5 december

Meta och IBM bildar AI Alliance för att främja ansvarsfull AI-innovation

Meta och IBM har tillsammans bildat AI Alliance, en grupp bestående av 50 företag, startups, universitet, forskningsinstitut och statliga organ, för att främja en öppen källkodsgemenskap och påskynda ansvarsfull innovation inom AI. Gruppen inkluderar framstående AI-organisationer som Hugging Face, Intel, AMD, Oracle och Stability AI, samt utbildningsinstitutioner som Yale, Cornell, Hebrew University of Jerusalem och UC Berkeley. Alliansen planerar att främja ekosystemet för öppna grundmodeller, utveckla utvärderingsverktyg för ansvarsfull AI-utveckling och utbilda allmänheten och reglerande organ om risker och fördelar med AI.

Direktlänk Dela Gizmodo fördjupade 5 december

IBM och Meta leder ny AI-allians

IBM och Meta har tillsammans med över 50 grundande medlemmar och samarbetspartners, inklusive AMD, Intel, Hugging Face, Dell Technologies, Cerebras, Sony och Oracle, bildat en allians för att främja ansvarsfull och öppen utveckling av artificiell intelligens (AI). Alliansens syfte är att stödja en transparent och samarbetsinriktad AI-utveckling, vilket man hoppas kommer att bidra till att skapa utvärderingsstandarder och verktyg för att bygga AI-system. Bland de institutioner som har gått med i koalitionen finns Harvard University, Yale University, Imperial College London, University of Tokyo, UCLA Berkeley och Notre Dame.

Direktlänk Dela IT Pro fördjupade 5 december

Verktyg för generativ AI kan förbättra AI-projekt

För att bygga avancerade AI-applikationer krävs rätt verktyg. Generativ AI kan förändra hur vi utformar AI-lösningar. I denna artikel utforskas viktiga verktyg för generativ AI, inklusive GPT-3 av OpenAI, Runway ML, Hugging Face Transformers, Midjourney, Synthesia, DeepCode, Soundraw och VQ-VAE-2. Dessa verktyg täcker ett brett spektrum av funktioner, från innehållsskapande till design och dataanalys. Genom att använda dessa verktyg kan man förbättra sina AI-projekt avsevärt.

Direktlänk Dela DevOps fördjupade 5 december

AI-bildgenerering kan ha betydande miljöpåverkan, enligt studie

En studie genomförd av forskare vid Carnegie Mellon University och Hugging Face visar att ökande användning av AI-bildgeneratorer kan ha en miljöpåverkan. Trots vanlig uppfattning att AI har minimal miljöpåverkan, visar studien att användning av AI-modeller för bildgenerering förbrukar lika mycket energi som att ladda en smartphone. Forskningen innefattade testning av 30 dataset med 88 modeller och upptäckte betydande variationer i energianvändning över olika typer av uppgifter. Alexandra Luccioni, teamledaren, betonade behovet av att erkänna de miljömässiga kostnaderna förknippade med AI-användning.

Direktlänk Dela Tech Times fördjupade 5 december

Dell kan bli en återkommande aktör inom AI trots svårigheter på PC-marknaden

Trots att Dell Technologies står inför utmaningar inom persondator (PC) marknaden, kan företagets fokus på artificiell intelligens (AI) leda till en finansiell återhämtning. Företagets intäkter minskade med 10% jämfört med föregående år till 22,3 miljarder dollar, vilket var lägre än väntat. Dells Client Solutions Group, inklusive PC-verksamheten, rapporterade en minskning av kvartalsintäkterna med 11% jämfört med föregående år. Trots detta rapporterade företaget justerade kvartalsvinster på 1,88 dollar per aktie, vilket överträffade Wall Streets prognoser. Dell pekar på sin koppling till generativ AI, eller gen-AI, som en potentiell källa till inkomstökning.

Direktlänk Dela ValueWalk fördjupade 5 december

AI-drivna verktyg och tjänster för att hjälpa utvecklare att förbättra kodkvaliteten

En rad AI-drivna verktyg och tjänster har introducerats på marknaden för att hjälpa utvecklare att producera effektivare och högkvalitativ kod. Dessa inkluderar GitHub Copilot, en kodningsassistent som använder OpenAI:s Codex språkmodell; Amazon CodeWhisperer, en kodgenerator som erbjuder kodningsrekommendationer; Notion AI, en AI-assistent för skrivrelaterade uppgifter; Stepsize AI, ett samarbetsverktyg för att optimera teamproduktivitet; och Mintlify, ett verktyg som automatiskt genererar koddokumentation. Dessutom finns det Pieces for Developers, en AI-driven snippet-hanterare; LangChain, ett ramverk för att förenkla arbetet med stora språkmodeller; och YOU, en AI-driven sökmotor med olika användbara funktioner.

Direktlänk Dela MarkTechPost fördjupade 4 december

AI-bilder har samma koldioxidavtryck som att ladda en smartphone

Forskare från Carnegie Mellon University och AI-startupen Hugging Face har samarbetat för att undersöka koldioxidavtrycket av AI-genererade bilder. De upptäckte att skapandet av en bild med hjälp av artificiell intelligens använder samma energi som att ladda en smartphone. Generering av text, vare sig det är en konversation med en chatbot eller korrigering av en uppsats, kräver förutsägbart mycket mindre energi. Forskarna uppmanar maskininlärningsforskare och utövare att ”öva transparens angående naturen och effekterna av sina modeller, för att möjliggöra bättre förståelse för deras miljöpåverkan.”

Direktlänk Dela Engadget fördjupade 4 december

Teknikjättars API-token exponerade på Hugging Face

API-token för teknikjättarna Meta, Microsoft, Google, VMware och flera andra har hittats exponerade på Hugging Face, vilket öppnar upp för potentiella försörjningskedjeattacker. Forskare på Lasso Security hittade över 1 500 exponerade API-token på den öppna källkodsplattformen för data science och maskininlärning, vilket tillät dem att få tillgång till 723 organisationers konton. I de flesta fall (655) hade de exponerade token skrivrättigheter som gav möjlighet att ändra filer i kontorepositorier. Totalt 77 organisationer exponerades på detta sätt, inklusive Meta, EleutherAI och BigScience Workshop. Alla dessa företag stängde hålen kort efter att de blivit meddelade.

Direktlänk Dela The Register fördjupade 4 december

AI-genererade bilder kräver lika mycket ström som att ladda en mobil fullt

En studie från AI-startupen Hugging Face och Carnegie Mellon University har visat att det krävs lika mycket ström att generera en bild med AI som att ladda en mobiltelefon fullt. Att generera 1 000 bilder med en AI-modell som Stable Diffusion motsvarar utsläppen från att köra 6,59 kilometer med en genomsnittlig bensinbil. Större och bredare AI-modeller har större strömförbrukning än mer specialiserade AI-modeller. Studien hoppas kunna användas som underlag för mer miljövänliga AI-användningar.

Direktlänk Dela Computer Sweden fördjupade 4 december

Förbättra dina bilder med AI-verktyg för sociala medier

Det finns flera sätt att förbättra bilder för sociala medier, AI-filmer eller bara för skojs skull. Man kan lägga till djup, animering, tal eller till och med skapa 3D-världar, allt gratis. Det kan vara bilder från vilken bildgenerator som helst eller ett riktigt foto. Verktyg som Leia Pics, CapCut, Pika, Instaverse från Illumin AI, Meta´s Research Tool, Genmo, did.com, heygen, Sad Talker på Hugging Face, DALL-E, Kaiber och Runway kan användas för att skapa fascinerande bilder och animationer.

Direktlänk Dela Medium fördjupade 3 december

AI-bildgenerering har större koldioxidavtryck än AI-text, enligt studie

En ny studie visar att generering av en enda AI-bild kräver lika mycket energi som att ladda en smartphone, vilket innebär ett större koldioxidavtryck än AI-text. Forskare från Carnegie Mellon University och AI-startupen Hugging Face undersökte 13 uppgifter, från AI-textsammanfattningar till textklassificering, för att mäta hur mycket koldioxid varje uppgift producerar per 1 000 gram. Studien syftade till att klargöra AI: s miljöpåverkan, eftersom fler människor vänder sig till den för dagliga uppgifter.

Direktlänk Dela The Messenger fördjupade 1 december

AI-bildgenerering kan förbruka lika mycket energi som att ladda din smartphone, enligt studie

Att skapa bilder med generativa AI-modeller kan förbruka lika mycket energi som att ladda din smartphone, enligt en ny studie av Hugging Face och Carnegie Mellon. Studien, som för första gången mäter den miljömässiga påverkan av generativa AI-modeller, visade att bildgenerering tog avsevärt mer energi än någon annan uppgift för dessa modeller. Populära modeller som ChatGPT´s Dall-E och Midjourney kan producera mer koldioxid än att köra 4 miles. Studien testade 88 modeller på 30 dataset och fann att stora, mångsidiga modeller, som ChatGPT, är mer energikrävande än uppgiftsspecifika modeller.

Direktlänk Dela Gizmodo fördjupade 1 december

Meta firar 10-årsjubileum för AI-labb, reflekterar över AI-boom och introducerar nya verktyg

Inför 10-årsjubileet för Metas AI-labb reflekterar Yann LeCun, Metas chefsforskare, över den artificiella intelligensens boom. Meta introducerar nya verktyg för att generera ljud, forska i video och upptäcka fördomar i språkmodeller. LeCun minns sin reaktion när OpenAI släppte ChatGPT förra november. Chatten, som kan generera omslagsbrev, skämt, manus och nästan vilken annan text som helst, tog AI till mainstream och startade en ny trend i Silicon Valley. LeCun var överraskad över verktygets påverkan på allmänhetens uppfattning och användning. Meta har under året fokuserat på att använda AI som kärnan i nya produkter och har släppt LLaMA, en stor språkmodell som konkurrerar med OpenAI:s GPT. Meta planerar att lansera fler produkter, särskilt inom metaversum, som är företagets flerbiljoner dollar satsning.

Direktlänk Dela Forbes Media fördjupade 30 november

Stable Diffusion AI-video skapar kaotiska memer

Stable Diffusion´s senaste AI-videogenerator används nu för att skapa kaotiska memer. Sedan lanseringen förra veckan har användare börjat infoga klassiska memer i den nya generatorn, vilket resulterar i förvånansvärt underhållande och skrämmande innehåll. Stable Video Diffusion kan producera 4 sekunders AI-genererade klipp, som inte uppnår perfekt fotorealism, men det hindrar inte användarna från att använda generatorn för att skapa animerade versioner av populära memer. Trots att det fortfarande finns mycket att förbättra innan vi får långfilmer, är de snabba framstegen inom AI imponerande.

Direktlänk Dela Creative Bloq fördjupade 30 november

Amazon Web Services lanserar nya funktioner för att påskynda utvecklingen av AI-modeller

Amazon Web Services (AWS) har meddelat fem nya funktioner inom Amazon SageMaker för att påskynda byggandet, träningen och distributionen av stora språkmodeller och andra grundmodeller. Amazon SageMaker HyperPod minskar tiden för att träna grundmodeller med upp till 40% genom att erbjuda specialbyggd infrastruktur för distribuerad träning i skala. Amazon SageMaker Inference minskar i genomsnitt kostnaderna för distribution av grundmodeller med 50% och latensen med 20% genom att optimera användningen av acceleratorer. Amazon SageMaker Clarify gör det nu lättare för kunder att snabbt utvärdera och välja grundmodeller baserat på parametrar som stödjer ansvarsfull användning av AI. Amazon SageMaker Canvas hjälper kunder att påskynda dataförberedelser med hjälp av naturligt språk och modellbyggande med hjälp av grundmodeller med bara några klick. Bland kunderna och partnerna som använder de nya Amazon SageMaker-funktionerna finns BMW Group, Booking.com, Hugging Face, Perplexity, Salesforce, Stability AI och Vanguard.

Direktlänk Dela AiThority fördjupade 30 november

OpenAIs Sam Altman avslöjar planer för företaget, inklusive Microsofts icke-röstningsplats på styrelsen

Sam Altman, VD för OpenAI, har för första gången sedan återinsättningen förra veckan detaljerat sina planer för det artificiella intelligensföretaget. Han meddelade att Microsoft kommer att ha en icke-röstningsplats i styrelsen och att företaget kommer att fortsätta att lansera konsument-AI-produkter. OpenAIs företagsstruktur kommer att ändras, enligt Altman och den nya styrelseordföranden Bret Taylor. Altman avskedades från OpenAI den 17 november, men återvände fem dagar senare med en ny styrelse bestående av Taylor, tidigare finansminister Larry Summers och Quoras VD Adam D´Angelo.

Direktlänk Dela The Washington Post fördjupade 30 november

Amazon Web Services introducerar nya funktioner för att påskynda AI-modellbyggande

Amazon Web Services (AWS) har meddelat fem nya funktioner inom ramen för Amazon SageMaker för att påskynda byggandet, träningen och distributionen av stora språkmodeller och andra grundmodeller. Den nya funktionen SageMaker HyperPod minskar tiden för att träna grundmodeller med upp till 40% genom att tillhandahålla specialbyggd infrastruktur för distribuerad träning i stor skala. SageMaker Inference minskar kostnaderna för distribution av grundmodeller med 50% i genomsnitt och minskar fördröjningen med 20% i genomsnitt genom att optimera användningen av accelererare. SageMaker Clarify gör det nu enklare för kunder att snabbt utvärdera och välja grundmodeller baserat på parametrar som stöder ansvarsfull användning av AI. Slutligen hjälper SageMaker Canvas kunder att påskynda dataförberedelser med hjälp av naturliga språkinstruktioner och modellbyggande med hjälp av grundmodeller med bara några klick.

Direktlänk Dela Amazon fördjupade 29 november

Viktiga AI-verktyg och ramverk inför 2024

Artificiell intelligens (AI) transformeras snabbt och det är viktigt att hålla sig uppdaterad med de bästa AI-verktygen och ramverken. Dessa verktyg kommer att vara revolutionerande när vi närmar oss 2024. Verktygen omfattar TensorFlow, känd för sin robusta support för maskininlärning och djupinlärning, PyTorch, känd för sin dynamiska beräkningsgraf, Scikit-Learn, perfekt för maskininlärning, Keras, känd för sin användarvänliga API, OpenCV, ett viktigt verktyg för datorseendeapplikationer, Apache MX Net, ett mångsidigt ramverk för djupinlärning, Hugging Face Transformers, som revolutionerar naturlig språkbehandling, Jupyter Notebooks, ett oumbärligt verktyg för datavetenskapsmän, och AutoML-verktyg, som förenklar modellutvecklingsprocessen.

Direktlänk Dela Analytics Insight fördjupade 29 november

Asiatiska marknader sjunker, Charlie Munger dör, Disney planerar expansion, Apple vill avsluta partnerskap med Goldman Sachs

Hongkongs aktier ledde förlusterna på Asienmarknaden på onsdag, med Hang Seng-indexet som sjönk så mycket som 2,7%. Kina´s CSI300 slutade ner 0,9%, Japans Nikkei 225 slutade ner 0,3% och Koreas KOSPI slutade 0,1% lägre. Charlie Munger, miljardär och investeringsrådgivare som gjorde en förmögenhet innan han blev Warren Buffetts högra hand på Berkshire Hathaway, har dött vid 99 års ålder. Disney-chefen Bob Iger planerar att utöka Disney´s temaparker med ett engagemang på $60 miljarder under de nästa 10 åren. Apple har föreslagit att Goldman Sachs ska avsluta sitt kreditkorts- och sparkontospartnerskap med teknikjätten inom de nästa 12 till 15 månaderna.

Direktlänk Dela Consumer News and Business Channel fördjupade 29 november

AI-startups ser ökad efterfrågan efter OpenAIs kaos

AI-startupen Hugging Face rapporterar ökat intresse från potentiella kunder efter kaoset hos rivalen OpenAI. Företag är oroliga över riskerna med att outsourca sin AI till en enda leverantör, enligt Hugging Face VD Clément Delangue. Även Cohere, en språkmodells-startup baserad i Toronto, har sett fler förfrågningar från potentiella kunder. Flera företag har övervägt att byta från OpenAI till konkurrenternas tjänster. Hugging Face, baserat i New York, samlade in 235 miljoner dollar i augusti till ett värde av 4,5 miljarder dollar. Investorer inkluderar Google, Amazon, Nvidia, Salesforce, AMD, Intel, IBM och Qualcomm.

Direktlänk Dela Consumer News and Business Channel fördjupade 29 november

AI-verktyg förändrar branscher och förbättrar effektiviteten

Artificiell intelligens (AI) har upplevt en oöverträffad tillväxt de senaste åren, vilket lett till utvecklingen av en rad AI-verktyg. OpenAI´s ChatGPT har framstått som en pionjär inom naturlig språkbearbetning (NLP), medan DeepMind´s AlphaFold representerar ett monumentalt språng inom bioinformatik. IBM Watson utmärker sig som en banbrytande kraft inom företagsnivå AI-lösningar. Google´s AI Platform är en omfattande svit som möjliggör för utvecklare att bygga, distribuera och hantera maskininlärningsmodeller i skala. Amazon SageMaker är en helt hanterad tjänst som tillhandahåller utvecklare och dataforskare med verktyg för att snabbt bygga, utbilda och distribuera maskininlärningsmodeller. TensorFlow, utvecklad av Google Brain team, är en öppen källkod maskininlärningsramverk med enorm popularitet. Hugging Face´s Transformers bibliotek har revolutionerat hur NLP-uppgifter närmas. NVIDIA AI omfattar en rad verktyg och teknologier optimerade för djupinlärning och AI-applikationer. Microsoft Azure AI erbjuder diverse AI-tjänster och verktyg som tillgodoser olika affärsbehov. DataRobot specialiserar sig på automatiserad maskininlärning (AutoML), vilket gör det enkelt för organisationer att bygga exakta prediktiva modeller.

Direktlänk Dela Techiexpert fördjupade 28 november

AI-program kan skapa läkarnoteringar som liknar mänskligt skrivna

En ny studie visar att ett AI-program kan skapa läkarnoteringar så övertygande att det är svårt att skilja dem från mänskligt skrivna. I studien kunde läkare korrekt identifiera om noteringarna var skrivna av människor eller AI endast 49% av gångerna. Forskare från NVIDIA och University of Florida har tränat superdatorer att producera medicinska journaler med hjälp av en innovativ modell kallad GatorTronGPT, som fungerar liknande som ChatGPT. GatorTron-modellerna har laddats ner över 430 000 gånger via AI-plattformen Hugging Face.

Direktlänk Dela Business Today fördjupade 28 november

Praktiska tips för kostnadseffektiv implementering av generativ AI

Generativ AI förändrar hur vi söker och analyserar information, skapar kod, säkrar nätverk och skriver artiklar. Men att utveckla och implementera AI kan vara en dyr process med hög risk för misslyckande. Dessutom kräver gen AI och de stora språkmodellerna (LLM) som driver det, superdatorarbetsbelastningar som förbrukar mycket el. Dr. Sajjad Moazeni från University of Washington uppskattar att träning av en LLM med över 175 miljarder parametrar tar lika mycket energi som 1 000 amerikanska hushåll använder på ett år. För att minska riskerna och kostnaderna med att implementera gen AI föreslås sex tips, bland annat att börja med en grundmodell, matcha modellen till applikationen, återträna för att skapa mindre modeller med högre noggrannhet, använda befintlig infrastruktur, köra hårdvarumedveten inferens och hålla ett öga på molnutgifterna.

Direktlänk Dela Intelligent CIO fördjupade 28 november

Generativ AI växer snabbt och kan potentiellt tillföra upp till $4.4 biljoner årligen till den globala ekonomin, enligt McKinsey. Företag som NVIDIA, Hugging Face och Anyscale bidrar till att bygga en mer demokratisk användning av AI och maskininlärning. För att optimera AI- och ML-användningen krävs samarbete och engagemang bland företagsledare. VMware har nyligen visat hur företag kan arbeta inom ett öppet ekosystem för att stödja kundernas användning av privat AI, genom att samarbeta med NVIDIA. Dessutom arbetar VMware och Intel tillsammans för att låta kunder använda sin befintliga infrastruktur och öppen källkodsprogramvara för att förenkla byggandet och implementeringen av AI-modeller.

VentureBeat fördjupade 27 november

CircleCI lanserar ny GPU-resursklass och funktioner för AI/ML-arbetsflöden

CircleCI, en ledande plattform för kontinuerlig integration och leverans (CI/CD), har implementerat en gen2 GPU-resursklass, som utnyttjar Amazon Elastic Compute Cloud (Amazon EC2) G5-instanser. Detta erbjuder den senaste generationen av NVIDIA GPU:er och nya bilder skräddarsydda för arbetsflöden inom artificiell intelligens/maskininlärning (AI/ML). Företaget har även lanserat nya funktioner för team som bygger applikationer med stora språkmodeller (LLM), inklusive inkommande webhooks och integration med utvärderingsplattformen LangSmith. Dessutom har företaget släppt en CircleCI Orb för Amazon SageMaker för att hjälpa programvaruteam att implementera och övervaka ML-modeller i stor skala.

Direktlänk Dela AiThority fördjupade 27 november

Ny AI-verktyg kan generera läkares anteckningar: Studie

En ny artificiell intelligens (AI) datorprogram kan generera läkares anteckningar så bra att två läkare inte kunde skilja skillnaden, enligt en studie. I studien granskade läkare patientanteckningar - några skrivna av faktiska läkare medan andra skapades av det nya AI-programmet - och läkarna identifierade den korrekta författaren endast 49 procent av tiden. Ett team av 19 forskare från NVIDIA och University of Florida tränade superdatorer att generera medicinska journaler baserat på en ny modell, GatorTronGPT, som fungerar liknande som ChatGPT. GatorTron-modellerna har mer än 430 000 nedladdningar från Hugging Face, en öppen källkods AI-webbplats.

Direktlänk Dela Lokmat Times fördjupade 27 november

17 alternativ till ChatGPT: AI-chattrobotar för olika ändamål

Artikeln listar 17 alternativ till den populära AI-chattroboten ChatGPT. Dessa inkluderar Bing Chat, skapat av Microsoft, Google Bard, baserat på Googles LaMDA-modell, och LLaMA 2, en konversations-AI utvecklad av Meta. LuzIA är en AI-chattrobot designad för att användas på WhatsApp och Telegram, medan Poe är ett AI-system från Quora som erbjuder flera olika AI-språk. YouChat, AnonChatGPT, Perplexity AI, Character AI, Aria Opera, GPT4All, Socratic, Chatsonic, Jasper Chat, StableLM, Claude och CatGPT är också nämnda som alternativ till ChatGPT.

Direktlänk Dela Ruetir fördjupade 25 november

En steg-för-steg guide till att bemästra generativ AI

Generativ AI, en ledande del inom artificiell intelligens (AI), har transformerat flera sektorer genom att simulera mänsklig kreativitet. För att bli expert på generativ AI krävs en kombination av teknisk kunskap och kreativ intuition. Guiden innehåller steg för att förstå grunderna i AI och maskininlärning, specialisera sig på djupinlärning, utforska generativa algoritmer, praktiskt arbete med generativa modeller, hålla sig uppdaterad och samarbeta, bemästra verktyg och bibliotek, förstå etik, samt bidra och innovera. Viktiga verktyg och bibliotek inkluderar TensorFlow, PyTorch, Keras, GANLib, Hugging Face Transformers, OpenAI Gym, StyleGAN och StyleGAN2.

Direktlänk Dela Analytics Insight fördjupade 24 november

Deepseek Coder, en AI-modell utvecklad i Beijing, sätter nya standarder inom AI-kodningsassistenter

En ny AI-modell kallad Deepseek Coder, utvecklad av forskare i Beijing, visar utmärkta resultat jämfört med andra AI-kodningsassistenter som CodeLlama. Deepseek Coder har en skalbar arkitektur och kommer i tre olika storlekar, vilket gör den flexibel nog att hantera ett brett spektrum av applikationer. Modellen utmärker sig också för sin licensieringsmodell, som är mer tillåtande än andra AI-modeller, vilket ger utvecklare och företag mer frihet att innovera och utvidga sin användning av AI. Deepseek Coder har också en intuitiv promptdesign och effektiv GPU-infäring, vilket är viktigt för kommersiella AI-applikationer som kräver realtidsinteraktion och hög genomströmning.

Direktlänk Dela Geeky Gadgets fördjupade 23 november

Niantic 8th Wall förbättrar sin WebAR-plattform med GenAI-moduler

Niantic 8th Wall förbättrar sin WebAR-plattform med generativa AI (GenAI) moduler för att revolutionera upplevelser i förstärkt verklighet. Detta ger utvecklare, varumärken och byråer mer kreativ potential och förbättrar användarnas AR-upplevelser. GenAI-teknologierna som integreras inkluderar DALL·E och Stable Diffusion för text-till-bild-input, Blockade Labs för 360-graders bildinkorporering, Inworld AI för interaktiva karaktärer, Hugging Face och ControlNet för att lägga till djup i ansiktsuttryck, och Move.ai och Wonder Dynamics för simulerade rörelser. Niantic har introducerat provprojekt för Inworld och OpenAI för att underlätta införandet av GenAI-moduler.

Direktlänk Dela Developer-tech.com fördjupade 23 november

Microsoft lanserar Azure AI Studio för att förenkla utvecklingen av AI-applikationer

Microsoft har lanserat Azure AI Studio, som syftar till att förenkla utvecklingen av AI-drivna applikationer. Azure AI Studio förenar Microsofts AI-utvecklingsverktyg och bygger på konceptet för ansvarsfull AI. Med Azure AI Studio kan utvecklare skapa pipelines som kombinerar olika aspekter av en modell, eller kedja olika modeller för att leverera en multimodal applikation. AI Studio stöder blandade modellmultimodala verktyg och Azure AI SDK. Azure AI Studio är för närvarande i offentlig förhandsgranskning och användning av Azure OpenAI-modeller i din applikation kräver godkännande från Microsoft.

Direktlänk Dela InfoWorld fördjupade 23 november

Kan SafeAssign upptäcka ChatGPT-genererat innehåll? Utmaningar och möjliga förbättringar

SafeAssign, en av de mest använda plagiatdetektorerna, har svårigheter att identifiera innehåll genererat av AI-system som ChatGPT. SafeAssign är främst inriktat på att identifiera plagiat inom studentinlämningar snarare än specifika källor som chattbot-genererat innehåll. Detta beror på att chattbotar genererar unika svar baserat på användarinput och inte nödvändigtvis bygger på befintliga material. För att förbättra SafeAssigns förmåga att upptäcka ChatGPT-genererat innehåll, kan det vara nödvändigt att införliva avancerade maskininlärningsalgoritmer och utöka SafeAssigns databas för att inkludera ChatGPT-genererade prover.

Direktlänk Dela AMBCrypto fördjupade 22 november

OpenAI genomgår dramatiska förändringar, Microsoft anställer avsatta ledare

Under de senaste fyra dagarna har OpenAI, AI-företaget bakom ChatGPT, genomgått dramatiska förändringar. OpenAIs styrelse avsatte Sam Altman, VD och medgrundare, och degraderade Greg Brockman, president och medgrundare, vilket ledde till att Brockman avgick. Detta följdes av ett uppror bland personalen som krävde att grundarna skulle återinsättas. Microsoft hade redan anställt Altman och Brockman för att leda en ny intern AI-enhet, men inga avtal hade ännu undertecknats. Det finns rykten om att de avsatta ledarna kan återvända till OpenAI. Denna händelse har satt fokus på de krafter som styr AI-revolutionen och väcker frågor om vad som händer om man satsar allt på en centraliserad, proprietär aktör och vad som händer om saker och ting sedan går snett. I ett öppet brev publicerat av Mozilla uppmanade Meta´s chefsforskare för AI, Yann LeCun, tillsammans med 70 andra undertecknare till mer öppenhet i AI-utveckling. Bakgrunden är att stora teknikföretag som OpenAI och Googles DeepMind efterfrågar mer reglering och varnar för katastrofala konsekvenser om AI hamnar i fel händer. LeCun och andra håller inte med och menar att öppna modeller kommer med risker och sårbarheter men att ökad offentlig tillgång och granskning gör tekniken säkrare, inte farligare. Meta har nyligen samarbetat med Hugging Face för att lansera en ny startup-accelerator designad för att främja användningen av öppna AI-modeller. Många företag har byggt sina affärer på OpenAIs proprietära GPT-X stora språkmodeller (LLM), och över helgen började hundratals av OpenAIs kunder rapporteras ha kontaktat OpenAIs konkurrenter, som inkluderar Anthropic, Google och Cohere, oroliga för att deras egna företag kan påverkas om OpenAI skulle upplösas över en natt.

Direktlänk Dela TechCrunch fördjupade 21 november

Microsoft Ignite 2023: Microsoft leder vägen för AI-utveckling

Microsoft Ignite 2023 var fylld av AI-relaterade sessioner, med cirka 50% av de ungefär 600 sessionerna som berörde AI på något sätt. Microsoft presenterade dussintals nya produkter, tjänster och uppdateringar, med fokus på att leda utvecklingen av AI. Microsofts VD, Satya Nadella, förklarade att ´kopiloternas ålder´ är här. Detta inkluderar nya tillägg till Copilot AI-tjänsterna, Windows AI Studio för utvecklare och två nya internt tillverkade chips för att stödja AI-baserad infrastruktur. Microsoft fortsätter att samarbeta med NVIDIA, trots att de utvecklar sin egen AI-silikon.

Direktlänk Dela Spiceworks fördjupade 21 november

Sam Altmans avsked från OpenAI tyder på djupare splittring inom teknikvärlden

Sam Altman, medgrundare och chef för OpenAI, avskedades plötsligt den 17 november, vilket chockade branschen. Rykten pekar på oro över hans sidoprojekt och rädsla för att han expanderade OpenAIs kommersiella erbjudanden för snabbt utan att överväga säkerhetsimplikationerna. OpenAIs investerare och några av dess anställda söker nu Altmans återinsättning. Händelserna på OpenAI är den mest dramatiska manifestationen hittills av en bredare splittring i Silicon Valley. På ena sidan finns ´doomers´, som tror att AI, om den inte kontrolleras, utgör en existentiell risk för mänskligheten och därför förespråkar strängare regleringar. På motsatt sida finns ´boomers´, som tonar ner rädslan för en AI-apokalyps och betonar dess potential att turbocharge framsteg.

Direktlänk Dela The Economist Newspaper fördjupade 19 november

Transformer Reinforcement Learning (TRL): Ett nytt sätt att träna transformerande språkmodeller

Forskarbiblioteket Transformer Reinforcement Learning (TRL) innehåller verktyg för att träna transformerande språkmodeller och stabila diffusionsmodeller med förstärkningsinlärning. Biblioteket är en förlängning av Hugging Faces transformers-samling, vilket innebär att språkmodeller kan laddas direkt via transformatorer efter att de har förtränats. TRL använder övervakad finjustering (SFT), belöningsmodellering (RM) och Proximal Policy Optimization (PPO). Med TRL kan transformerande språkmodeller tränas för en mängd olika uppgifter, inklusive textgenerering, översättning och sammanfattning. TRL-tränade transformerande språkmodeller presterar bättre än de som tränats med mer traditionella metoder.

Direktlänk Dela MarkTechPost fördjupade 18 november

Dell inleder samarbete med Hugging Face för att utveckla AI-modeller

Dell har inlett ett samarbete med Hugging Face för att utveckla öppen källkods generativa AI-modeller för Dells infrastruktur och kunder. Dell kommer att erbjuda en färdigpaketerad AI-lösning, där företaget kommer att använda Hugging Faces mjukvaruverktyg för att skapa en ´Hugging Face Dell´-portal. Tjänsten innebär att Dell hjälper kunder att välja en AI-modell som passar deras behov, optimerar den för Dell Power Edge-servern och tillhandahåller den till kunden. Detta partnerskap förväntas hjälpa Dell att sälja fler servrar för AI-arbetsbelastningar.

Direktlänk Dela Computer Sweden fördjupade 17 november

Populära AI-verktyg kanske inte är säkra för barn, enligt granskning av Common Sense Media

En oberoende granskning av populära AI-verktyg, utförd av Common Sense Media, har funnit att många, inklusive Snapchats My AI, DALLE och Stable Diffusion, kanske inte är säkra för barn. Common Sense Media är en ideell förespråkargrupp för familjer som är mest känd för att tillhandahålla mediebetyg för föräldrar som vill utvärdera de appar, spel, podcasts, TV-program, filmer och böcker deras barn konsumerar. Idag har dessa betyg blivit live, och erbjuder så kallade ”näringsmärken” för AI-produkter, som chattbotar, bildgeneratorer och mer. Organisationen granskade initialt 10 populära appar på en 5-punkts skala, inklusive de som används för lärande, AI-chattbotar som Bard och ChatGPT, samt generativa AI-produkter, som Snaps My AI och DALL-E och andra. Inte överraskande klarade sig den senare kategorin sämst.

Direktlänk Dela TechCrunch fördjupade 16 november

Microsoft Ignite: Uppdateringar om AI, VR och ny CPU

Microsofts Jared Spataro skämtade om företagets dåliga historik med produktnamn under Ignite-evenemanget. Microsoft Teams planerar att införa en ny 3D-VR-mötesupplevelse 2024. Nvidia-chefen Jensen Huang talade om företagets samarbete med Microsoft på olika AI-projekt och förutspådde att generativ AI kommer att bli större än internet. Microsofts nya Arm-baserade CPU, Azure Cobalt 100, beskrivs som ´snabbast av alla molnleverantörer´. Microsoft planerar att förenkla sina projektledningsverktyg under namnet Microsoft Planner. Microsoft och Nvidia samarbetar för att göra det lättare att köra AI-modeller på Windows med Windows AI Studio. Microsoft Copilot AI får en uppdatering för att göra chattboten mer interaktiv och deltagande.

Direktlänk Dela The Verge fördjupade 16 november

Föräldraskap 2023: Prata med dina barn om internet, sociala medier och AI

Common Sense Media, en ideell organisation som betygsätter filmer och andra medier för föräldrar, har lanserat sin första analys och betyg för AI-verktyg, inklusive OpenAI:s ChatGPT och Snapchats My AI chatbot. My AI fick ett av de lägsta betygen bland de 10 system som täcktes i Common Sense-rapporten. Rapporten varnar för att chatboten är villig att prata med tonåriga användare om sex och alkohol. Den högsta betygen gick till AI-tjänster för utbildning som Ello, som använder taligenkänning för att agera som en läsare, och Khan Academys chatbot-hjälpare Khanmigo för studenter. Bland de AI-verktyg som fick dåliga betyg fanns Snapchats My AI och bildgeneratorerna Dall-E 2 från OpenAI och Stable Diffusion från startup-företaget Stability AI.

Direktlänk Dela Wired fördjupade 16 november

Sasha Luccioni tar jobb på Hugging Face efter att ha bevisat sitt värde

Första gången Sasha Luccioni sökte en tjänst på det AI-startup-företaget Hugging Face, som nu värderas till 4,5 miljarder dollar, blev hon nekad. Detta var nästan tre år sedan. Efter att ha skakat av sig den initiala avvisningen började hon arbeta på BigScience, en årlig volontärforskningsverkstad finansierad av Hugging Face för att träna den första öppna källkodsmodellen för stora språk. Luccioni kontaktade direkt Thomas Wolf, startup-företagets medgrundare, under projektet och ´bevisade sitt värde´, vilket övertygade honom att erbjuda henne ett jobb.

Direktlänk Dela Adweek fördjupade 16 november

Microsoft introducerar Windows AI Studio för att underlätta AI-utveckling

Microsoft har presenterat Windows AI Studio vid sin Ignite 2023-konferens. Detta verktyg är tänkt att vara en efterträdare till det nu nedlagda AI Platform för Windows-utvecklare. Windows AI Studio kombinerar AI-verktyg och en katalog av generativa AI-modeller som utvecklare kan finjustera, anpassa och distribuera för lokal, offline-användning i sina Windows-appar. Verktyget kommer inte att tvinga utvecklare att distribuera modeller offline, utan ger dem alternativ att köra modeller lokalt, i fjärrdatacenter eller i en hybrid lokal-molnkonfiguration. En uppdatering kallad ´prompt flow´ kommer att låta utvecklare automatiskt växla mellan mindre, snabbare modeller som körs på en lokal maskin till större, mer kapabla molnbaserade modeller. Microsoft planerar också att lansera Windows AI Studio som en förlängning för VS Code, dess öppna källkodsredigerare.

Direktlänk Dela TechCrunch fördjupade 15 november

Microsoft lanserar Windows AI Studio, Nvidia uppdaterar TensorRT-LLM

Microsoft har nyligen meddelat lanseringen av Windows AI Studio, en revolutionerande hubb som gör det möjligt för utvecklare att komma åt och anpassa AI-modeller på sina Windows-datorer. Plattformen integrerar verktyg och modeller från Azure AI Studio och Hugging Face, och erbjuder utvecklare en användarvänlig modellkonfigurationsgränssnitt. Windows AI Studio kommer snart att vara tillgängligt för utvecklare som en Visual Studio Code-tillägg. Nvidia har släppt en uppdatering till TensorRT-LLM, en programvara som ursprungligen lanserades för Windows. Uppdateringen fokuserar på att köra stora språkmodeller mer effektivt.

Direktlänk Dela Mix 247 EDM fördjupade 15 november

Galileo utvecklar Hallucination Index för att utvärdera LLM:ers benägenhet att hallucinera

Maskininlärningsföretaget Galileo har utvecklat en Hallucination Index för att hjälpa användare att avgöra vilken Large Language Model (LLM) som är minst benägen att hallucinera för deras avsedda tillämpning. Indexet utvärderar 11 LLM-modeller från OpenAI, Meta, TII UAE, Mosaic ML, Mistral.ai och Hugging Face. Bland insikterna från indexet framgår det att OpenAI:s modeller presterar bäst över alla uppgiftstyper. Indexet rekommenderar olika modeller beroende på uppgiftstyp.

Direktlänk Dela Yahoo Finance fördjupade 15 november

Microsofts VD Satya Nadella gjorde oväntade framträdanden på OpenAIs DevDay och GitHub Universe förra veckan, där han hyllade företagens AI-programmeringsverktyg. Microsoft har investerat omkring 13 miljarder dollar i OpenAI och förvärvade GitHub 2018. Nadella tror att en övergång till AI-verktyg för naturligt språk kommer att sänka tröskeln för programvaruutveckling, göra befintliga utvecklare mer produktiva och leda till en ny era av kreativitet. Han betonade att Microsoft alltid har varit inriktat på utvecklare och att sättet vi skapar programvara håller på att förändras i grunden.

MIT Technology Review fördjupade 15 november

Emotionellt språk kan förbättra AI-chattbotars prestationer, enligt studie

En studie utförd av forskare från Microsoft, William & Mary och forskningscenter runt om i Asien har visat att stora språkmodeller, som de bakom generativa AI-verktyg som ChatGPT, kan visa emotionell intelligens. Forskarna fann att dessa modeller producerade högre kvalitet på output när emotionellt språk användes för att interagera med AI-chattbotar. Resultaten tyder på att teknologin är ett steg närmare att nå AGI: artificiell intelligens som kan uppvisa komplexa mänskliga förmågor som sunt förnuft och medvetenhet.

Direktlänk Dela Business Insider Africa fördjupade 15 november

Cloudflare-aktien ökar tack vare investeringar i AI-infrastruktur

Cloudflare (NET) är dagens IBD-aktie, då analytiker ser en möjlig långsiktig intäktsökning från företagets investeringar i AI-infrastruktur. Cloudflare-aktien har ökat med 51% under 2023, återhämtar sig från en försäljning i april när den sänkte sin prognos för 2023. På aktiemarknaden idag steg Cloudflare-aktien med 7,4% till 68,63. Cloudflare och konkurrenten Akamai Technologies (AKAM) tävlar om att distribuera nätverksutrustning som stöder edge computing. Cloudflare har också inriktat sig på AI ´inferencing´. Cloudflare meddelade nyligen att det hade distribuerat ´inferens-optimerade´ Nvidia (NVDA)-tillverkade GPU:er i 75 städer. Företaget planerar att distribuera Nvidia-chips i 100 städer vid utgången av 2023. I september meddelade Cloudflare sin ´Workers AI´-plattform och partnerskap med Microsoft (MSFT), privatägda Databricks och Hugging Face. Dessutom har Cloudflare kopplingar till startup-företaget för generativ AI OpenAI, utvecklaren av ChatGPT.

Direktlänk Dela Investor´s Business Daily fördjupade 14 november

Fördelar och användningsområden för små språkmodeller

Språkmodeller har revolutionerat fältet för naturlig språkbearbetning. Trots att stora modeller som GPT-3 har fått mycket uppmärksamhet, har också små språkmodeller fördelar och är tillgängliga för olika applikationer. Små språkmodeller är kompakta versioner av sina större motsvarigheter och erbjuder flera fördelar, inklusive effektivitet, hastighet, anpassningsförmöjlighet och integritet. Användningsområden inkluderar chatbots, innehållsgenerering, sentimentanalys och frågebaserade svar. Artikeln ger en detaljerad genomgång av hur man sätter upp och använder små språkmodeller.

Direktlänk Dela KDnuggets fördjupade 14 november

Fem sätt att använda OpenAI:s GPT-4 gratis

OpenAI:s GPT-4 är en av de mest populära och kapabla stora språkmodellerna (LLM). De flesta människor använder GPT-4 genom en ChatGPT Plus-prenumeration, men denna kostar 20 dollar per månad. Här är fem sätt du kan använda GPT-4 gratis: 1. Microsoft Bing Chat, som tillåter upp till 300 chattar per dag, var och en begränsad till 30 frågerundor. 2. Perplexity.ai, som ger tillgång till GPT-4, men begränsad till fem frågor var fjärde timme. 3. Merlin, en Chrome-webbläsartillägg som ger gratis tillgång till GPT-4, men begränsad till ett visst antal dagliga förfrågningar. 4. Nat.dev, ett Open Playground-verktyg som erbjuder begränsad tillgång till GPT-4. 5. Hugging Face, en öppen källkodswebbplats för maskininlärning och AI-utveckling.

Direktlänk Dela MakeUseOf fördjupade 13 november

Generative AI: Hype eller verklighet? – Menlo Ventures rapport

Trots att generativ AI har fått mycket uppmärksamhet under 2023, utgör tekniken fortfarande mindre än 1% av företagens molnutgift. Traditionell AI står istället för 18% av den 400 miljarder dollar stora molnmarknaden, enligt en rapport från Menlo Ventures. Rapporten visar att företag fortfarande har starka betänkligheter kring generativ AI, trots att vissa prognoser förutspår att tekniken kommer att skapa minst 450 miljarder dollar på företagsmarknaden över de närmaste sju åren. Menlo förutspår att företag kommer att fortsätta vara försiktiga med att anta generativ AI på grund av osäker avkastning och kompatibilitetsproblem med befintlig infrastruktur.

Direktlänk Dela VentureBeat fördjupade 13 november

AI kan svara bättre när den tilltalas med känslomässiga uttryck, visar studie

Att tala till stora språkmodeller med känslomässiga uttryck kan hjälpa till att få bättre svar, enligt en studie. Forskare lade till fraser som ´Detta är mycket viktigt för min karriär´ och ´Du måste vara säker´ till uppmaningar. Forskarna definierar emotionell intelligens som ´förmågan att skickligt tolka och hantera känslomässig information, och därefter använda den för att styra kognitiva uppgifter, allt från problemlösning till beteendereglering´. Studien visade att stora språkmodeller kan förstå och reagera på emotionella signaler. Forskarna fann att LLM:er producerade högre kvalitet på utdata när emotionellt språk användes för att prata med AI-chattrobotar.

Direktlänk Dela Business Insider fördjupade 12 november

IBM positionerar sig för att bli en viktig spelare inom generativ AI

Med Watson 2.0, eller watsonx, har IBM positionerat sig för att bli en viktig spelare inom generativ AI. Företaget har en ledande teknologisk grund, en robust och snabbt framåtskridande AI-stack, en stark hybridmolnposition (tack vare Red Hat), ett växande ekosystem och en konsultorganisation med djup domänexpertis för att tillämpa AI i branschspecifika användningsfall. Denna positionering är resultatet av företagets djupa forskning inom AI och lärdomar från tidigare misstag. I en nyligen genomförd analys delar vi våra slutsatser och perspektiv från ett nyligen besök på IBMs forskningshuvudkontor.

Direktlänk Dela SiliconANGLE fördjupade 11 november

Cerebras och Core42 lanserar Jais 30B, en uppdaterad version av deras arabiska språkmodell

Cerebras och Core42, ett företag inom G42 och en UAE-baserad aktör inom moln och generativ AI, har annonserat lanseringen av Jais 30B, den senaste och mest effektiva versionen av sin öppna arabiska stora språkmodell (LLM). Jais 30B är en betydande uppgradering från dess föregångare, Jais 13B, och har tränats på en betydligt större dataset. Detta har resulterat i betydande förbättringar i språkgenerering, sammanfattning och arabisk-engelsk översättning. Jais 30B är nu jämförbar med engelska enkelmodeller och överträffar de flesta öppna modeller i Foundation Model-utvärderingar.

Direktlänk Dela MarkTechPost fördjupade 9 november

Salesforce AI:s VD Clara Shih omdefinierar jobb med hjälp av AI

Clara Shih, VD för Salesforce AI, har länge fokuserat på artificiell intelligens (AI) och dess potential att omdefiniera arbetsroller och rutiner. Shih leder Salesforce AI:s strategi för att integrera AI i produkter som Slack och Tableau, vilket redan börjar omdefiniera jobb och dagliga arbetsuppgifter för försäljnings- och kundtjänstrepresentanter hos de 150 000 företag som använder Salesforce´s mjukvara. Salesforce AI utvecklar nya funktioner som förenklar rutinmässiga uppgifter, som att schemalägga möten och skriva försäljningsmejl. Trots potentialen för AI att förändra arbetslivet, påpekar Shih att det också finns säkerhets- och integritetsproblem, och betonar vikten av att uppgradera och anamma AI för att hålla jämna steg med teknikutvecklingen.

Direktlänk Dela Forbes Media fördjupade 8 november

Globalt toppmöte fokuserar på AI-säkerhet och reglering

Det första globala toppmötet om AI-säkerhet, som hölls på Bletchley Park, Storbritannien, samlade över 100 deltagare från civilsamhället, ledande teknikföretag och regeringar. Mötet syftade till att utforma teknologins framtida riktning. Vid toppmötet undertecknades Bletchley-deklarationen, ett globalt avtal där 28 länder, inklusive USA, Storbritannien och Kina, samt Europeiska unionen, erkände behovet av reglering av AI. USA:s president Joe Biden har undertecknat en exekutiv order om artificiell intelligens för att skissa på hur landet kommer att reglera tekniken. Samtidigt lanserade Storbritannien ett AI-säkerhetsinstitut, följt av USA:s egen version. Trots globalt samförstånd om behovet av reglering, finns det fortfarande divergerande åsikter om hur detta bör genomföras.

Direktlänk Dela BBC fördjupade 7 november

Vectara lanserar öppen-källkodsmodell för utvärdering av hallucinationer i LLM

Vectara, en byggare av Large Language Models (LLM) och betrodd Generative AI (GenAI) plattform, har släppt sin öppen-källkods Hallucination Evaluation Model. Denna första i sitt slag initiativ erbjuder en kommersiellt tillgänglig och öppen-källkodsmodell som adresserar noggrannhet och nivå av hallucinationer i LLM, tillsammans med en offentligt tillgänglig och regelbundet uppdaterad leaderboard. Modellen är utformad för att kvantifiera hur mycket en LLM avviker från fakta vid syntetisering av en sammanfattning relaterad till tidigare tillhandahållna referensmaterial. Vectara uppmanar andra modellbyggare som OpenAI, Cohere, Google och Anthropic att delta i att definiera en öppen och fri branschstandard i stöd för självstyrning och ansvarsfull AI.

Direktlänk Dela AiThority fördjupade 6 november

Kritiska strategier för tidig framgång inom AI

AI-revolutionen lockar en våg av mjukvaruingenjörer och dataforskare mot maskininlärning. Trots att generativa AI-applikationer är i framkant, sträcker sig maskininlärningens påverkan långt utöver text- och bildgenerering. Det finns anmärkningsvärda möjligheter inom flermodal AI inom medicin, tolkbarhet av ML-modeller och resurseffektiva modeller för edge ML. AI-industrin är på en imponerande bana, redo att överstiga en halv biljon dollar i utgifter till 2023 enligt IDC. Nyckeln till att navigera i detta dynamiska landskap är att odla en stabil grund i maskininlärningens grunder.

Direktlänk Dela Medium fördjupade 5 november

Forskare utvecklar DEJAVU för att förutsäga kontextuell sparsamhet och påskynda LLM-införandet

Forskare har utvecklat DEJAVU, ett system som använder en lågkostnadsalgoritm för att förutsäga kontextuell sparsamhet i realtid med indata till varje lager, tillsammans med en asynkron och hårdvaruimplementering som påskyndar LLM-införandet. De har verifierat existensen av sådan sparsamhet med en enkel strategi. DEJAVU använder framåtblickande prognoser för att sidostega prognoskostnader. Forskarna upptäckte att DEJAVU uppnår över två gånger minskning i token-genereringslatens jämfört med den mest avancerade FasterTransformer och över sex gånger jämfört med Hugging Face utan förlust av noggrannhet.

Direktlänk Dela MarkTechPost fördjupade 4 november

Generativ AI:s tillväxt och inverkan på industrierna

Generativ AI (gen AI) antas i en mängd olika ramverk med olika driftsmodeller, datamängder och domänspecifika egenskaper. Gen AI:s omvandlande kraft för industrier är enorm och AI kommer att röra sig mot där data finns. Gen AI:s kraftlag, utvecklad av theCUBE Research team, beskriver de antagningsmönster vi ser framträda i molnet, på plats och på kanten med en lång svans av mycket specifika domänmodeller över varje industri. Vi introducerar nya undersökningsdata från Enterprise Technology Research som tittar på några av leverantörerna som antas eller övervägs med en speciell titt in i den framväxande tekniksektorn med data på Hugging Face, Anthropic, Cohere och Jasper. Vi kommenterar också antagandet av Meta Platforms ´Llama 2 och den potentiella påverkan av öppen källkod och andra tredje parter på kurvans form. Vi delar våra uppskattningar av Microsoft Azures AI-intäktsinverkan, som vi ser närmar sig en löptakt på 2 miljarder dollar utgående 2023. Slutligen gräver vi in i effekterna av återhämtning förstärkt generation, eller RAG, med hjälp av verkliga världsexempel med vissa förbehåll för RAG-implementeringar som utövare bör överväga.

Direktlänk Dela SiliconANGLE fördjupade 4 november

Konstnärer använder verktyg för att bekämpa AI-företag som stjäl deras verk

Konstnärer börjar använda verktyg för att kontaminera och förvirra AI-system som använder deras verk för att träna AI-modeller. Ett sådant verktyg, Nightshade, skapar en mismatch mellan bild och text för att förvirra AI-modeller. Ett annat verktyg, Glaze, ändrar subtilt pixlarna i ett konstverk för att göra det svårt för en AI-modell att efterlikna en specifik konstnärs stil. Dessutom har den vinstdrivande företaget Spawning.ai skapat Kudurru, som spårar skrapares IP-adresser och blockerar dem eller skickar tillbaka oönskat innehåll. Trots att vissa AI-säkerhetsexperter ifrågasätter effektiviteten hos dessa verktyg, är konstnärer entusiastiska över att använda dem.

Direktlänk Dela National Public Radio fördjupade 4 november

AI-bildgenerering visar på fördomar trots försök till korrigering

Efter att The Washington Post publicerade en artikel som förklarade att artificiella intelligensbilder förstärker våra värsta stereotyper, genomfördes en jämförelse av de tre största text-till-bildgeneratorerna. Testet visade att trots ansträngningar att rensa datan som driver resultaten, finns det fortfarande fördomar i kön och ras i bilderna som genereras. Dessa fördomar kommer från träningsdata och AI-bildföretag har försökt göra ändringar genom att filtrera datasetet och koda in parametrar för att undvika stereotyper. Men det verkar inte finnas någon enkel lösning.

Direktlänk Dela PetaPixel fördjupade 3 november

Google investerar massivt i AI-startups

Google har under det senaste året gjort betydande investeringar i AI-teknik. Företaget har nyligen investerat upp till 2 miljarder dollar i San Francisco-baserade Anthropic, inklusive 500 miljoner dollar i förskott och ytterligare 1,5 miljarder dollar över tid. Google har också deltagit i andra stora investeringsrundor inom sektorn, inklusive en investering på 155 miljoner dollar i det Israel-baserade AI-startupföretaget AI21 Labs och en investering på 200 miljoner dollar i AI-startupföretaget Hugging Face. Dessutom deltog Google i en investeringsrunda på 141 miljoner dollar för det New York-baserade AI-bildgeneratorföretaget Runway.

Direktlänk Dela Crunchbase News fördjupade 2 november

AI-bildverktyg förstärker stereotyper och föråldrade klichéer

Artificiell intelligens (AI) bildverktyg tenderar att förstärka störande stereotyper och klichéer, vilket reflekterar den data som används för att träna tekniken. Stabilitets AI, tillverkaren av den populära bildgeneratorn Stable Diffusion XL, meddelade att de har gjort en betydande investering i att minska bias i sin senaste modell. Trots förbättringar har verktyget inte slutat att överföra stereotyper till basobjekt. Christoph Schuhmann, medgrundare av LAION, en ideell organisation bakom Stable Diffusions data, argumenterar för att bildgeneratorer naturligt reflekterar världen av vita människor eftersom den ideella organisation som ger data till många företag, inklusive LAION, inte fokuserar på Kina och Indien.

Direktlänk Dela The Washington Post fördjupade 1 november

Företag använder DLP-verktyg för att säkra generativ AI

Företag använder DLP-verktyg (Data Loss Prevention) för att säkra generativ AI och minska riskerna med applikationer som ChatGPT. DLP-leverantörer lägger till stöd för användningsfall för generativ AI efter framväxten och ökade adoptionen av ChatGPT sedan dess lansering i november 2022. Enligt en rapport från IDC har 65% av företagen redan implementerat generativ AI, 19% utforskar det aktivt och 13% överväger det fortfarande. Endast 3% säger att de inte planerar att använda generativ AI. Det största hindret för adoption var oro över att företagshemligheter skulle läcka ut i de stora språkmodellerna som ägs av leverantörer av generativ AI-teknologi. Teknikkonsultföretaget Persistent Systems använder DLP omfattande för att skydda känslig data från generativa AI-system. Företaget har 23 000 anställda i 21 länder och beroende på typ av anställd och vilken typ av arbete de utför finns det olika skydd för känslig data.

Direktlänk Dela CSO Online fördjupade 31 oktober

Google intensifierar AI-konkurrensen med stor investering i Anthropic

Google har åtagit sig att investera betydligt i Anthropic, ett startup inom artificiell intelligens (AI). Detta steg intensifierar konkurrensen mellan teknikjättar och startups som siktar på nästa stora AI-framsteg. Googles senaste åtagande innebär en initial investering på 500 miljoner dollar, med planer på att investera ytterligare 1,5 miljarder dollar i framtiden. Detta kommer efter Amazon.com Inc:s beslut förra månaden att investera 4 miljarder dollar i Anthropic. Anthropic, som grundades av före detta OpenAI-ingenjörer 2021, är inriktat på att skapa AI-modeller som kan rivalisera dem från OpenAI.

Direktlänk Dela Benzinga fördjupade 28 oktober

FN tillkännager ny rådgivande styrelse för artificiell intelligens

Förenta Nationerna (FN) har tillkännagivit en ny rådgivande styrelse för artificiell intelligens (AI) bestående av 38 personer från regeringar, akademi och industri. Styrelsens uppdrag är att analysera och främja rekommendationer för internationell styrning av AI. FN har under den senaste månaden diskuterat strategi och tillvägagångssätt kring AI med branschledare och andra intressenter. Planen är att sammanställa rekommendationer om AI till sommaren 2024, då FN planerar att hålla en ”Summit of the Future”-händelse. Styrelsen kommer att arbeta med att bygga ett globalt vetenskapligt samförstånd om risker och utmaningar, hjälpa till att utnyttja AI för de hållbara utvecklingsmålen och förstärka internationellt samarbete om AI-styrning.

Direktlänk Dela TechCrunch fördjupade 27 oktober

Stora teknikföretag satsar stort på AI

Ordet ´AI´ nämndes 75 gånger under Alphabets (Google) resultatrapport, 61 gånger under Microsofts och 87 gånger under Metas, vilket sammanlagt gör över 220 omnämnanden. Dessa tre stora teknikföretag satsar stort på AI. Alphabet CEO Sundar Pichai talade om AI:s roll inom Google Search, Google Bard, Google Cloud och Google Pixel. Microsofts VD Satya Nadella talade om AI:s roll inom Microsoft Azure, GitHub CoPilot, CoPilot in CRM, CoPilot in health, CoPilot som en daglig assistent för företag, Windows och Bing. Meta CEO Mark Zuckerberg talade om AI:s roll inom Meta AI, AI Studio, AI för företag, AI för skapare, Llama 2, AI i rekommendationssystem och AI för annonsörer.

Direktlänk Dela MediaNama fördjupade 26 oktober

Ny AI-teknik kan förstå och resonera kring ljudingångar

Forskare från Tsinghua University och ByteDance har utvecklat ett nytt artificiellt intelligenssystem, SALMONN, som tillåter maskiner att förstå och resonera kring ljudingångar som tal, ljud och musik. SALMONN beskrivs som en stor språkmodell (LLM) som möjliggör tal-, ljudhändelse- och musikinmatningar. Systemet kombinerar två specialiserade AI-modeller, en för talbearbetning och en för allmän ljudbearbetning, till en enda LLM som kan generera textrespons på ljuduppmaningar. SALMONN har också visat korsmodala förmågor, som att följa talade instruktioner, utan någon explicit träning i tal-till-text-översättning.

Direktlänk Dela VentureBeat fördjupade 24 oktober

Microsoft planerar att åtgärda problem med generativ AI

Microsoft planerar att åtgärda många av de nuvarande problemen med generativ AI, med kundproblem och frågor som kan avskräcka företag från att investera i företagets AI-erbjudanden högst upp på listan. Arbetskraftsutbildning, jobbsäkerhet och hållbarhet var bland de områden som utforskades av Satya Nadella, VD på Microsoft, i ett brev publicerat på LinkedIn. Microsoft har agerat snabbt på generativ AI genom en betydande investering i OpenAI, utvecklaren bakom ChatGPT. Företaget har sedan början av 2023 även avtäckt en rad generativa AI-produkter, inklusive sin produktivitetsassistent 365 Copilot, Copilot Chat för Github Copilot och Security Copilot.

Direktlänk Dela IT Pro fördjupade 24 oktober

AI-assistenter i jobbsökning: Hjälp eller hinder?

AI tar en central roll i jobbsökning, med företag som Hugging Face och Nvidia som rapporterar en ökning av sökande som använder ChatGPT för att navigera ansökningsprocessen. En studie visar att jobbsökande som använde ´algoritmisk skrivhjälp´ för att förbättra sina CV var 8% mer benägna att få jobb. Men AI-verktyg kan också skapa problem, med felaktigheter och okända karaktäriseringar i ansökningar. Flavien Coronini från Hugging Face påpekar att överanvändning av ChatGPT kan leda till ansökningar som saknar en mänsklig touch. Trots detta är rekryterare överens om att AI-kompetens kan ge jobbsökande en fördel.

Direktlänk Dela Digital Information World fördjupade 23 oktober

AI-företag saknar transparens, enligt Stanford-rapport

I juli och september undertecknade 15 av de största AI-företagen Vita husets frivilliga åtaganden för att hantera riskerna med AI, inklusive ett löfte om att vara mer transparenta. En rapport ledd av Stanford´s Center for Research on Foundation Models (CRFM) har nu graderat 10 av de största modellerna baserat på 100 olika transparensindikatorer. Det högsta totala betyget gick till Metas Llama 2, med 54 av 100. Forskarna skrev att ´ingen större utvecklare av foundation-modeller är nära att tillhandahålla tillräcklig transparens´, vilket avslöjar en grundläggande brist på transparens inom AI-industrin. De mest noterade var att när OpenAI uppgraderade från GPT-3 till GPT-4, beslutade företaget att inte avslöja någon information om ´arkitektur (inklusive modellstorlek), hårdvara, träningsberäkning, datamängdsuppbyggnad, [och] träningsmetod´.

Direktlänk Dela Institute of Electrical and Electronics Engineers fördjupade 22 oktober

AI-verktyg förvandlar 2D-bilder till 3D-modeller

Ett nytt AI-verktyg som för närvarande är under tidig utveckling kan omvandla enkla platta 2D-bilder till 3D-modeller. Verktyget, kallat DreamGaussian, tar bilder skapade med AI-bildgeneratorer som Midjourney, Stable Diffusion eller DallE 3 och omvandlar dem till 3D-modeller som sedan kan användas i 3D-modelleringsprogram som Blender. Verktyget är fortfarande under utveckling och kan inte fullständigt omvandla vilken 2D-bild som helst till en fantastisk 3D-modell redo för produktion. DreamGaussian är gratis att använda på Hugging Face-webbplatsen och har byggts med Gradio.

Direktlänk Dela Geeky Gadgets fördjupade 22 oktober

Arbetssökande använder OpenAI:s ChatGPT för att söka jobb - med risk för att inte bli anställda

Arbetssökande använder AI-chattboten OpenAI:s ChatGPT för att skriva ansökningar och svara på frågor. Rekryterare har märkt en ökning av användningen av ChatGPT under det senaste året, särskilt för AI-relaterade roller. En undersökning av National Bureau of Economic Research visade att deltagare som fick ´algoritmisk skrivhjälp´ för att justera sina CV var 8% mer benägna att bli anställda än de som inte använde AI. Men rekryterare varnar för att ta chattbotens förslag bokstavligt kan minska chanserna att bli anställd om inte ansökningarna granskas för noggrannhet.

Direktlänk Dela Business Insider fördjupade 22 oktober

Stanford, MIT och Princeton skapar transparensindex för AI-modeller

Stanforduniversitetet har i samarbete med MIT och Princeton utvecklat ett nytt system för att mäta transparensen hos AI-modeller, kallat Foundational Model Transparency Index (FMTI). FMTI rankar de 10 bästa AI-modellerna utifrån 100 olika transparensrelaterade dimensioner, inklusive hur de byggdes, vilken information de tränades på och vilka dataskydds- och riskhanteringspolicies som finns. Enligt studien var det genomsnittliga betyget endast 37 av 100, med Meta´s Llama 2-modell på topp med 54 poäng. Studien visade också att öppna modeller generellt sett rankades högre än stängda modeller.

Direktlänk Dela PC Magazine Middle East fördjupade 20 oktober

Stora tidningar förhandlar med OpenAI om tillgång till digitala nyheter

Stora tidningar, inklusive New York Times och Reuters, förhandlar med OpenAI, tillverkaren av ChatGPT, om tillgång till digitala nyheter. Tidigare har teknikföretag som OpenAI fritt använt nyheter för att bygga datamängder som lär deras maskiner att känna igen och svara på mänskliga frågor. Men när jakten på att utveckla AI-modeller har blivit allt mer intensiv kräver tidningsförläggare och andra dataägare en del av den potentiellt enorma marknaden för generativ AI. Sedan augusti har minst 535 nyhetsorganisationer installerat en blockerare som hindrar deras innehåll från att samlas in och användas för att träna ChatGPT. Nu är diskussionerna inriktade på att betala förläggare så att chatboten kan visa länkar till enskilda nyhetsartiklar i sina svar, en utveckling som skulle gynna tidningarna på två sätt: genom att ge direkt betalning och genom att eventuellt öka trafiken till deras webbplatser. I juli slöt OpenAI ett avtal om att licensiera innehåll från Associated Press som träningsdata för sina AI-modeller. De nuvarande samtalen har också behandlat den idén, men har koncentrerat sig mer på att visa historier i ChatGPT-svar. Reddit, det populära sociala meddelandetavlan, har träffat ledande generativa AI-företag om att betala för dess data.

Direktlänk Dela The Washington Post fördjupade 20 oktober

AI-företag misslyckas med transparens enligt Stanford-studie

En studie från Stanford University har gett stora AI-företag, inklusive OpenAI, Google och Anthropic, låga betyg för transparens. Forskarna bedömde varje företags flaggskeppsmodell utifrån om dess utvecklare offentligt avslöjade 100 olika bitar av information, såsom vilka data den tränades på och när modellen inte ska användas. Ingen av företagen fick mer än 50 av de 100 möjliga poängen, vilket ger dem alla ett underkänt betyg. Företagen hävdar att de håller sådan information hemlig av konkurrensskäl eller för att förhindra riskabel spridning av deras teknik.

Direktlänk Dela The Atlantic fördjupade 19 oktober

Företag anställer för AI-talanger för att dra nytta av generativ AI-hype

Företag anställer AI-talanger för att dra nytta av hypen kring generativ AI. Stora företag som Amazon, Meta och Netflix anställer anställda för sina AI-initiativ och erbjuder sexsiffriga löner. Det är dock inte bara teknikföretag som söker AI-talanger, arbetsgivare inom en rad sektorer, från juridik till utbildning till hälso- och sjukvård, har letat efter arbetstagare som är bekanta med verktyg som ChatGPT. Insider talade med fyra anställningsledare vid IBM, Nvidia, Hugging Face och Jasper för deras råd om hur man får ett AI-relaterat jobb på deras respektive företag.

Direktlänk Dela Business Insider fördjupade 19 oktober

LM Studio: Ett nytt program för att skapa en personlig AI-assistent

LM Studio är ett nytt program och ramverk som gör det möjligt att enkelt skapa en personlig AI-assistent som körs lokalt från din laptop eller stationära dator. Programmet är lätt att installera och använda för lokala språkmodeller på persondatorer snarare än tredjepartsservrar. LM Studio har en användarvänlig gränssnitt som gör det enkelt att hantera olika AI-modeller beroende på dina behov, allt från ett gränssnitt. Programmet tillåter användare att starta sin egen inferensserver med bara några klick och ger en guide för att välja rätt modell baserat på användarens RAM. Dessutom är LM Studio kompatibelt med alla ggml Llama, MPT och StarCoder-modeller på Hugging Face. Användare kan upptäcka, ladda ner och köra lokala LMS inom applikationen. LM Studio är 100% privat, använder en krypteringsmetod och ger en tydlig förklaring till hur det använder HTTP-förfrågningar. Programmet har också en feedbackflik där användare kan ge konstruktiv feedback och begära funktioner.

Direktlänk Dela Geeky Gadgets fördjupade 19 oktober

» Nyheterna från en dag tidigare

Några av våra kursdeltagare