» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 278 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

AWS, eller Amazon Web Services, är en molntjänstplattform som erbjuder en mängd olika tjänster inom databehandling, lagring, databaser, analys, maskininlärning, säkerhet och mycket mer. AWS hjälper företag och utvecklare att bygga, distribuera och skala applikationer och tjänster snabbt och enkelt. Genom att använda AWS kan kunderna betala för de resurser de faktiskt använder, vilket gör det möjligt att minska kostnaderna och öka effektiviteten. AWS är en del av Amazon.com, Inc., som är ett av världens största företag inom e-handel och teknik.

Senaste nytt kring AWS

IBM hoppar på AI Copilot-vagnen med ´Runway´-initiativet

IBM har anslutit sig till trenden med AI-assistenter, populäriserad av Microsoft och dess dotterbolag GitHub, med sitt nya ´IBM Copilot Runway´-initiativ. IBM, som en gång var allestädes närvarande i datacenter överallt, har framgångsrikt omstrukturerat sig för att fokusera på AI och hybridmoln. Nu har IBM lanserat en ny tjänst för att hjälpa företag att skapa, anpassa, distribuera och hantera copiloter, inklusive Copilot för Microsoft 365. Målet är att hjälpa kunder att sömlöst integrera copiloters generativa AI för att öka produktiviteten och lönsamheten. Detta kommer att göras med hjälp av en ny dedikerad konsultpraxis med Microsoft Copilot-kompetens, referenser och expertis.

Direktlänk Dela Virtualization Review fördjupar idag
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

AI-assistenten Claude nu tillgänglig i EU

AI-assistenten Claude, utvecklad av Amazon-backade start-up Anthropic, är nu tillgänglig i EU. Claude kan utföra uppgifter på användarnas vägnar, som att skriva uppsatser eller sammanfatta information. Anthropic har även utvecklat en speciell metod för att träna AI-assistenten, kallad ´konstitutionell AI´. Claude-appen och företagsplanen är nu tillgängliga för människor och företag i EU. En premiumversion av webbappen, Claude Pro, finns tillgänglig för 18 euro plus moms per månad.

Direktlänk Dela The Independent fördjupar idag

Amazon SageMaker Canvas och JumpStart erbjuder finjustering av stora språkmodeller

Amazon SageMaker Canvas och Amazon SageMaker JumpStart erbjuder lösningar utan kod och förtränade modeller för att finjustera stora språkmodeller (LLMs), vilket hjälper organisationer att röra sig snabbare med färre tekniska resurser. SageMaker Canvas tillhandahåller ett intuitivt peka-och-klicka-gränssnitt för företagsanvändare att finjustera LLMs utan att skriva kod. Det fungerar både med SageMaker JumpStart och Amazon Bedrock-modeller. Detta inlägg demonstrerar hur SageMaker Canvas låter dig finjustera och distribuera LLMs. Dina data används inte för att förbättra de grundläggande modellerna, delas inte med tredjepartsmodelleverantörer och stannar helt inom din säkra AWS-miljö.

Direktlänk Dela Amazon Web Services fördjupade igår

AI ändrar hur vi kodar: 10 verktyg som kan hjälpa dig

Artificiell intelligens (AI) förändrar hur vi kodar och användningen av AI-drivna kodningsassistenter kan vara en spelväxlare. Verktygen Tabnine, Codiga, Replit, GitHub Copilot, AskCodi, Snyk, Amazon CodeWhisperer, Sourcegraph Cody, Codeium och WP Code använder AI för att förbättra utvecklares produktivitet genom att snabbt generera kod, förutsäga efterföljande rader och erbjuda smarta kompletteringsförslag. De stöder flera programmeringsspråk och IDE:er, vilket gör dem mycket mångsidiga. Många av dessa verktyg är gratis att börja med, med fullfunktionella versioner tillgängliga för en månadskostnad.

Direktlänk Dela Analytics India Magazine fördjupade 11 maj

Constellation Energy planerar att tillhandahålla kärnkraft till AI-datacenter

Constellation Energy (CEG), en del av S&P 500, meddelade på torsdagen att de diskuterar med stora företag om att tillhandahålla kärnkraft till datacenter för artificiell intelligens (AI). Projekt förväntas skala upp under decenniet. CEG rapporterade i sin kvartalsrapport att datacenter vid deras kärnreaktorer kan komma igång 2026-2028 och öka därifrån. Stora moln-, datacenter- och AI-leverantörer inkluderar Amazon.coms AWS, Microsoft, Meta och Alphabet. I mars sålde Talen Energy sin 960-megawatt datacenter-campus till AWS för 650 miljoner dollar, belägen på deras kärnkraftverk i Pennsylvania.

Direktlänk Dela Investor´s Business Daily fördjupade 11 maj

Vistra rapporterar minskade intäkter och vinster, aktien rusar efter marknadsöppning

Energibolaget Vistra (VST) rapporterade en minskning av intäkter och vinster för första kvartalet, vilket ledde till att aktien först sjönk innan den rusade efter att marknaden öppnade. Trots detta har VST-aktien ökat med mer än 100% under 2024. Företaget planerar att dra nytta av efterfrågan på AI-datacenter, i likhet med Constellation Energy (CEG). Vistras VD, Jim Burke, ser flera faktorer som driver en långsiktig acceleration av tillväxten i många av de områden de betjänar. Constellation Energy förväntas också rapportera sin kvartalsrapport snart, med analytiker som förväntar sig en 400% ökning av vinst per aktie.

Direktlänk Dela Investor´s Business Daily fördjupade 8 maj

Studenter på NYU Abu Dhabi får praktisk erfarenhet av AI-utvecklingsplattform

Studenter vid New York University Abu Dhabi (NYUAD) fick praktisk erfarenhet av en banbrytande ny plattform för utveckling av AI-applikationer under en hackathon. Plattformen, ON DEMAND, är ett stort språkmodellsoperativsystem utvecklat av AIREV, ett företag baserat i Förenade Arabemiraten. Den minskar betydligt den tid som behövs för att utveckla komplexa applikationer från månader till dagar. Hackathon var ett samarbete mellan AIREV och NYU Abu Dhabi och visade potentialen för att använda avancerade AI-verktyg inom högre utbildning och industri.

Direktlänk Dela Gulf News fördjupade 8 maj

Apple utvecklar hemgjord AI-chip för datacenter

Apple har utvecklat en hemgjord chip för att köra artificiell intelligens (AI) verktyg i datacenter, enligt Wall Street Journal. Det är dock oklart om halvledaren någonsin kommer att implementeras. Projektet bygger på Apples tidigare försök att skapa in-house-chip, vilka körs i sina iPhones, Macs och andra enheter. Serverprojektet är kodnamnet ACDC inom företaget. Apple-aktier steg så mycket som 1,2 procent i sen handel på måndag (6 maj). Apple har även förhandlat med potentiella partners som Google och OpenAI för att tillhandahålla generativa AI-tjänster.

Direktlänk Dela The Business Times Singapore fördjupade 7 maj

Ökad efterfrågan på AI-professionella driver fram nya utbildningsmöjligheter

Efterfrågan på AI-professionella är högre än någonsin och många organisationer lanserar program, kurser och andra utbildningsmöjligheter för att hjälpa människor att förbättra sina AI-färdigheter. Dessa certifieringar kan hjälpa till att öka din trovärdighet på denna mycket konkurrenskraftiga arbetsmarknad. Bland toppcertifieringarna finns Artificial Intelligence Engineer Certification (Artificial Intelligence Board of America), AI Engineering Professional Certificate (IBM), Artificial Intelligence Graduate Certificate (Stanford University), AI for Everyone (DeepLearning.ai), Microsoft Certified: Azure AI Engineer Associate (Microsoft), Designing and Building AI Products and Services (MIT xPro), Professional Machine Learning Engineer Certification (Google Cloud) och Graduate Certificate in Ethical Artificial Intelligence (San Fransisco State University).

Direktlänk Dela Built In fördjupade 7 maj

Apple utvecklar egen AI-chip för datacenter

Apple Inc. har utvecklat en egen chip för att köra artificiell intelligens (AI) verktyg i datacenter, rapporterar Wall Street Journal. Det är dock oklart om halvledaren någonsin kommer att implementeras. Detta skulle bygga vidare på Apples tidigare försök att tillverka egna chips, som körs i företagets iPhones, Macs och andra enheter. Serverprojektet har kodnamnet ACDC inom företaget. Apple har varit efter sina teknikjämlikar inom generativ AI, tekniken bakom chatbots och andra populära nya verktyg. Men företaget förbereder sig för att avslöja en ny strategi för AI på sin Worldwide Developers Conference nästa månad.

Direktlänk Dela Hindustan Times Tech fördjupade 7 maj

RSA-konferensen 2024: Fokus på generativ AI och cybersäkerhet

RSA-konferensen, som hölls i San Francisco mellan den 6 och 9 maj, samlade cybersäkerhetsprofessionella från hela världen. Diskussionerna i år kretsade kring generativ AI: hur man kan använda generativ AI för att skydda mot attacker och hur man säkrar generativ AI själv. Google presenterade Google Threat Intelligence, en ny tjänst som kombinerar säkerhetskapaciteten hos informationssäkerhetsföretaget Mandiant och malwareskanner VirusTotal med Gemini AI och Googles egen användar- och enhetsavtryck. IBM och AWS publicerade en rapport om hur företagsledare tänker kring säkring av generativ AI. Rapporten visade att mindre än en fjärdedel (24%) av respondenterna inkluderar säkerhet som en del av deras generativa AI-projekt.

Direktlänk Dela TechRepublic fördjupade 6 maj
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Anthropic, stöttat av Amazon, framträder som en nyckelspelare inom AI

Anthropic, stöttat av bland annat Amazon, har framträtt som en betydande aktör inom AI. Företaget har nyligen lanserat sin AI-produktsvit, Claude, som rivaliserar med OpenAI:s ChatGPT. Anthropic kan vara bättre rustat att ta sig an kostnaderna jämfört med sina konkurrenter, tack vare Amazons fortsatta investeringar i företaget. Amazon har sagt att det kommer att investera upp till 4 miljarder dollar i Anthropic; denna senaste utbetalning tar det till det fulla beloppet. Anthropic grundades 2021 av syskonen Dario och Daniela Amodei efter att de lämnat sina jobb på nuvarande konkurrenten OpenAI för att fokusera på att bygga säker AI. Sedan den ursprungliga lanseringen har Anthropic släppt en rad nya AI-modeller.

Direktlänk Dela Yahoo News Canada fördjupade 6 maj

Framtida expansion förväntas för AI och maskininlärningstjänstmarknaden

En forskningsstudie från OrbisResearch.com visar att den globala marknaden för AI och maskininlärningstjänster kommer att genomgå en betydande expansion under den förutsedda tidsramen. Rapporten syftar till att ge en grundlig sammanfattning av den globala AI- och maskininlärningstjänstmarknaden, inklusive kvantitativ och kvalitativ analys. Den strävar efter att hjälpa läsarna att utforma affärsstrategier, förstå konkurrensmiljöer, utvärdera marknadspositioner och fatta informerade beslut om AI och maskininlärningstjänster.

Direktlänk Dela Motions fördjupade 6 maj

Nyhetsexperter uppmanar till att omfamna generativ AI på INMA World Congress

Nyhetsexperter på INMA World Congress i London uppmanade nyhetsmedier att omfamna generativ AI i jakten på affärsmodeller som stärker tillförlitlig journalistik. Kongressen lockade rekordmånga 659 delegater från 48 länder. INMA:s VD Earl J. Wilkinson utmanade nyhetsbranschen att tänka större, bortom regionala gränser, mediegenrer och företagsarketyper. Han tillade att dagens generation av medieledare måste ´bevara värderingar som sträcker sig över generationer´ och ´återmontera tillgångar som nu digitaliserats för en ny era av konsumtion´.

Direktlänk Dela Media Update fördjupade 6 maj

Maskininlärnings-startup Krisp samlar in 9 miljoner dollar för att ta bort bakgrundsljud från ljud i realtid

Krisp, en start-up som använder maskininlärning för att ta bort bakgrundsljud från ljud i realtid, har samlat in 9 miljoner dollar som en förlängning av dess A-runda på 5 miljoner dollar som tillkännagavs förra sommaren. Det extra kapitalet följde en stor framgång 2020 för det armeniska företaget, som ökade sina kunder och intäkter med mer än en storleksordning. Krisp har nu över 1 200 företagskunder, inklusive banker, HR-plattformar, advokatbyråer, callcenter och andra som drar nytta av att ha en klar röst på linjen. Företaget planerar att lägga till inspelning och analys av samtal över tjänster.

Direktlänk Dela TechCrunch fördjupade 4 maj

Meta lanserar LlaMA 3, en stor språkmodell med förbättrad prestanda

Meta har lanserat LlaMA 3, en stor språkmodell som påstår sig göra ett stort språng framåt över LlaMA 2. Modellen släpptes i 8B och 70B parameterstorlekar. Enligt Meta var det fyra huvudpunkter vid byggandet av LlaMA 3: modellarkitekturen, förträningsdata, skalning upp förträning och instruktionsfinjustering. Detta leder oss att fundera över hur vi kan dra nytta av denna mycket kompetenta modell. För att hjälpa till att utforska svaren på några av dessa frågor samarbetade jag med Edurado Ordax, generativ AI-ledare på AWS och professor Tom Yeh, CS-professor vid University of Colorado, Boulder.

Direktlänk Dela Towards Data Science fördjupade 4 maj

Marknadsundersökning av AI Transkription Programvara och Tjänster

Enligt en pressrelease från Orbis Research, har en djupgående undersökning av AI Transkription Programvara och Tjänster-marknaden genomförts. Rapporten fokuserar på ledande företagsprofiler, marknadsandelar och konkurrensdynamiken som formar marknaden. Den innehåller också betydande finansiella transaktioner som påverkat marknaden. En särskild sektion ägnas åt trender och strategier, med rekommendationer för företag att dra nytta av marknadens tillväxt. Rapporten erbjuder också prognoser från 2022 till 2031, kompletterat med historiska data från 2022.

Direktlänk Dela Motions fördjupade 29 april

Generativ AI nyckel till framtidens marknadsföring

Joyce, chef för generativ AI på Amperity, diskuterar hur generativ AI kan revolutionera marknadsföring. Genom att använda AI för att generera innehåll och lösa problem kan företag spara tid och pengar. Till exempel har ett e-handelsföretag sparat en miljon dollar genom att använda AI för att skriva beskrivningar för 10 000 produkter. Rio Longacre, MD på Slalom, och Jon Williams, global chef för affärsutveckling på AWS, diskuterar hur AI kan hjälpa företag att arbeta mer effektivt och snabbare. De betonar vikten av att ha en mänsklig inblandning för att godkänna och eventuellt förbättra AI:s output.

Direktlänk Dela Marketing Tech News fördjupade 29 april

Förståelse av Generative Artificial Intelligence (Gen AI) Services marknaden

Förståelse av skillnader inom Generative Artificial Intelligence (Gen AI) Services marknaden kan hjälpa företag att effektivt positionera sina produkter och skapa en unik nisch. Till exempel kan ett företag specialiserat på lättviktiga, högpresterande Gen AI-tjänster rikta sig till dedikerade Gen AI-sökande som söker en fördel i tävlingar. Rapporten kan även utforska företag som prioriterar hållbara metoder, genom att använda miljövänliga material eller genomföra ansvarsfulla tillverkningsprocesser. Detta kan hjälpa till att identifiera potentiella partners som delar dina hållbarhetsvärden och anpassa dina marknadsföringsmeddelanden för att resonera med miljömedvetna konsumenter.

Direktlänk Dela Motions fördjupade 28 april

Cohere AI lanserar Cohere Toolkit för att påskynda utvecklingen av AI-applikationer

Cohere AI har gjort stora framsteg inom utvecklingen av artificiell intelligens (AI) genom att släppa Cohere Toolkit, en omfattande öppen källkodsreservoar utformad för att påskynda utvecklingen av AI-applikationer. Verktygslådan gör det möjligt för utvecklare att använda Cohere´s avancerade modeller, Command, Embed och Rerank, över flera plattformar, inklusive AWS, Azure och Cohere´s egen plattform. Cohere Toolkit har också en kunskapsassistent som fungerar liknande den välkända demonstrationen på Cohere´s plattform. Verktygslådan är anpassningsbar och har över hundra förbyggda anslutningar för utvecklare att integrera.

Direktlänk Dela MarkTechPost fördjupade 28 april

Större är inte alltid bättre inom AI, enligt AWS, IBM, McKinsey och Nokia

AWS, IBM, McKinsey och Nokia diskuterar utvecklingen av generativ artificiell intelligens (gen AI) och stora språkmodeller (LLM). De menar att större inte nödvändigtvis är bättre och att det finns behov av mindre, mer specifika modeller som kan filtrera ut brus och fokusera på domänspecifika data. Ishwar Parulkar, CTO för Telecom and Edge Cloud på AWS, betonar att en modell inte passar alla och att mindre modeller kan ge bättre resultat. Stephen Rose, IBM:s globala chef för branscher, diskuterar vikten av datakvalitet och säkerhet. Tomas Lajous, seniorpartner på McKinsey, betonar betydelsen av att förbättra nätverket för att förbättra kundupplevelsen. Deutsche Telekom, e& Group, Singtel, SK Telecom och SoftBank har nyligen startat Global Telco AI Alliance för att utveckla telco-specifika LLM med fokus på digitala assistenter och chatbots.

Direktlänk Dela RCR Wireless News fördjupade 26 april
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Snowflake AI Research lanserar Arctic - en kostnadseffektiv och avancerad AI-modell

Snowflake AI Research har lanserat Arctic, en banbrytande open-source stor språkmodell (LLM) specifikt utformad för företags-AI-applikationer, vilket sätter en ny standard för kostnadseffektivitet och tillgänglighet. Arctic kan hantera SQL-generering, kodning och instruktioner effektivt genom att använda en unik Dense-MoE Hybrid transformer-arkitektur. Modellen är designad för att vara anpassningsbar och skalbar för att möta olika företags behov. Snowflake Arctic är open-source under Apache 2.0-licensen för att förbättra transparens och samarbete.

Direktlänk Dela MarkTechPost fördjupade 26 april

Meta lanserar Llama 3 för säkrare AI-upplevelse

Meta har lanserat Llama 3, den senaste stora språkmodellen (LLM) för en säkrare och mer exakt generativ AI-upplevelse. Tillsammans med LLM introducerade Meta Llama Guard 2, Code Shield och CyberSec Eval 2, verktyg för att säkerställa överensstämmelse med branschens och användarnas säkerhetsförväntningar. Meta utvecklar fortfarande Llama 3 AI-modeller, men företaget släpper de första två modellerna till allmänheten nu. Företag som snart kommer att vara värd för Llama 3 LLM inkluderar AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, Nvidia NIM och Snowflake. LLM kommer också att stödjas på hårdvara från AMD, AWS, Dell, Intel, Nvidia och Qualcomm.

Direktlänk Dela All About Circuits fördjupade 26 april

Automatisk textsammanfattning förbättrar beslutsfattande över branscher

Automatisk textsammanfattning används inom olika branscher för att effektivt hantera stora mängder information och förbättra beslutsfattandet. I finanssektorn använder investeringsbanker detta för att snabbt analysera kvartalsrapporter, medan medieföretag använder det för att övervaka nyheter och sociala medier. Regeringsorgan sammanfattar långa policydokument och rapporter för att hjälpa beslutsfattare att prioritera mål. Tekniken för textsammanfattning gör det möjligt för användare att fokusera på det mest relevanta innehållet, vilket leder till bättre förståelse och retention av kritisk information. Inlägget utforskar olika metoder för att utvärdera sammanfattningens precision, inklusive ROUGE-metriker, METEOR och BERTScore.

Direktlänk Dela Amazon Web Services fördjupade 25 april

Hugging Face´s talardiarisering integreras med Amazon SageMaker

Talardiarisering är en viktig process inom ljudanalys som segmenterar en ljudfil baserat på talarens identitet. Hugging Face´s PyAnnote kan nu integreras med Amazon SageMaker för talardiarisering. Detta ger en omfattande guide för att distribuera talarsegmentering och klusterlösningar med SageMaker på AWS Cloud. Lösningen kan användas för applikationer som hanterar flertalig (över 100) ljudinspelningar. Hugging Face är en populär öppen källkodshubb för maskininlärningsmodeller. AWS och Hugging Face har ett partnerskap som möjliggör sömlös integration genom SageMaker med AWS Deep Learning Containers för träning och inferens i PyTorch eller TensorFlow.

Direktlänk Dela Amazon Web Services fördjupade 25 april

Cleanlab lanserar Trustworthy Language Model för att lösa generativ AI:s hallucinationsproblem

En startup född i ett kvantdatorklabb har presenterat lösningen på ett av generativ AI:s största problem. Cleanlab lanserade idag Trustworthy Language Model (TLM), en grundläggande framsteg inom generativ AI som upptäcker när stora språkmodeller hallucinerar. Steven Gawthorpe, PhD, biträdande direktör och senior dataforskare vid Berkeley Research Group, kallade Trustworthy Language Model ´det första genomförbara svaret på LLM-hallucinationer som jag har sett´. Generativ AI står inför att förvandla varje industri och yrke, men det står inför en stor utmaning i ´hallucinationer´, när LLM genererar felaktiga eller vilseledande resultat. Cleanlab är det första att knäcka det.

Direktlänk Dela Dailyguardian.ca fördjupade 25 april

Copado lanserar AI-drivna verktyg för att förändra Salesforce-utveckling

Copado, ledande leverantör av Salesforce Devops-plattformar, har lanserat ett nytt AI-drivet verktyg: Test Copilot drivet av Copado GPT. Dessa IT-kompis-chatbots syftar till att revolutionera hur Salesforce-team närmar sig utveckling, testning och administration genom att erbjuda intelligent, kontextmedveten hjälp och automatisering. David Brooks, Copados SVP of Evangelism, tror att dessa AI-kompisar snart kommer att bli oumbärliga verktyg för alla som arbetar med Salesforce. Båda produkterna är exempel på IT-kompis-chatbots, som hjälper IT-proffs att fokusera på högvärdesuppgifter genom att ta över rutinmässiga och repetitiva aspekter av deras arbete.

Direktlänk Dela Salesforce DevOps fördjupade 25 april

Generativ AI förväntas generera upp till 7,9 biljoner dollar årligen i framtiden

Generativ AI kommer sannolikt att generera upp till 7,9 biljoner dollar årligen i kommande år, enligt en analys av 63 användningsfall av McKinsey & Company. Baserat på betydande investeringar och arbete inom området är Cloud & AI Confidence Index nära 8 biljoner dollar i Q1 2024, inklusive tre företag värda mer än 1,75 biljoner dollar vardera, såsom Microsoft Corporation, Alphabet Inc. och Amazon.com Inc. Avant Technologies Inc. och Supermicro, Inc. har nyligen gjort betydande framsteg inom AI. Avant förbättrar sin AvantAI-plattform genom ytterligare utbildning, medan Supermicro har utvidgat sitt sortiment av AI-lösningar. Microsoft har investerat cirka 5,6 miljarder dollar i AI i Europa och Alphabet Inc. har lanserat sin bättre, snabbare Gemini 1.5-plattform.

Direktlänk Dela The Globe and Mail fördjupade 25 april

Healthify använder OpenAI:s GPTs för realtidsnäringsanalys och hälsosamma förslag

Det indiska fitness- och livsstilsföretaget Healthify (tidigare HealthifyMe) använder OpenAI:s GPTs för realtidsnäringsanalys och hälsosamma förslag. Under lanseringen av GPT-4 Turbo erkände OpenAI Healthify för att använda modellen för att utföra realtidsnäringsanalys. Detta gjorde de genom sin bildigenkänningsfunktion, Snap 2.0, vilket ledde till en 50% ökning av användarengagemanget. Healthify kombinerar interna modeller med GPT-4 Vision för att förstå användarspecifika sammanhang noggrant samtidigt som datasekretessen upprätthålls. Healthify:s AI-drivna virtuella nutritionist, RIA, och Coach Co-pilot använder nu OpenAI:s GPT 3.5, GPT-4 Turbo och maskininlärningsmodellen för tal kallad Whisper. Detta har fördubblat interaktionerna med Ria och ökat klientinteraktionen med 18%.

Direktlänk Dela Analytics India Magazine fördjupade 25 april

Cleanlab lanserar lösning för att upptäcka ´hallucinationer´ i stora språkmodeller

Start-up-företaget Cleanlab har lanserat Trustworthy Language Model (TLM), en betydande framsteg inom generativ AI som kan upptäcka när stora språkmodeller hallucinerar. Steven Gawthorpe, PhD, biträdande chef och senior dataforskare på Berkeley Research Group, kallade TLM den första fungerande lösningen på hallucinationer i stora språkmodeller. TLM kombinerar osäkerhetsbedömning, auto-ML-ensembling och kvantinformationsalgoritmer för att skapa förtroende för generativ AI. Dess API omsluter alla stora språkmodeller och producerar en tillförlitlig förtroendescore för varje svar. I jämförelse med andra metoder presterar TLM bättre i alla branschstandarder för tillförlitlighet hos stora språkmodeller.

Direktlänk Dela GlobeNewswire fördjupade 25 april

Krish Ashok från TCS använder AI för att driva sin framgång som matinfluencer

Krish Ashok, global chef för Tata Consultancy Services (TCS) AI.Cloud Advisory och Consulting, är också känd som en matinfluencer under pseudonymen MasalaLab. Han skapar korta informativa videor om matvetenskap och historia, och har nästan 1 miljon följare på olika plattformar. Ashok använder en egen AI-assistent för att skapa sitt innehåll, snarare än att anlita en byrå. Han använder en premiumversion av ChatGPT, en chattbot utvecklad av det amerikanska företaget OpenAI, och använder även Perplexity´s AI-modell för att faktagranska sina manus. Ashok släppte sin första bok, ´Masala Lab: The Science of Indian Cooking´, 2023, och planerar att släppa en till under detta år.

Direktlänk Dela Moneycontrol fördjupade 25 april

Förståelse och tillämpning av generativ AI: En introduktion

Generativ AI är en typ av AI som används för att generera innehåll, inklusive konversationer, bilder, videor och musik. Den kan användas direkt för att bygga kundorienterade funktioner, eller som en underliggande komponent i ett mer komplext system. Många team vänder sig till öppen källkodsverktyg som körs på Kubernetes för att påskynda deras ML- och generativa AI-resor. Kubernetes anses vara idealisk för ML, och verktyg som Ray, JupyterHub, Argo Workflows och Karpenter kan påskynda din väg till att bygga och distribuera generativa AI-applikationer. Adobe använde Amazon EKS för att uppnå snabbare time-to-market och minskade kostnader. En video introducerar Data på EKS, ett nytt AWS-projekt som erbjuder bästa praxis för att distribuera olika databelastningar på Amazon EKS.

Direktlänk Dela Amazon Web Services fördjupade 24 april

Snowflake lanserar AI-modell som utmanar stora spelare

Molndatatjänsten Snowflake har lanserat Snowflake Arctic, en ny AI-modell som företaget hävdar är jämförbar med Llama 3 70B men med lägre databehandlingskrav och kostnader. Snowflake Arctic är särskilt lämplig för företagsintelligensuppgifter inom områden som kodning, SQL-generering och instruktionsföljning. Modellen kombinerar en 10B tät transformator med en 128x3.66B MoE MLP med hjälp av en Dense-MoE Hybrid. Detta totalt 480B parametrar, men endast 17B används aktivt. Snowflake Arctic kan testas på HuggingFace och kommer snart att finnas tillgänglig på andra modellträdgårdar som AWS, Microsoft Azure och Perplexity.

Direktlänk Dela MSPoweruser fördjupade 24 april

Tekniken Gen AI har potential att förändra marknadsföringslandskapet, enligt Rio Longacre, Managing Director på Slalom, och Jon Williams, Global Head of Agency Business Development på AWS. Gen AI hjälper företag att röra sig snabbare och effektivare, och företag börjar nu strategiskt identifiera områden där det kan göra en verklig skillnad. Williams delar hur Gen AI fungerar som en marknadsföringsassistent, med Amazon Q som exempel. Gen AI används också för att skapa större effektivitet och kostnadsbesparingar inom e-handel, betald media och bank- och finanssektorn.

MarkeTech APAC fördjupade 24 april

Snowflake lanserar stort språkmodell, Arctic, för företag

Snowflake har tillkännagett sin stora språkmodell (LLM), Snowflake Arctic, utformad för att sätta en standard för öppna företagsklassade LLM. Arctic, optimerad för komplexa företagsarbetsbelastningar, syftar till att sätta en ny öppenhetsstandard för företags AI-teknologi. Arctic lovar att förbättra både träningssystem och modellprestanda, med en datakomposition inriktad på företagsbehov. Enligt Snowflake levererar Arctic högkvalitativa resultat genom att aktivera 17 av 480 miljarder parametrar åt gången för att uppnå kvalitet med token-effektivitet.

Direktlänk Dela ERP Today fördjupade 24 april

Snowflake utvecklar öppen källkodsmodell för storskaligt språk för att konkurrera med andra modeller

Data warehouse-företaget Snowflake har utvecklat en öppen källkodsmodell för storskaligt språk (LLM), Arctic, för att konkurrera med modeller som Meta´s Llama 3, Mistral´s familj av modeller, xAI´s Grok-1 och Databricks DBRX. Arctic är inriktad på företagsuppgifter som SQL-generering, kodgenerering och instruktionsföljande. Modellen kan nås via Snowflakes maskininlärning och AI-tjänst, Cortex, och kan laddas ner från Hugging Face. Arctic använder en blandning av experter (MoE) arkitektur och består av 128 mindre modeller. Snowflake hävdar att Arctic presterar bättre än de flesta öppen källkodsmodeller och använder mindre datorkraft för träning.

Direktlänk Dela InfoWorld fördjupade 24 april

Snowflake lanserar Arctic: Den mest öppna, företagsklassade stora språkmodellen

Data Cloud-företaget Snowflake har lanserat Snowflake Arctic, en toppmodern stor språkmodell (LLM) som är unikt utformad för att vara den mest öppna, företagsklassade LLM på marknaden. Med sin unika Mixture-of-Experts (MoE) arkitektur levererar Arctic toppklassig intelligens med oöverträffad effektivitet i skala. Den är optimerad för komplexa företagsarbetsbelastningar och slår flera branschstandarder inom SQL-kodgenerering, instruktionsföljande och mer. Dessutom släpper Snowflake Arctics vikter under en Apache 2.0-licens och detaljer om forskningen som ledde till hur den tränades.

Direktlänk Dela Morningstar fördjupade 24 april

Snowflake har lanserat Arctic, en stor AI-modell med öppen källkod, avsedd att hjälpa användare att bygga AI-modeller och tillämpningar på företagsnivå. Lanseringen kommer en månad efter att Databricks, en konkurrent till Snowflake, lanserade DBRX, en liknande AI-modell. Arctic ger bevis på Snowflakes engagemang för att tillhandahålla verktyg för utveckling av AI-modeller som kan användas för att informera företagsspecifika beslut. Arctic lanserades två månader efter att Sridhar Ramaswamy tog över som Snowflakes nya VD, efter att Frank Slootman avgick.

TechTarget fördjupade 24 april

Anthropic tar emot investeringar från Amazon och Google men styrs inte av teknikjättarna

AI-startupen Anthropic har fått investeringar från företag som Amazon och Google men styrs inte av dessa teknikjättar, enligt företagets VD Dario Amodei. Detta skiljer sig från OpenAI, som ägs till 49% av Microsoft. Anthropic ses som en konkurrent till Amazon och Google, men Amodei anser att deras erbjudanden är komplementära. I mars lanserade Anthropic ´Claude 3´ - den hittills kraftfullaste AI-chatten. Förra veckan samarbetade Zendesk med AWS och Anthropic för att möjliggöra snabbare och mer tillförlitliga AI-funktioner för kunder.

Direktlänk Dela Invezz fördjupade 24 april

Generativ AI: Förändrar sättet för kreativa kampanjer

Generativ AI (Gen AI) framhävs som en nyckelteknologi inom marknadsföring. Joyce Gordon, chef för Generativ AI på Amperity, diskuterade nyligen ämnet med Rio Longacre, VD på Slalom, och Jon Williams, global chef för byråverksamhet på AWS. Företag går nu bortom experiment och utformar strategiska vägar där Gen AI kan göra en verklig skillnad. Williams beskriver hur Gen AI fungerar som en marknadsföringsassistent, till exempel genom att använda Amazon Q för att generera innehåll och analysera resultat. Longacre pekar på att människan fortfarande är en viktig del av processen.

Direktlänk Dela Campaign Brief fördjupade 24 april

AWS tillkännager tillgängligheten av Mistral Large Foundation Model på Amazon Bedrock

Under den nyligen hållna AWS Paris Summit meddelade AWS tillgängligheten av Mistral Large Foundation Model på Amazon Bedrock. Denna modell har en förståelse för grammatik och kulturell kontext och är flytande på engelska, franska, spanska, tyska och italienska. Med en 32K-token gör den noggrann informationsextraktion från stora dokument möjlig. Mistral AI:s systemnivåmoderering för sin betaassistent, le Chat, visar en exakt instruktionsföljningskapacitet som möjliggör anpassning av modereringsregler. Dessutom accelererar deras färdigheter inom naturligt språk och kodningsuppgifter utvecklingsprocesser.

Direktlänk Dela InfoQ fördjupade 23 april

AWS lanserar Custom Model Import för att förenkla användning av egna AI-modeller

AWS, Amazon´s molnbaserade datortjänst, vill bli det självklara valet för företag att vara värd för och finjustera sina egna generativa AI-modeller. AWS har lanserat Custom Model Import, en ny funktion i Bedrock, AWS´ företagsfokuserade paket med generativa AI-tjänster, som låter organisationer importera och få tillgång till sina egna generativa AI-modeller som fullt hanterade API:er. Företagens egna modeller, när de väl är importerade, drar nytta av samma infrastruktur som andra generativa AI-modeller i Bedrocks bibliotek. Funktionen är ännu i förhandsvisning.

Direktlänk Dela TechCrunch fördjupade 23 april

Generativ AI: Nyckeln till oöverträffad personalisering och förbättrad kundupplevelse?

I den ständigt föränderliga marknadsföringslandskapet framträder en teknologi som en potentiell hörnsten - generativ AI (Gen AI). Gen AI kan hjälpa företag att flytta snabbare och mer effektivt, och kan vara nyckeln till oöverträffad personalisering och förbättrad kundupplevelse. Rio Longacre, verkställande direktör på Slalom, och Jon Williams, globalt ansvarig för affärsutveckling på AWS, diskuterar Gen AI:s roll inom kundcentrerad marknadsföring. Gen AI kan användas för att skapa differentierat kreativt innehåll, vilket förbättrar personaliseringen. Dessutom genererar Gen AI effektivitet inom verksamheten genom att påskynda processer och hjälpa människor att arbeta snabbare och bättre. Gen AI kan också användas för att skapa mer exakta attributionsmodeller och generera hundratals kampanjvarianter för multivariabel testning och sedan analysera resultaten för att kontinuerligt optimera kampanjer. Det finns dock risker med Gen AI, inklusive juridiska och ryktesmässiga risker, samt risker för kundbevarande och tillfredsställelse och kostnad. För att undvika dessa risker bör företag börja smått när de inför AI och tänka på andra sätt att integrera mer första part-data för att både skapa en bättre kundupplevelse och minska kostnader.

Direktlänk Dela Itbrief.com.au fördjupade 23 april

Machines Can See Summit samlar över 4 500 AI-experter i Dubai

Den andra årliga Machines Can See Summit samlade över 4 500 ledande forskare, innovatörer och yrkesverksamma inom artificiell intelligens (AI), maskininlärning (ML) och datorseende (CV) både offline och online, nyligen i Dubais ikoniska Museum of the Future. Evenemanget hedrades av närvaron av Hans Excellens Sheikh Nahyan bin Mubarak Al Nahyan, minister för tolerans och samexistens i Förenade Arabemiraten, och Hans Excellens Omar Sultan Al Olama, minister för staten för artificiell intelligens, digital ekonomi och fjärrarbetsapplikationer, som båda höll tal. Evenemanget främjade meningsfulla diskussioner om de senaste genombrotten, trenderna och verkliga applikationerna inom generativ AI, datorseende, AI-investeringar och utbildning.

Direktlänk Dela Zawya fördjupade 22 april

Meta avtäcker banbrytande AI-språkmodell Llama 3

Meta har nyligen avtäckt Llama 3, en banbrytande stor språkmodell inom artificiell intelligens. Denna kraftfulla modell kommer i två distinkta versioner: en modell med 8 miljarder parametrar och en mer avancerad variant med 70 miljarder parametrar. Llama 3 är konstruerad för att drastiskt förbättra prestandan för AI-drivna uppgifter, såsom översättning, dialoggenerering och innehållsskapande. Llama 3 kommer att vara tillgänglig via AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM och Snowflake. Meta har också planer på att rulla ut nya funktioner för Llama 3, inklusive utökade kontextfönster, olika modellstorlekar och förbättrad prestanda. Meta AI, drivet av Llama 3, positioneras som en ledande AI-assistent som syftar till att förbättra mänsklig intelligens och produktivitet.

Direktlänk Dela Geeky Gadgets fördjupade 21 april

Meta leder inom generativ AI med introduktionen av Llama 3

Meta fortsätter att leda inom generativ AI genom att tillgängliggöra sin avancerade Large Language Model Meta AI (Llama) serie globalt för utvecklare och forskare. Meta har nyligen introducerat den tredje iterationen av denna serie, Llama 3, som förbättrar Llama 2 betydligt och utmanar branschkonkurrenter som Google, Mistral och Anthropic. Llama 3 har ett utökat ordförråd, längre kontextlängd och en större träningsdatauppsättning. Dessutom är Llama 3 nu integrerad i Hugging Face-ekosystemet och tillgänglig via molnplattformar som AWS SageMaker, Azure ML och Vertex AI.

Direktlänk Dela Unite.AI fördjupade 21 april

Ally Financial expanderar sin AI-strategi med Amazon Bedrock

Bankbolaget Ally Financial, med tillgångar på 196 miljarder dollar, utökar sin generativa AI-strategi och förbereder lanseringen av Amazon Bedrock. Företaget utforskar autonoma agenter och kultiverar användningsfall genererade av anställda. Ally Financial är helt digitalt och använder tekniker som molnbaserad databehandling för att erbjuda kundservice och driva sin verksamhet. GenAI är nu en del av företagets teknologimix. Ally Financial lanserade sin första användning av GenAI 2023, vilket banade väg för att skala upp GenAI-initiativet. I juli lanserade företaget Ally.ai, en molnbaserad plattform som det nu bygger vidare på.

Direktlänk Dela News Jani fördjupade 20 april

Zendesk samarbetar med AWS och Anthropic för att förbättra AI-funktioner

Zendesk har meddelat ett samarbete med AWS och Anthropic för att erbjuda snabbare, mer effektiva och exakta AI-funktioner för kunder. Företaget har också presenterat sina nya AI-drivna tjänstlösningar vid Relate globala konferensen i Las Vegas. Zendesk kommer att använda Amazon Bedrock för att bygga och skala generativa AI-applikationer och Anthropics branschledande Claude 3-familj för att erbjuda sina kunder flexibilitet att distribuera sofistikerade LLMs för unika kundinteraktioner. Genom att använda AI för att omvandla sin CX-plattform kommer Zendesk att erbjuda svar på kundfrågor, vilket eliminerar behovet av kodning eller dyr modellutveckling.

Direktlänk Dela ERP Today fördjupade 19 april

KissanAI släpper Dhenu Llama 3, finjusterad på Llama3 8B

KissanAI har släppt Dhenu Llama 3, en modell som är finjusterad på Llama3 8B, enligt företagets grundare Pratik Desai. Modellen är tillgänglig för alla att experimentera med och ge feedback. Desai meddelade också att en instruktionsversion med ett dataset som är fem gånger större kommer att släppas inom en snar framtid. Meta har nyligen släppt Llama 3, en modell som är tillgänglig i 8B och 70B parameter versioner och har tränats på över 15 biljoner tokens. Modellerna är nu också tillgängliga på Hugging Face.

Direktlänk Dela Analytics India Magazine fördjupade 19 april

Meta AI publicerar Llama 3 benchmark och planerar bred tillgänglighet på molnplattformar

Medan Meta AI uppdaterar till varje plattform publicerade de också Llama 3 benchmark för teknikentusiaster. Benchmarket erbjuder forskare och utvecklare en standardiserad testsvit för att utvärdera Llama 3:s prestanda på olika uppgifter. Detta ger användarna möjlighet att jämföra Llama 3:s styrkor och svagheter mot andra LLM:er. Meta AI har etablerat Llama 3 benchmark, en omfattande svit av utvärderingar designade för att bedöma LLM:ers prestanda över olika uppgifter. Meta planerar att göra Llama 3-modellerna tillgängliga på större molnplattformar som AWS, Databricks, Google Cloud och andra, vilket säkerställer bred tillgänglighet för utvecklare.

Direktlänk Dela Dataconomy Media fördjupade 19 april

Meta släpper två modeller av sitt stora språkmodell Llama 3 och introducerar Meta AI

Meta har släppt två modeller av sin senaste stora språkmodell (LLM), Llama 3, den 18 april 2024. Modellerna kommer snart att finnas tillgängliga på AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM och Snowflake. Meta AI, en AI-assistent integrerad i Metas plattformar, presenterades också. Llama 3 är skicklig på språknyanser, kontextuell förståelse och komplexa uppgifter som översättning och dialoggenerering. Meta AI kommer att finnas tillgänglig på plattformar som Facebook, Instagram, WhatsApp, Messenger i flera länder, inklusive USA, Australien, Kanada och Singapore.

Direktlänk Dela MediaNama fördjupade 19 april

Meta släpper Llama 3 öppen källkods AI-modell, presterar bättre än konkurrenter

Meta har lanserat de senaste tilläggen till sin Llama-serie av öppen källkods generativa AI-modeller, nämligen Llama 3. Den nya familjen består av två modeller, Llama 3 8B och Llama 3 70B, som innehåller åtta miljarder respektive 70 miljarder parametrar. Denna utveckling markerar en betydande prestandaförbättring jämfört med deras föregångare, Llama 2-modellerna. Llama 3-modellerna är några av de bäst presterande generativa AI-modellerna som finns tillgängliga. De har tränats på två specialbyggda GPU-kluster med en kapacitet på 24 000 enheter. Meta styrker detta påstående genom att hänvisa till de imponerande poäng som Llama 3-modellerna uppnått på populära AI-benchmarks som MMLU, ARC och DROP.

Direktlänk Dela NewsBytes fördjupade 19 april

Meta introducerar nästa generation av AI-modeller, Llama 3

Meta introducerade nästa generation av sina artificiella intelligensmodeller, Llama 3 8B och 70B. Llama 3 har förbättrade kapaciteter jämfört med sin föregångare och företaget har även antagit nya träningsmetoder för att optimera modellernas effektivitet. Största modellen hos Llama 2 var 70B men nu kommer företagets stora modeller att innehålla mer än 400 miljarder parametrar. Meta kommer att lansera sina mindre AI-modeller i april och de större modellerna senare under sommaren. De nya modellerna kommer att vara öppen källkod, precis som tidigare modeller, och kommer snart att vara tillgängliga på AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM och Snowflake. Meta har även integrerat Llama 3 med sin egen Meta AI som kan nås via Facebook Messenger, Instagram och WhatsApp i stödda länder.

Direktlänk Dela Gadgets 360 fördjupade 19 april

Meta lanserar nästa generation av AI-modellen Llama

Meta har lanserat nästa generation av sin stora språkmodell Llama, som nu är tillgänglig för molnleverantörer som AWS och modellbibliotek som Hugging Face. Llama 3 presterar bättre än de flesta nuvarande AI-modeller och erbjuder än så länge endast textbaserade svar. Modellen har visat mer mångfald i att svara på prompts, har färre falska vägran att svara på frågor och kan resonera bättre. Meta hävdar att Llama 3 förstår fler instruktioner och skriver bättre kod än tidigare. Modellen har också presterat bättre än liknande modeller som Googles Gemma och Gemini, Mistral 7B och Anthropic´s Claude 3 i vissa benchmarkingtester. Meta planerar att släppa större versioner av Llama 3 som kan förstå längre instruktioner och data och vara kapabla att generera mer multimodala svar.

Direktlänk Dela The Verge fördjupade 19 april

Meta lanserar tidiga versioner av sin nya stora språkmodell Llama 3

Meta Platforms har lanserat tidiga versioner av sin nya stora språkmodell, Llama 3, och en bildgenerator för att konkurrera med OpenAI, ledaren inom generativ AI. Företaget förklarar att den nya Llama 3 8B innehåller 8 miljarder parametrar, medan Llama 3 70B har 70 miljarder parametrar. Meta lovar en enorm prestandaökning jämfört med de tidigare modellerna Llama 2 8B och Llama 2 70B. Företaget utbildade sin nya Llama 3-modell på över 15 biljoner tokens som alla samlats in från ´offentligt tillgängliga källor´.

Direktlänk Dela TweakTown fördjupade 19 april

Meta introducerar nästa generation av sitt stora språkmodell Llama 3

Sociala mediejätten Meta har introducerat nästa generation av sin öppen källkods stora språkmodell, Llama 3. De två första modellerna i Llama 3-familjen, 8B och 70B, är nu tillgängliga för bred användning. Llama 3 400B-plus parametermodeller är fortfarande under utbildning, men Meta planerar att släppa nya modeller de kommande månaderna. De nya modellerna har förbättrad anpassning och större mångfald i modellsvar jämfört med Llama 2. Meta planerar att göra Llama 3 flerspråkig och multimodal, med ett större kontextfönster i framtiden.

Direktlänk Dela TechTarget fördjupade 19 april

Meta introducerar tidiga versioner av AI-modellen Llama 3 och AI-assistent

Meta presenterade på torsdagen tidiga versioner av sin AI-modell Llama 3, som kan användas för att driva textkomposition, kodgenerering eller chattbotar. Företaget meddelade även att dess AI-assistent nu finns tillgänglig på en webbplats och kommer att integreras i sina stora sociala medieappar. Llama 3 kommer i två parametrarstorlekar: 8 miljarder och 70 miljarder, båda tillgängliga som gratis nedladdningar genom Metas webbplats med en registrering. Meta utbildade båda modellerna på två skräddarsydda, 24 000-GPU-kluster. Meta meddelade också att de för närvarande tränar en 400B parameter-version av Llama 3.

Direktlänk Dela Ars Technica fördjupade 18 april

Meta släpper Meta Llama 3 för att förbättra sina AI-tjänster och stärka sin position på molndatormarknaden

Meta har lanserat sin senaste stora språkmodell, Meta Llama 3, med målet att förbättra sina AI-erbjudanden och stärka sin position inom molndatormarknaden. Företaget betonar en öppen källkodsansats för att främja ett samarbetsinriktat AI-ekosystem för utvecklare. Meta Llama 3 kommer att finnas tillgänglig på populära molnplattformar inklusive Amazons AWS, Google Cloud och Microsoft Azure. Den nya LLM har två modeller - en med 8 miljarder parametrar och en annan med 70 miljarder. Dessa massiva parameterantal gör att Metas AI utmärker sig inom resonemang, kodning och följa instruktioner.

Direktlänk Dela Bizcommunity fördjupade 18 april

Meta släpper nästa generation av AI-modellen Llama

Meta har släppt den nästa generationen av sin stora språkmodell Llama. Den nya versionen, Llama 3, presterar bättre än de flesta nuvarande AI-modeller och erbjuder hittills endast textbaserade svar. Modellen har två modellvikter med 8B och 70B parametrar och visar en större mångfald i att svara på frågor, färre falska vägran att svara på frågor och bättre resonemang. Meta hävdar att Llama 3 förstår fler instruktioner och skriver bättre kod än tidigare. Båda storlekarna av Llama 3 slog liknande storleksmodeller som Google´s Gemma och Gemini, Mistral 7B och Anthropic´s Claude 3 i vissa benchmarkingtester.

Direktlänk Dela The Verge fördjupade 18 april

Meta lanserar Llama 3, den senaste generationen av sin LLM

Meta har lanserat Llama 3, den senaste generationen av sin LLM som erbjuder SOTA-prestanda och effektivitet. Modellen finns i 8B och 70B parameter-versioner och har tränats på över 15 biljoner tokens, vilket gör den sju gånger större än Llama 2´s dataset. Llama 3 erbjuder förbättrade resonemangs- och kodningsförmågor och dess utbildningsprocess är tre gånger mer effektiv än dess föregångare. Modellerna kommer snart att vara tillgängliga på AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM och Snowflake. Dessutom kommer modellerna att vara kompatibla med hårdvaruplattformar som tillhandahålls av AMD, AWS, Dell, Intel, NVIDIA och Qualcomm.

Direktlänk Dela Analytics India Magazine fördjupade 18 april

Meta släpper Llama 3, sin senaste AI-modell

Meta har släppt de två första modellerna i sin nya Llama 3-serie av AI-modeller med öppen källkod. Modellerna, Llama 3 8B och Llama 3 70B, innehåller 8 respektive 70 miljarder parametrar och beskrivs av Meta som ett stort framsteg jämfört med de tidigare Llama-modellerna. Enligt Meta är Llama 3 8B och Llama 3 70B, som tränades på två specialbyggda GPU-kluster med 24 000 enheter, bland de bäst presterande generativa AI-modellerna som finns tillgängliga idag. Företaget stöder detta påstående med modellernas resultat på populära AI-benchmarkar som MMLU, ARC och DROP.

Direktlänk Dela TechCrunch fördjupade 18 april

Zendesk samarbetar med AWS och Anthropic för att förbättra AI-lösningar

Zendesk har meddelat nya samarbeten med AWS och Anthropic vid företagets globala konferens, Zendesk Relate 2024. Med fokus på AI tror CRM- och helpdesk-leverantören att partnerskapen kommer att förbättra hastigheten, noggrannheten och effektiviteten i dess AI-erbjudanden. Samarbetena kommer att se Zendesk utnyttja Amazon Bedrock, AWS lösning för att bygga och skala generativ AI (GenAI), för att ta fram nya GenAI-användningsfall till marknaden. Adrian McDermott, Chief Technology Officer på Zendesk, diskuterade sin entusiasm över potentialen i dessa nya AI-samarbeten.

Direktlänk Dela CX Today fördjupade 18 april

OpenAI expanderar till Asien med nytt kontor i Tokyo

OpenAI, som stöds av Microsoft, expanderar till Asien och öppnar ett nytt kontor i Tokyo, Japan. Tadao Nagasaki, tidigare verkställande direktör för AWS, kommer att leda företagets asiatiska insatser som president för OpenAI Japan. För att möta behoven på sin nya plats har OpenAI meddelat utgivningen av en anpassad GPT-4-modell optimerad för det japanska språket. Denna anpassade version genererar japansk text upp till tre gånger snabbare än GPT-4 Turbo, OpenAIs mest kraftfulla stora språkmodell. OpenAI valde Japan som sitt första asiatiska hem för dess globala ledarskap inom teknik, tjänstekultur och en gemenskap som omfamnar innovation.

Direktlänk Dela AI Business fördjupade 18 april

Allt fler företag vill idag integrera AI i sina arbetsflöden, specifikt genom att finjustera stora språkmodeller och införa dem i produktion. Detta har lett till att MLOps-ingenjörskap blivit allt viktigare. Företag söker individer som kan automatisera och effektivisera processen att träna, utvärdera, versionera, distribuera och övervaka modeller i molnet. I denna guide fokuserar vi på de sju grundläggande stegen för att bemästra MLOps-ingenjörskap, inklusive att sätta upp miljön, experimentera spårning och versionering, orkestrering, kontinuerlig integration/kontinuerlig leverans (CI/CD), modelltjänst och distribution, samt modellövervakning.

KDnuggets fördjupade 18 april

Zendesk använder AI för att förvandla kundupplevelsen

Zendesk använder AI för att förvandla kundupplevelsen genom att ge intelligenta, omedelbara svar på kundförfrågningar, vilket eliminerar behovet av kodning eller dyra modellutvecklingar. Dess grundläggande modeller har utformats och tränats med hjälp av decennier av CX-data och branschspecifika insikter, vilket sparar Zendesk-kunder hundratals timmar varje vecka. Anthropic´s Claude 3 integrerad med Zendesk-plattformen kommer att möjliggöra för företag att leverera empatiska, realtidsrespons, vilket minskar väntetider och ökar kundnöjdheten.

Direktlänk Dela Technology Magazine fördjupade 17 april

Ally Financial breddar sin AI-strategi med Amazon Bedrock och autonoma agenter

Ally Financial breddar sin AI-strategi och förbereder sig för att anta Amazon Bedrock, utforska autonoma agenter och odla anställdas användningsfall. Ally Bank, ett dotterbolag till Ally Financial, är en direktbank som inte har traditionella filialer utan använder teknik som molnbaserad databehandling för att leverera kundtjänster och driva sin verksamhet. Generativ AI (GenAI) är nu en del av teknikblandningen. Banken lanserade sitt första användningsfall 2023, ett verktyg som sammanfattar samtal mellan kundsupportagenter och bankkunder. I juli rullade företaget ut Ally.ai, en molnbaserad plattform som de nu bygger vidare på. Plattformen ger tillgång till flera stora språkmodeller (LLM), inklusive Azure OpenAI Service från Microsoft. Företaget utvärderar nu Amazon Bedrock, en plattform för att bygga GenAI-applikationer. Ally Financial planerar att experimentera med Bedrocks förmåga att skapa autonoma agenter, som är utformade för att agera snarare än att tillhandahålla information. Autonoma agenter kan potentiellt hantera uppdateringar, vilket minskar antalet möten och låter utvecklare fokusera på komplex problemlösning. Ally Financial förbjuder för närvarande anställda att använda GenAI tills banken kan etablera styrningskontroller.

Direktlänk Dela TechTarget fördjupade 17 april

Sourcegraphs AI-kodningsassistent Cody får stöd för Anthropic Claude 3 LLM och OpenAI GPT-4

Sourcegraphs AI-kodningsassistent Cody stöder nu Anthropic Claude 3 LLMs (Large Language Models) samt OpenAI GPT-4 och Azure OpenAI. Enligt Sourcegraph presterar alla Claude 3-modeller bättre i kodgenerering. Claude 3-modellerna har också ett större token-kontextfönster, vilket är den maximala storleken på inmatningen till LLM. Claude 3-modellerna erbjuder initialt ett 200K-kontextfönster, men den underliggande kapaciteten stöder inmatningar som överstiger 1 miljon tokens. Detta gör att Codys maximala tokeninmatning på cirka 7K tokens verkar begränsande. Sourcegraph planerar att dramatiskt utöka Codys kontextfönster de kommande veckorna.

Direktlänk Dela Devclass.com fördjupade 17 april

Zendesk samarbetar med AWS och Anthropic för att förbättra AI-förmågorna

Zendesk har meddelat ett samarbete med AWS och Anthropic vid sin globala konferens Relate i San Francisco och Las Vegas. Samarbetet syftar till att förbättra Zendesks AI-förmågor genom att använda Amazon Bedrock och Anthropics Claude 3-modellfamilj. Dessa integrationer kommer att göra det möjligt för Zendesks över 100 000 kunder att distribuera sofistikerade språkmodeller anpassade till unika kundinteraktioner. Zendesk använder AI för att ge omedelbara, intelligenta svar på kundförfrågningar utan behov av kodning eller kostsam modellutveckling.

Direktlänk Dela Analytics India Magazine fördjupade 17 april

OpenAI lanserar sin verksamhet i Asien med kontor i Tokyo

OpenAI, ett företag som specialiserar sig på artificiell intelligens (AI), har tillkännagett öppnandet av sin verksamhet i Asien, med ett kontor i Tokyo, Japan. Detta är OpenAIs tredje utpost utanför USA, efter kontor i London och Dublin. Tadao Nagasaki, tidigare anställd på AWS, har utsetts till president för OpenAI Japan. Företaget planerar att samarbeta med den japanska regeringen, lokala företag och forskningsinstitutioner för att utveckla säkra AI-verktyg. OpenAI tillhandahåller även tidig åtkomst till en version av GPT-4 optimerad för japanska till lokala företag.

Direktlänk Dela The Register fördjupade 16 april

Meta lanserar nästa generation av anpassade AI-chips

Meta har presenterat nästa generation av sina specialbyggda chips för AI-arbetsbelastningar. Meta Training and Inference Accelerator (MTIA) v2-chipsen, som designades internt, erbjuder dubbel beräknings- och minnesbandbredd jämfört med dess v1-chips. Chipsen kommer att integreras i Metas datacenter och driva arbetsbelastningar för företagets AI-modeller, inklusive djupinlärningsrekommendationsmodeller som används för att förbättra användarupplevelsen på företagets appar och tjänster. Meta meddelade att de nya chipsen kan hantera låg och hög komplexitet i rankning och rekommendationsmodeller, vilka driver annonser på Facebook och Instagram.

Direktlänk Dela AI Business fördjupade 15 april

Vision Transformers marknadsrapport till 2031 är tillgänglig

Orbisresearch.com har en databas med nyligen rapporter, som ´Vision Transformers Industry Forecast to 2031´. Rapporten erbjuder insiktsfull information om viktiga faktorer som påverkar marknadsbeteendet, inklusive nya utmaningar och kundpreferenser. Rapporten integrerar Porter´s Five Forces ramverk och SWOT-analys och ger en omfattande bild av den konkurrensutsatta marknaden. Rapporten täcker över 12 regioner och ger en global perspektiv. Den analyserar också effekten av COVID-19 på marknaden och hjälper företag att planera sina resursallokeringar och investeringsplaner. Nyckelspelare på Vision Transformers marknaden inkluderar Google, OpenAI, Meta, LeewayHertz, AWS, Nvidia, Vision Transformers (ViT), Synopsys, Quadric, DECI, Hugging Face, Clarifai, V7 Labs, Microsoft, Qualcomm, INTEL.

Direktlänk Dela Amore Nigeria fördjupade 15 april

Mphasis och Amazon Web Services lanserar AI-lab för finanstjänster

IT-lösningsspecialisten Mphasis har meddelat ett flerårigt globalt strategiskt samarbetsavtal med Amazon Web Services (AWS) för att lansera Gen AI gjuteri för finanstjänster. Gen AI gjuteriet kommer att fungera som en dynamisk plattform för modellering av branschanvändningsfall och utveckling av bevis på koncept inom finanstjänstsektorn, med planer på att expandera till andra sektorer. Detta virtuella forum kommer att erbjuda klienter möjligheten att uppleva demonstrationer och POCs antingen på Mphasis upplevelsecenter i NYC eller AWS Executive Briefing Center i NYC.

Direktlänk Dela Business Standard fördjupade 15 april

Google Cloud Next 2024 registrerar 100% tillväxt och förnyat engagemang för generativ AI

Google Cloud avslutade sin årliga konferens Google Cloud Next 2024 i Las Vegas denna vecka, där över 30 000 deltagare och 2 500 partners bevittnade en 100% tillväxt för evenemanget. Google Cloud visade även sitt förnyade engagemang för generativ AI och AI generellt. Sundar Pichai, VD för Google, noterade att mer än 60% av finansierade generativa AI-startups och nästan 90% av generativa AI-unicorns är Google Cloud-kunder. Ram Boreda, VP för produkter på Egnyte, bekräftade Google Clouds framgång med startups.

Direktlänk Dela Spiceworks fördjupade 13 april

Ny rapport förutspår AI Transkriptionsprogramvaru- och tjänstindustrins framtid till 2031

En ny rapport i Orbisresearch.com-databasen med titeln ´AI Transkriptionsprogramvara och Serviceindustrins Prognos till 2031´ visar att AI Transkriptionsprogramvara och Service-marknaden har upplevt märkbar expansion och omvandling på grund av en rad faktorer, inklusive tekniska framsteg, förändringar i konsumentpreferenser och ekonomiska förändringar. Rapporten undersöker marknadens nuvarande status, framträdande trender, hinder, möjligheter och utsikter. Bland de framträdande trenderna är teknisk integration, betoning på hållbarhet, personalisering och online-plattformar.

Direktlänk Dela Amore Nigeria fördjupade 12 april

Amazon slutför investering på 4 miljarder dollar i AI-företaget Anthropic

Amazon har slutfört sin investering på 4 miljarder dollar i AI-säkerhets- och forskningsföretaget Anthropic, vilket ökar konkurrensen mot Microsoft, Meta, Google och NVIDIA inom den snabbt växande sektorn. Anthropic driver en AI-driven, textanalyserande chattbot, Claude, som Google också har investerat i. Anthropic´s Claude 3-generation av modeller, presenterad tillsammans med Amazons andra investeringsnivå, representerar ett betydande framsteg inom AI-funktioner för användare. Dr. Swami Sivasubramanian, VP för Data och AI på AWS, kommenterade samarbetet mellan Amazon och Anthropic och framhöll att generativ AI är redo att bli den mest omvandlande tekniken i vår tid.

Direktlänk Dela Channel Insider fördjupade 12 april

Weights & Biases värd för generativ AI-konferens i San Francisco

AI-utvecklarplattformen Weights & Biases kommer att vara värd för Fully Connected, den årliga konferensen för generativ AI-industrin, den 18 april i San Francisco. Över 1000 maskininlärningsutövare förväntas delta på plats på Marriott Marquis. Evenemanget kommer att täcka de viktigaste trenderna som påverkar maskininlärningsutövare idag. Talarlistan inkluderar representanter från NVIDIA, Meta, Microsoft, Siemens, Adobe, You.com, LlamaIndex, Lambda och Together AI. Konferensen sponsras av ledande investerare och företag inom generativ AI-ekosystemet, inklusive Coatue, Felicis, AWS, Google Cloud, Microsoft, NVIDIA, Anyscale, Run:AI, CoreWeave, Together AI, Modelbit och Lambda.

Direktlänk Dela Business Wire fördjupade 11 april

Nearmap lanserar sjätte generationens AI-modell utvecklad med AWS

Nearmap, en specialist inom flygfoton, har lanserat sin sjätte generationens AI-modell som har utvecklats med hjälp av AWS. Företaget har minskat den tid som krävs för att träna sin AI-modell från upp till åtta veckor till bara 26 timmar, vilket representerar en minskning med 98% samtidigt som det gynnas av mer än fyrtio gånger beräkningskraften. Nearmap är det enda flygfotoföretaget som rutinmässigt använder ett AI-system på varje undersökningsflygning. Resultatet är genereringen av automatiska högupplösta kartor av AI- och ML-innehåll, som täcker nästan hela den australiska befolkningen. Denna detaljerade AI-data har visat sig vara användbar för organisationer som lokala råd. Dessutom transformeras försäkringsbranschen av Nearmaps AI-förmågor.

Direktlänk Dela Itbrief.com.au fördjupade 11 april

Google Cloud Next 2024: Nyheter inom moln- och AI-teknik

Google Cloud Next 2024 ägde rum i Las Vegas och presenterade en mängd nyheter inom moln- och AI-teknik. Bland dessa fanns Google Vids, ett AI-drivet videoredigeringsverktyg, och Gemini Code Assist, ett AI-baserat kodkompletteringsverktyg. Google Workspace introducerade nya funktioner, inklusive röststyrda skrivhjälpmedel i Gmail och anpassningsbara larm i Sheets. Google planerar också att monetarisera två nya AI-funktioner för Google Workspace. Dessutom presenterades Imagen 2, ett förbättrat bildgenereringsverktyg, och Vertex AI Agent Builder, ett verktyg för att bygga AI-agenter. Google förnyade sitt fokus på datans suveränitet och introducerade nya AI-drivna säkerhetsverktyg.

Direktlänk Dela TechCrunch fördjupade 11 april

CognitiveLab skapar Indic LLM Leaderboard för att jämföra AI-modeller på indiska språk

Adithya S Kolavi, grundare och VD för CognitiveLab, har skapat en rangordning för AI-modeller på indiska språk, kallad Indic LLM Leaderboard. CognitiveLab har även lanserat Ambari, den första tvåspråkiga Kannada-modellen byggd på Llama 2. Indic LLM Leaderboard stöder sju indiska språk, inklusive Hindi, Kannada, Tamil, Telugu, Malayalam, Marathi och Gujarati. Kolavi planerar nu att bygga en pålitlig LLM-benchmark för Indic-modeller, med hänvisning till kinesiska papper som skapade liknande benchmarks för det kinesiska språket. Han tror att AI bör bli tillgängligt för alla, även i de mest avlägsna byarna i Indien.

Direktlänk Dela Analytics India Magazine fördjupade 10 april

CAST AI lanserar AI Optimizer för att minska kostnader för stora språkmodeller

CAST AI, en ledande Kubernetes-automatiseringsplattform, har annonserat AI Optimizer, en ny tjänst som automatiskt minskar kostnaderna för att implementera stora språkmodeller (LLM). Tjänsten integreras med alla OpenAI-kompatibla API-slutpunkter och identifierar automatiskt LLM som erbjuder bäst prestanda och lägsta inferenskostnader bland kommersiella leverantörer och öppen källkod. Därefter distribuerar den LLM på CAST AI-optimerade Kubernetes-kluster, vilket ger stora besparingar för generativ AI. AI Optimizer kommer med djupgående insikter i modellanvändning, finjusteringskostnader och förklarbarhet i optimeringsbeslut, inklusive modellval.

Direktlänk Dela Headlines of Today Media fördjupade 10 april

Google Cloud ändrar namn på Duet AI till Gemini Code Assist och lägger till nya funktioner

Googles molndatordivision, Google Cloud, har ändrat namnet på sin tidigare lanserade Duet AI för utvecklare till Gemini Code Assist och lagt till nya funktioner för att underlätta kodgenerering. Gemini Code Assist är baserat på Gemini 1.5 Pro-modellen, Googles mest kraftfulla generativa AI-modell. Tidigare i december sade företaget att det skulle göra sin Gemini-modell tillgänglig för utvecklare. Gemini Code Assist erbjuder AI-driven kodkomplettering, kodgenerering och chatt. De nya förbättringarna och funktionerna i Gemini Code Assist inkluderar fullständig kodbasmedvetenhet, kodanpassning och förbättringar av verktygets partnerekosystem.

Direktlänk Dela InfoWorld fördjupade 9 april

Google utvecklar egen Arm-baserad CPU för AI-arbete i datacenter

Google skapar sin egen anpassade Arm-baserade CPU för att stödja sitt AI-arbete i datacenter och introducerar en kraftfullare version av sina Tensor Processing Units (TPU) AI-chip. Googles nya Arm-baserade CPU, kallad Axion, kommer att användas för att stödja Googles AI-arbetsbelastningar innan den lanseras till företagskunder på Google Cloud senare i år. Axion-chippen driver redan YouTube-annonser, Google Earth Engine och andra Google-tjänster. Google uppgraderar också sina TPU AI-chip som används som alternativ till Nvidias GPU för AI-accelerationsuppgifter.

Direktlänk Dela The Verge fördjupade 9 april

Stora språkmodeller förväntas nå 36,1 miljarder dollar år 2030

Den globala marknaden för stora språkmodeller (LLM) förväntas vara värd 6,4 miljarder dollar år 2024 och förväntas nå 36,1 miljarder dollar år 2030, med en årlig tillväxttakt (CAGR) på 33,2%, enligt en ny rapport av MarketsandMarkets. Ökningen i adoptionen av stora språkmodellösningar kan tillskrivas det ökande behovet av förbättrad interaktion mellan människa och maskin, tillsammans med behovet av att skapa mer sömlösa och intuitiva gränssnitt för användare inom en rad domäner, och ökad tillgänglighet av stora dataset som driver innovation inom olika områden.

Direktlänk Dela GlobeNewswire fördjupade 9 april

CAST AI introducerar AI Optimizer för att minska kostnader för stora språkmodeller

Kubernetes automatiseringsplattform CAST AI presenterar AI Optimizer, en tjänst utformad för att minska kostnaderna för att distribuera stora språkmodeller (LLM). Verktyget integreras med vilken OpenAI-kompatibel API-ändpunkt som helst och identifierar automatiskt den mest effektiva LLM bland kommersiella leverantörer och open-source-alternativ. AI Optimizer erbjuder insikter i modellanvändning, finjusteringskostnader och optimeringsbeslut, vilket ökar transparensen vid modellval. Tjänsten presenterades under Google Cloud Next ´24 i Las Vegas.

Direktlänk Dela Techzine fördjupade 9 april

AWS erbjuder AI/webinarier för att främja innovation

AWS erbjuder en serie webbseminarier för att hjälpa organisationer att utnyttja kraften i artificiell intelligens (AI), inklusive generativ AI (GenAI), och maskininlärning (ML) för att bygga nya applikationer och tjänster. Dessa webbseminarier är tillgängliga på begäran och innehåller bästa praxis-råd från branschexperter och företag som redan har implementerat dessa teknologier. Enligt statistik från AuthorityHacker har 35% av företagen antagit AI, 77% av enheterna använder redan någon form av tekniken och nio av tio organisationer stöder användningen av AI för att få konkurrensfördelar.

Direktlänk Dela The Register fördjupade 9 april

AI-utbildningar i fokus: Jämförelse mellan kurser

Efter framgången med ChatGPT har intresset för AI i Silicon Valley ökat, med företag som söker arbetstagare med AI-färdigheter. Onlinekurser i AI varierar mycket, så det är viktigt att välja den som passar bäst för varje individ eller företag. Några av de främsta AI-kurserna inkluderar Coursera´s AI for Everyone, AWS´s Building a Generative AI-Ready Organization via Coursera, DataCamp´s Understanding Artificial Intelligence, Google Cloud´s Introduction to Generative AI Learning Path, IBM´s Introduction to Artificial Intelligence via Coursera, AWS Generative AI Developer Kit, Harvard University Professional Certificate in Computer Science for Artificial Intelligence, MIT´s Professional Certificate Program in Machine Learning & Artificial Intelligence, Stanford Artificial Intelligence Professional Program, och Udacity´s Artificial Intelligence Nanodegree program.

Direktlänk Dela TechRepublic fördjupade 8 april

Bästa MLOps-böcker att läsa 2024

Maskininlärningsoperationer (MLOps) syftar till att förbättra kommunikation och samarbete under en maskininlärningsprojekts livscykel. Detta inkluderar principer som validering av datauppsättningar, samarbetskultur, övervakning av applikationer, reproducerbarhet och säkerställer snabbare driftsättning, förbättrad produktivitet och tillförlitlighet. Med de snabba framstegen inom maskininlärning har efterfrågan på MLOps-specialister också ökat. Denna artikel listar de bästa MLOps-böckerna man bör läsa 2024 för att lära sig denna viktiga färdighet.

Direktlänk Dela MarkTechPost fördjupade 7 april

Bosch och Microsoft samarbetar för att förbättra säkerheten för autonoma fordon med generativ AI

Bosch och Microsoft samarbetar för att höja säkerhetsstandarderna för automatiserade körningsfunktioner genom generativ AI. Samarbetet syftar till att fylla luckan i bedömningen av realtidsscenarier som autonoma system står inför. Båda företagen ser en framtid där generativ AI ger fordon möjlighet att navigera i komplexa situationer, vilket ökar säkerheten för alla trafikanter. Bosch har även samarbeten med AWS, Google och Aleph Alpha, vilket visar den breda användningen av denna teknologi. Dessutom har företaget lanserat ett omfattande utbildningsprogram i AI, med målet att utbilda 30 000 medarbetare.

Direktlänk Dela Mobility Outlook fördjupade 7 april

AI-modeller för kodgenerering ökar effektiviteten och intresset i Indien

AI-modeller för kodgenerering, som kan generera kod från enkla textprompter 55% snabbare och granska kodkvaliteten i nästan alla datorspråk, ökar effektiviteten och intresset i Indien. Sökningar för GitHub Copilot har ökat 10 gånger det senaste året och har över 1,3 miljoner betalande prenumeranter globalt. Användningen av dessa verktyg är dock fortfarande i ett tidigt skede och företag är försiktiga för att säkerställa kodens korrekthet och filtrera ut skadliga koder. Indien är den näst största användarbasen för ChatGPT utanför USA, med över 80% av programmerarna som använder plattformen.

Direktlänk Dela The Economic Times fördjupade 7 april

AWS AI-strategi och utmaningar från OpenAI och Microsoft

AWS framgång inom AI beror på ledningens goda relationer med bankernas exekutiva ledning. AWS AI-strategi är baserad på en trefaldig AI-stack: plattformar, AI-verktyg och applikationer. Utmaningar kommer från OpenAI och Microsoft som kämpar om speciellt anpassade planer för att möta rivalen. AWS har automatiserat processen och människor kommer att bli gränssnittet där AI fungerar som en mentor. AWS förenklar AI-adoption med applikationer och levererar ett speciellt instrument för Q.Q. AWS, den största molnplattformen, hanterar även miljöfrågor, inklusive införandet av smarta kraftverk. Utmaningar uppstår när vissa individer upplever problem med blockkedjesystem, vilket gör dem kladdiga att använda.

Direktlänk Dela Cryptopolitan fördjupade 7 april

Topp 5 gratis kurser i generativ AI

Generativa AI-modeller tar teknikindustrin med storm och att gå några av de bästa kurserna inom generativ AI kan hjälpa dig att göra ett varaktigt intryck på din professionella bana. Flera online e-lärandesystem har framkommit för att tjäna denna funktion, och erkänner och ger distinkta inlärningsmöjligheter inom generativ AI. Här är fem gratis AI kurser som du bör kolla in: Intro till Gen AI av Google, Generativ AI för nybörjare, Courseras kurs om generativ AI med TensorFlow, Generativ AI med stora språkmodeller och Udemys kurs om ´Stor bild till idé till genomförande´ av generativ AI.

Direktlänk Dela Daily News & Analysis India fördjupade 6 april

Amazon investerar ytterligare 2,75 miljarder dollar i Anthropic

Amazon investerar ytterligare 2,75 miljarder dollar i start-up-företaget Anthropic, vilket tar den totala investeringen till 4 miljarder dollar. Anthropic utnyttjar Amazons molntjänster, vilket är en stor fördel med tanke på de kritiska arbetsbelastningar som är inblandade. I utbyte gör Anthropic sina senaste generativa AI-modeller, Claude 3, tillgängliga för användare av Amazon Bedrock-tjänsten. Anthropic har valt AWS som sin huvudsakliga molnleverantör. Dessutom kommer Anthropic att använda AWS Trainium och Inferentia-chips för att bygga, träna och distribuera sina framtida modeller.

Direktlänk Dela Blogdigital.fr fördjupade 5 april

Generativ AI-certifiering: De 12 bästa kurserna

Artikeln handlar om generativ AI-certifiering och hur det kan ge en betydande karriärhöjning för teknikprofessionella som söker jobb inom sektorn för generativ AI. Artikeln går igenom 12 olika certifieringskurser och jämför dem med varandra. Kurserna kommer från olika företag och organisationer som IBM, Coursera, NVIDIA, AWS, DeepLearning.ai, Google Cloud Training, RMIT University, MIT Professional Education, Microsoft Azure, Project Management Institute (PMI), MIT Sloan School of Management Executive Education, edX och Udacity. Kurserna täcker olika ämnen som AI, maskininlärning, prompt engineering, dataanalys, experimentdesign, Python-bibliotek för LLMs, integration och drift. Kurserna är designade för olika nivåer av erfarenhet och kostar olika mycket.

Direktlänk Dela eWEEK fördjupade 5 april

Mistral AI expanderar i Europa med AWS-partnerskap

Paris-baserade startföretaget Mistral AI, som nyligen samlade in 484 miljoner dollar vid en värdering på 2 miljarder dollar, har meddelat att dess senaste stora språkmodell, Mistral Large, nu är tillgänglig på Amazon Web Services (AWS) Bedrock-plattform. Mistral AI, som grundades av alumner från teknikjättar som Google DeepMind och Meta, ses som Europas bästa chans att göra sitt märke inom det lukrativa området generativ AI. Mistral Large ansluter sig till andra industrigiganter som Anthropic´s Claude-modeller på Amazon Bedrock. Mistral AI kommer också att använda AWS kraftfulla AI-chips för att påskynda utvecklingen och distributionen av dess framtida grundmodeller på Bedrock.

Direktlänk Dela EnterpriseAI fördjupade 4 april

AWS ger tillbaka till uppstartsekosystemet

Howard Wright, vice VD och global chef för startups på AWS, beskriver företagets senaste initiativ som en gåva tillbaka till uppstartsekosystemet. Han uttrycker förhoppningen att startups fortsätter att välja AWS som deras första stopp.

Direktlänk Dela Deccan Herald fördjupade 2 april

Upstage AI introducerar Dataverse: En lösning för att förbättra databehandling för stora språkmodeller

Forskare från Upstage AI har introducerat Dataverse, en innovativ ETL-pipeline (Extract, Transform, Load) designad för att förbättra databehandling för stora språkmodeller (LLMs). Dataverse erbjuder en enhetlig och anpassningsbar ram som förenklar konstruktion och ändring av ETL-pipelines, med målet att effektivisera datahantering och förbättra utvecklingsprocessen för LLMs. Metoden innefattar en blockbaserad gränssnitt för anpassningsbara ETL-pipelines, med användning av Apache Spark för distribuerad bearbetning och AWS för skalbarhet i molnet. Trots brist på kvantitativa resultat markerar Dataverses innovativa tillvägagångssätt ett betydande bidrag till databehandlingsområdet.

Direktlänk Dela MarkTechPost fördjupade 2 april

Google och AWS släpper generativa AI-verktyg för kontaktcenter

Google och AWS har lanserat generativa AI-verktyg för kontaktcenter. AWS har lanserat flera nya GenAI-funktioner för sin Amazon Connect-kontaktplattform, som är baserad på företagets egen mjukvara som används i Amazons egen kundtjänstoperation med 100 000 agenter. En av de nya funktionerna innebär djupare stöd för tredjepartsapplikationer. En annan funktion är automatiserade agentutvärderingar med Amazon Connect Contact Lens, företagets verktygssats för talanalys. Google har förhandsvisat nya funktioner för sin Contact Center AI-plattform (CCAI-P), som parar ihop med Ujets agentdesktop.

Direktlänk Dela TechTarget fördjupade 1 april

Amazon investerar 4 miljarder dollar i AI-startup Anthropic

Amazon har gått med på att betala 4 miljarder dollar till AI-modellföretaget Anthropic, i utbyte mot att AWS blir Anthropics primära molnleverantör för uppdrag-kritiska arbetsbelastningar. Detta tvåstegsinvesteringsavtal ger Amazon Web Services (AWS) ett välbehövligt lyft i kriget om moln- och AI-tjänster, där de har förlorat mark till andra stora aktörer som Microsoft, Google Cloud och Oracle. Amazon, trots framgångar med AWS, är i grunden ett detaljhandels- och logistikföretag, medan Microsoft, Google och Oracle har decennier av erfarenhet inom företagsmjukvara. Genom att samarbeta med Anthropic får AWS ökad kapacitet och trovärdighet för AI-eran.

Direktlänk Dela Accelerationeconomy.com fördjupade 1 april

Amazons spelväxlande investering i Anthropic kan återuppliva AWS tillväxt

I ett avsnitt av Cloud Wars Minute diskuteras Amazons $4 miljarder investering i Anthropic. Det antyds att detta kan vara en av de bästa investeringarna Amazon någonsin gjort, med potential att återuppliva tillväxten för AWS, som har haft långsam tillväxt under de senaste åren. Genom att ge AWS mer företagsmjukvaruexpertis kan investeringen också hjälpa till att motverka uppfattningen att AWS ligger efter andra stora hyperscalers. Dessutom kan Anthropic bidra till att stärka AWS position inom det snabbt växande området GenAI.

Direktlänk Dela Accelerationeconomy.com fördjupade 1 april

Amazon investerar 600 miljarder yen i AI-företaget Anthropic

Amazon siktar på att överträffa Anthropic i AI-utveckling genom att investera 600 miljarder yen i AI-företaget ´Anthropic´. Amazon har tillkännagivit en extra investering på 2,75 miljarder dollar (cirka 420 miljarder yen) i Anthropic, vilket tar den totala investeringen i företaget till 4 miljarder dollar (cirka 600 miljarder yen). Amazons AI-utvecklingsavdelning siktar på att utveckla en storskalig språkmodell med prestanda överlägsen Anthropic. Amazon har också ett partnerskap med konsultföretaget Accenture, som kommer att ge kunder tillgång till Anthropics AI-modeller via AWS.

Direktlänk Dela GIGAZINE fördjupade 1 april

Betydelsen av AI Transkriptionsprogramvara och Servicemarknad i den digitala sfären belyst i ny rapport

Rapporten om AI Transkriptionsprogramvara och Servicemarknad har belyst betydelsen av AI Transkriptionsprogramvara och Servicemarknad i den digitala sfären. Förståelsen av denna marknad är inte bara fördelaktig, utan nödvändig för företag, marknadsförare och innehållsskapare. Genom att bemästra konsten att välja och optimera sökord kan företag förbättra sin online synlighet och uppnå sina digitala mål. I en värld där en stark digital närvaro är avgörande, fungerar AI Transkriptionsprogramvara och Servicemarknad som en grundläggande pelare.

Direktlänk Dela Amore Nigeria fördjupade 1 april

Amazon investerar ytterligare $2,75 miljarder i AI-startupen Anthropic

Amazon har investerat ytterligare 2,75 miljarder dollar i AI-startupen Anthropic, vilket avslutar Amazons totala investering på 4 miljarder dollar i företaget. Anthropic är företaget bakom Claude 3-modellerna, som har presterat bättre än andra populära AI-modeller inom områdena resonemang, matematik och kodning. Amazon och Microsoft har ännu inte utvecklat GenAI-modeller som kan leverera högsta nivå av kapabiliteter och har därför gått via andra, främst Anthropic och OpenAI. Amazon har nu en minoritetsandel i Anthropic men kommer inte att ta en styrelseplats.

Direktlänk Dela EnterpriseAI fördjupade 31 mars

Amazon slutför en 4 miljarder dollar investering i AI-startup Anthropic

Amazon har stärkt sin position inom generativ artificiell intelligens genom att slutföra en investering på 4 miljarder dollar i startup-företaget Anthropic, enligt en Amazon-aktieanalytiker. Anthropic, baserat i San Francisco, är utvecklaren av Claude, en generativ AI-chattbot. Amazon hade tidigare investerat 1,25 miljarder dollar i september. Efter tillkännagivandet sa BofA Securities analytiker Justin Post att affären kan hjälpa Amazon att driva sin generativa AI. Anthropic grundades 2021 av tidigare OpenAI-anställda. Dess Claude AI-assistent erbjuder mänsklika svar på prompts, liknande ChatGPT.

Direktlänk Dela Investor´s Business Daily fördjupade 28 mars

BrainBox AI lanserar ARIA, en AI-baserad virtuell assistent för byggnadsförvaltning

BrainBox AI har lanserat ARIA, en AI-baserad virtuell assistent för byggnadsförvaltning. ARIA är byggd på Amazons AI-teknologi och förväntas förbättra byggnadseffektiviteten genom att integrera dem i byggnadsdriften. ARIA förbättras genom prognoser, vilket gör plötsliga driftsproblem förutsägbara och hjälper till med byggnadsförvaltning genom att ändra sättet från att endast reagera till att vara proaktiv. Kunder kan enkelt interagera med ARIA via text- eller röstkommandon, och växla sömlöst mellan skrivbord och mobila enheter. ARIA minskar koldioxidavtrycket genom att optimera och effektivisera byggnadsbeteendet.

Direktlänk Dela Cryptopolitan fördjupade 28 mars

Amazon investerar miljarder i AI-startupen Anthropic

Teknikföretag kämpar för att anamma den nya tekniken GenAI. Amazon har spenderat miljarder för att få en konkurrensfördel och har som en del av sin plan att investera upp till 4 miljarder dollar i Anthropic, nyligen investerat 2,75 miljarder dollar i AI-startupen. Anthropic är företaget bakom Claude 3-modellerna som utklassade andra populära AI-modeller inom resonemang, matematik och kodning. Amazon och Microsoft har ännu inte utvecklat GenAI-modeller som kan leverera högsta nivå av kapabiliteter. Amazon har nu en minoritetsandel i Anthropic men kommer inte att ta en styrelseplats. Anthropic planerar att höja ytterligare 750 miljoner dollar i en finansieringsrunda ledd av Menlo Ventures. Google har en aktieandel i Anthropic, men med det senaste avtalet med AWS kommer Anthropic nu att använda Amazon´s cloud-enhet AWS som sin primära leverantör för affärskritiska arbetsbelastningar.

Direktlänk Dela Datanami fördjupade 28 mars

Stor språkmodellmarknad förväntas växa till 36,1 miljarder dollar år 2030

Den globala marknaden för stora språkmodeller (LLM) förväntas växa med en årlig tillväxttakt på 33,2% och nå 36,1 miljarder dollar år 2030, upp från en uppskattad 6,4 miljarder dollar 2024. Tillväxten drivs av tillgången på stora datamängder, framsteg inom djupinlärningsalgoritmer och ökad efterfrågan på automatiserad innehållsskapande och -kurering. Allmänna LLM:er förväntas ha den största marknadsandelen, medan videosegmentet förväntas växa snabbast. Ledande spelare på marknaden inkluderar Google, OpenAI, Anthropic, Meta, Microsoft, NVIDIA, AWS, IBM, Oracle, HPE, Tencent, Yandex, Naver, AI21 Labs, Hugging Face, Baidu, SenseTime och Huawei.

Direktlänk Dela openPR fördjupade 28 mars

Amazon investerar ytterligare i AI-företaget Anthropic

Amazon har meddelat att de kommer att investera ytterligare $2,7 miljarder i teknikföretaget Anthropic, vilket tar deras totala investering till över $4 miljarder. Amazon kommer att behålla en minoritetsandel i det San Francisco-baserade företaget. Swami Sivasubramanian, vice VD för data och AI på AWS, Amazons molnberäkningsdotterbolag, kommenterade att företagets strategiska samarbete med Anthropic kommer att bidra till att förbättra kundernas upplevelser. Anthropic kommer att använda AWS som sin ´primära´ molnleverantör och kommer att börja använda Amazons specialbyggda chips för att bygga, träna och distribuera AI-modeller.

Direktlänk Dela New Electronics fördjupade 28 mars

Generativ AI: En ny era av kreativ potential

Generativ AI (GenAI) representerar en delmängd av AI-teknologier som fokuserar på att generera nytt innehåll, data eller lösningar baserat på den träning den har fått. Till skillnad från konventionell AI, som främst analyserar och tolkar data, skapar GenAI nya, originalutdata som kan inkludera text, bilder, kod och mer. GenAI-system fungerar genom att förutsäga sekvenser av text, bilder eller kod baserat på två grundläggande inputs: prompts, som ger initiala instruktioner, och kontextdata som ytterligare styr generationen. Företag integrerar allt mer GenAI för att driva innovation, förbättra effektiviteten och behålla konkurrensfördelar. Ett anmärkningsvärt exempel är samarbetet mellan Cognizant och Microsoft, vilket har lett till lanseringen av Innovation Assistant, ett AI-drivet verktyg på Microsoft Azure OpenAI Service.

Direktlänk Dela Timestech.in fördjupade 28 mars

Amazon investerar 4 miljarder dollar i AI-startup Anthropic

Amazon har investerat 4 miljarder dollar i AI-startupen Anthropic, vilket är den största externa investeringen i Amazons historia. Amazon har förvärvat en minoritetsandel i Anthropic och som en del av affären har Anthropic valt AWS (Amazon Web Services) som sin primära molnleverantör. Anthropic, som grundades 2021 av tidigare medlemmar från OpenAI, har sedan dess fått betydande finansiering från stora företag som Google, Spark Capital och Alameda Research. Samarbetet mellan Amazon och Anthropic markerar bara början på deras ansträngningar att leverera banbrytande generativa AI-teknologier till kunder över hela världen.

Direktlänk Dela Dazeinfo fördjupade 28 mars

Amazon investerar ytterligare i AI-startupen Anthropic

Amazon har slutfört sin investering på 4 miljarder dollar i AI-startupen Anthropic, med ett extra tillskott på 2,75 miljarder dollar. Detta stärker Amazons andel i det San Francisco-baserade företaget. Anthropic, en konkurrent till OpenAI, kommer att fortsätta verka, med Amazon som minoritetsägare. Swami Sivasubramanian, vice VD för data och AI på AWS, Amazons molndatordotterbolag, uttryckte optimism om samarbetet med Anthropic och betonade potentialen hos generativ AI att revolutionera olika branscher.

Direktlänk Dela Tech Times fördjupade 28 mars

Anthropic använder AWS som sin primära molnleverantör

Enligt avtalet kommer Anthropic att använda AWS som sin ´primära´ molnleverantör och använda Amazons anpassade chips för att bygga, träna och distribuera AI-modeller. Anthropic kommer också att ge AWS-kunder, som mestadels är företag, tillgång till modeller på en Amazon-tjänst som kallas Bedrock.

Direktlänk Dela Michigan News Net Media fördjupade 28 mars

Amazon slutför investering på 4 miljarder dollar i Anthropic

Amazon har avslutat sin investering på 4 miljarder dollar i Anthropic genom att bidra med ytterligare 2,75 miljarder dollar. Detta fullbordar en affär som inleddes förra året och som gav Amazon en minoritetsandel i det generativa AI-företaget. Anthropic kommer nu att använda AWS-utvecklade Trainium och Inferentia-chips för att bygga, träna och distribuera sina framtida modeller. Anthropic har också gått med på att ge AWS-kunder tillgång till framtida generationer av sina grundmodeller på AWS ´Amazon Bedrock-tjänst.

Direktlänk Dela Mobile World Live fördjupade 28 mars

Amazon investerar ytterligare i AI-startupen Anthropic

Amazon har meddelat att de investerar ytterligare 2,75 miljarder dollar (cirka 2,1 miljarder pund) i Anthropic, vilket höjer deras totala investering i AI-startupen till 4 miljarder dollar (cirka 3,1 miljarder pund). Amazon kommer att behålla en minoritetsandel i San Francisco-baserade Anthropic, en rival till ChatGPT-tillverkaren OpenAI. De två företagen samarbetar för att utveckla så kallade grundmodeller, som ligger till grund för de generativa AI-system som har fått global uppmärksamhet. Anthropic kommer att använda AWS som sin ´primära´ molnleverantör och använda Amazons specialchips för att bygga, träna och distribuera AI-modeller.

Direktlänk Dela Express & Star fördjupade 27 mars

Amazon investerar ytterligare $2,75 miljarder i AI-startupen Anthropic

Amazon meddelade på onsdagen att de kommer att investera ytterligare $2,75 miljarder i Anthropic, vilket innebär att deras totala investering i AI-startupen nu uppgår till $4 miljarder. Teknikjätten kommer att behålla en minoritetsandel i San Francisco-baserade Anthropic, en konkurrent till ChatGPT-tillverkaren OpenAI. De två företagen samarbetar för att utveckla så kallade grundmodeller, som ligger till grund för de generativa AI-system som har fångat global uppmärksamhet. Enligt avtalet kommer Anthropic att använda AWS som sin ´primära´ molnleverantör och använda Amazons anpassade chips för att bygga, träna och distribuera AI-modeller.

Direktlänk Dela The Guardian fördjupade 27 mars

Amazon slutför 4 miljarder dollar investering i AI-startup Anthropic

Amazon har slutfört sin utlovade investering på 4 miljarder dollar i AI-startupen Anthropic, med en slutlig investering på 2,75 miljarder dollar precis innan avtalets utgång. Amazon meddelade i ett blogginlägg på onsdagen att det gav Anthropic den slutliga investeringen. Som en del av avtalet kommer Anthropic att bygga, träna och distribuera AI-modeller på Amazon Web Services Trainium och Inferentia-chips, samtidigt som AWS-kunder får tillgång till Anthropics grundmodeller på den fullt hanterade Amazon Bedrock-tjänsten. Amazon och Anthropic har visat intresse för att involvera lösningstjänsteleverantörer för att ytterligare främja AI:s genomslagskraft, nyligen meddelade de ett samarbete med Accenture.

Direktlänk Dela Computer Reseller News fördjupade 27 mars

Amazon investerar ytterligare $2,75 miljarder i AI-startupen Anthropic

Amazon meddelade på onsdagen att de kommer att investera ytterligare $2,75 miljarder i den artificiella intelligens-startupen Anthropic, vilket tar deras totala investering i företaget till $4 miljarder. Amazon kommer att behålla en minoritetsandel i Anthropic, som har sitt säte i San Francisco och är en konkurrent till ChatGPT-tillverkaren OpenAI. Anthropic kommer att använda AWS som sin ´primära´ molnleverantör och kommer att använda Amazons egna chips för att bygga, träna och distribuera AI-modeller. Företag som Delta Air Lines och Siemens använder redan Bedrock för att få tillgång till Anthropics AI-modeller.

Direktlänk Dela WREG-TV fördjupade 27 mars

Global rapport om AI-transkriptionstjänster och programvarumarknad 2024

En ny rapport diskuterar marknadsandelar, konkurrenslandskap och viktiga marknadsstrategier inom den globala marknaden för AI-transkriptionstjänster. Rapporten belyser viktiga resultat inom branschen och ger en bred vy och perspektiv för att hjälpa beslutsfattare i företagsvärlden att utveckla mer lönsamma planer och strategier. Rapporten ger också en djupare förståelse för företagen för att möjliggöra bättre val för privata eller riskkapitalaktörer. De huvudsakliga faktorerna som driver tillväxten av den globala marknaden för AI-transkriptionstjänster har noggrant granskats.

Direktlänk Dela Amore Nigeria fördjupade 27 mars

Databricks lanserar världens mest kraftfulla öppna källkodsmodell, DBRX

Databricks VP och grundare av MosaicML, Naveen Rao, har lanserat DBRX, världens mest kraftfulla öppna källkodsmodell. DBRX överträffar öppna källkodsmodeller som Llama 2 70B, Mixtral-8x7B och Grok-1 i olika riktmärken, inklusive språkförståelse (MMLU), programmering (Human Eval) och matematik (GSM 8K). Det slår även OpenAI:s GPT-3.5 och närmar sig GPT-4 på liknande riktmärken, vilket minskar beroendet av proprietära stängda källkodsmodeller. Modellen är också hälften så dyr att använda, enligt Rao.

Direktlänk Dela Analytics India Magazine fördjupade 27 mars

Global forskningsrapport om AI Transkriptionsprogramvara och Tjänstemarknad 2024

En global forskningsrapport diskuterar marknadsandelar för spelare, konkurrenslandskapet och kritiska marknadsstrategier inom AI Transkriptionsprogramvara och Tjänstemarknaden. Rapporten hjälper beslutsfattare att utveckla mer lönsamma planer och strategier. Den ger också en djupare förståelse för företagen för att möjliggöra bättre val för privata eller riskkapitalaktörer. De huvudsakliga faktorerna som driver tillväxten av marknaden har noggrant undersökts för att uppskatta marknadens totala värde och storlek vid slutet av den förväntade tidsperioden.

Direktlänk Dela Amore Nigeria fördjupade 27 mars

Airtable introducerar AI-funktioner för att öka produktiviteten

Produktivitetsplattformen Airtable introducerar generativ AI-sammanfattning, kategorisering och översättning till alla sina användare med allmän tillgänglighet av Airtable AI. Företag som Microsoft och Google har integrerat AI-funktioner i sina produktivitetserbjudanden. De nya funktionerna gör Airtable till den senaste plattformen som ser generativ AI:s potential som ett produktivitetsverktyg. Airtable erbjuder en gratis provperiod på 500 AI-krediter, tillräckligt för att göra 500 formler eller matchande poster, 10 blogginlägg eller 50 översättningar. Efter det måste kunderna betala ytterligare $6 per plats per månad betalt årligen.

Direktlänk Dela The Verge fördjupade 27 mars

POET Technologies lanserar 800G pluggable transceiver för AI och molndatacenter

POET Technologies Inc. har lanserat sin första produkt på marknaden för optiska moduler för artificiell intelligens och molndatacenter. Produkten, en 800G pluggable transceiver kallad Wavelight, är företagets första POET-märkta modul och representerar en viktig milstolpe i företagets kommersialisering. Wavelight kommer att visas upp på OFC 2024-konferensen i San Diego och kundprovning kommer att börja i Q3 2024. Marknaden för 800G 2xFR4-transceivers beräknas vara värd $750 miljoner 2024 och förväntas växa till $1,7 miljarder 2027.

Direktlänk Dela Yahoo Finance fördjupade 26 mars

AWS lanserar nya AI-produkter och erbjudanden, samarbetar med Nvidia och Anthropic

AWS, världens största molnföretag, har lanserat en rad nya AI-produkter och erbjudanden i samarbete med Nvidia och Anthropic. AWS har nyligen lanserat en ny generativ AI-kompetens för AWS-partners för att fånga fler GenAI-marknadsmöjligheter. Företaget har även bildat ett partnerskap med Accenture för att främja AI-adoption. AWS genererade 24,2 miljarder dollar i intäkter under Q4 2023, vilket innebär att AWS nu har en årlig omsättning på 97 miljarder dollar. Anthropic´s nya GenAI Claude 3 Sonnet och Haiku-modeller finns nu på Amazon Bedrock. AWS och Nvidia samarbetar för att dubbla sin saminnovation.

Direktlänk Dela Computer Reseller News Australia fördjupade 25 mars

Marknaden för storskaliga språkmodeller förväntas växa kraftigt fram till 2030

En ny forskningsrapport från MarketsandMarkets förutspår en snabb tillväxt för marknaden för storskaliga språkmodeller (LLM). Marknaden förväntas växa från 6,4 miljarder dollar 2024 till 36,1 miljarder dollar 2030, med en årlig tillväxttakt på 33,2% under prognosperioden 2024-2030. Denna tillväxt drivs av det ökande behovet av förbättrad kommunikation mellan människor och maskiner, ökad efterfrågan på automatiserad innehållsskapande och kurering, samt ökad tillgänglighet av omfattande datamängder. Allmänna LLM:er förväntas registrera den största marknadsandelen under prognosperioden, medan videosegmentet förväntas ha den snabbaste tillväxten. Nordamerika förväntas stå för den största marknaden under prognosperioden.

Direktlänk Dela WhaTech fördjupade 25 mars

Google Cloud har gjort flera av sina AI-drivna datahanterings- och analysverktyg allmänt tillgängliga, inklusive AlloyDB AI och Gemini-modeller för BigQuery. Dessutom introducerade företaget en ny våg av generativa AI-funktioner. Dessa verktyg var tidigare i förhandsgranskning och utvecklingsstadiet. Generativ AI har potential att utöka användningen av analys inom företag och förbättra effektiviteten hos de anställda som redan arbetar med data. Google Cloud planerar att göra fler datahanterings- och analyskapaciteter allmänt tillgängliga i april.

TechTarget fördjupade 25 mars

AWS, Accenture och Anthropic samarbetar för att skala AI ansvarsfullt

AWS (Amazon Web Services), Accenture och Anthropic har nyligen meddelat ett partnerskap för att hjälpa organisationer att skala AI ansvarsfullt. Samarbetet syftar till att stödja branscher som hälso- och sjukvård, offentlig sektor, bank och försäkring i att anpassa och anpassa generativ AI-teknik. Genom detta partnerskap kan organisationer få tillgång till Anthropics AI-modeller via Amazon Bedrock, en tjänst som tillhandahåller högpresterande grundmodeller. Accenture kommer att förbättra dessa förmågor med branschspecifika lösningar, medan AWS kommer att erbjuda infrastrukturen som behövs för att effektivt distribuera dessa modeller.

Direktlänk Dela IndianWeb2 fördjupade 25 mars

Accenture lanserar AI-drivet lärplattform Accenture LearnVantage

Accenture, det globala professionella tjänsteföretaget, har annonserat lanseringen av Accenture LearnVantage, en investering på $1 miljard över tre år i en AI-driven lärplattform designad för att hjälpa kunder att uppgradera sina arbetsstyrkor och dra nytta av framväxande teknologier. Detta kommer som svar på att företag inom olika branscher kämpar med att hitta talanger med nödvändiga färdigheter inom områden som generativ AI, molnbaserad databehandling och cybersäkerhet. Accenture LearnVantage kommer även att samarbeta med teknikjättar som AWS, Google Cloud och Microsoft.

Direktlänk Dela VentureBeat fördjupade 22 mars

AWS investerar kraftigt i AI, lanserar nya erbjudanden

AWS, världens största molnföretag, investerar kraftigt i alla områden av AI för kundinnovation, enligt VD Adam Selipsky. Företaget har nyligen lanserat en rad nya AI-produkter och erbjudanden, inklusive samarbeten med Nvidia och Anthropic. Dessutom har AWS lanserat en ny kompetens inom generativ AI för sina partners, för att fånga fler marknadsmöjligheter. Företaget har också ingått ett partnerskap med Accenture för att främja AI-adopterande. Bland de nya AI-initiativen finns Anthropic´s Claude 3 Sonnet och Haiku-modeller, nu tillgängliga på Amazon Bedrock.

Direktlänk Dela Computer Reseller News fördjupade 22 mars

Portkey.ai hjälper företag att hantera GenAI-verktyg

Portkey.ai, som grundades i april 2023, hjälper företag att utveckla, lansera, underhålla och iterera sina GenAI-appar och funktioner. Företaget grundades av Rohit Agarwal, som identifierade problemet med att hantera GenAI-verktyg när han arbetade på Freshworks och Pepper Content. Portkey.ai har sedan dess lyckats ta ombord 15 kunder, inklusive Turing, Haptik, Postman, Quizizz, Springworks och Merlin. Företaget använder en kontrollpanel kallad AI-gateway, som fungerar som ett gränssnitt mellan klienternas appar och värd LLMs som OpenAI´s ChatGPTs eller Google´s Gemini. Fem månader efter den officiella lanseringen samlade företaget in 3 miljoner dollar i en seedfinansieringsrunda ledd av Lightspeed Venture Partners.

Direktlänk Dela Inc42 Media fördjupade 22 mars

Marknaden för Large Language Models väntas vara värd 36,1 miljarder dollar 2030

Marknaden för Large Language Models (LLM) förväntas växa från 6,4 miljarder USD 2024 till 36,1 miljarder USD 2030, enligt en rapport från MarketsandMarkets. Denna tillväxt drivs av utvecklingar inom naturlig språkförståelse och multimodal integration samt ökad industriintegration. Regleringar och implementering på kanten kommer att vägleda marknadens utveckling mot personliga, varierade och integritetsmedvetna applikationer. Samtidigt kommer etiska överväganden, integritetsfrågor och samarbete med domänspecifika AI-modeller att driva ansvarsfull utveckling.

Direktlänk Dela Itnewsonline.com fördjupade 21 mars

Nvidia och AWS samarbetar för att snabba upp AI-kapaciteter

Nvidias senaste superchip och molninfrastruktur från AWS kommer att hjälpa kunder att utnyttja kapaciteter för artificiell intelligens snabbare. Samarbetet mellan Nvidia och AWS går tillbaka mer än 13 år och idag erbjuder de det bredaste utbudet av GPU-lösningar för kunder. AWS AI-infrastruktur och tjänster har säkerhetsfunktioner för att ge kunder kontroll över sina data. Det nya samarbetet mellan Nvidia och AWS, kallat Project Ceiba, kommer att använda Blackwell-plattformen och kommer att kunna bearbeta 414 exaflop av AI, vilket innebär en sexfaldig ökning av prestanda.

Direktlänk Dela Telekom idag fördjupade 21 mars

11 snabbast växande AI-aktier att investera i nu

Denna artikel diskuterar de 11 snabbast växande AI-aktierna att investera i nu. Tekniksektorn, och specifikt AI-aktier, kan vara utmärkta tillskott till tillväxtportföljer. Men alla AI-aktier är inte bra tillväxtval. Eric Lynch, portföljförvaltare på Scharf Investments, diskuterar denna utmaning och betonar vikten av att noga välja AI-aktier som kan leverera på sina tillväxtlöften. Han nämner företag som NVIDIA, Microsoft, AWS och Oracle som vinnare inom AI. Dessa AI-aktier, tillsammans med Apple, är bland de bästa tillväxtaktierna inom teknik- och AI-sektorn idag.

Direktlänk Dela Yahoo Finance fördjupade 17 mars

Amazon förenklar produktlistningsprocessen med AI

Amazon har meddelat en funktion som låter säljare omvandla deras befintliga produktsidor från andra webbplatser till detaljerade Amazon-listor genom att helt enkelt kopiera och klistra in en länk. Funktionen drivs av AI via Amazons molnbaserade datortjänst, AWS, och utnyttjar proprietära grundmodeller tillgängliga på Amazon Bedrock. Säljare kommer att kunna ange en länk till en produktlista från sin egen direkt-till-konsument-webbplats på Amazon, och Amazons generativa AI-verktyg kommer att tolka informationen och skapa engagerande listor. Amazon rapporterade att över 100 000 säljare har använt de generativa AI-funktionerna som gjorts tillgängliga för dem.

Direktlänk Dela ZDNet fördjupade 14 mars

Amazon lanserar AI-funktion för att generera produktbeskrivningar

Amazon kommer att lansera en ny generativ AI-funktion som gör det möjligt för säljare att generera produktsidor med en kopia och klistra in länk. Funktionen tar information från en säljares externa webbplats och genererar sedan en Amazon-produktsida för produkten, komplett med en skriftlig beskrivning och bilder. Amazon varnar säljare att om de väljer att klistra in en URL för att skapa produktsidan, måste de vara ägare, rättighetshavare eller ha licens att använda länkens innehåll. Funktionen rullas ut nu och kommer att vara tillgänglig för amerikanska säljare inom de kommande veckorna.

Direktlänk Dela The Verge fördjupade 13 mars

AI-as-a-Service: Fördelar, nackdelar och ledande leverantörer

AI-as-a-Service (AIaaS) kan vara ett snabbare och mer kostnadseffektivt sätt att implementera AI i företag, enligt Dekate från Gartner. Fördelarna med AIaaS inkluderar lägre inträdesbarriärer, snabbare tid till marknaden, tillgång till den senaste tekniken, skalbarhet och tillgång till AI-expertis. Nackdelarna kan dock vara leverantörslåsning, begränsad anpassning och säkerhets- och integritetsfrågor. När man väljer en AIaaS-leverantör bör man överväga om de stöder arbetsbelastningarna för alla tre stegen i AI: dataförberedelse, modellträning och inferens, deras regionala infrastruktur och om de har beprövad expertis inom det område man är intresserad av. Ledande AIaaS-leverantörer inkluderar AWS, Google Cloud, Microsoft Azure, Nvidia och OpenAI.

Direktlänk Dela Computersweden.se fördjupade 13 mars

Företag använder generativ AI trots säkerhetsbekymmer, teknikjättar tävlar om marknadsandelar

Trots säkerhetsbekymmer kring generativ AI (GenAI) använder många företag tekniken för allt från marknadsföring till mjukvarukodning. GenAI-tekniken kan fortfarande vara omogen, men den snabba utvecklingen av AI innebär att mer sofistikerade och säkrare verktyg kommer snart. Teknikjättar som Microsoft, Google och AWS har alla gått in i loppet om GenAI-marknaden sedan OpenAI släppte ChatGPT. Det finns också en uppsjö av startföretag inom GenAI att hålla koll på. Dessutom växer det fram industrier som reaktion på AI, med IT-avdelningar som söker AI-chip och företag som förbereder sig för AI-relaterade juridiska utmaningar.

Direktlänk Dela InformationWeek fördjupade 12 mars

Microsoft fortsätter att växa med fokus på AI och molnteknologi

Microsoft, världens mest värdefulla företag, har sett betydande avkastning på investeringar med aktier som ökat 69% under det senaste året. Företaget har strategiskt positionerat sig för AI-boomen med investeringar i OpenAI och andra diversifieringsinsatser. Dess molnsegment har drivit betydande intäktsökning, medan spel och förvärv har utökat marknadsräckvidden. Microsoft fortsätter att investera i molnteknologi och utvecklar AI GPU-chips för att minska beroendet av andra företag. Azure, dess huvudsakliga tillväxtmotor, såg en 31% ökning av intäkterna under det senaste kvartalet jämfört med föregående år.

Direktlänk Dela TradingView fördjupade 9 mars

Globala AI-verktyg för leveranskedjan erbjuder oöverträffade fördelar

Företag kan förbättra sina marknadsföringsstrategier och få en konkurrensfördel genom att genomföra djupgående analyser av drivkrafter. Den globala industrin för AI-verktyg för leveranskedjan erbjuder oöverträffade fördelar i en dynamisk affärsmiljö. Bättre synlighet, riktad publikomfattning och varumärkeskännedom uppmuntrar optimalt engagemang och driver hållbar tillväxt. Rapporten ger en klar bild av de främsta konkurrenterna på den globala marknaden för AI-verktyg för leveranskedjan. Studien uppskattade den globala marknadsstorleken för AI-verktyg för leveranskedjan från 2022 till 2031.

Direktlänk Dela Amore Nigeria fördjupade 6 mars

CodeBaby visar AI-klara avatarer på Mobile World Congress 2024

CodeBaby, AWS och Proto Holograms samarbetade för att visa upp avancerad AI- och avatar-teknologi på Mobile World Congress 2024 i Barcelona. Avatarna, som presenterades på Proto Holograms enheter inom AWS-utställningen, kunde hjälpa besökare med olika förfrågningar, allt från navigering till detaljerad programinformation. Dessa avatarer representerar sammansmältningen av AI och holografisk teknik, vilket sätter nya standarder för interaktiva digitala upplevelser. CodeBaby planerar att fortsätta utveckla sin teknik för att berika kundupplevelser på olika plattformar.

Direktlänk Dela EIN News fördjupade 6 mars

Claude 3: Ny generation av AI-teknik förbättrar företagsprocesser

Claude 3 är den senaste utvecklingen inom AI-teknik, bestående av tre modeller: Haiku, Sonnet och Opus, var och en erbjuder olika prestandanivåer. Skaparna, Anthropic, menar att dessa modeller överträffar sina föregångare i hastighet, intelligens och styrningsförmåga. Claude 3 Sonnet är designad för komplexa uppgifter som kräver snabba och korrekta lösningar. Dessa modeller kan anpassas till olika uppgifter, vilket gör dem lämpliga för olika företagsbehov. Claude 3 Sonnet erbjuder företag en blandning av hastighet och sofistikering till en lägre kostnad jämfört med andra modeller. Dess förmågor gör den särskilt fördelaktig för storskaliga AI-implementeringar och komplex uppgiftshantering.

Direktlänk Dela TechRound fördjupade 5 mars

Microsoft investerar 2 miljarder euro i franska AI-företaget Mistral

Microsoft har ingått ett flerårigt avtal med det franska AI-företaget Mistral, vilket signalerar företagets långsiktiga engagemang inom området. Microsoft har investerat 2 miljarder euro i Mistral och meddelat att de kommer att introducera Mistrals senaste AI-modell, Mistral Large, till Azure. Men investeringen i Mistral, som huvudsakligen är en utvecklare av öppen källkods AI-modeller, betyder inte att Microsoft har förlorat tron på sitt första AI-barn, OpenAI. Istället lägger Microsoft grunden för att bygga Azure som en modellträdgård och skaffa sig en fotfäste i Europa.

Direktlänk Dela The Verge fördjupade 4 mars

Phind-70B: Ett stort steg inom AI-assisterad kodning

Artificiell intelligens (AI) fortsätter att utvecklas, med framsteg som påverkar olika branscher. En nyligen framtagen AI-modell, Phind-70B, sätter nya standarder för kodningseffektivitet och kvalitet, och överträffar GPT-4 Turbo. Phind-70B är utvecklad av ett forskarteam och bygger på CodeLlama-70B, men med betydande förbättringar. Modellen uppnår enastående hastighet, upp till 80 tokens per sekund, vilket ger utvecklare omedelbar feedback och förbättrar kodupplevelsen. Phind-70B har visat överlägsen prestanda jämfört med sin föregångare, GPT-4 Turbo, i jämförande mätvärden.

Direktlänk Dela BNN Breaking News fördjupade 3 mars

Warren Buffetts topp fyra AI-aktier

Warren Buffetts holdingbolag Berkshire Hathaway har stora investeringar i artificiell intelligens (AI), trots Buffetts rykte som en traditionell investerare. De fyra största AI-aktierna i portföljen utgör nästan hälften av den totala portföljen. Dessa inkluderar Apple, som utgör 44,2% av portföljen, Moody´s, som utgör 2,5%, Amazon, som har mer än fördubblats sedan den lades till i portföljen 2019, och Snowflake, som utgör 0,3% av portföljen och är det enda bolaget Berkshire Hathaway har investerat i sedan dag ett.

Direktlänk Dela Yahoo Finance fördjupade 3 mars

Ny AI-modell Phind-70B förbättrar kodningsupplevelsen

Forskare har utvecklat Phind-70B, en AI-modell för att förbättra kodningsupplevelsen för utvecklare runt om i världen. Modellen är byggd på CodeLlama-70B-modellen och har förfinats med 50 miljarder extra tokens. Phind-70B kan generera komplexa kodsekvenser och förstå djupare sammanhang med hjälp av sitt 32K-token-kontextfönster. Modellen har visat imponerande resultat, med en prestanda på 82,3% i HumanEval-benchmark, jämfört med 81,1% för GPT-4 Turbo. Phind-70B har använt NVIDIA:s TensorRT-LLM-bibliotek på de nyaste H100-GPU:erna, vilket har lett till en betydande effektivitetsökning.

Direktlänk Dela MarkTechPost fördjupade 3 mars

Bosch och Microsoft samarbetar för att förbättra förarassistanssystem med generativ AI

Bosch och Microsoft har ingått ett avtal om att använda generativ AI, det vill säga AI som kan generera text, bilder eller ljudklipp, men också mycket precisa statistiska modeller, för inbyggda teknologier i bilar. Syftet med projektet är att skapa avancerade förarassistanssystem (ADAS) som kan förhindra farliga situationer mycket tidigare än idag, även innan föraren faktiskt befinner sig i en sådan situation. Både Bosch och Microsoft använder redan generativ AI i andra projekt, och Bosch samarbetar även med globala partners som AWS, Google och Aleph Alpha.

Direktlänk Dela Motor1 fördjupade 2 mars

Yellow.ai diskuterar produktivitetsförbättringar med AI och kundserviceautomation

I en intervju diskuterar Raghu Ravinutala, VD och medgrundare av Yellow.ai, företagets AI-drivna kundtjänstautomation. Sedan starten 2016 har Yellow.ai utvidgat sin närvaro till över 85 länder med mer än 1000 kunder. Företagets produktstrategi inkluderar en AI-centrerad kundsupportsvit som integrerar automatisering och agentarbetsflöden i ett enda system. Yellow.ai:s lösning liknar en IVR eller virtuell agent, men är helt konversationsbaserad och kan automatisera mellan 30% och 80% av interaktionerna beroende på användningsfall och kundtyp. Yellow.ai:s virtuella assistent är utbildad på tre sätt: genom att konfigurera arbetsflöden eller konversationer som agenten behöver för att interagera med kunderna, genom att använda företagets tidigare konversationer och genom att integrera den virtuella agenten med företagets kärnsystem.

Direktlänk Dela No Jitter fördjupade 28 februari

AI-investeringar kan tillföra över 1 292 miljarder kronor till svensk ekonomi

Rapporten ´Unlocking Ambitions´ visar att AI-investeringar kan tillföra över 1 292 miljarder kronor till den svenska ekonomin fram till 2030. Rapporten är baserad på EU-kommissionens Digital Decade-initiativ, som syftar till att stärka EU-ländernas digitala innovation och global konkurrenskraft. Målet är att 75% av företagen ska använda AI-teknologi inom sin verksamhet år 2030. Marielle Lindgren, managing director europe north på AWS, menar att Sverige står inför en unik möjlighet att dra nytta av AI. Rapporten visar också att svenska företag ligger långt framme i AI-användning jämfört med andra europeiska länder.

Direktlänk Dela Aktuell Säkerhet fördjupade 28 februari

AstraAI leder vägen för AI och blockchain med banbrytande verktyg och planer på att lansera AstraBank

AstraAI, en plattform för AI och blockchain, har visat sig vara en ledare inom området med lanseringen av en rad banbrytande AI-verktyg inom 100 dagar efter dess start. Dessa verktyg inkluderar en AI-assistent, AI-sökmotor, AI-videosammanfattare, AI-bildgenerering, AI-analys och AI-revisioner för tokens, adresser och dApps, vilket gör AstraAI till arkitekten för det största AI-ekosystemet inom blockchain-domänen och bortom. AstraAI har även tillkännagivit lanseringen av AstraBank senare i år, som är tänkt att vara en banbrytande fintech-bank som bygger broar mellan traditionella finansiella tjänster och blockchain-världen. AstraAI har uppnått en marknadsvärdering på över 35 miljoner dollar inom de första 100 dagarna.

Direktlänk Dela Business Insider fördjupade 26 februari

Kina utmanas av OpenAI:s nya AI-modell Sora

OpenAI:s nyligen lanserade text-till-video-modell Sora har utmanat Kinas position inom AI-teknik. Sora är inte open source och har för närvarande begränsad tillgång. Kina har uppmanat sina företag att omfamna AI-teknikens förändringar, men landet står inför utmaningar på grund av brist på tillgång till avancerade verktyg som grafikprocessorer utvecklade av Nvidia, på grund av ökade amerikanska exportrestriktioner. Kina har ingen motsvarande produkt till Sora, vilket har lett till självreflektion bland lokala forskare och investerare. Beijing-baserade Sinodata har sagt att det kommer att vara ett av de första företagen att ansöka om en Sora API-prenumeration när verktyget blir tillgängligt på Microsofts molnplattform Azure.

Direktlänk Dela South China Morning Post fördjupade 24 februari

Nuvepro Technologies samarbetar med Kamaraj College för AI- och ML-utbildning

Nuvepro Technologies, en molnplattform för kompetensutveckling, har ingått ett samarbete med Kamaraj College of Engineering & Technology (KCET) för att erbjuda studenter praktisk erfarenhet inom artificiell intelligens och maskininlärning. Genom detta Memorandum of Understanding (MoU), kommer Nuvepro också att tillhandahålla en ´AI/ML 5 i en låda´-lösning i samarbete med Intel och AWS. Utbildningsmodulerna har utformats för att förbereda studenterna för framtida karriärroller och göra dem redo för Gen AI. Nuvepro kommer också att erbjuda lärare och studenter utbildning och certifieringsprogram inom AI och ML på AWS-plattformen.

Direktlänk Dela India Education Diary fördjupade 22 februari

Franska Bioptimus samlar in 35 miljoner dollar för att bygga den första universella AI-modellen för biologi

Det Paris-baserade företaget Bioptimus, som har som uppdrag att bygga den första universella AI-grundmodellen för biologi, har kommit ut ur stealth-läge efter att ha samlat in 35 miljoner dollar i seedfinansiering. Den nya open science-modellen kommer att koppla samman de olika skalorna av biologi med generativ AI, från molekyler till celler, vävnader och hela organismer. Bioptimus förenar ett team av Google DeepMind-alumner och Owkin-forskare som kommer att dra nytta av AWS beräkningskapacitet och Owkins datakapacitet och tillgång till multimodal patientdata från ledande akademiska sjukhus över hela världen.

Direktlänk Dela VentureBeat fördjupade 20 februari

AI och prediktiv analys: Framtiden för datahantering

Prediktiv analys och AI är avgörande för att identifiera och kvantifiera framtida trender. Amazon har visat sitt engagemang för AI som ett verktyg för att öppna upp ny funktionalitet och effektivitet inom datahantering. Ett välutrustat dataförråd kan hjälpa till att skära igenom denna komplexitet genom att få tillgång till data från olika källor, antingen genom att ta in den eller använda den på plats. Amazon har redan lagt grunden för bättre AI-pipeline-integration i Redshift ML, vilket lanserades i maj 2021. Amazon har fokuserat på att använda AI för att förbättra prestanda och kostnadseffektivitet för datahanteringsfrågor. Amazon Q är ett generativt AI-arbetsassistent som är utformat för att hjälpa företagsanvändare i deras vardagliga uppgifter med hjälp av naturliga konversationsgränssnitt. Amazon Q har också gjort sin väg in i Amazons QuickSight-verktyg för affärsintelligens.

Direktlänk Dela Devclass.com fördjupade 20 februari

Tata Elxsi och AWS samarbetar i Gen AI Hackathon

Tata Elxsi, en global ledare inom design och tekniktjänster, nyligen avslutade sin första Gen AI-hackathon i samarbete med Amazon Web Services (AWS). Hackathonen fokuserade på att utforska potentialen hos generativ AI och lockade entusiastisk deltagande från olika discipliner, med 136 lag från hela landet. Tävlingen kulminerade i en intensiv final där åtta finalister presenterade sina projekt för en framstående panel av domare. De tre bästa projekten representerade olika tillämpningar av Gen AI-teknik.

Direktlänk Dela CXO Today fördjupade 16 februari

Google byter namn på sin AI-chatbot Bard till Gemini

Google planerar att byta namn på sin AI-chatbot Bard till Gemini. Detta är en del av företagets ansträngningar att skapa en tydligare portfölj för sina flaggskepps-AI-tjänster och funktioner. Det största modellen i Gemini-sortimentet, Ultra 1.0, var den första att överträffa mänskliga experter på massiv fleruppgiftsspråkförståelse (MMLU). Dessutom kommer Google att ändra vad som finns under huven på sina AI-produkter. När Bard lanserades 2023 använde AI-assistenten Googles LaMDA stora språkmodell. Denna senaste förändring kommer dock att se chatboten understödd av det kraftfullare Gemini-sortimentet. Duet AI kommer också att bli föremål för övergången.

Direktlänk Dela IT Pro fördjupade 13 februari

Multimodal generativ AI: Nya möjligheter för företag

Multimodal generativ AI, som hanterar flera datatyper som text, bilder och ljud, ger nya möjligheter för innehållsskapande, kundservice och forskning och utveckling. Flera AI-tjänster stöder nu minst text och bilder inom en enda modell. Detta kan hjälpa till med finansiella data, kundprofiler, butiksstatistik, geografisk information, söktrender och marknadsföringsinsikter. Dessa modeller kan automatiskt hitta samband mellan olika dataset som representerar enheter som kunder, utrustning och processer.

Direktlänk Dela TechTarget fördjupade 13 februari

Teknikmarknadsuppdatering: Cisco omstrukturerar, OpenAI når intäktsmilstolpe, NinjaOne kapitalrunda, Amazon Bedrock UI-uppdatering, Ransomware-betalningar ökar

Cisco planerar att omstrukturera sin verksamhet och säga upp tusentals anställda för att fokusera på områden med hög tillväxt. OpenAI nådde en årlig intäktslöpning på 2 miljarder dollar i december. NinjaOne har höjt 231 miljoner dollar i kapital, med investeringar från datafokuserade ledare från Snowflake och Datadog. Amazon Bedrock, AWS:s plattform för att bygga och skala gen-AI-applikationer, får en ny look och känsla med en uppdaterad användargränssnitt. Ransomware-betalningar passerade 1 miljard dollar för första gången 2023.

Direktlänk Dela ChannelE2E fördjupade 13 februari

Sonata Software integrerar Amazon Bedrock i sin AI-ramverk

Sonata Software, ledare inom Moderniseringsingenjörskonst, meddelade idag att de integrerar Amazon Bedrock och relaterade tjänster som en integrerad del av sin Harmoni.AI-ramverk, vilket för AI-användningen till affärernas framkant. Amazon Bedrock är en helt hanterad tjänst från Amazon Web Services (AWS) som gör Foundation Models (FMs) från ledande AI-företag tillgängliga via ett API för att bygga och skala generativa AI-applikationer. Detta markerar ett betydande steg framåt i Sonata Softwares engagemang för att leverera banbrytande lösningar inom AI, påskynda kundadoption och driva differentierade användningsfall för att ta företag in i en ny produktivitetsålder. Harmoni.AI, Sonata´s ansvarsfulla AI för företagsskala, är utformad för att säkerställa förtroende, integritet, säkerhet, efterlevnad och kompromisslös etik. Amazon Bedrocks sömlösa tillgång till FMs och anpassningsbara verktyg förstärker Sonata Softwares engagemang för ansvarsfulla AI-lösningar.

Direktlänk Dela SiliconIndia fördjupade 13 februari

Amazon lanserar ´AI Ready´-initiativ för att utbilda 2 miljoner människor i AI

Amazon har påbörjat en ambitiös resa för att demokratisera AI-utbildning genom sitt ´AI Ready´-initiativ, med målet att erbjuda gratis AI-färdighetsträning till 2 miljoner människor fram till 2025. Detta ambitiösa mål ställs mot bakgrunden av en växande efterfrågan på AI-talang, med studier som visar att arbetstagare som är skickliga i AI kan begära upp till 47% högre löner. ´AI Ready´-programmet omfattar flera nyckelkomponenter utformade för att tillgodose både nuvarande arbetskraft och nästa generation av AI-professionella. Dessa inkluderar åtta nya, kostnadsfria AI- och generativa AI-kurser som är öppna för alla som är intresserade av att följa en karriär inom detta omvälvande område. För att ytterligare stödja tillgängligheten av AI-utbildning erbjuder AWS ´AWS Generative AI Scholarship´, som ger över 12 miljoner dollar i stipendier till över 50 000 gymnasie- och universitetsstudenter globalt. Amazon och Code.org har också samarbetat för att introducera studenter till kodning och AI genom ´Hour of Code´, ett initiativ som kombinerar kreativitet med lärande genom att låta studenter skapa egna danskorografier med generativ AI.

Direktlänk Dela YourStory Media fördjupade 12 februari

Instacarts nya arkitektur förbättrar kundnöjdhet genom att förutsäga varutillgänglighet

Instacart har kombinerat maskininlärning med händelsebaserad bearbetning för att skapa en arkitektur som ger kunderna en indikation på varutillgänglighet i nästan realtid. Detta har förbättrat användarnöjdhet och kvarhållning genom att minska orderavbokningar på grund av varor som är slut i lager. Instacart har skapat ett nytt ramverk för att hjälpa till att förbättra modellkvaliteten. Denna funktionalitet har blivit ännu viktigare för företagets framgång på grund av COVID-pandemin och problem med leveranskedjan. Instacart har också gjort om sin ML tillgänglighetsscoringmodell för att förbättra tolkbarheten och anpassa sig till förändrade kundvanor.

Direktlänk Dela InfoQ fördjupade 8 februari

Amazons VD varnar för överdriven hype kring generativ AI

Adam Selipsky, VD för Amazon´s dominerande molnplattform AWS, varnar för överdriven hype kring generativ AI. Han jämför det med dotcom-bubblans tidiga dagar, då förväntningarna spred sig att internet skulle förändra många branscher nästan över en natt. Selipsky säger att företag som söker sätt att tillämpa generativ AI på sin egen verksamhet eller bransch behöver vara försiktiga så att de inte vilseleds av hypen. Han påpekar att generativ AI kan vara dyrt att införa på grund av det stora antalet högpresterande datorchips som krävs för generativa AI-projekt. Trots problemen han ser, säger han att Amazon ser en långsiktig teknologisk förändring på gång.

Direktlänk Dela Wired fördjupade 8 februari

Runway använder AI för att skapa filmdekorationer

Runway, ett företag baserat i New York, har utvecklat AI-verktyg som hjälper till att skapa scenografi för filmer. Verktygen, som stöds av AWS, användes i filmen ´Everything Everywhere All at Once´, som vann Oscar förra året. Runway, grundat av Cristóbal Valenzuela och två andra vid New York University, fortsätter att utveckla AI-verktyg för att demokratisera den kreativa processen. Företaget har utvecklat över 30 AI Magic Tools för produktion av video, bilder, tredimensionellt och textinnehåll. Runway och AWS samarbetar för att göra dessa verktyg tillgängliga för miljontals användare.

Direktlänk Dela 01Net fördjupade 5 februari

Loona, en robotiskt husdjur med ChatGPT, nu tillgänglig för kunder

Loona, en robotiskt husdjur med ChatGPT ombord, började skickas till kunder 2023. Loona kan interagera med användare med hjälp av ChatGPT, känna igen känslor, reagera på kommandon och uttrycka känslor på en 2,4-tums skärm. Den kan även känna igen gester och miljöer tack vare kameror och sensorer. Loona stöder nu nio språk, inklusive engelska, kinesiska, japanska, tyska, franska, spanska, italienska och koreanska. Loona kan också lära ämnen som biologi, geografi och olika språk med hjälp av ChatGPT.

Direktlänk Dela Root Nation fördjupade 5 februari

AI-teknikens framtid och dess inverkan på arbetsplatserna i Sydafrika

CloudZA, en molnsystemintegratör och lösningarleverantör, använder dagligen artificiell intelligens (AI) för att erbjuda effektiva lösningar, automatisering och personligt innehåll till sina kunder. Företaget ser stora möjligheter för AI-teknik att omforma arbetsplatser i Sydafrika, särskilt genom generativ AI (gen AI) och artificiell generell intelligens (AGI). Gen AI fokuserar på att skapa unikt, anpassat innehåll som text, bilder och media, medan AGI-system kan utföra farligt manuellt arbete eller dataintensiva analyser. Trots potentialen för AI-teknik att öka produktiviteten och skapa arbetstillfällen, hindras den bredare innovationen av underutvecklad anslutning och begränsad dataåtkomst, särskilt i informella områden eller utanför större CBD:er.

Direktlänk Dela TechCentral fördjupade 1 februari

Microsoft och Google ser ökad tillväxt i molnintäkter tack vare AI

Microsoft och Google rapporterar en förnyad ökning av tillväxttakt för sina molnintäkter, tack vare spridningen av generativ AI. Google Cloud utgör nu 10 procent av Alphabets intäkter, med molnintäkter på 9,19 miljarder dollar för kvartalet, en ökning med 28 procent från ett år tidigare. Microsoft Cloud passerade 33 miljarder dollar i intäkter, en ökning med 24 procent, med 53 000 Azure AI-kunder. Analytiker tror att den ökade användningen av generativ AI kommer att innebära ännu mer molnanvändning eftersom företagen strävar efter skalbarhet och flexibilitet.

Direktlänk Dela Computer Sweden fördjupade 1 februari

Microsoft och Google rapporterar starka företagsintäkter tack vare AI

Microsoft och Google rapporterade starka företagsintäkter på tisdagen, då de sade att efterfrågan på AI-tjänster ökade intäkterna. De har satsat stort på generativ AI, med sina molndatordivisioner som ser en ökning i efterfrågan när kunder söker den tunga och dyrare datorkraft som driver tekniken. Microsoft har rört sig snabbast och längst in i AI-utrymmet, investerat i ChatGPT-tillverkaren OpenAI och drivit AI över produkter medan andra valde att röra sig mer försiktigt. Försäljningen sköt i höjden till 62 miljarder dollar för oktober till december, upp 18 procent jämfört med föregående år och över de 61,1 miljarder dollar som analytiker förutspådde. AI-revolutionen har hjälpt till att driva Microsoft förbi Apple som världens största företag efter marknadsvärde på mer än tre biljoner dollar. Aktiekursen har ökat med hela 70 procent från ett år sedan. ´Vi har gått från att prata om AI till att tillämpa AI i stor skala´, sade Satya Nadella, styrelseordförande och VD för Microsoft. Intäkterna för Microsofts Azure molntjänster ökade med 30 procent under perioden, drivet av de större databehov som kommer med adoptionen av AI. Totalt sett ökade Microsofts molntjänstförsäljning med 24 procent, sade företaget. ´Genom att införa AI över varje lager av vår teknikstack vinner vi nya kunder och hjälper till att driva nya fördelar och produktivitetsvinster över varje sektor´, sade Nadella. Google krediterade också AI för att ha ökat sin vinst under samma kvartal. Alphabet rapporterade en vinst på 20,7 miljarder dollar på en omsättning på 86,3 miljarder dollar, med starka bidrag från video-delningsplattformen YouTube och dess molndatordivision. Även om det fortfarande främst drivs av annonser, nådde den totala årsomsättningen på Google 307,4 miljarder dollar, upp 8,7 procent från de föregående 12 månaderna. Annonser drog in totalt 65,5 miljarder dollar under kvartalet, jämfört med 59 miljarder dollar under samma period föregående år. Även om det var bättre än förra året, var det lägre än vissa marknadsförväntningar och Googles aktiekurs var kraftigt lägre i efterhandeln på Wall Street. Men försäljningen i Googles molndatordivision klättrade med 26 procent, vilket stöder företagets argument att det också är en stor AI-leverantör. Google ligger efter Microsoft och Amazons AWS, som är världens största leverantörer av molndatortjänster. Sökmotorjätten har i flera år diskret utvecklat AI-krafter men blev tagen på sängen när OpenAI i slutet av 2022 släppte ChatGPT och gick samman med Microsoft för att göra dess kapaciteter tillgängliga för användare över hela världen. Alphabets VD Sundar Pichai berättade för ett analytikersamtal att hans företags nyligen utvecklade Gemini AI-modell skulle leverera nya kapaciteter över alla produkter för företaget. I linje med Microsofts drag med sina kontorsverktyg har Google redan infört sin Google-sökmotor samt GMail och andra verktyg med AI:s krafter.

Direktlänk Dela Gulf News fördjupade 31 januari

Indiska offshore-aktörer anpassar sig till AI och LLM

Indiska offshore-aktörer har anpassat sig till LLM, AI och olika sorters genAI under de senaste intensiva kvartalen. Företagen har utvecklat egna AI-erbjudanden och LLM-modeller, och samarbetat med stora teknikföretag som Salesforce och AWS. Infosys, TCS, Tech Mahindra, HCL och Wipro har varit snabba att anamma dessa teknologier. Wipro har varit mest transparent om sin utveckling och har skapat en AI-grundkurs för sina anställda. Accenture och Wipro har redan börjat ta in stora affärer inom genAI och AI.

Direktlänk Dela Media Key Strategic Evaluation fördjupade 30 januari

FTC kräver information om AI-investeringar från stora teknikföretag

Federal Trade Commission (FTC) har utfärdat order till fem av de största namnen inom moln- och artificiell intelligens (AI), vilka kräver att de avslöjar detaljerad information om nyligen investeringar och partnerskap. Molntjänstleverantörerna Amazon, Microsoft och Alphabet - Googles moderbolag - samt de generativa AI-företagen Anthropic och OpenAI fick underrättelse från regulatorn den 25 januari. FTC söker information om specifika investeringar, men också den strategiska motiveringen bakom sådana investeringar och de praktiska konsekvenserna de har för beslut om nya produktsläpp eller styrelsesamtal.

Direktlänk Dela IT Pro fördjupade 29 januari

AI:s roll i varumärkes- och reklamindustrin

Sudharsan Rangarajan, Group Vice President, Head of Data and AI på Publicis Sapient, diskuterar hur AI kan integreras i varumärkes- och reklamindustrin. Han menar att AI kan påverka även de mest kreativa delarna av processen och snabba upp hela processen tio gånger. Rangarajan pekar på att AI kan användas för att skapa personlig service inom rese-, gästfrihets- och finanstjänster, men varnar för att det är viktigt att balansera personalisering med integritet. Han förutser att AI kommer att bli en del av varumärkespersonligheten och att tekniken kommer att bli alltmer mainstream.

Direktlänk Dela Dataquest India fördjupade 28 januari

AI Utah erkänner AI-talang och innovation i Utah

AI Utah fungerar som en central plattform för att förbättra anslutningen mellan Utahs AI-ledare. Målet är att vara en katalysator för banbrytande AI-innovationer och skapa en miljö som främjar insiktsdelning och framsteg. Detta är det första året som AI-talang i Utah erkänns, vilket lägger grunden för framtida erkännande. AI Utah 100, drivs av Codebase och sponsras av DOMO, Maschoff Brennan, Phi och Weave, i partnerskap med Women Tech Council, Goal, Forge Utah, Mercato, Method, TechBuzz och Silicon Slopes.

Direktlänk Dela Utah Business fördjupade 26 januari

Federal Trade Commission granskar fem stora AI-skapare

Federal Trade Commission (FTC) har inlett utredningar av fem ledande skapare av generativ AI-teknologi: Amazon, Microsoft, OpenAI, Anthropic och Alphabet. FTC har skickat 6(b)-order till företagen, vilket kräver att de tillhandahåller information om nyligen genomförda miljardinvesteringar och partnerskap. Syftet är att FTC bättre ska kunna förstå hur dessa relationer och handlingar påverkar konkurrenslandskapet. Företagen har 45 dagar på sig att svara. FTC:s ordförande, Lina M. Khan, understryker vikten av att skydda mot taktiker som kan hindra möjligheter inom AI-utveckling.

Direktlänk Dela VentureBeat fördjupade 25 januari

Nya datorparadigm och marknader ökar efterfrågan på kodare trots AI-automation

Enligt en artikel som undersöker efterfrågan på kodare, kommer nya datorparadigm och marknader inte bara att stoppa minskningen av kodarjobb, utan också öka antalet kodare. Nya datorparadigm som webb, mobil, sociala medier, moln och blockchain har skapat en ny efterfrågan på kodare. Dessutom har framväxten av mjukvaruproduktföretag, SAAS-företag och digital transformation skapat nya marknader för kodningsjobb. Trots att Generative AI (Gen AI) kan automatisera kodning till viss del, kommer det fortfarande att finnas en efterfrågan på kodare för att träna AI på industri- och företagsspecifika data.

Direktlänk Dela Finextra Research fördjupade 25 januari

Microsoft bildar team för att utveckla mindre, kostnadseffektiva AI-modeller

Microsoft har bildat ett team för att utveckla mindre AI-modeller, med målet att göra AI billigare att köra än idag. Samtidigt kan företaget bli mycket mindre beroende av OpenAI. Det nya teamet kommer att ledas av Misha Bilenko, CVP Azure AI Cognitive Services på Microsoft, och gruppen skulle falla under Azure-divisionen. De tänkta små språkmodellerna (SLM) bör kräva mycket mindre beräkningskraft att köra än OpenAIs erbjudanden. Genom att bygga lättare modeller kan kostnaderna minskas avsevärt och mindre påträngande hårdvara kan användas.

Direktlänk Dela Techzine fördjupade 24 januari

Generation Z värdesätter personaliserade erbjudanden mer än rabatter

Generation Z-konsumenter värderar rabatter mindre och är mer intresserade av att få personaliserade erbjudanden utan monetära incitament, trots att de har färre ekonomiska resurser än andra konsumentsegment. Detta är åldersgruppen med högst andel konsumenter som når sin kreditkortgräns vid månadens slut (47%) och den näst högsta andelen individer som lever från lön till lön (66%). Enligt en undersökning av över 2 500 amerikanska konsumenter är nästan 85% av Generation Z-konsumenter intresserade av att få personaliserade erbjudanden från handlare. Denna typ av erbjudande är relevant för varumärken och handlare som siktar på att rikta potentiella kunder med de mest personaliserade erbjudandena möjliga.

Direktlänk Dela PYMNTS fördjupade 24 januari

AI framgång beror på rätt strategi och implementering

Framgången för artificiell intelligens (AI) beror på rätt strategi och implementering för att driva verkligt affärsvärde. Genom att följa denna steg-för-steg guide från AWS kan du följa den beprövade vägen för att uppnå resultat och lära av AWS AI-experter, samt framgångshistorier från branschledare. Ladda ner nu för att lära dig hur du maximerar resultaten av dina AI-initiativ. Tillhandahålls av AWS.

Direktlänk Dela IT Pro fördjupade 24 januari

Qdrant säkrar 28 miljoner dollar i serie A-finansiering för att expandera sin öppna källkods vektordatabas

Qdrant, en ledande högpresterande öppen källkods vektordatabas, har framgångsrikt avslutat sin serie A-finansieringsrunda, säkrat en investering på 28 miljoner dollar ledd av Spark Capital, med deltagande från befintliga investerare Unusual Ventures och 42CAP. Qdrant är oumbärlig i moderna AI- och maskininlärningsapplikationer över branscher och har överträffat 5 miljoner nedladdningar. Företaget har nyligen utökat sitt molnerbjudande genom samarbeten med AWS, Google Cloud och Microsoft Azure och erbjuder nu även on-premise och hybrid SaaS-lösningar.

Direktlänk Dela Yahoo Finance fördjupade 23 januari

År 2023 dominerades den generativa AI-marknaden av fyra spelare: OpenAI (39%), Microsoft (30%), AWS (8%) och Google (7%), medan IBM och andra större aktörer stod för de resterande 16%. Detta markerar en ny era där dessa företag behöver anpassa sina strategier. Dessutom är vi nu i en tid då AI kan skapa patent, vilket innebär att alla framsteg inom AI och teknik görs med någon form av generativ AI-verktyg. Detta innebär nya utmaningar när det gäller att skapa patent, inklusive internationella överväganden, äganderätt och uppfinnarskap, krav på avslöjande, datarättigheter och sekretess, internationell harmonisering och fördrag, verkställighetsutmaningar samt etiska och sociala överväganden.

Medium fördjupade 22 januari

Granskning av teknikprognoser för 2023 och OpenAI:s superalignment

Programmet ´Breaking Analysis´, ledd av Dave Vellante, har granskat teknikprognoser för 2023 och OpenAI:s superalignment. Programmet analyserade förutsägelser om IT-utgifter, kostnadsoptimering, säkerhet, AI, moln, blockchain, data-plattformar, automation och teknikevenemang. OpenAI:s superalignment, där mindre kraftfulla AI-modeller övervakar kraftfullare, granskades också, vilket väckte frågor om OpenAI:s affärsmodell och dess partnerskap med Microsoft. Dessutom diskuterades behovet av en ny data-plattform för att stödja intelligenta applikationer i realtid för exabyte-skala arbetsbelastningar.

Direktlänk Dela BNN Breaking News fördjupade 20 januari

World Economic Forum (WEF) i Davos, Schweiz, präglades av diskussioner kring artificiell intelligens (AI). Teknikföretag som AWS, C3.ai, Infosys, IBM, Builder.ai, Cisco, Qualcomm och Salesforce dominerade evenemanget. Samtalen kring AI handlade bland annat om automatisering av uppgifter, omskolning av arbetskraft och mänsklig förstärkning. BlackRock COO, Rob Goldstein, avslöjade att företaget introducerar AI-copiloter till sin personal. Microsoft sparade 100 miljoner dollar i sin kundtjänst genom att implementera AI, medan Automation Anywhere minskade kundtjänstkostnaderna med 40%.

Business Insider fördjupade 20 januari

OpenAI:s VD Sam Altman försöker samla in miljarder för att utveckla globalt nätverk av chipfabriker

En ny rapport från Bloomberg hävdar att OpenAI:s VD Sam Altman samlar in miljarder för att utveckla ett globalt nätverk av chipfabriker. Dessa fabriker skulle arbeta tillsammans med toppchiptillverkare för att hantera beräkningarna bakom AI-modeller som ChatGPT och DALL-E. Nvidia, vars värde översteg 1 biljon dollar förra året, har nästan monopol på denna marknad. SoftBank Group och AI-företaget G42 från Abu Dhabi har rapporterats vara i samtal om att sätta in pengar i Altmans projekt.

Direktlänk Dela The Verge fördjupade 19 januari

Amazon lanserar AI-drivet bildgenereringsverktyg på Fire TV och nytt AI-verktyg för kundfrågor

Amazon har officiellt lanserat möjligheten att generera AI-drivna bilder på Fire TV-enheter. Funktionen drivs av Amazons Titan Image Generator, en teknik som presenterades under AWS re:Invent 2023-konferensen i november. Användare kan aktivera det genom att prata med Alexa via TV-fjärrkontrollen, vilket möjliggör skapandet av bilder med röstkommandon. Amazon har också avtäckt ett nytt AI-verktyg designat för att svara på köpars frågor om en produkt. Detta nya verktyg är integrerat i Amazons mobilapp och uppmuntrar användare att ställa frågor om en specifik vara, varpå funktionen snabbt ger svar inom sekunder.

Direktlänk Dela Good e-Reader fördjupade 18 januari

Microsofts VD försvarar företagets relation med OpenAI

Microsofts VD, Satya Nadella, försvarar företagets nära förhållande till OpenAI trots ökad granskning från regulatorer. Nadella kallar alliansen mellan teknikjättarna för ett ´pro-konkurrens partnerskap´ som har möjliggjort viktiga resultat för kunderna. Microsofts ursprungliga investering i OpenAI 2019 var en ´hög risk satsning´, men har visat sig vara fördelaktig för marknaden. Microsoft står inför hård konkurrens inom generativ AI från andra teknikjättar, som AWS och Google. OpenAI verkar dock vara nyckeln för Microsoft, antyder Nadella. Relationen mellan Microsoft och OpenAI har nyligen utsatts för intensiv regulatorisk granskning, med undersökningar från UK, USA och EU. Trots detta verkar Nadella vara säker på företagets ställning i frågan.

Direktlänk Dela IT Pro fördjupade 18 januari

Capgemini och AWS inleder strategiskt samarbete för att främja generativ AI

IT-tjänsteleverantören Capgemini har ingått ett flerårigt strategiskt samarbetsavtal med AWS för att öka antagandet av generativa AI-lösningar och teknologier i organisationer av olika storlekar. Samarbetet syftar till att hjälpa kunder att förstå affärsvärdet av att införliva generativ AI samtidigt som man övervinner utmaningar som kostnad, skala och förtroende. Capgemini planerar att utöka sitt befintliga nätverk av AWS CoEs och utbilda 30 000 anställda inom AWS:s avancerade teknologier under de närmaste tre åren.

Direktlänk Dela TechCircle fördjupade 17 januari

Distribution av Tiny-Llama på AWS EC2

En artikel diskuterar vikten av att kunna distribuera maskininlärningsmodeller och fokuserar på distribution av en liten stor språkmodell, Tiny-Llama, på en AWS EC2-instans. TinyLlama-1.1B är ett projekt som syftar till att förträna en 1.1B Llama på 3 biljoner tokens. Verktyg som används för detta projekt inkluderar Deepnote, en molnbaserad anteckningsbok för samarbetsdata; FastAPI, ett webbramverk för att bygga API:er med Python; AWS EC2, en webbtjänst som erbjuder betydande beräkningskapacitet i molnet; Nginx, en HTTP och omvänd proxyserver; GitHub, en värdtjänst för mjukvaruprojekt; och HuggingFace, en plattform för att vara värd och samarbeta på obegränsade modeller, dataset och applikationer.

Direktlänk Dela Towards Data Science fördjupade 12 januari

Jämförelse av prestanda mellan OpenAI GPT-4 och Google Clouds maskininlärnings-API:er

OpenAIs API:er, särskilt det stora språkmodellen GPT-4 och dess chattbot ChatGPT, har blivit populära under det senaste året. Trots tillgängligheten av marknadsförings-API:er från etablerade leverantörer som Google Cloud, Microsoft Azure och AWS, föredrar många sökmarknadsförare generativa AI-modeller för sina SEO-relaterade uppgifter. Denna artikel jämför prestandan för GPT-4 och Google Clouds maskininlärnings-API:er på vanliga SEO-uppgifter där automatisering kan implementeras, inklusive semantisk analys, klassificering, översättning och bildförståelse.

Direktlänk Dela Search Engine Land fördjupade 11 januari

Molnbaserade videotjänster förbättras av AI/ML-integration

Molnbaserade videotjänster har etablerat sig på marknaden för sändning och strömmande video, tack vare deras förmåga att erbjuda billigare och mer flexibel videolagring jämfört med lokala system. Deras konkurrensfördel förstärks nu av integrationen av artificiell intelligens/maskininlärning (AI/ML) i molnbaserade arkiveringssystem, vilket gör dessa system mer tillgängliga för användare än någonsin tidigare. AI/ML hjälper dessa plattformar att göra allt de gör bättre, enligt Sam Peterson, COO för Bitcentral. Jonathan Morgan, Senior Vice President för produkt och teknologi på Perifery, en division av DataCore Software, håller med om att metadata AI och generativ AI har blivit mycket populära. Molnbaserad lagring har blivit allt mer populärt bland TV-sändare och strömmare de senaste åren, även utan fördelarna som erbjuds av AI/ML. Detta beror på kostnaden: Det är mycket billigare att lagra innehåll på tredjeparts webbanslutna servrar på en avgifts-for-service-basis, vilket är vad molnet faktiskt är, än att investera i lokala servergårdar och IT-personal för att underhålla dem. Dessutom finns det datasäkerhet: Amazon S3 Glacier lagringsklasser förenklar arkivhanteringen, enligt Josh Mello, AWS Senior Worldwide Storage Specialist. Dessutom erbjuder molnlagringsleverantörer som Newsbridge nivåindelade servicenivåer för sina kunder, med omedelbar återhämtning av molnlagring som erbjuder snabbare och dyrare tillgång till kundinnehåll än ´kall´ eller ´djup arkiv´. Detta val av alternativ görs tillgängligt för ´kostnadsoptimering´, enligt James Fraser, vice VD för USA:s försäljning för företaget, och är populärt bland Newsbridges sändnings- och strömningsklienter. En annan betydande funktion är förmågan att lagra innehåll off-site, vilket ger ett skydd mot fel på platsen för hårdvarufel eller oväntade incidenter, enligt Bitcentrals Peterson. Dessutom öppnar AWS molnbaserade arkivering upp för mer interaktiv tittarengagemang, nya intäktsströmmar genom möjligheter som FAST-kanaler, plus ´ytterligare monetiseringsinsatser som utnyttjar den stora mängden innehåll som finns tillgängligt i kundarkiv´, sade Mello. Trots detta är molnet inte en ´en-storlek-passar-alla´ lösning, medgav Peterson. ´Därför är vissa av våra kunder helt molnbaserade. Men för andra kunder är det mer affärsmässigt att använda en hybridansats som helt enkelt lägger till funktionerna i deras befintliga fysiska lagring.´ Dessutom kan vissa av fördelarna med molnbaserad arkivering visa sig vara nackdelar under vissa omständigheter. Till exempel, när en sändare/strömmare bestämmer sig för att använda ett stort antal AI/ML-appar för att hantera deras molnlagrade media, kan det finnas ´stora associerade beräknings- och tillgångskostnader relaterade till att köra dessa appar.´ sa Morgan. ´Alternativt kan de AI/ML-appar som krävs vara tillgängliga på plats och är sannolikt betydligt billigare och snabbare att köra där.´ I samma ådra kan lagring på plats visa sig vara ett mer ekonomiskt alternativ än molnbaserad lagring i vissa fall. ´Till exempel, om ett mediaarkiv kan lagras i en ´kall´ offentlig tier och sällan används, då kan offentligt moln vara ett kostnadseffektivt sätt att gå´, sa Morgan. ´Men om mediaarkivet aktivt används, kan offentliga molnkostnader snabbt montera.´ Med detta sagt, säkerställer de många fördelarna som erbjuds av molnbaserad arkivering dess livskraft på marknaden. Det är därför ´sändnings- och strömningsindustrierna nu är långt bortom punkten där molnet behandlas enbart som ett synonymt ord för lagring´, avslutade Peterson.

Direktlänk Dela TV Technology fördjupade 10 januari

Cybersäkerhetsutmaningar, tysta nedskärningar i teknikföretag och AI:s framtid

2024 förväntas innebära ökade utmaningar inom cybersäkerhet, inklusive en fortsatt brist på cybersäkerhetsarbetare. OpenAI stäms återigen för upphovsrättsintrång. Cybersäkerhetsexperter varnar för hackares utvecklande taktiker. AI-drivna attacker, deepfakes och desinformation, krypto- och blockchain-sårbarheter samt försörjningskedjekompromisser är alla framväxande hot. Trots dessa utmaningar fortsätter bristen på cybersäkerhetsarbetare. En rapport från CyberSeek visar att USA bara har tillräckligt med arbetare för att fylla 72 procent av de tillgängliga jobben inom cybersäkerhet. En artikel i TechPro hävdar att Amazon subtilt uppmuntrar anställda att sluta. Enligt en undersökning av edX förväntas nästan hälften av de nuvarande arbetskraftsfärdigheterna bli föråldrade inom bara två år, huvudsakligen på grund av framsteg inom AI. Författarna Nicholas Basbanes och Nicholas Gage har lämnat in en grupptalan mot Microsoft och OpenAI, där de anklagar för upphovsrättsintrång.

Direktlänk Dela IT World Canada fördjupade 8 januari

Intel och Digital Bridge Group skapar AI-företaget Articul8 AI

Intel och investeringspartnern Digital Bridge Group har offentliggjort skapandet av Articul8 AI, ett oberoende företag som redan erbjuder säker GenAI-programvara till företag. Articul8 AI förväntas inte bli börsnoterat och inkluderar ledare från Intel. Arun Subramaniyan, tidigare general manager för Intels Data Center och AI Group, har utsetts till VD för Articul8. Programvaruplattformen kommer att fungera med moln eller på plats eller på ett hybrid sätt. Boston Consulting Group har redan använt programvaran med sina företagskunder inom olika branscher som kräver hög säkerhet. Articul8 har redan namngivit befintliga och framtida kunder på sin webbplats, inklusive Uptycs, Scripps och Invest India.

Direktlänk Dela Fierce Electronics fördjupade 4 januari

MLOps 2024 Roadmap: Från noll till proffs

Den snabbt föränderliga landskapet av artificiell intelligens och maskininlärning har gjort det mycket viktigt att operationalisera maskininlärningsmodeller. Maskininlärningsoperationer, eller MLOps, har utvecklats till ett viktigt område som bygger broar mellan data science och IT-drift. MLOps, en sammanslagning av ´maskininlärning´ och ´drift´, syftar till att effektivisera utvecklingen, distributionen och underhållet av maskininlärningsmodeller i produktionsmiljöer. Det är inspirerat av DevOps, med fokus på samarbete, automation och ständig förbättring genom hela maskininlärningslivscykeln.

Direktlänk Dela Medium fördjupade 3 januari

AI och ML: En guide till utbildningsmöjligheter och industritrender

Artificiell intelligens (AI) och maskininlärning (ML) har blivit omvandlande teknologier i den digitala åldern, vilket påverkar branscher från hälso- och sjukvård till finans. Efterfrågan på kunniga yrkesverksamma inom dessa områden har skjutit i höjden, vilket har lett till en ökning av utbildningsmöjligheterna. Guiden tar upp olika utbildningsformat, från traditionella universitetsgrader till onlinecertifikat och bootcamps. Den täcker också aktuella trender inom AI- och ML-utbildning, inklusive ökad betoning på specialisering, integration av etik och ansvarsfull AI, uppgången av projektbaserat lärande och samarbete med industrin.

Direktlänk Dela Okay Bliss fördjupade 3 januari

AI förvandlar hälso- och livsvetenskapen: en lista över användningsfall

Artificiell intelligens (AI) kommer att revolutionera sjukvården och livsvetenskapen, vilket gör den smartare, snabbare och mer personlig. Denna artikel presenterar flera användningsfall där AI kan förvandla hälso- och livsvetenskapsindustrin. Detta inkluderar precisionsmedicin, patienttriage, prognos, skydd av patientintegritet, kategorisering och befolkning av medicinsk information, kliniskt beslutsstöd, förbättrad patientengagemang, minskning av medicinska fel, terapiplanering, resursoptimering, automatiserad dokumentbehandling, tal till text, sammanfattning av data och information återvinning.

Direktlänk Dela Medium fördjupade 28 december

Nvidia säkrar tillgången på HBM3-minne för framtida AI- och HPC-applikationer

Nvidia har förköpt över $1,3 miljarder av HBM3-minne från Micron och SK Hynix för att säkerställa en stabil försörjning av minne till sina kommande AI- och HPC-GPU-lanseringar 2024. Nvidia accelererar två produkter med HBM3E-minne: H200 AI och HPC GPU med 141GB HBM3E-minne, samt GH200-plattformen med en Grace CPU och en H200 GPU utrustad med 141GB HBM3E-minne. Dessa enheter kommer att kräva en enorm mängd minne, så förköp är logiskt för Nvidia. Det återstår att se om Micron, SK Hynix och Samsung kommer att ha tillräcklig kapacitet för att tillhandahålla HBM3 och HBM3E-minne till andra utvecklare av AI- och HPC-lösningar, som AMD, AWS och Intel.

Direktlänk Dela Tom´s Hardware fördjupade 28 december

Boomitra, en start-up, revolutionerar hur vi spårar CO2 under jordens yta

Kol-krediter är för närvarande föremål för intensiv debatt, särskilt efter kollapsen av ett av världens största offset-experiment, Zimbabwe Kariba-projektet, i oktober. Detta har lett till en hög efterfrågan på pålitliga krediter, men kostnaderna för att kvalificera sig för att sälja dem kan vara höga, vilket hindrar många småbönder från att delta. Boomitra, en start-up inom jordbruksteknik, omprövar nu hur vi spårar CO2 under jordens yta. Företaget integrerar en arkiv av över en miljon jordprover och bilder från över 100 multispektrala satelliter för att noggrant modellera 5 miljoner tunnland globala grödor och jordbruksmark. Dessutom kan bönderna använda Boomitras app för att spåra kritiska jordmarkörer som fukt och näringsämnen.

Direktlänk Dela Freethink fördjupade 28 december

Ökning av indiska studenter anmälda till GenAI-kurser, rapporterar Coursera

Indier registrerade sig för GenAI-innehåll var tredje minut under 2023, enligt en rapport från online-lärplattformen Coursera. Intresset för GenAI-innehåll ökade bland de 2,22 crore indiska användarna av plattformen, med sökningar som fyrdubblades jämfört med föregående år. ´Generative AI for Everyone´-kursen av AI-pionjären Andrew Ng blev den snabbast växande kursen detta år inom bara 6 veckor efter lanseringen. Kursen har det näst högsta antalet indiska studenter. Andra populära kurser erbjudna av plattformen inkluderar kurser av Google Cloud, AWS och Vanderbilt University. Enligt data från Statista kommer storskalig användning av generativ AI att nästan fördubblas från 23 procent 2022 till 46 procent 2025.

Direktlänk Dela Republic World fördjupade 26 december

Amazon´s molnchef diskuterar företagets AI-strategi och ekonomiska utmaningar

Adam Selipsky, VD för Amazon´s molnberäkningsenhet AWS, har lett företagets AI-erbjudanden i konkurrensen mot Microsoft och andra. Trots att AWS är en ledare inom molnmarknaden har viss tillväxt sakta ner, vilket tillskrivs kunder som minskar sina utgifter på grund av ekonomiska utmaningar. Samtidigt har AWS varit i framkant för Amazons satsning på generativ AI. Selipsky avslöjade företagets AI-assistent för företag, kallad Q, vid en konferens i Las Vegas. Han diskuterade även Amazons investeringar i AI-startupen Anthropic och framtiden för generativ AI.

Direktlänk Dela Denison Bulletin & Review fördjupade 25 december

Google diskuterar framtiden för AI och betonar vikten av datahantering

Alphabet´s Google har spelat en betydande roll inom AI, trots att företaget initialt hamnade på efterkälken när populariteten för OpenAI´s ChatGPT ökade. Google Cloud, som omsatte över 26 miljarder dollar 2022, är en viktig aktör i företags-AI-racet tillsammans med Amazon´s AWS och Microsoft´s Azure. Brian Goldstein, global GM för AI på Google Cloud, har sett stora förändringar under det senaste året. Goldstein diskuterar framtiden för AI inom företag, och betonar vikten av att företag får ordning på sin data. Google har nyligen släppt en ny AI-modell, Gemini.

Direktlänk Dela Yahoo Finance fördjupade 22 december

AI förändrar arbetsmarknaden och skapar nya möjligheter

Artificiell intelligens (AI) förändrar arbetsmarknaden på djupgående sätt och skapar nya roller inom alla sektorer. AI kan automatisera rutinuppgifter och förändra lönsamheten för vissa yrken, men kan inte ersätta komplexa mänskliga färdigheter. För att dra nytta av AI behöver företag och individer investera i kontinuerlig inlärning och utveckling av färdigheter. Amazon har till exempel lanserat ett program för att lära sina anställda färdigheter som krävs på en mer automatiserad arbetsplats. Utbildningsinstitutioner behöver också anpassa sina läroplaner för att inkludera AI och datanalys.

Direktlänk Dela Big Think fördjupade 22 december

AI-agenter kan förändra nyhetskonsumtion och publicering 2024

I en nära framtid kommer varje innehållskonsument, skapare och nyhetsrum att ha en AI-agent som arbetar för dem. Detta kommer att förändra hur vi hittar och interagerar med information, och därmed hur vi publicerar och tjänar pengar på den. AI-agenter fungerar som mellanhänder mellan konsumenter och innehållsskapare, vilket gör dessa företag till informationsportvakter. Det är möjligt att generativ AI störtar nuvarande portvakter och blir den nya. Men det finns en smal väg för en omstart, där vi jämnar ut spelplanen. I denna framtid har varje individ och varje nyhetsrum en AI-agent som endast tjänar dem.

Direktlänk Dela Nieman Journalism Lab fördjupade 20 december

Framtida förutsägelser för AI och generativ AI 2024: Integritetsproblem, mörka LLMs och framväxten av GenAI-appar

Patrick McFadin från DataStax delar sina förutsägelser för AI och generativ AI 2024. Han förutspår en komprimering av hypecykeln för generativ AI, uppkomsten av ´mörka´ LLMs, en tävling om att vara bäst på LLM, och integritetsproblem kopplade till GenAI. Han tror inte att nästa stora sak inom generativ AI kommer att vara en enskild produkt, utan något integrerat i en redan existerande produkt. Han förutser också en revolt mot hyperskalare som OpenAI, AWS och Google, och menar att reglering av öppen källkod kommer att vara nästan omöjligt. McFadin tror att vi kommer att se ´Instagrams´ av GenAI-appar dyka upp 2024.

Direktlänk Dela App Developer Magazine fördjupade 20 december

Lär dig att skapa din egen AI-app från grunden med hjälp av de senaste teknologierna och verktygen

Att skapa en AI-app från grunden kan verka skrämmande, men med rätt inställning och verktyg blir det en spännande och genomförbar uppgift. Nyckelstegen inkluderar att definiera ditt mål och omfattning, skaffa nödvändiga färdigheter och kunskaper, välja rätt ramverk och verktyg, samla in och förbereda data, träna din AI-modell, integrera med användargränssnittet, testa och validera, distribuera, övervaka och optimera samt hålla dig informerad och iterera. Python är ett populärt val för AI-utveckling på grund av dess enkelhet och ett stort ekosystem av bibliotek som TensorFlow och PyTorch.

Direktlänk Dela Analytics Insight fördjupade 20 december

OpenAI:s utmaningar och framsteg under 2023

År 2023 var ett avgörande år för AI, präglat av framsteg inom generativ AI, intensiv konkurrens och ökande etiska och säkerhetsproblem. OpenAI:s VD Sam Altman sparkades och återanställdes, vilket ledde till omfattande protester från anställda. Nya konkurrenter till ChatGPT framträdde, inklusive Googles Gemini och Anthropics Claude. Dessutom utvidgades det öppna källkods-AI-landskapet, med samarbeten mellan AWS och Hugging Face, och Meta som gav sig in på marknaden med sin egen LLM, Llama. OpenAI introducerade flera nya erbjudanden, inklusive betalnivåer för ChatGPT och uppgraderingar till dess flaggskeppsmodell, GPT-4. Samtidigt intensifierades debatten om AI:s säkerhet och säkerhetsrisker.

Direktlänk Dela TechTarget fördjupade 19 december

Företag i USA omfamnar innovativa automatiseringsplattformar, enligt ISG-rapport

Enligt en ny forskningsrapport från Information Services Group (ISG) omfamnar företag i USA innovativa automatiseringsplattformar för att förbättra processer och användarupplevelse. Rapporten finner att företag är allt mer intresserade av plattformar som använder AI och ML-funktioner, särskilt generativ AI (Gen AI), för att bättre utnyttja olika och snabbväxande datamängder. Intelligent automatisering förbättras inom flera nyckelområden, inklusive integration av data från flera källor, realtidsrespons och tillgänglighet för ett bredare spektrum av användare. Rapporten utvärderar förmågorna hos 66 leverantörer och nämner ABBYY, Automation Anywhere och UiPath som ledare i två kvadranter vardera.

Direktlänk Dela Business Wire fördjupade 19 december

Integrationen mellan generativ AI och analys är fortfarande under utveckling. Många leverantörer har avslöjat planer på att möjliggöra för kunder att söka och analysera data med hjälp av konversationsspråk snarare än kod eller företagsspecifika naturliga språkbearbetningsfunktioner. Sisense var kanske den första analysleverantören att avslöja planer på att integrera sin plattform med generativ AI, med en integration med OpenAI i januari 2023. Även stora teknikföretag som AWS, Google och Microsoft arbetar för att lägga till generativ AI i sina BI-verktyg. Men mot slutet av 2023 är de flesta analysleverantörernas generativa AI-funktioner fortfarande i något utvecklingsstadium och har ännu inte gjorts allmänt tillgängliga.

TechTarget fördjupade 18 december

Telekommunikation redo för omvandling med generativ AI

Generativ AI har gått från att vara ett modeord till att bli en riktig game-changer inom olika branscher. Dessa AI-modeller kan generera ny data, innehåll, kod och mer med lite explicit mänsklig inmatning. Till exempel kan verktyg som DALL-E 2 skapa fotorealistiska bilder enbart från textbeskrivningar. Telekommunikationsindustrin, med över 320 miljarder dollar i årliga IT-infrastrukturinvesteringar, är nästa i raden att genomgå en omvandling genom integrering av generativ AI. Marknadsprognoser uppskattar värdet av AI-applikationer i telekom att snabbt skala från 350 miljoner dollar idag till 20 miljarder dollar år 2030.

Direktlänk Dela Zinnov fördjupade 18 december

RETHINK Retail Gala kommer att äga rum den 15 januari 2024 på en hemlig plats i New York City. Evenemanget, som är skräddarsytt för detaljhandlare, varumärken och branschpionjärer, utlovar en uppslukande upplevelse där handel och artificiell intelligens (AI) smälter samman för att krossa gränserna för konventionellt tänkande. Andrew Laudato, EVP och COO för The Vitamin Shoppe, uttryckte sin entusiasm för evenemanget och AI in Retail Conference. RETHINK Retail Gala presenteras av RETHINK Retail och Cognizant och sponsras av Microsoft.

Business Wire fördjupade 16 december

Ansvarsfull AI blir allt viktigare för företag, enligt undersökning

En nyligen genomförd undersökning av AWS och Morning Consult visar en betydande förändring i företags attityder och planer mot ansvarsfull artificiell intelligens (AI) för det kommande året. 77 procent av de tillfrågade erkänner vikten av ansvarsfull AI, med yngre ledare som visar större bekantskap med konceptet än äldre. Trots denna växande medvetenhet är implementeringen av ansvarsfulla AI-strategier fortfarande i sin linda. 47 procent av företagen planerar att öka sin investering i ansvarsfull AI 2024. Undersökningen understryker också ett delat ansvar för utvecklingen av ansvarsfull AI.

Direktlänk Dela Compliance Week fördjupade 16 december

För en dataforskare är det aldrig för mycket data. Men i en större organisatorisk kontext måste vi balansera våra mål med andra överväganden. Dataforskarens instinkter och önskemål fungerar ofta i spänning med behoven av datasekretess och säkerhet. Det är viktigt att hitta en medelväg mellan att samla in data för maskininlärning och att begränsa vår dataretention för kundintegritet och datasäkerhet. Det finns ingen enkel lösning på frågan ´hur mycket ska vi behålla?´, så det enda valet är att jonglera båda intressen i varje beslut vi fattar om datalagring.

Towards Data Science fördjupade 16 december

Generativ AI förväntas förändra telekomindustrin

Generativ AI har gått från att vara ett buzzword till att bli en verklig spelväxlare över branscher. Dessa AI-modeller kan generera ny data, innehåll, kod och mer med liten mänsklig inmatning. I telekommunikationsindustrin, med över 320 miljarder dollar i årliga IT-infrastrukturinvesteringar, väntas en transformation genom integration av generativ AI. Ledande telekomföretag testar användningsfall som AI för nätverksoptimering och förbättring av kundupplevelsen. Marknadsprognoser uppskattar värdet av AI-applikationer inom telekom att snabbt öka från 350 miljoner dollar idag till 20 miljarder dollar 2030. Teknikjättar och molnleverantörer som Microsoft, Google och AWS driver denna transformation.

Direktlänk Dela Zinnov fördjupade 15 december

Google och Anthropic släpper Claude för Sheets, rivaliserar med Microsofts ChatGPT Excel-integration

Anthropic har släppt en ny plugin för Google Sheets, vilket ger deras AI-assistent Claude till molnbaserade kalkylprogram. Claude för Sheets kommer i takt med att ChatGPT hotar att översvämma Google Workspace. Med Claude och ChatGPT positionerade som rivaliserande AI-assistenter, replikerar Anthropic och OpenAI rivaliteten mellan sina Big Tech-backare. Sedan dess listning på Google Workspace Marketplace den 6 december har mer än 6 000 personer laddat ner plugin-programmet. Detta är dock fortfarande långt bakom den mest populära GPT-integrationen utvecklad av Talarian, som har över fem miljoner nedladdningar.

Direktlänk Dela CryptoCoinNews fördjupade 15 december

Utforska kategorier och funktioner av generativa AI-verktyg

Generativa AI-tjänster som ChatGPT har ökat intresset för att tillämpa dessa nya verktyg på praktiska företagstillämpningar. Nu förbättras nästan varje företagsapp med generativa AI-funktioner. De flesta AI, data science, maskininlärningsutveckling, drift och operativa verktyg stöder generativa AI-fall. Det finns också många framväxande typer av generativ AI som inte använder sådana stora språkmodeller (LLM) för uppgifter som att generera bilder, video, ljud, syntetiska data och översättning över språk. Detta inkluderar modeller byggda med generativa motståndsnätverk, diffusion, variational autoencoders och multimodala tekniker. Här är mer information om de främsta kategorierna av generativa AI-utvecklingsverktyg och deras funktioner med några av de ledande leverantörs- eller öppna källkodsimplementationerna.

Direktlänk Dela TechTarget fördjupade 15 december

Avalanche (AVAX) upplever imponerande tillväxt, Google Bard förutser fortsatt framgång

Kryptovalutan Avalanche (AVAX) har haft en anmärkningsvärd ökning med 276,88% sedan början av 2023, vilket har fått många att uppmärksamma den. AI-plattformen Google Bard har överraskande positiva insikter i AVAX: s potentiella bana. AVAX har haft framgångar tack vare positiva utvecklingar och strategiska partnerskap, inklusive samarbeten med branschjättar som AWS och BLRD. Google Bard förutspår en optimistisk prisprognos för Avalanche 2024, med ett prisintervall på $55.51 till $63.38 för AVAX den 1 januari 2024.

Direktlänk Dela ZyCrypto fördjupade 14 december

Google lanserar Gemini Pro API för AI Studio och Vertex AI

Från och med den 13 december kan utvecklare använda Google AI Studio och Vertex AI för att bygga applikationer med Gemini Pro API, vilket ger tillgång till Googles nya generativa AI-modell. Googles ursprungliga lansering av Gemini var begränsad till Google Bard och Pixel 8 Pro, så onsdagens allmänna tillgänglighet av Gemini för Google AI Studio och Vertex AI markerar det första testet av Gemini för företagsutvecklare. Dessutom kommer Googles Duet AI-assistent chatbot till utvecklare och SecOps-verktyg.

Direktlänk Dela TechRepublic fördjupade 13 december

Global marknad för artificiell intelligens förväntas växa till 2760,3 miljarder dollar 2032

Den globala marknaden för artificiell intelligens (AI) förväntas växa från 168,5 miljarder USD 2022 till 2 760,3 miljarder USD 2032, med en årlig tillväxttakt på 32,5%. AI är grunden för moderna datortekniska utvecklingar och skapar stort värde för både organisationer och konsumenter. Medan företag integrerar AI i sina verksamheter ökar behovet av snabbare och mer energieffektiv databehandling. Innovatörer utvecklar system baserade på neurala modeller inspirerade av den mänskliga hjärnan för att hantera denna ökande efterfrågan. AI-integration förväntas kraftigt påskynda ekonomisk framsteg.

Direktlänk Dela GlobeNewswire fördjupade 12 december

Året i Generativ AI: Innovation, Etiska Debatter och Framtida Potential

Generativ AI, tekniken bakom ChatGPT, lanserades för ett år sedan och har sedan dess antagits av nästan alla teknikjättar, från Microsoft till Google till Amazon. Teknologer upptäcker allt fler användningsområden för att spara tid och pengar, men skolor och företag över hela världen kämpar för att hitta teknikens rätta balans i ´verkligheten´. Generativ AI omfattar allt från appar som spelar in och transkriberar samtal till appar som skapar röstöverlägg och genererar ´original´ konst och logotyper. Sedan lanseringen av ChatGPT i november 2022 har forskning visat att generativ AI kan lägga till upp till 4,4 biljoner dollar till den globala ekonomin årligen.

Direktlänk Dela Forbes Media fördjupade 12 december

Gratis topprankade AI-kurser från världsklassinstitutioner och organisationer

En bloggpost har delat en lista över favorit AI-kurser från topporganisationer och institutioner som är tillgängliga gratis. Författaren har utformat en sex månaders studieplan och har inkluderat en fusklapp med de verktyg som diskuterats. Kurserna inkluderar Harvard´s Intro to AI with Python, Google Cloud´s Generative AI Fundamentals, IBM´s Artificial Intelligence Fundamentals, Microsoft´s Azure AI Fundamentals: Generative AI och DeepLearning.AI´s ChatGPT Prompt Engineering. Författaren rekommenderar också QuillBot, ett verktyg för skrivning och uppgifter som plagieringskontroll, parafrasering, sammanfattning och översättning.

Direktlänk Dela Medium fördjupade 12 december

Google Bard förutspår prisintervallet för Avalanche (AVAX) i början av 2024

Kryptovalutamarknadens stora rally har skickat många kryptovalutor till priser som inte setts på över ett år. Bitcoin (BTC) har stigit från stagnation mellan $25 000 och $30 000 till över $40 000 på två månader. Ethereum (ETH) är nära toppnivåer som inte setts sedan början av 2022. Solana (SOL) och Bonk (BONK) har också haft imponerande uppgångar. Avalanche (AVAX), drivet av det nuvarande rallyt och positiva utvecklingar och viktiga partnerskap som AWS och BLRD, har stigit 276,88% sedan 1 januari 2023. Google Bard förutspår att AVAX kommer att ligga mellan $55,51 och $63,38 den 1 januari 2024.

Direktlänk Dela Finbold fördjupade 12 december

Meta lanserar Purple Llama-initiativet för att förbättra säkerheten i AI-utveckling

Meta har lanserat Purple Llama-initiativet för att öka säkerheten och tillförlitligheten i utvecklingen av generativ AI. Initiativet kombinerar offensiva och defensiva strategier för att utvärdera och minska potentiella risker. Detta kommer efter att Meta gick med i IBM AI-alliansen för att främja förtroende, säkerhet och styrning av AI-modeller. Meta har även släppt CyberSec Eval, ett omfattande säkerhetsevalueringssystem för stora språkmodeller (LLM), och Llama Guard, en säkerhetsklassificerare för in/ut-filtrering. Dessutom har Meta publicerat en ansvarsfull användarguide som erbjuder bästa praxis för att implementera ramverket.

Direktlänk Dela VentureBeat fördjupade 11 december

Stora teknikföretag investerar i AI för att förbättra användarupplevelsen

Microsoft meddelade en flerårig, flera miljarder dollar investering i OpenAI i januari 2023, vilket markerade den tredje fasen av partnerskapet mellan de två företagen. Detta ledde till en konflikt mellan andra teknikjättar som Google, Twitter (X) och Meta, som alla försöker förbättra användarupplevelsen genom AI-drivna integrationer. Google introducerade en experimentell konversations-AI-tjänst kallad Bard för att konkurrera med Microsofts AI-chattbot ChatGPT. Microsoft lanserade en ny version av Bing med AI-krafter liknande ChatGPT. Meta byggde ett flerstegs AI-granskningsystem för att klassificera innehåll för annonsörer i Facebook och Instagram Feeds. Snapchat introducerade My AI, en chattbot byggd med OpenAI´s GPT-teknologi.

Direktlänk Dela Social Samosa fördjupade 11 december

Meta lanserar verktyg för att stärka cybersäkerheten för AI-modeller

Meta har lanserat projektet Purple Llama för att främja ansvarsfull och säker utveckling av generativa AI-modeller. För att uppnå detta kommer Purple Llama att släppa olika verktyg och utvärderingstekniker. Initialt släpps Purple Llama Cybersec Eval, som består av flera riktmärken för att utvärdera och stärka stora språkmodellers cybersäkerhet. Dessutom släpps Llama Guard, en säkerhetsklassificerare för in- och utdatafiltrering. På längre sikt planerar Meta att genomföra forskning på området och skapa ett öppet ekosystem med bland annat AI Alliance, AMD, AWS, Google, Hugging Face, IBM, Intel, Microsoft, Nvidia och Oracle.

Direktlänk Dela Computer Sweden fördjupade 11 december

Meta introducerar Purple Llama för att öka säkerheten i generativa AI-modeller

Meta har introducerat Purple Llama, ett projekt som syftar till att skapa öppna verktyg för utvecklare att utvärdera och förbättra tillförlitligheten och säkerheten i generativa AI-modeller innan de används offentligt. Purple Llama-projektet syftar till att etablera en gemensam grund för att utveckla säkrare generativa AI-modeller. Projektet inkluderar partnerskap med AI-utvecklare, molntjänster som AWS och Google Cloud, halvledarföretag som Intel, AMD och Nvidia och programvaruföretag som Microsoft. De första verktygen som släppts genom Purple Llama inkluderar CyberSecEval, som bedömer cybersäkerhetsrisker i AI-genererad programvara och Llama Guard, en stor språkmodell utbildad för att identifiera potentiellt skadligt eller stötande språk.

Direktlänk Dela InfoWorld fördjupade 8 december

Hybridmolnlagring prioriteras för generativ AI

Objekt lagring fortsätter att vara en viktig komponent i skapandet och träningen av generativ AI, vilket driver företags IT-team att överväga hybridmolnlagring för lägre kostnader och fler alternativ. Generativ AI:s massiva data behov kommer att driva företag att välja hybridlagring som inkluderar moln och hårdvara på plats 2024. Många företag och organisationer har inte råd att utveckla sina egna GenAI-förmågor, vilket gör att de vänder sig till molnbaserade GenAI-tjänster och molnlagring för att lagra dessa dataförråd. En hybridmodell kommer troligen att fortsätta i takt med att skapandet och användningen av GenAI fortsätter.

Direktlänk Dela TechTarget fördjupade 8 december

Begränsningar med generativ AI för mjukvarutestning

Artikeln diskuterar användningen av generativ AI-teknik, som ChatGPT, för att generera automatiska testfall inom mjukvarutestning. Författaren menar att trots att AI-verktyg kan producera testfall snabbt och effektivt, de saknar domänexpertis för att veta vad som faktiskt behöver testas. Dessutom har de svårt att uppdatera eller underhålla tester över tid på ett konsekvent sätt. Författaren rekommenderar att QA-team använder AI-verktyg som är specifikt utformade för att generera tester, snarare än generella AI-tjänster som ChatGPT.

Direktlänk Dela The New Stack fördjupade 7 december

Amazons Titan AI kan påverka professionella fotografer

Amazon har nyligen tillkännagivit Titan, en generativ AI som kan ha implikationer för professionella fotografer som arbetar med företagskunder. Titan Image Generator kan ta bilder av företags egna produkter och byta ut inställningar, bakgrunder eller kompletterande visuella element. Den kan också producera helt originalbilder. Amazon säger att fotografer inte har något att frukta, och att Titan Image Generator kommer att komplettera snarare än ersätta det ursprungliga innehållet som fotografer och kreativa digitala konstnärer producerar för sina kunder.

Direktlänk Dela PetaPixel fördjupade 7 december

Google lanserar Gemini, påstår att överträffa GPT-4

Google har delvis lanserat sin Gemini-modell, som påstår sig ha prestandafördelar över OpenAIs GPT-4. En högpresterande version av Gemini förväntas släppas tidigt nästa år. Samtidigt har Microsoft lagt till stöd för GPT-4 Turbo till Windows 11 och sökmotorn Bing, och Google har lanserat en jämförbar Pro-version av Gemini 1.0 för sin Bard-sökmotor. Dessutom har Google släppt en ny version av sin tensorbehandlingsenhet (TPU) och en Google Cloud AI Hypercomputer-tjänst. Trots Googles framsteg hävdar analytiker att Microsoft fortfarande har fördelen när det gäller utvecklarverktyg.

Direktlänk Dela TechTarget fördjupade 6 december

Global marknad för AI inom redovisning växer snabbt

Den globala marknaden för artificiell intelligens (AI) inom redovisning analyseras i en omfattande rapport. Rapporten undersöker viktiga marknadstrender, tillväxtdrivare, utmaningar och möjligheter. Den börjar med en detaljerad undersökning av marknaden, definierar dess omfattning och segmentering. Marknaden för AI inom redovisning värderades till 646 miljoner USD 2019 och beräknas nå 14 072,9 miljoner USD 2027, med en årlig tillväxttakt (CAGR) på 47% från 2020 till 2027. De ledande företagen på denna marknad är Microsoft, AWS, Xero, Intuit, Sage, OSP, UiPath, Kore.AI, Appzen och Yaypay.

Direktlänk Dela Artrocker fördjupade 6 december

DataStax och Amazon Web Services samarbetar för att påskynda AI-lösningar

DataStax, ett företag inom realtids-AI, har meddelat ett strategiskt samarbete med Amazon Web Services (AWS) för att effektivisera leveransen av progressiva generativa AI-lösningar. Det fleråriga samarbetsavtalet syftar till att påskynda införandet av generativa AI-teknologier och hjälpa kunder att lansera precisa applikationer för att effektivt förbättra kundupplevelser. Samarbetet innebär en global försäljningsinsats för att sammanföra Article DB och AWS för att gemensamt bygga, marknadsföra och sälja sina AI-produkter. Astra DB stöder nu generativ AI-utveckling på AWS med en ny integration för Amazon Bedrock.

Direktlänk Dela Itbrief.com.au fördjupade 5 december

Rapport om användning av artificiell intelligens inom utbildningssektorn

Statsndata har publicerat en rapport om insamling, analys och tolkning av data om användning av artificiell intelligens (AI) inom utbildningssektorn. Rapporten visar hur företag samlar in, analyserar och tolkar sin marknadsdata, vilket hjälper företag att förstå AI-marknaden inom utbildningssektorn bättre, identifiera kundbehov och preferenser och bedöma branschkonkurrens. Bland de stora företag som påverkar denna marknad finns Google, IBM, Pearson, Microsoft, AWS, Nuance, Cognizant, Metacog, Quantum Adaptive Learning, Querium, Third Space Learning, Aleks, Blackboard, BridgeU, Carnegie Learning, Century, Cognii, DreamBox Learning, Elemental Path, Fishtree, Jellynote, Jenzabar, Knewton och Luilishuo.

Direktlänk Dela Salisburyandstonehenge.net fördjupade 4 december

Compass UOL erhåller AWS Financial Services Competency, erbjuder Gen AI-verktyg till finansinstitut

Det digitala tjänsteföretaget Compass UOL har erhållit AWS Financial Services Competency och erbjuder nu sina Gen AI-verktyg till finansiella tjänsteinstitutioner för att påskynda deras affärsutveckling i molnet. Compass UOL är det enda företaget som erbjuder sin proprietära Gen AI mjukvaruutvecklingssvit för att snabba på mjukvaruutvecklingen. Finansinstitut kan också tillämpa AI på nya affärsanvändningsfall, som onboarding för fysiska och affärskonton med hjälp av ChatGPT-liknande botar och robotprocessautomatisering. Compass UOL har presenterat en rad framgångsrika kundfall för att erhålla AWS Financial Services Competency.

Direktlänk Dela AiThority fördjupade 4 december

Acqueon förbättrar sin Workspace-lösning med nya AI-funktioner och multi-region redundans

Acqueon har meddelat flera förbättringar av sin ledande sälj-, inkasso- och proaktiva serviceagent skrivbordslösning, Acqueon Workspace, inklusive nya AI-funktioner, enkla migreringar över plattformar och branschledande multi-region redundans som är avgörande för stora företagsimplementeringar. Dessa förbättringar levereras via Acqueons molnbaserade lösning som är implementerad i AWS. Acqueon fortsätter att innovera inom artificiell intelligensverktyg för att förbättra sälj-, inkasso- och proaktiva serviceagentens produktivitet. Acqueon Workspace ger ett enkelt gränssnitt för att förenkla sälj-, inkasso- och proaktiva serviceagentens arbetsmiljöer genom att förena flera CRM-, CCaaS- och företagssystem i en gemensam primär agentapplikation.

Direktlänk Dela AiThority fördjupade 3 december

Sammanfattning av veckans AI-nyheter: OpenAI, Amazon, och AI:s miljöpåverkan

Förra veckan var präglad av turbulensen kring OpenAI:s VD Sam Altman, men denna vecka återgick saker till det normala. Altman har återtagit sin position som toppchef på företaget, med hjälp från Microsoft. OpenAI rullade ut flera nya AI-produkter och plattformar. Amazon avslöjade detaljer om sin nya AI-chattbot-assistent ´Q´ vid sitt AWS re:Invent-evenemang. En studie visade att generativ AI kan ha en negativ inverkan på miljön, liknande att ladda en smartphone. OpenAI försenar lanseringen av sin GPT Store, en marknadsplats för anpassningsbara GPT:er, till 2024.

Direktlänk Dela Gizmodo fördjupade 2 december

OpenAI:s ChatGPT förändrar världen genom generativ AI

OpenAI:s lansering av ChatGPT förändrade historiens gång, enligt vissa. Före ChatGPT var AI något som dataforskare kunde arbeta med, men det hade inte någon påtaglig inverkan på vanliga människors liv. Efter ChatGPT har AI plötsligt blivit central i varje interaktion konsumenter har med datorer och telefoner. Tiotusentals företag har övergett sina gamla affärsmodeller och försöker hitta nya som bygger på generativ AI. McKinsey & Company förutspår att produktivitetsökningen från generativ AI kan göra anställda upp till 45% effektivare. Enligt en undersökning utförd av ExtraHop äger OpenAI 80% av andelen generativa AI-tjänster. Det finns dock oavsiktliga konsekvenser av AI:s stora ögonblick, som risker för företag och potentiella säkerhetsproblem.

Direktlänk Dela Datanami fördjupade 2 december

AWS re:Invent 2023: Hur AI påverkar molnsäkerhetens tillstånd

Vid AWS re:Invent 2023 i Las Vegas talade Steve Schmidt, Amazons chefsäkerhetsofficer, om de komplicerade rollerna för säkerhetspersonal och hur AI påverkar molnsäkerheten. I en separat session på eventet förklarade Dilip Kumar, vice vd för AWS-applikationer för Amazon Web Services, hur AWS AppFabric kan hjälpa kunder att hantera en mängd olika appar. Emily Mossburg, global cyberledare på Deloitte, och Arno Van Der Walt, Senior Vice President och CISO på Marriott International, diskuterade också vikten av att bygga säkra miljöer och utnyttja AI för att förbättra säkerheten.

Direktlänk Dela BizTech Magazine fördjupade 1 december

Compass UOL uppnår AWS Financial Services Competency och erbjuder sina Gen AI-verktyg till finansiella tjänster

Det digitala tjänsteföretaget Compass UOL meddelade idag att det har uppnått AWS Financial Services Competency och erbjuder nu sina Gen AI-verktyg till finansiella tjänster för att påskynda deras affärsutveckling i molnet. Compass UOL är det enda företaget som erbjuder sin proprietära Gen AI-programvaruutvecklingssvit för att snabba på programvaruutvecklingen. Finansinstitut kan också tillämpa AI på nya affärsanvändningsfall, som onboarding för fysiska och affärskonton med hjälp av ChatGPT-liknande botar och robotprocessautomatisering (RPA), risk- och bedrägerianalys med AI på nya datamodeller och FSI-specifik affärsanalys, bland annat. För att uppnå AWS Financial Services Competency presenterade Compass UOL en rad framgångsrika kundfall som bekräftade dess förmåga att hjälpa sina partners och kunder att sticka ut i ett konkurrensutsatt landskap. Compass UOL:s teknikträningsprogram, Compass Academy, var också avgörande för att erhålla AWS Financial Solutions Competency.

Direktlänk Dela FinanceFeeds fördjupade 1 december

Ett år med ChatGPT: AI-revolutionens inverkan och framtid

För ett år sedan lanserades ChatGPT, vilket ledde till en evolution inom generativ AI. Stora teknikföretag skyndade sig att släppa sina egna produkter för att hävda marknadsandelar. ChatGPT började som ett gratisverktyg byggt på OpenAI:s GPT-3.5-modell men har sedan dess sett en mängd förbättringar. Företag över hela världen satsar stort på AI, inklusive AWS med sin egen version av ChatGPT, Amazon Q, och Elon Musk med Grok. I Australien har 19% av små och medelstora företag börjat använda AI. Trots framstegen har det också uppstått problem, särskilt i takt med att lagar och regler försöker hänga med. Framtiden för AI kommer sannolikt att fokusera mer på säkerhet och samarbete mellan företag.

Direktlänk Dela SmartCompany fördjupade 1 december

Hewlett Packard Enterprise utökar sina AI-insatser med nya initiativ och partnerskap

Hewlett Packard Enterprise (HPE) meddelade en rad nya initiativ för att utöka sina ansträngningar inom artificiell intelligens (AI) vid HPE Discover Barcelona 2023-evenemanget. Uppdateringarna inkluderar ett utökat partnerskap med Nvidia som involverar både hård- och mjukvara för att optimera AI för företagsarbetsbelastningar. HPE Machine Learning Development Environment (MLDE), som först lanserades 2022, förbättras med nya funktioner för att hjälpa företag att konsumera, anpassa och skapa AI-modeller. HPE utökar också MLDE till att vara tillgängligt som en hanterad tjänst, som körs på AWS och Google Cloud. Dessutom stärker HPE sina egna molninsatser för AI, med nya AI-optimerade instanser i HPE Greenlake och ökad prestanda för filstorage i stöd för AI-arbetsbelastningar.

Direktlänk Dela VentureBeat fördjupade 30 november

Amazon Web Services introducerar nya funktioner för att snabba upp byggandet, utbildningen och distributionen av stora språkmodeller

På AWS re:Invent tillkännagav Amazon Web Services (AWS) fem nya funktioner inom Amazon SageMaker för att snabba upp byggandet, utbildningen och distributionen av stora språkmodeller och andra grundmodeller. Dessa framsteg bygger vidare på SageMakers omfattande kapabiliteter för att hjälpa kunderna att innovera med maskininlärning i stor skala. Dessutom fortsätter SageMaker Canvas att demokratisera modellbyggnad och anpassning genom att göra det enklare för kunder att använda modeller för att extrahera insikter, göra prognoser och generera innehåll med hjälp av organisationens egna data.

Direktlänk Dela Datanami fördjupade 30 november

AWS presenterar nya AI-produkter och funktioner vid re:Invent 2023

AWS presenterade nya funktioner och produkter vid re:Invent 2023, inklusive AI-chipsen Trainium2 och Graviton4, Amazon Q Chatbot och förhandsvisningen av Titan Image Generator. Dessutom lanserades Guardrails för Amazon Bedrock. Under det gångna året har Amazon aktivt arbetat för att motverka uppfattningen att företaget ligger efter i AI-racet. Adam Selipsky, AWS VD, betonade AWS:s omfattande investeringar i AI:s livscykel i sitt anförande. Amazon tog också tillfället i akt att introducera sin senaste generation av chips för modellträning och inferens, för att möta den växande efterfrågan på generativ AI. Dessutom presenterade Amazon sin nya chatbot för företag, Amazon Q.

Direktlänk Dela TechHQ fördjupade 30 november

Amazon lanserar sin nya AI-assistentplattform, Amazon Q

Amazon har tillkännagivit sin nya plattform, Amazon Q, som låter företag ställa företagsspecifika frågor. Amazon Q presenterades under ett keynote-tal av AWS VD Adam Selipsky på AWS re:Invent. Amazon Q fungerar som en AI-assistent som låter människor ställa frågor om sina företag med hjälp av deras data. Amazon tar ut en avgift på $40 per agent per månad för Amazon Q i Connect. Dr. Swami Sivasubramanian, vice VD för Data och Artificiell Intelligens, förklarade att generativ AI har potentialen att utlösa en teknologisk förändring som kommer att omforma hur människor gör allt från att söka information till att bygga applikationer.

Direktlänk Dela TweakTown fördjupade 30 november

Amazon lanserar Model Evaluation på Bedrock för att förbättra AI-modellvärdering

Amazon vill att användare ska kunna utvärdera AI-modeller bättre och uppmuntrar fler människor att delta i processen. Under AWS re:Invent-konferensen tillkännagav AWS vice VD för databas, analys och maskininlärning, Swami Sivasubramanian, Model Evaluation på Bedrock, nu tillgänglig i förhandsvisning, för modeller som finns i dess förråd Amazon Bedrock. Utan ett sätt att transparent testa modeller kan utvecklare hamna med att använda modeller som inte är tillräckligt exakta för ett fråga-och-svar-projekt eller en som är för stor för deras användningsfall. Model Evaluation har två komponenter: automatiserad utvärdering och mänsklig utvärdering.

Direktlänk Dela The Verge fördjupade 30 november

AWS introducerar ny bildgenerator och SageMaker HyperPod

Teknikjätten AWS presenterade sin nya bildgenerator Titan Image Generator och Amazon SageMaker HyperPod under sin AWS re:Invent 2023-konferens. Bildgeneratorn producerar realistiska bilder med naturliga språkprompter och innehåller funktioner för bildredigering, som riktas mot reklam-, e-handel- och mediaindustrin. SageMaker HyperPod hjälper användare att träna maskininlärningsmodeller och minskar tiden det tar att träna grundmodeller. Dessutom avslöjade AWS sin nya produkt Amazon Titan Multimodal Embeddings och uppgav att Anthropic´s Claude 2.1-modell, Stable Diffusion´s XL 1.0 grundmodell och Meta Llama 2 70B nu är allmänt tillgängliga i Bedrock.

Direktlänk Dela TechTarget fördjupade 30 november

Amazon presenterar AI-chattboten Q för företag på re:Invent 2023-utvecklarkonferensen

Amazon presenterade sin AI-chattbot Q på re:Invent 2023-utvecklarkonferensen. Q riktar sig mot företag, inte konsumenter. Amazon Q kan hjälpa anställda med produktivitetsuppgifter som att sammanfatta dokument, söka i företagets policy-wiki och skicka supportbiljetter. Amazon Q söker igenom företagets innehåll för att ge ett svar som är anpassat till företagets varumärkesstandarder. Q kan också generera skräddarsydda sociala medieprompter för att marknadsföra din berättelse på varje social media-kanal. Amazon hoppas att dess Q AI-chattbot kommer att erbjuda en flexibilitet som kan hjälpa det att återvinna marknadsandelar från Microsoft och Google. Amazon planerar också att undergräva Microsoft och Google genom att ta ut 20 dollar per månad.

Direktlänk Dela Windows Report fördjupade 29 november

Amazon AWS lanserar SageMaker HyperPod för att träna stora språkmodeller

Amazon AWS har lanserat SageMaker HyperPod, en ny tjänst för att träna och finjustera stora språkmodeller (LLM). SageMaker HyperPod är nu allmänt tillgänglig. Amazon har länge satsat på SageMaker, sin tjänst för att bygga, träna och distribuera maskinlärningsmodeller, som ryggraden i sin maskinlärningsstrategi. SageMaker HyperPod ger användarna möjlighet att skapa en distribuerad kluster med accelererade instanser som är optimerade för tvistad träning. Användarna kan välja att träna på Amazons egna anpassade Trainium (och nu Trainium 2) chips eller Nvidia-baserade GPU-instanser, inklusive de som använder H100-processorn. Företaget lovar att HyperPod kan påskynda träningsprocessen med upp till 40%.

Direktlänk Dela TechCrunch fördjupade 29 november

Amazon Web Services introducerar nya funktioner för att påskynda AI-modellbyggande

Amazon Web Services (AWS) har meddelat fem nya funktioner inom ramen för Amazon SageMaker för att påskynda byggandet, träningen och distributionen av stora språkmodeller och andra grundmodeller. Den nya funktionen SageMaker HyperPod minskar tiden för att träna grundmodeller med upp till 40% genom att tillhandahålla specialbyggd infrastruktur för distribuerad träning i stor skala. SageMaker Inference minskar kostnaderna för distribution av grundmodeller med 50% i genomsnitt och minskar fördröjningen med 20% i genomsnitt genom att optimera användningen av accelererare. SageMaker Clarify gör det nu enklare för kunder att snabbt utvärdera och välja grundmodeller baserat på parametrar som stöder ansvarsfull användning av AI. Slutligen hjälper SageMaker Canvas kunder att påskynda dataförberedelser med hjälp av naturliga språkinstruktioner och modellbyggande med hjälp av grundmodeller med bara några klick.

Direktlänk Dela Amazon fördjupade 29 november

Amazon Web Services lanserar nya processorer för maskininlärning och AI

Amazon Web Services (AWS) har tillkännagivit lanseringen av en ny generation av egna processorer, riktade mot det beräkningsintensiva arbetet med att träna maskininlärnings- och artificiella intelligenssystem (ML och AI) - och lovar en fyrdubbling av prestanda. David Brown, vice VD för beräkning och nätverk på AWS, stödjer lanseringen och påstår att silikon ligger till grund för varje kundarbetsbelastning, vilket gör det till ett kritiskt område för innovation för AWS. AWS har tillkännagivit två nya högpresterande processorer för sin Elastic Compute Cloud, Graviton4 och Trainium2.

Direktlänk Dela Hackster fördjupade 29 november

Amazon lanserar AI-assistenten Q för att konkurrera med Microsoft och Google

Amazon har lanserat sin AI-assistent Q för att konkurrera med Microsoft och Google. Q riktar sig mot arbetsplatsmarknaden med sina integrationsförmågor och fokus på produktivitet och datasäkerhet. Q använder flera AI-modeller genom sin Bedrock-plattform, inklusive Amazon Titan och de från Anthropic och Meta. Priset för Q är konkurrenskraftigt med $20/användare/månad, vilket är lägre än både Google och Microsofts erbjudanden för företag inom detta område. Q är utformad för att integrera med företagsdata och kan kopplas till Slack och Gmail-konton.

Direktlänk Dela XDA Developers fördjupade 29 november

Artificiell intelligens som tjänst (AIaaS) - Marknadsforskning och framtidsutsikter

En marknadsforskningsrapport om Artificiell intelligens som tjänst (AIaaS) ger en översikt över branschen, inklusive dess definition, tillämpningar och utvecklingar, samt tillverkningsteknik. Rapporten spårar alla senaste utvecklingar och innovationer på marknaden. Nyckelföretagen för AIaaS i USA inkluderar AWS, SAP, Intel, IBM, Google, Microsoft, Salesforce, SAS och FICO. Rapporten ger också data om hinder vid etablering av verksamhet och vägledning för att övervinna kommande utmaningar. Rapporten är en forskningsstudie som förutspår att denna bransch kommer att generera betydande vinster vid slutet av den projicerade tidslinjen.

Direktlänk Dela Salisburyandstonehenge.net fördjupade 29 november

TCS och AWS samarbetar för att etablera generativ AI-praktik

Tata Consultancy Services (TCS) och AWS har inlett ett samarbete för att etablera en praktik för generativ AI (artificiell intelligens) i syfte att hjälpa kunder att förstå potentialen med generativa AI-tjänster. TCS har åtagit sig att ge över 100 000 arbetstagare grundläggande utbildning i generativ AI. Med lanseringen av denna nya procedur och certifieringen av över 25 000 medarbetare i AWS generativa AI-tjänster, fokuserar mjukvaruföretaget nu på att utvidga sitt expertområde. TCS kommer att hjälpa sina kunder att implementera Amazon CodeWhisperer för att ge utvecklare direkt tillgång till generativa AI-drivna kodrekommendationer, vilket kommer att höja kodkvaliteten och spara tid.

Direktlänk Dela Open The News fördjupade 29 november

Amazon lanserar AI-drivna chatboten ´Q´ för AWS-kunder

Amazon har lanserat en AI-driven chatbot vid namn ´Q´, specifikt designad för AWS-kunder. Till ett pris av 20 dollar per användare per år, är chatboten nu tillgänglig för allmän förhandsgranskning. Q kan svara på frågor som ´Hur bygger jag en webbapplikation med hjälp av AWS?´ och kan generera och sammanfatta innehåll som blogginlägg, pressmeddelanden och e-post. Dessutom kan den utföra åtgärder på användarnas vägnar genom konfigurerbara plugins, automatisera uppgifter som att skapa servicetickets och uppdatera dashboards i ServiceNow. Q är integrerad med CodeWhisperer, Amazons tjänst för generering och tolkning av appkod.

Direktlänk Dela Firstpost fördjupade 29 november

Amazon lanserar Q, en generativ AI-assistent för företag

Amazon har introducerat Amazon Q, ett svar på Microsofts generativa AI-assistent Copilot. Amazon Q kan hantera alla grundläggande produktivitetsuppgifter som Copilot kan, men kan också användas för att arbeta över ett brett spektrum av applikationer, vilket bör tilltala IT-chefer som vill begränsa antalet assistenter som behöver övervakas. Amazon Q bygger på AWS data- och utvecklingsexpertis under 17 år och kan användas av företag inom en mängd funktioner, inklusive utveckling av applikationer, kodomvandling, generering av affärsinformation och hjälp till kundtjänstagenter via Amazon Connect.

Direktlänk Dela Computerworld fördjupade 29 november

Generativa AI-tillägg för säkerhetskopiering och katastrofåterställning: Mer hype än verklighet?

Företag inom säkerhetskopiering och katastrofåterställning vill att deras generativa AI-assistenter blir företagens nya bästa vän, men fördelarna är fortfarande oklara. Dessa GenAI-tillägg inkluderar någon form av chattbot för att automatisera uppgifter eller rapporteringsuppgifter, med en rad andra funktioner, såsom kodgenerering eller varningshantering. Jerome Wendt, VD för Data Center Intelligence Group, säger att dessa tillägg handlar mer om att hålla en produkt i diskussionen snarare än att meningsfullt förändra verksamheten. Sid Nag, vice ordförande och analytiker på Gartner, säger att leverantörer måste göra ett starkt fall för hur deras egna AI-vändningar inte äventyrar kundens säkerhet och erbjuder mervärde.

Direktlänk Dela TechTarget fördjupade 28 november

Amazon introducerar nya AI-verktyg för säkerhetsutredningar

Amazon Web Services (AWS) har lanserat nya AI-verktyg för Amazon Detective, avsedda att effektivisera säkerhetsutredningar. Fyra nya AI-drivna funktioner har presenterats totalt. Lanseringen av de nya funktionerna kommer att avlasta säkerhetsanalytiker och förbättra hastigheten och effektiviteten i utredningar och incidentrespons. Bland annat använder ´Detective finding group summaries´ generativ AI för att berika säkerhetsutredningar. Verktyget kommer automatiskt att analysera säkerhetsincidenter och ge användarna naturligt språkrespons för att stödja utredningar.

Direktlänk Dela IT Pro fördjupade 27 november

Amazon Web Services visar upp AI-strategi på re:Invent

Amazon Web Services Inc. (AWS) VD Adam Selipsky avslöjade företagets molnplaner inför denna veckas AWS re:Invent i Las Vegas. Eventet förväntas bli en milstolpe inom generativ AI, där AWS kommer att visa upp sina senaste innovationer och strategier kring AI-anpassningsförmåga, högteknologiskt kisel, datatjänster, innovativa partnerskap och utvecklarverktyg. Selipsky underströk att AWS fortsätter att leda marknaden med betydande förbättringar inom sina kärntjänster, med fokus på beräkning, nätverk, lagring och datahantering. Han nämnde även att adaptabilitet kommer att vara ett centralt tema, särskilt inom Generativ AI.

Direktlänk Dela SiliconANGLE fördjupade 27 november

MLOps-marknaden växer tack vare ökad AI- och ML-användning

MLOps-marknaden (Machine Learning Operations) har vuxit fram som en kritisk och transformerande sektor inom artificiell intelligens och maskininlärning. MLOps representerar sammanslagningen av maskininlärning, mjukvaruteknik och drift, med syfte att effektivisera och optimera processen för att utveckla, distribuera och hantera maskininlärningsmodeller i stor skala. Marknadens tillväxt drivs av ökad användning av AI och ML-teknologier över olika branscher och behovet av effektiv och pålitlig operativisering av dessa modeller. Bland de ledande aktörerna finns IBM, Microsoft, Google, AWS, HPE, GAVS Technologies, DataRobot, Cloudera, Alteryx, Domino Data Lab, Valohai, H2O.ai, MLflow, Neptune.ai och Comet.

Direktlänk Dela Digital Journal fördjupade 27 november

Vägkartan för att bli en datavetenskapsman 2024

Efterfrågan på datavetare fortsätter att öka, vilket gör 2024 till ett bra år att börja behärska detta dynamiska område. För att bli en datavetare krävs en blandning av tekniska färdigheter, domänkunskap och problemlösningsförmåga. En omfattande vägkarta har skapats för att vägleda genom det komplexa landskapet av datavetenskap. Det inkluderar att behärska grunderna i matematik och statistik, skaffa programmeringskunskaper, utforska datahantering och visualisering, dyka in i maskininlärning, specialisera sig inom ett område, omfamna Big Data-teknologier, hålla sig uppdaterad med branschtrender, bygga en stark portfölj och fortsätta lära och utvecklas professionellt.

Direktlänk Dela Medium fördjupade 26 november

AI-verktyg för att omvandla forskning på forskarnivå

AI-verktyg kan hjälpa forskarstudenter att effektivisera sin forskning. Verktyg för naturlig språkbearbetning som GPT-3 och BERT kan hjälpa till med forskningssammanfattningar och tolkning av språk. Dataanalys och maskininlärningsverktyg som Python-bibliotek och scikit-learn kan hantera och bearbeta data effektivt. Bibliografiska verktyg som Zotero, Mendeley och EndNote kan hantera referenser. Samarbetstjänster som Slack, Trello och Microsoft Teams kan underlätta kommunikationen. DMPTool och REDCap kan skydda forskningsdata. Bildanalysverktyg som ImageJ, Fiji och OpenCV kan analysera bilder och video. Statistiska programvarupaket som SPSS, R och SAS kan analysera data. Molntjänster som AWS, Azure och Google Cloud kan hantera stora datamängder. AI-drivna sökmotorer som Iris.ai och Semantic Scholar kan förenkla litteraturöversikter. Virtuella labb och simulatorer kan erbjuda ett säkert experimentutrymme.

Direktlänk Dela Intelligent Living fördjupade 26 november

Amazon lanserar gratis AI-kurser för att utbilda två miljoner människor fram till 2025

Amazon är en av de största investerarna i utvecklingen av artificiell intelligens (AI) teknologi och har lanserat gratis AI-kurser för att utbilda nästan två miljoner människor fram till 2025. AI Ready, den senaste gratis kursen som lanserats av Amazon, kommer nu att vara tillgänglig för alla som är intresserade av att lära sig hur man använder AI. Kurserna är uppdelade för två grupper av människor: tekniska och icke-tekniska personer. Amazon lanserar också ett nytt Amazon Web Services Generative AI-stipendium i samarbete med Code.org. Kurserna kommer att komplettera 80+ gratis och lågkostnadskurser i generativ AI som redan tillhandahålls av AWS.

Direktlänk Dela MobileAppDaily fördjupade 23 november

Amazon lanserar gratis AI-kurser för att utrusta 2 miljoner människor med AI-kunskaper till 2025

Amazon har lanserat AWS AI Ready-kurser, som erbjuder åtta gratis kurser i AI och generativ AI, med målet att utrusta 2 miljoner människor över hela världen med nödvändiga AI-kunskaper till 2025. Detta initiativ är ett direkt svar på resultaten från en AWS-studie som pekade på en ´stark efterfrågan´ på AI-kunniga yrkesverksamma och potentialen för högre löner inom detta område. Målet är att göra AI-utbildning tillgänglig för alla med passion att lära sig. Kurserna inkluderar introduktion till generativ AI, introduktion till Amazon CodeWhisperer, grunderna för Prompt Engineering och flera andra.

Direktlänk Dela Dataconomy Media fördjupade 21 november

Bloom & Wild använder maskininlärning för att förbättra kundupplevelsen och öka försäljningen

Blommor- och gåvoföretaget Bloom & Wild har implementerat maskininlärningsmodeller för att förbättra kundupplevelsen och öka försäljningen. Företaget använde AWS molntjänster för att utveckla en modell som personligen rankar produkter för varje kund baserat på relevans. Modellen har lett till en ökning av försäljningsintäkterna och förbättrad kundupplevelse. Företaget planerar att skriva en serie blogginlägg om de projekt de har arbetat med, inklusive detta.

Direktlänk Dela Medium fördjupade 21 november

Artificiell intelligens kommer att bli en systembelastning, enligt Nutanix-studie

En studie av hybrid multi-cloud-plattformsföretaget Nutanix indikerar att artificiell intelligens (AI) kommer att bli en systembelastning som kommer att främja hybrid multi-cloud-adoption. Det första steget kommer att vara att modernisera organisationers IT-infrastruktur för att bättre stödja och skala AI-belastningar. Nutanix hävdar att företag som planerar att uppgradera sina AI-applikationer eller infrastruktur nu ser behovet av att flytta belastningar mellan Cloud Services Provider (CSP) hyperscalers. Organisationer som önskar migrera sina befintliga applikationer till den offentliga molnet kan använda Nutanix Cloud Clusters (NC2) på AWS, vilket ger samma molndriftsmodell på plats som i den offentliga molnet.

Direktlänk Dela Forbes Media fördjupade 21 november

Förklarbar AI-marknad förväntas växa från 6,2 miljarder USD till 16,2 miljarder USD fram till 2028

Storleken på marknaden för förklarbar AI (XAI) förväntas växa från 6,2 miljarder USD 2023 till 16,2 miljarder USD 2028, med en genomsnittlig årlig tillväxttakt (CAGR) på 20,9% under prognosperioden. Ökade regler och krav på transparens och ansvar i AI-system driver efterfrågan på XAI-lösningar för att säkerställa överensstämmelse med lagar som GDPR och HIPAA. Inom hälso- och sjukvårdssektorn förväntas XAI växa mest under prognosperioden. XAI-teknologier används för att göra AI-modellernas förutsägelser och rekommendationer mer transparenta och tolkningsbara.

Direktlänk Dela Digital Journal fördjupade 20 november

Amazon lanserar ´AI Ready´-program för att utbilda 2 miljoner människor i AI-teknik

Amazon lanserar ´AI Ready´, ett program som syftar till att utbilda 2 miljoner människor i AI-teknik fram till 2025. Initiativet kommer som ett svar på den stora efterfrågan på AI-kompetens och möjligheten till högre löner inom detta område. Programmet inkluderar gratis AI-kurser, stipendier och samarbeten med utbildningsplattformar, riktade både till nuvarande yrkesverksamma och nästa generation. Amazon har tagit ett steg framåt inom AI-utbildning genom att tillkännage sin ´AI Ready´-initiativ med åtta gratis AI och generativa AI-kurser.

Direktlänk Dela Search Engine Journal fördjupade 20 november

Amazon lanserar kostnadsfritt AI-utbildningsprogram för att möta växande efterfrågan

Amazon har lanserat det kostnadsfria träningsprogrammet “AI Ready” för att möta den växande efterfrågan på kvalificerade AI-professionella. Initiativet siktar på att utrusta två miljoner människor över hela världen med grundläggande och avancerade AI-färdigheter fram till 2025. “AI Ready”-programmet kommer att erbjuda en omfattande läroplan med åtta onlinekurser som täcker generativa AI-koncept och tillämpningar. Amazon siktar på att demokratisera tillgången till generativ AI-utbildning, vilket gynnar inte bara sin egen arbetskraft utan även dess företagskunder och AWS-användare.

Direktlänk Dela PC-Tablet fördjupade 20 november

Tigerhall lanserar ´Professional Coach´ med över 1500 innehållsdelar från branschledare

Tigerhall, en ledare inom organisationsaktivering, meddelar lanseringen av sin ´Professional Coach´ drivs av ChatGPT. Professional Coach är utformat för att ge individer och yrkesverksamma insikter från över 1500 globala företagsledare från företag som Meta, IBM, J.P. Morgan och Verizon. Detta nya verktyg kommer att hjälpa individer att främja sina karriärer och transformera sina företag. Professional Coach rekommenderar innehåll från Tigerhalls omfattande bibliotek med över 1500 branschexperter, vilket erbjuder 10 000 handlingsbara insikter.

Direktlänk Dela Digital Journal fördjupade 17 november

Generativ AI förbättrar snabbt programvaruutvecklingen

Generativ AI skapar mycket uppmärksamhet inom alla branscher. I januari 2023 nådde ChatGPT 100 miljoner användare och anses vara den snabbast antagna tekniken någonsin. Tre generativa AI-företag nådde värderingar på över 1 miljard dollar i Q1 2023, och stora teknikföretag inklusive AWS, Google, Microsoft och Salesforce integrerar generativ AI i sina erbjudanden. En rapport från Bloomberg Intelligence förutspår att den generativa AI-marknaden kommer att växa från en marknadsstorlek på 40 miljarder dollar 2022 till 1,3 biljoner dollar 2032. Generativ AI har potential att förbättra effektiviteten och produktiviteten i programvaruutvecklingscykeln.

Direktlänk Dela Forbes Media fördjupade 17 november

En omfattande guide till maskininlärning

Artikeln presenterar en omfattande guide till maskininlärning, en snabbt växande teknik som har potential att revolutionera olika branscher, från hälso- och sjukvård till finans, underhållning till transport. Maskininlärning är en delmängd av artificiell intelligens som fokuserar på att möjliggöra för datorer att lära sig och göra förutsägelser eller beslut utan att vara explicit programmerade. Artikeln täcker grundläggande koncept och terminologi, olika typer av maskininlärningstekniker, samt populära bibliotek och ramverk för att implementera maskininlärningsalgoritmer. Författaren diskuterar också vikten av att välja och förbereda rätt data, modellträning och utvärdering, och implementering och produktionisering av maskininlärningsmodeller.

Direktlänk Dela Robots.net fördjupade 17 november

Microsoft lanserar Fabric, en ny AI-driven analys- och datahanteringsplattform

Microsoft har lanserat Fabric, en molnbaserad SaaS-plattform som kombinerar förmågorna hos Power BI, Data Factory och Azure Synapse Analytics. Plattformen avslöjades först i maj och är nu allmänt tillgänglig. Fabric inkluderar också en fler-molnsdatalake kallad OneLake som automatiskt ansluter till varje databelastning inom Fabric. Microsoft avslöjade Fabric´s allmänna tillgänglighet under Ignite, en användarkonferens i Seattle. Utöver Fabric introducerade Microsoft en rad nya och förbättrade analys- och datahanteringsfunktioner, inklusive nya databasfunktioner som vektorsökning i Azure Cosmos DB MongoDB vCore.

Direktlänk Dela TechTarget fördjupade 16 november

Amazon SageMaker, ONNX och AWS IoT Greengrass förenklar distribution av maskininlärningsmodeller till edge-enheter

Amazon SageMaker, ONNX och AWS IoT Greengrass hjälper till att distribuera maskininlärningsmodeller till edge-enheter. Många applikationer behöver distribuera och utföra maskininlärningsuppgifter på enheter så nära användarna som möjligt, istället för att fjärrköra dessa uppgifter i molnet. Amazon SageMaker har varit ett viktigt verktyg för att förenkla utveckling, träning, distribution och utförande av maskininlärningsuppgifter i molnet. AWS rekommenderar företag att använda Open Neural Network Exchange (ONNX) formatet i kombination med AWS IoT Greengrass V2 som en ersättning för Edge Manager. IoT Greengrass är en AWS IoT-funktion som är utformad för att hantera flottor av IoT-enheter och den programvara som distribueras till dem. ONNX är ett öppen källkodsverktyg som gör det möjligt för team att utföra maskininlärningsuppgifter på en rad edge-enheter.

Direktlänk Dela TechTarget fördjupade 15 november

Cohesity erbjuder tidig åtkomst till Cohesity Turing, integrerat med Amazon Bedrock

Cohesity, en AI-driven leverantör av dataskydd och -hantering, erbjuder tidig åtkomst till Cohesity Turing. Cohesity Turing är företagets omfattande samling av AI-funktioner och teknik som integreras i dess multicloud dataplattform och lösningar. Cohesity kommer att utöka sitt arbete med AWS för att integrera Cohesity Turing med Amazon Bedrock. Med Amazon Bedrock kan företag få tillgång till grundmodeller från andra AI-företag via ett API för att bygga och skala GenAI-applikationer. Med denna integration kan kunder använda de senaste AI-funktionerna för att driva effektivare verksamhet, få värdefull insikt i säkerhetsrisker och få mer värde från sina data.

Direktlänk Dela EnterpriseTalk fördjupade 15 november

Molnleverantörer och mjukvarutillverkare spelar nyckelroll i företags anpassning av generativ AI

Molnleverantörer och mjukvarutillverkare kommer att spela en viktig roll i företags anpassning av generativ AI, eftersom kunder använder deras produkter och tjänster för att införliva den potentiellt transformerande tekniken i verksamheten. Experter är överens om att det blir mycket mer kostnadseffektivt för företag att använda GenAI-tjänster istället för att bygga upp kapaciteterna själva. CIO:er står under press från VD:ar och styrelser att snabbt införa GenAI. Molnleverantörer och de mest framstående mjukvarutillverkarna, inklusive Microsoft, Oracle och Salesforce, hävdar att de tillhandahåller skydd och dataskyddsverktyg för att uppfylla företagspolicyer, skydda känslig data och tillfredsställa statliga regulatorer. Framtiden kommer troligen att innebära att molnleverantörer erbjuder företag möjlighet att välja mellan olika LLM:er och ger rekommendationer om de bästa för specifika uppgifter.

Direktlänk Dela TechTarget fördjupade 14 november

OpenAI fortsätter att generera förlust trots stora investeringar från Microsoft

OpenAI, ett av de mest erkända namnen inom AI, har ökat sitt värde sedan lanseringen av ChatGPT för nästan ett år sedan. Trots detta har företaget fortfarande en lång väg att gå innan det kan bli självförsörjande eller till och med generera vinst. OpenAI har haft ett framgångsrikt år där det rapporterades att företaget fick 10 miljarder dollar i investeringar från Microsoft och släppte flera populära generativa AI-tjänster. Trots framgångarna har OpenAI fortsatt att generera förlust, trots de miljarder dollar som Microsoft har investerat i företaget. OpenAI:s VD, Sam Altman, har tidigare klagat över de enorma kostnaderna för att driva tjänster som ChatGPT.

Direktlänk Dela IT Pro fördjupade 14 november

IBM positionerar sig för att bli en viktig spelare inom generativ AI

Med Watson 2.0, eller watsonx, har IBM positionerat sig för att bli en viktig spelare inom generativ AI. Företaget har en ledande teknologisk grund, en robust och snabbt framåtskridande AI-stack, en stark hybridmolnposition (tack vare Red Hat), ett växande ekosystem och en konsultorganisation med djup domänexpertis för att tillämpa AI i branschspecifika användningsfall. Denna positionering är resultatet av företagets djupa forskning inom AI och lärdomar från tidigare misstag. I en nyligen genomförd analys delar vi våra slutsatser och perspektiv från ett nyligen besök på IBMs forskningshuvudkontor.

Direktlänk Dela SiliconANGLE fördjupade 11 november

Fördelarna med AI och molnbaserad databehandling för företag

AI och molnbaserad databehandling är en stor fördel för företag i GPT-eran. Medan molnbaserad mjukvaruindustri förväntas växa 2x under de närmaste 5 åren, kommer AI-databehandling att växa 5X under samma period. AI:s djupa integration med applikationer i molnbaserad teknik är associerad med möjligheter att generera intäkter. Teknikdrivna organisationer använder AI för att skala upp sina intäkter samt snabbspåra deras omedelbara strategiska mål. Enligt Deloitte möjliggör AI inte bara ”masspersonalisering” av produkter och tjänster utan automatiserar också intelligenta en stor mängd repetitiva uppgifter för att frigöra arbetare som kan ägna sig åt kreativa mål.

Direktlänk Dela AiThority fördjupade 11 november

AI-verktyg och deras inverkan på vitt skilda områden

AI-verktyg som ChatGPT kan vara till stor nytta för de flesta människor som inte är utmärkta skribenter. OpenAI introducerar GPT Store, som gör det möjligt för utvecklare att skapa anpassade GPT-baserade konversationella AI-modeller och sälja dem i en ny marknadsplats. Detta ska utöka tillgängligheten och den kommersiella användningen av AI. Apple fortsätter att utveckla generativa AI-teknologier, medan Twitter Premium Plus-prenumeranter snart kommer att ha tillgång till xAI:s nya AI-system, Grok. AWS introducerar Amazon Elastic Compute Cloud (EC2) och Capacity Blocks för ML, en ny tjänst som gör det möjligt för kunder att hyra Nvidia GPU:er för AI-uppgifter. WeWork har ansökt om skydd mot konkurs, och 01 Advisors har säkrat 395 miljoner dollar för sin tredje fond. Microsoft uppdaterar sitt startprogram för att erbjuda utvalda startups gratis tillgång till avancerade Azure AI-superdatorresurser.

Direktlänk Dela TechCrunch fördjupade 10 november

Google investerar i AI-startupen Anthropic, introducerar nya AI-chips

Google har investerat 2 miljarder dollar i Anthropic, en generativ AI-startup baserad i San Francisco. Anthropic kommer att vara ett av de första företagen att använda Googles nya AI-chips. Företaget, som anses vara en seriös konkurrent till ChatGPT-skaparen OpenAI, kommer att använda Googles senaste TPU v5e-chips i sin stora språkmodell (LLM), Claude. Enligt Anthropic kan Claude 2, en chatbot, sammanfatta upp till cirka 75 000 ord, jämfört med Chat GPT:s 3 000 ord. Google meddelade att dess Cloud TPU v5e är utformad för att leverera kostnadseffektivitet och prestanda för medel- och storskalig träning och inferens. Dessutom har Anthropic säkrat 4 miljarder dollar från Amazon och kommer att använda AWS Trainium och Inferentia-chips för att bygga, träna och distribuera sina framtida grundmodeller.

Direktlänk Dela RCR Wireless News fördjupade 9 november

Orkes lanserar nya kapabiliteter för generativ AI och vektor-databaser inom företagsinfrastruktur

Orkes, en plattform för företags mikrotjänster och arbetsflödesorkestrering som används av företag som United Wholesale Insurance, Foxtel och Normalyze, har lanserat nya funktioner som gör det möjligt för organisationer att implementera generativa AI-modeller och vektor-databaser direkt i deras mikrotjänstinfrastruktur och affärsflöden. AI har gjort stora framsteg i vad tränade modeller kan göra med släppet av LLM:er som GPT-3 och Llama2. Orkes lanserar även Human Task, en funktion för att infoga mänsklig inblandning i AI-arbetsflöden för att säkerställa att människor är involverade i stadier där direkt inmatning eller tillsyn krävs.

Direktlänk Dela Business Wire fördjupade 8 november

Gretel och AWS ingår strategiskt samarbetsavtal för att främja ansvarsfull AI-utveckling

Gretel, en ledande plattform för generering av multimodal syntetisk data, meddelade idag ett strategiskt samarbetsavtal (SCA) med Amazon Web Services (AWS) för att påskynda ansvarsfull utveckling av generativ artificiell intelligens (AI) som skyddar känslig och personlig data. Genom ett nyligen lanserat program kommer utvalda företag att få direkt stöd från experter på båda företagen och exklusiv tillgång till Gretels toppmoderna syntetiska datagenereringsmodeller och verktyg för datasekretess. Programmet är öppet för startups och företag inom sektorer som finansiella tjänster, hälso- och sjukvård och offentlig sektor.

Direktlänk Dela Datanami fördjupade 7 november

EU bör fokusera på hållbarhet och digital transformation för att nå klimat- och digitala mål

För att EU ska kunna uppnå sina dubbla mål inom klimat och digital omvandling, är det nödvändigt att det antar en strategi där hållbarhet går hand i hand med innovation och digital transformation. David Jensen, koordinator för digital transformationsgruppen vid FN:s miljöprogram, betonar att digital teknik bör användas för att bekämpa klimatförändringar utan att öka energi- och resursanvändning. AWS har lanserat Amazon Sustainability Data Initiative (ASDI) som samarbetar med vetenskapliga organisationer för att identifiera, husera och distribuera viktiga datamängder i AWS moln, med syftet att göra dem tillgängliga för allmänheten.

Direktlänk Dela Nation World News fördjupade 6 november

Outerbounds utökar sin förmåga att hantera storskaliga AI-arbetsbelastningar

Outerbounds har integrerat Ray med Metaflow, vilket skapar ett öppen källkods-, människocentrerat, maskininlärningsramverk som kan hantera massiva AI-arbetsbelastningar. Detta tar bort de största hindren för att skala anpassade grundmodeller, vilket öppnar upp obegränsade möjligheter att skapa ledande AI-drivna företag inom alla branscher. Outerbounds har avsevärt utökat sin förmåga att hantera massiva AI-arbetsbelastningar och har gjort stora mängder beräkningskapacitet lättillgänglig och kostnadseffektiv för sina användare. Detta möjliggör för organisationer att bygga storskaliga anpassade generativa AI- och LLM-lösningar från prototyp till produktion.

Direktlänk Dela PR Newswire fördjupade 6 november

Artificiell intelligens i redovisningsmarknaden: En omfattande marknadsrapport

Market Intelx har nyligen publicerat en marknadsrapport om Artificiell intelligens i redovisningsmarknaden. Rapporten innehåller viktig statistisk och analytisk data relaterad till industrin. Den täcker en översikt över segment och undersegment, inklusive produkttyper, applikationer, företag och regioner. Rapporten avslöjar dynamiken i den globala marknaden för Artificiell intelligens i redovisning, framtida affärspåverkan, konkurrenslandskapet för företagen och flödet av global tillförsel och konsumtion.

Direktlänk Dela Argyle Report fördjupade 6 november

Vita huset vill veta vilka som använder AI-kluster och tränar stora språkmodeller

USA:s president Joe Biden har undertecknat en exekutiv order som kräver att operatörer av AI-kluster och modeller som överstiger vissa tröskelvärden rapporterar sina aktiviteter till regeringen. Kravet gäller endast de allra största ML-företagen och infrastrukturleverantörerna. Administrationen vill veta om utvecklingen av potentiella dubbelanvändningsmodeller, vilka säkerhetsåtgärder som vidtas för att skydda dem och vilka steg som tas för att förhindra missbruk. Vita huset vill också veta vilka företag som äger, planerar att äga eller bygger storskaliga AI-kluster, samt omfattningen av den utplacerade beräkningskraften och placeringen av anläggningarna.

Direktlänk Dela The Register fördjupade 5 november

Ny rapport om global marknad för artificiella intelligensverktyg släppt av Global Market Vision

Global Market Vision har släppt en ny rapport om marknaden för artificiella intelligensverktyg (AI). Rapporten innehåller en omfattande analys av affärsaspekter som marknadsstorlek, konkurrenssituation, marknadsmöjligheter, marknadsandelar och inkomsttillväxtmönster. Rapporten täcker data som varierar enligt region och land. De viktigaste aktörerna och de nya marknadsaktörerna studeras i detalj. Rapporten innehåller information som bruttoinkomst, produktion och konsumtion, genomsnittligt produktpris och marknadsandelar för nyckelspelare. Rapporten klassificerar också flera bidrag till den globala marknaden för artificiella intelligensverktyg som hjälper till marknadens tillväxt.

Direktlänk Dela Argyle Report fördjupade 4 november

Indien leder teknologiska eran, SAP TechEd 2023 lanseras

Sindhu Gangadharan, Senior Vice President och Managing Director för SAP Labs India, talade vid lanseringen av SAP TechEd 2023 och förklarade att Indien leder den teknologiska eran. Hon förutspår att landet kommer att ha en ekonomi värd 1 biljon dollar till 2030 och 1,5 miljoner molnproffs till 2025. Hon tillade också att 16% av den globala AI-talangpoolen kommer från Indien. Vid SAP TechEd 2023 presenterades 12 sessionformat, över 1000 timmars utbildning och över 500 SAP-talare från hela världen. Bland dessa kommer det att finnas över 70 externa talare och över 500 sessioner. Gangadharan tillade att AI representerar en unik möjlighet idag.

Direktlänk Dela Dataquest India fördjupade 3 november

AWS lanserar korttids GPU-hyrning baserat på konsumtion

AWS, en populär molnbaserad datortjänst för utvecklare, har lanserat en mer flexibel plan för kortare tidsbehov. Amazon Elastic Compute Cloud (EC2) Capacity Blocks for ML kallas det och tillåter kunder att få tillgång till GPUs baserat på konsumtion. Detta förväntas ge mindre organisationer större möjligheter och bidra till en mer diversifierad landskap. Genom att specificera klusterstorlek och varaktighet kan kunder få tillgång till de senaste Nvidia H100 Tensor Core GPU:erna, vilket innebär att de bara betalar för vad de behöver. Prissättning för tjänsten kan hittas på AWS-webbplatsen.

Direktlänk Dela TechRadar fördjupade 1 november

IMDA och AI Verify Foundation lanserar utvärderingsmiljö för generativ AI

Infocomm Media Development Authority (IMDA) och AI Verify Foundation har lanserat en utvärderingsmiljö för generativ AI (Gen AI) för att stödja utvecklingen av betrodda generativa AI-produkter och avslöja potentiella luckor. Gen AI-utvärderingsmiljön kommer att använda en ny utvärderingskatalog för att fastställa gemensamma baslinjemetoder och rekommendationer för stora språkmodeller. IMDA inbjuder industrin att gemensamt bygga utvärderingsverktyg och kapabiliteter i utvärderingsmiljön. Nyckelmodellutvecklare som Google, Microsoft, Anthropic, IBM, Nvidia, Stability.AI och AWS har redan gått med.

Direktlänk Dela CDOTrends fördjupade 1 november

Google investerar 2 miljarder dollar i AI-startupen Anthropic

Google har bekräftat en nylig investering på 2 miljarder dollar i Anthropic, en San Francisco-baserad AI-startup som anses vara en allvarlig konkurrent till ChatGPT-skaparen OpenAI. Google´s investering inkluderar 500 miljoner dollar i förskott, och i april investerade teknikjätten hundratals miljoner i Anthropic för vad som då var en 10% andel. Google´s senaste investering kommer bara en månad efter att startupen säkrade en investering på 4 miljarder dollar från Amazon. Dessutom kommer Anthropic att använda AWS Trainium och Inferentia-chips för att bygga, träna och distribuera sina framtida grundmodeller, medan AWS kommer att bli Anthropics primära molnleverantör för uppdrag som är kritiska för arbetsbelastning, inklusive säkerhetsforskning och framtida utveckling av grundmodeller.

Direktlänk Dela RCR Wireless News fördjupade 30 oktober

Microsoft, Amazon och Google rapporterar starka resultat tack vare molnplattformar

Förra veckan rapporterade Amazon.com Inc., Microsoft Corp. och Google LLC starka resultat, med särskilt fokus på molnplattformar. Microsofts intäkter ökade med 13% till 56,5 miljarder dollar för kvartalet som avslutades i september, vilket var en ökning från 11% tillväxt företaget rapporterade samma kvartal föregående år. Analytikerna John Furrier och Dave Vellante diskuterade detta och mycket mer i det senaste avsnittet av theCUBE Podcast. Trots en marknadsföringskrig har Microsoft en befintlig installbas i företaget och decennier sedan grundandet av företagsförsäljning. Microsoft har ett bra ekosystem, men Azure vinner just nu genom att ha en bra produkt med artificiell intelligens för företaget.

Direktlänk Dela SiliconANGLE fördjupade 30 oktober

Generativ AI och stora språkmodeller tar SaaS-plattformar till nya höjder

Stora språkmodeller (LLM) och generativ AI (Gen AI) tar SaaS-plattformar till nya höjder. Kunddata-plattformar (CDP) i martech är för närvarande i centrum för varje diskussion om kundupplevelse (CX). Med CX som kärnan i alla affärsbeslut idag finns det ett uppenbart behov av att omdefiniera kundupplevelser genom linsen av ny teknologi, inklusive Gen AI och LLMs. Det innebär att omdefiniera CDP. Detta är en viktig utveckling för CDP-industrin eftersom den omfamnar generativ AI-hype för sin fortsatta tillväxt. CDP-programvarumarknaden förväntas växa till 5,6 miljarder dollar 2026. Gen AI och personalisering skulle växa med tre gånger under samma tid, enligt en nyligen Martech Landscape-trenderapport.

Direktlänk Dela AiThority fördjupade 30 oktober

Framtida trender och möjligheter för AI-karriärer 2024

Artikeln belyser framtiden för AI-karriärer, specifikt år 2024, och diskuterar de trender och möjligheter som formar landskapet. AI är inte längre science fiction, det är en integrerad del av våra liv och dess tillväxt förväntas fortsätta och accelerera. AI kommer inte bara att vara en industri, utan en grund för otaliga andra. Behovet av AI-kompetens kommer att fortsätta att öka i alla sektorer. AI-industrin söker inte bara dataforskare och maskininlärningsingenjörer, utan också yrkesverksamma som förstår hur man tillämpar AI i verkliga scenarier.

Direktlänk Dela Medium fördjupade 29 oktober

AWS försvarar sin position trots konkurrens och ökad kostnadsoptimering

Konkurrenter till Amazon Web Services (AWS) växer snabbt när AWS försöker behålla sin position som den största offentliga molnleverantören. AWS rapporterade en stabil intäktsökning på 12% i tredje kvartalet 2023, drivet av efterfrågan på generativa AI-ledda tjänster, trots att kunder försöker optimera sina molnutgifter. Trots att företaget fortfarande upplever ökad kostnadsoptimering från kunder, rapporterade AWS intäkter på 23,06 miljarder dollar under septemberkvartalet. Amazon VD Andy Jassy och AWS finanschef Brian Olsavsky uttryckte förtroende för företagets kundpipeline och dess generativa AI-baserade erbjudanden, Amazon Bedrock och Amazon CodeWhisperer.

Direktlänk Dela Intelligent CIO fördjupade 27 oktober

Elizabeth Samara-Rubio ansluter till SiMa.ai som Chief Business Officer

Maskininlärningsföretaget SiMa.ai har utsett Elizabeth Samara-Rubio till Chief Business Officer. Samara-Rubio, tidigare Global Head of AI Services vid Amazon Web Services, har över två decennier av ledarskapsroller inom affärsutveckling, produktledning och go-to-market-strategifunktioner för mjukvaru- och hårdvaruindustrin. Hon kommer att bidra med sin samlade branscherfarenhet och kunskap för att påskynda SiMa.ai:s uppdrag att revolutionera landskapet för edge computing med artificiell intelligens och maskininlärning.

Direktlänk Dela AiThority fördjupade 25 oktober

Global kapacitet av hyperskala datacenter kan tredubblas på fem till sex år

Global kapacitet av hyperskala datacenter kan se en tredubbling under de nästa fem till sex åren, tack vare den massiva efterfrågan som sannolikt kommer att genereras av generativ artificiell intelligens (Gen AI). Detta var kärnan i en ny rapport baserad på data genererad av Synergy Research Group (SRG). Enligt forskargruppen finns det för närvarande mer än 900 hyperskala datacenter i drift runt om i världen och över 400 nya är i olika stadier av planering och genomförande. AWS, Microsoft Azure och Google Cloud och möjligtvis Meta har en stark pipeline för framtida tillväxt i sådana datacenter.

Direktlänk Dela CXO Today fördjupade 25 oktober

AI-konferenser i fokus, Samsungs AI-möjligheter och Databricks förvärv av Arcion

Teknikredaktören Alexei Oreskovic rapporterar om den snabba utvecklingen inom AI, med flera konferenser och evenemang ägnade åt ämnet. Bland talarna på TED:s AI-konferens i San Francisco fanns medgrundarna till DeepMind, OpenAI och LinkedIn. Madrona, en VC-firma baserad i Seattle, höll sin andra årliga Intelligent Applications Summit. Enligt AWS SVP Matt Garman använder företag alltmer blandningar av olika AI-modeller. Altimeter-grundaren Brad Gerstner kommenterade explosionen av AI-startups, varav många har stora värderingar. Samsung planerar att införa AI-funktioner i sin nya smartphone-linje, Galaxy S24. Analytikföretaget Databricks har gått med på att förvärva Arcion, ett företag som överför databaser över lagringssystem.

Direktlänk Dela Fortune Media fördjupade 23 oktober

IBM Consulting utökar samarbetet med Amazon Web Services för att utveckla generativ AI

IBM Consulting utökar sitt samarbete med Amazon Web Services (AWS) för att hjälpa fler gemensamma kunder att dra nytta av generativ artificiell intelligens (AI). Investeringen innebär att företagen kommer att utveckla och leverera gemensamma lösningar och tjänster inom generativ AI, en teknologi som enligt McKinsey har potential att bidra med upp till 4,4 biljoner dollar i ekonomiskt värde årligen. IBM Consulting och AWS kommer också att samarbeta för att utveckla specifika användningsfall för generativ AI och fördjupa sin tekniska integration över nyckelsystem som IBM:s watsonx.data-plattform och AWS moln. IBM Consulting har åtagit sig att utbilda ytterligare 10 000 konsulter i AWS generativa AI-tjänster fram till slutet av 2024.

Direktlänk Dela Consultancy Middle East fördjupade 23 oktober

Marknaden för AI-kodverktyg beräknas växa till 12,6 miljarder dollar 2028

Marknaden för AI-kodverktyg, också kända som artificiellt intelligenta kodverktyg, beräknas växa från 4,3 miljarder dollar 2023 till 12,6 miljarder dollar 2028, enligt en ny rapport från MarketsandMarkets™. Dessa verktyg, som använder artificiell intelligens och maskininlärningstekniker, hjälper utvecklare i olika aspekter av mjukvaruutvecklingscykeln. De syftar till att effektivisera och förbättra kodningsprocessen genom att automatisera repetitiva uppgifter, ge kodförslag och korrigeringar, upptäcka fel och sårbarheter och erbjuda insikter i kodkvalitet och prestanda.

Direktlänk Dela Business Lend fördjupade 23 oktober

Amazon väl positionerat för att dra nytta av AI-vågen

Artificiell intelligens (AI) är en av de största trenderna på senare år och erbjuder nya möjligheter för investerare. Amazon är ett företag som är väl positionerat för att dra nytta av denna trend. Företaget använder AI för att förbättra effektiviteten och kundupplevelsen inom sin e-handelsverksamhet. Dessutom erbjuder Amazon olika AI-tjänster genom sin molnberäkningstjänst, AWS. Amazon har även tillgång till en stor mängd data genom sin e-handelsplattform, AWS, Alexa och andra dotterbolag, vilket är en värdefull resurs för att förbättra AI-algoritmer. Amazon-aktien är tillgänglig till ett rimligt pris jämfört med andra AI-relaterade företag som Palantir Technologies eller C3.ai.

Direktlänk Dela The Motley Fool fördjupade 21 oktober

Amazon Quicksight: molnbaserad affärsintelligensservice

Amazon Quicksight är en molnbaserad affärsintelligensservice som låter användare skapa och dela interaktiva instrumentpaneler, rapporter och insikter från olika datakällor. Quicksight är utformat för att vara lätt att använda, skalbart och kostnadseffektivt, utan några förskottskostnader eller licenser som krävs. Användare kan ansluta till data i AWS, tredjepartsapplikationer eller lokala databaser och använda Quicksights kraftfulla minnesmotor, SPICE, för snabb analys och visualisering. Quicksight använder maskininlärning för att tolka frågans avsikt, analysera data och generera insikter på sekunder.

Direktlänk Dela Trend Hunter fördjupade 21 oktober

Druva har introducerat en ny generativ AI-assistent, Dru, för att automatisera rapporter, upptäcka anomala aktiviteter och ge säkerhetsvägledning. Dru är en del av Druvas flaggskeppsprogramvara, en molnbackup- och cachings-SaaS-tjänst. Dru lägger till generativa AI-verktyg i Druvas backup-suite för att skapa efteråtgärdsrapporter genom ett chattgränssnitt, ge säkerhetsvägledning och mer. Dru baseras på Amazon Bedrock, den generativa AI-hanterade tjänsten från AWS, och Druva hanterar API-anslutningar och installationer relaterade till Dru AI. Druva har en aggressiv uppdateringsplanering för Dru, givet att Druva SaaS uppdateras varannan vecka.

TechTarget fördjupade 19 oktober

Organisationer är inte beredda på generativ AI trots dess potential, visar en ny undersökning

En ny undersökning sponsrad av AWS och MIT Chief Data Officer Symposium visar att många organisationer inte är beredda på generativ AI trots dess potential. Undersökningen omfattade 334 globala Chief Data Officers (CDOs) och visade att endast 42% ansåg att de har ansvar för strategi och genomförande när det gäller generativ AI. Trots detta tror 80% att generativ AI sannolikt kommer att förändra deras organisationer. Endast 19% sade att de hade avdelnings- eller företagsenhetsnivåexperiment med generativ AI och endast 6% hade en eller flera generativa AI-användningsfall i produktion.

Direktlänk Dela Forbes Media fördjupade 18 oktober

Google erbjuder skydd mot upphovsrättsintrång för AI-kunder

Google följer Microsofts exempel genom att erbjuda skydd mot upphovsrättsintrång för kunderna av dess Workspace och Google Cloud som använder dess generativa AI. Google Cloud meddelade i ett blogginlägg att de kommer att erbjuda skydd mot upphovsrättsintrång som täcker färdiga produkter eller användningen av dess AI-utbildningsdata. Skyddet täcker alla anklagelser om att Googles användning av informationen för att skapa någon av dess modeller med en generativ AI-tjänst kränker en tredje parts IP. Skyddet gäller även innehåll som skapas efter ´uppmaningar eller andra inmatningar´ som kunderna tillhandahåller till företagets tjänster.

Direktlänk Dela Mobile World Live fördjupade 13 oktober

TitanML säkrar 2,8 miljoner dollar i för-seed-finansiering för att förbättra AI-implementering

AI-startupen TitanML har säkrat 2,8 miljoner dollar i för-seed-finansiering ledd av Octopus Ventures och deep tech-inriktade ängelinvesterare. Finansieringsrundan sammanföll med att teamet offentligt lanserade Titan Takeoff, som gör implementering av stora språkmodeller (LLM) betydligt snabbare, billigare och enklare för maskininlärningsteam. TitanML, grundat 2021, är resultatet av postdoktorala forskningen av Dr. James Dborin och Dr. Fergus Finn vid University College London. Tillsammans med Meryem Arik, en Oxford-alumn, har de förvandlat sin expertis till företagsklar programvara som minskar ansträngningen för både AI-utveckling och implementering.

Direktlänk Dela Datanami fördjupade 12 oktober

ChaosSearch lanserar Chaos LakeDB för att driva generativ AI, SQL och Live Search

ChaosSearch, en ledande logganalysplattform, har lanserat Chaos LakeDB - den första datalagsdatabasen designad för att driva generativ AI, SQL och Live Search. Chaos LakeDB är tillgängligt som en SaaS data plattform för företag och som en inbyggd databas från molnplattformsleverantörer. Tidigare i år avtäckte ChaosSearch Chaos AI Assistant, som drivs av open AI och är integrerad i ChaosSearch-plattformen. Branschledare som Cisco och Equifax använder redan Chaos LakeDB. Chaos LakeDB är utformat för olika tillämpningar, inklusive allmän systemobservabilitet, förståelse av produktanvändningstrender för att härleda affärsinsikter och söka loggdata för felsökning.

Direktlänk Dela Datanami fördjupade 12 oktober

» Nyheterna från en dag tidigare

Några av våra kursdeltagare