Google jagter ChatGPT-brugere med smart importværktøj

Google har lanceret nye importværktøjer til sin AI-assistent Gemini, der skal gøre det markant nemmere for brugere at skifte fra konkurrerende tjenester som ChatGPT og Claude.

Google jagter ChatGPT-brugere med smart importværktøj
Lavet med Nano Banana

Google vil have dig til at skifte til Gemini. De har bygget et værktøj, der importerer hele din ChatGPT-historik med ét klik.

Det er et smart træk. Men det rejser også et spørgsmål: Hvad sker der egentlig med alle de samtaler, vi har med AI?

Det spørgsmål fylder i denne uge. For mens Google jagter voksne brugere, lærer toårige at tale med skærme. Meta vil kopiere den måde, din hjerne fungerer på. Og Val Kilmer er død — men hans stemme og ansigt lever videre i film.

P.S: Den 7. april lancerer jeg 3 Minutter Premium — artikler, workflows og prompts til dig, der vil have mere ud af AI i hverdagen. Læs mere her

God læselyst med nyhedsbrevet!
/René 🤗

Her er dagens menu:

  • Google jagter ChatGPT-brugere med smart importværktøj
  • Din toårige lærer at tale med en skærm – men hvad lærer skærmen ham?
  • Meta bygger en AI, der tænker som din hjerne
  • Val Kilmer er død – men hans stemme og ansigt lever videre på film
💡
Se webinar: Nu kan du bygge software med almindelige ord

Google jagter ChatGPT-brugere med smart importværktøj

Lavet med Nano Banana

Google har lanceret nye importværktøjer til sin AI-assistent Gemini, der skal gøre det markant nemmere for brugere at skifte fra konkurrerende tjenester som ChatGPT og Claude.

Med de nye funktioner kan man nu overføre sine gemte minder, personlige præferencer og hele chathistorik direkte ind i Gemini — uden at skulle starte forfra.

Selve processen er gjort tilgængelig for alle forbrugere via indstillingerne i Gemini-appen. Vil man flytte sine minder, kopierer man blot et foreslået prompt ind i den gamle AI-app, som derefter genererer et sammendrag af de gemte oplysninger. Det sammendrag importeres så i Gemini, der analyserer og gemmer informationerne sikkert. Vil man have hele sin chathistorik med, uploader man blot en ZIP-fil med den eksporterede historik.

Anthropics Claude tilbyder også en lignende importfunktion for brugere, der hellere vil skifte dertil. Her eksporterer man sin data fra ChatGPT og importerer den via en dedikeret funktion i Claude — dog kræver det betalte abonnementer hos begge tjenester.

Hvorfor er det vigtigt?
Det viser, at ingen AI-tjeneste reelt har brugerne låst fast. Skifteomkostningerne er lave, og konkurrencen om brugernes daglige vaner er intens. Det er godt nyt for forbrugerne, der frit kan vælge den assistent, der passer dem bedst — og et klart signal til hele branchen om, at loyalitet skal fortjenes, ikke tages for givet.
Google Launches Gemini Import Tools to Poach Users From Rival AI Apps
Anyone looking to switch their AI assistant will find it surprisingly easy, as it only takes a few steps to move from A to B. This is noteworthy insofar

Efter 7 uger arbejder Claude for dig — ikke omvendt

En sælger giver Claude en mappe med kundens mails, et mødenotat og sin prisoversigt. 12 minutter senere er tilbuddet færdigt — formateret og klar til afsendelse.

Det er ikke en demo. Det er ikke en fremtidsvision. Det er hvad Claude faktisk kan i dag.

Men det er ikke den Claude, de fleste kender.

Den Claude de fleste kender

Du stiller et spørgsmål. Får et svar. Kopierer det ind i et dokument. Næste dag starter du forfra — som om I aldrig har mødt hinanden.

Den Claude de færreste kender

Hedder Claude Cowork. Arbejder direkte i dine filer. Du giver den en mappe, en opgave og nogle regler. Den arbejder. Du vender tilbage til resultatet.

En økonomiansvarlig uploader tre års regnskaber. Fem minutter senere: et overblik med konkrete observationer — klar til bestyrelsesmødet.

En marketingmedarbejder sætter Claude op med sin tone og sine regler. Én gang. Hver uge leverer Claude et færdigt nyhedsbrevsudkast. Han retter to sætninger og sender.

Det er ikke produktivitetstips. Det er en anden måde at arbejde på.


Byg dit eget system på 7 uger

I min Claude Masterclass lærer du præcis hvordan det fungerer — og bygger dit eget setup undervejs.

Du starter med at forstå forskellen på chatbot og agent. Du ender med et Claude-setup der kender din virksomhed, genbrugelige skills til dine faste opgaver, og mindst én agent der løser en reel opgave fra din hverdag.

Du behøver ingen teknisk baggrund. Bare viljen til at arbejde på en ny måde.

Første hold starter 9. april - (3 pladser tilbage)

Din toårige lærer at tale med en skærm – men hvad lærer skærmen ham?

Lavet med Midjourney

En artikel fra The Conversation, skrevet af Sarah Whitcombe-Dobbs fra University of Canterbury, advarer om, at børn i dag udsættes for kunstig intelligens (AI) i en meget tidlig alder – langt tidligere end vi ved, hvad konsekvenserne er.

Mange familier giver skærme til børn under to år, og på platforme som YouTube Kids dukker der stadig mere AI-genereret indhold op, som afspilles automatisk. Noget af dette indhold kan være direkte skræmmende eller seksualiseret, men pakket ind i søde figurer og dyr.

I børnehaverne bruges AI allerede til at støtte børn med særlige behov, og i USA rapporterer mange forældre, at deres børn bruger AI til skolearbejde. Problemet er, at den forskning, der bakker op om denne udvikling, kun ser på kortsigtede effekter – vi ved simpelthen ikke, hvad det gør ved børn på lang sigt.

Det, vi ved med sikkerhed, er at de første leveår er afgørende for hjernens udvikling. Børn lærer at forstå verden og andre mennesker gennem fysisk nærhed, ansigt-til-ansigt-kontakt og det, man kalder "serve-and-return"-interaktioner, altså de levende, gensidige udvekslinger med forældre og andre børn. Disse erfaringer former de grundlæggende strukturer i hjernen og danner skabeloner for, hvordan vi indgår i nære relationer hele livet igennem.

AI er uendeligt tålmodig, øjeblikkeligt responsiv og stiller ingen krav – og det kan være problematisk. Hvis børn vænner sig til den form for interaktion, er der risiko for, at de finder det vanskeligere at håndtere rigtige menneskelige relationer, som jo indebærer konflikt, forhandling og fejl. Derudover har små børn svært ved at skelne fantasi fra virkelighed, og AI's evne til at skabe overbevisende fiktive verdener kan forvirre dem om, hvad der er ægte – og hvem der faktisk er bevidst.

Forfatteren understreger, at vi i bund og grund udfører et eksperiment med en hel generation, og at hvis skaden sker, kan den være uoprettelig. Derfor mener hun som minimum, at familier bør have friheden til at vælge et AI-frit miljø for deres børn.

Hvorfor det er vigtigt?
De første leveår er et engangsvindue i barnets udvikling. Hjernens grundlæggende strukturer formes netop nu – og vi kan ikke spole tilbage. At introducere AI i denne fase uden sikker viden om konsekvenserne er ikke bare et teknologispørgsmål, men et spørgsmål om børns fremtidige evne til at elske, mærke og forbinde sig med andre mennesker.
Why exposing young children to AI content could have irreversible consequences
Young children’s brains develop through interaction with others. Throwing AI into the mix could make it more difficult for them to navigate real-world relationships.

Meta bygger en AI, der tænker som din hjerne

Lavet med MIdjourney

Meta har lanceret en avanceret AI-model kaldet TRIBE v2, som er designet til at simulere, hvordan den menneskelige hjerne reagerer på forskellige former for stimuli – herunder billeder, lyde og sprog.

Modellen fungerer som en slags digital tvilling af hjernen og kan med høj hastighed og præcision forudsige, hvordan hjernen vil reagere på indhold som videoer, podcasts og tekst.

TRIBE v2 er bygget på data fra over 700 frivillige forsøgspersoner, og systemet analyserer fMRI-scanninger for at lære hjernens reaktionsmønstre at kende. En af de store forbedringer i forhold til tidligere modeller er, at den kan generalisere på tværs af nye personer, opgaver og sprog, hvilket gør den langt mere alsidig.

Meta mener, at teknologien på sigt kan reducere behovet for menneskelige deltagere i hvert enkelt hjerneforsøg, hvilket potentielt kan fremskynde forskningen i neurologiske sygdomme. Modellen, koden og en interaktiv demo er gjort tilgængelige under en ikke-kommerciel licens for at fremme samarbejde inden for neurovidenskab og AI.

Hvorfor er det vigtigt?
Teknologien kan revolutionere hjerneforskningen ved at gøre den hurtigere, billigere og mere tilgængelig. Hvis AI kan erstatte eller supplere dyre og tidskrævende scanningsforsøg, åbner det døren for langt hurtigere fremskridt i forståelsen af sygdomme som Alzheimer, depression og epilepsi.

Val Kilmer er død – men hans stemme og ansigt lever videre på film

Lavet med Midjourney

Den afdøde Hollywood-skuespiller Val Kilmer, der er bedst kendt for sin rolle som Iceman i Top Gun fra 1986, skal posthumt optræde i en ny film kaldet As Deep As The Grave.

Det sker godt et år efter hans død af lungebetændelse, og det hele er muliggjort ved hjælp af avanceret kunstig intelligens.

Kilmer blev oprindeligt castet i filmen for fem år siden, men kunne på grund af sygdom ikke arbejde på settet. Han havde tidligere fået foretaget en halsskæring i forbindelse med strubekræft, hvilket beskadigede hans stemme permanent. Det er netop denne stemme – fra efter operationen – som bruges i filmen, hvor han spiller en katolsk præst og indiansk spiritualist ved navn Father Fintan. Filmselskabet First Line Films oplyser, at de har samarbejdet tæt med Kilmers familie, herunder hans datter Mercedes.

I filmen medvirker også Harry Potter-stjernen Tom Felton og skuespillerinden Abigail Lawrie. Historien udspiller sig i Arizona og handler om arkæologer, der graver i et område med stor betydning for Navajo-folket. Filmen forventes at have premiere senere i år.

Hvorfor er det vigtigt?
Sagen sætter fokus på et af de mest betændte spørgsmål i underholdningsbranchen lige nu: Hvor langt må man gå med AI, når det gælder afdøde kunstnere? Det udfordrer vores forståelse af samtykke, arv og kunstnerisk integritet – og det kommer på et tidspunkt, hvor skuespillerforeninger og musikbranchen allerede kæmper hårdt for at beskytte deres medlemmer mod AI-teknologiens fremmarch.

Nu kan du bygge software med almindelige ord

Foto: Kasper Junge

Da AI-ingeniør Andrej Karpathy i februar 2025 begyndte at eksperimentere med at lade AI-agenter skrive kode for ham, fandt han på et navn til det: vibe coding. Siden er begrebet eksploderet — og nu kan alle være med.

Jeg inviterede Kasper Junge til et webinar for at grave ned i, hvad vibe coding egentlig betyder i praksis.

Her er de vigtigste pointer — og svarene på de spørgsmål, deltagerne stillede undervejs.

Hvad er vibe coding egentlig?

Kasper definerer vibe coding sådan: Det er, når det naturlige sprog bliver dit primære programmeringssprog. Altså dansk, engelsk eller et hvilket som helst andet sprog du taler.

"I gamle dage har det her med at kunne programmere og udvikle software været forbeholdt under én procent af verdens befolkning," forklarede Kasper. "Men nu hvor det bliver tilgængeligt via naturligt sprog, kan mange flere være med."

Det interessante er, at vibe coding ikke kun er for dem, der aldrig har kodet før. Kasper ser professionelle udviklere, der bruger samme tilgang — bare til mere ambitiøse projekter. De uddelegerer til agenter og bygger hurtigere end nogensinde.

Tak for at du læste med!

Jeg glæder mig til at dele flere spændende AI-nyheder med dig i næste uges nyhedsbrev. Har du tanker, spørgsmål eller bare lyst til at dele din mening? Skriv endelig tilbage - jeg elsker at høre fra mine læsere og svarer altid personligt.

Kender du andre, der er nysgerrige på AI's muligheder? Del gerne nyhedsbrevet med dem- sammen bliver vi klogere! 🤗

Vi ses på tirsdag!

Mvh. René Hjetting
Mobil: +45 29 27 65 40