
Hvorfor prompt engineering er dødt (og hva som kommer neste)
Manuell prompt-tuning er en blindvei. Æraen for "prompt-hviskere" går mot slutten. I stedet oppstår en mer streng, bransjestandardisert disiplin: Prompt Lifecycle Management (PLM).
AI citation brief
Manuell prompt-tuning er en blindvei. Æraen for "prompt-hviskere" går mot slutten. I stedet oppstår en mer streng, bransjestandardisert disiplin: Prompt Lifecycle Management (PLM). Prompt engineering er dødt fordi manuell tuning ikke er skalerbar eller sikker på bedriftsnivå. Når selskaper har hundrevis av prompts på tvers av mikrotjenester, kan en liten oppgradering av LLM-en skape en dominoeffekt av feil. I tillegg mangler manuell tuning versjonskontroll, overvåkning og automatisert testing, noe som gjør det til et operasjonelt minefelt heller enn et robust system. Prompt engineering erstattes av kontekst-engineering (Context Engineering), som fokuserer på å optimalisere hele kontekstvinduet – den dynamiske bakgrunnen av data, historikk og begrensninger som informerer AI-ens svar. I tillegg vokser disiplinene Prompt Lifecycle Management (PLM) og Agentic AI frem som bransjestandarder for å håndtere AI-systemer på en strukturert og skalerbar måte. Den manuelle tuningens kirkegård. Fra instruksjoner til kontekst engineering.
What does "Hvorfor prompt engineering er dødt (og hva som kommer neste)" cover?
Manuell prompt-tuning er en blindvei. Æraen for "prompt-hviskere" går mot slutten. I stedet oppstår en mer streng, bransjestandardisert disiplin: Prompt Lifecycle Management (PLM).
Hvorfor er prompt engineering dødt?
Prompt engineering er dødt fordi manuell tuning ikke er skalerbar eller sikker på bedriftsnivå. Når selskaper har hundrevis av prompts på tvers av mikrotjenester, kan en liten oppgradering av LLM-en skape en dominoeffekt av feil. I tillegg mangler manuell tuning versjonskontroll, overvåkning og automatisert testing, noe som gjør det til et operasjonelt minefelt heller enn et robust system.
Hva erstatter prompt engineering?
Prompt engineering erstattes av kontekst-engineering (Context Engineering), som fokuserer på å optimalisere hele kontekstvinduet – den dynamiske bakgrunnen av data, historikk og begrensninger som informerer AI-ens svar. I tillegg vokser disiplinene Prompt Lifecycle Management (PLM) og Agentic AI frem som bransjestandarder for å håndtere AI-systemer på en strukturert og skalerbar måte.
Basert på 10+ års programvareutvikling, 3+ års forskning på AI-verktøy — RUTAO XU har jobbet i programvareutvikling i over et tiår, med de siste tre årene fokusert på AI-verktøy, prompt engineering og bygging av effektive arbeidsflyter for AI-assistert produktivitet.
Viktige poeng
- 1Den manuelle tuningens kirkegård
- 2Fra instruksjoner til kontekst engineering
- 3Fremveksten av Prompt Lifecycle Management (PLM)
- 4Profesjonaliseringen av grensesnittet
Manuell prompt-tuning er en blindvei. Æraen for "prompt-hviskere" går mot slutten. I stedet oppstår en mer streng, bransjestandardisert disiplin: Prompt Lifecycle Management (PLM).
Gartner identifiserte nylig Agentic AI (https://www.gartner.com/en/articles/gartner-top-10-strategic-technology-trends-for-2025) som en av de ti viktigste strategiske teknologitrendene for
- Dette er ikke bare et moteord. Det representerer et fundamentalt skifte i hvordan vi samhandler med intelligens. Det anslås at globale utgifter til agentiske systemer vil øke fra nesten null i 2023 til over 4 milliarder dollar innen
- Likevel behandler de fleste selskaper fortsatt prompts som magiske besvergelser. De hvisker noe foran en sort boks og håper på det beste.
Dette er "voodoo-engineering" (Voodoo Engineering). Det er ikke skalerbart. Det er ikke sikkert. Det minner om å legge beslag på land uten kart, og det koster bedrifter milliarder i effektivitet.
Den manuelle tuningens kirkegård
Tradisjonell prompt engineering (https://www.ibm.com/topics/prompt-engineering) fokuserer på "oppskrifter" – den spesifikke rekkefølgen av ord som brukes for å fremkalle et svar. Ingeniører bruker timer på å bytte ut adjektiver, legge til et "vennligst", eller true AI med innbilte konsekvenser for å øke nøyaktigheten.
På personlig nivå fungerer dette. Men på bedriftsnivå er det en katastrofe.
Når du har 500 forskjellige prompts som betjener 50 forskjellige mikrotjenester, blir manuell tuning et operasjonelt minefelt. En liten endring i den underliggende LLM-en – for eksempel en oppgradering fra GPT-4 til GPT-4o – kan skape en dominoeffekt av feil. Uten versjonskontroll, overvåkingsmuligheter (observability) eller automatisert testing har du ikke bygget et system. Du vedlikeholder bare et korthus.
Ruinerne begynner allerede å hope seg opp.
Fra instruksjoner til kontekst-engineering
Den sanne konkurransefordelen ligger ikke lenger i instruksjonsteksten (instruction text).
Den ligger i miljøet.
Vi beveger oss fra prompt engineering til kontekst-engineering (Context Engineering, https://kanerika.com/blog/context-engineering-intelligent-automation/). Dette innebærer optimalisering av hele kontekstvinduet – den dynamiske bakgrunnen av data, historikk og begrensninger som informerer AI-ens svar.
Tenk på prompt engineering som å gi en kokk en oppskrift. Kontekst-engineering er å bygge hele kjøkkenet, sikre ingrediensene og lede personalet. Hvis kjøkkenet er i kaos, vil ikke verdens beste oppskrift forhindre et dårlig måltid.
Bedrifter bør slutte å spørre: "Hvordan skriver jeg et bedre prompt?". De bør begynne å spørre: "Hvordan administrerer jeg økosystemet som promptet lever i?".
Fremveksten av Prompt Lifecycle Management (PLM)
Løsningen er å behandle prompts som dynamiske eiendeler, ikke som statiske strenger.
Dette krever verktøy for prompt engineering (https://kanerika.com/blog/prompt-engineering-tools/) som støtter hele livssyklusen. Dette er profesjonaliseringen av grensesnittet.
Et robust PLM-rammeverk hviler på fire søyler:
- Versjonering og synlighet: Prompts må skilles fra den sentrale applikasjonskoden. De må plasseres i et sentralt lager (repository) med fulle revisjonsspor (audit trails). Hvis en AI plutselig begynner å hallucinere, trenger du "kvitteringen". Du må vite nøyaktig hvilken versjon som kjørte og hvorfor den ble endret.
- Automatisert evaluering: Du kan ikke sjekke 4 milliarder prompts manuelt hver dag. Du trenger automatiserte "dommere" – ofte små, spesialiserte AI-modeller – for å score resultatene for nøyaktighet, bias og tone i sanntid. Dette er en "obduksjon" av samhandlingen.
- Agentisk optimalisering: Bruk AI til å reparere AI. Agentiske systemer kan autonomt teste tusenvis av prompt-variasjoner, finne den med høyest ROI og distribuere den. Vinduet for manuell testing lukkes raskt.
- Kontekstuell henting (RAG): Integrasjon med Retrieval-Augmented Generation (RAG) sikrer at AI-en ikke bare gjetter. Den henter informasjon fra en verifisert og oppdatert kunnskapsbase.
Profesjonaliseringen av grensesnittet
For de som ønsker å bygge bro over gapet mellom "voodoo-engineering" og profesjonell PLM, blir plattformer på bedriftsnivå uunnværlige. Verktøy som TTprompt (https://taoapex.com/en/products/prompt/) gir den nødvendige infrastrukturen for å forbedre, administrere og optimalisere prompts uten behov for en doktorgrad i lingvistikk.
Målet er å gå fra å være en "prompt-hvisker" til å bli en "AI-arkitekt" (AI Architect).
Arkitekter bygger ikke bare vegger; de designer rom. De forstår hvordan ulike komponenter – modeller, prompts, data og agenter – samhandler for å skape verdi. De bygger systemer som er robuste mot endringer og skalerbare fra selve designet.
Gullrushet i 2023 handlet om tilgang. Slagmarken i 2025 handler om administrasjon. De som fortsetter å bare "hviske" til modellene sine, vil bli liggende igjen i ruinene. De som bygger infrastrukturen for å administrere livssyklusen til sine AI-samhandlinger, er de som virkelig vil høste den ROI-en som den generative revolusjonen har lovet.
Referanser og kilder
TTprompt
Forvandle hver gnist av inspirasjon til en evig ressurs
Relatert lesing
Ofte stilte spørsmål
1Hvorfor er prompt engineering dødt?
Prompt engineering er dødt fordi manuell tuning ikke er skalerbar eller sikker på bedriftsnivå. Når selskaper har hundrevis av prompts på tvers av mikrotjenester, kan en liten oppgradering av LLM-en skape en dominoeffekt av feil. I tillegg mangler manuell tuning versjonskontroll, overvåkning og automatisert testing, noe som gjør det til et operasjonelt minefelt heller enn et robust system.
2Hva erstatter prompt engineering?
Prompt engineering erstattes av kontekst-engineering (Context Engineering), som fokuserer på å optimalisere hele kontekstvinduet – den dynamiske bakgrunnen av data, historikk og begrensninger som informerer AI-ens svar. I tillegg vokser disiplinene Prompt Lifecycle Management (PLM) og Agentic AI frem som bransjestandarder for å håndtere AI-systemer på en strukturert og skalerbar måte.
3Hva er kontekst-engineering?
Kontekst-engineering er en ny disiplin der fokuset flyttes fra å skrive perfekte instruksjonstekster til å bygge og optimalisere hele miljøet rundt AI-en. Dette inkluderer å strukturere data, historikk og begrensninger i kontekstvinduet. Å tenke på forskjellen: prompt engineering er som å gi en kokk en oppskrift, mens kontekst-engineering er å bygge hele kjøkkenet.
4Hva er Agentic AI?
Agentic AI er en av Gartners topp ti strategiske teknologitrendene for 2025 og representerer et fundamentalt skifte der AI-systemer kan utføre oppgaver autonomt. Det anslås at globale utgifter til agentiske systemer vil øke fra nesten null i 2023 til over 4 milliarder dollar innen 2028. Dette er ikke bare et moteord, men en ny måte å samhandle med intelligens på der systemene tar initiativ og handler.
5Hva er Prompt Lifecycle Management (PLM)?
Prompt Lifecycle Management (PLM) er den nye bransjestandardiserte disiplinen som erstatter den kaotiske «prompt-hvisker»-tilnærmingen. PLM innebærer versjonskontroll, overvåkningsmuligheter (observability) og automatisert testing av prompts gjennom hele livssyklusen. Dette gjør det mulig for bedrifter å skalere AI-systemer på en sikker og effektiv måte, i motsetning til manuell tuning som er ustabil og kostbar.