Jag har alltid hatat förstudier. Förstudier tar tid. Förstudier består av mötesrum och intervjuer. Det blir en leverans av Powerpoint-presentationer där en nybakad konsult berättar saker jag själv hade kunnat googla fram på bussen till jobbet.
Däremot har jag alltid älskat POC - "proof of concept". En POC visar om saker är genomförbara. De etablerar en verklig förståelse för hur en ska göra, för vägen framåt, för var en kommer att hamna. Är det något tekniskt inblandat är en POC den bästa vägen framåt i 9 fall av 10. "Seeing is believing", som det heter på engelska. Det gäller naturligtvis också AI-projekt.
Jag fick en fråga om ett utvecklingsteam kunde få stöd av en lokal AI-modell för att förbättra hanteringen av återkommande kundförfrågningar. Det var en riktigt bra idé: "kunden frågar om X" leder till "här har vi information om hur vi har hanterat problem tidigare som liknar X". Denna information skulle presenterats för teamet som ett stöd att snabbare och mer korrekt kunna hjälpa kunden med sin förfrågan. Vi ville alltså inte skapa ännu en av dessa irriterande AI-kundtjänstchatbotar för slutkunden att interagera med.
Ska jag göra en förstudie kanske? Nej. Jag gör en POC i stället. Starta smått och kontrollerat. Så här gick det till:
1. Jag indexerade först upp hela utvecklingsteamets kodbas, alla ärenden/tickets som hade kommit in från kunder, och alla systemutvecklingstickets.
2. Sedan matchade jag alla inkommande kundärenden mot denna bas och lät en lokal AI-modell fiska fram kod, dokumentation, och annat som liknar dokumentationen från varje kundärende. Min tanke var att använda samma algoritm som Facebook använder när de letar reda på "lämplig" reklam baserat på vad du skrivit i dina inlägg (ett grepp som jag dök djupare i i mitt förra blogginlägg).
3. När POC:en visat att det fungerar bygger jag en liten agent som lyssnar i ärendehanteringssystemet efter inkommande kundförfrågningar och lägger in sina lösningstips i samma ärende.
“Det kommer att bli helt fantastiskt!” tänkte jag… men det blev det inte.
Problemet var att leveransteamets lösningar av kundärendena var… sparsamt… dokumenterade. Ett annat hinder var att huvuddelen av alla kundärenden kunde hanteras gemensamt genom förbättringar i molntjänster. Det vill säga, löstes problemet som kunden hade rapporterat, så kommer inga fler ärenden om samma sak komma in då det löstes för alla andra också. Normalt skapades det därmed bara ett ärende av varje slag, och inte några tydliga "grupperingar" av liknande ärenden. Det fanns helt enkelt inte tillräckligt mycket eller tillräckligt detaljerad information för att bygga en AI-lösning som stödjer just denna kundhanteringsprocess.
Där ser man. Vi kan inte trolla, ens med AI. Jag kan inte föreställa mig hur många i samma situation som väljer att beställa ett stort systemutvecklingsprojekt direkt, utan att göra varken en förstudie eller POC först.
Slutsats: Litet är bra.
De som lyckas bäst börjar smått - med konkreta, kontrollerbara tillämpningar som ger lärdomar snabbt. Genom att använda lokala AI-modeller, som kan köras inom den egna it-miljön, undviks i startfasen de tunga juridiska och etiska resonemangen kring datadelning, molnlagring och tredjepartsåtkomst.
På detta sätt kan vi på Knowit fokusera på nyttan och metoden först. Vi bygger erfarenhet och förtroende i en POC, därefter kan vi välja om vi är nöjda som det är, om vi bör skala upp till mer avancerade och molnbaserade lösningar, eller om vi bör lägga ner helt. Här blev resultatet att lägga ner helt. Det var rätt beslut för denna tillämpning och kostnaden för att komma fram till detta var minimal.
Det är inte bara ett säkrare sätt att börja – det är ett smartare sätt att lära organisationen om AI i praktiken.
Idag är AI en av IT-branschens största möjligheter, men också djupaste fallgropar. Lokala AI-modeller är ofta ett effektivt sätt att hantera riskerna med AI. Genom användningen av lokala modeller, till skillnad från externa tjänster, uppnås mycket starka förutsättningar för att effektivt hantera etik, juridik, och säkerhet. Kontakta mig med din fråga om lokala LLM:er.