AI a vállalati mindennapokban: gyakorlati válaszok, valós problémákra
Míg néhány éve az általános vízió az volt, hogy a vállalatok adattudósok seregével hoznak majd létre saját AI-modelleket, mára látható, hogy a hangsúly inkább a kész, gyorsan munkába állítható megoldásokra kerül át. Utóbbiaknál elengedhetetlen, hogy a mérhető üzleti előnyök mellett biztonságosan, a vállalati adatokat házon belül tartva működjenek. Az idén július 22-én megrendezett HPE Technology Day webinar előadásai pontosan ezeket a piaci igényeket járták körbe.
Ahogy az 1900-as évek elején a Krupp művek sem kezdett el teherautókat gyártani a motorizáció hajnalán, helyette logisztikáját és működését alakította az új technológiához, úgy az AI vállalati bevezetésénél is hasonló irányvonalra van szükség - világított rá Frisch Tamás, a HPE Data Services üzletágvezetője a HPE Technology Day webinar nyitóelőadásában. Hacsak nem egy Facebook vagy Google kaliberű szereplőről beszélünk, a legtöbb vállalatnál nem új alapmodellek kutatása és fejlesztése a cél, sokkal inkább már létező, kiforrott generatív technológiák beépítése a saját folyamataikba.
Ez az út persze, korántsem zökkenőmentes - jó példa erre a Microsofttól ismert Copilot széles körű bevezetése, amely aztán sok helyen megoszló tapasztalatokkal járt, nem volt egyértelmű, hogy a számos területen elérhető megoldás milyen kézzelfogható előnyöket biztosít a vállalatok számára. Frisch Tamás rámutatott továbbá, hogy jelenleg tíz vállalati AI pilot projektből átlagosan mindössze egy valósul csak meg sikeresen, aminek az üzleti környezetben gazdaságosan használható felhasználási esetek hiánya vagy rossz kiválasztása mellett két fő oka van: egyrészt az érzékeny céges adatok értelemszerűen nem tölthetők fel bármilyen publikus felhőalkalmazásba, a másik ok pedig a technológiai fejlődés elképesztően gyors üteme. Sokszor egy AI pilot projekt akár csak 3-4 hónapos átfutásának végére a projekt elején kijelölt műszaki alapfeltételezések vagy AI modellek már elavulttá válnak, ami elriasztja a vállalati döntéshozókat a hasonló befektetésektől.
A HPE a kihívásokra a vállalati környezet három fő felhasználási szegmensében igyekszik választ adni. Az első az AI kutatást végző, AI modelleket előállító, speciális és nagy számítási igényű feladatokat ellátó szervezeteket tömöríti, míg a második az AI „generalistákat”, azaz az olyan szereplőket akik több pilotot és projektet futtatnak párhuzamosan - mindezt pedig egységes platformon és menedzsmentkörnyezetben szeretnék megtenni. Az ő igényeiket a vállalat HPE Private Cloud AI szolgáltatása hivatott kiszolgálni, amellyel jelentős, on-premise számítási kapacitás állítható az AI szolgáltatások mögé.
A harmadik csoportot - amelybe jó eséllyel a legtöbb hazai vállalat tartozik - azok a cégek alkotják, amelyek bár nyitottak az AI megoldások felé, egyelőre nincs meg a konkrét felhasználási esetük, sem pedig a házon belüli műszaki tudásuk, amellyel egy hasonló projektet a kísérleti fázisból az éles működésig elvihetnének. A problémára a HPE az Nvidiával karöltve indított "AI elvitelre" kampányának keretei között ad választ, AI Pod termékével, amely egy kulcsrakész eszköztárat kínál, konkrét, bevált megoldásokkal, létező használati estekre. Az AI Podok segítségével néhány hónap alatt, hosszas kísérletezés és házon belüli mély AI szakértelem nélkül is sokkal hatékonyabbá tehetők a céges folyamatok, olyan eszközökkel, mint a vállalati dokumentumok keresését segítő AI chatbot, vagy épp a legacy rendszerek kódbázisának automatikus felmérése és kezelése.
Legacy rendszerek mentőöve
Ahogy a webinar második előadója, Dombi Gergely, a Kodesage vezérigazgatója felvázolta, a legacy rendszereknél gyakran három, egymástól elszakadt fogalmi világ létezik: az üzleti elemzők és projektmenedzserek fogalmi világa, a fejlesztők és architektek műszaki világa, és persze maga a valóság, amit a forráskód és az adatbázistáblák jelentenek.
A három világon átívelő összefüggések megértése egy nagyvállalatnál akár évekbe telhet, ami hatalmas kihívás elé állítja a cégeket - és a legacy rendszerek problémái is három szinten jelentkeznek. A felsővezetés a magas üzemeltetési költségek és a kulcsemberektől való függőség miatt aggódik, az üzleti oldal a lassú piacra jutási időtől, ritka verzióadástól, a gyakori production hibáktól tart, a fejlesztők pedig a hiányos dokumentációval és az alacsony tesztlefedettséggel küzdenek.
A Kodesage platformja nem a legacy rendszerek lecserélését célozza, sokkal inkább azok megértését, AI segítségével. Itt nem egy Copilot alternatívára kell gondolni, amely a kódírásban segít, a cél a meglévő kódbázis feltárása, illetve az abban való navigáció. A rendszer ehhez minden lehetséges információt begyűjt, a verziókezelőből származó adatoktól a Jira jegyeken át a belső Wiki és dokumentációk tartalmáig, amelyekből komplex vektorreprezentációt hoz létre. Erre építve pedig a szolgáltatás a fejlesztési és egyéb vállalati feladatokat számos területen hatékonyabbá tudja tenni.
A megoldással olyan nehézkes folyamatok gyorsíthatók fel, mint az új kollégák esetében az onboarding: a szolgáltatás automatikusan tananyagot hoz létre az újonnan érkezőknek, sőt a "statikus" olvasnivaló mellet interaktív laborgyakorlatokat is generál. A legacy rendszereknél sokszor foghíjas dokumentációk problémakörére a Kodesage Docs Studio funkciójával ad választ, amely a technical writerek kezébe ad rendkívül hatékony dokumentációs eszközt. Emellett a rendszer a gyakran mostoha állapotban lévő regressziós tesztek naprakészen tartását, tesztforgatókönyvek generálását is lehetővé teszi.
Szintén kulcsfontosságú funkció az issue tracker integráció, amellyel a szolgáltatás egy új hibajegy létrejöttekor automatikusan listázza az ügyben érintett fájlokat, feltárja a lehetséges hibaokot, ezzel drasztikusan lerövidítve a hibaelhárítás leginkább időigényes részét, vagyis információgyűjtést.
Legacy kód forradalmasítása AI segítségével
Még több videó(Dombi Gergely előadásának felvétele)
A funkcionalitás természetesen biztonságos, on-premise környezetben érhető el, így az adott vállalat szellemi tulajdona nem kerül ki a céges hálózatról. Ahogy Dombi Gergely fogalmaz, nem csak az új projekteken dolgozó fejlesztők, de a legacy csapatok is megérdemlik a modern fejlesztés öt alappillérét: naprakész dokumentációt, folyamatosan frissülő regressziós teszteket, CI/CD folyamatokat, életszerű tesztadatokat és teljes körű megfigyelhetőséget.
Információbányászat a vállalati dokumentációban
A vállalatok tempósan burjánzó dokumentumtáraiban sokszor a régóta az adott cégnél dolgozó kollégáknak is kihívás lehet eligazodni, az AI azonban ezen a területen is komoly segítséget jelenthet. A HPE Technology Day webinar záróelőadásában Lázár Viktor, a Brickz Technologies Hungary vezérigazgatója erre a problémára kínált megoldást: a Brickz szolgáltatásának célja, hogy az AI szerepe ne csak a személyes hatékonyságnövelésben merüljön ki, hanem valódi, bevételt termelő üzleti alkalmazás legyen. Ahogy valamennyi, a webinaron felsorakozott szolgáltatás, a Brickz megoldása is on-premise érhető el, és több használati esetre is megoldást kínál.
Ilyen a ma már egyre szélesebb körben ismert RAG (Retrieval-Augmented Generation) architektúra, amely a dokumentumokban való keresést bízza nagy nyelvi AI modellre (Large Language Model - LLM). A chatbotként működő rendszer a végfelhasználók kérdéseinek megválaszolásához először a vállalati dokumentumbázis vektoros reprezentációjából keresi ki a releváns szakaszokat, majd azokat kontextusként egy LLM-nek adja át, amely így pontos választ ad, az ahhoz felhasznált forrásokat is megjelölve.
A Brickz szolgáltatásával továbbá komplex jelentések is generálhatók: a „text-to-SQL” vagy „text-to-report” funkcióval a felhasználó az AI chatbotoknál megszokott, szabad szavas beszélgetésben kérdezhet rá az adatbázisban tárolt adatokra, vagy kérhet azokból részletes jelentést (pl. „Mutasd meg a tíz legjobb vásárlót!”). A válaszhoz az AI SQL-lekérdezést generál, lefuttatja azt, az eredményt pedig igény szerint táblázatos vagy grafikonos formában tálalja. A megoldással kollégák széles köre férhet hozzá a kívánt adatokhoz, az ahhoz korábban szükséges speciális (például SQL) kompetencia nélkül is.
A platform erőssége továbbá, hogy abban rugalmasan lehet váltogatni a használni kívánt LLM-ek között, így mindig az adott feladathoz legjobb modell használható, legyen az a Llama, a Deepseek vagy épp a Mistral.
A webinar előadásaiból egyértelműen látszik, hogy a vállalati AI-piac egyre érettebbé válik: a nagy felhajtással beharangozott, de homályos előnyöket ígérő (felhős) "csodafegyverek" után most konkrét használati esetekre szabott, biztonságos, on-premise megoldások érkeznek, amelyek a vállalatok valós problémáira kínálnak hatékony megoldást, legyen szó legacy rendszerek kezeléséről, dokumentumkezelésről vagy adatelemzésről.
[A HPE megbízásából készített, fizetett anyag.]