AI, infrastruktur og de rigtige beslutninger

Vi tog en snak med Olav, CTO i nLogic Group, om hvordan AI påvirker den infrastruktur, virksomheder bygger i dag.

Kunstig intelligens er på kort tid blevet et af de mest omtalte emner i techbranchen. Samtidig kan det være svært at skelne mellem hype og reelle behov. For mange virksomheder handler AI ikke først og fremmest om modeller eller algoritmer – men om infrastrukturen, der gør teknologien mulig.

Når man taler med teknikere om kunstig intelligens, bliver samtalen ofte mere jordnær, end overskrifterne antyder.

Maskinlæring, regressionsanalyse og mønstergenkendelse har været anvendt i IT-systemer i mange år. Mange af principperne bag AI er derfor langt fra nye.

Samtidig har de seneste år introduceret noget, der faktisk adskiller sig tydeligt fra tidligere generationer af AI. Store sprogmodeller og generative systemer har gjort teknologien langt mere synlig – og åbnet for helt nye anvendelsesmuligheder.

Det betyder ikke nødvendigvis, at teknologien er moden til alle typer opgaver. I mange miljøer eksperimenteres der stadig med, hvordan sådanne modeller kan anvendes sikkert i kritiske systemer.

Alligevel er der ingen tvivl om, at udviklingens skala har ændret sig markant.

Når AI begynder at “æde netværket”

Når store modeller trænes, arbejder tusindvis af GPU’er parallelt. De skal hele tiden udveksle data med hinanden, hvilket skaber enorme mængder trafik internt i datacentre.

Det gør netværket langt vigtigere end tidligere.

Hvor netværket før kunne være en relativt stabil del af infrastrukturen, kan det i disse miljøer blive selve flaskehalsen. Derfor udvikler leverandører nu netværksudstyr og datacenterarkitektur med meget høj kapacitet.

For nogle miljøer er dette helt nødvendigt. Når store systemer arbejder parallelt, kan selv små forbedringer i performance have stor betydning.

Men denne type teknologi er i høj grad udviklet til de allerstørste teknologimiljøer i verden.

Teknologi udviklet til de største miljøer

Meget af den infrastruktur, der udvikles i dag, er designet til organisationer, som bygger AI-platforme i en skala, de fleste virksomheder aldrig kommer i nærheden af.

For disse miljøer er maksimal performance afgørende. Derfor investeres der massivt i teknologi, der reducerer latency, øger kapaciteten og håndterer enorme datamængder.

Samtidig sker der noget interessant, når disse løsninger udvikles.

Teknologien bliver gradvist tilgængelig i mindre skala. Kapacitet, som tidligere kun fandtes i de største datacentre, kan efterhånden anvendes af langt flere virksomheder.

Innovation i de største miljøer løfter dermed hele markedet.

Når teknologivalg også handler om økonomi

For virksomheder, der overvejer AI-relaterede investeringer, bliver spørgsmålet derfor ofte mere praktisk end teknisk:

Hvor meget kapacitet har vi egentlig brug for – og hvad er det rigtige niveau for os?

Det er ikke kun et teknisk spørgsmål. Det er en investeringsbeslutning.

Vælger man for lidt, kan man hurtigt ramme begrænsninger i performance og skalerbarhed. Vælger man for stort, risikerer man at binde ressourcer i kapacitet, som ikke bliver udnyttet.

Leverandører tilbyder løsninger på mange forskellige niveauer – både teknisk og økonomisk. Nogle platforme er udviklet til maksimal performance i de mest krævende miljøer. Andre er mere fleksible og kan skaleres gradvist.

Derfor er det afgørende at forstå, hvad teknologien faktisk er bygget til – og hvilke behov den skal dække.

At gøre kompleks teknologi forståelig

Hos nLogic arbejder man tæt sammen med leverandørerne for at forstå, hvordan teknologien fungerer i praksis – og hvilke konsekvenser forskellige valg har for arkitektur, drift og investeringer.

En vigtig del af arbejdet handler om at filtrere informationen.

Leverandører præsenterer teknologien. Kunderne skal træffe beslutningerne. nLogic fungerer som bindeled mellem de to. Ved at analysere behov, trafikmønstre og fremtidige krav kan man vurdere, hvilke teknologivalg der faktisk skaber værdi – både på kort og lang sigt.

I praksis handler det ofte om at stille de rigtige spørgsmål, før investeringerne foretages – og sikre, at løsningerne passer til det, man reelt skal bruge dem til.

Målet er ikke at bygge den mest avancerede infrastruktur.

Målet er at bygge løsninger, der er robuste, skalerbare og tilpasset virksomhedens behov.

Teknologien vil fortsætte med at udvikle sig

AI vil uden tvivl fortsætte med at påvirke, hvordan datacentre og netværk udvikles. Nye workloads vil stille nye krav til kapacitet og arkitektur.

Samtidig vil de fleste virksomheder møde denne udvikling gradvist. Teknologien vil modne, kapaciteten blive mere tilgængelig, og løsningerne mere standardiserede.

Men behovet for gode beslutninger vil bestå.

For mange handler det ikke om at vælge den “rigtige AI-strategi” – men om at træffe de rigtige prioriteringer på det rigtige tidspunkt.

Når investeringerne bliver større, og konsekvenserne af valgene tydeligere, bliver behovet for de rette vurderinger også større.

Kontakt gerne nLogic, hvis I vil drøfte, hvad I faktisk har brug for – og hvordan I undgår at investere for meget, for lidt eller forkert.

Kontakt os for mere information