A Nokia apresentou hoje, em evento pré-MWC 2026, sua visão de redes AI-native, defendendo uma transformação estrutural na arquitetura de redes móveis e fixas para suportar cargas de trabalho baseadas em inteligência artificial distribuída.
Em keynote e sessão técnica, o CEO Justin Hotard afirmou que a transição vai além da simples ampliação de capacidade: trata-se de entender quais dispositivos exigem entrega determinística. Segundo ele, drones, robôs e veículos autônomos demandam jitter de tão apenas 10 milissegundos, o que pode representar um ganho de segurança crítico.
Hotard argumentou que redes organizadas em silos — acesso, transporte, core, data center e nuvem — não conseguem atender aplicações de inferência em tempo quase real. A empresa defende uma arquitetura dinâmica que opere de forma contínua entre domínios, rompendo com estruturas hierárquicas tradicionais.
Como exemplo, foi apresentado um enxame de robôs industriais. Parte da inferência ocorre localmente, outra parte é processada próximo ao acesso rádio, outra no escritório central e o restante em data centers de IA. Esse modelo exige coordenação ponta a ponta com latência determinística, incluindo controle integrado de transporte, roteamento IP, switching e óptico.
A executiva Pallavi Mahajan, CTO e Chief AI Officer da Nokia, destacou que rede e processamento vão se tornar elementos simbióticos, com funções do RAN — como beamforming, estimação de canal e scheduling — sendo reescritas com IA executada sobre plataformas aceleradas por GPU.
A estratégia AI-RAN da Nokia prevê a incorporação da plataforma NVIDIA Aerial para executar cargas de RAN e IA no mesmo ambiente, mantendo restrições de energia e custo típicas do ambiente telco. Mahajan afirma que isso facilita o desacoplamento entre hardware e software e acelera a inovação no software.
No core, a Nokia disse que IA passa a governar fluxos de políticas, traffic steering, slicing e controle de admissão, integrando-se às funções da rede. Em IP routing, destacou a linha 7250 IXR e 7750 SR com SR Linux e MP5; em data centers, a família 7220 IXR com automação orientada a eventos e integração com Kubernetes; e na camada óptica, soluções plugáveis de até 1,2 Tb/s com os chipsets Ice-T para interconexão intra-data center.
Hotard também apontou a necessidade de governança, defendendo um modelo de “glass box programmability”, com decisões automatizadas operando dentro de limites auditáveis definidos pela intenção humana. Segundo ele, redes AI-native devem deixar de ser apenas tubos de vidro para se tornarem um sistema nervoso distribuído que conecta inteligência.