Przegląd dnia AI (10.12): AI w kosmosie, 23 mld USD od Microsoftu i „Gated Attention”
Środa, 10 grudnia 2025. Dzisiejszy przegląd zaczynamy wysoko – dosłownie na orbicie, gdzie Nvidia i Starcloud zmieniają zasady gry w infrastrukturze. Na Ziemi Microsoft sypie miliardami w Indiach, a w laboratoriach Mety narasta napięcie. Mamy też garść konkretów z Europy i konferencji NeurIPS.

Oto 4 najważniejsze tematy dnia.
1. Kosmos: Pierwszy trening AI na orbicie
Firma Starcloud, wspierana przez Nvidię, ogłosiła sukces misji, w ramach której przeprowadzono trening modelu AI bezpośrednio w kosmosie.
- Przełom: Do tej pory satelity głównie zbierały dane. Teraz, dzięki specjalnym układom odpornym na radiację i chłodzeniu w próżni, przetwarzanie odbywa się na orbicie.
- Dlaczego to ważne: Omija to problem przesyłania petabajtów danych na Ziemię (latency) i wykorzystuje „darmowe” chłodzenie kosmiczne, co może być odpowiedzią na kryzys energetyczny centrów danych na Ziemi.
- Technologia: Użyto zmodyfikowanych układów Nvidii (prawdopodobnie H100 adapted) na satelicie Starcloud-1.
🔗 Źródło: CNBC
2. Microsoft: 23 mld USD na stół (Indie i globalna ekspansja)
Wczorajsze doniesienia o 17,5 mld USD okazały się częścią szerszego pakietu. Microsoft oficjalnie potwierdził nowe inwestycje o łącznej wartości blisko 23 mld USD, z czego lwia część trafi do Indii.
- Cel: Budowa „suwerennych” zdolności AI dla regionu Azji.
- Szerszy obraz: To sygnał, że wyścig zbrojeń w infrastrukturę nie zwalnia, mimo że analitycy (jak ci z Reutersa) ostrzegają przed „kruchymi finansami” mniejszych graczy na rynku Data Center, którzy mogą nie udźwignąć kosztów długu.
🔗 Źródło: The Print
3. Nauka: „Gated Attention” wygrywa NeurIPS 2025
Jedna z najważniejszych konferencji AI na świecie, NeurIPS, ogłosiła zwycięzców nagrody Best Paper. Wygrała praca zespołu z Alibaby (Qwen team) pt. „Gated Attention for Large Language Models”.
- Odkrycie: Badacze udowodnili, że dodanie prostego mechanizmu bramkowania (gating) po mechanizmie uwagi (attention) drastycznie poprawia stabilność treningu i wyniki modelu.
- Zastosowanie: Rozwiązanie to niweluje tzw. „attention sink” (gdzie model nadmiernie skupia się na początkowych tokenach) i zostało już wdrożone w modelu Qwen3-Next. To dowód, że w architekturze Transformerów wciąż jest miejsce na proste, ale fundamentalne optymalizacje.
🔗 Źródło: The Neuron / NeurIPS Blog
4. UE: 7 nowych „Fabryk AI” (Polska w grze)
Komisja Europejska oficjalnie wybrała 7 konsorcjów do budowy „AI Factories” – superkomputerowych węzłów dla AI.
- Lokalizacje: Wśród wybranych krajów znalazła się Polska (konsorcjum PIAST AIF / Gaia AI we współpracy z Cyfronetem AGH), a także Niemcy, Francja czy Hiszpania.
- Cel: Udostępnienie mocy obliczeniowej europejskim startupom i MŚP, by nie musiały polegać wyłącznie na chmurach z USA.
🔗 Źródło: Digital Strategy EU
📉 Sygnał rynkowy: Tarcie w Mecie
„New York Times” donosi o dużych napięciach wewnątrz Mety. Przesunięcie setek miliardów dolarów na projekt „superinteligencji” (AGI) odbywa się kosztem innych działów, co rodzi konflikty między zespołami AI a resztą firmy („Meta AI TBD Lab friction”). To klasyczny problem transformacji, który teraz uderza w giganta z Menlo Park.







