Przegląd dnia AI (10.12): AI w kosmosie, 23 mld USD od Microsoftu i „Gated Attention”

Środa, 10 grudnia 2025. Dzisiejszy przegląd zaczynamy wysoko – dosłownie na orbicie, gdzie Nvidia i Starcloud zmieniają zasady gry w infrastrukturze. Na Ziemi Microsoft sypie miliardami w Indiach, a w laboratoriach Mety narasta napięcie. Mamy też garść konkretów z Europy i konferencji NeurIPS.

Oto 4 najważniejsze tematy dnia.

1. Kosmos: Pierwszy trening AI na orbicie

Firma Starcloud, wspierana przez Nvidię, ogłosiła sukces misji, w ramach której przeprowadzono trening modelu AI bezpośrednio w kosmosie.

  • Przełom: Do tej pory satelity głównie zbierały dane. Teraz, dzięki specjalnym układom odpornym na radiację i chłodzeniu w próżni, przetwarzanie odbywa się na orbicie.
  • Dlaczego to ważne: Omija to problem przesyłania petabajtów danych na Ziemię (latency) i wykorzystuje „darmowe” chłodzenie kosmiczne, co może być odpowiedzią na kryzys energetyczny centrów danych na Ziemi.
  • Technologia: Użyto zmodyfikowanych układów Nvidii (prawdopodobnie H100 adapted) na satelicie Starcloud-1.

🔗 Źródło: CNBC

2. Microsoft: 23 mld USD na stół (Indie i globalna ekspansja)

Wczorajsze doniesienia o 17,5 mld USD okazały się częścią szerszego pakietu. Microsoft oficjalnie potwierdził nowe inwestycje o łącznej wartości blisko 23 mld USD, z czego lwia część trafi do Indii.

  • Cel: Budowa „suwerennych” zdolności AI dla regionu Azji.
  • Szerszy obraz: To sygnał, że wyścig zbrojeń w infrastrukturę nie zwalnia, mimo że analitycy (jak ci z Reutersa) ostrzegają przed „kruchymi finansami” mniejszych graczy na rynku Data Center, którzy mogą nie udźwignąć kosztów długu.

🔗 Źródło: The Print

3. Nauka: „Gated Attention” wygrywa NeurIPS 2025

Jedna z najważniejszych konferencji AI na świecie, NeurIPS, ogłosiła zwycięzców nagrody Best Paper. Wygrała praca zespołu z Alibaby (Qwen team) pt. „Gated Attention for Large Language Models”.

  • Odkrycie: Badacze udowodnili, że dodanie prostego mechanizmu bramkowania (gating) po mechanizmie uwagi (attention) drastycznie poprawia stabilność treningu i wyniki modelu.
  • Zastosowanie: Rozwiązanie to niweluje tzw. „attention sink” (gdzie model nadmiernie skupia się na początkowych tokenach) i zostało już wdrożone w modelu Qwen3-Next. To dowód, że w architekturze Transformerów wciąż jest miejsce na proste, ale fundamentalne optymalizacje.

🔗 Źródło: The Neuron / NeurIPS Blog

4. UE: 7 nowych „Fabryk AI” (Polska w grze)

Komisja Europejska oficjalnie wybrała 7 konsorcjów do budowy „AI Factories” – superkomputerowych węzłów dla AI.

  • Lokalizacje: Wśród wybranych krajów znalazła się Polska (konsorcjum PIAST AIF / Gaia AI we współpracy z Cyfronetem AGH), a także Niemcy, Francja czy Hiszpania.
  • Cel: Udostępnienie mocy obliczeniowej europejskim startupom i MŚP, by nie musiały polegać wyłącznie na chmurach z USA.

🔗 Źródło: Digital Strategy EU


📉 Sygnał rynkowy: Tarcie w Mecie

„New York Times” donosi o dużych napięciach wewnątrz Mety. Przesunięcie setek miliardów dolarów na projekt „superinteligencji” (AGI) odbywa się kosztem innych działów, co rodzi konflikty między zespołami AI a resztą firmy („Meta AI TBD Lab friction”). To klasyczny problem transformacji, który teraz uderza w giganta z Menlo Park.

Reklama
Polecane: Wszystko czego szukasz w jednym miejscu. Elektronika i nie tylko.

Podobne wpisy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *