💰 Nakikipag-usap ang Amazon para mamuhunan ng $10 bilyon sa developer ng ChatGPT
Naiulat na nakikipag-usap ang Amazon upang maglagay ng mahigit $10 bilyon sa OpenAI - at kung sakaling mangyari talaga ito, itutulak nito ang pagtatasa ng OpenAI sa sonang "teka, seryoso?" na higit sa $500 bilyon. Ito ay nakaposisyon bilang pinaghalong pagpopondo at estratehikong pagkakahanay... kasama ang pinakasimpleng motibasyon sa lahat: ang kagutuman sa pagkalkula.
Iminumungkahi rin ng ulat na maaaring mas umasa ang OpenAI sa kapasidad ng AWS at posibleng simulan ang paggamit ng mga Trainium chips ng Amazon, na karaniwang ginagawa itong linya ng suplay para sa susunod na alon ng pag-scale ng modelo (o tila ganoon - maaaring magbago ang mga usapang ito).
🔗 Magbasa pa
🧑💻 Maaari nang magsumite ng mga app ang mga developer sa ChatGPT
Binuksan ng OpenAI ang mga pagsusumite ng app para sa pagsusuri at publikasyon sa loob ng ChatGPT, kasama ang isang in-product app directory kung saan maaaring mag-browse ang mga tao ng mga itinatampok na app o maghanap ng anumang nai-publish na. Maaaring i-trigger ang mga app sa kalagitnaan ng pag-uusap sa pamamagitan ng @mentions o pumili mula sa tools menu - napaka-"apps, pero chat-native."
Itinutulak din nila ang isang Apps SDK (beta) kasama ang isang bundle ng mga dev resources (mga halimbawa, UI library, quickstart). Maingat ang monetization sa ngayon - karamihan ay nagli-link out para sa mga kumpletong transaksyon - ngunit medyo malinaw na nais ng OpenAI na lumago ito at maging isang tunay na ecosystem.
🔗 Magbasa pa
🗞️ Ipinakikilala ang OpenAI Academy para sa mga Organisasyon ng Balita
Inilunsad ng OpenAI ang isang learning hub na naglalayong sa mga mamamahayag, editor, at publisher, na binuo kasama ang mga kasosyong tulad ng American Journalism Project at The Lenfest Institute. Ang pitch: praktikal na pagsasanay at mga playbook na tumutulong sa mga newsroom na gamitin ang AI nang hindi tahimik na sinisira ang tiwala sa proseso.
Kabilang sa listahan ng mga inilunsad na programa ng Academy ang “AI Essentials for Journalists,” kasama ang mga gamit tulad ng pananaliksik sa imbestigasyon/background, pagsasalin, pagsusuri ng datos, at kahusayan sa produksyon. Mayroon ding kapansin-pansing pagbibigay-diin sa responsableng paggamit at panloob na pamamahala - dahil, oo, may kailangang sumulat ng dokumento ng patakaran na walang gustong magsulat.
🔗 Magbasa pa
⚡ Gemini 3 Flash: katalinuhan sa hangganan na ginawa para sa bilis
Inilunsad ng Google ang Gemini 3 Flash bilang isang mas mabilis at mas matipid na modelo - at ginawa itong default sa Gemini app at AI Mode sa Search. Ang pangunahing tono nito ay “Pro-grade reasoning, Flash-level speed,” na parang isang slogan… pero naglalarawan din sa buong karera ngayon.
Ipinapadala rin ito sa mga developer at enterprise surface (Gemini API, AI Studio, Vertex AI, at marami pang iba). Ang kakaibang malaking subtext: Gusto ng Google ang modelong ito sa lahat ng lugar na naroon na ang mga tao, kaya ang pagpapalit ng mga gastos ay nagsisimulang magmukhang grabidad.
🔗 Magbasa pa
🧩 Pinapabilis ng OpenUSD at NVIDIA Halos ang Kaligtasan para sa Robotaxis, Physical AI Systems
Pinagsasama-sama ng NVIDIA ang mga pamantayan ng simulation at mga daloy ng trabaho sa kaligtasan sa isang mas magkakaugnay na "pisikal na AI" stack - mga robot at autonomous na sasakyan na kailangang makaligtas sa kaguluhan sa totoong mundo. Ang isang mahalagang sangkap ay ang OpenUSD Core Specification 1.0, na nilalayong gawing mas mahuhulaan at interoperable ang mga 3D/simulation pipeline sa iba't ibang tool.
Sa aspeto ng kaligtasan, itinatampok ng NVIDIA ang Halos AI Systems Inspection Lab (at programa ng sertipikasyon) para sa mga robotaxi fleet, AV stack, sensor, at platform. Kabilang sa mga unang kalahok na pinangalanan ay sina Bosch, Nuro, at Wayve, kung saan tinawag si Onsemi bilang unang nakapasa sa inspeksyon - isang magandang sandali ng "badge unlocked".
🔗 Magbasa pa
🧪 Isinusulong ng UC San Diego Lab ang Generative AI Research Gamit ang NVIDIA DGX B200 System
Nakatanggap ang Hao AI Lab ng UC San Diego ng isang NVIDIA DGX B200 system upang isulong ang pananaliksik sa low-latency LLM inference - ang hindi kaakit-akit na pagtutubero na nagpapasya kung "ang AI ay parang instant" o "ang AI ay parang naghihintay ng toast." Binanggit din ng NVIDIA na ang mga production inference system tulad ng Dynamo ay kumukuha ng mga konsepto mula sa trabaho ng lab, kabilang ang DistServe.
Ang kwento ay mas nakatutok sa "goodput" vs. throughput - sa madaling salita, ang throughput na tumatama pa rin sa mga target na latency. Inilalarawan din nila ang paghahati ng prefill at decode sa iba't ibang GPU upang mabawasan ang resource interference, na isang bagay na nakaka-nerdy, oo, ngunit ito ang uri ng nerdy na nagpapabago sa pakiramdam ng isang produkto.
🔗 Magbasa pa
🏗️ Pumirma ang Hut 8 ng kasunduan sa Fluidstack para sa kapasidad na 245MW bilang bahagi ng multi-gigawatt na pakikipagtulungan sa Anthropic
Pumirma ang Hut 8 ng pangmatagalang kasunduan para sa 245MW na kapasidad sa River Bend campus nito, kung saan pinaupahan nito ang AI cloud firm na Fluidstack sa isang istrukturang nagkakahalaga ng $7 bilyon (na may mga opsyon na maaaring magpataas pa nito). Kaakibat nito ang Anthropic bilang end user sa pamamagitan ng mas malawak na pakikipagsosyo - ito ay isang imprastraktura ng crypto-mining na muling nagiging AI muscle, mas malaki lang...
Mayroon ding right of first offer para sa hanggang karagdagang 1GW sa River Bend, kasama ang pagpopondo mula sa mga pangunahing bangko at suporta ng Google. Sa totoo lang, ang buong bagay ay parang "Gusto ng AI ng kuryente at real estate - at gusto nila ang mga ito kahapon."
🔗 Magbasa pa