Balitang AI ika-22 ng Pebrero 2026

Buod ng Balita sa AI: Ika-22 ng Pebrero 2026

🏫 Sa ilang paaralan, tinatanong ng mga chatbot ang mga estudyante tungkol sa kanilang trabaho. Ngunit ang rebolusyon ng AI ay nag-aalala sa mga guro

Sinusubukan ng ilang paaralan sa Australia ang mas matalas na pagbabago sa "ipakita ang iyong kahusayan" - tinatapos ng mga estudyante ang isang takdang-aralin, pagkatapos ay tinatanong sila ng isang AI chatbot para malaman kung naiintindihan nila ang kanilang isinumite. Ito ay karaniwang isang oral viva, ngunit may isang makinang nagtatanong ng "ano ang ibig mong sabihin diyan?" hanggang sa magsimula kang mapanganga.

Ang mas malaking alalahanin ay ang hindi pantay na paglulunsad: isang papel sa industriya ang nagbabala na ang mga mabilis gumamit ay maaaring tumakbo nang mabilis habang ang iba ay nahuhuli, na lumilikha ng isang two-speed na sistema ng edukasyon. Patuloy ding binabanggit ng mga guro ang mga pamilyar - at seryoso pa rin - na mga alalahanin: privacy, kagalingan, at kung paano mapipigilan ang "tulong ng AI" na maging "nagawa ito ng AI".

👮 Mga pulis na gumagamit ng mga kagamitang AI na ibinigay ng Palantir upang i-flag ang maling pag-uugali ng mga opisyal

Ginagamit ng Met ng London ang AI na galing sa Palantir upang suriin ang mga panloob na pattern ng workforce - pagkakasakit, pagliban, overtime - at paghahanap ng mga senyales na maaaring may kaugnayan sa mga isyu sa mga pamantayan ng propesyonal. Inihahandog ito bilang isang pilot na may limitadong oras at, higit sa lahat, sinasabi ng Met na ang mga tao pa rin ang gumagawa ng mga aktwal na pagpapasya... ngunit ang "patuloy" na iyon ay gumagawa ng maraming trabaho.

Hindi natuwa ang Police Federation, tinawag itong "automated suspicion" at nagbabala tungkol sa mga malabong kagamitan na nagkakamali sa pagbasa ng stress at workload bilang maling gawain. Isa ito sa mga pagkakataong maganda ang tunog ng teknolohiya sa isang slide, pagkatapos ay maiisip mo kung ano ang pakiramdam nito sa lupa at ito ay biglang umiikot at parang may mga matinik na bagay.

🛡️ Nagbabala ang tagapagbantay sa privacy ng UK tungkol sa mga imaheng binuo ng AI sa isang magkasanib na pahayag

Sumali ang ICO ng UK sa iba pang mga regulator sa isang magkasanib na babala tungkol sa mga imaheng nilikha ng AI na naglalarawan ng mga taong makikilala nang walang pahintulot - sa madaling salita: huwag ituring na isang mahiwagang dahilan ang "ito ay sintetiko". Ang mensahe ay bumuo ng mga pananggalang nang maaga at makipag-ugnayan sa mga regulator sa halip na gawin ang klasikong hakbang sa teknolohiya ng pagpapadala muna at paghingi ng tawad mamaya.

Itinatampok din nila ang mas mataas na panganib para sa mga bata, na may katuturan naman, dahil kapag kumalat na ito, parang sinusubukang ibalik ang glitter sa isang garapon. Ang punto ay ang privacy at dignidad ay nakalaan para mabuhay sa cycle ng fashion, o tila ganoon nga.

🪖 Ipinatawag ni US Defense Secretary Hegseth ang CEO ng Anthropic para sa isang mahigpit na pag-uusap tungkol sa paggamit ng militar kay Claude, ayon sa ulat ng Axios

Iniulat ng Reuters na nakatakdang makipagkita ang Kalihim ng Depensa ng US sa CEO ng Anthropic para sa isang mas komprontasyong pag-uusap tungkol sa paggamit ng militar kay Claude. Iniulat na nais ng Pentagon na gawing available ng mga pangunahing tagapagbigay ng AI ang mga modelo sa mga classified network na may mas kaunting mga paghihigpit - at tinututulan ng Anthropic ang anumang pagluwag ng mga pananggalang.

Ang subtext ay parang isang klasikong dilemma na "gumalaw nang mabilis ngunit... may mga missile na kasangkot". Kung hindi magkasundo ang mga partido sa mga guardrail, maaaring magkaroon ng problema o masira pa ang relasyon - ngunit ipinapahiwatig din ng Anthropic na nananatiling nakabubuo ang mga pag-uusap sa gobyerno, kaya tensiyonado ito, ngunit hindi pa ganap na mga teksto ng paghihiwalay (sa ngayon).

🧠 ChatGPT - Mga Tala ng Paglabas

Ang mga tala ng paglabas ng OpenAI ay tumutukoy sa isang pinalawak na window ng konteksto para sa mode na "Pag-iisip" - ibig sabihin ay maaari mong pakainin ang modelo ng mas maraming teksto at mapanatiling magkakaugnay ang mas mahahabang thread nang hindi nito naaalis ang mga naunang detalye. Kung napanood mo na ang isang modelo na "nakalimutan" ang isang bagay na literal mong sinabi (nakakalungkot), ito ay para doon mismo.

Isa itong napaka-nerdy na pag-upgrade na tahimik na nagbabago sa praktikal na aspeto: mas mahahabang dokumento, mas gusot na mga proyekto, mas malawak na sesyon ng pananaliksik. Hindi man kaakit-akit, ngunit ito ang uri ng pagbabago sa tubo na biglang nagpapalaki sa buong bahay.

Mga Madalas Itanong

Ano ang ibig sabihin kapag gumagamit ang mga paaralan ng mga chatbot para "tanungin" ang mga estudyante tungkol sa mga takdang-aralin?

Sa ilang paaralan sa Australia, kinukumpleto ng mga estudyante ang isang takdang-aralin at pagkatapos ay sumasailalim sa isang pag-uusap gamit ang isang AI chatbot na sumusuri sa kanilang pangangatwiran. Gumagana ito na parang isang oral viva, pinipilit ang mga estudyante na ipaliwanag ang kanilang isinulat at kung bakit. Ang layunin ay upang mapatunayan ang pag-unawa, hindi lamang ang output. Maaari rin nitong ilantad ang mga kakulangan kapag hindi maipagtanggol ng isang estudyante ang mga pangunahing pahayag.

Paano makakalikha ang mga AI chatbot sa mga paaralan ng isang "two-speed" na sistema ng edukasyon?

Nagbabala ang isang papel sa industriya na ang mga paaralang mabilis gumamit ng AI ay maaaring umusad habang ang mga paaralang mas mabagal ang pag-unlad ay mas nahuhuli. Kung ang ilang paaralan ay maglalagay ng mga kagamitan sa AI upang masuri ang pag-unawa, suportahan ang pagkatuto, o pigilan ang maling paggamit, maaari nilang mas maagang maiangat ang mga resulta. Ang iba ay maaaring kulang sa badyet, kapasidad ng kawani, o kalinawan ng patakaran upang ilunsad ang mga maihahambing na sistema. Ang hindi pantay na paggamit na iyon ay maaaring magpalawak ng mga umiiral na agwat sa mapagkukunan at mga naabot.

Paano sinusubukan ng mga guro na pigilan ang "AI help" na maging "AI did it"?

Isang karaniwang pamamaraan ang paglipat ng pagtatasa patungo sa proseso at paliwanag, hindi lamang sa natapos na produkto. Ang mga pagtatanong, draft, repleksyon, o oral check na parang chatbot ay maaaring magpahirap sa pagsusumite ng gawaing hindi mo maintindihan. Maaari ring magtakda ang mga guro ng mas mahigpit na mga hangganan sa katanggap-tanggap na tulong, tulad ng brainstorming kumpara sa buong muling pagsusulat. Ang diin ay nananatili sa pagpapakita ng pag-unawa, hindi sa pagkontrol sa bawat kagamitan.

Anong mga isyu sa privacy at kagalingan ang lumalabas kapag ginagamit ang AI sa mga silid-aralan?

Patuloy na nagtataas ng mga alalahanin ang mga guro tungkol sa kung anong datos ng mga estudyante ang kinokolekta, saan ito iniimbak, at kung sino ang maaaring maka-access dito. Mayroon ding mga alalahanin sa kapakanan kung ang mga estudyante ay nakakaramdam ng patuloy na pagsubaybay o pressure ng mga pagtatanong na pinangungunahan ng makina. Ang mga bata ay isang espesyal na grupo ng panganib, dahil ang sensitibong impormasyon ay maaaring kumalat o magtagal sa mga sistema sa mga hindi inaasahang paraan. Maraming paaralan ang naglalayong maglagay ng mga pananggalang nang maaga sa halip na subukang baguhin ang mga ito sa ibang pagkakataon.

Paano ginagamit ng Met ang AI na galing sa Palantir upang i-flag ang mga potensyal na maling pag-uugali ng isang opisyal?

Ginagamit ng Met ng London ang AI na ibinibigay ng Palantir upang suriin ang mga pattern ng workforce tulad ng pagkakasakit, pagliban, at overtime. Ang layunin ay matukoy ang mga senyales na maaaring may kaugnayan sa mga isyu sa mga pamantayan ng propesyonal. Inilalarawan ito bilang isang pilot na may limitadong oras, at sinasabi ng Met na ang mga tao pa rin ang gumagawa ng mga pagtukoy. Ikinakatuwiran ng mga kritiko na ang tool ay maaaring magmukhang "awtomatikong hinala" kung binabasa nito ang stress bilang isang pagkakamali.

Bakit nag-aalala ang mga unyon ng pulisya tungkol sa "awtomatikong hinala" mula sa mga tool sa pangangasiwa ng AI?

Ang pag-aalala ng Police Federation ay ang mga opaque na modelo ay maaaring magpahiwatig ng maling paggawi mula sa mga pattern na may mga hindi kanais-nais na paliwanag. Ang pagtaas ng workload, mga isyu sa kalusugan, at stress ay maaaring magbago ng attendance o overtime nang hindi nagpapahiwatig ng maling paggawi. Kung ang lohika ng tool ay hindi transparent, nagiging mas mahirap para sa mga opisyal na hamunin ang mga flag o para sa mga manager na i-calibrate ang mga patas na threshold. Kahit na may mga desisyon ng tao, maaari pa ring humubog ang mga resulta ng mga automated signal.

Tungkol saan ang babala ng UK ICO tungkol sa mga larawan ng mga taong makikilala gamit ang AI?

Sumama ang UK privacy watchdog sa iba pang mga regulator sa babala na ang "synthetic" ay hindi nangangahulugang walang kahihinatnan. Kung ang isang imaheng binuo ng AI ay naglalarawan ng isang makikilalang tao nang walang pahintulot, nalalapat pa rin ang mga panganib sa privacy at dignidad. Binibigyang-diin ng mga regulator ang pagbuo ng mga pananggalang nang maaga at pakikipag-ugnayan sa pangangasiwa sa halip na ipadala muna. Nagbabala rin sila ng mas mataas na panganib para sa mga bata, kung saan ang pinsala ay maaaring mabilis na lumaganap kapag kumalat ang nilalaman.

Ano ang nasa likod ng naiulat na presyur ng Pentagon kay Anthropic tungkol sa paggamit ng militar kay Claude?

Ayon sa ulat ng Reuters, nakatakdang makipagkita ang Kalihim ng Depensa ng US sa CEO ng Anthropic para sa mas mahigpit na pag-uusap tungkol sa paggamit ni Claude sa militar. Iniulat na nais ng Pentagon na ang mga pangunahing tagapagbigay ng AI ay maglabas ng mga modelo sa mga classified network na may mas kaunting mga paghihigpit. Lumalaban ang Anthropic sa mas maluwag na mga pananggalang, na itinuturo ang isang alitan tungkol sa mga guardrail. Mukhang tensiyonado ang relasyon, bagama't ang magkabilang panig ay nagpapahiwatig na ang mga pag-uusap ay nananatiling nakabubuo.

Ano ang nagbago sa mga tala ng paglabas ng ChatGPT tungkol sa haba ng konteksto ng mode na "Pag-iisip"?

Ang mga tala ng paglabas ng OpenAI ay tumutukoy sa isang pinalawak na window ng konteksto para sa "Thinking" mode, na nagpapahintulot sa mas maraming teksto na mailagay sa loob ng isang thread. Sa pagsasagawa, makakatulong ito sa mahahabang dokumento, kumplikadong proyekto, at pananaliksik na may maraming hakbang kung saan mahalaga ang mga naunang detalye. Ito ay isang pag-upgrade na parang sa pagtutubero sa halip na isang magarbong tampok. Ang pangunahing benepisyo ay mas kaunting mga detalyeng hindi natatanggal sa mas mahahabang sesyon.

Balitang AI kahapon: ika-21 ng Pebrero 2026

Hanapin ang Pinakabagong AI sa Opisyal na Tindahan ng AI Assistant

Tungkol sa Amin

Balik sa blog