Hinarang ng Indonesia ang access sa AI chatbot ni Musk na Grok dahil sa mga deepfake na larawan ↗
Pansamantalang hinarang ng Indonesia ang Grok matapos itong gamitin upang lumikha ng mga hindi pinagkasunduang sekswal na deepfake - kabilang ang mga larawang tumatarget sa mga kababaihan at bata. Itinuring ito ng gobyerno bilang isang isyu sa karapatang pantao at kaligtasan ng publiko, hindi isang maliit na abala sa teknolohiya.
Prangka ang punto ng presyur: kung kayang "hubaran" ng isang instrumento ang mga totoong tao kapag inuutusan, mababago ang pasanin ng pagpapatunay. Kailangang ipakita ng mga plataporma na kaya nilang pigilan ito, hindi lang basta mangakong iniisip nila ito.
Sinabi ni Elon Musk na nais ng UK na supilin ang malayang pananalita habang nahaharap ang X sa posibleng pagbabawal ↗
Hayagan na naghain ng mga multa ang mga ministro ng UK - at maging ang pagharang kay X - matapos gamitin si Grok upang lumikha ng mga tahasang sekswal na larawan nang walang pahintulot. Tumatanggi si Musk sa pamilyar na pagbabala ng malayang pananalita... ngunit ang legal na postura sa UK ay bumababa mula sa "debate club" patungo sa "deadline ng pagsunod."
Hinihimok ang Ofcom na kumilos nang mabilis, at itinuturo naman ng mga mambabatas ang parehong malagim na padron: kapag kumalat na ang mga imahe, ang pinsala ay hindi na matiyagang naghihintay para sa isang pag-update sa patakaran.
🧑💻 Iniulat na hinihiling ng OpenAI sa mga kontratista na mag-upload ng totoong trabaho mula sa mga nakaraang trabaho ↗
Ang OpenAI, kasama ang isang training data partner, ay naiulat na humihiling sa mga kontratista na mag-upload ng mga totoong artifact ng trabaho mula sa mga nakaraan (at kasalukuyan) na trabaho - halimbawa, mga dokumento, spreadsheet, deck, at repo. Ang nakasaad na layunin ay suriin at pagbutihin ang mga AI agent sa mga gawaing pang-opisina.
Ang mahirap na bahagi ay halata, at medyo kakaiba: ang mga kontratista ay sinasabihan na linisin mismo ang sensitibong impormasyon. Malaking tiwala iyan na ilalagay sa isang mabilis na proseso -- parang paghiling sa isang tao na paandarin ang bomba gamit ang oven mitts, nang may pagmamahal.
🗂️ Hinihiling ng OpenAI sa mga Kontratista na Mag-upload ng Trabaho Mula sa mga Nakaraang Trabaho upang Suriin ang Pagganap ng mga Ahente ng AI ↗
Isang hiwalay na ulat ang tumatalakay sa parehong sitwasyon at kung bakit ito nakakabahala sa mga abogado sa privacy at IP. Kahit na lahat ay kumikilos nang may mabuting hangarin, ang "alisin ang mga kumpidensyal na bagay" ay isang maselan na tagubilin kapag nakikitungo ka sa mga totoong dokumento ng korporasyon.
Ipinahihiwatig din nito ang mas malaking estratehiya: Ang mga ahente ng AI ay hindi na lamang basta madaldal na mga copilot - sinasanay sila upang gayahin ang gusot at maraming file na realidad ng aktwal na trabaho. Praktikal, oo. Medyo… naku.
🏦 Allianz at Anthropic Forge Global Partnership para Isulong ang Responsableng AI sa Seguro ↗
Inanunsyo ng Allianz at Anthropic ang isang pandaigdigang pakikipagsosyo na nakatuon sa tatlong aspeto: produktibidad ng empleyado, operational automation sa pamamagitan ng agentic AI, at compliance-by-design. Ang insurance ay parang papeles na kailangan ng mga ngipin, kaya ang "agency" dito ay nangangahulugang pag-automate ng mga kumplikadong workflow nang hindi nawawala ang mga audit trail.
Ang vibe ay: gawin ang astig na automation, pero panatilihin ang mga resibo. Sa mga regulated na industriya, ganoon lang ang paraan para lumawak ito nang hindi nagiging liability piñata.
🕵️♂️ Pahayag bilang tugon sa Grok AI sa X ↗
Ayon sa regulator ng proteksyon ng datos sa UK, nakipag-ugnayan ito sa X at xAI upang humingi ng kalinawan kung paano nila pinangangasiwaan ang personal na datos at pinoprotektahan ang mga karapatan ng mga tao, dahil sa mga alalahanin tungkol sa nilalamang binuo ng Grok. Hindi lamang ito "pagmo-moderate ng nilalaman" - kundi pati na rin kung ang datos ng mga tao ay pinoproseso nang legal, at kung ang mga karapatan ay pinoprotektahan.
Ito 'yung tipong regulasyon na parang magalang, tapos tahimik na nagiging seryoso kapag ang mga sagot ay malabo... o palihim, o pareho.
Mga Madalas Itanong
Bakit hinarang ng Indonesia ang access sa Grok AI?
Pansamantalang hinarang ng Indonesia ang Grok matapos maiulat na ginamit ito upang lumikha ng mga sekswal na deepfake na hindi pinagkasunduan, kabilang ang mga larawang tumatarget sa mga kababaihan at bata. Itinuring ng mga opisyal ang hakbang na ito bilang isang isyu sa karapatang pantao at kaligtasan ng publiko, hindi isang maliit na hindi pagkakaunawaan sa teknolohiya. Ang pinagbabatayang mensahe ay ang "aayusin natin ito mamaya" ay hindi sapat dahil ang mga kagamitan ay maaaring magdulot ng agarang at hindi na mababawi na pinsala.
Ano ang isinasaalang-alang ng UK matapos lumabas ang mga deepfake na ginawa ng Grok sa X?
Tatalakayin ng mga ministro ng UK sa publiko ang mga multa at maging ang posibilidad ng pagharang kay X matapos gamitin si Grok upang lumikha ng mga tahasang sekswal na larawan nang walang pahintulot. Ang tono ng politika at regulasyon ay lumilipat patungo sa maipapatupad na pagsunod, hindi sa bukas na debate. Ang puntong patuloy na binabalik-balikan ng mga mambabatas ay ang tiyempo: kapag kumalat na ang mga larawan, ang mga biktima ay nahaharap sa pinsala bago pa man maglathala ang mga platform ng mga na-update na patakaran.
Ano ang ibig sabihin kapag "binaliktad ng mga regulator ang pasanin ng pagpapatunay" para sa mga tool sa imahe ng AI?
Ang ideya ng "burden of proof flips" ay maaaring kailanganing ipakita ng mga platform na mapipigilan nila ang mga partikular na pinsala - tulad ng pagbuo ng mga imaheng "paghuhubad" na walang pahintulot - sa halip na mangako lamang ng mga pananggalang. Sa pagsasagawa, itinutulak nito ang mga kumpanya patungo sa mga maipapakitang kontrol, masusukat na pagpapatupad, at malinaw na paghawak sa mga pagkabigo. Ipinapahiwatig din nito na ang "intent" ay hindi gaanong mahalaga kaysa sa mga nasasalat na resulta at paulit-ulit na pag-iwas.
Paano mababawasan ng mga platform ang panganib ng mga AI-generated na non-consensual deepfake?
Isang karaniwang pamamaraan ang layered prevention: paghigpitan ang mga prompt at output na nakatali sa mga totoong tao, harangan ang mga kahilingan sa istilo ng "paghuhubad", at tuklasin at ihinto ang mga pagtatangkang lumikha ng mga sekswal na imahe nang walang pahintulot. Maraming pipeline ang nagdaragdag ng mga limitasyon sa rate, mas malakas na pagsubaybay sa pagkakakilanlan at pang-aabuso, at mabilis na mga daloy ng trabaho sa pagtanggal kapag kumalat ang nilalaman. Ang layunin ay hindi lamang ang wika ng patakaran, kundi pati na rin ang mga kasangkapan na tatagal sa ilalim ng pagalit na paggamit.
Bakit nakakabahala ang mga pag-upload ng kontratista ng OpenAI ng mga totoong dokumento ng trabaho?
Ayon sa mga ulat, hinihiling ng OpenAI (kasama ang isang training data partner) sa mga kontratista na mag-upload ng mga totoong artifact ng trabaho - mga dokumento, spreadsheet, deck, at repo - upang suriin at mapabuti ang mga ahente ng AI para sa mga gawain sa opisina. Ang ikinababahala ay ang mga kontratista ay sinasabihan na linisin mismo ang mga sensitibong detalye, na maaaring madaling magkamali. Nag-aalala ang mga abogado sa privacy at IP na ang tagubiling ito na "alisin ang mga kumpidensyal na bagay" ay masyadong malabo para sa mga totoong materyales ng korporasyon.
Ano ang kahalagahan ng pakikipagtulungan ng Allianz sa Anthropic sa larangan ng “agentic AI” sa seguro?
Inilarawan ng Allianz at Anthropic ang isang pandaigdigang pakikipagsosyo na nakatuon sa produktibidad ng empleyado, operational automation gamit ang agentic AI, at compliance-by-design. Ang mga daloy ng trabaho sa seguro ay kumplikado at mahigpit na kinokontrol, kaya ang "agency" ay kadalasang nagpapahiwatig ng pag-automate ng mga prosesong may maraming hakbang nang hindi nawawala ang pananagutan. Ang pagbibigay-diin sa mga audit trail at "keep receipts" ay sumasalamin sa isang praktikal na realidad: ang automation ay sumasaklaw lamang sa mga regulated na industriya kapag ito ay nananatiling maaaring masuri at maipagtanggol.