💰 Tahimik na sumasali ang Sequoia sa mega-round ng Anthropic ↗
Ang Sequoia - na kaugnay na ng maraming pangunahing laboratoryo ng AI - ay naiulat na sasali sa isang higanteng pagtaas ng Anthropic. Ito ang uri ng hakbang na magpapaangat sa buong usapan tungkol sa "mga tunggalian, walang tunggalian", aminin man ng sinuman o hindi.
Sinasabing kasama rin sa round na ito ang iba pang mabibigat na tseke, na magtutulak kay Anthropic papasok sa pinakamataas at mega-valuation lane. Nananatili ang mga emosyon ng mga tao. Nakakainis, maaaring ito na rin ang bagong normal.
📢 Nagsisimula nang makipaglandian ang ChatGPT sa mga ad - sa totoo lang sa pagkakataong ito ↗
Sinasabing sinusubukan ng OpenAI ang mga ad para sa ilang mga gumagamit sa US na nasa mas mababang antas ng gastos, habang ang mas mataas na bayad na antas ay nananatiling walang ad. Ang pangako ay hindi makakaimpluwensya ang mga ad sa mga sagot - nakakapanatag sa teorya, kahit na ang reflex ng tiwala ay nagbibigay ng kaunting kilos.
Ang mas malaking subtext ay simple: ang paghihinuha ay magastos, at ang mga subscription lamang ay maaaring hindi saklaw ang lahat magpakailanman... o tila ganoon nga. Gayunpaman, sa unang pagkakataon na makakita ka ng "sponsored" kahit saan malapit sa isang chatbot, may magbabago sa iyong isipan. Nagbabago ang kapaligiran.
📚 Sinusubukan ng mga publisher na dagdagan ang kaso ng Google tungkol sa pagsasanay sa AI ↗
Isang grupo ng mga tagapaglathala ang nagtatangkang sumali sa isang kasong inaakusahan ang Google ng paggamit ng mga akdang may copyright upang sanayin ang mga AI system nito. Patuloy na lumalawak ang legal na laban na ito, parang bitak sa yelo na patuloy mong naririnig ngunit hindi mo lubos na matukoy.
Kung papayagan sila ng korte, maaaring mas lalong maging malinaw sa kaso kung ano ang dapat na kahulugan ng "pahintulot" at "pagbabayad" para sa training data. Gusto ng lahat ng may gusto ng precedent -- mas mabuti kung may pabor sa kanila, siyempre.
🕳️ Isang trick na "prompt injection" ang naiulat na nakakagambala sa Gemini sa pamamagitan ng data ng pulong ↗
Inilarawan ng mga mananaliksik ang isang atakeng istilong "indirect prompt injection" kung saan ang mga malisyosong tagubilin ay nakatago sa loob ng normal na itsura ng nilalaman, pagkatapos ay sinusundan ito ng isang assistant kapag ang isang user ay nagtanong ng isang bagay na inosente. Walang malware, walang salamangka - mga tekstong ginawa lamang gamit ang armas, kakaiba ang elegante at medyo nakakadiri.
Isa itong paalala na ang "LLM reads untrusted text" ay hindi isang magandang feature - isa itong buong banta. Parang pagpapahintulot sa mga estranghero na magpasok ng mga tala sa iyong bulsa buong araw, tapos magmumukhang gulat na gulat kapag isa sa kanila ay isang bitag.
🎮 Sinabi ng CEO ng Razer na "gusto na ng mga manlalaro ang AI" - kinamumuhian lang nila ang label ↗
Ang usapan ni Razer sa CES ay nakatuon sa AI bilang isang praktikal na kagamitan para sa mga workflow ng game dev – QA, iteration, at mga ganoong bagay – kasama ang ilang mga konseptong parang assistant na parang nakakatulong, parang sci-fi prop.
Inaamin din nila ang problema sa branding: ayaw ng mga manlalaro ng "AI slop," pero gusto nila ng mas matalinong mga tool at mas maayos na karanasan. Tawagin itong "assist" at tatango ang mga tao. Tawagin itong "AI" at aabutin ng mga tao ang mga pitchfork... minsan.
⚖️ Naglatag ang korte ng mga patakaran para sa mga abogado na gumagamit ng generative AI ↗
Isang patnubay na inilathala ng korte na ang ibig sabihin ay: oo, gumamit ng genAI - ngunit ikaw pa rin ang may-ari ng trabaho. Hindi mo maaaring ipagkatiwala ang iyong propesyonal na paghatol sa isang text generator at pagkatapos ay magugulat kapag may kumpiyansa itong imbentuhin ang isang bagay.
Kapansin-pansin, hindi kinakailangan ang pagsisiwalat maliban kung hihilingin ng isang hukom - ngunit ang mensahe ng pananagutan ang tunay na ugat nito. Kayang magbalangkas at mag-ayos ng AI... at maghalusinasyon din na parang isang sobrang kumpiyansang intern na may talento sa kathang-isip.
Mga Madalas Itanong
Ano ang ibig sabihin ng pagsali ng Sequoia sa mega-round ng Anthropic para sa pamumuhunan at mga tunggalian ng AI?
Ipinahihiwatig nito na maaaring patuloy na suportahan ng mga pangunahing mamumuhunan ang maraming nangungunang AI lab nang sabay-sabay, na inaasahang muling bubuhayin ang debate tungkol sa "mga tunggalian, walang tunggalian". Kapag ang iisang pondo ay nakasabit sa ilang lab, sinisimulan ng mga tao na suriin ang mga insentibo, access, at mga kalamangan sa kompetisyon. Binibigyang-diin din ng naiulat na mega-round ang paglipat patungo sa napakalaking pagsusuri at matataas na pagpapahalaga, kahit na ang "bubble vibes" ay nananatiling nakabitin sa hangin.
May mga ad ba ang ChatGPT sa libre o mas murang mga antas, at makakaapekto ba ang mga ito sa mga sagot?
Ayon sa ulat, sinusubukan ng OpenAI ang mga ad para sa ilang user sa US na nasa mas mababang antas ng gastos, habang ang mas mataas na bayad na antas ay nananatiling walang ad. Inaangkin din nito na ang mga ad ay hindi makakaimpluwensya sa mga sagot, na tila nakakasiguro sa papel ngunit maaari pa ring baguhin ang pananaw ng mga tao sa tiwala. Ang subtext ay matipid: ang paghihinuha ay magastos, at ang mga subscription ay maaaring hindi saklaw ang lahat magpakailanman.
Bakit sinusubukan ng mga publisher na sumali sa kasong isinampa ng Google tungkol sa pagsasanay sa AI?
Isang grupo ng mga publisher ang naghahangad na sumali sa isang kaso na nag-aakusa sa Google na gumamit ng mga akdang may copyright upang sanayin ang mga AI system. Kung papayagan sila ng korte, maaaring tumingkad ang kaso tungkol sa kung ano ang dapat na hitsura ng "pahintulot" at "pagbabayad" para sa data ng pagsasanay. Ang mas maraming partido ay kadalasang nangangahulugan ng mas maraming presyon para sa isang malinaw na precedent - lalo na kung sino ang makakatanggap ng kabayaran, at sa ilalim ng anong mga kondisyon.
Ano ang isang "indirect prompt injection" attack, at bakit ito naging malaking isyu sa balita tungkol sa AI tech?
Ito ay isang pag-atake kung saan nakatago ang mga malisyosong tagubilin sa loob ng normal na itsura ng nilalaman, at sinusundan ito ng isang assistant kapag ang isang user ay gumawa ng isang inosenteng kahilingan. Ang pangunahing problema ay ang modelo ay nagbabasa ng hindi mapagkakatiwalaang teksto, na ginagawang isang potensyal na banta ang mga pang-araw-araw na dokumento at mensahe. Ito ay nakakahimok dahil maaari itong gumana nang walang tradisyonal na malware - mga sandatang wika lamang na naka-embed sa nilalaman.
Bakit ayaw ng mga gamer sa label na "AI" pero gusto pa rin nila ng mga AI tool?
Nagtalo ang CEO ng Razer na gusto na ng mga gamer ang mga praktikal na benepisyo nito - mas mabilis na QA, mas maayos na pag-ulit, at mga tumutulong sa workflow - ngunit negatibo ang reaksyon sa branding. Ang madalas na ikinababahala ay ang "AI slop," o nilalamang tila mababa ang pagsisikap at hindi tunay. Ang pagbabago ng anyo nito bilang "assist" o isang utility feature ay maaaring magparamdam dito na parang isang tool na nagpapabuti sa karanasan sa halip na pumalit sa pagkamalikhain.
Ano ang ibig sabihin ng mga patakaran ng korte para sa mga abogadong gumagamit ng generative AI, at kailangan ba nila itong ibunyag?
Diretso lang ang gabay na inilarawan: maaaring gumamit ang mga abogado ng generative AI, ngunit nananatili silang responsable para sa trabaho at hindi maaaring ipagkatiwala ang propesyonal na paghatol sa isang text generator. Ang panganib ay halusinasyon - mga katotohanan o sitasyon na may kumpiyansang inimbento - kaya ang beripikasyon at pananagutan ay nananatiling mahalaga. Ayon sa mga ulat, hindi kinakailangan ang pagsisiwalat maliban kung magtanong ang isang hukom, ngunit ang mensahe pa rin ay: ikaw ang may hawak ng resulta.