Maikling sagot: Ang mga developer na gumagamit ng generative AI ay responsable para sa buong sistema, hindi lamang sa output ng modelo. Kapag naiimpluwensyahan ng AI ang mga desisyon, code, privacy, o tiwala ng user, dapat silang pumili ng mga ligtas na application, beripikahin ang mga resulta, protektahan ang data, bawasan ang pinsala, at tiyaking maaaring suriin, i-override, at itama ng mga tao ang mga pagkakamali.
Mga pangunahing punto:
Beripikasyon : Ituring na hindi mapagkakatiwalaan ang mga pinahusay na output hanggang sa kumpirmahin ito ng mga mapagkukunan, pagsubok, o pagsusuri ng tao.
Proteksyon ng datos : Bawasan ang agarang datos, alisin ang mga identifier, at i-secure ang mga log, kontrol sa pag-access, at mga vendor.
Pagkamakatarungan : Subukan sa iba't ibang demograpiko at konteksto upang mahuli ang mga stereotype at hindi pantay na mga padron ng pagkabigo.
Transparency : Malinaw na lagyan ng label ang paggamit ng AI, ipaliwanag ang mga limitasyon nito, at mag-alok ng pagsusuri o apela mula sa tao.
Pananagutan : Magtalaga ng mga malinaw na may-ari para sa pag-deploy, mga insidente, pagsubaybay, at rollback bago ilunsad.

Mga artikulong maaaring gusto mong basahin pagkatapos nito:
🔗 Pinakamahusay na mga tool sa AI para sa mga developer ng software: Mga nangungunang katulong sa coding na pinapagana ng AI
Paghambingin ang mga nangungunang AI coding assistant para sa mas mabilis at mas malinis na mga daloy ng trabaho sa pag-develop.
🔗 Nangungunang 10 AI tool para sa mga developer upang mapalakas ang produktibidad
Niraranggo ang listahan ng mga developer AI tool para sa mas matalinong coding at bilis.
🔗 Bakit maaaring maging masama ang AI para sa lipunan at tiwala
Nagpapaliwanag ng mga panganib sa totoong mundo: pagkiling, privacy, mga trabaho, at mga panganib ng maling impormasyon.
🔗 Sumusobra na ba ang AI sa mga desisyong may malaking pusta?
Tinutukoy kung kailan lumalagpas ang AI sa mga hangganan: pagmamatyag, mga deepfake, panghihikayat, walang pahintulot.
Bakit mas mahalaga ang responsibilidad ng mga Developer na gumagamit ng Generative AI kaysa sa iniisip ng mga tao
Nakakainis ang maraming bug sa software. May nasira na button. Mabagal mag-load ang page. May nag-crash at lahat ay dumadaing.
Ang mga problema sa generative AI ay maaaring magkakaiba. Maaari itong maging banayad.
Maaaring magmukhang may kumpiyansa ang isang modelo habang nagkakamali. Profile ng NIST GenAI Maaari nitong kopyahin ang bias nang walang halatang mga babala. Profile ng NIST GenAI Maaari nitong ilantad ang sensitibong data kung gagamitin nang pabaya. Nangungunang 10 ng OWASP para sa mga Aplikasyon ng LLM Walong tanong ng ICO para sa generative AI Maaari itong gumawa ng code na gumagana - hanggang sa mabigo ito sa produksyon sa ilang nakakahiyang paraan. Nangungunang 10 ng OWASP para sa mga Aplikasyon ng LLM Parang pagkuha ng isang masigasig na intern na hindi natutulog at paminsan-minsan ay nag-iimbento ng mga katotohanan nang may nakamamanghang kumpiyansa.
Kaya naman ang responsibilidad ng mga Developer na gumagamit ng Generative AI ay mas malaki kaysa sa simpleng implementasyon. Hindi na lamang logic system ang binubuo ng mga developer. Bumubuo na sila ng mga probabilistic system na may malabong mga gilid, hindi mahuhulaan na mga output, at totoong mga kahihinatnan sa lipunan. NIST AI RMF
Nangangahulugan ito na ang responsibilidad ay kinabibilangan ng:
-
pag-unawa sa mga limitasyon ng modelong NIST AI RMF
-
pagprotekta sa privacy ng gumagamit gabay sa ICO sa AI at proteksyon ng data
-
pagbabawas ng mga mapaminsalang output ng NIST GenAI Profile
-
sinusuri ang katumpakan bago ibigay ang tiwala sa NIST GenAI Profile
-
paglilinaw sa papel ng tao Mga Prinsipyo ng OECD AI
-
pagdidisenyo ng mga fallback path kapag nabigo ang AI Mga Prinsipyo ng OECD AI Mga alituntunin ng NCSC secure AI
-
malinaw na pagdodokumento ng sistema Mga Prinsipyo ng OECD AI
Alam mo na kung paano nangyayari - kapag ang isang tool ay parang mahiwaga, hindi na ito kinukuwestiyon ng mga tao. Hindi kayang maging ganoon karelaks ang mga developer.
Ano ang maituturing na magandang bersyon ng responsibilidad ng mga Developer gamit ang Generative AI? 🛠️
Ang isang mahusay na bersyon ng responsibilidad ay hindi performanceative. Hindi lamang ito basta pagdaragdag ng disclaimer sa ibaba at pagtawag dito ng etika. Makikita ito sa mga pagpili ng disenyo, mga gawi sa pagsubok, at pag-uugali ng produkto.
karaniwang hitsura ng isang malakas na bersyon ng responsibilidad ng mga Developer na gumagamit ng Generative AI
-
Sinadyang paggamit ng NIST AI RMF
-
Ginagamit ang AI para sa isang totoong problema, hindi itinutulak sa produkto dahil lang sa uso itong tingnan.
-
-
Pangangasiwa ng tao Mga Prinsipyo ng OECD AI
-
Maaaring repasuhin, itama, pawalang-bisa, o tanggihan ng mga tao ang mga output.
-
-
Kaligtasan ayon sa disenyo Mga alituntunin ng NCSC secure AI
-
Ang mga kontrol sa panganib ay ginagawa nang maaga, hindi nilagyan ng duct tape sa ibang pagkakataon.
-
-
Transparency Mga Prinsipyo ng OECD AI Pangkalahatang-ideya ng Batas ng AI ng European Commission Pangkalahatang-ideya
-
Nauunawaan ng mga user kung kailan ang content ay binuo ng AI o tinutulungan ng AI.
-
-
Data care ICO para sa generative AI
-
Maingat na pinangangasiwaan ang sensitibong impormasyon, at limitado ang pag-access dito.
-
-
Sinusuri ng patas na pagsusuri NIST GenAI Profile ICO sa AI at proteksyon ng datos
-
Sinubukan ang sistema para sa bias, hindi pantay na pagganap, at mga mapaminsalang pattern.
-
-
Patuloy na pagsubaybay sa mga alituntunin ng secure AI ng NIST AI RMF
-
Ang paglulunsad ay hindi ang finish line. Ito ay mas katulad ng sipol ng pagsisimula.
-
Kung parang marami iyan, aba... oo nga. Pero ganoon talaga kapag gumagamit ka ng teknolohiyang maaaring makaimpluwensya sa mga desisyon, paniniwala, at pag-uugali nang malawakan. Mga Prinsipyo ng OECD AI
Talahanayan ng Paghahambing - ang pangunahing responsibilidad ng mga Developer na gumagamit ng Generative AI sa isang sulyap 📋
| Lugar ng responsibilidad | Sino ang naaapektuhan nito | Pang-araw-araw na kasanayan ng developer | Bakit ito mahalaga |
|---|---|---|---|
| Katumpakan at beripikasyon | mga gumagamit, mga koponan, mga customer | Suriin ang mga output, magdagdag ng mga validation layer, subukan ang mga edge case | Ang AI ay maaaring maging matatas ngunit mali pa rin - na isang magaspang na kombinasyon ng NIST GenAI Profile |
| Proteksyon sa privacy | mga gumagamit, kliyente, panloob na kawani | Bawasan ang paggamit ng sensitibong data, mga scrub prompt, at mga control log | Kapag tumagas ang pribadong data, wala na sa tubo ang toothpaste 😬 Walong tanong ng ICO para sa generative AI OWASP Top 10 para sa mga Aplikasyon ng LLM |
| Pagkiling at pagiging patas | mga grupong kulang sa representasyon, lahat talaga ng mga gumagamit | Mga output ng pag-audit, pagsubok ng iba't ibang input, pagsasaayos ng mga pananggalang | Hindi laging malakas ang pinsala - minsan ito ay sistematiko at tahimik. NIST GenAI Profile ICO sa AI at proteksyon ng datos. |
| Seguridad | mga sistema ng kumpanya, mga gumagamit | Paghigpitan ang pag-access sa modelo, ipagtanggol laban sa agarang pag-iniksyon, at mga mapanganib na aksyon na maaaring i-sandbox | Isang matalinong pagsasamantala ang maaaring mabilis na makasira ng tiwala. OWASP Top 10 para sa mga Aplikasyon ng LLM. NCSC sa AI at cyber security |
| Transparency | mga end user, regulator, mga pangkat ng suporta | Lagyan ng malinaw na label ang gawi ng AI, ipaliwanag ang mga limitasyon, at idokumento ang paggamit | Nararapat malaman ng mga tao kung kailan nakakatulong ang makina Mga Prinsipyo ng OECD AI Kodigo ng Pagsasagawa sa pagmamarka at paglalagay ng label sa nilalamang binuo ng AI |
| Pananagutan | mga may-ari ng produkto, legal, mga pangkat ng developer | Tukuyin ang pagmamay-ari, paghawak ng insidente, mga landas ng escalation | Ang "AI ang may gawa nito" ay hindi isang sagot para sa matatanda. Mga Prinsipyo ng OECD AI |
| Kahusayan | lahat ng humahawak sa produkto | Subaybayan ang mga pagkabigo, magtakda ng mga limitasyon ng kumpiyansa, lumikha ng fallback logic | Ang mga modelo ay naaanod, nabibigo sa mga hindi inaasahang paraan, at paminsan-minsan ay may isang dramatikong maliit na yugto. NIST AI RMF NCSC secure AI |
| Kagalingan ng gumagamit | mga mahihinang gumagamit lalo na | Iwasan ang manipulatibong disenyo, limitahan ang mga mapaminsalang output, suriin ang mga kaso ng paggamit na may mataas na panganib | Hindi porket maaaring malikha ang isang bagay ay dapat na itong malikha. Mga Prinsipyo ng OECD AI NIST AI RMF |
Medyo hindi pantay ang mesa, oo, pero bagay naman sa paksa. Hindi rin pantay ang tunay na responsibilidad.
Nagsisimula ang responsibilidad bago ang unang prompt - pagpili ng tamang use case 🎯
Isa sa mga pinakamalaking responsibilidad ng mga developer ay ang pagpapasya kung dapat bang gamitin ang generative AI . NIST AI RMF
Mukhang halata naman iyan, pero palagi itong nilalaktawan. Nakakakita ang mga team ng modelo, nasasabik, at pinipilit itong ipasok sa mga workflow na mas madaling mahawakan ng mga patakaran, paghahanap, o ordinaryong lohika ng software. Hindi lahat ng problema ay nangangailangan ng modelo ng wika. Ang ilang problema ay nangangailangan ng database at isang tahimik na hapon.
Bago magtayo, dapat itanong ng mga developer ang mga sumusunod:
-
Ang gawain ba ay bukas o deterministic?
-
Maaari bang magdulot ng pinsala ang maling output?
-
Kailangan ba ng mga gumagamit ng pagkamalikhain, prediksyon, pagbubuod, automation - o bilis lang?
-
Magtitiwala ba nang labis ang mga tao sa output? Profile ng NIST GenAI
-
Makatotohanan bang masusuri ng isang tao ang mga resulta? Mga Prinsipyo ng OECD AI
-
Ano ang mangyayari kapag mali ang modelo? Mga Prinsipyo ng OECD AI
Ang isang responsableng developer ay hindi basta nagtatanong ng, “Maaari ba natin itong itayo?” Nagtatanong sila, “Dapat ba itong itayo sa ganitong paraan?” NIST AI RMF
Ang tanong na iyan mismo ay nakakapigil sa maraming kalokohan.
Ang katumpakan ay isang responsibilidad, hindi isang bonus na katangian ✅
Linawin natin - isa sa mga pinakamalaking patibong sa generative AI ay ang pagkakamali sa kahusayan sa pagsasalita bilang katotohanan. Ang mga modelo ay kadalasang nakakagawa ng mga sagot na parang pinakintab, nakabalangkas, at lubos na nakakakumbinsi. Na maganda, hanggang sa ang nilalaman ay maging walang katuturan na nababalot ng kumpiyansa. Profile ng NIST GenAI
Kaya ang responsibilidad ng mga Developer na gumagamit ng Generative AI ay kinabibilangan ng pagbuo para sa beripikasyon.
Ibig sabihin:
-
paggamit ng pagkuha o pag-ground kung saan posible NIST GenAI Profile
-
paghihiwalay ng nabuong nilalaman mula sa mga nakumpirmang katotohanan Mga Prinsipyo ng OECD AI
-
Maingat na pagdaragdag ng mga limitasyon ng kumpiyansa NIST AI RMF
-
paglikha ng mga daloy ng trabaho sa pagsusuri para sa mga output na may mataas na pusta Mga Prinsipyo ng OECD AI
-
pinipigilan ang modelo sa pag-improvise sa mga kritikal na konteksto Profile ng NIST GenAI
-
mga prompt sa pagsubok na sumusubok na sirain o linlangin ang sistema OWASP Nangungunang 10 para sa mga Aplikasyon ng LLM
Malaki ang kahalagahan nito sa mga larangan tulad ng:
-
pangangalagang pangkalusugan
-
pananalapi
-
mga legal na daloy ng trabaho
-
edukasyon
-
suporta sa customer
-
automation ng negosyo
-
pagbuo ng kodigo
Halimbawa, ang nabuong code ay maaaring magmukhang maayos habang itinatago ang mga depekto sa seguridad o mga pagkakamali sa lohika. Ang isang developer na nangongopya nito nang walang taros ay hindi mahusay - ini-outsource lang nila ang panganib sa mas magandang format. OWASP Top 10 para sa mga Aplikasyon ng LLM NCSC sa AI at cyber security
Makakatulong ang modelo. Hawak pa rin ng developer ang resulta. Mga Prinsipyo ng OECD AI
Hindi maaaring pagtalunan ang privacy at pangangasiwa ng data 🔐
Dito mabilis na nagiging seryoso ang mga bagay-bagay. Ang mga generative AI system ay kadalasang umaasa sa mga prompt, log, context window, memory layer, analytics, at third-party infrastructure. Lumilikha ito ng maraming pagkakataon para sa sensitibong data na tumagas, magtagal, o magamit muli sa mga paraang hindi inaasahan ng mga user. Walong tanong ng ICO para sa generative AI OWASP Top 10 para sa mga Aplikasyon ng LLM
Ang mga developer ay may responsibilidad na protektahan ang:
-
personal na impormasyon
-
mga talaang pinansyal
-
mga detalyeng medikal
-
panloob na datos ng kumpanya
-
mga lihim ng kalakalan
-
mga token ng pagpapatunay
-
komunikasyon ng kliyente
Kabilang sa mga responsableng gawain ang:
-
Pagbabawas ng datos na pumapasok sa walong tanong ng modelo ng ICO para sa generative AI
-
pagtatakip o pag-aalis ng mga identifier ng NIST GenAI Profile
-
paglilimita sa pagpapanatili ng log ICO na gabay sa AI at proteksyon ng data
-
pagkontrol kung sino ang maaaring maka-access sa mga prompt at maglabas ng OWASP Top 10 para sa mga Aplikasyon ng LLM
-
Maingat na sinusuri ang mga setting ng vendor Mga alituntunin ng NCSC secure AI
-
paghihiwalay ng mga daloy ng trabaho na may mataas na panganib Mga alituntunin ng NCSC secure AI
-
ginagawang nakikita ng mga gumagamit ang mga gawi sa privacy. Walong tanong ng ICO para sa generative AI
Isa ito sa mga aspeto kung saan ang "nakalimutan nating isipin ito" ay hindi isang maliit na pagkakamali. Ito ay isang pagkabigo na sumisira sa tiwala.
At ang tiwala, kapag nabasag, ay kumakalat na parang nalaglag na salamin. Hindi marahil ang pinakamaganda at maayos na metapora, pero naiintindihan mo naman.
Pagkiling, pagiging patas, at representasyon - ang mas tahimik na mga responsibilidad ⚖️
Ang bias sa generative AI ay bihirang maging isang kontrabida sa cartoon. Kadalasan ay mas madulas ito kaysa doon. Ang isang modelo ay maaaring makagawa ng mga estereotipo na deskripsyon ng trabaho, hindi pantay na mga desisyon sa moderasyon, mga rekomendasyong hindi pantay, o mga palagay na makikitid ang kultura nang hindi nagdudulot ng mga halatang alarma. Profile ng NIST GenAI
Kaya naman kabilang sa responsibilidad ng mga Developer na gumagamit ng Generative AI ang aktibong gawaing patas.
Ang mga developer ay dapat:
-
mga prompt ng pagsubok mula sa iba't ibang demograpiko at konteksto Profile ng NIST GenAI
-
pagsusuri ng mga output para sa mga stereotype at pagbubukod ng NIST GenAI Profile
-
magsangkot ng iba't ibang pananaw sa panahon ng pagsusuri NIST AI RMF
-
bantayan ang hindi pantay na mga pattern ng pagkabigo Profile ng NIST GenAI
-
iwasang ipagpalagay na ang isang istilo ng wika o pamantayang kultural ay akma sa lahat gabay ng ICO sa AI at proteksyon ng datos
-
lumikha ng mga channel ng pag-uulat para sa mapaminsalang output ng NIST AI RMF
Ang isang sistema ay maaaring magmukhang gumagana nang maayos sa pangkalahatan habang patuloy na nagsisilbi sa ilang mga gumagamit nang mas malala kaysa sa iba. Hindi iyon katanggap-tanggap dahil lamang sa maganda ang hitsura ng karaniwang pagganap sa isang dashboard. Gabay sa ICO sa AI at proteksyon ng data NIST GenAI Profile
At oo, ang pagiging patas ay mas mahirap kaysa sa isang maayos na checklist. Mayroon itong paghatol. Konteksto. Mga kompromiso. Isang sukatan din ng pagkailang. Ngunit hindi nito inaalis ang responsibilidad - kinukumpirma nito ito. Gabay ng ICO sa AI at proteksyon ng data
Ang seguridad ngayon ay bahagi ng agarang disenyo, bahagi rin ng disiplina sa inhenyeriya 🧱
Ang generative AI security ay may sarili nitong kakaibang halimaw. Siyempre, mahalaga pa rin ang tradisyonal na seguridad ng app, ngunit ang mga AI system ay nagdaragdag ng mga hindi pangkaraniwang attack surface: prompt injection, indirect prompt manipulation, hindi ligtas na paggamit ng tool, data exfiltration sa konteksto, at maling paggamit ng modelo sa pamamagitan ng mga automated workflow. OWASP Top 10 para sa mga Aplikasyon ng LLM NCSC sa AI at cyber security
Ang mga developer ang may pananagutan sa pag-secure ng buong sistema, hindi lamang ang interface. Mga alituntunin sa secure AI ng NCSC
Ang mga pangunahing responsibilidad dito ay kinabibilangan ng:
-
pagdidisimpekta ng hindi mapagkakatiwalaang input OWASP Top 10 para sa mga Aplikasyon ng LLM
-
nililimitahan kung anong mga tool ang maaaring tawagin ng modelo na OWASP Top 10 para sa mga Aplikasyon ng LLM
-
paghihigpit sa pag-access sa file at network Mga alituntunin sa secure AI ng NCSC
-
malinaw na paghihiwalay ng mga pahintulot Mga alituntunin ng NCSC secure AI
-
pagsubaybay sa mga pattern ng pang-aabuso Mga alituntunin ng NCSC secure AI
-
mga aksyon na naglilimita sa rate na magastos o mapanganib OWASP Top 10 para sa mga Aplikasyon ng LLM
-
pagsubok sa mga adversarial prompt ng OWASP Nangungunang 10 para sa mga Aplikasyon ng LLM
-
pagbuo ng mga ligtas na fallback kapag sumasalungat ang mga tagubilin Mga Prinsipyo ng OECD AI
Isang hindi komportableng katotohanan ay ang mga user - at mga umaatake - ay talagang susubukan ang mga bagay na hindi inaasahan ng mga developer. Ang ilan ay dahil sa kuryosidad, ang ilan ay dahil sa malisya, ang ilan ay dahil sa maling pag-click nila sa bagay na iyon noong alas-2 ng madaling araw. Nangyayari ito.
Ang seguridad para sa generative AI ay hindi katulad ng pagtatayo ng pader at mas katulad ng pamamahala sa isang madaldal na gatekeeper na kung minsan ay nalilinlang ng mga parirala.
Mas mahalaga ang transparency at pahintulot ng user kaysa sa magarbong UX 🗣️
Kapag nakikipag-ugnayan ang mga gumagamit sa AI, dapat nila itong malaman. Mga Prinsipyo ng OECD AI Kodigo ng Pagsasagawa sa pagmamarka at paglalagay ng label sa nilalamang binuo ng AI
Hindi malabo. Hindi nakatago sa mga termino. Malinaw.
Ang isang mahalagang bahagi ng responsibilidad ng mga Developer na gumagamit ng Generative AI ay ang pagtiyak na nauunawaan ng mga user ang:
-
kapag ginagamit ang AI Mga Prinsipyo ng OECD AI
-
Ano ang kaya at hindi kayang gawin ng AI? Mga Prinsipyo ng OECD AI
-
kung ang mga output ay sinusuri ng mga tao Mga Prinsipyo ng OECD AI
-
kung paano pinoproseso ang kanilang datos walong tanong ng ICO para sa generative AI
-
anong antas ng kumpiyansa ang dapat nilang taglayin sa NIST AI RMF
-
Paano mag-ulat ng mga problema o desisyon sa pag-apela Mga Prinsipyo ng OECD AI NIST AI RMF
Ang transparency ay hindi tungkol sa pananakot sa mga gumagamit. Ito ay tungkol sa paggalang sa kanila.
Maaaring kabilang sa mahusay na transparency ang:
-
mga label tulad ng AI-generated o AI-assisted Code of Practice sa pagmamarka at paglalagay ng label sa nilalamang binuo ng AI
-
mga paliwanag sa simpleng wika Mga Prinsipyo ng OECD AI
-
mga nakikitang kasaysayan ng pag-edit kung saan nauugnay
-
mga opsyon para i-off ang mga feature ng AI
-
pagpapalaganap ng impormasyon sa tao kapag kinakailangan Mga Prinsipyo ng OECD AI
-
maiikling babala para sa mga gawaing may mataas na panganib, pangkalahatang-ideya ng European Commission AI Act
Maraming product team ang nag-aalala na ang katapatan ay magpaparamdam sa feature na hindi gaanong mahiwaga. Siguro. Pero mas malala ang maling katiyakan. Ang isang maayos na interface na nagtatago ng panganib ay parang pinakintab na kalituhan.
Mananagot pa rin ang mga developer - kahit na ang modelo ang "magdesisyon" 👀
Napakahalaga ng bahaging ito. Ang responsibilidad ay hindi maaaring ibigay sa model vendor, sa model card, sa prompt template, o sa mahiwagang kapaligiran ng machine learning. Mga Prinsipyo ng OECD AI NIST AI RMF
May pananagutan pa rin ang mga developer. Mga Prinsipyo ng OECD AI
Ibig sabihin, dapat may isang tao sa koponan na nagmamay-ari ng:
-
pagpili ng modelo ng NIST AI RMF
-
mga pamantayan sa pagsubok Profile ng NIST GenAI
-
pamantayan sa paglabas ng NIST GenAI Profile
-
Mga alituntunin sa ligtas na AI ng NCSC para sa pagtugon sa insidente
-
paghawak ng reklamo ng gumagamit NIST AI RMF
-
mga pamamaraan ng rollback Mga Prinsipyo ng OECD AI
-
pagsubaybay sa pagbabago Mga Prinsipyo ng OECD AI
-
dokumentasyon ng OECD AI Principles
Dapat mayroong malinaw na mga sagot sa mga tanong tulad ng:
-
Sino ang nag-aapruba sa pag-deploy? Profile ng NIST GenAI
-
Sino ang sumusuri sa mga insidente ng mapaminsalang output? Profile ng NIST GenAI
-
Sino ang maaaring mag-disable ng feature na ito? Mga Prinsipyo ng OECD AI
-
Sino ang nagmomonitor para sa mga regresyon? NIST AI RMF
-
Sino ang nakikipag-ugnayan sa mga gumagamit kapag may nasira? Mga Prinsipyo ng OECD AI
Kung walang pagmamay-ari, ang responsibilidad ay nagiging parang ulap. Inaakala ng lahat na may ibang humahawak nito... tapos wala namang gumagawa.
Ang totoo, mas matanda pa ang padron na iyan kaysa sa AI. Ginagawa lang itong mas mapanganib ng AI.
Ang mga responsableng developer ay gumagawa para sa pagwawasto, hindi para sa pagiging perpekto 🔄
Narito ang maliit na pagbabago sa lahat ng ito: ang responsableng pagbuo ng AI ay hindi tungkol sa pagpapanggap na ang sistema ay magiging perpekto. Ito ay tungkol sa pag-aakalang mabibigo ito sa anumang paraan at pagdidisenyo batay sa realidad na iyon. NIST AI RMF
Nangangahulugan ito ng pagbuo ng mga produkto na:
-
Mga Prinsipyo ng AI na maaaring awditahan
-
maaaring repasuhin ang mga desisyon at resulta sa ibang pagkakataon
-
-
mga Prinsipyo ng AI na maaaring maantala
-
maaaring pigilan o iwasan ng mga tao ang masamang pag-uugali
-
-
mababawi na mga Prinsipyo ng OECD AI
-
may fallback kapag mali ang AI output
-
-
mga gabay sa ligtas na AI na masusubaybayan NIST AI RMF
-
makakakita ang mga koponan ng mga pattern bago pa man maging sakuna ang mga ito
-
-
mapahusay na NIST GenAI Profile
-
May mga feedback loop, at may nagbabasa ng mga ito
-
Ganito ang hitsura ng kapanahunan. Hindi makintab na mga demo. Hindi makapigil-hiningang kopya ng marketing. Mga totoong sistema, na may mga guardrail, log, pananagutan, at sapat na pagpapakumbaba upang aminin na ang makina ay hindi isang salamangkero. Mga alituntunin ng NCSC secure AI Mga Prinsipyo ng OECD AI
Dahil hindi naman. Isa itong kagamitan. Makapangyarihan, oo. Pero isa pa ring kagamitan.
Pangwakas na pagninilay sa responsibilidad ng mga Developer gamit ang Generative AI 🌍
Kaya, ano ang responsibilidad ng mga Developer na gumagamit ng Generative AI ?
Ito ay ang pagbuo nang may pag-iingat. Upang tanungin kung saan nakakatulong ang sistema at kung saan ito nakakasama. Upang protektahan ang privacy. Upang subukan ang bias. Upang beripikahin ang mga output. Upang siguruhin ang daloy ng trabaho. Upang maging transparent sa mga gumagamit. Upang mapanatili ang mga tao sa makabuluhang kontrol. Upang manatiling may pananagutan kapag may nangyaring mali. NIST AI RMF OECD AI
Maaaring mukhang mabigat iyan -- at totoo nga. Ngunit ito rin ang naghihiwalay sa maalalahaning pag-unlad mula sa walang ingat na automation.
Ang pinakamahuhusay na developer na gumagamit ng generative AI ay hindi ang mga taong nagpapagana sa modelo ng pinakamaraming trick. Sila ang mga nakakaintindi sa mga kahihinatnan ng mga trick na iyon, at nagdidisenyo nang naaayon. Alam nilang mahalaga ang bilis, ngunit ang tiwala ang tunay na produkto. Kakaiba, ang makalumang ideyang iyon ay nananatili pa rin. NIST AI RMF
Sa huli, ang responsibilidad ay hindi hadlang sa inobasyon. Ito ang pumipigil sa inobasyon na maging isang magastos at magulong paglaganap na may maayos na interface at problema sa kumpiyansa 😬✨
At marahil iyon ang pinakasimpleng bersyon nito.
Magtayo nang matapang, oo - ngunit magtayo nang parang mga taong maaaring maapektuhan, dahil maaapektuhan nga sila. Mga Prinsipyo ng OECD AI
Mga Madalas Itanong
Ano ang responsibilidad ng mga developer na gumagamit ng generative AI sa pagsasagawa?
Ang responsibilidad ng mga developer na gumagamit ng generative AI ay higit pa sa mabilisang pagpapadala ng mga tampok. Kabilang dito ang pagpili ng tamang use case, pagsubok ng mga output, pagprotekta sa privacy, pagbabawas ng mapaminsalang pag-uugali, at paggawa ng sistema na madaling maunawaan ng mga user. Sa pagsasagawa, ang mga developer ay nananatiling responsable sa kung paano dinisenyo, sinusubaybayan, itinatama, at pinamamahalaan ang tool kapag ito ay nabigo.
Bakit mas kailangan ng generative AI ang responsibilidad ng developer kaysa sa normal na software?
Kadalasang halata ang mga tradisyunal na bug, ngunit ang mga generative AI failure ay maaaring magmukhang maayos habang mali, may kinikilingan, o mapanganib pa rin. Dahil dito, mas mahirap matukoy ang mga problema at mas madaling pagkatiwalaan ng mga user nang hindi sinasadya. Ang mga developer ay gumagamit ng mga probabilistic system, kaya kabilang sa responsibilidad ang paghawak ng kawalan ng katiyakan, paglilimita sa pinsala, at paghahanda para sa mga hindi mahuhulaang output bago ilunsad.
Paano nalalaman ng mga developer kung kailan hindi dapat gamitin ang generative AI?
Ang isang karaniwang panimulang punto ay ang pagtatanong kung ang gawain ay bukas sa lahat ng aspeto o mas mahusay na mapangasiwaan ng mga patakaran, paghahanap, o karaniwang lohika ng software. Dapat ding isaalang-alang ng mga developer kung gaano kalaking pinsala ang maaaring idulot ng isang maling sagot at kung makatotohanang masusuri ng isang tao ang mga resulta. Ang responsableng paggamit ay minsan nangangahulugan ng pagpapasyang huwag gumamit ng generative AI.
Paano mababawasan ng mga developer ang mga halusinasyon at maling sagot sa mga generative AI system?
Ang katumpakan ay kailangang idisenyo nang naaayon sa inaasahan, hindi sa pag-aakalang-akala. Sa maraming pipeline, nangangahulugan ito ng pag-ugat ng mga output sa mga mapagkakatiwalaang mapagkukunan, paghihiwalay ng nabuong teksto mula sa mga napatunayang katotohanan, at paggamit ng mga daloy ng trabaho sa pagsusuri para sa mga gawaing may mas mataas na panganib. Dapat ding subukan ng mga developer ang mga prompt na nilalayong lituhin o linlangin ang sistema, lalo na sa mga larangan tulad ng code, suporta, pananalapi, edukasyon, at pangangalagang pangkalusugan.
Ano ang responsibilidad ng mga developer na gumagamit ng generative AI para sa privacy at sensitibong data?
Kasama sa responsibilidad ng mga developer na gumagamit ng generative AI ang pagliit ng kung anong data ang papasok sa modelo at pagtrato sa mga prompt, log, at output bilang sensitibo. Dapat alisin ng mga developer ang mga identifier kung maaari, limitahan ang pagpapanatili, kontrolin ang access, at maingat na suriin ang mga setting ng vendor. Dapat ding maunawaan ng mga user kung paano pinangangasiwaan ang kanilang data, sa halip na tuklasin ang mga panganib sa ibang pagkakataon.
Paano dapat pangasiwaan ng mga developer ang pagkiling at pagiging patas sa mga generative AI output?
Ang gawaing may bias ay nangangailangan ng aktibong pagsusuri, hindi mga pagpapalagay. Ang isang praktikal na pamamaraan ay ang pagsubok sa mga prompt sa iba't ibang demograpiko, wika, at konteksto, pagkatapos ay suriin ang mga output para sa mga stereotype, pagbubukod, o hindi pantay na mga pattern ng pagkabigo. Dapat ding lumikha ang mga developer ng mga paraan para maiulat ng mga user o team ang mapaminsalang pag-uugali, dahil ang isang sistema ay maaaring magmukhang malakas sa pangkalahatan habang patuloy pa ring nabibigo ang ilang partikular na grupo.
Anong mga panganib sa seguridad ang kailangang isaalang-alang ng mga developer sa generative AI?
Ang Generative AI ay nagpapakilala ng mga bagong attack surface, kabilang ang prompt injection, hindi ligtas na paggamit ng tool, pagtagas ng data sa konteksto, at pang-aabuso sa mga automated na aksyon. Dapat linisin ng mga developer ang mga hindi mapagkakatiwalaang input, paghigpitan ang mga pahintulot ng tool, limitahan ang pag-access sa file at network, at subaybayan ang mga pattern ng maling paggamit. Ang seguridad ay hindi lamang tungkol sa interface; naaangkop ito sa buong daloy ng trabaho sa paligid ng modelo.
Bakit mahalaga ang transparency kapag nagtatayo gamit ang generative AI?
Dapat malinaw na malaman ng mga gumagamit kung kailan kasangkot ang AI, kung ano ang kaya nitong gawin, at kung saan ang mga limitasyon nito. Ang mahusay na transparency ay maaaring magsama ng mga label tulad ng AI-generated o AI-assisted, mga simpleng paliwanag, at malinaw na landas patungo sa suporta ng tao. Ang ganitong uri ng katapatan ay hindi nagpapahina sa produkto; nakakatulong ito sa mga gumagamit na i-calibrate ang tiwala at gumawa ng mas mahusay na mga desisyon.
Sino ang mananagot kapag ang isang generative AI feature ay nagdulot ng pinsala o nagkamali?
Ang mga developer at product team pa rin ang may hawak ng resulta, kahit na ang modelo ang nagbigay ng sagot. Nangangahulugan ito na dapat mayroong malinaw na responsibilidad para sa pag-apruba ng deployment, paghawak ng insidente, rollback, pagsubaybay, at komunikasyon sa user. Hindi sapat ang "modelong napagpasyahan," dahil ang pananagutan ay dapat manatili sa mga taong nagdisenyo at naglunsad ng sistema.
Ano ang hitsura ng responsableng generative AI development pagkatapos ng paglulunsad?
Ang responsableng pag-unlad ay nagpapatuloy pagkatapos ng paglabas sa pamamagitan ng pagsubaybay, feedback, pagsusuri, at pagwawasto. Ang malalakas na sistema ay maaaring i-audit, maaantala, mababawi, at dinisenyo na may mga fallback path kapag nabigo ang AI. Ang layunin ay hindi perpekto; ito ay ang pagbuo ng isang bagay na maaaring suriin, mapabuti, at ligtas na maiakma habang lumilitaw ang mga problema sa totoong mundo.
Mga Sanggunian
-
Pambansang Instituto ng mga Pamantayan at Teknolohiya (NIST) - Profile ng NIST GenAI - nvlpubs.nist.gov
-
OWASP - Nangungunang 10 ng OWASP para sa mga Aplikasyon sa LLM - owasp.org
-
Tanggapan ng Komisyoner ng Impormasyon (ICO) - Walong tanong ng ICO para sa generative AI - ico.org.uk