Zodpovedná umelá inteligencia v spoločnosti Microsoft
Náš záväzok k zodpovednej umelej inteligencii
V spoločnosti Microsoft sme sa zaviazali zodpovedne navrhovať, vytvárať a uvoľňovať technológie umelej inteligencie, pričom v centre pozornosti zostávajú ľudia a riadime sa našimi zásadami. Náš záväzok sme zhrnuli do šiestich základných hodnôt:
Preskúmajte obchodné dôvody pre zodpovednú umelú inteligenciu
Táto technická dokumentácia ponúka vedúcim pracovníkom v oblasti podnikania a technológií návod, ako systematicky budovať dôveryhodnú umelú inteligenciu.
UNESCO a spoločnosť Microsoft spolupracujú na rozvoji zodpovednej umelej inteligencie
UNESCO a spoločnosť Microsoft spolupracujú na vývoji spoločných iniciatív, ktoré podporujú a implementujú odporúčania týkajúce sa etickej umelej inteligencie.
Zodpovedná AI je súbor krokov, ktoré podnikáme na zabezpečenie dôveryhodnosti systémov umelej inteligencie a dodržiavania zásad dôveryhodnosti. Zahŕňa riešenie otázok, ako sú spravodlivosť, spoľahlivosť a bezpečnosť, ochranu osobných údajov a zabezpečenie, inkluzívnosť, transparentnosť a zodpovednosť. A hlbšie sa zamyslieť nad spôsobmi, akými navrhujeme, vytvárame a prevádzkujeme systémy umelej inteligencie.
Spoločnosť Microsoft zabezpečuje férovosť vo svojich systémoch umelej inteligencie prostredníctvom komplexného prístupu, ktorý zahŕňa zásady, postupy a nástroje určené na zmiernenie zaujatosti a podporu inkluzívnosti.
Zásady zodpovednej umelej inteligencie spoločnosti Microsoft zahŕňajú spravodlivosť, spoľahlivosť a bezpečnosť, ochranu osobných údajov a zabezpečenie, inkluzívnosť, transparentnosť a zodpovednosť. Týmito zásadami sa riadi vývoj a zavádzanie systémov umelej inteligencie, aby sa zabezpečilo rovnaké zaobchádzanie so všetkými a zabránilo sa diskriminácii na základe osobných charakteristík. Spoločnosť Microsoft tiež zdôrazňuje dôležitosť zodpovedného overovania modelov umelej inteligencie, aby sa zvýšila spravodlivosť a súlad s realitou.
Pri používaní generatívnych nástrojov umelej inteligencie sa etické aspekty týkajú aj zaujatosti a spravodlivosti, zabezpečenia ochrany osobných údajov a zabezpečenia, zachovania transparentnosti a zodpovednosti, podpory inkluzívnosti a zabezpečenia spoľahlivosti a bezpečnosti. Dôležité je tiež zabezpečiť presnosť a čestnosť, zachovať ľudský dohľad, vytvoriť etické rozhodovacie rámce, dodržiavať právne a regulačné požiadavky a vyhnúť sa škodlivej zaujatosti. Tieto kroky pomáhajú zabezpečiť zodpovedné a spravodlivé používanie technológií umelej inteligencie.
Na zodpovedné zavedenie umelej inteligencie by organizácie mali vypracovať normu zodpovednej umelej inteligencie, ako je norma pre zodpovedné AI spoločnosti Microsoft, ktorý by zahŕňal zásady ako spravodlivosť, spoľahlivosť, ochrana osobných údajov a inkluzívnosť.
Tu sú ďalšie kroky, ktoré môžu organizácie prijať na zabezpečenie zodpovedného používania umelej inteligencie:
Zriadiť Úrad pre zodpovednú umelú inteligenciu, ktorý bude dohliadať na etiku a riadenie.
Implementujte nástroje na správu umelej inteligencie, ako je napríklad Tabuľa zodpovednej umelej inteligencie spoločnosti Microsoft, na monitorovanie a správu systémov AI.
Zapojte zainteresované strany v celej organizácii a poskytnite školenia o zásadách a postupoch zodpovednej umelej inteligencie.
Funkcia Microsoft Copilot si pamätá detaily, ktoré sú dôležité pre váš každodenný život, pričom uchováva vaše osobné údaje v bezpečí a chráni vaše osobné údaje. Svoje nastavenia ochrany osobných údajov môžete vždy spravovať v nastaveniach ochrany osobných údajov vo funkcii Copilot.
Pri používaní Copilota v práci sa zdedia všetky existujúce požiadavky na zabezpečenie a dodržiavanie súladu, takže k obsahu, ktorý vytvára, majú prístup len osoby so správnymi povoleniami.
Microsoft sa ako spoločnosť zaväzuje poskytovať dôveryhodnú umelú inteligenciu – desiatky rokov výskumu, pripomienok od zákazníkov a poznatkov s informáciami o funkciách, ktoré poskytujú ochranu osobných údajov, bezpečnosť a zabezpečenie.
Sledujte Microsoft