Odgovorno ubijanje

Microsoft je samo še eno od podjetij informacijske družbe, ki se je znašlo med kladivom in nakovalom pri etičnem razvoju programske in strojne opreme.

V preteklosti je namreč to podjetje že večkrat opozarjalo na potrebo etičnega razvoja informacijske dobe in se zavzemal za etični kodeks na tem področju.

Providing technology, resources, and expertise to empower those working to solve humanitarian issues and create a more sustainable and accessible world.

AI for Good with Microsoft

Februarja 2019 se je Microsoftov predstavnik srečal s papežem v Vatikanu tudi na to temo in ponovil zaveze.


The Vatican says Smith discussed artificial intelligence “at the service of the common good” during the papal meeting.

Seattle Times

A se je hitro pokazalo, da je družbenokoristna in odgovorna drža eno, dejanski razvoj pa nekaj čisto drugega.

Konec februarja so namreč razvijalci tega tehnološkega giganta ugotovili, da gre pri projektu Hololens za razvijanje vojaške tehnologije, ki bo uporabljena za bolj učinkovito ubijanje vojaških nasprotnikov.

Last week, a group of Microsoft workers published a petitionasking executives to terminate a contract to develop augmented reality technology for the US military. “We did not sign-up to develop weapons, and we demand a say in how our work is used,” the petition, which was published on Twitter, says.

Wired

A jih je vodstvo podjetja hitro postavilo na realna tla.

“We believe in the strong defense of the United States and we want the people who defend it to have access to the nation’s best technology, including from Microsoft,” Smith wrote. 

Prav tam

Če citiramo neimenovanega pesnika: “Pol se pa pejt!”

Odgovornost v pametnih mestih

Pametna mesta se iz teoretičnih okvirjev vse bolj prelivajo v resničnost. Na vseh koncih sveta se namreč različni akterji lotevajo digitalizacije urbanih središč, pri katerih pa se poleg tehničnih težav srečujejo tudi s trkom dveh nasprotujočih se funkcij mesta – varovanje zasebnosti in vseprisotna tehnologija, ki je priklopljena na splet. V sredini oktobra so tako prišle na dan novice o težavah v Kanadi, kjer se vlada s konglomeratom multinacionalk trudi vzpostaviti koncept pametnega mesta v Torontu.

Iz projekta je namreč izstopila strokovnjakinja za zasebnost, dr. Ann Cavoukian, ki je po lastnih besedah iz projekta izstopila zaradi nestrinjanja s smerjo razvoja. “Upala sem, da bo to pametno mesto, ki bo temeljilo na osebni zasebnostni, ne pa, da bo to pametno mesto nadzora,” je pojasnila ob svojem odstopu. Cavoukianova je še dodala, da so ji najprej glavni razvijalci zagotavljali, da bodo podatki o posameznih meščanih, ki se bodo ujeli v mrežo pametnega mesta, izbrisani, kasneje pa je ugotovila, da se bodo podatki hranili in da bo z njihovo pomočjo mogoče slediti posameznike.

Podjetje SideWalk Labs, ki spada pod okrilje konglomerata Alphabet in se ukvarja z razvijanjem rešitev za pametna mesta, se nadeja, da bo Toronto služil kot prototip pametnega mesta, ki ga bodo potem lahko “nameščali” po celem svetu. V razvijalskih zapisih na svojem blogu so se sicer razvijalci dotaknili tudi izziva zasebnosti in pojasnili, da ga še rešujejo.

Algoritemski videonadzor je nova fronta

Mediji poročajo o nenavadnem sodelovanju med digitalnim velikanom Amazon in ameriško policijo.

The tool, called Rekognition, is already being used by at least one agency — the Washington County Sheriff’s Office in Oregon — to check photographs of unidentified suspects against a database of mug shots from the county jail, which is a common use of such technology around the country (vir).

Wired sporoča, da je področje algoritemskega videonadzora… brez nadzora.

More than two dozen nonprofits wrote to Amazon CEO Jeff Bezos to ask that he stop selling the technology to police, after the ACLU of Northern California revealed documents to shine light on the sales. The letter argues that the technology will inevitably be misused, accusing the company of providing “a powerful surveillance system readily available to violate rights and target communities of color.”

The revelation highlights a key question: What laws or regulations govern police use of the facial-recognition technology? The answer: more or less none (vir)

Guardian pa opozarja, da je tehnologija algoritemskega videonadzora izrazito nenatančna.

The Met used facial recognition at the 2017 Notting Hill carnival, where the system was wrong 98% of the time, falsely telling officers on 102 occasions it had spotted a suspect (vir).

Kitajci pa se nam samo smejijo.

Facial recognition equipment enabled security personnel to spot a suspect at Cheung’s April 7 concert in Nanchang. Police were able to pinpoint the 31-year-old suspect in a crowd of 60,000. The cameras were installed before the event, ostensibly to help prevent crime and stampedes, according to police — they say they did not anticipate using it to find and arrest a fugitive (vir)

Etičen.it – odgovornost iščite povsod!

Na posvetu, ki ga je organiziral zavod Državljan D in kjer smo skupaj z gosti debatirali o iskanju odgovornosti v kibernetski dobi, smo prišli do zanimivih sklepov. Sogovorci so se strinjali, da je težava pri ugotavljanju odgovornosti za nastalo stanje prevelika razdrobljenost akterjev in hkratno delovanje ter sovplivanje na končni izdelek oziroma storitev.

Informacijska stroka se zaveda pomanjkljivosti razvoja, a se o tem premalo javno pogovarja. Prevelik del odgovornosti pade na končnega uporabnika, ki pa nima dovolj znanj, časa in energije, da bi spremljal in vplival na razvoj tehnologije in storitev na tak način, da bi bila njena uporaba varna.

Hkrati se regulator velikokrat sooča z neživljenskimi in nepraktičnimi regulatornimi ukrepi, ki so posledica večjih incidentov. Ti izhajajo iz pomanjkanja efektivne samoregulacije.

Etičen.it – iskanje odgovornosti v kibernetski dobi from Domen Savič on Vimeo.