Poliziotti robot – Etica e business si scontrano

La gente si mobilita contro i cani robot acquistati dalla polizia del Massachussets.

La polizia del Massachusetts ha noleggiato degli avveniristici cani robot da affiancare agli agenti in carne ed ossa. Le macchine intelligenti, capaci di muoversi come un quadrupede domestico ma non in grado di superare i 5 km all’ora, hanno scatenato fin da subito un mare di polemiche tra la popolazione, impaurita dall’idea di venirsi a trovare improvvisamente in scenari finora visti solo al cinema.

Robot che imparano con l’esperienza

Eppure i robot progettati dalla statunitense Boston Dynamics sembrano essere estremamente sicuri: al di là della lentezza di deambulazione e della durata della batteria (appena 90 minuti), infatti, gli Spot (questo il nome dato a questi cagnoloni metallici) sono programmati per perseguire il crimine e soprattutto sono capaci di migliorarsi imparando dalla loro stessa esperienza, grazie ad un complesso sistema di intelligenza artificiale. Sono stati testati dalla società produttrice e dalla polizia per diverso tempo e alla fine introdotti “in servizio”, con l’intenzione di utilizzarli solo ed esclusivamente in missioni che potrebbero compromettere la sicurezza di un agente umano. Ma ciò non basta a placare i timori.

Le perplessità di chi difende i diritti civili

A sollevare le perplessità maggiori è l’Aclu, American civil liberties union, organizzazione americana attiva nella difesa dei diritti civili, che chiede di sapere con precisione quale sarà l’utilizzo di questi poliziotti robot da parte delle forze dell’ordine. Paventando “un futuro nelle mani di Robocop” l’organizzazione chiede assoluta trasparenza, ricordando in particolare il caso di un cecchino ucciso a Dallas nel 2016 probabilmente da un robot utilizzato dalla Swat, Special Weapons And Tactics, il reparto specializzato nella risoluzione dei casi più complessi, che richiedono solitamente l’irruzione e l’affronto diretto del criminale.

La polizia: sono solo dispositivi mobili di monitoraggio

Parliamo di robot che potrebbero benissimo essere armati e istruiti a sparare nel caso individuassero una chiara esigenza. Per tranquillizzare i rappresentanti dell’Aclu la polizia del Massachussets ha assicurato che per loro i robot non sono nient’altro che dispositivi di monitoraggio mobili (senza armi installate) e anche la società produttrice, intervenendo in un programma radio, ha aggiunto che nel contratto di locazione stipulato con la polizia sono state inserite precise clausole che impediscono l’utilizzo di queste macchine intelligenti per “danneggiare fisicamente o intimidire le persone”.

Lo scontro tra etica e business

I robot utilizzati per questi scopi non sono una novità. I primi sono in funzione dal 2008, e con il progresso della tecnologia macchine come droni militari o robot in grado di disinnescare esplosivi si sono fatti sempre più indispensabili e anche in questo campo l’Intelligenza Artificiale è sicuramente il futuro. Aziende come la Boston Dynamics ne hanno fatto un business, ma molto spesso questo business si scontra con questioni etiche e con la preoccupazione della gente comune sul modo in cui i comportamenti dell’intelligenza artificiale vengono indirizzati. E non solo sui temi della sicurezza e della tutela della persona, ma anche sul delicato terreno della privacy.

La tecnologia corre, la legislazione tiene il passo

Per il momento la Boston Dynamics, sempre nel corso del suo intervento in radio, ha fatto sapere di essere disponibile al confronto con i gruppi che difendono i diritti su come implementare e limitare i suoi robot, l’utilizzo dei quali è comunque già ben regolamentato dalle leggi esistenti. Ma siamo ancora all’inizio, facile immaginare che anche a livello legislativo vi sarà ancora moltissima strada da percorrere. Nel frattempo la tecnologia corre, molto probabilmente il numero dei poliziotti robot è destinato a crescere inesorabilmente, e con esso anche gli incroci e gli scontri tra etica e business.