App che invecchia ma attenzione alle insidie
Una famosa app per l'editing di selfie, FaceApp, che è stata lanciata all'inizio di quest'anno e ha preso d'assalto il mondo dei selfie, è stata messa a fuoco per l'aggiornamento della sua interfaccia con nuovi filtri che secondo molti utenti ritengono essere razzisti.
FaceApp ha guadagnato popolarità diffusa grazie all'uso di un algoritmo addestrato per modificare le immagini degli utenti. Utilizzando l'app le persone potrebbero scegliere di modificare la propria immagine in diversi modi.
Gli utenti possono aggiungere un sorriso alla loro immagine, diventare più giovani o più grandi, cambiare sesso e persino cambiare il tuo stile.
Ma l'aggiunta di filtri etnici "India", "Asiatici", "Neri" e "Caucasici" si è rivelata dannosa per la reputazione dell'app. Questi filtri non solo cambiano la carnagione e l'aspetto della pelle, ma anche lo stile e il colore dei capelli.
Il CEO Yaroslav Goncharov ha rilasciato una dichiarazione: "i nuovi filtri controversi saranno rimossi nelle prossime ore".
Gli utenti non dovranno aggiornare le loro app dal Play Store per sbarazzarsi dei nuovi filtri in quanto verranno rimossi dal server FaceApp.
"I filtri etnici di FaceApp sono un'idea piuttosto terribile. Ad esempio, forse una delle peggiori idee ", ha scritto un utente di Twitter.
Un altro utente ha accusato la società di "impostare il livello per il razzista (realtà aumentata) con il suo terribile nuovo aggiornamento".
“I filtri per il cambiamento di etnia sono stati progettati per essere uguali in tutti gli aspetti. Non hanno alcuna connotazione positiva o negativa associata a loro. Sono persino rappresentati dalla stessa icona ", ha dichiarato Yaroslav Goncharov a The Verge.
Leggi anche: Questo potrebbe essere il modo più veloce per scattare selfie su AndroidQuesta non è la prima volta che FaceApp è stata criticata per essere razzista. Gli utenti avevano precedentemente riferito che il filtro "caldo" alleggeriva automaticamente il tono della pelle in qualsiasi immagine.
Durante questo incidente, il CEO della società si è fatto avanti affermando che questo incidente è stato causato perché l'algoritmo è stato addestrato usando immagini di persone con carnagione chiara e, di conseguenza, la macchina ha iniziato ad associare "caldo" a carnagione chiara.
(Con input da IANS)
Orkut rimuove le comunità sostenendo i terroristi indiani
Orkut ha bloccato una comunità di fan di un gruppo terroristico indiano
Gli outsourcers indiani controllano dopo la debacle di Satyam
Gli outsourcer indiani possono essere sottoposti a un controllo più approfondito dopo che l'outsourcer Satyam ha ammesso di aver manipolato i conti della società.
Il sito rimuove il riferimento agli script Ebook dopo la minaccia di Amazon
Amazon ha chiesto un forum per rimuovere i riferimenti a un programma che consente alle persone di acquistare libri da negozi diversi da Amazon e carica i libri digitali.