4 módszer, amellyel a Google keresései és a közösségi média befolyásolják az élet lehetőségeit
Shutterstock.

Függetlenül attól, hogy felismeri vagy beleegyezik abba, a nagy adat befolyásolhatja Önt és azt, hogyan éli az életét. A közösségi média használata során létrehozott adatok, böngészés az interneten a fitneszkövetőket pedig összegyűjtik, kategorizálják és használják vállalkozások által és a az állam profilokat készíteni rólunk. Ezeket a profilokat ezután arra használják, hogy a termékek és szolgáltatások hirdetéseit azoknak célozzák meg, akik a legnagyobb valószínűséggel vásárolják meg azokat, vagy tájékoztatják a kormány döntéseit.

A nagy adatok lehetővé teszik az államok és a vállalatok számára, hogy hozzáférjenek, egyesítsék és elemezzék adatainkat, és felfedjenek információkat - de befejezetlen és potenciálisan pontatlan - életünk profiljai. Ezt úgy teszik meg, hogy korrelációkat és mintákat azonosítanak a ránk és a hozzánk hasonló profilú emberekre vonatkozó adatokban, hogy előre megjósolják, mit tehetünk.

De az, hogy a big data elemzések algoritmusokon és statisztikákon alapulnak, még nem jelenti azt pontos, semleges vagy eredendően objektív. És bár a big data betekintést nyújthat a csoport viselkedésébe, ezek nem feltétlenül megbízható módszerek az egyéni viselkedés meghatározására. Valójában ezek a módszerek képesek nyissa ki az ajtót a diszkriminációnak és a fenyegetik az emberek emberi jogait - akár ellened is dolgozhatnak. Íme négy példa, ahol a big data elemzés igazságtalansághoz vezethet.

1. Hitel pontszámok kiszámítása

A nagy adatok felhasználhatók a döntések meghozatalához hitelképesség, befolyásolja, hogy kapnak -e jelzáloghitelt, vagy milyen magas autó biztosítás díjaknak kell lenniük. Ezeket a döntéseket az Ön tájékoztathatja a közösségi médiában és más alkalmazásokból származó adatok, amelyek a kockázat vagy megbízhatóság jelzésére szolgálnak.

De az olyan adatok, mint az iskolai végzettség vagy az Ön lakóhelye, nem feltétlenül relevánsak vagy megbízhatóak az ilyen értékelésekhez. Az ilyen típusú adatok helyettesíthetik a faji vagy társadalmi -gazdasági helyzetet, és ezek felhasználása a hitelkockázattal kapcsolatos döntések meghozatalához diszkriminációt eredményezhet.


belső feliratkozási grafika


2. Álláskeresések

A nagy adatok felhasználhatók a meghatározáshoz aki lát egy álláshirdetést, vagy kiválaszt egy interjúra. Az álláshirdetések bizonyos korcsoportokat célozhatnak meg, mint például a 25-36 évesek, amely kizárja a fiatalabb és idősebb munkavállalókat bizonyos álláshirdetések megtekintéséből, és az életkori megkülönböztetés kockázatát hordozza magában.

Az automatizálást arra is használják, hogy hatékonyabbá tegyék a jelöltek szűrését, válogatását és rangsorolását. De ez a szűrési folyamat kizárhatja az embereket olyan mutatók alapján, mint a ingázásuk távolsága. A munkáltatók azt feltételezhetik, hogy a hosszabb ingázók kevésbé valószínű, hogy hosszú ideig maradnak munkában, de ez valójában hátrányos megkülönböztetést jelenthet a városközponttól távolabb élők számára a megfizethető lakások elhelyezkedése miatt.

3. Feltételes szabadlábra helyezés és óvadéki döntések

Az Egyesült Államokban és az Egyesült Királyságban a big data kockázatértékelési modelleket használják a tisztviselők eldöntésére, hogy megadják -e az embereket feltételes szabadlábra helyezés vagy óvadék, vagy hivatkozott rehabilitációs programok. Segítségükkel felmérhető az is, hogy az elkövető mekkora kockázatot jelent a társadalom számára, és ezt a bíró figyelembe veheti a büntetés hosszának meghatározásakor.

Nem világos, hogy pontosan milyen adatokat használnak ezeknek az értékeléseknek az elvégzéséhez, de a haladás felé digitális rendészet felgyorsul, egyre valószínűbb, hogy ezek a programok olyan nyílt forráskódú információkat fognak tartalmazni, mint pl társadalmi mediális tevékenység - ha még nem teszik.

Ezek az értékelések nemcsak a személy profilját vizsgálhatják, hanem azt is, hogy mások hogyan viszonyulnak egymáshoz. Egyes rendőri erőknek van történelmileg túlzottan rendezett egyes kisebbségi közösségek, ami aránytalanul sok bejelentett bűnügyi eseményhez vezet. Ha ezeket az adatokat egy algoritmusba táplálják, akkor torzítják a kockázatértékelési modelleket, és diszkriminációt eredményeznek, amely közvetlenül érinti egy személy szabadsághoz való joga.

4. Vízumkérelmek engedélyezése

Tavaly az Egyesült Államok Bevándorlási és Vámhatósági Ügynöksége (ICE) bejelentette, hogy bevezetni kíván egy automatizált „extrém vízumvizsgálat”Program. Automatikusan és folyamatosan szkenneli a közösségi média fiókjait annak felmérése érdekében, hogy a jelentkezők hozzájárulnak -e az Egyesült Államokhoz, és felmerülhetnek -e nemzetbiztonsági problémák.

A gondolat-, vélemény-, vélemény- és egyesülési szabadságot veszélyeztető kockázatok mellett jelentős kockázatok is felmerültek abban, hogy ez a program hátrányos megkülönböztetést alkalmaz bizonyos nemzetiségű vagy vallású emberekkel szemben. A kommentátorok „algoritmus szerinti muszlim betiltásként” jellemezte.

A program nemrég visszavonták, állítólag azon az alapon, hogy „nem volt„ kész ”szoftver, amely képes lenne az ügynökség által kívánt felügyelet minőségét biztosítani”. Az ilyen célok közbeszerzési dokumentumokba történő bevonása azonban rossz ösztönzőket teremthet a technológiai ipar számára, hogy olyan programokat dolgozzanak ki, amelyek diszkriminatívak.

A beszélgetésNem kérdéses, hogy a big data analitika olyan módon működik, amely befolyásolhatja az egyének életben rejlő lehetőségeit. De a az átláthatóság hiánya arról, hogy milyen nagy adatokat gyűjtenek, használnak és osztanak meg, megnehezíti az emberek számára, hogy tudják, milyen információkat használnak, hogyan és mikor. A nagy adatelemzés egyszerűen túl bonyolult ahhoz, hogy az egyének meg tudják védeni adataikat a nem megfelelő használattól. Ehelyett az államoknak és a vállalatoknak szabályokat kell hozniuk és követniük kell annak biztosítása érdekében, hogy a big data felhasználása ne vezessen diszkriminációhoz.

A szerzőkről

Lorna McGregor, az Emberi Jogi Központ igazgatója, PI és társigazgató, ESRC Emberi Jogok, Big Data and Technology Large Grant, Essexi Egyetem; Daragh Murray, az Essex Law School nemzetközi emberi jogi előadója, Essexi Egyetemés Vivian Ng, az emberi jogok vezető kutatója, Essexi Egyetem

Ezt a cikket eredetileg közzétették A beszélgetés. Olvassa el a eredeti cikk.

Ezek könyvei

A szerzőről

at

szünet

Köszönjük látogatását InnerSelf.com, hol vannak 20,000 + életet megváltoztató cikkek, amelyek "Új attitűdöket és új lehetőségeket" hirdetnek. Minden cikk le van fordítva 30+ nyelv. Feliratkozás a hetente megjelenő InnerSelf Magazine-hoz és Marie T Russell Daily Inspiration című könyvéhez. InnerSelf Magazine 1985 óta jelent meg.