Med stor framsteg kommer stort ansvar

Författare: Roger Morrison
Skapelsedatum: 27 September 2021
Uppdatera Datum: 21 Juni 2024
Anonim
MAERSK Dokumentar - Frem i verden som maskinmester og skibsfører
Video: MAERSK Dokumentar - Frem i verden som maskinmester og skibsfører

Innehåll


Källa: Mike2focus / Dreamstime.com

Hämtmat:

Mediekonsumtionen utvecklas tillsammans med tekniska framsteg som artificiell intelligens (AI). Medan vi i allmänhet omfattar framsteg, måste vi också vara medvetna om nackdelarna med vissa former av teknik. Det finns en mörk sida i AI: s kapacitet när det används för att marknadsföra falska nyheter.

Den mörka sidan av tekniken var bland de ämnen som utforskades vid NYC Media Labs andra Machines + Media-konferens, som sponsrades och var värd av Bloomberg vid dess globala huvudkontor i staden den 15 maj. Men vissa av sessionerna handlade mer om att titta på vilken teknik är för närvarande tillgängligt för media, till och med de som skapade skuggan av manipulation och felinformation.

En bra berättelse är mer övertygande än hela sanningen

Under sessionen ”State of the Art” påpekade Gilad Lotan, vd, chef för datavetenskap, Buzzfeed, att problemet med falska eller vilseledande nyheter inte bara kan skyllas på medieföretag eller ny teknik. "Människor söker inte nödvändigtvis efter fakta," sade han. ”Läsarna vill ha historier.”


Han tillade att det att mata den önskan efter berättelser och gynnade berättelser kan leda till falska nyheter som är "mer manipulation än falsk information." Faktum är att den levererade historien kanske inte innehåller något falskt alls. Det som är falskt med det är att de rapporterade fakta är körsbärsplockade och tas bort från den större "con" för att leda "läsarna mot en slutsats."

På samma sätt, under sessionen "Plattform + media", sade Kelly Born från William och Flora Hewlett-stiftelsens US Democracy Initiative, "Folk gillar nyheter som förstärker deras övertygelse, och särskilt om det utlöser upprörelse." Hon varnade för att medias kapitalisering på den tendensen kan leda till en "perfekt storm" som får fram det värsta i oss. Detta förvärras av möjligheten till helt tillverkade presentationer.


Ser du fortfarande tro?

Teknik spelar en roll i att berätta historien genom bilder och video. Vi tror vanligtvis på det vi ser om det inte finns uppenbara tecken på manipulation. Men eftersom AI förbättrar realismen av falska videor, är det nu möjligt att bokstavligen sätta ord i munnen på offentliga personer. (AI används inte bara för onda ändamål. Kolla in några konstruktiva på fem sätt som företag kan överväga att använda AI.)

Faran för AI: s produktion av mycket trovärdiga videor demonstrerades i sessionen ”Lösningar för den mörka sidan av maskindrivna medier.” Det började med en video med Barack Obama som sa saker som den tidigare presidenten faktiskt aldrig har sagt. Rörelsen var fortfarande lite synkroniserad med orden, så den har några märken av en förfalskad video, och de flesta av publiken sa att de kunde känna igen den som en falsk.

Att Obama-videomanipulationen inte uppnådde realismen att återuppväcka Peter Cushing som Grand Moff Tarkin för "Rogue One." Som en New York Times-artikel förklarade, uppnåddes effekten genom att ha en skådespelare att bära "rörelsefångande material på huvudet" medan han framför kameran "så att hans ansikte skulle kunna ersättas med en digital återupprättande av Cushings." Filmens chef för kreativ chef / senior visuella effekter handledare, kallade det "en super high-tech och arbetsintensiv version av att göra smink."

Odetekterbara förfalskningar

Nu, tack vare AI-framsteg, specifikt generativa motverkande nätverk (GAN), är det lättare än någonsin att uppnå magiska effekter på filmer. Genom att använda GAN: er förfinar ett AI-system bilder till det är tillräckligt bra för att accepteras som verkligt av ett AI-system utformat för att upptäcka förfalskningar.

Inga buggar, ingen stress - din steg-för-steg-guide för att skapa livsförändrad programvara utan att förstöra ditt liv

Du kan inte förbättra dina programmeringsfärdigheter när ingen bryr sig om mjukvarukvalitet.

I den här videon kan du se att forskare visar hur en skådespelare kan rikta rörelserna i en ansikte för en allmän figur att producera något uttryck och uttalande med den trovärdighet som inte vanligtvis finns i doctored videor.

Även om inte alla personer som leker med videor har ett sådant system för närvarande, kommer programvaran att vara inom räckhåll för fler människor inom en mycket nära framtid.

Möjliga konsekvenser

Dhruv Ghulati, grundare och verkställande direktör, Factmata, säger att han är "mycket orolig för" hur denna förmåga kan tillämpas för att inte bara sätta världsledare utan vd- och kändisers ansikten i videor som bevis på att de säger eller gör saker de inte har . Videonens destruktiva krafter skulle intensifieras genom att uppnå en viral effekt från botnät.

Det betyder att vi "inte längre kan lita på våra ljuga ögon", förklarade Mor Naaman, docent i informationsvetenskap, Cornell Tech. Han var orolig för att det skulle leda till förlust av förtroende.

Andra är oroliga för att sväva våldets lågor. Redan "bara något modifierade videoklipp" används "för att orsaka våld i utvecklingsländerna", observerade Aviv Ovadya, chefsteknolog, Center for Social Media Responsibility. (Sociala medier kan vara ett effektivt sätt att sprida falsk information. Kolla in Topp 4 mest förödande foderhackar.)

Sarah Hudson, partner, Investering i USA, uttryckte oro över att manipulerade bilder "i skala" utgör "ett otroligt hot mot allmän säkerhet."

Proaktiv planering

Det är absolut nödvändigt att ”förhindra så mycket av det missbruket som möjligt”, sade Ovadya. Det är därför det är viktigt att "tänka i förväg medan du utvecklar teknik" om "hur man kan mildra de dåliga effekterna" och "ägna resurser till att hantera de oavsiktliga konsekvenserna."

Det är omöjligt att slå tillbaka klockan på framsteg, men vad vi måste göra är att se till att den riktning vi tar är genomtänkt och planerad. Det betyder att man inte bara arbetar med teknik för att se vad som kan göras utan att tänka på vad som kan göras som bör undvikas.

Vägen framåt för teknologisk innovation är att tänka igenom effekterna och planera för skyddsåtgärder innan farorna uppstår. För att göra det kommer vi att behöva samarbete mellan forskare, teknikföretag och myndigheter för att fastställa standarder och bästa praxis som människor kommer att följa. Det borde vara en prioritering för alla berörda.