Dessa smärtpunkter hindrar företag från att anta djup inlärning

Författare: Roger Morrison
Skapelsedatum: 23 September 2021
Uppdatera Datum: 1 Juli 2024
Anonim
Dessa smärtpunkter hindrar företag från att anta djup inlärning - Teknologi
Dessa smärtpunkter hindrar företag från att anta djup inlärning - Teknologi

Innehåll


Källa: Agsandrew / Dreamstime.com

Hämtmat:

Deep learning har mycket att erbjuda företag, men många tvekar fortfarande att anta det. Här tittar vi på några av dess största smärtpunkter.

Djupt lärande är ett underfält för maskininlärning, som (generellt sett) är teknik som är inspirerad av den mänskliga hjärnan och dess funktioner. Först introducerades på 1950-talet informeras maskininlärning kumulativt av det som kallas det konstgjorda neurala nätverket, en mängd sammankopplade datanoder som tillsammans utgör grunden för artificiell intelligens. (För grunderna i maskininlärning, kolla in Machine Learning 101.)

Maskininlärning gör det möjligt för datorprogram att ändra sig själva när de uppmanas av extern data eller programmering. Av naturen kan den uppnå detta utan mänsklig interaktion. Den delar liknande funktionalitet med data mining, men med brytade resultat som ska bearbetas av maskiner snarare än människor. Det är indelat i två huvudkategorier: lärande övervakat och utan tillsyn.


Övervakad maskininlärning innebär inferensen av förutbestämda operationer genom märkta träningsdata. Med andra ord är övervakade resultat i förväg kända av den (mänskliga) programmeraren, men systemet som drar slutsatsen är tränat att "lära" dem. Oövervakad maskininlärning drar däremot slutsatser från ommärkta inmatningsdata, ofta som ett medel för att upptäcka okända mönster.

Djupt lärande är unikt i sin förmåga att träna sig själv genom hierarkiska algoritmer, i motsats till de linjära algoritmerna för maskininlärning. Djupa inlärningshierarkier blir allt mer komplexa och abstrakta när de utvecklas (eller ”lära sig”) och förlitar sig inte på övervakad logik. Enkelt uttryckt är djup inlärning en mycket avancerad, exakt och automatiserad form av maskininlärning och ligger i framkant inom artificiell intelligens.


Affärsapplikationer för Deep Learning

Maskininlärning används redan ofta i flera olika branscher. Sociala medier använder till exempel den för att sammanställa innehållsflöden i användarens tidslinjer. Google Brain grundades för flera år sedan med avsikt att tillverka djup inlärning i Googles tjänstesortiment när tekniken utvecklas.

Med fokus på prediktiv analys analyseras marknadsföringsfältet särskilt i djup inlärningsinnovation. Och eftersom datainsamling är det som driver tekniken, är branscher som försäljning och kundsupport (som redan har en mängd rik och mångfaldig kundinformation) unikt placerade för att anta det på marknivå.

Tidig anpassning till djup inlärning kan mycket väl vara den avgörande faktorn för hur mycket specifika sektorer som drar nytta av tekniken, särskilt i de tidigaste faserna. Ändå håller några specifika smärtpunkter många företag från att ta steget i investeringar i djup inlärningsteknik.

V's of Big Data and Deep Learning

2001 beskrev en analytiker för META Group (nu Gartner) med namnet Doug Laney vad forskare uppfattade vara de tre största utmaningarna för big data: volym, variation och hastighet. Över ett och ett halvt decennium senare har den snabba ökningen av åtkomstpunkter till internet (till stor del på grund av spridningen av mobila enheter och ökningen av IoT-teknik) tagit dessa frågor i framkant för stora teknikföretag och mindre företag och startups lika. (För att lära dig mer om de tre v: erna, se dagens Big Data-utmaning härrör från variation, inte volym eller hastighet.)

Inga buggar, ingen stress - din steg-för-steg-guide för att skapa livsförändrad programvara utan att förstöra ditt liv

Du kan inte förbättra dina programmeringsfärdigheter när ingen bryr sig om mjukvarukvalitet.

Ny statistik om global dataanvändning är häpnadsväckande. Studier indikerar att ungefär 90 procent av all världens data bara skapades under de senaste åren. Enligt en uppskattning uppgick den globala mobiltrafiken till cirka sju exabyte per månad under 2016, och antalet beräknas öka med cirka sju gånger inom det kommande halva decenniet.

Utöver volym, variation (den snabbt ökande mångfalden i typer av data när nya medier utvecklas och expanderar) och hastighet (hastigheten med vilken elektroniska medier skickas till datacentra och nav) är också viktiga faktorer för hur företag anpassar sig till det växande fältet av djup inlärning. Och för att utöka den mnemoniska enheten har flera andra v-ord lagts till i listan över smärtpunkter vid big data under de senaste åren, inklusive:

  • Giltighet: Mätningen av ingångsdata noggrannhet i big data-system. Ogiltiga data som inte upptäcks kan orsaka betydande problem såväl som kedjereaktioner i maskininlärningsmiljöer.
  • Sårbarhet: Big data väcker naturligtvis säkerhetsproblem, helt enkelt på grund av dess omfattning. Och även om det finns en stor potential i säkerhetssystem som möjliggörs av maskininlärning, noteras de systemen i deras nuvarande inkarnationer för sin brist på effektivitet, särskilt på grund av deras tendens att generera falska larm.
  • Värde: Att bevisa det potentiella värdet på big data (i affärer eller på annat håll) kan vara en betydande utmaning av alla orsaker. Om någon av de andra smärtpunkterna i denna lista inte kan hanteras effektivt, kan de i själva verket lägga till något värde till något system eller organisation, kanske till och med med katastrofala effekter.

Andra alliterativa smärtpunkter som har lagts till i listan inkluderar variation, veracitet, flyktighet och visualisering - alla presenterar sina egna unika uppsättningar utmaningar för big data-system. Och mer kan fortfarande läggas till när den befintliga listan (troligen) avtar över tiden. Även om det kan tyckas lite förvirrat för vissa, omfattar den mnemoniska "v" -listan allvarliga problem med stora data som spelar en viktig roll i framtiden för djup inlärning.

The Black Box Dilemma

En av de mest attraktiva funktionerna i djup inlärning och konstgjord intelligens är att båda är avsedda att lösa problem som människor inte kan. Samma fenomen som är tänkt att tillåta det emellertid också ger ett intressant dilemma, som kommer i form av det som kallas den "svarta rutan."

Neurala nätverket skapat genom processen med djup inlärning är så stort och så komplicerat att dess intrikata funktioner är väsentligen obestridliga för mänsklig observation. Datavetare och ingenjörer kan ha en grundlig förståelse för vad som går in i djupa inlärningssystem, men hur de ofta än inte kommer fram till sina produktionsbeslut blir helt oförklarade.

Även om detta kanske inte är en betydande fråga för till exempel marknadsförare eller säljare (beroende på vad de marknadsför eller säljer), kräver andra branscher en viss mängd processvalidering och resonemang för att få användningen av resultaten. Ett finansföretag, till exempel, kan använda djup inlärning för att skapa en mycket effektiv kreditvärdighetsmekanism. Men kreditpoäng måste ofta komma med någon form av muntlig eller skriftlig förklaring, vilket skulle vara svårt att bilda om den faktiska kreditvärderingsekvationen är helt ogenomskinlig och oförklarlig.

Detta problem sträcker sig också till många andra sektorer, särskilt inom området hälsa och säkerhet. Medicin och transport kan båda tänkas dra nytta av stora sätt av djup inlärning, men också möta ett betydande hinder i form av den svarta lådan. Varje utgång resulterar i dessa fält, oavsett hur fördelaktigt det skulle, kan kasseras helt på grund av deras underliggande algoritmernas fullständiga oklarhet. Detta leder oss till den kanske mest kontroversiella smärtpunkten av dem alla ...

förordning

Våren 2016 antog Europeiska unionen den allmänna dataskyddsförordningen (GDPR), som (bland annat) ger medborgarna ”rätten till en förklaring” för automatiserade beslut som genereras av maskininlärningssystem som ”påverkar” dem väsentligt. Regleringen planeras att träda i kraft 2018 och orsakar oro bland teknikföretag som investerar i djup inlärning på grund av dess ogenomträngliga svarta rutan, vilket i många fall skulle hindra förklaringar som upprättats av GDPR.

Det "automatiserade individuella beslutsfattandet" som GDPR avser att begränsa är ett väsentligt inslag i djup inlärning. Men oro över denna teknik är oundviklig (och till stor del giltig) när potentialen för diskriminering är så hög och transparensen så låg. I USA reglerar Food and Drug Administration på liknande sätt testning och marknadsföring av läkemedel genom att kräva att dessa processer förblir hörbara. Detta har presenterat hinder för läkemedelsindustrin, som enligt uppgift varit fallet för Massachusetts-baserade bioteknikföretag Biogen, som har förhindrats från att använda otolkbara djupa inlärningsmetoder på grund av FDA-regeln.

Implikationerna av djup inlärning (moraliskt, praktiskt och utöver det) är enastående och, ärligt talat, ganska djupgående. En stor uppfattning omger tekniken beroende på en stor del av en kombination av dess störande potential och dess ogenomskinliga logik och funktionalitet.Om företag kan bevisa att det finns ett konkret värde inom djup inlärning som överskrider alla tänkbara hot eller faror, kan de hjälpa oss att leda oss genom nästa kritiska fas av konstgjord intelligens.