Datorer - Universalinstrumentet?

Författare: Roger Morrison
Skapelsedatum: 20 September 2021
Uppdatera Datum: 21 Juni 2024
Anonim
Introduktion och hårdvara. Avsnitt 1 - Grundläggande datorkunskap
Video: Introduktion och hårdvara. Avsnitt 1 - Grundläggande datorkunskap

Innehåll


Källa: Djmilic / Dreamstime.com

Hämtmat:

Nya framsteg inom teknik minskar latensen i webbläsarbaserad ljudinteraktion, underlättar strömlinjeformad ljudsyntes, schemaläggning och fjärransamarbete.

Jag spelade trummor mycket. Jag har aldrig haft det så bra, mer eller mindre började omkring 16 års ålder och slutade runt 30 år. Men jag vill säga att jag aldrig riktigt börjat eller slutat, för jag har försökt skapa rytmer genom att slå mina händer på skrivbord / bord / vad som helst nonstop sedan jag var liten. Nu spenderar jag mycket tid på att skriva på ett tangentbord. Så du kan föreställa dig hur upphetsad jag var när jag fick reda på att det inte bara är virtuella trummor tillgängliga utan många kan komma åt direkt via de vanligaste webbläsarna.

Virtual Instruments on the Rise

Förutom trummor älskar jag också gitarr, piano och syntetiserat ljud. Ljudet består i grund och botten av vågor (märkbara fluktuationer i atmosfärstrycket) som kan kombineras med varandra för att bilda mer rika och komplexa ljud. Ljudsyntes är en process för att hitta rätt frekvenser (genom svängningar eller på annat artificiellt sätt) och kombinationer av vågor (och ibland filter) för att skapa - eller syntetisera - önskvärda nya ljud. Och syntetiserad musik integrerar syntetiserat ljud i musikaliska system; såsom den västra kromatiska, diatoniska och pentatoniska skalan.


Musik - som animering, berättelse och många andra discipliner - är en temporär konstform. Det presenteras generellt som en sekvens av ljud, med viss känsla av reglerad timing (rytm), såväl som övergång (melodi) och samtidighet (harmoni) tonhöjd / frekvens. Och eftersom timing är grundläggande för mest musik, är latens en viktig fråga för alla musikaliska apparater. Generellt sett, ju lägre latens, desto högre användbarhet för instrumentet.

Pionjär för musikteknologi, Max Mathews, sa en gång att "det inte finns några teoretiska begränsningar för datorns prestanda som en källa till musikaliska ljud." Under hela hans livstid poserade han och hävdade att datorn snart kommer att bli ett universellt musikinstrument - kapabelt att emulera alla ljud- eller ljudmiljöer, samtidigt som de kan skapa helt nya och originella ljudhändelser och upplevelser.


Framtiden för musikproduktion

De primitiva väsentligheterna för ljud kallas sinusvågor - rena toner som cyklar och fluktuerar vid en given frekvens. Ljudsyntes kan vara additiv eller subtraktiv: den första metoden kombinerar rena toner för att uppnå unika ljud, och den andra filtrerar en källans ljudvågor. Med andra ord kan en bra analogi för tillsatser vara att skulptera med lera, medan subtraktivt är mer som att snida ut i trä.

Mycket av datoriserad musikutveckling delas med MIDI-elektronik och protokoll. Standarden (som är en förkortning för Musical Instrument Digital Interface) underlättade ursprungligen musiker med ett sätt att skapa digital data som representerar de grundläggande egenskaperna hos givna musikaliska fraser, såsom tonhöjd och timing. Dessa MIDI-filer kan sålunda spelas genom olika synthesizers eller MIDI-kompatibla applikationer, och levererar grundläggande musikaliska data via variabla utgångar.

Under dess tidiga liv var MIDI ganska begränsad, eftersom den bara kunde interagera med ett begränsat antal enheter och dess funktion var smal i omfattning. Med tiden har dock MIDI-plugins och tillägg gjort det möjligt för standarden att anpassa sig till många olika nya situationer och miljöer. Detta har tagit standarden mycket längre in i mainstream än den någonsin varit tidigare.

När ljudtekniken migrerar från åldrande hårdvarugränssnitt (som blandningskort och analoga VU-mätare) till våra datorer och mobila enheter, befrias musiker från bördan att behöva arbeta med överdriven utrustning, men berövas också alltmer användarvänligheten som traditionella instrument tenderar att tillhandahålla. Detta har fått vissa rörelser mot nya hårdvarugränssnitt som enkelt kan ansluta till digitala arbetsstationer som bärbara och stationära datorer. (För att lära dig mer om utvecklingen av musikbranschen under den digitala eran, se Från Vinyl Records till Digital Recordings.)

Inga buggar, ingen stress - din steg-för-steg-guide för att skapa livsförändrad programvara utan att förstöra ditt liv

Du kan inte förbättra dina programmeringsfärdigheter när ingen bryr sig om mjukvarukvalitet.

Utöver användarvänlighet är enkel samarbete nyckeln till digital musiks utveckling. Detta är en stor del av vad som gör Web Audio API till en av de viktigaste digitala ljudinnovationerna på senare tid. Denna Java-baserade ljudlösning innehåller ett gränssnitt som heter AudioCon, där processer skriptas och översätts till en utgång som exakt tidsinställd syntetiserad ljud.

API: n är fortfarande ung, men är också mycket lovande - inte bara för audiofiler utan också för programmerare och webbutvecklare. Jämfört med äldre, inbäddade ljudformat ger Web Audio API mycket låg latens i gränssnittet. Många olika virtuella musikinstrument utvecklas redan, och man tror att Web Audio API kommer att finna ökad användning i onlinespel.

Medan akustisk musik sannolikt aldrig kommer att försvinna, kommer ljudsyntes i det digitala rummet att fortsätta spela en allt viktigare roll i modern inspelning, produktion och leverans av digitalt ljud. Web Audio API påskyndar framstegen i digitala ljud genom att underlätta nya DAW-gränssnitt, plattformar och ljudlösningar genom förbättrad användbarhet och tillgänglighet.