MUSICA ELECTRONICA

Do 1990 roku użycie analogowych syntezatorów takich jak Moog, Buchla, ARP i inne zostało całkowicie wyparte przez dostępność niedrogich, opartych o komputery, cyfrowych technik syntezy. Procesory komputerowe są używane w każdym możliwym rodzaju sprzętu muzycznego. Są podstawą cyfrowych syntezatorów, effects box'ów, mikserów, rejestratorów wielościeżkowych i innych podstawowych urządzeń używanych przez pracującego muzyka. Większość nagrań komercyjnych jest obecnie nagrywana, miksowana i masterowana za pomocą urządzeń cyfrowych.

 

Cyfrowe systemy muzyczne, takie jak n.p. komputer osobisty, mają korzenie w komputerach ogólnego przeznaczenia i w rozwoju komputerów typu „mainframe” sięgających lat 50-tych. Muzyka komputerowa została w dużej mierze zinstytucjonalizowana przez oddziały badawcze firm, uniwersytetów lub rządów, które sponsorowały badania. Jest to podejście, które zaczęło się od dużych komputerów typu „mainframe” w miejscach takich jak University of Illinois, Bell Labs i IRCAM.

 

W analogowych elektronicznych instrumentach muzycznych dźwięki wyrażone są poprzez pomiary napięcia elektrycznego. Dźwięk jest reprezentowany przez wibracje elektryczne, które po wzmocnieniu pobudzają fizycznie elementy systemu głośników. Podczas gdy układ analogowy działa na zasadzie pomiaru, układy cyfrowe działają na zasadzie obliczania. Parametry są wyrażane w liczbach.

 

W cyfrowym systemie muzycznym wielkości reprezentujące częstotliwość, amplitudę, barwę, czas trwania i obwiednię dźwięku są również wyrażane jako liczby. Liczby są wprowadzane i obliczane w celu uzyskania pożądanych rezultatów, takich jak zwiększenie głośności lub zmiany barwy. Instrukcje dotyczące wprowadzania tych zmian można wprowadzić za pomocą oprogramowania na komputerze lub bezpośrednio z fizycznych elementów sterujących (np. pokręteł i przełączników) elektronicznego instrumentu muzycznego.

 

Komputerowa synteza dźwięków

Komputer wytwarza dźwięki za pomocą oscylatorów półprzewodnikowych na układach scalonych. Dźwięki mogą być wyzwalane bezpośrednio przez instrument MIDI lub generowane przez program - emulator syntezatora. Konwerter cyfrowo-analogowy (DAC) służy do konwersji cyfrowych kodów binarnych na analogowe fale elektryczne, które pobudzają system głośników.

 

Sterowanie komputerowe zewnętrznymi syntezatorami

Instrumenty elektroniczne mogą być sterowane za pomocą oprogramowania stanowiącego interfejs komputerowy. Oprogramowanie takie służy do określania różnych parametrów dźwięków granych na instrumentach podłączonych do komputera. Komputer działa w takim wypadku jak sekwencer wspomagający muzyka-wykonawcę lub może sterować wieloma elementami tworzenia utworu muzycznego, który to proces ze względu na liczbę i różnorodność tych elementów wykracza poza to co człowiek jest w stanie kontrolować w czasie rzeczywistym. W tym obszarze zaczęto używać komputerów w późnych latach 70-tych, kiedy pojawiły się niedrogie mikroprocesory.

 

Cyfrowe próbkowanie dźwięku

Jest to przeciwieństwo konwersji cyfrowo-analogowej. W konwersji analogowo-cyfrowej sygnał wejściowy z mikrofonu lub innego analogowego wejścia audio jest konwertowany na kod binarny, który można następnie dowolnie przetwarzać na komputerze. Eksperymenty z digitalizacją dźwięków analogowych rozpoczął Bell Labs w 1958 roku.

 

 

Zarys historii muzyki komputerowej

 

Poniższe zestawienie przedstawia krótką historię i rozwój muzyki komputerowej zaczynając od zastosowań komputerów typu mainframe do pojawienia się komputerowych systemów muzycznych i integracji komputerów osobistych z oprogramowaniem muzycznym i urządzeniami generującymi dźwięk.

 

 

1953-53 

Grecki kompozytor Iannis Xenakis używa komputera przy obliczaniu zmiennej prędkości glissand w swojej kompozycji symfonicznej Metastasis.


1955-57

Lejaren Hiller i Leonard Isaacson opracowują program komputerowy do generowania sekwencji danych, które można zastosować jako wysokości dźwięków i inne parametry partytury muzycznej. Z użyciem tego procesu komponują pierwszy znaczący utwór stworzony z pomocą komputera – Illiac Suite na kwartet smyczkowy (1957).


1956-62

Iannis Xenakis pisze probabilistyczne programy komputerowe, pomocne w komponowaniu muzyki. Zamiast programować komputer aby sam komponował utwór, Xenakis dostarcza komputerowi wcześniej obliczone dane i wykorzystuje go do obliczania złożonych parametrów partytur na grupy instrumentalne o różnych rozmiarach.

Tą metodą komponuje on następujące utwory: ST/10-1,080262 na 10 instrumentów, Atrees (Law of Necessity), Morsima-Amorsima, i ST/48-1,240162 na 48 instrumentów.


1957

W Bell Labs badacz Max Mathews po raz pierwszy z powodzeniem demonstruje komputerowe generowanie dźwięku przy użyciu konwersji cyfrowo-analogowej (DAC). Dla Mathewsa to początek długoletnich prac badawczych związanych z muzyką komputerową.


1959-66

Mathews i jego współpracownicy z Bell Labs szeroko eksperymentują z muzyką syntetyzowaną komputerowo. Ich kompozycje obejmują zarówno przyziemne pokazy, jak i proste wykonania znanych melodii i bardziej złożone utwory. Zespół Bell Labs opracowuje szereg programów do automatyzacji przetwarzania cyfrowego i kompozycji. Pierwszy z tych programów to Music I z 1957 roku, a następne są regularnie aktualizowanymi ulepszonymi wersjami. Music IV (1962) jest szeroko stosowany w latach 60-tych.


1965

W Bell Labs francuski fizyk i kompozytor Jean-Claude Risset wykorzystuje program Maxa Mathewsa i Joan Miller do digitalizacji dźwięku trąbki. Ten eksperyment z konwersją analogowo-cyfrową jest szczególnie ważny, ponieważ poprzednie programy nie zdołały wiernie odtworzyć dźwięku instrumentu dętego blaszanego.


1966

Max Mathews i Lawrence Rosler z Bell Labs opracowali interfejs graficzny do komponowania muzyki. Składa się on z lampy elektronopromieniowej, na której za pomocą światłoczułego pióra rysuje się parametry wysokości, amplitudy, czasu trwania i glissanda na siatce przedstawiającej przemijanie nut w czasie. Rezulatat jest zapisywany i może być odtwarzany za pomocą syntezy komputerowej. To pierwszy udany composer-friendly eksperyment z wykorzystaniem oprogramowania do rysowania, kopiowania, usuwania i edytowania wartości muzycznych na komputerze.


1967-69

Na Uniwersytecie Illinois John Cage i Lejaren Hiller współpracują nad ogromnym dziełem multimedialnym zatytułowanym HPSCHD. Utwór jest przeznaczony na siedem klawesynów i 51 taśm dźwiękowych wygenerowanych komputerowo.


1969-74

Max Mathews, F.R. Moore i Jean-Claude Risset z Bell Labs wydają swój program Music V, ulepszoną wersję wcześniejszych programów Bella do tworzenia dźwięków generowanych komputerowo. W odpowiedzi na potrzebę stworzenia programu komputerowego, który można wykorzystać w sytuacji występów na żywo, grupa opracowuje program o nazwie GROOVE, który pozwala na użycie komputera jako urządzenia sterującego napięciem w syntezatorze analogowym.


1970

Prezydent Francji Georges Pompidou wyznacza Pierre'a Bouleza do utworzenia i kierowania instytutem badań muzycznych. W konsekwencji w 1974 roku powstaje instytut IRCAM (Institut de Recherche et Coordination Acoustique/Musique tj. Centrum Badawczo-Koordynacyjne Akustyki i Muzyki). Jean-Claude Risset zostaje pierwszym dyrektorem działu komputerowego. To międzynarodowe centrum badań nad muzyką komputerową i nowymi technologiami od tego czasu jest gospodarzem wielu projektów i miejscem tworzenia oprogramowania używanego przez kompozytorów. John Chowning rozpoczyna prace nad syntezą FM w IRCAM-ie, a Miller Puckette tworzy w IRCAM-ie w połowie lat osiemdziesiątych program Max, który to program przekształcony później zostaje w graficzne środowisko programowania Max/MSP do przetwarzania i syntezy dźwięku w czasie rzeczywistym. Max/MSP staje się później szeroko stosowanym narzędziem w muzyce elektroakustycznej. Wiele technik związanych ze spektralizmem, takich jak analiza oparta na szybkiej transformacji Fouriera, wchodzi w użycie dzięki wkładowi technologicznemu IRCAM-u.

W 1990 IRCAM rozpoczyna program kursów dla młodych kompozytorów w szkoleniu w zakresie muzyki i kompozycji komputerowej.


1974-75

Powstaje pierwszy dostępny na rynku przenośny syntezator cyfrowy Synclavier, opracowany przez kompozytora Jona Appletona oraz inżynierów Sydneya Alonso i Camerona Jonesa. Jest to instrument performatywny, który posiada możliwość przechowywania ścieżek dźwiękowych, które mogą być używane interaktywnie podczas gry na klawiaturze w czasie rzeczywistym.


1975-82

Mini- i mikrokomputery zaczynają być wykorzystywane jako urządzenia sterujące dla syntezatorów analogowych. Rozwój technologii mikroprocesorowej pozwolił na zastosowanie „chipów” syntetyzujących dźwięk w instrumentach muzycznych i profesjonalnych syntezatorach. Na rynek komercyjny są wprowadzone pierwsze całkowicie cyfrowe syntezatory. Komputerowe programy muzyczne wchodzą w użycie z komputerami osobistymi takich firm jak Apple, Commodore i Atari.


1976

Cyfrowy procesor dźwięku 4A został ukończony w IRCAM-ie przez zespół kierowany przez Giuseppe Di Giugno. Dodatkowe wersje tego cyfrowego syntezatora zostały opracowane między 1976, a 1981 rokiem jako 4B, 4C i łącznie jako seria 4X.

 

W Stanach Zjednoczonych kompozytor Joel Chadabe zostaje pierwszym użytkownikiem syntezatora cyfrowego Synclavier produkowanego przez firmę New England Digital Corporation. Nie używa jednak klawiatury. Zamiast tego, w swoim pierwszym projekcie Synclavierowym, zamawia u Roberta Mooga stworzenie kontrolerów do tego syntezatora na bazie Theremina. Theremin w tym wypadku jest użyty nie jako instrument produkujący dźwięk, ale jako kontroler sterujący komputerem poprzez zastosowanie napięciowych przetworników częstotliwości.


1979

Zespół IRCAM-u, na czele którego stoi Xavier Rodet, kończy pierwszą wersję programu komputerowego o nazwie Chant, który tworzy zsyntetyzowane dźwięki w oparciu o komputerowe modele śpiewającego głosu.

 

Cyfrowy syntezator Fairlight CMI (Computer Music Instrument) zostaje opracowany w Australii i wprowadzony na rynek w 1979 roku. Zapewniając pełny zestaw funkcji modelowania dźwięku, jest wyposażony we własny komputer, podwójne ośmiocalowe dyski, sześciooktawową klawiaturę dotykową i oprogramowanie do tworzenia i manipulowania dźwiękami. Jego najbardziej innowacyjną cechą był przetwornik analogowo-cyfrowy do przetwarzania przychodzących sygnałów audio ze źródeł analogowych. Jest to pierwszy dostępny na rynku cyfrowy instrument samplujący. Zewnętrzny sygnał audio może być również używany jako sygnał sterujący, podobnie jak we wcześniejszych syntezatorach sterowanych napięciem. Posiada również sekwencer, 400 zaprogramowanych dźwięków i możliwość tworzenia nowych skal tonalnych strojonych w stopniach tak małych jak jedna setna pół tonu. Urządzenie nagrywa ścieżki na żywo w połączeniu z nagranymi wcześniej. W studiu system może sterować synchronizacją do 56 głosów na ośmiościeżkowym magnetofonie.


1980

Casio wprowadza pierwszy przenośny cyfrowy instrument muzyczny, Casio VL-Tone. Ten mały instrument monofoniczny z miniklawiaturą o długości dwu i pół oktawy zawiera presety rytmów i brzmień instrumentów oraz pozwala użytkownikowi na zapisanie w pamięci sekwencji do 100 nut. Programuje się go, wprowadzając ośmiocyfrową liczbę, aby wybrać kształt fali dźwiękowej i obwiednię. Trzy fale dźwiękowe mogą być modulowane przez oscylator niskiej częstotliwości. Jest to pierwszy niedrogi syntezator cyfrowy.


1981

E-mu wprowadza Emulator, cyfrową klawiaturę samplującą. Posiada ośmiogłosową polifonię i funkcję tworzenia pętli w czasie rzeczywistym.

 

Pierwsza kompozycja komputerowa skomponowana przez Pierre'a Bouleza w IRCAM-ie, Répons, ma swoją premierę podczas festiwalu w Donaueschingen. Powstaje przy użyciu software'owego syntezatora 4X opracowanego w instytucie. Utwór wykonywany jest przez dwudziestu czterech muzyków, a dźwięki solistów są modulowane przez syntezator i przesyłane do sieci głośników w sali koncertowej.


1981-83

Komputery osobiste IBM i Apple Computers zaczynają dominować na rynku komputerów osobistych. Zaczynają się pojawiać podstawowe i niedrogie pakiety oprogramowania do tworzenia prostej muzyki na tych maszynach.


1983

Casio wprowadza PT-20, dwu i pół oktawowy instrument monofoniczny. Zawiera siedem zaprogramowanych głosów, w tym fortepian, organy, skrzypce i flet i oferuje 17 rytmów. Wstępnie ustawione algorytmy dla akordów są odtwarzane przez przyciski z oznaczeniami dla akordów takimi jak dur, moll i septymowy. Korzystając z funkcji zwanej „automatycznie oceniającym generatorem akordów” można grać na klawiaturze jednym palcem, a instrument automatycznie wybierze i zagra towarzyszący akord. Klawiatura może również przechowywać do 508 nut do powtórnego odtwarzania. Jest to przełom pod względem sposobu, w jakim inżynierowie Casio używają komputera jako narzędzia interpretacyjnego i akompaniatora dla użytkownika.

 

Zostaje wprowadzony Synclavier II. Posiada właściwości zbliżone do Fairlight CMI, ale jest zaprojektowany bardziej jako instrument muzyczny niż komputer. Panel sterowania zawiera kilkadziesiąt przycisków, które są rozmieszczone według funkcji takich jak głośność, obwiednia, sterowanie nagrywarką, wibrato i bank barw. Instrument posiada 16 głosów cyfrowych oscylatorów i 16-ścieżkowe nagrywanie. Funkcja próbkowania cyfrowego może digitalizować dźwięki analogowe używając wyższego zakresu częstotliwości niż instrument Fairlight. Jego cyfrowy rejestrator może przechowywać w pamięci sekwencję 2000 nut i może zostać rozszerzony do zapisywania 15000 nut.

 

Kurzweil Music Systems wprowadza K250, pierwszą klawiaturę, która jako źródło dźwięku wykorzystuje cyfrowe sample instrumentów akustycznych. Zapisane w pamięci ROM sample odtwarzają fortepian, instrumenty smyczkowe, chóry, bębny i inne instrumenty akustyczne z wielką wyrazistością.

 

Syntauri Corporation przedstawia swój system alphaSyntauri, zaprojektowany, aby umożliwić tworzenie muzyki na komputerze stacjonarnym. System ten wykorzystuje komputer Apple II jako swój mózg, jeden bądź dwa dyski do zapisu oraz monitor wideo. Cyfrowe oscylatory audio są zawarte w płytce obwodu drukowanego wytworzonej przez Mountain Computer. Syntauri dostarcza oprogramowanie, cztero- lub pięciooktawową klawiaturę oraz interfejs. Instrument alphaSyntauri nie ma tak ogromnego potencjału jak Fairlight CMI czy Synclavier II, jednak wyznacza początek rozwoju w kierunku tańszych elektronicznych systemów muzycznych zbudowanych w oparciu o komputery osobiste.


1984

Zostaje wprowadzone MIDI jako standardowy język komunikacji dla syntezatorów i komputerów osobistych.

 

Apple Computer wprowadza komputer Macintosh, który wkrótce staje się komputerem stacjonarnym używanym przez większość muzyków elektronicznych. Jego graficzny interfejs i obrazkowy system operacyjny są lepiej dostosowane do aplikacji muzycznych niż wcześniejsze komputery osobiste.


1985

Mark of the Unicorn (MOTU), producent oprogramowania, wprowadza Performer (później Digital Performer), jeden z pierwszych programów sekwencjonujących MIDI na komputer Macintosh.

 

IRCAM wypuszcza swoje pierwsze oprogramowanie muzyczne przeznaczone na komputery osobiste. Jest tworzone przez zespół kierowany przez Davida Wessela. Ponadto bibliotekę funkcji komputerowych do kompozycji wspomaganej komputerowo uzupełniają Claudy Malherbe, Gerard Assayag i Jean-Baptiste Barriere.


1986

Kompozytorka Laurie Spiegel tworzy program komputerowy o nazwie Music Mouse-An Intelligent Instrument na komputery Macintosh, Amiga i Atari. Music Mouse jest bardziej narzędziem do tworzenia muzyki niż środowiskiem programowania. Zapewnia wybór kilku możliwych skal muzycznych, temp, transpozycji i innych elementów sterujących, które są odgrywane za pomocą specjalnego „polifonicznego” kursora, który jest przesuwany myszą po wizualnej siatce reprezentującej dwuwymiarowy zakres wysokości dźwięku.


1988

Korg wprowadza M1 Music Workstation, komputerowy syntezator z wbudowanym wyświetlaczem, sekwencerem, automatem perkusyjnym, cyfrowo samplowanymi dźwiękami i cyfrowymi efektami. Sprzedano około 250000 egzemplarzy, co stanowi przełom w branży cyfrowych systemów muzycznych.

 

IRCAM wypuszcza pierwszą wersję programu Max, graficznego języka programowania aplikacji muzycznych, stworzonego przez Millera Puckette'a. Zostaje opracowany, aby wspierać interakcję w czasie rzeczywistym między wykonawcą a komputerem. Zapewnia bogatą gamę wirtualnych patchów i kontrolerów do przetwarzania dźwięku.


1990

Wersja Maxa przyjazna dla muzyków zostaje wprowadzona przez Opcode, a jej design jest ulepszony przez Davida Zicarelliego. Ten program dla komputerów Macintosh odnosi natychmiastowy sukces i przez trzy dekady pozostaje najczęściej używanym programem do tworzenia muzyki elektronicznej w czasie rzeczywistym.

 

Symbolic Sound wprowadza dwuprocesorowy elektroniczny system muzyczny oparty na mikrokomputerze. Oprogramowanie nosi nazwę Kyma i współpracuje z zestawem procesorów dźwięku, oryginalnym urządzeniem o nazwie Capybara. Podobnie jak Max, ale w oparciu o własny hardware, system doskonale nadaje się do przetwarzania sygnału audio w czasie rzeczywistym podczas występów na żywo.


 

 

 

 

 

 

góra strony

<poprzedni

następny>