pix
obl obr



ZeM Mitteilungsheft Nr. 27 - 2006

Redaktion: Rettbehr Meier

 


 

Editorial

Es ist erstaunlich: bereits 1953 finden wir die ersten veröffentlichten Beispiele Elektronischer Musik, trotz widriger Umstände. Dies ist kein Zufall, sondern Ausdruck einer auch personellen Kontinuität der musikalischen Entwicklung im 20. Jahrhundert. Die E. M. wurde teils mit Unverständnis, teils vehement ablehnend aufgenommen. Fast 54 Jahre später ist die Situation entspannter, es hat sich etwas bewegt, auf natürlichem Wege. Die konservativen Kritiker sterben einfach deswegen aus, weil ein solcher Standpunkt sich schlecht fortsetzen kann.

Die Pseudofortschrittlichen dagegen kennen diese ersten Werke nicht und verteidigen vehement ihren Irrtum, dass die jeweils modische populäre Richtung die elektronische Musik repräsentiere. Diese Art von Akzeptanz der elektronischen Klänge ist fast schlimmer noch als deren Ablehnung.

Es ist immer wieder nötig, auf die Geschichte zurückzublicken. Das ist kein Kennzeichen einer erinnerungsoptimistischen Nostalgie. Die Zukunft ist unbekannt, die Gegenwart nur ein beliebig kurzer Zeitraum, eigentlich eine Illusion. Wer kein Gedächtnis hat, kann die Gegenwart nicht verstehen. Ohne Erinnerung ist kein Urteil, kein Vergleich, keine Bewertung möglich. Man ist orientierungslos und erfindet das Rad immer wieder neu.

Ein weiteres Mitteilungsheft über E. M. liegt hiermit vor.

Rettbehr Meier, 21. Dezember 2006

 

 


Peter Kiethe

Impression 01

Grundsätzlich gibt es zwei Richtungen, Elektronische Musik zu komponieren. Bei der ersten Richtung wird jeder Klang synthetisiert, d. h. jeder Klang wird von Grund auf neu erstellt. Die zweite Richtung geht von "natürlichen" Klängen aus und verfremdet dieses Rohmaterial mit Hilfe elektronischer Geräte. Durch Synthesizer und den Einsatz des Computers zur Klangsynthese werden in der ersten Richtung neue, abstrakte Klangfarben kreiert, die oftmals keine Assoziationen zu mechanischen Instrumenten erzeugen. Diese Klänge kommen in der Natur nicht vor und werden oft als dissonant empfunden. Das Atom dieser Musikrichtung ist der Sinuston.

Schon beim Zusammenmischen, also Addieren mehrerer Sinustöne mit unterschiedlicher Frequenz, Amplitude und unterschiedlicher Tonlänge, wird dem Komponist eine unendliche Fülle an Klanglichkeiten eröffnet. Man spricht bei diesem Verfahren von additiver Synthese, vergleichbar mit dem Maler, der seine Farbtöne aus den Primärfarben neu zusammenmischt. Werden statistisch alle vom Menschen hörbaren Frequenzen benutzt, so kann man zum weißen Rauschen gelangen, in Anlehnung an das weiße Licht in der Optik, das alle Farbtöne enthält. Geht ein Komponist von diesem Rauschen aus, kann er mit Hilfe von Filtern unterschiedliche Klangfarben kreieren.

Übertragen auf die bildende Kunst könnte man von der Technik einer Radierung sprechen. Dieses Verfahren wird als subtraktive Synthese bezeichnet. Exemplarische Kompositionen für die beiden Verfahren sind Stockhausens Studie I und II. In der Studie I geht Stockhausen vom Sinuston aus und komponiert mittels der additiven Synthese neue Klanggebilde, während in Studie II auch gefiltertes weißes Rauschen zum Einsatz kommt, was der subtraktiven Synthese entspricht. Diese Richtung der Elektronischen Musik wurde zu Beginn der 50er Jahre des 20. Jahrhunderts vom Elektronischen Studio des Westdeutschen Rundfunks in Köln, dessen Leiter damals Herbert Eimert war, vertreten.

Im Gegensatz hierzu wird bei der Musique concrète von "natürlichen" Klängen ausgegangen. Vogelstimmen, Wassergeräusche, Schallplatten, aber auch Geräusche des industriellen Umfelds werden als Ausgangsmaterial verwandt. Der Komponist mischt dieses Rohmaterial zusammen, verfremdet es durch den Einsatz diverser Filter und anderer elektronischer Verfahren. Bei dieser Richtung war es grundsätzlich erwünscht, dass der Rezipient Assoziationen zum Klang hatte, was zur Anfangszeit der Elektronischen Musik in Köln nicht beabsichtigt war. Hauptsächlich die GRM in Paris mit seinem damaligen Leiter Pierre Schaeffer, widmete sich dieser Ausrichtung.

Bei meiner Komposition Impression 01 wurden fast ausschließlich Klangausschnitte als Ausgangsmaterial verwandt und zwar Musikausschnitte aus Werken impressionistischer Musik. Übertragen auf die Bildende Kunst, kann man dieses Verfahren am ehesten mit der Überarbeitung von bereits vorhandener Kunst, z. B. dem Übermalen von Bildern oder der Collage, vergleichen.

Diese Klangausschnitte wurden oft bis zur Unkenntlichkeit verfremdet, durch Transpositionen, Filterungen, Resynthese und Granularsynthese. Diese so erzeugten neuen Klänge wurden in einer zweiten Bearbeitung zusammengemischt, was zu musikalisch höchst komplexen Zusammenhängen führen kann. Mischt man beispielsweise eine Melodiephrase mit der selben Melodiephrase um eine kleine Terz und eine reine Quinte nach oben, bekommt man - musikalisch - ausgedrückt Aneinanderreihungen von Molldreiklängen.

Übliche Harmonien der impressionistischen Welt sind die Verwendung des übermäßigen Dreiklangs, oft mit Zusatz einer kleinen oder großen Septime, oder der Gebrauch des übermäßigen Quintsext-Akkordes. Die Klangausschnitte wurden so transponiert, dass beim Zusammenmischen diese Harmonien entstanden. Mittels dieses Mischverfahrens kommt man quasi auf einer Metaebene zu außergewöhnlich komplexen Klanggebilden. Werden darüber hinaus Klangausschnitte, die ihrerseits die für den Impressionismus typischen Harmonien verwenden, auf diese Art abgemischt, kommt man schnell zu den für die Musik des 20. Jahrhunderts typischen Tontrauben.

Mischt man die transponierten Klangausschnitte zeitlich versetzt, gerät der Rhythmus aus den Fugen. Echo und Kanoneffekte sind genauso die Folge wie sehr abstrakte Rhythmen. In einer dritten Metaebene wurden die so zusammengestellten Klänge collagenartig auf die 4 Spuren des quadrophonen Raumes verteilt. Das Material wurde teils erneut transponiert, hintereinander gestellt und in Ganztönen auf- oder abwärts transponiert. So kommt es zu der im Impressionismus typischen Verwendung der Ganztonreihe. Ebenso wurde die pentatonische Tonleiter verwandt. Das Klangmaterial wurde so mit Hall- und Echoeffekten abgemischt, dass räumliche Bewegungen und die Verteilung auf einen räumlichen Vorder- und Hintergrund entstanden.

Der musikalische Parameter der Klangfarbe ist für impressionistische Musik außerordentlich bedeutend. Ein riesiges Orchester mit ungewöhnlichen Instrumenten und ungewöhnliche Spielweisen der Instrumente, verbunden mit extremen Tonhöhenunterschieden, machen dies deutlich. Kurze Klangtupfer in scheinbar unendlichen Faccetten sind vergleichbar mit der für impressionistische Malerei so typischen Technik des Pointilismus. In Impression 01 wird diese durch das Zerhacken unterschiedlicher Klangflächen auf die Musik übertragen. Bis zu acht Klangflächen wurden zur selben Zeit mit unterschiedlichem Tempo zerhackt. Die resultierenden Klangtupfer sind zeitlich und räumlich verteilt, was zu einem - typisch für impressionistische Musik - flirrenden Musikempfinden führt. Durch die Überarbeitung mit einer Zeitverzögerung wird dieser Effekt zusätzlich verstärkt, tritt jedoch durch den hinzugefügten Hall und die Lautstärkenreduzierung in den Hintergrund.

Wie ein roter Faden durchziehen Zitate eines "Gassenhauers" impressionistischer Musik die Komposition. Formal kann sich der Zuhörer an Debussys Clair de Lune orientieren, dass in den oben beschriebenen Verfremdungstechniken das gesamte Stück durchzieht. Teils direkt, oft sehr dezent, wird mit den Zitaten des Debussyschen Klavierstücks gespielt, bis gegen Ende auch der Schluß dieses Stücks in fast unveränderter Form aufgegriffen wird.

Auch hier drängt sich ein Vergleich mit der Bildenden Kunst auf. Wird ein Gemälde zum Überarbeiten von einem Künstler verwendet, ist es meist langweilig alle Details des Originals zu übermalen. Der Künstler spielt mit dem dezenten Verändern von Nuancen, bis zum unkenntlich machen des Originals. In Impression 01 reicht die Bandbreite der veränderten Zitate von nuanciert bis zur Unkenntlichkeit. Es wird mit der Bekanntheit des Stückes gespielt, Hörerwartungen aufgebaut und teils erfüllt, oft jedoch durchbrochen. Bei der DTS-Mehrkanalton Variante gibt es eine extreme Dynamik. Um bei sehr leisen Passagen alle Details wahrnehmen zu können, muß das Stück entsprechend laut gestellt werden. Entsprechend werden sehr laute Passagen vom Zuhörer möglicherweise als schockierend empfunden. Plötzliche Wechsel der Dynamik können den Hörer erschrecken, was durchaus erwünscht ist.

 

 


Torbe Reyber

Ist das Neue wirklich so neu?

Seit etwa 1970 sind elektronische Musikinstrumente oder Musikgeräte im Musikalienhandel für den Endverbraucher erhältlich und stellen ein ständig wachsendes Marktsegment. Damit einher geht eine Werbepropaganda nicht unähnlich derjenigen, wie wir sie von Waschmitteln oder Zahnpasta her kennen. Dabei stellt sich die Frage, ob alles, was uns da als Neuheit verkauft werden soll, auch wirklich so neu ist.

Die Erfindung der Elektronenröhre um 1906 markiert den Eintritt in das elektronische Zeitalter. Es ist eine kuriose Abfolge von Beinahetreffern, viele waren dicht davor, erkannten aber das Wesentliche nicht. Man muß dabei aber anmerken, daß bis zu Einsteins Arbeit zur Brownschen Bewegung 1905 selbst die Existenz von Molekülen und damit auch von Atomen immer noch sehr umstritten war. Edison erkennt schon 1883, daß Strom durch das Vakuum fließt. Er kann sich dies nicht erklären, hat keine Verwendung für sein Patent und so gerät die Sache wieder in Vergessenheit. 1904 meldet der Physiker Flemming seine Röhrendiode zum Patent an (Abb. 1). Man kann daran das Prinzip gut erkennen: in einem Vakuumgefäß aus Glas wird die Heizwendel mit den Anschlüssen H-H mit Strom beaufschlagt, typisch 6.3 V mit 0.3 A. Diese Heizleistung von immerhin fast 2 Watt bringt die Wendel auf 800 ... 900 Grad und damit auch die Kathode K zur Rotglut. Durch die thermische Energie vergrößert sich die Elektronenwolke um die Kathode erheblich. Wenn nun an die Anode A eine gegenüber der Kathode positive Spannung gelegt wird - typisch 100 ... 500 V - , so können aus dieser Wolke Elektronen zur Anode fliegen, es fließt also ein Elektronenstrom durch das Vakuum. Ist die Anode dagegen negativ geladen, so stößt sie die Elektronen zurück. Die Anode ist kalt und kann daher praktisch keine Elektronen aussenden. Die Diode kann also nur Strom in einer Richtung leiten, es ergibt sich eine Ventilwirkung.

1907 meldet De Forest sein Patent an [1], aber dieses behandelt auch immer noch gasgefüllte Röhren. Gleichzeitig reicht von Lieben ein Patent dazu ein. Er setzt auf magnetische, De Forest auf elektrostatische Steuerung. Weder De Forest noch von Lieben wußten zu diesem Zeitpunkt wirklich, wieso ihre Erfindungen funktionierten (Abb. 2). Es wird gegenüber der Diode eine zusätzliche Elektrode G eingeführt - das Gitter. So wird die Diode zur Triode. Die Anode wird gegenüber der Kathode positiv vorgespannt. Das Gitter wird zunächst gegenüber der Kathode negativ vorgespannt. Dies stößt die Elektronen zurück, sie können nicht zur Anode fliegen. Wird die negative Gitterspannung verringert, so können immer mehr Elektronen zur Anode kommen. Dabei darf die Gitterspannung nicht zu groß werden, oder gar positiv, weil dann der üblicherweise sehr geringe Gitterstrom stark anwächst, das Gitter wird zu einer weiteren Anode. Dies kann die feinen Gitterdrähte zerstören.

Es ist immer wieder eine ernüchternde Feststellung, daß nur der Krieg die Forschung zu Höchstleistungen vorantreibt. 1915 tauchen in verschiedenen Ländern die ersten wirklichen Hochvakuumröhren auf, durch militärische Geheimhaltung wird der Ablauf der Ereignisse schwer nachvollziehbar. Nach dem Krieg wurde von Lieben die Priorität im deutschen Reich per Gerichtsurteil zugesprochen, dieses Urteil ist - nach allem was wir heute wissen - ein Fehlurteil. Die Machtübernahme der Nationalsozialisten in Deutschland hatte in diesem Zusammenhang zwei Verfälschungen zur Folge: zuerst war die Propaganda bemüht, alle nur möglichen Erfindungen "deutschen" Erfindern zuzurechnen, so wurde von Lieben als einziger und wahrer Erfinder plaziert, was sich bis auf den heutigen Tag in manchen Texten auswirkt. Umgekehrt waren während des Krieges tatsächliche deutsche Erfindungen geheim und die Erfinder nach dem Krieg entweder tot, interniert, verschollen oder untergetaucht, so daß sich nun eine Schieflage in umgekehrter Richtung ergibt.

Aus Sicht der Anwendung standen zunächst die typischen Schaltungen für Radiosender- und Empfänger im Vordergrund der Entwicklungen. Dies sind z. B. schmalbandige Filter, Sinusoszillatoren mit nur kleiner Abstimmbandbreite und Audioverstärker. Wir wollen als Beispiel einen einfachen Röhrenverstärker betrachten (Abb. 3). Die Kathode wird auf Bezugspotential gelegt, die Anode über den Anodenwiderstand Ra - typisch 100 kΩ - auf z. B. 250 V, den Heizkreis lassen wir zur Vereinfachung weg. Am Gitter wird die Eingangsspannung Ue angelegt, an der Anode erscheint die Ausgangsspannung gegenüber Bezugspotential. Die Abb. 4 zeigt die typische Steuercharakteristik der Triode. Bei einer Gitterspannung von ca. -4 V fließt kein Anodenstrom Ia. Der maximal erlaubte Strom fließt bei etwas unter 0 V. An dem Anodenwiderstand fällt eine Spannung ab. Fließt mehr Anodenstrom, so sinkt deshalb die Ausgangsspannung.

Alle einfachen einstufigen Röhrenverstärker sind deshalb invertierend, steigende Eingangsspannung erzeugt fallende Ausgangsspannung. Eine Variation der Gitterspannung um ca. 4 V ergibt nach Abb. 4 und dem Ohmschen Gesetz eine Ausgangsspannungsänderung um etwa 100 V. Eine einfache Triodenstufe hat also einen Verstärkungsfaktor von ungefähr 25. Die ganze Anordnung wird durch das Verstärkersymbol in Abb. 5 beschrieben. Das Minuszeichen am Eingang deutet an, daß der Verstärker das Signal invertiert.

Allerdings kann man die komplette Steuerkurve meist nicht nutzen. Bei näherer Betrachtung von Abb. 4 sieht man, daß der Strom Ia nichtlinear von Ug abhängt. Bei niedrigem Ug ist die Kurve stark gekrümmt, erst bei etwa -1 V wird sie fast linear. Je nach Arbeitspunkt auf der Kennlinie wird der Triodenverstärker also das Eingangssignal verzerren. Da die Krümmung der Kurve um den typischen Arbeitspunkt nur gering ist, werden nur Verzerrungsprodukte zweiter und dritter Ordnung auftreten, die Verzerrung ist daher weich, langsam und stetig mit der Signalamplitude anwachsend und nicht kratzend. Erst mit großen Auslenkungen um den Arbeitspunkt wird die Ausgangskennlinie sehr deformiert und der Klang dann sägend, denn es treten weitere Verzerrungsprodukte höherer ungerader und gerader Ordnung auf.

Es fällt außerdem auf, daß der Gleichspannungsanteil an Eingang und Ausgang sehr unterschiedlich ist. Die Eingangsspannung bewegt sich im Bereich -4 ... 0 V, die Ausgangsspannung jedoch zwischen 250 V und 100 V. Deshalb kann man Röhrenstufen nicht direkt ankoppeln, sondern man fügt an Eingang und Ausgang Kondensatoren oder Trenntransformatoren ein, die den Gleichspannungsanteil aus dem Signal entfernen, also einfache Hochpaßfilter (im Beispiel nicht gezeigt). Einfache Röhrenschaltungen sind also als Gleichspannungsverstärker ungeeignet. Später wurden den Trioden zwei weitere Elektroden hinzugefügt, so kommt man zu Pentode. Dabei ist der Ausgangsstrom unabhängiger von der Ausgangsspannung und die erzielbare Verstärkung größer.

Die Erforschung der Oszillatoren brachte es mit sich, daß das Phänomen der Rückkopplung genauer untersucht wurde. Der Physiker Heinrich Barkhausen promovierte 1907 über das Problem der Schwingungserzeugung und brachte mehr mathematische Exaktheit in dieses vorher undurchsichtige Gebiet. 1911 erhielt er einen Ruf als erster Lehrstuhlinhaber für Elektrotechnik an das gerade gegründete Institut für Schwachstromtechnik der TU Dresden. Er ging hierbei neue Wege indem die theoretischen, mathematischen Grundlagen und funktionalen Zusammenhänge, also vor allem methodisches Wissen in den Vordergrund rückte. Bisher begnügte man sich mit Tatsachenvermittlung über bereits bestehende Konstruktionen. Allerdings waren zu dieser Zeit die elektrischen Maschinen bei den Studenten beliebter, man wollte lieber Krane und Bahnen konstruieren. Unter Schwachstromtechnik konnte sich niemand etwas vorstellen, man hatte dabei Klingelanlagen und ähnliches Spielzeug im Sinn. So blieb die Studentenanzahl anfangs sehr gering. Barkhausen veröffentlichte die bis heute gültigen Standardwerke über Vakuumröhren in deutscher Sprache [2].

Oszillatoren verfügen immer über eine Rückkopplung vom Ausgang zurück auf den Eingang, denn sie führt dazu, daß stets Energie nachgeliefert wird, um die Schwingung zu erhalten. Im weiteren lernte man, daß die Rückkopplung auch bei Verstärkern nützlich ist. Führt man den Verstärkerausgang mit der richtigen Phasenlage auf den Eingang zurück, so kann man dadurch die Schaltung stabilisieren, man nennt dies dann Gegenkopplung. Die Verstärkung wird kleiner, aber besser definiert und unabhängiger von Variationen der Betriebsspannung oder der Röhren.

Außerdem nimmt auch der Klirrfaktor ab. Je höher die Verstärkung des nichtrückgekoppelten Verstärkers, desto mehr ähnelt diejenige des rückgekoppelten der inversen Übertragungsfunktion des Rückkopplungs-netzwerkes. Ist dieses aus zwei Widerständen aufgebaut, so kann man eine fast ideale Verstärkerwirkung erreichen. In der Abb. 6 ist dies dargestellt. Bei Röhrenschaltungen ist es typisch so, daß jede Röhre eine eigene Gegenkopplung besitzt und dann noch einmal eine über-alles Gegenkopplung vom Ausgang auf den Eingang stattfindet. Zum Prinzip der Gegenkopplung meldeten schon um 1937 verschiedene Erfinder Patente an [3]. Die Eigenschaften der Verstärker werden um diese Zeit also viel besser. Wir kennen die ersten elektronischen Musikinstrumente, die sich den Stand der Technik dieser Zeit zu eigen machten: das Ätherophon, die Ondes Martenot und das Trautonium. Ein elektromechanisches Instrument aus dieser Zeit ist die Orgel von Hammond, auch diese braucht einen Leistungsverstärker und Lautsprecher. Edwin Howard Armstrong war ein US-amerikanischer Ingenieur und Erfinder, der wesentlichen Anteil an Entwicklungen der Kommunikationstechnik hatte. Er entdeckte 1912 das Prinzip der Rückkopplung an der damals brandneuen Triode. Damit konnte er schmalbandig hohe Verstärkungen und Oszillationen erzielen. Schon diese erste Erfindung führte zu einem Patentstreit bis zum obersten Gerichtshof. Durch Armstrongs Sturheit ging der Sieg schließlich 1934 an De Forest. Bei seiner nächsten Erfindung - dem Überlagerungsempfänger - hatte Armstrong einfach Pech. Als er dieses bis heute benutzte Grundprinzip für hochselektive, abstimmbare Radioempfänger anmeldete, war ihm der Franzose Lévy um ein halbes Jahr zuvor gekommen.

Carson veröffentlichte schon 1922 seine Untersuchungen zur Frequenzmodulation (FM) und berechnete richtig die bekannten Terme für die Seitenlinien mit den Besselfunktionen erster Art, allerdings schätzte er voreilig ab, daß FM keine Vorteile bei der Nachrichtenübertragung habe [4]. Ab 1927 reichte Armstrong vier FM-Patente ein, denn er erkannte, daß im Gegenteil die Breitband-FM eine störsichere Übertragung von Radiosignalen möglich macht. Diesmal verweigerte das Amt die Patentierung nicht. Armstrong kam jedoch - wie so viele Erfinder - in ernste Schwierigkeiten, weil seine Neuheit bereits bestehende Geschäfte beeinträchtigte, diese waren der Verkauf von Amplitudenmodulationsempfängern und Sendern (AM). Besonders die Firma RCA versuchte alles, um die bessere FM-Technik nicht aufkommen zu lassen, unter anderem durch Einflußnahme auf die US-Funkregulationsbehörde (Federal Communications Commission, FCC), die dem FM-Empfang daraufhin mitten in der ersten Verkaufsphase andere Frequenzbereiche zuwies und bereits bestehende Geräte damit wertlos machte. Die breite kommerzielle Auswertung der Erfindung war damit zunächst gescheitert, aber Polizei und Militär benutzten die Frequenzmodulation weiterhin wegen ihrer Vorteile.

Der nächste Krieg brachte noch erheblicheren technischen Fortschritt mit sich. Viele der Arbeiten über Signalanalyse und Signalbearbeitung behandelten militärische Forschungsprobleme. Elektronische Zielverfolgungsgeräte wurden entwickelt, die Treffer auch auf schnell- und tieffliegende Flugzeuge möglich machten. Hierbei muß mit den Daten einer Funkmeßeinrichtung die Position des Zieles bestimmt, die zukünftige Position vorausberechnet und das Geschütz mit diesen Daten ausgerichtet werden. Eine Fülle von Störfaktoren kann hierbei die Ausrichtung verfälschen. Es reicht daher nicht aus, das Geschütz mit elektrischen Antrieben auszurichten, sondern es muß die Ist-Position ständig mit der Soll-Position abgeglichen werden. Es handelt sich also nicht um eine Steuerung, sondern um eine Regelung, wobei die Regelgröße zurückgekoppelt wird. So entfaltete sich die elektronische Regelungstechnik sehr schnell. Deshalb waren bis zum Ende des Krieges grundlegende theoretische Erkenntnisse über Rückkopplungsschaltungen erarbeitet, man findet Namen wie Nyquist, Bode und Blackman, alle bei den Bell Laboratories. Es gab auch auf deutscher Seite weit fortgeschrittene Forschungen dazu.

Erste mathematische Arbeiten zur Regelungstechnik findet man schon viel früher, so arbeitete Maxwell 1868 über den Fliehkraftregler von Dampfmaschinen [5] und das Routh-Hurwitz Kriterium zur allgemeinen Stabilität linearer dynamischer Systeme wird auf 1877 datiert [6]. Die Gefahr, daß Regler zu unerwünschten Oszillationen neigen, ist durch das mit den Oszillatoren gemeinsame Element der Rückkopplung unmittelbar erkennbar.

Man kann feststellen, daß zum Ende des zweiten Weltkrieges die analoge Signalverarbeitung theoretisch und praktisch voll entwickelt war. Es gab aufwendige Präzisionsrechenschaltungen - wie sie für die Vorhersage einer Flugbahn notwendig sind - und Regelungssysteme mit Rückkopplung, natürlich mit aufwendigen Vakuumröhrenschaltungen. Alles war also schon vorgegeben, als um 1964 Donald Buchla und Robert Moog - der Name Moog wird übrigens gesprochen wie Koog oder Boot - transistorisierte Module auf Basis der analogen Rechentechnik anboten. Eine Neuerung stellte sicherlich die Moog-Kaskade im Jahr 1966 dar [7].

Der Bipolartransistor - um 1947 parallel bei den Bell Laboratories und der französischen Postbehörde PTT entwickelt [8] - hat genau wie die Triode drei Anschlüsse: Emitter, Basis und Kollektor (C) (Abb. 7). Aber anstatt eines Hochvakuumglaskolbens von einigen Zentimeter Größe hat man jetzt ein kleines Halbleiterplättchen von nur wenigen Millimetern. Die Heizung entfällt ganz, so daß in typischen Verstärkerstufen 100 mal weniger Leistung benötigt wird. Die Schaltungen sehen jedoch denen der Röhrentechnik sehr ähnlich, insofern hat sich erstaunlich wenig verändert (Abb. 8). Dabei fällt die um den Faktor 2 bis 100 niedrigere Betriebsspannung auf. Die Steuerkennlinie (Abb. 9) ist völlig anders. Anstatt einer etwas gekrümmten Kurve mit einem fast linearen Teilstück wie bei der Triode tritt nun ein durchweg exponentielles Ansteigen des Stromes auf, also etwas extrem Nichtlineares. Der Transistor liefert typisch etwa 10 mal mehr Strom als die Triode, bei einer sehr kleinen Eingangsspannungsvariation von vielleicht 0.5 ... 0.7 V. Hier nicht zu sehen ist die enorme Temperaturdrift. Anders als bei der Röhre hängt der Ausgangsstrom auch sehr stark von der Temperatur ab, was solch einfache Schaltungen unbrauchbar macht. Man erkennt, daß Transistorschaltungen leicht 10 bis 20 mal mehr Verstärkung als Triodenschaltungen haben. Wegen der Nichtlinearität muß man sich entweder auf sehr kleine Eingangsspannungen beschränken - und bekommt dann Probleme mit Rauschen und Einstreuungen -, oder man wendet die Gegenkopplung in sehr viel weitergehendem Maße an als bei den Röhren. Da ein Transistor sehr viel billiger als eine Röhre ist und sich zudem Dutzende oder Hunderte auf einem Kristall monolithisch integrieren lassen - wir kennen das als Integrierte Schaltung - , so verwendet man in der Transistortechnik typisch sehr viel kompliziertere Schaltungen, die mit vielen Transistoren zum gewünschten Ergebnis führen. Einfache Verstärkerstufen haben typisch 5 Transistoren, nahezu ideale Verstärker baut man mit 50 oder mehr. So lassen sich Verstärkungsfaktoren von 100.000 und darüber erreichen, bei sehr niedriger Drift. Der erhöhte Schaltungsaufwand macht Eingang und Ausgang gleichspannungsfrei, es sind also keine Hochpaßfilter zur Ankopplung notwendig, man kann mit Transistoren preiswerte Gleichspannungsverstärker mit hoher Präzision bauen.

Die Unterschiede zwischen Triode und Transistor haben Auswirkungen auf den Klang. Die einfache Triodenstufe hat etwas Verzerrungen, die langsam mit der Signalamplitude ansteigen. Die typische Transistorschaltung mit über-alles Gegenkopplung hat zunächst fast gar keine Verzerrungen, bis schlagartig heftige Signalbegrenzungen einsetzen. Je nach Schaltung kommt es dabei zu symmetrischen Begrenzungen, die Verzerrungsterme ungeradzahliger Ordnung hervorbringen, die einfacheren Schaltungen haben oft auch solche geradzahliger Ordnung. Der Musiker spricht hier ob des scharfen, kratzenden Klanges von der "Transistorsäge". Bei Tongemischen ergibt sich schnell ein undefinierbarer Klangbrei. Die eher sanfte Charakteristik der Triode ist der Grund dafür, daß Musiker bei Verzerrern - wie z. B. in Gitarrenverstärkern - immer noch Vakuumröhren bevorzugen.

Kehren wir noch einmal zur FM zurück. Der Ausgang des Krieges hatte interessanterweise Einfluß auf deren Verbreitung. Deutschland war von der Kopenhagener Frequenzkonferenz 1948 ausgeschlossen und es blieben nur die Frequenzbereiche für eine Radioübertragung übrig, die die Teilnehmer der Konferenz damals für nutzlos hielten. Dieser Witz der Geschichte führte dazu, daß sehr schnell das noch heute bestehende FM-Radio mit Trägerfrequenzen von 88...108 MHz eingeführt wurde, was sich vorhersehbar gegenüber der AM-Ausstrahlung auf Mittelwelle als überlegen darstellte. Dieser Frequenzbereich ist übrigens genau derjenige, mit dessen Zuweisung die FCC den Erfinder Armstrong einst schädigte. Im selben Jahr 1948 verklagte dieser die Firmen RCA und NBC wegen Verletzungen seiner Patente. Die durch geschicktes Taktieren der gegnerischen Anwälte sich hinziehenden Verfahren zehrten seine Ersparnisse auf, wirkten psychisch zermürbend und trieben ihn schließlich 1954 in den Freitod. Seine Witwe konnte erst 1967 die Prozeßserie mit dem 21. Verfahren beenden. Insgesamt erhielt sie 10 Mill. US-$ Schadensersatz von den Prozeßgegnern.

Durch die inzwischen große Verbreitung war FM Basiswissen jedes Radio- und Funktechnikers. Es ist daher abseits jeder Wahrscheinlichkeit, daß niemand auf der Welt zu diesem Zeitpunkt Experimente mit analoger Frequenzmodulation auch im Audiobereich unternommen haben soll. Zumal analoge Oszillatoren, wie sie in den fünfziger und sechziger Jahren des letzten Jahrhunderts laborüblich waren, eine solche mit sehr einfachen Mitteln erlauben. Der Wobbeloszillator war damals ein Standardwerkzeug und basiert auf einer rampengesteuerten Frequenzmodulation eines Sinusoszillators - auch im Audiobereich. Das Modulsystem M100 von Donald Buchla bot schon 1963 einen Oszillator, der frequenzmodulierbar war.

John Chowning von der Stanford University experimentierte um das Jahr 1968 mit extremem Vibrato und entdeckte für sich neu das Phänomen der spektralen Aufspaltung in Seitenlinien um den Träger. Erst viel später wurde ihm klar, daß die Theorie dazu schon mehr als 46 Jahre bekannt war. Diese Umstände haben jahrelang zu einer merkwürdigen Tendenz in den Veröffentlichungen geführt.

Denn tatsächlich ordnet sich die Frequenzmodulation unter den allgemeineren Begriff der Phasenmodulation ein. In der Tat werkelt in den meisten "FM-Geräten" ein Phasenmodulations-Algorithmus, so bei der ganzen DX/SY-Yamaha Linie, was sich auch klanglich äußert. Für den Musiker ist dabei wichtig, daß sich die Stärke der Seitenlinien nicht ändert wenn man das Frequenzverhältnis von Träger und Modulator variiert. Genau dies wäre aber bei FM der Fall. Chowning arbeitete an der diskreten Realisierung auf Digitalrechnerbasis, sein Stanfordpatent von 1975 und das darauf folgende Patent vom Lizenznehmer - der Firma Yamaha - von 1977 verknüpften eine damals schon lange bekannte Methode neu mit den Namen Chowning und Yamaha. Die Methode der "FM-Synthese" ist heute aus Systemsicht mehr als 84 Jahre alt.

Nicht nur analoge Verfahren wurden im zweiten Weltkrieg entwickelt, sondern auch diskrete (digitale) Signalverarbeitungsanlagen. Ein erstes funktionierendes System war 1943 das SIGSALY Sprachverschlüsselungssystem [9], das basierend auf den Vocodertechniken der Bell Laboratories entwickelt wurde und die Sprachkommunikation allerhöchster Geheimhaltungsstufe mindestens bis zum Ende des zweiten Weltkrieges unentschlüsselbar machte. Der Vocoder-Teil arbeitete analog, jedoch wurden die 10 Signale für die Analysator-Amplituden, sowie das Stimmhaft-Stimmlos- und das Grundfrequenzsignal in 15 Stufen quantisiert (PCM). Dies war zwingend notwendig, weil die darauf folgenden Schritte der arithmetischen Verschlüsselung der Daten präzise und eindeutig erfolgen mußten, da jeder Fehler die Entschlüsselung unmöglich machte. Eine solche Präzision der Berechnung ist mit analogen Mitteln nicht möglich, man geht daher den Weg der ziffernmäßigen Repräsentation von Werten. Das röhrenbasierte Gerät beanspruchte 40 mannshohe 19-Zoll-Schränke, wog 50 Tonnen und verbrauchte 30 kW elektrische Leistung, etwa so viel wie 20 Kochplatten. Gesendet wurde übrigens mit einer FSK-Modulation, ein sinusförmiger Träger wird dabei durch den rechteckförmigen Modulator in der Frequenz getastet.

Nach dem Krieg wurde in den USA an diese Entwicklungen angeknüpft. Die Bell Laboratories - heute Lucent Technologies - hatten als Forschungszentrum des US-Telefonmonopolisten AT&T ein Interesse an Vocodern, Sprachsynthese Sprachsteuerung und Sprachkompression, d. h. an der besseren Ausnutzung der vorhandenen Kabelbandbreiten und an neuen Telefondiensten. Princeton University und Massachusetts Institute of Technology (MIT) waren dabei, genau wie der militärische Ableger des MIT, Lincoln Laboratories. Hier sorgte man sich um das "Jüngste-Gericht-Szenario", also die Situation während oder nach einem größeren thermonuklearen Schlagabtausch. Digitale Signalprozessierung (DSP) sollte RADAR-Messungen verbessern und über Schmalbandübertragung die verschlüsselte Weitbereichskommunikation aufrechterhalten. Lawrence Rabiner erinnert sich, daß er schon als Student 1963 mit DSP Berührung kam (zusammengefaßt und übersetzt nach [10]):

"Es war vorher nie die Rede von analoger Signalverarbeitung. Nach meiner Promotion über Sprachsynthese war ich bei den Bell Labs fest angestellt. Wichtig war dabei, daß man dort den Forschern bis in die 70er Jahre sehr weitgehende Freiheiten einräumte. Es gab keine drängenden Projekttermine und es war möglich, auch Seitenpfade zu untersuchen. Man konnte so 20 Jahre in die Zukunft blicken.

Es stellte sich zunächst nur die Frage, ob man Systeme aus analogen Komponenten bauen, oder mit Hilfe der immer preiswerter werdenden Computer erst einmal simulieren sollte. Man bemerkte dabei, daß die Simulation eines Systems in wesentlich geringerer Zeit aufgebaut werden konnte, als die Implementation entsprechender Spezialschaltungen. Dann kam man darauf, daß die Simulation selbst die Aufgabe ja schon vollständig erledigte und man die Spezialhardware gar nicht mehr brauchte. Die Ablösung der Hardware durch Software ließ die eigentlichen Verfahren besser hervortreten, man begann nun Signalverarbeitung als sehr weites und generelles Gebiet zu sehen. Es spielte keine große Rolle mehr, ob militärische Signalverarbeitung bei den Lincoln Labs oder zivile Techniken anderswo entwickelt wurden, die Algorithmen waren im wesentlichen dieselben.

Aus einer anderen Richtung kam die absolute Sensation dieser Jahre: Cooley (IBM) und Tukey (Princeton, Bell) veröffentlichten ihren Ansatz zur schnellen Fourier-Transformation 1965 [11]. Die Idee war zwar nicht neu - sie läßt sich bis hin zu Gauß im Jahr 1805 zurückverfolgen - aber die Computertechnik erlaubte nun, aus der enorm großen Einsparung an Rechenzeit praktischen Nutzen zu ziehen. Es entstanden in der Folge eine Reihe von Algorithmen, die die beschleunigende Wirkung der Transformation bei Echtzeitanwendungen ausnutzten. Wichtig waren die Arbeitsseminare, die heute unter dem Namen Arden House Workshops bekannt sind. In diesem Anwesen in Staat New York kamen seit Mitte der 1960er Jahre die maßgeblichen Experten der digitalen Signalverarbeitung zusammen. Das Komitee enthielt bekannte Namen: Rader, Helms, Kaiser, Stieglitz, Bergland und mich (aus den USA) und später auch Hans Schüßler (aus Deutschland [12]). Das Komitee tagte alle sechs Wochen, von 1967 nahm ich bis zum Ausscheiden 1980 teil, denn es war außerordentlich effektiv. Es definierte das damals neue Gebiet mit seinen Technologien und es bereitete Veröffentlichungen für neue Seminare auf. Die Mitglieder veröffentlichten selbst die wichtigen Grundlagenwerke. Beim ersten Arbeitsseminar waren 30 Teilnehmer aus aller Welt erhofft, sogar 100 kamen, 70 Arbeiten wurden vorgetragen und jede ging in eine neue Richtung. Die analogen Systeme verloren immer mehr ihren Vorbildcharakter. Am Beispiel der Filter wird dies deutlich. Es gibt die Approximationen (nach Bessel, Lagrange, Tschebyscheff, Butterworth und Cauer), die jeweils eine andere Eigenschaft bestmöglich (optimal) realisieren. Bei der Übertragung dieser Entwürfe auf digitale Filter gehen diese optimalen Eigenschaften z. T. wieder verloren. Es ist daher nur konsequent, direkt im zeitdiskreten Bereich nach Optimalfiltern zu suchen, dabei kommen auch Lösungen heraus, die sich von analogen Filtern deutlich unterscheiden.

So kam die Sache schnell ins Rollen, die Leute waren verrückt danach, denn die Alternativen waren magere 3% mehr Leistung pro Jahr beim Beibehalten der bisherigen Technik, oder mit DSP an der Mooreschen Beobachtung [13] teilzuhaben, die explosionsartiges, exponentielles Wachstum von Speicherplatz und Rechengeschwindigkeit versprach. Heute ist DSP ein fundamentales und elementares Lehrfach im Ingenieursstudium. Die großen Probleme waren in der Mitte der 1980er Jahre gelöst, auch die Probleme zweiter Ordnung. Der Rest ist dritter oder vierter Ordnung. Ich lese das nicht mehr. Es steht alles in den Standardwerken, die amtlichen Lösungen sind darin vorgegeben". Die grundlegenden Veröffentlichungen sind z. B. [14][15][16][17].

Soweit die Erinnerungen eines Pioniers der digitalen Signalverarbeitung. Die wirklichen Urheber von Erfindungen oder Forschungen sind nicht immer leicht zu bestimmen. Patente werden nicht immer zu Recht erteilt. Gleichzeitig arbeiten oft mehrere Erfinder unabhängig voneinander an demselben Problem. Auch ein zu Recht erteiltes Patent sagt nichts darüber aus, ob der Erfinder überhaupt verstanden hat, worum es dabei wirklich geht, denn Schutzrechte haben mit Wissenschaft nicht notwendig etwas gemein.

Seit Edison wurde es für Erfinder immer schwieriger. Die entstehenden Technologiemonopole haben nur ein Interesse an möglichst großen Gewinnen und keinesfalls am technischen Fortschritt oder an Verbesserung. Der verbrauchsarme Ofen ohne Kamin, der Ölfilter der nie verschleißt und auch elektronische Musiktechniken, dies alles wird niedergemacht, wenn es Marktinteressen zuwider läuft. Gerade in der Musikbranche beobachten wir Konzentrationsprozesse. Kleine unabhängige Firmen gehen in Konkurs oder werden von multinationalen Konzernen aufgekauft: Oberheim, Moog, ARP, PPG, Waldorf, Steinberg, Dr. T's, Emagic, Kurzweil, die Liste ließe sich noch verlängern. Nach dem Verkauf setzt Stagnation ein. Die einstigen Unternehmensgründer scheiden frustriert aus. Denn die Entscheidungsprozesse in großen Unternehmen sind so schwerfällig, daß für innovative Konzepte kein Raum mehr ist. Risiken können beim Erklimmen der Karriereleiter nicht in Kauf genommen werden. Ein persönliches Engagement für ein neuartiges Produkt kommt gar nicht erst auf, es geht nur noch um Marktanteile und Geld. Nur ganz selten gibt es den Fall, daß die ernormen Gewinne der Monopolisten es zulassen, einigen wenigen ihrer Angestellten freie Forschung auf der Spielwiese ohne sofortige Gewinnaussicht zu erlauben. Methoden oder Techniken legen oft einen langen und verworrenen Weg zurück. Irgendwann wird ein Gebiet jedoch aufgearbeitet und verstanden. Die Musikelektronik wertet stets Erfindungen und Forschungen aus anderen Bereichen aus - meist der Nachrichtentechnik -, die um Dekaden zurückliegen. Leider muß man feststellen, daß trotzdem sehr oft aus Unwissenheit, Termindruck oder Kostendruck andere Wege beschritten werden, die deutlich schlechtere Resultate zur Folge haben. Die seit langem bekannten, optimalen Problemlösungen sind offenbar noch nicht überall angekommen. Das Neue ist also gar nicht so neu und oft noch nicht einmal auf dem Stand der seit Jahrzehnten bekannten Standardtheorie.

Man erkennt, daß DSP historisch aus Bereichen kommt, wo Nichtlinearitäten eher gemieden werden. Denn kaum zu verstehende, kratzende Telefonübertragungen sind ein Ärgernis. Andererseits wurde dargestellt, daß analoge Röhren- und Transistorschaltungen mehr oder weniger zu Verzerrungen neigen, von der magnetischen Tonbandsättigung ganz zu schweigen. Die Klänge, die wir aus Aufnahmen des ältesten Studios in Köln kennen, sind von diesen Verzerrungen geprägt. Besonders interessant scheint der abstimmbare Anzeigeverstärker UBM BN 12121 von Rohde & Schwarz, mit vier Pentoden und eingebauter Rückkopplung. DJs zahlen heute Unsummen für die letzten existierenden Exemplare, ab und zu taucht eines bei eBay auf. Die Musikwissenschaft dokumentiert zwar den Einsatz des Gerätes, kann uns aber nicht sagen, wie es funktioniert und was das Besondere daran ist [18] - vielleicht in einem späteren Artikel dazu mehr.

Solche nichtlinearen Möglichkeiten fehlen uns entweder im digitalen Studio, oder die Implementation ist unbrauchbar. Auf die deutlich unterschiedlichen Charakteristiken von übersteuerten Verstärkern wurde schon hingewiesen. Es ist gut möglich, daß die Nichtlinearitäten solcher Geräte durch algebraische Gleichungen zu beschreiben sind. In diesem Fall ist die Übertragung ins digitale nicht so schwer. Man muß allerdings berücksichtigen, daß dabei Frequenzen entstehen, die oberhalb der halben Abtastfrequenz liegen können, das Ergebnis ist heftiger Alias. Man kommt also nicht umhin, die Abtastrate vor solchen Funktionsblöcken deutlich zu erhöhen - durch Interpolation. Danach kann sie mit Filterung wieder erniedrigt werden - durch Dezimation. Auch diese zwei Techniken sind lange bekannt. Richtig interessant wird die Sache aber erst durch Einbeziehen von Rückkopplungsschleifen. Wie oben bei der Rückkopplung angemerkt, entscheidet auch die Phasenlage, ob ein rückgekoppeltes System stabil bleibt, oder instabil wird. Es ist möglich, daß dabei deterministisch chaotisches Verhalten auftritt. In diesem - möglicherweise interessanten - Fall reagiert das System extrem empfindlich auf Veränderungen. Bei der Übertragung vom zeitkontinuierlichen in den zeitdiskreten Bereich treten insbesondere Veränderungen der Phase auf. Nur mit sehr viel Aufwand läßt sich das analoge Verhalten daher abbilden. Wenn das zu modellierende System nicht als algebraische Gleichung, sondern als nichtlineare Differentialgleichung dargestellt werden muß, tritt noch ein viel größeres Problem auf: das der Systemidentifikation. Wie ist die Differentialgleichung und was sind ihre Parameter? Es stellt sich dann schon die Frage, wieso man nicht gleich analoge Schaltungen nachbaut, denn in diesem Falle ist es umgekehrt: das analoge System ist wahrscheinlich kostengünstiger und schneller realisiert als sein rechnerisches Modell.

Maurizio Kagel ist ein großer Experimentator, der viel mit der Verschaltung von Geräten arbeitete und dabei auch Rückkopplungen einsetzte [18]. Wichtig dabei war auch die Übersteuerung von Verstärkern. Machen wir es ihm nach und stecken wir neue Kombinationen zusammen. Wir können dazu gerade auch die ältesten Geräte im Studio benutzen. Wir können modifizierte Lautsprecher, Mikrophone und Räume zum Schwingen bringen.

Was macht dieses praktische, rein elektronische Beispiel? Ich greife hier auf standardisierte Symbole zurück, die es auch schon lange gibt. Obwohl eine solche Schaltung manchmal etwas schwierig zu verstehen ist und obwohl sie sensitiv auf Eingangssignale und Reglerstellungen reagiert, so ist das Ergebnis bei hinreichender technischer Ausführung doch nicht zufällig, sondern reproduzierbar. Je mehr man über die einzelnen Bestandteile und ihre Interaktion weiß, desto eher kommt man zu interessanten Ergebnissen. Raten an Reglern bringt dagegen wahrscheinlich nichts Neues ein.

Heute hat im Prinzip jeder Zugriff auf DSP, das Thema ist mehr als 20 Jahre nach seiner rasanten Entwicklung banal geworden. Viele bleiben beim Bekannten und Einfachen stehen. Das bedingen auch wirtschaftliche Interessen, diese fordern simple Anwendungen, die jeder verstehen und bedienen können soll. Dabei ist es ein Verkaufsvorteil, wenn man sich am schon Vorhandenen orientiert. Dies verhindert potentielle Verbesserungen. Analoge Mischpulte sind notwendig etwas unübersichtlich, ein digitales Werkzeug kann diesen Mangel beheben. Die sklavische Nachahmung des Vorhandenen aber - bis hin zur photorealistischen Reproduktion - gibt keine Freiheit dazu. Ein Produkt muß für die Werbung viel können, aber nicht unbedingt richtig - Hauptsache Klickibunti. Für den Tonkünstler kommt es aber darauf an, gegen den Strom zu schwimmen, sonst landet man im Mainstream. Diese Anstrengung erfordert weiterhin Phantasie und besondere Produktionsmittel.

 

Quellen

[1] De Forest: US-Patent 841,387, Device for Amplifying Feeble Electrical Currents, 1907
[2] Heinrich Barkhausen, Lehrbuch der Elektronenröhren, Elektronenröhren und ihre technischen Anwendungen, Hirzel-Verlag, Band 3, Rückkopplung, 1935
[3] Black, Bell Laboratories, US-Patent 2,102,671 1937, Voigt, britisches Patent 231,972, Tellegen, Philips, britisches Patent 323,823
[4] J. R. Carson: Notes on the Theory of Modulation, Proceedings of the Institute of Radio Engineers, 1922
[5] Maxwell: On Governors, Proceedings of the Royal Society, No. 100, 1868
[6] Edward Routh: A Treatise on the Stability of a Given State of Motion, London: Macmillan, 1877
[7] Robert Moog, Electronic high pass and low-pass filters employing the base to emitter diode resistance of bipolar transistors, US Patent 3,475,623, 1966
[8] Michael Riordan: How Europe missed the Transistor, IEEE Spectrum
[9] Patrick D. Weadon, National Security Agency, NSA: The SIGSALY Story, http://www.nsa.gov/
[10] Lawrence Rabiner, Electrical Engineer, an oral history conducted in 1996 by Andrew Goldstein, IEEE History Center, Rutgers University, New Jersey
[11] Cooley, Tukey: An algorithm for the machine calculation of complex Fourier series, Mathematics of Computation 19, 297-301, 1965
[12] Hans W. Schüßler, Otto Herrmann, Wolfgang Winkelnkemper: Digitale Systeme zur Signalverarbeitung, Springer-Verlag, 1973
[13] IEEE solid-state circuits society newsletter; special issue "The Technical Impact of Moore's Law"; September 2006
[14] Gold, Rader: Digital Processing of Signals, McGraw-Hill, 1969
[15] Oppenheim, Schafer: Digital Signal Processing, Prentice Hall, 1975
[16] Rabiner, Gold: Theory and Application of Digital Signal Processing, Prentice Hall 1975
[17] Crochiere, Rabiner: Multirate Digital Signal Processing, Prentice-Hall, 1983
[18] Moravska-Büngeler, Schwingende Elektronen, Tonger Musikverlag, 1987

 

 


Rettbehr Meier

Unzusammenhängende Zusammenhänge

Wie alte Musik zu interpretieren sei, wird an vielen Instituten auf der Welt gelehrt. Der Aufwand für diese Lehrveranstaltungen übertrifft denjenigen für neue Musik um einiges. Dabei ist es reine Vermutung, wie es geklungen haben mag. Selbst wenn dies mit Gewissheit feststünde, so ist die Zielgruppe dieser Musik seit etwa 400 Jahren tot. Die Musik richtete sich an eine kleine Elite, mit der der Komponist ein bestimmtes Weltbild teilte. Die Kommunikationssituation zwischen Musiker und Publikum hat sich seitdem tiefgreifend verändert. Sie ist zur Einbahnstraße geworden. Wer auch nur einmal Musik des 20. Jahrhunderts bewusst gehört hat, der hat ein anderes Verhältnis zur "Dissonanz" als vorher. Das ewige Kunstwerk ist eine Illusion aus dem Zeitalter der Romantik. Vorher wurde bedenkenlos neu interpretiert und geändert. Die Musiker mögen lernen, wie damals zu agieren, sich sogar zu kostümieren und den Takt wie einst mit dem großen Stab laut hörbar zu stampfen - worauf man heute doch wohl lieber verzichtet. An das, was einmal war zu erinnern, ist nicht möglich, da das heutige Publikum keine Erinnerung daran haben kann. Es bleibt nur der strukturelle Gehalt der Komposition selbst. Um wenigstens etwas über den Abgrund der Zeit herüberzuholen ist daher aussichtsreicher die Methode einer bewusst von der Historie abweichenden Interpretation.

Der Durchschnittsmensch benutzt "klassische Musik" eben nicht als Referenz gegenüber anderer Musik. Die Masse hat keinen Kontakt mehr zur Musik. Es spricht alles dafür, dass es früher nicht viel anders war, eben in der Form der Leierkastenmänner, Kasper, Seppel und Moritaten. Nur hielten sich Kasper und Seppel damals nicht für Weltstars.

Weißes Rauschen enthält laut Handbuch alle Frequenzen gleich stark. Das Experiment zeigt, dass zeitweise bestimmte Frequenzen fehlen und von einer Gleichmäßigkeit keine Rede sein kann.

Zu den Segnungen des Internets gehört Wikipedia, die freie Enzyklopädie. Bisher wurde so etwas von einem Verlag herausgegeben, mit einem Komitee von Sachberatern und Experten, die wiederum über persönliche Beziehungen Informationen von anderen Beratern einbeziehen konnten. Das ist langsam, auch nicht immer optimal und schwierig zu aktualisieren. Das Lexikon hinkt immer um Jahre hinter der Realität hinterher. Der Text wurde aber in fast allen Fällen mit großer Sorgfalt und Sachkenntnis erstellt, das war der Vorteil. Grobe Fehler waren selten, das stellte das Netzwerk der untereinander bekannten Personen sicher. Es gibt Ausnahmen. So wurde für lange Zeit etwa im Musikbrockhaus unter Fourier-Transformation die Struktur eines Kristalls dargestellt. Es ist sicher richtig, dass die Fourier-Transformation auch in der Kristallographie eine Rolle spielt, wie auch in fast jedem anderen Gebiet der Physik. Der Zusammenhang mit Musik und Akustik ist jedoch äußerst lose, der Leser bleibt hier genauso ratlos wie das Komitee. In Wikipedia kann nun jeder alles eintragen. Problematisch sind diejenigen Bereiche, von denen viele etwas zu wissen glauben, denn dort erfolgt der Umschlag ins Negative.

Sich gegenüber stehen perfekte Aufnahmen und von Pannen geplagter Musikeralltag. Die Fotographie hat die realistische Darstellung auf dem Gewissen, die CD die Orchester und Virtuosen. Thomas Mann erzählt nicht in seinen Hauptwerken einfach Geschichten. Der Erzähler interessiert sich nicht einmal für die Protagonisten. Es geht immer um den Zerfall der individualkapitalisch-bürgerlichen Welt in allen Aspekten, bei den Buddenbrooks, auf dem Zauberberg und beim finalen Untergang im Doktor Faustus. Die Musik kommt dabei zwangsläufig auch vor, aber eben nur auch und oft mit der Einschränkung des Dunklen. Der Autor ließ sich dabei von Musikern beraten. Die Romane müssen als Hintergrund für das Nachdenken über Musik herhalten. Warum liest und hört man nicht direkt bei den beratenden Musikern, also vor allen bei Adorno und Schönberg?

Einer sprach einmal von der Gefahr, wenn man unbedacht das Radio andreht. Auch abseits des Massenstumpfsinns herrscht Musikbetrieb. Es geht einmal um eine Schlagersängerin, die nach vielen Schwierigkeiten ihr Leben neu geordnet habe und nun ihre neue CD ganz allein mache und vermarkte. Wie naiv muss man sein, um zu glauben, dass im Bereich der Tonträgerindustrie irgend etwas ohne Agenten, Manager, Marketing, kurz: die ganzen dort herrschenden ökonomischen Strukturen ginge? Ein anderer Beitrag handelt von einer Geigerin, die selbstverständlich nur barfuss auftrete, da nur dies ihre spezielle Interpretation ermögliche, ja quasi lebensnotwendig sei. Radiosprecher lesen heute wohl nur noch das Material der Industrieagenturen für Öffentlichkeitsarbeit und Werbung ab. Man erfährt so allerhand, nur nichts über die Musik. Soziale und ökonomische Erscheinungen in und um die Musik werden nicht diskutiert, obwohl ihr Einfluss keineswegs ein geringer ist. Es fehlt vor allem die freie Diskussion der Fachleute.

Der Einzelne vollzieht an sich auch in der Musik die Geschichte der Menschheit nach. Vom Nachplappern einfacher Motive über Kinderlieder geht es immer weiter zu Komplizierterem. Die überwiegende Mehrheit blieb und bleibt freilich bei den Kinderliedern stehen. Es ist die Frage, ob das Angebot sich nach der Mehrheit richtet, oder umgekehrt.

Es sprach einer von der Kulturindustrie, die mit ihrer Massenware primitive Bedürfnisse befriedige und wahre Musik immer unmöglicher mache. Kritiker hielten dem entgegen, dass die Vorstellung eines totalitären Industriemolochs, der erst Nachfrage wecke, um dann das Geld einzustreichen, absurd sei. Dabei zeugt doch diese Entgegenhaltung selbst von mangelndem Realismus. Der Kenner des Musikbetriebes behauptete niemals ein solches, gewiss auf die Dauer unmögliches System. Denn der Geschmack des Publikums variiert zwar begrenzt, aber unvorhersehbar. Viel Geld wird daher von der Kulturindustrie nur dafür aufgewendet, den jeweiligen Trend rechtzeitig in Erfahrung zu bringen, vor der Konkurrenz. Die Fanatiker sind aufgebracht, wenn man ihnen darlegt, dass auch das vermeintliche Neue dieser Produktionen stets ein Altes ist, von der E-Musik schon vor Jahrzehnten erprobt und nun für die Massenwirksamkeit zurechtgestutzt, verdünnt und wieder aufgewärmt. Inzwischen sind vierzig Jahre vergangen. Heute kann jeder, der auch nur ansatzweise das Metier beherrscht durch hinreichende Wiederholung in den Medien bis in die Top-40 gebracht werden. Die Beeinflussung der Medien wurde schon früh mit großer Offenheit als "plugging" (engl.: hineinstopfen, auch Schleichwerbung) bezeichnet. Es bestehen nicht nur phonetisch Bezüge zur Agrotechnik. Ist genügend gepflügt und die Saat ausgebracht, so wird die lohnende Ernte nicht lange auf sich warten lassen und man wird dabei mit allen Mitteln nachhelfen. Ob der Erfolg überragend wird, lässt sich freilich nicht sicher vorhersagen, er hängt eben auch vom Wetter ab.

Zum Glück ist das Mozart-Jahr nun vorüber. Alles mögliche habe ich über W. A. Mozart erfahren. Es wäre dabei interessant gewesen, die ewige Unfreiheit des Wolfgang Amadé zu betrachten, als Angestellter seines Vaters in der Mozart GmbH und Co. KG, als Lakai des Kirchenfürsten zu Salzburg und als von Schulden geplagter und nach Anstellungen suchender, wirtschaftlich erfolgloser Komponist. Über die Musik wurde fast nicht gesprochen. Man kann den Standpunkt vertreten, dass überhaupt nur die Musik gespielt werden sollte. Wenn man nun aber schon Textbeiträge für nötig hält, so sollten sich diese auch mit dem Werk beschäftigen und nicht mit Begleitumständen. Es besteht dabei wohl eine Schwierigkeit: kein Spätwerk, wenn man nur 36 Jahre lebt. Was hätte Mozart wohl als von wirtschaftlichen Zwängen Befreiter komponiert?

Die Kaserne bildet für den Schützengraben aus, die Musikhochschule für den Orchestergraben.

Es ist mir kein im Alltag relevantes Gebiet der Technik bekannt, dass ein derart unvorteilhaftes Wissensgefälle zwischen Verbrauchern und Herstellern aufweist, wie wir es bei elektroakustischen Wiedergabeeinrichtungen vorfinden. Verstärker, Mischpulte, CD- und DAT-Abspielgeräte usw. können, wenn sie nach den Regeln der Kunst erstellt wurden, heute praktisch als fehlerfrei gelten, vor allem wenn man die möglichen Probleme auf dieser Seite mit den tatsächlichen Problemen von Lautsprechern vergleicht. Beim Kauf eines Automobils interessiert sich jeder Kunde selbstverständlich für den Wendekreis, den Verbrauch, das Volumen des Kofferraums, die Beschleunigung, die Spitzengeschwindigkeit und viele andere Messwerte mehr, die entweder selbsterklärend sind oder nach bestimmten Normen angegeben werden. Wehe dem Hersteller, dem bei diesen Angaben ein Fehler unterläuft. Dass ein Trabant die Fahrleistungen auch nur des schwächsten Porsche-Modells erreichen kann, würde keiner auch nur einen Moment glauben. Bei Lautsprechern hingegen kommt man mit Versprechungen solcher Art durch. Nur in einigen Fällen bekommt der Verbraucher überhaupt Messwerte zu sehen. Die Messbedingungen werden oft absichtlich so gewählt, dass die Vergleichbarkeit erschwert wird. Das ist noch die geringste Schwierigkeit. Nur zu oft sind die Werte reine Fantasie. Dabei wäre ein genormter Lautsprechertest weder schwierig noch unzumutbar für die Hersteller. Mit einem solchen Datenblatt in der Hand könnte man sich die meisten Hörtests sparen und für die geplante Anwendung ungeeignete Lautsprecher von vorne herein aussortieren. Aber die Wirklichkeit ist anders. Ein Foto, Angaben zu Größe und Gewicht sowie dem "Übertragungsbereich" und schließlich der Preis, dies ist alles. Wenn zusätzliche Informationen erhältlich sind, dann meist nicht in Form eines Datenblattes, sondern als bunte Hochglanzbroschüren mit Propagandacharakter und irrelevanten Zahlen. Wer Lautsprecher nach kg und Farbe kauft, muss sich nicht wundern, wenn der Klang bescheiden ist. Wenn man die Eigenschaften des Abhörraumes hinzuzieht, so werden die entscheidenden Fehler, die eindeutig dem Lautsprecher selbst zuzuordnen sind, deutlich: die eingeschränkte Dynamik, die mangelhafte Wiedergabe tiefer Töne sowie zu starke Intermodulations-produkte. Das Klirren geht meist einher mit mangelndem Wirkungsgrad, zu kleine Membranen müssen zu große Auslenkungen machen und erzeugen durch zu schwache Antriebe dabei zu viel Hitze. In Wahrheit hat sich bei Dynamik und Klirr seit 30 Jahren nichts verbessert. Verstärker können mit geringen Klirrfaktoren aufwarten, viele Lautsprecher klirren dagegen schon bei mittlerem Pegel. Sie können deshalb nicht das abbilden, was im Parkett, und noch weniger, was mitten im Sinfonieorchester oder an der Orgel klar zu hören ist. Eine Veröffentlichung der vorher genannten Daten würde diesen Stillstand auf niedrigem Niveau transparent machen und den Verbraucher verunsichern. Man beschränkt sich in der Branche daher auf kosmetische Eingriffe. Die kosten wenig und bringen nichts. Oder man setzt auf sinkende Preise bei schlechterer Funktion. Hauptsache die Gewinnspanne bleibt. Unseriöse Hersteller stecken schon seit langem mehr Geld in Propaganda, als in die Entwicklung. Da werden schuhkartongroße Klangwunder mit teuren Anzeigen beworben, es gibt ständig neue Wunderprinzipien, Wunderkabel, Wunderständer, alles zu Phantasiepreisen. Aber die Physik ist weiterhin böse. Gute Lautsprecher sind groß, schwer und inkompatibel mit der Innenarchitektur, die Farbe ist allerdings beliebig.

Die Musik ist selbst nicht fähig zur Erkenntnis ihrer Fundamente. Der Fragende und Forschende macht sich da schnell unbeliebt.

Abweichler werden in der Wissenschaft mit Spott und Hohn bedacht, gelegentlich aber durchaus mit Hass. Neuerungen, an denen etwas dran ist, setzen sich durch, einfach weil die Alten sterben. Nicht so in der Musik. Bölsche warf Eimert aus dem Musikkonservatorium hinaus, der Grund war ein Zwölftonstreichquartett nebst der dazugehörigen "Atonalen Musiklehre".

Jens Jensen schrieb in der Zeit: "die Geisteswissenschaftler geben den sprachlosen Naturwissenschaften eine Sprache ...". Galileo Galilei schrieb: "Die Natur spricht die Sprache der Mathematik: die Buchstaben dieser Sprache sind Dreiecke, Kreise und andere mathematische Figuren". In der Mathematik hat man die exakteste Sprache gefunden, die sich nur denken lässt, heute mehr algebraisch als geometrisch. Herr Jensen hätte - sicher für ihn selbst völlig unerwartet - Recht, wenn nur die Mathematik den Geisteswissenschaften zuzurechnen wäre.

In der Musik ist oft die Rede von der Logik. Bei näherem Hinsehen handelt es sich dabei stets um Vereinbarungen, Satzungen oder gar unbewusste Gewohnheiten.

In der Musik ist nie die Rede von Soziologie oder Ökonomie. Denn es sind dies gewichtige Faktoren der musikalischen Produktion.

Ein Mathematiker bemerkte neulich, dass der Stand des mathematischen Wissens der breiten Öffentlichkeit sich etwa auf dem Niveau der Antike bewege. Eigentlich lasse sich das Gewusste sowieso nur unter dem Namen Rechnen zusammenfassen und habe mit Mathematik rein gar nichts zu tun.

Oft ist vom musikalischen Einfall die Rede, von der Inspiration. Der Komponist Hindemith hat mit seinen Schülern dazu experimentiert. Es sollten spontane Ideen notiert werden. Durch gegenseitige Kritik kam schnell heraus, dass nach Abzug aller Ausarbeitung nur eine Handvoll Töne als originärer Einfall übrig blieb. So kann man immer noch von 1 % Inspiration und 99 % Transpiration sprechen.

Die Musik ist auf einer Fahrt weg von der Masse der Hörer. Die amtliche Legende beginnt mit Wagners "Tristan". Fachleute schüttelten nur den Kopf. Die Musiker waren selbst nach der zwanzigsten Probe nicht zu einer Aufführung in der Lage. Erst die finanzielle Hilfe durch Ludwig II machte diese sehr verspätet überhaupt möglich. Heute ist die harmonische Kühnheit dieses Werkes kaum noch nachzuvollziehen. Weiter geht es mit Strawinskis "Sacre du Printemps", einem geplanten Uraufführungsskandal, bei dem es sogar zu Tätlichkeiten zwischen Gegnern und Befürwortern gekommen sein soll. Das Kalkül des Impressarios Diaghilev verstand der junge Strawinsky damals noch nicht. Ein Skandal war der Sache noch nie abträglich. Das nie ganz fertiggestellte "Tuning up" von Varèse mokiert sich über die Hörer, die beim Einsetzen etwas modernerer Musik glauben, es würden immer noch die Instrumente gestimmt. Die Musiker tun dies in diesem Werk fast die ganze Zeit, neben der Schlagzeugbatterie und den unvermeidbaren Sirenen. Man kann das weiter verfolgen, bis zu Ligetis frühen Orchesterwerken und Stockhausens "Helikopter Quartet". Es wird schon wieder werden mit der Publikumsgunst. Dies wohlmeinende Hoffen tut der Musik nicht Gutes. Es kann eben nicht werden, wenn die Musik irgend etwas Wahres über den Zustand dieser Welt sagt.

Der Komponist Lachenmann meint, dass es keine weißen Flecken auf der Landkarte der Klänge mehr gäbe. Was ist aber Klang und wie ist er zu kartieren? Dafür gibt es noch nicht einmal den Ansatz einer Theorie, insofern ist die These ziemlich mutig. Lachenmann hat sich wohl nie mit Elektronischer Musik auseinandergesetzt.

Die graphischen Benutzeroberflächen mit Fenstern, Menüs und Maus stammen aus Forschungen am "Xerox Palo Alto Research Center" um 1970. Inzwischen dominieren sie die Mensch-Rechner Interaktion so weit, dass manche gar nichts anderes mehr kennen. Programmierer müssen graphische Elemente deshalb auch dann anbieten, wenn es keinen Sinn macht. Die Maussteuerung ist hilfreich, wenn es um die seltene, einfache, geometrisch ungenaue Interaktion von nur wenigen Objekten geht, zum Beispiel um das Löschen einer bestimmten Datei. Professionelle Anwendungen erzeugen oder benötigen aber oft Hunderte oder Tausende von Dateien. Es ist auch nicht immer klar, wie diese heißen und wo sie sich befinden. Es sind sehr oft wiederholt und in Abhängigkeit von Ergebnissen seine ganze Reihe von Aktionen notwendig. Einen Regler um nur wenige Grad zu drehen, wird mit der Maus zum Geduldsspiel. Für solche Aufgaben ist die Tastatur mit Konsole viel besser geeignet. Es gibt zahlreiche Programme, die damit Befehle entgegennehmen können, die Symbole und Abkürzungen auf tatsächlich vorhandene Dateinamen expandieren und die ganze Folgen solcher Befehle in kleinen Programmen ablaufen lassen. Hieraus haben sich spezielle Interpretersprachen wie z. B. "Perl" entwickelt. Sie helfen bei der automatischen Verwaltung und Prozessierung von Daten. Statt dessen wird weiterhin herumgeklickt, bis die Finger schmerzen.

Er habe keine Ahnung von der Elektroakustik. Dies erklärte mit abwertendem Tonfall ein Komponist neulich in einem Bildungsblattinterview. Einmal versuchte er es aber dann doch mit Lautsprechern. Es klang furchtbar.

Stockhausen hat einmal die Wellenformen des "EMS Synthi 100" als langweilig bezeichnet. Mehr oder weniger regelmäßige Oszillationen und mit ihnen eine große Klasse von elektronischen Instrumenten werden damit abgetan. Wer nur einmal hörte, was Stockhausen schon 1956 klanglich aus der Tonbandverarbeitung herausdestillieren konnte, wird diese Einschätzung teilen.

Es wird oft gesagt, Elektronische Musik basiere auf plakativen Effekten. Was aber anderes ist der juchzende Bogenstrich, die rasende Kadenz auf der Tastatur, die große Geste in der althergebrachten Musik?

Die schlimmsten Störungen in Konzerten sind Mobiltelefone und das Husten. Während der GSM-Empfang schon durch einen kleinen Störsender zuverlässig unterdrückt werden kann, ist dies mit der Husterei nicht möglich. Ein Dirigent sah sich kürzlich sogar genötigt, die Darbietung abzubrechen. Dilletanten auf dem Gebiet des Konzerthustens räuspern sich nur, oder verausgaben sich schon beim ersten Stück, so dass sie weiterhin nur noch zu leisem Röcheln fähig sind. Der professionelle Huster arbeitet dagegen stets an seiner maximalen Penetranz und Ausdauer. Er kennt jede Pianissimostelle auswendig, in die zu husten sich lohnt. Manch einer hat schon unter allen berühmten Dirigenten gehustet. Ein anderes Phänomen ist das programmatische Husten. Es war ein Konzertabend mit Tschaikowsky und Schönberg, Hustenbonbons wurden überall kostenlos gereicht. Bei der Musik des als "Kunsthandwerker" geschmähten war es auch dementsprechend ruhig, bei Schönbergs "Verklärter Nacht" dauerte es aber nicht lange, bis die Nebengeräusche zur Höchstform aufliefen. Beim Ausklang mit "Kunsthandwerk" war es wieder ruhig. Das erlaubt nicht die Erklärung, dass mit steigender Dauer des Stillsitzens der Hustenreiz schlimmer werde. Dass die Vorräte an Hustenbonbons etwa aufgebraucht waren, kommt auch nicht in Frage. Obwohl "Verklärte Nacht" von 1899 sicher nicht die revolutionärste Komposition Schönbergs ist, so kündigt sie das Kommende bereits an. Der brave Bürger reagiert seit je verstört darauf, den Zustand der Welt in der Musik wiederzuerkennen.

Die lineare Systemtheorie kann große Erfolge verbuchen. Ermöglicht werden diese auch durch die Laplace- bzw. Fouriertransformation. Nachteilig ist dabei die fehlende Lokalisation der Basisfunktionen. Sinus und Kosinus sind zeitlich unendlich ausgedehnte Funktionen. Für statische oder langsam modulierte Wellenformen, wie wir sie bei Radiowellen vorfinden, ist dies kein Problem. Es ist ohnehin unproblematisch, wenn man Hin- und Rücktransformation nur zur Rechenzeitersparnis anwendet. Audiosignale sind jedoch schnell moduliert, Träger und Modulator liegen in überlappenden Frequenzbereichen. Im besten Fall sagen uns die genannten Transformationen dann nur, welche Frequenzkomponenten in einem solchen Signal enthalten waren. Aber sie sagen uns nicht wann. Die Mathematik hat daher um 1980 die Wavelet-Transformation hervorgebracht, die sowohl Frequenz- als auch Zeitauflösung bietet. Weiterhin gilt die Unschärferelation: gesteigerte Frequenzauflösung geht immer zu Lasten der Zeitauflösung und umgekehrt. Die Wavelet-Transformation erlaubt hierbei den günstigsten Kompromiss zu wählen. Dessen ungeachtet fährt man unbekümmert weiter fort, Audio-Signale mit ungeeigneten Transformationen zu analysieren. Man wundert sich nur gelegentlich über die schlechten Ergebnisse und passt dann Modelle mit Gewalt an den ungünstigen Befund an. 20 Jahre Verzögerung zwischen mathematischer Forschung und Eingang in die Praxis ist aber eher noch ein guter Wert.

Shannon, Kotelnikov, Whittaker, Nyquist, Rabe und sicher noch weitere haben in den 20er und 30er Jahren des letzten Jahrhunderts unabhängig voneinander das Abtasttheorem bewiesen. Der Beweis liegt nicht tief. Demnach ist jede veränderliche Größe durch genügend häufiges Abtasten repräsentierbar. Dies gilt auch für Audiosignale. Die entstehende Zahlenfolge zusammen mit der Angabe der Abtastrate enthält die komplette Information. Ein eher praktischer Gesichtspunkt ist, dass eine Rasterung der Abtastwerte schon in einige hunderttausend Stufen ausreichend ist. Damit reduziert sich die Aufgabenstellung der Elektronischen Musik auf die Bereitung von sehr langen Folgen aus ganzen Zahlen. Dies klingt einfach und erweist sich doch als äußerst schwierig. Eine Sekunde Audio mono bietet rechnerisch sehr viele verschiedene Folgen. Für ihre Zahl gibt es keinen Namen, sie ist größer als eine 1 mit 176.000 Nullen dahinter. Es gibt keine Theorie, die interessant klingende Folgen von uninteressanten unterscheiden könnte. Sehr viele voneinander verschiedene Folgen klingen ununterscheidbar gleich, das ist sicher.

Die für die Musik bedeutendste Erfindung des 20. Jahrhunderts ist das Magnetophon. Nichts weniger als Zeit und Kausalität sind damit aufgehoben.

Es ist oft die Rede von der "klassischen Musik" oder schlicht und schlimmer von "Klassik". Kaufleute brauchen eine Schublade, in die sie die Ware einordnen können. So entsteht der Begriff im Branchenjargon. Dieser umfasst die gesamte abendländische Kunstmusik, also die sogenannte "ernste Musik". Bach, Beethoven oder Bartok, das ist für Krämer alles einerlei. Da den meisten Hörern die alte und die neue Musik und zunehmend die gesamte ernste Musik überhaupt unbekannt ist, kommt es auf eine Unterscheidung auch gar nicht mehr an. Kulturprogramme im Radio bedienen sich dieser Ausdrucksweise schon lange. Es ist der sozialen Sachlage entsprechend. Die enge Verbindung dieser Anstalten zum Marketing wirkt auch in der Sprache sich aus. Die klassische Musik im eigentlichen Sinn wird aber immer noch von den drei Sonnen Haydn, Mozart und Beethoven gebildet, mit ihrem Planentenschwarm von Meistern. Ob der Stern Schubert noch zu diesem Gravitationssystem gehört, ist bereits strittig.

Die berühmte "kopernikanische Wende" hat es nie gegeben. Den Druck von "De revolutionibus orbium coelestium" hielt Nikolas Koppernigk erst auf dem Totenbett in Händen, versehen mit einem entstellenden Vorwort aus fremder Feder. Das Werk wurde zu seiner Zeit völlig ignoriert. Denn die Annahme von Kreisbahnen um die Sonne war weder mit den Beobachtungsdaten vereinbar noch neu. Schon bei Aristarchos im dritten Jahrhundert v. Chr. lässt sich so ein Modell finden. Gegenüber der Lehre des Ptolemäus war auch kein Fortschritt in der Erklärung der Bewegungen zu verzeichnen. Kepplers Ellipsen passten zwar besser zu den Daten, aber niemand wusste warum. Die Vorbehalte der Kirche waren also nicht allesamt unsinnig. Erst Newton konnte mit seiner Mechanik eine geschlossene wissenschaftliche Theorie anbieten, die die Kepplerbahnen halbwegs erklärt. Das Sonnensystem besteht aber aus mehr als zwei Körpern. Poincaré fand 1912 heraus, dass so ein dynamisches System deterministisch chaotisch ist. Die Bahnberechnung über viele Millionen Jahre hinweg wird damit unmöglich. Die Bahnen sind nicht geschlossene Kurven und damit keine elementare geometrische Figuren. Selbst bei einem reinen Zweikörpersystem ähneln nach Einstein die Bahnen Spiralen, bis zum Absturz.

Die Möglichkeit, dass Noten manche Musik beschreiben können, ist bereits das Resultat einer Beschränkung.

Manche halten die Elektronische Musik für ein seit langem gescheitertes Vorhaben. Das Ziel der freien Klangestaltung ist bis heute nur unzureichend umgesetzt worden. Es gibt, fast paradox, als spiritus loci den typischen Klang der großen Studios, genau wie den spezifischen Klang der bisherigen Verfahrensweisen. Fest steht aber, dass viele Komponisten, die auch nur ein einziges Stück im elektronischen Studio realisierten, von dieser Erfahrung tief beeindruckt wurden. Der Musiker ist danach nicht mehr derselbe. Denn er musste wieder bei Null anfangen. Die bisherigen musikalischen Satzungen und die Beschränkungen der mechanischen Musikinstrumente entfallen. Die dadurch mögliche, tiefe Erkenntnis über das Wesen der Klänge und des Gehörs werden in keiner Kompositionsklasse vermittelt. Das musikalische Denken hat sich dadurch verändert. Ein guter Teil der Instrumental- und Vokalmusik nach 1953 zeigt deutliche Einflüsse dieser Erfahrungen. Schon allein deshalb war die Elektronische Musik nicht vergebens.

Stephen Reich äußerte sich unlängst in einem Interview über Arnold Schönberg. Dessen Musik sei überintellektualisiert, vor allem die späteren Kompositionen in der Zwölftontechnik. Er unterstellte dabei außermusikalische Motive, die Neuerung um der Neuerung willen und Ruhmsucht. Folglich werde diese Musik bald niemand mehr hören wollen. Diese Art der Kritik ist uns seit langem bekannt und zwar aus der völkischen Ecke. Man hätte nicht erwartet, gerade solche Äußerungen nun von Reich zu hören. Reichs "minimal music" ist ununterscheidbar nahe an die Popmusik gerückt und damit zweifellos massenkompatibler. Schönbergs Musik wird immer noch kontrovers diskutiert werden, wenn Reich längst vergessen ist.

Wenn man eine große Zahl von Werken der Elektronischen Musik kennt, so ist eine Stagnation unüberhörbar. Die bisher geübten Verfahren ergeben eben nur eine bestimmte Art und Anzahl von unterscheidbaren Klängen. So müssen sich Klangstrukturen zwangsläufig irgendwann wiederholen. Haben wir nun den Zustand der Neuen Musik ereicht? Die Instrumentalisten mühen sich seit mehr als 40 Jahren, die vom Komponisten geforderten, immer gleichen Quietsch-, Brumm-, Quäk-, Klapp- und Rauschklänge aus ihren mechanischen Instrumenten herauszuholen. Der logische Abschluss dieser Versuche ist die Zerstörung der Instrumente vor Publikum, auch dies erzeugt Geräusche. Man möchte dem Komponisten und Philosophen Adorno zustimmen, wenn er das Ende jeglicher Musik konstatiert, die Unmöglichkeit Neues zu erzeugen. Während die herkömmliche Instrumental- und Vokalmusik in einer Endlosschleife von Festival zu Festival rotiert, so besteht aber in der Elektronischen Musik wenigstens noch die Möglichkeit zur Neuerung. Dabei wird man vom Menschen ausgehen müssen, oder genauer: von den potenziellen Möglichkeiten seines Gehörsinns.

In Science-Fiction Filmen finden wir eine merkwürdige Mischung. Durch das Vakuum des interstellaren Raumes dringen Schallwellen zu uns, elektronische Effekte markieren Antriebsgeräusche und Laserwaffen. Diese Unmöglichkeit nimmt der Zuschauer nicht wahr, ebenso die Tatsache, dass es da draußen immer noch ein Oben und ein Unten gibt und die Akteure keinerlei Schwierigkeiten mit der Fortbewegung in der Schwerelosigkeit haben. Die primitiven elektronischen Effekte setzen sich im Unterbewusstsein fest, zum Schaden der Elektronischen Musik, die so unverschuldet in die Nähe des Banalen gerückt wird. Dazu gibt es Filmmusik mit mechanischen Instrumenten nach romantischer Manier oder es wird einfach nur bei Wagner oder Strawinski kopiert. Die Spezialeffekte hätte man, es fehlt nur ein anständiges Drehbuch. Es gibt Ausnahmen. In "Forbidden Planet" von 1956 ist die Filmmusik durch und durch experimentell elektronisch. Das Ehepaar Louis und Bebe Barron kreierte einen nichttrivialen Soundtrack. Es gibt Ähnlichkeiten mit den ersten freien elektronischen Stücken von Herbert Eimert und Robert Beyer. Die Musikergewerkschaft setzte durch, dass das Ergebnis nicht als Musik bezeichnet werden durfte, sondern als "Electronic Tonalities". Ein Oscar kam dann nicht mehr in Frage. Das Drehbuch ist nicht schlecht, denn es ist bei Shakespeares "Der Sturm" abgekupfert. Stanley Kubrick ging mit "2001: A Space Odyssey" einen anderen Weg. Ohne Erlaubnis des Komponisten benutzte man Ligetis "Requiem", "Atmospheres", "Lux Aeterna" und "Aventures", also zeitgenössische ernste Musik, als Kontrast dazu Richard Strauß "Also sprach Zarathustra", und Johann Strauß "An der schönen blauen Donau". Die Akteure kämpfen u. a. mit der Schwerelosigkeit und der Weltraum selbst ist völlig still. So etwas war wohl nur in England, abseits der US-Studio-Moguln möglich.

Die Ergebnisse der Naturwissenschaften sind nicht wahr, denn sie lassen sich nur widerlegen, nicht beweisen. Die Ergebnisse der Mathematik sind war, aber Tautologien. Die Geisteswissenschaftler schreiben wiederum verfälschend das ab, was andere schon falsch aufgeschrieben haben. Und Musik kennt keinen Begriff, ist also zu einer Aussage nicht fähig.

Der Sinuston ist laut Handbuch das Atom der Musik. Dies ist aber kein Satz der Mathematik oder Physik, sondern nur ein Modell der Physiologie des Innenohres. Im Experiment lassen sich Geräusche nicht in Sinustöne zerlegen.

Sie hören nun ein Konzert mit dem bekannten Interpreten X unter der Stabführung des berühmten Dirigenten Y. Es spielen die überragenden Z Sinfoniker. Wenn alles so bekannt, berühmt und überragend ist, wieso fühlt sich der Ansager im Radio genötigt, dies stets zu betonen?

 


 

Rückseite


© ZeM e.V. | ZeM Heft Nr. 27 - 2006

oblu obru
pix