pix
obl obr



 


 

Editorial

Auch dieses Heft steht noch ganz im Zeichen der Freiburger Fünfjahrfeier im Oktober letzten Jahres; Jubiläen werfen nun einmallange Schatten.

Nun gilt es in die Zukunft zu blicken, denn für ZeM Freiburg stehen im Herbst zwei wichtige Veranstaltungstermine an: für das Wochenende des 28. und 29. Oktober konnte die wunderschöne Elzhalle in Wasser angemietet werden und vom 15. bis 17. Dezember wird schon traditionell die Emmendinger Steinhalle mit klingender Elektronik beschallt. Zu beiden Veranstaltungen bittet die Redaktion (und der Vorstand) alle aktiven ZeM-Mitglieder schon jetzt um eine rege Teilnahme, was musikalische Produktionen, verbale Beiträge und vor allem organisatorische Mithilfe anbelangt. Nur wenn wir gemeinsam unsere Ideen und Vorstellungen einbringen, wird uns die Förderung der Elektronischen Musik und ein zufriedenes Gelingen zuteil werden.

Joachim Stange-Elbe

 

 


Dr. Joachim Stange-Elbe

Elektronische Musik im Spannungsfeld zwischen Computer und Kreativität

Dies ist die überarbeitete und geringfügig veränderte Niederschrift eines Vortrages, der am 9. Oktober 1994 im Rahmen der Fünfjahrfeier des Zentrums für Elektronische Musik e.V. an der Pädagogischen Hochschule gehalten wurde. Der Vortragsstil wurde in den Formulierungen weitgehend beibehalten. 

Die folgenden Ausführungen beabsichtigen keine Definitionsbestimmung der Elektronischen Musik; sie wird durchweg als eine Geisteshaltung verstanden. Folgende drei Thesen werden einer näheren Betrachtung unterzogen:

  1. Die Existenz der Elektronischen Musik in Abgrenzung zu einer Musik, die mechanisch erzeugtes Klangmaterial verwendet oder sich auf Natur- und Umweltgeräusche stützt,
  2. die Digitalisierung der Welt, verbunden mit einer Gleichschaltung alles irgendwie Vorkommenden und damit seiner Auflösung sowie
  3. die damit verbundene Vorherrschaft der technischen Medien, die als contrakreative Indikatoren auftreten. 

Bei jeder dieser drei Thesen werden scheinbare Erweiterungen musikalischer Möglichkeiten mit einer oder mehreren zum Teil gravierenden Einschränkungen einhergehen.

 

  1. Die Existenz der Elektronischen Musik in Abgrenzung zu einer Musik, die mechanisch erzeugtes Klangmaterial verwendet oder sich auf Natur- und Umweltgeräusche stützt

Die Elektronische Musik ist originär Rundfunkmusik, da sie als produktiver Zweig aus den Reproduktionstechniken des Rundfunks entstand. Getreu diesem Medium ist und blieb sie eine unsichtbare Musik im doppelten Sinne: Zum einen kann man fließenden Strom nicht sehen, höchstens fühlen, zum anderem bleibt jedweder Interpret bei einer Musikübertragung für den Rezipienten unsichtbar. Zudem ließen die Produktionsbedingungen der Elektronischen Musik in den fünfziger Jahren den Interpreten endgültig überflüssig werden. Die daraus resultierenden Aufführungsprobleme sind bis heute nicht gelöst. 

Bei der Elektronischen Musik der fünfziger Jahre und der Musique concrète, die sich ungefähr zur selben Zeit manifestierte, lassen sich zwei verschiedene Grundmaterialien feststellen: Bei der Elektronischen Musik waren dies Apparaturen, die in einer bestimmten Zusammensetzung Sinus-, Rechteck- oder Sägezahnwellen, Impulse oder Rauschen hervorbrachten. (Der Aspekt der militärischen Herkunft aller dieser "Klangerzeuger" soll an dieser Stelle wohl ins Gedächtnis gerufen, aber keiner weiteren Betrachtung unterzogen werden.) Bei der Musique concrète bestand das Grundmaterial aus allen erdenklichen Natur- und Umweltgeräuschen; die klanglichen "Rohstoffe" waren höchst unterschiedlicher Herkunft. Die Grundvoraussetzung zur Weiterverarbeitung dieses akustischen Rohmaterials war eine Aufzeichnung desselben auf ein oder mehrere Tonbänder. Gebunden an einen festen Träger konnte so das Material den Weiterverarbeitungsapparaturen zugeführt werden. Die Verarbeitung und Gestaltung vollzog sich schließlich durch Manipulation mit verschiedensten Filtern, Ringmodulatoren, Hüllkurvenoszillatoren und ähnlichen Apparaturen. Selbst der Tonträger diente durch Bandschnitte, unterschiedliche Ablaufgeschwindigkeiten, Kopien, Overdubs und Neuzusammensetzungen der strukturellen Gestaltung. Die maßgeblichen Kennzeichen dieser Produktionsbedingungen waren getrennte, vereinzelte Gerätschaften unterschiedlichster und auch zweckentfremdeter Herkunft, hier die unterschiedlichen Klangerzeuger, dort die verschiedentlichen Klangverarbeiter mit denen ein kontinuierlicher Tonraum erzeugt werden konnte und die Verfügbarkeit neuer Klänge, neuer bisher nicht gekannter Klanglandschaften, die das konventionelle Hörerlebnis entscheidend veränderten und bereicherten. 

Bei der Verteilung des Klanggeschehens auf mehrere Lautsprecherkanäle diente der hier entstandene Raumklang als kompositorisches Konstituens. Durch die Einbeziehung der räumlichen Klangverteilung fand eine Trennung der Elektronischen Musik von ihrem Ursprungsmedium statt: sie fand den Weg in die Konzertsäle, die sich bis auf eine Ausnahme, dem von der Bundesrepublik Deutschland zur Weltausstellung 1970 in Osaka gebauten und von Karlheinz Stockhausen maßgeblich initiierten Kugelauditorium, als unzulänglich erwiesen. Trotz intensiver Bemühungen - nicht nur seitens Stockhausens -  dieses einzigartige Bauwerk der Mit- und Nachwelt zu erhalten, wurde das Kugelauditorium nach Ende der Ausstellung abgerissen und nicht wieder aufgebaut. Im gängigen Konzertbetrieb führen die Elektronische Musik sowie die Musique concrète bis heute ein Schattendasein. (Auf den Aspekt der Live-Elektronik sei, obgleich auch sie nur einen marginalen Stellenwert im Konzertleben einnimmt, in diesem Kontext nicht weiter eingegangen.) Seit ihren Anfangsjahren gehören die Rezipienten der Elektronischen Musik selbst innerhalb der zeitgenössischen Musik zu einer kulturellen Diaspora. 

Mit dem Bau der ersten Synthesizer ging eine beginnende Normierung der Herstellungsbedingungen für Elektronische Musik einher. Diese Instrumente stellen eine Auswahl an Klangerzeugungs- und -verarbeitungsmodulen zur Verfügung: Klangoszillatoren liefern den Rohstoff, die Verarbeitungsapparaturen sind integriert und im Gegensatz zu den bisher offenen Systeme der einzelnen Apparaturen miteinander verschaltet. Die Geräte bieten den Vorteil der Kompaktheit, einer räumlichen Ungebundenheit sowie einer - lediglich bedingten - Livespielbarkeit. Da ein Instrument nur einen kleinen Teil des klanglichen Rohstoffes sowie unterschiedliche Manipulationsmöglichkeiten und Einschränkungen in der polyphonen Stimmenanzahl zur Verfügung stellte, wuchs die Zahl unterschiedlicher Synthesizer sehr rasch. Hiermit ging die Entwicklung eines ungeheuren Absatzmarktes einher, der mit der Elektronischen Musik technisch wie ästhetisch an sich nichts mehr zu tun hatte und nicht ohne Auswirkung auf die Art der Instrumente sein sollte. Aus vereinzelten, nun fest verbundenen Geräten wurden spielbare Instrumente, wobei die Bedienung durch Tasten, und die Tonhöhensteuerung durch eine Klaviatur vorgenommen wurde. Bei dem kontinuierlichen Frequenzspektrum, das die Elektronische Musik zur Verfügung stellt, einem Denken in Klangfarben und einer Abkehr vom organisierten Tonhöhenprinzip, ist eine Tastatur jedoch ein obsoletes Steuerungsinstrument. Eine Klangauslösung durch Tasten muß zwangsläufig ein starres System bilden, das zwar teilweise durch Umstimmung und die Benutzung des Pitch Bend Wheels umgangen werden kann, jedoch wird die Freiheit aller Frequenzen nicht mehr in ihrer Ganzheit zur Verfügung gestellt; nach der temperierten Stimmung wurde hier eine neuerliche Auswahl aus einem vorhandenen Material getroffen, mußten sich die Musiker wenn sie diese Instrumente benutzen wollten einer durchaus massiven Einschränkung unterwerfen. 

Da ein Abspeichern der Klänge bei den ersten Synthesizern nicht möglich war, führte dies bei intensiven Benutzern oftmals zu einer ungewollten Anzahl von ein und demselben Instrument, da an jedem Gerät für eine bestimmte Klangeinstellung die Regler festgeklebt wurden. Außerdem waren die Instrumente verschiedener Hersteller untereinander nicht kompatibel, ein Nachteil gerade für den Livebetrieb, denn ein Spiel auf zehn verschiedenen Tastaturen ließ sich auf der Bühne nicht realisieren. Nicht zuletzt wurde aus diesen Problemen des Livemusizierens der MIDI-Standard geboren, einer Norm, die sich aufgrund ihrer Formalisierung musikalischer Daten ebenfalls zu einem starren System entwickelte. 

Mit MIDI wurde dem Kontinuum der Elektronischen Musik weitere einschränkende Parameter verordnet, bezeichnenderweise zeichnete hierfür die Industrie verantwortlich. Die Musiker haben diesen Standard bis heute mehr oder weniger dankbar geschluckt; lieber schalteten sie ihren Instrumentenfuhrpark gleich, als daß sie gegen die Industrienormen zu Felde zogen. Bei allen unbestreitbaren Vorteilen die MIDI auch bietet, begaben sich die Musiker in ein Hörigkeitsverhältnis gegenüber der Industrie, begannen sie sich jedoch mehr und mehr mit "Apparatur[en] [zu umgeben], die über die ästhetische Produktion bestimmt[en]" (Friedrich Kittler, Gleichschaltungen. über Normen und Standards der elektronischen Kommunikation, in: INTERFACE. Elektronische Medien und künstlerische Kreativität, Hans-Bredow-Institut 1992, S. 175ff.). Rasterlose Drehknöpfe wurden durch MIDI in vorgegebene Zahlenwerte aufgerastert, um digitalisiert werden zu können, der Tonhöhenumfang in 128 Schritte unterteilt, bei einem kontinuierlichen Frequenzspektrum, das auch diese Instrumente in sich bergen, ein Rückschritt von geradezu skandalös reaktionären Ausmaßen. Angesichts des schon erwähnten Abschieds der Elektronischen Musik von einer im traditionellen Sinn bewußt gestalteten Tonhöhe, hin zu der Etablierung eines Denkens in Frequenzen, muß sich diese Norm sich als Prokrustesbett für innovative Elektroniker erweisen. 

Im Hinblick auf das Trautonium, das seit den zwanziger Jahren auf das Steuermodul Tastatur aus Gründen des freien Frequenzspektrums bewußt verzichtet, ist gerade die Klaviatur eines Synthesizers ein ästhetischer Rückschritt, ausgelöst durch das immer noch Zirzensische des Livemusizierens, das mit der Entwicklung der Elektronischen Musik überwunden schien und den technischen Fortschritt der Digitalisierung. Spätestens hier muß die radikale Unterscheidung zwischen den ästhetischen Prinzipien der Elektronischen Musik und einer mit Hilfe von elektronischen Klangerzeugern erzeugten, auf rein ökonomische Konsumierbarkeit ausgelegten Musik getroffen werden, ein Gedanke, der im Folgenden einer noch näheren Betrachtung unterzogen werden wird.

 

2. Die Digitalisierung der Welt und ihrer damit verbundenen Auflösung

Die Digitalisierung wurde und wird durch die rasante Entwicklung und Privatisierung der Computer, durch die zunehmende Verfügbarkeit von Rechenkapazität und Speicherplatz noch weitere Möglichkeiten eröffnen. Am Ende dieser fortschreitenden Mathematisierung und Digitalisierung ist das Fazit zu ziehen, daß heute im Prinzip alles digitalisiert und gespeichert werden kann. Damit verbunden ist ein zunehmender Verlust der Ehrfurcht vor der Realität: "Technische Normen und Standards verdrängen den Menschen als Maß aller Dinge" (Peter Zec, Interface. Kunst und Technik im Zeitalter der elektronischen Kommunikation, in: INTERFACE. Elektronische Medien und künstlerische Kreativität, a.a.O., S. 7ff.). So wurde bei der Einführung der Roboter bei einem bekannten deutschen Autohersteller eine extra klimatisierte Halle mit einer konstanten Temperatur von 19 °C gebaut, während in den Nachbarhallen die Werktätigen an den Bandstraßen bei unerträglicher Hitze reihenweise kollabierten. Ebenso läßt sich als Beispiel der Erste Weltkrieg anführen, in dem erstmals eine Unterordnung der Soldaten unter neue Massenvernichtungssysteme praktiziert wurde. 

Auch die geistigen Verhaltensweisen bleiben von der massiven Technisierung nicht unberührt. So gibt der Kultursoziologe Neil Postman in seinem Buch Das Technopol. Die Macht der Technologien und die Entmündigung der Gesellschaft folgendes zu bedenken: »...wir achten auch nicht darauf, welche älteren Fähigkeiten bei dem Erwerb neuerer Fähigkeiten verloren gehen ... was kann man ohne Computer und was geht verloren, wenn man sie benutzt" (Neil Postman, Das Technopol, Frankfurt M. 1992, S. 131.). Es ist ein Verlust der Selbstachtung vor seinen eigenen, auch unvollkommenen menschlichen Fähigkeiten, bei gleichzeitigem Zugeständnis an unvollkommene Fähigkeiten des Computers: eine klassische übertragungssituation. Dies kann, um noch einmal mit Postman zu sprechen, sogar so weit führen, daß "das Vergangene, das der technologischen Innovation im Wege steht ... nicht mehr bewahrenswert [ist]; die Zukunft braucht keine Verbindung mehr mit der Vergangenheit zu haben ... Zu jeder Tradition gibt es technologische Alternativen" (ebenda, S. 62f.). Seit die Virtual Reality einen neuen Wald ermöglicht, scheinen noch bestehende Wälder nicht mehr bewahrenswert, sie können sterben; das Thema Waldsterben stößt in der Öffentlichkeit schon lange auf kein gebührendes Interesse mehr. 

Die Digitalisierung stellt zunächst eine Übertragung von Daten in den einfachsten aller Codes, den Binärcode dar. Mit diesem Code scheinen bei erster Betrachtung auch komplexe Daten verarbeitbar zu sein. Wir sollten uns jedoch davor hüten zu glauben, daß der Computer etwa die Komplexität einer Integral- oder Differentialrechnung vergleichbar unserem menschlichen Hirn erfassen kann; das Elektronenhirn zerlegt die Komplexität in immer einfachere Schritte, sie wird aufgelöst, bis der Binärcode, der nur zu addieren imstande ist, den Rechenvorgang resp. die Rechenvorgänge durchführen kann: denn eines muß man sich immer vor Augen führen, der Computer ist zwar ein Rechner, aber er kann nur addieren; dies freilich in einer solchen Geschwindigkeit, daß wir von diesem Auflösungsvorgang intern nichts bemerken. 

Nun bedeutet Auflösung aber "Verschwinden"; am Beispiel der Integral- oder Differentialrechnung, wird das Problem der Komplexität aufgelöst, es "verschwindet". (Vielleicht ist diese Art des unbewußten Umgangs mit Problemstellungen ein Grund für ein im Verschwinden begriffenes generelles Problembewußtsein heute.) Es gilt festzuhalten, daß eine zunehmende feinere Auflösung bei der Aufrasterung analoger Daten in ihre digitale Form zum Verschwinden der Realität zugunsten eines digitalen Scheins führt. 

Innerhalb der Betrachtung unseres Musikinstrumentariums, konnten durch die Digitalisierung die Klangeinstellungen endlich abgespeichert werden; die Klänge waren damit auch vorfertigbar. Eine zunehmende komplexere Bedienung der Instrumente führte dazu, daß Klänge kaum noch nach eigenen Bedürfnissen individuell zusammengestellt werden. Die Tiefen der Instrumente werden kaum ergründet, mühevoller Arbeit stehen neue, uns Verbesserungen versprechende Instrumente gegenüber, die bereits auf dem Markt sind, bevor man die oft telefonbuchstarke Bedienungsanleitung des alten Gerätes gelesen und verstanden hat. Bei dem marktpolitisch geschickten Timing der Neuentwicklungen ist man unversehens in den Fängen der Abhängigkeit eines neuen medialen Wahns gelandet. Wir sehen uns nicht nur einer Flut aus vorgefertigten Klängen, sondern auch der Flut eines Instrumentariums gegenüber, das gekauft sein will; ein Schwall neuer Geräte, Klänge und technischer Information überschüttet uns. Wir degenerieren zu Abrufern von vorgefertigtem Material, wir schaffen uns dieses nicht mehr originär selbst: "[Die] Informationsflut schränkt [unsere] eigene Entscheidungskraft, eigene Kreativität ein" (Neil Postman, a.a.O., S. 132.); unsere Kreativität begnügt sich in der Manipulation von Vorgegebenem. 

Die Auseinandersetzung mit Elektronischer Musik weicht einer Diskussion um technische Fortschritte und Details. Kommerzielle Geräte sind für bestimmte Funktionen ausgelegt, für bestimmte Benutzer, deren Bedürfnisse wohlbekannt sind. Elektronische Musik ist hierbei nicht gefragt; jedoch wollen Künstler und Wissenschaftler über Werkzeuge verfügen, die ihnen die Art von Freiheit geben, die sie brauchen: entweder um sich selbst auszudrücken oder um die Probleme adäquat repräsentieren zu können. MIDI Equipment ist dagegen das, was Yamaha oder Roland zur Verfügung stellen, sie legen die Architektur fest, und schreiben vor, wie damit umzugehen ist. Es ist ein Weg, den die jeweilige Firma vorgegeben hat. 

Die Digitalisierung der Welt läßt Natur- und Umweltgeräusche genauso zur digitalen Information werden wie die rein elektronisch erzeugte Klangwelle bis hin zu ganzen Klangereignissen. Hier findet eine fatale Gleichschaltung von elektronischem und analogem Klang- und Geräuschvorkommen statt; es liegt kaum noch eine Unterscheidbarkeit vor, denn der analoge Klavierklang, das Zwitschern eines leibhaftigen Vogels können ebenso zur digitalen Wellenform werden wie ein elektronisch erzeugter Klang. Herkunft, Auswahl und Verwendung der Klänge wird verwischt, Material ist im Überfluß vorhanden, vorherrschend ist die gedankenlose Selbstbedienung, der Ausverkauf. (Dies ist - nebenbei bemerkt - vielleicht auch ein Grund für das Verschwinden der Frequenzmodulation als Klangerzeugungsprinzip, da sie im Gegensatz zum zeitgenössischen Synthesizer, die mit digitalisierten, einerseits elektronisch erzeugten, andererseits gesampelten Wellenformen arbeiten noch mühevolle Zusammensetzungsvorgänge vorsieht.) 

Der moderne Synthesizer - ein geschlossenes System - ist zu einem Sampleplayer mit Manipulationsmöglichkeit geschrumpft, der elektronische Klang zum Sample verkümmert. Die Frage, inwieweit digitalisierte Geräusche oder Instrumente überhaupt noch der Elektronischen Musik zuzuordnen sind, wirft schlagartig die Problematik der Begriffsverwendung "Elektronische Musik" auf, es hat geradezu den Anschein, als lasse die Digitalisierung sie verschwinden. Angesichts dieser Gleichschaltung droht ebenso der Unterschied zwischen Elektronischer Musik, der Klangrede im informationstheoretischen Sinne und einer elektronisch produzierten Musik zu schwinden. über neunzig Prozent aller heutigen Musik wird mit elektronischen Mitteln produziert ohne Elektronische Musik zu sein, denn kaum jemand würde wohl ernsthaft behaupten wollen, die elektronische produzierte Musik zur Vorabendserie sei Elektronische Musik. 

Spätestens bei der elektronisch produzierten Musik sind wir bei der Vorherrschaft der technischen Medien angelangt, deren Problematik mit einem Zitat des bekannten Informationstheoretikers Abraham Moles treffend charakterisiert ist: Die Elektronische Musik ist ein Phänomen, "die ihr Dasein der Technik verdankt". Als Produzenten sind wir "deshalb abhängig von dem Design der Hardware und der spezifischen Technik, die als grundlegende Konstituenten einer artifiziellen Wirklichkeit zu gelten haben ..." (A. Moles, Design und Immaterialität, in: Digitaler Schein, Hg. Florian Rötzer, Frankfurt M. 1991, S. 160ff.). Zur Benutzung gelangen hierbei die Interaktionsmedien Klangerzeuger, Computer und Softwareprogramme. Nach Moles "verfügen [wir] heute über eine größere Zahl von ... Interaktionsmedien, als wir sie uns in der uns zugemessenen relativ kurzen Lebensspanne zunutze machen können" (ebenda, S. 161.). Von einer ästhetisch künstlerischen Auseinandersetzung ganz zu schweigen.

 

3. Die Vorherrschaft der Medien, die als contrakreative Indikatoren auftreten

Mit ihrer Digitalisierung werden - wie schon festgestellt und beschrieben - alle analogen Signale in computerlesbare verwandelt, sie sind danach mit einem Computer manipulierbar. 

Eine Musik, die mit Hilfe eines Computers produziert wurde, muß nicht zwangsläufig Elektronische Musik sein, nur weil der Computer ein elektronisches Medium ist. Der Computer selbst dient ausschließlich als Verarbeitungs- und Speichermedium, entscheidend für die Gattung der Musik sind allein die Ausgabegeräte Synthesizer, Sampler, Soundkarte oder ein MIDI-Bösendorfer; und niemand wollte wohl ernsthaft in Erwägung ziehen, daß ein Bösendorfer Elektronische Musik produziert. 

Der Computer ist in erster Lienie ein Apparat der Normierung, denn er bietet die kleinstmöglichste Entscheidungsfreiheit, "0" und "1". Eine ideale Formalisierung für die Musikverarbeitung mit dem Computer stellte in diesem Zusammenhang die MIDI-Norm dar, mit ihr war ein Aufzeichnungssystem für die vom Klangerzeuger ausgegebenen digitalen Steuerdaten geschaffen. Im Computer stehen diese Daten dann zur vermeintlich freien Verfügung, denn die Verarbeitungsprogramme geben nur zu genau vor, was mit den Daten zu geschehen hat und was nicht: "[Das] Medium [Computer] als durchstandardisiertes Interface hat, lange vor jeder Einzelproduktion, nicht bloß diejenigen Entscheidungen bereits getroffen, die einstmals im freien ästhetischen Ermessen von Künstlern und Handwerkern lagen, sondern ... auch Entscheidungen, deren Effekte die Wahrnehmung gar nicht mehr kontrollieren kann." (Friedrich Kittler: a.a.O., S. 178.). Oder um nochmals den Kommunikationswissenschaftler Friedrich Kittler zu zitieren, "solange die ... Medienkünstler, statt die Normungsausschüsse zu besetzen und d.h. an der elementaren ... Voraussetzungen ihrer Produkte zu rütteln, diese Voraussetzungen einfach hinnehmen, liefern sie auch nur Eigenreklamen der jeweils herrschenden Norm." (ebenda.). 

Wir lassen unsere musikalischen Produkte quantisieren, lösen sie in vorgegebene Rasterungen auf, um ihnen hinterher mit "human quantisize" vorgetäuschte menschliche Aura ("human touch") zu geben. Bei der Quantisierung eines Tones in 96 Werte pro Sekunde, die angeblich voll ausreicht, um alle musikalischen Feinheiten ausdrücken zu können, stellt nach dem Medientheoretiker Norbert Bolz "die sinnesphysiologische Bedingung der digitalen ästhetik" dar; denn "selbst unsere Wahrnehmung ist digitalisierbar" (Norbert Bolz, Eine kurze Geschichte des Scheins, München 21992, S. 133.). 

Die Kreativität des Computers ist sein Zufallsgenerator, der "random access", ein weiterer Beleg dafür, wie nach Friedrich Kittler die Apparatur über die ästhetische Produktion bestimmt. Spätestens seit dem Krieg der Softwarehäuser untereinander um den besten Sequenzer - alles unter dem Gesichtspunkt einer elektronisch produzierten Musik, denn an Elektronischer Musik hat keiner der Softwareproduzenten wirkliches Interesse, das kann er schon aus ökonomischen Gründen nicht haben - beginnen sich technische Äußerlichkeiten zu verselbständigen, die mit Musik oder Audiokunst nichts mehr zu tun haben, ja sie geradezu als Marginalie ins Abseits drängen. Das technische Know-how verselbständigt sich, wird zum Selbstzweck, verdrängt die eigentliche ästhetische Auseinandersetzung mit den erzeugten musikalischen Produkten. So stellte Neil Postman schon vor Jahren fest, daß "das Spezialwissen derer, die eine neue Technologie beherrschen werden oft für eine Form von Weisheit gehalten [wird] ... bestimmte Fragen [ästhetischer Natur] werden nicht mehr gestellt" (Neil Postman, a.a.O., S. 19.). 

Verbunden damit ist eine Informationsflut, aber "ein Mehr an Information vermag die Probleme nicht zu lösen", vielmehr wird die "Information zum Mittel und Zweck menschlicher Kreativität" (Neil Postman, a.a.O., S. 70.). Postman bemerkt weiter, "die Information tritt wahllos und beliebig in Erscheinung, nicht an bestimmte Adressaten gerichtet, abgespalten von Theorie und Sinn, von Zweck und Ziel" (Neil Postman, a.a.O., S. 79.). Vielleicht hat sie einzig das Ziel, den Anforderungen der neuen Technologien sich anzupassen; wie das Beispiel der PC-Soundkarte veranschaulicht: Der (bewußt) kompliziert gehaltene Installationsvorgang hindert zunächst daran, zu den eigentlichen Dingen, dem hörbaren Sound zu kommen. Nach schließlich erfolgreichem Einbau muß man über jedes noch so schlecht klingende Ergebnis zufrieden sein. Der Computer im täglichen Leben erweist sich wieder einmal mehr als die größte Ablenkungsmaschine seit der Spielzeugeisenbahn. 

Mit der Diskussion um technische Gegebenheiten bringen wir aber die Elektronische Musik nicht voran, wir unterwerfen uns den Apparaten eher, als daß wir uns die Apparate zu musikalisch dienstbaren Werkzeugen formen: "Verwaltungsangestellten, Ingenieuren und Künstlern geht es heute nicht anders. Auch sie müssen sich den Computern am Arbeitsplatz bedingungslos unterordnen. Der Anpassungsprozess findet dabei in zahlreichen Schulungsveranstaltungen statt und wird als Weiterqualifizierung empfunden. Wenn es wirklich stimmt, daß Menschenwürde - wie [der Medienphilosoph Vilém] Flusser sagt - aus dem Automatismus emportaucht als das, ... was nicht automatisierbar ist, dann läuft der Mensch als Appendix einer gigantischen Informationsmaschinerie Gefahr, seine Würde zu verlieren. Und auch die Kunst, die Flusser als Menschenwürde bezeichnet, wird uns dabei nicht helfen können, solange sie selbst in einen Automatismus der Medien- und Informationstechnologie hineinfällt." (Peter Zec, a.a.O., S. 11.). 

Wir stellen unsere Kreativität zurück, zugunsten einer Abrufung von vorgefertigten Informationsfluten; der Computer bestimmt den Menschen als "Prozessoren zur Verarbeitung von Information" wie J. David Bolter in seinem Buch Der Turing Mensch bemerkt. Kritiklose Hingabe an das Medium Computer führt dazu, daß das Vertrauen in die menschliche Urteilskraft und Subjektivität schwindet: "Der Computer exhauriert die Kombinationsvielfalt und versetzt so den Artisten erstmals in die Lage, sich der Komplexität selbst gewachsen zu zeigen; seine ästhetische 'Subjektivität' reduziert sich auf Wahlakte angesichts der permutationellen Variationen eines Algorithmus. So führt uns die digitale Ästhetik am Ariadnefaden des Möglichkeitssinns in ein Jenseits von Zeichenbedeutung, Sinn und sujet. Doch dieser Ariadnefaden führt nicht aus dem Labyrinth des Möglichen heraus, sondern immer tiefer in die Welt des Kombinatorischen, Multiplen und der permutationellen Ereignisse hinein." (Norbert Bolz, Eine kurze Geschichte des Scheins, a.a.O., S. 134.).
 

 

 


Torbe Reyber

Die Synthesizerausstellung am 9.10.94 in Raum M 110 (2)
 

Die Fortsetzung des Artikels aus dem letzten Heft, aus Anlaß der Synzhesizerausstellung zum fünfjährigen ZeM-Jubiläum. Der Autor betreibt hier nicht nur eine bloße Auflistung der Geräte, sondern nimmt eine wertende, ungefähre Einordnung in vier Epochen (I - IV) vor. Weiter schreibt der Verfasser: "Ich habe dabei um eine Trennung von Fakten und meiner - vielleicht extremen - Privatmeinung (kursiv) versucht. Zum Schluß ... habe ich mir einige Gedanken über die zukünftige Entwicklung der elektronischen Musikinstrumente gemacht (V)". 
 
 

III. Die Sampler und Rompler (1983 - )

  • Sequential Circuits Prophet 2000 (1985, Sampler) 
  • Roland D70 (1990, 6-Oktaven-Masterkeyboard Rompler) 
  • Korg M1R (1989, Rompler Expander) 
  • Sequential Circuits Studio 440 (1986, Sampler Expander)
Die unter II beschriebene technische Festlegung der Instrumentenhersteller schlug sich auch in diesen Instrumenten nieder. Die Synthese blieb Filter-Subtraktiv, z.T. mit Multimode-Filter (D70), der VCO wurde einfach ersetzt durch einen Oszillator mit beliebiger Wellenform (Sample). 

Der Preis für Speicher (RAM, ROM) und Rechenleistung verfiel rapide. Damit wurde es kostengünstig möglich, gesampelte Klänge zu laden, oder selbst aufzunehmen (Sampler), oder wenigstens über reichlich unveränderliche Grundsamples (Rompler) zu verfügen. Das war ein Ausweg aus dem Klang-Einerlei der alten polyphonen Synthesizer, allerdings nur was den Grundklang angeht. Die Samplingtechnik ermöglichte es zum ersten Mal, die ungeheuer komplexe reale Klangwelt durch bloße Aufnahme bequem in die Maschine zu bekommen. Allerdings gab es auch hierbei einige Haare in der Suppe (schlechte Loops, Mickey-Mouse-Effekt, beschleunigter Klangverlauf bei größerer Tonhöhe). 

Schon immer waren viele Synthesizer-Anwender hauptsächlich an der Imitation klassischer Instrumente interessiert, und nicht etwa an neuen Klangstrukturen, wofür zumindestens die Instrumente aus I eigentlich gedacht waren. Folgerichtig blieben diese Imitationsversuche kläglich. Diese z.T. schrecklichen Surrogate haben zu einer bis heute andauernden negativen Einstellung gegenüber der EM in den Kreisen der sog. "ernsten" Musik geführt. Diese versuchen auch vielleicht deshalb immer noch, neue Musik mit modifizierten klassischen Instrumenten zu machen. Man komponiert da lieber für wassergefüllte Blasinstrumente und Gitarren mit Ping-Pong-Bällen und ähnliche Abnormitäten, anstatt sich einfach der Elektronik zu bedienen.

Die Sampling-Technik brachte die Imitationen nun - zumindestens oberflächlich gesehen - zur Perfektion, woraus wiederum die bis heute andauernde große Beliebtheit und die große Anzahl auch neuester Sampler- und Rompler-Instrumente begründet ist. Die Nachbearbeitung der Samples durch die eingebauten Filter bringt nicht viel Neues. Der Klang kann nicht mehr bei der Wurzel gepackt werden. Man bearbeitet nur Vorhandenes, kann aber nichts Neues synthetisieren (einmal abgesehen von der Synthese-Software für Sampler, die Neues errechnen kann, allerdings nicht in Echtzeit). Zum Teil waren diese Instrumente bereits voll digital (D70), d.h. auch der Audiosignalweg wurde durch digitale Rechenoperationen dargestellt und die einzige analoge Komponente war der Digital-Analog-Wandler kurz vor der Ausgangsbuchse. Die Nebengeräuschproblematik entschärft sich dadurch, manchmal treten jedoch auch spezielle digitale Nebengeräusche auf (Alias- Effekte, Interpolationsrauschen). 

Enorme Schwierigkeiten macht nach wie vor das Nachbilden analoger Filter mit Hilfe von digitalen Algorithmen (schon theoretisch nicht unproblematisch!), und so ist es kein Wunder, daß z.B. der Prophet Sampler mit seinen analogen Filtern im Vergleich immer noch so gut klingt. 
 
 

IV. Die neuartigen Syntheseverfahren (1981 -  ) 

  • Yamaha DX7 (1983, Frequenzmodulation) 
  • Yamaha DX21 (1985, Frequenzmodulation) 
  • Yamaha SY99 (1991, Frequenzmodulation) 
  • PPG Wave 2.2 (1982, Wavetable-Interpolation) 
Ungefähr zeitgleich mit III machten sich einige wenige Leute Gedanken über neue Synthesemethoden. Die Wavetablesynthese des PPG war technisch nur ein kleiner Schritt weg von den alten polyphonen Synthesizern; der Oszillator wurde lediglich durch einen Wavetable-Interpolator ersetzt, d.h. aus einem Vorrat aus ROM (später auch RAM) Wellenformen konnte ausgewählt werden, und vor allem konnte zwischen den einzelnen Waves innerhalb einer Wavetable interpoliert werden. So entstand durch diesen kleinen Schritt Neues, bisher Unerhörtes, besonders mit einer aufwendigen Echtzeit-Steuerung der Interpolation. 

In völliges Neuland gingen die Yamaha-Ingenieure als 1982 die ersten Frequenzmodulations-Synthesizer vorgestellt wurden (DX1). In der frühen Variante gab es keine Filter und Verstärker mehr, sondern nur noch sechs Oszillatoren mit sinusförmiger Grundwellenform - Operator genannt - pro Stimme, die sich gegenseitig frequenzmodulieren konnten. Man setzte also ganz auf eine nichtlineare Methode. Diese wurde vollkommen digital realisiert und war enorm recheneffizient; für jeden Operator waren nur wenige Additionen und Multiplikationen sowie ein Tabellenzugriff pro Zeitschritt nötig. Ein digitales Filter ist dagegen ungleich aufwendiger. Das spätere Erfolgsmodell DX7 stellte somit den optimalen Kompromiß aus Fortschrittlichkeit und Wirtschaftlichkeit dar, was seinen ungeheuren Erfolg begründete. 

Die Verschaltung der Modulationswege (der sog. Algorithmus) war aus 45 Varianten wählbar. Später wurde die Methode dann erweitert, indem die Operatoren weitere Grundwellenformen bekamen. 

Mit der Einführung von nicht-sinusförmigen Wellenformen war - mathematisch gesehen -  die Bezeichnung "Frequenzmodulation" nicht mehr korrekt, man hätte von da an von "Phasenmodulation" sprechen müssen, was tatsächlich immer schon die verwendete Berechnungsmethode gewesen ist. Doch wie auch beim Begriff "Ringmodulator" kann man eine einmal eingeführte Bezeichnungsweise nicht mehr zurückziehen, wenn sie auch durch neue Techniken unzutreffend wird.

Bei den Spitzenmodellen war dann sogar der Algorithmus frei wählbar (SY99, SY77, TG77), man fühlte sich etwas an die gute alte Zeit der Patchcords erinnert. Die FM-Synthese ist sehr ausdrucksstark, man kann mit ihr z.B. sowohl konventionelle Sägezahn-Sounds als auch alle Arten von Glocken und Gongs sehr gut darstellen. Sogar sample-ähnliche Sounds sind möglich. Schon mit zwei Operatoren lassen sich sehr interessante, unerhörte Ergebnisse erzielen. Allerdings gibt es auch den Nachteil, daß durch die Nichtlinearität der Methode eine Vorraussagbarkeit des Soundergebnisses bei der Abänderung der Parameter sehr erschwert wird. Kurz, man ist mehr oder weniger auf Versuch und Irrtum bei der Neuerstellung von Klängen angewiesen, was dann entsprechend lange dauert. Da es aber sehr umfangreiche Bibliotheken von FM-Sounds gibt, kann man den Weg etwas abkürzen, indem man aus einem geeigneten Grundklang durch geschickte Variation den gewünschten Sound erhält. 

Der große Erfolg der Rompler in den neunziger Jahren hat dazu geführt, daß Yamaha von der reinen FM-Synthese abging, und RAM- und ROM-Samples nebst Multimodefiltern in den Spitzenmodellen miteinbezog (AWM-AFM).

Damit entstand also eine Mischform aus Sampler-Rompler und FM, wobei die Synthesearten nicht nur nebeneinander verwendet werden können, sondern sich sogar gegenseitig miteinbeziehen können (z.B. Grandpianosample frequenzmoduliert Operator 1). 
 
 
 

V. Ausblick 

Die Einführung der digitalen Frequenzmodulation kann als zweiter Meilenstein in der Entwicklung der elektronischen Instrumente betrachtet werden. Das Tor zur Welt der volldigitalen Echzeitsynthese war weit geöffnet worden und gleich die erste große Expedition in diese neue Welt (DX7) hatte überwältigenden Erfolg. (Natürlich gab es schon vorher volldigitale Versuchsaufbauten, z.B. am IRCAM. Diese waren jedoch allgemein unbeachtet geblieben.) 

Allerdings habe ich den Eindruck, daß der Weg seitdem nicht konsequent beschritten wurde, trotz eines EMU-Morpheus, eines Yamaha VZ1 und eines Kurzweil K2000. Konsequent dagegen war die Idee eines Wolfgang Palm (PPG), die zu Ende gedacht eine digitale Synthesemaschine konzipiert, die alle bekannten Synthesemethoden auf einer einheitlichen Signalprozessor-Hardware nur in Form von Softwaremodulen realisiert. Dazu gehören Amplitudenmodulation, Phasenmodulation, Verzerrungsfunktionen (Waveshaping), Synchronisation, additive Synthese, diverse Filter und Delay-Oszillatoren (Karplus-Strong etc.). 

Außerdem stehen Softwaremodule für die Modulation des Klanges zur Verfügung, wie z.B. Midi-Interfaces, LFO, Hüllkurven etc. Der Signalweg, oder Algorithmus, wird dann durch eine "Verkabelung" der Softwaremodule mittels der Maus am Computer-Bildschirm festgelegt. (Eine solche Software wurde z.B. mit dem Programm "Avalon" realisiert, mit dem man - allerdings nicht in Echtzeit - Samples mit den genannten Methoden errechnen kann.) 

Wenn dann noch geeignete Schnittstellen, wie AD/DA-Wandler mit Sampling-Option, Fourier-Analyse und Hard-Disk-Recording, sowie digitale Schnittstellen bereitstehen, schließt sich der Kreis von V zu I. Denn eine solche Maschine wäre das moderne, digitale Pendant zu einem analogen Modulsythesizer wie unter I beschrieben, jedoch mit vielfach erweiterten Möglichkeiten. Sie vereinbart die Freiheiten der damaligen analogen Geräte mit der heutigen digitalen Klangperfektion und Computersteuerung. Eine solche Maschine wäre sowohl in der Rechenleistung als auch in der sonstigen Austattung flexibel skalierbar. Nach einem Baukastensystem könnte Hard- und Software angeschafft und hinzugekauft werden. Eine solche Maschine entspräche schließlich dem heutigen Stand der Technik. 

Ich bedanke mich bei allen Mitgliedern, die Instrumente aus privaten Beständen ausgestellt haben: Dr. Walter Birg, Michael Frings, Rainer Fiedler, Klaus Weinhold sowie insbesondere bei Manfred Baumann, der den Großteil der Exponate beisteuerte. 

 

 


Dr. Walter Birg

Ein Wegbereiter Algorithmischer Komposition:
Joseph Schillinger

Ich möchte heute das Augenmerk auf einen Mann richten, der es verdient, wiederentdeckt zu werden. Es handelt sich um Joseph Schillinger, einen Komponisten, Mathematiker, Naturwissenschaftler und großen Pädagogen der Musik. Obwohl Schillinger ein geradezu riesiges theoretisches Werk hinterlassen hat, kennen ihn nur wenige, selbst in Kreisen der Musikwissenschaft ist er so gut wie unbekannt. Dies ist vielleicht dadurch bedingt, daß sein Werk sehr mathematisch orientiert und damit nur wenigen zugänglich ist. Immerhin hat Schillinger, der von 1895 - 1943 lebte, eine Reihe von Schülern gehabt, von denen der bekannteste kein geringerer als George Gershwin war. Von seinen Kompositionen soll nur die First Airphone Suite, op.21, für RCA Theremin and orchestra (1929) erwähnt werden, die zeigt, daß sich Schillinger schon früh mit der elektronischen Musik seiner Zeit beschäftigt hat. 

Wichtiger als seine Kompositionen sind für uns seine theoretischen Werke, von denen besonders die beiden Bände The Schillinger System of Musical Composition (bei Carl Fischer, New York, 1941 erschienen), und sein Buch The Mathematical Basis of the Arts, (Philosophical Library, New York, 1948) erwähnt sein sollen. Daß er auch wichtige Aufsätze wie Electricity, a Liberator of Music veröffentlichte, zeigt, daß er sehr genau die großen Möglichkeiten der Elektronischen Musik sah. 

An Schillingers Werk ist nicht leicht heranzukommen: Weder in der Bibliothek der Universität noch in der Bibliothek der Musikhochschule Freiburg waren die Bücher zu haben. Nur per Fernausleihe (Universität Oldenburg) waren die Bücher erhältlich. 

Die drei umfangreichen Bände können hier natürlich nicht auch nur im entferntesten gewürdigt werden. Wir wollen die Inhaltsangabe des 700-Seiten-Bandes The Mathematical Basis of the Arts wenigstens auszugsweise darstellen: Das Buch ist in drei große Abschnitte gegliedert: 1. Wissenschaft und Ästhetik, 2. Theorie der Regelhaftigkeit und Koordination und 3. Technologie der Kunstproduktion. Der erste Teil ist dem Verhältnis: Kunst und Natur gewidmet. Die physikalischen Phänomene erscheinen uns häufig voller ästhetischer Harmonie. Diese Harmonie ist nach Schillinger das Resultat periodischer und kombinatorischer Prozesse, die mathematisch beschrieben werden können: Schillinger zeigt sich hier als ein direkter Wegbereiter der algorithmischen Komposition. Willkürlich sollen hier noch einige interessante Punkte herausgegriffen werden: Nachdem "die physikalische Basis der Schönheit" und die "Natur der ästhetischen Symbole" dargestellt wurden, kommt Schillinger in Kapitel 6 zu seinem eigentlichen Anliegen: Die Herstellung ästhetischer Strukturen durch die Mathematik. Genauso, wie ein Ingenieur seine künstlichen Strukturen am Reißbrett entwirft, sie durchkonstruiert und berechnet, soll der Komponist der neuen Musik seine Strukturen erzeugen. Hierzu werden eine Vielzahl von Variations-, Transformations- und Kompositionstechniken angeboten: Durch mathematische Reihen, Formeln und differentialgeometrische Darstellungen und Tabellen sollen dem Komponisten der neuen Musik - und nicht nur der Musik - Produktionstechniken vermittelt werden, die es ihm erlauben, auf rational erfaßbare Weise Kunst zu produzieren. Das Tonhöhen-, Zeit- und Klangkontinuum soll nach Schillinger parametrisiert und die Parameter nun mit mathematischen Methoden transformiert und variiert werden. 

Als weitere Klasse von mathematischen Operationen zeigt Schillinger Symmetrieoperationen auf. Diese ergeben, angewandt auf Tonfolgen, die aus der Zwölftonmusik bekannten Formen Krebs, Umkehrung und Umkehrung des Krebses. Als weitere Möglichkeit, musikalische Pattern zu generieren, zeigt Schillinger, wie man aus Pattern herkömmlicher Musik neue Musik "errechnen" kann, indem man auf den Tonhöhen- und den Zeit-Raum lineare Transformationen einwirken läßt: Zentrische Streckungen und -Dehnungen ändern das Erscheinungsbild der Musik vollständig, lassen jedoch die in der Musik vorhandenen Informationsstrukturen weitgehend bestehen. Wir als Produzenten und Komponisten Elektronischer Musik sollten Schillinger dankbar sein, daß er uns mit einem solch wegweisenden und umfassenden Werk Türen aufgestoßen hat, die uns in Räume führen können, von denen sich die herkömmliche Musik nichts hat träumen lassen. 

Daher sollten insbesondere diejenigen von uns, die sich mit algorithmischen Kompositionen beschäftigen, Schillinger nicht nur lesen, sondern auch zu verstehen versuchen. Doch dies wird nicht leicht sein.

 

 


Gerda Schneider

Der Algorithmus, nicht nur ein kompositorisches Prinzip

Bei unserem Workshop im April dieses Jahres an der PH Freiburg wurde in Vorträgen zu algorithmischer und aleatorischer Komposition nicht nur der -  auf den ersten Blick - einleuchtende Gegensatz dieser beiden Prinzipien herausgearbeitet, sondern auch die Beziehung zwischen ihnen: Dem Zufall wird durch einen Algorithmus ein Rahmen gesetzt, man könnte vielleicht auch sagen, er wird definiert, ein Algorithmus erhält durch die Einbeziehung des Zufalls ein größeres "Aktionsfeld". Ein Algorithmus, mit und ohne Einbeziehung des Zufalls, kann nun die Struktur eines Stückes bestimmen, die Anordnung oder Reihenfolge der Klänge, er kann den zeitlichen Ablauf steuern. Mit einem Algorithmus kann aber auch in die Struktur und den Verlauf eines Klanges an sich eingegriffen werden, er kann zur Generierung von Klängen und Klangprozessen führen. Hier wird schon deutlich, daß der Algorithmus nicht nur ein kompositorisches Prinzip neben vielen anderen ist, sondern wohl das entscheidende überhaupt, das mehr oder weniger bewußt zur Gestaltung bzw. bei der Produktion von Stücken oder Klängen verwendet wird. Und natürlich auch verwendet wurde im Verlauf der Musikgeschichte, wie an einigen Beispielen (z.B. C-Dur Präludium von Bach) demonstriert wurde. 

Warum betonen wir dann aber dieses Prinzip so sehr, wenn es doch selbstverständlich ist für die Gestaltung - sei es in der Musik oder in anderen Bereichen der Kunst und auch des praktischen Lebens? 

Die Antwort heißt: weil wir den Computer einsetzen können. Diese neue Technik ist das Neue, sie bewirkt eine neue Art des Umgangs mit dem Material und dadurch auch ein anderes Denken. Das soll im Folgenden erläutert werden(1). 

Wenn wir z.B. eine gegebene Abfolge von Klängen verändern wollen, überlegen wir uns, in welcher Weise dies geschehen soll. Die Vorschrift bzw. der Algorithmus könnte heißen, die folgenden Töne sollen um das Intervall zum vorhergehenden abwechselnd erhöht und erniedrigt werden, außerdem soll die Tondauer um die Tastennummer (MIDI-Norm), dividiert durch 5, ebenfalls im Wechsel, verringert und vergrößert werden. Auf das Ergebnis dieser Manipulation soll derselbe Algorithmus wieder angewendet werden, und die beiden veränderten Stücke sollen nun so miteinander vermischt werden, daß immer im Wechsel ein Ton der ersten Variation mit ungerader Zahl und ein Ton der zweiten Variation mit gerader Zahl erklingt. Diese Prozedur kann nun wiederholt werden bis der Standard der Technik (z.B. MIDI-Norm, Lautsprecherqualität) oder auch unsere Wahrnehmungsfähigkeit eine Grenze setzt. 

Ein anderes Beispiel: Bei einer bestimmten Anzahl von Klängen sollen die Hüllkurven der Operatoren des ersten Klanges in der Weise auf die Operatoren der folgenden Klänge übertragen werden, daß die Werte der Reihe nach jeweils um 3 verringert werden bis zum Wert 0, dann um 4 erhöht werden bis zum Höchstwert usw. Abhängig vom Klangerzeuger können so immer wieder neue Klänge erzeugt werden, vielleicht sogar unendlich viele. 

Was geschieht hier und - noch einmal - was ist daran so neu? 

Am Anfang steht eine Regel, die ich aufstelle, die aber so formuliert sein muß, daß sie mathematisch umgesetzt werden kann. Diese Vorschrift oder Regel, nach der nun gearbeitet werden soll, bezeichnet eine generative Methode, also: Am Anfang steht eine generative Methode. Mit der Anwendung der generativen Methode wird eine Fülle von Daten so verarbeitet, daß immer wieder neue Zuordnungen und Veränderungen des Gegebenen entstehen. So gelange ich - im Rahmen der oben genannten Grenzen - immer tiefer und vollständiger in die Welt der Kombinationen und Variationen oder anders ausgedrückt: in die Welt der errechneten Möglichkeiten. 

Diese Welt der Möglichkeiten kann nun der Computer systematisch erforschen, er kann die kaum denkbare Vielfalt ausschöpfen. Durch den Computer haben wir also Zugang und Zugriff auf diese Welt der Möglichkeiten, sofern sie sich in digitaler Weise darstellen läßt, und wir können das Material fast unbegrenzt kontrollieren und manipulieren. Die Natur begegnet uns hier als ein Komplex von Daten, die vom Rechner nach einem Algorithmus verarbeitet werden. Der Rechner gibt uns die Möglichkeit, in diese Natur der Dinge immer tiefer einzudringen, sie besser zu verstehen und wahrnehmbar zu machen. 

Doch nicht nur die Sicht der Natur verändert sich durch die neue Technik. Die durch den Computer bedingte Methode des Umgangs mit dem Materials verwischt auch den Unterschied zwischen einem Wissenschaftler und einem Künstler. Das systematische Erforschen eines Gebietes mit einer bestimmten rationalen Methode werden wir wohl eher als Merkmal eines Wissenschaftlers ansehen. Was macht aber dann das Besondere des Künstlers aus? Hier gibt es keine allgemeingültige Antwort. Vielleicht das bewußte Auswählen und Zusammenstellen aus der unendlichen Vielfalt, also das Komponieren, vielleicht die Art der Präsentation eines zufällig gewählten Ausschnittes, vielleicht die Fähigkeit, immer neue generative Methoden zu entdecken, sie miteinander zu verbinden und auf andere Gebiete zu übertragen(2). Sicher geht es dem Künstler im Unterschied zum Wissenschaftler nicht nur um Erkenntnis, vielmehr ist er von dem Ergebnis seiner "Entdeckungsreisen" auch emotional affiziert, begeistert ihn der sinnliche Genuß solcher Prozeduren. 

Doch wie dem auch sei, die Erkenntnisse, die wir gewinnen, wenn wir uns mit dem Computer auf die Forschungsreise in die Möglichkeiten der Natur aufmachen, verändern auch unser Denken, unsere Auffassung über die Natur und unsere Welt. Algorithmen als generatives Prinzip werden nun auch da erkannt, wo sie bislang für das Bewußtsein verborgen waren, und es tun sich Gestaltungsmöglichkeiten, Zugriffe auf Dinge auf, wie sie bislang nicht gegeben waren oder auch nicht erkannt wurden. In der unendlichen Vielfalt der Möglichkeiten, die der Computer errechnet, spiegelt sich die Unendlichkeit unserer Welt. Vielleicht werden wir mit ihr eher vertraut, indem wir mit der neuen Technik umgehen lernen.

_______________

(1) Die Ausführungen in diesem Artikel sind "literaturgestützt":
- N. Bolz: "Zukunft der Zeichen -  Der Einbruch des Digitalen in die Bilderwelt des Films " (Vortrag SWF II, 25.12.94)
- J. D. Bolter : "Der digitale Faust, Philosophie des Computer-Zeitalters", Oktogon-Verlag Stuttgart-München, 1990 (Schriftenreihe des ZKM Karlsruhe, Hrg. H. Klotz und H.-E. Lessing)

(2) Generative Methoden können ihrerseits durch eine generative Methode erzeugt werden und so die Kombinations- und Variationsmöglichkeiten exponentiell steigern.

 

 


Franz Martin Löhle

Kommerz Art

Nachdem sich unser Mitteilungsheft in Umfang, Outfit-Qualität und Auflage gesteigert hat, möchte ich an die oft wiederholten Wünsche unserer Leser und ZeM-Mitglieder erinnern, daß hier Komponisten und Produzenten Elektronischer Musik sich zu Wort melden und ihre Gründe, "Warum sie Elektronische Musik machen", darlegen und alle Freunde Elektronischer Musik anhand diverser Thesen (vgl. Mundigls 12 Thesen, ZeM MT Nr.3, II/90) kontroverse Diskussionen in diesem Forum führen sollten. 

Mit folgenden kurzgefaßten Feststellungen möchte ich hierzu meinen Beitrag bringen. 

Es gibt keine eigennützige, nutzlose oder selbstrezipierende Kunst - Elektronische Musik (... Elektroakustische Musik beinhaltet Akustik - Akustik muß also nicht noch einmal extra angefügt werden). 

Jede Kunst - Elektronische Musik - hat in sich eine Absicht, ein Ziel, insofern sie von einem menschlichen Wesen gemacht (produziert, komponiert, zusammengestellt, erdacht, interpretiert ...) wird. 

In erster Linie sind da die menschlich-psychologischen Hintergründe, die fast unergründlich und vielleicht nur auf der Couch zu erfahren sind. Vereinfachende, sich alle fünf Jahre wechselnde Psychologietheorien, was den Menschen vorantreibt; konkret: was ihn bewegt, Kunst - Elektronische Musik - zu "machen", helfen uns zumindest ein wenig, an die "göttliche Kunst" zu glauben. 

Viel deutlicher jedoch und plakativer wird es, wenn wir den Menschen nur auf seinen Instinkt und dessen direkter Triebe reduzieren. 

So ist der Antrieb, Kunst - Elektronische Musik - zu machen, erst einmal der, etwas zu haben, um andere zu begeistern bzw. zu beeindrucken. Dies beginnt damit, einer oder mehreren anderen Personen im kleinen Kreise bei sich zu Hause die Show zu liefern. Bei der Elektronischen Musik tritt hier besonders auf, daß sich sowieso nur wenige für diesen Musikzweig interessieren. Dadurch entsteht der Reiz des Besonderen sowieso. Erst recht interessant wird es, wenn im Kreise Gleichgesinnter jeder sein Stück, seine Produktion im Vergleich zu Gehör bringt und das psychologische Schulterklopfen kommt: "Dein Stück hat mir gut gefallen!". 

Der andere Punkt ist die kommerzielle Seite, die jedoch bei Elektronischer Musik eine sehr mühselige darstellt, da nur Wenigen gegönnt sein mag, durch das Machen von Elektronischer Musik das Notwendige zum Leben zu bekommen. Bei klassischen Komponisten macht der finanzielle Umsatz durch Elektronische Musik von ihrem Lebensumsatz insgesamt vermutlich nicht einmal 1% aus. Die Unterhaltungselektroniker aus den Tekkno, Jazz, Film- und Werbemusik-Bereichen machen Popular-Elektronische-Musik, in der jede frequentale Dissonanz und Arrhythmik zu erheblichen Finanzeinbußen führen kann. Auch diejenigen, die sich noch am Rande durch staatliche Lehre, Forschung und Studiobetreuung mit Elektronischer Musik ihren Lebensunterhalt verdienen, sind auch an ein paar Händen abzuzählen. 

Also sind alle anderen die nicht professionellen Elektroniker, was heißt, daß diese ihren Lebensunterhalt ganz oder zum größten Teile mit anderen Tätigkeiten bestreiten. 

Sofern diese das Machen Elektronischer Musik nun nicht als göttlichen Funken oder zur psychologischen Erbauung durchführen, müßten diese Elektronische Musik um der Sache willen produzieren. 

Elektronische Computermusik (ECoM) als Ausdruck der heutigen Zeit, als Nutzen der heutigen Möglichkeiten, als ein die-Natur-ganz-anders-zu-Wort-kommen-lassen, als Abbild der makrokosmischen Zusammenhänge im Mikrokosmos. 

Oh Herr erhöre uns!

 

 


Mitteilungen

Musik-Elektronik - Tontechnische Medien

Unter diesem Titel fand am ersten Aprilwochenende eine Veranstaltung von ZeM e.V. Freiburg in Zusammen mit der PH Freiburg statt. Klaus Weinhold, der die Gesamtleitung innehatte schrieb hierzu:

Seit nunmehr 12 Jahren werden in der Musikabteilung der PH Freiburg im Rahmen der Lehrveranstaltung "Tontechnische Medien" Workshops und Konzertvorführungen mit Musik dieser neuen "tontechnischen Medien" angeboten. Es geht darum, Studierenden und einem interessierten Publikum die neuen oftmals unerhörten Möglichkeiten der neuen "tontechnischen" Musik vorzuführen, zu zeigen und zu erläutern. Die Anfänge dieser neuen Techniken in ihren verschiedenen Formen sind inzwischen schon Geschichte geworden und haben sich in einzelne, unterscheidbare Schichten abgesetzt, was ihre Erforschung und pädagogische Durchdringung erleichtert. In die Zukunft sind die "tontechnischen Medien" allerdings völlig offen, ohne daß eine Prognose gestellt werden kann. Vielleicht heißt eines der Stichworte VR (Virtual Reality) oder VA (Virtual Acoustic), auf alle Fälle: Eine bisher unmögliche Klangwelt wird möglich werden und die Hörerfahrungen des Menschen beeinflussen. 

Veranstaltungen von der hier angesprochenen Art wollen einen bescheidenen Beitrag dazu leisten. 

Die Veranstaltungen umfaßten Vorträge und musikalisch-akustische Darbietungen: Torbe Reyber gab am Samstag (1. April) eine dreistündige Einführung und Übersicht über "Klangsynthesen" mit Beispielen am Logik-Synthesizer. Am Sonntag (2. April) teilten sich Dr. Walter Birg ("MIDI-Programmierung und algorithmische Komposition"), Hubert Arnolds ("presto. Einführung in das Kompositionsprogramm von Guerino Mazzola") und Franz Martin Löhle ("Aleatorische Komposition") die dreistündige Vortragszeit. An beiden Tagen fand anschließend für zwei Stunden eine Vorführung von Produktionen von ZeM-Mitgliedern statt.

 

 


neue akademie braunschweig e.v.

6. Kompositionswettbewerb für Synthesizer- und Computermusik

Ausschreibung 1995: für Elektronik und Blasinstrument

1. Die Komposition kann für 1 oder 2 Spieler konzipiert sein, die Elektronik kann eine beliebige Anzahl Synthesizer/Sampler, Computer und/oder Tonband umfassen.
Das Blasinstrument kann mit oder ohne Verfremdung eingesetzt werden (Bei der Uraufführung ist der Komponist für sein eigenes Equipement zuständig).

2. Die Komposition kann stilistisch frei gearbeitet sein, soll sich jedoch von kommerzieller U-Musik absetzen.
Das eingereichte Werk soll sich vor allem durch kompositorische und elektronik- bzw. bläserspezifische Eigenständigkeit auszeichnen.
Es darf noch nicht veröffentlicht worden sein.
Dauer: höchstens 15 Minuten.

3. Die Komposition soll
 - als Partitur (ausnotiert, graphisch oder verbal)
 - und als Cassetteneinspielung eingereicht werden
 - und mit einem Kennwort versehen sein.
Ein beigelegtes Couvert, das ebenfalls das Kennwort trägt, soll biographische Angaben und die Anschrift des Komponisten enthalten.

4. 1. Preis: 2.000,- / 2. Preis: 1.000,-
Die Preisträger sollen in der Veranstaltung "MEDIEN-NACHT" im Rahmen des 14. Synthesizer Musik Festivals am 28. Oktober 1995 in Braunschweig ihre Werke live uraufführen.

5. Die Jury besteht aus
 - Prof. Dr. Dieter Salbert (Komponist)
 - Mathias Sorof (Stick-Spieler, Elektroniker, Komponist)
 - George Bishop (Saxophonist, Elektroniker, Komponist)

6. Letzter Einsendetermin (Poststempel): 31. Juli 1995
Anschrift: Neue Akademie Braunschweig e.V.
Reiherweg 3
D-38527 Meine
Tel. 0 53 04 - 35 78

7. Falls die eingereichten Werke nach Abschluß des Wettbewerbs an den Bewerber zurückgeschickt werden sollen, bitte das Rückporto in Briefmarken beilegen.

 


 

An dieser Stelle folgten in der Printausgabe, wie fast in jeder Ausgabe, ein Antrag auf Mitgliedschaft und die Übersicht der Inhalte der bisherig erschienen Hefte.


 

Rückseite


© ZeM e.V. | ZeM Mitteilungsheft Nr. 17 - April 1995

oblu obru
pix