Auf Anregung von Besuchern meiner Homepage habe ich die Links für die Abbildungen in allen Lehrheften verändert:
Beim Aufrufen einer Abbildung öffnen Sie ein neues Fenster mit dem ausgewählten Bild. Um zur Textseite zurückzukehren müssen Sie dieses zweite Fenster entweder schließen oder zur Seite ziehen. Falls Sie die zweite Möglichkeit benutzen, wird das erste Bild beim erneuten Aufruf einer weiteren Abbildung überschrieben u.s.w.. Mit den Befehlen „vor“ und „zurück“ im aktuellen Bildfenster können die anderen, schon ausgewählten Abbildungen immer wieder aufgerufen werden. Rückkehr zur Textseite ist durch Anklicken dieser immer möglich.


Vocoder:

Vocoder (zusammengesetzt aus "Voice Coder", also etwa mit "Stimmverschlüsseler" wiederzugeben), ein Gerät zur Sprachübertragung mit verringerter Redundanz, d.h. durch eine Quellencodierung.So im Reallexikon der Akustik1 nachzulesen. Ich möchte es als Verschlüsselungsgerät bei Geheimhaltungsanlagen – das sind Einrichtungen, die das Entziffern von Fernmeldenachrichten durch Unbefugte verhindern sollen – bezeichnen, ein Gerät also, das für die Übertragung von Sprache (verschlüsselt) Anwendung findet. Aufgrund seines technischen Aufbaus ( auf der Wiedergabeseite wird z.B. nur mit Rausch- und Impulsgeneratoren das "synthetische Signal"2 zusammengesetzt) und seinem Anwendungsbereich ist der Vocoder damit ausschließlich für die Veränderung von Sprache gedacht. Werner Meyer-Eppler spricht in seinem Buch "Elektronische Klangerzeugung"3 zum ersten Mal von Möglichkeiten, den Vocoder auch in der Musik einzusetzen. Als Beispiele nennt er die Umwandlung einer Sopranstimme in eine Bassstimme oder die Verwandlung von Sprache in Gesang. Meyer-Eppler stand das Visible-Speech-Verfahren zur Verfügung, bei dem der zeitliche Ablauf der spektralen Zusammensetzung von Schallvorgängen auf lichtempfindlichem Film oder elektrochemisch empfindlichem Papier festgehalten wird, ihre Dynamik in Helligkeitswerten. Die Umwandlung dieser Spektrallinien in Gleichspannungen war der Beginn des Kanalvocoders4. Die Geräte waren jedoch nur auf 12 Spektralkanäle ausgelegt und dienten daher vor allem phonetischen Untersuchungen, obwohl auch Anwendungen auf anderen Gebieten der Akustik bekannt sind. Unter den damaligen technischen Voraussetzungen waren die von Meyer-Eppler genannten Klangumwandlungen mit einem Vocoder zweifellos ein kühnes Unterfangen, vor allem war das Auftreten von Nebengeräuschen und Verzerrungen unvermeidbar. Zum besseren Verständnis soll die folgende technische Einführung in Aufbau und Funktion eines heutigen modernen und Musik tauglichen Vocoders dienen. Über die verschiedenen Entwicklungen von Vocodern kann in der jeweils angegebenen Literatur nachgelesen werden; ich möchte meine Ausführungen vor allem auf den in der Musik meist gebrauchten Kanalvocoder beschränken. Zuvor noch aus der frühen Zeit ein Zitat von H. Burris-Meyer5:
"Während es mit den üblichen mechanisch-akustischen Hilfsmitteln nur in sehr unvollkommener Weise gelingt, geisterhafte und überirdische Stimmen zu realisieren, kann man mit Hilfe des Vocoders die Hexen in "Macbeth" tiefer als der tiefste Bass und höher als der höchste Diskant sprechen lassen. Höllisches Gelächter nach Noten, sprechende Esel und ein in verständlichen Sätzen heulender Sturm werden zu leicht erfüllbaren Regiewünschen".
Ich muss bei dieser recht farbigen Aussage unbewusst an Walt Disney und seine Filme denken, in denen er als erster Filmemacher den Vocoder für spezielle Klangeffekte einsetzte. Ebenfalls hat mich H. Burris-Meyer mit seinen Gedanken in meiner Auffassung bekräftigt, dass der Vocoder die Kreation neuer Klanggestalten ermöglicht.
Die heutige schnelle Entwicklung elektronischer Bauelemente macht es unmöglich, alle unterschiedlichen Bauarten, analog oder digital, aufzuzeigen. Ich möchte mich daher auf Prinzipschaltungen ohne ihre technische Realisation beschränken. Wie schon erwähnt, erscheint mir der Kanalvocoder für musikalische Klangmutationen am besten geeignet und auch für den weniger technisch begabten Komponisten gut verständlich. Dieses Gerät wurde z.B. vom Experimentalstudio der Heinrich-Strobel-Stiftung des SWR analog beginnend bis zum digitalen Instrument (Software) entwickelt und auch in Zusammenarbeit mit Komponisten erprobt. Die Anzahl der Analysefilter ist variabel, ihre Qualität (Flankensteilheit) muss sehr gut sein. Je mehr Filter, um so größer ist die Klangselektion und damit die klangliche Auflösung auf der Syntheseseite. Verwendet werden Bandpassfilter (Abb. 1).

Abb. 1/1

Am Eingang des Vocoders muss das Audiosignal zuerst analysiert werden, denn das Ergebnis dieser Spektralanalyse entscheidet über Zusammensetzung und Qualität der Synthese, wobei es für die Funktion des Vocoders keine Rolle spielt, ob diese Klanganalyse mittels analogem Bandpassfilter oder rein rechnerisch im Computer realisiert wird. Was geschieht nun nach der Spektralanalyse? Zunächst das Prinzipschaltbild eines analogen Gesamtgerätes:

Abb. 1/2

Was mich an diesem Schaltbild stört, ist die Bezeichnung Synthese für die zweite Filterbank, wiederum eine Spektralanalyse. Im Lexikon
6 ist über die Synthese unter anderem zu lesen: "Verknüpfung zur Einheit / Verbindung / Zusammenschau / Die bewusst geübte Synthese ist die der Analyse entgegengesetzte, ergänzende Methode zur Gewinnung von Erkenntnissen / Fortschreiten von Teilen zum Ganzen / Synthetische Sprache = künstliche Sprache". So, jetzt wissen wir's! Arbeite ich mit Vocoder und Sprache, dann kann man das Ergebnis als eine künstlich aus einem anderen Tonmaterial gebildete Sprache bezeichnen. Daraus resultierend könnte man generell sagen, synthetischer Klang = künstlicher Klang, also ein aus einem anderen Tonmaterial künstlich gebildeter Klang. Damit ist die Bezeichnung Synthesefilterbank im Vocoder gerechtfertigt. Unser Begriff Synthese hat also nichts mit der als Klangsynthese bezeichneten Erzeugung von Ton- und Klangmaterial in einem Synthesizer oder Computer zu tun, da im Vocoder beide Materialien aus natürlich erzeugten Tönen bestehen können und somit das Wort Synthese für die künstliche Verarbeitung, z.B. von Vokal- oder Instrumentalklängen, verwendet wird.

Im Folgenden versuche ich anhand eines Kanals den Arbeitsprozess zu verdeutlichen:

Abb. 1/3

B ist ein Spektralanalysator, der das Klangmaterial 1 A am Eingang des Vocoders in einzelne Frequenzbereiche7, Spektralsektoren unterschiedlicher Dynamik zerlegt. Gehen wir von einem analogen oder hybriden Gerät aus, dann wird das selektierte Audiosignal 1 – bestehend aus hörbaren Wechselspannungen – an die zentrale Steuereinheit C weitergegeben. Dort findet zuerst eine Umwandlung in ein Gleichspannungssignal gleicher Größe statt, mit dem die Funktionen spezieller elektronischer Baugruppen, wie Verstärker oder Filter, verändert werden können, in unserem Fall spannungskontrollierte Bandpässe. Diese Gleichspannung wird also einem Kanal des zweiten Spektralanalysators D mit gleichem Frequenzbereich, zugeführt und öffnet diesen Spektralsektor entsprechend der Amplitude der Gleichspannung. Liegt nun am Eingang des zweiten Analysator D ein Audiosignal 2 an, dann wird am Ausgang E der entsprechende Frequenzbereich dieses Audiosignals 2 mit gleicher Lautstärke hörbar, den wir vom Ausgang des Analysators B kennen.


Der Unterschied besteht nur im Klangmaterial, in der Klangfarbe.

Nehmen wir nun an, das Klangmaterial 1 A besteht aus Sprache und wird im Analysator B in seine einzelnen Formantbereiche8 zerlegt. In Analysator D werden die gleichen Formantbereiche aus Rosa Rauschen9 (Klangmaterial 2) selektiert und am Ausgang E wieder hörbar gemacht und unsere Eingangssprache aus neuem Klangmaterial wieder zusammengesetzt. Da die dynamischen Verhältnisse wie schon erwähnt in den Analysatoren B und D gleich sind, ist die neue Sprache, sofern auch in den Materialien 1 und 2 die klanglichen Bandbreiten ungefähr übereinstimmen, gut zu verstehen (Vgl. hierzu Abb. 2). Weitere Beispiele folgen im eher praktischen Teil über Anwendungsmöglichkeiten des Vocoders als Instrument der Klangumwandlung in der Live-Elektronik.
In den Abbildungen 2 und 3 ist jeweils zwischen den Analysatoren eine zentrale Steuereinheit eingefügt, der nicht nur, wie zuvor am Beispiel des analogen Vocoders beschrieben, die Umwandlung einer Wechselspannung in eine Steuergleichspannung obliegt, sondern die vielmehr die Zuordnung der einzelnen Bandpassfilter (siehe Abb. 2) kontrolliert. In normalem Zustand entsprechen sich die einzelnen Frequenzbereiche der Analyse und Synthese, wir sprechen von einer linearen Zuordnung. Mutiert nun der tiefste Frequenzbereich der Analysefilterbank den höchsten der Synthesefilterbank usw., dann sprechen wir von einer invertierten Zuordnung. Die Abbildungen 410,4a und 5, Vocoderprogramme aus Nonos 'Io, Frammento dal Prometeo', zeigen die lineare und invertierte Zuordnung für den hybriden und digitalen Kanalvocoder des Experimentalstudios in Freiburg. Dieser Austausch der Kanäle ist vor allem für die Klangumwandlung Instrument zu Instrument oder Instrument / Vokalstimme von besonderer Bedeutung, während für Sprachumwandlungen mehr die parallele Verschiebung, die Transposition (Abb. 4) Verwendung findet. Wichtig ist für alle Zuordnungsänderungen, dass sie vorprogrammiert und damit in eine Komposition den musikalischen Anforderungen genügend integriert werden können. Gerade im Hinblick auf die eben genannten Verfahren wird verständlich, dass das klangliche Resultat sehr von der Qualität der spektralen Auflösung des Klangmaterials abhängig ist, und dass in jedem Fall die Filterbänke der beiden Spektralanalysatoren11 identisch sein müssen. So waren die früher im Handel angebotenen analogen Vocoder mit 20 und weniger Analysekanälen für musikalische Zwecke ungeeignet (nur für Sprache), zumal sie, mit einer linearen Zuordnung ausgestattet, dem Komponisten keine individuellen Klangvariationen ermöglichten. Thomas Sandmann gibt in seinem Aufsatz 'Effekte-Vocoder'12 einen Überblick über ältere und neuere Geräte, die im Handel noch erhältlich sind. Vielleicht ist es auf eben genannte technische Anforderungen zurückzuführen, dass der Kanalvocoder in der Vergangenheit so wenig Interesse fand. Mögen die nun folgenden praktischen Beispiele und die großartigen technischen Entwicklungen dieses so wunderbare Instrument der Elektronischen Klangumformung in Echtzeit wieder salonfähig machen.

Die größten Schwierigkeiten bietet vor allem die Auswahl der Klangmaterialien für die Analyse und Synthese. Prinzipiell sollte das Spektrum jedes Signals dem Komponisten bekannt sein. Im ersten Band meines Buches über die Arbeit des Experimentalstudios der Heinrich-Strobel-Stiftung13 habe ich eingangs über dieses Problem geschrieben. Ich zitiere einen Ausschnitt:
"Neue elektronische Klangelemente, besonders live-elektronischer Art wie in der Elektronischen Klangumformung, Klangerweiterung verwendet, finden immer größere Verbreitung. Vielfach stehen Komponisten, Interpreten und auch Techniker vor dem Widerspruch, diese Elemente einerseits anzuwenden, sei es innerhalb des kompositorischen Prozesses oder bei der reproduzierenden Klanggestaltung, andererseits nicht die dafür erforderlichen theoretischen Kenntnisse im Sinne einer neuen Instrumentenkunde zu besitzen. So lassen sich die oft unbefriedigenden Ergebnisse bei der Anwendung live-elektronischer Geräte erklären... Der Wirkungsradius im elektro-akustischen Bereich ist sehr vielfältig, aber auch begrenzt durch die Dichte des zu verarbeitenden Klangmaterials. Folgerichtig muß Ausgangspunkt dieser Untersuchungen die Analyse sein, die bestimmte Ergebnisse voraussehbar und diese damit für den Komponisten, den Interpreten, den Techniker verfügbar macht".

Abb. 1/4Abb. 1/4a Abb. 1/5

Es wäre zweifellos von großem Vorteil, wenn heute in jedem Studio für elektroakustische Musik ein digitaler Analysator für eine Spektralanalyse nach Fourier14 und einer dreidimensionalen Analyse15 zur Verfügung stehen würde, zumal diese Analysatoren meist ein Abfallprodukt eines guten Computers sind. Luigi Nono hatte z.B. während seiner Arbeit im Experimentalstudio immer das Sonascope16, dreidimensionale Analyse in Echtzeit, eingeschaltet, um gegebenenfalls die spektrale Zusammensetzung eines Tones zu überprüfen und entsprechend in seinem Kompositionsentwurf zu verarbeiten.

Sind diese Voraussetzungen erfüllt, dann wünsche ich viel Freude bei der Arbeit mit dem Vocoder. Es folgen nun die angekündigten praktischen Beispiele aus der Arbeit des Experimentalstudios des SWR in Freiburg.
Bewusst beginne ich mit der Kombination Sprache – Rosa Rauschen, die ich in Abbildung 2 schon grafisch dargestellt habe. Unsere Sprache besteht aus einer sehr komplexen Klangstruktur. Soll sie im Vocoder auf ein anderes Klangmaterial übertragen werden und eine Wortverständlichkeit erhalten bleiben, muss auch dieses Material sehr komplex sein. Rauschen, ein stochastischer Prozess, hat zu jedem Zeitpunkt und in jedem Freqenzbereich die gleichen Eigenschaften: sehr viele dicht beieinander liegende Sinusschwingungen (20 – 20000 Hz), deren Schallintensitäten und nicht die einzelnen Amplituden addiert werden. Diese Addition bewirkt, dass beim Hören von normalem weißen Rauschen der höhere Frequenzbereich gegenüber dem tieferen lauter empfunden wird. Durch Absenken der Amplituden von den tiefen zu den höheren Frequenzen um 3 dB pro Oktave wird dieser Klangeffekt nivelliert. Wir haben damit zwei unterschiedliche Klangfarben des Rauschens. Für eine Vokoderisierung wird im Allgemeinen Rosa Rauschen bevorzugt. Für das folgende Beispiel ist die Filterkombination aus Abbildung 4 zuständig. Die Analyse der von mir gesprochenen Worte
Elektroakustische Musik ist in Abbildung 6 und 7 dreidimensional17 dargestellt. Die Form der Computeranalyse (Abb. 6) zeigt sehr gut den zeitlichen Ablauf der Sprache und ihre klangliche Komplexität, die einzelnen Spektralbereiche sind kaum zu identifizieren. In der sonascopischen Darstellung (Abb. 7) hingegen kann man diese klar erkennen, zumal in dieser Analyse der Frequenzbereich auf 7500 Hz reduziert ist und damit die Frequenzabstände gespreizt werden.

Abb. 1/6 Abb. 1/7

Um einen Bezug zu unserem Vocoder beizuhalten, sind die Frequenzbereiche der zwei analytischen Darstellungen mit der in Abbildung 4 verwendeten Filterbank – 48 Spektralbereiche18 – identisch. Ich habe versucht, die Zeichen der gesprochenen Worte in Abbildung 7 der Analyse zu unterlegen. Die Sprachformanten sind denen der Schumannschen Analysen19 ähnlich:

Buchstabe: Formantbereich 1 Formantbereich 2

A 200 – 2000 Hz fehlt
E 200 – 750 Hz 1500 – 4500 Hz
O 200 – 900 Hz fehlt
U 50  – 1400 Hz fehlt
I  50   – 800 Hz 2000 – 7500 Hz

Abb. 1/8

In Abbildung 8 sehen wir die Analyse einer Sprachumwandlung im Vocoder. Die Einstellung entspricht Abbildung 2, Sprache – Rosa Rauschen. Aus dem Klang des Rosa Rauschen ist deutlich der Sprachrhythmus zu erkennen, die Spektralbereiche weichen aufgrund des neuen Klangmaterials (Rosa Rauschen) von der Originalsprache teilweise ab. Trotzdem kann man die Sprache einwandfrei verstehen, der persönliche Sprachcharakter des Sprechers ist jedoch nur im Sprachrhythmus wieder zu finden (Abb. 9). Die zeitliche Verlängerung der gesprochenen Worte, original 2,730 sec, Vocoder 3,120 sec, beruht auf den zusätzlichen Ein- und Ausklingfunktionen der zweiten Filterbank.

Abb. 1/9
Rhythmische Hüllkurve der Originalsprache

Wenn wir nun Filterbank 2 gegenüber Filterbank 1 um 3 Einzelfilter nach oben verschieben20, wird das aus dem Rauschen neu gebildete Signal um einen Tritonus nach oben transponiert. Dies ist deutlich aus der sonascopischen Darstellung in Abbildung 10 zu erkennen. Sprache lässt sich so z. B. beliebig nach oben und unten transponieren, wobei natürlich die Sprachverständlichkeit der Transposition Grenzen setzt. Außerdem können auch andere Signale, wie Singstimmen oder Instrumentalklänge, auf diese Weise transponiert werden, wobei jedoch immer zu bedenken ist, dass durch das Rosa Rauschen (Filterbank 2) der Klangcharakter des Originals verändert wird. Gerade dies kann zu neuen, interessanten Klanggestalten führen: Der Klang einer Flöte wird z. B. auf Rosa Rauschen übertragen, die Filterverschiebung beträgt eine Stufe. Wird das um einen Ganzton transponierte Vocoder-Ausgangssignal sehr leise dem Flöten-Originalklang zugemischt, vielleicht noch ein wenig verhallt, entstehen sehr eigenartige neue Klangphänomene, ein stilisiertes Atmen.

Abb. 1/10

Während in Abbildung 8 die tiefsten Frequenzen bei ca. D = 73 Herz liegen, befinden sich diese im transponierten Beispiel bei ca. GIS = 103 Hz (Abb. 10). Wir sind nun immer von der Kombination Sprache, Sing– oder Instrumentalstimmen mit Rosa Rauschen ausgegangen. Im Mai 1982 hat Zsigmond Szathmáry an der Orgel des Augustinermuseums Freiburg mein CANTUS – ORGANUM für Orgel, Elektronische Klangumformung (Vocoder) und Zuspielband aufgeführt. Diesem Klangversuch legte ich folgende Vocoderkonfiguration zu Grunde:

Abb. 1/10a

Für das Zuspielband habe ich ein Gesualdo–Madrigal für Chor ausgewählt, dessen Titel und Text im Zusammenhang mit diesem Versuch keine Bedeutung hatten, da ausschließlich der Chorklang für den Austausch des akustischen Materials (Mutation des Orgelklanges) von Bedeutung waren. Für die Interpretation musste die Auswahl der Register genau eingehalten werden. Diese bewegte sich zwischen Flöte 8' und Orgel–Plenum. Spielte der Organist mit einem Labialregister (z.B. Gedackt), dann waren nur vereinzelt Tonfragmente des Chores zu hören. Mit der Veränderung der Klangfarben und Dynamik der Orgel bis hin zum Orgel–Plenum veränderte sich das Klangresultat des Vocoders vom, ich möchte fast sagen, Klangfetzen bis zum nahezu verständichen Chorklang. Es enstanden neue chorische Formen, die nicht dem Zufall, sondern der Gesetzmäßigkeit der ausgewählten Orgelregister unterlagen. Was diesen Prozess jedoch von einem normalen Kompositionsmodell unterschied, ist die Zufälligkeit der Auswahl der Orgelregister (unterschiedlicher Orgelbau), die wiederum zu neuen musikalischen Formen, Klangfarben und Rhythmen führt. Damit wird Elektronische Klangumformung mittels Vocoder gleichzeitig Klangerweiterung und formale Kreation. Die räumliche Trennung zwischen originalem und umgewandelten, über Lautsprecher ausgestrahltem Instrumentalton – in unserem Falle die Orgel – eröffnet zusätzlich neue Klangräume, eine Einbeziehung des Raumes selbst in den kompositorischen Prozess.

In Abbildung 11 a und 11 b sehen wir den zuvorgenannten Unterschied der beiden extremen Klangresultate des Vocoders am Beispiel: Sprache / Gedackt-Register und Sprache / Orgel-Plenum. Die Umwandlung der Sprache in den Klang einer Gedacktpfeife überträgt nur ein sehr kleines Sprachspektrum, abhängig von der gespielten Tonhöhe, der originale Sprachrhythmus geht zum Teil verloren. Man könnte von einer Grundtonerkennung der Sprache sprechen, wobei die Tonhöhe des Orgeltones diese Erkennung auf die unterschiedlichen Vokale überträgt. Der komplexe Klang des Orgel-Plenums zeigt einen ähnlichen Klangcharakter der Umwandlung wie die Kombination Sprache / Rosa Rauschen.

Abb. 1/11a Abb. 1/11b

Um die Arbeitsweise des Vocoders noch verständlicher zu machen, möchte ich die Umwandlung einzelner Vokale in einen Instrumentalton anhand von drei Beispielen anfügen. Es folgen zuerst die Einzelanalysen der Vokale A, I, U und die eines Trompetentones b1, ebenfalls mit der Filterbank eins21 unseres Vocoders angefertigt:


Abb. 1/12 Sprachlaut A
Abb. 1/13 Sprachlaut I
Abb. 1/14 Sprachlaut U

Abb. 1/15 Trompetenton b1

Gleichzeitig möchte ich unterschiedliche Analyseverfahren aufzeigen und habe für die Originaltöne eine spektografische, für das Vocoderausgangssignal eine zweidimensionale, frequenzbezogene Darstellung verwendet. Ich erinnere nochmals daran, dass ich zum besseren Lesen der Zahlen die Filterbank für die Spektralanalysen auf 44 Einzelfilter reduziert habe.

Wir können sehr gut bei dem vocoderisierten Signal (Abb.16) erkennen, dass durch die unterschiedliche Lage der Grundtöne – 466 Hz bei der Trompete und 117 Hz bei dem gesprochenen Vokal A – der neue Grundton ca. 932 Hz beträgt. Dies ist der 8. Teilton von unserem A und der 2. Teilton von dem Trompetenklang. Natürlich spielen z.B. die Klanganteile bei ca. 2600 und 3150 Hz auch noch eine hörbare Rolle, doch ist aus den Spektren von Vokal A und der Trompete eine neue Klanggestalt entstanden, die im Falle der zuvor gesprochenen Worte ELEKTROAKUSTISCHE MUSIK keine Wortverständlichkeit ergibt. Ein ähnliches Bild sehen wir in Abb.17 Paarung Vokal I und Trompete, obwohl aufgrund der oberen Formantregion des Vokal I ab 2000 Hz der höhere spektrale Bereich etwas mehr ausgeprägt ist. Betrachten wir noch das Ergebnis von Vokal U und Trompete (Abb. 18), so ist nur der Grundton der Trompete hörbar, da der Vokal U ein sehr kleines Spektrum aufweist. Ich glaube, dass diese drei Beispiele verdeutlichen, dass die aus dem Verhältnis Sprachvokale und Trompetenklang neugebildeten Klangergebnisse eine Wortverständlichkeit unmöglich machen, selbst bei unterschiedlich gespielten Tonhöhen des Instrumentes. Was uns aber ebenfalls aus diesem Ergebnis klar wird, sind die neuen Klanggestalten, ihre große Variationsbreite, wenn gesprochenes oder gesungenes Wort in einen Instrumentalklang umgewandelt wird.

Abb. 1/16 Vokal A/Trompete
Abb. 1/17 Vokal I/Trompete
Abb. 1/18> Vokal U/Trompete

Natürlich können wir bei der großen Komplexität unserer Klangwelt nicht immer voraussehen, welches klangliche Ergebnis der Vocoder neu kreiert. Es müssen sehr viele empirische Experimente durchgeführt werden, um diese neuen Klangdimensionen zu erfassen. Für mich waren diese Versuche ein wunderbares Spiel mit dem Klang, das immer zu neuen Klangformen inspirierte. Eine weitere Verarbeitung der Ergebnisse dieses Instrumentes Vocoder mittels der Elektronischen Klangumformung eröffnet zusätzliche neue Möglichkeiten, vor allem der schon zuvor genannte Klangraum, die Klangbewegung kann infolge neuer Tonortsbeziehungen die Transparenz einer Komposition vergrößern. Eine neue kompositorische Form finden wir in der Verdichtung zweier oder mehrerer akustischer Signale durch Klangmutationen im Vocoder und zeitliche Versetzung der resultierenden tonlichen und rhythmischen Klanggestalten. Ich möchte an dieser Stelle an die kurze Beschreibung meines CANTUS–ORGANUM erinnern. Die aus dem vocoderisierten Orgelspiel entstandene zusätzliche Rhythmisierung des Chorklanges (Klangfetzen!) entwickelt neue, durch die Auswahl der Orgelregister kontrollierte kompositorische Gestalten. Es ist somit von großer Wichtigkeit, dass die Verwendung eines Vocoders wie die anderer Instrumente oder Vokalstimmen von Anfang an in den kompositorischen Vorgang einbezogen wird, um nicht bei belanglosen Klangeffekten stehen zu bleiben.

Im Folgenden möchte ich meine Ausführungen über den Vocoder als Instrument der Elektronischen Klangumwandlung mit einer Besprechung von drei Sätzen aus Nonos 'Io, Frammento dal Prometeo' beschließen:


Am 23. September 1981 wurde Io, Frammento dal Prometeo von Luigi Nono in Venedig uraufgeführt. In drei Abschnitten (Teile 3, 4 u. 6) hat Nono vor allem den Kanalvocoder als klangumwandelndes Instrument eingesetzt. Ich möchte dieses hochinteressante Beispiel etwas ausführlicher darstellen, um wieder eine andere Einsatzmöglichkeit des Vocoders zu demonstrieren. Nono war absolut kein Techniker, er war ein hervorragender Musiker, immer nach neuen Klangideen suchend, forschend – ein ruheloser Wanderer, den weder Modeströmungen noch Formaldiskussionen in der Musik seiner Zeit beeindruckten. Wir haben zusammen während vieler Stunden einige der unzähligen Klangvariationen des Vocoders ausgelotet, sei es mit Instrumenten, sei es mit unserer eigenen Stimme und einem synthetischen Signal: Rosa Rauschen. Die Besetzung der Komposition ist in Abb. 19 dargestellt: Chor, drei Sopransolistinnen, Bassflöte und Kontrabassklarinette. Die 10 Lautsprecher sind in einem inneren und einem äußeren Kreis sowie bei den beiden Instrumentalsolisten postiert.

Abb. 1/19

Mit Absicht habe ich diese Graphik an den Beginn meiner Betrachtungen über 'Io, Frammento...' gestellt. Nono hat immer von Anfang an auch den Klangraum in seinen kompositorischen Entwurf einbezogen, d.h., für ihn war nicht nur allein die Klangumwandlung im Vocoder, sondern auch die Einbeziehung dieses neuen Klangprodukts in den akustischen Gesamtraum wichtig. Im dritten Satz, Frauenstimmen und Solosopran, werden die Chorstimmen im Analysefilter A selektiert und die in der zentralen Steuereinheit gewonnenen Gleichspannungen – um maximal einen Tritonus nach oben und unten verschoben22 – an den Synthesefilter B weitergeleitet. Aus dem an diesem Filter anliegenden Rosa Rauschen werden nun die transponierten Frequenzbereiche des Frauenchorspektrums sehr leise auf den Lautsprechern 7 bis 10 hörbar, so dass der Originalklang der Chorstimmen von einem nicht genau definierbaren Widerhall begleitet wird. Aufgrund des relativ kleinen Frequenzspektrums der Frauenstimmen (meist pianissimo bis piano gesungen) wird das selektierte Rauschen nicht mehr als Geräusch wahrgenommen, sondern verschmilzt mit den zusätzlich in einem Bandpassfilter (Grenzfrequenzen 1500 - 1150 Hz) selektierten und zeitlich verzögerten (Delay = 125 Millisek.) Originalstimmen über Lautsprecher 1, 2, 4, und 5 zu einer wunderbaren akustischen Raumtiefe.

Im vierten Satz verwendet Nono ebenfalls Rosa Rauschen am Eingang des Synthesefilters, doch durch die Umwandlung des Spektrums der Bassflöte in verschiedene Konfigurationen – siehe Abb. 4, 5, 21, 22 und 23 – entsteht zusätzlich zum Originalton eine vollkommen neue Klangwelt. Ich habe in Abb. 20 ein Beispiel aus den Noten der Bassflöte ausgewählt, das sehr deutlich den Klangfarbenreichtum der Komposition aufzeigt. Der große Tonhöhenumfang und das teiltonarme Spektrum des Originals sowie die unterschiedlichen Vocoderprogramme ergeben schmale Rauschbänder von den tiefsten bis zu den höchsten hörbaren Frequenzbereichen – ein Atmen des Interpreten in unterschiedlichen Klangebenen.

Abb. 1/20

Abb. 1/21

Abb. 1/22

Abb. 1/23

Die fünf Konfigurationen der Kanalzuordnung sind nicht willkürlich, sondern formell in die Komposition integriert. Im dritten Progamm23 beginnt eine Verdichtung (max. 2 Kanäle), während die Gegenläufigkeit, Inversions-Programm 2, zum Teil erhalten bleibt. In Programm 4 wird die Gegenläufigkeit verlassen, die Verdichtung steigert sich (max. 5 Stimmen). Bei ca. halbierter Inversion ist in Programm 5 die Verdichtung am größten (max. 10 Kanäle). Es sind beide Formen wieder gemischt. Wenn ich zuvor von einem Atmen der Interpreten in verschiedenen Klangebenen sprach, so wird dieser Vocodereffekt durch Nonos genaue Spielanweisungen zusätzlich verstärkt. Der Komponist schreibt bei einigen Tönen "Vorherrschen von Luftgeräuschen bei wenig Tonhöhe" oder "Vermischen von Tonhöhe und Luftgeräusch" vor, was genanntes Atmen klanglich noch intensiviert.

In Teil sechs, Schicksalslied von Friedrich Hölderlin24 (Besetzung: zwei Solosoprane, Bassflöte und Kontrabassklarinette) versucht der Komponist den Klang der Bläser zusätzlich zum Original mit einer invertierten Vocoderkonfiguration aggressiver zu gestalten:

Vocodereingang / Analysefilter = beide Bläser.
Vocodereingang / Synthesefilter = Rosa Rauschen.
Zentrale Steuereinheit invertiert wie in Abbildung 5, Lautsprecher 7 bis 10.


Vor allem wenn die Instrumente in tieferen Tonlagen spielen, sind die selektierten Frequenzbereiche des Rauschens sehr hoch, der Klang sehr eisig. Entscheidend für diese Klangfarbe sind auch die vom Komponisten vorgegebenen Spielangaben (Phrasierung). Luigi Nono sagte immer: "Diese Vocoderklänge müssen die Kantilene der beiden Sopranstimmen messerscharf zerschneiden".


Später hat Luigi Nono für seinen Prometeo, Tragedia dell' ascolto das Vocoderprogramm wie folgt geändert:


Vocodereingang / Analysefilter = Bassflöte
Vocodereingang / Synthesefilter = Kontrabassklarinette und 20 bis 40% Rosa Rauschen.
Zentrale Steuereinheit wie zuvor (invertiert).


Durch die Mischung von Kontrabassklarinette und Rosa Rauschen wurde der Vocoderklang z. T. breiter, er bekam einen neuen Charakter. Dieses Mischungsverhältnis muss allerdings sehr feinfühlig für jede Saalakustik neu erarbeitet, erhört werden.

Abb. 1/24

Abb. 24 ist ein Ausschnitt aus Nonos 'Raumskizzen', in denen der Komponist bis ins Kleinste die Lautsprecher-Zuteilungen projektiert hat. Diese Angaben besitzen bis auf kleine Korrekturen noch heute ihre Gültigkeit und zeigen uns, wie genau Luigi Nono Klangraum, neue Klanggestalten, die Elektronische Klangumwandlung in sein Werk von Anfang an integriet hat.

Mit diesen pragmatischen Beispielen hoffe ich, das Interesse für den Vocoder als Instrument der Elektronischen Klangumwandlung wieder aktualisiert und zu eigenen Klangstudien und praktischen Experimenten angeregt zu haben. Die heutige Leistungsfähigkeit des Computers ermöglicht die Zusammenstellung von Filterbänken (fertige Software), so dass auch die größeren Anschaffungskosten für analoge Bandpassfilterbänke entfallen. Da der Vocoder nicht nur als ein Gerät der Mess– oder Nachrichtentechnik eingesetzt wird, sondern zum 'Musikinstrument' avanciert ist, müssen spezielle Bedienungselemente und vor allem keine zu steilen Ein- und Ausschwingvorgänge der Filter berücksichtigt werden. Wir haben gesehen, dass eine variable Zuordnung der beiden Filterbänke in der zentralen Steuereinheit für die Entwicklung neuer Klanggestalten sehr wichtig ist. Der Computer bietet uns den Vorteil, dass wir Vocoderkonfigurationen und damit Klangregister schnell und geräuschlos verändern können.


Der Vocoder ist konzertfähig geworden, er kann live 'gespielt ' werden.






1 Michael M. Rieländer, Reallexikon der Akustik, Frankfurt a.M.: E. Bochinsky, 1982, S. 429.

2 Werner Meyer-Eppler, Elektronische Klangerzeugung, Bonn: Ferd. Dümmlers Verlag, 1949.
S. 120, Abb. 103

3 Werner Meyer-Eppler, Elektronische Klangerzeugung, Bonn: Ferd. Dümmlers Verlag, 1949.   S. 120 ff.

4 vgl. Fußnote 1

5 H. Burris-Meyer, 1941, in W. Meyer-Eppler, Elektronische Klangerzeugung, Bonn: Ferd. Dümmlers    Verlag, 1949. S. 121.

6 dtv-Lexikon, München: Deutscher Taschenbuch Verlag.

7 vgl. Hans Peter Haller, Das Experimentalstudio, Baden-Baden, Nomos, 1995, Band 2, S. 56 ff.

8 P.-H. Mertens, Die Schumannschen Klangfarbengesetze" Frankfurt a.M.:Verlag Bochinsky,
  1975.

9 vgl. Hans Peter Haller, Das Experimentalstudio, Baden-Baden, Verlag Nomos, 1995, Band 2, S. 121.

10 Abbildung 4a ist die nummerische Darstellung von den Abbildungen 4 und 5.

11 vgl. Abb. 2.

12 Thomas Sandmann, Workshop Effekte-Vocoder, in KEYS, Magazin für
   Musik und Computer, PPV Presse Projekt Verlags GmbH,1, 1999.

13 vgl. Hans Peter Haller, Das Experimentalstudio, Baden-Baden: Verlag Nomos, 1995, Band 1, S. 22.

14 J.B. Fourier, französischer Mathematiker, 1768-1830.

15 vgl. Hans Peter Haller, Klanganalyse, Neues Handbuch der Musikwissenschaft, Band 9, Hans    Oesch, Außer-Europäische    Musik, Regensburg: Verlag Laaber, 1987, Kapitel VII,Materialien, S.    455 ff.

16 vgl. Hans Peter Haller, Das Experimentalstudio, Baden-Baden: Verlag Nomos, 1995, Band 2. Abb.    C59, S. 141.

17 vgl. Hans Peter Haller, Das Experimentalstudio, Baden-Baden: Verlag Nomos, 1995, Band 2,S. 141 ff.

18 Um eine besser lesbare Grafik zu erhalten, musste ich auf 44 Spektralbereiche reduzieren.

19 P.-H. Mertens, Die Schumannschen Klangfarbengesetze, Frankfurt a. M.: Verlag Bochinsky, 1975,    S. 22 ff.

20 vgl. Abb. 4, parallele Verschiebung.

21 vgl. Abb. 4

22 vgl. Abb. 4

23 Unter 'Programm' verstehe ich die Zuordnung der Kanäle in der zentralen Steuereinheit.

24 Das Schicksalslied von Hölderlin übernimmt Luigi Nono, musikalisch z.T. verändert für Prometeo,    Tragedia dell' ascolto.