Auf Anregung von Besuchern meiner Homepage habe ich die Links für die Abbildungen in allen Lehrheften verändert:
Beim Aufrufen einer Abbildung öffnen Sie ein neues Fenster mit dem ausgewählten Bild. Um zur Textseite zurückzukehren müssen Sie dieses zweite Fenster entweder schließen oder zur Seite ziehen. Falls Sie die zweite Möglichkeit benutzen, wird das erste Bild beim erneuten Aufruf einer weiteren Abbildung überschrieben u.s.w.. Mit den Befehlen „vor“ und „zurück“ im aktuellen Bildfenster können die anderen, schon ausgewählten Abbildungen immer wieder aufgerufen werden. Rückkehr zur Textseite ist durch Anklicken dieser immer möglich.


Klangtransformation:1

Klangtransposition bedeutet vertikale Veränderung - Tonhöhenverschiebung von akustischen Informationen im Hörbereich. Man kann diesen klanglichen Vorgang auch als Frequenzumsetzung oder Tonhöhenverschiebung bezeichnen.

Ein Klang kann aus unterschiedlichen Strukturen bestehen:
a) Einzeltöne oder Tonfolgen, instrumental, vokal oder synthetisch.
b) komplexe Klänge wie z.B. die Mehrstimmigkeit bis hin zum orchestralen Klangaufbau.

Es stehen uns mehrere Transformationsgeräte zur Verfügung. Die für die Musik gebräuchlichsten sind:
a) Ringmodulator
b) Frequenzmodulator
c) Harmonizer
d) Vocoder
Für die folgende Betrachtung der Transpositions- und Selektionsformen schließe ich den Vocoder aus. In Heft 1
2 habe ich ausführlich dieses Thema in Bezug auf den Vocoder angesprochen. Außerdem möchte ich auch in diesem Text gleich zu Beginn darauf hinweisen, dass die für die Musik interessanten physikalischen Funktionen und nicht ihre technische Realisation für mich Priorität haben. Natürlich werde ich auf die unterschiedlichen Klangergebnisse analoger, hybrider oder digitaler Geräte eingehen, nicht aber auf ihre Bauart oder messtechnischen Qualitäten, die sich heute sehr schnell ändern. Kurz gesagt, es geht mir um die für einen Komponisten wichtigen Klangergebnisse und Klangvariationsmöglichkeiten. Die technischen Erfahrungen im Umgang mit einzelnen Gerätetypen muss jeder Musiker, jeder Techniker für sich persönlich sammeln und danach seine Typenauswahl treffen.
Frequenzmodulation ist für die Live-Elektronik, für die Umwandlung von Naturtönen in Echtzeit nicht geeignet. Ihre Domäne ist die synthetische Klangerzeugung
3.
Der Ringmodulator hat in den letzten Jahren aufgrund des Beginns der digitalen Klangtransposition, Frequenzumsetzung (Harmonizer) an Bedeutung verloren, obwohl bedeutende Werke der 70ziger Jahre wie z.B. Stockhausens „Mantra“, „Explosante fixe....“ von Pierre Boulez oder die „Pianophonie“ von Kazimierz Serocki – nicht zu vergessen die Kompositionen von Cristóbal Halffter – immer wieder aufgeführt werden4 . Ich persönlich bin nach wie vor von den klanglichen Möglichkeiten des Ringmodulators beeindruckt. Dies allerdings nur dann, wenn seine klanglichen Möglichkeiten in einen kompositorischen Prozess auch richtig eingearbeitet werden. So möchte ich, wenn auch nicht so ausführlich wie in meiner Dokumentation, dieses „Instrument“ ein wenig näher betrachten.


Von der unterschiedlichen Vibrato- bzw. Tremoloerzeugung kennen wir drei Grundarten der Modulation, wobei es sich in diesem Fall um sehr langsame „Modulatoren“ handelt:

1. Amplitudenmodulation, Veränderung der Lautstärke durch eine aufmodulierte Trägerwelle (Modulator).
2. Frequenzmodulation, Veränderung der Tonhöhe durch eine aufmodulierte Trägerwelle (Modulator).
3. Spektralmodulation, Veränderung der Klangfarbe durch eine aufmodulierte
Trägerwelle bei gleichbleibender Grundschwingung (1. Teilton).

Abbildung 1

Bei einer wie zuvor genannten langsamen Zeitfunktion des Modulators entstehen:
1. Amplitudenvibrato, u. a. bei Bläsern oder Orgel.
2. Frequenzvibrato, u. a. bei Saiteninstrumenten.
3. Spektralvibrato
5 , u. a. bei Bläsern. Es entsteht in Verbindung mit einem Amplitudenvibrato und kann weder in der natürlichen noch in der synthetischen Musik exakt getrennt realisiert werden.

Ausgehend von einem unveränderten Normpegel dBm = 1.55 V ändert sich bei einer langsamen Spektralmodulation Rechteck – Sinus – Rechteck (siehe Abbildung 1) die Dynamik um ca. 2 Phon. Durch die wechselnde Dichte der Spektrallinien und die damit verbundene Klangfarbenänderung werden weitaus größere Dynamikunterschiede empfunden, als das Messergebnis aufzeigt6 .

Betrachten wir zuerst die Amplitudenmodulation beginnend mit der physikalischen Funktion des Ringmodulators (im Folgenden mit Rgm abgekürzt):
Eine Wechselspannung Ue1 mit der Amplitude A und der Kreisfrequenz
a7 wird mit einer zweiten Wechselspannung Ue2, Amplitude A und der Kreisfrequenz B multipliziert.

Ua = A x sin a x B x sin b

(Ua = Ausgangssignale des Rgm)
Dieser Ausdruck lässt sich durch Umformung wie folgt ableiten:
Ua = sin a x B sin b = A x B sin a sin b = ½ A x B [ cos(a - b) - cos(a + b) ]

cos a + b und cos a - b sind die Addition und Subtraktion der beiden Eingangssignale und stellen die beiden Seitenbänder Ue1 (o. S.) und Ue2 (u. S.) dar.

Für den Komponisten ist das Ergebnis dieser Umstellung die Tatsache, dass die beiden Eingangssignale unterdrückt werden und dafür die beiden Seitenbänder Ue1 und Ue2 erzeugt werden. Im Folgenden werden diese beiden Seitenbänder Ue1 + Ue2 und Ue1 - Ue2 als oberes und unteres Seitenband bezeichnet, wobei die Amplitude ½ A x B nur in speziellen Fällen zu betrachten ist. Betrachten wir nochmals die Formel „Ua = sin a + sin b = o. S. und Ua = sin a - sin b = u. S., so kann generell festgestellt werden, dass im Gegensatz zur chromatischen Tonleiter (Halbtonverhältnis 16 :15) das obere und untere Seitenband aufgrund ihrer linearen Addition und Subtraktion im Rgm in das temperierte Tonsystem nicht einzuordnen sind. Gerade diese Gegensätzlichkeit ist es aber, die das Klangergebnis des Rgm für neue musikalische Strukturen so interessant macht. In meiner Dokumentation8 habe ich den Rgm ausführlich beschrieben und als Anhang 1 in Band 1, Seiten 103 ff., Tabellen über die Verhältnisse Trägerwelle / Modulatorwelle – oberes Seitenband (o. S.) / unteres Seitenband (u. S.) angefügt.

Die folgenden Abbildungen zeigen grafisch den Verlauf der beiden Seitenbänder bei unterschiedlichen Konstellationen der zwei Eingangssignale. Die Tonbeispiele sind nicht auf die angegebenen Frequenzen der Abbildungen bezogen, sondern nur als zusätzliche Klanginformationen gedacht. Es kann generell davon ausgegangen werden:


1. dass bei konstanter Tonhöhe von Ue 1 und chromatisch nach oben verlau-fenden Tonschritten von Ue 2 die beiden Seitenbänder sich parallel zu Ue 2 bei schrittweise verkleinertem Abstand weiter bewegen.

Abbildung 2
Klangbeispiel 1

2. dass bei konstanter Tonhöhe von Ue 2 und chromatisch nach oben verlau-fenden Tonschritten von Ue 1 sich das obere Seitenband bei schrittweise verkleinertem Abstand parallel zu Ue 1 weiterbewegt. Das untere Seitenband hingegen wird bei zunehmender Vergrößerung seiner Intervalle in Gegenbewegung zu Ue 1 und dem oberen Seitenband weitergeführt.

Abbildung 3
Klangbeispiel 2

3. dass bei chromatisch nach oben oder unten verlaufenden Tonhöhen von Ue 1 und Ue 2 sich die Seitenbänder quasi parallel zu Ue 1 und Ue 2 weiterbewegen (Mixturklang).

Abbildung 4
Klangbeispiel 3

4. dass bei chromatisch entgegenbewegten Tonhöhen von Ue 1 und Ue 2 die Seitenbänder sich teils parallel, teils entgegengesetzt zu den Eingangssignalen verhalten.

Abbildung 5
Klangbeispiel 4


Die Klangbeispiele sind mit einem Sinusoszillator (Ue 1) und einem E-Piano (Ue 2) hergestellt. In Klangbeispiel 4 habe ich die Frequenz des Sinusoszillators gleitend verändert
Ist die Frequenz des Sinusoszillators ca. 1 bis 10 Hz, so wird der Klang von Ue 2 rhythmisiert, es entstehen keine Seitenbänder. Vergleiche hierzu nochmals Abbildung 1, verschiedene Vibrato- oder Tremolomöglichkeiten.

Klangbeispiel 5

In analoger Bauweise ist mit dem Rgm eine Einseitenbandmodulation nur technisch sehr aufwendig und klanglich nicht zufriedenstellend zu realisieren. Beispiele hierfür habe ich in meiner Dokumentation – Fußnote 4 – aufgeführt. Die Digitaltechnik erlaubt nun eine akustische Trennung der beiden Seitenbänder und damit weitere neue Klangstrukturen. Bei richtiger Auswahl der Frequenzen des Modulators Ue 1 können aus einer einstimmigen Tonfolge (z.B. Flöte) polyfone Strukturen realisiert werden. Pierre Boulez hat für sein Werk „Repons“ (Uraufführung am 18.10.1981 in Donaueschingen) zum ersten Mal digitale Einseitenbandmodulatoren eingesetzt. Entwickelt wurde der Computer, genannt 4 X, von Giuseppe di Giugno. Leider war das Klangergebnis damals noch nicht sehr gut. So musste z.B. der Pianist vor und nach dem Anschlagen der Tasten über ein Fußpedal den Modulator ein- und ausblenden, da die Modulatortöne Ue 1 zu wenig am Ausgang Ua unterdrückt wurden. Die groszlig;en Datenmengen und der schnelle Datenfluss müsste für die heutigen Computer kein Problem mehr sein. Die Schwierigkeit wird nur noch darin liegen, kleine Einzelgeräte, vom Interpreten selbst in Echtzeit bedient, programmiert, auf der Basis von Mikroprozessoren mit Festspeichern zu entwickeln. Sicherlich ist das für die Zukunft ein interessantes Projekt.

Bevor ich nun über Beispiele aus der Praxis berichten werde, komme ich auf die sehr wichtige Funktion eines Rgm zu sprechen: die dynamischen Verhältnisse im Modulator. Ich habe bewusst dieses Thema bei der Betrachtung der technischen Funktionen (Formeln) zurückgestellt, um den Leser, vor allem den Musiker nicht mit zu vielen physikalischen Begriffen auf einmal zu belasten. Die Dynamik ist in erster Linie dann für das klangliche Ergebnis ausschlaggebend, wenn beide Eingangs-signale, Ue 1 und Ue 2, mit variabler Lautstärke konzipiert sind, so z.B. zwei Instrumental- oder Vokalstimmen. Aus den folgenden Tabellen können wir den Unterschied deutlich erkennen, ob Ue 1 mit konstanter Dynamik (z.B. ein Oszillator), oder wechselnder Dynamik (z.B. ein Instrumentalklang) eingesetzt wird.

Der Normpegel
9 im Studiobereich ist 6 dB = 1.55 Volt. Zur Vereinfachung von Berechnungen verwende ich im Folgenden 1.5 Volt. Um einwandfreie Übergänge zwischen den nach dieser Vorschrift ausgelegten Studiogeräten und dem elek-tronischen Instrumentarium zur Frequenzumsetzung zu gewährleisten, muss diese Norm übernommen werden. Ich denke z.B. an die Ansteuerung eines Endverstärkers durch einen Rgm. Nach Ausklammerung der trigonometrischen Anteile vereinfacht sich die Formel für die Ringmodulation auf die reinen Amplitudenverhältnisse (Dynamik).


Ua = ½ A x B


Damit am Ausgang des Rgm der Maximalpegel von 1.5 V bei einer Eingangsspannung von ebenfalls 1.5 V nicht zu groß ist, muss der Korrekturfaktor a definiert werden. Daraus ergibt sich:


1.5 V = a x 1.5 x 1.5
a = 1.5 / 2.25 = 1 / 1.5 = 2 / 3
Ua = 2 / 3 x 1.5 x 1.5 = >< 1.5


Der Faktor a des Normpegels ist 2 / 3. Die Spannungsverhältnisse bei Änderung der Werte von Ue 1 und Ue 2 sind:

Ua = 2/3 x 1.5 V x 1.5 V = 1.5 V
Ua = 2/3 x 1.5 V x 0.75 V = 0.75 V
Ua = 2/3 x 0.75 V x 0.75 V = 0.37 V
Ua = 2/3 x 0.75 V x 0.37 V = 0.18 V
Ua = 2/3 x 0.37 V x 0.37 V = 0.09 V
Ua = 2/3 x 0.37 V x 0.18 V = 0.04 V
Ua = 2/3 x 0.18 V x 0.18 V = 0.02 V

Die gleichen Spannungsverhältnisse als reine Faktoren dargestellt:

Ue 1   Ue 2   Ua

1     1      1
1      0.5    0.5
0.5    0.5    0.25
0.5    0.25   0.125
0.25   0.25   0.062
0.25   0.125  0.031
0.125  0.125  0.015

Jeder Spannungsänderung (Lautstärke) an den beiden Eingängen Ue 1 und Ue 2 folgt eine entsprechende Spannungsänderung am Ausgang Ua des Rgm. Die Spannungswerte von Ua können mit einer definierten Lautstärke nicht gleichgesetzt werden, da sie von der jeweiligen Einstellung des Endverstärkers abhängig sind. Wichtig dagegen ist das Verhältnis der Spannungsveränderungen zwischen Ue 1, Ue 2 und Ua. Diesem Verhältnis entspricht das Lautstärkenverhältnis zwischen dem Originalklang (Instrument oder Stimme) und dem frequenzumgesetzten Klang (Lautsprecher). Wird z.B. ein Flötensolo mit einem Sinuston konstanter Dynamik moduliert, so ist der Flötenklang einmal original zu hören, während gleichzeitig über Lautsprecher das Produkt von beiden, Flöten- und Sinuston, mit gleichen dynamischen Unterschieden wie das Original erklingt. Wird dagegen der Ton der Flöte mit dem Klang einer Klarinette moduliert und beide Spieler (Ue 1 und Ue 2) verkleinern ihre Dynamik um ca. 10 Phon, so reduziert sich die Lautstärke des Produkts im Lautsprecher um ca. 20 Phon. Ausgehend von der relativen Lautstärke – 6 dB = ff – in musikalische Dynamikstufen übertragen, ergeben die Messwerte folgende Tabelle:

Gruppe A: Flötenklang mit Sinuston konstanter Lautstärke (6 dB) moduliert:

Flöte ff = Ua ff
Flöte f = Ua f
Flöte p = Ua p

Gruppe B: Flötenklang mit Klarinettenton moduliert:

Flöte ff Klarinette ff = Ua ff
Flöte f Klarinette ff = Ua f
Flöte f Klarinette f = Ua mf
Flöte mf Klarinette f = Ua p
Flöte mf Klarinette mf = Ua pp
Flöte p Klarinette mf = Ua ppp
Flöte p Klarinette p = Ua pppp

Bei der Aufstellung dieser Tabelle bin ich davon ausgegangen, dass sich beim Übergang von einer Dynamikstufe zur anderen die Lautstärke um ca. die Hälfte ihres Wertes verändert. Das erste Beispiel (A) zeigt, dass bei gleichbleibender Amplitude des Sinustones die Ausgangsdynamik des Rgm mit der Lautstärke des Instrumentalklanges korrespondiert. Beispiel B hingegen macht deutlich, dass bei einer Frequenzumsetzung mit 2 Tonquellen veränderlicher Lautstärke die Dynamikschritte des Rgm im Lautsprecher doppelt so groß wie im Originalklang sein können. Dieser akustische Vorgang kann zu einer vollkommenen Verdeckung des frequenzumgesetzten Klanges führen (Verdeckungseffekte10). Eine Pegelanhebung des Produkts (Ua) ist möglich, kann jedoch bei einer gleichzeitigen Steigerung der Lautstärke der Instrumentalklänge bis zum Fortissimo im Rgm bzw. im nachgeschalteten Verstärker zu Übersteuerungen und damit zu nichtlinearen11 Verzerrungen führen.
Diese auf den ersten Blick technische Schwäche des Rgm schafft für den Komponisten gleichzeitig neue, subtile musikalische Strukturen. Es müssen natürlich innerhalb eines kompositorischen Entwurfs von Anfang an genaue dynamische Prozesse erarbeitet werden, um diese neue dritte Dynamikebene auch technisch richtig realisieren zu können. Die folgende Abbildung verdeutlicht diesen akustischen Vorgang.
Abbildung 3/6 ist ein kleines grafisches Beispiel dafür, wie sich die Dynamik-verhältnisse bei zwei Klangmaterialien (Ue 1 und Ue 2) mit veränderlicher Lautstärke auf die Dynamik des Produkts (Ua) eines Rgm auswirken:

Abbildung 6

Soweit eine kurze Einführung in die Funktionen eines Ringmodulators. Bevor ich über den Harmonizer, das zweite Transformationsgerät berichte, noch einige praktische Beispiele zum Einsatz des Rgm:

Karlheinz Stockhausen komponierte im Auftrag des Südwestfunks 1970 ein Werk für zwei Klaviere mit zwei Ringmodulatoren. In enger Zusammenarbeit mit mir entwickelte Dipl. Ing. Peter Lawo einen Rgm als Kompaktgerät, d. h. jedes der beiden Geräte hatte 2 eigene Mikrofonverstärker, einen Sinusoszillator und einen vom Interpreten kontrollierbaren Ausgangsverstärker. Die Komposition ist aus einer 13-tönigen Tonformel, den sogenannten „Mantras“ – die dem Werk auch seinen Namen gab – entstanden, also eine 12-Tonreihe, deren Anfangs- oder Zentralton am Ende der Reihe wiederholt wird. Die einzig zwingende Verbindung (kompositorische Integration) zwischen Klangumformung und Komposition sind diese 13 Transpositionstöne, die der eben genannten Tonreihe (Tonformel) entsprechen. Abbildung 7 zeigt die Einstellskala für die Pianisten. Ton 1 und 13 fallen zusammen.


Abbildung 7

Um die einzelnen von Stockhausen vorgeschriebenen Frequenzbereiche während der pianistischen Aktivität übersichtlicher einstellen zu können, hat Lawo die Skala in drei Bereiche aufgeteilt und damit die Zahlenreihen gespreizt. Im fertigen Zustand, noch mit Bandpässen bestückt, sehen wir den Kleinklangumformer – so genannt im Experimentalstudio – in Abbildung 8. Natürlich wurden aufgrund der technischen Entwicklung die Folgegeräte immer kleiner, die große Bedieneroberfläche für den Pianisten blieb jedoch erhalten.

Abbildung 8


Aloys Kontarsky, er spielte mit seinem Bruder Alfons die Uraufführung 1970 in Donaueschingen, hat anlässlich eines Konzerts in Freiburg in einer Einführung zu diesem Werk die Klangumformung sehr musikalisch beschrieben. Ich zitiere einen kleinen Ausschnitt. Der vollständige Text der Einführung kann im zweiten Band, S. 10 ff., meiner Dokumentation (siehe Fußnote 4) nachgelesen werden.

„...der Klavierton wird jeweils mit einem Sinuston moduliert. Dieser Sinuston wird vom Pianisten an einem Oszillator eingestellt und das kling dann so.......... (Klavierbeispiel). Je weiter wir uns nun in der Obertonskala vom kleinen a (ebenfalls die Frequenz des Sinustones) entfernen, umso dissonanzreicher wird die Klangfarbe. Es entstehen innerhalb einer solchen Gruppe also Töne, die um den Ton a moduliert sind, etwas wie eine Art Kadenzgefälle der Klangfarbe. Je mehr wir in die reinen Obertonverhältnisse kommen, umso mehr wird auch der elektronische Klang harmonischer, je weiter wir uns von den ersten Obertönen entfernen, umso dissonanter wird die Struktur. Auf diese Weise entsteht in diesem Stück ein so merkwürdiges Gefälle, weil jeweils für einen sehr langen Abschnitt ein solcher Ton (Sinus) eingestellt wird. Es gibt insgesamt 13 Abschnitte, und jeder basiert bei jedem Klavier auf einem entsprechenden Sinuston. Das hat nun zur Folge, dass innerhalb dieser Gruppen sich immer so etwas wie harmonische Grundbezüge einstellen. Man glaubt eine Art Kadenzmusik zu hören, obwohl die gar nicht vom Klavier produziert ist. Diese Tonhöhen werden nun im Laufe des Stückes – ich sagte es schon – bei beiden Instrumenten entsprechend der Disposition des Themas verschieden eingestellt. Darauf komme ich noch zu sprechen. Insgesamt hat das Stück 13 Sektoren, und jeder dieser 13 Sektoren basiert bei jedem Klavier auf einem solchen Grundton.“

Leider wurden anlässlich des Konzerts in Freiburg die von Kontarsky gespielten Klavierbeispiele nicht aufgenommen.
Ich möchte in diesem Zusammenhang auf ein generelles Problem zu sprechen kommen. Die Proben mit den beiden Pianisten und dem Komponisten in Rastatt haben wie so oft gezeigt, das allein gute Messwerte eines elektronischen Gerätes, in unserem Beispiel ein Rgm, für das klangliche Ergebnis in der Musik nicht maßgeblich sind. Wie schon gesagt, sollten bei einem Rgm die Eingangssignale, vor allem im gegebenen Fall Sinustöne, am Ausgang des Modulators nur wenig oder gar nicht zu hören sein. Damit wäre auch das unschöne Pfeifen der Sinusschwingungen im Gesamtklang bestmöglichst unterdrückt. Außerdem müssen die Geräte sehr stabil und temperaturbeständig ausgelegt sein, damit sie auch für größere Reisen in unterschiedlichen Tranportgefährten und Klimabedingungen noch funktionstüchtig sind. Abbildung 9 zeigt z.B. den Rgm im Garten des „Serail“ in Shiraz, Iran. Die Umgebungstemperatur betrug damals tagsüber bis zu 45 Grad.

Abbildung 9

Nochmals auf unsere Probenarbeit in Rastatt zurückkommend, möchte ich das Problem der Messwerte aufgreifen. Immer wenn es Peter Lawo während der Probe gelang, die Eingangs-signalunterdrückung auch akustisch sehr gut abzugleichen, mussten wir feststellen, dass der Klangbereich verkleinert wurde. Vor allem waren es die tiefen Töne. So wurde experimentiert, bis wir einen Kompromiss zwischen technischer Qualität und dem besten musikalischen Klangergebnis fanden. Dieses eben genannnte Problem tritt auch zwischen analoger, hybrider und digitaler Technik immer wieder auf. Ich werde bei der Klangselektion mit Bandpassfiltern darauf nochmals zurückkommen. So haben wir sehr oft nicht nur mit Instrumenten oder Stimmen, sondern auch mit dem „Lötkolben“ geprobt, siehe dazu die Abbildung 10. Oberes Bild: Der Rgm wird zusammen mit Karlheinz Stockhausen musikalisch getestet. Unteres Bild: Peter Lawo versucht unsere Wünsche betreffend des Klangergebnisses durch kleine technische Änderungen zu realisieren.

Abbildung 10

Auch Cristóbal Halffter hat in seiner Komposition „PLANTO POR LAS VICTIMAS DE LA VIOLENCIA“ mehrfach den Rgm als Klangerweiterung eingesetzt, wobei für ihn die reine Klangerweiterung gegenüber strukturellen Formen im Vordergrund steht. Halffter hat als erster versucht, alle klangumformenden Attribute in seiner Partitur genau zu definieren. Unter dem Instrumentalteil hat er eine erste Klangpartitur angefügt. Zusätzlich sind in der Legende zu seinem Werk die einzelnen Kombinationen als Programmabläufe verzeichnet. So ist z.B. zu lesen:
„Seite 7 ff.
12 a) Holzbläser mit Sinus 2093 Hz (stufenweise bis 174 Hz nach der Partitur verändert) moduliert (ab 220 Hz Rechteckschwingung). Produkt des Rgm zu Eingang Gate 1. Mikrofonspannungen der Schlagzeuge 1 bis 4 kontrollieren am Steuereingang dynamisch Gate 1“.
Dies bedeutet, dass das Klangergebnis des Rgm nur dann zu hören ist, wenn ein Schlagzeuger durch seine Dynamik das Gate (VC-Verstärker) öffnet. Damit hat Halffter eine zweite musikalische Kontrolle des Rgm-Produkts eingebaut. In meinem vierten Heft werde ich über Kombinationen einzelner klangumformender Geräte ausführlicher berichten.

Abbildung 11

Pierre Boulez hat in seinem Werk „explosante fixe.....“ für acht Instrumentalisten vor allem in dem Klarinettensolo, 2ième Emprunt Original, dem Rgm einen wichtigen Platz zugeordnet (Abb. 11). Für jeden Abschnitt ist der transformierende Sinuston gleich dem „Basiston“ der jeweiligen instrumentalen Tonreihe. Dadurch entstehen, ähnlich wie bei Stockhausens „Mantra“, immer neue, aus dem Unisono sich bildende Intervallveränderungen, Intervallverdichtungen. Die Tonhöhe der wechselnden Sinustöne sind in dem Notenbeispiel umrandet. In einem anderen Satz hat Boulez Instrument mit Instrument moduliert. Warum hat der Komponist auf diese Weise den Rgm in seinen kompositorischen Entwurf integriert? In einem Gespräch mit Josef Häusler sagte dazu Pierre Boulez:

„Ich wollte eine Art von gegenseitiger Reaktion haben; es sollte aber eine Art aleatorische Reaktion sein, trotz einer gewissen Festlegung; so wie ich das zum Beispiel im zweiten Buch der Structures pour deux pianos gemacht habe.......Diese Idee habe ich wieder aufgenommen, als ich explosante fixe...komponierte. Ich sagte mir: die Instrumente sind alle fixiert in ihrem Bereich; wie können sie sich beeinflussen, und zwar nicht nur von der Dynamik her, das ist nicht genug, sondern auch von der Tonhöhe her? Und da ist mir die Live-Elektronik zu Hilfe gekommen, denn hier reagieren sie aufeinander nicht nur im Raum und in der Dynamik, sondern auch im Tonbereich. Wenn zum Beispiel zwei Instrumente zusammen moduliert sind, dann ist die Tonhöhe eine Resultante und nicht mehr die Originaltonhöhe...“

Eine vollkommen andere Arbeitsweise finden wir bei Kazimierz Serocki. Während der ersten Ausarbeitungsphase seiner Pianophonie für Klavier, Elektronische Klangumformung und Orchester im Freiburger Experimentalstudio erforschte der Komponist Klangmöglichkeiten des Rgm, indem er am Klavier mit zwei Rgm und vier Oszillatoren experimentierte. So fuhr er nach einer Woche mit einem „Paket“ Klangstrukturen nach Hause und komponierte unter Einbeziehung des neu gewonnenen Klangmaterials seine Pianophonie. Nach Wochen kehrte Serocki ins Experimentalstudio zurück, um die Komposition für Klavier und Live-Elektronik zu überprüfen, gegebenenfalls zu korrigieren. Außerdem besprachen wir mit dem Komponisten die Notation der Elektronischen Klangumformung in der Partitur. Serocki modulierte, wie in den ersten Proben, die zwei Rgm mit vier Oszillatoren, wobei er zwei dem Klavier und zwei der Klangregie zuordnete. Damit bildeten der Pianist und die Klangregie quasi ein Duo. Der Komponist setzte bewusst von Anfang an die Live-Elektronik nur für das Soloklavier ein, zum einen, um den Klang des Klaviers zu erweitern und die Palette der klangumformenden Funktionen sinnvoll solistisch einzuordnen, zum anderen, um einen zusätzlichen Kontrast zum Originalklang des Orchesters zu erreichen. Abbildung 12 zeigt den Komponisten bei der Arbeit. Im Hintergrund ist der Spezialoszillator zu erkennen.

Abbildung 12

Wie schon gesagt, zwei Oszillatoren (mit Frequenzangaben) wurden vom Pianisten eingestellt. Für die anderen zwei Oszillatoren wurde im Freiburger Studio von Bernd Noll, Labortechniker, ein Spezial-Doppeloszillator
13 entwickelt, um die vorgeschriebenen grafischen Spielanweisungen des Komponisten realisieren zu können (z.B. Diagonalglissandi). Diese Oszillatoren müssen, in normaler Notenschrift notiert, vom Klangregisseur gespielt werden. Serocki erreichte mit dieser kompositorischen Konzeption eine vierfache Transposition des Klaviertons, zusätzliche Zeitverzögerung mit Schichtung14 und eine große Spektrumstiefe vom wohlklingenden Klavierton bis zum komplexen Geräusch.
Zwei Beispiele aus diesen umfangreichen Klangstrukturen:
1. Ziffer 18 Der Klavierklang wird mit zwei langsamen Frequenzen, 3 und 13 Hz, moduliert. Mit 3 Herz allein würde ein langsames Tremolo entstehen. Durch die zweite Frequenz von 13 Hz bleibt die langsame Modulation erhalten, wird jedoch durch die unterschiedliche Überlappung der beiden Frequenzen unrhythmisch und aufgrund der nicht synchronen Einsatzpunkte der Oszillatoren zufällig.

Abbildung 13

2. Ziffer 38 Hier beginnt eine Transpositionsphase mit zeitlich versetzter Zuschaltung der vier Oszillatoren. Die einzelnen Tonhöhen bestehen in der originalen Reihenfolge: 100 und 55 Hz – ais2 – e1. Hinzu kommt neben der Zunahme der Klangdichte die dynamische Steigerung bis Fortissimo. Da eine Abbildung des zwanzigtaktigen Abschnittes zu umfangreich ist, habe ich in Abb. 13 die vier Einsätze der Oszillatoren mit Klavier und ohne Orchester ausgewählt.

Abbildung 14

Ein weiteres Beispiel und mit das Originellste ist bei Ziffer 46 zu finden. Der Pianist streicht mit beiden Händen über die Klaviersaiten, es entsteht ein leises, geräuschartiges Rumoren, das mit den Sinustönen der Oszillatoren 3 und 4 moduliert wird. Das akustische Ergebnis sind die notierten Tonreihen der beiden, von der Klangregie gespielten Sinusoszillatoren in der Klangfarbe des instrumentalen Geräusches.

Abbildung 15

Wichtig war für mich bei dieser Produktion auch die Erfahrung, dass technische Geräte modifizierbar sein sollten, um noch mehr auf musikalische Vorschlä ge der Komponisten eingehen zu können. So kann ein lebendiges Wechselspiel zwischen der Entwicklung, ich möchte sagen, neuer technischer Instrumente und neuen kompositorischen Formen entstehen. Rgm-Interessenten empfehle ich das Studium der Partitur dieses Werkes, erschienen in der Edition Moeck, Celle: Nr. 5207.
Auf weitere Angaben zu Arbeiten mit dem Rgm verweise ich, wie schon erwähnt, auf meine Dokumentation über die Arbeit im Experimentalstudio der Heinrich-Strobel-Stiftung des SWR in Freiburg i. Brsg., siehe Fußnote 4.

Im Gegensatz zum Rgm haben wir mit dem digitalen Harmonizer, auch Digital Audio Computer, Live-Sampler oder Pitchshifter genannt, die Möglichkeit, akustische Informationen jeglicher Art nach oben und unten in frei bestimmbaren Intervallen zu transponieren. Ich beschränke meine Ausführungen auf den digitalen Harmonizer; die für die Musik bestimmenden Funktionen sind in anderen digitalen Geräten die gleichen. Aufgrund seiner Funktionsweise benötigt der Harmonizer keine Modulationsfrequenz (zweite Tonquelle Ue 2 des Rgm):

Abbildung 16

Im Folgenden beginne ich mit der Besprechung eines Gerätetyps, der live wie ein Rgm in Echtzeit und ohne externe Steuerung als programmierbarer Frequenzumsetzer eingesetzt werden kann. Danach folgt die Gruppe der Sampler, die von einem Keyboard oder einem digitalen Sequenzer kontrolliert wird, d. h. ein digitalisiertes Signal wird in einem Speicher aufgenommen, zu einem späteren Zeitpunkt verarbeitet und wieder hörbar gemacht: zeitversetzte Frequenzumsetzung.
Abbildung 16 macht den generellen Unterschied zwischen einem analogen Rgm und digitalen Audiosystem verständlich.
Während ein analoger Rgm im allgemeinen kontinuierliche und zeitabhängige physikalische Größen verarbeitet und selbst ähnliche Größen, wie z.B. Spannungen und Ströme am Ausgang erzeugt, besteht der Arbeitsprozess eines digitalen Harmonizers aus der Verarbeitung einer Folge von Zahlen, die am Ausgang des Gerätes wieder als Zahlenfolge erscheint
15. Diese Zahlenfolge entsteht durch Umwandlung analoger Informationen (aus Sinuswellen zusammengesetzte Schwingungsformen). In Abbildung 16 werden z.B. die Schallwellen eines Instrumental- oder Vokalklanges zuerst in einem Mikrofon in elektrische Ströme – Impulse – um-gewandelt. Dieser Vorgang ist noch in beiden Systemen, analog oder digital, gleich, es sei denn, es stehen digitale Mikrofone und Vorverstärker zur Verfügung. Im letzteren Fall entfällt der sonst für die Umwandlung der elektrischen Ströme in Zahlenfolgen notwendige ADC (Analog to Digital Converter). Die Umwandlung im ADC nennen wir „samplen“. Diese digitalen Signale oder Samples können in einem sich anschließenden Prozessor umgerechnet werden, die so neu entstandene Zahlenfolge muss in einem DAC (Digital to Analog Converter) wieder analogisiert und mit einem nachgeschalteten Audiosystem hörbar gemacht werden. Auch in diesem Fall entfällt der DAC, wenn ein digitaler Endverstärker eingesetzt wird.
Die Umwandlung in einem ADC – Sampling: Zum besseren Verständnis ein Zitat aus einer Arbeit von Thomas A. Troge
16:
„Die Sampling-Technik lässt sich z.B. als eine Variante zum analogen Studiobereich begreifen, bei der kurze oder längere Bandschnippel mit Klangeffekten hintereinander geklebt werden. Im Gegensatz zum analogen Tonband ist die Sampling-Technik aber durch den jeweils zur Verfügung stehenden Arbeitsspeicher (siehe Abb. 16) des Computers auf relativ kurze Längen solcher Schnippel, sprich Samples, begrenzt“.

Wenn ein Speicher schnell genug Daten schreiben und lesen kann, besteht die Möglichkeit, auch längere (Zeitdauern) Samples direkt auf einen größeren Festplatten- oder Bandspeicher aufzuzeichnen (Harddisc Recording). Schnell genug Daten schreiben und lesen bedeutet auch für den Harmonizer ein wichtiges Qualitätskriterium. Die Lesegeschwindigkeit – Sampling rate – bestimmt gleichzeitig die Qualität und die Transpositionsmöglichkeiten eines Samplers, eines Harmonizers. Hinzu kommt als weiteres Qualitätsmerkmal der Dynamikbereich, ausgedrückt in Anzahl Bits pro Abtastwert. Generell kann man davon ausgehen, dass eine Abtastrate (Sample rate, Samplefrequenz oder Lesegeschwindigkeit) von 40 KHz und ein Dynamikbereich von 16 Bit pro Abtastwert für das Samplen eines Instrumental- oder Vokalklanges ausreichend sind. Eine Verringerung dieser Werte führt zu einer merkbaren Minderung der Klangqualität eines Harmonizers. Um ein Audiosignal nach seiner digitalen Bearbeitung exakt zurückzugewinnen, muss es mit einer Samplefrequenz (Sample rate) abgetastet werden, die doppelt so groß wie die höchste Frequenzkomponente des Eingangssignals ist. Das sind bei 40 KHz Samplefrequenz ca. 20 KHz. Diese 20 KHz, also die Hälfte der Abtastfrequenz, werden auch als Faltfrequenz oder Nyquist-Frequenz bezeichnet. Sollten hohe Frequenzkomponenten eines komplexen Eingangssignals größer als die Faltfrequenz sein, können Störungen des analogen Ausgangssignals auf-treten
17.

Ein Beispiel:
Ein komplexer Klang A, erster Teilton (Grundton) = 3136 Hz (g4), wird mit einer Abtastfrequenz B von 30 KHz digitalisiert. Der 6. Teilton des Eingangssignals liegt bei 18816 Hz. Durch den Faltungsprozess – Abtastfrequenz B minus der Frequenz des 6. Teiltons von A (30000 - 18816 = 11184) – erscheint der 6. Teilton von A bei 11184 Hz (ca, f6) ein Ton zwischen dem 3. und 4. Teilton. Das harmonische Verhältnis ist gestört. Um dies zu verhindern, müsste die Abtastfrequenz auf 40 KHz erhöht werden.

Die Wiedergabe eines mit dem Harmonizer gesampleten Signals kann in verschiedenen Tonhöhen (Frequenzumsetzung) erfolgen. Im digitalen Signalprozessor werden die zwischengespeicherten Zahlenfolgen einfach schneller (= höher) oder langsamer (= tiefer) ausgelesen, ein Vorgang, der auch analog mit einem Tonband, das mit verschiedenen Geschwindigkeiten abgespielt wird, realisiert werden kann. Die Klangdauer wird dabei verkürzt oder verlängert. Wird ein analoges Audiosignal mit einer sampling rate von 50 KHz digitalisiert, so kann dieses Signal der Sampler nach unten (kleinere sampling rate) transponieren, wobei das Signal in seiner Dauer gedehnt wird (doppelte Länge bei halber sampling rate = 25 Khz). Das gleiche gesamplete Signal, mit einer rate von 100 KHz ausgelesen, macht auch die Transposition einer Oktave nach oben möglich. Die Signaldauer wird dabei gerafft (halbe Länge). Nun gibt es Systeme, mit denen eine Transposition nach oben und unten ohne Verkürzung oder Dehnung der Zeitdauer des gesampleten Signals realisierbar ist. In diesem Fall besitzt das System eine „time correction“. Ebenfalls kann bei guten Samplern die Zeitdauer des gesampleten Signals ohne Tonhöhenveränderung verkürzt oder verlängert werden. Dies wird mit einer speziellen Software „time compression“ bzw. „time expansion“ erreicht. Infolge des schnelleren oder langsameren Auslesens werden auch die Teiltonschwingungen eines Signals linear nach oben oder unten verschoben. Da Schwingungen nicht linear zur Frequenz, sondern algorithmisch
18 gehört werden, bedeutet dies, dass sich das Teiltonverhältnis eines gesampleten komplexen Signals schon bei Transpositionen um ca. eine Quinte nach oben oder unten deutlich ändert und damit auch sein Klangcharakter.

Die hohe Geschwindigkeit und die großen Speicherkapazitäten der modernen Computer ermöglichen alle beschriebenen Transformationsvorgänge in Echtzeit und damit auch einen Live-Einsatz im Konzert. Aus den kurzen technischen Angaben ist zu ersehen, dass aufgrund einer differenzierten Veränderung der Abtastrate (Samplefrequenz) sehr unterschiedliche Transpositionsintervalle, vom Mikrointer-vall bis zu normalerweise einer Oktave nach oben und zwei Oktaven nach unten, mit einem Harmonizer möglich sind. Im Gegensatz zum Rgm, bei dem sich die Transpositionsintervalle mit den Tonhöhen des Eingangssignals verändern, sind diese Intervalle bei einem Harmonizer konstant.
Neben zahlreichen akustischen Effekten wird in der E-Musik diese Frequenzumsetzung in unterschiedlichen Intervallen meist zur Verdichtung einer natürlichen Klanggestalt und zur Veränderung des Spektrums eingesetzt. In einigen Harmonizern kann die Abtastrichtung verändert werden und damit die Datenreihe umgekehrt ausgelesen werden. Wird dies live, also in Echtzeit über eine längere Zeitdauer durchgeführt, so entstehen systembedingte Datenlöcher
19 (Lesepausen), das akustische Ergebnis ist mit einem Bandrücklauf nicht mehr vergleichbar. Diese Tatsache könnte als technischer Mangel eines Harmonizers bezeichnet werden. Doch gerade die Unregelmäßigkeit, Zufälligkeit, z.B. bei Sprache nicht genau determinierbare Wortkürzungen bei umgekehrtem Auslesen der Daten, ergeben neue Klangqualitäten20
Auch zum Harmonizer einige Beispiele aus Werken von Luigi Nono, der sich in besonderer Weise mit dem Harmonizer auseinander gesetzt hat.

Abbildung 17

Das Transpositionsintervall muss nicht immer statisch sein, es kann zum Beispiel, wie Abbildung 17 zeigt, aus einer gleitenden Bewegung unterschiedlicher Tonhöhen bestehen. Viele Harmonizer besitzen ein internes Vibratoprogramm, sinusförmig (auch andere Steuerschwingungen) und mit sehr genau einstellbaren Zeiten von ca. 0.1 Hz bis 30 Hz. Abbildung 17 (oberer Teil) ist ein Ausschnitt aus der technischen Legende zu Nonos „A PIERRE“
21. Die Stimmen der Kontrabassflöte und Kontrabassklarinette sind, bezogen auf die musikalische Ausführung, sehr frei notiert. Nono komponierte eine kontinuierliche Mutation von Anblasgeräuschen bis hin zum reinen Instrumentalton mit genau fixierter Funktion der Tonhöhen und Zeitdauern. Aufgrund dieses kompositorischen Entwurfes und der aus ihr resultierenden Klanggestaltung wird die variable Transposition nur vereinzelt, quasi punktuell hörbar. Ein durch diese Einstellung des Harmonizers normalerweise ent-stehender „Sireneneffekt“ ist damit ausgeschlossen.
Im unteren Teil von Abbildung 17 ist die variable Transformation grafisch dargestellt. Die rot gezeichneten Segmente markieren diese zufälligen, modulierbaren Klangteile, die eine Transformationsbewegung innerhalb kleiner bis kleinster Intervalle – von der Interpretation abhängig – bewirken. Dieses Beispiel verdeutlicht im Besonderen, wie stark das transformierte Klangergebnis der Frequenzumsetzung mit dem Spiel des Musikers kohärent ist. Es gibt nicht die Starrheit des zusätzlichen Lautsprecherklangs, sondern zufällige Klanggestalten, wie sie von einer lebendigen, persönlichen Interpretation bekannt sind: „Live-Elektronik“ wie der Name schon besagt.
Statische Frequenzumsetzung verwendet Nono vor allem zur Klangfarbenveränderung, spektralen Erweiterung. Der Harmonizer erlaubt dem Komponisten das Arbeiten mit Mikrointervallen. Für einen Instrumentalisten oder Sänger ist es unmöglich, über einen längeren Zeitraum ein Mikrointervall exakt zu intonieren. Wenn man bedenkt, dass schon in der Vierteltonmusik von Alois Hába für die Interpreten größere Stimmungsprobleme auftraten, so können nun die Intervalle noch kleiner sein. Abhängig von dem Mischungsverhältnis mit der Originaltonhöhe entstehen entweder eine sehr aggressive Tonfarbe oder aber, z.B. in der Mehrstimmigkeit, auch eine merkliche Klangverdichtung. In seinem ersten, in Zusammenarbeit mit dem Freiburger Experimentalstudio komponierten Werk „Das Atmende Klarsein“
22 für Bassflöte und 4-stim. Chor, hat Nono die Transposition in Mikrointervallen23 sehr sparsam und absolut den Singstimmen und ihrem musikalischen Ablauf angepasst eingesetzt. Der meist zwischen pp und p sich bewegende Chorklang erhält durch das vorsichtige Beimischen der Transposition über Lautsprecher eine nahezu unmerkliche zusätzliche innere Spannung (Verdichtung), der Zuhörer kann die Transposition selbst nicht bewusst wahrnehmen.
Ein Zitat Nonos zu seinem Werk:
„....nicht allein der transformierte Klang als einzig wahrnehmbares Phänomen, sondern der lebendig-natürliche Klang des Chores und der Bassföte und, im selben Augenblick, nicht in zeitlicher Abfolge, seine Veränderung, sein Entstehen, sei es als kompositorisches Spektrum, sei es als räumliche Dynamik......“

Nono spricht in diesem Zitat eine wichtige Funktion der Live-Elektronik an: die räumliche Dynamik. Wenn ich zuvor von der inneren Spannung des Klanges sprach, so meint Nono mit räumlicher Dynamik etwas Ähnliches: eine klangliche Steigerung nicht durch große Lautstärkenveränderung, sondern durch spektrale Verdichtung. Die Mischung – transponierter und originaler Klang – vergrößert akustisch den Klangraum, wobei es in diesem Fall auch zu einem „Phasing“ kommen kann und somit das Raumgefühl, das Hörerlebnis mehr beeinflusst als Lautheitsveränderungen.

Abbildung 18

Es ist mir natürlich nicht möglich, alle Transpositionsvarianten in Nonos Werken zu besprechen. Ich werde versuchen, noch drei weitere besonders interessante Kompositionsbeispiele mit integriertem Harmonizer aufzuzeigen. In seinem 1982 komponierten Werk „QUANDO STANNO MORENDO – DIARIO POLACCO N. 2, ebenfalls im Verlag Ricordi erschienen, hat Nono z.B. im zweiten Teil die Bassflöte und das Cello über die volle Länge dieses Satzes kontinuierlich (quasi wie ein Glissando) von Null bis zu einer Oktave nach unten transponiert. Der Komponist hat mittels dieser „gleitenden Transposition“ die schon strukturell immer agressivere und bis zur äußersten Dynamik gesteigerte Komposition zusätzlich die Klangfarbe bis zum Geräusch verdichtet. Abbildung 18 zeigt die Partitur der ersten Takte des 2. Teiles mit Angaben zur Live-Elektronik. In Abbildung 19 sehen wir die technische Legende für diesen Satz.

Abbildung 19

Eine reine Klangfarbenerweiterung finden wir im 2. Teil des Dritten Satzes. Das Cello spielt zu einer sehr ruhigen und invertierten Kantilene der Altstimme und den fast statischen Tönen der Bassflöte einzelne speziell erzeugte Pizzicati, die um 1200 Cent und 2084 Cent, also einer Oktave, 8 Halbtöne und 8/10 Halbton (zwischen kleiner und großer Sexte)) nach unten transponiert werden. Verbunden mit einem 7 und einem 10 Sekunden langen Nachhall (Echo) entsteht ein sehr tiefer, dunkler und glockenartiger Klang, ja man fühlt manchmal einen dumpfen Kanonendonner. Es ist ein Klang, den man nicht beschreiben, nicht genau definieren kann, der aber in einem unglaublichen Kontrast zur Kantilene der Altstimme und dem Klang der Bassflöte steht, durch den der Zuhörer eine große innere Spannung erlebt.
Nachstehend die technische Legende dieses außergewöhnlichen Klangphänomens und ein kurzes Klangbeispiel:

Abbildung 20
Klangbeispiel 6

Nono hat in seinem „Prometeo“, Tragedia dell‘ ascolto, einen ähnlichen akustischen Effekt verwendet, dieses Mal jedoch, aufgrund anderer Besetzung und Transpositionsintervalle, mit einer unterschiedlichen, neuen kompositorischen Aussage. Sein kompositorischer Entwurf sah für dieses Werk eine Art Glocken aus Muranoglas vor. So führten wir zuerst einmal in Freiburg mit Kristallglas, meist größere „Käseglocken“, Versuche durch, die recht positiv verliefen. Natürlich wollte Nono keinen reinen Glasglockenklang, wir experimentierten mit unterschiedlichen Transpositionsintervallen. Das Ergebnis dieser Versuche war: Der Originalklang wird mit einem Harmonizer um 2266 Cent nach unten umgesetzt, das bedeutet eine Transposition von zwei Oktaven + ca. 1 1/4 Tönen. Die Kontaktmikrofone müssen sehr vorsichtig an einem Schwingungsknoten der Gläser angebracht werden, da der sehr diffizile Übertragungsweg schnell zu Verzerrungen führt, vor allem zu Übersteuerungen bei falschem Anschlag. Diese sehr tiefe Transformation der Glasglocken verdeckt den relativ leisen Originalklang nahezu vollständig, sodass ein fremdes Timbre entsteht, das weder den originalen Glocken noch den Gläsern ähnlich ist. Leider ist Nonos Wunsch, Muranogläser einzusetzen, nicht in Erfüllung gegangen. In der bekannten Firma „Venini“ mussten wir erfahren, dass Muranoglas bleifrei ist, ein langes Ausklingen aber nur mit Bleiglas realisiert werden kann. Wenn auch nicht gerade stilvoll, so werden aus diesem Grund bis heute die Freiburger Käseglocken als „Vetri“ eingesetzt.

Seine Komposition „Studien“ für Klavier und Live-Elektronik
24 war für Dieter Schnebel die Vorstufe zu seinem Werk „Monotonien“, ebenfalls für Klavier und Live-Elektronik. Schnebel teilte seine Komposition „Studien“ in zwei Abschnitte: Raum, räumliche Klangumwandlung und Zeit, zeitliche Klangumwandlung. Anlässlich meines Besuches bei Schnebel im Sommer 1994 in Murnau sagte der Komponist zum zweiten Teil:
„Was den zeitlichen Aspekt anbelangt, so waren für mich zunächst die verschiedenen Arten von delay sehr wichtig. Wenn sich ein und dieselbe Figur nach kurzer Zeit wiederholt, hat man ein Raumgefühl. Selbst kanonartige Formen, wenn eine Stimme nach ca. einer Sekunde wiederkehrt, schaffen Raumillusionen. Auch was das Mikrozeitliche anbelangt, wenn ich z.B. einen Klang höher transponiere, hat man das Gefühl, dass sich der Raum verengt. Transponiert man den Klang tiefer, also bis zu einer Oktave, fühlt man sich in einem größeren Raum“.

Im Verlauf unseres Gespräches präzisierte Dieter Schnebel die Transpositionen:

„Die Transpositionsintervalle sind ein Teil der Konstruktion. Es kommt keine Transposition zweimal vor, also eine streng serielle Geschichte. Aber es ist noch etwas anderes, was mich fasziniert hat. Ich hatte schon lange die Absicht, z.B. in einem Hörspiel, den Klang zu transponieren, ohne dass sich eine Verlangsamung oder Verschnellerung einstellte............. Darüber war ich zunächst hoch erfreut – habe dann auch wieder neue Erfahrungen gemacht: wenn ich Instrumente, ich möchte sagen, langtönige Instrumente transponiere, dann funktioniert das gut. Wenn ich ein Blasinstrument transponiere, dann ist der Klang noch erkennbar. Wenn ich dagegen ein Instrument mit einer komplexen Klangstruktur nehme, wie das Klavier, dann klingt der transponierte Klang sehr schnell beschädigt. Und das war wieder eine neue Möglichkeit, mit der ich zunächst gar nicht gerechnet habe. Mich fasziniert, was für ein Achterklang bei der Transposition (eine große Terz höher) eines 4-tönigen Klanges entsteht – und auch weitere Kombinationen. Aber dann kam nicht nur der Achterklang, es kam zugleich ein deformierter Klang heraus. Und diese Möglichkeiten der Transformation, um es einmal so auszudrücken, die waren für mich auch sehr wichtig. Je weiter ich nach oben gehe (transformiere) , je weiter ich nach unten gehe, desto schäbiger, desto kaputter klingt es“.


Abbildung 21

Abbildung 21 zeigt das Programm ( Kombination) für diesen Teil aus Schnebels „Studien“, im unteren Abschnitt sind die Transpositionsintervalle festgelegt. Kurz noch eine technische Erklärung zu diesen „schäbigen“ Klängen. In bestimmten Bereichen werden beim Spiel eines Klaviertons gleichzeitig zwei oder drei meist nicht so exakt gestimmte Saiten (pro Ton) angeschlagen. Diese sehr kleinen Verstimmungen – bei normalem Klavierspiel kaum hörbar – die Abklingkurve des Klaviertons sowie der veränderte Klangcharakter bei der elektronischen Transposition, z.B. einer Oktave nach oben, und selbst akustische Vorgänge in und um das Klavier erzeugen eine starken „Jauleffekt“, den Schnebel bewusst in seine Komposition einbezieht. Nochmals Schnebels eigene Worte zu diesem Vorgang:

„Mit einem Instrument habe ich immer einen Klang, der irgendwelche Unebenheiten hat. Und wenn ich z.B. über eine Tastatur einen Ton im Sampler transponiere, dann bekomme ich immer diese kleinen Unregelmäßigkeiten mit, und es entsteht wieder eine gewisse Periodik des Aperiodischen“.


Abbildung 22

Einen kleinen Ausschnitt aus dem zweiten Teil Zeit sehen wir in Abbildung 22. Die Angaben für die Transpositionsintervalle sind rot gezeichnet.
Man kann sagen, dass Dieter Schnebel, wie auch Luigi Nono bei der Sprachumkehrung in DIARIO POLACCO, aus einem „geräteeigenen“ Verhalten eine neue musikalische Klanggestalt entwickelte.

Eine andere Möglichkeit für den Einsatz eines digitalen Harmonizers ist die zeitversetzte Frequenzumsetzung. Akustische Signale werden digitalisiert, verarbeitet und in einem Zwischenspeicher abgelegt. Die einzelnen Samples können dann zu einem beliebigen, in der Partitur genau definierten Zeitpunkt abgerufen und über einen DAC eingespielt werden. Diese Art der Verwendung eines Harmonizers hat den Vorteil, dass die Samples universeller bearbeitet werden können, was im Live-Einsatz aus zeitlichen Gründen nicht immer möglich ist. Auch ein noch so schneller digitaler Signalprozessor benötigt für die Verarbeitung von Zahlenfolgen eine, wenn auch sehr kurze Zeitdauer, vor allem für die Kürzung und Dehnung eines Signals. Das letzte Harmonizer-Beispiel ist der technischen Legende zu André Richards „GLIDIF“
25 entnommen:

Abbildung 23

Die beiden klanglich sehr originellen Samples 1 + 2 werden im weiteren Verlauf der Komposition zu einem genau festgelegten Zeitpunkt dem original- und umgeformten Klang des Trios zugespielt. In einem Vocoder
26 wird das Spektrum der Bassklarinette auf den Klang der Kontrabässe übertragen, d.h. vom Originalklang der Kontrabässe bleiben nur die Spektrumsanteile übrig, die in der momen-tanen Klangfarbe der Bassklarinette enthalten sind. Der nächste Arbeitsgang ist die Digitalisierung des Vocoder-Klangergebnisses in einem zweikanaligen Harmonizer oder zwei getrennten Monogeräten. Es folgt die Verarbeitung im Prozessor: Transposition eine Oktave nach unten und in beiden Kanälen eine unterschiedliche Dehnung der Samples. Die Angaben 25% und 50% bedeuten eine Dehnung des gesampleten Signals um ein Viertel bzw. die Hälfte seiner normalen Dauer27. Die Samples haben eine Länge von ca. 15“ – 20“, sie werden mittels Loops bis zu ihrer Ausblendung verlängert. Dehnung bedeutet eine zeitliche Veränderung der inneren Struktur eines Klanges; Verlängerung, wenn einem zeitlich begrenzten musikalischen Ablauf etwas Neues oder die Kopie des Originals (Loop) hinzugefügt wird. Haben die Samples 1 + 2 (GLIDIF) im Loop nicht die gleichen Längen, dann entstehen bei gemeinsamem Start der Einspielung immer neue Klangkombinationen. Zum besseren Verständnis ein Vergleich:
Zwei Ostinatostimmen im 4/4 Takt sind einmal in Viertel = 60, die zweite Viertel = 75 notiert. Durch diesen zeitlichen Unterschied entsteht eine permanente Verschiebung im Zusammenspiel der beiden Stimmen.
Durch die Dehnung der beiden Samples, 25% und 50%, erreicht André Richard eine zusätzliche Asynchronität zwischen den beiden gesampleten Signalen.

Ich möchte – wie schon zu Beginn – darauf hinweisen, dass die für die Musik interessanten physikalischen Funktionen und nicht ihre technische Realisation für mich Priorität haben. So habe ich auch meine Aufgabe darin gesehen, nicht einzelne Gerätetypen – ob analog oder digital, ob älteres oder neueres Baujahr – zu besprechen, sondern vor allem allgemeine Informationen über ihre Funktionsweise anhand von Beispielen aus der Praxis zu geben. Wie wir aus diesen sehr unterschiedlichen Beispielen erkennen können, bedeutet Klangtransformation, Frequenzumsetzung in Echtzeit keine starre „Vertechnisierung“ lebendiger musikalischer Abläufe, sondern ist heute ein adäquates Mittel zur Klangerweiterung, Klangverdichtung. Vorausgesetzt das „Studieren“, das „Erhören“ des neuen Materials, des neuen Instrumentariums, gibt die Klangtransformation dem Komponisten unbegrenzte Möglichkeiten der Integration in sein kompositorisches Schaffen.

Musikalische Strukturen finden, Musik hören beinhaltet für mich immer auch ein Prozess des Lernens.

1 Hans Peter Haller, Homepage, 3. Heft mener Reihe „Lehrhefte: Funktion und Anwendung“.

2 Hans Peter Haller, Homepage, 1.Heft, „Vocoder“.

3 vgl. hierzu John Chownings Frequenzmodulation (FM)

4 vgl. H.P.Haller, Das Experimentalstudio der Heinrich-Strobel-Stiftung des Südwestfunks Freiburg.    1971 bis1989. Baden-Baden: Nomos Verlag. 1995, Bd 2, S. 10 ff., S.55 ff., S. 97 ff. und S.80 ff.

5 vgl. Werner Meyer-Eppler. Elektronische Klangerzeugung. Bonn: Ferd. Dümmlers Verlag 1949. S. 78 ff.

6 vgl. H.P Haller, s. o. Band 1, Klarinetten-Spektralanalyse Abb. T 13 a-c.

7 vgl. H.P. Haller, Homepage, Heft 2 „Raumklang/Klangraum, Abbildung 1.

8 H.P.Haller. Das Experimentalstudio...... Bd 1, S. 26 bis 47.

9 Techn. Pflichtenheft des Instituts für Rundfunktechnik. Heft 3/5. Aus. Nr. 1. Blatt 23.

10 Trendelenburg, Ferdinand, Akustik, Berlin. Heidelberg: Springer Verlag. 1950. S. 298.

11 Werner Meyer-Eppler, Elektronische Klangerzeugung, Bonn: Ferd. Dümmlers Verlag.1949, S. 33 ff.

12 Cristobal Halffter, „PLaNTO POR LA VICTIMAS DE LA VIOLENZCIA“, Partitur, Wien: Verlag UE.

13 Man kann diesen Spezialoszillator auch mit einem 2-manualigen Keyboard und entsprechender
   Spielweise  ersetzen.

14 Wird im demnächst erscheinenden Heft 4 besprochen.

15 Klaus Buhlert, Vorlesungsskript „Einführung in die computergestützte Musik“, TU Berlin: Institut für
   Kommunikationswissenschaften. WS 1986 / 87. S. 47.

16 Thomas A. Troge, „Der Einsatz des Computers als Musikinstrument“, Vorlesungsskript Staatl.    Hochschule für Musik. Karlsruhe: 1994.

17 vgl. Fußnote 15.

18 von Algorithmus, ein nach einem bestimmten Schema ablaufender Rechenvorgang.

19 Bei neueren Harmonizern ist dieser Effekt leider nicht mehr möglich.

20 vgl. Luigi Nono, DIARIO POLACCO 2, zweiter Satz (Sprecherin), Milano: Verlag Ricordi.

21 Luigi Nono, A    PIERRE. DELL ‘ AZZURO SILENZIO, INQUIETUM a più cori, per flauto contrabasso,    clarinetto contrabasso e live electronica, Milano: Verlag Ricordi.

22 Luigi Nono, „Das Atmende Klarsein“, für Bassflöte und 4-stim. Chor, Milano: Verlag Ricordi.

23 Intervall = 52 Cent nach unten und 51 Cent nach oben.

24 Dieter Schnebel, Studien für Klavier und Live-Elektronik, Mainz: Verlag Schott.

25 André Richard, GLIDIF., a sonar e cantar (Version 1991) à, Luigi Nono in memoriam für Bass- und
   Kontrabassklarinette und zwei Kontrabässe, Milano: Verlag Ricordi. 1991.

26 vgl. H. P. Haller, Homepage, „Vocoder“, Heft1.

27 vgl. time compression – time expansion.