Lesedauer ca. 6 Minuten

Sie nennen sich Benoit and the Mandelbrots, programmieren live ihre Sounds und chatten auch mal während des Konzerts. Gegründet 2009 von Musikinformatik-Studenten der Hochschule für Musik Karlsruhe, ist das Laptop-Ensemble längst international unterwegs. Das Klangspektrum von Patrick Borgeat, Juan A. Romero, Holger Ballweg und Matthias Schneiderbanger reicht von Ambient über Rave bis hin zu äußerst experimentellen Beats.

Die Anfänge der Computermusik gehen bis in die Mitte des 19. Jahrhunderts zurück: Ada Lovelace, leidenschaftliche Mathematikerin und Musikerin, schrieb nicht nur das wohl weltweit erste Computerprogramm, sondern hat auch erforscht, wie eine Rechenmaschine synthetische Klänge erzeugen kann. Doch erst in den 1950ern waren mit den ersten Programmen zur Klang- und Partitursynthese die notwendigen technischen Voraussetzungen dafür erfüllt.

Inzwischen hat sich eine internationale Szene für Computermusik etabliert und Laptoporchester wie das Karlsruher Ensemble Benoit and the Mandelbrots sind keine Seltenheit mehr – und dennoch ein Konzerterlebnis. Im Gespräch mit techtag geben die Benoit and the Mandelbrots Einblicke in ihre faszinierende Klangwelt.

Ihr habt euch nach Benoit Mandelbrot benannt, dem Vater der fraktalen Geometrie. Inwieweit spielen Fraktale und Selbstähnlichkeit in eurer Musik eine Rolle?

Matthias: Benoit Mandelbrot hat es durch seine Forschung geschafft, eigentlich sehr abstrakte Formeln für ein breites Publikum zugänglich zu machen, und damit die Schönheit von Algorithmen erfahrbar gemacht. So ähnlich sehe ich auch unsere Musik: Wir versuchen ebenso, Algorithmen erfahrbar zu machen, indem wir sie verklanglichen und Musik daraus entstehen lassen.

Ihr codet eure Klänge live, das heißt, ihr habt ein Interface, das eure Befehle an eine Musiksoftware weiterleitet?

Juan: Im Prinzip ist das Interface der Code, eben reiner Text. Diese Befehle werden dann in der Programmiersprache SuperCollider „interpretiert“. Wir verwenden die eingebauten Funktionen dieser Programmiersprache und können diese teilweise auch live modifizieren, kombinieren und erweitern.

Patrick: Wir leiten unsere als Quelltext formulierten Befehle also nicht an eine Musiksoftware weiter: Unsere Befehle werden – zumindest temporär – Bestandteil der Musiksoftware.

Welche Befehle erzeugen welche Klänge? Kannst Du einen Quellcode als Beispiel nennen?

Juan: Das variiert von Sprache zu Sprache, aber ein einfaches Beispiel in SuperCollider wäre: { SinOsc.ar(1000) }.play
Das würde einen Sinus-Ton mit 1000 Hz abspielen. Alle Objekte, die in SuperCollider die Nachricht „.ar“ (audio rate) bekommen, können Klang generieren oder verarbeiten. Diese nennen wir UGens (Unit Generators), da sie die Zahlen erzeugen, die dann später als Wellenform zu hören sind. Man hat viele dieser UGens und man kann sie beliebig kombinieren. Oszillatoren, Filter, Effekte, etc. Es ist sehr modular aufgebaut. Aus diesen UGens können wir dann eine Art „Instrument“ definieren, das wir dann später auf einem höheren Level bedienen können, eben auf einer musikalischen Ebene, wo wir Noten, Skalen, Dauer und Rhythmus definieren. Wir definieren diese Instrumente auch live, und deshalb kann sich der Klang eines Instruments über die ganze Performance hinweg ständig ändern.

Ihr habt keine Noten, keine Partitur. Einigt ihr euch vor einem Auftritt darauf, wie es ungefähr klingen soll?

Juan: Wir wissen nie wirklich, wie es klingen soll – wir sprechen das während der Performance ab (über einen Chat in unserem Netzwerk) und versuchen uns an den Raum, an das Publikum und die Situation anzupassen.

Patrick: Je nach konkreter Situation gibt’s dazu aber auch Ausnahmen. Als wir zum Beispiel 2011 und 2012 Stummfilme in der Schauburg vertont haben, waren wir schon gut vorbereitet und wussten, wie wir klingen werden, um auch dem Tempo des Films gerecht zu werden. In solchen speziellen Aufführungs-Situationen haben wir gemeinsam schon an einer Partitur gearbeitet, nur eben nicht auf Papier sondern auch in Form von Quelltext. Ähnlich gehen wir oft auch vor, wenn wir nur sehr kurze Spielzeit zur Verfügung haben. Allgemein versuchen wir aber, so frei wie möglich in eine Performance zu gehen, um durch Vorbereitung nicht das Spontane zu ersticken.


Auftritt von Benoit and the Mandelbrots bei einem Auftritt beim Karlsruher Stadtgeburtstag 2013


Auftritt von Benoit and the Mandelbrots bei einem Auftritt beim Studiokonzert der HfM Karlsruhe im ZKM, 2011

Die Musik von Benoit and the Mandelbrots klingt selbst für Electro-Fans sehr überraschend. Wie reagiert das Publikum darauf?

Juan: Wir haben bisher überwiegend positive Reaktionen erhalten. Einige Zuhörer sind aber auch der Meinung, dass man bessere Musik machen kann, indem man kommerzielle Software, wie zum Beispiel Ableton Live, benutzt, anstatt die Musik zu programmieren. Aber wir wollten von Anfang an experimentieren, improvisieren und die Performance lebendig machen, anstatt Clips abzuspielen, die schon gut klingen, aber nicht live erzeugt werden. Wir wollen das Innere der elektronischen Musik zeigen.

Matthias: Mir ging es vor allem immer darum, Leute zu erreichen, die eigentlich keinen Bezug zu den akademischen Bereichen der Computermusik haben (eigentlich die Ursprungs-„Szene“ des Live Coding), und sie für eine Form der Musik zu begeistern, die doch für sehr lange Zeit nur unter Insidern bekannt war. Manche sind fasziniert, sowohl von der Musik als auch von der Code-Projektion, manche würden gerne keinen Code sehen, weil es dadurch für sie zu „klinisch“ wirkt, andere wiederum versuchen die ganze Zeit, die Code-Zeilen zu entziffern.
Und natürlich gibt es auch diejenigen, die weder etwas mit der Musik noch mit dem Code anfangen können.

Durch Echtzeit-Interaktionen zwischen Künstler und Computer, z.B. mithilfe der grafischen Programmierumgebung Max/MSP, haben sich immer spannendere Performances entwickelt. Beispielsweise hat eine ehemalige NASA-Wissenschaftlerin vor ein paar Jahren gemeinsam mit einer Musikerin Handschuhe entwickelt, die mit Sensoren ausgestattet sind. Bewegungen der Hand bzw. des Fingers werden an das Interface weitergeleitet, durch welches eine Musiksoftware bedient werden kann. Wird das „haptische Instrument“, ob Geige oder in eurem Fall der Laptop, irgendwann ganz verschwinden?

Juan: Man weiß nicht, wie es in 50 Jahren aussehen wird, aber wir wollen auf Laptops spielen, solange es sie noch gibt. Und vielleicht wird die nächste Generation dann auf der zukünftigen Laptop-Alternative musizieren und wird zurückblickend darüber lachen, wie die alten Opas damals mit diesen sperrigen Laptops und rudimentären Programmiersprachen versucht haben, Musik zu machen.

Matthias: Wenn man sich mit Datenhandschuhen auseinandersetzt, fallen deutliche Unterschiede zu haptischen Instrumenten auf. Diese immersiven Interfaces, also Eingabegeräte, die ohne ein greifbares Instrument und in diesem Falle rein durch Bewegung bedient werden, bringen ein völlig anderes Spielgefühl mit sich, da man keine objektive Referenz mehr besitzt, die man anfassen kann und die einem Orientierung bietet. Vor einigen Jahren hatte ich selbst einen solchen Handschuh entwickelt, da ich vor allem daran interessiert war, in Mehrkanal-Setups die Räumlichkeit der Klänge durch Gesten zu steuern, indem ich sie durch Greifen von einem virtuellen Punkt im Raum zum nächsten bewegen konnte. Diese Möglichkeiten sind im Vergleich zu den bekannten Instrumenten so verschieden, dass ich hier keine „Gefahr“ für die traditionellen Instrumente sehe, ihre Daseinsberechtigung zu verlieren.

Patrick: Als nächstes wird vielleicht am ehesten der Mensch abgeschafft. Da wir aber eigentlich versuchen, den menschlichen Faktor zurück in die elektronische Musik zu bringen, kann man uns das dann nicht vorwerfen! Quelltext ist im übrigen auch gar kein haptisches Interface mehr, lediglich vielleicht die Tastatur, mit der wir tippen. Um die geht’s aber nicht beim live coden. Wir versuchen nicht, die Körperlichkeit aus der Musik zu verbannen – wir erforschen lediglich, wie Musik ohne sie auch funktionieren kann.

 

Benoit and the Mandelbrots bei einem Auftritt (Foto: Daniel Bollinger)
Benoit and the Mandelbrots bei einem Auftritt (Foto: Daniel Bollinger)

Ausblick: Benoit and the Mandelbrots treten beim Karlsruher Entwicklertag im Mai 2015 auf.