Audiovisuelle Live Performance

von Amy Alexander

1 Farbenklaviere und Farblichtinstrumente

2 Lightshows

3 Videokunst

4 Video Scratching

5 VJing

6 Live Cinema

7 Tools

8 Laptop und Live-Performance



Abstract

Visuelle Live-Performances sind im Lauf der letzten Jahre in der Club- wie in der Kunstszene beliebt geworden, was besonders darauf zurückzuführen ist, dass Laptops mittlerweile die für Echtzeit-Grafik erforderliche Speicherkapazität haben. Clubs engagieren immer häufiger VJs – visuelle Performer, die mit raumfüllenden Projektionen ihrer Visuals die von DJs erzeugte akustische Umgebung ergänzen. Kunstgalerien und Festivals nehmen seit einigen Jahren Live-Cinema-Performances ins Programm – audiovisuelle Darbietungen, die vom Publikum in bestuhlten Räumen und damit in einer durchaus der Konzertsituation vergleichbaren Weise konsumiert werden. Die heute noch vorherrschenden Veranstaltungskontexte – dies gilt besonders für VJ-Darbietungen in Clubs – platzieren Visuals meist in einer untergeordneten, die Musik lediglich begleitenden Rolle. Da die meisten Menschen vor allem mit anderen populären Medien wie Musikvideos und Software zur Musikvisualisierung vertraut sind, herrscht bei ihnen die Vorstellung, dass Echtzeit-Visuals ein synästhetisches oder von Musik gesteuertes und diese begleitendes Phänomen sind und dass somit die Synchronisation von Musik und Visuals zwangsläufig ein Schwerpunkt in diesem Genre sei. Ein Blick auf die historischen Vorformen moderner Visuals zeigt jedoch die Vielfalt der möglichen Ton-Bild-Verknüpfungen. Die Idee einer ganzheitlichen audiovisuellen Performance ist jahrhundertealt; wenn man hier tatsächlich alle geschichtlichen Aspekte berücksichtigen wollte, müsste man Oper, Tanz, Theater, Performancekunst, Orchesterpartituren mit visuellen Bestandteilen und sogar Vergnügungsparks mit einbeziehen. Selbst wenn man sich nur auf die Vorläufer beschränkt, die mit einer Projektionsfläche arbeiten, müsste eine auf Vollständigkeit zielende Geschichte immer noch mindestens Film, Fernsehen und Musikvideo berücksichtigen – und auf Vieles von vornherein verzichten. Dieser Text beschränkt sich daher auf die wichtigsten Vorläuferpraktiken, die für die Entwicklung der Formen, mit denen heute auf den Gebieten von VJing und Live Cinema gearbeitet wird, von unmittelbarer Bedeutung sind.

 

1 Farbenklaviere und Farblichtinstrumente

Am Anfang der meisten geschichtlichen Darstellungen von Visual Performances steht das Farbenklavier, dessen Konzept vor etwa dreihundert Jahren entwickelt wurde, was die Ähnlichkeit mit einigen Tools, die heutzutage bei audiovisuellen Performances Verwendung finden, umso eindrucksvoller macht. Ein Farbenklavier ist eine Apparatur zur Projektion von zumeist farbigen Lichtfeldern. Es wird im Allgemeinen ähnlich wie ein Musikinstrument gespielt und besonders häufig über eine Klaviatur angesteuert. Historisch betrachtet wurden Performances mit Farbenklavieren gern von Musik begleitet, da aber eine ganze Reihe von Künstlern die Kreationen ihrer Instrumente als autonome Kunstwerke begriffen, gab es auch Farbenklavier-Aufführungen ohne Ton. Dennoch ist fast allen Farbenklavieren durch die Geschichte gemeinsam, dass sie die Inszenierung von Licht mit der Inszenierung von Tönen in Verbindung bringen, sei es auf der metaphorischen Ebene oder auf der realen. Benutzten manche Konstrukteure von Farbenklavieren die Musik nur als Metapher für ihre Inszenierung von Visuals, stellten zahlreiche Tüftler, Künstler und Theoretiker im Lauf der Jahre verschiedenste Systeme für die direkte Korrelation von Farben und musikalischen Tönen auf.[1] Die frühen Erfinder im 18. und 19. Jahrhundert konzentrierten sich mehrheitlich auf die Konstruktion der Geräte selbst, ab Anfang das 20. Jahrhunderts dann verfolgten die Farbenklavier- und Lichtkünstler bzw. -entwickler wie Mary Hallock-Greenewalt und Thomas Wilfred gleich zwei Anliegen: einerseits ein brauchbares Instruments zu entwickeln und andererseits damit zu einer eigenständigen Kunstform zu finden.

2 Lightshows

Während manche Künstler bis zur Mitte des 20. Jahrhunderts und darüber hinaus weiter an der Perfektionierung der Farbenklaviere arbeiteten, brachten die kulturellen Veränderungen der 1960er Jahre einen neuen Typus von Visual Performance hervor: In den Lightshows spiegelten sich das gesellschaftliche Bewusstsein, der Gemeinschaftsgedanke und die Psychedelik der Zeit. Sie wurden rasch zu einem populären Bestandteil von Rockkonzerten und fanden überall auf der Welt Verbreitung. Einfache Lightshows beschränkten sich auf Liquid Projections und konnten von einer einzigen Person gehandhabt werden, größere Shows hingegen verlangten mehrköpfige Ensembles für das Übereinanderschichten einer Vielzahl projizierter Bilder und Effekte auf der Projektionsfläche. Das Ensemble Single Wing Turquoise Bird aus Los Angeles setzte z. B. meist gleichzeitig Projektionen von 16mm-Filmen, unbewegten Lithografien und Liquids ein sowie rotierende Farb- und Stroboskopräder, die vor den Projektionsgeräten positioniert waren. Lightshows unterscheiden sich auch dadurch von den meisten anderen Visual Performances im Lauf der Geschichte, dass sie von Ensembles aufgeführt wurden, bei denen oft sechs bis neun Mitglieder gleichzeitig projizierten. Obwohl Lightshows gewöhnlich die Musik begleiteten, gab es auch Fälle, in denen sie selbst der zentrale Bestandteil einer Performance waren. Die Performer entwickelten – wie im Übrigen auch einige Farbenklavier-Künstler zuvor – visuelle Strukturen, die an sich schon musikalisch waren, und diese Musikalität wurde durch die Interaktion, die unabdingbar Teil der Ensemblearbeit ist, noch verstärkt.

3 Videokunst

Anfang der 1970er Jahre kam tragbares Video-Equipment auf den Markt und ermöglichte die rasche Entwicklung der Videokunst. Gleichzeitig verwendete man in Live-Konzerten und Aufzeichnungen immer häufiger analoge Synthesizer. Videokünstler wie Nam June Paik und Woody und Steina Vasulka experimentierten früh mit der Verzerrung von Videosignalen, indem sie Magnete in unmittelbarer Nähe des Bildschirms positionierten und kreativ die vertikale und horizontale Justierung des Bildes manipulierten. Einige Videokünstler, wie Paik (in Zusammenarbeit mit dem Ingenieur Shuya Abe), begannen mit der Konstruktion von analogen Videosynthesizern. Dabei handelt es sich um Video-Gegenstücke zum Audiosynthesizer, die es erlaubten, mithilfe eines Signals ein zweites Signal in Echtzeit zu steuern. Videosynthesizer wurden oft zur Verfremdung von Material benutzt, das von Live-Kameras oder Videobändern stammte; sie konnten aber auch selbst in einem geschlossenen Setup zur Generierung abstrakter Visuals eingesetzt werden. Analoge, später auch digitale Videosynthesizer wurden von Künstlern vor allem für Studioproduktionen herangezogen, nur selten auch in Live-Situationen: Stephen Becks Illuminated Music z. B. wurde Anfang der 1970er Jahre in Auditorien überall in den Vereinigten Staaten aufgeführt.[2] Die Größe und die Kostspieligkeit analoger Videosynthesizer verhinderten jedoch ihre weitergehende Verbreitung als Performance-Tools.

4 Video Scratching

Analoge Videosynthesizer erwiesen sich als zu sperrig für den problemlosen Transport, aber in den 1980er und frühen 1990er Jahren wurden tragbare Videorekorder und Videomixer entwickelt, was ihren Einsatz in Live-Situationen möglich machte. Auch kamen zu dieser Zeit die ersten Programme zur Bearbeitung von Videos für den PC heraus: Mit dem Newtek Video Toaster z. B. konnte man bereits Videos auf einem Computer in Echtzeit mischen und mit Effekten versehen.

Etwa gleichzeitig entstand die Scratch-Video-Bewegung in Großbritannien. Scratch-Video-Künstler wie Gorilla Tapes und die Duvet Brothers benutzten Clips mit Material, das ursprünglich aus den Mainstream-Medien stammte, und mischten es neu, meist mit politischem Inhalt. Obwohl Scratch-Video weder in Echtzeit geschnitten noch live aufgeführt wurde, war der Einfluss auf spätere, ebenfalls auf Remix basierende Produktionen beträchtlich. Eine verwandte, aber doch eigenständige Technik ist das sogenannte Video Scratching, das Ende der 1980er Jahre vom amerikanischen Multimedia-Ensemble Emergency Broadcast Network (EBN) entwickelt wurde. Dabei werden kurze Clips aus Fernsehsendungen oder anderem gefundenen Filmmaterial (Found Footage) stark rhythmisiert geschnitten, sodass auf der Tonspur eine Art Rap-Effekt entsteht. Eines der bekanntesten EBN-Videos war eine Cover-Version des Queen-Songs We Will Rock You von 1991, wobei der Text aus einer Rede des amerikanischen Präsidenten George Bush zum zweiten Golfkrieg zusammengeschnitten wurde. Die Arbeit erregte internationales Aufsehen, als die Band U2 sie in das Programm ihrer Zoo TV Tour (1992/1993) aufnahm. Ende der 1990er Jahre begannen Electronica-Künstler wie das britische DJ-Duo Coldcut Live-Videomixing zu einem Teil ihrer Performances zu machen. Coldcut brachten mit VJamm ihre eigene Software für audiovisuelle Performances auf den Markt und bleiben nach wie vor einer der bekanntesten Acts auf dem Gebiet der audiovisuellen Performance.

5 VJing

Anfang der 1990er Jahre hatten sich die Raves der House-Szene international durchgesetzt. Der Konsum von Ecstasy bei diesen Anlässen hatte einen starken Anstieg des Interesses für synästhetische Erfahrungen ausgelöst[3] – und die ersten VJs betraten den Schauplatz. Ursprünglich verwendeten sie einfache Geräte zum Abspielen von Videos oder zur Generation abstrakter Visuals in Echtzeit.[4] An der Wende zum 21. Jahrhundert wurde es dann aufgrund der leichten Verfügbarkeit und der Leistungsstärke von Laptops und Video-Equipment einer entscheidenden Anzahl von KünstlerInnen möglich, hochkomplexe Live Visuals bei Raves, in Clubs oder auf Festivals zu produzieren. Hinsichtlich des Equipments gab es große Unterschiede, aber im Allgemeinen kann man sagen, dass heutige VJs häufig Computer, DVD-Player und Video-Mixer verwenden – obwohl auch VJs, die ausschließlich mit dem Laptop arbeiten, durchaus keine Seltenheit sind. Häufig werden externe Interfaces zur Steuerung verwendet, wie MIDI oder OSC-Controller,[5] und auch der Beat selbst kann zur Steuerung dienen, wenn entweder die Klänge aus dem Raum über Mikrofon eingespeist werden oder der VJ das Tempo über eine Computerschnittstelle manuell eingibt. Die Visuals werden meist auf eine Leinwand an der Stirnseite des Veranstaltungsraums projiziert; fallweise können auch Großbildschirme die Projektion entweder ergänzen oder ganz ersetzen.

Da die Bezeichnung DJ schon seit Langem für einen Performer, der Musikstücke mixt, in Verwendung war, etablierte sich die Bezeichnung VJ für einen Performer, der Videosequenzen mixt.[6] Allerdings generieren viele VJs Originalmaterial live – entweder ausschließlich oder in Kombination mit einem Remix von aufgenommenem Material. Eine ganze Reihe von VJs, wie z. B. VJ Miixxy (Melissa Ulto), integrieren auch über Live-Kameras eingespeiste Bilder, was ihnen die Möglichkeit gibt, den Live-Charakter der Visuals zu verstärken, indem sie das Publikum bzw. die auftretenden Musiker in den visuellen Mix mit einbeziehen (Peep Delish: VJ Miixxy—a Selection of Works). Zusätzlich zur Arbeit mit externen Videoquellen generieren viele VJs in Echtzeit abstrakte Bildwelten, die an frühere Performances mit Farbenklavieren, Liquid Light und Videosynthesizern denken lassen. Da VJs ihre Bilder problemlos übereinander schichten und manipulieren können, verschwimmt gelegentlich die Grenze zwischen gegenständlichen und abstrakten Bildern. In dieser Hinsicht sind viele VJ-Performances den Bildcollagen in den Lightshows der 1960er Jahre vergleichbar. Ein wichtiger Unterschied besteht aber darin, dass die vielschichtigen Bilderwelten der VJs in den meisten Fällen von einem Solo-Performer generiert werden und nicht durch gemeinsame Improvisation eines Ensembles.

Bei Club-Auftritten besteht die Rolle der VJs meist darin, den DJ zu unterstützen; es wird vor allem erwartet, dass ihre Performance als optische Untermalung der Musik funktioniert. Während DJs in den meisten Fällen für alle sichtbar auf der Bühne agieren, sind VJs selten im Blickfeld des Publikums. Ihr Arbeitsplatz ist oft irgendwo hinter der Szene. Ganz egal ob einzelne VJs mit dieser Rangordnung einverstanden sind oder nicht, sehen viele ihre Aufgabe in erster Linie darin, der Musik zu folgen, sie zu visualisieren. Da diese Funktion ebenso wie der Clubkontext von vielen Visuals Artists als einengend empfunden wird, haben sich manche unter ihnen in Richtung Live Cinema orientiert.

6 Live Cinema

Live Cinema wird üblicherweise in einem Setting aufgeführt, das gleichzeitig an Konzert und Kinovorführung erinnert. Die Performances finden oft im Kontext von kunstbezogenen Veranstaltungen oder Orten statt, wie z. B. in einem Theater im Rahmen eines Kunstfestivals. Im Gegensatz zum Club-Event, bei dem Musik und Visuals ausschließlich dazu dienen, eine Umgebung zur Unterhaltung des Publikums zu schaffen, nehmen die Besucher einer Live-Cinema-Performance meist in Sitzreihen Platz und konzentrieren sich ganz auf die Aufführung. Dieses stark kontemplative Rezeptionsmodell veranlasst Künstler immer wieder, über die Dauer der Performance ein locker narratives Gerüst visuell zu entwickeln. HC Gilje vom Live-Cinema-Ensemble 242.pilots weist dazu darauf hin, dass Zuschauer in diesem Setting oft ihre eigenen Erzählungen in die Interpretation einbringen, ganz unabhängig von den Absichten der Künstler. In ähnlicher Weise tendiert auch die Musik in Live-Cinema-Shows zu einer linearen Entwicklung und wird oft speziell für die Live-Cinema-Performance entwickelt. In einigen Fällen kreiert ein und derselbe Künstler sowohl Musik als auch Visuals – Ryoichi Kurokawa ist ein Beispiel dafür. Auch dort, wo Musiker für die Musik und Visual Artists für die Bilder zuständig sind, arbeiten beide oft eng zusammen.

Live Cinema und VJing schließen einander keineswegs aus und die Grenzen zwischen beiden sind oft schwer zu ziehen. Auch vielen VJs geht es zum Beispiel nicht um eine einfache Illustration der Musik, sondern um die Entwicklung von narrativen Momenten. Ebenso gibt es keine einheitliche Standarddefinition zur Unterscheidung von Live Cinema und VJing und nicht alle Performances sind kategorisierbar: Es gibt audiovisuelle Performances, die weder eindeutig dem Live Cinema noch dem VJing zugeordnet werden können. Manche KünstlerInnen, wie z. B. VJ Oxygen (Olga Mink), wechseln gezielt zwischen den verschiedenen Genres für ihre audiovisuellen Performances hin und her.

7 Tools

Ein weiteres Merkmal der Visual Performance am Beginn des 21. Jahrhunderts, neben den Entwicklungen von Live Cinema und VJing, ist die Flut von digitalen Tools, die für Visual Performances in Echtzeit sowohl von kommerziellen Anbietern als auch von Künstlern entwickelt worden sind. Kommerzielle Tools, wie z. B. Modul8 und VJamm, stellen eine wesentliche Erleichterung beim Mischen und Abrufen von Videoclips dar und setzen wenig oder keine Erfahrung im Programmieren voraus. Viele Performer legen allerdings großen Wert auf Flexibilität und schaffen sich lieber ihre eigenen Tools.

Software für Visual Performances kann in nahezu allen Programmiersprachen geschrieben werden; manche Künstler, wie z. B. Dave Griffiths ziehen es sogar vor, eine eigene Sprache zu entwickeln. Viele Visual Performer sind in den letzten Jahren dazu übergegangen, mit Entwicklungsumgebungen zu arbeiten, die auf Patches basieren, wie z. B. Max/MSP/Jitter und Pd/Gem.[7] Max/MSP und Pure Data (Pd), beide von Miller Puckette ursprünglich zur Echtzeit-Steuerung von Sounds und Geräten konzipiert, sind grafische Entwicklungsumgebungen, die mit frühen analogen Audio- und Videosynthesizern vergleichbar sind, bei denen die einzelnen Hardware-Module mit Patchkabeln verbunden waren. So können Programmierer in Max oder Pd Programme entwerfen, indem sie vorgefertige Softwareobjekte verbinden, sie können aber auch eigene Patches erzeugen. Jitter und Gem erweitern Max bzw. Pd um Objekte für die Bearbeitung von Visuals. Für die Entscheidung eines Künstlers, mit Max/Jitter bzw. Pd/Gem zu arbeiten, sind verschiedene Faktoren maßgeblich. Eine wichtiger Gesichtspunkt ist, dass es sich bei Max um kommerzielle Software handelt, die jetzt von Cycling ’74 vertrieben wird, während Pd eine kostenlose Open-Source-Software ist. Vom finanziellen Aspekt ganz abgesehen, ziehen viele Künstler quelloffene Tools vor, da diese es der User-Community möglich machen, die Software auf jede erdenkliche Weise zu überarbeiten und zu erweitern. Während eine ganze Reihe von Visual Performern glauben, dass Jitter leistungsfähiger ist als Gem, gibt es dennoch viele, die mit Pd/Gem arbeiten, einfach weil sie Open-Source-Software bevorzugen. Die große Zahl von Patches, die sowohl für Max/Jitter als auch für Pd/Gem mittlerweile von Usern programmiert wurden, bedeutet freilich, dass beide Projekte ganz wesentlich von der Community mitgestaltet sind.

Auch wenn patch-basierte Programmumgebungen bei vielen Performern beliebt sind, gibt es andere, die für ihre Entwicklungen eine traditionellere, auf Text basierende Programmiersprache bevorzugen. Die Open-Source-Sprache Processing, geht auf eine Initiative von Ben Fry und Casey Reas zurück. Obwohl ursprünglich nicht für Live-Performances gedacht, wird Processing immer häufiger für die Entwicklung von Performance-Tools für Live-Visuals eingesetzt. Auch gibt es zahlreiche von Künstlern geschriebene Tools, die proprietäre Entwicklungsumgebungen verwenden, wie z. B. Flash, sowie Tools, die eine proprietäre Entwicklungsumgebung mit einem Open-Source-Ansatz verbinden, wie z. B. Onyx.

Gegen Ende der 2000er Jahre zeichnet sich bei Visual Artists eine zunehmende Tendenz ab, die Einsatzmöglichkeiten für Hardware-Interfaces auszuweiten. Obwohl Videomixer schon vor dem digitalen Zeitalter ihren festen Platz bei Performances hatten, verwendeten doch die meisten Computer-Setups die dafür üblichen Schnittstellen, nämlich Maus und Tastatur, oder zweckentfremdete Controller für elektronische Musik und Viodeospiele, wie z. B. Tastaturen, Drumpads und Joysticks. In den letzten Jahren sind jedoch explizit für Visual Performances konzipierte Geräte auf den Markt gekommen. Der Pioneer DVJ-X1 aus dem Jahr 2004 und das Nachfolgemodell, der DVJ-1000, geben Visual Artists dieselben Möglichkeiten (Scratching, Looping usw.) für DVDs an die Hand, die DJs zur Bearbeitung von CDs zur Verfügung stehen. Mithilfe dieser Geräte können Audio und Video von einem einzelnen Performer, oft entsprechend als DVJ bezeichnet, gleichzeitig gemischt werden. Neben den kommerziellen Produkten wird auch Do-it-yourself-Hardware für Visual Performances angeboten: Das quelloffene Tagtool, von OMA International initiiert, kann mit Hilfe von Anleitungen auf der Tagtool-Website zusammengebaut und programmiert werden. Tagtool ermöglicht Zeichnung und Animation in Echtzeit für visuelle Live-Performances.

8 Laptop und Live-Performance

Visual Artists, die sich selbst in die Performance mit einbringen,[8] wie z.B. VJ Miixxy, müssen sich, spätestens seit laptop-basierte Computerperformances stark an Popularität gewonnen haben, notgedrungen einer Frage stellen: Welche visuelle Rolle kommt dem Performer zu? Während eine Darbietung auf einem herkömmlichen Musikinstrument von ihrem Wesen her audiovisuell rezipiert werden muss, da die Zuhörer die Gesten des Performers als einen integralen Teil der Darbietung erleben, besteht zwischen dem visuellen und akustischen Output einer Laptop-Performance einerseits und den sichtbaren physischen Gesten des Künstlers andererseits wenig Zusammenhang. Laptop-Performer beginnen derzeit, sich ernsthaft mit dem Thema der Präsentation ihrer Live-Performance auseinanderzusetzen. Einige Laptop-Musiker und Visual Performer sind dazu übergegangen, der Gestik während der Performance mehr Platz einzuräumen, indem sie traditionelle Interfaces der elektronischen Musik verwenden, wie z. B. MIDI-Keyboards, oder weniger gebräuchliche Performance-Schnittstellen, wie z. B. Wii-Controller und Tagtools.[9] Andere Performer, vor allem solche auf dem Gebiet des Live Coding,[10] ziehen es vor, als Teil der Show den Bildschirm ihres Computers zu projizieren, sodass das Publikum ihre Aktionen auf dem Monitor mitverfolgen kann. Wieder andere verzichten aber bewusst darauf, ihre Aktionen bei einer Performance sichtbar zu machen, da sie die Aufmerksamkeit des Publikums ganz auf die Bilder und den Ton fokussiert wissen wollen. Viele VJs, DJs und Laptop-Musiker sind dabei der Auffassung, dass die projizierten Visuals den selben Platz einnehmen wie der Anblick eines Performers, der mit seinen Gesten Musik produziert. Während also ein Großteil der Theorie zur audiovisuellen Integration in der zeitgenössischen Szene die Beziehung zwischen den von Performern generierten Klängen und Bildern zum Thema hat, ist es wahrscheinlich, dass sich in absehbarer Zukunft die visuelle Beziehung zwischen Performer und Performance als wichtiger Gesichtspunkt der audiovisuellen Erfahrung herauskristallisieren wird.

Alle Fußnoten

[1] Fred Collopy, »Color Scales?«, RhythmicLight.com, 2007, http://rhythmiclight.com/archives/ideas/colorscales.html.

[2] Steve Beck; Illuminated Music, http://www.stevebeck.tv/ill.htm.

[3] Bram Crevits, »The Roots of VJing: A Historical Overview«, in VJ: Audio-Visual Art and VJ Culture, Michael Faulkner and D-Fuse (Hg.), London 2006, S. 15.

[4] Paul Spinrad, The VJ Book: Inspirations and Practical Advice for Live Visual Performance, Port Townsend 2005), S. 23.

[5] Musical instrument digital interface (MIDI) ist ein weitverbreitetes Datenübertragungs-Protokoll, das 1982 definiert wurde und elektronische Musikinstrumente wie z. B. Keyboards und Controller befähigt, Steuersignale (sog. Event Messages) an kompatible Soft- und/oder Hardware zu übermitteln. MIDI-Signale können z. B. über Schnittstellen wie Druck- und Drehknöpfe oder Schieberegler die Tonhöhe eines Audio-Synthesizers oder die Intensität eines elektronischen Bildes regeln. Open Sound Control (OSC) ist ein Datenübertragungs-Protokoll jüngeren Datums, das MIDI als neuer Standard ablösen soll; MIDI gilt mittlerweile vielen als veraltet, besonders im Hinblick auf den Multimedia-Bereich. Die Vorzüge von OSC gegenüber MIDI liegen in erster Linie auf den Gebieten Geschwindigkeit, Auflösung beim Durchsatz von Datentypen und Internetzugang. OSC wurde am UC Berkeley Center for New Music and Audio Technology (CNMAT) entwickelt.

[6] In den 1980er Jahren verwendete MTV regelmäßig die Bezeichnung VJ für seine ModeratorInnen. Dies hat dazu geführt, dass noch heute die zwei Bedeutungen dieser Bezeichnung oft verwechselt werden.

[7] Max und Pd sind zwar zur Zeit die in der Community der Audio und Visual Performer beliebtesten Umgebungen, die auf Patches basieren, aber ähnliche Umgebungen gewinnen zusehends an Terrain, wie das Open-Source-Projekt vvvv, dessen Stärken auf dem Gebiet der Echtzeit-Videosynthese liegen, und Eyesweb, das sich besonders auf das maschinelle Sehen zur Erfassung von Gesten spezialisiert. Es gibt außerdem verschiedene quelloffene grafische und visuelle Bibliotheken für Pd zusätzlich zu denen von Gem selbst.

[8] Die Verfasserin zieht es in ihrer Rolle als VJ Übergeek vor, auf der Bühne zu agieren und nicht auf der Projektionsfläche.

[9] Die Entwickler kommerzieller Produkte haben begriffen, dass das Interesse für gestensensible Schnittstellen seitens der Community der elektronischen Musiker und Visual Performer weiter wächst. JazzMutants Lemur ist z. B. eine Multitouch-Schnittstelle, die es Performern ermöglicht, das Klicken und Textscrollen mit einer Maus durch die Bewegung der Finger auf einem Touchpad zu ersetzen.

[10] Musical instrument digital interface (MIDI) ist ein weitverbreitetes Datenübertragungs-Protokoll, das 1982 definiert wurde und elektronische Musikinstrumente wie z. B. Keyboards und Controller befähigt, Steuersignale (sog. Event Messages) an kompatible Soft- und/oder Hardware zu übermitteln. MIDI-Signale können z. B. über Schnittstellen wie Druck- und Drehknöpfe oder Schieberegler die Tonhöhe eines Audio-Synthesizers oder die Intensität eines elektronischen Bildes regeln. Unter Live Coding versteht man das Schreiben von Software in Echtzeit als Teil einer Performance.

Literaturliste

Color Scales?
2004, Author: Collopy

Illuminated Music
2007, Author: Beck, Stephen

The Roots of VJing: A Historical Overview
2006, Author: Crevits, Bram Publisher: Laurence King

The VJ book : Inspirations and Practical Advice for Live Visuals Performance
2005, Author: Spinrad, Paul Publisher: Feral House

siehe auch

Personen
  • Shuya Abe
  • Stephen Beck
  • George H. W. Bush
  • Ben Fry
  • Mary Elizabeth Hallock Greenewalt
  • Dave Griffiths
  • HC Gilje
  • Ryoichi Kurokawa
  • Olga Mink
  • Nam June Paik
  • Miller Puckette
  • Casey Reas
  • Melissa Ulto
  • VJ Miixxy
  • VJ Oxygen
  • VJ Übergeek
  • Thomas Wilfred
  • Werke
  • DVJ-1000
  • DVJ-X1
  • Eyesweb
  • Flash
  • Gem
  • Illuminated Music
  • Jitter
  • Lemur
  • Max/MSP/Jitter
  • Modul8
  • Onyx
  • Paik/Abe Video-Synthesizer
  • Pd (Pure Data)
  • Peep Delish: VJ Miixxy—a Selection of Works
  • Processing
  • Tagtool
  • Video Toaster
  • VJamm
  • vvvv
  • We Will Rock You
  • Wii

  • Zeitrahmen
    1720 bis heute

    Alle Schlagwörter
  • Clubkultur (Kapitel 5, 6)
  • Echtzeit (Kapitel 4, 5, 7, 8)
  • Entgrenzung (Kapitel 6)
  • Improvisation (Kapitel 5)
  • Materialität (Kapitel 7)
  • Modulation (Kapitel 3)
  • Montage (Kapitel 4, 5)
  • Performativität (Kapitel 1, 5, 6, 8)
  • Polysensualität (Kapitel 1)
  • Rhythmisierung (Kapitel 4)
  • Simultaneität (Kapitel 2)
  • Synthese (Kapitel 3, 8)
  • generative Verfahren (Kapitel 3, 5)


  • Körperschaften
  • 242.pilots
  • Coldcut
  • Cycling ’74
  • Duvet Brothers
  • Emergency Broadcast Network
  • Gorilla Tapes
  • JazzMutant
  • MTV (Music Television)
  • NewTek
  • OMA International
  • Pioneer Entertainment, Inc.
  • Queen
  • Single Wing Turquoise Bird
  • Steina und Woody Vasulka
  • U2
  • UC Berkeley Center for New Music and Audio Technology
  • Zoo TV Tour
  • Datenschutzerklärung / Impressum