MainStage– Benutzerhandbuch
- Willkommen
-
- Übersicht über den Bearbeitungsmodus
-
- Patches und Sets in der Patch-Liste auswählen
- Patches kopieren, einsetzen und löschen
- Patches innerhalb der Patch-Liste organisieren und bewegen
- Patches hinzufügen und umbenennen
- Patch aus mehreren Patches erzeugen
-
- Übersicht über das Informationsfenster „Patch-Einstellungen“
- Patch-Einstellungen in der Patch-Bibliothek auswählen
- Taktart für Patches festlegen
- Tempo beim Auswählen eines Patches ändern
- Program Change- und Banknummern einstellen
- Patch-Wechsel hinauszögern
- Sofortige Stille für vorheriges Patch
- Patch-Symbole ändern
- Tonhöhe der eingehenden Noten für ein Patch transponieren
- Stimmung für ein Patch ändern
- Textnotizen zu einem Patch hinzufügen
-
- Übersicht über Channel-Strips
- Channel-Strip hinzufügen
- Channel-Strip-Setting ändern
- Channel-Strip-Komponenten konfigurieren
- Signalfluss-Channel-Strips anzeigen
- Metronom-Channel-Strip ausblenden
- Alias für einen Channel-Strip erzeugen
- Patch-Bus hinzufügen
- Pan-/Balance-Position eines Channel-Strips einstellen
- Channel-Strip-Lautstärkepegel festlegen
- Channel-Strips stumm- oder solo schalten
- Output mehrerer Instrumente verwenden
- Externe MIDI-Instrumente verwenden
- Channel-Strips neu organisieren
- Channel-Strips löschen
-
- Übersicht über das Informationsfenster „Channel-Strips“
- Channel-Strip-Settings auswählen
- Channel-Strips umbenennen
- Farben von Channel-Strips ändern
- Symbole von Channel-Strips ändern
- Schutz vor Feedback/Rückkopplungen bei Channel-Strips
- Keyboard-Input bei Channel-Strips für Software-Instruments festlegen
- Einzelne Software-Instruments transponieren
- MIDI-Befehle filtern
- Velocity für einen Channel-Strip skalieren
- Channel-Strips zum Ignorieren von „Hermode Tuning“ einstellen
- Die auf der Concert- und Set-Ebene festgelegten Tonumfänge ignorieren
- Textnotizen zu einem Channel-Strip in den Channel-Strip-Informationen hinzufügen
- Audio über Send-Effekte routen
-
- Bildschirmsteuerung-Infos – Übersicht
- Parameterbeschriftungen ersetzen
- Eigene Farben für Bildschirmsteuerungen auswählen
- Erscheinungsbild einer Hintergrund-Bildschirmsteuerung oder einer gruppierten Steuerung ändern
- Bildschirmsteuerungen zum Anzeigen des Hardware-Werts einstellen
- Verhalten bei Parameteränderungen für Bildschirmsteuerungen einstellen
- Hardware-Matching-Verhalten für Bildschirmsteuerungen einstellen
- Änderungen an einem Patch zurücksetzen und vergleichen
- Mappings auf der Concert- und Set-Ebene ignorieren
-
- Übersicht über das Mapping für Bildschirmsteuerungen
- Auf Channel-Strip- und Plug-in-Parameter mappen
- Zwischen Bildschirmsteuerungen und Aktionen mappen
- Zwischen einer Bildschirmsteuerung und mehreren Parametern mappen
- Bildschirmsteuerungen zum Anzeigen von PDF-Seiten verwenden
- Gesicherten Wert für einen gemappten Parameter bearbeiten
- Drum-Pads oder Schalter/Tasten zum Verwenden des Noten-Anschlags einstellen
- Zwischen Bildschirmsteuerungen und allen Channel-Strips in einem Patch mappen
- Mappings zwischen Bildschirmsteuerungen und Parametern aufheben
- Mappings für Bildschirmsteuerungen entfernen
- Mit Kurven arbeiten
- Controller-Transforms erzeugen
- Patches und Sets zwischen Concerts teilen
- Audio-Output eines Concerts aufnehmen
-
- Übersicht über Concerts
- Concerts erstellen
- Concerts öffnen und schließen
- Concerts sichern
- Auswirkungen des Sicherns auf Parameterwerte
- Concerts aufräumen
- Medien in einem Concert zusammenlegen
- Aktuelles Concert umbenennen
-
- Übersicht über das Informationsfenster „Concert-Einstellungen“
- MIDI-Routing für Channel-Strips festlegen
- Tonhöhe eingehender Noten für ein Concert transponieren
- Quelle für Program Change-Befehle festlegen
- Nicht verwendete Program Changes an Channel-Strips senden
- Taktart für ein Concert festlegen
- Stimmung für ein Concert ändern
- Pan Law für ein Concert bestimmen
- Textnotizen zu einem Concert hinzufügen
- Metronom steuern
- MIDI-Noten ausschalten
- Audio-Output stummschalten
-
- Layout-Modus – Übersicht
-
- Bildschirmsteuerungen – Übersicht
- Kopieren und Einsetzen von Bildschirmsteuerungen
- Bewegen von Bildschirmsteuerungen
- Ändern der Größe von Bildschirmsteuerungen
- Ausrichten und Verteilen von Bildschirmsteuerungen
- Anpassen des Sockels einer Shelf-Steuerung
- Gruppieren von Bildschirmsteuerungen
- Löschen von Bildschirmsteuerungen
-
- Bearbeiten der Parameter für Bildschirmsteuerungen – Übersicht
- Extrahieren und Übernehmen von Parametern für Bildschirmsteuerungen
- Zurücksetzen der Parameter für Bildschirmsteuerungen
- Gemeinsame Parameter für Bildschirmsteuerungen
- Parameter für Keyboard-Bildschirmsteuerungen
- Parameter für MIDI-Aktivität-Bildschirmsteuerungen
- Parameter für Drum-Pad-Bildschirmsteuerungen
- Parameter für Wellenform-Bildschirmsteuerungen
- Parameter für Auswahl-Bildschirmsteuerungen
- Parameter für Text-Bildschirmsteuerungen
- Parameter für Hintergrund-Bildschirmsteuerungen
- So schleift MainStage MIDI-Befehle durch
- Exportieren und Importieren von Layouts
- Ändern des Seitenverhältnisses eines Layouts
-
- Vor der Live-Performance
- Perform-Modus verwenden
- Bildschirmsteuerungen während der Performance
- Tempo-Änderungen während der Performance
- Tipps für die Performance mit Keyboard-Controllern
- Tipps für die Performance mit Gitarren und anderen Instrumenten
- Gitarren und andere Instrumente mit dem Stimmgerät stimmen
- Das Playback-Plug-in während der Performance
- Performances aufnehmen
- Nach der Performance
- Tipps für komplexe Hardware-Setups
-
- Übersicht über die Tastaturkurzbefehle und Befehlskonfigurationen
-
- Tastaturkurzbefehle für Concerts und Layouts
- Tastaturkurzbefehle für Patches und Sets (Bearbeitungsmodus)
- Tastaturkurzbefehle für die Bearbeitung
- Tastaturkurzbefehle für Aktionen
- Tastaturkurzbefehle für Parameter-Mapping (Bearbeitungsmodus)
- Tastaturkurzbefehle für Channel-Strips (Bearbeitungsmodus)
- Tastaturkurzbefehle für Bildschirmsteuerungen (Layout-Modus)
- Tastaturkurzbefehle für „Im Vollbildmodus ausführen“
- Tastaturkurzbefehle für Fenster und Ansicht
- Tastaturkurzbefehle für Hilfe und Support
-
-
- Verzögerungseffekte (Delay) – Übersicht
- Echo-Steuerelemente
-
- Loopback – Übersicht
- Loopback-Instanz hinzufügen
- Loopback-Oberfläche
- Wellenformanzeige von Loopback
- Transportsteuerung und Funktionssteuerelemente von Loopback
- Informationsanzeige von Loopback
- Loopback-Parameter „Sync“, „Snap“ und „Play From“
- Loopback-Gruppenfunktionen verwenden
- Aktionsmenü „Loopback“
- Sample Delay-Steuerung
- Stereo Delay-Steuerung
- Tape Delay-Steuerung
-
- Filtereffekte – Übersicht
-
- EVOC 20 TrackOscillator – Übersicht
- Vocoder – Übersicht
- Bedienungsoberfläche des EVOC 20 TrackOscillator
- Steuerungen für „Analysis In“
- Steuerungen für „U/V Detection“
- Steuerungen für „Synthesis In“
- Steuerungen des Tracking-Oszillators
- Tonhöhensteuerungen des Tracking-Oszillators
- Steuerungen für Formant-Filter
- Modulation-Steuerungen
- Output-Steuerungen
- Erweiterte Parameter
-
- MIDI-Plug-ins verwenden
-
- Arpeggiator – Übersicht
- Parameter für die Arpeggiator-Steuerung
- Parameter für Notenfolge – Übersicht
- Notenfolge-Variationen
- Notenfolge-Inversionen
- Parameter für Arpeggio-Pattern – Übersicht
- Live-Modus verwenden
- Grid-Modus verwenden
- Optionsparameter des Arpeggiators
- Keyboard-Parameter des Arpeggiators
- Keyboard-Parameter verwenden
- Controller zuweisen
- Modifier-Steuerungen
- Steuerungen für „Note Repeater“
- Steuerungen in „Randomizer“
-
- Scripter verwenden
- Script Editor verwenden
- Scripter-API – Übersicht
- Funktionen für die MIDI-Verarbeitung – Übersicht
- Funktion „HandleMIDI“
- Funktion „ProcessMIDI“
- Funktion „GetParameter“
- Funktion „SetParameter“
- Funktion „ParameterChanged“
- Reset-Funktion
- JavaScript-Objekte – Übersicht
- JavaScript Event-Objekt verwenden
- JavaScript TimingInfo-Objekt verwenden
- Objekt „Trace“ verwenden
- beatPos-Eigenschaft des MIDI-Events verwenden
- JavaScript MIDI-Objekt verwenden
- Scripter-Steuerungen erstellen
- Transposer-Steuerungen
-
-
- Alchemy – Übersicht
- Alchemy-Benutzeroberfläche – Übersicht
- Alchemy-Leiste „Name“
- Alchemy-Dateipositionen
-
- Alchemy-Source – Übersicht
- Source-Master-Steuerungen
- Importübersicht
- Steuerungen der Source-Unterseite
- Source-Filter-Steuerelemente
- Tipps zur Verwendung von-Source-Filtern
- Source-Elemente – Übersicht
- Additivelement-Steuerungen
- Additivelement-Effekte
- Spektralelement-Steuerungen
- Spektralelement-Effekte
- Parameter zur Tonhöhenkorrektur
- Steuerungen für Formant-Filter
- Granularelement-Steuerungen
- Sampler-Element-Steuerungen
- VA-Element-Steuerungen
- Wide Unison-Modus
- Source-Modulationen
- Morph-Steuerungen
-
- Alchemy-Source-Bearbeitungsfenster – Übersicht
- Globale Steuerungen des Informationsfensters
- Gruppensteuerungen im Informationsfenster
- Zonensteuerungen im Informationsfenster
- Keymap-Editor
- Wellenformeditor für Zonen
- Bearbeitungsfenster „Additive“ – Übersicht
- Teilton-Balkendarstellung
- Steuerungen für Teiltonhüllkurve
- Bearbeitungsfenster „Spectral“
- Alchemy-Master-Stimmenbereich
-
- Alchemy-Modulation – Übersicht
- Modulationsrack-Steuerungen
- LFO-Steuerungen
- Steuerungen für AHDSR-Hüllkurven
- Steuerungen für Hüllkurven mit mehreren Segmenten
- Sequenzer
- Parameter für „Envelope Follower“
- ModMap-Parameter
- MIDI-Steuerungsmodulatoren
- Noteneigenschaftsmodulatoren
- Perform-Steuerungsmodulatoren
- Erweiterte Parameter in Alchemy
-
- ES2 – Übersicht
- Bedienoberfläche des ES2
-
- Oszillator-Parameter – Übersicht
- Grundlegende Oszillator-Wellenformen
- Pulsbreitenmodulation verwenden
- Frequenzmodulation verwenden
- Ringmodulation verwenden
- Digiwaves verwenden
- Noise-Generator verwenden
- Analog-Oszillatoren verstimmen
- Streckung
- Oszillatorpegel ausgleichen
- Oszillator-Startpunkte festlegen
- Oszillatoren synchronisieren
-
- ES2-Modulation – Übersicht
- LFOs verwenden
- Vector-Hüllkurve verwenden
-
- Vector Envelope-Punkte verwenden
- Solo- und Sustain-Punkte der Vector-Hüllkurve verwenden
- Vector-Hüllkurven-Loops einrichten
- Release-Verhalten von Vector Envelope
- Kurvenformen für die Übergangspunkte der Vector-Hüllkurve
- Zeiten für die Vector-Hüllkurve festlegen
- Zeitskalierung für die Vector-Hüllkurve verwenden
- Kontextmenü von Vector Envelope verwenden
- Planar Pad verwenden
- Referenz der Modulationsquellen
- Referenz der „Via“-Modulationsquellen
- Steuerungen des integrierter Effektprozessors des ES2
- Erweiterte Parameter
-
-
- Playback-Plug-in – Übersicht
- Playback Plug-in hinzufügen
- Playback-Benutzeroberfläche
- Playback-Wellenformanzeige verwenden
- Transportsteuerungs- und Funktionstasten von Playback
- Informationsanzeige von Playback
- Playback-Parameter „Sync“, „Snap“ und „Wiedergabe ab“
- Playback-Gruppenfunktionen verwenden
- Aktionsmenü und Feld „Datei“ in Playback verwenden
- Marker mit dem Playback-Plug-in verwenden
-
- Quick Sampler – Übersicht
- Audio zu Quick Sampler hinzufügen
- Quick Sampler – Wellenformanzeige
- Flex in Quick Sampler verwenden
- Pitch-Steuerungen von Quick Sampler
- Filter-Steuerungen von Quick Sampler
- Filtertypen von Quick Sampler
- Amp-Steuerungen von Quick Sampler
- Erweiterte Parameter von Quick Sampler
-
- Sample Alchemy – Übersicht
- Benutzeroberfläche – Übersicht
- Quellenmaterial hinzufügen
- Bearbeitungsmodus
- Wiedergabemodi
- Source-Übersicht
- Synthesemodi
- Granular-Steuerungen
- Additiveffekte
- Additiveffekt-Steuerungen
- Spektraleffekt
- Spektraleffekt-Steuerungen
- Modul „Filter“
- Tiefpass-, Bandpass- und Hochpassfilter
- Filter „Comb PM“
- Filter „Downsampler“
- Filter „FM“
- Hüllkurvengeneratoren
- Mod Matrix
- Modulationsrouting
- Modus „Motion“
- Modus „Trimmen“
- Menü „More“
-
- Sampler – Übersicht
- Sampler-Instrumente im Sampler laden und sichern
-
- Sampler-Bereiche „Mapping“ und „Zone“ – Übersicht
- Key Mapping Editor verwenden
- Gruppenansicht verwenden
- Erweiterte Gruppenauswahl vornehmen
- Zwischen Sample-Gruppen ein- und ausblenden
- Zonenansicht verwenden
- Menübefehle im Bereich „Mapping“ verwenden
- Bereich „Zone“ verwenden
- Audiomaterial mit dem Flex-Modus synchronisieren
- Artikulationsverarbeitung in Sampler
- Speicherverwaltung von Sampler
- Erweiterte Parameter von Sampler
-
- Sculpture – Übersicht
- Die Oberfläche von Sculpture
- Globale Parameter
- Parameter der Amplitudenhüllkurve einstellen
- Waveshaper verwenden
- Filter-Parameter
- Output-Parameter
- MIDI-Controller definieren
- Erweiterte Parameter
-
- Studio Piano
-
- Ultrabeat – Übersicht
- Bedienoberfläche von Ultrabeat
- Synthesizer-Bereich – Übersicht
-
- Oszillator – Übersicht
- Phasenoszillator-Modus von Oszillator 1
- FM-Modus von Oszillator 1 verwenden
- Sidechain-Modus von Oszillator 1
- Phasenoszillator-Modus von Oszillator 2
- Wellenformeigenschaften
- Sample-Modus von Oszillator 2 verwenden
- Modeling-Modus von Oszillator 2 verwenden
- Steuerungen des Ringmodulators
- Steuerungen des Rauschgenerators
- Steuerungen für den Filterbereich
- Steuerungen des Distortion-Schaltkreises
- Urheberrechte und Marken
Vocoder-Geschichte
Die Entwicklung des Vocoders begann in den 1930er Jahren in der Telekommunikationsindustrie.
Homer Dudley, ein Forscher und Physiker bei den Bell Laboratories in New Jersey, entwickelte den Vocoder (Abkürzung für Voice Encoder) zu Forschungszwecken. Ursprünglich sollte er der Erforschung von Kompressionsmustern bei der Übertragung von Stimmsignalen über Kupfertelefonleitungen dienen.
Es war ein zusammengesetztes Gerät, das wie folgt aus einem Analysator und einem künstlichen Stimmen-Synthesizer bestand:
Parallel Bandpass Vocoder: Ein Sprachanalysegerät und Resynthesizer.
Sprachsynthesizer Vocoder: Ein Stimmenmodell, dieses Röhrengerät wurde von einer Person bedient bzw. gespielt. Es hatte zwei Tastaturen, Tasten zur Erzeugung von Konsonanten, ein Pedal für die Steuerung der Oszillatorfrequenz und einen Handgelenkbalken zum Ein- und Ausschalten von Vokalklängen.
Der Analysator erkannte die Energieanteile fortschreitender Klangproben (Samples), gemessen über das gesamte Hörspektrum über eine Reihe schmalbandiger Filter. Dessen Ergebnisse konnten grafisch als Funktionen der Frequenz über der Zeit angezeigt werden.
Der Synthesizer kehrte diesen Prozess um, indem er die Daten des Analysators abtastete und die Ergebnisse an eine Reihe analytischer Filter weitergab, die an einen Rauschgenerator gekoppelt waren. Diese Kombination erzeugte Sprachklänge.
Im Zweiten Weltkrieg kam der Vocoder (damals bekannt unter Voice Encoder) zur Verschlüsselung der transatlantischen Gespräche zwischen Winston Churchill und Franklin Delano Roosevelt zum Einsatz.
Werner Meyer-Eppler, Leiter der Phonetik-Abteilung der Universität Bonn, erkannte die Bedeutung der Geräte für die elektronische Musik, nachdem Dudley die Universität 1948 besucht hatte. Meyer-Eppler verwendete den Vocoder als Basis für seine zukünftigen Aufnahmen, die dann die deutsche Musikrichtung der Elektronischen Musik inspirierten.
In den 1950er Jahren folgten einige weitere Aufnahmen.
1960 wurde der Siemens-Synthesizer in München entwickelt. Neben vielen anderen Oszillatoren und Filtern enthielt er einen röhrenbasierten Vocoding-Schaltkreis.
1967 baute die Firma Sylvania einige digitale Geräte, die statt der Bandpass-Analyse eine zeitbasierte Analyse des Input-Signals durchführten.
Nach dem Studium von Dudleys Gerät modifizierten Bob Moog und Wendy Carlos 1971 mehrere Synthesizermodule, um für den Soundtrack des Films Clockwork Orange einen eigenen Vocoder nutzen zu können.
Peter Zinovieffs Firma EMS arbeitete in London an einem eigenständigen und insgesamt transportableren Vocoder. EMS wurde vorwiegend durch den Synthesizer Synthi AKS und den VCS3 bekannt. Der Studio Vocoder von EMS war das erste käuflich zu erwerbende Gerät seiner Art, der 1976 veröffentlicht wurde. Später wurde er in EMS 5000 umbenannt. Stevie Wonder und Kraftwerk gehörten zu den renommiertesten Anwendern. Stockhausen, der deutsche Pionier der Elektronischen Musik, verwendete ebenfalls einen EMS-Vocoder.
Sennheiser veröffentlichte 1977 ihren VMS 201 und EMS entwickelte den EMS 2000, der eine kleinere Version des EMS 5000 war.
1978 kam der Durchbruch für den extensiven Gebrauch des Vocoders, der durch berühmte Musiker wie Herbie Hancock, Kraftwerk und eine Handvoll anderer Künstler bekannt wurde. Zu den Herstellern, die die Vocoder-Produktion zu dieser Zeit aufnahmen, gehörten Synton/Bode, Electro-Harmonix und Korg mit dem VC-10.
1979 veröffentlichte Roland das Ensemble/Vocoder-Keyboard VP 330.
Die späten 1970er und frühen 1980er bildeten die Glanzzeit des Vocoders. Künstler, die den Vocoder verwendeten, sind unter anderem ELO, Pink Floyd, Eurythmics, Tangerine Dream, Telex, David Bowie, Kate Bush und viele mehr.
Auf Produktionsseite konnten (und können immer noch) Vocoder bereits als Billigbausätze in Elektronikgeschäften erstanden werden.
Von 1980 bis jetzt waren und sind EMS in England, Synton in den Niederlanden und PAiA in den USA die wichtigsten Träger der Vocoder-Fahne.
1996 schlossen sich Doepfer in Deutschland und Music and More der Vocoder produzierenden Gemeinde an.
Von den späten 1990ern bis heute erschienen mehrere softwarebasierte Vocoder wie der EVOC 20.