MainStage– Benutzerhandbuch
- Willkommen
-
- Übersicht über den Bearbeitungsmodus
-
- Patches und Sets in der Patch-Liste auswählen
- Patches kopieren, einsetzen und löschen
- Patches innerhalb der Patch-Liste organisieren und bewegen
- Patches hinzufügen und umbenennen
- Patch aus mehreren Patches erzeugen
-
- Übersicht über das Informationsfenster „Patch-Einstellungen“
- Patch-Einstellungen in der Patch-Bibliothek auswählen
- Taktart für Patches festlegen
- Tempo beim Auswählen eines Patches ändern
- Program Change- und Banknummern einstellen
- Patch-Wechsel hinauszögern
- Sofortige Stille für vorheriges Patch
- Patch-Symbole ändern
- Tonhöhe der eingehenden Noten für ein Patch transponieren
- Stimmung für ein Patch ändern
- Textnotizen zu einem Patch hinzufügen
-
- Übersicht über Channel-Strips
- Channel-Strip hinzufügen
- Channel-Strip-Setting ändern
- Channel-Strip-Komponenten konfigurieren
- Signalfluss-Channel-Strips anzeigen
- Metronom-Channel-Strip ausblenden
- Alias für einen Channel-Strip erzeugen
- Patch-Bus hinzufügen
- Pan-/Balance-Position eines Channel-Strips einstellen
- Channel-Strip-Lautstärkepegel festlegen
- Channel-Strips stumm- oder solo schalten
- Output mehrerer Instrumente verwenden
- Externe MIDI-Instrumente verwenden
- Channel-Strips neu organisieren
- Channel-Strips löschen
-
- Übersicht über das Informationsfenster „Channel-Strips“
- Channel-Strip-Settings auswählen
- Channel-Strips umbenennen
- Farben von Channel-Strips ändern
- Symbole von Channel-Strips ändern
- Schutz vor Feedback/Rückkopplungen bei Channel-Strips
- Keyboard-Input bei Channel-Strips für Software-Instruments festlegen
- Einzelne Software-Instruments transponieren
- MIDI-Befehle filtern
- Velocity für einen Channel-Strip skalieren
- Channel-Strips zum Ignorieren von „Hermode Tuning“ einstellen
- Die auf der Concert- und Set-Ebene festgelegten Tonumfänge ignorieren
- Textnotizen zu einem Channel-Strip in den Channel-Strip-Informationen hinzufügen
- Audio über Send-Effekte routen
-
- Bildschirmsteuerung-Infos – Übersicht
- Parameterbeschriftungen ersetzen
- Eigene Farben für Bildschirmsteuerungen auswählen
- Erscheinungsbild einer Hintergrund-Bildschirmsteuerung oder einer gruppierten Steuerung ändern
- Bildschirmsteuerungen zum Anzeigen des Hardware-Werts einstellen
- Verhalten bei Parameteränderungen für Bildschirmsteuerungen einstellen
- Hardware-Matching-Verhalten für Bildschirmsteuerungen einstellen
- Änderungen an einem Patch zurücksetzen und vergleichen
- Mappings auf der Concert- und Set-Ebene ignorieren
-
- Übersicht über das Mapping für Bildschirmsteuerungen
- Auf Channel-Strip- und Plug-in-Parameter mappen
- Zwischen Bildschirmsteuerungen und Aktionen mappen
- Zwischen einer Bildschirmsteuerung und mehreren Parametern mappen
- Bildschirmsteuerungen zum Anzeigen von PDF-Seiten verwenden
- Gesicherten Wert für einen gemappten Parameter bearbeiten
- Drum-Pads oder Schalter/Tasten zum Verwenden des Noten-Anschlags einstellen
- Zwischen Bildschirmsteuerungen und allen Channel-Strips in einem Patch mappen
- Mappings zwischen Bildschirmsteuerungen und Parametern aufheben
- Mappings für Bildschirmsteuerungen entfernen
- Mit Kurven arbeiten
- Controller-Transforms erzeugen
- Patches und Sets zwischen Concerts teilen
- Audio-Output eines Concerts aufnehmen
-
- Übersicht über Concerts
- Concerts erstellen
- Concerts öffnen und schließen
- Concerts sichern
- Auswirkungen des Sicherns auf Parameterwerte
- Concerts aufräumen
- Medien in einem Concert zusammenlegen
- Aktuelles Concert umbenennen
-
- Übersicht über das Informationsfenster „Concert-Einstellungen“
- MIDI-Routing für Channel-Strips festlegen
- Tonhöhe eingehender Noten für ein Concert transponieren
- Quelle für Program Change-Befehle festlegen
- Nicht verwendete Program Changes an Channel-Strips senden
- Taktart für ein Concert festlegen
- Stimmung für ein Concert ändern
- Pan Law für ein Concert bestimmen
- Textnotizen zu einem Concert hinzufügen
- Metronom steuern
- MIDI-Noten ausschalten
- Audio-Output stummschalten
-
- Layout-Modus – Übersicht
-
- Bildschirmsteuerungen – Übersicht
- Kopieren und Einsetzen von Bildschirmsteuerungen
- Bewegen von Bildschirmsteuerungen
- Ändern der Größe von Bildschirmsteuerungen
- Ausrichten und Verteilen von Bildschirmsteuerungen
- Anpassen des Sockels einer Shelf-Steuerung
- Gruppieren von Bildschirmsteuerungen
- Löschen von Bildschirmsteuerungen
-
- Bearbeiten der Parameter für Bildschirmsteuerungen – Übersicht
- Extrahieren und Übernehmen von Parametern für Bildschirmsteuerungen
- Zurücksetzen der Parameter für Bildschirmsteuerungen
- Gemeinsame Parameter für Bildschirmsteuerungen
- Parameter für Keyboard-Bildschirmsteuerungen
- Parameter für MIDI-Aktivität-Bildschirmsteuerungen
- Parameter für Drum-Pad-Bildschirmsteuerungen
- Parameter für Wellenform-Bildschirmsteuerungen
- Parameter für Auswahl-Bildschirmsteuerungen
- Parameter für Text-Bildschirmsteuerungen
- Parameter für Hintergrund-Bildschirmsteuerungen
- So schleift MainStage MIDI-Befehle durch
- Exportieren und Importieren von Layouts
- Ändern des Seitenverhältnisses eines Layouts
-
- Vor der Live-Performance
- Perform-Modus verwenden
- Bildschirmsteuerungen während der Performance
- Tempo-Änderungen während der Performance
- Tipps für die Performance mit Keyboard-Controllern
- Tipps für die Performance mit Gitarren und anderen Instrumenten
- Gitarren und andere Instrumente mit dem Stimmgerät stimmen
- Das Playback-Plug-in während der Performance
- Performances aufnehmen
- Nach der Performance
- Tipps für komplexe Hardware-Setups
-
- Übersicht über die Tastaturkurzbefehle und Befehlskonfigurationen
-
- Tastaturkurzbefehle für Concerts und Layouts
- Tastaturkurzbefehle für Patches und Sets (Bearbeitungsmodus)
- Tastaturkurzbefehle für die Bearbeitung
- Tastaturkurzbefehle für Aktionen
- Tastaturkurzbefehle für Parameter-Mapping (Bearbeitungsmodus)
- Tastaturkurzbefehle für Channel-Strips (Bearbeitungsmodus)
- Tastaturkurzbefehle für Bildschirmsteuerungen (Layout-Modus)
- Tastaturkurzbefehle für „Im Vollbildmodus ausführen“
- Tastaturkurzbefehle für Fenster und Ansicht
- Tastaturkurzbefehle für Hilfe und Support
-
-
- Verzögerungseffekte (Delay) – Übersicht
- Echo-Steuerelemente
-
- Loopback – Übersicht
- Loopback-Instanz hinzufügen
- Loopback-Oberfläche
- Wellenformanzeige von Loopback
- Transportsteuerung und Funktionssteuerelemente von Loopback
- Informationsanzeige von Loopback
- Loopback-Parameter „Sync“, „Snap“ und „Play From“
- Loopback-Gruppenfunktionen verwenden
- Aktionsmenü „Loopback“
- Sample Delay-Steuerung
- Stereo Delay-Steuerung
- Tape Delay-Steuerung
-
- Filtereffekte – Übersicht
-
- EVOC 20 TrackOscillator – Übersicht
- Vocoder – Übersicht
- Bedienungsoberfläche des EVOC 20 TrackOscillator
- Steuerungen für „Analysis In“
- Steuerungen für „U/V Detection“
- Steuerungen für „Synthesis In“
- Steuerungen des Tracking-Oszillators
- Tonhöhensteuerungen des Tracking-Oszillators
- Steuerungen für Formant-Filter
- Modulation-Steuerungen
- Output-Steuerungen
- Erweiterte Parameter
-
- MIDI-Plug-ins verwenden
-
- Arpeggiator – Übersicht
- Parameter für die Arpeggiator-Steuerung
- Parameter für Notenfolge – Übersicht
- Notenfolge-Variationen
- Notenfolge-Inversionen
- Parameter für Arpeggio-Pattern – Übersicht
- Live-Modus verwenden
- Grid-Modus verwenden
- Optionsparameter des Arpeggiators
- Keyboard-Parameter des Arpeggiators
- Keyboard-Parameter verwenden
- Controller zuweisen
- Modifier-Steuerungen
- Steuerungen für „Note Repeater“
- Steuerungen in „Randomizer“
-
- Scripter verwenden
- Script Editor verwenden
- Scripter-API – Übersicht
- Funktionen für die MIDI-Verarbeitung – Übersicht
- Funktion „HandleMIDI“
- Funktion „ProcessMIDI“
- Funktion „GetParameter“
- Funktion „SetParameter“
- Funktion „ParameterChanged“
- Reset-Funktion
- JavaScript-Objekte – Übersicht
- JavaScript Event-Objekt verwenden
- JavaScript TimingInfo-Objekt verwenden
- Objekt „Trace“ verwenden
- beatPos-Eigenschaft des MIDI-Events verwenden
- JavaScript MIDI-Objekt verwenden
- Scripter-Steuerungen erstellen
- Transposer-Steuerungen
-
-
- Alchemy – Übersicht
- Alchemy-Benutzeroberfläche – Übersicht
- Alchemy-Leiste „Name“
- Alchemy-Dateipositionen
-
- Alchemy-Source – Übersicht
- Source-Master-Steuerungen
- Importübersicht
- Steuerungen der Source-Unterseite
- Source-Filter-Steuerelemente
- Tipps zur Verwendung von-Source-Filtern
- Source-Elemente – Übersicht
- Additivelement-Steuerungen
- Additivelement-Effekte
- Spektralelement-Steuerungen
- Spektralelement-Effekte
- Parameter zur Tonhöhenkorrektur
- Steuerungen für Formant-Filter
- Granularelement-Steuerungen
- Sampler-Element-Steuerungen
- VA-Element-Steuerungen
- Wide Unison-Modus
- Source-Modulationen
- Morph-Steuerungen
-
- Alchemy-Source-Bearbeitungsfenster – Übersicht
- Globale Steuerungen des Informationsfensters
- Gruppensteuerungen im Informationsfenster
- Zonensteuerungen im Informationsfenster
- Keymap-Editor
- Wellenformeditor für Zonen
- Bearbeitungsfenster „Additive“ – Übersicht
- Teilton-Balkendarstellung
- Steuerungen für Teiltonhüllkurve
- Bearbeitungsfenster „Spectral“
- Alchemy-Master-Stimmenbereich
-
- Alchemy-Modulation – Übersicht
- Modulationsrack-Steuerungen
- LFO-Steuerungen
- Steuerungen für AHDSR-Hüllkurven
- Steuerungen für Hüllkurven mit mehreren Segmenten
- Sequenzer
- Parameter für „Envelope Follower“
- ModMap-Parameter
- MIDI-Steuerungsmodulatoren
- Noteneigenschaftsmodulatoren
- Perform-Steuerungsmodulatoren
- Erweiterte Parameter in Alchemy
-
- ES2 – Übersicht
- Bedienoberfläche des ES2
-
- Oszillator-Parameter – Übersicht
- Grundlegende Oszillator-Wellenformen
- Pulsbreitenmodulation verwenden
- Frequenzmodulation verwenden
- Ringmodulation verwenden
- Digiwaves verwenden
- Noise-Generator verwenden
- Analog-Oszillatoren verstimmen
- Streckung
- Oszillatorpegel ausgleichen
- Oszillator-Startpunkte festlegen
- Oszillatoren synchronisieren
-
- ES2-Modulation – Übersicht
- LFOs verwenden
- Vector-Hüllkurve verwenden
-
- Vector Envelope-Punkte verwenden
- Solo- und Sustain-Punkte der Vector-Hüllkurve verwenden
- Vector-Hüllkurven-Loops einrichten
- Release-Verhalten von Vector Envelope
- Kurvenformen für die Übergangspunkte der Vector-Hüllkurve
- Zeiten für die Vector-Hüllkurve festlegen
- Zeitskalierung für die Vector-Hüllkurve verwenden
- Kontextmenü von Vector Envelope verwenden
- Planar Pad verwenden
- Referenz der Modulationsquellen
- Referenz der „Via“-Modulationsquellen
- Steuerungen des integrierter Effektprozessors des ES2
- Erweiterte Parameter
-
-
- Playback-Plug-in – Übersicht
- Playback Plug-in hinzufügen
- Playback-Benutzeroberfläche
- Playback-Wellenformanzeige verwenden
- Transportsteuerungs- und Funktionstasten von Playback
- Informationsanzeige von Playback
- Playback-Parameter „Sync“, „Snap“ und „Wiedergabe ab“
- Playback-Gruppenfunktionen verwenden
- Aktionsmenü und Feld „Datei“ in Playback verwenden
- Marker mit dem Playback-Plug-in verwenden
-
- Quick Sampler – Übersicht
- Audio zu Quick Sampler hinzufügen
- Quick Sampler – Wellenformanzeige
- Flex in Quick Sampler verwenden
- Pitch-Steuerungen von Quick Sampler
- Filter-Steuerungen von Quick Sampler
- Filtertypen von Quick Sampler
- Amp-Steuerungen von Quick Sampler
- Erweiterte Parameter von Quick Sampler
-
- Sample Alchemy – Übersicht
- Benutzeroberfläche – Übersicht
- Quellenmaterial hinzufügen
- Bearbeitungsmodus
- Wiedergabemodi
- Source-Übersicht
- Synthesemodi
- Granular-Steuerungen
- Additiveffekte
- Additiveffekt-Steuerungen
- Spektraleffekt
- Spektraleffekt-Steuerungen
- Modul „Filter“
- Tiefpass-, Bandpass- und Hochpassfilter
- Filter „Comb PM“
- Filter „Downsampler“
- Filter „FM“
- Hüllkurvengeneratoren
- Mod Matrix
- Modulationsrouting
- Modus „Motion“
- Modus „Trimmen“
- Menü „More“
-
- Sampler – Übersicht
- Sampler-Instrumente im Sampler laden und sichern
-
- Sampler-Bereiche „Mapping“ und „Zone“ – Übersicht
- Key Mapping Editor verwenden
- Gruppenansicht verwenden
- Erweiterte Gruppenauswahl vornehmen
- Zwischen Sample-Gruppen ein- und ausblenden
- Zonenansicht verwenden
- Menübefehle im Bereich „Mapping“ verwenden
- Bereich „Zone“ verwenden
- Audiomaterial mit dem Flex-Modus synchronisieren
- Artikulationsverarbeitung in Sampler
- Speicherverwaltung von Sampler
- Erweiterte Parameter von Sampler
-
- Sculpture – Übersicht
- Die Oberfläche von Sculpture
- Globale Parameter
- Parameter der Amplitudenhüllkurve einstellen
- Waveshaper verwenden
- Filter-Parameter
- Output-Parameter
- MIDI-Controller definieren
- Erweiterte Parameter
-
- Studio Piano
-
- Ultrabeat – Übersicht
- Bedienoberfläche von Ultrabeat
- Synthesizer-Bereich – Übersicht
-
- Oszillator – Übersicht
- Phasenoszillator-Modus von Oszillator 1
- FM-Modus von Oszillator 1 verwenden
- Sidechain-Modus von Oszillator 1
- Phasenoszillator-Modus von Oszillator 2
- Wellenformeigenschaften
- Sample-Modus von Oszillator 2 verwenden
- Modeling-Modus von Oszillator 2 verwenden
- Steuerungen des Ringmodulators
- Steuerungen des Rauschgenerators
- Steuerungen für den Filterbereich
- Steuerungen des Distortion-Schaltkreises
- Urheberrechte und Marken
Synthesizer-Grundlagen
Klangsynthese ist die elektronische Erzeugung von Klängen, beginnend mit grundlegenden Elementen wie Sinustönen und einfachen Wellenformen.
Synthesizer können eine Vielzahl von Sounds emulieren oder synthetisieren – etwa den Klang eines anderen Instruments, einer Stimme, eines Helikopters, eines Autos oder eines Hundegebells. Der Synthesizer kann natürlich auch viele unnatürliche Klänge erzeugen. Die Fähigkeit, Klänge zu erzeugen, die mit keinem anderen Instrument erzeugt werden können, macht den Synthesizer zu einem einzigartigen Musikwerkzeug.
Die einfachste Form eines Synthesizers wäre die eines einfachen Sinustongenerators mit einfacher Frequenzregelung. Ein solcher Synthesizer wäre nicht in der Lage, irgendetwas außer einer Sinuskurve zu synthetisieren. Die Kombination einer Vielzahl von Sinusgeneratoren kann bereits eine Menge interessanter und nützlicher Klänge hervorbringen.
In einem Synthesizer heißt die primäre schwingungserzeugende Komponente Oszillator. Die meisten Synthesizer-Oszillatoren erzeugen neben Sinuswellen obertonreiche Wellenformen wie Sägezahn (Sawtooth), Dreieck (Triangle), Rechteck (Square) und die Impulswelle (Pulse Wave). Diese Wellenformen sind nach der Ähnlichkeit ihrer Wellenform mit den Zacken einer Säge, mit Dreiecken, Rechtecken und so weiter benannt. Informationen über die am häufigsten verwendeten Synthesizer-Wellenformen findest du unter Oszillatoren.
Die Klangformung erfolgt durch das Routing eines Signals durch signalverarbeitende, so genannte Module, zu einem anderen Synthesizer. Die Module haben unterschiedliche Funktionen, wodurch das Quellensignal beeinflusst wird.
In einem modularen Synthesizer können die Module beliebig miteinander verschaltet werden. In den meisten modernen Synthesizern ist der Weg des Signals weitgehend vorgegeben und kann nur mit Reglern und Schaltern variiert werden.
Weitere Informatioen zu Synthezizer-Komponenten und ihre Interaktion untereinander, um Klang zu steuern und zu formen, findest du unter Funktionsprinzip von subtraktiven Synthesizern.
Synthesizer gibt es schon viel länger, als du wahrscheinlich denkst. Vor dem Einzug der digitalen Technologie waren alle Synthesizer analog. Vor der Elektrifizierung der Musik funktionierten alle Synthesizer mechanisch-akustisch. Es gibt beträchtliche Unterschiede zwischen analogen und digitalen Synthesizern:
Analog: Ein analoger Synthesizer kombiniert spannungsgesteuerte Schaltkreise wie Oszillatoren, Filter und Verstärker, um Klänge zu erzeugen und zu formen. Die Steuerspannung steuert typischerweise direkt die Frequenz der Oszillatoren (die wir als Tonhöhe wahrnehmen): je höher die Spannung, desto höher die Frequenz, desto höher die Tonhöhe (Pitch).
Digital: In einem digitalen Synthesizer fließen hingegen digitale Audiosignale. Dies sind Signale, die ein analoges Audiosignal binär (mit Nullen und Einsen) beschreiben und von einem Algorithmus in den anderen gespeist werden.
Hybride analoge und digitale Synthesizer: Manche Synthesizer enthalten digitale Oszillatoren, die Signale generieren und dazu binäre Beschreibungen von Wellenformen verwenden. Das digitale Oszillatorsignal wird dann an analoge Filter und Verstärkern übertragen. Der wesentliche Vorteil dieses Ansatzes besteht darin, dass digitale Oszillatoren in der Frequenz („Pitch“) nicht driften – eine Schwäche analoger Oszillatoren.
Virtuell-analog: Unter einem virtuell-analogen Synthesizer versteht man einen digitalen Synthesizer, dessen Architektur die Eigenschaften eines analogen Synthesizers nachahmt. Das Verhalten und die Funktionen der Oszillatoren, Filter und der anderen Module, die du in einem analogen Synthesizer als Hardware vorfindest, wird digital durch Computer-Algorithmen emuliert.
Der ES1 ist ein virtueller Analogsynthesizer. Der Signalfluss erfolgt hier tatsächlich so wie in einem analogen Synthesizer. Allerdings wird die Signalverarbeitung der virtuellen Oszillatoren und Filter und der anderen Module von der CPU des Computers übernommen.
Der ES1 bildet dabei auch die charakteristischen Eigenarten und Schwächen analoger Schaltungen nach, die ihre eigenen klanglichen Reize haben. Dazu zählt etwa die Möglichkeit, das Filter mit dem Output-Signal des Oszillators zu übersteuern. Andere Analogsynthesizer-Phänomene, wie das langsame Verstimmen (weil das Instrument warm wird), werden nicht simuliert. Weitere Informationen findest du unter ES1 – Übersicht.
Virtuelle Analogsynthesizer haben auch noch weitere Vorteile gegenüber ihren analogen Gegenstücken. Sie sind programmierbar, was bedeutet, dass du Klaneinstellungen sichern kannst, sie können automatisiert werden, so dass du Fader- und Drehknopfbewegungen aufnehmen und abspielen kannst, und sie sind häufig multitimbral, was es ermöglicht, verschiedene Sounds gleichzeitig über unterschiedlichen Instrument-Kanäle zu spielen. Aspekte wie die Polyphonie (die Fähigkeit, mehrere Noten simultan zu erzeugen) und Anschlagsdynamik finden sich in fast allen virtuell-analogen Synthesizern, aber nur in sehr wenigen analogen Instrumenten.