Logic Pro – Benutzerhandbuch für iPad
-
- Was ist Logic Pro?
- Arbeitsbereiche
- Arbeiten mit Funktionstasten
- Arbeiten mit numerischen Werten
-
- Spuren – Einführung
- Erstellen von Spuren
- Erstellen von Spuren per Drag & Drop
- Auswählen des Standardregionstyps für eine Software-Instrument-Spur
- Auswählen von Spuren
- Duplizieren von Spuren
- Spuren neu anordnen
- Umbenennen von Spuren
- Ändern von Spursymbolen
- Ändern der Farbe von Spuren
- Verwenden des Stimmgeräts in einer Audiospur
- Anzeigen der Ausgabespur im Bereich „Spuren“
- Löschen von Spuren
- Bearbeiten von Spurparametern
- Abschließen eines Logic Pro-Abonnements
- Hilfe und Unterstützung
-
- Spieloberflächen – Einführung
- Verwenden von Steuerelementen auf der Seite mit Spieloberflächen
- Verwenden der Spieloberfläche „Keyboard“
- Verwenden der Spieloberfläche „Drum-Pads“
- Verwenden der Spieloberfläche „Griffbrett“
- Verwenden der Spieloberfläche „Akkord-Strips“
- Verwenden der Spieloberfläche „Gitarren-Strips“
-
- Aufnehmen – Einführung
-
- Vorbereitungen vor dem Aufnehmen von Software-Instrumenten
- Aufnehmen von Software-Instrumenten
- Aufnehmen zusätzlicher Takes für Software-Instruments
- Aufnehmen mehrerer Software-Instrument-Spuren
- Mehrere MIDI-Geräte in mehreren Spuren aufnehmen
- Gleichzeitiges Aufnehmen von Software-Instrumenten und Audiomaterial
- Zusammenführen von Software-Instrument-Aufnahmen
- Punktuelles Löschen von Software-Instrument-Aufnahmen
- Ersetzen von Software-Instrument-Aufnahmen
- Behalten der letzten MIDI-Performance
- Verwenden des Metronoms
- Verwenden der Einzählfunktion
-
- Arrangieren – Einführung
-
- Regionen – Einführung
- Auswählen von Regionen
- Ausschneiden, Kopieren und Einsetzen von Regionen
- Bewegen von Regionen
- Entfernen von Lücken zwischen Regionen
- Verzögern der Wiedergabe einer Region
- Trimmen von Regionen
- Loopen von Regionen
- Wiederholen von Regionen
- Stummschalten von Regionen
- Teilen und verbinden von Regionen
- Dehnen von Regionen
- MIDI-Region nach Tonhöhe auftrennen
- An gleicher Stelle bouncen von Regionen
- Ändern des Pegels von Audioregionen
- Erstellen von Regionen im Bereich „Spuren“
- Konvertieren einer MIDI-Region in eine Drummer-Region oder Pattern-Region
- Umbenennen von Region
- Ändern der Farbe von Regionen
- Regionen löschen
- Erstellen von Fades auf Audioregionen
- Zugreifen auf Funktionen zum Mischen mit dem Fader
-
- Live Loops – Einführung
- Starten und Stoppen on Live Loops-Zellen
- Arbeiten mit Live Loops-Zellen
- Loop-Einstellungen für Zellen ändern
- Interaktion zwischen dem Live Loops-Raster und dem Bereich „Spuren“
- Bearbeiten von Zellen
- Bearbeiten von Szenen
- Arbeiten mit dem Zelleneditor
- Bouncen von Zellen
- Aufnahme einer Live Loops-Performance
-
- Einführung
-
-
- Pianorolleneditor – Übersicht
- Auswählen von Noten
- Hinzufügen von Noten
- Noten löschen
- Stummschalten von Noten
- Trimmen von Noten
- Noten verschieben
- Noten kopieren
- Überlappungen kürzen
- Erzwingen von Legato
- Sperren der Notenposition
- Transponieren von Noten
- Ändern der Velocity von Noten
- Ändern der Release-Velocity
- Ändern des MIDI-Kanals
- Festlegen von Artikulations-IDs
- Quantisieren von Zeitpositionen
- Quantisieren der Tonhöhe
- Bearbeiten von Live Loops im Zelleneditor
-
- Step Sequencer – Einführung
- Verwenden des Step Sequencers mit Drum Machine Designer
- Erstellen von Step Sequencer-Patterns-Live-Aufnahmen
- Step-Aufnahme von Step Sequencer-Patterns
- Laden und sichern von Patterns
- Modifizieren der Pattern-Wiedergabe
- Schritte bearbeiten
- Zeilen bearbeiten
- Bearbeiten von Pattern-, Zeilen- und Schritteinstellungen für den Step Sequencer im Informationsfenster
- Step Sequencer anpassen
-
- Mischen – Einführung
-
- Channel-Strip-Typen
- Channel-Strip-Steuerelemente
- Spitzenpegelanzeige und Signalübersteuerung
- Einstellen der Channel-Strip-Lautstärke
- Festlegen des Eingang-Formats für Channel-Strips
- Ausgang für einen Channel-Strip festlegen
- Festlegen der Pan-Position für Channel-Strips
- Channel-Strips stumm- oder soloschalten
- Arbeiten mit Plug-ins im Mixer
-
- Effekt-Plug-ins – Übersicht
-
- Instrument-Plug-ins – Übersicht
-
- ES2 – Übersicht
- Benutzeroberfläche – Übersicht
-
- Modulation – Übersicht
-
- Vector-Hüllkurve – Übersicht
- Verwenden der Vector-Hüllkurvenpunkte
- Solo- und Sustain-Punkte der Vector-Hüllkurve verwenden
- Festlegen von Zeiten für die Vector-Hüllkurve
- Steuerungen des Vector-Hüllkurven-XY-Pads
- Menü „Vector Envelope Actions“
- Loop-Steuerungen der Vector-Hüllkurve
- Verhalten der Release-Phase der Vector-Hüllkurve
- Kurvenformen für die Übergangspunkte der Vector-Hüllkurve
- Verwenden der Zeitskalierung für die Vector-Hüllkurve
- Verwenden des Mod Pads
- Referenz der Modulationsquellen
- Referenz der „Via“-Modulationsquellen
-
- Sample Alchemy – Übersicht
- Benutzeroberfläche – Übersicht
- Quellenmaterial hinzufügen
- Preset sichern
- Bearbeitungsmodus
- Wiedergabemodi
- Source-Übersicht
- Synthesemodi (Synthesis modes)
- Granular-Steuerungen
- Additiveffekte
- Additiveffekt-Steuerungen
- Spektraleffekt
- Spektraleffekt-Steuerungen
- Modul „Filter“
- Lowpass- und Highpass-Filter
- Filter „Comb PM“
- Filter „Downsampler“
- Filter „FM“
- Hüllkurvengeneratoren
- Mod Matrix
- Modulationsrouting
- Modus „Motion“
- Modus „Trim“
- Menü „More“
- Sampler
- Copyright
Digitalsynthesizer
Moderne Synthesizer mit variabler Polyphonie, Programmierbarkeit und komplett digitaler Klangerzeugung folgen einem halb-polyphonen Ansatz. Die Anzahl der Stimmen, die diese Instrumente erzeugen können, hängt allerdings nicht länger von einer Anzahl eingebauter monophoner Synthesizer ab. Stattdessen hängt die Polyphonie nur von der Prozessorleistung des Computers ab, der in ihnen steckt.
Die atemberaubenden Entwicklungen der Digitaltechnologie können mit dem folgenden Beispiel belegt werden. Das erste Programm, das Klänge ganz durch den Computer berechnet hat, war „Music I“ des US-amerikanischen Programmierers Max Mathew. Im Jahr 1957 entwickelt, lief das Programm auf einem Hochschulrechner, einem exorbitant teuren IBM 704. Der Aufwand erlaubte die Berechnung genau einer Dreieckwelle, allerdings nicht in Echtzeit.
Dieser Mangel an Echtzeitfähigkeit ist der Grund, warum Digitaltechnologie bei kommerziellen Instrumenten anfangs nur für die Steuerung und Abspeicherung analoger Parameter in Betracht kam. Digitale Steuerelemente kamen erstmals 1971 in der Form des „Digital Sequencer“ des Modularsystems „Synthi 100“ des englischen Herstellers EMS zum Einsatz. Bei einer Preisgestaltung, die ihn auch für die wohlhabendsten Musiker unerschwinglich machte, erlaubte der Sequenzer des EMS Synthi 100 die Abspeicherung von 256 Events.
Die beständig steigende verfügbare Prozessorleistung erlaubte den Einzug digitaler Technologie in die Klangerzeugung selbst. Der monophone Harmonic Synthesizer des Herstellers Rocky Mountain Instruments (RMI) war das erste Instrument dieser Art. Dieser Synthesizer besaß zwei digitale Oszillatoren, die mit analogen Filtern und Regelverstärkern kombiniert wurden.
Das 1976 vorgestellte Synclavier der New England Digital Corporation (NED) war dann der erste Synthesizer mit komplett digitaler Klangerzeugung. Instrumente wie das Synclavier beruhen auf speziellen Prozessoren, die von den Herstellern selbst entwickelt werden mussten. Dieser Entwicklungsaufwand machte auch das Synclavier zu einer Investition, die sich nur sehr wenige Musiker leisten konnten.
Eine alternative Lösung war der Einsatz von universell nutzbaren Mikroprozessoren von Drittherstellern. Diese Prozessoren, die speziell für Multiplikations- und Akkumulations-Operationen optimiert wurden, heißen Digital Signal Processors (DSPs). Der Peavey DPM-3 von 1990 war der erste kommerziell verfügbare Synthesizer, der komplett auf Standard-DSPs beruhte. Das Instrument war 16-stimmig polyphon und basierte hauptsächlich auf drei Motorola 56001 DSPs. Es besaß einen integrierten Sequenzer und eine Sample-basierte subtraktive Synthese mit Werks-Presets und anwenderdefinierbaren Samples.
Eine andere Lösung bestand im Design von Synthesizern als Computer-Peripherie. Die zunehmende Verbreitung von PCs beginnend mit den frühen 1980ern verlieh diesem Ansatz auch einen wirtschaftlichen Sinn. Der Passport Soundchaser und der Syntauri alphaSyntauri waren die ersten Vertreter dieses Konzepts. Beide beruhten auf einer Prozessorkarte mit einer daran angeschlossenen Musiktastatur. Die Prozessorkarte wurde in einen Apple II Computer gesteckt. Die Synthesizer wurden über Apple-Tastatur und -Monitor programmiert. Sie waren polyphon und hatten programmierbare Wellenformen, Hüllkurven und Sequenzer. Die modernen Soundkarten, die seit 1989 in unzähligen Varianten erscheinen, folgen diesem Konzept bis heute.
Die Ausnutzung der stetig weiter wachsenden verfügbaren Rechenleistung führte zum nächsten Schritt der Evolution, dem Softwaresynthesizer, der als Programm auf einem Hostcomputer läuft.
Die Soundkarte (oder die eingebaute Audiohardware) wird nur noch für die Audioein- und -ausgänge benötigt. Der gegenwärtige Prozess der Klangerzeugung, Effektbearbeitung, Aufnahme und des Sequencing wird von der CPU deines Computers vollzogen – mit der Logic Pro-Software und ihrer Instrumentensammlung.