MainStageユーザガイド
- ようこそ
-
- 「編集」モードの概要
-
- チャンネルストリップの概要
- チャンネルストリップを追加する
- チャンネルストリップ設定を変更する
- チャンネルストリップのコンポーネントを設定する
- シグナル・フロー・チャンネル・ストリップを表示する
- メトロノームチャンネルストリップを隠す
- チャンネルストリップのエイリアスを作成する
- パッチバスを追加する
- チャンネルストリップのパンまたはバランス位置を設定する
- チャンネルストリップのボリュームレベルを設定する
- チャンネルストリップをミュートする/ソロにする
- マルチ音源出力を使用する
- 外部MIDI音源を使用する
- チャンネルストリップを並べ替える
- チャンネルストリップを削除する
-
- 「チャンネル・ストリップ・インスペクタ」の概要
- チャンネルストリップ設定を選択する
- チャンネルストリップの名前を変更する
- チャンネルストリップのカラーを変更する
- チャンネルストリップのアイコンを変更する
- チャンネルストリップでフィードバック保護を使用する
- ソフトウェア音源チャンネルストリップのキーボード入力を設定する
- 個別のソフトウェア音源をトランスポーズする
- MIDIメッセージをフィルタリングする
- チャンネルストリップのベロシティをスケーリングする
- Hermode Tuningを無視するようにチャンネルストリップを設定する
- コンサートレベルおよびセットレベルのキー範囲を上書きする
- チャンネル・ストリップ・インスペクタでチャンネルストリップにテキストノートを追加する
- オーディオをセンドエフェクト経由でルーティングする
- グラフを操作する
- コントローラのトランスフォームを作成する
- 複数のコンサートでパッチやセットを共有する
- コンサートのオーディオ出力を録音する
-
- エフェクトについての説明
-
- ディレイエフェクトについての説明
- エコーコントロール
-
- MainStageのLoopbackの概要
- MainStageのLoopbackインスタンスを追加する
- MainStageのLoopbackプラグインのインターフェイス
- MainStageのLoopbackプラグインの波形ディスプレイ
- MainStageのLoopbackプラグインのトランスポートコントロールと機能コントロール
- MainStageのLoopbackプラグインの情報ディスプレイ
- MainStageのLoopbackプラグインの同期、スナップ、および再生開始位置のパラメータ
- MainStageのLoopbackプラグインのグループ機能を使用する
- MainStageのLoopbackプラグインのアクションメニュー
- Sample Delayのコントロール
- Stereo Delayのコントロール
- Tape Delayのコントロール
-
- MIDIプラグインを使う
- Modifier MIDIプラグインのコントロール
- Note Repeater MIDIプラグインのコントロール
- Randomizer MIDIプラグインのコントロール
-
- Scripter MIDIプラグインを使う
- スクリプトエディタを使う
- Scripter APIの概要
- MIDI処理関数の概要
- HandleMIDI関数
- ProcessMIDI関数
- GetParameter関数
- SetParameter関数
- ParameterChanged関数
- Reset関数
- JavaScriptオブジェクトの概要
- JavaScript Eventオブジェクトを使う
- JavaScript TimingInfoオブジェクトを使う
- Traceオブジェクトを使う
- MIDIイベントのbeatPosプロパティを使う
- JavaScript MIDIオブジェクトを使う
- Scripterのコントロールを作成する
- Transposer MIDIプラグインのコントロール
-
- 内蔵の音源についての説明
-
- MainStage Playbackプラグインの概要
- MainStage 3のPlaybackプラグインを追加する MainStage
- MainStage Playbackプラグインのインターフェイス
- MainStage 3のPlaybackプラグインの波形ディスプレイを使用する MainStage
- MainStage Playbackプラグインのトランスポートボタンと機能ボタン
- MainStage Playbackプラグインの情報ディスプレイ
- MainStage Playbackプラグインの同期、スナップ、および再生開始位置のパラメータ
- MainStage 3のPlaybackプラグインのグループ機能を使用する MainStage
- MainStage 3のPlaybackプラグインのアクションメニューとファイルフィールドを使用する MainStage
- MainStage 3のPlaybackプラグインでマーカーを使用する MainStage
シンセサイザーの先駆け
現代の電子シンセサイザーの原型は19世紀末に誕生します。1897年、米国の発明家タディウス・ケイヒル(Thaddeus Cahill)が、テルハーモニウム(Telharmonium)またはダイナモフォン(Dynamophone)として知られる楽器の基本原理を保護するために特許を取得しました。200トンという重量の、この巨大な電子楽器は、蒸気を動力とする12個の電磁発電機で駆動しました。これは、ベロシティ感度を持つキーを使ってリアルタイムで演奏され、驚くべきことに7つの異なるサウンドを同時に生成することができました。テルハーモニウムは、1906年に開かれた一連の「コンサート」で一般に披露されました。当時は利用可能な拡声装置が存在していなかったため、「テルハーモニー」と名付けられたこの音楽は公共電話回線を介して送信されました。
1919年、ロシア人発明家レオン・テルミン(Leon Theremin)は、著しく異なる手法を採用しました。考案者の名前にちなんで名付けられたモノフォニックのテルミンは、楽器に実際に触れることなく演奏されました。2つのアンテナ間の静電気フィールド内で手を動かすと、演奏者の手とアンテナの距離が計測されます。テルミンは、この情報を使ってサウンドを生成しました。この型破りな技法のために、テルミンの演奏は極めて難易度の高いものでした。その不気味で、背筋が凍りつくような(しかし単調な)音色は、数え切れないほどのホラームービーのサウンドトラックで使用されてきました。制作したシンセサイザーが後に世界的に有名になるR. A.モーグ(R. A. Moog)は、19歳のときにテルミンの制作を始めました。
ヨーロッパでは、フランス人のモーリス・マルトノ(Maurice Martenot)がモノフォニックなオンドマルトノ(Ondes Martenot)を1928年に考案しました。この楽器のサウンド生成手法は、テルミンのそれに似ていますが、最初期の作品ではワイヤを前後に引いて演奏が行われました。
1930年代にベルリンで、フリードリヒ・トラウトバイン(Friedrich Trautwein)とオスカー・サラ(Oskar Sala)が鋼線をバーに押し付けて演奏するトラウトニウム(Trautonium)という楽器の制作に取りかかりました。この楽器は、演奏者の好みに応じて、(フレットレスな弦楽器によく似た)無制限の可変ピッチ、または(鍵盤楽器に似た)一定量ずつ増加するピッチが可能でした。サラは、生涯を通じてこの楽器の開発を続け、1952年に2声部のミクスチュア・トラウトニウム(Mixturtrautonium)という形で結実しました。彼は数多くの産業映画に曲を提供したほか、アルフレッド・ヒッチコックの傑作「鳥」のサウンドトラック全体でこの楽器を使用しました。この映画には従来の音楽サウンドトラックは含まれていませんが、映画で聞こえる鳥の鳴き声および羽ばたきはすべて、ミクスチュア・トラウトニウムで生成されたものです。
カナダでは、1945年にヒュー・ルケイン(Hugh Le Caine)がエレクトロニックサックバット(Electronic Sackbut)の開発を始めました。このモノフォニックな楽器のデザインはシンセサイザーに似ていますが、キーボードの表現力は非常に豊かで、キーのベロシティとアフタータッチだけでなく、横方向の動きにも応答します。
これまでに紹介してきた楽器は、すべてリアルタイムで演奏することを念頭に設計されていました。しかし、比較的初期から、電子サウンドジェネレータとシーケンサーを組み合わせた楽器の開発が始められていました。この種の楽器の中でも最初のものは、フランス人の二人組エドワール・クプルー(Edouard Coupleux)とジョゼフ・ジブレ(Joseph Givelet)により、1929年に披露されました。その名前は、「電気オシレーションタイプの自動操縦楽器(Automatically Operating Musical Instrument of the Electric Oscillation Type)」というものでした。これは、電子サウンドの生成とせん孔テープによる制御とを結び付けた複合型の楽器でした。非公式には、制作者の名前にちなんでCoupleux-Giveletシンセサイザーと略して呼ばれていました。楽器が「シンセサイザー」と呼ばれたのは、このときが最初です。
この用語が正式に使用されるようになったのは、1956年に米国の技術者ハリー・オルソン(Harry F. Olson)とハーバート・ベラー(Herbert Belar)の開発したRCA Electronic Music Synthesizer Mark Iが披露されたときです。この2声部サウンド生成システムは、電磁的にシミュレートした12個の音叉で構成されています。この楽器は、当時にしては比較的洗練された信号処理オプションを備えていました。サウンドジェネレータの出力信号はスピーカーを通じてモニタ可能で、驚くべきことに2枚のレコードに直接録音が可能でした。1基のモーターにより、両方のターンテーブルおよびMark 1の制御ユニットが駆動されていました。このシンセサイザーは、紙テープのロールにパンチされた情報により制御され、ピッチ、ボリューム、音色、およびエンベロープを継続的に自動化することが可能でした。これは非常に操作が複雑で、信頼性が低く、自然な演奏は不可能でした。