Mixtract: フレーズ表現を構築的にデザインする演奏デザイン支援システム

学術研究
この記事は約2分で読めます。

概要

CrestMuse Symposium 2010「弾く」(4/4)
CrestMuse研究デモンストレーション(4/4): directability

特徴

  • 階層的フレーズ構造の分析支援
  • フレーズ構成音の頂点らしさ分析支援
  • フレーズ単位でのインタラクティブ表情付け支援

News release

    Mixtract による演奏表情付けの流れ

    【動画解説|システムを使った表情付け手順】

    Mixtract - Musical Design Supporting System for Structural Phrase Expression
    1. まずは楽譜を開き,単純に聞いてみています。
    2. メロディの一部分をドラッグし,「フレーズ」を指定していきます。
      ある程度入力が進むと,自動的に上下の階層のフレーズが生成されます(この 動画では上の階層のみ生成しています)。
    3. 最初のフレーズをダブルクリックすると別画面が現れます。
      画面の下側は,演奏表情を書き込むところです。まずは強弱を,次にテンポを手書きで入れてみます。
    4. 聴いてみると何やらヘンです。ということで,演奏表情を修正してみます。
    5. 他のフレーズについても同様に,演奏表情を入れてみます。
    6. 上の階層のフレーズについても同じように演奏表情(強弱)をつけてみます。メイン画面にある楽曲全体の強弱カーブ(ふたこぶの山)に注目してみてください。下の階層のフレーズふたつに与えた強弱カーブが,形を残したまま反映されているのが見えます。
    7. 同様にテンポカーブも入れておきます。
    8. ちなみに,指定した長さの範囲で和声記号を入力できるようになっています。
    9. このようにして,それぞれのフレーズの長さに合わせた演奏表情を入力して行くことで,楽曲全体のフレーズ表現ができあがっていきます。この事例でのとりあえず完成版をお聴きください。
      (おわり)

    参考文献

    [1]
    橋田光代, 田中駿二, and 片寄晴弘, "Mixtract:ユーザの意図に応える演奏表現デザイン支援環境," 情報処理学会研究報告. [音楽情報科学], vol. 2010, no. 8, pp. 1–6, Summer 2010.
    [1]
    M. Hashida, S. Tanaka, T. Baba, and H. Katayose, “Mixtract: An Environment Designing Musical Phrase Expression,” in Proceedings of Sound and Music Computing (SMC) 2010, 2010, pp. 21–24.
    [1]
    M. Hashida, S. Tanaka, and H. Katayose, “Mixtract: A directable musical expression system,” in 2009 3rd International Conference on Affective Computing and Intelligent Interaction and Workshops, 2009, pp. 1–6.
    [1]
    田中 駿二, 橋田 光代, 片寄 晴弘, "演奏表情付けシステムのためのユーザ主導型音楽構造分析," 研究報告音楽情報科学(MUS), vol. 2009-MUS-81, no. 23, pp. 1–7, Jul. 2009.
    [1]
    田中 駿二, 橋田 光代, 片寄 晴弘, "ユーザとのインタラクションプロセスを前提とした楽曲構造分析," 全国大会講演論文集, vol. 第71回, no. 人工知能と認知科学, pp. 225–226, Mar. 2009.
    [1]
    橋田光代 and 片寄晴弘, “Mixtract: ユーザの意図に応える演奏表現デザイン支援環境,” presented at the 第17回大阪大学保健センター 健康科学フォーラム「音楽とウェルネスの学際的融合」, 2009, pp. 36–37.
    [1]
    M. Hashida, Y. Ito, and H. Katayose, “A Directable Performance Rendering System: Itopul.,” in NIME, 2008, pp. 277–280.
    [1]
    伊藤洋介, 橋田 光代, 片寄 晴弘, "複数の生成プロセスが制御可能な演奏生成システム「Itopul」," 情報処理学会研究報告音楽情報科学(MUS), vol. 2007, no. 127(2007-MUS-073), pp. 45–50, Dec. 2007.
    [1]
    橋田 光代, 長田 典子, 河原 英紀, 片寄 晴弘, "複数旋律音楽に対する演奏表情付けモデルの構築," 情報処理学会論文誌, vol. 48, no. 1, pp. 248–257, Jan. 2007.
    [1]
    M. Hashida, N. Nagata, and H. Katayose, "Pop-E: A performance rendering system for the ensemble music that considered group expression," in Proc. of International Conference on Music Perception and Cognition (ICMPC), 2006, pp. 526–534.
    タイトルとURLをコピーしました