まず、そこで掲げた問いを再掲します。
シェンカーのI→V→Iという原則は、上記の文章で提示した五度圏でのピッチの並びに基いた和音のビット列での表現およびその上での力学系においても確かにコスト的に小さく、経済的であるように見えます。
ただ素朴な疑問として、以下の疑問がすぐに浮かびます。
(1)V→IというのはVが不安定でIが安定だという前提をおけば自然だが、ではVが不安定なのは何によるのか?ビット列としては同じバターンで右に1ビットシフトするのだが、そのことがアトラクタとなるのはなぜか?
(2)左1ビットシフトIV→Iもアトラクタの資格を持っているが、これはI→Vとビット操作上は区別がつかない。何が区別を可能にしているのか?
(3)V→Iが何かの理由でアトラクタであることを認めたとする。このときI→Vがそもそもなぜ起こるのか?これは、音楽は何故始まるのか?なぜ音楽があるのか?という問題に
帰着するようにも思えます。
上記の問に対しては、以下のような指摘が考えられるでしょう。まず(1)(2)について。
A1.(1)(2)とも、やはり中心音、つまり起点とそこからの距離、方向を捨象しているために生じる問いであり、中心音を導入すれば、そもそも問題にならないのではないか?この指摘について考えたことを以下に記します。
A2.そのためには、調性の情報を与えればいいのではないか?そもそもがここで対象となっている音楽は、調性システム(のあるバージョン)を前提として組み立てられているのは事実であるから、分析上もその前提に立つべきではないか?
A3.五度圏の隣り合う7つの音の重心の中心からの方向(θ)を中心音と定義すれば、それはドリア旋法ということになる。ところで、旋法のシステムにおいて長調・短調に相当するのはイオニア旋法、エオリア旋法であるが、これは教会旋法のシステムには存在せず、歴史的には新しいものである。この点をどう考えるか?なぜそうなったのか、どのような力が働いたのかを考えるべきではないか?
A1.まず中心音についてですが、中心音を否定したいわけではないのです。それはきっとあります。あるから、かほど壮大な楽理の体系が出来て、何百年も続いて、異文化の極東の島国でも教えられているのだと思います。でも鳴っている音を聴いたとき、事前に教えてもらうわけでもなく、中心音に印がついているわけではありません。それは聴くと「自然とわかる」ものなのではないしょうか?そしてここでは、聴く立場に立って考えたいのです。できたら中心音を外から持ち込むのではなく、鳴っている音の構造から自ずと決まってくるものとしたいのです。そうじゃないと、聴経験と一致しません。
だから、鳴っている音から中心音がこのようにして決まってくるというルールをデータから取り出したい。その時に、ピッチクラス=ビットの並びだけに限定し、バスの音が何であるか、転回を無視して音名の集まりだけにしてしまうのは抽象のし過ぎかも知れないということは既に述べた通りで、ピッチクラス=音名の組み合わせパターン+最低音を
ひろって、きっと長三和音・短三和音の基本形はアトラクタなんだろうということで、まず、アトラクタがどこに現われるかを抽出することが考えられると思い、データ抽出を試みています。(「MIDIファイルを入力とした分析の準備作業:和音の分類とパターンの可視化」 https://gustav-mahler-yojibee.blogspot.com/2019/11/midi.html 参照。)
中心音については、アトラクタとなる長三和音・短三和音の基本形のベースの音名がそれである、という定義は考えられます。ただ、その後ビット列が変化して、色々な和音が出て来るとき、中心音がどう変わるかも、データの側から取り出したいと思います。これも結果として転調の移行、確定のパターンが所謂「カデンツ」として取り出せるということで構いません。でも向きはこの向きでないとならない。そうしないと、規則で書かれた時にどうなるかは説明できても、規則通りにならない時に、系の状態がどうなっているのかが説明できなくなってしまうし、中心音の候補が2つあって、どっちつかずの状態みたいなことも言えなくなるのではないでしょうか?
そもそも中心音というのは、具体的にはどのように計算されるものでしょうか?それは、ビット列で表現される同時に鳴っている音名の集合(ピッチクラス)の「重心」(まさにこれまでやってきた重心計算の結果)ではない筈です。もしそうなら、ビット列とは別に中心音が必要になることはないのではないでしょうか?いや、これはおかしいかも知れません。別に五度圏上の重心であっても良くて、重要なのは、何らかの定義に基づき計算された中心音が、「次への遷移の演算」の入力となるという点であるとしても構わないかも知れません。実際に、アルゴリズミック・コンポジションにおいて、そのような力学系が用いられており(ただし正確には、重心は「次への遷移の計算」そのものには持ちられておらず、もっと大域的な軌道の制禦にのみ用いられています。また、それは和音の遷移ではなく、ある区間の単旋律に出現する音の集合を対象としています。そして単旋律か、和声を備えているかという差が中心音という概念にどう影響するかについては、過去の西洋の音楽における歴史的な背景なども併せて理論的な意味合いを正確に突きとめる必要があるでしょうが)、もともとそれをマーラーの作品の分析に謂わば「逆輸入」するというのがきっかけでこの検討が始まったのでした。ただ、西洋近代音楽に限って言えば、中心音は五度圏上の重心ではない。正確を期するなら「最早~ではない」と言うべきなのかも知れません。ここで「西洋近代音楽」と言って西洋音楽としないのはそれ以前の長い歴史においては別のシステムが用いられていたからで、重心計算というのは、その別のシステムにおいては適切であっても、所謂「機能和声」に適用するのは不適切なところを、私が無思慮に適用してしまった結果、「捩じれ」のようなものに悩まされているということは多いにあり得ることだと思います。更に言えば、機能和声に先行する時代の長さに比べれば機能和声の時代など、ごく最近のことなのかも知れませんし、「ありえたかも知れない音楽」の枠組みとして五度圏上の重心を中心音とするシステムを「仮構する」というのは、そうしたことを考えれば深い合理性を持っているようにも感じます。(因みにこうした歴史的なパースベクティブの感覚は、「ヒトが意識を持つようになったのは…」というのと何となくスケールの感覚が似ている気もします。音楽の背後にあるシステムが意識の構造と対応している、というのはあまりに突飛な仮説かも知れませんが…)
いずれにせよ、西洋近代音楽も後期ロマン派のような「小説」がモデルとなるような作品を事例にとった時に、そこでの中心音の定義は、明らかとは言い難いのではないか?充分にありえることとして、西洋音楽の中でも、中心音の決め方自体変遷があり、かつまた作曲者の個人的な嗜好もあるというのは成り立つでしょうが、個別の作曲家に限っても
それは明らかになっているとは思えません。結局何を目的として分析するかが最後には問題になり、結局私がしようとしているのが、ある特定の音楽についての中心音の決まり方を探ることだとしたら、それこそ、それはデータからボトムアップに推定すべきなのではないでしょうか?
とはいえ、それを最終的に機械に処理させるにしても、どのようなデータを与え、どのようなモデル上でやるかについて設計するために、或る程度の見当をつけるべく考えてみるならば、ビット列で表現される同時に鳴っている(音名ではなく、音高を捨象しない)音の集合を入力に計算されるものである筈です。但しある時点のビット列だけに入力を限定する必要はなく、一つ以上の複数の前の時点のビット列の状態の記憶の系列が入力となるのは自然な仮定だと思います。また、その計算規則は、物理法則のような普遍的妥当性を持つ必要はなく、物理法則に逆らわないある程度自然なものであり、尚且つそれを事前に知らなくても自然に習得可能なものと考えるべきと思えます。それは文化的によって異なりうる幅があって良く、かつまた「嗜好」を受け入れる幅を備え、加えてその嗜好の中で多様な作品を可能にするようなものの筈です。更には中心音は常に一意に決定されるものではなく、決まらないことがあってもいい。中心音についての空間における重心のようなものが、幾つかの候補からの距離によって決められるといったあり方で良いと思います。完全に等距離ならその時には中心音が存在しないとも言えますが、通常は距離で順序づけられた後補が複数あるが、場合によっては2つの候補がほぼ同じ確からしさを持っている場合も生じ得る、というのが自然な仮定のように思います。そうであることによって、発展的調性のような逸脱が可能になる。しかも発展的調性と呼ばれているものの内実は、必ずしも単一のプロセスであるとは思えません。私見では、それは様々なタイプの逸脱に仮にラベルづけをした便宜的なものに過ぎず、その内実は個々に異なる、それこそ「唯名論的」に異なるのではないかと思います。
というわけで、入力として私が差し当たり採用したのは、ビット列で表現される同時に鳴っている音名の集合+どの音名が最も低い音かについての情報です。ただし遷移規則の方はまだわかりません。データ分析とAIが流行りの今時なら、つべこべ言わずに中心音の「正解」を与えることができれば、それを正解データとして機械学習によって中心音の定義を機能的に推定するのが普通かも知れませんが、今、私にとっては、中心音の定義(計算方法)自体が未知なので、この方法は取れない。まあ、色々な分析の共通見解とか自分の聴経験から正解を作ることも可能なのでしょうが、これはなかなか手間がかかります。とはいえ他に方法もないし、機械学習を適用しないまでも、データを眺めてそれらしい仮説を自分で作るのであれば、それを自分でやるか機械にやらせるかの違いしかなく、いずれ準備が出来れば機械学習を適用する可能性もあると思いますが…
A2.については、中心音に関する上記の議論に基本的には準じるのですが、それは措いても、ビット列の状態の系列からその系列の「調性」を判定する方法を考えられないかというのは、音楽情報処理的な問いとしてあるのだろうと思います。例えば、ある調の構成音の集合(7音)に基いて「調性」を推定するといったやり方が考えられるでしょう。楽理上の説明として一般に言われていることとして、転調が起きたことの確認は、その7ビットの外の音を使った時ということになっていることなどを判定の規則として用いるわけです。
他方で、調性を前提としてしまえば、以下のような考え方もあるかと思います。ある時点で3つの音が鳴ったとします。その3つの音が含まれうる調性の候補の集合を持つ。ビット列が遷移するにつれて、その候補の集合も変わっていきます。そのうちに中心音が浮かび上がってくるのでは、という発想です。ただ候補の集合の要素はあまり絞り込めないことがすぐにわかる。五度圏だと両隣は常に候補に含まれます。逆に不協和であっても調性決定上は強い制限のある音程もあります。いずれにせよ、一つ前、二つ前、と記憶をたどって、最も確からしさの大きい調性を求めるというやり方が思いつきますが、これはうまくいくものでしょうか?
一つ興味深く思われるのは、もしビット列の遷移上でそれが可能であれば、それはピッチクラスから更に対称性を除いたコードのパターンのレベルで解ける問題だということで、上で入力として別に求めたどれがバスかという情報は不要ということになる点です。まあつべこべ言っていないで、試してみるべきかも知れませんが。もう一つ言えば、このやり方は措定される調性の候補の集合というのを持たないとならない。長調・短調の2種類は仕方ないとして、教会旋法など、他のシステムが用いられている可能性はないのかとか考え出すと、やはり問題の立て方が逆立ちしているように感じられてしまいます。仮に作る側からすれば特定の調性システムありきであっても、聴く側にとっては、それは分析の最後に得られるものであって、調的には曖昧であっても中心音はこの辺にあるとか、この音とこの音が拮抗しているということが言えないものだろうかというように思ってしまいます。さしあたってマーラーを分析するのであれば、24の長調・短調の調性のそれぞれの間に距離が定義された空間を想定して、その空間の中で軌道を描くイメージでも構わないのかも知れませんが…
なおもともとの(2)の疑問、IV→IとI→Vの違いそのものについて言えば、結果的には指摘の通り、その文脈での中心音の違いによる、というので全く構いませんが、上述の通り、こちらも同様に中心音を天下りに与えたくなく、和音の系列自体によって浮かび上がってくるものとしたいというのがここでの立場となります。その時に直ちに考えられるのは、過去の系列についての記憶を入力とすることですが、それだけではなく、五度圏上、ないしビット列上での操作としては軸対称となっている左シフトと右シフトが抽象する前の対象では異なっていること、それは結局のところ、どちらのピッチが相手に対して低い/高いという音高を捨象していることに由来するわけで、最低限バスがどのピッチかという情報を補うことによって過度の抽象による対称化を補正することが必要なのだろうと思います。そしてそのことは、振動比に基づくポテンシャルの大きさの系列を保存することにもつながります。
一方で、音高ということで行けば、隣接音とか導音といった相対的な音高(=振動数の差)に依拠したメタファーに基づく水平方向の概念が楽理にはありますが、それらをどう考えるかというのが別の問題としてあるかと思います。シェンカーのウアザッツにおいても、上声の動きはウアリーニエとして重視され、それは第5音ないし第3音から主音に下降する図式が典型とされているわけですが、それと振動数の比に依拠した和声的な(つまり五度圏上でのピッチクラス間の)距離の概念とが、いわば共存しているように思われるのです。突飛な喩えになりますが、数論における加法と乗法の微妙な関係は様々な未解決問題、予想を産み出す源泉となっているようですが、ここでの振動数の差と振動数の比という2つの概念は、加法と乗法の関係のように強固なものではなく、寧ろ水と油のように異質に感じられつつも、機能和声においては緊密に結びついたものとして立ち現れます。また、一方は上昇/落下、他方は緊張/弛緩というようにいずれも物理的なポテンシャルに結び付いていることについては、別に考えてみる必要を感じます。
最後に、この辺りの議論については、クラムハンスルによる和声認識についての認知心理学的な研究を思い浮かべる向きがあるかも知れません。しかしここでの立場から眺めると、それは西洋の伝統的な音楽を学習用データとして学習したネットワークに対して任意の和声を与えて、学習済みデータによって形成された重みに基づいて協和度を計算させているように見えます。クラムハンスルがプローブ音法によって求めた和音の「親近度」に基づく距離をベースにすることは、結局のところある文化的伝統に属する音楽の統計的な平均に対して、マーラーの作品の和声進行の持つ「逸脱」がどのように関わるのか、それで逸脱の度合いを測ることができるのか、或いは、どのように適用するかにも拠りますが、逆に逸脱の度合いを測ることにしかならず、固有の力学を取り出すことはできないのでは、といった点が気になります。もう一つには、それが必ずしも物理的な協和度の高さと一致しているわけではない点が挙げられるでしょう。つまりそれはある文化の「閉域」の内部でのみ有効であって、その外部に対しては有効でないとしたら、マーラーの音楽の周縁性というものがそれで捉えられるものなのかという疑念が湧いて来ます。
物理的な協和度と聴感の乖離は、和声のみならず、音程の協和についても指摘されており(ヘルムホルツが倍音構成に基づき演繹した不協和度に対して、プロンプ、レヴェルトが実験結果に基づいて帰納した不協和度を比較検討したものが知られています)、これをどう考えるかはここでは扱いきれない問題ですが、上記の通り、それは音楽が単なる物理現象ではなく、社会的・文化的な構築物であるということを示しているとともに、音楽が何の為に存在するのかという点にも関わるように思えます。実際のところ、音楽が物理的な協和度に従うものであるならば、音楽は文化的・社会的な差異を持たない均質なものである筈ですが、現実には極めて多様なシステムに基づく音楽があるというだけはなく、その多様性は物理的な協和度という基準では到底測れないい複雑さを備えていることは明らかなことに思われます。
他方で、ピッチクラスに相当するビット列上のパターンから更にシフト対称性(五度圏の回転対称性に相当)を取り除いていくという抽象化の方向については、ドミトリ・ティモチコの『音楽の幾何学』におけるオービフォルドを用いたマップ構成の試み、或いは「一般化された調性ネットワーク」の提唱について調べてみる必要があると考えています。その理論は極めて一般性の高いもののようですし、説明能力の高いもののようですから、既にそこで答えが示されている問題もあるのではないかという期待もあります。他方ではそれが抽象化への方向を持つ限りにおいて、理論的な知識のない聴き手にとってどう聴こえるかをシミュレートするというここでの目的とは相反する方向を持つようにも思います。
A3.について:これは西洋音楽の理論的な捉え直しのようなものですから、私のような音楽理論を専門に勉強したこともない人間の手には余る問題です。確かにダマスコの聖イオアンにアトリビュートされるビザンツのオクトエコスにはA,H,Cを終始音とする旋法はなかったようです。実作でどうだったかはともかく、イオニア旋法、エオリア旋法は一体どこから来たのか、それが後年機能和声の枠組みで特権的な旋法として選ばれ、発達したのはどういう理由なのかというのは興味深いテーマでしょうが、このことについての説明というのも寡聞にして知りません。どなたかご存知の方はいらっしゃれば、是非、教えて頂き炊く思います。
一方で、dur-mollのビット列の並びや五度圏上での重心を確認した限りにおいて言えるのは、それが実は(マーラーもその中に含まれる伝統の中で産みだされた膨大な作品に基づく学習により形成された感覚とはずれていますが)それが相対的には不安定なものであり、緊張を孕んだものであるということでしょうか?いわばそれはポテンシャルの空間の中での最低点ではなく、相対的には安定しているものの、寧ろその周辺の地形が多様性に富んでいて複雑なシステムを構築することが可能になるような場所なのではないかと思えるのです。繰り返しになりますが、ドリアンモードなら安定しているわけで、これが教会旋法では第1旋法であったのは故なきことではないのでは、と思います。そのことと裏腹の関係だと思うのですが、その替わりそれは静的で、変化の可能性が限られた閉じたシステムとならざるを得ないのではないでしょうか?(勿論、形式的には旋法を定義し、旋法上に和声とカデンツを定義し、旋法間の変換(転調に相当)を定義し、というシステムの構築は幾らでもできますが、振動比のような物理的な基盤の側から見たときにコストが小さく「自然な」ものという観点からすると、安定したシステムは変化の余地が乏しいというようなことは言えるのではないかと思います。この点については(3)の問いと関わりが深いと思われるので、そちらで改めて論じることにします。
いずれにしても、ここで問題にしたいのは、イオニア旋法、エオリア旋法が長調・短調として選ばれ、それを元に和音に機能を持たせて、というように展開していく中で、選ばれた旋法の中心音が重心からずれていることがどのようにシステムに影響しているのか、ということです。繰り返しになりますが、単音、二音、三和音で重心がずれていく、しかも長調と短調でずれ方が異なり、対称的でないことは、機能和声の三和音のシステムの力学は五度圏上の重心だけでは説明できないということなのだろうと思います。発想としては、主三和音の重心に「何かの変換」を施すと中心音が出てくる。しかもそれが長調と短調の両方を含む(但し完全に長調と短調が対称である必要はない。歴史的にもピカルディの三度のような偏りがあるし、ソナタ形式における第2主題も、長調ならVだけれど、短調なら並行調のIIIというように非対称になっていて、それらは構造的に関連している筈だと思います)ということになるのでしょうか?長調も短調も、本来の中心音からズレたり、対称性が崩れてたりしていることが、逆にシステムの複雑さを可能にしているようなことが起きていると考えることはできないでしょうか?(ここでの説明は、「中心音」を機能和声に支えられた長調・短調の2つの調性によるシステムにおける「主音」と同一視する前提に立てば、ナンセンスに思われるかも知れません。けれども理論が全くの数学的な構築物ではなく、実際の聴こえ方に根拠を持つものだとしたら、果たして理論で定義された「主音」と「中心音」が常に一致することは自明とは言えないのではないか、短調の主音と長調の主音は機能的にも異なるのはないか、ということが言いたいのです。)
ちょっと飛躍しますが、こういうイメージが浮かびます。ウルフラムの一次元のセル・オートマトンの有名な実験があります。初期値を変えるとその後の振る舞いが変わるけど、おおまかに4つのクラスに分かれるというあれです。ここではビット列の初期配列を変えるのではなく、「中心音」の計算の「何かの変換」にあたるものを変えていく、するとある場合には複雑な挙動が起きる余地ができ、ある場合には美しくシンプルな挙動しか
起きない、といった感じです。勿論、あれかこれかの二択ではなく、程度問題ですが、機能和声はあえて前者をとったのではないかと思うのです。その時ポイントは第3音(しかも短三度・長三度の二種類があること)にあるように思います。オクターブ・四度・五度のような単純な振動比を持たない要素を入れ込んで中心音の定義を書き換えることで、音楽に動性を持たせることができるようになった。最初はそれでもオクターブ・四度・五度のドミナントのシステムにいわばはめ込んで使っていたのが、次第に一人歩きを始める。更に長調・短調間の変換が定義されると三度関係を軸とした変換の可能性が開拓され、そのうちに出発点に戻る力学的な理由が希薄になっていき、その果てに発展的調性のようなものが出てくる…あまりにラフなイメージですが上記のようなイメージが浮かびます。
ついで(3)について
B.(3)については、そもそもが些か禅問答的になりますが(もっともこの問いは、ギリシア以来の存在論的な疑問、しばしばライプニッツに帰せられる「なぜ何もないのではなく、何かがあるのか」をも連想させますが)、人間(生物)は常に変化を知覚するから、つまり、自分が定常的な状態でも、外部が変わればそれに適応して反応する必要があるから、外部からのきっかけで安定状態が崩れることで音楽は始まるといった答えが考えられると思います。
音楽においてもLeonard Meyerの緊張→弛緩という図式は良く言われますが、これは物理系だと振り子のような系、不安定な状態に(外的な要因で)なった系がだんだんと定常状態になる過程の説明でおしまいになってしまうように思います。一方、ここで問うているのは、いわば逆向きの動きで、最初に主和音から始まり中心音が定まっているのに、そこから不安定な状態になる、というのは、止まっている振り子が動き出すようなものです。
なお、シェンカー理論のウアリーニエ、即ち上声部は典型的には第3音乃至第5音から下降して主音に帰結するという図式は、物理的な落下の法則に一致しているように見えます。けれどもそれはウアザッツの一部であって、和声的には、まさに問題にしたI-V-Iの図式がそれを支えているわけです。そしてここで問題にしているのはまさに後者です。、ソナタ形式を例にとれば、ソナタ原理のテンプレートでは、上声において、例えば第3音から第2音への下降が提示部の第2主題部で起きて、和声はVとなる。上声部の下降はそこで中断され、和声的にはVが延長されたまま展開部に入り、再現部の第2主題になって上声は主音、和声的にはIに帰着するというのが一つの典型とされるようですが、色々な出来事が起きて緊張が高い状態となるのは一般には展開部であって、冒頭に最も高かった緊張が単調に弛緩するというのは多くの場合当て嵌まらないし、仮にそれを認めたところで、マーラーのソナタ楽章のような長大な楽曲を支えているのは、寧ろその緊張を継続し、解決を延期するメカニズムにこそあるのではないかとも思えます。しかも発展的調性をとるマーラーの作品の場合、楽章単独にしても、全曲を通しても、冒頭主音と思われたものが実はそうではない、ということが起きている筈です。どうしてそのようなことが可能になるのか?マーラーのソナタではしばしば第2主題は長調の場合でも属調をとらず、短調の場合も並行調を取りませんが、そのことは図式をどう変えてしまうのか?長大な、しかもしばしば回帰さえする序奏がこうした脈絡において果たす役割は何か、必ずしもシェンカー図式を典型とし、それからの逸脱と捉えるのではなく、等しく存在する可能性の1つという資格で、その力学を考えてみたらいいのではないかというように思う訳です。
言い替えると、緊張→弛緩は、音の構造に内在的に説明できるけど、逆は、外からエネルギーを加えてやらないと起きないことになる。音楽は、複雑系(生物もその一種)であって、外からエネルギーが加わって動きだし、エネルギーが供給されることで運動を続けるシステムとして捉えるのが自然なように思えます。つまり音響態の外部が音楽には必要で、それを辿っていくと、例えば由来に行きついたりしないだろうか、と思ったりもします。外部で何かが起きたことへの反応として、歌う衝動が湧いて、歌が始まる。歌のはじまりのきっかけは外からやってくるというように言える道筋が浮かんで来はしまいか、というように思っています。勿論一足とびにそこには行けないでしょうが、それでも三輪眞弘さんの「逆シミュレーション音楽」の定義は、中心音を定義してから始めることもそうだし、音響態の外部の「由来」を「音楽」の構成要件として必須のものとすることによって、今ここで現象論的にアプローチしているものを、まさに逆側から仮構し、シミュレートするものであると言えるように思うのです。
そもそもの発端は、音楽的時間を考えるときに、小説や叙事詩に喩えられるような、人間的なドラマの時間が一方であり、他方では、自然法則に近いような時間の展開があって、コンピュータにとっては後者は扱いやすいが、前者は親和性が低いというような話があって、じゃあ、音楽を物理システムみたいに眺めたらどうだろう、というあたりが出発点でした。
一方で、マーラーに関するモノグラフがあり、邦訳された文献としては『ベートーヴェンの美学』があるDavid B. GreeneがNelson Goodmanのメタファー的例示(examplify)を援用しつつ、西洋音楽の時代様式をモデルとなる時間性と対応付ける際の具体的な時間表象の不適切さのことも思い浮かびます。そこではバロックの音楽の時間性をニュートン的な時間、ないし時計をモデルとする機械的な時間と対比させているわけですが、勿論、メタファーといってしまえば何でもありとは言いながら、音楽を振り子や時計との類比することは、そもそも不適切なのではないかという気がしてならないのです。(もっともGreeneのメタファー的例示についての疑問は、バロック時代=ニュートン的時間に留まらず、その他の時代の音楽にも、マーラーについての分析にも当て嵌まります。個別の楽曲分析そのものは示唆に富んでいるにも関わらず、肝心の時間論的分析は惨憺たる有様といって良いと思いますが、前に別のところに備忘を記したことがあるので、ここでは繰り返しません。)力学系といっても、外部からのエネルギーの供給がない振り子の振動のような閉鎖系だと単純すぎて、放っておいても起こる緊張→弛緩の過程の説明にしかならず、これは音楽において起きていることの半分の説明にしかなっていないように思うのです。緊張と弛緩を繰り返すようなものは、最低でも散逸過程じゃないといけない。にも関わらず、普通される音楽の構造の説明って、その後半の部分の話が多い、というかそっちばかりな感じがします。もっとも、どのようにして音楽を前に進めるかは、それこそ規則で決まるようなものじゃないのでしょうが…
一般に複雑系というのは散逸系で動的不均衡で準安定なわけですが、そもそも音楽は(比喩じゃなく、上記のビット列の力学系の挙動として)まさに複雑系的な挙動をするような系であるというように言えるのではないかと思うのです。外部からエネルギーを与えるというのを、いきなり音楽外の要因が音楽の局所的な振舞に影響を及ぼす、と考える必要なない。勿論、そういう場合があってもいいでしょうが、そうではなく、エネルギーの流入で系の変化に自由度が増した結果、局所的にゆらぎが起きたときに、系がどちらの方向に発展するかについて、必ずしも決定的ではなく、カオス力学系とかで観測される分岐のような現象が起きているようなケースもあるのではないか?
発展的調性というのは、どこに辿り着くかが事前に決まっているのではなく、複数の調的な極の間で競合があって、そのどちらかが選ばれるような系が条件となります。言い換えれば、発展的だが決定的というのはなくて、寧ろ、不決定性があるから、ある時には
開始の調性に回帰し、ある時には関係調に、ある時には遠隔調に辿り着くということが起きると考えるべきなのではないだろうか、というようなことを思っています。準備なしに遠隔調に転調するのはコストからすれば大きいわけですが、それもあるベイスンから脱出して尾根を超えて隣のベイスンに移るには、尾根を越えるためのエネルギーが必要だというように記述できます。すると遠隔調に転調するような複雑な音楽の場合には、きっと常にコスト最小の原理で遷移プロセスが定まっているわけではないのだと思います。
一方で上述の通り、セルオートマトンのような単純な力学系でも、規則の与え方によっては複雑なプロセスが起きたりもします。(こちらの場合は当然、計算して内部状態を書き換えて、系が動くには外部からのエネルギーの供給が前提です。)だとしたら、前半部分の緊張を起こす方の側だって、衝動とか霊感でおしまいというのは性急で、もう少し
音楽が勝手に進んで、時として緊張が高まっていく論理というのがあるんじゃないか、というようにも思えます。勿論の西欧の音楽は、セルオートマトンとは異なって、決定的な書換え規則に従って動いているわけではありません。でも、全く出鱈目というわけでもなく、何かそこに傾向のようなものがあって、それをデータから抽出してみたい。それはどのような音楽でもある程度普遍的に通用する緊張→弛緩の過程の一般的な説明(これが楽理なのでしょう)とは別に、緊張がどのように作られていくか、その結果として解決が遅れたり、宙ぶらりんになったり、etc.ということが起きることを可能にするような、何らかの条件であるはずで、それをできたらデータから導きたい、というように考えているのです。
またこのことは、だからこそ音楽は「時間の感受のシミュレータ」たりうるのではないかという点にも関係すると思います。それは具体的に何が起きたかについての「記号」にはなりませんが、(それを記号と見做してプログラム=標題を外から与えるのはまた別の問題です。)どのようなことが外部から到来したか(、そして、或る種の音楽はそれよりも一層どのような反応が起きたか)について、「時間の流れ方」という形で証言することはできるのではないでしょうか?それは或る種の抽象には違いないですが、通常の抽象とは逆に「記号」とか「意味」とかの認識の内容的な面を捨象して、感受の様態であったり、それに伴う情動とか身体的な反応といった側面のみを抽出し、他者にそれを(共感という形で)伝達するものなのではないでしょうか?
(2019.12.7公開、12.8, 12.17, 28加筆)
0 件のコメント:
コメントを投稿