| ||||||||||||||||||||||||
https://nasu-satoyamasya.com/2021/12/04/chomsky-pollin-translators-note-4/
訳者あとがき Part 4「言語学と人間の翻訳論」
92歳の知識人ノーム・チョムスキーと、グリーンニューディール研究の世界的第一人者ロバート・ポーリンが、気候危機解決の道を語った『気候危機とグローバル・グリーンニューディール』。Fridays For Future Japanによる日本語版まえがき、そして飯田哲也・井上純一・宮台真司各氏による力強い推薦の言葉に後押しされつつ、ついに予約受付が始まった。本の完成を記念し、当ホームページでは12月をとおして特別コンテンツを無料公開していく。今回はその第一弾として、訳者あとがきを4回にわたって掲載する。
Part 4: 言語学と人間の翻訳論
チョムスキーとポーリンの両著者の人物紹介は、すでに聴き手のクロニス・J・ポリクロニューが序文で行っているため割愛する。代わりに、ここでは言語学におけるチョムスキーの功績やこれをめぐる議論から、訳者あとがきにふさわしいと思われる主題をいくつか取り上げてみたい。
周知のとおり、チョムスキーは1957年発表の『統辞構造論[1]』によって言語学に革命をもたらした。そこでは統辞論が意味論と完全に独立した分野として提示され、「諸言語を比較し、観察から得られた共通の文法規則を記述する」という従来の言語学の発想とは一線を画し、文法的な文を生成するために必要な言語の初期状態(普遍文法)と生成の諸規則の解明という新たな問題設定が行われた。こうした諸規則は数理的に(すなわち集合論的・計算論的に)記述される。その後この研究プログラムは「Xバー理論」「原理とパラメーター」などへと発展し、1990年代には「ミニマリスト・プログラム[2]」に至る。そこでは変形生成文法における最小単位の計算として「併合」(ある要素とその内部にある別の要素とを組み合わせる「内的併合」と、互いに独立した要素を組み合わせる「外的併合」の総称)が提示され、統辞論の新たな基礎として位置づけられた。こうした洞察を基盤としつつ、後期チョムスキーでは言語能力の普遍性と自然言語の多様性の起源をめぐる諸問題へと思索が進められている。このとき言語は、人間が心の中で考えるときに起動するシステム(概念志向システム)と表現の発信と受信を行う際に起動するシステム(調音知覚システム)という2つのシステムのインターフェース条件を満たすために最適化された計算システムとして仮定される。ここからチョムスキーは、約8万年前に西アフリカでヒトの認知能力に何らかの小さな生物学的変化(おそらく「再帰」(recursion)の発生)が起こり、これによって併合が生じ、言語能力の発達を可能にしたという仮説を導いた[3]。
チョムスキー以後の言語学は高度に専門的な分野であり、訳者である私にはその詳細を正確に紹介するために必要な数学的・自然科学的知識はない。ただし「機械翻訳」における言語学的論争については、本書の訳文にも関連する議論であるため、あえてここで紹介を試みたい。
自然言語処理技術の精度は近年大幅に向上している。その主な原動力は、使用可能な対訳データ量の飛躍的な増加であり、これのおかげで機械学習モデルのパラメーター数もまた桁違いに増えた。例えば、OpenAIが開発し世界的に注目されている生成事前学習変形装置3(GPT-3)のパラメーター数は約1750億個だが、これは前身のGPT-2の約15億個に比べると二桁以上の差となっている。アルゴリズムのレベルでは、チョムスキーが『統辞構造論』を書いた1950年代にはマルコフ連鎖によるモデリングが用いられていたが、GPT-3は人工ニューラルネットワークを採用している。2021年現在、主流の翻訳プログラムはいずれもGPT-3と同じようにビッグデータとニューラルネットワークの組み合わせを採用している。
既存の機械翻訳プログラムのうち、英和の言語ペアで最も訳文の精度が高いものはDeepLだろう。そのことを示す一例として、本書の書き出しの段落の翻訳をご覧いただきたい。
原文
Over the last couple of decades, the challenge of climate change has emerged as perhaps the most serious existential crisis facing humanity but, at the same time, as the most difficult public issue for governments worldwide. Noam, given what we know so far about the science of climate change, how would you summarize the climate change crisis vis-à-vis other crises that humanity has faced in the past?
DeepL
ここ数十年の間に、気候変動の問題は、おそらく人類が直面している最も深刻な存亡の危機であると同時に、世界中の政府にとって最も困難な公共問題として浮上してきました。ノアムさんは、気候変動の科学についてこれまでに分かっていることを踏まえて、人類が過去に直面した他の危機と比較して、気候変動の危機をどのように要約しますか?
人間(訳者)
ここ数十年間で、気候変動問題は人類が直面する最も深刻な実存的危機として、また世界各国の政府にとって最も困難な社会問題として立ち現れてきました。そこでチョムスキーさんに質問です。気候変動について現在わかっていることを考慮に入れた上で、過去に人類が直面した他の危機と気候変動危機との関係を要約していただけますか。
ご覧のとおり、DeepLの訳文は人間の訳文とほぼ同等の質を実現しており、読み手の好みによっては人間である訳者が書いた文章より優れている部分もある。例えば、人間版ではポリクロニューとチョムスキーの人間関係の距離感を考慮に入れて英語の「Noam」を「ノーム」ではなく「チョムスキーさん」と訳したが、相手を敬っていてもファーストネームで呼び合うアメリカの慣習をそのまま日本語で演出したいという場合はDeepLが行った翻訳の方が優れている。また語選のレベルでも、例えば「existential crisis」というキーワードの和訳として、人間版ではこのフレーズを単独で成立させ哲学的な響きも残すために「実存的危機」という言葉を選択したが、本段落の文脈に特化した翻訳を求める場合は、DeepLの「存亡の危機」という言葉の方がポリクロニューの言わんとすることを単刀直入に表現していて優れている。他にもDeepLと人間との間の微妙な差異は質的な差ではなく好みや方針の差にすぎないものばかりだ。
こうした現状と向き合ったとき、2つの問題が浮上する。第一に、GPT-3やDeepLの成功は人間の言語に関する洞察を提供してくれるものか。第二に、機械翻訳の精度の高さを前にして、人間の翻訳家にできることは何か。
一つ目の問題について、チョムスキーは既存の自然言語処理技術からは言語学的に意味のある洞察は引き出せないという立場をとっている。たとえGPT-3やDeepLがチューリングテストを100%に近い確率でパスできたとしても、それはこうしたプログラムの内部のメカニズムが人間の言語のメカニズムと同一であることを意味しない。ここまでは機械学習開発者たちも大方同意しているが、チョムスキーはさらに「確率論的モデルでは人間の言語の仕組みは解明できない」という立場をとる。論理的モデル派と確率論的モデル派の間での論争は今もなお続いているが、その一例として確率論的モデル派のピーター・ノーヴィグ[4]の議論に目を向けてみよう。
ノーヴィグの解釈では、初期チョムスキーの批判は主にマルコフ連鎖に基づく確率論的モデルに向けられているのだが、これをチョムスキーは統計的モデル一般の批判へと無理に拡張しようとしている。やや乱暴に要約すると、文A「Colorless green ideas sleep furiously.」(無色の緑色のアイデアは猛烈に眠る)と文B「Furiously sleep ideas green colorless.」(猛烈に眠るアイデア緑色無色)はどちらも1957年の時点では統計的に新しい文だったが、文Aは文法的であるのに対して文Bは文法的でない。つまり、人間には標本空間に含まれていない文の文法性を判断する能力がある。チョムスキーはここから、人間の言語能力は統計的モデルでは記述されないという結論を導こうとする。これに対してノーヴィグは、文Aと文Bの文法性は有限マルコフ連鎖モデルでは判別できなくても、統計的学習に基づく最新のモデルを用いれば確率的に判別できるという点を指摘している。そこでは文法的である・ないのバイナリではなく、文を構成する個々の要素の分析に基づいて文Aの方が文Bよりも文法的である確率が約20万倍高いという判断となる。それだけでなく、最新の統計的モデルに従えば文Aも文Bも人間の言語において出現する確率が非常に低いという判断ができるが、バイナリベースの論理的モデルではそのような判断はできないとノーヴィグは指摘する。
より経験的な角度から、チョムスキーは統計的学習に対して「人間の幼少期の長さは108秒ほどだが、これは109個ほど存在する自然言語のパラメーターを習得するには短すぎる」という批判も展開している。これに対してノーヴィグは、統計的学習はパラメーターを一つひとつ個別に調整するわけではなく、出現率がほぼ0%に等しい大多数の変数に対してはある程度一律の確率分布を与えた上で微調整をしていくのだと指摘し、後者のような方法に基づけば108秒という時間の範囲内でも言語のパラメーターの調整は十分に行われうると主張している。
ノーヴィグは他にもいくつかチョムスキーの批判に対する返答を行っているが、ややカカシ論法的な議論となってしまっているため、ここでは紹介しない。ただ、上記の2つの論点は、人間の言語の仕組みの解明において確率論的モデルが担い得る役割についていくつかの示唆を与えてくれている。一方で、人間が標本空間に存在しない文の文法性を判断できるという事実を説明する際のノーヴィグの確率論的モデルの擁護に対して、チョムスキーならばこれはそもそも統辞論のねらいの誤解に基づく議論だという答え方をするだろう。進化論的にも発達心理学的にも、そもそも人間の言語は標本空間に要素がほとんどない状態から出発して発達するため、確率論的モデルは人間の言語の初期状態についても、学習の初期段階の生成の仕組みについても、ほぼ何も原理的な洞察を与えてくれない(チョムスキーが言う「原理的な洞察」とはそもそも何なのかという問題はあるが、ここでは深入りしないでおく)。他方で、自然言語の習得がある程度まで進んだ後は、標本空間にデータが集まっている(あるいは新しい文に対して事前確率を設定できるだけの情報が与えられている)ため、統計的学習に基づいて新しい文の文法性が判断される可能性も十分にありえる。
以上は一見すると本書と何の関係もない言語学的論争に思えるかもしれないが、これは機械翻訳と人間の翻訳家の関係を考える上で重要な基礎的議論だと思われる。既述のとおり、DeepLの訳文は人間の訳者の訳文と比べても遜色ない質を達成している。こうした事実と向き合ったとき、人間の翻訳家は自分の役割をどう再考し理解すれば良いのか。
機械翻訳における既存のアプローチ[5]は大きく2つに区別できる。一方には統計的アプローチがある。厳密に言い換えると、統計的機械翻訳とは、あるデータ集合における原文と訳文の対応関係の分析から最適だと思われる訳文を自動的に生成するシステムを指す。対して、人工ニューラルネットワークに大量のデータを与えて学習をさせ、こうして細かくチューニングされたアルゴリズムを使って原文から訳文を出力するシステムは統計的機械翻訳と区別してニューラル機械翻訳と呼ばれる。大量のデータが使用可能となったことを追い風に、正確性、速度、そして柔軟性などの観点から、DeepLも含む既存のプログラムでは後者のニューラル機械翻訳が主流となっている。他方で、統計的学習ではなく、最適な論理的規則を適用して翻訳を行うアプローチも存在する。これは数学者のベルナール・ヴォクワが1968年に提示した「中間言語」(interlingua)という概念にさかのぼる。中間言語とはすべての自然言語に共通の抽象的構造のことだ。このアプローチでは、原文を中間言語によって一度表象し、この構造から訳文を生成することがねらいとなっている。このとき、中間言語の精度は翻訳プログラムがチューリングテストをパスするかどうかによって決まるため、人間の言語の正確な表象である必要はない。中間言語に基づく論理的アプローチの開発は統計的アプローチに比べるとまだそれほど進んでおらず、実用化も遅れている。
機械翻訳における訳文の精度はバイリンガル評価代役(BLEU)スコアによって評価される。BLEUスコアとは、人間のプロの翻訳家の訳文に機械の訳文がどれくらい似ているかを表す指標だ。今はまだ人間の仕事を基準に機械の訳文を評価している段階だが、ニューラル機械翻訳の精度がさらに高まってゆけば、チェスや将棋の世界と同じように翻訳の世界においても機械の仕事を基準に人間の訳文を評価する時代がやってくるだろう。こうした逆転の背景には、ある重要な仮定が存在する。すなわち、例えば将棋では原理的にはどの局面においても最善手が存在すると仮定され、既存のソフトはこれを大多数の人間よりも高い確率で特定できるものとされている。同じように、翻訳の世界においても1つまたは極少数の最善の訳文の存在が仮定され、精度の高い機械翻訳は人間よりも高い頻度でこの最善の訳文を生成するものだという考え方が広まるだろう。
こうした傾向は特にノンフィクション翻訳において顕著に現れると思われる。将棋においては、最善手とは他の手に比べてそれを指した側がその対局に勝つ確率を最も高くする一手だと定義されうる。このような定義が成立するためには、「対局に勝つ」という明確な目的の共有が必要となる。例えば一方の対局者が勝つことを目的に指しているとき、もう一方の対局者が駒柱を作ることを目的に対局をしていた場合は、勝つための最善手と駒柱を作るための最善手は異なる場合が多いと思われるため、両対局者に共通の「客観的な」最善手は特定できなくなる。同様に、翻訳の場合も読み手が訳文に求めるもの(すなわち翻訳の目的)が異なる場合は、客観的に最善の訳文というものも特定できなくなる。しかしながら、ノンフィクション翻訳の場合は、良かれ悪かれ「正確性」と「わかりやすさ」という目的がかなりのところまで共有されている。そのことは、例えば書評やレビューなどで文体の質を評価する際に評者やレビュアーが使う言葉を観察してみればわかるだろう。「正確性」とは原文の単語の字義や語感をすべて訳出できているかという基準であり、「わかりやすさ」とは日本語で書かれた作品の文章がもつ「自然さ」を訳文がどれくらい再現できているかという基準だ。こうした目的意識が読者の間で共有されている分野であるため、ノンフィクション翻訳では訳文の質の評価を機械翻訳の仕事を基準に行うという転換が起こりやすいと言える。
ただし、チョムスキーとノーヴィグの議論で見たように、確率論的モデルに従ってある文章の文法性(そしてその他の質的要素)を判断するという方法は、習熟した言語使用者がもつ一つの選択肢ではあっても、人間の言語に普遍的なメカニズムではない。よって、人間の言語活動には、ニューラル機械翻訳のような確率論的なプログラムには置き換えられない何かが存在するはずだ。この「何か」の正体を「文学」「創作」などという曖昧な概念ではなく厳密な論考によって解明していくことが、近い将来に訪れるはずの機械翻訳全盛期におけるノンフィクション翻訳にとって重要な課題となる。それは10年後の書店で「機械翻訳」の棚からではなく「人間翻訳」の棚から訳書を買うときに読者が何を選択しているのかを明確にすることにもつながる。
気候危機の解決が組織立った人間生活の存続を可能にするための手段だとすると、そのようにして存続に成功した日常において人間が行うことを考えるための一つの切り口として、自然言語処理技術から見えてくる言語学的な課題は多くの示唆を与えてくれている。
[1] Chomsky, N. (1957). Syntactic Structures. The Hague & Paris: Mouton.
[2] Chomsky, N. (1995). The Minimalist Program. Cambridge, MA: MIT Press.
[3] Chomsky, N. & Berwick, R. C. (2013). Why Only Us: Language and Evolution. Cambridge, MA: MIT Press.
[4] Norvig, P. (2012). Colorless Green Ideas Learn Furiously: Chomsky and the Two Cultures of Statistical Learning. Significance, 9(4), 30-33.
[5] Koehn, P. (2020). Neural Machine Translation. Cambridge: Cambridge University Press.
0 件のコメント:
コメントを投稿