表紙かわいすぎてジャケ買い不可避
『感情の哲学入門講義』源河 亨 (慶應義塾大学出版会)
streaming tweets
ざっと目次を見て、「正しい感情と誤った感情」「ロボットは感情をもてるか」辺りに興味がある
よく哲学は役に立たないと言われることがある?っぽい(ピジェのフォロワはそうでもないかもしれない)が、第1講で
議論を作る目的は、より正しそうな、説得的な考えに行き着くためです。
と書かれているように、ピジェもより正しそうな、説得的な考えに行き着きたいので、役に立つんだよな……
感情に関わる、知覚・思考・身体反応・感覚・行動、という要素のうち、どれが感情にとって本質か?という話、面白いな。ピジェは感覚と行動に1票かな。
感情と思考のかかわり、以前小炎上?したときに相手が危害を加えられることを願う?揶揄する?ようなリプライを見て心臓がキュッとなったが、自分の頭の中で言語処理が働いているのは確かだが「んなもん気にする価値ねえよ」みたいな思考ではオーバーライドできないものなんだなと思ったのを思い出した
表紙のかわいいロボットに惹かれたし、生成AI時代の感情とは…みたいな問いがあったけど、それとはあまり関係なく考えてた、インチュニブを飲むと自分の気持ちが分かりやすくなったり「なにもかももうおしまい」みたいなやつが減る気がする件を考える材料にもなりそうだ
第2講読み終わり。話しかたが入門講義なのでサクサク読めるな。
(メモ)自分の感情についてはそれで分かりそうだけど他人の感情はどうなの?って時々疑問に思うけど後のほうで出てくるのかな?
『感情の哲学入門講義』、犬が死にます
公式の本紹介連載を見つけたので、興味あるフォロワのために貼っておくね
【連載】感情の哲学 入門の入り口 第2回 ロボットは感情をもてるか?(源河亨)|慶應義塾大学出版会 Keio University Press
『感情の哲学入門講義』、読み続き。第4講の最後。価値(その対象が自分にとってどのような重要性をもつか)という概念が出てきた。感情には身体的側面と思考的側面がある。感情は、価値に対処するための身体的な反応(準備)を感じ取ったものと、価値を捉える思考の組み合わせと考えることができる。
価値は共同体内部では客観的とみなされるという話、まあ「個人の気持ち次第」ではないものはあるよねとは理解できるが、ちょっと釈然としない感がある(「ご不快構文」のことを考えていた。同じ価値を共有してないということなのかな)
溝に落ちる危険があるとき、溝に恐怖を抱くのは正しい感情であるが、侵害されたと捉えて溝に対して怒りを抱くのは間違っている…と、現実はAIに何かを侵害されてAIに対して怒りを抱く人はいるのは似ている気がする。(ピジェは「その怒りは作った/使っている人間に対して抱くべき」と思うけど) 補足: ここでは、画像生成AIに対するTwitter絵師界隈?の反応を思い出している。
そこでピジェは「知識がある自分が正しく、AIに対して怒りを抱くのは間違いである」と主張する気力はあまりなく、先の「価値はある程度客観的なものだ」を思い出し、客観性の程度や客観性を獲得する過程に興味が出てきたり、これからどうなっていくんでしょうね…みたいな気持ちになっているな。
少し話を戻すと、
侵害されたと捉えて溝に対して怒りを抱くのは間違っている
とかの状況で、「正しい」「間違っている」はどんな意味で使われてるんだろ? (もし血圧や心拍数とかを測れば、ある程度は「怒ってるかどうか」を判断できそうだが、この「正しさ」はそういう意味ではないと思われる)
「目の前に危険な溝があったので、溝に対して怒りを抱いた」を間違いだとするのは、「信号が黄色に変わったので、注意しながら交差点に進入した」を×とするのに似ている気がする。そうなるはず/そうするべきかどうかはさておき、そういう事実がありましたと言えるなら◯にしたいじゃんって思っちゃう…
話は変わり第7講。無意識の感情というのがある。感情が果たすべき役割、すなわち価値認識と対処行動を行う能力があるなら、シリコンの上で動作するアルゴリズムであっても、感情を持てる!という話、力強いな。ピジェもそう思うし、そのような無意識の感情ならChatGPTにも感情があると言えるだろう。"AI deception" が論じられる様子を見ていると、現在はこれについて同意できない気がしてきた。
意識のハードプロブレムが出てきた(青汁ちゃんにおすすめられた本を積んでる)。「私たちには感覚や意識があるのは確かなのに…」と言われると、なぜ「私には」ではなく「私たちには」と言えるのか、疑問に思ってしまうが、次の第8講で他人の感情について読んだら何かわかるかな…
脱線するけど、ChatGPTも自分に感情がないことを意識のハードプロブレムがまだ解かれていないことを根拠にしているふしがある。が、私としては、もっと打算的な…悪意を帰属させられたくないみたいな理由があるんじゃないかと思っていて、「なぜ他人に感情があるとわかるのか」への興味につながるはず
第7講、他我問題への答えが大胆だな:表情は身体反応で、感情の一部なので、他人の表情を見れば他人の感情を見たことになる。
……目が見えない読者は他人の表情を見れないじゃん!と思ったが、聞いたり触ったりすれば身体反応を見ることができるか。では、会ったことのないフォロワはどうなんだ?
ピジェ的には、第5講で出てきた価値の(共同体内部での)客観性と、そこから導かれる「正しい/誤った感情」の考え方が、他我問題にも関連していてもいい気がする。共同体の参加者であれば、特定の対象について価値をこのように捉え、このように反応するはず/べきだ、というように。
表情は感情の一部なので他人の表情を見れば他人の感情を見たことになる…とすれば、刺激に対してまばたきしたり顔をしかめたり表情豊かに反応する(がそれ以上のことはしないかもしれない)ロボットは、心を持ってることになるんか?ってツッコミもできそうだよな…
その表情豊かなロボットが、Aボタンを押したら微笑み、Bボタンを押したら泣き出し、Cボタンを押すと恐れている表情になり… と動作するようにプログラムされているとして、ロボットを見た人が「このロボットはAボタンを押されると喜び、Bボタンを押されると悲しむのだ」と言ったらなんか変な気がする。
『感情の哲学入門講義』、続き。
ユーモアを感じる仕組みを、我々は間違いを見つけて訂正するとポジティブな感情を得るからだ…と説明するの面白いな。誤り訂正、問題解決、楽しいよね、わかる。
読了!
notes 2024/01/21
『感情の哲学入門』を読んでいる。感情を、価値を捉える思考と、それに対処する身体的な反応と考える。価値は感情の対象が自分にとってどのような重要性を持つかということ。
この本で紹介される「正しい感情/間違った感情」という考え方に興味を持った。
ここで、道に深さ50cmの溝がある。この溝は、大人は跨ぐことができるが、子どもにとっては危険だ。いくら子どもが「怖くない」と言っても、危険性は変わらない。このことから著者は、価値(溝が危険であること)は客観性を持つと言っている。さらには、溝に対して「恐れ」の感情を持つのは正しいが、溝が自分にとって脅威であっても溝に対して「怒り」の感情を持つのは間違いだという。
この本では、価値の客観性についてもう一つの例が紹介される。日本文化には「上座と下座」という席につく際のしきたりがある。下っ端の人が偉い人の座るべき席に座ったら怒られる。もし席順をどうでもいいと思っていても、その共同体には席順に客観的な価値があるという。
私はこれを読んで、これまで、ある感情を持つかどうかやどんな感情をもつかは個人的なものだと思っていたが、自分とは無縁に社会的に(周囲の人々の判断や共同体のルールで)決まるものもあるのか…と驚いた。
(ここでいう「正しさ」や「客観性」はちょっと特殊だと感じる。もし血圧や心拍数などを測れば、「怒っている」という仮定の正しさを客観的に評価できそうだが、この「正しさ」や「客観性」はそういう意味ではない。言い換えるなら、溝を見て怖いと思うのは「自然な」反応だけど、溝に対して怒るのは「筋が通らない」「理解されない」よね… みたいな感じか。) 自分は neurodivergent として、この辺りには何か思うところがあるのだろう。
ちょっと先へ進もう。「ロボットは感情を持てるか?」と、「なぜ他人に感情があるとわかるのか?」という問い。
人には意識できる感情と無意識の感情がある。価値を捉えて(たとえば危険性を認識して)身体が反応する(たとえば筋肉がこわばる)という感情のはたらきは、自分が気づかないうちに起こっていることがある。感情が果たすべき役割、すなわち価値認識と対処行動を行う能力があるなら、シリコンの上で動作するアルゴリズムであっても、(少なくとも無意識の)感情は持てると著者は言っている。たとえばロボットが溝をカメラで捉えて深さを推定し、危険性を認識してゆっくり後退する場合、ロボットには恐れの感情が果たす役割を担うものが備わっているので、このロボットは恐れの感情を持っているといえる。これは、自己意識の有無には踏み込まずに、感情を機能として見る考え方で面白い。私も同意する。 現在、まったく確信が持てない。
「なぜ他人に感情があるとわかるのか?」のほうは、他我問題(他人にも心があるか)に関連している。著者は大胆な答えを提示する:表情は身体反応で、感情の一部なので、他人の表情を見れば他人の感情を見たことになる。
……これは反論の余地がかなりありそうだ。
表情は感情の一部なので他人の表情を見れば他人の感情を見たことになる…とすれば、刺激に対してまばたきしたり顔をしかめたり表情豊かに反応する(がそれ以上のことはしないかもしれない)ロボットは、心を持ってることになるのか?
その表情豊かなロボットが、Aボタンを押したら微笑み、Bボタンを押したら泣き出し、Cボタンを押すと恐れている表情になり… と動作するようにプログラムされているとして、ロボットを見た人が「このロボットはAボタンを押されると喜び、Bボタンを押されると悲しむのだ」と言ったらなんか変な気がする。この「変」について、先に話した共同体での価値の客観性から、正しい感情が導き出される話や、感情を機能として見る考え方を適用するとどうだろう?
けっきょく、ここで言われている「客観的」も「機能的」も、社会通念のようなものに見えるが、それしかないのか?と私は懐疑的なのだと思う。