TOP

>

研究内容RESEARCH

>

感情モデルEMOTION MODEL

感情モデル

一般に「ロボット」は心つまり感情のない存在と考えられています。
しかし、ロボットが人間社会に受け入れられていくためには、相手の感情を理解・共感し、行動するということが必要です。
本研究では、人とロボットが共感し合う未来を目指して感情モデルの研究を行っています。
感情モデルを作ることを通して、人の感情のメカニズムを明らかにするとともに、ロボットに感情モデルを実装し、人を理解し自身の感情を表出する人工物を開発します。

提案している感情モデルは以下の三層に分かれています。

第1層は反射的に反応する層であり、時間的に処理が最も早いですが、エラーも多くなります。それに対し、第2層では過去の記憶にアクセスするため、第1層からの遅延がありますが、経験に基づいて評価するため、エラーを減らすことができます。この第1層、第2層から出力された一次表出を次元圧縮したものが情動であると定義しています。
こうして得られた情動と入力信号を使って原因推論をし、未来予測を行います。未来予測の結果を使って最適な行動を出力します。このときの情報がカテゴリとして意識へと昇ったものが感情として認知されます。

下記の図が実装例です。

第1 層の実装では、Recurrent Attention Modelを用いて画像刺激から情動値を出すネットワークを構築しています。

学習にはInternational Affective Picture Systemを用いています。
このネットワークをロボットに実装し、実際にコミュニケーションをした結果、見せたものによって好みを表出したり、情動伝染のような反応を見せました。

また、画像内のどのような特徴に反応しているのかを解析するため、単色の色画像を第1 層に入力した結果、黄色や赤や白に対しては快、緑や青や紫に不快反応を示しました(下図:HSV色空間での情動値、角度が色相、半径が彩度、明度はMAX値で固定)。これは、幼児の好みと同じ結果となっています。

今後は全体の実装を行うとともに、生体センサにより収集した刺激に対する人の生体データを学習データとし、刺激に対して人と同様の身体反応を示すネットワークの構築を行っていきます。

ミユキ技研

Emotion Model

Most people believe that robots have no emotions, and nor do they need them. However, we strongly believe that having emotions is essential for robots to understand and sympathize with the feelings of people, thereby allowing them to be accepted into the human society.
In this research, we propose a model of robot emotions based on some neurological and psychological findings in the literature to achieve empathic communication between humans and robots.
This research is indispensable not only to build robots with emotions, but also to make them truly understand the human mental state.

The proposed emotion model is illustrated below.

An example of the implementation is shown in the following figure.

As a first step toward realizing the proposed emotion model, we examine affect generation from visual stimuli using a recurrent attention model.

In order to replicate the innate reactions, we utilize the International Affective Picture System (IAPS) to train the network to output two-dimensional values, i.e., valence and arousal, for a given visual stimulus (24,200 images for training and 100 for testing).
I implemented this network on a robot, and human subjects communicated with the robot. As a result, the robot expressed preferences, and the emotional contagion occurred from subjects to the robot.

I found that the robot prefers yellow, red and white, but he dislikes green, blue and violet. This preference in color is similar to the infant’s color preference.

In the future, I will implement of the proposed emotional model as a whole and body reactions using a biosensor.

ミユキ技研