顔の3次元データと筋構造に基づく表情認識
近年,映画やゲームなどの CG 作成において,モーションキャプチャが使用され
る機会が急速に増えてきている.中でも,人間の顔をリアルに再現するために,
フェイストラッキングを行う機会も増えてきている.
「顔」は人間にとって非情に身近な存在であると共に,
顔の持ち主である一人一人の人間における個人的な情報,
コミュニケーションに係わる情報を始めとした,言
語的手段では表現しにくいようなさまざまな情報を担っている.
このような,人間が表出した表情の分析し,蓄積することによって,「表情データベース」として,
対面コミュニケーション場面における円滑な意思疎通のために
役立てることができる.
このような背景から,本研究では,モーションキャプチャシステムにより獲得した
顔データを用いて,「表情データベース」構築のため,
表情を記述するためのルールを抽出する手法を提案する.
しかしながら,モーションデータは生産性が低いため,少ないデータ群から効率よ
くルールを抽出する必要がある.そこで,5 つの状態を持つメンバシップ関数を用い
データロスを削減し,効率よくルールを抽出している.
また,モーションキャプチャシステムから得られる顔データは,
3 次元時系列データであるため,そのまま扱うと計算量が膨大になる.
しかしながら,顔の各部分はそれぞれ独立に動いているのではなく,表情筋と呼ば
れる筋構造の制約がある.そこで,主成分分析を用い,顔データから表情筋の伸縮
を表す伸縮係数に変換することによって,次元を落としている.
最後に,このようにして発見された表情ルールを用いて表情認識の実験を行った.