JP2020107279A - 視認性評価システム - Google Patents

視認性評価システム Download PDF

Info

Publication number
JP2020107279A
JP2020107279A JP2018248398A JP2018248398A JP2020107279A JP 2020107279 A JP2020107279 A JP 2020107279A JP 2018248398 A JP2018248398 A JP 2018248398A JP 2018248398 A JP2018248398 A JP 2018248398A JP 2020107279 A JP2020107279 A JP 2020107279A
Authority
JP
Japan
Prior art keywords
model
visibility
posture
biomechanical
visual field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018248398A
Other languages
English (en)
Other versions
JP7108986B2 (ja
Inventor
和征 恩田
Kazumasa Onda
和征 恩田
英則 堀田
Hidenori Hotta
英則 堀田
和徳 長谷
Kazunori Hase
和徳 長谷
智成 高柳
Tomonari Takayanagi
智成 高柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Tokyo Metropolitan Public University Corp
Original Assignee
Suzuki Motor Corp
Tokyo Metropolitan Public University Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp, Tokyo Metropolitan Public University Corp filed Critical Suzuki Motor Corp
Priority to JP2018248398A priority Critical patent/JP7108986B2/ja
Publication of JP2020107279A publication Critical patent/JP2020107279A/ja
Application granted granted Critical
Publication of JP7108986B2 publication Critical patent/JP7108986B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】3DCADによる製品設計において、設計要素に対する確認動作を含めた総合的な視認性の定量的評価を行うシステムを提供する。【解決手段】視認性評価システムは、確認動作のシミュレーションを行うための生体力学モデル10に対応する人体モデル53、オブジェクトが定義された仮想3D空間にて人体モデルの視野画像から視認目標点20に対する視野判断モデル50及び生体力学モデルと視野判断モデルを連成させる統括制御部11を備える。方法は、与えた摂動による生体力学モデルの姿勢を人体モデルに反映させるステップ、反映した人体モデルの視野画像から算出される視認度を視野判断モデルから取得するステップ及び摂動に伴う生体力学モデルの負担度の算出するステップを含む摂動プロセスを実行し、最小負担度かつ最大視認度となる挙動にて姿勢を生成する摂動/挙動プロセスを反復操作し、負担度の積算値と視認度の最終値から易視認性を算出する。【選択図】図14

Description

本発明は、生体力学モデルを利用した3DCADの視認性評価システムに関する。
従来、3DCADによる製品設計において、視認性など視覚的効果に関する評価と、操作性や取り扱い易さなど実用上の効果に関する評価は、別々に行われてきた。例えば、特許文献1には、車両のコックピットの設計データを3DCGにより映像化して使用感や視認性の評価を行う設計支援装置が記載されている。しかし、このような評価方法は、試験者の主観による影響を排除できず、定量的な評価を得ることは困難である。
一方、特許文献2には、車両のドア部周辺の設計諸元値を決定するために、人体モデルを用いて仮想車両に対する乗降動作のシミュレーションを行い、乗降性を評価する設計支援システムが記載されている。このシステムは、乗降性に関する定量的評価を指向しているものの、視認性や視覚的効果についての記載や示唆は無い。
特開2013−189055号公報 特開2013−246663号公報
製品設計において、視認性など視覚的効果が、操作性やアクセスし易さなど実用上の効果と関連する場合がある。例えば、車両のコックピットの設計では、空間的制約から全ての操作部や表示部を視野内に配置できない場合、操作頻度や視認頻度が高い要素や走行中に視認する要請がある要素が視野内に配置され、それ以外の要素は、視野外または他の部材で隠れる陰面などに配置される。このような要素は、乗員が顔の向きを変えたり頭部や上体を傾けたりして行う確認動作を伴って視認され、操作される。したがって、そのような確認動作の容易性を含めて視認性が定量的に評価されることが好ましい。
本発明は、上記のような実状に鑑みてなされたものであって、その目的は、3DCADによる製品設計において、設計要素に対する確認動作を含めた視認性の定量的評価を行うための視認性評価システムを提供することにある。
上記課題を解決するために、本発明は、
3DCADによるオブジェクトのための視認性評価システムであって、
前記オブジェクトの視認目標点が定義された仮想3D空間にて前記視認目標点に対する確認動作のシミュレーションを行うための生体力学モデルと、
前記生体力学モデルに対応する人体モデルおよび前記オブジェクトが定義された仮想3D空間にて前記生体力学モデルの視線に対応する前記人体モデルの視野画像から前記視認目標点に対する視認度を算出するための視野判断モデルと、
前記生体力学モデルと前記視野判断モデルを連成させる統括制御部であって、
前記生体力学モデルに摂動を与えるステップ、
前記摂動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップ、
前記姿勢を反映した前記人体モデルの視野画像から算出される前記視認目標点に対する視認度を前記視野判断モデルから取得するステップ、および、
前記摂動に伴う前記生体力学モデルの負担度を算出するステップ
を含む摂動プロセスを実行し、最小負担度かつ最大視認度となる挙動にて前記生体力学モデルの姿勢を生成する摂動/挙動プロセスの反復操作を行う統括制御部と、
を備え、前記負担度の積算値と前記視認度の最終値から易視認性を算出するように構成されている、視認性評価システムにある。
本発明に係る視認性評価システムは、上記のように、仮想3D空間に定義される視認目標点に対する確認動作のシミュレーションを生体力学モデルによって行い、その生体力学モデルの姿勢を人体モデルに反映し、生体力学モデルの視線に対応する人体モデルの視野画像から視認目標点に対する視認度を算出するとともに、確認動作に要する生体力学モデルの負担度を算出し、負担度の積算値と視認度の最終値から易視認性を評価することにより、設計要素に対する確認動作を含めた視認性の定量的評価を行うことができる。
しかも、生体力学モデルによる確認動作のシミュレーションは、生体力学モデルに摂動を与え、その姿勢を視野判断モデルにおける人体モデルに反映させ、人体モデルの視野画像において視認目標点に対する視認度を算出し、算出された視認度が生体力学モデルにフィードバックされ、最小負担度かつ最大視認度となる挙動にて姿勢を生成する操作により実行されるので、視野判断モデルと生体力学モデルとの連成によって確認動作が自律的にシミュレートされ、信頼性の高い定量的評価を行うことができる。
また、個別に動作する生体力学モデルと視野判断モデルの間で姿勢データと視認度のデータを受け渡して連成させる構成により、生体力学モデルでは運動力学的な再現性や整合性を優先した効率的なモデル構築を行える一方、視野判断モデルでは視覚的な再現性を優先した効率的なモデル構築を行える利点がある。
上記に対応して、前記統括制御部の前記摂動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップは、前記摂動による前記生体力学モデルの姿勢データを記録するサブステップ、および、前記姿勢データを前記視野判断モデルが取得して前記人体モデルに反映させるサブステップを含むことが好適である。最終的に、視野判断モデルが各挙動プロセスで取得した姿勢データに基づいて確認動作の動画、例えば、人体モデルの視点での動画や、任意に設定可能な外部視点から人体モデルによる確認動作を観察する動画などを生成できる。
本発明の好適な態様において、前記統括制御部の前記挙動プロセスは、
前記挙動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップ、
前記姿勢を反映した前記人体モデルの視野画像から算出される前記視認目標点に対する視認度を前記視野判断モデルから取得するステップ、および、
該視認度を閾値と比較するステップを含み、
前記視認度が前記閾値以上となった場合に前記摂動/挙動プロセスの反復操作を終了するように構成されているので、確認動作の目的達成によるシミュレーションの終了をシステムにおいて自律的に行える利点がある。
本発明実施形態に係る視認性評価システムを示すブロック図である。 本発明実施形態に係る視認性評価システムによるシミュレーションを示す模式的な側面図である。 本発明実施形態に係る視認性評価システムによるシミュレーションを示す模式的な平面図である。 (a)は筋骨格モデルを示す概略図であり、(b)は筋骨格モデルの着座状態における接触点および接触平面を示す図である。 本発明実施形態に係る視認性評価システムで使用するデータ構成を示すER図である。 眼球運動モデルを示すブロック図である。 前庭動眼反射モデルを示すブロック線図である。 追跡眼球運動モデルを示すブロック線図である。 サッカードモデルを示すブロック線図である。 サッカードモデルにおける有効眼球運動範囲を示す図である。 眼球運動モデルと筋骨格モデルの統合を示すブロック線図である。 本発明実施形態に係る視認性評価システムの処理を示すフローチャートである。 本発明実施形態に係る視認性評価システムの処理を生体力学モデルと視野判断モデルに分けて記載したフローチャートである。 本発明実施形態に係る視認性評価システムにおける生体力学モデルと視野判断モデルのデータ受け渡しによる連成を示す模式的な平面図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
1.評価システムの概要
図1は、本発明実施形態に係る視認性評価システム1を示すブロック図である。本実施形態の評価システム1は、車両のコクピット前部に配設されるインストルメントパネルの3DCADデータを評価対象データ2とし、図2および図3に示すように、生体力学モデル10を利用して視認目標点20を視認するための確認動作のシミュレーションを行い、その容易性を含めた視認性を評価するものである。
評価システム1は、生体力学モデル10と視野判断モデル50を含み、それぞれの動作のためのプログラムも別に存在する。それぞれのプログラムおよびデータ、各プログラムを統括的に作動させるオペレーションプログラムは、不図示のコンピュータの外部記憶装置などに格納されており、メインメモリ(RAM)に読み込まれ、CPUにより演算処理が実行されることで評価システムとして機能するように構成されている。
生体力学モデル10は、筋骨格モデル3と眼球運動モデル4から構成されており、これらを統合することで、視野判断を行うための身体運動および眼球運動を生成するとともに、それらに要する負担度16を算出し、各運動の結果として得られる眼球5の姿勢データを、視野判断モデル50におけるカメラ55に反映することで、視認目標点20に対する視認度15を算出し、最終的に評価部17において、負担度16と視認度15に基づいて、確認動作の容易性を含めた見やすさ(易視認性)を評価する。
また、視野判断モデル50で算出される視認度15は、生体力学モデル10の統括制御部11にフィードバックされ、生体力学モデル10に確認動作をもたらす運動規範ポテンシャルの一部となる。このように、生体力学モデル10と視野判断モデル50は、独立して動作しながら、相互間でデータを共有または授受することで連成し、生体力学モデル10における負担度16の最小化と、視野判断モデル50における視認度15の最大化を同時に達成するシミュレーションを行えるようになっている。
すなわち、2つのモデルは、生体力学モデル10における負担度16の軽減のための最適動作が視野判断モデル50における視認度15の向上をもたらし、視野判断モデル50における視認度15の向上が生体力学モデル10における負担度16の軽減のための最適動作をもたらすという連成関係にある。2つのモデル間で、データを共有または授受する形態は、図5に示すようなデータベース8へのアクセスによって行われるが、それ以外に、データ通信やファイル操作によるデータファイルの受け渡しなど、任意の形態で実施可能である。
データベース8は、個々のシミュレーション(試行)における条件や結果などを格納するシミュレーションデータ80、個々のシミュレーション(試行)における各挙動プロセスのデータを格納する挙動データ81、および、各挙動プロセスを取得するために仮想的に実施された摂動プロセスのデータを格納する摂動データ82を含み、各データテーブルの主キー(PK)と対応するデータテーブルの外部キー(FK)との間に1対多のリレーションが設定されたリレーショナルデータベースとして構成されている。
シミュレーションデータ80には、各シミュレーション(試行)の入力条件などが格納される。例えば、図示例では、シミュレーションを実施するコクピットのCADデータに対応する支持構造情報(シート6における第1支持点(ヒップポイント;HP)、ハンドル7における第2支持点(左右の把持点;座標(x,y,z))、シミュレートする人物の体格設定情報(身長,体重)、評価対象CADデータ(名称、識別コード)、視認目標点座標(座標(x,y,z))などが入力され、シミュレーションプロセスの結果としての易視認性評価やレンダリング情報などが格納される。
なお、図示を省略するが、基本的に、支持構造情報(コクピットCADデータ)、体格設定情報、評価対象CADデータなどの基礎情報やレンダリングデータは、それぞれ、別のデータテーブルに登録され、識別コード(外部キー)に設定されるリレーションによって参照されるようにする。また、データファイルの受け渡しによりシミュレーションを実施する場合には、シミュレーションデータ80、挙動データ81、および、摂動データ82に相当する適宜形式のデータファイルを構成し、データの追加更新を行う。各挙動プロセスにおける挙動データ81が取得された後に、それに要した摂動データ82を保持しない設定とすることもできる。
挙動データ81と摂動データ82について、後に詳述するように、生体力学モデル10における筋骨格モデル3および眼球運動モデル4の動作は、最適な挙動を決定するために状態変数uの数だけ仮想的に動作させ負担度Bを算出する摂動プロセスと、その結果として得られた最小負担度(Bmin)かつ最大視認度(Rmax)をもたらす条件で単位時間だけ実際に動作させる挙動プロセスを繰り返すことにより実施され、視野判断モデル50は、それぞれの摂動プロセスごとに視認度Rを算出する。
したがって、先ず、挙動データ81における挙動No(ID)が自動採番などにより割当てられ、次いで、当該挙動Noに関して、摂動データ82に状態変数U分の摂動Noが割当てられ、それぞれの状態変数U毎に筋骨格モデル3および眼球運動モデル4の摂動が実施される。各摂動の結果として得られた骨格リンク姿勢、眼球姿勢、負担度Bが摂動データ82に格納され、眼球姿勢が視野判断モデル50のカメラ55に反映され、その視野画像から算出された視認度Rが摂動データ82に格納される。
次いで、最小負担度(Bmin)かつ最大視認度(Rmax)をもたらす条件が挙動データ81に格納され、それに従って挙動プロセスが実施され、骨格リンク姿勢および眼球姿勢がキーフレーム情報として登録される。これらのキーフレーム情報が集積されることで確認動作に対応する視野画像の3DCG動画(および任意に設定される視点から見た3DCG動画)を生成可能となる。また、挙動プロセスの実施とともに、それ以前の挙動プロセスで取得された最小負担度(Bmin)、最大視認度(Rmax)それぞれの積算値が更新され、挙動データ81に格納される。これらの積算値がシミュレーションにおける最終的な易視認性評価の基礎情報となる。
2.視野判断モデルの詳細
視野判断モデル50は、3D座標系(仮想データ空間)に、視認目標点20を有する評価対象データ2、生体力学モデル(筋骨格モデル3、眼球運動モデル4)に対応する人体モデル53、および、カメラ55を定義し、生体力学モデルで生成される身体運動および眼球運動(身体姿勢および眼球姿勢)を、人体モデル53およびカメラ55に反映し、その状態における視認目標点20の視認度を取得するものである。
このカメラ55は、3D座標系に設定される視点(ヒトの眼に相当)であり、カメラ画像がヒト(人体モデル53)の視界となる。人体モデル53の姿勢を時々刻々とキーフレームに登録することによって、最終的に動画を作成することができる。外部視点を設定すれば、視覚的に身体挙動を観察することもできる。
以下、視野判断モデル50による視認度算出プロセスについて説明する。なお、プロセスは全てプログラムによって自動で行われる。3Dデータ空間での画像処理を基本としているため、汎用の3DCGアプリケーションを用いることもできる。
先述したように、本実施形態の評価システム1は、車両のコクピット前部に配設されるインストルメントパネルの3DCADデータを評価対象データ2とし、図2および図3に示すように、ドライバに相当する生体力学モデル3を利用して視認目標点20を視認するための確認動作のシミュレーションを行い、その容易性を含めた視認性を評価するものであり、視野判断モデル50は、確認動作(摂動および挙動)の各時点における視認目標点20に対する視認度を算出する。
図示例では、視認目標点20として、インストルメントパネル2の右側下部にあるスイッチを想定している。このスイッチは、ハンドル7で隠れる位置にあり、シート6に着座したドライバ(3)の視点(5)から直接視認することが困難であり、図3に示すように、右横方向への上体移動と頭部回転を伴う確認動作によって徐々に視認可能となる。
そこで、このように初期位置において直接視認できないか視認し難い視認目標点20に対する視認度を求めるために、視認目標点20を放射状に拡大した立体としてグラデーション球21を定義する。これにより、少なくとも部分的にグラデーション球21が視野画像に入ることで視認度を算出可能となる。
さらに、グラデーション球21の中心部、すなわち視認目標点20の近傍と周辺部とで視認度の重み付けを行うために、グラデーション球21の中心からの距離に応じて特定のピクセル情報のみを漸減させる。本実施形態では、赤色の強さ(輝度)を示すR値を特定のピクセル情報としており、グラデーション球21は、中心側では赤色が濃くなり、周辺側では赤色が薄くなるような、径方向のグラデーションを有している。
視野判断モデル50で使用するピクセル情報は、赤(R)、緑(G)、青(B)の三原色に透過度のアルファチャンネル(A)を加えた「RGBA」カラーモデルをベースとしている。RBGAは、それぞれ0〜1.0の数値であり、[R,B,G,A]で表す。視認目標点20に設置したグラデーション球21は、中心のR値=1.0(最大)〜表面のR値=0(最小)の間でR値が漸減しており、G値およびB値は0、全体が透明な球体をベースとするためA値は1.0であり、したがって、グラデーション球21のRGBAは、
[R,G,B,A]=[0〜1.0,0,0,1.0]
の範囲で表されることになる。
視野判断モデル50における視認度算出に際しては、グラデーション球21以外のソリッド(評価対象データ2、ハンドル7、シート6、人物モデル53など)は全て黒色かつ不透明(光源を反射しない、[R,G,B,A]=[0,0,0,0])とすることで、カメラ55の視野画像には、黒色のソリッド(ハンドル7など)で部分的に隠れたグラデーション球21のみが見える状態となっている。
この状態において、カメラ55の視野画像の全ピクセルのR値の合計をとることによって、赤色のグラデーション球21がどの程度見えているかを数値化することができ、それに基づいて視認目標点20の視認度を判断することができる。
この視認度(R値合計)は、グラデーション球21を用いているため、視認目標点20が直接見えていない場合まで拡張して数値化でき、直接的に見えない状態から見える状態に近づいている状況を視認度の向上として取得できるので、確認動作を含めた見やすさ(易視認性)の評価に最適であるとともに、後に詳述するように、生体力学モデル10にフィードバックされ、生体力学モデル3の運動(確認動作)を方向付けする運動規範ポテンシャルの一部となる点でも有意義である。
なお、視野判断モデル50で使用するグラデーション球21の特定ピクセル情報としては、赤色以外の緑色や青色の輝度を用いることもでき、さらに、輝度以外の情報を用いることもできる。例えば、透明なグラデーション球の内部に中心からの距離に応じた密度で赤色のドットを定義してR値の合計をとることもできる。
3.生体力学モデルの詳細
生体力学モデル10は、筋骨格モデル3と眼球運動モデル4から構成されており、基本的に筋骨格モデル3において身体運動が生成され、身体運動に連成して眼球運動が惹起される。そこで、先ず、筋骨格モデル3において視認目標点20の確認動作のための身体運動を生成する流れを説明する。
3.1 運動代表点の定義
筋骨格モデル3は、様々な身体運動を再現するうえで生体力学的に妥当であり、かつ、簡便で計算コストが低く抑えられていることが好ましい。そこで、身体各部位に運動代表点を設定し、各運動代表点の運動軌道を定義できるようにしている。例えば、視認目標点20の確認動作のための身体運動であることから、頭部31の眼球座標(左右の眼球5の中間座標または頭部31の中心座標でもよい)を運動代表点として定義する。
運動代表点の3次元位置は空間座標系によって記述され、身体運動は、運動代表点の初期位置から目標(終端)位置への移動として定義される。この座標位置は、他の運動代表点を基準とした相対的な座標値として定義することもできる。例えば、図3に示すように、頭部31の中心座標を運動代表点とした場合、この点の移動として確認動作を定義することができ、この運動代表点を基準に眼球座表を定義することもできる。
3.2 逆モデルベースの運動指令生成
身体運動において、理想的な軌道が与えられた場合、この運動を実現するための運動指令を、身体ダイナミクスの逆モデルに相当するモジュールによって求める計算理論が提案されている(Wang, et al., 2001)。本実施形態においても、身体ダイナミクスの逆モデルを考慮することで運動指令(関節駆動モーメント)を生成するようにしている。
脳の計算理論モデルの研究では、身体のダイナミクスのモデル自体をどのように獲得するかという点についても議論される場合があるが、ここでは複雑化を避けるために、身体のダイナミクスを計算し得るモジュールは既に脳内に存在しているものとして、身体力学モデルの逆動力学計算ルーチンを利用する。関節角度などの身体の運動(関節)変位をqとすると身体力学系の逆モデルは次式(3.1)のように与えられる。
ここで、Mは慣性行列、h()はコリオリ力、遠心力、外力の影響を表わすベクトル、fextは身体に作用する外力、nは筋による関節駆動モーメントである。
図3において、筋骨格モデル3の初期姿勢において、頭部31は車両の進行方向前方を向いており、眼球5の視線も図中符号5aで示されるように前方を向いている。この初期姿勢では視認目標点20は中心視野の外にあり、ハンドル7で隠れているため、直接視認することはできないが、視認目標点20の位置に対する知識を事前に得ている場合、符号5bに示されるように、運転者であれば、その方向に視線を向け、あるいは頭部31を回転させる。
これらの動作は、眼球運動モデル4と関連し、その点については後述するが、基本的に、運転者は、視認目標点20の方向に頭部31を移動させることによって、視認目標点20に対する視認性が向上するだろうという着想を得て、それを行動に移す。このような運動指令のメカニズムを生体力学モデル10自体に内在させる代わりに、本発明では、視野判断モデル50との連成により取得するようにしている。
すなわち、先述したように、視認目標点20を放射状に拡大したグラデーション球21によって、視野画像内における視認目標点20の凡その方位を取得でき、その方位と、初期姿勢における視線方向5aとのズレに基づいて、図3に破線矢印で示されるような初期動作の方向を取得することができる。
さらに、確認動作における運転者の移動は、車両前方(x方向)と略直交する横方向(y方向)および/または上下方向(z方向)が基本となるため、初期姿勢における視線方向5aとのズレのy−z平面への投影またはy方向成分を確認動作における身体運動の軌道と仮定して、この軌道を実現し得る関節駆動モーメントを求めるために、この軌道と現時点での身体の姿勢との差異に応じた仮想的な力を考え、これを内部逆モデルに作用する外力の一種とする。これを意志力と呼ぶことにする。
意志力fintは次式(3.2)により求められる。
ここで、Pcurは現時点での運動代表点の位置座標、Pdesは確認動作における身体運動の軌道計画により求められた運動代表点の位置座標、Aintは重み行列(対角行列)であり、複数の運動代表点の重要度や運動の向きの重要度に応じて定める。k1,k2は位置情報と速度情報の重みを定める係数である。
この意志力を、他の身体に作用する反力と同等の外力として扱い、次式(3.3)のように逆モデルに与えれば、確認動作における身体運動の軌道を実現し得る関節駆動モーメントn(fint)が得られる。
しかし、意志力やその基となる身体運動の目標軌道は、必ずしも厳密に実現すべき運動を規定したものではない。例えば、複数の運動代表点を規定した場合、相互の動きにある程度の矛盾があってもそれを許容するようにすれば、身体運動の定義が容易になる。そもそも、意志力は実際には身体に作用していない仮想的な力であるため、通常は力学的なつり合いを満たさない。
また、筋負担の最小化のような生体力学的な負担に基づく運動生成を実現していない問題もある。さらに、逆モデルを単純に計算すると、関節自由度のみならず、身体と空間座標系との間の自由度に対する駆動力・モーメントが算出されてしまう。
一方、生体・身体の運動規範を何らかのポテンシャルとして定め、最小化するダイナミクスを考慮することで生体の自然な動きを自律的に獲得するモデルが提案されている(Umedachi, T., et al., 2010)。そこで、本実施形態における生体力学モデル10においては、以下のような身体運動の規範となり得るポテンシャルを定義し、これを最小化する仕組みを導入する。
すなわち、次式(3.4)〜(3.6)に示されるように、意志力に相当する状態変数uを運動規範ポテンシャルUinvの状態変数とし、意志力と一致しかつ逆モデルによる関節駆動モーメントの総和を減少させるような状態変数uを得るダイナミクスを規定する。
ここで、n(u)は意志力相当の状態変数uを逆モデルに作用させた場合に得られる関節駆動モーメントである。k3,k4は係数、A1も重み係数行列であり、これは空間座標系と筋骨格モデル3との間の自由度に対応する関節駆動モーメント・駆動力に対応する重みを相対的に大きくするようにした。また、式(3.4)におけるポテンシャルの勾配(∂Uinv/∂u)の計算は解析的に求めるのが困難であるため、実際の計算では摂動を与えた差分式によって求める。
以上は筋骨格モデル3における身体運動のみであり、眼球運動モデル4との連成は考慮していない。眼球運動との連成を考える場合、次式(3.7)に示されるように、身体運動における運動ポテンシャルUinvに眼球運動負荷feyeを加え、これを新たに運動規範ポテンシャルとすればよい。
この眼球運動負荷feyeは、後述の眼球運動モデル4より得られる。これにより、筋骨格モデル3と眼球運動モデル4との連成、身体負荷と眼球運動負荷の両方を低減する運動の生成が可能となる。
多関節マニピュレータのようなロボット制御では、タスク空間座標と関節(コンフィグレーション)空間座標との変換にヤコビ行列やその擬似逆行列を用いる方法が一般的に行われているが、そのような方法論は生体の制御モデルとして数学的抽象度が高い。それに対して、本モデルでは、身体力学系の逆モデルと意志力を仮定することで、タスク空間における運動軌道から直接的に関節駆動力を求めることができ、かつ、高度・抽象的な数学的処理を必要としない。また、意志力の求め方やその係数の決定法にやや曖昧さがあるものの、そのため逆に全身モデルのような多自由度で大規模モデルの運動生成が容易になる利点がある。
3.3 順モデルベースによる運動指令調整
上述した逆モデルベースの運動指令生成モジュール12により、軌道計画に従いかつ筋負担の小さい運動生成が可能となる。しかしながら、筋骨格モデル3は多自由度で複雑である。また、逆モデルベースの計算と力学的に矛盾をきたす可能性のある意志力を用いているため、軌道計画と生体力学的に妥当な運動の両立はこれだけでは困難である。
そこで、運動制御のモデルとして身体ダイナミクスの順モデルを考慮し、順モデルベースの運動制御のメカニズムを追加する。順モデルを用いることで、時間軸をある程度進ませた予見的な運動制御が可能となり、生体の巧みな動きを再現できる。
ここでは関節駆動モーメントに相当する状態変数vを仮定し、それによる運動規範ポテンシャルUfwd(v)を定義し、これを減少させるダイナミクスを次式(3.8)のように定義する。
ここで、n(u)は逆モデルにより求められた関節駆動モーメント、k5,k6は係数である。
運動規範ポテンシャルUfwdは、順モデルにより以下のようにして求める。先ず、関節駆動モーメント相当の状態変数vが与えられると、現時点(時刻t)での加速度を順モデルにより次式(3.9)のように推定できる。
この加速度から、時刻t+Δtの身体の運動変位と速度を、次式(3.10)(3.11)のような簡単な時間積分により推定できる。
これらより、時刻t+Δtにおける運動代表点の速度と位置を、次式(3.12)(3.13)のように推定できる。
上記f1,f2は身体構造の順運動学モデルにより関節変位・速度から運動代表点位置・速度を求める関数である。運動規範ポテンシャルUfwdは、順モデルより得られる予測運動代表点位置Ppreと軌道計画での軌道位置Pdesとの差異によって次式(3.14)のように定義される。
ここで、A2,A3は重み係数行列である。上式(3.14)は、先述した式(3.7)のような眼球運動との連成は考慮されていない。そこで、上式(3.14)に、視野判断モデルから出力される視認度(R値)を付加することで、身体運動と眼球運動との連成を実現した運動規範ポテンシャルを次式(3.15)のように定義する。
R値は目標物の視認度が向上するほど大きくなるが、運動規範ポテンシャルは最小化を図るため、R値は逆数をとる。
先述した式(3.4)や式(3.8)のような神経制御系のダイナミクスを考慮したのは、目標運動軌道の達成と筋負担などの最小化のように相反する運動目的を自律的に達成するためである。筋負担の最小化はすなわち最適化問題であり、その解法のためには一般的には繰り返しの探索計算が必要となる。これを上式(3.15)のようにポテンシャルとして表した目的関数を減少する方向に制御変数を時間変化させることで、運動の生成と運動目的の両立を繰り返し計算することなく自律的に達成できる。
一方、前述の式(3.4)および式(3.8)は、制御系としては1次遅れ特性を持ち、時間的な遅れが生じる。順モデルは、この時間遅れを補償する機能を有しているが、逆モデルだけでは実現困難な目標運動軌道の達成と筋負担などの最小化のような、相反する運動目的の両立を自律的に達成する機能をも有している。すわなち、逆モデルでは解消できない力学的な矛盾を順モデルによって解消することで、この相反する運動目的の両立が容易化できる利点がある。
最終的に身体力学系へ作用させる関節駆動モーメントnrealは、計算の収束性の補償と関節インピーダンスを考慮して、前述の式(3.8)の順モデルの状態変数vに減衰項を加えて次式(3.16)のようになる。
ここで、k7は係数である。この減衰項は、身体モデルとしては神経制御機構に基づくものであり、関節軟部組織による構造的な減衰特性は、次に示す筋骨格モデル3で別途定義する。
3.4 筋骨格モデル(身体力学モデル)
以上の運動制御モデルにより求められた関節駆動モーメントnrealを筋骨格モデル3に与え、順動力学計算を行うことで、身体動作を生成する。筋骨格モデル3は、既存の歩行シミュレーションモデル(Hase and Yamazaki, 2002)を拡張し、図4(a)に示すように、全身で20リンク、43関節自由度を持つ3次元モデルとしている。
すなわち、筋骨格モデル3は、頭部31、頸椎32、胸部(胸椎上部)33a、胸椎下部33b、腰椎34、骨盤35、左右脚部36を構成する大腿36a、下腿36b、足部36c、左右の鎖骨37a、左右腕部を構成する上腕37b、前腕37c、手部37dから構成されており、各関節は1〜3個の円筒(回転軸)で概略的に示されている。例えば上腕37bと前腕37cの間の肘関節は1個の円筒回りの曲げの1自由度、前腕37cと手部37dの間の手首関節は3個の円筒の組合せにより、前後および内外の曲げと捩じりの3自由度が表示されている。
実施例では、身体各節の質量や慣性モーメントなどの身体パラメータの値は、一般的な成人男性を想定したものを標準としているが、入力データ(シミュレーションデータ)の身長、体重の入力データに基づき、身体パラメータをスケーリングすることができる。また、各関節には関節軟部組織などの関節構造に起因する受動抵抗モーメントが作用する。これは非線形の弾性特性関数(山崎他,2006)と線形の粘性減衰とで規定される。
3.5 接触力の定義
身体とシート6とは基本的に面接触する。身体の皮膚組織は非線形な粘弾性特性を有し、さらに、シート6には、シートクッション61、シートバック62の何れにもクッション材が設けられ、粘弾性特性を有している。これらの特性を精密にモデル化するためには有限要素法などの計算方法が望ましいが、計算コストが大きく、また多数の物理特性値が必要となる。
そこで、本実施形態では、より簡便に接触力を表現するために、面接触、分布接触を仮定せず、図4(b)に示すように、それぞれの身体節(32〜36a)の複数の接触点に接触力が作用するものと仮定する。ここでは先ず、シートクッション61(座面)やシートバック62などの形状を複数の平面で表し、これを接触平面(61a,61b,62a,62b,62c)として定義する。身体節上に定義された接触点が接触平面よりも沈み込む場合、粘弾性要素を仮定し、接触点変位と接触点速度に応じた反力を返すようにする。また、摩擦を仮定し、接触面接線方向分力が摩擦力を超える場合、滑りが生じるものとする。
具体的には、接触面座標系を接触面上に原点、接線方向にx,y軸、法線方向にz軸(空間方向が正)のように定義し、これらに対して次式(3.17)(3.18)によって接触力を規定する。
ここで、式(3.17)は接線方向(xまたはy)の仮の分力、ks接線方向の弾性係数、cs粘性係数、[s]は接線座標(xまたはy)、[s0]は弾性要素の基準点であり、最初に接触面に接触点が接触した位置座標を[s0]として保持する。
zは法線方向分力,max0(x)はxが負の場合はゼロを返し、正の場合はそのままの値を返す関数、kz,czは法線方向粘弾性係数、eは非線形係数、[z]は法線座標、step(x,x0,y0,x1,y1)は不連続性を避けるために3次曲線で近似されたステップ関数、すなわち、変数xがx<x0の場合y0を返し、x1<xの場合y1を返し、x0≦x≦x1ではy0からy1の間を3次曲線で補間し、それに応じた値を返す。これは粘性係数を、接触点の侵入量によって変化させるための工夫である。すなわち、式(3.18)において[z]=0のとき粘性係数はゼロとなり、規定侵入量dより[−z]>dでは粘性係数がczになる。
接線方向に生じる摩擦力を求めるいくつかの代表的なモデルが知られているが、本実施形態では、簡易的に身体挙動を再現するために複雑な摩擦モデルは考慮せず、摩擦力に応じて接線方向弾性要素の基準点位置を更新することにより摩擦を表現するものとした。
すなわち,式(3.17)で求めた仮の接線分力の絶対値が摩擦力より大きい場合は動摩擦となり、接線方向分力は次式(3.19)で示される。
ここで、μは摩擦係数、sgn(x)は、xが負の場合−1を、正の場合+1を返す関数である。
また、式(3.17)で求めた仮の接線分力の絶対値が摩擦力以下の場合は静止状態となり、次式(3.21)で示されるように、粘弾性要素によって定められた仮の接線方向分力がそのまま接線方向分力になる。
シート6に接触する接触点位置は、身体形状とシート6との接触状態を考慮し、図4(b)に示すように、全身で24点を定義した。それぞれの接触点位置座標は、身体節(32〜36a)上の節座標で記述され、節座標上に固定されているものとする。なお、接触点としては、これら以外にも足部36cとフロア面との接触、ならびに手部37dとハンドル7の把持部にも定義する。
以上をまとめると、先ず、逆モデルベースの運動指令生成モジュール12において、目標姿勢と現在の姿勢との差異に応じた仮想的な力を考え、これを内部逆モデルに作用する意志力と規定する。この意志力を他の身体に作用する反力と同等の外力として扱い、逆モデルに与えれば,目標姿勢を実現する関節駆動モーメントを得ることができる。この意志力に摂動を与え、逆動力学計算によって意志力と身体に作用する外力から関節駆動モーメントを算出する。これを状態変数の数だけ繰り返す。
次に、順モデルベースの運動制御モジュール13において、関節駆動モーメントに摂動を与え、順動力学計算によって現時点での加速度を計算する。加速度を時間積分してΔt秒(例えば0.1秒)後の姿勢を推定する。推定姿勢から視野評価と目標姿勢との差異を算出する。これを状態変数の数だけ繰り返す。これにより、身体負荷最小化と見えやすさ最大化を行う関節駆動モーメントを決定する。
4.眼球運動モデル
生体力学モデル10には、図6に示されるように、前庭動眼反射モデル(VOR)41、追跡眼球運動モデル(Smooth Pursuit)42、サッカードモデル(Saccade)43の3つのモデルで構成された眼球運動モデル4が組み込まれており、それぞれが補完しあって眼球5を動かしている。以下、各眼球運動モデルについて図面を参照しながら説明する。
4.1 前庭動眼反射(VOR)
前庭動眼反射とは、頭部31または身体30が運動している際に、視線5bの方向を一定に保つ働きをする反射性の眼球運動である。すなわち、頭部31が回転すると、回転をキャンセルするように、回転方向と逆方向へ眼球5がスムーズに動く。前庭動眼反射のモデリングには既知のモデルを採用できる。本実施形態では、図7に示すようなMerfeldとHaslwanterらの前庭動眼反射モデル41を採用した。
この前庭動眼反射モデル41は大きく分けて、I:空間における動作(Movement in space)、II:耳石および半規管による伝達(Transduction by otoliths and canals)、III:内部処理(Internal processing)、IV:眼球動作生成(Eye movement generation)の4つのフェーズで構成されている。以下に各フェーズの詳細を示す。
I:空間における動作(Movement in space)
このフェーズは、頭部31への物理刺激つまり前庭系に対しての入力フェーズである。頭部31の運動は、次式(4.1)で示される並進加速度αと、次式(4.2)で示される角速度ωで表され、何れも3次元のベクトルであり、これら2つが前庭動眼反射モデルへの入力となる。
ここでg(ω)のブロック411は、現在時点での頭部31の傾斜によって生じた重力加速度ベクトルgを、角速度ベクトルωを用いて更新するものであり、以下の微分方程式(4.3)で表される。
半規管への入力は直接ωであり、耳石器官が知覚する物理量は並進加速度αによって生じた慣性力ベクトルと重力加速度gの合ベクトルfであり、次式(4.4)のように算出される。
II:耳石および半規管による伝達(Transduction by otoliths and canals)
このフェーズは、頭部運動をセンシングする耳石器官の伝達特性Sotoと半規管の伝達特性Ssccを表している。
耳石器官は水平面に対して約30度上向きに傾いており、後方向および下方向に重力によって引っ張られていると考えられている。この特性を考慮して、ブロック412で示される耳石器官の伝達関数Sotoは、単位行列とz軸方向への一定の力を加え、次式(4.5)で示される。
ブロック413で示される半規管の伝達関数Ssccは、3×3の対角行列であり、その要素は全て次式(4.6)で与えられる。ここでτd、τaはそれぞれ時定数である。
このように、慣性力方向加速度αと重力加速度gの合ベクトルfには耳石の伝達特性Sotoが考慮され、角速度ベクトルωには、半規管の伝達特性Ssccが考慮され、それぞれが中枢神経系へ伝達される感覚情報αoto、αsccとなる。
III:内部処理(Internal processing)
このフェーズは、中枢神経系が感覚器官(耳石と半規管)から伝達された感覚情報を知覚情報へ処理するフェーズであり、身体と感覚器官の内部モデルが含まれていると仮定している。これら内部モデルの感覚情報の推定値と実際の感覚情報との誤差をフィードバックすることで、認識している情報と実際の情報の差を小さくする構造になっている。
感覚器官の内部モデル(耳石と半規管)の伝達関数は、何れも3×3の対角行列であり、その要素は次式(4.7)および(4.8)で示される。
内部モデルによって推定された慣性力方向加速度と重力加速度の合ベクトルf^はブロック414を経て耳石の感覚情報の推定値α^otoとなり、内部モデルによって推定された角速度ベクトルω^はブロック415を経て半規管の感覚情報の推定値α^sccとなる。
半規管の内部モデルのループ部分のブロック416(dump)は眼球の減衰特性を表しており、次式(4.9)の非線形関数で示される。
ここで,a,bは係数,引数ωはベクトルではなく、ベクトルのノルムを用いる。
これらのループを経て、並進加速度と角速度の推定値α^、ω^をそれぞれ算出する。
ブロック417(X)は外積を表しており、耳石の感覚情報αotoと内部モデルによる推定値α^otoのそれぞれの正規化ベクトルの外積をとることによって回転情報に変換され、方向の違い、すなわち耳石の感覚情報と耳石の内部モデルの感覚情報の推定値の誤差信号を表しており、身体の内部モデルへフィードバックされ、さらに半規管の内部モデルループへ伝達され、耳石と半規管の相互作用を表している。これら耳石と半規管の相互作用により、頭部の並進加速度と重力加速度とが区別して知覚され、前庭系の情報から頭部の姿勢を認識することができる。例えば、床に仰向けになった状態では、重力加速度により耳石は後方に引っ張られ、したがって頭部後方向に加速度が加わるが、それを並進加速度と知覚しない。
ブロック418は、身体の内部モデルを表しており、重力加速度ベクトルの推定値g^を算出する。
IV:眼球動作生成(Eye movement generation)
このフェーズでは、知覚された並進加速度α^と角速度ω^を用いて、前庭動眼反射の眼球への運動指令ωVORを算出する。前庭動眼反射VORの運動指令ωVORは、回転成分の要素である回転VORと並進成分の要素である並進VORで構成されており、両者を加算することで算出される。
知覚された角速度ベクトルω^はゲインによって反転され、回転VORの運動指令ωR-VORとなる。知覚された並進加速度ベクトルα^は、漏れ積分回路419(Leaky Integrator)で並進速度ベクトルに積分され、目標視線方向を用いて角速度ベクトルに変換された後、ハイパスフィルタ420を経て並進VORの運動指令ωT-VORとなる。
並進速度による角速度ω^Vは目標視線の位置ベクトルdを用いて次式(4.10)のように算出できる。
ハイパスフィルタ420の伝達関数は、次式(4.11)で示される。
以上が前庭動眼反射モデル41の詳細である。このモデルは伝達関数など周波数領域で計算がなされているが、本実施形態では、この前庭動眼反射モデルを時間領域に変換し、18個の一階常微分方程式を含む数式モデルとした。なお、変数は3次元のベクトルであるので、6種類の微分方程式×3となっている。以下に数式を示す。
αsccは、媒介変数αscc2、αscc21、αscc22を用いて次式(4.12)の微分方程式で解ける。
ここで,これら媒介変数αscc2、αscc21、αscc22の関係は次式(4.13)の通りである。
αoto、α^otoは、伝達関数がそれぞれ定数の対角行列であるので、信号の流れの関係から次式(4.14)〜(4.16)のようになる。
αoto、α^otoの誤差信号efは、正規化ベクトル同士の外積であるので、次式(4.17)で表される。
「dump」は次式(4.18)に示すとおりである。

ここで、dump(ω)はベクトルのノルムを変数とする関数なのでスカラーである。
ω^は信号の流れから、またα^sccの媒介変数α^scc2を用いて次式(4.19)のようになる。

なお、α^sccとα^scc2の関係は後に示す。
ω^dは単純に定数倍であるため、次式(4.20)で示される。
α^sccは、媒介変数α^scc2を用いて、次式(4.21)の微分方程式で解ける。
また、α^scc、α^scc2の関係を次式(4.22)に示す。
g^は次式(4.23)および(4.24)の微分方程式で解ける。
α^は次式(4.25)で表され、v^は漏れ積分回路(Leaky Integrator)によりα^の積分であるため、次式(4.25)〜(4.27)の微分方程式で解ける。
ωT-VORは媒介変数ωT-VOR2を用いて次式(4.28)の微分方程式で解ける。
また、ωT-VOR、ωT-VOR2の関係を次式(4.29)に示す。
ωR-VORは、ω^に単純にゲインをかけ、反転させたものなので、次式(4.30)で表される。
最終的に前庭動眼反射の出力ωVORは、これらωT-VOR、ωR-VORの加算として次式(4.31)で表される。
なお、式変形の方式および順番は、コンピュータで微分方程式を解く関係から上記のような形とした。以上示したように、前庭動眼反射モデル41を時間領域における数式モデルとして扱うことで、本実施形態において適応可能な形式となる。
4.2 追跡眼球運動(Smooth Pursuit)
追跡眼球運動は、ゆっくりと移動する視覚対象に視点を追従させているときに生じる滑らかな眼球運動である。運動を起こす刺激は、動いている対象物の速度であり、対象物と眼球運動速度を一致させることにより、対象物を網膜上に保持する随意性の運動である。速い動きには追従することができず、50deg/sほどまでしか滑らかに追従できないが、指標の軌跡が予測できるような場合は、90deg/s程度まで追従させることができる。
本実施形態では、追跡眼球運動をモデリングするに当たり、Robinsonらのモデルを採用した。この追跡眼球運動モデル42は、目標速度を入力とし、それを追従する眼球速度を出力する。3つのフィードバックループで構成されており、追跡眼球運動の遅延特性を考慮し、各所に時間遅れ定数を介している。なお、この追跡眼球運動モデル42についても前庭動眼反射モデル41と同様に信号は3次元のベクトルで扱い、各要素はそれぞれ同じ処理がなされる。追跡眼球運動モデル42のブロック線図を図8に示す。
4.2.1 CNS(Central Nervous System)付近
ここでは、実際の追跡眼球運動による眼球角速度(Eの時間微分)と、追跡眼球運動による眼球角速度の遠心性コピーである追跡眼球運動指令がそれぞれフィードバックされてくる。ターゲットの角速度と眼球角速度の誤差信号とフィードバックされてきた追跡眼球運動指令によって、中枢神経系への目標角速度のコピー、すなわち、ターゲットの角速度の知覚情報が再形成される。数字で示すブロックはそれぞれその数字(msec)の時間遅れを表している係数であり、τ1、P2もそれぞれ時間遅れを表している係数である。
ブロック421(Plant)は眼筋と眼窩組織、ブロック422で示されるCP(Central Processing)は中枢神経系の伝達特性をそれぞれ表しており、それぞれ次式(4.32)、(4.33)の伝達関数で表される。
ここで、τe2はPlantの時定数、τcはCPの時定数である。
これらのブロック421,422による処理を経て、ターゲットの角速度の知覚情報は目標眼球角速度となる。
4.2.2 PMC(Premotor circuity)
ここは運動前野回路を表している。目標眼球角速度が入力され、現時刻での眼球角速度の運動指令を出力する。眼球角速度の運動指令はフィードバックされ、目標眼球角速度との比較が行われ、誤差信号を形成し、眼球角速度の運動指令を目標値へ近づける働きを担う。ここで、誤差信号は、目標眼球角速度の変化に比例し、したがって、目標眼球角加速度にも比例することを意味する。この誤差信号は、ブロック423(AS;Acceleration Saturation)を経て目標眼球角加速度となる。ブロック423(AS)は加速度飽和を処理する部分であり、閾値より大きい場合と小さい場合に分けて次式(4.44)で表される。
ブロック423(AS)によって算出された目標眼球角加速度は、時間遅れ定数τ2を経て、ブロック424(NI;Neural Integrator)で積分されることで眼球角速度の運動指令となる。ブロック424(NI)は次式(4.45)で示される。但しAは係数である。
4.2.3 眼球角速度出力部分付近
PMCで算出された眼球角速度の運動指令は、時間遅れ定数P1およびブロック425(VS;Velocity Saturation)を経て、遅れを伴った眼球角速度の運動指令となる。しかし、ブロック425(VS)は90deg/s未満では影響がない。実際に追跡眼球運動においては90deg/sを超える眼球角速度は考え難い。したがって、ブロック425(VS)の処理は行っていない。遅れを伴った眼球角速度の運動指令は遠心性コピーとしてCNSにフィードバックされると同時に、ブロック426(Plant)を経て眼球角速度となる。ブロック426(Plant)の伝達関数は、ブロック421(Plant)に係る式(4.32)にゲインを掛けたものである。
以上が追跡眼球運動モデル42の詳細である。なお、このモデルも前庭動眼反射モデル41と同様に周波数領域でのモデルであるため、本実施形態に適応可能な時間領域に変換し、12個の一階常微分方程式を含む数式モデルとした。但し、信号は3次元のベクトルであるので、4種類の微分方程式×3となっている。以下に数式を示しておく。
目標眼球角速度および眼球角速度の運動指令は、後述のように共に微分方程式の変数であるので、コンピュータで微分方程式を解く関係上、先ず、これらを用いてPMCのフィードバックループの部分が初めに解ける。誤差信号は次式(4.46)のようになる。
次にブロック423(AS)によって目標眼球角加速度が次式(4.47)のように求まる。
ブロック424(NI)による目標眼球角加速度の積分は次式(4.48)の微分方程式で解け、眼球角速度の運動指令が求まる。
先述したように、ブロック425(VS)は処理しないため、単純に次式(4.49)で表される。
眼球角速度とその運動指令のCNSへのフィードバック部分は次式(4.50)の微分方程式でそれぞれ解ける。
ここで、ダーゲットの角速度と眼球角速度の誤差信号、および、ダーゲットの角速度の知覚情報は、次式(4.52)および(4.53)でそれぞれ求まる。
ダーゲット角速度の知覚情報が求まったので、目標角速度は次式(4.54)の微分方程式で解ける。
なお、先述したように、式変形の方式および順番は、コンピュータで微分方程式を解く関係から上記のような形とし、以上示したように、追跡眼球運動モデル42を時間領域における数式モデルとして扱うことで、本実施形態において適応可能な形式となった。
4.3 サッカード(Saccade)
サッカードは、随意的に対象物を見ようとして注視点を移動させる際にみられる急速な眼球運動である。サッカードは,一旦眼球運動が起こると、そのサッカードが終わるまで随意的に停止することができないという特徴がある。運動の速度は眼球の回転角度に依存しており、随意的に調節できず、持続時間は振幅に比例して増加する。また、最大速度も運動の振幅に比例して増出して700deg/s程度にまで達するが、10〜20度の振幅では350〜500deg/s程度である。
サッカードをモデリングするに当たり、Tweedによるサッカードモデルを採用した。入力としては、眼球座標系で記述されたターゲットの位置、すなわち視線誤差であり、この視線誤差を最小化するように、眼球5及び頭部31をサッカードの運動則に従い駆動させることでサッカードを実現しているモデルである。なお、このモデルの変数は、主にクォータニオンで扱うことも特徴であり、4×4のクォータニオン行列で表される。このサッカードモデル43のブロック線図を図9に示す。以下、各計算方法について説明する。
4.3.1 視線比較器
このサッカードモデル43は、眼球座標系で記述されたターゲット位置Te、すなわち視線誤差を入力とし、これを眼球座標系とターゲットの姿勢が一致するように変化させる。その変化則は、ターゲット位置Teと眼球座標系で記述した空間に対する眼球5の角速度ベクトルωeseとの外積で、次式(4.55)の微分方程式で表される。なお、ωeseは、そのままの形ではなく、この変数を利用可能な形に変換する。
ここで,クォータニオンqehは頭部座標系における眼球姿勢であり、ωhshは頭部座標系における頭部31の空間に対しての角速度ベクトルである。並置されたωhshehはベクトルとクォータニオンのクォータニオン積であり、ベクトルはスカラー部要素を0としたクォータニオンとして扱う。
4.3.2 Dondersと頭部パルス生成器Ph
先ず、ブロック431(Donders)で目標頭部姿勢が次式(4.56)〜(4.58)から求められる。
式(4.56)は空間座標系における頭部姿勢qhを用いて、頭部座標系における眼球姿勢qehを空間座標系における眼球姿勢qesに座標変換している。次に、眼球姿勢qesを用いて眼球座標系におけるターゲットTeを空間座標系におけるターゲットTsに座標変換している。このTsを用いDondersを経て目標頭部姿勢を算出する。
ブロック431(Donders)の役割は、ターゲットを見やすい頭部姿勢を定義することである。通常、頭部31は矢状面上より水平面上の方が回転しやすい傾向にあるとされており、これらの要素を考慮した、ターゲット方向からターゲットを見やすい頭部姿勢への変換則をDonders則として、次式(4.59)〜(4.61)の3ステップで定義している。
ここで、i、j、kはそれぞれ座標系の3つの軸方向に沿った単位ベクトルであり、iは前方、jは左方向、kは上方向を指している。x2、x3はそれぞれベクトルxのj軸に沿った要素、k軸に沿った要素であり、「・」は内積を表している。
式(4.59)について、−Tsとiのクォータニオン積はクォータニオン平方根がとられる。クォータニオン平方根とは、例えばpがqのクォータニオン平方根である時、クォータニオン積pp=qが成り立つ。ここで、pの回転軸はqと等しいが、回転の振幅が半分であるという特性がある。従って、クォータニオンxの意味するところは、ターゲットに対してi方向をとることによって最短回転を表している。
上式(4.60)で係数δT、δV、δHでスケーリングし、算出されたyを用いて目標頭部姿勢が求まる。
次に、頭部パルス生成器432について、頭部31は頭部姿勢qhの時間変化(時間微分)、つまり速度指令で制御され,次式(4.62)の関数で算出される。
ここで、Vqはクォータニオンのベクトル部をとる関数であり、vと表しなおすと、Phは次式(4.63)で定義される。
パルス生成器432は通常指数関数で定義されることが多いが、ここでは、簡単化のため近似式を用いている。ここで、式(4.62)で表される頭部姿勢の時間変化は、クォータニオン速度であり、角速度ベクトルではない。角速度ベクトルとクォータニオン速度の関係は次式で表される。
4.3.3 Listing
ブロック433(Listing)は、ターゲットTsから頭部座標系における目標眼球姿勢を算出する部分であり、次式(4.64)で表される。
ブロック433(Listing)の関数への引数は、頭部31が目標頭部姿勢となった際のターゲットの相対位置方向を表している。ブロック433(Listing)では先ず引数とgvのクォータニオン積を行う。gvは頭部座標系における主要な視線方向を表しており、gvはiとしている。その後、クォータニオン平方根がとられ、頭部座標系における目標眼球姿勢が求められる。
4.3.4 眼球飽和と眼球パルス生成器
眼球には有効眼球運動範囲(EOMR)があり、サッカードにおいてもその影響を考慮する必要がある。可動限界を超えるところにターゲットが位置している場合、眼球を飽和状態とする、すなわち、目標眼球姿勢をEOMR内にしなければならない。これらのプロセスは次式で示される3ステップで行われる。
先ず、空間座標系における目標眼球姿勢を求める。式(4.65)は目標頭部姿勢に対しての目標眼球姿勢を示しており、その後、現時点での頭部姿勢qhを用いて、現時点での頭部座標系における目標眼球姿勢を式(4.66)で算出する。
ブロック434(Sat)は、過度に偏心した現時点での目標眼球姿勢をEOMR内に投影する。すなわち、式(4.67)で示される有効目標眼球姿勢は、図10の模式図に示されるようにEOMRの境界線上に位置することになる。
ブロック434(Sat)のプロセスは次式(4.68)に示す通りである。
現時点での目標眼球姿勢qeh +の二乗水平垂直偏心αがEOMRの半径radius(=sin(40°/2))の二乗より大きいとき、係数がa,b,cである二次方程式を解くことで、qeh +をEOMRの水平垂直面に投影する。投影された点は、ここではまだ、捩じり方向の次元に対してEOMR外にあるため、次にねじり要素の有効許容値を定めている。signumは引数が正であれば1、負であれば−1、0であれば0を返す関数である。最後の行の式はqeh sをベクトルから単位クォータニオンに変換しており、これがブロック434(Sat)の出力となる。
次に、算出された有効目標眼球姿勢qeh sは、眼球パルス生成器435(Pe)で速度指令となる。眼球パルス生成器435(Pe)は、Phと同様に次式(4.69)および(4.70)で示される。ただし、v=qeh seh -1である。
4.3.5 VOR Shutoff
前庭動眼反射(VOR)は反射性の眼球運動であるので、サッカードによる眼球運動へも影響が及ぶ。すなわち、サッカードが生じる際には、前庭動眼反射(VOR)も共に発動しているが、何らかの信号によりシャットアウトされ、サッカードによる眼球運動が支配的になるという特性を持っている。ここでは現時点での頭部座標系における眼球の誤差信号により前庭動眼反射(VOR)がシャットアウトされると仮定している。
なお、ここでいう「VOR」は、サッカード中におけるVORの干渉部分のみを考慮したものであり、先述した前庭動眼反射モデル41(VOR)とは別物である。
ブロック436においてVORの干渉信号は次式(4.71)で処理される。
ここで、Mは3×3行列、Iは3×3の単位行列、uuTは列ベクトルuとその転置の行列積による3×3行列である。xは現時点での眼球飽和させていない頭部座標系における眼球運動誤差信号であり、Cは係数でcos(A/2)と定義され、AはVORシャットオフの閾値である。もし、誤差信号がAを超える場合は、VORは完全にシャットオフされる。そして眼球運動誤差信号はAから0に収束する。すなわち、スカラー部x0はCから1に収束する。その後VORは徐々に回復する。ブロック436の処理により、VORの影響を受けたサッカードの眼球運動を表現している。
最終的にサッカードの頭部座標系における眼球速度指令は、有効眼球運動範囲を考慮した眼球速度指令と、ブロック436を経たVORの干渉眼球速度指令の和により次式(4.72)で算出される。
5.眼球運動モデルおよび筋骨格モデルの統合
上述した3つの眼球運動は、その指標(ターゲット)や頭部運動などの条件によって適切に選択され、補間し合いながら指標を正確に視認するための最適な眼球運動がなされる。したがって、眼球運動モデル4を構築する上でもこれらの眼球運動モデルを統合し、最終的な眼球運動が生成されるようにし、その上で筋骨格モデル3と総合する。
基本的には、図6に示すように、前庭動眼反射モデル41には、頭部31の加速度と角速度が入力され、前庭動眼反射による眼球角速度ωVORが出力され、追跡眼球運動モデル42にはターゲットの速度、サッカードモデル43にはターゲットと目線の誤差が入力され、追跡眼球運動による眼球角速度ωSmPu、サッカードによる眼球角速度ωSacが出力される。そして、これらが統合され、最終的な眼球角速度ωeyeが出力されるが、これら各眼球モデル41,42,43は単純な加算関係ではない。そこで、各眼球運動モデルの特性を考慮するとともに筋骨格モデル3(31)まで統合したモデルのブロック線図を図11に示す。
先ず、サッカードモデル43は、眼球座標系における視標方向の単位ベクトル、つまり網膜上の指標との誤差を入力としているため、時間の次元を持っていない。したがって、単純な加算ではシミュレーション時間内においてサッカードが必要な時にサッカードを発生させるといったことが実現できない。そこで、図11では、サッカードモデル43のブロックにたどり着くまでの過程にサッカードが発動する条件を定義し、サッカードの発生をコントロールできるようにしている。
すなわち、サッカードモデル43の入力側に所定の条件でONになるスイッチ44を定義し、生体モデル10の起動時にはスイッチ44をOFFにして、サッカードの入力となる視線誤差を全くない状態としておき、サッカードモデルの計算を行う。そうすることで、サッカードモデル43の出力は常に0となり、最終的な眼球角速度に影響を及ぼさない。
生体モデル10における視認目標点の取得、初期姿勢の生成など、所定の条件が満たされ、スイッチ44がONとなった場合、その時点での視線誤差の値がサッカードモデル43に入力され、眼球角速度ωSacが出力される。スイッチ44がONになる条件は2つあり、それぞれ、
Sac_trg == ON && Sac_flg == OFF
である。Sac_trgはサッカードの入力トリガ、つまり頭部座標系における視標角速度ベクトルのノルムがあるしきい値を超えたときにONになるトリガである。対して、Sac_flgはサッカードによる眼球各速度指令が1.0(deg/s)以上、つまりサッカード発生中にONになるフラグである。
このようなフラグを設定した理由としては、トリガのみでは、サッカード発生中に入力トリガがONになる条件になればサッカード運動が更新されてしまい、本来のサッカード運動と整合性が取れなくなるためである。指標が離散的となる瞬間は1ステップであり、フラグはその次のステップでONになるため、トリガは1ステップのみONになる。
本発明実施形態に係る視認性評価システム1は、車両のコクピット前部に配設されるインストルメントパネルの3DCADデータを評価対象データ2とし、生体力学モデル10を利用して視認目標点20を視認するための確認動作のシミュレーションを行うものであり、図2および図3に示すように、生体力学モデル10の初期姿勢において、筋骨格モデル3はシート6に着座し、手部37dでハンドル7を把持しており、頭部31は車両前方を向き、眼球5の視線5aは水平前方に向けられている。
このような生体力学モデル10の初期姿勢におけるシミュレーションの開始時には、サッカードモデル43のスイッチ44はOFFになっており、視認目標点20の座標(目標座標)が眼球運動モデル4に取得された時点でスイッチ44がONになる。それに伴い、サッカードモデル43に初期状態の眼球姿勢と目標座標の視線誤差が入力され、この視線誤差を最小化するように眼球5が駆動され、図2および図3に示すように、右下方に視線5bが移動するとともに、視線方向に適合するように、すなわち、視線方向と頭部姿勢の誤差を最小化するように、頭部31が右方向に回転する。
この際、先述したように、頭部31が上下方向より水平方向に回転しやすい傾向を反映させるブロック431の処理により、下方には回転しないか、もしくは、部分的な回転のみがなされる。このようなシミュレーションの開始時の眼球運動に伴い、サッカードモデル43から発せられる能動的な頭部運動指令は、後述のように、逆モデルベースの運動指令生成に取り込まれる。
次に、追跡眼球運動については、追跡眼球運動モデル42の入力側に、前庭動眼反射モデル41の出力の減算、SMA45、および、ローパスフィルタ46の3つの処理が追加されている。
(SMA(単純移動平均)について)
追跡眼球運動はターゲットの滑らかな動きを追従する運動であるため、パルス入力のようなものには対応できない。追跡眼球運動で対応できないような入力はサッカードがはたらくのだが、サッカードがはたらいているときに追跡眼球運動モデル42への入力、もしくは追跡眼球運動モデル42からの出力を0にしてしまうと、サッカードが終わった後も不安定な挙動を示してしまう。
そこで、サッカード発生中の入力を0にするのではなく、滑らかに補間する方法として単純移動平均(SMA)を用いている。すなわち、サッカードのフラグでONになるスイッチ47を追加し、SMA45に切替えることにより、パルス的な入力が平滑化され、追跡眼球運動モデル42には、パルス的な入力がなかったのと同義になり、離散的な入力に対してはサッカードモデル43、滑らかな入力に対しては追跡眼球運動モデル42という役割分担が行われる。
(前庭動眼反射出力の減算について)
頭部の運動に対する眼球運動の補間は、前庭動眼反射モデル41によって行われるが、これにより追跡眼球運動モデル42の入力となる頭部座標系におけるターゲットの角速度は、頭部運動の影響を受ける。
例えば、頭部31が外乱を受けて高周波で振動している場合、その振動がターゲットの角速度に影響し、本来追従できない高周波帯の入力信号となり、必要以上の眼球角速度を出力してしまう。そのため、頭部が高周波で振動する際に、追跡眼球運動モデル42への高周波入力を遮断する必要がある。
そこで、追跡眼球運動モデル42と前庭動眼反射モデル41の間に、前庭動眼反射の眼球速度信号の遠心性コピーを伝達する経路が存在し、追跡眼球運動モデル42はその前庭動眼反射の眼球速度信号を用いて、指標速度入力の高周波成分を除去していると仮定した。前庭動眼反射モデル41の出力は、頭部の揺れをキャンセルするような眼球角速度であるため、単純に指標速度入力から前庭動眼反射モデル41の出力を減算すれば高周波成分を除去することができる。
(ローパスフィルタについて)
上記のように前庭動眼反射モデル41の出力を減算することによって、本来追跡眼球運動で追跡すべき視標角速度の低周波成分が明確になるため、この信号に対してローパスフィルタ46をかけることによって、高周波成分を除去した入力信号のみが追跡眼球運動モデル42に入力されることになる。
(サッカードによる位置誤差の修正)
以上のような処理を行うことによって、頭部が振動した状態やサッカードがはたらいた状態でも各眼球運動モデルが補完しあって視標を追従できるが、フィルタ処理などの影響で位相ずれやオーバーシュートが起きる場合がある。追跡眼球運動モデル42は速度誤差に基づいて制御を行うので,位置誤差に対しては反応できない。
そこで、位置誤差を入力とするサッカードモデル43を用いて、指標と視線の位置ずれを修正することができる。例えば、先述のトリガとは別のトリガを定義し、眼球座標系における視標の位置ベクトルの長さがしきい値(例えば0.1m)より大きくなった場合にサッカードモデル43がONになるようにする。
6.眼球運動モデルと筋骨格モデルの統合
図11のブロック線図において、眼球運動モデル4からの出力は、大きく分けて、眼球の角速度ωeyeと頭部への角速度指令ωhaがある。以下、それぞれの出力に基づいた眼球運動と身体運動との連成メカニズムについて説明する。
6.1 眼球運動モデルからの頭部角速度指令
追跡眼球運動モデル42とサッカードモデル43から出力される頭部31への角速度指令は加算され、頭部31の眼球運動に伴う能動的な角速度指令ωhaとして、筋骨格モデル3の頭部31に入力される。したがって、この運動指令ωhaを目標値とし、意志力として逆モデルの計算に取り込むことで、眼球運動に伴う能動的な頭部運動を生成できる。
これらは回転運動であるため、意志モーメントとして次式(6.1)で算出される。
したがって、筋骨格モデル3の頭部31は、身体30の運動に応じた姿勢保持のための運動指令に加えて、眼球運動モデル4による能動的な頭部運動指令の生成を行うことが可能となる。
身体運動(30)に対する受動的な頭部運動(31)、および、眼球運動(4)に伴う能動的な頭部運動に基づいて筋骨格モデル3の頭部31からは前庭動眼反射モデル41への入力となる加速度、角速度など頭部運動が得られる。しかし、このままでは、他の眼球運動モデル42,43により動作する頭部運動分に対しても前庭動眼反射が起こり、所望の視線回転方向をキャンセルしてしまうことになる。
そこで、他の眼球運動42,43から発せられた能動的な頭部運動指令の遠心性コピーが前庭動眼反射モデル41に伝達されると仮定することで、実際の頭部運動から能動的な頭部運動を除いた分のみに対して、つまり受動的に発生した頭部運動のみに対して前庭動眼反射が起こり、能動的な頭部運動への干渉が回避される。
6.2 眼球の角速度
次に、眼球運動モデル4から眼球5に出力される角速度ωeyeは、その大きさがそのまま眼球運動の運動負荷に相当する。したがって、筋骨格モデル3の式(3.7)に示した眼球運動負荷feyeを次式(6.2)のように定義することができる。
ここで、ωeyeはベクトルのノルムを用い、Tgは眼球座標から見たターゲットの位置ベクトル、exは眼球座標のx軸ベクトル(ex=(1 0 0)T)、λは重み係数である。
上式(6.2)の第一項は眼球運動を抑制する機能を有し、第二項はできるだけ注視点近くでターゲットを捉えるようにする機能を表している。この眼球運動負荷feyeを、先述した逆モデルベースの運動指令生成における式(3.7)に示すように、身体運動負荷に加えることで、眼球運動と身体運動の連成運動を生成可能となる。
7.視認性評価システムの処理フロー
以上述べたように、本発明に係る評価システム1は、生体力学モデル10を利用して評価対象データ2における視認目標点20の確認動作のシミュレーションを行い、確認動作の容易性(負担度)を考慮した視認性を評価するものであり、図12は、実施形態に係る評価システム1の処理フローを示すフローチャートである。
また、先述したように、評価システム1は、独立して動作しながら連成する生体力学モデル10と視野判断モデル50から構成されており、図13は、実施形態に係る評価システム1の処理フローを、生体力学モデル10における処理(確認動作シミュレーション)と視野判断モデル50における処理(視認性判断)に分けて記載している。図14は、図13に対応し、生体力学モデル10と視野判断モデル50におけるデータの受け渡しを示しており、図13の処理の一部の符号を併記している。
図12において100番台で示された各ステップの符号の下2桁は、図13において200番台および300番台で示された各ステップの符号の下2桁に対応しており、以下、図12、図13を併用して評価システム1の処理フローについて説明する。
視認性評価に際しては、先ず、評価システム1を構成するコンピュータが起動し、シミュレーションを統括するメインプログラム(1)とデータベース8が起動している状態で、生体力学モデル10および視野判断モデル50が起動される(ステップ100,200,300)。
次いで、シミュレーションデータ80の入力情報に従って、所定の評価対象データ2が視野判断モデル50の3Dデータ空間に読み込まれ、評価対象データ2の視認目標点20が生体力学モデル10に取得される(ステップ101,201,301)。
次いで、視野判断モデル50において、評価対象データ2の視認目標点20にグラデーション球21が設定される(ステップ102,302)。グラデーション球21自体のデータは予め視野判断モデル50に用意されており、グラデーション球21の中心座標が視認目標点20に設定される。
次いで、シミュレーションデータ80から姿勢情報が読み込まれ、生体力学モデル10の筋骨格モデル3および眼球運動モデル4に初期姿勢が生成され、視野判断モデル50の人体モデル53に初期姿勢が反映されるとともに、カメラ55の初期位置が取得される(ステップ103,203,303)。この状態でカメラ55より視野画像が取得され、視認度の初期値R0が算出される。
以上のような準備を経て、摂動/挙動プロセスに移行すると、先ず、逆モデルベースの運動指令生成モジュール12および順モデルベースの運動制御モジュール13において、それぞれの状態変数が算出される(ステップ110,210,310)。
次に、運動指令生成モジュール12における逆動力学計算によって関節駆動モーメントが算出され、さらに、運動制御モジュール13における順動力学計算によって加速度が計算され、加速度を時間積分して単位時間(実施例では0.1秒)後の姿勢が推定される。このようにして生体力学モデル10に摂動を与え、得られた姿勢情報(骨格リンク姿勢、眼球姿勢、何れもクォータニオン)、および、身体力学系へ作用させる関節駆動モーメント(身体負荷)が負担度Bとして、状態変数と共に摂動データ82に格納される(ステップ111,211)。
さらに、上記摂動により得られた姿勢情報は視野判断モデル50の人体モデル53およびカメラ55に反映され(図13、ステップ311)、カメラ55に取得された視野画像のR値の合計として視認度Rが算出され(ステップ112,312)、摂動データ82に格納される。
上記のような摂動プロセスが状態変数の数だけ繰り返され、全ての状態変数の摂動が与えられると(ステップ113,213)、挙動プロセスに移行する。
先ず、摂動プロセスにおいて負担度Bおよび視認度Rが取得された各状態変数の中から、最小負担度Bmin(身体負荷最小化)と最大視認度Rmaxとなる状態変数が算出され、対応する関節駆動モーメントが決定される(ステップ120,220)。
次いで、決定された状態変数および関節駆動モーメントによって生体力学モデル10(筋骨格モデル3および眼球運動モデル4)が実際に駆動され、挙動による姿勢が生成され、挙動データ81に姿勢情報(骨格リンク姿勢、眼球姿勢、何れもクォータニオン)が格納される(ステップ121,221)。
さらに、上記挙動による姿勢情報が視野判断モデル50の人体モデル53およびカメラ55に反映され(図13、ステップ321)、カメラ55に取得された視野画像のR値の合計として視認度Rが算出され(ステップ122,322)、挙動データ81に格納される。また、人体モデル53の姿勢情報がキーフレームに登録される(図13、ステップ324)。
これと並行してデータベース8において、当該挙動プロセスを含めた負担度Bの積算値が算出され、上記視認度Rを参照して、負担度B(積算値)を考慮した易視認性が算出される(ステップ222)。
次いで、視認度Rが予め設定した閾値と比較され(ステップ130,230,330)、閾値に到達していないと判断された場合は、上述したような摂動/挙動プロセスが繰り返される。
視認度Rが予め設定した閾値以上となった場合は、生体力学モデル10によるシミュレーションは終了され、当該視認度Rと、最終挙動プロセスにおいて算出された負担度B(積算値)を考慮した易視認性評価が、当該シミュレーション(試行No)における結果として、シミュレーションデータ80に記録される(図13、ステップ231)。
同時に、視野判断モデル50では、最終挙動プロセスまでに登録されたキーフレーム(実施例では0.1秒間隔、10fps)のデータに基づいてレンダリングが実行され、評価映像が作成される(図13、ステップ331)。
なお、レンダリングに際しては、キーフレーム間の身体運動は動画作成機能により補間される。また、評価対象データ2(インストルメントパネル)や人体モデル53の表面情報が反映されるようにするか、または、グレースケールなどにして視認目標点20の位置が明確になるようにしても良い。カメラ55(人体モデル53)による視野映像のほかに、人体モデル53の斜後上方など適宜位置に設定した外部視点からの映像を作成できる。
上記実施形態の摂動プロセス(ステップ111〜112、211、311〜312)において、生体力学モデル10に得られた姿勢情報を1回の摂動ごとに視野判断モデル50の人体モデル53およびカメラ55に反映し、視野画像から視認度Rを算出する代わりに、生体力学モデル10にて全ての(または一部の)状態変数分の姿勢情報を取得してから視野判断モデル50に一括して転送し、視野画像取得および視認度R算出を行うようにすることもできる。
また、上記実施形態の摂動プロセス(ステップ111〜112、211、311〜312)では、生体力学モデル10に状態変数の数だけ摂動が与えられる場合について述べたが、状態変数よりも少ない複数回の摂動を与えることによって、最小負担度Bmin(身体負荷最小化)と最大視認度Rmaxとなる状態変数を推定し、挙動のための関節駆動モーメントを決定するようにすることもできる。
また、上記実施形態では、視認度Rが予め設定した閾値以上となるまで摂動/挙動プロセスが反復される場合について述べたが、摂動/挙動プロセスの反復回数(または反復時間)に上限を設け、予め設定した所定回数(所定時間)に達した時点で生体力学モデル10によるシミュレーションが終了するようにすることもできる。
一方、摂動/挙動プロセスの反復による視認度Rの向上により、運動指令生成モジュール12に算出される関節駆動モーメントが漸減し、運動制御モジュール13に算出される加速度が漸減することにより、何れかの状態値(またはその変化率)が設定以下になった時点で、生体力学モデル10による確認動作が自律的に収束したと見做してもよい。
上記実施形態では、生体力学モデル10において、初期姿勢から1つの視認目標点20の確認動作をシミュレートする場合を示したが、複数の視認目標点を順に確認する動作をシミュレートして総合的な視認性を評価することもできる。
本発明の好適な態様において、前記視野判断モデル(50)は、仮想3D空間に前記視認目標点を放射状に拡大した透明な立体であって、前記視認目標点からの距離に応じて特定ピクセル情報値のみを減少または漸減させたグラデーション立体を定義し、前記視認度として、前記視野画像における前記特定ピクセル情報値の合計を算出するように構成されている。
本発明の好適な態様において、前記グラデーション立体は単一の色調を有し、前記特定ピクセル情報値は前記単一の色調の輝度であり、前記グラデーション立体は、中心側の輝度が大きく、中心側から周辺側に向かって輝度が減少または漸減している。
本発明の好適な態様において、前記視野判断モデル(50)は、前記グラデーション立体以外のオブジェクトは全て黒色かつ不透明とした状態で前記視野画像を取得し、前記視野画像内における前記特定色の輝度値の合計をとることによって、前記視認度を算出するように構成されている。
本発明の好適な態様において、前記グラデーション立体は、前記視認目標点を中心とするグラデーション球である。
以上、本発明の実施形態について述べたが、本発明は上記実施形態に限定されるものではなく、本発明の技術的思想に基づいてさらに各種の変形および変更が可能である。
例えば、上記実施形態では、車両のインストルメントパネルを評価対象データ2とし、その右側下部にあるスイッチを視認目標点20とする場合について述べたが、本発明はこれに限定されるものではなく、視認目標点は他の位置であっても良いし、インストルメントパネル以外を評価対象データとすることもできる。また、着座姿勢以外の起立姿勢や歩行姿勢、車両乗降時の視認目標点の確認動作など、確認動作を伴って視認することが想定される様々な物品の易視認性評価や設計支援に応用できる。
1 評価システム
2 評価対象データ(インストルメントパネル)
3 筋骨格モデル(身体モデル)
4 眼球運動モデル
5 眼球
6 支持構造(シート)
7 支持構造(ハンドル)
8 データベース
10 生体力学モデル
11 統括制御部
12 逆モデルベースの運動指令生成モジュール
13 順モデルベースの運動制御モジュール
15 視認度
16 負担度
17 易視認性総合評価部
20 視認目標点
21 グラデーション球
30 身体
31 頭部
41 前庭動眼反射モデル
42 追跡眼球運動モデル
43 サッカードモデル
50 視野判断モデル
53 人体モデル
55 カメラ

Claims (13)

  1. 3DCADによるオブジェクトのための視認性評価システムであって、
    前記オブジェクトの視認目標点が定義された仮想3D空間にて前記視認目標点に対する確認動作のシミュレーションを行うための生体力学モデルと、
    前記生体力学モデルに対応する人体モデルおよび前記オブジェクトが定義された仮想3D空間にて前記生体力学モデルの視線に対応する前記人体モデルの視野画像から前記視認目標点に対する視認度を算出するための視野判断モデルと、
    前記生体力学モデルと前記視野判断モデルを連成させる統括制御部であって、
    前記生体力学モデルに摂動を与えるステップ、
    前記摂動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップ、
    前記姿勢を反映した前記人体モデルの視野画像から算出される前記視認目標点に対する視認度を前記視野判断モデルから取得するステップ、および、
    前記摂動に伴う前記生体力学モデルの負担度を算出するステップ
    を含む摂動プロセスを実行し、最小負担度かつ最大視認度となる挙動にて前記生体力学モデルの姿勢を生成する摂動/挙動プロセスの反復操作を行う統括制御部と、
    を備え、前記負担度の積算値と前記視認度の最終値から易視認性を算出するように構成されている、視覚性評価システム。
  2. 前記統括制御部の前記摂動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップは、前記摂動による前記生体力学モデルの姿勢データを記録するサブステップ、および、前記姿勢データを前記視野判断モデルが取得して前記人体モデルに反映させるサブステップを含む、請求項1記載の視認性評価システム。
  3. 前記統括制御部の前記挙動プロセスは、
    前記挙動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップ、
    前記姿勢を反映した前記人体モデルの視野画像から算出される前記視認目標点に対する視認度を前記視野判断モデルから取得するステップ、および、
    該視認度を閾値と比較するステップを含み、
    前記視認度が前記閾値以上となった場合に前記摂動/挙動プロセスの反復操作を終了するように構成されている、請求項1または2記載の視認性評価システム。
  4. 前記統括制御部の前記挙動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップは、前記挙動による前記生体力学モデルの姿勢データを記録するサブステップ、および、前記姿勢データを前記視野判断モデルが取得して前記人体モデルに反映させるサブステップを含む、請求項3記載の視認性評価システム。
  5. 前記統括制御部の前記摂動を与えるステップは、
    前記視認目標点と現在姿勢との差異に応じて前記生体力学モデルに作用する意志力を仮定して関節駆動モーメントを算出する逆モデルベース運動指令生成ステップと、
    前記関節駆動モーメントに摂動を与え、前記生体力学モデルの単位時間後の姿勢を推定し、各推定姿勢にて前記負担度を算出する順モデルベース運動制御ステップと、
    をさらに含む、請求項1〜4の何れか一項記載の視認性評価システム。
  6. 前記統括制御部の前記負担度を算出するステップは、前記関節駆動モーメントの摂動に対応する運動規範ポテンシャルとして前記負担度を算出することを含み、
    前記最小負担度かつ最大視認度となる挙動は、前記運動規範ポテンシャルに前記視認度の逆数を加算した連成運動規範ポテンシャルを最小化する前記生体力学モデルの状態変数に基づいて決定される、請求項5記載の視認性評価システム。
  7. 前記生体力学モデルは、人体の骨格、関節、および骨格筋をモデリングした筋骨格モデルと、前記筋骨格モデルにおける頭部運動に連成して眼球姿勢を決定する眼球運動モデルとを含み、前記眼球姿勢によって前記視線が与えられるように構成されている、請求項1〜6の何れか一項記載の視認性評価システム。
  8. 前記眼球運動モデルは、前庭動眼反射モデルとサッカードモデルを含み、前記視認目標点と前記眼球姿勢による前記視線との差異に応じて前記サッカードモデルから眼球運動指令とともに出力される頭部運動指令は、前記逆モデルベース運動指令生成ステップにおいて前記関節駆動モーメントを算出するための前記意志力の少なくとも一部となるように構成されている、請求項5または6を引用する請求項7記載の視認性評価システム。
  9. 前記眼球運動モデルにおいて、前記筋骨格モデルの身体運動に対する受動的な頭部運動により前庭動眼反射モデルから出力される運動指令による眼球運動負荷、および、前記サッカードモデルから出力される運動指令による眼球運動負荷は、前記負担度に加算されるが、前記サッカードモデルからの運動指令による能動的な頭部運動は、前記サッカードモデルから前庭動眼反射モデルに伝達される運動指令の遠心性コピーにより、前庭動眼反射モデルへの入力から除外されるように構成されている、請求項8記載の視認性評価システム。
  10. 前記摂動プロセスが前記生体力学モデルの状態変数の数だけ試行されるように構成されている、請求項1〜9の何れか一項記載の視認性評価システム。
  11. 前記オブジェクトは、前記仮想3D空間として定義された車両の運転席前方に配設されるインストルメントパネルの3DCADデータであり、前記生体力学モデルは、前記運転席に着座した運転者として定義され、前記生体力学モデルおよび前記視野判断モデルは、前記インストルメントパネルに設置された前記視認目標点に対する確認動作のシミュレーションを行うように適合されている、請求項1〜10の何れか一項記載の視認性評価システム。
  12. 前記生体力学モデルは、前記シミュレーションを開始する初期姿勢において、前記頭部は車両前方を向き、前記眼球の視線は水平前方に向けられ、前記視認目標点との差異に応じて前記サッカードモデルから出力される頭部運動指令に基づいて、前記逆モデルベース運動指令生成ステップにおける前記意志力が取得されるように構成されている、請求項5を引用する請求項11記載の視認性評価システム。
  13. 前記眼球運動モデルは、前記視認目標点の連続移動に視線を追従させる追跡眼運動モデルをさらに含み、前記追跡眼運動モデルは、前記サッカードモデルの動作時に前記視認目標点の離散的な移動に係る入力信号の高周波成分を除去するローパスフィルタを備えている、請求項11または12記載の視認性評価システム。
JP2018248398A 2018-12-28 2018-12-28 視認性評価システム Active JP7108986B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018248398A JP7108986B2 (ja) 2018-12-28 2018-12-28 視認性評価システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018248398A JP7108986B2 (ja) 2018-12-28 2018-12-28 視認性評価システム

Publications (2)

Publication Number Publication Date
JP2020107279A true JP2020107279A (ja) 2020-07-09
JP7108986B2 JP7108986B2 (ja) 2022-07-29

Family

ID=71449249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018248398A Active JP7108986B2 (ja) 2018-12-28 2018-12-28 視認性評価システム

Country Status (1)

Country Link
JP (1) JP7108986B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271289A (ja) * 1994-03-30 1995-10-20 Mazda Motor Corp シミュレーション装置
US5590268A (en) * 1993-03-31 1996-12-31 Kabushiki Kaisha Toshiba System and method for evaluating a workspace represented by a three-dimensional model
JPH10240791A (ja) * 1997-02-27 1998-09-11 Fujitsu Ltd 機器操作性評価支援装置
JP2001160077A (ja) * 1999-12-02 2001-06-12 Osaka Gas Co Ltd 行動シミュレーション装置及び空間評価装置
JP2007183792A (ja) * 2006-01-06 2007-07-19 Fujitsu Ltd 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
JP2008079737A (ja) * 2006-09-26 2008-04-10 Toyota Motor Corp 集中度評価装置及びこれを用いた車両用表示装置
JP2010044736A (ja) * 2008-07-18 2010-02-25 Panasonic Electric Works Co Ltd 製品設計評価装置
JP2013009825A (ja) * 2011-06-29 2013-01-17 Denso Corp 視認負荷量推定装置、運転支援装置、および視認負荷量推定プログラム
JP2014113225A (ja) * 2012-12-07 2014-06-26 Hiroshima Univ 人体運動評価装置、方法、およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5590268A (en) * 1993-03-31 1996-12-31 Kabushiki Kaisha Toshiba System and method for evaluating a workspace represented by a three-dimensional model
JPH07271289A (ja) * 1994-03-30 1995-10-20 Mazda Motor Corp シミュレーション装置
JPH10240791A (ja) * 1997-02-27 1998-09-11 Fujitsu Ltd 機器操作性評価支援装置
JP2001160077A (ja) * 1999-12-02 2001-06-12 Osaka Gas Co Ltd 行動シミュレーション装置及び空間評価装置
JP2007183792A (ja) * 2006-01-06 2007-07-19 Fujitsu Ltd 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
JP2008079737A (ja) * 2006-09-26 2008-04-10 Toyota Motor Corp 集中度評価装置及びこれを用いた車両用表示装置
JP2010044736A (ja) * 2008-07-18 2010-02-25 Panasonic Electric Works Co Ltd 製品設計評価装置
JP2013009825A (ja) * 2011-06-29 2013-01-17 Denso Corp 視認負荷量推定装置、運転支援装置、および視認負荷量推定プログラム
JP2014113225A (ja) * 2012-12-07 2014-06-26 Hiroshima Univ 人体運動評価装置、方法、およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
大日方五郎 外1名: "身体運動支援のためのシステム制御情報技術", システム/制御/情報, vol. 第46巻,第7号, JPN6022023832, 15 July 2002 (2002-07-15), pages 369 - 376, ISSN: 0004796466 *
工藤義弘 外5名: "眼球運動モデルと全身運動生成モデルとの統合", 人間工学 [ONLINE], vol. 第51巻,特別号, JPN6022023833, 13 June 2015 (2015-06-13), pages 302 - 303, ISSN: 0004796467 *

Also Published As

Publication number Publication date
JP7108986B2 (ja) 2022-07-29

Similar Documents

Publication Publication Date Title
Lightcap et al. An extended Kalman filter for real-time estimation and control of a rigid-link flexible-joint manipulator
Geravand et al. Human sit-to-stand transfer modeling towards intuitive and biologically-inspired robot assistance
US20070016265A1 (en) Method and system for training adaptive control of limb movement
Cortés et al. Upper Limb Posture Estimation in Robotic and Virtual Reality‐Based Rehabilitation
Chaparro-Rico et al. Design of arm exercises for rehabilitation assistance
JP7120572B2 (ja) 視認性評価システム
Martinez-Peon et al. Modeling and control of exoskeleton for wrist and forearm rehabilitation
JP2020107279A (ja) 視認性評価システム
Togo et al. Uncontrolled manifold reference feedback control of multi-joint robot arms
JP7107529B2 (ja) 視認性評価システム
Nicolas et al. From bone to plausible bipedal locomotion using inverse kinematics
JP2022536349A (ja) 生体力学的モデルアニメーションのためのバイオメトリック感覚運動制御の深層学習
JPH08329272A (ja) アニメーション作成方法
KR102020129B1 (ko) 대상자의 관절 경직도를 고려한 재활 운동 방법 및 그 시스템
Badler Human factors simulation research at the University of Pennsylvania
León et al. The model of the human hand
Tanaka et al. Manipulability analysis of kicking motion in soccer based on human physical properties
Vatsal et al. Biomechanical Design Optimization of Passive Exoskeletons through Surrogate Modeling on Industrial Activity Data
Pineda Rico The WAM arm: modelling, control and its application in a HMI based on gaze tracking
JP2024016491A (ja) 視認性評価システム
Blanchet Development of a Procedure to Optimize the Geometric and Dynamic Designs of Assistive Upper Limb Exoskeletons
JP2024016493A (ja) 視認性評価システム
Bottin-Noonan et al. Model based evaluation of human and lower-limb exoskeleton interaction during sit to stand motion
US20220198959A1 (en) Device for simulating a physiological behaviour of a mammal using a virtual mammal, process and computer program
Murwin Development and Pilot of a Human Motor Control Study Using Haptic Robotics

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R150 Certificate of patent or registration of utility model

Ref document number: 7108986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150