JP6771995B2 - デジタルヒューマンモデルのためのビジョン測定量を求めるための方法およびシステム - Google Patents

デジタルヒューマンモデルのためのビジョン測定量を求めるための方法およびシステム Download PDF

Info

Publication number
JP6771995B2
JP6771995B2 JP2016160543A JP2016160543A JP6771995B2 JP 6771995 B2 JP6771995 B2 JP 6771995B2 JP 2016160543 A JP2016160543 A JP 2016160543A JP 2016160543 A JP2016160543 A JP 2016160543A JP 6771995 B2 JP6771995 B2 JP 6771995B2
Authority
JP
Japan
Prior art keywords
target
dhm
vision
acquired
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016160543A
Other languages
English (en)
Other versions
JP2017049238A (ja
JP2017049238A5 (ja
Inventor
レミュー ピエール−オリヴィエ
レミュー ピエール−オリヴィエ
コーフィーズ マシュー
コーフィーズ マシュー
バーレ アルノー
バーレ アルノー
ヘイグマイスター ニコラ
ヘイグマイスター ニコラ
アイサウィ ラシッド
アイサウィ ラシッド
Original Assignee
ダッソー システムズ アメリカス コーポレイション
ダッソー システムズ アメリカス コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダッソー システムズ アメリカス コーポレイション, ダッソー システムズ アメリカス コーポレイション filed Critical ダッソー システムズ アメリカス コーポレイション
Publication of JP2017049238A publication Critical patent/JP2017049238A/ja
Publication of JP2017049238A5 publication Critical patent/JP2017049238A5/ja
Application granted granted Critical
Publication of JP6771995B2 publication Critical patent/JP6771995B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Operations Research (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、デジタルヒューマンモデルのためのビジョン測定量を求めるための方法およびシステムに関する。
人体解剖模型などのデジタルヒューマンモデル(DHM)は、様々な運動学的連鎖(上肢、下肢、脊柱)における単純なセグメント連結の組み立てとして提案される、人の骨格系の仮想表現を提供する。例えば、その全体が参照によって本明細書に組み込まれる公表文献(例えば、非特許文献1を参照)を参照されたい。そのようなツールは、様々なシミュレートされる作業中に取られる人の姿勢を予測して、怪我のリスクを評価するために、また人体測定結果が異なる人の周囲の環境のサイズを適切なものにするために使用されることができる。姿勢は、指定されたエンドエフェクタ(例えば、手、頭部、および足)の位置および/または向きに対応する人体解剖模型の自由度(DOF)を決定する、逆運動学(IK)エンジンを用いて生成される。
Duffy,V.G.,"Introduction,in Handbook of Digital Human Modeling:Research for Applied Ergonomics and Human Factors Engineering,"V.G.Duffy,Editor 2008,CRC Press,Inc.:Boca Raton,Florida,November,2008 Marler,T.,Farrell.K.,and Kim,J.,Rahmatalla,S.,Abdel−Malek,K.,"Vision Performance Measures for Optimization−Based Posture Prediction,"in Digital Human Modeling for Design and Engineering Conference 2006,SAE international:Lyon,France,p.12,July,2006,technical paper no.2006−01−2334 Bailey,I.L.and Lovie,J.E.,"New Design Principles for Visual Acuity Letter Charts,"American journal of Optometry&Physiological Optics,53(11):p.740−5,November,1976
本発明では、デジタルヒューマンモデルのためのビジョン測定量を求めるための改善された方法およびシステムを提供する。
しかしながら、既存のDHM手法では、人の作業(task)は、姿勢(posture)に影響を与えることができる、程度が変化可能なビジョン要件を伴う。既存のデジタルヒューマンモデル(DHM)は、ビジョンに基づいた制約を提案するが(例えば、その全体が参照によって本明細書に組み込まれる公表文献(例えば、非特許文献2を参照)を参照、(1)目標のサイズ、(2)目標の向き、および(3)作業の精度/焦点のレベル(すなわち、高精度対低精度)についての態様を考慮することができない。そのため、いくつかの実施形態は、DHMの最初の姿勢についてのコンピュータシミュレーションの正確性を改善するために、これら3つの態様を同時に考慮する新規なビジョン制約を含む。
したがって、本開示は、(本明細書では、対象、目標、仮想目標、または視覚目標としても知られる)目標物に対する、人体解剖模型であることを含むが、それに限定されない、デジタルヒューマンモデル(DHM)の最初の姿勢についてのコンピュータシミュレーションの正確性を改善する、方法および対応するシステムに向けられている。いくつかの実施形態では、システムおよび方法は、最初のDHM姿勢と関連付けられた情報を獲得する。獲得されたDHM姿勢情報は、DHMの頭部の位置を含む。いくつかの実施形態では、システムおよび方法は、目標物と関連付けられた情報を獲得する。獲得された目標物情報は、目標物のサイズおよび目標物の向きを含む。いくつかの実施形態によれば、獲得された目標物情報は、事前に定められた平面における目標物のサイズおよび目標物の向きを含む。いくつかの実施形態では、システムおよび方法は、DHMの頭部から目標物までの距離を獲得する。いくつかの実施形態では、システムおよび方法は、DHMが見る対象としている目標物についてのビジョン(vision)の測定量(すなわち、ビジョン測定量)をDHMのために生成する。システムおよび方法は、獲得されたDHM姿勢情報、獲得された目標物情報、および獲得された頭部−目標(HT)距離のいずれかを含む、1または複数のパラメータに基づいて、ビジョンの測定量を生成する。ビジョンの測定量に基づいて、システムおよび方法は、目標物に対するDHMのビジョンの制約(すなわち、ビジョン制約)を生成する。ビジョン制約に基づいて、システムおよび方法は、更新されたDHM姿勢を生成する。
いくつかの実施形態では、対象は、様々な形状を取る。いくつかの実施形態では、目標物のサイズは、目標物のファセット(facet)のサイズを含む。いくつかの実施形態では、ファセットは、目標物の一部として定義される。いくつかの実施形態では、目標物は、メッシュ(mesh)を有するように表され、メッシュは、複数の三角形に形作られたファセットから構築される。いくつかの実施形態では、3次元目標物が球である場合、ファセットのセットが、球の一部を表すために使用され、それは、目標物の一部を表すために使用されるが、3次元目標物の面の1または複数の上に少なくとも1つの三角形形状を有する。いくつかの実施形態では、目標物は、3次元である。いくつかの実施形態では、目標物は、2次元である。
いくつかの実施形態では、目標物の向きは、目標物のファセットの向きを含む。いくつかの実施形態では、1または複数のパラメータは、目標物のファセットに対する法線と、ベクトル表現との間の角度を含む。いくつかの実施形態では、1または複数のパラメータは、目標物のファセットの表面に対する法線と、ベクトル表現との間の角度を含む。ベクトル表現は、人体解剖模型の頭部と目標物との間の獲得されたHT距離(または頭部−目標HT距離)の大きさと、DHMの頭部から目標物への方向とを有する。
いくつかの実施形態では、システムおよび方法は、目標物と関連付けられた作業をDHMが実行するために必要とされる精度のレベルを表す精度レベルに基づいて、ビジョン制約をさらに生成する。いくつかの実施形態では、ビジョン制約は、目標物に対するDHMの近さの測定量、および/または目標物と関連付けられた作業を実行するDHMの能力を表す。いくつかの実施形態では、システムおよび方法は、目標物に対するDHMの近さの測定量、および/または目標物と関連付けられた作業を実行するDHMの能力に基づいて、更新されたDHM姿勢を生成する。
いくつかの実施形態では、ビジョン制約は、ビジョンの測定量の対数に基づいて、生成される。いくつかの実施形態では、更新されたDHM姿勢は、目標物と関連付けられた作業を最初のDHM姿勢を使用して実行するDHMの能力と比較して、目標物と関連付けられた作業を実行するDHMの増大した能力を提供する。
いくつかの実施形態では、システムおよび方法は、目標物と関連付けられた作業を実行するDHMの能力のインジケーション(indication)を提供する、3次元視空間をさらに生成する。いくつかの実施形態では、システムおよび方法は、逆運動学エンジン、ビジョン制約、およびDHMの自由度のいずれかに基づいて、更新されたDHM姿勢をさらに生成する。いくつかの実施形態では、逆運動学エンジンは、ビジョン制約を受け取り、DHMの自由度を決定する。いくつかの実施形態では、獲得されたHT距離は、反射マーカ(reflective marker)からのDHMの頭部および目標物の測定に基づいて、獲得される。言い換えると、獲得されたHT距離は、DHMの頭部および目標物の測定に基づいて、獲得され、DHM測定および/または目標物測定は、反射マーカから獲得される。当業者に知られているように、反射マーカは、目標物に配置され、ならびに/または反射マーカが目標物および/もしくはDHM頭部に対して反射する任意のロケーションに配置される。
いくつかの実施形態では、システムおよび方法は、上述された特徴を達成するために、逆運動学エンジン、データエンジン、処理エンジン、姿勢エンジン、またはそれらの任意の組み合わせを利用する。
上述のことは、添付の図面に示されるような、本発明の例示的な実施形態についての以下のより具体的な説明から明らかであり、図面において、同様の参照文字は、異なる図のすべてにわたって、同じ部品を指し示す。図面は、必ずしも実寸に比例しておらず、本発明の実施形態を説明するときは、代わりに、強調が施される。
いくつかの実施形態による、本発明のステップのハイレベルフローチャートである。 いくつかの実施形態による、入力および出力を含むフロー図である。 いくつかの実施形態による、ビジョン測定量の計算を示す図である。 実施形態と先行技術との比較を示す図であり、先行技術の手法を表す。 実施形態と先行技術との比較を示す図であり、図4Aと対比させて、低精度作業についての実施形態を示す。 実施形態と先行技術との比較を示す図であり、図4Aと対比させて、高精度作業についての実施形態を示す。 本発明の実施形態が実施される、コンピュータネットワークまたは類似のデジタル処理環境を示す図である。 図5のコンピュータネットワーク内のコンピュータの内部構造のブロック図である。
本発明の例示的な実施形態についての説明が、以下に続く。
本明細書で引用されるすべての特許、公開された出願、および参考文献の教示は、そのすべてが参照によって組み込まれる。
人の作業は、姿勢に影響を与えることができる、程度が変化可能なビジョン要件を伴う。既存のデジタルヒューマンモデル(DHM)は、ビジョンに基づいた制約を提案するが(例えば、これ以降、「Marler他」と呼ばれる、その全体が参照によって本明細書に組み込まれる公表文献(例えば、非特許文献2を参照)を参照)、3つの重要な態様、すなわち、(1)目標のサイズ、(2)目標の向き、および(3)作業の精度/焦点のレベル(例えば、高い対低い)のうちの1または複数を考慮することができない。いくつかの実施形態は、これら3つの態様を同時に考慮する新規なビジョン制約を含む。
いくつかの実施形態によれば、現実的であるために、DHMによって予測される姿勢は、ビジョンに関するものを含む一連の生理的要件を尊重する(例えば、上で言及されたMarler他を参照)。通例、人は、ある程度焦点を絞る必要がある作業を行うときに、目標を見る傾向がある(例えば、Marler他を参照)。さらに、小さい穴に小さいピンを慎重に差し込むなどの、いくつかの作業は、他のより単純な作業(例えば、大きいボタンを押すこと)よりも、はるかに高い精度および視力を必要とする。これらのケースでは、対象の寸法(例えば、ファセットのサイズおよび/または向き)ならびに作業に関する精度レベルなどの他の態様が、頭部−目標距離に影響する可能性の高い支配的な因子になるので、単純に頭部の向きを調整することによって目標を見ることは、予測される体全体の姿勢についての現実味を保証しない。
視覚情報は、異なる測定量から導出される。例えば、人の視力は、「視角」、すなわち、「頭部−目標」(HT)ベクトルと「視線」(LOS)ベクトルとの間の偏角に関連する(例えば、Marler他を参照)。視力は、視角がゼロである(すなわち、被験者のLOSが目標を真っ直ぐに指している)ときに最大になり、視角が増加するにつれて、非線形に低下する(例えば、Marler他を参照)。そのような測定量は、仮想人体解剖模型の姿勢を導出するために、すでに使用されている(例えば、Marler他を参照)。視力の別の例は、最小角分解能(MAR)の、すなわち、文字のストローク幅によって張られる角度の10を底とする対数(すなわち、log10)である「LogMAR」である(例えば、これ以降、「Bailey他」と呼ばれる、その全体が参照によって本明細書に組み込まれる公表文献(例えば、非特許文献3を参照)を参照)。この視力スコア(visual acuity score)は、角度の分を単位に計算され、事前に定められたHT距離(例えば、6m)および向き(すなわち、チャートに対して垂直に立つ向き)に基づく。完璧なビジョンを有する被験者は、0.5分の角度を張るストローク幅を有する同じライン上のすべての文字を読むことができ、0のLogMARを与えられる。その一方で、1.0よりも大きいLogMARは、大きい文字と見なされる10分の角度を張るストローク幅を有する同じライン上の文字を被験者(subject)が読まないので、被験者が貧弱なビジョンを有することを示す。
Marler他の視角も、Bailey他のLogMARも、技術者が、様々な対象サイズ(例えば、小さい対大きい)、(HTベクトルの向きとは異なる)対象ファセットの向き、および様々な作業精度レベル(例えば、高い対低い)を考慮することを可能にしない。これらの態様を考慮するために、いくつかの実施形態によれば、目標物が小さい状況、DHMの作業が高い精度/焦点を必要とする(例えば、小さい穴に小さいピンを慎重に差し込む)状況、および/または目標物がDHMの視野の外にある状況に対して、HT距離および向きが適合させられる。既存の手法のLogMARの制限は、その範囲(−0.3ないし1.0)が、事前に定められた対象サイズ(すなわち、文字のストローク幅)、事前に定められたHT距離(例えば、6m)、および事前に定められた向き(チャートに対して垂直なLOS)を用いて測定されることである。その一方で、既存のLogMAR視角計算は、HT距離を考慮しない。しかしながら、本発明の実施形態は、これら上述された難点を矯正する。
図1は、いくつかの実施形態による、目標物に対するデジタルヒューマンモデル(DHM)の最初の姿勢についてのコンピュータシミュレーションの正確性を改善する、方法1000のステップのハイレベルフローチャートを示す。いくつかの実施形態では、方法1000のステップは、コンピュータシステムの1または複数のコンポーネントとして構成されることに留意されたい。いくつかの実施形態によれば、図1の各ステップは、ファセットごとに、すなわち、目標物の与えられたファセットに対して、または目標物のすべてのファセットに対して実行される。
いくつかの実施形態によれば、目標物のファセットは、目標物の任意の態様を含むように、本明細書では定義される。いくつかの実施形態では、ファセットは、目標物と関連付けられた平面の表面、および/または線を含む。いくつかの実施形態では、ファセットは、目標物の平らな面分を含み、目標物は、幾何学的形状を有し、複数のファセットを有する。さらに、いくつかの実施形態では、ファセットは、目標物の一部として定義される。いくつかの実施形態では、目標物は、複数のファセットから成る。いくつかの実施形態では、目標物は、様々な形状を取る。いくつかの実施形態では、目標物は、三角形に形作られた1または複数のファセットおよび/または面を有する。いくつかの実施形態では、目標物は、3次元(3D)である。いくつかの実施形態では、3次元目標物が球である場合、ファセットのセットが、球の一部を表すために使用され、それは、3D目標物の一部を表すために使用されるが、3D目標物の面の1または複数の上に少なくとも1つの三角形形状を有する。いくつかの実施形態では、目標物が球である場合、ファセットは、球の一部であり、それは、目標物の球面の一部を含むが、3次元ファセットの面の1または複数の上に少なくとも1つの三角形形状を有する。いくつかの実施形態では、目標物は、2次元であり、例えば、平面における3D目標物の射影である。
ステップ102において、DHM姿勢情報が獲得される。ステップ104において、目標物情報が獲得される。ステップ106において、頭部−目標(HT)情報(DHMの頭部と目標物との間の距離に関する情報)が獲得される。ステップ108において、ビジョン測定量が、ステップ102、104、および106のDHM姿勢、目標物、および頭部−目標距離についての獲得された情報のセットに基づいて生成される。ステップ110において、ビジョン制約が、ステップ108のビジョン測定量に基づいて生成される。ステップ112において、更新された姿勢が、ステップ110の結果のビジョン制約に基づいて生成される。
言い換えると、いくつかの実施形態では、方法1000は、最初のDHM姿勢102と関連付けられた情報を獲得する。獲得されたDHM姿勢情報は、DHMの頭部の位置を含む。いくつかの実施形態では、方法1000は、目標物104と関連付けられた情報を獲得する。獲得された目標物情報は、目標物のサイズ(すなわち、以下では距離「b」としても知られる、第1の上述された態様、または目標のサイズ)と、目標物の向き(すなわち、以下ではベクトル「
Figure 0006771995
」としても知られる、第2の上述された態様、または目標の向き)とを含む。いくつかの実施形態では、方法1000は、DHMの頭部から目標物までの距離106(すなわち、HT距離)を獲得する。いくつかの実施形態では、方法1000は、DHMが見る対象としている目標物についてのDHMのビジョンの測定量(すなわち、ビジョン測定量)108を生成する。方法1000は、獲得されたDHM姿勢情報、獲得された目標物情報、および獲得された頭部−目標(HT)距離のいずれかを含む、1または複数のパラメータに基づいて、ビジョンの測定量を生成する。ビジョンの測定量108に基づいて、方法1000は、目標物に対するDHMのビジョンの制約(すなわち、ビジョン制約)110を生成する。ビジョン制約110に基づいて、方法1000は、更新されたDHM姿勢112を生成する。
いくつかの実施形態では、目標物のサイズは、目標物のファセットのサイズを含む。いくつかの実施形態では、目標物の向きは、目標物のファセットの向きを含む。いくつかの実施形態では、1または複数のパラメータは、目標物のファセットの表面に対する法線と、ベクトル表現との間の角度を含む。いくつかの実施形態では、1または複数のパラメータは、目標物のファセットに対する法線と、ベクトル表現との間の角度を含む。ベクトル表現は、獲得された頭部−目標(HT)距離の大きさと、DHMの頭部から目標物への方向とを有する。いくつかの実施形態では、目標物の向きは、目標物のファセットに対して垂直な法線ベクトルを含む。
いくつかの実施形態では、方法1000は、目標物と関連付けられた作業をDHMが実行するために必要とされる精度のレベルを表す精度レベル(「PL」としても知られる、第3の上述された態様)に基づいて、ビジョン制約110をさらに生成する。いくつかの実施形態では、ビジョン制約は、目標物に対するDHMの近さの測定量、および目標物と関連付けられた作業を実行するDHMの能力の少なくとも一方を表す。いくつかの実施形態では、方法1000は、目標物に対するDHMの近さの測定量、および目標物と関連付けられた作業を実行するDHMの能力の少なくとも一方に基づいて、更新されたDHM姿勢112を生成する。
いくつかの実施形態では、ビジョン制約110は、ビジョンの測定量の対数に基づいて、生成される(110)。いくつかの実施形態では、更新されたDHM姿勢は、目標物と関連付けられた作業を最初のDHM姿勢を使用して実行するDHMの能力と比較して、目標物と関連付けられた作業を実行するDHMの増大した能力を提供する。
いくつかの実施形態では、方法1000は、目標物と関連付けられた作業を実行するDHMの能力のインジケーションを提供する、3次元視空間をさらに生成する(112)。いくつかの実施形態では、方法1000は、逆運動学エンジン、ビジョン制約、およびDHMの自由度のいずれかに基づいて、更新されたDHM姿勢をさらに生成する(112)。いくつかの実施形態では、逆運動学エンジンは、ビジョン制約を受け取り、DHMの自由度を決定する。いくつかの実施形態では、獲得された頭部−目標(HT)距離は、反射マーカからのDHMの頭部および/または目標物の測定に基づいて獲得される。
いくつかの実施形態によれば、ビジョン制約は、非線形最適化ベースのIKエンジンに依存する、スマート姿勢エンジンの一部である。いくつかの実施形態は、以下の最適化問題、すなわち、
式1: minxf(x)、 c(x)≦0のようなもの
式2: c(x)=PL−LogVA(x)
を解き、式1において、f(x)は、最小化すべき問題(すなわち、最適化問題)であり、「x」は、人体解剖模型の自由度(DOF)を含み、式2において、c(x)は、所望の精度レベル(PL)を含む、ビジョン制約を表す。いくつかの実施形態によれば、式2のLogVA(x)は、(「x」成分のない)LogVAまたはLog(VA)であると見なされる。「x」成分は、DHM頭部(H)の情報を含む。
いくつかの実施形態によれば、このビジョン制約(LogVA(x)またはLogVA)は、実験的に獲得される2つの精度レベル(PL)(それぞれ高精度レベルおよび低精度レベル)を使用して、DHMについての頭部−目標(HT)距離を予測するために使用される。既存の手法では、視力は、「LogMAR」としても知られる、最小角分解能(MAR)の、すなわち、文字のストローク幅によって張られる角度のlog10を用いて測定される(例えば、Bailey他を参照)。「LogMAR」は、固定されたおよび/または事前に定められたHT距離(すなわち、6m)および向き(チャートに対して垂直なLOS)に基づく。
いくつかの実施形態は、「LogVA」(視角のlog10)と名付けられたビジョン測定量を含み、それは、図3に示されるように、そのファセット法線(
Figure 0006771995
)が、HTベクトル(
Figure 0006771995
)とともに角度δ≠0を形成する、サイズが
Figure 0006771995
である目標についてのLogMARを拡張する。いくつかの実施形態では、LogVAは、式1および式2の上述された最適化問題に関する非線形ソルバを使用して実施される。
ビジョン非線形制約c(x)は、作業についての所望の精度レベル(PL)とLogVAの実際の値との間の差である。0よりも高いビジョン制約は、DHMの頭部が目標から遠すぎて、それをはっきり見ることができず、作業を適切に遂行できないこと(すなわち、以下で図4において示される視空間410の外部にあること)を意味する。いくつかの実施形態によれば、0よりも低いまたは0に等しいビジョン制約は、作業を遂行するのに、頭部が目標物から許容可能な距離に(またはより近くに)配置されていること(すなわち、視空間410の表面上および/または内部にあること)を示す。言い換えると、いくつかの実施形態によれば、0よりも低いまたは0に等しいビジョン制約は、作業を遂行するのに、頭部が目標物の十分近くに配置されていることを示す。
図2は、いくつかの実施形態による、入力および出力を含む、方法1000のフロー図を示している。やはり図2のフロー図に示されるように、ビジョン制約230は、スマート姿勢エンジン200内に埋め込まれる。図2にさらに示されるように、いくつかの実施形態は、目標物(または視覚目標)212に対するデジタルヒューマンモデル(DHM)または仮想人体解剖模型206の最初の姿勢についてのコンピュータシミュレーションの正確性を改善する、方法1000を含む。
図2に示されるように、エンジン200のいくつかの実施形態は、(要素202、204、および206を含むが、それらに限定されない)入力情報240を受け取る。入力情報240は、対応する精度レベル(PL)210および視覚目標(212)を有する1または複数の作業入力202と、視覚目標情報214を有する1または複数の3次元コンピュータ支援設計(3D CAD)環境204と、自由度(DOF)に関する対応する頭部位置情報216を有する1または複数の仮想人体解剖模型206とを含む。
図2に示されるように、エンジン200のいくつかの実施形態は、(要素220、224、および228を含むが、それらに限定されない)プロセス250を含む。いくつかの実施形態では、プロセス250は、事前に定められる。プロセス250は、(視角VA222を出力する)視角計算220と、(Log(VA)226を出力する)log10計算224と、(ビジョン制約c(x)230を出力する)非線形制約計算228とを含む。要素230、c(x)は、入力のPL(要素210)およびLog(VA)(要素226)に基づいて、上述の式2に従って出力される。やはり図2に示されるように、エンジン200のいくつかの実施形態は、情報260を出力する。いくつかの実施形態によれば、出力情報260は、スマート姿勢エンジンソルバ234に送られる、ビジョン不等制約(要素232)への制約c(x)(要素230)を含む。
図2ないし図3に示されるように、いくつかの実施形態によれば、視角(VA)222は、視覚目標情報214および/または頭部位置216など、2つ以上の異なる情報ソースを使用して、獲得される。いくつかの実施形態によれば、人体解剖模型206の(対応する頭部位置216を有する)頭部302と目標物212との間の距離、および/または頭部−目標(HT)距離は、視覚目標情報214および/または頭部位置216に基づいて、視角計算ブロック220内で計算される。
図3に示されるように、いくつかの実施形態では、目標物のサイズ320は、目標物212のファセットのサイズ320を含む。いくつかの実施形態によれば、目標物のファセットは、3D CAD環境204によって、および/または視角計算ブロック220によって選択される。いくつかの実施形態では、目標物212の向きは、目標物212の選択されたファセットの向きを示す、ファセット法線334を含む。いくつかの実施形態では、1または複数のパラメータは、目標物212のファセット法線334とベクトル表現330との間の角度332を含む。ベクトル表現330は、獲得されたHT距離の大きさと、DHMの頭部302から目標物212への方向とを有する。
図2ないし図3に示されるように、DHM頭部302の位置216は、HTベクトル330を生成するために、視角計算ブロック220内で視覚目標情報214と組み合わされ、HTベクトル330は、目標物212に関する仮想人体解剖模型206の頭部位置216を含む。頭部位置216は、人体解剖模型の根元、脊柱、および/または首の自由度(DOF)によって制御される。
図2を参照すると、視覚目標情報214は、人体解剖模型206を取り囲む3D CAD環境204からもたらされる。
図2ないし図3にさらに示されるように、プロセス250(および/またはCAD環境204)の1または複数は、その後、人体解剖模型206の眼によって知覚されるような、視覚目標212の境界およびファセット法線334の方向を定義する情報を提供する、斜視図射影350を生成する。斜視図射影350は、斜視図射影350の平面内にあり、目標物212のファセットに垂直な(すなわち、90度の角度、すなわち、要素336にある)、ファセット法線334を含む。いくつかの実施形態によれば、ファセット法線334は、ファセット(すなわち、線
Figure 0006771995
、要素320)に垂直な単位ベクトルであると見なされ、斜視図射影350の平面内にある。
目標物212は、凸包またはアルファシェイプなどの方法を用いて簡略化される。人体解剖模型206の眼の間の点から開始して、簡略化された形状の各ノードに向かう一連のベクトルは、1または複数の平面視角を張る円錐を推定するために使用されることができる。これらの視角222は、10を底とする対数(log10、要素224)を使用して、LogVA(要素226)を計算するために使用される。さらに、目標物212を見るために、ビジョン制約c(x)(要素230)は、目標物のファセットまたは線b320と反転された正規化されたHTベクトル330との間の角度332が、±90°の区間内にあることも保証する。いくつかの実施形態によれば、さらに、目標物212を見るために、ビジョン制約c(x)(要素230)の一部318も、目標物のファセットまたは線b320と反転された正規化されたHTベクトル330との間の角度332が、±90°の区間内にあることを保証する。
図2に示されるように、ユーザは、姿勢エンジン200のソルバ234に、作業の精度レベル(PL)210を提供する。いくつかの実施形態によれば、関連するPL値は、精度の異なるレベル(すなわち、低PL対高PL)を必要とする様々な作業を実行するときに、人によって取られたHT距離を計算することによって、実験を通して獲得される。その後、計算ユニット220からの視角222は、作業に関する対象サイズ(例えば、5mmのコンピュータ文字、1.5mmのブレッドボードホール)、および複数の試行から測定されたHT距離の平均測定量から容易に導出される。いくつかの実施形態によれば、各PLによって張られるVAのLog10(要素224)は、上記の式2におけるPLパラメータを置換する。いくつかの実施形態では、各PLによって張られるVAのLog10(要素224)は、DHMによって実行される作業に基づいて、上記の式2におけるPLパラメータを置換する。
姿勢エンジン200のIKソルバ234は、ユーザがそれを使用することを意図的に選択した場合、ビジョン制約を使用する。その場合、姿勢エンジン200は、DHM206のヘッドエフェクタ(すなわち、DHM206の頭部に配置され、DHM206の頭部を操作するエンドエフェクタ)をアクティブ化し、その場合、姿勢エンジン200は、問題にビジョン制約230を含むように構成される。いくつかの実施形態によれば、エンドエフェクタは、デバイス、ならびに/またはDHM206の頭部、手、および/もしくは足を含むが、それらに限定されない、DHM206の端部セグメントを含む。いくつかの実施形態によれば、エンドエフェクタは、本明細書で説明される方法1000に基づいて、DHM206を操作し、動かし、および/または位置付けし直す、姿勢エンジン200を通して、仮想環境204とやり取りする。
内部的に、姿勢エンジン200によって使用される非線形ソルバは、2つの異なるレベルにおいて制約を含む。最初に、非線形ソルバは、ビジョン制約が満たされ、維持されているか(すなわち、c(x)≦0であるか)どうかを検証する。その後、関連する制約の勾配(人体解剖模型のジョイントのDOFに関する制約の偏微分)が、解空間における探索方向を決定するために使用される。最終的に、最適解が見つかったとき、姿勢エンジン200は、それを人体解剖模型のDOFに割り当てる。次に、いくつかの実施形態によれば、結果の最終姿勢にある人体解剖模型が、描画され、ユーザに対して表示される。対照的に、既存の技法(すなわち、視角およびLogMAR)は、変化可能な目標物寸法、および作業の精度レベル(PL)を考慮せず、したがって、目標物が明瞭に表示される(例えば、見える)ように、および/または作業がDHMによって完遂されるように、HT距離を適合させるために、使用されることができない。
図1のステップ108を参照すると、いくつかの実施形態によれば、ビジョン測定量(すなわち、ビジョンの測定量)は、様々な目標物寸法(すなわち、1または複数ファセットサイズおよび/または向き)、ならびに様々な作業精度レベルを考慮した、LogMARの一般化である、「LogVA」(すなわち、視角のLog10)としても知られる、方法1000によって生成される。いくつかの実施形態によれば、LogVAは、図3の要素310、312、314、316、および318にそれぞれ対応する、以下の式3.1、3.2、3.3、3.4、および3.5を使用して、図1のステップ108において計算される。しかしながら、実施形態は、そのように限定されず、いくつかの実施形態は、他の式を使用して、LogVAを計算する。
式3.1(310):LogVA=Log10(β)
式3.2(312):
Figure 0006771995
式3.3(314):
Figure 0006771995
式3.4(316):
Figure 0006771995
式3.5(318):
Figure 0006771995
いくつかの実施形態によれば、方法1000は、図3に示されるように、斜視図射影350を利用して、ビジョン測定量310を獲得する。そのため、いくつかの実施形態は、そのファセット法線(
Figure 0006771995
)または要素334が、「頭部−目標」ベクトル(
Figure 0006771995
)または要素330とともに角度δ≠0(要素332)を形成する、長さ(サイズ)が
Figure 0006771995
(要素320)の目標物(目標の中央はT、すなわち、要素212)についてのLogMARを拡張した、「LogVA」(視角のLog10)310と名付けられたビジョン測定量を含む。
言い換えると、図3は、「頭部−目標」ベクトル(
Figure 0006771995
)または要素330としても知られる、DHMの頭部またはH(要素302)から、目標物T(要素212)の中央までのベクトルを示している。(目標物の与えられたファセットを含むが、それに限定されない)目標物は、サイズ(長さ)
Figure 0006771995
(要素320)を有し、ここで、A(要素306)およびC(要素308)は、サイズb320の端点を表す。図3に示されるように、長さc(要素322)および長さa(要素324)は、H(要素302)から、それぞれ要素A(306)および要素C(308)までの距離である。c(要素322)とb(要素320)との間の角度α(要素340)、およびa(要素324)とb(要素320)との間の角度γ(要素342)も、図3に示されている。
図3、および式3.1(要素310)に示されるように、ビジョン測定量310またはLogVAは、β(要素326)、または点A(要素306)と点H(要素302)と点C(要素308)との間の角度のLog10を取ることによって、計算される。図3、および式3.2(要素312)にさらに示されるように、β(要素326)は、a(要素324)、b(要素320)、およびc(要素322)に基づいて、計算される。式3.3および式3.4(それぞれ要素314および要素316)に示されるように、要素c(322)およびa(324)は、頭部−目標
Figure 0006771995
(要素330)、b(要素320)、および角度δ(要素332)に基づいて、計算される。式3.5(要素318)に示されるように、角度δ(要素332)は、ファセット法線ベクトル(
Figure 0006771995
)(要素334)と、そのノルムによって除算された反転された頭部−目標
Figure 0006771995
ベクトル(要素330)との間の角度として決定される。ファセット法線(
Figure 0006771995
)(要素334)は、b(要素320)に対して90度(要素336)の角度にある法線であると決定され、ファセット法線(
Figure 0006771995
)(要素334)は、目標物T(要素212)の中央に配置される。目標物T(要素212)の中央と端点Cとの間の距離344は、
Figure 0006771995
(要素320)の距離の半分に等しい。
いくつかの実施形態は、視角(すなわち、MARの等価物であるが、1または複数の様々な目標物ファセットサイズおよび/または向きについてのもの)を計算し、視角のLog10が、事前に定められた値(以下の精度レベルまたはPL)に対応する(例えば、より低く、または等しくなる)ように、「頭部−目標」ベクトルを調整する。視角222は、目標物T(要素212)の1つの選択されたファセットの線
Figure 0006771995
(要素320)に対して垂直な(例えば、90度の角度、すなわち、要素336にある)ファセット法線334から、そのファセットの向きも考慮しながら、計算される。
いくつかの実施形態では、作業の精度レベル(PL)(すなわち、高精度レベル対低精度レベル)は、現実的に満たされるべき許容可能なLogVA(要素310)の値を命じる。(図4Aないし図4Cを一括した)図4に示されるように、いくつかの実施形態は、ビジョン制約を使用しながら、逆運動学(IK)エンジンによって予測される姿勢を分析し、この姿勢を、ビジョン制約を用いずに獲得されたものと比較する。図4Aないし図4Cに示されるように、作業は、穴開け作業のシミュレーションの間に、上述されたIKエンジンを用いて、DHM(例えば、仮想人体解剖模型、または人体解剖模型206)を位置付けることを含む。いくつかの実施形態によれば、方法1000は、完璧なビジョン(LogMAR=0)を仮定して、人体解剖模型206のためのIKアルゴリズムとともに使用するために、高精度レベル(HPL)値(図4C)および低精度レベル(LPL)値(図4B)を利用する。これは、穴開け作業中における、人体解剖模型の「頭部−目標」距離408に対するPLの影響についての評価を可能にする。図4Aないし図4Cに示される穴開け作業の場合、人体解剖模型206は、ドリル418をドリルジグ406とともに使用して、穴416を開ける。
ドリル418は、人体解剖模型の左手412にあり、人体解剖模型の右手414に保持された誘導ジグ406の穴と一直線にされる。ビジョン目標は、ジグ穴416(目標物サイズ=1.5mm)であり、そのファセット法線(
Figure 0006771995
)は、穴の軸に平行である。3つのケースが、図4Aないし図4Cにそれぞれ示されている。最初に、図4Aでは、ビジョン制約が適用されない。次に、2つの異なるPL、すなわち、図4Cでは高PL(HPL)、図4Bでは低PL(LPL)値を使用しながら、ビジョン制約が適用される。
HPLおよびLPLの適用からもたらされる許容可能な視空間410も、計算される。いくつかの実施形態によれば、これらの視空間410の内部は、人体解剖模型の頭部404が目標物(図4Aないし図4Cのドリル穴416)を真っ直ぐに見ることを仮定して、与えられたPLについてLogVAビジョン制約が満たされることを可能にする、解の領域を提供する。いくつかの実施形態によれば、許容可能な視空間410は、3次元であり、目標物と関連付けられた作業をDHMが実行する能力のインジケーションを提供する。
いくつかの実施形態によれば、許容可能な視空間410は、LogVAと、禁止空間420として知られるさらなる空間とに基づいて、生成される。図4Bないし図4Cに示されるように、いくつかの実施形態によれば、禁止空間420は、DHM206および/または対応する人の眼の近点(例えば、当業者に知られているような、近い点)に基づいて、生成される。いくつかの実施形態によれば、図4Bに示されるように、(視対象位置416からDHM206の左手412へと近似的または正確に広がる)禁止空間420は、(図4Bでは、250mmの直径および/もしくは平均直径を有し、または状況に応じて、異なる値を有する)半球である。いくつかの実施形態では、420の球中心は、視対象位置416にある。
いくつかの実施形態によれば、視空間は、LogVAに基づいて、計算される。図4Bないし図4Cに示されるように、いくつかの実施形態では、許容可能な視空間410は、球および/もしくは楕円体の形を取り、ならびに/または(半球および/もしくは半楕円体を含むことを含むが、それらに限定されない)球および/もしくは楕円体に類似した形を取るが、禁止空間420は、取り除かれている。禁止空間420が、完全な楕円体および/もしくは半楕円体、ならびに/または完全な球および/もしくは半球(図4Bないし図4Cには明示的に図示されず)から減算された場合、その結果が、許容可能な視空間410である。
いくつかの実施形態では、図4(図4Aないし図4C)の実験から獲得されたHPL値は、1.18(±0.06)であり、一方、LPL値は、0.78(±0.01)である。これらの値は、ビジョン制約を使用せずに、穴開け作業姿勢を予測するために、式2におけるPLに代入される。ビジョン制約を用いないHT距離408(図4Aでは、56.3cmのHT距離408)と、LPL制約を用いるHT距離408(図4Bでは、52.3cmのHT距離408)とについては、類似した桁数が獲得される。しかしながら、HPL制約を用いる場合、HT距離408(図4Cでは、23.8cmのHT距離408)は、半分よりも小さい。図4Aないし図4Cは、作業のPLを考慮したビジョン制約を追加することが、HT距離408(すなわち、HTベクトルのノルム)に影響することを示している。HPLおよびLPL作業についての許容可能な視空間410は、図4Bないし図4Cでは、軸対称のメッシュとして示される。
(図に示されていない)別の実験では、2つのPL値が、完璧なビジョン(LogMAR=0)を有する1人の被験者に対して行われる実験において評価される。高精度レベル(HPL)作業の間、DHM(例えば、人体解剖模型または被験者)は、ブレッドボードに抵抗器を慎重に差し込む。低精度レベル(LPL)作業の間、DHMは、その正面のコンピュータ画面を見て、3つの異なる形状(それぞれ、四角形、円、パックマン、または
Figure 0006771995
)のランダムなパターンを含むライン上におけるパックマン形状(5mm幅)の数を数える。そのため、いくつかの実施形態によれば、頭部−目標(HT)距離は、PL値を導出するために反射マーカを用いる運動解析システム(VICON INC、オックスフォード、UK)を用いて獲得される。
図5は、本開示の実施形態が実施される、コンピュータネットワークまたは類似のデジタル処理環境を示している。
クライアントコンピュータ/デバイス50およびサーバコンピュータ60は、アプリケーションプログラムなどを実行する、処理、記憶、および入力/出力デバイスを提供する。クライアントコンピュータ/デバイス50は、通信ネットワーク70を通して、他のクライアントコンピュータ/デバイス50およびサーバコンピュータ60を含む、他のコンピューティングデバイスにも結び付けられることができる。通信ネットワーク70は、リモートアクセスネットワーク、グローバルネットワーク(例えば、インターネット)、コンピュータの世界規模の集まり、ローカルエリアまたはワイドエリアネットワーク、および互いに通信するためにそれぞれのプロトコル(TCP/IP、BLUETOOTH(登録商標)など)を現在は使用するゲートウェイの一部であることができる。他の電子デバイス/コンピュータネットワークアーキテクチャも適している。
クライアントコンピュータ/デバイス50は、いくつかの実施形態によれば、姿勢エンジンを用いるように構成される。サーバコンピュータ60は、姿勢エンジンにアクセスすることを求めるクライアントデバイス50と通信する姿勢エンジンとして構成される。サーバコンピュータ60は、独立したサーバコンピュータであり、またはクラウドネットワーク70の一部である。いくつかの実施形態では、サーバコンピュータ60(例えば、姿勢エンジン)は、1または複数のコンピュータアプリケーションと通信する。
サーバコンピュータ60は、最初のDHM姿勢と関連付けられた情報を獲得するように構成された、(姿勢エンジンの一部としての、または姿勢エンジンに通信可能に結合された)データエンジンを含む。獲得されたDHM姿勢情報は、DHMの頭部の位置を含む。サーバコンピュータ60は、目標物と関連付けられた情報を獲得するように構成された、(姿勢エンジンの一部としての、または姿勢エンジンに通信可能に結合された)データエンジンも含む。獲得された目標物情報は、目標物のサイズおよび目標物の向きを含む。データエンジンは、DHMの頭部から目標物までの距離を獲得するように構成される。
サーバコンピュータ60は、獲得されたDHM姿勢情報、獲得された目標物情報、および獲得されたHT距離のいずれかを含む1または複数のパラメータに基づいて、DHMが見る対象としている目標物についてのDHMのビジョンの測定量を生成するように構成された、(姿勢エンジンの一部としての、または姿勢エンジンに通信可能に結合された)処理エンジンも含む。処理エンジンは、ビジョンの測定量に基づいて、目標物に対するDHMのビジョンの制約を生成するように構成される。姿勢エンジンは、ビジョン制約に基づいて、更新されたDHM姿勢を生成するように構成される。
サーバコンピュータ60は、(姿勢エンジンの一部としての、または姿勢エンジンに通信可能に結合された)逆運動学エンジンも含む。更新されたDHM姿勢は、逆運動学エンジン、ビジョン制約、およびDHMの自由度に基づいて、さらに生成される。逆運動学エンジンは、ビジョン制約を受け取り、DHMの自由度を決定する。データエンジンは、情報を取り出し、取り出された情報の少なくとも一部を、姿勢エンジン、処理エンジン、または逆運動学エンジンのいずれかに転送する。
クライアント50は、情報の少なくとも一部を、サーバ60の姿勢エンジン、逆運動学エンジン、処理エンジン、またはデータエンジンから受け取る。いくつかの実施形態では、クライアント50は、DHM姿勢の更新および予測を容易にするために、DHM姿勢をモニタリングし、DHM姿勢と関連付けられた情報を取り出すための、クライアント50上で動作するクライアントアプリケーションまたはコンポーネントを含み、クライアント50は、この情報を、サーバ(例えば、分析エンジン)60に伝達する。
図6は、図5のコンピュータシステムにおけるコンピュータ(例えば、クライアントプロセッサ/デバイス50またはサーバコンピュータ60)の例示的な内部構造の図である。各コンピュータ50、60は、システムバス79を含み、バスは、コンピュータまたは処理システムのコンポーネント間におけるデータ転送のために使用される、ハードウェアラインのセットである。システムバス79は、基本的に、コンピュータシステムの異なる要素(例えば、プロセッサ、ディスク記憶、メモリ、入力/出力ポート、ネットワークポートなど)を接続して、要素間における情報の転送を可能にする、共用される導管である。システムバス79には、様々な入力および出力デバイス(例えば、キーボード、マウス、ディスプレイ、プリンタ、スピーカなど)をコンピュータ50、60に接続するための、I/Oデバイスインターフェース82がつながれる。ネットワークインターフェース86は、コンピュータが、ネットワーク(例えば、図5のネットワーク70)につながれた様々な他のデバイスに接続することを可能にする。メモリ90は、本開示の実施形態(例えば、本明細書で説明される逆運動学エンジン、データエンジン、処理エンジン、および姿勢エンジン要素のいずれか)を実施するために使用される、コンピュータソフトウェア命令92およびデータ94のための揮発性記憶を提供する。ディスク記憶95は、本開示の実施形態を実施するために使用される、コンピュータソフトウェア命令92およびデータ94のための不揮発性記憶を提供する。データ94は、クライアント50とサーバ60との間で同じであるが、しかしながら、コンピュータソフトウェア命令92の種類は、クライアント50とサーバ60との間で異なることに留意されたい。中央処理装置84も、システムバス79につながれ、コンピュータ命令の実行を提供する。一実施形態では、プロセッサルーチン92およびデータ94は、本発明のシステムのためのソフトウェア命令の少なくとも一部を提供する、コンピュータ可読媒体(例えば、1または複数のDVD−ROM、CD−ROM、ディスケット、テープなどの着脱可能記憶媒体)を含む、(全体的に92で参照される)コンピュータプログラム製品である。コンピュータプログラム製品92は、当技術分野においてよく知られているように、任意の適切なソフトウェアインストール手順によってインストールされる。別の実施形態では、ソフトウェア命令の少なくとも一部は、ケーブル、通信、および/または無線接続上でダウンロードもされる。他の実施形態では、本発明のプログラムは、伝搬媒体(例えば、電波、赤外線波、レーザ波、音波、またはインターネットもしくは他のネットワークなどのグローバルネットワーク上で伝搬される電気波)上の伝搬信号上において具体化される、(図5に示される)コンピュータプログラム伝搬信号製品107である。
実施形態または実施形態の態様は、(ハードウェア回路を含むが、それに限定されない)ハードウェア、ファームウェア、またはソフトウェアの形態で実施される。ソフトウェアで実施される場合、ソフトウェアは、プロセッサがソフトウェアまたはソフトウェアの命令のサブセットをロードすることを可能にするように構成された、任意の非一時的コンピュータ可読媒体上に記憶される。その後、プロセッサは、命令を実行し、本明細書で説明されたような方法で動作するように、または装置を動作させるように構成される。
LogVAを含む実施形態が既存の手法のLogMARおよび視角にまさる少なくとも1つの利点は、目標物の寸法に応じた事前に定められた作業精度レベル(PL)を尊重するために、LogVAが、頭部−目標(HT)距離および向きの適合を同時に可能にすることである。いくつかの実施形態によれば、ユーザが、焦点を絞っている目標物または精度レベルを変更する場合、新しいLogVAが、計算され、DHMボディ姿勢は、逆運動学(IK)ソルバによって自動的に再調整される。
いくつかの実施形態の別の利点は、それらが、ユーザ対話を最低限に抑えるか、なしにしながら、可能性の高い(現実的な)デジタル人体解剖模型の姿勢を提供する可能性がより高いことである。いくつかの実施形態は、3次元(3D)仮想人間工学の解を提供するためのアルゴリズムと併せて使用される。そのため、いくつかの実施形態は、特に有益であるが、その理由は、仮想人間工学ユーザが、DHMの姿勢調整にあまりにも多くの時間および労力を費やしていながら、結果として得られるのは、残念ながら、いくつかの実施形態によって補正され、および/または少なくとも部分的に解決される、可能性の低い(非現実的な)姿勢であるからである。
いくつかの実施形態は、上述された操作に基づいてDHMを更新することによって、1または複数のDHMの挙動および/またはデータを変換する。いくつかの実施形態は、獲得されたDHM姿勢情報、獲得された目標物情報、および獲得された頭部−目標(HT)距離を含む、1または複数のパラメータに基づいて変換された、ビジョン測定量に基づいて変換された、ビジョン制約に基づいて変更される1または複数の更新されたDHMを提供するために、1または複数のデジタルヒューマンモデル(DHM)の挙動および/またはデータを変換する。
いくつかの実施形態は、目標物に対するデジタルヒューマンモデル(DHM)の姿勢についてのコンピュータシミュレーションの正確性を改善することによって、機能的改善を提供する。いくつかの実施形態は、ユーザ対話を最低限に抑えるか、なしにしながら、可能性の高い(現実的な)デジタル人体解剖模型の姿勢を提供することによって、コンピュータ、コンピュータアプリケーション、コンピュータプログラム機能、および/またはコンピュータコードの品質に対する機能的改善を提供する。
いくつかの実施形態は、目標物に対するデジタルヒューマンモデル(DHM)の姿勢についてのコンピュータシミュレーションの正確性を改善することによって、技術的問題を解く(それによって、技術的効果を提供する)。いくつかの実施形態は、ユーザ対話を最低限に抑えるか、なしにしながら、可能性の高い(現実的な)デジタル人体解剖模型の姿勢を提供することによって、技術的問題を解く(それによって、技術的効果を提供する)。
さらに、ハードウェア、ファームウェア、ソフトウェア、ルーチン、または命令は、データプロセッサのある動作および/または機能を実行するものとして、本明細書では説明された。しかしながら、本明細書に含まれるそのような説明は、便宜的なものにすぎないこと、そのような動作は、実際には、ファームウェア、ソフトウェア、ルーチン、命令などを実行するコンピューティングデバイス、プロセッサ、コントローラ、または他のデバイスからもたらされることが、理解されるべきである。
フロー図、ブロック図、およびネットワーク図は、より多いもしくは少ない要素を含み、異なるように配置され、または異なるように表されることが、理解されるべきである。しかし、ある実施は、ブロック図およびネットワーク図、ならびにブロック図およびネットワーク図の数が、実施形態の実行が特定の方法で実施されることを示すように命じることが、さらに理解されるべきである。
したがって、さらなる実施形態は、様々なコンピュータアーキテクチャ、物理的、仮想的、クラウドコンピュータ、および/またはそれらの何らかの組み合わせでも実施され、したがって、本明細書で説明されるデータプロセッサは、説明の目的でのみ意図されており、実施形態の限定としては意図されていない。
本発明は、本発明の例示的な実施形態を参照して具体的に示され、説明されたが、添付の特許請求の範囲によって包含される本発明の範囲から逸脱することなく、形態および詳細において様々な変更がそれに施されることが、当業者によって理解されよう。

Claims (17)

  1. 目標物に対するデジタルヒューマンモデル(DHM)の最初のDHM姿勢についてのコンピュータシミュレーションの正確性を改善するためのコンピュータ実施方法であって、
    前記最初のDHM姿勢と関連付けられた情報を獲得するステップであって、前記獲得されたDHM姿勢情報は、前記DHMの頭部の位置を含む、該ステップと、
    前記目標物と関連付けられた情報を獲得するステップであって、前記獲得された目標物情報は、前記目標物のサイズおよび前記目標物の向きを含む、該ステップと、
    前記DHMの前記頭部から前記目標物までの距離を獲得するステップと、
    前記獲得されたDHM姿勢情報、前記獲得された目標物情報、および前記獲得された頭部−目標(HT)距離を含む、複数のパラメータに基づいて、前記DHMが見る対象としている前記目標物についての前記DHMのビジョンの測定量を生成するステップと、
    前記ビジョンの測定量と前記目標物と関連付けられた作業を前記DHMが実行するために必要とされる精度のレベルを表す精度レベルとに基づいて、前記目標物に対する前記DHMのビジョンの制約を生成するステップであって、前記ビジョンの制約は、前記目標物に対する前記DHMの近さの測定量と、前記目標物と関連付けられた作業を実行する前記DHMの能力との少なくとも一方を表す、該ステップと、
    前記ビジョン制約に基づいて、更新されたDHM姿勢を生成するステップであって、前記更新されたDHM姿勢は、前記最初のDHM姿勢と、前記目標物に対する前記DHMの近さの前記測定量、および、前記目標物と関連付けられた前記作業を実行する前記DHMの前記能力のうちの少なくとも一方と、に基づいて生成される、該ステップ
    を具えたことを特徴とする方法。
  2. 前記目標物の前記サイズは、前記目標物のファセットのサイズを含み、前記目標物の前記向きは、前記目標物の前記ファセットの向きを含むことを特徴とする請求項1に記載の方法。
  3. 記複数のパラメータは、前記目標物のファセットの表面に対する法線と、前記獲得されたHT距離の大きさおよび前記DHMの前記頭部から前記目標物への方向を有するベクトル表現との間の角度を含むことを特徴とする請求項1に記載の方法。
  4. 前記目標物の前記向きは、前記目標物のファセットに対して垂直であるベクトルを含むことを特徴とする請求項1に記載の方法。
  5. 前記ビジョン制約は、ビジョンの前記測定量の対数に基づいて生成されることを特徴とする請求項1に記載の方法。
  6. 前記更新されたDHM姿勢は、前記目標物と関連付けられた作業を前記最初のDHM姿勢を使用して実行する前記DHMの能力と比較して、前記目標物と関連付けられた前記作業を実行する前記DHMの増大した能力を提供することを特徴とする請求項1に記載の方法。
  7. 前記目標物と関連付けられた作業を実行する前記DHMの能力のインジケーションを提供する、3次元視空間を生成するステップをさらに含むことを特徴とする請求項1に記載の方法。
  8. 前記更新されたDHM姿勢は、逆運動学エンジン、前記ビジョン制約、および前記DHMの自由度に基づいてさらに生成され、前記逆運動学エンジンは、前記ビジョン制約を受け取り、前記DHMの前記自由度を決定することを特徴とする請求項1に記載の方法。
  9. 前記獲得されたHT距離は、反射マーカからの前記DHMの前記頭部および前記目標物の測定に基づいて獲得されることを特徴とする請求項1に記載の方法。
  10. 目標物に対するデジタルヒューマンモデル(DHM)の最初のDHM姿勢についてのコンピュータシミュレーションの正確性を改善するためのコンピュータシステムであって、
    前記最初のDHM姿勢と関連付けられた情報を獲得するように構成されたデータエンジンであって、前記獲得されたDHM姿勢情報は、前記DHMの頭部の位置を含む、該データエンジンと、
    前記目標物と関連付けられた情報を獲得するように構成された前記データエンジンであって、前記獲得された目標物情報は、前記目標物のサイズおよび前記目標物の向きを含む、前記データエンジンと、
    前記DHMの前記頭部から前記目標物までの距離を獲得するように構成された前記データエンジンと、
    前記獲得されたDHM姿勢情報、前記獲得された目標物情報、および前記獲得された頭部−目標(HT)距離を含む複数のパラメータに基づいて、前記DHMが見る対象としている前記目標物についての前記DHMのビジョンの測定量を生成するように構成された処理エンジンと、
    前記ビジョンの測定量と前記目標物と関連付けられた作業を前記DHMが実行するために必要とされる精度のレベルを表す精度レベルとに基づいて、前記目標物に対する前記DHMのビジョンの制約を生成するように構成された前記処理エンジンであって、前記ビジョンの制約は、前記目標物に対する前記DHMの近さの測定量と、前記目標物と関連付けられた作業を実行する前記DHMの能力との少なくとも一方を表す、該処理エンジンと、
    前記ビジョン制約に基づいて、更新されたDHM姿勢を生成するように構成された姿勢エンジンであって、前記更新されたDHM姿勢は、前記最初のDHM姿勢と、前記目標物に対する前記DHMの近さの前記測定量、および、前記目標物と関連付けられた前記作業を実行する前記DHMの前記能力のうちの少なくとも一方と、に基づいて生成される、該姿勢エンジン
    を具えたことを特徴とするシステム。
  11. 前記目標物の前記サイズは前記目標物のファセットのサイズを含み、前記目標物の前記向きは前記目標物の前記ファセットの向きを含み、前記目標物の前記向きは前記目標物のファセットに対して垂直であるベクトルを含むことを特徴とする請求項10に記載のシステム。
  12. 記複数のパラメータは、前記目標物のファセットの表面に対する法線と、前記獲得されたHT距離の大きさおよび前記DHMの前記頭部から前記目標物への方向を有するベクトル表現との間の角度を含むことを特徴とする請求項10に記載のシステム。
  13. 前記処理エンジンは、ビジョンの前記測定量の対数に基づいて、前記ビジョン制約を生成するようにさらに構成されたことを特徴とする請求項10に記載のシステム。
  14. 前記姿勢エンジンは、前記目標物と関連付けられた作業を前記最初のDHM姿勢を使用して実行する前記DHMの能力と比較して、前記目標物と関連付けられた前記作業を実行する前記DHMの増大した能力を含む、前記更新されたDHM姿勢を提供するようにさらに構成されたことを特徴とする請求項10に記載のシステム。
  15. 前記姿勢エンジンは、前記目標物と関連付けられた作業を実行する前記DHMの能力のインジケーションを提供する、3次元視空間を生成するようにさらに構成されたことを特徴とする請求項10に記載のシステム。
  16. コンピュータに請求項1ないしのいずれか1つに記載の方法を実行させることを特徴とするコンピュータプログラム。
  17. 請求項16記載のコンピュータプログラムを記録したことを特徴とする非一過性コンピュータ可読媒体。
JP2016160543A 2015-08-25 2016-08-18 デジタルヒューマンモデルのためのビジョン測定量を求めるための方法およびシステム Active JP6771995B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/834,612 2015-08-25
US14/834,612 US10860752B2 (en) 2015-08-25 2015-08-25 Method and system for vision measure for digital human models

Publications (3)

Publication Number Publication Date
JP2017049238A JP2017049238A (ja) 2017-03-09
JP2017049238A5 JP2017049238A5 (ja) 2019-06-20
JP6771995B2 true JP6771995B2 (ja) 2020-10-21

Family

ID=57017944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016160543A Active JP6771995B2 (ja) 2015-08-25 2016-08-18 デジタルヒューマンモデルのためのビジョン測定量を求めるための方法およびシステム

Country Status (4)

Country Link
US (1) US10860752B2 (ja)
EP (1) EP3136346B1 (ja)
JP (1) JP6771995B2 (ja)
CN (1) CN106485748B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858391B2 (en) * 2014-04-17 2018-01-02 The Boeing Company Method and system for tuning a musculoskeletal model
US10621384B2 (en) 2015-12-09 2020-04-14 Dassault Systemes Americas Corp. Method and system of constraint-based optimization of digital human upper limb models
US11062520B2 (en) * 2019-09-09 2021-07-13 Ford Global Technologies, Llc Ergonomic assessment using a wearable device
CN112379812B (zh) * 2021-01-07 2021-04-23 深圳追一科技有限公司 仿真3d数字人交互方法、装置、电子设备及存储介质
CN114330545B (zh) * 2021-12-28 2022-09-13 花脸数字技术(杭州)有限公司 一种基于ik算法的数字人动态捕捉分析系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3391648B2 (ja) 1997-02-27 2003-03-31 富士通株式会社 機器操作性評価支援装置
JP3413383B2 (ja) * 2000-02-17 2003-06-03 株式会社ナムコ ゲームシステム及び情報記憶媒体
AUPQ842800A0 (en) * 2000-06-28 2000-07-20 Aivision Pty Ltd Flat screen vision testing
US7333111B2 (en) 2003-04-25 2008-02-19 Honda Giken Kogyo Kabushiki Kaisha Joint component framework for modeling complex joint behavior
US7259764B2 (en) 2003-05-14 2007-08-21 Pixar Defrobulated angles for character joint representation
US20100030532A1 (en) 2008-06-12 2010-02-04 Jasbir Arora System and methods for digital human model prediction and simulation
US9305390B2 (en) * 2009-02-24 2016-04-05 Textron Innovations Inc. System and method for mapping two-dimensional image data to a three-dimensional faceted model
US20120276509A1 (en) 2010-10-29 2012-11-01 The Cleveland Clinic Foundation System of preoperative planning and provision of patient-specific surgical aids
JP6182143B2 (ja) 2011-09-28 2017-08-16 ユニバーサル ロボッツ アクツイエセルスカプ ロボットの較正およびプログラミング
JP5833998B2 (ja) 2012-11-21 2015-12-16 株式会社日立製作所 組立作業性評価計算装置、および組立作業性評価方法
US9027067B2 (en) * 2013-03-12 2015-05-05 The United States Of America, As Represented By The Secretary Of The Navy System and method for interactive spatio-temporal streaming data
US20140287389A1 (en) 2013-03-14 2014-09-25 The Regents Of The University Of California Systems and methods for real-time adaptive therapy and rehabilitation
US9442688B2 (en) * 2013-11-18 2016-09-13 Atieva, Inc. Synchronized display system
CN104298353A (zh) * 2014-10-08 2015-01-21 宁波熵联信息技术有限公司 一种基于逆运动学的车辆监控防盗方法及系统
US10621384B2 (en) 2015-12-09 2020-04-14 Dassault Systemes Americas Corp. Method and system of constraint-based optimization of digital human upper limb models

Also Published As

Publication number Publication date
JP2017049238A (ja) 2017-03-09
US20170061043A1 (en) 2017-03-02
EP3136346B1 (en) 2023-01-18
CN106485748B (zh) 2022-06-10
EP3136346A1 (en) 2017-03-01
US10860752B2 (en) 2020-12-08
CN106485748A (zh) 2017-03-08

Similar Documents

Publication Publication Date Title
JP6771995B2 (ja) デジタルヒューマンモデルのためのビジョン測定量を求めるための方法およびシステム
JP4568223B2 (ja) 推定装置
US9330502B2 (en) Mixed reality simulation methods and systems
JP6634387B2 (ja) 等方性双方向反射率分布関数のためのノンパラメトリックマイクロファセット因子モデル
Qian et al. Virtual reality based laparoscopic surgery simulation
CN103620523B (zh) 用于提供大致上稳定的触觉的系统和方法
Petersik et al. Realistic haptic interaction in volume sculpting for surgery simulation
Hansen et al. Modelling of interaction between a spatula and a human brain
JP6892256B2 (ja) 制約される非対称的細分割メッシュの修正
KR20120041086A (ko) 아바타 생성을 위한 처리 장치 및 방법
US20230061175A1 (en) Real-Time Simulation of Elastic Body
JP2017049238A5 (ja)
JP6608165B2 (ja) 画像処理装置及び方法、並びにコンピュータプログラム
Qian et al. Essential techniques for laparoscopic surgery simulation
Zhang et al. Ellipsoid bounding region-based ChainMail algorithm for soft tissue deformation in surgical simulation
Schröder et al. Design and evaluation of reduced marker layouts for hand motion capture
ES2725128B2 (es) Método implementado por ordenador, sistema y producto del programa de ordenador para simular el comportamiento de una mano que interactúa con objetos en un entorno virtual.
Marchal et al. Towards a framework for assessing deformable models in medical simulation
US20170024492A1 (en) Method and apparatus for modeling and restoring target object using pre-computation
Gragg et al. Optimization-based posture reconstruction for digital human models
US7409322B2 (en) Mass set estimation for an object using variable geometric shapes
JP2007048151A (ja) 3次元曲面への物体メッシュモデルの写像方法
Li et al. Penalty-based haptic rendering technique on medicinal healthy dental detection
Cervenka et al. A novel radial basis function description of a smooth implicit surface for musculoskeletal modelling
JP6401091B2 (ja) 光学シミュレーション装置および方法並びにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190514

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200930

R150 Certificate of patent or registration of utility model

Ref document number: 6771995

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250