JP2024016491A - Visibility evaluation system - Google Patents

Visibility evaluation system Download PDF

Info

Publication number
JP2024016491A
JP2024016491A JP2022118651A JP2022118651A JP2024016491A JP 2024016491 A JP2024016491 A JP 2024016491A JP 2022118651 A JP2022118651 A JP 2022118651A JP 2022118651 A JP2022118651 A JP 2022118651A JP 2024016491 A JP2024016491 A JP 2024016491A
Authority
JP
Japan
Prior art keywords
visibility
model
degree
biomechanical model
biomechanical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022118651A
Other languages
Japanese (ja)
Inventor
拓真 山▲崎▼
Takuma Yamazaki
英則 堀田
Hidenori Hotta
和徳 長谷
Kazunori Hase
一真 児玉
Kazuma Kodama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Tokyo Metropolitan Public University Corp
Original Assignee
Suzuki Motor Corp
Tokyo Metropolitan Public University Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp, Tokyo Metropolitan Public University Corp filed Critical Suzuki Motor Corp
Priority to JP2022118651A priority Critical patent/JP2024016491A/en
Publication of JP2024016491A publication Critical patent/JP2024016491A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve the adaptability of confirmation action simulation for a design element with respect to the situation, thereby improving the quality of visibility evaluation in designing a product using a 3DCAD.
SOLUTION: A visibility evaluation system includes: a biomechanical model for simulating a confirmation action with respect to a visual recognition target point in a virtual 3D space in which an object and the visual recognition target point are defined; a field-of-view determination model for calculating visibility with respect to the visual recognition target point in a field-of-view image in a line of sight of the biomechanical model; and a consolidated control unit which couples the biomechanical model and the field-of-view model. The consolidated control unit applies perturbation to the biomechanical model, executes an operation to generate a visual recognition attitude with behavior having minimum purposeful burden and maximum visibility, the purposeful burden being obtained by multiplying a degree of deviation from a reference attitude set in the biomechanical model by a degree of burden of the biomechanical model due to the perturbation in the attitude, and calculates easiness of visual recognition from an accumulated value of the degree of burden and the final value of the visibility with respect to the visual recognition target point.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、生体力学モデルを利用した3DCADの視認性評価システムに関する。 The present invention relates to a 3D CAD visibility evaluation system using a biomechanical model.

従来、3DCADによる製品設計において、視認性など視覚的効果に関する評価と、操作性や取り扱い易さなど実用上の効果に関する評価は、別々に行われてきた。しかも、試験者による評価は、主観による影響を排除できず、定量的な評価を得ることが困難であった。 Conventionally, in product design using 3D CAD, evaluations regarding visual effects such as visibility and evaluations regarding practical effects such as operability and ease of handling have been performed separately. Furthermore, evaluations by testers cannot exclude subjective influences, making it difficult to obtain quantitative evaluations.

そこで、本発明者らは、仮想3D空間に定義される視認目標点に対する確認動作のシミュレーションを生体力学モデルによって行い、その生体力学モデルの姿勢を人体モデルに反映し、生体力学モデルの視線に対応する人体モデルの視野画像から視認目標点に対する視認度を算出するとともに、確認動作に要する生体力学モデルの負担度を算出し、負担度の積算値と視認度の最終値から易視認性を評価する視認性評価システムを創出した(特許文献1~3参照)。 Therefore, the present inventors used a biomechanical model to simulate the confirmation movement for a visible target point defined in a virtual 3D space, reflected the posture of the biomechanical model on the human body model, and responded to the line of sight of the biomechanical model. In addition to calculating the visibility of the visual target point from the visual field image of the human body model, the degree of burden on the biomechanical model required for the confirmation movement is calculated, and the easy visibility is evaluated from the integrated value of the degree of burden and the final value of visibility. We have created a visibility evaluation system (see Patent Documents 1 to 3).

特開2020-42734号公報JP2020-42734A 特開2020-107278号公報JP2020-107278A 特開2020-107279号公報Japanese Patent Application Publication No. 2020-107279

この視認性評価システムでは、生体力学モデルに摂動を与え、最小負担度かつ最大視認度となる挙動にて姿勢を生成する操作により、人間が行う確認動作を自律的にシミュレートする構成を基本としている。ところが、最小負担度かつ最大視認度という前提(拘束条件)のみでは、条件やサンプルによっては、状況に即した姿勢予測とならない場合があった。例えば、車両のコックピットにおける運転者による確認動作の場合、運転中はもちろん、停車中であっても、可及的に運転姿勢が維持されることが望ましい。しかし、条件やサンプルによっては、シミュレーションにおける確認動作、特に最終姿勢が、人間が通常行う確認動作に比べて過剰(オーバーアクション)になる場合があった。 This visibility evaluation system is based on a configuration that autonomously simulates the confirmation movement performed by humans by perturbing the biomechanical model and generating a posture with a behavior that provides the minimum burden and maximum visibility. There is. However, depending on the conditions and samples, the posture prediction may not be accurate to the situation if only the assumptions (constraint conditions) of minimum burden and maximum visibility are used. For example, in the case of a confirmation operation by a driver in the cockpit of a vehicle, it is desirable that the driving posture be maintained as much as possible not only while driving but also while the vehicle is stopped. However, depending on the conditions and samples, the confirmation motion in the simulation, especially the final posture, may be excessive (overaction) compared to the confirmation motion normally performed by humans.

本発明は、上記のような実状に鑑みてなされたものであって、その目的は、3DCADによる製品設計における視認性評価において、設計要素に対する確認動作シミュレーションの状況への適合性を高め、視認性評価の質的向上を図ることにある。 The present invention has been made in view of the above-mentioned circumstances, and its purpose is to improve the suitability of the confirmation motion simulation for design elements to the situation in the visibility evaluation in product design using 3D CAD, and to improve the visibility. The aim is to improve the quality of evaluation.

上記課題を解決するために、本発明は、
3DCADによるオブジェクトのための視認性評価システムであって、
前記オブジェクトおよびその視認目標点が定義された仮想3D空間において前記視認目標点に対する確認動作のシミュレーションを行うための生体力学モデルと、
前記生体力学モデルの視線における視野画像において前記視認目標点に対する視認度を算出するための視野判断モデルと、
前記生体力学モデルに摂動を与え、その姿勢にて、前記視認目標点に対する視認度と、前記摂動に伴う前記生体力学モデルの負担度と、前記生体力学モデルに設定される基準姿勢からの乖離度とを算出し、前記負担度に前記乖離度を乗算した合目的的負担度が最小かつ前記視認度が最大となる挙動にて視認姿勢を生成する操作を実行することにより、前記生体力学モデルと前記視野判断モデルを連成させる統括制御部と、
を備え、前記負担度の積算値と前記視認度の最終値から易視認性を算出するように構成されている、視認性評価システムにある。
In order to solve the above problems, the present invention
A visibility evaluation system for objects using 3D CAD, the system comprising:
a biomechanical model for simulating a confirmation movement for the visual target point in a virtual 3D space in which the object and its visual target point are defined;
a visual field determination model for calculating the degree of visibility for the visual target point in the visual field image in the line of sight of the biomechanical model;
A perturbation is applied to the biomechanical model, and in that posture, the visibility with respect to the visual target point, the degree of burden on the biomechanical model due to the perturbation, and the degree of deviation from the reference posture set for the biomechanical model. The biomechanical model and a general control unit that couples the visual field judgment model;
The visibility evaluation system is configured to calculate easy visibility from the integrated value of the degree of burden and the final value of the visibility.

本発明に係る視認性評価システムは、上記のように、生体力学モデルと視野判断モデルとを連成させる統括制御部に、生体力学モデルに設定される基準姿勢からの乖離度という指標を導入し、負担度に乖離度を考慮した合目的的負担度が最小かつ視認度が最大となる挙動にて姿勢を生成することにより、基準姿勢を可及的に保持しようとする確認動作の自律的なシミュレーションの状況への適合性向上と、それに伴う視認性評価の質的向上に有利である。 As described above, the visibility evaluation system according to the present invention introduces an index called the degree of deviation from the reference posture set in the biomechanical model into the overall control unit that couples the biomechanical model and the visual field judgment model. , an autonomous confirmation movement that attempts to maintain the reference posture as much as possible by generating a posture with a behavior that minimizes the purposeful degree of burden and maximizes visibility considering the degree of deviation in the degree of burden. This is advantageous for improving suitability to the simulation situation and improving the quality of visibility evaluation accordingly.

本発明実施形態に係る視認性評価システムを示すブロック図である。FIG. 1 is a block diagram showing a visibility evaluation system according to an embodiment of the present invention. 本発明実施形態に係る視認性評価システムによるシミュレーションを示す模式的な側面図である。It is a typical side view showing simulation by a visibility evaluation system concerning an embodiment of the present invention. 本発明実施形態に係る視認性評価システムにおける生体力学モデルと視野判断モデルのデータ受け渡しによる連成を示す模式的な平面図である。FIG. 2 is a schematic plan view illustrating coupling of a biomechanical model and a visual field judgment model in the visibility evaluation system according to an embodiment of the present invention through data exchange. 本発明実施形態に係る視認性評価システムで使用するデータ構成を示すER図である。It is an ER diagram showing a data structure used in a visibility evaluation system concerning an embodiment of the present invention. 本発明実施形態に係る視認性評価システムの処理を示すフローチャートである。It is a flow chart showing processing of a visibility evaluation system concerning an embodiment of the present invention. 本発明実施形態に係る視認性評価システムの処理を生体力学モデルと視野判断モデルに分けて記載したフローチャートである。It is a flow chart which describes processing of the visibility evaluation system concerning an embodiment of the present invention divided into a biomechanical model and a visual field judgment model.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 Embodiments of the present invention will be described in detail below with reference to the drawings.

1.評価システムの概要
図1は、本発明実施形態に係る視認性評価システム1を示すブロック図である。本実施形態の評価システム1は、車両のコクピット前部に配設されるインストルメントパネルの3DCADデータを評価対象データ2とし、図2および図3に示すように、生体力学モデル10を利用して視認目標点20を視認するための確認動作のシミュレーションを行い、その容易性を含めた視認性を評価するものである。
1. Overview of Evaluation System FIG. 1 is a block diagram showing a visibility evaluation system 1 according to an embodiment of the present invention. The evaluation system 1 of this embodiment uses 3D CAD data of an instrument panel arranged in the front part of the cockpit of a vehicle as evaluation target data 2, and uses a biomechanical model 10 as shown in FIGS. 2 and 3. A confirmation operation for visually confirming the visual recognition target point 20 is simulated, and visibility including ease of the confirmation operation is evaluated.

評価システム1は、生体力学モデル10と視野判断モデル50を含み、それぞれの動作のためのプログラムも別に存在する。それぞれのプログラムおよびデータ、各プログラムを統括的に作動させるオペレーションプログラムは、不図示のコンピュータの外部記憶装置などに格納されており、メインメモリ(RAM)に読み込まれ、CPUにより演算処理が実行されることで評価システムとして機能するように構成されている。 The evaluation system 1 includes a biomechanical model 10 and a visual field judgment model 50, and separate programs exist for each operation. Each program and data, as well as an operation program that collectively operates each program, are stored in an external storage device (not shown) of the computer, etc., are read into the main memory (RAM), and arithmetic processing is executed by the CPU. It is configured to function as an evaluation system.

生体力学モデル10は、筋骨格モデル3と眼球運動モデル4から構成されており、これらを統合することで、視野判断を行うための身体運動および眼球運動を生成するとともに、それらに要する負担度13と、基準姿勢からの乖離度14を算出し、各運動の結果として得られる眼球5の姿勢データを、視野判断モデル50におけるカメラ55に反映することで、視認目標点20に対する視認度15を算出し、最終的に評価部17において、負担度13と視認度15に基づいて、確認動作の容易性を含めた見やすさ(易視認性)を評価する。 The biomechanical model 10 is composed of a musculoskeletal model 3 and an eye movement model 4, and by integrating these, it generates body movements and eye movements for visual field judgment, and also calculates the degree of burden 13 required for them. The degree of deviation 14 from the reference posture is calculated, and the posture data of the eyeball 5 obtained as a result of each movement is reflected on the camera 55 in the visual field judgment model 50, thereby calculating the degree of visibility 15 for the visibility target point 20. Finally, the evaluation unit 17 evaluates the ease of viewing (easy visibility) including the ease of confirmation operation based on the burden level 13 and the visibility level 15.

視野判断モデル50で算出される視認度15は、生体力学モデル10の統括制御部11にフィードバックされ、負担度13および基準姿勢からの乖離度14とともに視認目的関数16の最小化計算を通じて、生体力学モデル10の確認動作を最適化する運動規範ポテンシャルの一部となる。このように、生体力学モデル10と視野判断モデル50は、独立して動作しながら、相互間でデータを共有または授受することで連成し、生体力学モデル10における負担度13の最小化と、視野判断モデル50における視認度15の最大化を同時に達成するシミュレーションを行えるようになっている。 The visibility 15 calculated by the visual field judgment model 50 is fed back to the general control unit 11 of the biomechanical model 10, and the biomechanical It becomes part of the motion norm potential that optimizes the checking motion of the model 10. In this way, the biomechanical model 10 and the visual field judgment model 50 operate independently but are coupled by sharing or exchanging data between them, thereby minimizing the burden level 13 on the biomechanical model 10, It is possible to perform a simulation that simultaneously maximizes the visibility 15 in the visual field judgment model 50.

すなわち、2つのモデルは、生体力学モデル10の基準姿勢を保持(乖離度14を小さく)しつつ負担度13を最小化する合目的的な最適動作が、視野判断モデル50における視認度15の向上をもたらし、視野判断モデル50における視認度15の向上が生体力学モデル10における負担度13を最小化する最適動作をもたらすという連成関係にある。 That is, in the two models, a purposeful optimal movement that minimizes the burden level 13 while maintaining the reference posture of the biomechanical model 10 (reducing the degree of deviation 14) improves the visibility level 15 in the visual field judgment model 50. There is a coupled relationship in which an improvement in the visibility 15 in the visual field judgment model 50 brings about an optimal movement that minimizes the burden 13 in the biomechanical model 10.

2つのモデル間で、データを共有または授受する形態は、図4に示すようなデータベース8へのアクセスによって行われるが、それ以外に、データ通信やファイル操作によるデータファイルの受け渡しなど、任意の形態で実施可能である。 Data can be shared or exchanged between two models by accessing the database 8 as shown in FIG. 4, but in addition to this, any other method can be used, such as data communication or transferring data files through file operations. It can be implemented with

データベース8は、個々のシミュレーション(試行)における条件や結果などを格納するシミュレーションデータ80、個々のシミュレーション(試行)における各挙動プロセスのデータを格納する挙動データ81、および、各挙動プロセスを取得するために仮想的に実施された摂動プロセスのデータを格納する摂動データ82を含み、各データテーブルの主キー(PK)と対応するデータテーブルの外部キー(FK)との間に1対多のリレーションが設定されたリレーショナルデータベースとして構成されている。 The database 8 includes simulation data 80 that stores conditions, results, etc. in each simulation (trial), behavior data 81 that stores data of each behavior process in each simulation (trial), and data for acquiring each behavior process. includes perturbation data 82 that stores data of a perturbation process virtually performed in , and there is a one-to-many relationship between the primary key (PK) of each data table and the foreign key (FK) of the corresponding data table. Configured as a configured relational database.

シミュレーションデータ80には、各シミュレーション(試行)の入力条件などが格納される。例えば、図示例では、シミュレーションを実施するコクピットのCADデータに対応する支持構造情報(シート6における第1支持点(ヒップポイント;HP)、ハンドル7における第2支持点(左右の把持点;座標(x,y,z))、シミュレートする人物の体格設定情報(身長,体重)、評価対象CADデータ(名称、識別コード)、視認目標点座標(座標(x,y,z))などが入力され、シミュレーションプロセスの結果としての易視認性評価やレンダリング情報などが格納される。 The simulation data 80 stores input conditions and the like for each simulation (trial). For example, in the illustrated example, support structure information (first support point (hip point; HP) on the seat 6, second support point (left and right grip points; coordinates) on the steering wheel 7, corresponding to the CAD data of the cockpit where the simulation is performed, x, y, z)), physique setting information (height, weight) of the person to be simulated, CAD data to be evaluated (name, identification code), visible target point coordinates (coordinates (x, y, z)), etc. are input. The visibility evaluation and rendering information as a result of the simulation process are stored.

なお、図示を省略するが、基本的に、支持構造情報(コクピットCADデータ)、体格設定情報、評価対象CADデータなどの基礎情報やレンダリングデータは、それぞれ、別のデータテーブルに登録され、識別コード(外部キー)に設定されるリレーションによって参照されるようにする。また、データファイルの受け渡しによりシミュレーションを実施する場合には、シミュレーションデータ80、挙動データ81、および、摂動データ82に相当する適宜形式のデータファイルを構成し、データの追加更新を行う。各挙動プロセスにおける挙動データ81が取得された後に、それに要した摂動データ82を保持しない設定とすることもできる。 Although not shown, basic information and rendering data such as support structure information (cockpit CAD data), physique setting information, and evaluation target CAD data are each registered in separate data tables, and the identification code (foreign key). In addition, when performing a simulation by passing data files, data files of appropriate formats corresponding to simulation data 80, behavior data 81, and perturbation data 82 are configured, and data is additionally updated. After the behavior data 81 in each behavior process is acquired, the perturbation data 82 required for the behavior data 81 can also be set not to be retained.

挙動データ81と摂動データ82について、後に詳述するように、生体力学モデル10における筋骨格モデル3および眼球運動モデル4の動作は、最適な挙動を決定するために状態変数の数だけ仮想的に動作させ負担度B、乖離度D、視認度R、および、視認目的関数Foを算出する摂動プロセスと、視認目的関数Foを最小化する条件で単位時間だけ実際に動作させる挙動プロセスを繰り返すことにより実施される。 Regarding the behavior data 81 and the perturbation data 82, as will be described in detail later, the movements of the musculoskeletal model 3 and the eye movement model 4 in the biomechanical model 10 are virtually calculated by the number of state variables in order to determine the optimal behavior. By repeating the perturbation process that calculates the operating burden B, deviation degree D, visibility R, and visibility objective function Fo, and the behavior process of actually operating for a unit time under conditions that minimize the visibility objective function Fo. Implemented.

したがって、先ず、挙動データ81における挙動No(ID)が自動採番などにより割当てられ、次いで、当該挙動Noに関して、摂動データ82に状態変数分の摂動Noが割当てられ、それぞれの状態変数毎に筋骨格モデル3および眼球運動モデル4の摂動が実施される。各摂動の結果として得られた骨格リンク姿勢、眼球姿勢、負担度B、乖離度Dが摂動データ82に格納され、眼球姿勢が視野判断モデル50のカメラ55に反映され、その視野画像から算出された視認度Rが摂動データ82に格納される。 Therefore, first, the behavior number (ID) in the behavior data 81 is assigned by automatic numbering, etc., and then, regarding the behavior number, the perturbation numbers for the state variables are assigned to the perturbation data 82, and the muscle and bone Perturbations of case model 3 and eye movement model 4 are performed. The skeletal link posture, eyeball posture, burden B, and deviation degree D obtained as a result of each perturbation are stored in the perturbation data 82, and the eyeball posture is reflected on the camera 55 of the visual field judgment model 50 and calculated from the visual field image. The visibility R is stored in the perturbation data 82.

次いで、負担度B、乖離度D、および、視認度Rに基づいて算出される視認目的関数Foが最小化される条件が挙動データ81に格納され、それに従って挙動プロセスが実施され、骨格リンク姿勢および眼球姿勢がキーフレーム情報として登録される。これらのキーフレーム情報が集積されることで確認動作に対応する視野画像の3DCG動画(および任意に設定される視点から見た3DCG動画)を生成可能となる。また、挙動プロセスの実施とともに、それ以前の挙動プロセスで取得された視認目的関数Foが更新され、挙動データ81に格納される。この視認目的関数Foがシミュレーションにおける最終的な易視認性評価の基礎情報となる。 Next, the conditions under which the visibility objective function Fo calculated based on the burden level B, the deviation level D, and the visibility level R are minimized are stored in the behavior data 81, and the behavior process is implemented according to the condition to determine the skeletal link posture. and eyeball posture are registered as key frame information. By accumulating this key frame information, it becomes possible to generate a 3DCG video of a visual field image corresponding to the confirmation operation (and a 3DCG video viewed from an arbitrarily set viewpoint). Further, as the behavior process is executed, the visual recognition objective function Fo acquired in the previous behavior process is updated and stored in the behavior data 81. This visibility objective function Fo becomes basic information for the final easy visibility evaluation in the simulation.

2.視野判断モデルの詳細
視野判断モデル50は、3D座標系(仮想データ空間)に、視認目標点20を有する評価対象データ2、生体力学モデル(筋骨格モデル3、眼球運動モデル4)に対応する人体モデル53、および、カメラ55を定義し、生体力学モデルで生成される身体運動および眼球運動(身体姿勢および眼球姿勢)を、人体モデル53およびカメラ55に反映し、その状態における視認目標点20の視認度を取得するものである。
2. Details of Visual Field Judgment Model The visual field judgment model 50 includes a human body corresponding to evaluation target data 2 having a visual recognition target point 20 and a biomechanical model (musculoskeletal model 3, eye movement model 4) in a 3D coordinate system (virtual data space). The model 53 and camera 55 are defined, and the body movement and eye movement (body posture and eyeball posture) generated by the biomechanical model are reflected on the human body model 53 and camera 55, and the visual target point 20 in that state is reflected. This is to obtain visibility.

このカメラ55は、3D座標系に設定される視点(ヒトの眼に相当)であり、カメラ画像がヒト(人体モデル53)の視界となる。人体モデル53の姿勢を時々刻々とキーフレームに登録することによって、最終的に動画を作成することができる。外部視点を設定すれば、視覚的に身体挙動を観察することもできる。 This camera 55 is a viewpoint (corresponding to the human eye) set in the 3D coordinate system, and the camera image becomes the field of view of the human (human body model 53). By registering the posture of the human body model 53 in key frames from moment to moment, a moving image can finally be created. If you set an external viewpoint, you can also visually observe your body's behavior.

以下、視野判断モデル50による視認度算出プロセスについて説明する。なお、プロセスは全てプログラムによって自動で行われる。3Dデータ空間での画像処理を基本としているため、汎用の3DCGアプリケーションを用いることもできる。 The visibility calculation process using the visual field judgment model 50 will be described below. Note that all processes are performed automatically by a program. Since it is based on image processing in 3D data space, general-purpose 3DCG applications can also be used.

先述したように、本実施形態の評価システム1は、車両のコクピット前部に配設されるインストルメントパネルの3DCADデータを評価対象データ2とし、図2および図3に示すように、ドライバに相当する生体力学モデル3を利用して視認目標点20を視認するための確認動作のシミュレーションを行い、その容易性を含めた視認性を評価するものであり、視野判断モデル50は、確認動作(摂動および挙動)の各時点における視認目標点20に対する視認度を算出する。 As mentioned earlier, the evaluation system 1 of this embodiment uses 3D CAD data of the instrument panel arranged in the front part of the cockpit of the vehicle as the evaluation target data 2, and as shown in FIGS. 2 and 3, the evaluation system 1 corresponds to the driver. The biomechanical model 3 is used to simulate the confirmation motion to visually confirm the visual recognition target point 20, and the visibility including the ease of the confirmation motion is evaluated. and behavior), the visibility with respect to the visibility target point 20 at each point in time is calculated.

ヒトは水平方向に約200°の視野角を有しているが、認知行動に一定の影響を及ぼし有効に情報を活用できる視野範囲は中心視から2°程度であるため、眼球運動によって視野範囲内に視認目標点20を捉える必要があり、さらに、眼球の最大運動範囲は約55°であるが、大きな眼球運動は負担が大きいため、サッカードと呼ばれる眼球の反射運動は15°以下であり、これ以上の視点移動が必要となる場合、眼球のみならず頭部も積極的に運動する。 Humans have a visual field of about 200° in the horizontal direction, but the visual field that has a certain influence on cognitive behavior and can effectively utilize information is about 2° from central vision, so eye movement can change the visual field. Furthermore, although the maximum range of eye movement is about 55 degrees, large eye movements are taxing, so the reflex movement of the eyeballs called saccades is less than 15 degrees. , If further viewpoint movement is required, not only the eyeballs but also the head actively move.

したがって、視認目標点20が視野角の範囲内に設定される場合でも眼球運動や眼球・頭部協調運動を始めとする身体運動を伴う確認動作が惹起される。視認目標点20が視野角の範囲外にある場合でも、視認目標点20の位置に対する知識を事前に得ていれば、その方向に向けて確認行動が惹起される。 Therefore, even when the visual recognition target point 20 is set within the range of the viewing angle, confirmation motions that involve body movements such as eye movements and eye/head coordination movements are induced. Even if the visible target point 20 is outside the range of the viewing angle, if knowledge of the position of the visible target point 20 is obtained in advance, a confirmation action will be triggered in that direction.

図示例では、視認目標点20として、インストルメントパネル2の右側下部にあるスイッチを想定している。このスイッチは、ハンドル7で隠れる位置にあり、シート6に着座したドライバ(3)の視点(5)から直接視認することが困難であり、図3に示すように、右横方向への上体移動と頭部回転を伴う確認動作によって徐々に視認可能となる。 In the illustrated example, the visual target point 20 is assumed to be a switch located at the lower right side of the instrument panel 2. This switch is located in a position hidden behind the steering wheel 7, making it difficult to see it directly from the viewpoint (5) of the driver (3) seated on the seat 6. As shown in FIG. It gradually becomes visible through confirmation movements that involve movement and head rotation.

このように初期位置において直接視認できない場合を含む視認目標点20に対する視認度を求めるために、視認目標点20を放射状に拡大した立体としてグラデーション球21が定義されている。これにより、少なくとも部分的にグラデーション球21が視野画像に入ることで視認度を算出可能となる。 In order to obtain the visibility of the visible target point 20 even when it is not directly visible at the initial position, the gradation sphere 21 is defined as a three-dimensional object obtained by radially enlarging the visible target point 20. Thereby, visibility can be calculated by at least partially including the gradation sphere 21 in the visual field image.

さらに、グラデーション球21の中心部、すなわち視認目標点20の近傍と周辺部とで視認度の重み付けを行うために、グラデーション球21の中心からの距離に応じて特定のピクセル情報のみを漸減させる。本実施形態では、赤色の強さ(輝度)を示すR値を特定のピクセル情報としており、グラデーション球21は、中心側では赤色が濃くなり、周辺側では赤色が薄くなるような、径方向のグラデーションを有している。 Furthermore, in order to weight the visibility in the center of the gradation sphere 21, that is, in the vicinity of the visibility target point 20 and in the peripheral area, only specific pixel information is gradually decreased according to the distance from the center of the gradation sphere 21. In this embodiment, the R value indicating the intensity (luminance) of red color is used as specific pixel information, and the gradation sphere 21 has a radial shape such that the red color becomes darker on the center side and the red color becomes lighter on the peripheral side. It has a gradation.

視野判断モデル50で使用するピクセル情報は、赤(R)、緑(G)、青(B)の三原色に透過度のアルファチャンネル(A)を加えた「RGBA」カラーモデルをベースとしている。RBGAは、それぞれ0~1.0の数値であり、[R,B,G,A]で表す。視認目標点20に設置したグラデーション球21は、中心のR値=1.0(最大)~表面のR値=0(最小)の間でR値が漸減しており、G値およびB値は0、全体が透明な球体をベースとするためA値は1.0であり、したがって、グラデーション球21のRGBAは、
[R,G,B,A]=[0~1.0,0,0,1.0]
の範囲で表されることになる。
The pixel information used in the visual field determination model 50 is based on the "RGBA" color model, which is the three primary colors of red (R), green (G), and blue (B) plus an alpha channel (A) for transparency. RBGA is a numerical value of 0 to 1.0, and is expressed as [R, B, G, A]. The gradation sphere 21 installed at the visual target point 20 has an R value that gradually decreases between the center R value = 1.0 (maximum) and the surface R value = 0 (minimum), and the G value and B value are 0, the A value is 1.0 because it is based on a completely transparent sphere, and therefore the RGBA of the gradation sphere 21 is:
[R, G, B, A] = [0 to 1.0, 0, 0, 1.0]
It will be expressed in the range of

視野判断モデル50における視認度算出に際しては、グラデーション球21以外のソリッド(評価対象データ2、ハンドル7、シート6、人物モデル53など)は全て黒色かつ不透明(光源を反射しない、[R,G,B,A]=[0,0,0,0])とすることで、カメラ55の視野画像には、黒色のソリッド(ハンドル7など)で部分的に隠れたグラデーション球21のみが見える状態となっている。 When calculating the visibility in the visual field judgment model 50, all solids other than the gradation sphere 21 (evaluation target data 2, handle 7, sheet 6, person model 53, etc.) are black and opaque (does not reflect the light source, [R, G, B, A] = [0, 0, 0, 0]), only the gradation sphere 21 partially hidden by the black solid (handle 7, etc.) can be seen in the field of view image of the camera 55. It has become.

この状態において、カメラ55の視野画像の全ピクセルのR値の合計をとることによって、赤色のグラデーション球21がどの程度見えているかを数値化することができ、それに基づいて視認目標点20の視認度を判断することができる。 In this state, by calculating the sum of the R values of all pixels in the field of view image of the camera 55, it is possible to quantify how visible the red gradation sphere 21 is, and based on this, the visual recognition target point 20 can be visually recognized. degree can be judged.

この視認度(R値合計)は、グラデーション球21を用いているため、視認目標点20が直接見えていない場合まで拡張して数値化でき、直接的に見えない状態から見える状態に近づいている状況を視認度の向上として取得できるので、確認動作を含めた見やすさ(易視認性)の評価に最適であるとともに、後に詳述するように、生体力学モデル10にフィードバックされ、生体力学モデル3の運動(確認動作)を方向付けする運動規範ポテンシャルに反映される点でも有意義である。 Since this visibility (total R value) uses the gradation sphere 21, it can be extended and quantified even when the visibility target point 20 is not directly visible, and the state is approaching the state where it can be seen from a state where it is not directly visible. Since the situation can be acquired as an improvement in visibility, it is ideal for evaluating visibility (easiness of visibility) including confirmation movements, and as will be described in detail later, it is fed back to the biomechanical model 10 and the biomechanical model 3 It is also significant in that it is reflected in the motor norm potential that directs the movement (confirmation movement) of the body.

なお、視野判断モデル50で使用するグラデーション球21の特定ピクセル情報としては、赤色以外の緑色や青色の輝度を用いることもでき、さらに、輝度以外の情報を用いることもできる。例えば、透明なグラデーション球の内部に中心からの距離に応じた密度で赤色のドットを定義してR値の合計をとることもできる。 Note that as the specific pixel information of the gradation sphere 21 used in the visual field determination model 50, the brightness of green or blue other than red can be used, and furthermore, information other than brightness can also be used. For example, it is also possible to define red dots inside a transparent gradation sphere with a density depending on the distance from the center and calculate the sum of the R values.

3.生体力学モデルの詳細
生体力学モデル10は、筋骨格モデル3と眼球運動モデル4から構成されており、基本的に筋骨格モデル3において身体運動が生成され、身体運動に連成して眼球運動が惹起される。そこで、先ず、筋骨格モデル3において視認目標点20の確認動作のための身体運動を生成する流れを説明する。
3. Details of the biomechanical model The biomechanical model 10 is composed of a musculoskeletal model 3 and an eye movement model 4. Basically, body movement is generated in the musculoskeletal model 3, and eye movement is coupled to the body movement. evoked. Therefore, first, a flow of generating a body movement for confirming the visual target point 20 in the musculoskeletal model 3 will be explained.

3.1 筋骨格モデル(身体力学モデル)
筋骨格モデル3は、ヒトの体節を3次元の剛体リンクに対応させた剛体リンクモデルであり、全身で17~20リンク、39~43関節自由度を有している。
3.1 Musculoskeletal model (body mechanics model)
Musculoskeletal model 3 is a rigid link model in which human body segments correspond to three-dimensional rigid links, and has 17 to 20 links and 39 to 43 joint degrees of freedom in the whole body.

すなわち、筋骨格モデル3は、頭部31、頸椎32、胸部(胸椎)33、腰椎、骨盤35、左右脚部36を構成する大腿、下腿、足部36c、左右の鎖骨、左右腕部37を構成する上腕、前腕、手部から構成されている。例えば、上腕と前腕の間の肘関節の曲げは1自由度、前腕と手部37dの間の手首関節は、前後および内外の曲げと捩じりの3自由度を有している。 That is, the musculoskeletal model 3 includes a head 31, a cervical vertebrae 32, a thorax (thoracic vertebrae) 33, a lumbar vertebrae, a pelvis 35, thighs, lower legs, feet 36c constituting the left and right legs 36, left and right collarbones, and left and right arm parts 37. It consists of the upper arm, forearm, and hand. For example, the elbow joint between the upper arm and the forearm has one degree of freedom for bending, and the wrist joint between the forearm and the hand 37d has three degrees of freedom for forward and backward bending, internal and external bending, and twisting.

実施例では、身体各節の質量や慣性モーメントなどの身体パラメータの値は、一般的な成人男性を想定したものを標準とし、入力データ(シミュレーションデータ)における身長、体重などのデータに基づき、身体パラメータをスケーリングする。また、各関節には関節軟部組織などの関節構造に起因する受動抵抗が作用する。 In the example, the values of body parameters such as the mass and moment of inertia of each body joint are assumed to be a typical adult male, and the values of body parameters such as the mass and moment of inertia of each body joint are set based on data such as height and weight in input data (simulation data). Scale parameters. Furthermore, passive resistance due to joint structures such as joint soft tissues acts on each joint.

3.2 運動代表点の定義
筋骨格モデル3は、様々な身体運動を再現するうえで生体力学的に妥当であり、かつ、簡便で計算コストが低く抑えられていることが好ましい。そこで、身体各部位に運動代表点を設定し、各運動代表点の運動軌道を定義できるようにしている。実施形態では、着座姿勢での視認目標点20の確認動作のための身体運動であることから、頭部31の眼球座標(左右の眼球5の中間座標または頭部31の中心座標でもよい)と胸部33(基準部位でもある)の2点を運動代表点prep(3自由度)として定義し、頚部32の運動代表角qrep(3自由度)として定義することで、合計9変数で身体運動を規定した。
3.2 Definition of motion representative points It is preferable that the musculoskeletal model 3 is biomechanically appropriate for reproducing various body motions, and that it is simple and has a low calculation cost. Therefore, representative motion points are set for each body part, and the motion trajectory of each representative motion point can be defined. In the embodiment, the eyeball coordinates of the head 31 (the intermediate coordinates of the left and right eyeballs 5 or the central coordinates of the head 31 may be used) and By defining two points on the chest 33 (also a reference part) as the motion representative point p rep (3 degrees of freedom) and as the motion representative angle q rep (3 degrees of freedom) on the neck 32, the body can be calculated using a total of 9 variables. prescribed exercise.

運動代表点の3次元位置は空間座標系によって記述され、身体運動は、運動代表点の初期位置から目標(終端)位置への移動として定義される。この座標位置は、他の運動代表点を基準とした相対的な座標値として定義することもできる。例えば、頭部31の中心座標を運動代表点とした場合、この点の移動として確認動作を定義することができ、この運動代表点を基準に眼球座標を定義することもできる。 The three-dimensional position of the motion representative point is described by a spatial coordinate system, and body motion is defined as movement of the motion representative point from an initial position to a target (terminal) position. This coordinate position can also be defined as a relative coordinate value with respect to another motion representative point. For example, if the center coordinates of the head 31 are used as a representative motion point, the confirmation motion can be defined as the movement of this point, and the eyeball coordinates can also be defined based on this representative motion point.

3.3 準静的な運動規範ポテンシャルによる姿勢生成
身体運動を規定する運動代表点および運動代表角の9変数に対して筋骨格モデル3の関節自由度は冗長である。この冗長に存在する関節角度を自律的かつ生理学的に妥当になるように定めるため、以下のように、準静的な運動規範ポテンシャルによる逆モデルベースの力学計算アルゴリズムを用いる。
3.3 Posture generation using quasi-static motion norm potential The joint degrees of freedom of the musculoskeletal model 3 are redundant for the nine variables of motion representative points and motion representative angles that define body motion. In order to determine these redundant joint angles in a manner that is autonomous and physiologically valid, a mechanical calculation algorithm based on an inverse model using a quasi-static motion norm potential is used as described below.

先ず、離散時間における1時点の各関節の関節角度qを状態変数とし、角速度、角加速度、外力に基づき、身体の筋骨格モデル3の運動方程式に対する逆動力学計算により、その姿勢および運動を実現する仮想関節駆動トルクnvを次式のように規定する。
ここで、dinv(・)は逆動力学計算を行うための関数、fextは筋骨格モデル3に作用する外力を示し、筋骨格モデル3とシート6などの力学環境との接触力であり、関節変位および関節変位速度の関数として求められる。
First, the joint angle q of each joint at one point in time in discrete time is used as a state variable, and the posture and motion are realized by inverse dynamics calculation for the equation of motion of the musculoskeletal model of the body 3 based on angular velocity, angular acceleration, and external force. The virtual joint drive torque n v is defined as follows.
Here, d inv (・) is a function for performing inverse dynamics calculation, and f ext indicates an external force acting on the musculoskeletal model 3, which is the contact force between the musculoskeletal model 3 and the mechanical environment such as the seat 6. , is determined as a function of joint displacement and joint displacement velocity.

次に、現時点の関節角度qが決まれば、それによって定まる筋骨格モデル3上に規定された運動代表点位置prep(q)と、設定情報として取得される視認目標点位置と後述の最適化計算によって定められる目標運動代表点位置pserとの差異の大きさを運動代表点に対する運動規範ポテンシャルUΔp、同様に現時点の筋骨格モデル3上の運動代表角qrep(q)と目標運動代表角qserとの差異を運動代表角に対する運動規範ポテンシャルUΔqとすると、運動規範ポテンシャルUΔpおよび運動規範ポテンシャルUΔqは以下のようになる。
Next, once the current joint angle q is determined, the motion representative point position p rep (q) defined on the musculoskeletal model 3 determined by it, the visual target point position obtained as setting information, and the optimization described later. The magnitude of the difference from the target motion representative point position p ser determined by calculation is expressed as the motion norm potential UΔp for the motion representative point, and similarly, the motion representative angle q rep (q) on the current musculoskeletal model 3 and the target motion representative angle Letting the difference from q ser be the motion norm potential UΔq for the motion representative angle, the motion norm potential UΔp and the motion norm potential UΔq are as follows.

これらの運動規範ポテンシャルに加え、式(3.1)の逆動力学計算による仮想関節トルクnvの二乗和で規定される身体運動負荷に対する運動規範ポテンシャルを考慮し、これらの重み付き線形和として総合運動規範ポテンシャルU(q)を規定する。
ここで、k1、k2、k3は重み係数である。この総合運動規範ポテンシャルを解析的に求めることは困難であるため、関節角度qを状態変数として、これに摂動Δqを与えた際のポテンシャルU(q+Δq)を求め、差分により近似的な運動規範ポテンシャルの勾配∇Uを求める。
In addition to these motion norm potentials, considering the motion norm potential for the body motion load defined by the sum of the squares of the virtual joint torque n v by the inverse dynamics calculation of equation (3.1), the weighted linear sum of these potentials is expressed as Define the general motion norm potential U(q).
Here, k 1 , k 2 , and k 3 are weighting coefficients. Since it is difficult to analytically obtain this comprehensive motion norm potential, we calculate the potential U (q + Δq) when perturbation Δq is given to the joint angle q as a state variable, and calculate the approximate motion norm potential by the difference. Find the gradient ∇U.

先の逆動力学計算による仮想的関節駆動トルクnvに、上記運動規範ポテンシャルの勾配∇Uの影響を付加することで、実際の関節駆動トルクnrealは次式のようになる。
ここで、k4、k5は重み係数である。このように運動規範ポテンシャルの勾配∇Uを考慮することで、身体運動負荷と、運動代表点の現在位置と目標位置との差異の両者を減少させる姿勢を生成する。
By adding the influence of the gradient ∇U of the motion norm potential to the virtual joint drive torque n v obtained by the above inverse dynamics calculation, the actual joint drive torque n real becomes as shown in the following equation.
Here, k 4 and k 5 are weighting coefficients. By considering the gradient ∇U of the motion norm potential in this way, a posture is generated that reduces both the body motion load and the difference between the current position and the target position of the motion representative point.

3.4 順動力学計算による身体運動生成
上述したような運動規範ポテンシャルによって求まる関節駆動トルクnrealに加えて、順動力学計算を行うことで、与えられた運動代表点位置に対応した身体運動を生成する。ここでは、関節駆動トルクに相当する状態変数vを仮定し、それによる運動規範ポテンシャルUfwd(v)を定義し、これを減少させるダイナミクスを次式のように定義する。
ここで、n(q)は逆動力学計算による関節駆動トルク、k6,k7は係数である。
3.4 Body motion generation by forward dynamics calculation In addition to the joint drive torque n real determined by the motion norm potential as described above, by performing forward dynamics calculation, the body motion corresponding to the given motion representative point position can be calculated. generate. Here, we assume a state variable v corresponding to the joint drive torque, define a motion norm potential U fwd (v) based on this, and define dynamics for reducing this as shown in the following equation.
Here, n(q) is a joint drive torque obtained by inverse dynamic calculation, and k 6 and k 7 are coefficients.

運動規範ポテンシャルUfwdは、順動力学計算により以下のようにして求める。先ず、関節駆動トルク相当の状態変数vが与えられると、現時点(時刻t)での加速度を次式のように推定できる。
The motion norm potential U fwd is determined by forward dynamics calculation as follows. First, when a state variable v equivalent to a joint drive torque is given, the acceleration at the present moment (time t) can be estimated as shown in the following equation.

ここで、Mは慣性行列、hはコリオリ力、fextは外力である。この加速度から、時刻t+Δtの身体の運動変位と速度を、次式のような時間積分により推定できる。
Here, M is the inertia matrix, h is the Coriolis force, and f ext is the external force. From this acceleration, the displacement and velocity of the body at time t+Δt can be estimated by time integration as shown in the following equation.

これらより、時刻t+Δtにおける運動代表点の速度と位置を、次式のように推定できる。
From these, the speed and position of the motion representative point at time t+Δt can be estimated as shown in the following equation.

上記f1,f2は身体構造の順運動学計算により関節変位・速度から運動代表点位置・速度を求める関数である。運動規範ポテンシャルUfwdは、順動力学計算により得られる予測運動代表点位置Ppreと目標運動代表点位置Pserとの差異によって次式のように定義される。A2,A3は重み係数行列である。
The above f 1 and f 2 are functions for determining the motion representative point position and velocity from the joint displacement and velocity by forward kinematic calculation of the body structure. The motion reference potential U fwd is defined by the following equation based on the difference between the predicted motion representative point position P pre obtained by forward dynamics calculation and the target motion representative point position Pser. A 2 and A 3 are weighting coefficient matrices.

上式で定義される運動規範ポテンシャルUfwdは、眼球運動との連成は考慮されていない。身体運動と眼球運動との連成は、後述の視認目的関数Foを最小化する最適化計算によって実現される。 The motion norm potential U fwd defined by the above equation does not take into account coupling with eye movement. The coupling between the body movement and the eye movement is realized by optimization calculation that minimizes the visual recognition objective function Fo, which will be described later.

3.5 眼球運動モデル
眼球は外眼筋と呼ばれる6種類の筋肉の収縮によって眼球運動を実現しており、運動が大きくなるほど外眼筋は疲労し、ヒトは目に負担を感じる。そこで、眼球の負担度を、眼球運動における眼球角速度と眼球姿勢に基づいて以下のように定義する。
ここで、ωeyeは眼球角速度ベクトル、θeyeは眼球姿勢、k11,k12,k13は係数である。視認性評価のための眼球運動モデル4であるため、中心視による視認を前提とし、視線は筋骨格モデル3の力学計算で求まる眼球5の位置と視認目標点20の位置を結ぶベクトルで定義される。眼球姿勢θeyeは目標点視認時の視線と眼球5の中立姿勢の内積の角度である。
3.5 Eye movement model The eyeball achieves eye movement through the contraction of six types of muscles called extraocular muscles.The greater the movement, the more fatigue the extraocular muscles cause, and humans feel strain on their eyes. Therefore, the degree of burden on the eyeballs is defined as follows based on the eyeball angular velocity and eyeball posture during eyeball movement.
Here, ω eye is an eyeball angular velocity vector, θ eye is an eyeball posture, and k 11 , k 12 , and k 13 are coefficients. Since this is the eye movement model 4 for evaluating visibility, it is assumed that visual recognition is performed through central vision, and the line of sight is defined by a vector connecting the position of the eyeball 5 determined by the mechanical calculation of the musculoskeletal model 3 and the position of the visual target point 20. Ru. The eyeball posture θ eye is the angle of the inner product of the line of sight when viewing the target point and the neutral posture of the eyeball 5 .

眼球・頭部協調運動は、静的環境と走行環境と異なる特性を有し、眼球の負担度もこれらの環境に応じて変化する。具体的に、静的環境下では、眼球運動の目標点水平角度が10°を超えると頭部運動が生起し、頭部角度(頸部32の回転角度)が眼球角度よりも大きくなる(眼球角度の2倍程度となる)のに対し、走行環境下では、眼球運動が優先され、目標点水平角度30°程度までは積極的な頭部運動は起こらない。 The eyeball/head coordination movement has different characteristics depending on the static environment and the running environment, and the degree of burden on the eyeballs also changes depending on these environments. Specifically, in a static environment, head movement occurs when the horizontal angle of the target point of eye movement exceeds 10°, and the head angle (rotation angle of the neck 32) becomes larger than the eyeball angle (eyeball angle). On the other hand, in a driving environment, eye movement takes priority and active head movement does not occur until the horizontal angle of the target point is about 30°.

そこで、静的環境下ではθeye=10°、走行環境下ではθeye=30°から眼球の負担度が急激に増加するように、静的環境と走行環境とで係数k13に異なる値を設定することにより、視認環境を考慮したシミュレーションおよび視認性評価を行えるようになる。 Therefore, different values were set for the coefficient k13 in the static environment and in the driving environment so that the degree of eye strain increases rapidly from θ eye = 10° in a static environment and from θ eye = 30° in a driving environment. By setting this, it becomes possible to perform simulations and visibility evaluations that take into account the visibility environment.

さらに、眼球の中立姿勢については、仰俯角ゼロの幾何学的な中立姿勢とは別に、視界情報によらず眼球負荷が最小、すなわち、外眼筋の収縮がなく眼球が運動していない姿勢を眼球の中立姿勢に設定できるようにした。眼球の中立姿勢が頭部座標系(31a)に対して上下方向にどの程度傾いているか、被験者による検証実験を行ったところ、静的環境下の着座姿勢では、頭部座標系に対して5~10°の俯角を有する下向きであることが確認された。したがって、上述した走行環境下と静的環境下での眼球運動の水平角度特性に加えて、眼球の上下方向の中立姿勢の特性を考慮することで、それぞれの視認環境を反映したシミュレーションおよび視認性評価を行うことができる。 Furthermore, regarding the neutral posture of the eyeballs, in addition to the geometric neutral posture with zero elevation and depression angles, there is also a posture in which the eyeball load is minimal regardless of visual field information, that is, there is no contraction of the extraocular muscles and the eyeballs are not moving. It is now possible to set the eyeballs to a neutral posture. We conducted a verification experiment with subjects to determine how much the neutral posture of the eyeballs is tilted in the vertical direction with respect to the head coordinate system (31a). It was confirmed that it was pointing downward with an angle of depression of ~10°. Therefore, in addition to the horizontal angular characteristics of eye movement under the driving environment and static environment mentioned above, by considering the characteristics of the neutral posture of the eyeball in the vertical direction, we can improve the simulation and visibility that reflect each viewing environment. Evaluation can be carried out.

3.6 視認動作の最適化
先述したように、筋骨格モデル3(剛体リンクモデル)の身体運動は、確認動作において中心的な役割を果たす頭部31と胸部33の運動代表点と頚部32の運動代表角を変数として確認動作および眼球座標を定義し、関節角度qを状態変数として摂動Δqを与え、関節駆動トルクを求めることで、準静的運動姿勢を生成し、さらに順動力学計算による運動規範ポテンシャルUfwdにより単位時間Δt後の運動代表点位置と運動代表角を算出するが、眼球運動との連成は考慮されていない。
3.6 Optimization of visual confirmation movement As mentioned earlier, the body movement of the musculoskeletal model 3 (rigid link model) is based on the motion representative points of the head 31 and chest 33, which play a central role in the confirmation movement, and the movement representative points of the neck 32. A quasi-static motion posture is generated by defining the confirmation motion and eye coordinates using the motion representative angle as a variable, giving a perturbation Δq using the joint angle q as a state variable, and finding the joint drive torque. The motion representative point position and motion representative angle after unit time Δt are calculated using the motion norm potential U fwd , but coupling with eye movement is not taken into consideration.

そこで、視認動作において、基準姿勢からの乖離度Dを考慮して、眼球負荷と身体負荷を含む身体運動の負担度Bと視野判断モデルから出力される視認度Rの関係を規定する視認目的関数Foを下式のように定義することで、これを最小化する身体運動と眼球運動を算出する最適化計算によって身体運動と眼球運動を連成させ、最適な視認動作が生成されるようにした。
ここで、Leyeは眼球負荷、Lneckは頸部で生じる力学的負荷、Lbodyは頸部以外の身体の力学的負荷、Rは視認度、k14,k15,k16,k17は重み付け係数、Cposは基準姿勢からの基準部位の変位(距離)であり、基準姿勢からの乖離度D(1+k14pos)は、基準姿勢からの変位Cposがゼロの最小の場合に1となるように調整されている。
Therefore, in the visual recognition operation, a visual recognition objective function that takes into account the degree of deviation D from the reference posture and defines the relationship between the degree of burden B of physical exercise including eyeball load and body load and the degree of visibility R output from the visual field judgment model. By defining Fo as the following formula, the body movement and eye movement are coupled through an optimization calculation that calculates the body movement and eye movement to minimize Fo, and the optimal visual recognition movement is generated. .
Here, L eye is the eyeball load, L neck is the mechanical load generated in the neck, L body is the mechanical load on the body other than the neck, R is visibility, and k 14 , k 15 , k 16 , and k 17 are The weighting coefficient C pos is the displacement (distance) of the reference part from the reference posture, and the degree of deviation from the reference posture D (1+k 14 C pos ) is 1 when the displacement C pos from the reference posture is the minimum of zero. It has been adjusted so that

眼球負荷Leyeは先述の式(3.14)で与えられ、頸部負荷Lneckと身体負荷Lbodyは次式により与えられる。
ここで、ξは各身体部位に対応した番号で、頸部負荷Lneckでは頸部32、 身体負荷Lbody では頸部32以外の身体部位に対応し、nξは関節駆動トルク、τξは関節受動抵抗であり、筋活動による身体への負担は筋肉の発揮力に相当する関節駆動トルクの二乗和平方根で算出される。また、関節可動域制限近くの関節角度では関節受動抵抗による反作用が生じ、これも関節への負荷になるので、同様に関節受動抵抗の二乗和平方根も追加されているが、基準姿勢からの乖離度Dを最小化する前提では関節角度は比較的小さい範囲に留まると推定して、省略することもできる。
The eyeball load L eye is given by the above-mentioned equation (3.14), and the neck load L neck and body load L body are given by the following equation.
Here, ξ is a number corresponding to each body part, and neck load L neck corresponds to the neck 32, body load L body corresponds to body parts other than the neck 32, n ξ is joint drive torque, and τ ξ is It is joint passive resistance, and the burden on the body due to muscle activity is calculated as the square root of the sum of the squares of the joint drive torque, which corresponds to the force exerted by the muscles. In addition, at joint angles near the limit of joint range of motion, a reaction occurs due to joint passive resistance, which also places a load on the joint, so the root sum of the squares of joint passive resistance is also added, but the deviation from the reference posture On the premise that the degree D is minimized, it can be assumed that the joint angle will remain within a relatively small range and may be omitted.

基準姿勢からの乖離度D(1+k14pos)は、逆数をとれば基準姿勢の保持指標であり、着座姿勢での視認動作を対象とする場合、胸部33を基準部位とすることで基準姿勢の保持度合いを好適に反映させることができる。基準部位の変位Cposは、胸部33の現在位置ppre、初期位置pintとして次式で与えられる。
The degree of deviation D (1+k 14 C pos ) from the standard posture is an index for maintaining the standard posture if the reciprocal is taken, and when the visual recognition movement in the sitting posture is targeted, the standard posture can be maintained by setting the chest 33 as the standard part. The degree of retention of can be suitably reflected. The displacement C pos of the reference part is given by the following equation, where the current position p pre and the initial position p int of the chest 33 are expressed.

胸部33に設定した基準部位の変位Cposがゼロの場合は、視認動作が眼球運動のみによって行われるか、眼球運動と頭部回旋運動によって行われる場合ということになり、頭部31を傾動すれば変位Cposは有意な値となる。したがって、基準部位を頭部31に設定することもできる。 If the displacement C pos of the reference part set on the chest 33 is zero, this means that the visual recognition movement is performed only by eye movement, or by eye movement and head rotation, and the head 31 must be tilted. In this case, the displacement C pos becomes a significant value. Therefore, the reference region can also be set to the head 31.

なお、着座姿勢以外でも、例えば起立姿勢での視認動作を対象とする場合においても、胸部33や頭部31を基準部位として乖離度Dを考慮することで基準姿勢の保持度合いをシミュレーションに反映させることができる。 In addition, even in cases other than the seated posture, for example, when the target is a visual recognition movement in a standing posture, the degree of maintenance of the reference posture is reflected in the simulation by considering the degree of deviation D with the chest 33 and the head 31 as reference parts. be able to.

先述の式(3.14)で、眼球負荷Leyeに眼球姿勢θeyeが考慮されることで、例えば、視野角内に視認目標点20が設定される場合でも、眼球運動のみでは大きな眼球角度が必要となるような場合には、視認目的関数Foの最小化を通じて、眼球負荷の増大を避けて頭部運動に代替される眼球・頭部協調運動の特性が再現されることになる。 In the above equation (3.14), since the eyeball posture θ eye is taken into account in the eyeball load L eye , for example, even if the visual target point 20 is set within the viewing angle, the eyeball angle will be large due to eyeball movement alone. In such a case, by minimizing the visual recognition objective function Fo, the characteristics of eyeball/head coordination movement, which can be substituted for head movement, can be reproduced while avoiding an increase in eyeball load.

しかも、先述の式(3.15)で、基本姿勢からの乖離度Dが考慮されることで、基本姿勢が可及的に保持されるように、先ず眼球運動が惹起され、眼球・頭部協調運動から身体運動に移行していく自然な確認動作が自律的に再現され、シミュレーションの状況への適合性向上と、それに伴う視認性評価の質的向上が期待できる。 Furthermore, since the degree of deviation D from the basic posture is taken into account in the above equation (3.15), eye movements are first induced so that the basic posture is maintained as much as possible, and the eyeballs and head are The natural confirmation movement that transitions from coordinated movement to physical movement is autonomously reproduced, and it is expected to improve the suitability to the simulation situation and improve the quality of visibility evaluation accordingly.

特に、乖離度Dは、基準部位の変位Cposがゼロの最小の場合に1となるように調整されているので、基本姿勢が維持される眼球運動ないし眼球・頭部協調運動による確認動作から身体運動を伴う確認動作による易視認性を連続的に評価するうえで有利である。 In particular, the degree of deviation D is adjusted so that it is 1 when the displacement C pos of the reference part is a minimum of zero, so that it is possible to avoid confirmation movements by eye movement or eye/head coordination movement that maintains the basic posture. This is advantageous in continuously evaluating visibility through confirmation movements that involve physical movement.

4.視認性評価システムの処理フロー
以上述べたように、本発明に係る評価システム1は、生体力学モデル10を利用して評価対象データ2における視認目標点20の確認動作のシミュレーションを行い、確認動作の容易性(負担度)と基準姿勢の保持度合いを考慮した視認性を評価するものであり、図5は、実施形態に係る評価システム1の処理フローを示すフローチャートである。
4. Processing Flow of Visibility Evaluation System As described above, the evaluation system 1 according to the present invention uses the biomechanical model 10 to simulate the confirmation movement of the visibility target point 20 in the evaluation target data 2. The visibility is evaluated in consideration of the ease (degree of burden) and the degree of maintenance of the reference posture, and FIG. 5 is a flowchart showing the processing flow of the evaluation system 1 according to the embodiment.

また、先述したように、評価システム1は、独立して動作しながら連成する生体力学モデル10と視野判断モデル50から構成されており、図6は、実施形態に係る評価システム1の処理フローを、生体力学モデル10における処理(確認動作シミュレーション)と視野判断モデル50における処理(視認性判断)に分けて記載している。また、図3に、図6の処理の一部の符号を併記し、生体力学モデル10と視野判断モデル50におけるデータの受け渡しを示す。 Furthermore, as described above, the evaluation system 1 is composed of the biomechanical model 10 and the visual field judgment model 50 that operate independently and in conjunction with each other, and FIG. 6 shows the processing flow of the evaluation system 1 according to the embodiment. is described separately into processing in the biomechanical model 10 (confirmation motion simulation) and processing in the visual field judgment model 50 (visibility judgment). Further, in FIG. 3, reference numerals for some of the processes in FIG. 6 are also shown, and data exchange between the biomechanical model 10 and the visual field judgment model 50 is shown.

図5において100番台で示された各ステップの符号の下2桁は、図6において200番台および300番台で示された各ステップの符号の下2桁に対応しており、以下、図5、図6を併用して評価システム1の処理フローについて説明する。 The last two digits of the code of each step shown in the 100s in FIG. 5 correspond to the last two digits of the code of each step shown in the 200s and 300s in FIG. The processing flow of the evaluation system 1 will be explained with reference to FIG.

視認性評価に際しては、先ず、評価システム1を構成するコンピュータが起動し、シミュレーションを統括するメインプログラム(1)とデータベース8が起動している状態で、生体力学モデル10および視野判断モデル50が起動される(ステップ100,200,300)。 When evaluating visibility, first, the computer that constitutes the evaluation system 1 is started, and the biomechanical model 10 and the visual field judgment model 50 are started while the main program (1) that controls the simulation and the database 8 are running. (steps 100, 200, 300).

次いで、シミュレーションデータ80の入力情報に従って、所定の評価対象データ2が視野判断モデル50の3Dデータ空間に読み込まれ、評価対象データ2の視認目標点20が生体力学モデル10に取得される(ステップ101,201,301)。 Next, according to the input information of the simulation data 80, the predetermined evaluation target data 2 is read into the 3D data space of the visual field judgment model 50, and the visual recognition target point 20 of the evaluation target data 2 is acquired by the biomechanical model 10 (step 101 , 201, 301).

次いで、視野判断モデル50において、評価対象データ2の視認目標点20にグラデーション球21が設定される(ステップ102,302)。グラデーション球21自体のデータは予め視野判断モデル50に用意されており、グラデーション球21の中心座標が視認目標点20に設定される。 Next, in the visual field judgment model 50, the gradation sphere 21 is set at the visual recognition target point 20 of the evaluation target data 2 (steps 102, 302). The data of the gradation sphere 21 itself is prepared in advance in the visual field determination model 50, and the center coordinates of the gradation sphere 21 are set as the visual recognition target point 20.

次いで、シミュレーションデータ80から姿勢情報が読み込まれ、生体力学モデル10の筋骨格モデル3および眼球運動モデル4に初期姿勢(基準姿勢)が生成され、視野判断モデル50の人体モデル53に初期姿勢が反映されるとともに、カメラ55の初期位置が取得される(ステップ103,203,303)。この状態でカメラ55より視野画像が取得され、視認度の初期値R0が算出される。 Next, posture information is read from the simulation data 80, an initial posture (reference posture) is generated in the musculoskeletal model 3 and the eye movement model 4 of the biomechanical model 10, and the initial posture is reflected in the human body model 53 of the visual field judgment model 50. At the same time, the initial position of the camera 55 is acquired (steps 103, 203, 303). In this state, a visual field image is acquired by the camera 55, and an initial value R 0 of visibility is calculated.

以上のような準備を経て、摂動/挙動プロセスに移行すると、先ず、運動生成モジュール12において、逆動力学計算ルーチンおよび順動力学計算ルーチンのそれぞれの状態変数が算出される(ステップ110,210,310)。 When the perturbation/behavior process is started after the preparations described above, first, the motion generation module 12 calculates the state variables of the inverse dynamics calculation routine and the forward dynamics calculation routine (steps 110, 210, 310).

次に、逆動力学計算によって関節駆動トルクが算定され、さらに、順動力学計算によって加速度を時間積分して単位時間後の姿勢が推定される。このようにして生体力学モデル10に摂動を与え、得られた姿勢情報(骨格リンク姿勢、眼球姿勢、何れもクォータニオン)、眼球負荷、および、身体力学系へ作用させる関節駆動トルク(頚部負荷、他の身体負荷)が負担度Bとして取得され、基準部位33の変位量が基準姿勢からの乖離度Dとして取得され、状態変数と共に摂動データ82に格納される(ステップ111,211)。 Next, the joint drive torque is calculated by inverse dynamic calculation, and the posture after a unit time is estimated by time-integrating the acceleration by forward dynamic calculation. In this way, the biomechanical model 10 is perturbed, and the obtained posture information (skeletal link posture, eyeball posture, all quaternions), eyeball load, and joint drive torque (cervical load, etc.) that is applied to the body mechanics system. body load) is obtained as the degree of burden B, and the amount of displacement of the reference part 33 is obtained as the degree of deviation D from the reference posture, and is stored in the perturbation data 82 together with the state variable (steps 111, 211).

さらに、上記摂動により得られた姿勢情報は視野判断モデル50の人体モデル53およびカメラ55に反映され(図6、ステップ311)、カメラ55に取得された視野画像のR値の合計として視認度Rが算出され(ステップ112,312)、摂動データ82に格納される。 Furthermore, the posture information obtained by the above perturbation is reflected on the human body model 53 of the visual field judgment model 50 and the camera 55 (FIG. 6, step 311), and the visibility R is expressed as the sum of the R values of the visual field images acquired by the camera 55. is calculated (steps 112, 312) and stored in the perturbation data 82.

上記のような摂動プロセスが状態変数の数だけ繰り返され、全ての状態変数の摂動が与えられると(ステップ113,213)、挙動プロセスに移行する。 The perturbation process as described above is repeated for the number of state variables, and when all state variables have been perturbed (steps 113 and 213), the process moves to the behavior process.

先ず、摂動プロセスにおいて負担度B、乖離度D、および視認度Rが取得された各状態変数の中から、視認目的関数Foを最小化(合目的的負担度B・D最小かつ視認度R最大)する状態変数が算出され、対応する関節駆動トルクが決定される(ステップ120,220)。 First, the visibility objective function Fo is minimized from among the state variables for which the burden degree B, the deviation degree D, and the visibility R are obtained in the perturbation process (minimum purposeful burden degree B and D and maximum visibility R). ) are calculated and the corresponding joint drive torques are determined (steps 120, 220).

次いで、決定された状態変数および関節駆動トルクによって生体力学モデル10(筋骨格モデル3および眼球運動モデル4)が実際に駆動され、挙動による姿勢が生成され、挙動データ81に姿勢情報(骨格リンク姿勢、眼球姿勢、何れもクォータニオン)が格納される(ステップ121,221)。 Next, the biomechanical model 10 (musculoskeletal model 3 and eye movement model 4) is actually driven by the determined state variables and joint drive torque, a posture based on the behavior is generated, and posture information (skeletal link posture) is added to the behavior data 81. , eyeball posture (all quaternions) are stored (steps 121, 221).

さらに、上記挙動による姿勢情報が視野判断モデル50の人体モデル53およびカメラ55に反映され(図6、ステップ321)、カメラ55に取得された視野画像のR値の合計として視認度Rが算出され(ステップ122,322)、挙動データ81に格納される。また、人体モデル53の姿勢情報がキーフレームに登録される(図6、ステップ324)。 Furthermore, the posture information based on the above behavior is reflected on the human body model 53 of the visual field judgment model 50 and the camera 55 (FIG. 6, step 321), and the visibility R is calculated as the sum of the R values of the visual field images acquired by the camera 55. (Steps 122, 322) and is stored in the behavior data 81. Additionally, posture information of the human body model 53 is registered in the key frame (FIG. 6, step 324).

これと並行してデータベース8において、当該挙動プロセスを含めた負担度Bの積算値が算出され、上記視認度Rを参照して、負担度B(積算値)を考慮した易視認性が算出される(ステップ222)。 In parallel with this, in the database 8, the integrated value of the burden level B including the behavioral process is calculated, and with reference to the visibility R, the easy visibility is calculated taking into account the burden level B (integrated value). (step 222).

次いで、視認度Rが予め設定した閾値と比較され(ステップ130,230,330)、閾値に到達していないと判断された場合は、上述したような摂動/挙動プロセスが繰り返される。 The visibility R is then compared to a preset threshold (steps 130, 230, 330) and if it is determined that the threshold has not been reached, the perturbation/behavior process as described above is repeated.

視認度Rが予め設定した閾値以上となった場合は、生体力学モデル10によるシミュレーションは終了され、当該視認度Rと、最終挙動プロセスにおいて算出された負担度B(積算値)を考慮した易視認性評価が、当該シミュレーション(試行No)における結果として、シミュレーションデータ80に記録される(図6、ステップ231)。 When the visibility R exceeds a preset threshold, the simulation by the biomechanical model 10 is terminated, and easy visibility is determined based on the visibility R and the burden B (integrated value) calculated in the final behavior process. The performance evaluation is recorded in the simulation data 80 as a result of the simulation (trial No.) (FIG. 6, step 231).

同時に、視野判断モデル50では、最終挙動プロセスまでに登録されたキーフレーム(実施例では0.1秒間隔、10fps)のデータに基づいてレンダリングが実行され、評価映像が作成される(図6、ステップ331)。 At the same time, in the visual field judgment model 50, rendering is executed based on the data of key frames (0.1 second interval, 10 fps in the example) registered up to the final behavior process, and an evaluation video is created (FIG. 6, Step 331).

なお、レンダリングに際しては、キーフレーム間の身体運動は動画作成機能により補間される。また、評価対象データ2(インストルメントパネル)や人体モデル53の表面情報が反映されるようにするか、または、グレースケールなどにして視認目標点20の位置が明確になるようにしても良い。カメラ55(人体モデル53)による視野映像のほかに、人体モデル53の斜後上方など適宜位置に設定した外部視点からの映像を作成できる。 Note that during rendering, body movements between key frames are interpolated by a video creation function. Further, the surface information of the evaluation target data 2 (instrument panel) and the human body model 53 may be reflected, or the position of the visual target point 20 may be made clear by using a gray scale or the like. In addition to the field-of-view image captured by the camera 55 (human body model 53), an image from an external viewpoint set at an appropriate position such as obliquely above the human body model 53 can be created.

上記実施形態の摂動プロセス(ステップ111~112、211、311~312)において、生体力学モデル10に得られた姿勢情報を1回の摂動ごとに視野判断モデル50の人体モデル53およびカメラ55に反映し、視野画像から視認度Rを算出する代わりに、生体力学モデル10にて全ての(または一部の)状態変数分の姿勢情報を取得してから視野判断モデル50に一括して転送し、視野画像取得および視認度R算出を行うようにすることもできる。 In the perturbation process (steps 111-112, 211, 311-312) of the above embodiment, the posture information obtained in the biomechanical model 10 is reflected in the human body model 53 and camera 55 of the visual field judgment model 50 for each perturbation. However, instead of calculating the visibility R from the visual field image, the biomechanical model 10 acquires posture information for all (or some) state variables and then transfers it all at once to the visual field judgment model 50. It is also possible to perform visual field image acquisition and visibility R calculation.

また、上記実施形態の摂動プロセス(ステップ111~112、211、311~312)では、生体力学モデル10に状態変数の数だけ摂動が与えられる場合について述べたが、状態変数よりも少ない複数回の摂動を与えることによって、視認目的関数Foを最小化する状態変数を推定し、挙動のための関節駆動トルクを決定することもできる。 In addition, in the perturbation process (steps 111-112, 211, 311-312) of the above embodiment, a case has been described in which perturbations are given to the biomechanical model 10 by the number of state variables. By applying perturbations, it is also possible to estimate state variables that minimize the visibility objective function Fo and determine joint drive torques for the behavior.

また、上記実施形態では、視認度Rが予め設定した閾値以上となるまで摂動/挙動プロセスが反復される場合について述べたが、摂動/挙動プロセスの反復回数(または反復時間)に上限を設け、予め設定した所定回数(所定時間)に達した時点で生体力学モデル10によるシミュレーションが終了するようにすることもできる。 Further, in the above embodiment, a case has been described in which the perturbation/behavior process is repeated until the visibility R becomes equal to or higher than a preset threshold, but an upper limit is set on the number of repetitions (or repetition time) of the perturbation/behavior process, The simulation by the biomechanical model 10 may be terminated when a predetermined number of times (predetermined time) is reached.

一方、摂動/挙動プロセスの反復による視認度Rの向上により、運動生成モジュール12に算出される関節駆動トルクが漸減し、加速度が漸減することにより、何れかの状態値(またはその変化率)が設定以下になった時点で、生体力学モデル10による確認動作が自律的に収束したと見做してもよい。 On the other hand, as the visibility R increases due to repetition of the perturbation/behavior process, the joint drive torque calculated by the motion generation module 12 gradually decreases, and the acceleration gradually decreases, causing any state value (or its rate of change) to change. When the value falls below the setting, it may be considered that the confirmation operation by the biomechanical model 10 has autonomously converged.

また、上記ステップ100(200)において、1つの視野判断モデル50に対して複数の生体力学モデル10を起動(多重起動)し、ステップ111(211)で、それぞれの生体力学モデル10に状態変数を割り当てて摂動および負担度Bの算出(および基準姿勢からの乖離度Dの算出)を並列計算により実行するようにしても良い。視野判断モデル50に比較して生体力学モデル10は計算負荷が大きいので、並列計算により処理時間の短縮とリソースの平準化に有利である。 Further, in the above step 100 (200), a plurality of biomechanical models 10 are activated (multiple activation) for one visual field judgment model 50, and in step 111 (211), a state variable is set for each biomechanical model 10. The calculation of the perturbation and the degree of burden B (and the calculation of the degree of deviation D from the reference posture) may be performed by parallel calculation. Since the biomechanical model 10 has a larger calculation load than the visual field judgment model 50, parallel calculation is advantageous in reducing processing time and leveling resources.

上記実施形態では、生体力学モデル10において、初期姿勢から1つの視認目標点20の確認動作をシミュレートする場合を示したが、複数の視認目標点を順に確認する動作をシミュレートして総合的な視認性を評価することもできる。 In the above embodiment, the biomechanical model 10 simulates the movement of checking one visible target point 20 from the initial posture, but it is possible to simulate the movement of sequentially checking a plurality of visible target points to comprehensively It is also possible to evaluate visibility.

以上、本発明の実施形態について述べたが、本発明は上記実施形態に限定されるものではなく、本発明の技術的思想に基づいてさらに各種の変形および変更が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications and changes can be made based on the technical idea of the present invention.

例えば、上記実施形態では、車両のインストルメントパネルを評価対象データ2とし、その右側下部にあるスイッチを視認目標点20とする場合について述べたが、本発明はこれに限定されるものではなく、視認目標点は他の位置であっても良いし、インストルメントパネル以外を評価対象データとすることもできる。また、着座姿勢以外の起立姿勢や歩行姿勢、車両乗降時の視認目標点の確認動作など、確認動作を伴って視認することが想定される様々な物品の易視認性評価や設計支援に応用できる。 For example, in the above embodiment, a case has been described in which the instrument panel of the vehicle is the evaluation target data 2 and the switch on the lower right side thereof is the visual recognition target point 20, but the present invention is not limited to this. The visual target point may be at another position, and data other than the instrument panel may be the data to be evaluated. In addition, it can be applied to the visibility evaluation and design support of various items that are expected to be seen in conjunction with confirmation movements, such as standing postures other than sitting postures, walking postures, and confirmation of visual target points when getting in and out of a vehicle. .

1 評価システム
2 評価対象データ(インストルメントパネル)
3 筋骨格モデル(身体モデル)
4 眼球運動モデル
5 眼球
6 支持構造(シート)
7 支持構造(ハンドル)
8 データベース
10 生体力学モデル
11 統括制御部
12 運動生成モジュール
13 負担度
14 乖離度
15 視認度
16 視認目的関数
17 易視認性総合評価部
20 視認目標点
21 グラデーション球
30 身体
31 頭部
32 頸部
33 胸部(基準部位)
50 視野判断モデル
53 人体モデル
55 カメラ(視点)
1 Evaluation system 2 Evaluation target data (instrument panel)
3 Musculoskeletal model (body model)
4 Eye movement model 5 Eyeball 6 Support structure (sheet)
7 Support structure (handle)
8 Database 10 Biomechanical model 11 General control unit 12 Movement generation module 13 Load level 14 Discrepancy level 15 Visibility 16 Visibility objective function 17 Easy visibility comprehensive evaluation unit 20 Visibility target point 21 Gradation sphere 30 Body 31 Head 32 Neck 33 Chest (reference site)
50 Visual field judgment model 53 Human body model 55 Camera (viewpoint)

Claims (7)

3DCADによるオブジェクトのための視認性評価システムであって、
前記オブジェクトおよびその視認目標点が定義された仮想3D空間において前記視認目標点に対する確認動作のシミュレーションを行うための生体力学モデルと、
前記生体力学モデルの視線における視野画像において前記視認目標点に対する視認度を算出するための視野判断モデルと、
前記生体力学モデルに摂動を与え、その姿勢にて、前記視認目標点に対する視認度と、前記摂動に伴う前記生体力学モデルの負担度と、前記生体力学モデルに設定される基準姿勢からの乖離度とを算出し、前記負担度に前記乖離度を乗算した合目的的負担度が最小かつ前記視認度が最大となる挙動にて視認姿勢を生成する操作を実行することにより、前記生体力学モデルと前記視野判断モデルを連成させる統括制御部と、
を備え、前記負担度の積算値と前記視認度の最終値から易視認性を算出するように構成されている、視認性評価システム。
A visibility evaluation system for objects using 3D CAD, the system comprising:
a biomechanical model for simulating a confirmation movement for the visual target point in a virtual 3D space in which the object and its visual target point are defined;
a visual field determination model for calculating the degree of visibility for the visual target point in the visual field image in the line of sight of the biomechanical model;
A perturbation is applied to the biomechanical model, and in that posture, the visibility with respect to the visual target point, the degree of burden on the biomechanical model due to the perturbation, and the degree of deviation from the reference posture set for the biomechanical model. The biomechanical model and a general control unit that couples the visual field judgment model;
A visibility evaluation system, comprising: a visibility evaluation system configured to calculate easy visibility from the integrated value of the degree of burden and the final value of the visibility.
前記乖離度(D)は、前記負担度を考慮した重み付け係数k14、前記生体力学モデルの基準部位の前記基準姿勢からの変位量Cposとして、前記変位量Cposがゼロの場合に最小値1となるように、式:D=1+k14Cposによって算出される、請求項1記載の視認性評価システム。 The degree of deviation (D) is a weighting coefficient k 14 that takes into account the degree of burden, and a minimum value of 1 when the amount of displacement Cpos is zero, as the amount of displacement Cpos of the reference part of the biomechanical model from the reference posture. The visibility evaluation system according to claim 1, wherein the visibility evaluation system is calculated by the formula: D=1+k 14 Cpos. 前記負担度(B)は、前記生体力学モデルの眼球負荷Leye、頚部における力学的負荷Lneck、頸部以外の身体における力学的負荷Lbody、それぞれの重み付け係数k15,k16,k17として、式:B=k15Leye+k16Lneck+k17Lbodyによって算出され、
前記視認度(R)に対して視認目的関数Fo=D・B/Rを最小化する挙動にて前記視認姿勢が生成される、請求項2記載の視認性評価システム。
The degree of burden (B) is calculated using the following formula: the eyeball load Leye of the biomechanical model, the mechanical load Lneck on the neck, the mechanical load Lbody on the body other than the neck, and the respective weighting coefficients k 15 , k 16 , k 17 :B=k1 5 Leye+k 16 Lneck+k 17 Lbody,
The visibility evaluation system according to claim 2, wherein the visibility posture is generated by a behavior that minimizes a visibility objective function Fo=D·B/R with respect to the visibility (R).
前記オブジェクトは、前記仮想3D空間として定義された車両の運転席前方に配設されるインストルメントパネルの3DCADデータであり、前記生体力学モデルは、前記運転席に着座して前方を正視する着座姿勢が前記基準姿勢として定義され、前記乖離度の算出基準となる基準部位は、前記生体力学モデルの胸部または頭部に設定され、前記生体力学モデルおよび前記視野判断モデルは、前記インストルメントパネルに設置された前記視認目標点に対する確認動作のシミュレーションを行うように適合されている、請求項1記載の視認性評価システム。 The object is 3D CAD data of an instrument panel arranged in front of the driver's seat of the vehicle defined as the virtual 3D space, and the biomechanical model is a sitting posture in which the driver is seated and looks straight ahead. is defined as the reference posture, a reference part serving as a reference for calculating the deviation degree is set to the chest or head of the biomechanical model, and the biomechanical model and the visual field judgment model are installed on the instrument panel. The visibility evaluation system according to claim 1, wherein the visibility evaluation system is adapted to perform a simulation of a confirmation operation for the visibility target point. 前記生体力学モデルの前記摂動は、前記頭部と前記胸部とに設定される運動代表点の位置と、前記頚部に設定される運動代表角の角度を変数として定義され、前記負担度の指標となる前記力学的負荷は、前記生体力学モデルの関節駆動トルクに基づいて算出される、請求項4記載の視認性評価システム。 The perturbation of the biomechanical model is defined using the positions of the motion representative points set on the head and the chest and the angle of the motion representative angle set on the neck as variables, and is defined as the index of the degree of burden. The visibility evaluation system according to claim 4, wherein the mechanical load is calculated based on a joint drive torque of the biomechanical model. 3DCADによるオブジェクトのための視認性評価システムであって、
前記オブジェクトの視認目標点が定義された仮想3D空間にて前記視認目標点に対する確認動作のシミュレーションを行うための生体力学モデルと、
前記生体力学モデルに対応する人体モデルおよび前記オブジェクトが定義された仮想3D空間にて前記生体力学モデルの視線に対応する前記人体モデルの視野画像から前記視認目標点に対する視認度を算出するための視野判断モデルと、
前記生体力学モデルと前記視野判断モデルを連成させる統括制御部であって、
前記生体力学モデルに摂動を与えるステップ、
前記摂動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップ、
前記姿勢を反映した前記人体モデルの視野画像から算出される前記視認目標点に対する視認度を前記視野判断モデルから取得するステップ
前記摂動に伴う前記生体力学モデルの負担度を算出するステップ、および、
前記摂動に伴う前記生体力学モデルの基準姿勢からの乖離度を算出するステップ
を含む摂動プロセスを実行し、前記負担度に前記乖離度を乗算した合目的的負担度が最小かつ前記視認度が最大となる挙動にて前記生体力学モデルの視認姿勢を生成する摂動/挙動プロセスの反復操作を行う統括制御部と、
を備え、前記負担度の積算値と前記視認度の最終値から易視認性を算出するように構成されている、視覚性評価システム。
A visibility evaluation system for objects using 3D CAD, the system comprising:
a biomechanical model for simulating a confirmation movement for the visual target point in a virtual 3D space in which the visual target point of the object is defined;
a visual field for calculating the visibility of the visual target point from a visual field image of the human body model corresponding to the line of sight of the biomechanical model in a virtual 3D space in which a human body model corresponding to the biomechanical model and the object are defined; judgment model,
An overall control unit that couples the biomechanical model and the visual field judgment model,
perturbing the biomechanical model;
reflecting the posture of the biomechanical model due to the perturbation on the human body model;
a step of obtaining from the visual field judgment model a degree of visibility for the visual target point calculated from a visual field image of the human body model reflecting the posture; a step of calculating a degree of burden on the biomechanical model due to the perturbation;
A perturbation process including a step of calculating a deviation degree of the biomechanical model from a reference posture due to the perturbation is performed, and the purposeful load degree obtained by multiplying the load degree by the deviation degree is the minimum and the visibility is the maximum. a general control unit that repeatedly operates a perturbation/behavior process that generates a visual posture of the biomechanical model with a behavior that becomes;
A visibility evaluation system configured to calculate easy visibility from the integrated value of the degree of burden and the final value of the visibility.
前記視野判断モデルの1つに対して前記生体力学モデルを複数起動し、
前記生体力学モデルに状態変数相当の摂動を与えるステップ、前記摂動に伴う前記生体力学モデルの負担度を算出するステップ、および、前記摂動に伴う前記生体力学モデルの基準姿勢からの乖離度を算出するステップを並列計算により実行する、請求項6記載の視認性評価システム。
activating a plurality of the biomechanical models for one of the visual field judgment models;
A step of applying a perturbation equivalent to a state variable to the biomechanical model, a step of calculating a degree of burden on the biomechanical model due to the perturbation, and a step of calculating a degree of deviation of the biomechanical model from a reference posture due to the perturbation. The visibility evaluation system according to claim 6, wherein the steps are executed by parallel calculation.
JP2022118651A 2022-07-26 2022-07-26 Visibility evaluation system Pending JP2024016491A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022118651A JP2024016491A (en) 2022-07-26 2022-07-26 Visibility evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022118651A JP2024016491A (en) 2022-07-26 2022-07-26 Visibility evaluation system

Publications (1)

Publication Number Publication Date
JP2024016491A true JP2024016491A (en) 2024-02-07

Family

ID=89806530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022118651A Pending JP2024016491A (en) 2022-07-26 2022-07-26 Visibility evaluation system

Country Status (1)

Country Link
JP (1) JP2024016491A (en)

Similar Documents

Publication Publication Date Title
Chaffin Human motion simulation for vehicle and workplace design
Chaffin On simulating human reach motions for ergonomics analyses
US20070172797A1 (en) Method of constructing computer-based musculoskeletal model by redefining directions of pivot axes of joints in the same model
Zhang et al. A three-dimensional dynamic posture prediction model for in-vehicle seated reaching movements: development and validation
CN112069933A (en) Skeletal muscle stress estimation method based on posture recognition and human body biomechanics
Happee et al. A mathematical human body model for frontal and rearward seated automotive impact loading
Bubb Why do we need digital human models?
EP1533683A2 (en) Mixed reality simulation system
Abdel-Malek et al. Development of the virtual-human Santos TM
Granieri et al. Simulating humans in VR
Jung et al. A man-machine interface model with improved visibility and reach functions
JP7120572B2 (en) Visibility evaluation system
Gragg et al. Optimisation–based approach for determining driver seat adjustment range for vehicles
Yazdani et al. Is the leader robot an adequate sensor for posture estimation and ergonomic assessment of a human teleoperator?
JP2024016491A (en) Visibility evaluation system
JP2024016492A (en) Visibility evaluation system
JP2024016493A (en) Visibility evaluation system
JP7108986B2 (en) Visibility evaluation system
Okimoto Digital human modeling in product evaluation
Kim et al. Layout design using an optimization-based human energy consumption formulation
Seidl 14.3 The RAMSIS and ANTHROPOS Human Simulation Tools
Badler Simulated Humans, Graphical Behaviors, and Animated Agents
Wang Prediction of lower-limb movements of clutch pedal operation from an existing motion database
Verriest Simulation of human movement for ergonomic design on numerical mock-up
Pinchefsky Nexgen ergonomics inc. HumanCAD