JP2007323341A - 製品設計支援システム - Google Patents

製品設計支援システム Download PDF

Info

Publication number
JP2007323341A
JP2007323341A JP2006152502A JP2006152502A JP2007323341A JP 2007323341 A JP2007323341 A JP 2007323341A JP 2006152502 A JP2006152502 A JP 2006152502A JP 2006152502 A JP2006152502 A JP 2006152502A JP 2007323341 A JP2007323341 A JP 2007323341A
Authority
JP
Japan
Prior art keywords
product
image
human body
body model
virtual human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006152502A
Other languages
English (en)
Inventor
P V Hareesh
ピー ヴィ ハリーシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2006152502A priority Critical patent/JP2007323341A/ja
Publication of JP2007323341A publication Critical patent/JP2007323341A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】仮想人体モデルが目視する注視点の位置を任意に指定可能とすることで、製品の実際使用に近い状態での製品の使用感の評価を可能にする。
【解決手段】画像合成手段16は、製品と仮想人体モデルとの3次元形状を合成した3次元画像データを生成し、第1画像表示装置21と第2画像表示装置22とに表示する。第1画像表示装置21には、製品と仮想人体モデルとを含む仮想空間の所望の視点位置からの3次元画像が表示される。また、目視画像生成手段22では、位置指定手段18により第1画像表示手段21の中で指定した注視点を仮想人体モデルが目視したときの目視画像データを、第1画像表示手段21に表示された画像と同時刻について生成する。目視画像データによる画像は、第2画像表示手段23に表示される。
【選択図】図1

Description

本発明は、製品を設計するにあたり設計した製品と使用者を想定した仮想人体モデルとを3次元のコンピュータグラフィック画像として表示し、仮想人体モデルによって製品の使用感を検証する製品設計支援システムに関するものである。
従来から、使用者の身体条件に基づいた仮想人体モデルを生成することにより、製品の種類や付属品を選択し、さらに選択した製品を使用する際の操作に係る動作を画像として表示したり、選択した製品を使用する使用者から見た状態の動画像を表示したりすることを可能にすることが考えられている(たとえば、特許文献1参照)。
特許文献1には、使用者から見た状態の画像の中で所望の部位を指定すると、当該部位を拡大して表示する技術、複数人の使用者を画像内に表示する技術も記載されている。
特開2004−78775号公報
ところで、特許文献1に記載された技術は、使用者による製品の操作に係る動作を画像として表示したり、使用者から見た製品の画像を動画像として表示したりするものであって、製品全体の使用感については示すことができるが、製品の設計時に設計事項の調節のために製品の特定箇所ごとの使用感を確認するという目的に使用することはできない。
特許文献1には、使用者が見た状態の画像内で着目する領域を指定すると、当該領域を拡大表示する旨の記載があるが、この画像は元の画像の一部分を拡大することによって、当該部位の細部を確認できるように表示しているに過ぎない。
つまり、仮想人体モデルの視線の方向を固定したままで視野内の一部領域を拡大しているのであって、仮想人体モデルが当該領域を注視することによって視線方向が変化したときの画像は表示することができない。製品の設計に際して、仮想人体モデルに比較して製品のサイズが大きい場合には、製品の使用部位に応じて姿勢や視線方向が変化すると考えられるが、特許文献1に記載の技術では、このような姿勢や視線方向の変化に対応することができない。
たとえば、製品が洗面化粧台であるときに、身長が170センチの使用者(大人)であれば、洗面化粧台において使用部位の全体を俯瞰することができ、製品の使用部位に応じた姿勢の変化は少ないと考えられるから、視野内の一部を拡大するだけでも製品の使用感を検証することができると考えられる。しかしながら、身長が110センチの使用者(子供)であれば、洗面化粧台の場所ごとに視線方向を変化させなければならないから、製品の使用部位に応じた姿勢の変化や視線方向の変化を考慮しなければ製品の使用感を評価することができないという問題を有している。
本発明は上記事由に鑑みて為されたものであり、その目的は、製品の設計時に仮想人体モデルを用いて使用者による使用感を検証するにあたり、仮想人体モデルによる製品上の注視点を任意に指定可能とし、仮想人体モデルが製品上の注視点に着目したときの使用感を検証することにより、製品を設計している期間における製品の使用感の評価を可能にした製品設計支援システムを提供することにある。
請求項1の発明は、製品を設計するにあたり3次元のコンピュータグラフィック画像として表示される仮想人体モデルを用いて製品の使用感を検証する製品設計支援システムであって、製品の3次元形状データを格納した製品データ記憶手段と、製品データ記憶手段から読み出した3次元形状データに基づいて製品画像データを生成する製品画像生成手段と、製品の使用者の身体条件に関する情報を入力する情報入力手段と、情報入力手段に入力された情報に基づいて仮想人体モデル画像データを生成する人体モデル画像生成手段と、製品画像生成手段により生成された製品画像データと人体モデル画像生成手段により生成された仮想人体モデル画像データとを合成した3次元画像データを生成する画像合成手段と、画像合成手段で合成した3次元画像データによる画像を表示する第1画像表示手段と、第1画像表示手段に表示された画像内で製品上の所望の位置を指定する位置指定手段と、第1画像表示手段において位置指定手段で指定された製品上の位置を注視点として第1画像表示手段に表示された画像と同時刻における仮想人体モデルの目視した目視画像データを生成する目視画像生成手段と、目視画像生成手段で生成した目視画像データによる画像を表示する第2画像表示手段とを備えることを特徴とする。
この構成によれば、製品の設計時において使用者の身体条件に基づいて生成した仮想人体モデルを用いて製品の使用感を検証することができるから、使用者の使い勝手を考慮した製品設計を支援することができる。また、仮想人体モデルによる製品上の注視点を位置指定手段により指定することができるから、注視点の位置を変化させることにより仮想人体モデルから製品を見る視線方向を変化させることができ、実際の使用感覚に近い視野で製品の使用感を検証することができる。さらに、第1画像表示手段には製品と仮想人体モデルとを表示し、第2画像表示手段には第1画像表示手段の画像と同時刻において仮想人体モデルが目視した画像を表示するから、第1画像表示手段によって製品と使用者との位置関係、使用者の注視点、使用者の姿勢などを確認し、第2画像表示手段によって注視点を目視しているときの使用者の視野を確認することができる。その結果、製品の使用状態を観察者の視点で観察しながら使用者自身の視点での製品の使い勝手を確認することができ、設計段階の製品の使用感について設計に必要な有用な情報を得ることができる。
なお、身体条件とは、使用者が製品を使用する際の条件のうち、身長、体重、年齢、性別、障害の有無など、仮想人体モデルの形状や動きに影響を与える条件を意味する。
請求項2の発明では、請求項1の発明において、前記仮想人体モデルは、人体の骨に対応した複数個のセグメントと、人体の関節に対応し隣接するセグメント間を角度変化可能に結合する複数個のジョイントとからなり、仮想人体モデルの属性は、身長により決められる各セグメントのサイズの組と、仮想人体モデルの各ジョイントの角度の組とであって、前記情報入力手段により入力される前記身体条件は少なくとも身長と年齢とを含んでおり、前記人体モデル画像生成手段は、年齢に応じて各ジョイントの角度の組の初期値と可動範囲とを設定するとともに、各ジョイントの角度を可動範囲内に制限して指定された姿勢が得られるように人体モデル画像データを生成し、仮想人体モデルの姿勢はあらかじめ定めた複数種類から選択されることを特徴とする。
この構成によれば、仮想人体モデルとして各セグメントのサイズの組と各ジョイントの角度の組とを属性とするものを用いており、使用者の条件として身長を与えることによりセグメントのサイズが自動的に決まり、使用者の条件として年齢を与えることによりジョイントの角度の初期値および可動範囲が決まるので、各セグメントおよび各ジョイントについて仮想人体モデルに必要な情報を個々に入力する必要がなく、利便性よく使用することができる。また、仮想人体モデルの姿勢を複数種類から選択することにより、仮想人体モデルの各ジョイントの角度を個々に設定することなく、あらかじめ定めたまとまりとして設定されるから、設計時における仮想人体モデルの姿勢の設定が容易になる。すなわち、使用者の身体条件を与えるだけで、仮想人体モデルの属性である各セグメントのサイズの組および各ジョイントの角度の初期値および可動範囲が決まり、また使用者の姿勢を選択するだけで、仮想人体モデルの各ジョイントの角度の組が決まるので、製品の設計者にとっては仮想人体モデルに関する初期設定が非常に容易になる。
請求項3の発明では、請求項2の発明において、前記第1画像表示手段に表示された前記製品と前記仮想人体モデルとの一方を選択的に指定可能とする画像選択手段を備え、画像選択手段は、製品を選択したときには第1画像表示手段に表示されている画像全体を見る視点位置を変更可能とし、仮想人体モデルを選択したときには仮想人体モデルの特定のジョイントの角度を変更可能とすることを特徴とする。
この構成によれば、第1画像表示手段に表示された画像内で、製品を選択すれば全体を見る視点位置を変更することができ、仮想人体モデルを選択すれば仮想人体モデルを動かすことができるので、視点位置を変更することにより死角が生じないようにさまざまな向きから使用感を確認することができ、また、仮想人体モデルをさまざまに動かすことによって不都合のない使用感が得られているか否かを確認することができる。
請求項4の発明では、請求項3の発明において、前記製品データ記憶手段は前記製品の3次元形状データを当該製品を構成する部品毎に格納しており、前記画像選択手段は、製品について各部品を選択的に指定可能とする機能を有し、かつ選択された部品のサイズの変更と選択された部品の削除との操作が可能であることを特徴とする。
この構成によれば、製品について部品毎のサイズ変更や部品の削除が可能であるから、使用感に応じて部品のサイズを調節したり、不要な部品を削除したりすることが可能になる。
請求項5の発明では、請求項3または請求項4の発明において、前記画像選択手段を選択したときには、前記仮想人体モデルの特定部位について前記製品の指定部位への到達可能性を判断する使用判定手段を備えることを特徴とする。
この構成によれば、人体モデルの手や頭などの特定部位が製品の特定部位に到達可能か否かを使用判定手段で判断するから、たとえば、製品において手で操作する部位に使用者の手が届いて操作できるか否か、あるいは製品の上部に形成された突出部が製品の使用時に頭に接触するか否かなどの確認が可能になる。これらの情報を製品の設計に反映させることにより、使い勝手のよい製品の設計につながる。
請求項6の発明では、請求項3ないし請求項5のいずれかの発明において、前記画像合成手段は複数人の仮想人体モデルを合成する機能を有し、前記画像選択手段は第1画像表示手段に表示された前記仮想人体モデルのうちの1人を選択し当該仮想人体モデルの各ジョイントの角度の組を取得した後に、取得した角度の組を他の仮想人体モデルの各ジョイントに適用する姿勢複製機能を有することを特徴とする。
この構成によれば、第1画像表示手段に複数人の仮想人体モデルを表示することができるから、大人と子供などの組み合わせで複数人で同時に製品を使用した場合の使用感を検証することができる。また、第1画像表示手段に表示された複数人の仮想人体モデルのうちの1人の仮想人体モデルの姿勢を他の仮想人体モデルに適用することにより、複数人の仮想人体モデルを同じ姿勢にすることができるから、たとえば、身体条件の異なる複数の仮想人体モデルがそれぞれ同じ姿勢で同じ製品を使用した場合の使用感を比較するのが容易である。
請求項7の発明では、請求項1ないし請求項5のいずれかの発明において、前記画像合成手段は複数人の仮想人体モデルを合成する機能を有し、前記第2画像表示手段は各仮想人体モデルごとの前記目視画像データを表示する機能を有することを特徴とする。
この構成によれば、請求項6の発明と同様に、複数人で同時に製品を使用した場合の使用感を検証することができる。また、複数人の仮想人体モデルが製品を目視したときの個々の目視画像データを表示するから、身体条件の異なる複数人の使用者が同じ製品を目視した場合の視野を比較することによって、身体条件の異なる使用者による使用感を比較するのが容易になる。
本発明の構成によれば、製品の設計時において使用者の身体条件に基づいて生成した仮想人体モデルを用いて製品の使用感を検証することができるから、使用者の使い勝手を考慮した製品設計を支援することができるという利点がある。ここで、従来構成のように、あらかじめ視線方向が定められた画像によって使用者が目視した視野を確認するのではなく、仮想人体モデルによる製品上の注視点を位置指定手段により指定し、この注視点の位置を変化させることにより仮想人体モデルから製品を見る視線方向を変化させるので、製品の設計者が視線方向を変化させることで、実際の使用感覚に近い視野で製品の使用感を検証することができ、使用感の良い製品設計を支援することができるという利点がある。さらに、製品の使用状態を外部から観察すると同時に使用者の視点での製品の使い勝手を確認することができ、設計段階の製品の使用感について設計の調節のために有用な情報を得ることができるという利点がある。
本実施形態は、パーソナルコンピュータのようなコンピュータで実行可能なアプリケーションプログラムを用いることにより以下の機能を実現している。ただし、コンピュータとプログラムとの組み合わせではなく、専用のハードウェアによって以下の機能を実現することも可能である。また、限定する趣旨ではないが製品として洗面化粧台を例として説明する。
本実施形態は、製品の設計を支援するために用いられ、図1に示すように、製品の設計者がCAD(Computer Aided Design)装置30を用いて設計した製品の形状および寸法のうち、製品を3次元のコンピュータグラフィックの画像として表示するのに必要な3次元形状データが製品データ記憶手段11に格納される。製品データ記憶手段11は、大容量の記憶装置が必要であるからハードディスクドライブ装置を用いる。本実施形態では、製品が洗面化粧台であるから、台座、カウンタ、洗面ボウル、カラン、鏡などの部品が一体に設けられ、さらに必要に応じて部品として椅子を用いることが可能になっている。
製品データ記憶手段11には、製品全体の3次元形状データだけではなく、製品を構成する個々の部品の3次元形状データも格納されている。ただし、製品全体を個々の部品の3次元形状データを結合して構成すると、各部品の結合関係の記述に手間がかかるから、各部品の3次元形状データは通常の表示には用いず、部品の形状を修正する場合にのみ用いる。部品の形状の修正に関しては後述する。
製品データ記憶手段11に、複数の製品について3次元形状データを格納してもよいが、本発明は製品の設計を支援する目的で用いるから、設計段階である製品の3次元形状データのみを格納する。ただし、参照用に過去に設計された製品の3次元形状データが製品データ記憶手段11に格納されていてもよい。
製品データ記憶手段11に格納されている製品の3次元形状データを用いて画面表示を行うために製品画像生成手段12が設けられており、製品画像生成手段12では、製品データ記憶手段11から製品の3次元形状データを読み出して画面表示のための製品画像データを生成する。製品画像データをディスプレイ装置に表示する画像データに用いると、ディスプレイ装置の画面には製品の3次元画像が表示される。
本実施形態は、設計段階の製品について使用感(使い勝手も含む)を検証することが目的であるから、製品とともに使用者を模擬する3次元の仮想人体モデルをディスプレイ装置の画面上に表示する必要がある。そこで、仮想人体モデルの画像を表示するための仮想人体モデル画像データを製品画像データとは別に人体モデル画像生成手段14において生成する。使用者によって身体条件は異なるから、使用者の身体条件をさまざまに設定することができるように情報入力手段13を設けている。身体条件としては、少なくとも身長と年齢とを入力することができ、必要に応じて体重、性別、身体障害の有無および種類もオプションとして入力可能にしてある。
仮想人体モデルは、図2に示すように、人体の骨に対応した複数個(図示例は18個)セグメントSgと、人体の関節に対応した複数個(図示例は16個)のジョイントJnとにより表現してあり、画像表示の際には人体風の外観となるようにスキン(表面属性)をマッピングしてある。
セグメントSgの属性は長さと幅とであって、セグメントSgの長さは身長に応じて決定される。つまり、身長に対する骨の長さの平均値が知られているから、情報入力手段12から身長が入力されると、人体モデル画像生成手段14において、セグメントSgの長さが自動的に決定される。セグメントSgの幅については体重を入力したときに調節するが、体重の入力がなければ標準値に設定される。
また、ジョイントJnの属性は角度(人体に設定した仮想人体モデルに設定した座標系における角度)と可動範囲とである。また、仮想人体モデルが直立した姿勢での各ジョイントJnの角度を、角度の初期値に用いる。角度の初期値は年齢によって変化し、高齢になり関節を支持する筋肉の筋力が低下すると、膝や腰に対応する一部のジョイントJnにより結合されているセグメントSgのなす角度が小さくなる。これによって、たとえば、直立した初期姿勢において腰や膝が曲がっている状態を表すことができる。また同様に、高齢になるとジョイントJnの可動範囲が小さくなるから、ジョイントJnの可動範囲を考慮することにより、後述する到達可能性に変化が生じる。
上述のように、情報入力手段13から入力された身体条件により、人体モデル画像生成手段14では、仮想人体モデルを構成する各セグメントSgの長さと、各ジョイントJnの角度の初期値および可動範囲が決定される。また、体重が入力されたときには、ジョイントJnの幅が調節され、身体障害の有無および種類が入力されたときには、仮想人体モデルについて障害部位に応じて姿勢や可動範囲の調節がなされる。性別に関しては、一般に女性のほうが関節の可動範囲が大きいから、性別の指定があるときには、ジョイントJnの可動範囲を調節する。ただし、基本的には、仮想人体モデルの属性は、各セグメントSgのサイズの組と各ジョイントJnの角度の組である。仮想人体モデル画像データは、製品画像データと同様に、ディスプレイ装置に3次元画像を表示する。
製品画像生成手段12において生成された製品画像データと、人体モデル画像生成手段14において生成された仮想人体モデル画像データとは、画像合成手段16に入力され、製品と仮想人体モデルとの画像がディスプレイ装置の1画面に表示可能になるように合成した3次元画像データが生成される。画像合成手段16により得られる3次元画像データは、ディスプレイ装置からなる第1画像表示手段21に表示されるとともに、目視画像生成手段22を通してディスプレイ装置からなる第2画像表示手段23に表示される。
第1画像表示手段21と第2画像表示手段23とには、異なるディスプレイ装置を用いることができるが、同じディスプレイ装置の画面を分割して、分割した各画面を第1画像表示手段21と第2画像表示手段23とに用いてもよい。以下に説明する例では、ディスプレイ装置の1画面を分割することにより、第1画像表示手段21と第2画像表示手段23とを実現しているものとする。複数のディスプレイ装置を用いる場合と、1台のディスプレイ装置の画面を分割する場合とのどちらであっても、第1画像表示装置21と第2画像表示装置23との画面は同時に見ることができるように配置される。
第1画像表示手段21に表示される画像は、製品画像データと仮想人体モデル画像データとを単純に合成した画像であって、初期画面に表示される向きおよび両者の相対位置はあらかじめ設定された初期値が用いられる。また、第1画像表示手段21に表示された画像の中で製品と仮想人体モデルとの一方を選択的に指定することができるように、画像選択手段17が設けられている。
画像選択手段17により製品を選択したときには、第1画像表示手段21に表示された画像全体を見る視点位置を変更することができる。つまり、画像合成手段16により合成された3次元画像の全体を指定した視点位置から見ることが可能になる。このように視点位置を変更可能とすることにより、視点位置を固定している場合に生じる死角の発生を防止し、製品に関して様々な位置から見て使用感を検証することが可能になる。
画像選択手段17により製品を選択した状態では、製品を構成する一部の部品について、サイズの変更と部品の除去とが可能になる。つまり、製品を選択した状態において、さらに部品を指定すれば(プルダウンメニューを用いたり、キーボード上の適宜のキーと組み合わせて指定する)、製品上の特定の部品の選択が可能になる。本実施形態は、製品が洗面化粧台であるから、部品のサイズの変更としては、たとえばカウンタの高さや奥行きなどがある。また、部品の除去を可能としているのは、たとえば、台座に手摺を設けた設計を行った場合に、使用者によっては手摺が不要であるから、この種の部品を削除可能としているのである。
一方、画像選択手段17により仮想人体モデルを選択したときには、製品に対する仮想人体モデルの相対位置と、仮想人体モデルの特定のジョイントJnの角度とが変更可能になる。たとえば、洗面化粧台であれば、使用感の検証のために仮想人体モデルの立ち位置を変化させなければならないから、仮想人体モデルの製品に対する相対位置が変更可能になっている。
また、洗面化粧台の使用感を検証するにあたっては、肩関節、肘関節、膝関節、首関節、腰関節に相当するジョイントJnを除く他のジョイントJnについては原則として考慮しなくてもよいから、他のジョイントJnについては角度を固定しておき、これらの特定のジョイントJnについてのみ角度の変更を許容する。このように、角度変更が可能なジョイントJnを制限することにより、仮想人体モデルが使用感の検証に不要な姿勢をとる可能性を低減することができ、結果的に製品の使用感の検証を迅速に行うことができる。
仮想人体モデルによって製品の使用感を検証する項目には、使用者が製品の特定部位に届くか否か、つまり、製品の特定部位を使用者が使用可能か否かの判定が含まれる。そこで、使用判定手段24を設けてあり、画像選択手段17が仮想人体モデルを選択した状態では、使用判定手段24において、仮想人体モデルの特定部位が製品の指定部位に到達可能か否かを判断するようにしてある。
使用判定手段24では、製品のうち操作すべき部位を使用者が操作可能か、使用者が規定位置に位置するときに製品の特定部位が使用者に接触して邪魔にならないか、製品のうち掃除の必要な部位に使用者が届くかなどの項目を判断する。つまり、仮想人体モデルを使用者として用いることにより、上述のような到達可能性の判断を行う。この判断に際しては、製品と仮想人体モデルとの相対位置を規定の関係とした状態で、仮想人体モデルが、製品の指定部位に向かって腕を伸ばしたときの指先位置から製品の指定部位までの距離を判断し、また製品に仮想人体モデルの指先以外の他の部位が接触するか否かを判断する。
なお、指先位置から製品の指定部位までの距離を時々刻々と求める演算を行うと処理負荷が大きくなるから、製品の指定部位に対してあらかじめ距離に応じた到達ゾーンZ(図3参照)を設定しておき、指先位置が到達ゾーンZ内に侵入したか否かで到達可能性を判断することにより、処理負荷を軽減している。
指定部位が操作できない程度に離れていれば指定部位の操作が可能になるように設計変更が必要になり、指定部位に届かなければ届くように設計変更が必要になる。また、仮想人体モデルの指先が製品の指定部位に到達する前に製品の他の部位に接触したり、あるいは仮想人体モデルの指先以外の他の部位が製品に接触したりするようであれば、使い勝手が悪いと判断して設計変更を行うことが必要になる。たとえば、一般の大人が使用可能となるように設計されていたとしても、身長の低い子供や関節の可動範囲が小さくなった高齢者では使用できない場合もあるから、仮想人体モデルの身体条件をさまざまに変更することによって、異なる身体条件での使用可能性を検証することができる。このことにより、万人が使用可能ないわゆるユニバーサルデザインの設計が可能になる。
到達可能性を判断する際には、製品上で操作する部位や届かせる部位を指定する必要がある。そこで、第1画像表示手段21に表示された画像内において、部位を指定するためのポインタを表示し、位置指定手段18によりポインタの位置を指定する。位置指定手段18はマウスのような入力装置を用いてポインタの位置を変更するものであり、ポインタの位置を変更すれば、仮想人体モデルの指先がポインタに近付くように移動する。
ここにおいて、ポインタの位置を変更する際には、仮想人体モデルの姿勢を初期姿勢(直立した姿勢など)とし、ポインタの位置変更を通知すると仮想人体モデルが、ポインタに向かって手を伸ばす動作をするように、仮想人体モデルに動作を付与して動画像で表現するようにしておけば、仮想人体モデルの動作中において製品に衝突することがないか否かを動画像によって容易に検証することができる。仮想人体モデルが製品に衝突したときには、画面上の報知や音による報知を行うことによって、設計に不都合があることを通知する。
ところで、本実施形態では、製品と仮想人体モデルとが存在する仮想空間内で仮想人体モデルが目視した3次元画像を目視画像として第2画像表示手段23に表示することが可能になっている。第2画像表示手段23に表示するための目視画像データは、目視画像生成手段22により生成される。ここで、仮想人体モデルが目視する際の視野は、基準値として設定されており、視野の中心点である注視点は、到達可能性を検証する場合と同様に、位置指定手段18を用いることによって、第1画像表示手段21に表示された3次元画像の中で所望の位置に変更できるようにしてある。
具体的には、第1画像表示手段21に表示されている仮想空間において、注視点の位置を示すポインタを表示し、マウスのような入力装置を用いてポインタの位置を変更することにより、仮想人体モデルが目視する注視点を変更することができる。注視点を変更すると仮想人体モデルから見る視線方向が変化し、視野のサイズを変化させることなく、視野の領域を変化させることができる。ただし、高齢者では視野のサイズが小さくなる傾向があるから、情報入力手段13から入力された身体条件のうち年齢の情報を用いて視野のサイズを調節する場合がある。
目視画像生成手段22では、位置指定手段18で指定された注視点の位置に応じて第1画像表示手段21に表示された画像と同時刻における目視画像データを生成し、目視画像データによる画像を第2画像表示手段23に表示する。第1画像表示手段21に表示される画像と第2画像表示手段23に表示される画像とが同時刻であるから、第1画像表示手段21に表示された観察者の視点と、第2画像表示手段23に表示された使用者の視点との両方で、製品に対する使用感を評価することができ、製品の設計に役立つ多くの情報を得ることが可能になる。なお、同時刻の画像は、必ずしも動画像であることを意味するのではなく、静止画像の場合でも同じ瞬間の意味である。
到達可能性を検証する際のポインタと注視点を変更する際のポインタとは個別に設定することができるが共用してもよい。両ポインタを共用すれば、到達可能性を検証する際に、到達させようとする部位を視野に含むように目視画像データを生成するから、実使用時に製品の指定部位を操作したり指定部位に触れたりする際に、当該部位を注視している状態を模擬することができ、製品を実際に使用する際の使用者の観点に立った使用感の判断が可能になる。
ところで、上述した例では仮想人体モデルが直立した姿勢を想定しているが、洗面化粧第を使用する際には椅子を用いる場合など、直立した姿勢以外の使用状態も考えられる。仮想人体モデルの姿勢の変更には各ジョイントJnの角度を調節すればよいから、人体モデル画像生成手段14に付設した姿勢調整手段15を用いることにより、仮想人体モデルの姿勢を修正することが可能である。
ただし、仮想人体モデルの姿勢を変更する際に、各ジョイントJnの角度を個々に設定していたのでは多大な時間を要することになり効率的ではない。そこで、本実施形態では、姿勢データ記憶手段19を設けてあり、姿勢データ記憶手段19では、直立した姿勢、椅子に着座した姿勢、膝を曲げた姿勢など複数種類の姿勢について、各ジョイントJnの初期角度の組を登録してある。
姿勢データ記憶手段19に格納された各組のデータは組ごとに選択可能であり、各組ごとに直立姿勢、着座姿勢などの名称に対応付けてある。したがって、仮想人体モデルの初期姿勢を姿勢データ記憶手段19から選択すれば、仮想人体モデルをただちに所望の姿勢とすることが可能になる。つまり、あらかじめ設定された複数の姿勢の中から所望の姿勢を選択すれば、各ジョイントJnの角度の初期値が自動的に決定されるのである。
ところで、仮想人体モデルは仮想空間に配置されているから、着座姿勢において各ジョイントJnの角度を着座姿勢の角度に保つだけでもよいのであるが、画面の表示に違和感が生じるから、必要に応じて着座する椅子を併せて画面に表示できるようにしてある。椅子は洗面化粧台の付属品として扱われるから、椅子の3次元形状は製品データ記憶手段11に格納しておけばよい。
また、着座姿勢では椅子と仮想人体モデルとを同時に移動させる必要があるから、作図用のアプリケーションプログラムにおいてグループ化の操作を行う場合と同様に、着座姿勢においては椅子と仮想人体モデルとを一体に結合する。一体化後には、着座姿勢では、製品に対して仮想人体モデルの相対位置を変化させると、仮想人体モデルの移動に伴って椅子の位置も変化する。一体化を解除する操作を行うか、着座姿勢を椅子の不要な姿勢に変更する操作を行えば、椅子と仮想人体モデルとを個々に移動させることが可能になる。
上述した構成による画面の表示例を図3に示す。図3に示す画像は画面を4分割して表示した場合の例を示しており、右下の区画が第1画像表示手段21に相当し、右上の区画が第2画像表示手段23に相当する。また、左上、左下の各区画の画像は、それぞれ正面と側面とに対応する画像であり、第1画像表示手段21に表示された画像の情報を補足する機能を有している。
第1画像表示手段21に表示された画像には、製品1と仮想人体モデル2とが表示されており、製品1において注視点と兼用した指定部位にはポインタPtが表示される。また、ポインタPtが示す指定部位に応じて製品1には到達ゾーンZが設定され、到達可能性が判定される。ポインタPtは注視点であると同時に指定部位であるから、仮想人体モデル2の指先が到達ゾーンZに入るか否かによって到達可能性が検証される。仮想人体モデル2が初期姿勢から指先をポインタPtに向かって移動させる間に、仮想人体モデル2の一部が製品1に接触したときには、接触が報知される。
一方、第2画像表示手段23に表示された画像は、注視点としてのポインタPtをほぼ中央に位置させた目視画像であって、仮想人体モデル2が注視点を目視した状態での視野の画像が示される。製品の設計者は、第2画像表示手段23に表示された画像を見ることにより、使用者の視点で見たときの違和感の有無を確認することができ、実使用時における使用者の立場に立った使用感の検証が可能になる。
なお、第1画像表示手段21と第2画像表示手段23としての各区画は、それぞれを1画面の全体に表示することも可能である。
上述の動作例では、第1画像表示手段21および第2画像表示手段23の画面に表示される仮想空間において1人の仮想人体モデルを配置することを想定していたが、同じ仮想空間に複数人の仮想人体モデルを配置してもよい。たとえば、製品としての洗面化粧台を、大人と子供が並んで使用する場合の使用感を検証する場合には2人の仮想人体モデルを配置することが必要になる。また、身長や年齢の異なる複数人について1画面ごとに使用感を検証するのではなく、1画面内に複数人を並べて表示しておき、各仮想人体モデルと製品との相対位置を順に取り換えることによって、1画面内で複数人分について使用感を検証する目的に用いることも可能である。つまり、画像合成手段16は、複数人の仮想人体モデルを1画面内に表示するように合成することができる。
上述のように、身体条件の異なる複数人について、製品を同時に使用する場合や製品を個別に使用する場合の使用感を検証するにあたっては、各仮想人体モデルの初期姿勢を等居るすることが必要になることが多い。そこで、画像選択手段17には、姿勢を複製する姿勢複製機能が設けられている。姿勢複製機能は、第1画像表示手段21に表示された複数人の仮想人体モデルのうちから、選択した1人の仮想人体モデルの属性のうちの各ジョイントJnの角度の組を取得し、取得したジョイントJnの角度の組を他の仮想人体モデルの各ジョイントに適用する機能を意味している。
したがって、第1の画像表示手段21に表示されている複数人の仮想人体モデルの全員を着座姿勢とする場合などでは、1人の仮想人体モデルに対して姿勢データ記憶手段19から読み出したデータを適用して着座姿勢とし、他の仮想人体モデルに対しては着座姿勢となった仮想人体モデルにおける各ジョイントJnの角度の組を複製することによって、他の仮想人体モデルにも着座姿勢を取らせることが可能になる。
姿勢複製機能の例を図4を用いて説明する。図4は第1画像表示手段21に表示された画像の一例であって、この仮想空間には2人の仮想人体モデル2c,2dが表示されている。図4(a)に示す画像内では、一方の仮想人体モデル2cは、設備(洗面化粧台)1を椅子1aに着座した着座姿勢で使用しており、他方の仮想人体モデル2dは、初期姿勢である直立した姿勢を取っている。
この仮想人体モデル2dに対して仮想人体モデル2cの姿勢を複製するには、仮想人体モデル2cを選択して、仮想人体モデル2cから各ジョイントJnの角度の組を取得し、この角度の組を仮想人体モデル2dに適用する。適用後の画像は図4(b)のようになる。つまり、仮想人体モデル2dは、仮想人体モデル2cと同姿勢になる。ただし、図4(b)の状態では、仮想人体モデル2dの姿勢に違和感が生じるから、図4(c)のように画像内に椅子1bを配置することによって、違和感のない画像を得ることができる。このような手順で、複数の仮想人体モデルについて同姿勢の複製を行うことが可能になる。
上述のように複数人の仮想人体モデルが第1画像表示手段21に表示されているときには、目視画像生成手段22では、各仮想人体モデルごとに目視画像データを生成して第2画像表示手段23に表示する。ただし、第1画像表示手段21に表示される仮想人体モデルの人数が増加すると、第2画像表示手段23の画面を分割しても全員分の目視画像を表示するのが困難になる可能性がある。この場合は、第2画像表示手段23の画面には各仮想人体モデルごとに切り換えて目視画像を表示してもよい。ただし原則としては、画面を分割して複数人分の目視画像を同時に表示する。
大人と子供が並んで製品1を使用する場合の例を図5に示す。図5に示す画像は画面を4分割して表示した場合の例を示しており、右下の区画が第1画像表示手段21に相当し、上の左右の区画がそれぞれ第2画像表示手段23に相当する。また、左下の区画の画像は、側面に対応する画像であり、第1画像表示手段21に表示された画像を補足する機能を有している。
第1画像表示手段21相当に表示された画像には、製品1と大人および子供の2人の仮想人体モデル2a,2bとが表示されており、製品1の指定部位にはポインタPtが表示される。第2画像表示手段23相当は2画面設けられており、いずれもポインタPtをほぼ中央に位置させてある。左の画面は大人の仮想人体モデル2aが注視点であるポインタPtを目視したときの画像であり、右の画面は子供の仮想人体モデル2bがポインタPtを目視したときの画像である。このように、身体条件の異なる2人による視野を確認することにより、大人の目と子供の目との相違を知ることができ、身長に関係なく使い易い設計を考慮することが可能になる。
以上説明したように、使用者を模擬する仮想人体モデルと設計段階の製品とを同時に表示する第1画像表示手段21の画像内で所望の注視点を指定することにより、仮想人体モデルが指定した注視点を目視したときの製品の画像を第2画像表示手段23に表示することができるから、注視点の位置を変化させることによって仮想人体モデルが製品を目視する際の視線方向を変化させ、製品を実際に使用する際の視野で使用感を検証することが可能になるのである。とくに、製品の使用時には、視野のサイズは変化しないが視線方向の変化によって視野の領域が変化するものであり、本実施形態の構成では、このような状況を正確に模擬することができるから、製品の設計段階における使用感の評価を適切に行うことができる。
本発明の実施形態を示すブロック図である。 同上に用いる人体モデルの一例を示す図である。 同上における画面の表示例を示す図である。 同上における画面の表示例を示す図である。 同上における画面の表示例を示す図である。
符号の説明
1 製品
1a,1b 椅子
2 仮想人体モデル
2a〜2d 仮想人体モデル
11 製品データ記憶手段
12 製品画像生成手段
13 情報入力手段
14 人体モデル画像生成手段
15 姿勢調整手段
16 画像合成手段
17 画像選択手段
18 位置指定手段
19 姿勢データ記憶手段
21 第1画像表示手段
22 目視画像生成手段
23 第2画像表示手段
24 使用判定手段
Jn ジョイント
Pt ポインタ
Sg セグメント

Claims (7)

  1. 製品を設計するにあたり3次元のコンピュータグラフィック画像として表示される仮想人体モデルを用いて製品の使用感を検証する製品設計支援システムであって、製品の3次元形状データを格納した製品データ記憶手段と、製品データ記憶手段から読み出した3次元形状データに基づいて製品画像データを生成する製品画像生成手段と、製品の使用者の身体条件に関する情報を入力する情報入力手段と、情報入力手段に入力された情報に基づいて仮想人体モデル画像データを生成する人体モデル画像生成手段と、製品画像生成手段により生成された製品画像データと人体モデル画像生成手段により生成された仮想人体モデル画像データとを合成した3次元画像データを生成する画像合成手段と、画像合成手段で合成した3次元画像データによる画像を表示する第1画像表示手段と、第1画像表示手段に表示された画像内で製品上の所望の位置を指定する位置指定手段と、第1画像表示手段において位置指定手段で指定された製品上の位置を注視点として第1画像表示手段に表示された画像と同時刻における仮想人体モデルの目視した目視画像データを生成する目視画像生成手段と、目視画像生成手段で生成した目視画像データによる画像を表示する第2画像表示手段とを備えることを特徴とする製品設計支援システム。
  2. 前記仮想人体モデルは、人体の骨に対応した複数個のセグメントと、人体の関節に対応し隣接するセグメント間を角度変化可能に結合する複数個のジョイントとからなり、仮想人体モデルの属性は、身長により決められる各セグメントのサイズの組と、仮想人体モデルの各ジョイントの角度の組とであって、前記情報入力手段により入力される前記身体条件は少なくとも身長と年齢とを含んでおり、前記人体モデル画像生成手段は、年齢に応じて各ジョイントの角度の組の初期値と可動範囲とを設定するとともに、各ジョイントの角度を可動範囲内に制限して指定された姿勢が得られるように人体モデル画像データを生成し、仮想人体モデルの姿勢はあらかじめ定めた複数種類から選択されることを特徴とする請求項1記載の製品設計支援システム。
  3. 前記第1画像表示手段に表示された前記製品と前記仮想人体モデルとの一方を選択的に指定可能とする画像選択手段を備え、画像選択手段は、製品を選択したときには第1画像表示手段に表示されている画像全体を見る視点位置を変更可能とし、仮想人体モデルを選択したときには仮想人体モデルの特定のジョイントの角度を変更可能とすることを特徴とする請求項2記載の製品設計支援システム。
  4. 前記製品データ記憶手段は前記製品の3次元形状データを当該製品を構成する部品毎に格納しており、前記画像選択手段は、製品について各部品を選択的に指定可能とする機能を有し、かつ選択された部品のサイズの変更と選択された部品の削除との操作が可能であることを特徴とする請求項3記載の製品設計支援システム。
  5. 前記画像選択手段を選択したときには、前記仮想人体モデルの特定部位について前記製品の指定部位への到達可能性を判断する使用判定手段を備えることを特徴とする請求項3または請求項4記載の製品設計支援システム。
  6. 前記画像合成手段は複数人の仮想人体モデルを合成する機能を有し、前記画像選択手段は第1画像表示手段に表示された前記仮想人体モデルのうちの1人を選択し当該仮想人体モデルの各ジョイントの角度の組を取得した後に、取得した角度の組を他の仮想人体モデルの各ジョイントに適用する姿勢複製機能を有することを特徴とする請求項3ないし請求項5のいずれか1項に記載の製品設計支援システム。
  7. 前記画像合成手段は複数人の仮想人体モデルを合成する機能を有し、前記第2画像表示手段は各仮想人体モデルごとの前記目視画像データを表示する機能を有することを特徴とする請求項1ないし請求項5のいずれか1項に記載の製品設計支援システム。
JP2006152502A 2006-05-31 2006-05-31 製品設計支援システム Pending JP2007323341A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006152502A JP2007323341A (ja) 2006-05-31 2006-05-31 製品設計支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006152502A JP2007323341A (ja) 2006-05-31 2006-05-31 製品設計支援システム

Publications (1)

Publication Number Publication Date
JP2007323341A true JP2007323341A (ja) 2007-12-13

Family

ID=38856095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006152502A Pending JP2007323341A (ja) 2006-05-31 2006-05-31 製品設計支援システム

Country Status (1)

Country Link
JP (1) JP2007323341A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227916A (zh) * 2016-07-08 2016-12-14 辽宁工程技术大学 一种三维虚拟空间的机械设计系统
WO2020063693A1 (en) * 2018-09-25 2020-04-02 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image Processing Method and Apparatus, Storage Medium, and Electronic Device
US20220215677A1 (en) * 2019-06-06 2022-07-07 Sony Group Corporation Information processing device, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001178963A (ja) * 1999-12-23 2001-07-03 Sega Corp ビデオゲーム装置、画像表示装置及び方法、動画表示装置及び方法並びに記録媒体
JP2001229405A (ja) * 2000-02-17 2001-08-24 Namco Ltd ゲームシステム及び情報記憶媒体
JP2004078775A (ja) * 2002-08-21 2004-03-11 Honda Motor Co Ltd 車両受注サーバ装置および車両受注システム
JP2006092439A (ja) * 2004-09-27 2006-04-06 Matsushita Electric Works Ltd 仮想人体モデルを用いた製品の評価システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001178963A (ja) * 1999-12-23 2001-07-03 Sega Corp ビデオゲーム装置、画像表示装置及び方法、動画表示装置及び方法並びに記録媒体
JP2001229405A (ja) * 2000-02-17 2001-08-24 Namco Ltd ゲームシステム及び情報記憶媒体
JP2004078775A (ja) * 2002-08-21 2004-03-11 Honda Motor Co Ltd 車両受注サーバ装置および車両受注システム
JP2006092439A (ja) * 2004-09-27 2006-04-06 Matsushita Electric Works Ltd 仮想人体モデルを用いた製品の評価システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227916A (zh) * 2016-07-08 2016-12-14 辽宁工程技术大学 一种三维虚拟空间的机械设计系统
WO2020063693A1 (en) * 2018-09-25 2020-04-02 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image Processing Method and Apparatus, Storage Medium, and Electronic Device
US11042215B2 (en) 2018-09-25 2021-06-22 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image processing method and apparatus, storage medium, and electronic device
US20220215677A1 (en) * 2019-06-06 2022-07-07 Sony Group Corporation Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US11446097B2 (en) User console system for robotic surgery
JP6013669B1 (ja) 人体モデル提供システム、人体モデル変形方法、及びコンピュータプログラム
US20100039380A1 (en) Movable Audio/Video Communication Interface System
Lee et al. Interactive and situated guidelines to help users design a personal desk that fits their bodies
JP2017176803A (ja) 人体モデル提供システム、人体モデル変形方法、及びコンピュータプログラム
WO2010007935A1 (ja) 製品設計評価装置、製品設計評価用のプログラム
JP2007323341A (ja) 製品設計支援システム
JP6577150B2 (ja) 人体モデル表示システム、人体モデル表示方法、通信端末装置、及びコンピュータプログラム
JP6574068B2 (ja) 人体モデル提供システム、人体モデル提供方法、人体モデル提供装置、表示端末装置、人体モデル表示方法、及びコンピュータプログラム
JP2005050122A (ja) リフォームシミュレーションシステム
Lewis Evolving human figure geometry
JP2020009458A (ja) 人体モデル表示システム、人体モデル表示方法、通信端末装置、及びコンピュータプログラム
KR20190084803A (ko) 맞춤형 가이드 정보를 출력하는 가구 디자인 장치
JP4270088B2 (ja) 仮想人体モデルを用いた製品の評価システム
US20240033023A1 (en) Adjustable user console for a surgical robotic system
JP2024025190A (ja) 型紙作成装置、型紙作成方法、及びコンピュータプログラム
KR20180030979A (ko) 헤드 마운트 디스플레이 장치를 이용한 맞춤형 가구 디자인 방법 및 헤드 마운트 디스플레이 장치
KR20090099678A (ko) 근골격계 인체모델을 이용한 자동차 내장설계 시스템 및방법
Shin et al. The Ergonomics of Couch Potatoes: A Study into Postures for Non-desk Working Scenarios
IJsselsteijn et al. Touch, tools, and telepresence: embodiment in mediated environments
Bordegoni et al. Design and assessment of a 3D visualisation system integrated with haptic interfaces
JP2003256873A (ja) 商品擬似体験システム
Mitchell Understanding sit-to-stand through experimentation and constraint-based modelling
JP2012148059A (ja) タンジブルデバイスを備えている生体画像処理システム
Mijović et al. Virtual 3D forming of working place and the analysing of burdening of a worker during work with computer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090210

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110801

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120306