JP2018013839A - 仮想感性評価支援システム - Google Patents

仮想感性評価支援システム Download PDF

Info

Publication number
JP2018013839A
JP2018013839A JP2016141346A JP2016141346A JP2018013839A JP 2018013839 A JP2018013839 A JP 2018013839A JP 2016141346 A JP2016141346 A JP 2016141346A JP 2016141346 A JP2016141346 A JP 2016141346A JP 2018013839 A JP2018013839 A JP 2018013839A
Authority
JP
Japan
Prior art keywords
virtual
evaluation
support system
video presentation
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016141346A
Other languages
English (en)
Inventor
里奈 林
Rina Hayashi
里奈 林
俊樹 磯貝
Toshiki Isogai
俊樹 磯貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2016141346A priority Critical patent/JP2018013839A/ja
Priority to PCT/JP2017/020077 priority patent/WO2018016192A1/ja
Publication of JP2018013839A publication Critical patent/JP2018013839A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】拘束性が比較的低い条件で仮想評価対象の評価を実環境下との乖離が比較的小さく適切に行えるようにする。【解決手段】実機を試作せず仮想評価対象の感性的及び人間工学的な評価を行う仮想感性評価支援システム1は、仮想評価対象の物理モデルを記憶する評価対象記憶部7と、予め設定されている基準点を用い、仮想評価対象の周辺環境の変化を検出する環境変化検出部8と、物理モデルを用い、周辺環境の変化を仮想評価対象の動作に反映させる評価対象制御部9と、周辺環境の変化が仮想評価対象の動作に反映された映像を実環境に重ね合わせて評価者に提示する映像提示部12と、を備える。【選択図】図1

Description

本発明は、仮想感性評価支援システムに関する。
従来より、実機を試作せず仮想評価対象の感性的及び人間工学的な評価を行う仮想感性評価支援システムが供されている。この種の仮想感性評価支援システムは、評価者を取り囲むスクリーンに、1フレーム毎に右目用の映像と左目用の映像とを切換えて交互に投映し、評価者が装着する映像提示デバイスの視線を映像の切換えに同期して交互に遮断し、立体的な映像を評価者に提示する。そして、仮想感性評価支援システムは、評価者の身体に装着されているセンサから出力されるセンサ信号により、評価者の位置や姿勢を計算し、仮想評価対象の感性的及び人間工学的な評価を行う(例えば特許文献1参照)。
特開2005−115430号公報
しかしながら、特許文献1に記載されている技術は、評価者を取り囲むスクリーンに映像を投映すると共に評価者の身体にセンサを装着する構成であるので、予め設計された仮想環境内でしか評価者が行動することができず、拘束性が比較的高い条件で仮想評価対象の評価を行わざるを得ない。そのため、実環境下との乖離が比較的大きい評価結果しか得ることができず、評価結果を受けて製作した実機が仕様を満足する確率は低く、結果として実機を試作し直す手間が発生する等して開発費用の高騰や開発期間の長期化を招くという問題がある。
本発明は、上記した事情に鑑みてなされたものであり、その目的は、拘束性が比較的低い条件で仮想評価対象の評価を適切に行うことができ、実環境下との乖離が比較的小さい評価結果を適切に得ることができる仮想感性評価支援システムを提供することにある。
請求項1に記載した発明によれば、実機を試作せず仮想評価対象(4)の感性的及び人間工学的な評価を行う仮想感性評価支援システム(1,21,31,41)において、評価対象記憶部(7,27)は、仮想評価対象の物理モデルを記憶する。環境変化検出部(8,23)は、予め設定されている基準点を用い、仮想評価対象の周辺環境の変化を検出する。評価対象制御部(9,28)は、物理モデルを用い、周辺環境の変化を仮想評価対象の動作に反映させる。映像提示部(12,29)は、周辺環境の変化が仮想評価対象の動作に反映された映像を実環境に重ね合わせて評価者に提示する。
予め設定されている基準点を用い、仮想評価対象の周辺環境の変化を検出し、物理モデルを用い、周辺環境の変化を仮想評価対象の動作に反映させ、周辺環境の変化が仮想評価対象の動作に反映された映像を実環境に重ね合わせて評価者に提示するようにした。評価者を取り囲むスクリーンに映像を投映する必要がなく、評価者の身体にセンサを装着する必要もないので、従来構成よりも拘束性を低減することができる。これにより、拘束性が比較的低い条件で仮想評価対象の評価を適切に行うことができ、実環境下との乖離が比較的小さい評価結果を適切に得ることができる。
本発明の第1の実施形態を示す機能ブロック図 仮想評価対象及び評価者を示す図 評価者に提示する映像を示す図 フローチャート 本発明の第2の実施形態を示す機能ブロック図 フローチャート 本発明の第3の実施形態を示す機能ブロック図 仮想評価対象及び評価者を示す図 本発明の第4の実施形態を示す機能ブロック図 仮想評価対象及び評価者を示す図
(第1の実施形態)
以下、本発明を、人と共存する人共存型の仮想ロボットを仮想評価対象として適用した第1の実施形態について図1から図4を参照して説明する。仮想感性評価支援システム1は、図2に示すように、評価空間M内を撮影する2台のカメラ2a,2bと、評価空間Mの外部に配置されているサーバ3と、仮想ロボット4(仮想評価対象に相当する)に対して作業を行う評価者Hが装着する映像提示デバイス5とを有する。映像提示デバイス5は、例えば評価者Hが頭部に装着するヘッドマウントディスプレイである。2台のカメラ2a,2bは、それぞれ評価空間Mの端部(即ち評価者Hの行動を妨げない位置)に配置されている。評価空間Mをx軸,y軸,z軸の3次元空間とし、図2で示すP点を基準点とし、基準点の座標を(0,0,0)とすると、カメラ2aの配置位置の座標は(0,0,Z)となり、カメラ2bの配置位置の座標は(X,0,Z)となる。尚、カメラは3台以上であっても良い。又、サーバ3は、物理的な実体がある物理サーバでも良いし物理的な実体がないクラウドサーバ(即ち仮想サーバ)でも良い。
2台のカメラ2a,2bは、それぞれ所定の視野角で評価空間M内の略全体を撮影し、その撮影した映像を含む映像信号をサーバ3に送信する。即ち、2台のカメラ2a,2bは、例えば評価者Hが評価空間M内に配置されている机6に接触して机6の位置や姿勢が変化すれば、その机6の位置や姿勢の変化を示す映像信号をサーバ3に送信する。又、2台のカメラ2a,2bは、例えば評価者Hが頭や手を動かしたり場所を変えたりする等して行動すれば、その評価者Hの行動を示す映像信号をサーバ3に送信する。2台のカメラ2a,2bは、それぞれ映像信号を有線通信の通信方式でサーバ3に送信する。
サーバ3は、図1に示すように、評価対象記憶部7と、環境変化検出部8と、評価対象制御部9と、送信部10とを有する。評価対象記憶部7は、仮想ロボット4の物理モデルを記憶する。仮想ロボット4の物理モデルとは、評価対象とする仮想ロボット4の物理シミュレーションに必要なデータであり、形状、重量、設計動作、拘束条件等を示すデータである。
環境変化検出部8は、2台のカメラ2a,2bから受信する映像信号を用い、仮想ロボット4の周辺環境の変化として、前述した基準点を用いて実環境の変化及び評価者Hの行動を検出する。具体的に説明すると、環境変化検出部8は、例えば机6の所定部位(例えば端部等)の位置が(X1,Y1,Z1)から(X2,Y2,Z2)に変化したことを実環境の変化として検出する。又、環境変化検出部8は、例えば評価者Hの所定部位(例えば頭や手等)の位置が(X11,Y11,Z11)から(X12,Y12,Z12)に変化したことを評価者Hの行動として検出する。環境変化検出部8は、仮想ロボット4に干渉する事象として、実環境の変化及び評価者Hの行動を検出する。
評価対象制御部9は、評価対象記憶部7に記憶されている物理モデルを用い、仮想ロボット4の3次元データを生成し、環境変化検出部8により検出された周辺環境の変化を仮想ロボット4の動作に反映させる。即ち、評価対象制御部9は、机6の上に配置されている仮想ロボット4の3次元データを生成している場合に、例えば机6の位置や姿勢が変化すれば、その机6の3次元座標の移動に追従して仮想ロボット4の3次元座標を移動させ、その机6の位置や姿勢の変化を仮想ロボット4の動作に反映させる。又、評価対象制御部9は、例えば評価者Hが行動すれば、評価者Hの3次元座標と仮想ロボット4の3次元座標とを照合し、評価者Hが仮想ロボット4に仮想的に接触したか否かを判定する。評価対象制御部9は、評価者Hが仮想ロボット4に仮想的に接触したと判定し、その仮想ロボット4の位置や姿勢が変化すれば、その仮想ロボット4の3次元座標の移動に追従して仮想ロボット4の3次元座標を移動させ、その仮想ロボット4の位置や姿勢の変化(即ち評価者Hの仮想ロボット4への仮想的な接触)を仮想ロボット4の動作に反映させる。又、評価対象制御部9は、仮想ロボット4がアーム等の可動部を有する構成であれば、可動部の位置や姿勢や可動量の変化(即ち評価者Hのアームへの仮想的な接触)を仮想ロボット4の動作に反映させる。環境変化検出部8は、仮想ロボット4に干渉する事象を、仮想ロボット4の動作に反映させる。
送信部10は、周辺環境の変化が仮想ロボット4の動作に反映された情報を含む送信情報を無線通信の通信方式で映像提示デバイス5に送信する。無線通信は、例えばIEEE802.11で規定される無線LAN、Bluetooth(登録商標)、BLE(Bluetooth Low Energy)(登録商標)、WiFi(登録商標)等である。
映像提示デバイス5は、受信部11と、映像提示部12とを有する。受信部11は、送信部10から送信された送信情報を受信する。映像提示部12は、受信部11に受信された送信情報に含まれる映像、即ち、周辺環境の変化が仮想ロボット4の動作に反映された映像を評価者Hに提示する。評価者Hに提示される映像は、図3に示すように、仮想ロボット4を含む仮想環境を実環境に重ね合わせた映像であり、例えば机6の位置や姿勢が変化すれば、その机6の位置や姿勢の変化に応じて仮想ロボット4の位置や姿勢が変化された映像であり、例えば評価者Hが仮想ロボット4に仮想的に接触すれば、その評価者Hの仮想ロボット4への仮想的な接触に応じて仮想ロボット4の位置や姿勢を変化された映像である。尚、実環境は映像化されていなくても良いし映像化されていても良い。即ち、映像提示部12は、実環境が映像化されていない映像を評価者Hに提示する場合には、仮想ロボット4の映像を実環境の背景に重ね合わせて評価者Hに提示する。一方、映像提示部12は、実環境が映像化された映像を評価者Hに提示する場合には、仮想ロボット4の映像を実環境の映像に重ね合わせて評価者Hに提示する。
次に、上記した構成の作用について図4を参照して説明する。仮想評価対象支援システム1は、サーバ3と映像提示デバイス5とが連携して映像提示処理を行う。
サーバ3は、2台のカメラ2a,2bから受信する映像信号を用い、仮想ロボット4の周辺環境の変化を環境変化検出部8により検出する(A1)。サーバ3は、仮想ロボット4の周辺環境の変化が発生したと判定すると(A2:YES)、その周辺環境の変化が仮想ロボット4に及ぼす影響を評価対象制御部9により計算する(A3)。サーバ3は、例えば評価者Hが机6に接触して机6の位置や姿勢が変化していれば、その机6の位置や姿勢の変化が仮想ロボット4に及ぼす影響を計算する。又、サーバ3は、例えば評価者Hが仮想ロボット4に仮想的に接触していれば、その仮想的な接触が仮想ロボット4に及ぼす影響を計算する。
次いで、サーバ3は、仮想ロボット4が動作中であるか否かを判定し(A4)、仮想ロボット4が動作中であると判定すると(A4:YES)、仮想ロボット4の現在の動作状態を計算する(A5)。サーバ3は、周辺環境の変化が仮想ロボット4の動作に反映された映像を含む送信情報を送信部10から映像提示デバイス5に送信させる(A6)。そして、サーバ3は、映像提示処理の終了条件が成立したか否かを判定し(A7)、映像提示処理の終了条件が成立していないと判定すると(A7:NO)、前述したステップA1に戻り、ステップA1以降を繰り返して行う。
映像提示デバイス5は、サーバ3からの送信情報の受信を待機しており(B1)、サーバ3からの送信情報を受信部11により受信したと判定すると(B1:YES)、その受信した送信情報に含まれる映像、即ち、周辺環境の変化が仮想ロボット4の動作に反映された映像を映像提示部12により提示する(B2)。そして、映像提示デバイス5は、映像提示処理の終了条件が成立したか否かを判定し(B3)、映像提示処理の終了条件が成立していないと判定すると(B3:NO)、前述したステップB1に戻り、ステップB1以降を繰り返して行う。
以上に説明したように第1の実施形態によれば、次に示す効果を得ることができる。
仮想感性評価支援システム1において、予め設定されている基準点を用い、仮想ロボット4の周辺環境の変化を検出し、物理モデルを用い、周辺環境の変化を仮想ロボット4の動作に反映させ、周辺環境の変化が仮想ロボット4の動作に反映された映像を実環境に重ね合わせて評価者Hに提示するようにした。評価者Hを取り囲むスクリーンに映像を投映する必要がなく、評価者Hの身体にセンサを装着する必要もないので、従来構成よりも拘束性を低減することができる。これにより、拘束性が比較的低い条件で仮想ロボット4の評価を適切に行うことができ、実環境下との乖離が比較的小さい評価結果を適切に得ることができる。
又、仮想感性評価支援システム1において、仮想ロボット4の周辺環境の変化として実環境の変化及び評価者Hの行動を検出するようにした。これにより、実環境の変化及び評価者Hの行動を仮想ロボット4の動作に反映された映像を実環境に重ね合わせて評価者Hに提示することができる。
又、仮想感性評価支援システム1において、仮想ロボット4が動作中であるときに、周辺環境の変化を仮想ロボット4の現在の動作状態に反映させるようにした。これにより、周辺環境の変化を仮想ロボット4の現在の動作状態に反映された映像を実環境に重ね合わせて評価者Hに提示することができる。
又、仮想感性評価支援システム1において、サーバ3が評価対象記憶部7と評価対象制御部9とを有する構成とした。これにより、周辺環境の変化を仮想ロボット4の動作に反映させる処理をサーバ3が行うことで、映像提示デバイス5の負荷を低減することができる。
(第2の実施形態)
次に、本発明の第2の実施形態について図5及び図6を参照して説明する。尚、前述した第1の実施形態と同一部分については説明を省略し、異なる部分について説明する。第1の実施形態は、サーバ3が評価対象記憶部7及び評価対象制御部9を有する構成であるが、第2の実施形態は、映像提示デバイスが評価対象記憶部及び評価対象制御部を有する構成である。
仮想感性評価支援システム21において、サーバ22は、環境変化検出部23と、送信部24とを有する。環境変化検出部23は、第1の実施形態で説明した環境変化検出部8と同様であり、2台のカメラ2a,2bから受信する映像信号を用い、仮想ロボット4の周辺環境の変化として、基準点を用いて実環境の変化及び評価者Hの行動を検出する。送信部24は、周辺環境の変化を示す変化データを含む送信情報を無線通信の通信方式で映像提示デバイス25に送信する。
映像提示デバイス25は、受信部26と、評価対象記憶部27と、評価対象制御部28と、映像提示部29とを有する。評価対象記憶部27は、第1の実施形態で説明した評価対象記憶部7と同様であり、仮想ロボット4の物理モデルを記憶する。評価対象制御部28は、第1の実施形態で説明した評価対象制御部9と同様であり、評価対象記憶部27に記憶されている物理モデルを用い、仮想ロボット4の3次元データを生成し、環境変化検出部23により検出された周辺環境の変化を仮想ロボット4の動作に反映させる。
次に、上記した構成の作用について図6を参照して説明する。仮想評価対象支援システム21は、サーバ22と映像提示デバイス25とが連携して映像提示処理を行う。
サーバ22は、2台のカメラ2a,2bから受信する映像信号を用い、仮想ロボット4の周辺環境の変化を環境変化検出部23により検出する(A11)。サーバ22は、仮想ロボット4の周辺環境の変化が発生したと判定すると(A12:YES)、周辺環境の変化を示す変化データを含む送信情報として送信部24から映像提示デバイス25に送信させる(A13)。そして、サーバ22は、映像提示処理の終了条件が成立したか否かを判定し(A14)、映像提示処理の終了条件が成立していないと判定すると(A14:NO)、前述したステップA11に戻り、ステップA11以降を繰り返して行う。
映像提示デバイス25は、サーバ22からの送信情報の受信を待機しており(B11)、サーバ22からの送信情報を受信部26により受信したと判定すると(B11:YES)、その受信した送信情報に含まれる変化データ、即ち、周辺環境の変化を示すデータを特定し、周辺環境の変化が仮想ロボット4に及ぼす影響を評価対象制御部28により計算する(B12)。サーバ3は、例えば評価者Hが机6に接触して机6の位置や姿勢が変化していれば、その机6の位置や姿勢の変化が仮想ロボット4に及ぼす影響を計算し、例えば評価者Hが仮想ロボット4に仮想的に接触していれば、その仮想的な接触が仮想ロボット4に及ぼす影響を計算する。
次いで、映像提示デバイス25は、仮想ロボット4が動作中であるか否かを判定し(B13)、仮想ロボット4が動作中であると判定すると(B13:YES)、仮想ロボット4の現在の動作状態を計算し(B14)、周辺環境の変化が仮想ロボット4の動作に反映された映像を映像提示部29により提示する(B15)。そして、映像提示デバイス25は、映像提示処理の終了条件が成立したか否かを判定し(B16)、映像提示処理の終了条件が成立していないと判定すると(B16:NO)、前述したステップB11に戻り、ステップB11以降を繰り返して行う。
以上に説明したように第2の実施形態によれば、第1の実施形態と同様の作用効果を得ることができ、拘束性が比較的低い条件で仮想ロボット4の評価を適切に行うことができ、実環境下との乖離が比較的小さい評価結果を適切に得ることができる。
又、仮想感性評価支援システム21において、映像提示デバイス25が評価対象記憶部27と評価対象制御部28とを有する構成とした。これにより、サーバ22から映像提示デバイス25に送信される送信情報のデータ量を低減し、リアルタイム性を高めることができ、サーバ22と映像提示デバイス25との間の通信の負荷を低減することもできる。又、周辺環境の変化を仮想ロボット4の動作に反映させる処理を映像提示デバイス25が行うことで、サーバ22の負荷を低減することができる。
(第3の実施形態)
次に、本発明の第3の実施形態について図7及び図8を参照して説明する。尚、前述した第1の実施形態と同一部分については説明を省略し、異なる部分について説明する。第1の実施形態は、仮想ロボット4と評価者Hとが1対1の関係であるが、第3の実施形態は、仮想ロボット4と評価者Hとが1対複数の関係である。
仮想感性評価支援システム31において、複数の(即ち2人の)評価者Ha,Hbはそれぞれ映像提示デバイス5a,5bを装着しており、仮想ロボット4と映像提示デバイス5a,5bとが1対複数の関係である。映像提示デバイス5a,5bは、第1の実施形態で説明した映像提示デバイス5と同様であり、それぞれ受信部11a,11bと、映像提示部12a,12bとを有する。
サーバ3において、環境変化検出部8は、2台のカメラ2a,2bから受信する映像信号を用い、評価者Ha,Hbのそれぞれの行動を検出する。評価対象制御部9は、評価者Ha,Hbのそれぞれについて、評価者Ha,Hbの3次元座標と仮想ロボット4の3次元座標とを照合し、評価者Ha,Hbが仮想ロボット4に仮想的に接触すれば、その仮想的な接触に追従して仮想ロボット4の3次元座標を移動させることで、評価者Ha,Hbの仮想ロボット4への仮想的な接触を仮想ロボット4の動作に反映させる。そして、送信部10は、周辺環境の変化が仮想ロボット4の動作に反映された情報を含む送信情報を無線通信の通信方式で映像提示デバイス5a,5bに送信する。
映像提示デバイス5a,5bにおいて、映像提示部12a,12bは、それぞれサーバ3から受信部11a,11bに受信された送信情報に含まれる映像、即ち、周辺環境の変化が仮想ロボット4の動作に反映された映像を評価者Ha,Hbに提示する。即ち、映像提示デバイス5a,5bは、仮想ロボット4の映像を評価者Ha,Hbに同時に提示する。
以上に説明したように第3の実施形態によれば、仮想ロボット4の映像を複数の評価者Ha,Hbに同時に提示するようにした。これにより、一の仮想ロボット4の評価結果を複数の評価者Ha,Hbが共有することができる。又、複数の評価者Ha,Hbのそれぞれの行動を1つの基準点により検出することで、複数の評価者Ha,Hbのそれぞれの行動を容易に検出することができる。尚、第3の実施形態でも、前述した第2の実施形態と同様に、映像提示デバイス5a,5bがそれぞれ評価対象記憶部及び評価対象制御部を有する構成であっても良い。
(第4の実施形態)
次に、本発明の第4の実施形態について図9及び図10を参照して説明する。尚、前述した第3の実施形態と同一部分については説明を省略し、異なる部分について説明する。第3の実施形態は、仮想ロボット4と評価者Hとが1対複数の関係であるが、第4の実施形態は、仮想ロボット4と評価者Hとが複数対複数の関係である。
仮想感性評価支援システム41において、複数の(即ち2人の)評価者Ha,Hbはそれぞれ複数の(即ち2台の)仮想ロボット4a,4bに対して作業を行う。この場合、サーバ3において、評価対象記憶部7は、仮想ロボット4a,4bのそれぞれの物理モデルを記憶する。映像提示デバイス5a,5bにおいて、映像提示部12a,12bは、それぞれ周辺環境の変化が仮想ロボット4a,4bの動作に反映された映像を評価者Ha,Hbに提示する。即ち、映像提示デバイス5a,5bは、仮想ロボット4a,4bの映像を評価者Ha,Hbに同時に提示する。
以上に説明したように第4の実施形態によれば、複数の仮想ロボット4a,4bの映像を複数の評価者Ha,Hbに同時に提示するようにした。これにより、複数の仮想ロボット4a,4bの評価結果を複数の評価者Ha,Hbが共有することができる。例えば複数の評価者Ha,Hbが交替して複数の仮想ロボット4a,4bに対して作業を行う場合でも、それぞれ拘束性が比較的低い条件で仮想ロボット4a,4bの評価を適切に行うことができる。例えば作業工程が連続する(即ち前後の工程に相関性がある)製造ラインで用いられるロボット等を想定して評価を行う場合等に有効である。尚、第4の実施形態でも、前述した第2の実施形態と同様に、映像提示デバイス5a,5bがそれぞれ評価対象記憶部及び評価対象制御部を有する構成であっても良い。
(その他の実施形態)
本発明は、上記した実施形態で例示したものに限定されることなく、その範囲を逸脱しない範囲で任意に変形又は拡張することができる。
本実施形態では、仮想評価対象として人共存型の仮想ロボットを例示したが、評価者が感性的及び人間工学的な評価を行う対象であればどのような装置であっても良い。例えば人がキー入力操作を行うキーボード、人が開閉操作を行うドア等であっても良い。
本実施形態では、カメラを用いて仮想評価対象の周辺環境の変化を検出する構成を例示したが、赤外線センサや磁場センサ等を用いて仮想評価対象の周辺環境の変化を検出する構成であっても良い。赤外線センサを用いる構成であれば、赤外線の送信機の位置を基準点とすれば良く、磁場センサを用いる構成であれば、磁場の発生源の位置を基準点とすれば良い。
本開示は、実施例に準拠して記述されたが、当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、更には、それらに一要素のみ、それ以上、或いはそれ以下を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
図面中、1,21,31,41は仮想感性評価支援システム、3,22はサーバ、4は仮想ロボット(仮想評価対象)、5,25は映像提示デバイス、7,27は評価対象記憶部、8,23は環境変化検出部、9,28は評価対象制御部、12,29は映像提示部である。

Claims (10)

  1. 実機を試作せず仮想評価対象(4)の感性的及び人間工学的な評価を行う仮想感性評価支援システム(1,21,31,41)において、
    前記仮想評価対象の物理モデルを記憶する評価対象記憶部(7,27)と、
    予め設定されている基準点を用い、前記仮想評価対象の周辺環境の変化を検出する環境変化検出部(8,23)と、
    前記物理モデルを用い、前記環境変化検出部により検出された前記周辺環境の変化を前記仮想評価対象の動作に反映させる評価対象制御部(9,28)と、
    前記周辺環境の変化が前記仮想評価対象の動作に反映された映像を実環境に重ね合わせて評価者に提示する映像提示部(12,29)と、を備えた仮想感性評価支援システム。
  2. 請求項1に記載した仮想感性評価支援システムにおいて、
    前記環境変化検出部は、前記仮想評価対象の周辺環境の変化として実環境の変化及び評価者の行動を検出する仮想感性評価支援システム。
  3. 請求項1又は2に記載した仮想感性評価支援システムにおいて、
    前記評価対象制御部は、前記仮想評価対象が動作中であるときに、前記周辺環境の変化を前記仮想評価対象の現在の動作状態に反映させる仮想感性評価支援システム。
  4. 請求項1から3の何れか一項に記載した仮想感性評価支援システムにおいて、
    前記評価対象制御部は、前記周辺環境の変化を前記仮想評価対象の位置及び姿勢に反映させる仮想感性評価支援システム。
  5. 請求項4に記載した仮想感性評価支援システムにおいて、
    前記仮想評価対象が可動部を有する構成であり、
    前記評価対象制御部は、前記周辺環境の変化を前記仮想評価対象の位置及び姿勢に反映させることに加え、前記可動部の位置、姿勢及び可動量に反映させる仮想感性評価支援システム。
  6. 請求項1から5の何れか一項に記載した仮想感性評価支援システムにおいて、
    サーバ(3)と、前記評価者が装着する映像提示デバイス(5)とが通信可能に構成され、
    前記サーバは、前記評価対象記憶部(7)と、前記環境変化検出部(8)と、前記評価対象制御部(9)とを有し、
    前記映像提示デバイスは、前記映像提示部(5)を有する仮想感性評価支援システム(1)。
  7. 請求項1から5の何れか一項に記載した仮想感性評価支援システムにおいて、
    サーバ(22)と、前記評価者が装着する映像提示デバイス(25)とが通信可能に構成され、
    前記サーバは、前記環境変化検出部(23)を有し、
    前記映像提示デバイスは、前記評価対象記憶部(27)と、前記評価対象制御部(28)と、前記映像提示部(29)とを有する仮想感性評価支援システム(21)。
  8. 請求項6又は7に記載した仮想感性評価支援システムにおいて、
    前記サーバと前記映像提示デバイスとが無線通信可能に構成されている仮想感性評価支援システム。
  9. 請求項1から8の何れか一項に記載した仮想感性評価支援システムにおいて、
    前記仮想評価対象と前記映像提示部とが1対複数の関係にあり、
    前記複数の映像提示部は、一の仮想評価対象の映像を複数の評価者に同時に提示する仮想感性評価支援システム(31)。
  10. 請求項1から8の何れか一項に記載した仮想感性評価支援システムにおいて、
    前記仮想評価対象と前記映像提示部とが複数対複数の関係にあり、
    前記複数の映像提示部は、複数の仮想評価対象の映像をそれぞれ複数の評価者に同時に提示する仮想感性評価支援システム(41)。
JP2016141346A 2016-07-19 2016-07-19 仮想感性評価支援システム Pending JP2018013839A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016141346A JP2018013839A (ja) 2016-07-19 2016-07-19 仮想感性評価支援システム
PCT/JP2017/020077 WO2018016192A1 (ja) 2016-07-19 2017-05-30 仮想感性評価支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016141346A JP2018013839A (ja) 2016-07-19 2016-07-19 仮想感性評価支援システム

Publications (1)

Publication Number Publication Date
JP2018013839A true JP2018013839A (ja) 2018-01-25

Family

ID=60992041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016141346A Pending JP2018013839A (ja) 2016-07-19 2016-07-19 仮想感性評価支援システム

Country Status (2)

Country Link
JP (1) JP2018013839A (ja)
WO (1) WO2018016192A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364479A (zh) * 2020-09-30 2021-02-12 深圳市为汉科技有限公司 虚拟焊接评价方法及相关系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3518076B1 (en) * 2018-01-24 2022-09-14 C.R.F. Società Consortile per Azioni System and method for ergonomic analysis, in particular of a worker

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071285A (ja) * 2003-08-28 2005-03-17 New Industry Research Organization 空間内のインタラクションに応じて詳細度を変更する衝突検出方法及びその方法を用いた仮想空間生成装置
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364479A (zh) * 2020-09-30 2021-02-12 深圳市为汉科技有限公司 虚拟焊接评价方法及相关系统

Also Published As

Publication number Publication date
WO2018016192A1 (ja) 2018-01-25

Similar Documents

Publication Publication Date Title
JP6436604B2 (ja) 演算システムによって実施される方法及びシステム
JP4850984B2 (ja) 動作空間提示装置、動作空間提示方法およびプログラム
US10665014B2 (en) Tap event location with a selection apparatus
US8875041B1 (en) Methods and systems for providing feedback on an interface controlling a robotic device
US20190033988A1 (en) Controller tracking for multiple degrees of freedom
US10369697B2 (en) Collision detection
JP6598191B2 (ja) 画像表示システムおよび画像表示方法
US10768711B2 (en) Mediated reality
GB2524144A (en) Information processing apparatus and information processing method
EP3756073B1 (en) Coordinating alignment of coordinate systems used for a computer generated reality device and a haptic device
US20160104313A1 (en) Method and apparatus for rendering object for multiple 3d displays
US20190329411A1 (en) Simulation device for robot
JP2016085602A (ja) センサ情報統合方法、及びその装置
JP2017010387A (ja) システム、複合現実表示装置、情報処理方法及びプログラム
WO2018016192A1 (ja) 仮想感性評価支援システム
JP2019209392A (ja) 力覚視覚化装置、ロボットおよび力覚視覚化プログラム
Vogel et al. Exploring the possibilities of supporting robot-assisted work places using a projection-based sensor system
JP2019101476A (ja) 操作案内システム
JP2019045997A (ja) 情報処理装置及びその方法、プログラム
KR101472314B1 (ko) 단일 카메라를 이용한 3차원 입력장치 및 방법
Arreghini et al. A Long-Range Mutual Gaze Detector for HRI
JP2012103888A (ja) 仮想空間共有システム、携帯端末、及び仮想空間共有方法
JP7196894B2 (ja) 情報処理装置、情報処理システム及びプログラム
WO2022190537A1 (ja) 情報処理装置および情報処理方法、並びにプログラム
JP2017215263A (ja) 位置検出方法及び位置検出システム