JP6959991B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP6959991B2
JP6959991B2 JP2019559894A JP2019559894A JP6959991B2 JP 6959991 B2 JP6959991 B2 JP 6959991B2 JP 2019559894 A JP2019559894 A JP 2019559894A JP 2019559894 A JP2019559894 A JP 2019559894A JP 6959991 B2 JP6959991 B2 JP 6959991B2
Authority
JP
Japan
Prior art keywords
virtual
manipulator
information
finger
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019559894A
Other languages
English (en)
Other versions
JPWO2019123530A1 (ja
Inventor
和之 有松
裕史 松生
泰史 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2019123530A1 publication Critical patent/JPWO2019123530A1/ja
Application granted granted Critical
Publication of JP6959991B2 publication Critical patent/JP6959991B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
仮想的な空間内に仮想的な物体(例えばブロック等)を配して、ユーザの操作によりブロックを仮想空間内で積み上げさせる処理等を行わせる情報処理装置がある。
このとき、例えばユーザの手指に相当する仮想的な手指(マニピュレータ)を仮想空間内に表示して、ユーザの操作により、このマニピュレータの位置や指の姿勢(曲げ具合)を変化させつつ、マニピュレータの指が仮想空間内で仮想的なブロックをつまんだか否かを判断し、つまんだと判断している間は、当該マニピュレータの動きとつままれた仮想的なブロックの動きとを同期させて、あたかも仮想空間内でブロックをつかんで移動させているかのような表示を行わせる方法が知られている。
しかしながら、上記従来の操作インタフェースでは、仮想空間内でのユーザの視野から見たときの仮想的な物体とマニピュレータの見え方が現実と相違することや、仮想的な物体を仮想的につまんだときに、ユーザに対してつまんだことを表すフィードバックを与えることが必ずしも容易でないため、ユーザは、対象物を実際につまんだことになっているのか、どのくらいの力でつまんでいるのかを知ることができず、操作性が低いという問題点があった。
本発明は上記実情に鑑みて為されたもので、ユーザの操作性を向上できる情報処理装置、情報処理方法、及びプログラムを提供することを、その目的の一つとする。
上記従来例の問題点を解決する本発明は、仮想空間内に仮想的な物体を配し、当該仮想空間内の画像を生成してユーザに提示する情報処理装置であって、ユーザからの操作を表す情報を受け入れる受入手段と、当該受け入れた操作を表す情報に応じ、前記仮想空間内に、前記仮想的な物体を操作する仮想的なマニピュレータを表示するマニピュレータ表示手段と、前記仮想的なマニュピレータが前記仮想的な物体に対して与える仮想的な力の大きさを決定する決定手段と、前記決定した力の大きさを表す情報をユーザに提示する提示手段と、を有することとしたものである。
本発明によると、ユーザの操作性を向上できる。
本発明の実施の形態に係る情報処理装置の構成例を表すブロック図である。 本発明の実施の形態に係る情報処理装置に接続される操作デバイスの構成例を表すブロック図である。 本発明の実施の形態に係る情報処理装置に接続される操作デバイスの概要例を表す説明図である。 本発明の実施の形態に係る情報処理装置の例を表す機能ブロック図である。 本発明の実施の形態に係る情報処理装置が表示する仮想的なマニピュレータの例を表す説明図である。 本発明の実施の形態に係る情報処理装置の動作例を表すフローチャート図である。 本発明の実施の形態に係る情報処理装置による情報提示の例を表す説明図である。
本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明において各部の大きさやその比、配置等は一例であり、本実施の形態の例は、図示等した大きさや比率、配置に限られるものではない。
本発明の実施の形態に係る情報処理システムは、例えば家庭用ゲーム機等のコンピュータ機器を含むシステムであり、図1に例示するように、家庭用ゲーム機本体等の情報処理装置1と、この情報処理装置1に接続された操作デバイス20とを含む。
操作デバイス20は、ユーザの左手または右手の少なくとも一方に把持される。またこの操作デバイス20は、ユーザの手にベルト等で固定されてもよい。
この操作デバイス20は、図2にその概要を例示するように、制御部21と、記憶部22と、操作インタフェース23と、センサ部24と、通信部25とを含んだ回路部を備えて構成される。
この操作デバイス20は、その外形の概要を図3に例示するように、ユーザにより把持される把持部211と、操作部212と、指動作検出部213とを含む。把持部211は、本実施の形態の一例では実質的に多角形柱状をなしている。操作部212は、把持部211から連続して形成されており、図2の例では、ボタン等を含む。指動作検出部213は、センサ部24に含まれるセンサの一つであり、ユーザが当該デバイス本体210を把持したときに、ユーザの指の曲げ具合の情報を得て、その検出結果の情報を出力する。なお、ここで指の曲げ具合の情報は、例えば指の関節の角度に関する情報でよい。ここでの関節は、ユーザの実際の関節ではなく、指の付け根と指先との間に一つだけ関節があるものとしてモデル化し、この指の付け根と指先との間にあるとした関節の角度を推定するものでよい。このような推定は、ボーンモデルによる推定など、広く知られた方法があり、それらを採用できるので、ここでの詳しい説明は省略する。なお、この指動作検出部213は、操作部212を兼ねてもよい。
またこの操作デバイス20の大きさは、ユーザが自然にデバイス本体210を把持したときに、その一方端がユーザの親指(いわゆる親指)の先端が到達する位置よりやや外側に位置し、その他方端が、小指の付け根(MP関節に相当する位置)からやや突出する位置にある程度の大きさとする。なお操作デバイス20は、操作デバイス20を装着した状態でユーザが手を開いても落下しないよう、ユーザの手に、ベルト等(不図示)で固定されてもよい。
本実施の形態の制御部21は、CPU等のプログラム制御デバイスであり、記憶部22に格納されたプログラムに従って動作する。本実施の形態ではこの制御部21は、操作インタフェース23を介してユーザが操作部212のボタン操作部231等においてした操作の内容を表す情報や、センサ部24が検出したユーザの指の曲げ具合に関する情報を、操作の情報として通信部25を介して情報処理装置1へ出力する。またこの制御部21は、通信部25を介して情報処理装置1から受信した情報に従い、操作デバイス20の各部をコントロールする。
記憶部22は、メモリデバイス等であり、制御部21によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部22に複写されたものであってもよい。またこの記憶部22は、制御部21のワークメモリとしても動作する。
操作インタフェース23は、操作部212に備えられたボタン操作部231等に対してユーザが行った操作の内容を表す情報を制御部21に出力する。センサ部24は、指動作検出部213を含む少なくとも一つのセンサを含み、各センサが出力する情報を制御部21に出力する。
本実施の形態の一例では、指動作検出部213は、赤外線センサで構成され、デバイス本体210から、各指の指先までの距離を測定し、当該距離により各指の曲げ具合を推定するものであってもよい。また、この指動作検出部213は、デプスカメラ等であり、デバイス本体210から、各指の各点までの距離を測定することで、各指の曲げ具合を推定するものであってもよい。さらに別の例では、指動作検出部213は、操作に係る指ごとに設けられたアナログスイッチ(多段階で押下された量を表す情報を出力するスイッチ)であってもよい。この場合、対応するアナログスイッチの押下量に基づいて、対応する指の曲げ具合の情報が推定されて出力される。また、センサ部24は、加速度センサ等、他のセンサを含んでもよい。
通信部25は、USBインタフェース等の有線インタフェースや、ブルートゥース(登録商標)等の無線インタフェースであり、制御部21から入力される指示に従い、種々の情報を情報処理装置1に対して出力している。
情報処理装置1は、図1に例示したように、制御部11と、記憶部12と、インタフェース部13と、出力部14とを含んで構成されている。制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では制御部11は、例えばゲームアプリケーションの処理として、仮想空間内に仮想的な物体を配し、当該仮想空間内の画像を生成してユーザに提示する処理を実行している。またこの制御部11は、操作デバイス20から、ユーザからの操作を表す情報を受け入れ、当該受け入れた操作を表す情報に応じ、上記ゲームアプリケーションの処理等で生成する仮想空間内に、仮想的な物体を操作する仮想的なマニピュレータを表示する。そして制御部11は、この仮想的なマニュピレータが上記仮想的な物体に対して与える仮想的な力の大きさを決定し、当該決定した力の大きさを表す情報をユーザに提示する。この制御部11の具体的な処理の内容については、後に詳しく述べる。
記憶部12は、メモリデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部12に複写されたものであってもよい。またこの記憶部12は、制御部11のワークメモリとしても動作する。
インタフェース部13は、操作デバイス20に無線又は有線にて接続され、操作デバイス20からユーザの操作に係る情報を受け入れ、制御部11に出力する。出力部14は、例えばHDMI(登録商標)インタフェース等、家庭用テレビジョンや、ヘッドマウントディスプレイに対して映像等を出力するインタフェースを有する。この出力部14は、制御部11から入力される指示に従い、表示するべき映像の情報を出力する。
次に、情報処理装置1の制御部11の動作について説明する。この制御部11は、機能的には図4に例示するように、仮想空間設定処理部111と、操作受入部112と、操作表示部113と、決定処理部114と、提示処理部115と、画像生成部116とを含んで構成される。
仮想空間設定処理部111は、例えばゲームアプリケーションなどのアプリケーションプログラムの処理の過程で、ゲーム空間等の仮想的な空間(仮想空間)の情報を設定する。本実施の形態の例では、この仮想空間は三次元的な空間であるものとする。具体的にこの仮想空間設定処理部111は、仮想空間内のアプリケーションプログラムによって指示される位置に、指示された仮想的な物体を配置することを表す情報を生成する。このような仮想空間内の情報の例については広く知られた方法を採用できるのでここでの詳しい説明は省略する。
操作受入部112は、操作デバイス20が出力する、ユーザからの操作を表す情報を受け入れる。本実施の形態の一例において、この情報には、ユーザの、少なくとも一部の指についての曲げ具合を表す情報を含む。またこの操作受入部112は、操作デバイス20を保持するユーザの手の位置と手の姿勢(手の平の法線方向など)とに関する情報を受け入れてもよい。このユーザの手の位置の移動に関する情報は、例えば図示しないカメラ等によって操作デバイス20の移動を検出することで取得してもよいし、操作デバイス20が備える加速度センサ等による検出の結果に基づいて取得してもよい。
操作表示部113は、操作受入部112が受け入れた操作を表す情報に応じて、仮想空間設定処理部111が設定した仮想空間内に、仮想的な物体を操作する仮想的なマニピュレータを表示する。
具体的にこのマニピュレータは、ユーザの手や指を表す三次元的なモデルであってもよい。この例では、マニピュレータには、図5に例示するように、ユーザの指の少なくとも一部に対応する、一つの関節を有する筒状の形状部分F1,F2…及び、扁平な板状をなす、手に相当する部分Hを含む。
操作表示部113は、仮想空間内のマニピュレータの位置、形状及び姿勢を、仮想空間設定処理部111が設定した仮想空間内の仮想的な物体に係る情報と、操作受入部112が受け入れた操作を表す情報とに基づいて決定する。一例として、マニピュレータが図5に例示したように、ユーザの手に相当する部分Hと、各指に対応する部分F1,F2…を有する場合、操作表示部113は、手に相当する部分Hの位置及び姿勢(外接直方体の比較的広い面の法線方向)を、ユーザの手の位置及び姿勢に関する情報に基づいて設定する。また、操作表示部113は、マニピュレータのうちユーザの指に相当する部分F1,F2…の姿勢(関節の角度)を、対応するユーザの指の曲げ具合に応じて仮に決定する。
すなわち操作表示部113は、仮想空間内で、マニピュレータの手に相当する部分Hの位置及び姿勢を、ユーザの手の位置及び姿勢に関する情報に基づいて設定し、ユーザの指に相当する部分F1,F2…の形状(関節の角度)を、対応するユーザの指の曲げ具合と等しいものとして仮に設定する。そして操作表示部113は、この設定を行ったとき、ユーザの指に相当する部分F1,F2…の先端と、仮想空間内に配された物体との位置が衝突する(同じ位置を占めることとなる)か否かを調べる。操作表示部113は、ユーザの指に相当する部分F1,F2…のうち、その先端(手H側とは異なる側の端部)と、仮想空間内に配された物体との位置が衝突しないと判断した部分の関節の角度については、仮に決定した対応するユーザの指の曲げ具合と等しい角度のままとする。
一方、操作表示部113は、ユーザの指に相当する部分F1,F2…のうち、その先端と、仮想空間内に配された物体との位置が衝突すると判断した部分(Fnとする)の関節の角度については、当該部分Fnの先端が仮想空間内に配された物体に接触する角度に変更する。一例として操作表示部113は、当該部分Fnの先端が仮想空間内に配された物体との位置が衝突しない状態となるまで、仮に決定した対応するユーザの指の曲げ具合と等しい角度Fθnから水平(180度)に近い側へ所定の角度Δθずつ変更する。そして、操作表示部113は、当該部分Fnの先端が仮想空間内に配された物体との位置が衝突しない状態となったときの関節の角度を、当該部分Fnの関節の角度とする。
決定処理部114は、操作表示部113が設定した仮想的なマニュピレータが、当該マニピュレータに接触している仮想的な物体に対して与える仮想的な力の大きさを決定する。本実施の形態の一例として、マニピュレータが図5に例示したように、ユーザの手に相当する部分Hと、各指に対応する部分F1,F2…を有する場合、この決定処理部114は、ユーザの指に相当する部分F1,F2…ごとに、それぞれの関節の角度Fθ1,Fθ2…と、当該部分F1,F2…のそれぞれに対応するユーザの指の曲げ具合の情報θ1,θ2…との差、
f1=θ1−Fθ1、
f2=θ2−Fθ2、…
を、マニュピレータが、当該マニピュレータに接触している仮想的な物体に対して与える仮想的な力の大きさとしてそれぞれ求める。
提示処理部115は、決定処理部114が決定した力の大きさを表す情報をユーザに提示する。本実施の形態の一例では、提示処理部115は、マニピュレータの指に対応する部分F1,F2…ごとに、決定処理部114が決定した力の大きさの値f1,f2…に応じて、色を設定する。例えば、この色は、彩度Cs、明度Cb、色相Chのうち、彩度Cs、色相Chは予め定めておき、部分Fnの明度の値Cbnを、決定された対応する力の大きさの値fnを用いて、Cbn=Cb0+αfnと定める。ここでCb0は、f=0(物体に触れていない状態)での値とし、αは適宜実験的に定める。
画像生成部116は、仮想空間設定処理部111が設定した仮想空間内の仮想的な物体と、操作表示部113がその位置や姿勢、形状を設定し、提示処理部115にて色が決定された仮想的なマニピュレータとを、仮想空間内の所定の位置に配した仮想的なカメラから見た、所定の視野の画像としてレンダリングし、画像を生成する。
制御部11は、この画像生成部116が生成した画像を、出力部14を介してディスプレイや、ヘッドマウントディスプレイに出力して、ユーザに仮想空間内の画像を提示する。また、制御部11は、操作表示部113が設定したマニピュレータと、仮想空間設定処理部111が設定した仮想空間内の仮想的な物体とが接触しているときには、決定処理部114が求めた力の大きさとマニピュレータとの接触角度等に応じて、仮想的な物体の位置及び姿勢を変更してもよい。例えば、マニピュレータの部分が一ヶ所だけで仮想的な物体に接しているときには、当該部分に力が加わったとして、力の方向に仮想的な物体を移動させる。また、マニピュレータの部分が二ヶ所以上、仮想的な物体に接しているときには、マニピュレータにより仮想的な物体が捉まれていると判断して、マニピュレータの移動量に合わせて仮想的な物体の位置を移動する(つかんで移動している状態を表す)。
[動作]
本実施の形態は、以上の構成を備えており、次のように動作する。ユーザは、例えばヘッドマウントディスプレイを装着し、左右の手の少なくとも一方には、指の曲げ具合を測定するセンサを備えた操作デバイス20を装着するものとする。
情報処理装置1は、ヘッドマウントディスプレイに対して表示させる画像を生成する。本実施の形態では、この情報処理装置1は、仮想空間内の画像を所定の視野から見た像としてレンダリングして出力するものとする。この視野はヘッドマウントディスプレイの位置、角度に応じて変更されてもよい。
情報処理装置1は、図6に例示するように、表示の対象とする仮想空間内に、例えばゲームアプリケーションの処理として、仮想的な物体を配する。また情報処理装置1は、ユーザの手に対応する仮想的なマニピュレータをこの仮想空間内に配する(初期化処理:S1)。
ここでユーザが仮想空間内の画像を参照して、仮想空間内の仮想的な物体をつかむため、仮想的な物体の方向に手を移動すると、情報処理装置1は、例えば操作デバイス20から当該手の移動量に関する情報を受け入れて(S2)、当該手の移動量に応じた移動量だけ、仮想空間内のマニピュレータの位置を移動して設定する(S3)。
またユーザが仮想的な物体を指でつかむべく、指を曲げていくと、当該指の曲げ具合の情報が操作デバイス20により検出されて情報処理装置1に出力される。情報処理装置1は、指の曲げ具合の情報を受け入れて(S4)、マニピュレータの、各指に対応する部分の関節の角度を、処理S4で受け入れた、対応する指の曲げ具合の情報に基づいて設定する(S5)。このとき、情報処理装置1は、マニピュレータの各指に対応する部分について、仮想空間内の仮想的な物体との衝突を判定し(S6)、衝突していると判定したとき(S6:Yes)には、仮想的な物体の面に触れている状態となる関節の角度まで、衝突したと判定したマニピュレータの指に対応する部分の関節の角度を補正する(S7)。
情報処理装置1は、マニピュレータの、各指に対応する部分の色を、対応する指の曲げ具合の情報に基づいて設定した角度と、処理S7にて補正した後の角度とに応じて変更する(S8)。例えば、これらの角度の差に比例した明度の色に設定する。
なお、処理S6において指に対応する部分が仮想空間内の仮想的な物体と衝突していないと判断したとき(処理S6:No)は、処理S7,S8は行わない。このとき、当該部分は、予め定められた色(初期の色)に設定される。情報処理装置1は、処理S5からS8をマニピュレータの各指に対応する部分ごとに繰り返す。
そして情報処理装置1は、当該設定後の仮想空間内の画像をレンダリングして生成し、ヘッドマウントディスプレイに出力してユーザに提示する(S9)。
このように本実施の形態では、図7に例示するように、指の曲げ具合に応じて設定されたマニピュレータの当該指に対応する部分Fnの関節の角度がθnであるときに仮想空間内の仮想的な物体Xと衝突すると判定されると、情報処理装置1は、当該物体Xに触れる関節角度Fθnとなるまで、関節の角度を補正する。
従ってユーザが指示した角度θnまでは、仮想的なマニピュレータの関節の角度は変更されず、その差θn−Fθnが生じることとなる。本実施の形態の情報処理装置1は、この差θn−Fθnによって、マニピュレータの対応する関節に係る部分Fnの色を変更する(図7(a))。ユーザが実際に指の曲げ具合を変えて指を伸ばしていく(関節を開いていく)と、この角度の差θn−Fθnは小さくなり、衝突しないと判定される角度となると、以降はこの角度の差は「0」となる。この場合、マニピュレータの対応する関節に係る部分Fnの色は変更前の予め定められた色となる(図7(b))。なお、図7では図示の都合上、色の変化をハッチングで示している。
ユーザは表示されたマニピュレータの部分の色を参照することで、自らがどの程度の(仮想的な)力で仮想的な物体を把持している状態となっているかを知ることができ、詳細な力の調整が可能となってユーザの操作性を向上できる。
[提示方法の他の例]
ここまでの説明では、制御部11の提示処理部115は、決定処理部114が決定した力の大きさを表す情報をユーザに提示するため、マニピュレータの指に対応する部分F1,F2…ごとに、決定処理部114が決定した力の大きさの値f1,f2…に応じて、色を設定することとしていた。しかしながら本実施の形態はこれに限られない。例えば、提示処理部115は、色に代えて、あるいは色とともにマニピュレータの指に対応する部分F1,F2…ごとに、決定処理部114が決定した力の大きさの値f1,f2…に応じて、テクスチャを変更してもよい。
一例として、制御部11は、テクスチャの密度(繰り返し周期)を、決定処理部114が決定した力の大きさの値f1,f2…に応じて変更すればよい。
また、制御部11の提示処理部115は、色またはテクスチャに代えて、あるいはそれらの少なくとも一方とともに、マニピュレータの指に対応する部分F1,F2…ごとに、透過度を変更してもよい。
さらに制御部11の提示処理部115は、マニピュレータの指に対応する部分F1,F2…ごとに、色を周期的に変更させ、その色の変更周期を、決定処理部114が決定した力の大きさの値f1,f2…に応じて決定してもよい。例えば力fnが大きくなると、対応するマニピュレータの指に対応する部分Fnの色の変更周期が短くなるように設定する。
これらによっても、ユーザは表示されたマニピュレータの部分の色やその変更周期、テクスチャ、透過度を参照することで、自らがどの程度の(仮想的な)力で仮想的な物体を把持している状態となっているかを知ることができ、ユーザの操作性を向上できる。
さらにここまでの例では、制御部11の提示処理部115は、決定処理部114が決定した力の大きさを表す情報をユーザに提示するため、マニピュレータの指に対応する部分F1,F2…ごとに、決定処理部114が決定した力の大きさの値f1,f2…に応じて、色等を設定することとしていたが本実施の形態はこれに限られず、提示処理部115は、マニピュレータの指に対応する部分F1,F2…の色等に代えて、あるいはそれとともに、マニピュレータの指に対応する部分F1,F2…が接触している仮想的な物体の面(仮想的な物体の少なくとも一部)の色、テクスチャ、透過度、色の変更周期を異ならせてもよい。
さらに本発明の実施の形態の別の例では、マニピュレータの指に対応する部分F1,F2…ごとに、決定処理部114が決定した力の大きさの値f1,f2…に応じて当該部分Fnの大きさ(体積)や形状等を変更してもよい。
[情報の提示態様の他の例]
また本実施の形態では、提示処理部115が、決定処理部114により決定された力の大きさを表す情報を提示するにあたり、対応するマニピュレータが接触している仮想的な物体の部分の大きさにより、色、テクスチャまたは透過度を変化させる領域の大きさを異ならせてもよい。
例えば仮想空間内の仮想的な物体が多面体(ポリゴン等)で表されている場合に、提示処理部115は、マニピュレータの指に対応する部分F1,F2…のうち、対応する力の大きさの値fnが「0」でないもの(ユーザの指の曲げ具合に基づいて関節角度を決定したときに、物体と衝突すると判定されたもの)のそれぞれについて、当該部分に最も近接する仮想的な物体の面の面積を求める。ここで、最も近接する物体の面は、操作表示部113が衝突したと判定したときに接触していた面とすればよい。
提示処理部115は、当該求めた面積に応じて、マニピュレータの指に対応する部分Fまたは当該部分が接触する仮想的な物体の部分の色、テクスチャまたは透過度を変化させる領域の大きさを異ならせる。例えば、提示処理部115は、マニピュレータの指に対応する部分Fの先端部分を中心とする半径rの範囲の色(またはテクスチャ、透過度等)を力の大きさによって異ならせ、この半径rを、当該部分Fに最も近接する仮想的な物体の面の面積に比例した値とする。
これによると、マニピュレータの指に相当する部分の先端のどの程度の範囲の色が変更されるかによって、ユーザは、つかもうとしている物体の面の大きさを知ることが可能となる。
[ゲージによる表示]
さらに本実施の形態の一例では、提示処理部115は、マニピュレータの指に対応する部分Fまたは当該部分が接触する仮想的な物体の部分の色、テクスチャまたは透過度を変化させるのに代えて、またはそれとともに、対応する部分の近傍(対応する部分から予め定めた距離の範囲にある位置)に、決定処理部114により決定された、対応する力の大きさを表すゲージ(力の大きさに応じて伸縮するバー、または力の大きさに応じて色の変わる範囲が制御される円グラフ状のゲージ)を表示してもよい。あるいは、このゲージの表示位置は、マニピュレータの手の部分Hであってもよい。
[操作デバイスに対して情報提示する例]
さらに本実施の形態のある例では、提示処理部115は、ユーザに提示する画像を変更するのではなく、操作デバイス20に対して、ユーザに情報を提示するよう指示してもよい。
この例では、操作デバイス20がVCM(Voice Coil Motor)や、偏心モーター(ERM:Eccentric Rotating Mass)、スピーカー等の振動素子を内蔵しているものとする。
この例に係る提示処理部115は、操作デバイス20に対して、指ごとに決定処理部114が決定した力の大きさに係る情報を送信する。操作デバイス20の制御部21は受信した情報が表す力の大きさに応じて、VCM等の振動素子の振動態様を制御する。
ここでの振動態様の制御は、一例として、受信した情報が表す力の大きさが大きいほど、振幅を大きくするなど振幅を変更する制御や、受信した情報が表す力の大きさが大きいほど、振動の周期を短くするなど、振動周期を変更する制御等がある。また、振動を断続的に行い、振動していない時間の長さを、受信した情報が表す力の大きさに応じて制御することとしてもよい。これによると、情報処理装置1において決定した力の大きさに係る情報に応じて、音や振動の大きさ、周波数、振動のテンポ(断続的振動の周期)等が変動するので、ユーザは振動の状態を通じて、自らがどの程度の(仮想的な)力で仮想的な物体を把持している状態となっているかを知ることができ、詳細な力の調整が可能となってユーザの操作性を向上できる。
また操作デバイス20は、振動素子をユーザの指ごと(少なくとも情報処理装置1が表示するマニピュレータの各指の部分に対応する指ごと)に備えていてもよい。この場合、例えば、ユーザは、各振動素子の振動が伝達される位置にそれぞれの指を配して操作デバイス20を把持する。
そして操作デバイス20の制御部21はマニピュレータの指の部分ごとに決定処理部114が決定した力の大きさに係る情報を受信して、当該情報に応じて、対応する指が配された位置に振動を伝達する振動素子の振動の振幅、周波数、あるいは断続的な振動を与える場合の断続的振動の周期を変更する。この場合、ユーザは、指ごとに、振動の状態を通じて、自らがどの程度の(仮想的な)力で仮想的な物体を把持している状態となっているかを知ることができ、詳細な力の調整が可能となってユーザの操作性を向上できる。
また、ここでは振動をさせる場合を例として説明したが、操作デバイス20は振動素子に代えて、あるいはこれとともに、発熱素子(電気的信号出力により発熱温度を制御可能なデバイス)を備えてもよい。この場合、操作デバイス20の制御部21は、指ごとに決定処理部114が決定した力の大きさに係る情報を送信する。操作デバイス20の制御部21は受信した情報が表す力の大きさに応じて、当該発熱素子の発熱温度を制御する。この発熱素子も、ユーザの指が配される位置ごとに設けられ、制御部21が対応する指に対して、受信した情報に含まれる、対応する力の大きさの情報に応じて、指ごとに発熱素子の発熱温度を制御してもよい。
[マニピュレータの他の例]
また、ここまでの説明では、仮想的なマニピュレータは、ユーザの手の形状を模して、手の部分と指の部分とを有する形状としたが、本実施の形態はこれに限られず、開閉可能なつかみ具を模した形状として、つかみ具の開度をユーザの指の曲げ具合に応じて決定してもよい。一例としてこの開度は、ユーザの各指の曲げ具合の情報の平均値等の統計量に応じて決定してもよい。
この例では、情報処理装置1は、ユーザの指の曲げ具合に応じて決定した開度と、仮想空間内の物体との衝突判定の結果、補正された開度との差によって、仮想的なマニュピレータが仮想的な物体に対して与える仮想的な力の大きさを決定する。
1 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、14 出力部、20 操作デバイス、21 制御部、22 記憶部、23 操作インタフェース、24 センサ部、25 通信部、111 仮想空間設定処理部、112 操作受入部、113 操作表示部、114 決定処理部、115 提示処理部、116 画像生成部、210 デバイス本体、211 把持部、212 操作部、213 指動作検出部。

Claims (9)

  1. 仮想空間内に仮想的な物体を配し、当該仮想空間内の画像を生成してユーザに提示する情報処理装置であって、
    ユーザからの操作を表す情報を受け入れる受入手段と、
    当該受け入れた操作を表す情報に応じ、前記仮想空間内に、前記仮想的な物体を操作する手指を表す三次元的なモデルである、仮想的なマニュピレータを表示するマニュピレータ表示手段と、
    前記仮想的なマニュピレータの各指が前記仮想的な物体に対して与える仮想的な力の大きさを決定する決定手段と、
    前記決定した力の大きさを表す情報をユーザに提示する提示手段と、
    を有し、
    前記提示手段は、前記仮想的なマニュピレータの各指に対応する部分の色、テクスチャ、透過度、または色変更の周期を、対応する指ごとに求めた仮想的な力の大きさに基づいて設定する情報処理装置。
  2. 請求項1記載の情報処理装置であって、
    前記受入手段は、ユーザから、ユーザの各指の曲げ角度の情報を、操作を表す情報として受け入れ、
    前記マニュピレータ表示手段は、ユーザの少なくとも一部の指に対応するマニュピレータを表示する手段であって、前記受入手段が受け入れた情報で表される指ごとの曲げ角度の情報と、前記仮想空間内に配された前記仮想的な物体との衝突判定結果とに基づいて、対応するマニュピレータの姿勢を決定して表示し、
    前記決定手段は、前記マニュピレータ表示手段が決定したマニュピレータの姿勢と、対応する指の曲げ角度の情報とに基づいて、前記仮想的なマニュピレータが前記仮想的な物体に対して与える仮想的な力の大きさを決定する情報処理装置。
  3. 請求項2記載の情報処理装置であって、
    前記決定手段は、前記マニュピレータ表示手段が決定したマニュピレータの姿勢と、対応する指の曲げ角度の情報との差に基づいて、前記仮想的なマニュピレータが前記仮想的な物体に対して与える仮想的な力の大きさを決定する情報処理装置。
  4. 請求項1から3のいずれか一項に記載の情報処理装置であって、
    前記提示手段は、さらに、
    前記決定した力の大きさを表す情報を、当該情報に応じて、対応するマニュピレータまたは当該マニュピレータが接触している前記仮想的な物体の部分の色、テクスチャ、透過度、色変更の周期を異ならせることにより提示する情報処理装置。
  5. 請求項4に記載の情報処理装置であって、
    前記提示手段が前記決定した力の大きさを表す情報を、当該情報に応じて、対応するマニュピレータの各指またはマニュピレータが接触している前記仮想的な物体の部分の色、テクスチャ、透過度、色変更の周期を異ならせることにより提示する場合、当該対応するマニュピレータが接触している仮想的な物体の部分の大きさにより、色、テクスチャまたは透過度を変化させる領域の大きさを異ならせる情報処理装置。
  6. 請求項1から5のいずれか一項に記載の情報処理装置であって、
    さらに、前記決定した力の大きさを表す情報を、出力する音声により提示する情報処理装置。
  7. 請求項1から6のいずれか一項に記載の情報処理装置であって、
    ユーザが操作するコントローラに通信可能に接続されており、
    前記提示手段は、前記コントローラに対して、前記決定した力の大きさを表す情報を提示させる指示を出力する情報処理装置。
  8. 仮想空間内に仮想的な物体を配し、当該仮想空間内の画像を生成してユーザに提示する情報処理装置を用い、
    受入手段が、ユーザからの操作を表す情報を受け入れる工程と、
    表示手段が、当該受け入れた操作を表す情報に応じ、前記仮想空間内に、前記仮想的な物体を操作する仮想的なマニュピレータを表示する工程と、
    決定手段が、前記仮想的なマニュピレータが前記仮想的な物体に対して与える仮想的な力の大きさを決定する工程と、
    提示手段が、前記決定した力の大きさを表す情報をユーザに提示する工程と、
    を有し、
    前記情報を提示する工程では、前記仮想的なマニュピレータの各指に対応する部分の色、テクスチャ、透過度、または色変更の周期を、対応する指ごとに求めた仮想的な力の大きさに基づいて設定する情報処理方法。
  9. コンピュータを、
    仮想空間内に仮想的な物体を配し、当該仮想空間内の画像を生成してユーザに提示する手段と、
    ユーザからの操作を表す情報を受け入れる受入手段と、
    当該受け入れた操作を表す情報に応じ、前記仮想空間内に、前記仮想的な物体を操作する仮想的なマニュピレータを表示するマニュピレータ表示手段と、
    前記仮想的なマニュピレータが前記仮想的な物体に対して与える仮想的な力の大きさを決定する決定手段と、
    前記決定した力の大きさを表す情報をユーザに提示する提示手段と、
    として機能させ、
    前記提示手段として機能させる際には、前記仮想的なマニュピレータの各指に対応する部分の色、テクスチャ、透過度、または色変更の周期を、対応する指ごとに求めた仮想的な力の大きさに基づいて設定するプログラム。
JP2019559894A 2017-12-19 2017-12-19 情報処理装置、情報処理方法、及びプログラム Active JP6959991B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/045523 WO2019123530A1 (ja) 2017-12-19 2017-12-19 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019123530A1 JPWO2019123530A1 (ja) 2020-07-27
JP6959991B2 true JP6959991B2 (ja) 2021-11-05

Family

ID=66993188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019559894A Active JP6959991B2 (ja) 2017-12-19 2017-12-19 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11385759B2 (ja)
JP (1) JP6959991B2 (ja)
WO (1) WO2019123530A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11181972B2 (en) * 2017-10-26 2021-11-23 Sony Interactive Entertainment Inc. Image processing apparatus, image processing method, and program
EP3566823A1 (en) * 2018-05-11 2019-11-13 Siemens Aktiengesellschaft Method, apparatus and system for robotic programming
EP3782775A4 (en) * 2018-05-25 2021-06-23 Meltin MMI Co., Ltd. MOTION DETECTION DEVICE
KR102702585B1 (ko) * 2019-12-03 2024-09-04 삼성전자주식회사 전자 장치 및 이의 제어 방법
US12122052B2 (en) * 2022-03-15 2024-10-22 Fanuc Corporation Swept volume deformation

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3585498B2 (ja) * 1994-07-19 2004-11-04 純次 古荘 仮想現実感および遠隔現実感システム
JP3539645B2 (ja) 1995-02-16 2004-07-07 株式会社日立製作所 遠隔手術支援装置
US6407679B1 (en) * 1998-07-31 2002-06-18 The Research Foundation Of The State University Of New York System and method for entering text in a virtual environment
US6827579B2 (en) * 2000-11-16 2004-12-07 Rutgers, The State University Of Nj Method and apparatus for rehabilitation of neuromotor disorders
US7683889B2 (en) * 2004-12-21 2010-03-23 Microsoft Corporation Pressure based selection
JP4323446B2 (ja) * 2005-03-15 2009-09-02 日本電信電話株式会社 作業指示システムとそのプログラム
JP2008165488A (ja) * 2006-12-28 2008-07-17 Fujitsu Ltd 組立操作性評価装置、方法及びプログラム
GB2467461B (en) * 2007-09-14 2012-03-07 Nat Inst Of Advanced Ind Scien Virtual reality environment generating apparatus and controller apparatus
US8875041B1 (en) * 2011-08-19 2014-10-28 Google Inc. Methods and systems for providing feedback on an interface controlling a robotic device
US10627904B2 (en) * 2014-02-07 2020-04-21 Ultrahaptics IP Two Limited Systems and methods of determining interaction intent in three-dimensional (3D) sensory space
WO2016205143A1 (en) * 2015-06-14 2016-12-22 Sony Interactive Entertainment Inc. Gloves that include haptic feedback for use with hmd systems
US10572054B2 (en) * 2016-10-28 2020-02-25 Nanning Fugui Precision Industrial Co., Ltd. Interface control method for operation with one hand and electronic device thereof
US11069148B2 (en) * 2018-01-25 2021-07-20 Facebook Technologies, Llc Visualization of reconstructed handstate information

Also Published As

Publication number Publication date
US20200356235A1 (en) 2020-11-12
US11385759B2 (en) 2022-07-12
WO2019123530A1 (ja) 2019-06-27
JPWO2019123530A1 (ja) 2020-07-27

Similar Documents

Publication Publication Date Title
JP6959991B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7199476B2 (ja) 制御システム、制御装置、制御方法、及びプログラム
JP6854871B2 (ja) 制御装置及び制御プログラム
JP6799077B2 (ja) 情報処理システム、コントローラデバイス、コントローラデバイスの制御方法、及びプログラム
CN108621156B (zh) 机器人控制装置、机器人系统、机器人以及机器人控制方法
TW201707895A (zh) 機器人系統
JP6574892B2 (ja) 制御装置及び制御プログラム
JP6526098B2 (ja) ロボットを操作するための操作装置、ロボットシステム、および操作方法
KR20190021435A (ko) 정보 처리 시스템, 조작 장치, 및 조작 장치 제어 방법
JP6831475B2 (ja) 情報処理システム、コントローラデバイス、及び情報処理装置
CN105975061A (zh) 虚拟现实场景的控制方法、装置及手柄
US11813518B2 (en) Information processing system, controller apparatus, information processing apparatus, and program
JP6959349B2 (ja) 操作デバイス、及びその制御装置
JP7057389B2 (ja) 情報処理装置、制御方法、プログラム、及び記憶媒体
EP3489804A1 (en) Haptic accessory apparatus
JP6653293B2 (ja) 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP6661783B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
WO2020039507A1 (ja) コントローラ装置
WO2023170843A1 (ja) コントローラ装置、コントローラ装置の制御方法、及びプログラム
JP7319813B2 (ja) 力覚提示システム、力覚提示装置、及びプログラム
JP2022033934A (ja) ロボットシステム及びロボットシステムの制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211008

R150 Certificate of patent or registration of utility model

Ref document number: 6959991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150