JP2017004356A - 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置 - Google Patents

仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置 Download PDF

Info

Publication number
JP2017004356A
JP2017004356A JP2015119250A JP2015119250A JP2017004356A JP 2017004356 A JP2017004356 A JP 2017004356A JP 2015119250 A JP2015119250 A JP 2015119250A JP 2015119250 A JP2015119250 A JP 2015119250A JP 2017004356 A JP2017004356 A JP 2017004356A
Authority
JP
Japan
Prior art keywords
virtual space
sight
line
pointer
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015119250A
Other languages
English (en)
Other versions
JP6110893B2 (ja
Inventor
集平 寺畑
Shuhei Terahata
集平 寺畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015119250A priority Critical patent/JP6110893B2/ja
Priority to PCT/JP2016/066812 priority patent/WO2016199736A1/ja
Priority to US15/735,594 priority patent/US20180314326A1/en
Publication of JP2017004356A publication Critical patent/JP2017004356A/ja
Application granted granted Critical
Publication of JP6110893B2 publication Critical patent/JP6110893B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】仮想空間中のオブジェクトのうち、操作者側からみた見掛けの面積が小さい部分を容易に指定できる仮想空間位置指定方法を提供する。
【解決手段】操作の対象となるオブジェクトOを指定するための仮の視線について、仮想空間中の操作者の眼の位置ではなく、眼の位置からある一定の第1の距離yだけ上下方向に離れた位置からでるようにするとともに、ある一定の第2の距離xだけ水平方向に離れた位置で、操作者の眼の位置からの実際の視線と交差するように、仮の視線と実際の視線の間の垂直方向に角度αを設ける。
【選択図】図4

Description

本発明は、仮想現実空間(VR)、拡張現実空間(AR)において、操作者が操作を行うための操作者の操作の対象であるオブジェクトを特定するための、仮想空間における位置指定に関するものである。
特許文献1,2には、ヘッドマウント・ディスプレイ(HMD)を装着した操作者の視線をもとに操作者が注視している点を求め、そこに注視点を表示するカーソルないしポインタを表示する技術が開示されている。
特開平06−337756号公報 特開平09−128138号公報
しかしながら、特許文献1,2に記載の技術では、仮想空間中のオブジェクトのうち、操作者側からみた見掛けの面積が小さい部分を指定することが難しい。本発明は、仮想空間中のオブジェクトの所定位置を容易に指定可能とすることを目的とする。
本発明によれば、仮想空間における位置を指定するための仮の視線について、仮想空間中の操作者の眼の位置ではなく、眼の位置からある一定の第1の距離だけ上下方向に離れた位置からでるようにするとともに、ある一定の第2の距離だけ水平方向に離れた位置で、操作者の眼の位置からの実際の視線と交差するように、仮の視線と実際の視線の間の垂直方向に角度αを設けた、仮想空間位置指定方法ないし装置を得ることができる。
本発明によれば、仮想空間中のオブジェクトの所定位置を容易に指定可能となる。
このほかの、この発明の特徴及び利点は、この発明の実施例の説明、添付の図面、及び請求の範囲から明らかなものとなる。
図1は、操作者の眼の位置、仮の視線、実際の視線の関係を示す図である。 図2は、図1に示した仮の視線から注視点を求めた第1の例である。 図3は、図2に示した第1の例の視野の図である。 図4は、図1に示した仮の視線から注視点を求めた第2の例である。 図5は、図4に示した第2の例の視野の図である。 図6は、図1に示した仮の視線から注視点を求めた第3の例である。 図7は、図6に示した第3の例の視野の図である。 図8は、図1に示した仮の視線から注視点を求めた第4の例である。 図9は、図8に示した第4の例の視野の図である。 図10は、実際の視線が上下方向に振られることによって、仮の視線がどのように動くかについての第1の手法の図である。 図11は、実際の視線が上下方向に振られることによって、仮の視線がどのように動くかについての第2の手法の図である。 図12は、実際の視線が上下方向に振られることによって、仮の視線がどのように動くかについての第3の手法の図である。 図13は、オブジェクトOの操作者に向いている面に厚みを持った星形のポインタPが表示されている図である。 図14は、オブジェクトOの上面に厚みを持った星形のポインタPが表示されている図である。 図15は、ポインタPの表示を実現するための方法を示すフローチャートである。 図16は、図15で示したフローチャートに示した方法を実行するための装置を示すブロック図である。 図17は、ヘッドマウント・ディスプレイ(HMD)1610の傾きセンサで検知可能な角度情報データを説明する図である。 図18は、ヘッドマウント・ディスプレイ(HMD)1610上に設けられた、ポジション・トラッキング・カメラ(位置センサ)1630のために赤外線を発する点を示す図である。 図19は、図15で示したフローチャートに示した方法を実行するためのコンポーネントの主要機能の構成を示す図である。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の一実施形態は、以下のような構成を備える。
(項目1)
仮想空間中に操作の対象となる場所を示すポインタを表示する方法であって、仮想空間中の操作者の眼の位置Aと前記位置Aから仮想空間中の水平方向に距離xだけ離れた位置Cを結ぶ実際の視線と、仮想空間中の操作者の眼の位置Aから仮想空間中の垂直方向に距離y1だけ離れた位置Bと前記位置Cを結ぶ仮の視線を求める初期視線算出ステップと、前記仮の視線と仮想空間中のオブジェクトが交わる点に、操作の対象となる位置を示すポインタを表示するポインタ表示ステップと、前記実際の視線に基づいて、前記ポインタを含んだ仮想空間を描画することを特徴とする視野画像生成ステップと、前記実際の視線の移動に基づいて前記仮の視線を移動させる視線移動ステップと、を有することを特徴とする、仮想空間中に操作の対象となる場所を示すポインタを表示する仮想空間位置指定方法。
(項目2)
前記初期視線算出ステップにおいて、前記位置Bは前記位置Aに比べ仮想空間の垂直方向に距離y1だけ高い位置にあり、前記位置Cは、前記位置Aに比べ仮想空間の垂直方向に距離y2だけ低い位置にあることを特徴とする、項目1に記載の仮想空間中に操作の対象となる場所を示すポインタを表示する仮想空間位置指定方法。
(項目3)
前記初期視線算出ステップにおいて、前記位置Bは前記位置Aに比べ仮想空間の垂直方向に距離y1だけ低い位置にあり、前記位置Cは、前記位置Aに比べ仮想空間の垂直方向に距離y2だけ高い位置にあることを特徴とする、項目1に記載の仮想空間中に操作の対象となる場所を示すポインタを表示する仮想空間位置指定方法。
(項目4)
前記ポインタ表示ステップが表示するポインタは、仮想空間中のオブジェクトの表面に張り付いた形で変形して表示されることを特徴とする、項目1〜3のいずれか一項に記載の仮想空間位置指定方法。項目4で示された仮想空間位置指定方法は、更に、ポインタがオブジェクトの上面にあるのか、それ以外の面にあるのかが強調されて表示され、操作性が向上する。
(項目5)
項目1〜4のいずれか一項に記載の方法を実行するためのプログラム。
(項目6)
項目1〜4のいずれか一項に記載の方法を実行するためのプログラムを記録した記録媒体。
(項目7)
仮想空間中に操作の対象となる場所を示すポインタを表示する装置であって、仮想空間中の操作者の眼の位置Aと前記位置Aから仮想空間中の水平方向に距離xだけ離れた位置Cを結ぶ実際の視線と、仮想空間中の操作者の眼の位置Aから仮想空間中の垂直方向に距離y1だけ離れた位置Bと前記位置Cを結ぶ仮の視線を求める初期視線算出手段と、前記仮の視線と仮想空間中のオブジェクトが交わる点に操作の対象となる位置を示すポインタを表示するポインタ表示手段と、前記実際の視線に基づいて、前記ポインタを含んだ仮想空間を描画することを特徴とする視野画像生成手段と、前記実際の視線の移動に基づいて前記仮の視線を移動させる視線移動手段と、を有することを特徴とする、仮想空間中に操作の対象となる場所を示すポインタを表示する仮想空間位置指定装置。
(項目8)
前記初期視線算出手段において、前記位置Bは前記位置Aに比べ仮想空間の垂直方向に距離y1だけ高い位置にあり、前記位置Cは、前記位置Aに比べ仮想空間の垂直方向に距離y2だけ低い位置にあることを特徴とする、項目7に記載の仮想空間中に操作の対象となる場所を示すポインタを表示する仮想空間位置指定装置。
(項目9)
前記初期視線算出手段において、前記位置Bは前記位置Aに比べ仮想空間の垂直方向に距離y1だけ低い位置にあり、前記位置Cは、前記位置Aに比べ仮想空間の垂直方向に距離y2だけ高い位置にあることを特徴とする、項目8に記載の仮想空間中に操作の対象となる場所を示すポインタを表示する仮想空間位置指定装置。
(項目10)
前記ポインタ表示手段が表示するポインタは、仮想空間中のオブジェクトの表面に張り付いた形で変形して表示されることを特徴とする項目7〜9のいずれか一項に記載の仮想空間位置指定装置。項目10で示された仮想空間位置指定装置は、更に、ポインタがオブジェクトの上面にあるのか、それ以外の面にあるのかが強調されて表示され、操作性が向上する。
[本発明の実施形態の詳細]
以下、図面を参照して、本発明の実施の形態を説明する。なお、この実施の形態は、各種センサ(例えば、加速度センサや角速度センサ)を備え、その姿勢データを計測できるヘッドマウント・ディスプレイ(HMD)を用い、その姿勢データを用いてヘッドマウント・ディスプレイ(HMD)に表示される画像をスクロールし仮想空間上の視線の移動を実現する没入型仮想空間を前提として記述されているが、通常のディスプレイ上に仮想空間を表示し、キーボード、マウスやジョイスティックなどによる入力によって、仮想空間上の視線を移動するものに適用することもできる。また、仮想空間は3次元仮想空間としているが、必ずしもそれに限られる必要はない。
また、図中、同一の構成要素には同一の符号を付してある。
図1は、本発明における、操作者の眼の位置、仮の視線、実際の視線の関係を示す図であり、図2〜9は、操作者とオブジェクトOの間の距離に応じて、図1に示した仮の視線から注視点を求めた第1〜4の例を示す図である。
図1において、高さy0にある点Aは、操作者の眼の位置を表している。点Bは、点Aから垂直に第1の距離y1だけ離れた位置である。点Cは、点Aからみて水平に第2の距離xだけ離れ、第3の距離yだけ垂直に下がった位置にあり、点Aと点Cを結ぶ直線ACは実際の視線を示し、角度βで見下ろす形となっている。本発明では、この直線ACを用いて、仮想空間を操作者の視野に描画する。
点Dは、点Cから垂直に第1の距離y1だけ離れた位置にある点である。したがって、直線ACと直線BDは平行であり、直線BCと直線BDは点Bにおいて、直線BCと直線ACは点Cにおいて、互いに角度αで交わっており、角度β−αで見下ろす形となっている。この直線BCが、操作の対象となるオブジェクトを指定するための仮の視線である。
なお、点A,B,C,Dの位置関係は、上下方向に反対となり、実際の視線を示す直線ACが見上げる形となってもよい。
本発明は、この操作の対象となるオブジェクトを指定するための仮の視線である直線BCと、操作の対象となるオブジェクトが交わる点にポインタを表示し、そのポインタで指定されるオブジェクトを操作の対象とするものである。初期設定としての、高さy0,第1の距離y1,第2の距離x,第3の距離yや角度α,βは、操作の対象となるオブジェクトや、そのオブジェクトを用いるゲーム等の特性に合わせて設定すればよい。
以下、図2〜9を用いて、オブジェクトの位置とポインタの関係について説明する。
図2は、図1に操作対象の直方体のオブジェクトO1を置いた図である。
この図2では、実際の視線である直線ACも操作の対象となるオブジェクトを指定するための仮の視線である直線BCのいずれもが、オブジェクトO1の操作者に向いている面と交わっており、仮想空間中では、直線BCとオブジェクトO1の操作者に向いている面の交わっている点にポインタPが表示されている。実際に仮想空間を描画するときには、実際の視線である直線ACが左右上下方向双方で視野の中央にくるように描画する場合が多いことを前提とすると、図2で示される場合には、ポインタPは、実際の視線である直線ACとオブジェクトO1の操作者に向いている面の交わっている注視点P’より上にあるから、図3に示したように、操作者の視野の中ではポインタPは左右方向は注視点P’と同様に視野の中央、上下方向は注視点P’である視野の中央よりやや上に描画されることとなる。
図4は、図1に操作対象の直方体のオブジェクトO2を置いた図であって、オブジェクトO2の位置はオブジェクトO1の位置に比べ、操作者側に寄っている。オブジェクトO2とオブジェクトO1は同一形状、同一の大きさである。
この図4では、実際の視線である直線ACはオブジェクトO2の操作者に向いている面と交わっているが、操作の対象となるオブジェクトを指定するための仮の視線である直線BCはオブジェクトO2の上面と交わっている。
図4の場合には、図5に示すようにポインタPはオブジェクトO2の上面に表示されることとなる。
図6は、図1に操作対象の直方体のオブジェクトO3を置いた図であって、オブジェクトO3の位置はオブジェクトO2の位置に比べ、更に操作者側に寄っている。オブジェクトO1,O2,O3はいずれも同一形状、同一の大きさである。
この図6では、実際の視線である直線ACも操作の対象となるオブジェクトを指定するための仮の視線である直線BCのいずれもが、オブジェクトO3の上面と交わっており、図7に示すようにポインタPは注視点P’に比べオブジェクトO3の上面奥側に表示されることとなる。
図8は、図1に操作対象の直方体のオブジェクトO4を置いた図であって、オブジェクトO4の位置はオブジェクトO1の位置に比べ、操作者からみて奥側に寄っている。オブジェクトO1,O2,O3,O4はいずれも同一形状、同一の大きさである。
この図8では、実際の視線である直線ACも操作の対象となるオブジェクトを指定するための仮の視線である直線BCのいずれもが、オブジェクトO4の操作者に向いている面と交わっているが、図2とは反対に、ポインタPは注視点P’よりも下側にある。すなわち、実際の視野では、図9に示すような表示となる。
特に、図4,5に示すように、実際の視線である直線ACの代わりに、操作の対象となるオブジェクトを指定するための仮の視線である直線BCを用いることによって、ポインタPがオブジェクトOの上面に表示される率が高まる。そして、このようにポインタPがオブジェクトOの上面に表示される率が高まることによって、オブジェクトOの上面に対して操作を行うこと、例えば、オブジェクトOを持ち上げたり、押しつぶしたりすることが容易となる。
ここまでは、説明を容易とするために操作者とオブジェクトOの距離が変化すること、すなわち、図17のZ軸の方向に操作者やオブジェクトOが移動することのみを説明してきたが、以下、操作者の視線が移動する場合について説明する。
まず、操作者の視線が移動することの第1の例として、操作者の視線が左右の水平方向に移動することがあげられ、それは、操作者の頭部を回転させること、すなわち、図17のY軸を中心としたヨー角方向の回転によって視野が左右に移動したり、操作者自体が仮想空間を水平方向、すなわち、図17のX軸の方向に移動したりすることによっておきる。この場合は、それらによって、視野が移動するのみならず、操作者とオブジェクトの距離が変化する場合があるが、それらを除けばポインタPの表示に影響を与えないので、詳細な説明は割愛する。
つぎに、操作者の視線が移動することの第2の例として、操作者自体が仮想空間中で上下方向に移動する、すなわち、図17のY軸の方向に移動するなどして、図1の高さy0が変化する場合があげられる。この場合は、実際の視線である直線AC、仮の視線である直線BCが上下方向に平行移動するとして処理することができ、仮の視線である直線BCが移動することによってポインタPの位置が移動し、また、直線ACが移動することによって視野の中での仮想空間の描画が変化することを除けば、特にポインタPの表示に大きな影響を与えないので、やはり、詳細な説明は割愛する。
更に、操作者の視線が移動することの第3の例として、首を左右に傾ける、すなわち、図17でいうZ軸を中心としたロール角方向の回転をした場合があげられる。この場合も、全体が回転するだけで、実際の視線である直線AC、仮の視線である直線BCの相対的位置関係は変わらないから、仮の視線である直線BCが仮想空間中で移動したことに伴いポインタPの位置が移動し、また、実際の視線である直線ACが回転したことにより視野の上下方向が変化することを除けば、特にポインタPの表示に大きな影響を与えないので、詳細な説明は割愛する。
これに対し、操作者の視線が移動することの第4の例として、首を上下に振る、すなわち、図17でいうX軸を中心としたピッチ角方向の回転によって、操作者の視線が上下方向に振られる、すなわち、図1の角度βが変化する場合があげられるが、この場合は特別な処理が必要となる。
この第4の例に対する処理としては、いくつもの手法が考えられるが、そのうち、代表的な3つの手法を以下に示す。
まず、第1の手法は、図10に示すように、見下ろす角度βが変化し直線ACが直線AC’に移動するにもかかわらず、直線BCは最初の位置から変化せず維持するものである。この場合は、オブジェクトOの上のポインタPの位置は変化しない状態で、視野の中での仮想空間の描画が変化することになる。
第2の手法は、図11に示すように、見下ろす角度βが変化したことにより、直線ACが直線AC’に移動することに伴い、直線BCが直線BC’に移動する、すなわち、直線ACと直線BCが距離xの場所で交わることを維持するものである。この場合は、オブジェクトO上のポインタPの位置も、視野の中での仮想空間の描画も、双方が変化する形となる。
第3の手法は、図12に示すように、直線ACの見下ろす角度がβからβ’に変化すると、直線BCの見下ろす角度がβ−αからβ’−αに変化する、すなわち、直線ACないし直線BDと直線BCの間の角度αを維持するものである。この場合も、第二の手法同様に、オブジェクトO上のポインタPの位置も、視野の中での仮想空間の描画も、双方が変化する形となる。
第1の手法は、見下ろす角度βの変化がオブジェクトO上のポインタPの位置に変化を与えないから、仮想空間中でポインタPを主に左右方向のみに動かす場合には、見下ろす角度βの無意識な変化がオブジェクトO上のポインタPの位置に影響を与えず都合がよい。逆にいえば、ポインタPをオブジェクトO上で、視野の上下方向に移動させるためには、仮想空間中で、操作者とオブジェクトOの距離を変化させるか、操作者自体が上下方向に移動する必要があることになるので、ポインタPを仮想空間中ないしオブジェクトO上で視野の上下方向に移動させる必要がある場合には向かないこととなる。
これに対し、第2の手法および第3の手法は、見下ろす角度βの変化がオブジェクトO上のポインタPの位置に変化を与えるので、ポインタPを仮想空間中ないしオブジェクトO上で、視野の上下方向に移動させる必要がある場合に向くこととなるが、見下ろす角度βが変化すると、オブジェクトO上の注視点の位置P’と、オブジェクトO上のポインタPがいずれも動くものの互いに異なる動きをするので、操作が難しくなる恐れがある。
既に述べたように、本実施例は、オブジェクトOの上面に対して操作を行うこと、例えば、オブジェクトOを持ち上げたり、押しつぶしたりすることが容易となるという効果を有するが、更に、ポインタP自体をオブジェクトOの表面に張り付いた形に変形して表示すると、ポインタPがオブジェクトOの上面にあるのか、それ以外の面にあるのかが強調されて表示され、操作性が向上する。
図13,14は、その具体的な例として、ポインタPを3次元の物体である厚みを持った星形として表示した例である。この例では、厚みを持った星形の操作者に向かった面が黒に着色され、それ以外の面は透明となっている。図13は、オブジェクトOの操作者に向いている面に厚みを持った星形のポインタPが張り付いた形に見えるように変形して表示されている例であり、図14は、オブジェクトOの上面に厚みを持った星形のポインタPが張り付いた形に見えるように変形して表示されている例である。
これらの例では、ポインタPを3次元の物体である厚みを持ったものとしたため、ポインタPがオブジェクトOの上面にあるのか、それ以外の面にあるのかがより強調されているが、ポインタPが厚みのないものであったとしても、オブジェクトOの表面に張り付いた形に変形して表示させることによって、ポインタPがオブジェクトOの上面にあるのか、それ以外の面にあるのかを明示することができる。
図15は、図1〜9を用いて説明したポインタPの表示を実現するための方法を示すフローチャートである。図10〜12を用いて説明した部分に対応する部分の詳細は省略してある。
ステップS1501は初期視線算出ステップであって、仮想空間中の操作者の眼の位置Aと前記位置Aから仮想空間中の水平方向に距離xだけ離れた位置Cを結ぶ実際の視線と、仮想空間中の操作者の眼の位置Aから仮想空間中の垂直方向に距離y1だけ離れた位置Bと前記位置Cを結ぶ仮の視線を、初期値として求めている。
ステップS1502はポインタ表示ステップであって、仮の視線と仮想空間中のオブジェクトが交わる点に、操作の対象となる場所を示すポインタPを表示する。図13,14で示したような表示を行う場合には、このポインタ表示ステップがポインタPをオブジェクトOの表面に張り付いた形として変形して表示する。
ステップS1503は視野画像生成ステップであって、実際の視線に基づいた視野において、前記ポインタを含んだ仮想空間を描画する。
ステップS1504は視線移動ステップであって、操作者の頭部を回転させることによって視野が左右に移動したり、操作者自体が仮想空間を水平方向に移動したり、操作者自体が仮想空間中で上下方向に移動するなどしておきる実際の視線の移動にともない、仮の視線を移動させる。図10〜12を用いて説明した首を上下に振るなどして操作者の視線が上下方向に振られる場合の処理も、この視線移動ステップで行う。
図16は、図15で示したフローチャートに示した方法を実行するための装置を示すブロック図である。
図16に示すように、システム1600は、ヘッドマウント・ディスプレイ(HMD)1610、制御回路部1620、ポジション・トラッキング・カメラ(位置センサ)1630、並びに外部コントローラ1640を備える。
ヘッドマウント・ディスプレイ(HMD)1610は、ディスプレイ1612およびセンサ1614を具備する。ディスプレイ1612は、ユーザの視野を完全に覆うよう構成された非透過型の表示装置であり、ユーザはディスプレイ1612に表示される画面のみを観察することができる。そして、非透過型のヘッドマウント・ディスプレイ(HMD)1610を装着したユーザは、外界の視野を全て失うため、制御回路部1620において実行されるアプリケーションにより表示される仮想空間に完全に没入する表示態様となる。
ヘッドマウント・ディスプレイ(HMD)1610が具備するセンサ1614は、ディスプレイ1612近辺に固定される。センサ1614は、地磁気センサ、加速度センサ、および/または傾き(角速度、ジャイロ)センサを含み、これらの1つ以上を通じて、ユーザの頭部に装着されたヘッドマウント・ディスプレイ(HMD)1610(ディスプレイ1612)の各種動きを検知することができる。特に角速度センサの場合には、図17のように、ヘッドマウント・ディスプレイ(HMD)1610の動きに応じて、ヘッドマウント・ディスプレイ(HMD)1610の3軸回りの角速度を経時的に検知し、各軸回りの角度(傾き)の時間変化を決定することができる。
図17を参照して傾きセンサで検知可能な角度情報データについて説明する。図示のように、ヘッドマウント・ディスプレイ(HMD)を装着したユーザの頭部を中心として、XYZ座標が規定される。ユーザが直立する垂直方向をY軸、Y軸と直交しディスプレイ1612の中心とユーザを結ぶ方向をZ軸、Y軸およびZ軸と直交する方向の軸をX軸とする。傾きセンサでは、各軸回りの角度(即ち、Y軸を軸とした回転を示すヨー角、X軸を軸とした回転を示すピッチ角、Z軸を軸とした回転を示すロール角で決定される傾き)を検知し、その経時的な変化により、動き検知部1910が視野情報として角度(傾き)情報データを決定する。
図16に戻り、システム1600が備える制御回路部1620は、ヘッドマウント・ディスプレイ(HMD)を装着したユーザを3次元仮想空間に没入させ、3次元仮想空間に基づく動作を実施させるための制御回路部1620として機能する。図16のように、制御回路部1620は、ヘッドマウント・ディスプレイ(HMD)1610とは別のハードウェアとして構成してもよい。当該ハードウェアは、パーソナルコンピュータやネットワークを通じたサーバ・コンピュータのようなコンピュータとすることができる。即ち、互いにバス接続されたCPU、主記憶、補助記憶、送受信部、表示部、および入力部を備える任意のコンピュータとすることができる。
代替として、制御回路部1620は、オブジェクト操作装置として、ヘッドマウント・ディスプレイ(HMD)1610内部に搭載されてもよい。ここでは、制御回路部1620は、オブジェクト操作装置の全部または一部の機能のみを実装することができる。一部のみを実装した場合には、残りの機能をヘッドマウント・ディスプレイ(HMD)1610側、またはネットワークを通じたサーバ・コンピュータ(図示せず)側に実装してもよい。
システム1600が備えるポジション・トラッキング・カメラ(位置センサ)1630は、制御回路部1620に通信可能に接続され、ヘッドマウント・ディスプレイ(HMD)1610の位置追跡機能を有する。ポジション・トラッキング・カメラ(位置センサ)1630は、赤外線センサや複数の光学カメラを用いて実現される。ポジション・トラッキング・カメラ(位置センサ)1630を具備し、ユーザ頭部のヘッドマウント・ディスプレイ(HMD)の位置を検知することによって、システム1600は、3次元仮想空間における仮想カメラ/没入ユーザの仮想空間位置を正確に対応付け、特定することができる。
より具体的には、ポジション・トラッキング・カメラ(位置センサ)1630は、図18に例示的に示すように、ヘッドマウント・ディスプレイ(HMD)1610上に仮想的に設けられ、赤外線を検知する複数の検知点の実空間位置をユーザの動きに対応して経時的に検知する。そして、ポジション・トラッキング・カメラ(位置センサ)1630により検知された実空間位置の経時的変化に基づいて、ヘッドマウント・ディスプレイ(HMD)1610の動きに応じた各軸回りの角度の時間変化を決定することができる。
再度、図16に戻り、システム1600は外部コントローラ1640を備える。外部コントローラ1640は、一般的なユーザ端末であり、図示のようなスマートフォンとすることができるが、これに限定されない。例えば、PDA、タブレット型コンピュータ、ゲーム用コンソール、ノートPCのようなタッチ・ディスプレイを備える携帯型デバイス端末であれば如何なるデバイスにもすることができる。即ち、外部コントローラ1640は、互いにバス接続されたCPU、主記憶、補助記憶、送受信部、表示部、および入力部を備える任意の携帯型デバイス端末とすることができる。ユーザは、外部コントローラ1640のタッチ・ディスプレイに対し、タップ、スワイプおよびホールドを含む各種タッチ動作を実施可能である。
図19のブロック図は、図15で示したフローチャートに示した方法を実行するための制御回路部1620を中心にコンポーネントの主要機能の構成を示したものである。制御回路部1620では、主に、センサ1614/ポジション・トラッキング・カメラ(位置センサ)1630および外部コントローラ1640からの入力を受け、該入力を処理してディスプレイ1612への出力を行う。制御回路部1620は、主に、動き検知部1910、視野移動部1920および視野画像生成部1930、並びにポインタ制御部1940を含み、各種情報を処理する。
動き検知部1910では、センサ1614/ポジション・トラッキング・カメラ(位置センサ)1630からの動き情報の入力に基づいて、ユーザの頭部に装着されたヘッドマウント・ディスプレイ(HMD)1610の動きデータを測定する。本発明では、特に、傾きセンサ1614により経時的に検知される角度情報、およびポジション・トラッキング・カメラ(位置センサ)1630により経時的に検知される位置情報を決定する。
視野移動部1920は、空間情報格納部1950に格納された3次元仮想空間情報、並びに傾きセンサ1614に検知される角度情報、および位置センサ1630に検知される位置情報に基づく仮想カメラの視野方向の検知情報に基づいて視野情報を求める。視野移動部1920に含まれる実視線移動部1922は、その視野情報に基づいて、3次元仮想空間における実際の視線、すなわち、直線ACの移動を求める。なお、眼球の移動を検知したり、なんらかの補助的な入力を用いたりすることによって、実際の視線を移動させることができる場合には、これら、視野移動部1920、実視線移動部1922は、それも併せて処理することとなる。なお、この実視線移動部1922は、後で説明する仮視線移動部1946と併せ、視線移動ステップS1504に相当する処理を行うものであって、全体として視線移動部として扱うことができる。図10〜12を用いて説明した首を上下に振るなどして操作者の視線が上下方向に振られる場合の処理も、この視線移動部で行う。
視野画像生成部1930は、その視野情報と、ポインタ制御部1940から送られてくるポインタPの位置に基づいて視野画像を生成するものであって、視野画像生成ステップS1503に対応する処理を行うものである。
ポインタ制御部1940は、図15で示した制御の大半をつかさどる部分である。具体的には、ポインタ制御部1940は、初期視線算出部1942、ポインタ表示部1944、仮視線移動部1946を有している。
初期視線算出部1942は、実際の視線、すなわち、直線ACと、仮の視線、すなわち、直線BCの双方の初期値を設定するものであって、初期視線算出ステップS1501に対応する処理を行うものである。
ポインタ表示部1944は、仮の視線、すなわち、直線BCと、オブジェクトOの交点にポインタPを置くものであって、ポインタ表示ステップS1502に対応する処理を行うものである。図13,14で示したような表示を行う場合には、このポインタ表示部1944がポインタPをオブジェクトOの表面に張り付いた形として変形して表示する。
仮視線移動部1946は、実際の視線、すなわち、直線ACの移動に応じて、仮の視線、すなわち、直線BCを移動させるものであり、先に説明した実視線移動部1922と併せ、視線移動ステップS1504に相当する処理を行うものであって、全体として視線移動部として扱うことができる。先に述べたように、図10〜12を用いて説明した首を上下に振るなどして操作者の視線が上下方向に振られる場合の処理も、この視線移動部で行う。
なお、図19において、様々な処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU、メモリ、その他の集積回路で構成することができ、ソフトウェア的には、メモリにロードされた各種プログラムなどによって実現される。したがって、これらの機能ブロックがハードウェア、ソフトウェア、又はそれらの組み合わせによって実現できることが当業者に理解される。
以上、本発明の実施の形態について説明したが、本発明は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施形態の変更がなされ得ることを当業者は理解するであろう。
S1501 初期視線算出ステップ
S1502 ポインタ表示ステップ
S1503 視野画像生成ステップ
S1504 視線移動ステップ
1600 システム
1610 ヘッドマウント・ディスプレイ(HMD)
1612 ディスプレイ
1614 センサ
1620 制御回路部
1630 ポジション・トラッキング・カメラ(位置センサ)
1640 外部コントローラ
1910 動き検知部
1920 視野移動部
1922 実視線移動部
1930 視野画像生成部
1940 ポインタ制御部
1942 初期視線算出部
1944 ポインタ表示部
1946 仮視線移動部
1950 空間情報格納部

Claims (10)

  1. 仮想空間中に操作の対象となる場所を示すポインタを表示する方法であって、
    仮想空間中の操作者の眼の位置Aと前記位置Aから仮想空間中の水平方向に距離xだけ離れた位置Cを結ぶ実際の視線と、仮想空間中の操作者の眼の位置Aから仮想空間中の垂直方向に距離y1だけ離れた位置Bと前記位置Cを結ぶ仮の視線を求める初期視線算出ステップと、
    前記仮の視線と仮想空間中のオブジェクトが交わる点に、操作の対象となる位置を示すポインタを表示するポインタ表示ステップと、
    前記実際の視線に基づいて、前記ポインタを含んだ仮想空間を描画することを特徴とする視野画像生成ステップと、
    前記実際の視線の移動に基づいて前記仮の視線を移動させる視線移動ステップと、
    を有することを特徴とする、仮想空間中に操作の対象となる場所を示すポインタを表示する仮想空間位置指定方法。
  2. 前記初期視線算出ステップにおいて、前記位置Bは前記位置Aに比べ仮想空間の垂直方向に距離y1だけ高い位置にあり、前記位置Cは、前記位置Aに比べ仮想空間の垂直方向に距離y2だけ低い位置にあることを特徴とする、請求項1に記載の仮想空間中に操作の対象となる場所を示すポインタを表示する仮想空間位置指定方法。
  3. 前記初期視線算出ステップにおいて、前記位置Bは前記位置Aに比べ仮想空間の垂直方向に距離y1だけ低い位置にあり、前記位置Cは、前記位置Aに比べ仮想空間の垂直方向に距離y2だけ高い位置にあることを特徴とする、請求項1に記載の仮想空間中に操作の対象となる場所を示すポインタを表示する仮想空間位置指定方法。
  4. 前記ポインタ表示ステップが表示するポインタは、仮想空間中のオブジェクトの表面に張り付いた形で変形して表示されることを特徴とする、請求項1〜3のいずれか一項に記載の仮想空間位置指定方法。
  5. 請求項1〜4のいずれか一項に記載の方法を実行するためのプログラム。
  6. 請求項1〜4のいずれか一項に記載の方法を実行するためのプログラムを記録した記録媒体。
  7. 仮想空間中に操作の対象となる場所を示すポインタを表示する装置であって、
    仮想空間中の操作者の眼の位置Aと前記位置Aから仮想空間中の水平方向に距離xだけ離れた位置Cを結ぶ実際の視線と、仮想空間中の操作者の眼の位置Aから仮想空間中の垂直方向に距離y1だけ離れた位置Bと前記位置Cを結ぶ仮の視線を求める初期視線算出手段と、
    前記仮の視線と仮想空間中のオブジェクトが交わる点に操作の対象となる位置を示すポインタを表示するポインタ表示手段と、
    前記実際の視線に基づいて、前記ポインタを含んだ仮想空間を描画することを特徴とする視野画像生成手段と、
    前記実際の視線の移動に基づいて前記仮の視線を移動させる視線移動手段と、
    を有することを特徴とする、仮想空間中に操作の対象となる場所を示すポインタを表示する仮想空間位置指定装置。
  8. 前記初期視線算出手段において、前記位置Bは前記位置Aに比べ仮想空間の垂直方向に距離y1だけ高い位置にあり、前記位置Cは、前記位置Aに比べ仮想空間の垂直方向に距離y2だけ低い位置にあることを特徴とする、請求項7に記載の仮想空間中に操作の対象となる場所を示すポインタを表示する仮想空間位置指定装置。
  9. 前記初期視線算出手段において、前記位置Bは前記位置Aに比べ仮想空間の垂直方向に距離y1だけ低い位置にあり、前記位置Cは、前記位置Aに比べ仮想空間の垂直方向に距離y2だけ高い位置にあることを特徴とする、請求項7に記載の仮想空間中に操作の対象となる場所を示すポインタを表示する仮想空間位置指定装置。
  10. 前記ポインタ表示手段が表示するポインタは、仮想空間中のオブジェクトの表面に張り付いた形で変形して表示されることを特徴とする請求項7〜9のいずれか一項に記載の仮想空間位置指定装置。
JP2015119250A 2015-06-12 2015-06-12 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置 Active JP6110893B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015119250A JP6110893B2 (ja) 2015-06-12 2015-06-12 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
PCT/JP2016/066812 WO2016199736A1 (ja) 2015-06-12 2016-06-06 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
US15/735,594 US20180314326A1 (en) 2015-06-12 2016-06-06 Virtual space position designation method, system for executing the method and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015119250A JP6110893B2 (ja) 2015-06-12 2015-06-12 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016141900A Division JP2017004539A (ja) 2016-07-19 2016-07-19 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置

Publications (2)

Publication Number Publication Date
JP2017004356A true JP2017004356A (ja) 2017-01-05
JP6110893B2 JP6110893B2 (ja) 2017-04-05

Family

ID=57504560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015119250A Active JP6110893B2 (ja) 2015-06-12 2015-06-12 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置

Country Status (3)

Country Link
US (1) US20180314326A1 (ja)
JP (1) JP6110893B2 (ja)
WO (1) WO2016199736A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020518077A (ja) * 2017-04-25 2020-06-18 マイクロソフト テクノロジー ライセンシング,エルエルシー コンテナベースの仮想カメラ回転
CN111345037A (zh) * 2017-09-29 2020-06-26 科理特株式会社 虚拟现实影像提供方法及利用其的程序

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107168517A (zh) * 2017-03-31 2017-09-15 北京奇艺世纪科技有限公司 一种虚拟现实设备的控制方法及装置
JP7017689B2 (ja) * 2017-12-29 2022-02-09 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法
JP6628331B2 (ja) * 2018-01-22 2020-01-08 株式会社コナミデジタルエンタテインメント プログラムおよび画像表示システム
JP6587364B2 (ja) * 2018-01-22 2019-10-09 株式会社コナミデジタルエンタテインメント プログラムおよび画像表示システム
KR102149732B1 (ko) * 2019-04-17 2020-08-31 라쿠텐 인코포레이티드 표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체
JP6730753B2 (ja) * 2019-09-09 2020-07-29 株式会社コナミデジタルエンタテインメント プログラムおよび画像表示システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337756A (ja) * 1993-05-28 1994-12-06 Daikin Ind Ltd 3次元位置指定方法および仮想空間立体視装置
JPH117543A (ja) * 1997-06-13 1999-01-12 Namco Ltd 情報記憶媒体及び画像生成装置
JPH11195131A (ja) * 1997-12-26 1999-07-21 Canon Inc 仮想現実方法及び装置並びに記憶媒体
JP2007260232A (ja) * 2006-03-29 2007-10-11 Konami Digital Entertainment:Kk ゲーム装置、ゲーム制御方法、ならびに、プログラム
US20130300637A1 (en) * 2010-10-04 2013-11-14 G Dirk Smits System and method for 3-d projection and enhancements for interactivity

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337756A (ja) * 1993-05-28 1994-12-06 Daikin Ind Ltd 3次元位置指定方法および仮想空間立体視装置
JPH117543A (ja) * 1997-06-13 1999-01-12 Namco Ltd 情報記憶媒体及び画像生成装置
JPH11195131A (ja) * 1997-12-26 1999-07-21 Canon Inc 仮想現実方法及び装置並びに記憶媒体
JP2007260232A (ja) * 2006-03-29 2007-10-11 Konami Digital Entertainment:Kk ゲーム装置、ゲーム制御方法、ならびに、プログラム
US20130300637A1 (en) * 2010-10-04 2013-11-14 G Dirk Smits System and method for 3-d projection and enhancements for interactivity

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
林将之ほか3名: ""仮想俯瞰模型を用いた3次元位置共有方式における情報提示手法の検討と評価"", 第14回日本バーチャルリアリティ学会大会 論文集, JPN6015041014, 9 September 2009 (2009-09-09), JP, ISSN: 0003173871 *
深津真二ほか3名: ""座標系対連動法による仮想環境内ナビゲーションのための鳥瞰カメラ視点の直感的制御"", 電子情報通信学会論文誌, vol. 第J83-D-II巻 第9号, JPN6015041017, 25 September 2000 (2000-09-25), JP, pages 1905 - 1915, ISSN: 0003173872 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020518077A (ja) * 2017-04-25 2020-06-18 マイクロソフト テクノロジー ライセンシング,エルエルシー コンテナベースの仮想カメラ回転
JP7080902B2 (ja) 2017-04-25 2022-06-06 マイクロソフト テクノロジー ライセンシング,エルエルシー コンテナベースの仮想カメラ回転
US11436811B2 (en) 2017-04-25 2022-09-06 Microsoft Technology Licensing, Llc Container-based virtual camera rotation
CN111345037A (zh) * 2017-09-29 2020-06-26 科理特株式会社 虚拟现实影像提供方法及利用其的程序
JP2020535542A (ja) * 2017-09-29 2020-12-03 クリックト インコーポレイテッドClicked Inc. 仮想現実画像の提供方法及びこれを用いたプログラム
US11127208B2 (en) 2017-09-29 2021-09-21 Clicked, Inc. Method for providing virtual reality image and program using same
JP7026213B2 (ja) 2017-09-29 2022-02-25 クリックト インコーポレイテッド 仮想現実画像の提供方法及びこれを用いたプログラム

Also Published As

Publication number Publication date
US20180314326A1 (en) 2018-11-01
JP6110893B2 (ja) 2017-04-05
WO2016199736A1 (ja) 2016-12-15

Similar Documents

Publication Publication Date Title
JP6110893B2 (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
CN108780360B (zh) 虚拟现实导航
EP3311250B1 (en) System and method for spawning drawing surfaces
EP3311249B1 (en) Three-dimensional user input
KR102283747B1 (ko) 시선 추적을 갖는 타겟 위치결정
JP2022535316A (ja) スライドメニューを有する人工現実システム
KR102258424B1 (ko) 사용자 인터페이스 프로그래밍적 스케일링
JP5609416B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2022535315A (ja) 自己触覚型仮想キーボードを有する人工現実システム
CN110476142A (zh) 虚拟对象用户界面显示
JP5839220B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20180143693A1 (en) Virtual object manipulation
JP2022534639A (ja) 指マッピング自己触覚型入力方法を有する人工現実システム
US11430192B2 (en) Placement and manipulation of objects in augmented reality environment
JP6549066B2 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
JP2017004539A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
US11475642B2 (en) Methods and systems for selection of objects
JP2018097477A (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170310

R150 Certificate of patent or registration of utility model

Ref document number: 6110893

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250