JPWO2019093278A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JPWO2019093278A1
JPWO2019093278A1 JP2019552780A JP2019552780A JPWO2019093278A1 JP WO2019093278 A1 JPWO2019093278 A1 JP WO2019093278A1 JP 2019552780 A JP2019552780 A JP 2019552780A JP 2019552780 A JP2019552780 A JP 2019552780A JP WO2019093278 A1 JPWO2019093278 A1 JP WO2019093278A1
Authority
JP
Japan
Prior art keywords
user
information
visual field
virtual
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019552780A
Other languages
English (en)
Other versions
JP6964142B2 (ja
Inventor
善数 大貫
善数 大貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2019093278A1 publication Critical patent/JPWO2019093278A1/ja
Application granted granted Critical
Publication of JP6964142B2 publication Critical patent/JP6964142B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

ユーザの頭部に装着される表示装置に接続される情報処理装置が、ユーザの視線方向の情報を取得し、取得した視線方向の情報に基づいて、仮想的な三次元空間内でのユーザの視野を決定する第1のモードと、取得した視線方向の情報のうち少なくとも所定の方向への視線方向の情報によらず、仮想的な三次元空間内でのユーザの視野を決定する第2のモードとのいずれかのモードで、仮想的な三次元空間内でのユーザの視野を決定して、当該決定された視野内のオブジェクトの画像を生成して出力する。

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
ユーザの頭部に装着され、仮想的な空間の画像をユーザに提示する表示装置が近年普及しつつある。このような表示装置では、表示される仮想的な空間内で、連続的にユーザの視野が移動する表示を行うと、ユーザが酔いを感じることがある(いわゆるVR酔い)。
このような酔いの軽減のためには、移動を不連続に行うことなどが考えられているが、不連続移動では、現実感が損なわれ、仮想空間の体験の質が低下してしまう。
現実感を損なうことなく、酔いを軽減できる画像の提示方法が求められている。
本発明は上記実情に鑑みて為されたもので、現実感を損なうことなく、酔いを軽減できる情報処理装置、情報処理方法、及びプログラムを提供することを、その目的の一つとする。
上記従来例の問題点を解決する本発明の一態様は、ユーザの頭部に装着される表示装置に接続される情報処理装置であって、当該ユーザの視線方向の情報を取得する取得手段と、仮想的な三次元空間内のオブジェクトに係る情報を取得する手段と、前記取得した視線方向の情報に基づいて、前記仮想的な三次元空間内でのユーザの視野を決定する第1のモードと、前記取得した視線方向の情報のうち少なくとも所定の方向への前記取得した視線方向の情報によらず、前記仮想的な三次元空間内でのユーザの視野を決定する第2のモードとのいずれかのモードで、前記仮想的な三次元空間内でのユーザの視野を決定する視野決定手段と、前記決定された視野内の前記オブジェクトの画像を生成する生成手段と、を有し、前記生成された画像が、前記表示装置において表示出力されることとしたものである。
また本発明の一態様に係る情報処理方法は、ユーザの頭部に装着される表示装置に接続されるコンピュータを用い、取得手段が、当該ユーザの視線方向の情報を取得する工程と、情報取得手段が、仮想的な三次元空間内のオブジェクトに係る情報を取得する工程と、視野決定手段が、前記取得した視線方向の情報に基づいて、前記仮想的な三次元空間内でのユーザの視野を決定する第1のモードと、前記取得した視線方向の情報のうち少なくとも所定の方向への前記取得した視線方向の情報によらず、前記仮想的な三次元空間内でのユーザの視野を決定する第2のモードとのいずれかのモードで、前記仮想的な三次元空間内でのユーザの視野を決定する工程と、生成手段が、前記決定された視野内の前記オブジェクトの画像を生成する工程と、を有し、前記生成された画像が、前記表示装置において表示出力されることとしたものである。
さらに本発明の別の態様に係るプログラムは、ユーザの頭部に装着される表示装置に接続されたコンピュータを、当該ユーザの視線方向の情報を取得する取得手段と、仮想的な三次元空間内のオブジェクトに係る情報を取得する手段と、前記取得した視線方向の情報に基づいて、前記仮想的な三次元空間内でのユーザの視野を決定する第1のモードと、前記取得した視線方向の情報のうち少なくとも所定の方向への前記取得した視線方向の情報によらず、前記仮想的な三次元空間内でのユーザの視野を決定する第2のモードとのいずれかのモードで、前記仮想的な三次元空間内でのユーザの視野を決定する視野決定手段と、前記決定された視野内の前記オブジェクトの画像を生成する生成手段と、前記生成した画像を、前記表示装置に出力する手段と、として機能させることとしたものである。
本発明によると、現実感を損なうことなく、酔いを軽減できる。
本発明の実施の形態に係る情報処理装置の構成、及び接続状態の例を表すブロック図である。 本発明の実施の形態に係る情報処理装置の例を表す機能ブロック図である。 本発明の実施の形態に係る情報処理装置が処理する仮想空間の例を表す説明図である。 本発明の実施の形態に係る情報処理装置の動作例を表すフローチャート図である。 本発明の実施の形態に係る情報処理装置が検出するユーザの視線方向と、生成される画像との関係例を表す説明図である。 本発明の実施の形態に係る情報処理装置が検出するユーザの視線方向と、生成される画像とのもう一つの関係例を表す説明図である。 本発明の実施の形態に係る情報処理装置により検出されるユーザの視線方向の例を表す説明図である。
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報処理装置1は、表示装置2が表示すべき画像を表す画像データを供給する装置であって、例えば家庭用ゲーム機、携帯型ゲーム機、パーソナルコンピューター、スマートフォン、タブレット等である。具体的にこの情報処理装置1は、図1に示すように、ユーザの頭部に装着される表示装置2や操作デバイス3等に接続され、制御部11と、記憶部12と、インタフェース部13と、を含んで構成される。
ここで制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されているプログラムを実行する。本実施の形態では、この制御部11は、表示装置2を装着したユーザの視線方向の情報を取得し、当該取得した視線方向の情報に基づいて、仮想的な三次元空間内でのユーザの視野を決定する第1のモードと、上記取得した視線方向の情報のうち少なくとも所定の方向への視線方向の情報によらずに、仮想的な三次元空間内でのユーザの視野を決定する第2のモードとのいずれかのモードで、仮想的な三次元空間内でのユーザの視野を決定する。そして制御部11は、当該決定された視野内の、仮想的な三次元空間内でのオブジェクトの画像を生成し、当該生成した画像に係る信号を、表示装置2に対して出力し、表示装置2において生成した画像を表示出力させる。この制御部11の詳しい動作については、後に述べる。
記憶部12は、RAM等のメモリデバイスを少なくとも一つ含み、制御部11が実行するプログラムを格納する。また、この記憶部12は制御部11のワークメモリとしても動作し、制御部11がプログラム実行の過程で使用するデータを格納する。このプログラムは、コンピュータ可読かつ非一時的な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。
インタフェース部13は、操作デバイス3や表示装置2との間で情報処理装置1の制御部11がデータ通信を行うためのインタフェースである。情報処理装置1は、このインタフェース部13を介して有線又は無線のいずれかで操作デバイス3や表示装置2等と接続される。一例として、このインタフェース部13は、情報処理装置1が供給する画像データや音声を表示装置2に送信するために、HDMI(登録商標)(High-Definition Multimedia Interface)などのマルチメディアインタフェースを含んでよい。また、このインタフェース部13は、表示装置2から各種の情報を受信したり、制御信号等を送信したりするために、USB等のデータ通信インタフェースを含んでよい。さらにインタフェース部13は、操作デバイス3に対するユーザの操作入力の内容を示す信号を受信するために、USB等のデータ通信インタフェースを含んでよい。
表示装置2は、ユーザが頭部に装着して使用する表示デバイスである。この表示装置2は、情報処理装置1から供給される画像データや音声のデータを受け付ける。そしてこの表示装置2は、入力された画像データを、後に述べる、表示装置2の映像表示素子51における表示部の画素の配列に並べ替えた画像データを生成し、さらに必要に応じて、供給された画像データが表す画像に対して、表示装置2の光学系によって生じる歪みを補正する処理などを実行し、補正された画像を表す映像信号を生成する。
なお、ここで生成する映像信号は、左目用のものと右目用のものとの二つの映像信号を含んでいてよい。また表示装置2は、生成した映像信号に応じた映像を表示し、ユーザに閲覧させる。本実施形態では、表示装置2はユーザの右目と左目とのそれぞれの目の前に、それぞれの目に対応した映像を表示するものとする。この表示装置2は、図1に示したように、映像表示素子51、及び光学素子52を含んで構成される。
映像表示素子51は、有機EL表示パネルや液晶表示パネルなどであって、情報処理装置1から入力される指示に従って映像を表示する。この映像表示素子51は、左目用の映像と右目用の映像とを一列に並べて表示する1つの表示素子であってもよいし、左目用の映像と右目用の映像とをそれぞれ独立に表示する一対の表示素子を含んで構成されてもよい。また、本実施の形態の別の例では、スマートフォンの画面をそのまま映像表示素子51として用いてもよいし、ユーザの網膜に直接映像を投影する網膜照射型(網膜投影型)の装置であってもよい。
映像表示素子51をスマートフォンの画面とする場合、このスマートフォンが情報処理装置1から供給される画像データや音声のデータを受け付ける。そしてこの表示装置2は、入力された画像データを、後に述べる、表示装置2の映像表示素子51における表示部の画素の配列に並べ替えた画像データを生成し、さらに必要に応じて、供給された画像データが表す画像に対して、表示装置2の光学系によって生じる歪みを補正する処理などを実行し、補正された画像を表す映像信号を生成することとなる。また、映像表示素子51はユーザの網膜に直接、映像を投影するデバイスであってもよい。
光学素子52は、ホログラムやプリズム、ハーフミラーなどであって、ユーザの目の前に配置され、映像表示素子51が表示する映像の光を透過又は屈折させて、ユーザの目に入射させる。具体的に、この光学素子52は、左目用光学素子52Lと、右目用光学素子52Rとを含み、映像表示素子51が表示する左目用の映像は、左目用光学素子52Lを経由してユーザの左目に入射し、右目用の映像は右目用光学素子52Rを経由してユーザの右目に入射するようにしてもよい。これによりユーザは、表示装置2を頭部に装着した状態で、左目用の映像を左目で、右目用の映像を右目で、それぞれ見ることができるようになる。なお、本実施形態において表示装置2は、ユーザが外界の様子を視認することができない非透過型の表示装置である。
また操作デバイス3は、例えば家庭用ゲーム機のコントローラ等であって、ユーザが情報処理装置1に対して各種の指示操作を行うために使用される。操作デバイス3に対するユーザの操作入力の内容は、有線又は無線のいずれかにより情報処理装置1に送信される。なお、操作デバイス3は必ずしも情報処理装置1と別体でなくてもよく、情報処理装置1の筐体表面に配置された操作ボタンやタッチパネル等を含んでもよい。
次に、情報処理装置1の制御部11の動作について説明する。本実施の形態に係る制御部11は、記憶部12に格納されたプログラムを実行することにより、機能的には、図2に例示するように、視線方向取得部21と、オブジェクト情報取得部22と、視野決定部23と、生成部24と、出力部25とを含んで構成されている。
視線方向取得部21は、表示装置2を装着したユーザの視線方向の情報を、所定のタイミングごと(例えば1/30秒ごとのなど定期的)に繰り返し取得する。具体的に、この視線方向取得部21は、ユーザの頭部の方向を視線方向として、当該ユーザの頭部の方向を表す情報を取得する。具体的にこの視線方向取得部21は、ユーザが装着する表示装置2の姿勢を図示しないカメラで撮影したユーザの画像に基づいて、あるいは表示装置2が備える姿勢センサが出力する情報等を用いて検出して、ユーザの頭部の向きの情報を取得してもよい。このようなユーザの頭部の向きを検出する方法は広く知られた種々の方法を採用できるので、ここでの詳しい説明は省略する。
また以下の説明では、本実施の形態の視線方向取得部21は、ユーザの顔の垂直方向(仰角方向)への角度(矢状面内の角度)をθ、左右方向への角度(横断面内の角度)をφ、冠状面内の角度をψとして、これらの角度のセット(θ,φ,ψ)で表されるユーザの頭部の方向を取得するものとする。なお、この例の視線方向取得部21は、情報処理装置1に対して所定の起動操作を行ったときのユーザの頭部の方向(ユーザの顔が向く正面方向)を基準の方向(θ,φ,ψ)=(0,0,0)として、この基準からの各方向への角度の変化量でユーザの頭部の方向を検出するものとする。
オブジェクト情報取得部22は、仮想空間内に表示する仮想的なオブジェクトの情報を取得する。具体的にこのオブジェクト情報取得部22が取得するオブジェクトの情報は、ゲームアプリケーション等のアプリケーションプログラム側から提供され、オブジェクトの形状やテクスチャ、配置する位置や向き等の情報を含む。このようなオブジェクトの情報やその取得の処理については広く知られているので、ここでの詳しい説明は省略する。
視野決定部23は、ユーザの仮想空間内での視野の方向及び画角を決定する。本実施の形態では視野決定部23は、次のようにしてユーザの仮想空間内での視野の方向を決定する。本実施の形態の視野決定部23は、ユーザが所定のキャリブレーション操作を行ったとき(または処理開始時)に、その時点での現実空間でのユーザの頭部の方向を表す情報(θ,φ,ψ)を用いて、仮想空間内でのユーザの顔の仰角方向への角度(矢状面内の角度)をα0=θ、左右方向への角度(横断面内の角度)をβ0=φ、視野方向の面(冠状面内)の角度をγ0=ψと設定する。
またこの視野決定部23は、ユーザが、所定の注視操作を行っているか否かを調べる。ここで注視操作は例えば、操作デバイス3の所定のボタンが押下されることとしてもよい。この場合視野決定部23は、当該所定のボタンが押下されている間は所定の注視操作が行われていると判断し、当該所定のボタンが押下された状態から押下されていない状態に変化すると、注視操作が終了したと判断する。
そして視野決定部23は、ユーザが、所定の注視操作を行っていないときには、仮想空間内のユーザの頭部の方向(α,β,γ)をα=θ−α0,β=φ−β0,γ=ψ−γ0と設定する。なお、ここでは仮想空間内でのユーザの顔の仰角方向への角度(矢状面内の角度)をα、左右方向への角度(横断面内の角度)をβ、視野方向の面(冠状面内)の角度をγとして表現している。
一方、視野決定部23は、ユーザが所定の注視操作を行っている間は、仮想空間内のユーザの頭部の方向(α,β,γ)を変化させない。
なお視野決定部23は、所定の注視操作を終了した時点で、キャリブレーション操作が行われたものとして、その時点での現実空間でのユーザの頭部の情報(θ,φ,ψ)を用いて、仮想空間内でのユーザの顔の仰角方向への角度(矢状面内の角度)をα0=θ、左右方向への角度(横断面内の角度)をβ0=φ、視野方向の面(冠状面内)の角度をγ0=ψとしてもよい。
生成部24は、視野決定部23が決定したユーザの視野内に投影した仮想空間の画像をレンダリングして、視野内のオブジェクトの画像を生成する。この処理は、一般的な三次元グラフィックスの処理であるので、ここでの詳しい説明を省略する。出力部25は、生成部24が生成した、オブジェクトの画像を、表示装置2に対して出力する。
[動作]
本実施の形態は、以上の構成を基本的に備えてなり、次のように動作する。本実施の形態の情報処理装置1は、ユーザの頭部に装着される表示装置2、及びユーザにより操作される操作デバイス3に接続される。
情報処理装置1は、ゲームアプリケーション等の処理において、仮想的なゲーム空間(仮想空間)内にオブジェクトを配して表示する処理を実行している。以下では、説明のため、図3に例示するようにユーザの位置を中心とした球面状のオブジェクトの内面に、360度画像のテクスチャを貼り付けた場合を例とするが、本実施の形態はこのような例に限られるものではない。
情報処理装置1は、ユーザが表示装置2を装着して電源を投入した当初のユーザの頭部の向きを表す情報を取得し、当該取得した情報が(θ,φ,ψ)=(0,0,0)の方向であるものとして初期化する。なお、ここではユーザの顔の仰角方向への角度(矢状面内の角度)をθ、左右方向への角度(横断面内の角度)をφ、冠状面内の角度をψとする。
また情報処理装置1は、この時点での現実空間でのユーザの頭部の情報(θ,φ,ψ)=(0,0,0)を用いて、仮想空間内でのユーザの顔の仰角方向への角度(矢状面内の角度)をα0=θ=0、左右方向への角度(横断面内の角度)をβ0=φ=0、視野方向の面(冠状面内)の角度をγ0=ψ=0と設定する。なお、ここでは仮想空間内でのユーザの顔の仰角方向への角度(矢状面内の角度)をα、左右方向への角度(横断面内の角度)をβ、視野方向の面(冠状面内)の角度をγとして表現している。
以下、情報処理装置1は、図4に示す処理を行い、所定のタイミングごとにユーザの視線方向の情報を繰り返し取得する(S1)。そして情報処理装置1は、ユーザが、所定の注視操作を行っているか否かを調べる(S2)。ここでは注視操作は操作デバイス3の所定のボタンが押下された状態にあることとする。
情報処理装置1は、ユーザが所定の注視操作を行っていないとき(処理S2:No)には、仮想空間内のユーザの頭部の方向(α,β,γ)をα=θ−α0,β=φ−β0,γ=ψ−γ0と設定する(S3)。そして情報処理装置1は、処理S3で設定したユーザの視野内に投影した仮想空間の画像をレンダリングして、視野内のオブジェクトの画像を生成する(S4)。情報処理装置1は、処理S4で生成したオブジェクトの画像を、表示装置2に対して出力し(S5)、処理S1に戻って処理を続ける。
この場合(ユーザが所定の注視操作を行っていない場合)に例えばユーザが右上方へ頭部を向ける(θ,φが増大し、ψは元の値と概ね同じ値に維持される)と、表示装置2には、右上方へ頭部を向ける前の表示範囲より、右上側にあるべき画像が表示されることとなる(図5:S11)。この動作は、本発明の第1のモードに相当する。なお図5では、説明のため、実際には表示されないが、視野が変化したときに表示され得る画像部分を破線で表している。
一方、処理S2において、ユーザが所定の注視操作を行っていると判断される(処理S2:Yes)と、情報処理装置1は、現実空間でのユーザの頭部の方向の変化と関わりなく、仮想空間内のユーザの頭部の方向(α,β,γ)を変化させないこととし(S6)、処理S4に移行して処理を続ける。
この場合(ユーザが所定の注視操作を行っている場合)に例えばユーザが右上方へ頭部を向けても(θ,φが増大し、ψは元の値と概ね同じ値に維持されても)、表示装置2には、右上方へ頭部を向ける前の表示範囲の画像がそのまま表示された状態にあることとなる(図5:S12)。つまりこの処理S6では、いずれの方向((θ,φ,ψ)の各方向)に対しても、取得された頭部の向きの情報(取得された視線方向の情報)によらず、仮想的な視野が決定されることとなる。この動作は本発明の第2のモードに相当する。
これにより、例えば、ユーザが表示装置2の表示を見ている状態で、その表示の右上方を見るように頭部の方向を傾けると、情報処理装置1は、当該ユーザの動作に応じて表示装置2に表示させている画像の内容を更新する(図5:S11)。ここでユーザが操作デバイス3を操作して所定の注視操作を行い、当該所定の注視操作を行っている状態で、頭部の位置を右上方を見るように頭部を傾ける前の状態に戻す((θ,φ,ψ)=(0,0,0)の方向へ戻す)と、この間は、情報処理装置1は、現実空間でのユーザの頭部の方向の変化と関わりなく、仮想空間内のユーザの頭部の方向(α,β,γ)を変化させないので、先に更新した画像が表示されたままとなる(視線がその方向に貼り付いたようになる。図5:S12)。
ここでユーザが操作デバイス3における所定の注視操作を終了すると、以下は、ユーザの頭部の方向の変化に応じて、仮想空間内のユーザの頭部の方向(α,β,γ)を変化させ、ユーザの頭部の方向に応じた方向の画像が表示されるように制御される(図5:S13)。
[変化させる軸を限る例]
なお、ここまでの説明では、情報処理装置1は第2モードの動作、すなわち、ユーザが所定の注視操作を行っていると判断されたときの動作において、現実空間でのユーザの頭部の方向の変化と関わりなく、仮想空間内のユーザの頭部の方向を表すすべての角度成分の情報(α,β,γ)を変化させないこととしたが、本実施の形態はこれに限られない。
すなわち本実施の形態のある例では、取得したユーザの頭部の方向(視線方向)の情報のうち、水平または垂直(仰角)方向、ユーザの頭部の傾き方向のうち、少なくとも所定の方向への頭部の向き(視線方向)の情報によらずに、仮想空間内のユーザの頭部の方向を表す角度成分の情報(α,β,γ)を決定することとしてもよい。
具体的には、本実施の形態の一例に係る情報処理装置1は、第2モードの動作、すなわち、ユーザが所定の注視操作を行っていると判断されたときの動作において、水平または垂直(仰角)方向のいずれか一方の方向、例えば水平方向の角度に相当するβの情報のみを変化させず、ユーザの頭部の傾きγと、水平または垂直(仰角)方向のいずれか他方の方向、先の例では垂直(仰角)方向の角度に相当するαについてはユーザが所定の注視操作を行っているときでもα=θ−α0,γ=ψ−γ0と設定しなおしてもよい。
この例では、図5のステップS11の後、ユーザが操作デバイス3を操作して所定の注視操作を行い、当該所定の注視操作を行っている状態で、頭部の位置を右上方を見るように、頭部を傾ける前の状態に戻す((θ,φ,ψ)=(0,0,0)の方向へ戻す)と、情報処理装置1は、現実空間でのユーザの頭部の方向の変化に応じて、水平方向に係る情報にはよらず(つまりβは変化させず)、少なくとも垂直方向に係る情報を利用して、α=0,γ=0に設定する。従って、表示装置2内の画像は、図6に例示するように、垂直方向には元の位置に戻り、水平方向については右上を見たときの像の位置に固定されたままとなる(S14)。
また、ここでは、水平方向についてのみ現実のユーザの頭部の方向によらずに、仮想空間内のユーザの頭部の方向を表すすべての角度成分の情報(α,β,γ)を設定することとしたが、本実施の形態はこれに限られない。
例えば、情報処理装置1は、所定のタイミングごとに現実のユーザの頭部の方向を表す情報(θ,φ,ψ)を取得し、前回取得した、現実のユーザの頭部の方向を表す情報との差(Δθ,Δφ,Δψ)を求め、Δθ>Δφであるときには、φが変化しても、仮想空間のユーザの頭部の水平方向(β)については変化させずに、α,γのみα=θ−α0,γ=ψ−γ0と設定しなおし、Δθ<Δφであるときには、θが変化しても、仮想空間のユーザの頭部の垂直(仰角)方向(α)については変化させずに、β,γのみβ=φ−β0,γ=ψ−γ0と設定しなおすなど、変化させない仮想空間内の軸方向を動的に決定してもよい。
また別の例では、情報処理装置1は、ユーザの操作により、ユーザが操作デバイス3の所定の第1のボタンを押下している間は、仮想空間内のユーザの頭部の方向を表す角度成分の情報(α,β,γ)のうち、水平方向(β)については現実空間でのユーザの頭部の方向の変化に関わらず変化させずに、α,γのみ、現実空間のユーザの頭部の方向の情報(θ,φ,ψ)を用いて、α=θ−α0,γ=ψ−γ0と設定しなおし、上記第1のボタンとは異なる所定の第2のボタンを押下している間は、仮想空間内のユーザの頭部の方向を表す角度成分の情報(α,β,γ)のうち、仮想空間のユーザの頭部の垂直(仰角)方向(α)については変化させずに、β,γのみβ=φ−β0,γ=ψ−γ0と設定しなおすなど、変化させない仮想空間内の軸方向をユーザの操作により決定してもよい。
[視線方向の検出の別の例]
本実施の形態のここまでの説明では、情報処理装置1は、ユーザの頭部の方向により視線方向を検出することとしていたが、本実施の形態はこれに限られない。例えば情報処理装置1は、表示装置2内におけるユーザの実際の視線の方向(瞳孔の方向)を検出してもよい。この例では、例えば表示装置2がユーザの左右の目の瞳孔の方向を検出し、映像表示素子51に表示された画像のどの部分をユーザが見ているかを表す情報(注視位置の情報)を出力するものとする。情報処理装置1は、この注視位置の情報を(上述のθ,φ,ψに代えて)、ユーザの視線方向の情報として受け入れる。
この例では、情報処理装置1は、当該受け入れたユーザの視線方向の情報が、予め定めた条件を満足しているか否かにより、所定の注視操作を行っているか否かを判断してもよい。一例として図7に例示するように、情報処理装置1は、ユーザの注視位置が、視野の所定の周縁部に含まれるときに、所定の注視操作を行っていると判断してもよい。ここで視野は、情報処理装置1において設定され、当該視野内部のオブジェクトがレンダリングされて、表示装置2において表示されている画像の範囲であり、その周縁部は、一例としては、映像表示素子51の周縁部である。
すなわち情報処理装置1は、ユーザの注視位置が、映像表示素子51の上縁部(51U),下縁部(51D),左縁部(51L),右縁部(51R)のいずれかにあるか否かを判断する。または、この情報処理装置1は、ユーザの注視位置が映像表示素子51の周縁部である、上縁部(51U),下縁部(51D),左縁部(51L),右縁部(51R)のいずれかに含まれている状態が継続している時間を測定し、当該時間が予め定めた時間しきい値を超えたか否かを判断することとしてもよい。
情報処理装置1は、ユーザの注視位置が映像表示素子51の周縁部にない(あるいは周縁部にあった時間が時間しきい値を超えていない)と判断すると、ユーザの視線方向の変化(注視位置の変化)によらず、仮想空間内のユーザの頭部の方向(α,β,γ)を変化させない(表示装置2に表示させる内容を変化させない)。
一方、情報処理装置1は、ユーザの注視位置が映像表示素子51の周縁部にある(あるいは周縁部にある時間が時間しきい値を超えた)と判断すると、注視位置が上縁部(51U),下縁部(51D),左縁部(51L),右縁部(51R)のいずれにあるかを調べ、注視位置が上縁部(51U)にあるときには、仮想空間内のユーザの頭部の方向のうち、仰角方向であるαに予め定めた値(ゲームアプリケーション等から設定された値としてもよい)を加算して、仮想空間内のユーザの頭部の方向を表すαを更新する。
また、注視位置が下縁部(51D)にあるときには、情報処理装置1は、仮想空間内のユーザの頭部の方向のうち、仰角方向であるαから予め定めた値(ゲームアプリケーション等から設定された値としてもよい)を減算して、仮想空間内のユーザの頭部の方向を表すαを更新する。
さらに注視位置が左縁部(51L)にあるときには、情報処理装置1は、仮想空間内のユーザの頭部の方向のうち、水平方向であるβから予め定めた値(ゲームアプリケーション等から設定された値としてもよい)を減算して、仮想空間内のユーザの頭部の方向を表すβを更新する。
また注視位置が右縁部(51R)にあるときには、情報処理装置1は、仮想空間内のユーザの頭部の方向のうち、水平方向であるβに予め定めた値(ゲームアプリケーション等から設定された値としてもよい)を加算して、仮想空間内のユーザの頭部の方向を表すβを更新する。
この例に係る情報処理装置1では、ユーザが例えば映像表示素子51の右端に視線を向ける(あるいは所定の時間しきい値以上の時間だけ視線を向け続ける)と、仮想空間のユーザの頭部が右方向を向いたときの仮想空間の画像が表示されるよう制御され(本発明の第1モードの動作)、ユーザが映像表示素子51の周縁部でない範囲を見ている間は、ユーザが視線を移動させても表示装置2内に表示された画像は変化しないよう制御される(本発明の第2モードの動作)。
なお、この例において情報処理装置1は、ユーザの注視方向に係る条件だけでなく、ユーザの注視方向に係る条件とユーザの操作デバイス3に対する操作とを組み合わせた条件により、第1,第2のモードのいずれのモードで表示する画像を制御するかを決定してもよい。
例えば、上述の例で、情報処理装置1は、ユーザの注視位置が映像表示素子51の周縁部にない(あるいは周縁部にある時間が所定の時間しきい値を超えていない)か、または所定の操作がされていない(例えば操作デバイス3の所定のボタンが押下された状態にない)と判断すると、ユーザの視線方向の変化(注視位置の変化)によらず、仮想空間内のユーザの頭部の方向(α,β,γ)を変化させない(表示装置2に表示させる内容を変化させない)。
一方、情報処理装置1は、ユーザの注視位置が映像表示素子51の周縁部にあり、かつ、所定の操作がされている(例えば操作デバイス3の所定のボタンが押下された状態にある)と判断すると、注視位置が上縁部(51U),下縁部(51D),左縁部(51L),右縁部(51R)のいずれにあるか(またはこれらのいずれかにある時間を測定して、当該測定した時間が予め定めた時間しきい値を超えているか)を調べ、注視位置が上縁部(51U)にあり(あるいは上縁部にある時間が時間しきい値を超え)、かつ所定の操作がされているときには、仮想空間内のユーザの頭部の方向のうち、仰角方向であるαに予め定めた値(ゲームアプリケーション等から設定された値としてもよい)を加算して、仮想空間内のユーザの頭部の方向を表すαを更新する。
また、注視位置が下縁部(51D)にあり(あるいは下縁部にある時間が時間しきい値を超え)、かつ所定の操作がされているときには、情報処理装置1は、仮想空間内のユーザの頭部の方向のうち、仰角方向であるαから予め定めた値(ゲームアプリケーション等から設定された値としてもよい)を減算して、仮想空間内のユーザの頭部の方向を表すαを更新する。
さらに注視位置が左縁部(51L)にあり(あるいは左縁部にある時間が時間しきい値を超え)、かつ所定の操作がされているときには、情報処理装置1は、仮想空間内のユーザの頭部の方向のうち、水平方向であるβから予め定めた値(ゲームアプリケーション等から設定された値としてもよい)を減算して、仮想空間内のユーザの頭部の方向を表すβを更新する。
また注視位置が右縁部(51R)にあり(あるいは右縁部にある時間が時間しきい値を超え)、かつ所定の操作がされているときには、情報処理装置1は、仮想空間内のユーザの頭部の方向のうち、水平方向であるβに予め定めた値(ゲームアプリケーション等から設定された値としてもよい)を加算して、仮想空間内のユーザの頭部の方向を表すβを更新する。
[視線方向の検出のさらに別の例]
さらに情報処理装置1は、ユーザの頭部の方向により視線方向を検出する場合であっても、表示装置2の姿勢を検出するだけでなく、ユーザの頚部関節の方向(首の向き)を検出することでユーザの頭部の方向の情報を得てもよい。
[実施形態の効果]
本実施の形態の情報処理装置1によると、ユーザが注視操作をしていないとき、ないし、画像の所定の範囲を注視しているときには従来と同様に視野をスムーズに変動させ、ユーザが注視操作を行ったとき、あるいは画像の上記所定の範囲以外の範囲を注視しているときに視野が固定される。このように、本実施の形態では、視野の移動を不連続にしないので現実感を損なうことがなく、また、ユーザの操作等により、視野を固定した状態で視線を移動できるようにしたことで酔いを軽減できる。
1 情報処理装置、2 表示装置、3 操作デバイス、11 制御部、12 記憶部、13 インタフェース部、21 視線方向取得部、22 オブジェクト情報取得部、23 視野決定部、24 生成部、25 出力部、51 映像表示素子、52 光学素子。

Claims (9)

  1. ユーザの頭部に装着される表示装置に接続され、当該ユーザの視線方向の情報を取得する取得手段と、
    仮想的な三次元空間内のオブジェクトに係る情報を取得する手段と、
    前記取得した視線方向の情報に基づいて、前記仮想的な三次元空間内でのユーザの視野を決定する第1のモードと、前記取得した視線方向の情報のうち少なくとも所定の方向への視線方向の情報によらず、前記仮想的な三次元空間内でのユーザの視野を決定する第2のモードとのいずれかのモードで、前記仮想的な三次元空間内でのユーザの視野を決定する視野決定手段と、
    前記決定された視野内の前記オブジェクトの画像を生成する生成手段と、
    を有し、前記生成された画像が、前記表示装置において表示出力される情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記視野決定手段は、前記取得した視線方向の情報に基づいて、前記仮想的な三次元空間内でのユーザの視野を決定する第1のモードと、前記取得した視線方向の情報のうち、水平または垂直方向のいずれか一方の方向に係る情報によらず、前記取得した視線方向の情報のうち、水平または垂直方向のいずれか他方の方向に係る情報を利用して、前記仮想的な三次元空間内でのユーザの視野を決定する第2のモードとのいずれかのモードで、前記仮想的な三次元空間内でのユーザの視野を決定する情報処理装置。
  3. 請求項1または2に記載の情報処理装置であって、
    前記取得手段は、前記ユーザの頭部の方向を検出して、ユーザの視線方向の情報を取得する情報処理装置。
  4. 請求項1から3のいずれか一項に記載の情報処理装置であって、
    前記視野決定手段は、前記ユーザが所定の操作を行ったときに、前記仮想的な三次元空間内でのユーザの視野を決定する前記第1、第2のモードを切り替える情報処理装置。
  5. 請求項1から3のいずれか一項に記載の情報処理装置であって、
    前記視野決定手段は、前記取得されたユーザの視線方向の情報が予め定めた条件を満足しているか否かにより、前記第1、第2のモードのいずれのモードで前記仮想的な三次元空間内でのユーザの視野を決定するかを選択する情報処理装置。
  6. 請求項1から3のいずれか一項に記載の情報処理装置であって、
    前記視野決定手段は、前記取得されたユーザの視線方向の情報が予め定めた条件を満足しており、かつ、前記ユーザが所定の操作を行ったときに、前記仮想的な三次元空間内でのユーザの視野を決定する前記第1、第2のモードを切り替える情報処理装置。
  7. 請求項5または6に記載の情報処理装置であって、
    前記予め定めた条件は、
    ユーザの視線方向が、前記決定された視野の所定の周縁部に含まれていること、または、
    ユーザの視線方向が、前記決定された視野の所定の周縁部に含まれている状態の継続時間が、予め定めたしきい値を超えたこと、
    のいずれかの条件である、情報処理装置。
  8. ユーザの頭部に装着される表示装置に接続されるコンピュータを用い、
    取得手段が、当該ユーザの視線方向の情報を取得する工程と、
    情報取得手段が、仮想的な三次元空間内のオブジェクトに係る情報を取得する工程と、
    視野決定手段が、前記取得した視線方向の情報に基づいて、前記仮想的な三次元空間内でのユーザの視野を決定する第1のモードと、前記取得した視線方向の情報のうち少なくとも所定の方向への前記取得した視線方向の情報によらず、前記仮想的な三次元空間内でのユーザの視野を決定する第2のモードとのいずれかのモードで、前記仮想的な三次元空間内でのユーザの視野を決定する工程と、
    生成手段が、前記決定された視野内の前記オブジェクトの画像を生成する工程と、
    を有し、前記生成された画像が、前記表示装置において表示出力される情報処理方法。
  9. ユーザの頭部に装着される表示装置に接続されたコンピュータを、
    当該ユーザの視線方向の情報を取得する取得手段と、
    仮想的な三次元空間内のオブジェクトに係る情報を取得する手段と、
    前記取得した視線方向の情報に基づいて、前記仮想的な三次元空間内でのユーザの視野を決定する第1のモードと、前記取得した視線方向の情報のうち少なくとも所定の方向への前記取得した視線方向の情報によらず、前記仮想的な三次元空間内でのユーザの視野を決定する第2のモードとのいずれかのモードで、前記仮想的な三次元空間内でのユーザの視野を決定する視野決定手段と、
    前記決定された視野内の前記オブジェクトの画像を生成する生成手段と、
    前記生成した画像を、前記表示装置に出力する手段と、
    として機能させるプログラム。
JP2019552780A 2017-11-10 2018-11-05 情報処理装置、情報処理方法、及びプログラム Active JP6964142B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017217409 2017-11-10
JP2017217409 2017-11-10
PCT/JP2018/041048 WO2019093278A1 (ja) 2017-11-10 2018-11-05 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019093278A1 true JPWO2019093278A1 (ja) 2020-04-23
JP6964142B2 JP6964142B2 (ja) 2021-11-10

Family

ID=66438117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019552780A Active JP6964142B2 (ja) 2017-11-10 2018-11-05 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11125997B2 (ja)
JP (1) JP6964142B2 (ja)
WO (1) WO2019093278A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11334151B2 (en) * 2018-05-21 2022-05-17 Rakuten Group, Inc. Display apparatus, display method, program, and non-transitory computer-readable information recording medium
WO2023188020A1 (ja) * 2022-03-29 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像再生装置、画像生成方法、及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008198232A (ja) * 2008-05-07 2008-08-28 Namco Bandai Games Inc 画像生成システム、プログラム及び情報記憶媒体
JP2015082322A (ja) * 2014-09-12 2015-04-27 株式会社 ディー・エヌ・エー 仮想空間の表示画像を生成するためのシステム、プログラム及び方法
JP2016031439A (ja) * 2014-07-28 2016-03-07 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム
WO2016164241A1 (en) * 2015-04-10 2016-10-13 Virzoom, Inc. Virtual reality exercise game
JP2017102297A (ja) * 2015-12-02 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
JP2017140285A (ja) * 2016-02-12 2017-08-17 株式会社コロプラ 仮想空間における視界領域調整方法、およびプログラム
JP2017196312A (ja) * 2016-04-28 2017-11-02 株式会社バンダイナムコエンターテインメント シミュレーションシステム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150103096A1 (en) * 2012-05-30 2015-04-16 Pioneer Corporation Display device, head mount display, calibration method, calibration program and recording medium
JP6879700B2 (ja) 2016-09-09 2021-06-02 保土谷化学工業株式会社 摩擦帯電付与部材

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008198232A (ja) * 2008-05-07 2008-08-28 Namco Bandai Games Inc 画像生成システム、プログラム及び情報記憶媒体
JP2016031439A (ja) * 2014-07-28 2016-03-07 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム
JP2015082322A (ja) * 2014-09-12 2015-04-27 株式会社 ディー・エヌ・エー 仮想空間の表示画像を生成するためのシステム、プログラム及び方法
WO2016164241A1 (en) * 2015-04-10 2016-10-13 Virzoom, Inc. Virtual reality exercise game
JP2017102297A (ja) * 2015-12-02 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
JP2017140285A (ja) * 2016-02-12 2017-08-17 株式会社コロプラ 仮想空間における視界領域調整方法、およびプログラム
JP2017196312A (ja) * 2016-04-28 2017-11-02 株式会社バンダイナムコエンターテインメント シミュレーションシステム

Also Published As

Publication number Publication date
US20200341274A1 (en) 2020-10-29
JP6964142B2 (ja) 2021-11-10
WO2019093278A1 (ja) 2019-05-16
US11125997B2 (en) 2021-09-21

Similar Documents

Publication Publication Date Title
JP6093473B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6479199B2 (ja) 情報処理装置
JP6097377B1 (ja) 画像表示方法及びプログラム
US20220291744A1 (en) Display processing device, display processing method, and recording medium
JP6964142B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2017051595A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6212666B1 (ja) 情報処理方法、プログラム、仮想空間配信システム及び装置
KR102549779B1 (ko) 전자기기, 전자기기의 제어방법, 및 컴퓨터 판독가능한 기억매체
JP6416338B1 (ja) 情報処理方法、情報処理プログラム、情報処理システムおよび情報処理装置
JP2018195172A (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JP6738308B2 (ja) 情報処理方法、プログラム、仮想空間配信システム及び装置
WO2020235191A1 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP6403843B1 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JP7492497B2 (ja) プログラム、情報処理方法、及び情報処理装置
WO2023157332A1 (ja) 情報処理装置および調整画面表示方法
JP2017097918A (ja) 画像表示方法及びプログラム
JP6941130B2 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
WO2023242981A1 (ja) ヘッドマウントディスプレイ、ヘッドマウントディスプレイシステム、および、ヘッドマウントディスプレイの表示方法
JP6503407B2 (ja) コンテンツ表示プログラム、コンピュータ装置、コンテンツ表示方法、及びコンテンツ表示システム
JP6216851B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2019021331A (ja) 情報処理方法、情報処理プログラム及び情報処理装置
CN116114012A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211018

R150 Certificate of patent or registration of utility model

Ref document number: 6964142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150