JP2016218534A - 画像表示システムおよび画像表示方法 - Google Patents

画像表示システムおよび画像表示方法 Download PDF

Info

Publication number
JP2016218534A
JP2016218534A JP2015099636A JP2015099636A JP2016218534A JP 2016218534 A JP2016218534 A JP 2016218534A JP 2015099636 A JP2015099636 A JP 2015099636A JP 2015099636 A JP2015099636 A JP 2015099636A JP 2016218534 A JP2016218534 A JP 2016218534A
Authority
JP
Japan
Prior art keywords
image
user
virtual
virtual space
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015099636A
Other languages
English (en)
Other versions
JP6598191B2 (ja
Inventor
亮 倉爪
Ryo Kurazume
亮 倉爪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
Original Assignee
Kyushu University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC filed Critical Kyushu University NUC
Priority to JP2015099636A priority Critical patent/JP6598191B2/ja
Publication of JP2016218534A publication Critical patent/JP2016218534A/ja
Application granted granted Critical
Publication of JP6598191B2 publication Critical patent/JP6598191B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】特定の実オブジェクトの周辺に存在する他の実オブジェクトに変化が生じた場合でも、特定の実オブジェクトの未来の動作状況をユーザに容易に認識させることを可能とする。【解決手段】画像表示システム1が、ユーザの視線を推定する視線推定部41と、推定された視線に基づく現実空間の風景に対応する仮想空間の風景を含む仮想空間画像を生成する仮想空間画像生成部32と、仮想空間画像を、現実空間においてユーザの視界に入る風景または当該風景を撮像した撮像画像と重ね合わせた合成画像を生成する画像合成部33と、合成画像をユーザに対して表示する表示部11とを備え、仮想空間画像生成部32が、仮想オブジェクトに含まれる特定仮想オブジェクトに対して予め定められた動作を設定し、当該動作に基づく特定仮想オブジェクトの変化を示す仮想空間画像を生成する構成とする。【選択図】図2

Description

本発明は、ユーザに対して現実世界の仮想的状況を示す画像を表示する画像表示システムおよび画像表示方法に関し、特に、いわゆる没入型VR(Virtual Reality)システムへの適用に好適な画像表示システムおよび画像表示方法に関する。
近年、ロボットが作業を行う空間に様々なセンサを配置し、空間内の人や物の位置や状態を逐次収集、蓄積、提供することにより、ロボットを導入しやすい日常生活環境を構築する情報構造化に関する研究開発が進められている(非特許文献1−4参照)。
この種のロボットは、予め準備されたプログラムにしたがって人間の活動空間(例えば、住宅やオフィス)において種々の作業を行うとともに、その周辺に存在する人や物を認識することにより、それら人や物との意図しない接触や衝突など(以降、「干渉」と称する。)を回避する必要がある。
従来、所定の作業空間においてロボットを作業させるための技術として、例えば、所定の作業を記述したロボットプログラムを解読する言語処理部と、作業空間内に存在する環境物体に関する形状を定義し、環境物体間の相対位置関係、接続関係、環境物体に固有の物理的性質・属性を表現した環境管理データ、個々のロボットの機構データを表現したロボット機構データ、及び衝突チェックや3次元形状の表示に必要となる形状データを生成する環境物体エディタと、上記ロボットプログラムに対するデバッグ要求を受け付けるデバッガー部と、上記3次元形状を表示するディスプレイと、上記環境管理データを利用してロボットプログラムを実行するために必要となる複数のプロセスを生成し、これら複数プロセスに対するスケジューリング等を行って上記ロボットに対する動作命令を生成し、かつ実行に伴って変化する環境管理データを動的に管理する実行処理部と、上記ロボット機構データを参照しながら個々のロボットに対する動作命令を実行して関節角移動量およびロボットの移動に伴う把持物体の移動量を算出するロボット軌道算出部と、上記形状データを参照し上記ロボット移動量および把持物体の移動量をロボットおよび把持物体の移動表示を行うための表示用データへ変換するグラフィック処理部などを備え、上記ディスプレイ上に表示されるロボットおよび複数の環境物体の動きや、ロボットと環境物体との位置関係を人間が見ながら上記ロボットプログラムのシミュレーションを行うようにしたロボット作業教示システムが知られている(特許文献1参照)。
H. Noguchi, T. Mori, and T. Sato. Automatic generation and connection of program components based on rdf sensor description in network middleware. In IEEE/RSJ International Conference on Intelligent Robots and Systems, pp. 2008-2014, 2006. Y. Kato, T. Izui, Y. Tsuchiya, M. Narita, M. Ueki, Y. Murakawa, and K. Okabayashi. Rsi-cloud for integrating robot services with internet services. In IECON 2011 - 37th Annual Conference on IEEE Industrial Electronics Society, pp. 2158-2163, 2011. H. Gross, Ch. Schroeter, S. Mueller, M. Volkhardt, E. Einhorn, A. Bley, Ch. Martin, T. Langner, and M. Merten. I'll keep an eye on you: Home robot companion for elderly people with cognitive impairment. In IEEE International Conference on Systems, Man, and Cybernetics, pp. 2481-2488, 2011. M. Tenorth, A.C. Perzylo, R. Lafrenz, and M. Beetz. The roboearth language: Representing and exchanging knowledge about actions, objects, and environments. In IEEE International Conference on on Robotics and Automation, pp. 1284-1289, 2012.
特開昭62−165212号公報
ところで、上記特許文献1に記載のような従来技術では、ロボット(特定の実オブジェクト)の作業空間に存在する環境物体(周辺に存在する他の実オブジェクト)は、作業空間における人間の活動に応じて動的に変化する(すなわち、別の場所に移動したり新たに出現したりする)ため、そのような環境物体の変化に対応してロボットも動作させる必要が生じる。その場合、例えば、環境物体の変化をロボットプログラムに反映させるために、ロボット等に搭載されたセンサによって、変化した環境物体に関する形状や相対位置関係等を正確に認識することが考えられる。
しかしながら、そのようなセンサによって環境物体の変化を精度良く認識することは容易ではなく、しかもロボット等に搭載可能なセンサの種類や数には設置スペースやコスト上の制限があるため、必要な情報を全て取得することは難しいという問題がある。さらに、そのような環境物体の変化に応じて、作業時のロボットと環境物体との干渉の有無等をロボット自身が認識するための情報処理は複雑であるため、ロボットの動作を制御するための処理負荷やコストが高まるという問題もある。
本発明は、このような従来技術の問題点を解消するべく案出されたものであり、その主な目的は、特定の実オブジェクト(例えば、ロボット)の周辺に存在する他の実オブジェクトに変化が生じた場合でも、特定の実オブジェクトの未来の動作状況をユーザに容易に認識させ、ユーザが実オブジェクトと環境物体との干渉を予見することが可能な画像表示システムおよび画像表示方法を提供することにある。
本発明の画像表示システムは、ユーザに対して現実世界の仮想的状況を示す画像を表示する画像表示システムであって、前記ユーザの視線を推定する視線推定部と、少なくとも1つの実オブジェクトを含む現実空間を、前記実オブジェクトに対応する少なくとも1つの仮想オブジェクトを含む仮想空間として再現するための3次元データが入力される3次元データ入力部と、前記推定された視線に基づく前記現実空間の風景に対応する前記仮想空間の風景を含む仮想空間画像を、前記3次元データから生成する仮想空間画像生成部と、前記仮想空間画像を、前記現実空間において前記ユーザの視界に入る前記風景または当該風景を撮像した撮像画像と重ね合わせた合成画像を生成する画像合成部と、前記合成画像を前記ユーザに対して表示する表示部とを備え、前記仮想空間画像生成部は、前記仮想オブジェクトに含まれる特定仮想オブジェクトに対して予め定められた動作を設定し、当該動作に基づく前記特定仮想オブジェクトの変化を示す前記仮想空間画像を生成することを特徴とする。
また、本発明の画像表示方法は、ユーザに対して現実世界の仮想的状況を示す画像を表示する画像表示方法であって、前記ユーザの視線を推定する視線推定ステップと、少なくとも1つの実オブジェクトを含む現実空間を、前記実オブジェクトに対応する少なくとも1つの仮想オブジェクトを含む仮想空間として再現するための3次元データが入力される3次元データ入力ステップと、前記推定された視線に基づく前記現実空間の風景に対応する前記仮想空間の風景を含む仮想空間画像を、前記3次元データから生成する仮想空間画像生成ステップと、前記仮想空間画像を、前記現実空間において前記ユーザの視界に入る前記風景または当該風景を撮像した撮像画像と重ね合わせた合成画像を生成する画像合成ステップと、前記合成画像を前記ユーザに対して表示する表示ステップとを有し、前記仮想空間画像生成ステップでは、前記仮想オブジェクトに含まれる特定仮想オブジェクトに対して予め定められた動作を設定し、当該動作に基づく前記特定仮想オブジェクトの変化を示す前記仮想空間画像を生成することを特徴とする。
本発明によれば、ユーザに対して現実世界の仮想的状況を示す画像を表示する際に、特定の実オブジェクト(例えば、ロボット)の周辺に存在する他の実オブジェクトに変化が生じた場合でも、特定の実オブジェクトの未来の動作状況をユーザに容易に認識させ、ユーザが実オブジェクトと環境物体との干渉を予見することが可能となる。
実施形態に係る画像表示システムの概略を示す全体構成図 図1の画像表示システムを示す機能ブロック図 実施形態に係る画像表示システムの表示対象の一例を示す説明図 図2中のディストーション部において処理された画像の一例を示す説明図 図2中の画像合成部において処理された画像の一例を示す説明図 実施形態に係る画像表示システムによる画像表示処理の流れを示すフロー図 図6中のステップST106における表示画像の一例を示す図 図7に示した画像が視点変更された場合の表示画像の例を示す図
前記課題を解決するためになされた第1の発明は、ユーザに対して現実世界の仮想的状況を示す画像を表示する画像表示システムであって、前記ユーザの視線を推定する視線推定部と、少なくとも1つの実オブジェクトを含む現実空間を、前記実オブジェクトに対応する少なくとも1つの仮想オブジェクトを含む仮想空間として再現するための3次元データが入力される3次元データ入力部と、前記推定された視線に基づく前記現実空間の風景に対応する前記仮想空間の風景を含む仮想空間画像を、前記3次元データから生成する仮想空間画像生成部と、前記仮想空間画像を、前記現実空間において前記ユーザの視界に入る前記風景または当該風景を撮像した撮像画像と重ね合わせた合成画像を生成する画像合成部と、前記合成画像を前記ユーザに対して表示する表示部とを備え、前記仮想空間画像生成部は、前記仮想オブジェクトに含まれる特定仮想オブジェクトに対して予め定められた動作を設定し、当該動作に基づく前記特定仮想オブジェクトの変化を示す前記仮想空間画像を生成することを特徴とする。
この第1の発明に係る画像表示システムによれば、現実空間においてユーザの視界に入る風景または当該風景を撮像した撮像画像と、予め定められた動作に基づく特定仮想オブジェクトの変化を示す仮想空間画像とを重ね合わせた合成画像を生成し、その合成画像を表示装置に表示する構成としたため、仮想空間画像において特定仮想オブジェクトとして再現された現実空間内の特定の実オブジェクト(例えば、ロボット)の周辺に存在する他の実オブジェクトに変化が生じた場合でも、特定の実オブジェクトの未来の動作状況をユーザに容易に認識させ、ユーザが実オブジェクトと環境物体との干渉を予見することが可能となる。
また、第2の発明は、上記第1の発明において、前記予め定められた動作は、前記実オブジェクトに含まれる特定の実オブジェクトと前記特定仮想オブジェクトとが同じ状態にある現在から開始され、仮想的に所定時間が経過するまでの動作であることを特徴とする。
この第2の発明に係る画像表示システムによれば、特定仮想オブジェクトの動作が特定の実オブジェクトと同じ状態(現在)から開始されるため、特定の実オブジェクトの未来の動作状況をユーザにより容易に認識させることが可能となる。
また、第3の発明は、上記第1または第2の発明において、前記撮像画像を撮像する撮像部を更に備え、前記撮像部は、前記表示部と一体的に前記ユーザの頭部に装着可能な装置からなり、前記合成画像は、前記撮像部によって撮像された前記撮像画像と前記仮想空間画像とを重ね合わせることにより生成されたことを特徴とする。
この第3の発明に係る画像表示システムによれば、ユーザの視線を左右するユーザの頭部の姿勢や位置の変化に応じて、撮像画像による風景(実オブジェクトの位置や状態)を、ユーザの視界に入り得る風景に精度良く一致させることが可能となり、他の実オブジェクトに変化が生じた場合でも、特定の実オブジェクトの未来の動作状況をユーザにより正確に認識させることが可能となる。
また、第4の発明は、上記第1から第3の発明のいずれかにおいて、前記ユーザの頭部の位置を検出する位置検出部と前記ユーザの頭部の姿勢を検出する姿勢検出部とを更に備え、前記視線推定部は、前記検出された頭部の位置及び姿勢に基づき、前記ユーザの視線を推定することを特徴とする。
この第4の発明に係る画像表示システムによれば、ユーザの頭部の位置や姿勢に基づきユーザの視線をより精度良く推定することが可能となるため、仮想空間画像に含まれる仮想空間の風景を、ユーザの視界に入る現実空間の風景または当該風景を撮像した撮像画像に対してより効果的に対応させることができる。
また、第5の発明は、上記第1から第4の発明のいずれかにおいて、前記仮想空間画像には、前記特定仮想オブジェクトの前記動作に基づく移動軌跡が含まれることを特徴とする。
この第5の発明に係る画像表示システムによれば、特定の実オブジェクトの未来の移動状況をユーザに容易に認識させ、ユーザが実オブジェクトと環境物体との干渉を予見することが可能となる。
また、第6の発明は、ユーザに対して現実世界の仮想的状況を示す画像を表示する画像表示方法であって、前記ユーザの視線を推定する視線推定ステップと、少なくとも1つの実オブジェクトを含む現実空間を、前記実オブジェクトに対応する少なくとも1つの仮想オブジェクトを含む仮想空間として再現するための3次元データが入力される3次元データ入力ステップと、前記推定された視線に基づく前記現実空間の風景に対応する前記仮想空間の風景を含む仮想空間画像を、前記3次元データから生成する仮想空間画像生成ステップと、前記仮想空間画像を、前記現実空間において前記ユーザの視界に入る前記風景または当該風景を撮像した撮像画像と重ね合わせた合成画像を生成する画像合成ステップと、前記合成画像を前記ユーザに対して表示する表示ステップとを有し、前記仮想空間画像生成ステップでは、前記仮想オブジェクトに含まれる特定仮想オブジェクトに対して予め定められた動作を設定し、当該動作に基づく前記特定仮想オブジェクトの変化を示す前記仮想空間画像を生成することを特徴とする。
この第6の発明に係る画像表示方法によれば、現実空間においてユーザの視界に入る風景または当該風景を撮像した撮像画像と、予め定められた動作に基づく特定仮想オブジェクトの変化を示す仮想空間画像とを重ね合わせた合成画像を生成し、その合成画像を表示装置に表示するため、仮想空間画像において特定仮想オブジェクトとして再現された現実空間内の特定の実オブジェクト(例えば、ロボット)の周辺に存在する他の実オブジェクトに変化が生じた場合でも、特定の実オブジェクトの未来の動作状況をユーザに容易に認識させ、ユーザが実オブジェクトと環境物体との干渉を予見することが可能となる。
以下、本発明の実施の形態について図面を参照しながら説明する。
図1は、本発明の実施形態に係る画像表示システム1の概略を示す全体構成図であり、図2は、図1の画像表示システム1の機能ブロック図であり、図3は、画像表示システムの表示対象の一例を示す説明図であり、図4及び図5は、それぞれ図2中のディストーション部44および画像合成部33において処理された画像の一例を示す説明図である。
画像表示システム1は、ユーザに対して現実世界(ここでは、ユーザ自身が存在する現実空間)の仮想的状況を示す画像を表示することにより、現実世界の未来の状態を直感的に認識させることを可能とするものである。図1及び図2に示すように、画像表示システム1は、ユーザに対して所定の画像(動画像)を表示する表示装置2と、ユーザの頭部6の動作を分析(ここでは、移動する頭部6の位置を検出)する動作分析装置3と、ユーザの頭部6の位置および姿勢の変化に応じて、表示装置2における画像表示(すなわち、ユーザの視野)をリアルタイムで制御する表示制御装置4とを主として備える。
表示装置2および動作分析装置3は、公知の有線通信または無線通信に基づき、通信用ネットワーク5を介して表示制御装置4と通信可能である。通信用ネットワーク5としては、インターネット等の広域ネットワークやLAN(Local Area Network)等を利用することができるが、これに限らず、各装置2−4が公知の近距離無線通信によって互いに直接通信する構成としてもよい。また、本実施形態では、表示制御装置4が表示装置2と独立して設けられた例を示すが、表示制御装置4が表示装置2に内蔵された構成や、表示制御装置4の機能の一部が、表示装置2の制御部(図示せず)によって実現される構成も可能である。
本実施形態では、図3に示すように、ユーザが使用する住宅の部屋(現実空間)7を画像表示システム1の画像表示対象とした例を示す。部屋7の床面8には、予め準備されたプログラム(動作命令)にしたがって部屋7内で作業する二足歩行式のロボット(特定の実オブジェクト)10とともに、種々の家具および家電(周辺に存在する他の実オブジェクト)が配置されている。なお、図3では図示しないが、画像表示システム1を利用するユーザも部屋7内に存在し、また、図1に示した画像表示システム1の構成要素の少なくとも一部は部屋7内に配置される。例えば、動作分析装置3は、部屋7の図示しない壁や、床、天井等に取り付けることが可能である。
再び図1を参照して、表示装置2は、ユーザの頭部6に装着される没入型のヘッドマウントディスプレイから構成される。より詳細には、図2に示すように、表示装置2は、ユーザに向けて3次元映像を表示する画像表示部11と、部屋7内におけるユーザの視線方向の風景(人や物などの少なくとも1つの実オブジェクトを含む)を撮像する撮像部12と、表示装置2の姿勢を検出する姿勢検出部13とを有している。
なお、本実施形態では、いわゆる没入型のヘッドマウントディスプレイ(ユーザには、ヘッドマウントディスプレイに表示された画像のみが提供され、ユーザは外界を直接目視できないタイプのヘッドマウントディスプレイ)を用いた例を示すが、これに限らず透過型のヘッドマウントディスプレイを用いた構成も可能である。表示装置2については、例えば、Oculus社製のヘッドマウントディスプレイ(商品名:Oculus Rift)を用いてその主要部を構成することができるが、これに限らず、ユーザに対して所望の画像を表示することが可能な限りにおいて、他の公知のディスプレイ装置を採用することができる。
画像表示部11は、ユーザの左右の目の視差を利用して3次元映像を表示することが可能である。画像表示部11は、ユーザの左右の目に対向するように配置され、それら左右の目にそれぞれ対応する左右の画像(後述する図4中の左仮想空間画像47および右仮想空間画像48を参照)を所定の画像表示領域に表示する液晶パネル(図示せず)、および液晶パネルに表示された画像を目視可能に結像させる光学系(図示せず)から構成される。なお、上述した透過型のヘッドマウントディスプレイは、この光学系の一部をハーフミラー等で構成することで、あるいはAR(Augmented Reality:拡張現実)の分野で利用されるプロジェクション技術を応用することで実現される。
撮像部12は、ユーザの視線方向の風景(すなわち、人や物を含むユーザの目の前に広がるながめ)を同時に撮像する左右カメラを有し、左右の撮像画像をそれぞれ生成するステレオカメラ(図示せず)から構成される。その左右カメラは、ユーザの両目付近(ここでは、視点の位置)にそれぞれ配置されるとともに、所定の視野角を確保可能なように表示装置2の筐体に固定されている。また、そのステレオカメラの撮像方向は、ユーザの左右の目の視線(ここでは、ユーザが正面を見ている状況における視線)と略同一に設定されている。この構成によって、撮像部12による撮像方向は表示装置2の向き(すなわち、ユーザの頭部6の姿勢)に応じて変化する。なお、撮像部12の視野角は、ユーザの視野よりも広い範囲を撮像可能なように設定されることが好ましい。
姿勢検出部13は、表示装置2の筐体内に設けられた3軸加速度センサおよび角速度センサ(図示せず)から構成される。姿勢検出部13は、それら各センサの検出結果に基づき、表示装置2の向き(すなわち、ユーザの頭部6の姿勢)に関する情報(以下、姿勢情報という。)を生成し、その姿勢情報を表示制御装置4に対して出力する。
動作分析装置3は、表示装置2の位置を検出する位置検出部21を有している。図1では、1台の動作分析装置3のみを示しているが、通常は、動作分析装置3は、ユーザの活動範囲(ここでは、部屋7におけるユーザの移動可能範囲)全体を検出対象とするべく(すなわち、死角をなくす目的で)複数配置される。これにより、動作分析装置3は、表示装置2を装着したユーザが移動した場合でも、表示装置2の位置の検出を継続(追跡)することが可能である。
位置検出部21は、所定の解像度(例えば、100万〜1600万画素)を有する高速度カメラを含み、いわゆるモーションキャプチャを収録する。位置検出部21は、表示装置2の筐体の適所に取り付けられた複数の光学的マーカ9を撮像した結果から、それら光学的マーカ9の位置(x、y、z座標)をリアルタイムに解析し、その解析結果に基づく表示装置2(すなわち、ユーザの頭部6)の位置情報を表示制御装置4に対して出力する。動作分析装置3としては、例えば、VICON社製の3次元動作分析システム(商品名:Bonita)を用いることができるが、これに限らず、表示装置2(すなわち、ユーザの頭部6)の位置を検出可能である限り、他の公知のセンサを採用することができる。
なお、本実施形態では、上述したようにユーザの頭部の姿勢を姿勢検出部13で検出するようにしているが、光学的マーカ9の個数および取り付け位置(各々の光学的マーカ9の相対的な位置関係)は予め定められており、検出された各光学的マーカ9のそれぞれの座標に基づき、位置検出部21において頭部の位置および姿勢を一括して検出するようにしてもよい。
表示制御装置4は、コンピュータシミュレーションにより現実空間を再現するための3次元データが入力される3次元データ入力部31と、それら3次元データからユーザの視線に基づく現実空間の風景に対応する仮想空間の風景を含む仮想空間画像を生成する仮想空間画像生成部32と、その仮想空間画像を、現実空間においてユーザの視界に入る風景を撮像した撮像画像と重ね合わせた合成画像を生成する画像合成部33とを有している。
ここで、3次元データは、少なくとも1つの実オブジェクトを含む現実空間を、その実オブジェクトに対応する少なくとも1つの仮想オブジェクトを含む仮想空間として再現するための座標(3次元点列)データからなる。
なお、仮想空間は、現実空間に含まれる全ての実オブジェクトに対応する仮想オブジェクトを含むことが好ましいが、これに限らず、主要な実オブジェクトに対応する仮想オブジェクトのみを仮想空間が含む構成も可能である。また、3次元データは、現実空間における実オブジェクトの種別、位置(座標)、速度などをカメラやセンサなどを用いて検出することにより、或いはユーザによるデータ入力により適宜更新することができる。
また、実オブジェクト(例えば、ロボット10)に光学的マーカ(図示せず)を取り付け、これを位置検出部21によって検出するようにしてもよい。この場合、実オブジェクトの特定の位置には表示装置2に付された光学的マーカ9とは異なる個数あるいは異なる位置関係となるように光学的マーカが配置される。このように構成することで、予め実オブジェクトの3次元データを取得しておけば、位置検出部21によって検出された光学的マーカの位置に基づき、実オブジェクトの種別、位置(姿勢を含む)、速度を高精度に検出できる。
仮想空間画像生成部32は、ユーザの視線を推定する視線推定部41と、3次元データ入力部31に入力された3次元データから、ユーザの視線に基づく現実空間の風景に含まれる実オブジェクトに対応する仮想空間モデル(仮想オブジェクトの形状)を構築するモデリング部42と、公知のレンダリング処理を実行することにより、仮想空間モデルを画像化した仮想空間画像を生成するレンダリング部43と、公知のディストーション処理を実行することにより、仮想空間画像に対して歪みを付加するディストーション部44とを有している。
モデリング部42では、公知のモデリング処理により、画像表示部11に表示される左右の画像に対応する仮想空間モデルがそれぞれ構築される。また、モデリング部42では、ユーザによって予め指定された特定の実オブジェクト(ここでは、ロボット10)に対応する特定仮想オブジェクト(後述する図5、図7中の仮想ロボット10A参照)に対し、予め定められた動作(例えば、目的地までの仮想ロボット10Aの移動、仮想ロボット10Aによる物品の把持や受渡し、所定位置における仮想ロボット10Aの姿勢変更や腕の伸縮など)がプログラム(設定)されており、これにより、そのプログラムに基づき、特定の実オブジェクトの未来の動作状況に関する仮想空間モデルが構築される。特定仮想オブジェクトに対する予め定められた動作の設定は、ユーザのリクエスト(入力操作)によって行われる。
レンダリング部43において、仮想空間画像は、所定の透明度が設定された半透明の画像として形成される。また、ディストーション部44では、図4に示すように、左仮想空間画像47および右仮想空間画像48に対して樽型の歪み(Barrel distortion)が付加される。
視線推定部41は、表示装置2がユーザの頭部に正常に装着されていることを前提として、姿勢検出部13から取得する姿勢情報および動作分析装置3から取得する位置情報に基づきユーザの頭部の姿勢(向き)および位置を決定し、更に、その頭部の姿勢および位置に基づきユーザの視線(ただし、ここでは眼球の動きは考慮しない。即ち、本実施形態でいう視線とは、視点(対象を眺める位置)と略同義である)を推定する。ただし、これに限らず、少なくともユーザの視線の情報を取得可能な限りにおいて、他の公知のセンサ等を用いてユーザの視線を推定(検出)してもよい。なお、上述したように位置検出部21がユーザの頭部の位置および姿勢を一括して検出する構成を採用した場合、視線推定部41は位置検出部21の出力に基づきユーザの視線を推定する。
画像合成部33は、仮想空間画像生成部32(ディストーション部44)から取得した仮想空間画像(画像フレーム)を、表示装置2(撮像部12)から取得した同時刻の撮像画像(画像フレーム)とリアルタイムで重ね合わせる画像合成処理(撮像画像に対するディストーション処理を含む)を実行する。この画像合成処理には、撮像画像の風景(1以上の実オブジェクトを含む)と仮想空間画像の風景(1以上の仮想オブジェクトを含む)との位置ずれを補正するための公知の補正処理が含まれる。なお、上述したレンダリング部43において、ユーザの指示に基づいて2つの画像の位置ずれを調整可能(具体的には、仮想空間画像の平行シフト、回転、拡縮、アフィン変換等)に構成してもよい。
ここで、特定仮想オブジェクトの変化(すなわち、対応する特定の実オブジェクトの未来の動作)を示す仮想空間画像が合成される場合には、その特定仮想オブジェクトは、現在の動作状況において、対応する特定の実オブジェクトと同じ状態にあり(すなわち、重なる位置に表示され)、その後の未来(現在から仮想的に所定時間が経過するまで)の動作状況においては、その少なくとも一部が対応する実オブジェクトと重ならない位置に表示される。なお、画像合成部33では、特定仮想オブジェクトに対応する特定の実オブジェクト(すなわち、上述の現在の動作状況において、特定仮想オブジェクトと重なる位置に表示される対象)が撮像画像に含まれない構成も可能である。
また、仮想空間画像生成部32で生成される仮想空間画像は、ユーザの視界に入る風景の撮像画像と略同一またはより広い空間が再現された画像であり、画像合成部33では、ユーザの視界に入る風景に対応しない仮想空間画像における不要領域のトリミング処理が必要に応じて実行される。画像合成部33によって生成された合成画像は、表示装置2(画像表示部11)に対して出力される。
図5に示すように、上記画像合成処理による合成画像50は、背景となる撮像画像(図5中に実線で示す)に半透明の仮想空間画像(図5中に塗りつぶし図形で示す)を重ねた状態で示される。ここで、図5における合成画像50は、画像表示部11に表示される左右の合成画像をユーザが見たイメージを模式的に示したものである。また、図5では、仮想空間画像については、理解を容易とするために、部屋7内の主要な実オブジェクト(ロボット10、家具等)に対応する仮想オブジェクト(仮想ロボット10A、家具等)のみを示しているが、実際には、仮想空間画像には、壁や、床、天井等を含めた全ての仮想オブジェクト(仮想化された全空間情報)が含まれる。
表示装置2として透過型のヘッドマウントディスプレイが用いられる場合には、画像合成部33では、上述の撮像画像の代わりに、現実空間においてヘッドマウントディスプレイの前面を通してユーザの視界に入る風景に対して仮想空間画像を重ね合わせた合成画像(擬似的な合成画像)が生成されることになる。なお、透過型のヘッドマウントディスプレイが用いられる場合は、ディストーション部44におけるディストーション処理は省略することが好ましい。
また、詳細は図示しないが、表示制御装置4は、PC(Personal Computer)やこれに類する情報処理装置(演算装置、制御装置、記憶装置、及び入出力装置等)から構成され、所定の制御プログラムに基づき上述の各部における各種処理を実行するとともに、表示装置2や動作分析装置3の動作を統括的に制御するCPU(Central Processing Unit)、CPUのワークエリア等として機能するRAM(Random Access Memory)、CPUが実行する制御プログラムやデータを格納するROM(Read Only Memory)、入力デバイス、及びHDD(Hard Disk Drive)などを含む公知のハードウェア構成を有している。なお、表示制御装置4の機能の少なくとも一部を他の公知のハードウェアによる処理によって代替してもよい。
図6は、画像表示システム1による画像表示処理の流れを示すフロー図である。図6に示すように、まず、視線推定部41は、姿勢検出部13および位置検出部21から姿勢情報および位置情報をそれぞれ取得することにより、ユーザの頭部の位置及び姿勢を決定し、その頭部の位置及び姿勢に基づきユーザの視線を推定する(ST101)。
次に、モデリング部42は、3次元データ入力部31に入力された3次元データから、ステップST101で推定されたユーザの視線に基づく現実空間の風景に含まれる実オブジェクトに対応する仮想空間モデルを構築する(ST102)。
このステップST102では、初回の処理において、現在(現実)の実オブジェクトに対応する仮想空間モデルが構築され、次回以降の処理において、現在から未来に向かう所定時刻における仮想空間モデル(すなわち、仮想的に所定時間を経過させることにより、特定仮想オブジェクトが予め定められた動作を完了するまでの各過程に対応する仮想空間モデル)が構築される。なお、仮想空間モデルの構築に用いられる3次元データは、3次元データ入力部31に適宜入力されることにより、所定のメモリに格納された状態にある。
次に、レンダリング部43は、ステップST102において生成された仮想空間モデルを画像化した仮想空間画像を生成し(ST103)、続いて、ディストーション部44は、ステップST103において生成された仮想空間画像に対して歪みを付加する(ST104)。
次に、画像合成部33は、ステップST104において処理された仮想空間画像を、現実空間においてユーザの視界に入る風景を撮像した撮像画像と重ね合わせた合成画像を生成する(ST105)。続いて、画像表示部11は、ステップST105において生成された合成画像をユーザに向けて表示する(ST106)。
その後、仮想空間画像生成部32は、予め設定された特定仮想オブジェクトの予め設定された動作が完了したか否かを判定する(ST107)。そして、上記の一連のステップST101−ST106は、ステップST107において、予め設定された特定仮想オブジェクトの動作が完了したと判定(Yes)されるまで繰り返し実行される。
図7は、図6中のステップST106における表示画像の一例を示す図である。ここでは、特定の実オブジェクトとしてのロボット10に対応する特定仮想オブジェクトとしての仮想ロボット10Aが、予め設定された動作としての前進移動を行う場合を示している。また、ここでは、他の実オブジェクトとして、当初は存在しなかった円筒形のくず入れ60がロボット10の前方に新たに出現した(例えばユーザによって配置された)場合を示している。
上述の図6に示したステップST101−ST106の繰り返し処理により、仮想空間における仮想ロボット10Aの動作時間が経過し、その時間経過にともなって、ステップST106では、図7に示すように仮想ロボット10Aが前進移動を行う仮想空間画像が画像表示部11に表示される。この場合、仮想空間画像生成部32は、図7に示した仮想空間画像よりも前の時刻における仮想空間画像における仮想ロボット10Aの位置を移動軌跡70として表示することができる。或いは、仮想空間画像生成部32は、仮想ロボット10Aの現在位置から移動先(目的地)にかけて、同様の移動軌跡(移動予定の軌跡)を予め表示することも可能である。ここでは、仮想空間画像は1つの静止画像として示されているが、実際の画像表示部11には、仮想ロボット10Aが、現在のロボットAに重なる位置から図7に示した位置まで前進する様子が一連の画像(動画像)として示される。
このように、画像表示システム1では、現実空間においてユーザの視界に入る風景(特定の実オブジェクトを含む)を撮像した撮像画像(即ち、現実空間の風景(現実空間画像))と、予め定められた動作に基づく特定仮想オブジェクトの変化を示す仮想空間画像とを両空間の全体を重ね合わせた合成画像を生成し、その合成画像を表示装置2に表示するため、仮想空間画像において仮想ロボット10Aとして再現された現実空間内のロボット10の周辺に存在する他の実オブジェクト(ここでは、くず入れ60)に変化が生じた場合でも、ロボット10の未来の動作状況をユーザに容易に認識させる(ここでは、新たに配置されたくず入れ60との干渉(接触や衝突)をユーザに容易に確認、予見させる)ことが可能となる。この場合、ロボット10の未来の動作状況をユーザに認識させるため、くず入れ60の出現を検出するためのセンサ等は不要である。また、ロボット10との干渉を確認するために、くず入れ60の3次元データを新たに準備する必要もない。
なお、ここでは、仮想ロボット10Aの動作として前進移動の例を示したが、これに限らず、仮想ロボット10Aが定位置においてその一部(例えば、腕部や脚部)を移動(変位)させる動作としてもよい。
図8は、図7に示した画像が視点変更された場合の表示画像の例を示す図である。図7に示した例では、ユーザは、仮想ロボット10Aの正面側におけるくず入れ60の背後に位置していたため、表示装置2に表示される画像からは、仮想ロボット10Aとくず入れ60との干渉の確認は必ずしも容易ではない。
そこで、ユーザは、図8に示すように、仮想ロボット10Aおよびくず入れ60の側方に移動し、仮想ロボット10Aとくず入れ60との干渉状況をより明確に確認することができる。即ち、図6を用いて説明したように、視線推定(ST101)〜画像表示(ST106)は周期的に実行されるため、ユーザは現実空間画像と仮想空間画像とを合成表示させつつ、観察位置を自由に変えながら干渉状況を確認することができるのである。更に、ST107の処理がYes判定となり一連の処理が完了した後でも、ユーザは再度同一の処理を繰り返し行って、様々な視点から将来生起する事象を観測することができる。この場合、仮想ロボット10Aの膝部65がくず入れ60の外周面60aと接触している状況を明確に確認することができる。したがって、ユーザは、図7及び図8に示した位置にくず入れ60を新たに配置することについて、ロボット10の作業の障害になり得ることを認識することができ、例えばくず入れ60の位置を変えたり、ロボット10に対して移動経路の変更を指示する、といった対応をとることが可能となる。このように、ユーザは、ロボット10が実際に動作する前に、その動作の実行を仮想ロボットの10Aにより高い臨場感をもって確認することができ、その確認の結果、ロボット10の作業内容の修正や、作業の中止などを判断することができる。
なお、上述の説明は、特定の実オブジェクトとしてロボット10を、他の実オブジェクト(環境物体)としてくず入れ60を想定したものであるが、ここで、他の実オブジェクトにはユーザ自身が含まれることは言うまでもない。即ち、ユーザは仮想空間内で動作するロボット10が現実空間内の自らと干渉するか否かを簡易に確認することで、予めリスクを予測し、その対応を図ることが可能となる。
以上、本発明を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本発明はこれらの実施形態によって限定されるものではない。例えば、上記実施形態では、画像表示システムを室内におけるロボットの動作の確認に用いた例を示したが、これに限らず、本発明は、他の任意の移動物体(例えば、産業用ロボット)に適用することが可能である。また、上記実施形態では、表示装置が、ユーザの頭部に装着される構成としたが、これに限らず、ユーザの視線の変化に応じて表示される画像がリアルタイムで変更される限り、ユーザに装着されないディスプレイ等を用いることも可能である。また、上記実施形態に示した画像表示システムおよび画像表示方法の各構成要素は、必ずしも全てが必須ではなく、少なくとも本発明の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。
本発明に係る画像表示システムおよび画像表示方法は、特定の実オブジェクト(例えば、ロボット)の周辺に存在する他の実オブジェクトに変化が生じた場合でも、特定の実オブジェクトの未来の動作状況をユーザに容易に認識させることを可能とし、ユーザに対して現実世界の仮想的状況を示す画像を表示する画像表示システムおよび画像表示方法などとして有用である。
1 画像表示システム
2 表示装置
3 動作分析装置
4 表示制御装置
6 ユーザ頭部
7 部屋
9 光学的マーカ
10 ロボット(特定実オブジェクト)
10A 仮想ロボット(特定仮想オブジェクト)
11 画像表示部
12 撮像部
13 姿勢検出部
21 位置検出部
31 3次元データ入力部
32 仮想空間画像生成部
33 画像合成部
41 視線推定部
42 モデリング部
43 レンダリング部
44 ディストーション部
47 左仮想空間画像
48 右仮想空間画像
50 合成画像
60 くず入れ(他の実オブジェクト)
65 膝部
70 移動軌跡

Claims (6)

  1. ユーザに対して現実世界の仮想的状況を示す画像を表示する画像表示システムであって、
    前記ユーザの視線を推定する視線推定部と、
    少なくとも1つの実オブジェクトを含む現実空間を、前記実オブジェクトに対応する少なくとも1つの仮想オブジェクトを含む仮想空間として再現するための3次元データが入力される3次元データ入力部と、
    前記推定された視線に基づく前記現実空間の風景に対応する前記仮想空間の風景を含む仮想空間画像を、前記3次元データから生成する仮想空間画像生成部と、
    前記仮想空間画像を、前記現実空間において前記ユーザの視界に入る前記風景または当該風景を撮像した撮像画像と重ね合わせた合成画像を生成する画像合成部と、
    前記合成画像を前記ユーザに対して表示する表示部と
    を備え、
    前記仮想空間画像生成部は、前記仮想オブジェクトに含まれる特定仮想オブジェクトに対して予め定められた動作を設定し、当該動作に基づく前記特定仮想オブジェクトの変化を示す前記仮想空間画像を生成することを特徴とする画像表示システム。
  2. 前記予め定められた動作は、前記実オブジェクトに含まれる特定の実オブジェクトと前記特定仮想オブジェクトとが同じ状態にある現在から開始され、仮想的に所定時間が経過するまでの動作であることを特徴とする請求項1に記載の画像表示システム。
  3. 前記撮像画像を撮像する撮像部を更に備え、
    前記撮像部は、前記表示部と一体的に前記ユーザの頭部に装着可能な装置からなり、
    前記合成画像は、前記撮像部によって撮像された前記撮像画像と前記仮想空間画像とを重ね合わせることにより生成されたことを特徴とする請求項1または請求項2に記載の画像表示システム。
  4. 前記ユーザの頭部の位置を検出する位置検出部と前記ユーザの頭部の姿勢を検出する姿勢検出部とを更に備え、
    前記視線推定部は、前記検出された頭部の位置及び姿勢に基づき、前記ユーザの視線を推定することを特徴とする請求項1から請求項3のいずれかに記載の画像表示システム。
  5. 前記仮想空間画像には、前記特定仮想オブジェクトの前記動作に基づく移動軌跡が含まれることを特徴とする請求項1から請求項4のいずれかに記載の画像表示システム。
  6. ユーザに対して現実世界の仮想的状況を示す画像を表示する画像表示方法であって、
    前記ユーザの視線を推定する視線推定ステップと、
    少なくとも1つの実オブジェクトを含む現実空間を、前記実オブジェクトに対応する少なくとも1つの仮想オブジェクトを含む仮想空間として再現するための3次元データが入力される3次元データ入力ステップと、
    前記推定された視線に基づく前記現実空間の風景に対応する前記仮想空間の風景を含む仮想空間画像を、前記3次元データから生成する仮想空間画像生成ステップと、
    前記仮想空間画像を、前記現実空間において前記ユーザの視界に入る前記風景または当該風景を撮像した撮像画像と重ね合わせた合成画像を生成する画像合成ステップと、
    前記合成画像を前記ユーザに対して表示する表示ステップと
    を有し、
    前記仮想空間画像生成ステップでは、前記仮想オブジェクトに含まれる特定仮想オブジェクトに対して予め定められた動作を設定し、当該動作に基づく前記特定仮想オブジェクトの変化を示す前記仮想空間画像を生成することを特徴とする画像表示方法。
JP2015099636A 2015-05-15 2015-05-15 画像表示システムおよび画像表示方法 Active JP6598191B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015099636A JP6598191B2 (ja) 2015-05-15 2015-05-15 画像表示システムおよび画像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015099636A JP6598191B2 (ja) 2015-05-15 2015-05-15 画像表示システムおよび画像表示方法

Publications (2)

Publication Number Publication Date
JP2016218534A true JP2016218534A (ja) 2016-12-22
JP6598191B2 JP6598191B2 (ja) 2019-10-30

Family

ID=57581067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015099636A Active JP6598191B2 (ja) 2015-05-15 2015-05-15 画像表示システムおよび画像表示方法

Country Status (1)

Country Link
JP (1) JP6598191B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6257827B1 (ja) * 2017-06-01 2018-01-10 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置
JP2019008473A (ja) * 2017-06-22 2019-01-17 ファナック株式会社 複合現実シミュレーション装置及び複合現実シミュレーションプログラム
WO2019044766A1 (ja) * 2017-08-31 2019-03-07 川崎重工業株式会社 ロボットシステム及びその運転方法
CN110060354A (zh) * 2019-04-19 2019-07-26 苏州梦想人软件科技有限公司 真实图像在虚拟空间中的定位和交互方法
CN111316334A (zh) * 2017-11-03 2020-06-19 三星电子株式会社 用于动态地改变虚拟现实环境的设备和方法
JP2021005215A (ja) * 2019-06-26 2021-01-14 トヨタ紡織株式会社 興味推定システム
WO2023127096A1 (ja) * 2021-12-28 2023-07-06 川崎重工業株式会社 シミュレーションシステム、シミュレーション方法及びシミュレーションプログラム
WO2024024037A1 (ja) * 2022-07-28 2024-02-01 楽天モバイル株式会社 拡張現実画像を生成するための画像処理

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149712A (ja) * 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
US20150091780A1 (en) * 2013-10-02 2015-04-02 Philip Scott Lyren Wearable Electronic Device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149712A (ja) * 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
US20150091780A1 (en) * 2013-10-02 2015-04-02 Philip Scott Lyren Wearable Electronic Device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6257827B1 (ja) * 2017-06-01 2018-01-10 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置
JP2018205951A (ja) * 2017-06-01 2018-12-27 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置
JP2019008473A (ja) * 2017-06-22 2019-01-17 ファナック株式会社 複合現実シミュレーション装置及び複合現実シミュレーションプログラム
US11370105B2 (en) 2017-08-31 2022-06-28 Kawasaki Jukogyo Kabushiki Kaisha Robot system and method for operating same
JP2019042843A (ja) * 2017-08-31 2019-03-22 川崎重工業株式会社 ロボットシステム及びその運転方法
JP7066357B2 (ja) 2017-08-31 2022-05-13 川崎重工業株式会社 ロボットシステム及びその運転方法
WO2019044766A1 (ja) * 2017-08-31 2019-03-07 川崎重工業株式会社 ロボットシステム及びその運転方法
CN111316334A (zh) * 2017-11-03 2020-06-19 三星电子株式会社 用于动态地改变虚拟现实环境的设备和方法
CN111316334B (zh) * 2017-11-03 2024-03-08 三星电子株式会社 用于动态地改变虚拟现实环境的设备和方法
CN110060354A (zh) * 2019-04-19 2019-07-26 苏州梦想人软件科技有限公司 真实图像在虚拟空间中的定位和交互方法
CN110060354B (zh) * 2019-04-19 2023-08-04 苏州梦想人软件科技有限公司 真实图像在虚拟空间中的定位和交互方法
JP2021005215A (ja) * 2019-06-26 2021-01-14 トヨタ紡織株式会社 興味推定システム
JP7247784B2 (ja) 2019-06-26 2023-03-29 トヨタ紡織株式会社 興味推定システム
WO2023127096A1 (ja) * 2021-12-28 2023-07-06 川崎重工業株式会社 シミュレーションシステム、シミュレーション方法及びシミュレーションプログラム
WO2024024037A1 (ja) * 2022-07-28 2024-02-01 楽天モバイル株式会社 拡張現実画像を生成するための画像処理

Also Published As

Publication number Publication date
JP6598191B2 (ja) 2019-10-30

Similar Documents

Publication Publication Date Title
JP6598191B2 (ja) 画像表示システムおよび画像表示方法
US11220002B2 (en) Robot simulation device
US10076840B2 (en) Information processing apparatus, information processing method, and program
US10600253B2 (en) Information processing apparatus, information processing method, and program
Eswaran et al. Augmented reality-based guidance in product assembly and maintenance/repair perspective: A state of the art review on challenges and opportunities
JP6723738B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6558839B2 (ja) 媒介現実
WO2018111658A1 (en) Interacting with an environment using a parent device and at least one companion device
CA2951087C (en) Collision detection
JP2013061937A (ja) ステレオカメラ及びステレオディスプレイを組み合わせたやり取り
JP2017104944A (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP2004213673A (ja) 強化現実システム及び方法
JP6863927B2 (ja) ロボットのシミュレーション装置
JP5857946B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN111716365B (zh) 基于自然行走的沉浸式远程交互系统及方法
JP2015229234A (ja) 作業ロボットの教示データ生成装置及び教示データ生成方法
JP2023511617A (ja) 製造又は産業環境における協調ロボットとの相互作用のために仮想/拡張現実を使用するためのシステム及び方法
JPWO2019225548A1 (ja) 遠隔操作システム、情報処理方法、及びプログラム
JP2021065971A (ja) ロボット教示システム、画像生成方法、及びプログラム
JP4689344B2 (ja) 情報処理方法、情報処理装置
WO2021033400A1 (ja) 情報処理装置、情報処理方法および記録媒体
JP2019101476A (ja) 操作案内システム
JPWO2022124398A5 (ja)
Pyo et al. Immersive VR interface for informationally structured environment
JP2018077732A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190925

R150 Certificate of patent or registration of utility model

Ref document number: 6598191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250