JP6084728B1 - 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム - Google Patents

表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム Download PDF

Info

Publication number
JP6084728B1
JP6084728B1 JP2016078176A JP2016078176A JP6084728B1 JP 6084728 B1 JP6084728 B1 JP 6084728B1 JP 2016078176 A JP2016078176 A JP 2016078176A JP 2016078176 A JP2016078176 A JP 2016078176A JP 6084728 B1 JP6084728 B1 JP 6084728B1
Authority
JP
Japan
Prior art keywords
image data
visual field
image
telop
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016078176A
Other languages
English (en)
Other versions
JP2017187715A (ja
Inventor
英太 菊地
英太 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016078176A priority Critical patent/JP6084728B1/ja
Application granted granted Critical
Publication of JP6084728B1 publication Critical patent/JP6084728B1/ja
Priority to PCT/JP2017/014004 priority patent/WO2017175738A1/ja
Priority to CN201780008767.0A priority patent/CN108604438B/zh
Priority to US15/481,593 priority patent/US10477198B2/en
Publication of JP2017187715A publication Critical patent/JP2017187715A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Abstract

【課題】ユーザの視線方向の変化に依らずに、テロップ画像をユーザの視野内に表示させることが可能な表示制御方法を提供する。【解決手段】表示制御方法は、(a)ユーザの視線方向と360度空間画像データに基づいて、視野画像を示す視野画像データを生成するステップと、(b)テロップ画像を示すテロップ画像データを受信するステップと、(c)前記視野画像データと前記テロップ画像データに基づいて、前記視野画像と前記テロップ画像を合成した合成画像をHMD27に表示するステップと、を含む。ステップ(c)では、前記ユーザの視線方向の変化に依らずに、前記テロップ画像が前記視野画像内の所定位置に表示されるように、前記合成画像をHMD27に表示する。【選択図】図4

Description

本開示は、表示制御方法および当該表示制御方向をコンピュータに実行させるためのプログラムに関する。
ユーザの頭部に装着され、仮想現実(VR:Virtual Reality)空間や拡張現実(AR:Augmented Reality)空間等の仮想空間として仮想空間画像を表示可能なヘッドマウントディスプレイ(HMD:Head Mounted‐Display)が知られている。特許文献1では、HMDに表示された仮想オブジェクトがユーザにより一定期間注視されることで、注視された仮想オブジェクトに関するアノテーション情報が表示されることが開示されている。
特開2005−038008号公報
しかしながら、特許文献1の開示では、HMDの動きに伴い、当該アノテーション情報が一旦ユーザの視野内から外れてしまうと、ユーザは、当該アノテーション情報を視認することができない。
本開示は、ユーザの視線方向の変化に依らずに、テロップ画像をユーザの視野内に表示させることが可能な表示制御方法を提供することを目的とする。また、本開示は、当該表示制御方法をコンピュータに実行させるためのプログラムを提供することを目的とする。
本開示の一態様に係る表示制御方法は、
(a)ユーザの視線方向と360度空間画像データに基づいて、視野画像を示す視野画像データを生成するステップと、
(b)テロップ画像を示すテロップ画像データを受信するステップと、
(c)前記視野画像データと前記テロップ画像データに基づいて、前記視野画像と前記テロップ画像を合成した合成画像をヘッドマウントディスプレイに表示するステップと、を含む。
前記ステップ(c)では、前記ユーザの視線方向の変化に依らずに、前記テロップ画像が前記視野画像内の所定位置に表示されるように、前記合成画像を前記ヘッドマウントディスプレイに表示する。
本開示によれば、ユーザの視線方向の変化に依らずに、テロップ画像をユーザの視野内に表示させることが可能な表示制御方法を提供することができる。
映像コンテンツ配信システムの概要図である。 ユーザ端末とコンテンツサーバのハードウェア構成の一例を示す図である。 視野画像と、テロップ画像と、合成画像の一例を示す図である。 第1実施形態に係る表示制御方法を説明するためのフローチャートであって、(a)は、コンテンツサーバが視野画像データをユーザ端末に配信する場合における上記フローチャートである。(b)は、コンテンツサーバが360度空間画像データをユーザ端末に配信する場合における上記フローチャートである。 第1実施形態に係る表示制御方法を説明するためのタイミングチャートである。 第2実施形態に係る表示制御方法を説明するためのフローチャートであって、(a)は、コンテンツサーバが視野画像データをユーザ端末に配信する場合における上記フローチャートである。(b)は、コンテンツサーバが360度空間画像データをユーザ端末に配信する場合における上記フローチャートである。 第2実施形態に係る表示制御方法を説明するためのタイミングチャートである。
[本開示に係る実施形態の説明]
本開示に係る実施形態の概要を説明する。
(1)(a)ユーザの視線方向と360度空間画像データに基づいて、視野画像を示す視野画像データを生成するステップと、
(b)テロップ画像を示すテロップ画像データを受信するステップと、
(c)前記視野画像データと前記テロップ画像データに基づいて、前記視野画像と前記テロップ画像を合成した合成画像をヘッドマウントディスプレイに表示するステップと、を含み、
前記ステップ(c)では、前記ユーザの視線方向の変化に依らずに、前記テロップ画像が前記視野画像内の所定位置に表示されるように、前記合成画像を前記ヘッドマウントディスプレイに表示する、表示制御方法。
上記方法によれば、ユーザの視線方向の変化に依らずに、テロップ画像が視野画像内の所定位置に表示されるように、合成画像がヘッドマウントディスプレイに表示される。このように、ユーザの視線方向の変化に依らずに、テロップ画像をユーザの視野内に表示させることが可能な表示制御方法を提供することができる。
(2)(d)サーバから前記360度空間画像データを受信するステップをさらに含み、
前記ステップ(a)では、ユーザ端末によって前記視野画像データが生成される、項目(1)に記載の表示制御方法。
上記方法によれば、ユーザ端末によって視野画像データが生成されるので、ユーザの視線方向が変化する度に、視野画像データをサーバから受信する必要がない。このように、ユーザの視線方向が頻繁に変化する場合に、本方法は有利である。
(3)前記ステップ(a)では、サーバによって前記視野画像データを生成し、
前記表示制御方法は、
(e)前記サーバから前記視野画像データを受信するステップをさらに含む、項目(1)に記載の表示制御方法。
上記方法によれば、データ量が多い360度空間画像データではなく視野画像データがサーバから送信されるので、サーバとユーザ端末間における通信負荷を低減させることができる。
(4)前記ステップ(c)では、前記視野画像の再生開始時刻と前記テロップ画像の再生開始時刻とを同期させることで、前記合成画像を前記ヘッドマウントディスプレイに表示する、項目(1)から(3)のうちいずれか一項に記載の表示制御方法。
上記方法によれば、視野画像データの再生開始時刻とテロップ画像データの再生開始時刻とを同期させることで、合成画像がヘッドマウントディスプレイに表示される。このように、比較的簡単な原理により視野画像内にテロップ画像を表示させることが可能となる。
(5)前記ステップ(a)は、前記ステップ(b)の後に行われ、
前記ステップ(b)では、
前記テロップ画像データをまとめて受信し、
前記ステップ(b)では、前記テロップ画像を前記視野画像内に表示するタイミングを示すタイミング情報を受信し、
前記ステップ(c)では、前記タイミング情報と、前記視野画像データと、前記テロップ画像データとに基づいて、前記合成画像を前記ヘッドマウントディスプレイに表示する、項目(1)から(3)のうちいずれか一項に記載の表示制御方法。
上記方法によれば、タイミング情報と、視野画像データと、テロップ画像データとに基づいて、合成画像が表示部に表示される。このように、適切なタイミングで視野画像内にテロップ画像を容易に表示させることが可能となる。
(6)前記ステップ(b)では、時間分割された前記視野画像データまたは前記360度空間画像データの各々の受信を開始する時刻を示すスケジュール情報を受信し、
前記表示制御方法は、
(d)前記スケジュール情報に基づいて、サーバから前記360度空間画像データを受信するステップ、又は、
(e)前記スケジュール情報に基づいて、前記サーバから前記視野画像データを受信するステップをさらに含み、
前記ステップ(c)では、前記タイミング情報と、前記スケジュール情報と、前記視野画像データと、前記テロップ画像データとに基づいて、前記合成画像を前記ヘッドマウントディスプレイに表示する、項目(5)に記載の表示制御方法。
上記方法によれば、スケジュール情報に基づいて、視野画像データまたは360度空間画像データが受信され、タイミング情報と、スケジュール情報と、視野画像データと、テロップ画像データとに基づいて、合成画像がヘッドマウントディスプレイに表示される。これにより、適切なタイミングで視野画像内にテロップ画像を容易に表示させることが可能となる。
(7)項目(1)から(6)のうちいずれか一項に記載の表示制御方法をコンピュータに実行させるためのプログラム。
上記によれば、ユーザの視線方向の変化に依らずに、テロップ画像をユーザの視野内に表示させることが可能なプログラムを提供することができる。
[本開示の実施形態の詳細]
以下、本開示の実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
図1は、映像コンテンツ配信システム100を示す構成図である。図1に示すように、映像コンテンツ配信システム100は、映像コンテンツを視聴可能な複数のユーザ端末2と、コンテンツサーバ3とを備える。ユーザ端末2とコンテンツサーバ3は、LAN(Local Area Network)、WAN(Wide Area Network)又インターネット等の通信ネットワーク1を介して互いに通信可能に接続されている。図1では、説明を簡略化するために、1つのユーザ端末2とコンテンツサーバ3が図示されているが、複数のユーザ端末2と複数のコンテンツサーバ3が通信ネットワーク1に接続されていてもよい。
次に、図2を参照してユーザ端末2とコンテンツサーバ3のハードウェア構成について説明する。最初に、ユーザ端末2のハードウェア構成について説明する。図2に示すように、ユーザ端末2は、制御装置21と、入力操作部28と、ヘッドマウントディスプレイ(HMD)27と、センサ29とを備える。制御装置21は、通信バス20と、制御部22と、記憶部23と、I/O(Input/Output)インターフェース24と、通信インターフェース26とを備える。制御部22と、記憶部23と、I/Oインターフェース24と、通信インターフェース26は、通信バス20により互いに通信可能に接続されている。制御装置21は、例えば、パーソナルコンピュータ、スマートフォン、タブレットまたはウェアラブルデバイスである。
制御部22は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラムが格納されたROM(Read Only Memory)及びプロセッサにより実行される各種プログラムやデータが格納される複数のワークエリアを有するRAM(Random Access Memory)等から構成される。RAMは、HMD27に表示される視野画像に対応する視野画像データが格納されるVRAMを含む。プロセッサは、CPU(central processing unit)、MPU(Micro−Processing Unit)及び/又はGPU(Graphics Processing Unit)から構成される。
記憶部(ストレージ)23は、各種プログラムや映像データ等を格納するように構成されており、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USB(Universal Serial Bus)フラッシュメモリ等により構成されている。I/Oインターフェース24は、入力操作部28と、HMD27と、センサ29をそれぞれ制御装置21に通信可能に接続するように構成されており、例えば、USB端子、HDMI(登録商標)(High―Definition Multimedia Interface)等により構成されている。
通信インターフェース26は、ユーザ端末2を通信ネットワーク1に接続させるように構成されている。通信インターフェース26は、通信ネットワーク1を介して外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク1を介して通信するための通信規格に適合するように構成されている。
入力操作部28は、ユーザ端末2に対するユーザからの入力操作を受付けると共に、当該入力操作に応じて、ユーザの入力操作を示す操作信号を生成するように構成されている。入力操作部28は、例えば、タッチパネル、外部コントローラ、マウス、キーボード等である。HMD27は、視野画像データに基づいて視野画像を表示するように構成されている。特に、HMD27は、左目用の視野画像データと右目用の視野画像データとに基づいて、左目用の視野画像と右目用の視野画像を表示することで、両目の視差を利用した3次元画像をバーチャルリアリティ(VR)画像としてユーザに提供することができる。
センサ29は、HMD27のXYZ方向への移動、および、XYZ軸周りの回転を検知することにより、HMD27を装着しているユーザの動きを検出する。これにより、ユーザの頭の動きによる視線の変化が検出される。センサ29は、HMD27に設けられた地磁気センサ、加速度センサ及び/又はジャイロセンサにより構成されていてもよいし、HMD27に設けられた複数の発光点を検知するように構成された外部カメラ等の位置センサであってもよい。
次に、コンテンツサーバ3のハードウェア構成についてそれぞれ説明する。コンテンツサーバ3は、通信バス30と、制御部32と、記憶部33と、通信インターフェース36とを備える。制御部32と、記憶部33と、通信インターフェース36は、通信バス30を介して互いに通信可能に接続されている。制御部32は、メモリとプロセッサを備えており、メモリは、例えば、ROM及びRAM等から構成されるとともに、プロセッサは、例えば、CPU、MPU及び/又はGPUにより構成される。
記憶部(ストレージ)33は、各種プログラムや360度空間画像データ等を格納するように構成されており、大容量のHDD等である。360度空間画像データは、例えば、コンサート会場等に設置された360度カメラによって生成される。通信インターフェース36は、コンテンツサーバ3を通信ネットワーク1に接続させるように構成されている。
次に、図3を参照することで、視野画像とテロップ画像とを合成することで得られる合成画像の一例について説明する。図3は、視野画像と、テロップ画像と、合成画像の一例を示す図である。尚、本明細書で説明される「画像」とは、時間軸上で連続的に静止画像を切替えることで得られる動画像(映像)を含む点に留意されたい。例えば、合成画像は、所定のフレームレートでHMD27に表示される。
視野画像とは、ユーザの視点を中心とした360度空間画像のうちユーザの視野内に表示されるバーチャルリアリティ(VR)画像である。つまり、視野画像とは、ユーザの視点を中心とした360度空間画像の一部であって、ユーザの視野によって規定される。また、ユーザの視野は、ユーザの視線方向によって規定される。つまり、ユーザの視線方向が決定されると、ユーザの視野が決定されて、視野画像が決定される。同様に、ユーザの視線方向が変更されると、ユーザの視野が変更されるので、視野画像が変更される。さらに詳しく言えば、ユーザの視線方向が変更されると、360度空間画像を表示する仮想空間中に配置された仮想カメラの視軸が変更され、仮想カメラの視野が変更される。視野画像は、360度空間画像と仮想カメラの視野に基づいて生成されるので、仮想カメラの視野が変更されると、視野画像が変更される。このように、視野画像は、ユーザの視線方向の変化に連動する。また、視野画像の種類としては、例えば、コンサート映像や、サッカー、野球、相撲、格闘技、テニス等のスポーツ映像や、歌舞伎、能楽、ミュージカル等の舞台映像が挙げられる。
テロップ画像とは、テキスト(文字)と、画像(映像)と、図形のうちの少なくとも一つを含むものであって、何らかの情報(アーティスト情報、野球やサッカー等のスポーツ情報、時間情報、字幕情報、ニュース情報、ワイプ等)を示す。図3に示すように、テロップ画像の表示領域は、視野画像の表示領域よりも小さい。テロップ画像は、HMD27に表示される視野画像内の所定位置(例えば、視野画像の四隅の近辺)に表示されてもよい。また、テロップ画像は、エンドロールのようにHMD27に表示された視野画像内を上下方向に移動してもよく、視野画像の表示領域を全て遮らない限りにおいて、その表示形態は特に限定されるものではない。また、テロップ画像は、上記で説明した視野画像とは異なり、ユーザの視線方向の変化には連動しない。
(第1実施形態)
次に、図4及び図5を参照することで第1実施形態に係る表示制御方法について以下に説明する。図4は、第1実施形態に係る表示制御方法を説明するためのフローチャートである。特に、図4(a)は、コンテンツサーバ3(以下、単にサーバ3という。)が視野画像データをユーザ端末2にストリーミング形式で配信する場合におけるフローチャートである。図4(b)は、サーバ3が360度空間画像データをユーザ端末2にストリーミング形式で配信する場合におけるフローチャートである。
最初に、サーバ3が視野画像データをユーザ端末2にストリーミング形式で配信する場合における第1実施形態に係る表示制御方法について説明する。図4(a)に示すように、ステップS10において、ユーザ端末2の制御部22は、入力操作部28に対するユーザ入力により生成された操作信号に従って、視野画像データV1とテロップ画像データTR1の配信要求を示す配信要求信号を生成し、当該生成された配信要求信号を通信インターフェース26と通信ネットワーク1を介してサーバ3に送信する。ここで、図5に示すように、視野画像データV1は、全体の視野画像データのうちの第1期間に相当する時間分割された視野画像データである。テロップ画像データTR1は、全体のテロップ画像のうちの第1期間に相当する時間分割されたテロップ画像である。このように、サーバ3は、時間分割された視野画像データとテロップ画像データをストリーミング形式で配信する。また、制御部22は、配信要求信号と共に、ユーザ端末2を使用するユーザのID情報と、ユーザ端末2のアドレス情報(IPアドレス)と、ユーザの視線方向を示す視線方向情報と、サーバ3のアドレス情報(IPアドレス)をサーバ3に送信する。
ここで、視線方向情報の生成について説明する。最初に、センサ29がHMD27の動きを検出して、HMD27の動きを示すデータを制御部22に送信する。次に、制御部22は、センサ29から送信されたデータに基づいて、HMD27の動き(位置や傾き)に関する情報を取得する。その後、制御部22は、当該取得された情報に基づいて、ユーザの視線方向を示す視線方向情報を生成する。このように、視線方向情報は制御部22によって生成される。また、HMD27が動く度に、制御部22は、視線方向情報を更新するように構成されている。
次に、サーバ3の制御部32は、通信インターフェース36を介してユーザ端末2から送信された配信要求信号に従って、テロップ画像データTR1と第1期間に相当する360度空間画像データVS1を記憶部33から読み出す(ステップS11)。次に、制御部32は、360度空間画像データVS1と視線方向情報から、視野画像データV1を生成する(ステップS12)。その後、制御部32は、ユーザ端末2のアドレス情報を参照することで、テロップ画像データTR1と視野画像データV1をユーザ端末2に配信する(ステップS13)。
次に、ユーザ端末2の制御部22は、通信ネットワーク1と通信インターフェース26を介してテロップ画像データTR1と視野画像データV1をサーバ3から受信する(ステップS14)。その後、制御部22は、視野画像データV1とテロップ画像データTR1とに基づいて、視野画像とテロップ画像を合成した合成画像C1をHMD27に表示する(ステップS15)。特に、制御部22は、図5に示すように、視野画像(視野画像データV1)の再生開始時刻とテロップ画像(テロップ画像データTR1)の再生開始時刻とを同期させることで、合成画像C1をHMD27に表示する。ここで、合成画像C1のうちテロップ画像が表示されない期間では、視野画像のみがHMD27に表示される一方、テロップ画像が表示される期間では、視野画像とテロップ画像の両方がHMD27に表示される。次に、合成画像C1がHMD27に表示されている間、制御部22は、第2期間に相当する視野画像データV2と第2期間に相当するテロップ画像データTR2の配信要求を示す配信要求信号を生成し、当該生成された配信要求信号をサーバ3に送信する(ステップS10)。その後、ステップS11〜S14の処理が実行された後、制御部22は、図5に示すように、視野画像(視野画像データV2)の再生開始時刻とテロップ画像(テロップ画像データTR2)の再生開始時刻とを同期させることで、合成画像C2をHMD27に表示する(ステップS15)。このようにして、合成画像C1,C2,C3・・・がHMD27に表示される。
次に、サーバ3が360度空間画像データをユーザ端末2にストリーミング形式で配信する場合における第1実施形態に係る表示制御方法について説明する。図4(b)に示すように、ステップS20において、制御部22は、入力操作部28に対するユーザ入力により生成された操作信号に従って、360度空間画像データVS1とテロップ画像データTR1の配信要求を示す配信要求信号を生成し、当該生成された配信要求信号を通信インターフェース26と通信ネットワーク1を介してサーバ3に送信する。ここで、360度空間画像データVS1は、全体の360度空間画像データのうちの第1期間に相当する時間分割された360度空間画像データであって、視野画像データV1を含む。また、制御部22は、配信要求信号と共に、ユーザのID情報と、ユーザ端末2のアドレス情報と、サーバ3のアドレス情報(IPアドレス)をサーバ3に送信する。
次に、制御部32は、通信インターフェース36を介してユーザ端末2から送信された配信要求信号に従って、テロップ画像データTR1と360度空間画像データVS1を記憶部33から読み出して(ステップS21)、ユーザ端末2のアドレス情報を参照することで、テロップ画像データTR1と360度空間画像データVS1をユーザ端末2に配信する(ステップS22)。
その後、制御部22は、通信ネットワーク1と通信インターフェース26を介してテロップ画像データTR1と360度空間画像データVS1をサーバ3から受信する(ステップS23)。次に、制御部22は、360度空間画像データと視線方向情報に基づいて、視野画像データV1を生成し(ステップS24)、視野画像データV1とテロップ画像データTR1とに基づいて、視野画像とテロップ画像を合成した合成画像C1をHMD27に表示する(ステップS25)。合成画像C1の生成方法は、図4(a)で説明したとおりである。
本実施形態によれば、ユーザの視線方向の変化に依らずに、テロップ画像が視野画像内の所定位置に表示されるように、合成画像がHMD27に表示される。このように、ユーザの視線方向の変化に依らずに、テロップ画像をユーザの視野内に表示させることが可能な表示制御方法を提供することができる。特に、視野画像データは、視線方向情報と360度空間画像データに基づいて生成されるので、HMD27が動く度に、視線方向情報が更新されることで視野画像データが更新される。一方、テロップ画像は視線方向情報に依存せずに視野画像内の所定位置に表示される。
また、本実施形態によれば、視野画像データの再生開始時刻とテロップ画像の再生開始時刻とを同期させることで、合成画像がHMD27に表示されるので、比較的簡単な原理により視野画像内にテロップ画像を表示させることが可能となる。
さらに、図4(a)に示す表示制御方法では、サーバ3がデータ量が多い360度空間画像データではなく視野画像データをユーザ端末2に配信するので、サーバ3とユーザ端末2間における通信負荷を低減させることができる。
また、図4(b)に示す表示制御方法では、ユーザ端末2によって視野画像データが生成されるので、ユーザの視線方向が変化する度に視野画像データをサーバ3から受信する必要がない。このように、ユーザの視線方向が頻繁に変化する場合に、図4(b)に示す方法は有利である。
(第2実施形態)
次に、図6及び図7を参照することで第2実施形態に係る表示制御方法について以下に説明する。図6は、第2実施形態に係る表示制御方法を説明するためのフローチャートである。図6(a)は、サーバ3が視野画像データをユーザ端末2にストリーミング形式で配信する場合におけるフローチャートである。図6(b)は、サーバ3が360度空間画像データをユーザ端末2にストリーミング形式で配信する場合におけるフローチャートである。図7は、第2実施形態に係る表示制御方法を説明するためのタイミングチャートである。
最初に、サーバ3が視野画像データをユーザ端末2にストリーミング形式で配信する場合における第2実施形態に係る表示制御方法について説明する。図6(a)に示すように、ステップS30において、制御部22は、入力操作部28に対するユーザ入力により生成された操作信号に従って、全てのテロップ画像データと、タイミング情報と、スケジュール情報の配信要求を示す配信要求信号を生成して、当該生成された配信要求信号を通信インターフェース26と通信ネットワーク1を介してサーバ3に送信する。ここで、全てのテロップ画像データとは、映像コンテンツを視聴する際に取得される全てのテロップ画像データをいう。また、テロップ画像は、ユーザの視点を中心とした360度空間テロップ画像データであってもよい。タイミング情報は、テロップ画像を視野画像内に表示するタイミングを示しており、例えば、図7に示すように、テロップ画像データTR1,TR2,TR3の表示を開始する開始時刻t1,t3,t5やテロップ画像データTR1,TR2,TR3の表示を終了する終了時刻t2、t4,t6等に関する情報を含む。ここで、テロップ画像データTR1と第1期間に相当する視野画像データV1を合成することで合成画像C1が生成され、テロップ画像データTR2と第2期間に相当する視野画像データV2を合成することで合成画像C2が生成され、テロップ画像TR3と第3期間に相当する視野画像データV3を合成することで合成画像C3が生成される。
スケジュール情報は、時間分割された視野画像データV1,V2,V3・・・の各々の受信を開始する時刻を示す。また、制御部22は、配信要求信号と共に、ユーザ端末2を使用するユーザのID情報と、ユーザ端末2のアドレス情報(IPアドレス)と、ユーザの視線方向を示す視線方向情報と、サーバ3のアドレス情報(IPアドレス)をサーバ3に送信する。
次に、制御部32は、通信インターフェース36を介してユーザ端末2から送信された配信要求信号に従って、全てのテロップ画像データと、タイミング情報と、スケジュール情報を記憶部33から読み出す(ステップS31)。その後、制御部32は、ユーザ端末2のアドレス情報を参照することで、全てのテロップ画像データと、タイミング情報と、スケジュール情報をユーザ端末2に配信する(ステップS32)。
次に、制御部22は、通信ネットワーク1と通信インターフェース26を介してテロップ画像データと、タイミング情報と、スケジュール情報を受信する(ステップS33)。その後、制御部22は、テロップ画像データを時間解析する(ステップS34)。例えば、制御部22は、テロップ画像データを時間解析することで、テロップ画像データの各静止画像(各フレーム)が表示される表示時刻を取得してもよい。また、サーバ3から受信したテロップ画像データが360度空間テロップ画像データである場合、制御部22は、受信した360度空間テロップ画像データと仮想カメラによって規定される所定の視野に基づいて、テロップ視野画像データを生成してもよい。ここで、仮想カメラは、360度空間テロップ画像を表示する仮想空間中に配置されており、当該仮想カメラの所定の視野は、ユーザの視線方向の変化に連動せず、予め決定されている。
次に、制御部22は、送信されたスケジュール情報を参照することで、第1期間に相当する視野画像データV1の配信要求を示す配信要求信号を生成して、当該生成された配信要求信号をサーバ3に送信する(ステップS35)。その後、制御部32は、通信インターフェース36を介してユーザ端末2から送信された配信要求信号に従って、第1期間に相当する360度空間画像データVS1を記憶部33から読み出す(ステップS36)。次に、制御部32は、360度空間画像データVS1と視線方向情報から、視野画像データV1を生成して(ステップS37)、ユーザ端末2のアドレス情報を参照することで、視野画像データV1をユーザ端末2に配信する(ステップS38)。
次に、制御部22は、通信ネットワーク1と通信インターフェース26を介して視野画像データV1をサーバ3から受信する(ステップS39)。ステップS40において、制御部22は、再生時刻が時刻t1となるまでは、視野画像データV1に基づいて、視野画像をHMD27に表示する。その後、制御部22は、時刻t1〜t2の間に、タイミング情報と、視野画像データV1と、テロップ画像TR1に基づいて、視野画像とテロップ画像を合成した合成画像C1をHMD27に表示する。その後、再生時刻が時刻t2を経過した後に、制御部22は、視野画像をHMD27に表示する。
合成画像C1又は視野画像V1がHMD27に表示されている間、制御部22は、第2期間に相当する視野画像データV2の配信要求を示す配信要求信号を生成し、当該生成された配信要求信号をサーバ3に送信する(ステップS35)。その後、ステップS36〜S39の処理が実行された後、制御部22は、視野画像V2または合成画像C2をHMD27に表示する(ステップS40)。このようにして、合成画像C1,C2,C3・・・がHMD27に表示される。
次に、サーバ3が360度空間画像データをユーザ端末2にストリーミング形式で配信する場合における第2実施形態に係る表示制御方法について説明する。ここで、図6(b)に示すステップS50〜S54は、図6(a)に示すステップS30〜S34と略同一であるため、その説明は割愛する。ここで、スケジュール情報は、時間分割された360度空間画像データVS1,VS2,VS3・・・の各々の受信を開始する時刻を示す。
ステップS55において、制御部22は、送信されたスケジュール情報を参照することで、第1期間に相当する360度空間画像データVS1の配信要求を示す配信要求信号を生成して、当該生成された配信要求信号をサーバ3に送信する。その後、制御部32は、通信インターフェース36を介してユーザ端末2から送信された配信要求信号に従って、第1期間に相当する360度空間画像データVS1を記憶部33から読み出し(ステップS56)、ユーザ端末2のアドレス情報を参照することで、360度空間画像データVS1をユーザ端末2に配信する(ステップS57)。
次に、制御部22は、通信ネットワーク1と通信インターフェース26を介して360度空間画像データVS1をサーバ3から受信し(ステップS58)、360度空間画像データVS1と視線方向情報に基づいて、視野画像データV1を生成する(ステップS59)。ステップS59を具体的に説明すると、最初に、制御部22は、視線方向情報に基づいて、360度空間画像を表示する仮想空間中の仮想カメラの視軸を決定する。次に、制御部22は、決定された仮想カメラの視軸に基づいて仮想カメラの視野を決定し、360度空間画像データVS1と、決定された仮想カメラの視野とに基づいて、視野画像データV1を生成する。このように、視野画像データV1は、ユーザの視線方向の変化に連動する。
ステップS60において、制御部22は、再生時刻が時刻t1となるまでは、視野画像データV1に基づいて、視野画像をHMD27に表示する。その後、制御部22は、時刻t1〜t2の間に、タイミング情報と、視野画像データV1と、テロップ画像TR1に基づいて、視野画像とテロップ画像を合成した合成画像C1をHMD27に表示する。その後、再生時刻が時刻t2を経過した後に、制御部22は、視野画像をHMD27に表示する。
合成画像C1又は視野画像V1がHMD27に表示されている間、制御部22は、第2期間に相当する360度空間画像データVS2の配信要求を示す配信要求信号を生成し、当該生成された配信要求信号をサーバ3に送信する(ステップS55)。その後、ステップS56〜S59の処理が実行された後、制御部22は、視野画像V2または合成画像C2をHMD27に表示する(ステップS60)。このようにして、合成画像C1,C2,C3・・・がHMD27に表示される。
本実施形態によれば、ユーザの視線方向の変化に連動する視野画像とユーザの視線方向の変化に連動しないテロップ画像を合成することで、合成画像がHMD27に表示されるので、ユーザの視線方向の変化に依らずに、テロップ画像を視野画像内の所定位置に表示させることができる。
本実施形態によれば、スケジュール情報に基づいて、視野画像データまたは360空間画像データが受信され、タイミング情報と、スケジュール情報と、視野画像データと、テロップ画像データとに基づいて、合成画像がHMD27に表示される。このように、適切なタイミングで視野画像内にテロップ画像を容易に表示させることが可能となる。
また、本実施形態では、スケジュール情報に基づいて、各時間分割された視野画像データ又は360度空間画像データが受信されているが、スケジュール情報なしに各時間分割された視野画像データ又は360度空間画像データが受信されてもよい。
このように本実施形態では、テロップ画像データは、視野画像データ(又は360度空間画像データ)よりもデータ量が比較的小さいため、最初にテロップ画像データの全てがダウンロードされる。そして、視野画像データ(又は360度空間画像データ)がストリーミング形式でダウンロードされる前に、テロップ画像データに対する時間情報の解析を行う。これによって、視野画像データとテロップ画像データの時刻同期を比較的に比較的容易に行うことができる。
制御部22によって実行される各種処理をソフトウェアによって実現するために、本実施形態に係る表示制御方法をコンピュータ(プロセッサ)に実行させるための表示制御プログラムが制御装置21の記憶部23又はROMに予め組み込まれていてもよい。または、表示制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置21に接続されることで、当該記憶媒体に格納された表示制御プログラムが、記憶部23に組み込まれる。そして、記憶部23に組み込まれた表示制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部22は本実施形態に係る表示制御方法を実行する。
また、表示制御プログラムの一部(例えば、視野画像データを生成するプログラム)がコンテンツサーバ3の記憶部33に組み込まれていてもよい。この場合、記憶部33に組み込まれた表示制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部32は本実施形態に係る表示制御方法の一部を実行する。
また、表示制御プログラムは、通信ネットワーク1上のコンピュータから通信インターフェース26を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該プログラムが記憶部23に組み込まれる。また、表示制御プログラムの一部は、通信ネットワーク1上のコンピュータから通信インターフェース36を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該プログラムが記憶部33に組み込まれる。
以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
1:通信ネットワーク
2:ユーザ端末
3:コンテンツサーバ
20:通信バス
21:制御装置
22:制御部
23:記憶部
24:I/Oインターフェース
26:通信インターフェース
27:ヘッドマウントディスプレイ(HMD)
28:入力操作部
29:センサ
30:通信バス
32:制御部
33:記憶部
36:通信インターフェース
100:映像コンテンツ配信システム

Claims (7)

  1. (a)ユーザの視線方向と360度空間画像データに基づいて、視野画像を示す視野画像データを生成するステップと、
    (b)通信ネットワークを介してサーバからテロップ画像を示すテロップ画像データを受信するステップと、
    (c)前記視野画像データと前記テロップ画像データに基づいて、前記視野画像と前記テロップ画像を合成した合成画像をヘッドマウントディスプレイに表示するステップと、
    を含み、
    前記ステップ(c)では、
    前記視野画像の再生開始時刻と前記テロップ画像の再生開始時刻とを同期させることで、前記合成画像が前記ヘッドマウントディスプレイに表示され、
    前記ユーザの視線方向の変化に依らずに、前記テロップ画像が前記視野画像内の所定位置に表示されるように、前記合成画像前記ヘッドマウントディスプレイに表示される、表示制御方法。
  2. (d)前記サーバから前記360度空間画像データを受信するステップをさらに含み、
    前記ステップ(a)では、ユーザ端末によって前記視野画像データが生成される、請求項1に記載の表示制御方法。
  3. 前記ステップ(a)では、前記サーバによって前記視野画像データ生成され
    前記表示制御方法は、
    (e)前記サーバから前記視野画像データを受信するステップをさらに含む、請求項1に記載の表示制御方法。
  4. (a)ユーザの視線方向と360度空間画像データに基づいて、視野画像を示す視野画像データを生成するステップと、
    (b)テロップ画像を示すテロップ画像データと、前記テロップ画像を前記視野画像内に表示するタイミングを示すタイミング情報と、時間分割された前記視野画像データまたは時間分割された前記360度空間画像データの各々の受信を開始する時刻を示すスケジュール情報とを受信するステップと、
    (c)前記タイミング情報と、前記スケジュール情報と、前記視野画像データと、前記テロップ画像データとに基づいて、前記視野画像と前記テロップ画像を合成した合成画像をヘッドマウントディスプレイに表示するステップと、
    を含む表示制御方法であって、
    前記ステップ(a)は、前記ステップ(b)の後に行われ、
    前記ステップ(b)では、前記テロップ画像データがまとめて受信され、
    前記ステップ(c)では、前記ユーザの視線方向の変化に依らずに、前記テロップ画像が前記視野画像内の所定位置に表示されるように、前記合成画像が前記ヘッドマウントディスプレイに表示され、
    前記表示制御方法は、
    (d)前記スケジュール情報に基づいて、サーバから前記時間分割された360度空間画像データを受信するステップ、又は、
    (e)前記スケジュール情報に基づいて、前記サーバから前記時間分割された視野画像データを受信するステップを
    さらに含む、表示制御方法。
  5. 前記表示制御方法は、
    (d)前記スケジュール情報に基づいて、前記サーバから前記時間分割された360度空間画像データを受信するステップをさらに含み、
    前記ステップ(a)では、ユーザ端末によって前記視野画像データが生成される、請求項4に記載の表示制御方法。
  6. 前記ステップ(a)では、前記サーバによって前記視野画像データが生成され、
    前記表示制御方法は、
    (e)前記スケジュール情報に基づいて、前記サーバから前記時間分割された視野画像データを受信するステップをさらに含む、請求項4に記載の表示制御方法。
  7. 請求項1から6のうちいずれか一項に記載の表示制御方法をコンピュータに実行させるためのプログラム。
JP2016078176A 2016-04-08 2016-04-08 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム Active JP6084728B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016078176A JP6084728B1 (ja) 2016-04-08 2016-04-08 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム
PCT/JP2017/014004 WO2017175738A1 (ja) 2016-04-08 2017-04-03 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム
CN201780008767.0A CN108604438B (zh) 2016-04-08 2017-04-03 显示控制方法以及用于使计算机实施该显示控制方法的程序
US15/481,593 US10477198B2 (en) 2016-04-08 2017-04-07 Display control method and system for executing the display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016078176A JP6084728B1 (ja) 2016-04-08 2016-04-08 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム

Publications (2)

Publication Number Publication Date
JP6084728B1 true JP6084728B1 (ja) 2017-02-22
JP2017187715A JP2017187715A (ja) 2017-10-12

Family

ID=58095228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016078176A Active JP6084728B1 (ja) 2016-04-08 2016-04-08 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム

Country Status (4)

Country Link
US (1) US10477198B2 (ja)
JP (1) JP6084728B1 (ja)
CN (1) CN108604438B (ja)
WO (1) WO2017175738A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018182321A1 (en) * 2017-03-31 2018-10-04 Samsung Electronics Co., Ltd. Method and apparatus for rendering timed text and graphics in virtual reality video
US10978072B2 (en) 2017-09-20 2021-04-13 Kabushiki Kaisha Toshiba Display control system, display control method, and computer program product using display sectors in one revolution of clockwise or counterclockwise direction

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10539797B2 (en) * 2016-05-06 2020-01-21 Colopl, Inc. Method of providing virtual space, program therefor, and recording medium
JP6974228B2 (ja) * 2018-03-23 2021-12-01 株式会社三共 遊技機
JP7174941B2 (ja) 2018-04-11 2022-11-18 アルカクルーズ インク デジタルメディアシステム
JP7153522B2 (ja) * 2018-10-11 2022-10-14 日本放送協会 字幕表示装置及びそのプログラム
JP7398222B2 (ja) * 2019-08-23 2023-12-14 株式会社コロプラ プログラム、情報処理装置、及び情報処理方法
CN114900625A (zh) * 2022-05-20 2022-08-12 北京字跳网络技术有限公司 虚拟现实空间的字幕渲染方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785316A (ja) * 1993-08-31 1995-03-31 Sun Microsyst Inc コンピュータによって生成された情報を表示する方法およびコンピュータによって生成されたモデルを表示する装置
JP2009294372A (ja) * 2008-06-04 2009-12-17 Nikon Corp ヘッドマウントディスプレイ装置
JP2011101196A (ja) * 2009-11-06 2011-05-19 Nikon Corp コンテンツ再生システム
JP2012048597A (ja) * 2010-08-30 2012-03-08 Univ Of Tokyo 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム
JP2012205191A (ja) * 2011-03-28 2012-10-22 Nippon Telegr & Teleph Corp <Ntt> 映像付加情報表示制御装置およびその動作方法
JP2014017776A (ja) * 2012-07-11 2014-01-30 Sony Computer Entertainment Inc 画像生成装置および画像生成方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0724141A (ja) * 1993-07-12 1995-01-27 Namco Ltd 頭部装着体を用いたゲーム装置
JP2005038008A (ja) 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP4760892B2 (ja) 2008-10-10 2011-08-31 ソニー株式会社 表示制御装置、表示制御方法及びプログラム
US8272611B2 (en) * 2009-11-01 2012-09-25 Sports Solutions, Inc. Bracket with locking mechanism for fluid dispenser
JP6249202B2 (ja) * 2013-05-10 2017-12-20 ソニー株式会社 画像表示装置、画像表示方法、およびプログラム
US20170023793A1 (en) * 2015-03-16 2017-01-26 RaayonNova, LLC Smart Contact Lens with Embedded Display and Image Focusing System

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785316A (ja) * 1993-08-31 1995-03-31 Sun Microsyst Inc コンピュータによって生成された情報を表示する方法およびコンピュータによって生成されたモデルを表示する装置
JP2009294372A (ja) * 2008-06-04 2009-12-17 Nikon Corp ヘッドマウントディスプレイ装置
JP2011101196A (ja) * 2009-11-06 2011-05-19 Nikon Corp コンテンツ再生システム
JP2012048597A (ja) * 2010-08-30 2012-03-08 Univ Of Tokyo 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム
JP2012205191A (ja) * 2011-03-28 2012-10-22 Nippon Telegr & Teleph Corp <Ntt> 映像付加情報表示制御装置およびその動作方法
JP2014017776A (ja) * 2012-07-11 2014-01-30 Sony Computer Entertainment Inc 画像生成装置および画像生成方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018182321A1 (en) * 2017-03-31 2018-10-04 Samsung Electronics Co., Ltd. Method and apparatus for rendering timed text and graphics in virtual reality video
US10958890B2 (en) 2017-03-31 2021-03-23 Samsung Electronics Co., Ltd. Method and apparatus for rendering timed text and graphics in virtual reality video
US10978072B2 (en) 2017-09-20 2021-04-13 Kabushiki Kaisha Toshiba Display control system, display control method, and computer program product using display sectors in one revolution of clockwise or counterclockwise direction

Also Published As

Publication number Publication date
US10477198B2 (en) 2019-11-12
JP2017187715A (ja) 2017-10-12
CN108604438A (zh) 2018-09-28
WO2017175738A1 (ja) 2017-10-12
US20170295363A1 (en) 2017-10-12
CN108604438B (zh) 2019-08-20

Similar Documents

Publication Publication Date Title
JP6084728B1 (ja) 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム
US10567818B2 (en) Video content distribution system and content management server
US11119319B2 (en) Rendering device, head-mounted display, image transmission method, and image correction method
US10560724B2 (en) Video content distribution system and content management server
WO2017086263A1 (ja) 情報処理装置および画像生成方法
US20140152676A1 (en) Low latency image display on multi-display device
US11350156B2 (en) Method and apparatus for implementing video stream overlays
US20100103168A1 (en) Methods and apparatuses for processing and displaying image
JP7294757B2 (ja) 仮想現実ライブストリーミングにおいて視野角を同期させるための方法および装置
JP6751205B2 (ja) ディスプレイ装置及びその制御方法
US10277814B2 (en) Display control method and system for executing the display control method
KR20180102125A (ko) 영상 표시 시스템
JP2018097427A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
KR102336997B1 (ko) 서버, 디스플레이장치 및 그 제어방법
JP2017538140A (ja) リアルタイム3d映像多重画面同期化システム
CN112823528B (zh) 信息处理装置、信息处理方法和信息处理程序
JP2020145654A (ja) 動画表示システム、情報処理装置および動画表示方法
JP2016110489A (ja) 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム
JP2018097847A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP7047085B2 (ja) 画像生成装置、画像生成方法、およびプログラム
JP7072706B1 (ja) 表示制御装置、表示制御方法および表示制御プログラム
KR102179810B1 (ko) 가상현실영상 재생방법 및 이를 이용한 프로그램
JP2018028682A (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170125

R150 Certificate of patent or registration of utility model

Ref document number: 6084728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250