JP6135783B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP6135783B2
JP6135783B2 JP2016033974A JP2016033974A JP6135783B2 JP 6135783 B2 JP6135783 B2 JP 6135783B2 JP 2016033974 A JP2016033974 A JP 2016033974A JP 2016033974 A JP2016033974 A JP 2016033974A JP 6135783 B2 JP6135783 B2 JP 6135783B2
Authority
JP
Japan
Prior art keywords
image
information
display
captured image
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016033974A
Other languages
English (en)
Other versions
JP2016129050A (ja
Inventor
俊一 笠原
俊一 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2016129050A publication Critical patent/JP2016129050A/ja
Application granted granted Critical
Publication of JP6135783B2 publication Critical patent/JP6135783B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/403Connection between platform and handheld device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00347Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with another still picture apparatus, e.g. hybrid still picture apparatus

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、画像認識技術の進歩によって、例えば実空間を撮像した画像に含まれる様々なオブジェクトを、その位置や姿勢とともに認識することが可能になった。かかるオブジェクト認識の技術は、例えば、実空間の画像に付加的な情報を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれる技術などに利用されている。AR技術の例として、特許文献1には、家具などの現実のオブジェクトを模倣した仮想オブジェクトの画像を実空間の画像に重畳して表示し、家具などの配置の試行を容易にする技術が記載されている。
特開2003−256876号公報
上記のようなAR技術を利用すれば、実空間を撮像した画像に含まれる他の装置の画像を操作するといったことも可能である。しかしながら、画像に含まれる他の装置の画像を認識する処理は、例えば端末装置で実行するには負荷が高い。この負荷を軽減する技術については、まだ十分に提案されているとはいい難い。
そこで、本開示では、画像内に表示される他の装置の画像を認識する処理の負荷を軽減することを可能にする、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提案する。
本開示によれば、撮像画像に対応する撮像画像情報を取得する撮像画像情報取得部と、表示画面に表示される第1の画像に対応する表示画像情報を取得する表示画像情報取得部と、上記表示画像情報および上記撮像画像情報を用いて、上記撮像画像の中での上記第1の画像の位置および姿勢を検出するオブジェクト認識部とを含む情報処理装置が提供される。
また、本開示によれば、撮像画像に対応する撮像画像情報を取得することと、表示画面に表示される第1の画像に対応する表示画像情報を取得することと、上記表示画像情報および上記撮像画像情報を用いて、上記撮像画像の中での上記第1の画像の位置および姿勢を検出することとを含む情報処理方法が提供される。
また、本開示によれば、撮像画像に対応する撮像画像情報を取得する機能と、表示画面に表示される第1の画像に対応する表示画像情報を取得する機能と、上記表示画像情報および上記撮像画像情報を用いて、上記撮像画像の中での上記第1の画像の位置および姿勢を検出する機能とをコンピュータに実現させるためのプログラムが提供される。
上記の構成によれば、撮像画像の中の表示画面に表示される第1の画像の位置および姿勢が、当該第1の画像に対応する情報を用いて検出される。つまり、第1の画像を含む撮像画像についてのオブジェクト認識を、予め第1の画像に対応する情報を得た上で実行することができる。それゆえ、オブジェクト処理の処理負荷を軽減することができる。
以上説明したように本開示によれば、画像内に表示される他の装置の画像を認識する処理の負荷を軽減することができる。
本開示の第1の実施形態の概要について説明するための図である。 本開示の第1の実施形態の装置構成について説明するための図である。 本開示の第1の実施形態に係るシステムの機能構成を示す概略的なブロック図である。 本開示の第1の実施形態における処理を示すデータフロー図である。 本開示の第1の実施形態における画像情報取得のタイミングについて説明するための図である。 本開示の第2の実施形態の装置構成について説明するための図である。 本開示の第2の実施形態の装置構成について説明するための図である。 本開示の第2の実施形態に係るシステムの機能構成を示す概略的なブロック図である。 本開示の第2の実施形態における処理を示すデータフロー図である。 本開示の第3の実施形態の装置構成について説明するための図である。 本開示の第3の実施形態の装置構成について説明するための図である。 本開示の第3の実施形態の装置構成について説明するための図である。 本開示の第3の実施形態に係るシステムの機能構成を示す概略的なブロック図である。 本開示の第3の実施形態における処理を示すデータフロー図である。 情報処理装置のハードウェア構成を説明するためのブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1−1.概要
1−2.装置構成
1−3.処理フロー
1−4.画像情報取得のタイミング
2.第2の実施形態
2−1.装置構成
2−2.処理フロー
3.第3の実施形態
3−1.装置構成
3−2.処理フロー
4.補足
(1.第1の実施形態)
(1−1.概要)
まず、図1を参照して、本開示の第1の実施形態の概要について説明する。なお、この概要は、本開示の他の実施形態についても同様である。
図1は、本実施形態の概要について説明するための図である。図1を参照すると、本実施形態は、端末装置100と、表示装置200とに関係する。端末装置100は、表示装置200を含む実空間の撮像画像を取得し、撮像画像に基づいて表示部150に画像151を表示させる。端末装置100は、後述するように撮像画像に含まれるオブジェクトを認識する機能を有し、画像151の表示にあたって撮像画像のオブジェクト認識の結果を利用しうる。
一方、表示装置200は、表示画面250を有し、表示画面250には画像251が表示される。端末装置100が取得する撮像画像には、表示装置200が含まれるため、表示画面250に表示される画像251も撮像画像に含まれる。端末装置100は、撮像画像から画像251を認識し、画像151の中に画像251に対応する仮想画像153を表示させる。なお、仮想画像153は、撮像画像に含まれる画像251がそのまま描画されたものであってもよいし、撮像画像のオブジェクト認識の結果を利用して再描画されたものであってもよい。
ここで、端末装置100は、例えば携帯電話(スマートフォン)、タブレット型のPC(Personal Computer)、携帯型のゲーム機やメディアプレーヤなど、主にユーザが把持して操作する装置である。また、表示装置200は、例えばテレビジョン受像機、デスクトップ型やノート型のPC、PCモニタなど、主に据置きの装置である。しかし、本開示の実施形態はこれらの例には限られるものではない。他の例として、端末装置100と表示装置200とは、いずれもスマートフォンであってもよい。
上記のように、端末装置100は、撮像画像に含まれるオブジェクトを認識する機能を有する。また、図示された例において、端末装置100は、撮像画像に含まれる画像251を認識している。それゆえ、例えば、端末装置100は、画像151の中の仮想画像153に対する操作を取得し、現実の画像251に対して同様の操作がされた場合と同じように仮想画像153を変化させることが可能である。
例えば、端末装置100は、表示部150上の座標を表示画面250上の座標に変換することによって、仮想画像153に含まれるGUI(Graphical User Interface)コンポーネント(ボタン、リンク、スクロールバーなど)に、画像251のGUIコンポーネントと同様の機能を割り当てることが可能である。この場合、ユーザが表示部150上に設けられたタッチパネルを介して、仮想画像153に含まれるGUIコンポーネントに対して押下、タップ、ドラッグ、フリックなどの操作を実行すると、仮想画像153は、画像251のGUIコンポーネントに対して同様の操作を実行した場合と同じように変化する。
しかしながら、撮像画像に含まれる画像251の位置および姿勢を検出する処理は、負荷が比較的高い処理である。画像251は、例えば表示装置200の操作状態やコンテンツの再生状態などによって変化するため、予め用意された静的なデータによって認識することが容易ではない。そのため、例えばネットワーク上の膨大なデータを用いて画像251を検索する必要が生じる場合がある。このような処理の実行による負荷は、例えば端末装置100のパフォーマンスの観点から、望ましいものではない。そこで、本開示の実施形態では、端末装置100の撮像画像から画像251を認識する処理の負荷を軽減する手法を提案する。
(1−2.装置構成)
次に、図2および図3を参照して、本開示の第1の実施形態の装置構成について説明する。図2は、本実施形態の装置構成について説明するための図である。図3は、本実施形態に係るシステムの機能構成を示す概略的なブロック図である。なお、図3では、簡単のため、図2に示される複数の表示装置200a〜200cが、単一の表示装置200によって代表されている。
図2を参照すると、本実施形態の装置構成は、端末装置100と、表示装置200a〜200cと、サーバ装置300(情報処理装置の一例)とを含む。表示装置200の数は、図示された例のように3でなくてよく、1でも、2でも、4以上でもよい。上記で図1を参照して説明したように、表示装置200が1つであっても、撮像画像に含まれる画像251を認識する処理の負荷は比較的高い。図示された例のように、表示装置200が複数存在する場合、画像251を認識する処理の負荷はさらに高くなりうる。
また、サーバ装置300は、必ずしも単一の装置によって実現されなくてもよい。例えば、複数の装置が有するリソースがネットワークを介して協働することによってサーバ装置の機能が実現されてもよい。
図示された例において、端末装置100は、撮像画像に対応する撮像画像情報155を、サーバ装置300に送信する。ここで、撮像画像情報155は、撮像画像の画像データそのものであってもよいが、これには限られない。撮像画像情報155は、後述するサーバ装置300でのオブジェクト認識の処理に用いられるように適合されたものであればよく、例えば画像を圧縮したデータ、またはオブジェクト認識に用いられる特徴点のデータ配列などであってもよい。
一方、表示装置200a〜200cは、それぞれの表示画面250に表示している画像251に対応する表示画像情報253a〜253cを、サーバ装置300に送信する。ここで、表示画像情報253a〜253cは、画像251の画像データそのものであってもよいが、これには限られない。表示画像情報253a〜253cは、後述するサーバ装置300でのオブジェクト認識の処理に用いられるように適合されたものであればよく、例えば画像を圧縮したデータ、またはオブジェクト認識に用いられる特徴点のデータ配列などであってもよい。
なお、表示画像情報253a〜253cは、必ずしも撮像画像情報155と同じ種類の情報でなくてもよい。例えば、撮像画像情報155が撮像画像の画像データそのものであり、表示画像情報253a〜253cが特徴点のデータ配列であってもよい。また、表示装置200a〜200cは、必ずしも同じ種類の表示画像情報253a〜253cを送信しなくてもよい。例えば、表示画像情報253aが画像251aの画像データそのものであり、表示画像情報253b,253cが特徴点のデータ配列であってもよい。この場合、サーバ装置300は、表示画像情報253aを、表示画像情報253b,253cと同様の特徴点のデータ配列に変換して用いてもよい。
サーバ装置300は、端末装置100から取得される撮像画像情報155と、表示装置200a〜200cから取得される表示画像情報253a〜253cとを用いて、オブジェクト認識の処理を実行する。この処理によって、端末装置100の撮像画像に表示装置200a〜200cのいずれかに表示される画像251が含まれるかが判定される。また、撮像画像に画像251が含まれる場合、その位置および姿勢も検出される。サーバ装置300は、検出された画像251の位置および姿勢を示す情報を含む認識結果情報157を、端末装置100に送信する。端末装置100は、認識結果情報157を用いて、画像151の中に仮想画像153を表示させる。
(端末装置の機能構成)
図3を参照して、端末装置100の構成について、さらに説明する。端末装置100は、撮像部110と、表示制御部120と、表示部150とを含む。
撮像部110は、例えば端末装置100に内蔵または接続される撮像装置によって実現され、撮像画像を取得する。撮像部110は、撮像画像を動画像として出力してもよいし、静止画像として出力してもよい。上述のように、撮像画像には、表示装置200の表示画面250に表示される画像251が含まれる。撮像部110は、生成した撮像画像を表示制御部120に提供するとともに、撮像画像に対応する撮像画像情報155をサーバ装置300に送信する。
なお、図示されていないが、端末装置100は、撮像画像の画像データから撮像画像情報155を生成するのに用いられる処理回路、および撮像画像情報155を送信するための通信装置などをさらに含みうる。
表示制御部120は、例えば端末装置100のCPU(Central Processing Unit)、RAM(Random Access Memory)、およびROM(Read Only Memory)がストレージ装置またはリムーバブル記憶媒体に格納されたプログラムに従って動作することによって実現される。表示制御部120は、撮像部110から提供された撮像画像の画像データに基づいて、表示部150に画像151を表示させる。上述のように、画像151には、撮像画像から認識された画像251に対応する仮想画像153が含まれる。表示制御部120は、通信装置(図示せず)を介してサーバ装置300から認識結果情報157を受信する。認識結果情報157には、画像251の位置および姿勢の情報が含まれうる。また、認識結果情報157には、画像251の内容に関する情報が含まれていてもよい。表示制御部120は、認識結果情報157を利用して、仮想画像153を表示しうる。
表示部150は、例えば端末装置100が出力装置として有する、あるいは端末装置100に外部接続機器として接続される、LCD(Liquid Crystal Display)や有機EL(Electro-luminescence)ディスプレイなどによって実現される。表示部150は、必ずしも平面のディスプレイには限られず、例えばHMD(Head Mount Display)であってもよい。表示部150は、表示制御部120の制御に従って、画像151を表示する。
(表示装置の機能構成)
引き続き図3を参照して、表示装置200の構成について、さらに説明する。表示装置200は、表示制御部210と、表示画面250とを含む。
表示制御部210は、例えば表示装置200のCPU、RAM、およびROMがプログラムに従って動作することによって実現される。表示制御部210は、表示装置200のストレージに格納された画像や、表示装置200が通信装置(図示せず)を用いて受信した画像を、画像251として表示画面250に表示させる。また、表示制御部210は、画像251に対応する表示画像情報253をサーバ装置300に送信する。
なお、図示されていないが、表示装置200は、表示画像の画像データから表示画像情報253を生成するのに用いられる処理回路、および表示画像情報253を送信するための通信装置などをさらに含みうる。
表示画面250は、例えば表示装置200が出力装置として有するLCDや有機ELディスプレイなどのディスプレイによって実現される。表示画面250は、表示制御部210の制御に従って、画像251を表示する。
(サーバ装置の機能構成)
引き続き図3を参照して、サーバ装置300の構成について、さらに説明する。サーバ装置300は、撮像画像情報取得部310と、表示画像情報取得部320と、オブジェクト認識部330とを含む。これらはいずれも、例えばサーバ装置300のCPU、RAM、およびROMがプログラムに従って動作することによって実現される。
撮像画像情報取得部310は、通信装置(図示せず)を介して、端末装置100から送信された撮像画像情報155を取得する。上述のように、撮像画像情報155は、端末装置100が取得する撮像画像に対応する。撮像画像情報155は、例えば、撮像画像の画像データそのもの、画像を圧縮したデータ、またはオブジェクト認識に用いられる特徴点のデータ配列などでありうる。撮像画像情報取得部310は、取得した撮像画像情報155を、オブジェクト認識部330に提供する。
表示画像情報取得部320は、通信装置(図示せず)を介して、表示装置200から送信された表示画像情報253を取得する。上述のように、表示画像情報253は、表示装置200が表示する画像251に対応する。表示画像情報253は、例えば、表示画像の画像データそのもの、画像を圧縮したデータ、またはオブジェクト認識に用いられる特徴点のデータ配列などでありうる。表示画像情報取得部320は、取得した表示画像情報253を、オブジェクト認識部330に提供する。
オブジェクト認識部330は、撮像画像情報取得部310から提供された撮像画像情報155を用いて、撮像画像に含まれるオブジェクトを認識する。例えば、オブジェクト認識部330は、撮像画像から抽出される特徴点のセットを、モデルデータによって定義されるオブジェクトの形状と照合する。また、オブジェクト認識部330は、モデルデータによって定義されるシンボルマークまたはテキストラベルなどの画像データを、撮像画像と照合してもよい。さらにまた、オブジェクト認識部330は、モデルデータによって定義される既知のオブジェクトの画像の特徴量を、撮像画像から抽出される特徴量と照合してもよい。
なお、モデルデータは、各オブジェクトの形状を定義するデータ、各オブジェクトに付される所定のシンボルマークもしくはテキストラベルなどの画像データ、または各オブジェクトについて既知の画像から抽出された特徴量セットのデータなどを含む。モデルデータは、例えばストレージ装置に格納されるモデルDBから取得される。あるいは、モデルデータは、通信装置(図示せず)を介してネットワーク上から取得されてもよい。
上述のように、オブジェクト認識部330は、撮像画像に含まれる画像251を認識する。画像251の認識は、例えば画像251の内容を検索することによって実行されうる。例えば、画像251がブラウザに表示されたWebページである場合、オブジェクト認識部330は、当該WebページのURL(Uniform Resource Locator)と、その操作状態を示すURI(Uniform Resource Identifier)とを取得する。仮に、表示装置200から何も情報が提供されないとすると、オブジェクト認識部330は、上記のような情報を、撮像画像の内容だけを手がかりにして認識しなければならない。その場合、認識の処理負荷は膨大になり、また認識の精度も低下する。
それゆえ、本実施形態において、オブジェクト認識部330は、表示画像情報取得部320から提供された表示画像情報253を用いて、上記のような画像251の内容に関する情報を取得する。表示画像情報253は、画像251を表示する表示装置200自身から提供された情報である表示画像情報253を用いることによって、オブジェクト認識部330は、画像251の内容に関する情報を容易に入手することが可能である。従って、オブジェクト認識部330は、より少ない処理負荷で、またより高い精度で、画像251を認識することが可能である。
オブジェクト認識部330は、上記のようなオブジェクト認識の結果を、認識結果情報157として、通信装置(図示せず)を介して端末装置100に送信する。認識結果情報157は、例えば、撮像画像にどのようなオブジェクトが映っているか(含まれるか)と、それらのオブジェクトが撮像画像にどのような位置および姿勢で映っているかを示す情報とを含む。それゆえ、撮像画像に画像251が映っている場合、認識結果情報157は、画像251の位置および姿勢を示す情報を含む。認識結果情報157は、さらに、画像251の内容に関する情報を含んでもよい。
(オブジェクト認識の処理について)
ここで、本実施形態におけるオブジェクト認識の処理について、さらに説明する。オブジェクト認識部330で実行されるオブジェクト認識の処理には、例えば以下の2つの処理が含まれる。第1には、撮像画像にどのオブジェクトが映っているか(含まれるか)を判定する処理である。第2には、撮像画像に含まれるオブジェクトが、撮像画像の中のどの位置に、どのような姿勢(傾き、回転など)で映っているかを検出する処理である。
また、撮像画像が動画像である場合、オブジェクト認識部330で実行されるオブジェクト認識の処理には、例えば以下の2つの種類がある。第1は、探索の処理である。探索の処理は、例えば、撮像画像に映っているオブジェクトに関する情報がまだ取得されていない場合に実行される。この場合、どのオブジェクトについても、撮像画像に映っている可能性がある。また、オブジェクトが撮像画像に映っている場合、撮像画像の中のあらゆる位置について、そのオブジェクトが映っている可能性がある。また、オブジェクトは、どのような姿勢で映っている可能性もある。
一方、第2は、トラッキングの処理である。トラッキングの処理は、例えば、撮像画像の以前のフレームに映っていたオブジェクトに関する情報が既に取得されている場合に実行される。この場合、以前のフレームに映っていたオブジェクトについては、現在のフレームに映っている可能性が高い。それゆえ、これらのオブジェクトについて、優先して認識処理を実行することが可能である。また、オブジェクトは、現在のフレームでも、以前のフレームで映っていた位置に近い位置に映っている可能性が高い。それゆえ、これらのオブジェクトについて、認識処理を実行する領域をある程度絞り込むことが可能である。従って、トラッキングの処理は、探索の処理よりも低い処理負荷で実行することが可能である。
上記のような定義に従い、本明細書では、例えば「オブジェクトの位置および姿勢を検出する」処理が実行されるという場合、「オブジェクトが含まれるかを判定する」処理も当然に実行され、オブジェクトが含まれると判定された場合に位置および姿勢が検出されるものとする。また、以下の説明では、オブジェクト認識の処理について、「探索」と「トラッキング」とを区別して説明する場合がある。「探索」の処理において、所定のオブジェクトが撮像画像に映っていると判定されることは、そのオブジェクトが「発見」された、とも表現される。
(1−3.処理フロー)
次に、図4を参照して、本開示の第1の実施形態の処理フローについて説明する。図4は、本実施形態における処理を示すデータフロー図である。なお、図4では、簡単のため、図2に示される複数の表示装置200a〜200cのうちの2つが表示装置200a,200bとして示されている。
図4を参照すると、まず、ステップS101において、端末装置100が、サーバ装置300に、撮像画像情報155を送信する。また、表示装置200a,200bは、それぞれ、サーバ装置300に、表示画像情報253a,253bを送信する。
次に、ステップS103において、サーバ装置300では、オブジェクト認識部330が、撮像画像情報155と表示画像情報253a,253bとを用いて、表示装置200a,200bのそれぞれに表示される画像251(以下、画像A,Bともいう)を探索する。図示された例では、ここで、画像Aが発見される。そこで、サーバ装置300は、端末装置100に、撮像画像における画像Aの位置および姿勢を示す認識結果情報157を送信する。端末装置100は、受信した認識結果情報157を用いて、画像151に、画像Aに対応する仮想画像153を表示させる。
次に、ステップS105において、端末装置100は、サーバ装置300に、撮像画像情報155を送信する。上述のように、本実施形態では撮像画像が動画像である。ここで送信される撮像画像情報155は、上記のステップS101で送信された撮像画像情報155に対応するフレームよりも後のフレームに対応する。なお、撮像画像情報155は、必ずしも撮像画像のすべてのフレームについて送信されなくてもよい。従って、ステップS105で送信される撮像画像情報155は、例えば、ステップS101で送信された撮像画像情報155に対応するフレームの数フレーム後のフレームに対応していてもよい。
一方、同じくステップS105において、表示装置200bは、サーバ装置300に、表示画像情報253bを送信する。なお、このとき、表示装置200aは、表示画像情報253aを送信しなくてもよい。画像Aは、上記のステップS103において既に発見されており、以下のステップでは、このときの検出結果を用いて、撮像画像に含まれる画像Aをトラッキングすることが可能なためである。
次に、ステップS107において、サーバ装置300では、オブジェクト認識部330が、既に発見されている画像Aをトラッキングするとともに、撮像画像情報155と表示画像情報253bとを用いて画像Bを探索する。図示された例では、ここでも、表示画面Bは発見されない。従って、サーバ装置300は、端末装置100に、トラッキングによって検出された画像Aの位置および姿勢を示す認識結果情報157を送信する。端末装置100は、受信した認識結果情報157を用いて、画像Aに対応する仮想画像153を更新してもよい。
次に、ステップS109において、端末装置100は、サーバ装置300に、撮像画像情報155を送信する。上記のステップS105で説明したのと同様に、ここで送信される撮像画像情報155は、ステップS105よりもさらに後のフレームに対応する。
一方、同じくステップS109において、表示装置200a,200bは、サーバ装置300に、表示画像情報253a,253bを送信する。ここで、表示装置200aでは、ステップS105とステップS109との間で、表示画面250に表示される画像251(画像A)が変化している。そこで、ステップS109では、表示装置200aも、サーバ装置300に表示画像情報253aを送信する。画像Aが変化した場合、オブジェクト認識部330における画像Aのトラッキングが失敗する可能性が高いためである。
次に、ステップS111において、サーバ装置300では、オブジェクト認識部330が、撮像画像情報155と表示画像情報253a,253bとを用いて、画像A,Bを探索する。なお、画像Aの探索は、オブジェクト認識部330による画像Aのトラッキングが実際に失敗してから実行されてもよい。図示された例では、ここで、画像A,Bの両方が発見される。そこで、サーバ装置300は、端末装置100に、撮像画像における画像A,Bの位置および姿勢を示す認識結果情報157を送信する。端末装置100は、受信した認識結果情報157を用いて、画像151に、画像Aおよび画像Bに対応する2つの仮想画像153を表示させる。
(1−4.画像情報取得のタイミング)
次に、図5を参照して、本実施形態における画像情報取得のタイミングについて説明する。図5は、本実施形態における画像情報取得のタイミングについて説明するための図である。
図5では、6フレーム分の撮像画像情報155(これらは必ずしも動画像の連続したフレームを構成するとは限らない)と、これらの撮像画像情報155とともに表示画面250の認識に用いられる表示画像情報253−1〜253−3とが、時間軸上で対応付けて示されている。
図示された例において、撮像画像情報155は、ほぼ一定の間隔で周期的に取得される。一方、表示画像情報253−1〜253−3は、撮像画像情報155とは異なるタイミングで取得される。例えば、表示画像情報253−1〜253−3は、例えば、図4の例で示されるように、画像251が変化した場合に取得されてもよい。
ここで、表示画像情報253は、撮像画像情報155よりも長い間隔で取得されることが望ましい。オブジェクト認識は、通常は撮像画像情報155ごとに実行される。それゆえ、撮像画像情報155よりも高い頻度で表示画像情報253が取得されても、結果的に表示画像情報253が無駄になってしまう可能性がある。
図示された例では、6フレーム分の撮像画像情報155に対して、最初の1フレームでは表示画像情報253−1が、続く3フレームでは表示画像情報253−2が、さらに続く2フレームでは表示画像情報253−3が用いられる。このように、撮像画像情報155が取得される一方で、表示画像情報253が取得されない場合、オブジェクト認識部330は、以前に取得された表示画像情報253を引き続き用いてもよい。
上記のように、撮像画像情報取得部310および表示画像情報取得部320がそれぞれ時系列で情報を取得する場合、どの撮像画像情報155にどの表示画像情報253をマッチングさせるかは、例えば、撮像画像情報155および表示画像情報253の少なくとも一方に含まれる同期情報に基づいて決定されうる。同期情報は、例えば、それぞれの情報が生成された時刻情報を含む。
上記の例において、例えば端末装置100と表示装置200との間で時刻のずれが少ないなどの理由によって、正確な同期情報が取得される場合、オブジェクト認識部330は、同期情報をそのまま用いて表示画像情報253と撮像画像情報155とを同期させてもよい。
あるいは、オブジェクト認識部330は、撮像画像情報155と表示画像情報253との間の遅延に応じて、撮像画像情報155とともに用いる表示画像情報253を選択してもよい。遅延は、例えば、各装置間の時刻のずれ、各装置間の通信による遅延、または各装置の内部で処理遅延などによって発生しうる。
例えば、オブジェクト認識部330は、表示画像情報253によって画像251の変化が示されるタイミングと、撮像画像から認識される画像251の内容が変化したタイミングとを比較することで遅延を検出してもよい。遅延が検出された場合、オブジェクト認識部330は、例えば撮像画像情報155および表示画像情報253の同期情報のいずれかの同期情報にオフセットを加えることによって、撮像画像情報155に対して適切な表示画像情報253を用いうる。
(実施形態のまとめ)
以上で説明した本開示の第1の実施形態では、端末装置の撮像画像に含まれる可能性がある画像の情報が、当該画像を表示する表示装置自身から提供される。また、撮像画像に含まれる表示画像の認識の処理が、サーバ装置によって実行され、その結果が端末装置に送信される。これによって、例えば、端末装置における処理負荷を最小限に抑えつつ、撮像画像に含まれる他の装置の表示画像を認識した結果を活用することができる。
(2.第2の実施形態)
(2−1.装置構成)
次に、図6A、図6B、および図7を参照して、本開示の第2の実施形態の装置構成について説明する。図6Aおよび図6Bは、本実施形態の装置構成について説明するための図である。図7は、本実施形態に係るシステムの機能構成を示す概略的なブロック図である。なお、図7では、簡単のため、図6Aおよび図6Bに示される複数の表示装置400a〜400cが、単一の表示装置400によって代表されている。
図6Aを参照すると、本実施形態は、端末装置100と、表示装置400a〜400c(情報処理装置の一例)とに関する。表示装置400の数は、図示された例のように3でなくてよく、1でも、2でも、4以上でもよい。
図示された例において、端末装置100は、撮像画像に対応する撮像画像情報155を、表示装置400a〜400cのそれぞれに送信する。撮像画像情報155の内容は、上記の第1の実施形態の場合と同様である。
一方、表示装置400a〜400cは、表示画面250に表示している画像251a〜251cに対応する表示画像情報253a〜253cを、それぞれ内部的に取得する。つまり、表示装置400aは表示画像情報253aを内部的に取得し、表示装置400bは表示画像情報253bを内部的に取得し、表示装置400cは表示画像情報253cを内部的に取得する。ここで、表示画像情報253の内容は、上記の第1の実施形態の場合と同様である。
さらに、表示装置400a〜400cは、端末装置100から取得される撮像画像情報155と、それぞれが内部的に取得した表示画像情報253a〜253cとを用いて、オブジェクト認識の処理を実行する。この処理によって、端末装置100の撮像画像に画像251a〜251cのいずれかが含まれるかが判定される。また、撮像画像に画像251a〜251cのいずれかが含まれる場合、その位置および姿勢も検出される。
図示された例では、表示装置400aが、撮像画像に含まれる画像251aを検出し、画像251aの位置および姿勢を示す情報を含む認識結果情報157aを端末装置100に送信する。また、表示装置400cが、撮像画像に含まれる画像251cを検出し、画像251cの位置および姿勢を示す情報を含む認識結果情報157cを端末装置100に送信する。端末装置100は、認識結果情報157a,157cを用いて、画像151の中に、画像251aおよび画像251cに対応する2つの仮想画像153を表示させる。
図6Bは、図6Aの状態において、表示装置400aが、撮像画像に含まれる画像251aをロストした(認識しなかった)状態を示す。このとき、表示装置400aは、撮像画像に含まれる画像251aを探索して検出した後、引き続いて画像251aをトラッキングしている。このトラッキングが失敗した場合、表示装置400aは、その旨を端末装置100に通知し、画像251aについての処理を、トラッキングから探索に切り替える。端末装置100は、上記の通知を受けて、画像151で画像251aに対応する仮想画像153の表示を終了させてもよい。
一方、図6Bの状態で、表示装置400cは、引き続き撮像画像に含まれる画像251cのトラッキングに成功している。従って、表示装置400cは、トラッキングの結果に応じて更新された認識結果情報157cを、引き続き端末装置100に送信する。端末装置100は、受信した認識結果情報157cを用いて、画像151で画像521cに対応する仮想画像153の表示を更新してもよい。
(機能構成)
図7を参照すると、端末装置100は、撮像部110と、表示制御部120と、表示部150とを含む。また、表示装置400は、表示制御部210と、表示画面250と、撮像画像情報取得部310と、表示画像情報取得部320と、オブジェクト認識部430とを含む。
上記の各部は、第1の実施形態で図3を参照して説明したのと同様の構成要素である。つまり、本実施形態の機能構成は、第1の実施形態でサーバ装置300によって実現された機能が、表示装置400によって代替的に実現される構成であるといえる。
ただし、本実施形態において表示装置400に含まれるオブジェクト認識部430は、主に自らが表示する画像251(表示装置400aでは画像251a、表示装置400bでは画像251b、表示装置400cでは画像251c)についてオブジェクト認識の処理を実行する点で、第1の実施形態におけるサーバ装置300のオブジェクト認識部330とは異なる。
(2−2.処理フロー)
次に、図8を参照して、本開示の第2の実施形態の処理フローについて説明する。図8は、本実施形態における処理を示すデータフロー図である。
図8を参照すると、まず、ステップS201において、端末装置100が、表示装置400a〜400cのそれぞれに撮像画像情報155を送信する。
次に、ステップS203において、表示装置400aでは、オブジェクト認識部430が、撮像画像情報155と内部的に取得された表示画像情報253aとを用いて、画像251a(以下、画像Aともいう)を探索する。図示された例では、ここで、画像Aが発見される。表示装置400aは、端末装置100に、撮像画像における画像Aの位置および姿勢を示す認識結果情報157aを送信する。端末装置100は、受信した認識結果情報157aを用いて、画像151に、画像Aに対応する仮想画像153を表示させる。
同じくステップS203において、表示装置400bでは、オブジェクト認識部430が、撮像画像情報155と内部的に取得された表示画像情報253bとを用いて、画像251b(以下、画像Bともいう)を探索する。図示された例では、画像Bは発見されない。
一方、表示装置400cでは、オブジェクト認識部430が、撮像画像情報155と内部的に取得された表示画像情報253cとを用いて、画像251c(以下、画像Cともいう)を探索する。図示された例では、ここで、画像Cが発見される。そこで、表示装置400cは、端末装置100に、画像Cの位置および姿勢を示す認識結果情報157cを送信する。端末装置100は、受信した認識結果情報157cを用いて、画像151に、画像Cに対応する仮想画像153を表示させる。
次に、ステップS205において、端末装置100は、表示装置400a〜400cのそれぞれに、撮像画像情報155を送信する。本実施形態では撮像画像が動画像であるため、ここで送信される撮像画像情報155は、上記のステップS201で送信された撮像画像情報155に対応するフレームよりも後のフレームに対応する。
次に、ステップS207において、表示装置400aでは、オブジェクト認識部430が、既に発見されている画像Aをトラッキングする。図示された例では、画像Aのトラッキングは成功する。そこで、表示装置400aは、端末装置100に、トラッキングの結果に応じて更新された画像Aの位置および姿勢を示す認識結果情報157aを送信する。端末装置100は、受信した認識結果情報157aを用いて、画像151に含まれる仮想画像153の表示を更新する。
同じくステップS207において、表示装置400bは、上記のステップS203と同様に画像Bを探索するが、発見されない。一方、表示装置400cは、表示装置400aと同様に画像Cをトラッキングし、端末装置100に認識結果情報157cを送信する。端末装置100は、受信した認識結果情報157cを用いて、画像151に含まれる仮想画像153の表示を更新する。
次に、ステップS209において、端末装置100は、表示装置400a〜400cのそれぞれに、撮像画像情報155を送信する。上記のステップS205で説明したのと同様に、ここで送信される撮像画像情報155は、ステップS205よりもさらに後のフレームに対応する。
次に、ステップS211において、表示装置400aでは、オブジェクト認識部430が、引き続き画像Aをトラッキングする。図示された例では、ここで、画像Aのトラッキングが失敗する、つまり表示装置400aは画像Aをロストする。そこで、表示装置400aは、画像Aをロストしたことの通知を端末装置100に送信する。この通知を受信した端末装置100は、画像151で画像Aに対応する仮想画像153の表示を終了する。一方、表示装置400aは、ステップS209で受信した撮像画像情報155と、内部的に取得された表示画像情報253aとを用いて、改めて画像Aを探索する。
同じくステップS211において、表示装置400bは、上記のステップS203と同様に画像Bを探索するが、発見されない。一方、表示装置400cは、上記のステップS207と同様に画像Cをトラッキングし、端末装置100に認識結果情報157cを送信する。端末装置100は、受信した認識結果情報157cを用いて、画像151に含まれる仮想画像153の表示を更新する。
(実施形態のまとめ)
以上で説明した本開示の第2の実施形態では、撮像画像に含まれる画像の探索およびトラッキングの処理が、当該画像を表示する表示装置自身によって実行され、その結果が端末装置に送信される。これによって、例えば、表示装置が有する計算リソースを有効に活用して、端末装置における処理負荷を抑制することができる。また、例えば、表示画像情報を装置間で伝送しなくて済むことによって、通信リソースを節約することができる。
(3.第3の実施形態)
(3−1.装置構成)
次に、図9A〜図9C、および図10を参照して、本開示の第3の実施形態の装置構成について説明する。図9A〜図9Cは、本実施形態の装置構成について説明するための図である。図10は、本実施形態に係るシステムの機能構成を示す概略的なブロック図である。なお、図10では、簡単のため、図9A〜図9Cに示される複数の表示装置600a〜600cが、単一の表示装置600によって代表されている。
図9Aを参照すると、本実施形態は、端末装置500と、表示装置600a〜600c(情報処理装置の一例)とに関する。表示装置600の数は、図示された例のように3でなくてよく、1でも、2でも、4以上でもよい。
図示された例において、端末装置500は、撮像画像に対応する撮像画像情報155を、表示装置600a〜600cのそれぞれに送信する。撮像画像情報155の内容は、上記の第1の実施形態の場合と同様である。
一方、表示装置600a〜600cは、表示画面250に表示している画像251a〜251cに対応する表示画像情報253a〜253cを、それぞれ内部的に取得する。つまり、表示装置600aは表示画像情報253aを内部的に取得し、表示装置600bは表示画像情報253bを内部的に取得し、表示装置600cは表示画像情報253cを内部的に取得する。ここで、表示画像情報253の内容は、上記の第1の実施形態の場合と同様である。
さらに、表示装置600a〜600cは、端末装置500から取得される撮像画像情報155と、それぞれが内部的に取得した表示画像情報253a〜253cとを用いて、オブジェクト認識の処理を実行する。この処理によって、端末装置100の撮像画像に画像251a〜251cのいずれかが含まれるかが判定される。また、撮像画像に画像251a〜251cのいずれかが含まれる場合、その位置および姿勢も検出される。
図示された例では、表示装置600aが、撮像画像に含まれる画像251aを発見する。そこで、表示装置600aは、画像251aのトラッキングに利用可能なトラッキング用情報653aを、端末装置500に送信する。トラッキング用情報653aには、例えば、撮像画像の中の画像251aの位置および姿勢、ならびに画像251aの内容に関する情報が含まれうる。端末装置100は、トラッキング用情報653aを用いて画像251aをトラッキングし、画像151に画像251aに対応する仮想画像153を表示させる。
図9Bは、図9Aで画像251aが検出された後の状態を示す。撮像画像に含まれる画像251aの位置および姿勢が検出(探索)された後、表示装置600aは、端末装置に画像251aの位置および姿勢の検出(トラッキング)を委任する。つまり、端末装置500は、表示装置600aに撮像画像情報155を送信しない。また、表示装置600aも、端末装置にトラッキング用情報653aを送信しない。端末装置500は、以前に受信したトラッキング用情報653aを引き続き用いて、撮像画像に含まれる画像251aをトラッキングし、トラッキングの結果を用いて画像151における仮想画像153の表示を更新する。
一方、端末装置500は、表示装置600b,600cに対しては、引き続き撮像画像情報155を送信する。また、表示装置600b,600cは、それぞれ、図9Aの状態と同様に、それぞれ画像251b,251cを探索する。
図9Cは、図9Bの状態において、表示装置400aに表示される画像251aが変化した、または、端末装置500で画像251aのトラッキングが失敗した状態を示す。このとき、表示装置400aは、再び画像251aの位置および姿勢を検出(探索)し、新たなトラッキング用情報653aを端末装置500に送信する。端末装置500は、新たに受信したトラッキング用情報653aを用いて画像251aをトラッキングし、画像151における仮想画像153の表示を更新する。
(機能構成)
図10を参照すると、端末装置500は、撮像部110と、表示制御部120と、表示部150と、オブジェクト認識部530とを含む。また、表示装置600は、表示制御部210と、表示画面250と、撮像画像情報取得部310と、表示画像情報取得部320と、オブジェクト認識部430とを含む。
上記の各部は、第2の実施形態で図7を参照して説明したのと同様の構成要素である。本実施形態では、オブジェクト認識部が、端末装置500および表示装置600の両方に含まれる。
表示装置600のオブジェクト認識部430は、主に、自らが表示する画像251について、探索の処理を実行する。上記で図9A〜図9Cを参照して説明したように、撮像画像の中に画像251が発見されるまでは、表示装置600のオブジェクト認識部430が、画像251を探索する処理を実行する。画像251が発見されると、オブジェクト認識部430は、例えば画像251の位置および姿勢、ならびに画像251の内容に関する情報を含むトラッキング用情報653を端末装置500のオブジェクト認識部530に向けて送信する。その後、端末装置500で画像251のトラッキングが失敗するか、画像251の内容が変更されるまで、オブジェクト認識部430は画像251の認識の処理を休止してもよい。
一方、端末装置500のオブジェクト認識部530は、撮像画像の中に画像251が発見された場合に、画像251をトラッキングする処理を実行する。トラッキングの処理に用いられる、以前に発見された画像251の位置および姿勢、ならびに画像251の内容に関する情報は、表示装置600のオブジェクト認識部430が送信するトラッキング用情報653から取得されうる。従って、オブジェクト認識部530は、比較的処理負荷が高い探索の処理を実行しなくても、比較的処理負荷が低いトラッキングの処理を開始することが可能である。
なお、画像251以外のオブジェクトの認識の処理については、上記のオブジェクト認識部430およびオブジェクト認識部530のどちらで実行されてもよい。同様に、上記の第1および第2の実施形態でも、端末装置100に、画像251以外のオブジェクトの認識の処理を実行するオブジェクト認識部が含まれてもよい。
(3−2.処理フロー)
次に、図11を参照して、本開示の第3の実施形態の処理フローについて説明する。図11は、本実施形態における処理を示すデータフロー図である。
図11を参照すると、まず、ステップS301において、端末装置500が、表示装置600a〜600cのそれぞれに撮像画像情報155を送信する。
次に、ステップS303において、表示装置600aでは、オブジェクト認識部430が、撮像画像情報155と、内部的に取得された表示画像情報253aとを用いて、画像251a(以下、画像Aともいう)を探索する。図示された例では、ここで、画像Aが発見される。表示装置600aは、端末装置500に、画像251aのトラッキングに利用可能なトラッキング用情報653aを送信する。端末装置100のオブジェクト認識部530は、受信したトラッキング用情報653aを用いて画像Aをトラッキングし、画像151に、画像Aに対応する仮想画像153を表示させる。一方、表示装置600b,600cでは、オブジェクト認識部430が画像251b(以下、画像Bともいう)、画像251c(以下、画像Cともいう)を探索するが、発見されない。
次に、ステップS305において、端末装置500は、表示装置600b,600cのそれぞれに、撮像画像情報155を送信する。本実施形態では撮像画像が動画像であるため、ここで送信される撮像画像情報155は、上記のステップS301で送信された撮像画像情報155に対応するフレームよりも後のフレームに対応する。なお、上述のように、端末装置500は、この時点で画像Aを認識しているため、表示装置600aには撮像画像情報155を送信しない。
次に、ステップS307において、端末装置500では、オブジェクト認識部530が、画像Aをトラッキングする。一方、表示装置600b,600cでは、オブジェクト認識部430が画像B、画像Cを探索するが、発見されない。
次に、ステップS309において、端末装置500は、上記のステップS305と同様に、表示装置600b,600cのそれぞれに、撮像画像情報155を送信する。
次に、ステップS311において、表示装置600aは、画像251aの変化を検知する。そこで、表示装置600aは、変化後の画像251aに対応するトラッキング用情報653aを、端末装置500に送信する。端末装置500では、オブジェクト認識部530が、新たに受信したトラッキング用情報653aを用いて画像251aをトラッキングし、その結果を用いて画像151における仮想画像153の表示を更新する。
(実施形態のまとめ)
以上で説明した本開示の第3の実施形態では、撮像画像に含まれる画像の探索が当該画像を表示する表示装置自身によって実行される一方で、探索によって表示画像が発見された後のトラッキングは、撮像画像を取得している端末装置で実行される。つまり、最も処理負荷の高い探索の処理負荷を端末装置から分散させつつ、処理負荷が比較的低いトラッキングの処理は端末装置で実行される。これによって、例えば、表示装置の計算リソースを不必要に消費することが防止される。また、例えば、撮像画像情報をすべての表示装置に送信することを不要として、通信リソースを節約することができる。
(4.補足)
上記の説明では、主に情報処理装置に係る本開示の実施形態を紹介したが、例えばこれらの情報処理装置において実行される方法、情報処理装置に機能を実現されるためのプログラム、およびかかるプログラムを記録した記録媒体も、本開示の実施形態として実現されうる。
また、上記の説明では、サーバ装置または表示装置が情報処理装置として機能する例について説明したが、例えば端末装置が情報処理装置として機能してもよい。この場合であっても、表示装置が表示する画像に対応する情報が提供されることによって、端末装置でのオブジェクト認識の処理負荷は軽減される。
(ハードウェア構成)
最後に、図12を参照して、本開示の実施形態に係る端末装置100,500、表示装置200,400,600、およびサーバ装置300を実現しうる情報処理装置900のハードウェア構成について説明する。図12は、情報処理装置のハードウェア構成を説明するためのブロック図である。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。さらに、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、および通信装置925を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)などの処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)撮像画像に対応する撮像画像情報を取得する撮像画像情報取得部と、
表示画面に表示される第1の画像に対応する表示画像情報を取得する表示画像情報取得部と、
前記表示画像情報および前記撮像画像情報を用いて、前記撮像画像の中での前記第1の画像の位置および姿勢を検出するオブジェクト認識部と
を備える情報処理装置。
(2)前記表示画像情報取得部は、前記撮像画像情報とは異なるタイミングで前記表示画像情報を取得する、前記(1)に記載の情報処理装置。
(3)前記表示画像情報取得部は、前記第1の画像が変化した場合に前記表示画像情報を取得する、前記(2)に記載の情報処理装置。
(4)前記表示画像情報取得部は、前記撮像画像情報よりも長い間隔で前記表示画像情報を取得する、前記(2)または(3)に記載の情報処理装置。
(5)前記オブジェクト認識部は、前記撮像画像情報が取得されて前記表示画像情報が取得されない場合に、以前に取得された前記表示画像情報を用いて前記第1の画像の位置および姿勢を検出する、前記(4)に記載の情報処理装置。
(6)前記表示画像情報取得部は、前記第1の画像の位置および姿勢が検出されない場合に前記表示画像情報を取得する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記撮像画像情報取得部および前記表示画像情報取得部は、それぞれ時系列で前記撮像画像情報および前記表示画像情報を取得し、
前記撮像画像情報および前記表示画像情報取得部のうちの少なくとも一方には、互いの情報を同期させるための同期情報が含まれる、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)前記撮像画像情報取得部および前記表示画像情報取得部は、それぞれ時系列で前記撮像画像情報および前記表示画像情報を取得し、
前記オブジェクト認識部は、前記撮像画像情報と前記表示画像情報との間の遅延に応じて、前記撮像画像情報とともに用いる前記表示画像情報を選択する、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)前記オブジェクト認識部は、前記第1の画像の位置および姿勢を示す情報を、前記撮像画像を撮像した撮像装置に送信する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)前記オブジェクト認識部は、前記第1の画像の位置および姿勢が検出された場合に、以後の前記第1の画像の位置および姿勢の検出を前記撮像装置に委任する、前記(9)に記載の情報処理装置。
(11)前記オブジェクト認識部は、前記撮像装置で前記第1の画像の位置および姿勢が検出されなかった場合に、再び前記第1の画像の位置および姿勢を検出する、前記(10)に記載の情報処理装置。
(12)前記オブジェクト認識部は、前記第1の画像が変化した場合に、再び前記第1の画像の位置および姿勢を検出する、前記(10)または(11)に記載の情報処理装置。
(13)前記表示画面をさらに備える表示装置である、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)撮像画像に対応する撮像画像情報を取得することと、
表示画面に表示される第1の画像に対応する表示画像情報を取得することと、
前記表示画像情報および前記撮像画像情報を用いて、前記撮像画像の中での前記第1の画像の位置および姿勢を検出することと
を含む情報処理方法。
(15)撮像画像に対応する撮像画像情報を取得する機能と、
表示画面に表示される第1の画像に対応する表示画像情報を取得する機能と、
前記表示画像情報および前記撮像画像情報を用いて、前記撮像画像の中での前記第1の画像の位置および姿勢を検出する機能と
をコンピュータに実現させるためのプログラム。
100,500 端末装置
110 撮像部
120 表示制御部
150 表示部
155 撮像画像情報
157 認識結果情報
200,400,600 表示装置
210 表示制御部
250 表示画面
251 画像(第1の画像)
253 表示画像情報
300 サーバ装置
310 撮像画像情報取得部
320 表示画像情報取得部
330,430,530 オブジェクト認識部
653 トラッキング用情報

Claims (12)

  1. 端末装置の撮像部の撮像により生成される撮像画像に対応する撮像画像情報を取得する撮像画像情報取得部と、
    第1の表示画面に含まれる第1の画像に対応する表示画像情報を取得する表示画像情報取得部と、
    前記表示画像情報および前記撮像画像情報に基づいて、前記撮像画像の中での前記第1の画像を認識する認識部と、
    を備え、
    前記表示画像情報取得部は、前記第1の画像が変化した場合に、前記表示画像情報を取得し、または、前記第1の画像が認識されない場合に、前記表示画像情報を取得
    前記認識部は、前記第1の画像の認識の結果を前記端末装置に送信する、
    情報処理装置。
  2. 前記第1の画像の認識は、前記撮像画像の中での前記第1の画像の存在の認識を含む、
    請求項1に記載の情報処理装置。
  3. 前記第1の画像の認識は、前記撮像画像の中での前記第1の画像の位置または姿勢の認識を含む、
    請求項1または2に記載の情報処理装置。
  4. 前記撮像画像情報取得部が前記撮像画像情報を取得する頻度は、前記表示画像情報取得部が前記表示画像情報を取得する頻度よりも高い、
    請求項1に記載の情報処理装置。
  5. 前記認識部は、前記撮像画像情報および前記表示画像情報の少なくとも一方に関連付けられる同期情報に基づいて、前記撮像画像の中での前記第1の画像を認識する、
    請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記同期情報は、時刻情報を含む、
    請求項5に記載の情報処理装置。
  7. 前記認識部は、前記撮像画像情報に関連付けられる第1の時刻情報と、前記表示画像情報に関連付けられる第2の時刻情報と、に基づいて、前記撮像画像の中での前記第1の画像を認識する、
    請求項6に記載の情報処理装置。
  8. 前記表示画像情報取得部は、前記第1の表示画面とは異なる第2の表示画面に含まれる第2の画像に対応する第2の表示画像情報を取得する、
    請求項1〜7のいずれか1項に記載の情報処理装置。
  9. 前記認識部が、前記表示画像情報および前記撮像画像情報に基づいて、前記撮像画像の中での前記第1の画像を認識しなかった場合に、前記第1の画像が認識されなかった旨を、前記端末装置へ通知する通知部をさらに備える、
    請求項1に記載の情報処理装置。
  10. 前記第1の画像は、さらに前記第1の画像の内容に関する情報に基づいて認識される、
    請求項1〜9のいずれか1項に記載の情報処理装置。
  11. 端末装置の撮像部の撮像により生成される撮像画像に対応する撮像画像情報を取得することと、
    第1の表示画面に含まれる第1の画像に対応する表示画像情報を取得することと、
    前記表示画像情報および前記撮像画像情報に基づいて、前記撮像画像の中での前記第1の画像を認識することと、
    前記第1の画像の認識の結果を前記端末装置に送信することと、
    前記第1の画像が変化した場合に、前記表示画像情報を取得し、または、前記第1の画像が認識されない場合に、前記表示画像情報を取得することと、
    を含む情報処理方法。
  12. 端末装置の撮像部の撮像により生成される撮像画像に対応する撮像画像情報を取得する撮像画像情報取得機能と、
    第1の表示画面に含まれる第1の画像に対応する表示画像情報を取得する表示画像情報取得機能と、
    前記表示画像情報および前記撮像画像情報に基づいて、前記撮像画像の中での前記第1の画像を認識する認識機能と、
    前記第1の画像が変化した場合に、前記表示画像情報を取得し、または、前記第1の画像が認識されない場合に、前記表示画像情報を取得する機能と、
    前記第1の画像の認識の結果を前記端末装置に送信する機能と、
    をコンピュータに実現させるためのプログラム。
JP2016033974A 2012-03-26 2016-02-25 情報処理装置、情報処理方法およびプログラム Active JP6135783B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012069713 2012-03-26
JP2012069713 2012-03-26

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014507493A Division JP5892236B2 (ja) 2012-03-26 2013-02-08 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2016129050A JP2016129050A (ja) 2016-07-14
JP6135783B2 true JP6135783B2 (ja) 2017-05-31

Family

ID=49259168

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014507493A Active JP5892236B2 (ja) 2012-03-26 2013-02-08 情報処理装置、情報処理方法およびプログラム
JP2016033974A Active JP6135783B2 (ja) 2012-03-26 2016-02-25 情報処理装置、情報処理方法およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014507493A Active JP5892236B2 (ja) 2012-03-26 2013-02-08 情報処理装置、情報処理方法およびプログラム

Country Status (5)

Country Link
US (1) US9984468B2 (ja)
EP (1) EP2833249B1 (ja)
JP (2) JP5892236B2 (ja)
CN (1) CN104205012A (ja)
WO (1) WO2013145883A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102001218B1 (ko) * 2012-11-02 2019-07-17 삼성전자주식회사 객체와 관련된 정보 제공 방법 및 이를 위한 디바이스
US9716842B1 (en) * 2013-06-19 2017-07-25 Amazon Technologies, Inc. Augmented reality presentation
US10152495B2 (en) 2013-08-19 2018-12-11 Qualcomm Incorporated Visual search in real world using optical see-through head mounted display with augmented reality and user interaction tracking
CN104898835B (zh) * 2015-05-19 2019-09-24 联想(北京)有限公司 一种信息处理方法及电子设备
GB2555841A (en) * 2016-11-11 2018-05-16 Sony Corp An apparatus, computer program and method
CN107592520B (zh) * 2017-09-29 2020-07-10 京东方科技集团股份有限公司 Ar设备的成像装置及成像方法
CN109582122B (zh) * 2017-09-29 2022-05-03 阿里巴巴集团控股有限公司 增强现实信息提供方法、装置及电子设备
US20200042793A1 (en) * 2018-07-31 2020-02-06 Ario Technologies, Inc. Creating, managing and accessing spatially located information utilizing augmented reality and web technologies
CN111679731A (zh) * 2019-03-11 2020-09-18 三星电子株式会社 显示装置及其控制方法
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
CN111583329B (zh) * 2020-04-09 2023-08-04 深圳奇迹智慧网络有限公司 增强现实眼镜显示方法、装置、电子设备和存储介质
CN113094016B (zh) * 2021-06-09 2021-09-07 上海影创信息科技有限公司 用于信息增益与显示的系统、方法及介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001136504A (ja) * 1999-11-08 2001-05-18 Sony Corp 情報入出力システム及び情報入出力方法
JP4032776B2 (ja) 2002-03-04 2008-01-16 ソニー株式会社 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2005122516A (ja) * 2003-10-17 2005-05-12 Aruze Corp 発注システム及び携帯端末
KR100708178B1 (ko) * 2005-09-01 2007-04-16 삼성전자주식회사 영상 처리 방법, 장치 및 영상 정보를 기록한 정보저장매체
JP2007193403A (ja) * 2006-01-17 2007-08-02 Hitachi Ltd ポインティングデバイス、ポインタ指示位置制御方法およびディスプレイシステム
US8347213B2 (en) * 2007-03-02 2013-01-01 Animoto, Inc. Automatically generating audiovisual works
JP2008310446A (ja) * 2007-06-12 2008-12-25 Panasonic Corp 画像検索システム
US8677399B2 (en) * 2008-04-15 2014-03-18 Disney Enterprises, Inc. Preprocessing video to insert visual elements and applications thereof
JP5149744B2 (ja) * 2008-09-10 2013-02-20 株式会社デンソーアイティーラボラトリ 画像検索装置、画像検索システム、画像検索方法およびプログラム
US8731301B1 (en) * 2008-09-25 2014-05-20 Sprint Communications Company L.P. Display adaptation based on captured image feedback
JP5317798B2 (ja) * 2009-03-05 2013-10-16 ヤフー株式会社 現実世界から目的物を検索する携帯情報検索機器
CN101996371A (zh) * 2009-08-17 2011-03-30 华为技术有限公司 广告投放方法、装置及系统
US8339364B2 (en) * 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8913009B2 (en) * 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
JP5464661B2 (ja) * 2010-03-12 2014-04-09 Kddi株式会社 情報端末装置
DE202011110874U1 (de) * 2010-07-12 2017-01-18 Google Inc. System zur Bestimmung von Gebäudenummern
US8781152B2 (en) * 2010-08-05 2014-07-15 Brian Momeyer Identifying visual media content captured by camera-enabled mobile device
WO2012040099A1 (en) * 2010-09-20 2012-03-29 Qualcomm Incorporated An adaptable framework for cloud assisted augmented reality
US8913171B2 (en) * 2010-11-17 2014-12-16 Verizon Patent And Licensing Inc. Methods and systems for dynamically presenting enhanced content during a presentation of a media content instance
US8984562B2 (en) * 2011-01-13 2015-03-17 Verizon Patent And Licensing Inc. Method and apparatus for interacting with a set-top box using widgets
US10204167B2 (en) * 2012-03-14 2019-02-12 Oath Inc. Two-dimension indexed carousels for in situ media browsing on mobile devices
US9438647B2 (en) * 2013-11-14 2016-09-06 At&T Intellectual Property I, L.P. Method and apparatus for distributing content

Also Published As

Publication number Publication date
EP2833249B1 (en) 2019-06-19
JP5892236B2 (ja) 2016-03-23
EP2833249A4 (en) 2016-04-06
US20150070390A1 (en) 2015-03-12
US9984468B2 (en) 2018-05-29
JP2016129050A (ja) 2016-07-14
WO2013145883A1 (ja) 2013-10-03
CN104205012A (zh) 2014-12-10
JPWO2013145883A1 (ja) 2015-12-10
EP2833249A1 (en) 2015-02-04

Similar Documents

Publication Publication Date Title
JP6135783B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6121647B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6459972B2 (ja) 表示制御装置、表示制御方法、およびプログラム
EP2832107B1 (en) Information processing apparatus, information processing method, and program
US20190051019A1 (en) Display control device, display control method, and program
JP6337907B2 (ja) 表示制御装置、表示制御方法およびプログラム
WO2013145566A1 (en) Information processing apparatus, information processing method, and program
JP6575652B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN105549878A (zh) 电子书翻页控制方法及设备
JP6149862B2 (ja) 表示制御装置、表示制御システムおよび表示制御方法
JP6504058B2 (ja) 情報処理システム、情報処理方法およびプログラム
WO2020042835A1 (zh) 图像显示方法及移动终端
JP6065084B2 (ja) 情報処理装置、情報処理方法およびプログラム
TWI634453B (zh) 在虛擬實境環境瀏覽時進行畫面切換之系統及方法,及其相關電腦程式產品
WO2021104254A1 (zh) 信息处理方法及电子设备
US20220276822A1 (en) Information processing apparatus and information processing method
US10855639B2 (en) Information processing apparatus and information processing method for selection of a target user

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170410

R151 Written notification of patent or utility model registration

Ref document number: 6135783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250