JP2020182246A - 情報処理装置、制御方法、及びプログラム - Google Patents

情報処理装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP2020182246A
JP2020182246A JP2020128080A JP2020128080A JP2020182246A JP 2020182246 A JP2020182246 A JP 2020182246A JP 2020128080 A JP2020128080 A JP 2020128080A JP 2020128080 A JP2020128080 A JP 2020128080A JP 2020182246 A JP2020182246 A JP 2020182246A
Authority
JP
Japan
Prior art keywords
camera
view
field
captured image
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020128080A
Other languages
English (en)
Other versions
JP6977823B2 (ja
Inventor
亮磨 大網
Ryoma Oami
亮磨 大網
高橋 勝彦
Katsuhiko Takahashi
勝彦 高橋
小西 勇介
Yusuke Konishi
勇介 小西
山田 洋志
Hiroshi Yamada
洋志 山田
浩雄 池田
Hiroo Ikeda
浩雄 池田
中川 淳子
Junko Nakagawa
淳子 中川
航介 吉見
Kosuke Yoshimi
航介 吉見
諒 川合
Ryo Kawai
諒 川合
拓也 小川
Takuya Ogawa
拓也 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2020182246A publication Critical patent/JP2020182246A/ja
Application granted granted Critical
Publication of JP6977823B2 publication Critical patent/JP6977823B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

【課題】人の身体に装着されたカメラの視野のずれを把握できる技術を提供する。【解決手段】情報処理装置2000は、判定部2020及び報知部2040を有する。判定部2020は、第1撮像画像40、第2撮像画像50及び関係情報第1カメラの視野と第2カメラの視野とが満たすべき関係を示す情報を用いて、第2カメラの視野が正しいか否かを判定する。報知部2040は、第2カメラの視野が正しくない場合に、第2カメラの視野が正しくないことを報知する。第1カメラは人に装着されたヘッドマウントディスプレイに設けられている。第2カメラはヘッドマウントディスプレイ以外に設けられたカメラである。【選択図】図2

Description

本発明は、情報処理装置、制御方法、及びプログラムに関する。
人の肩などに装着されるウェアラブルカメラが利用されている。例えば、警備員が、ウェアラブルカメラを装着した状態で警備を行う。これにより、警備員による現場での警備を実施しつつ、ウェアラブルカメラの映像をリモートでモニタリングしたり、その映像を解析したりすることができる。
ウェアラブルカメラの利用を容易にするための技術が開発されている。例えば特許文献1は、眼鏡型のヘッドマウントディスプレイの位置合わせを容易にする発明を開示している。特許文献1のヘッドマウントディスプレイは、ユーザの両側頭部を適当な力で押圧する固定部と、前頭部から頭頂部へ延びたアームとによって、ユーザの頭に固定される。眼鏡のレンズ部分に当たるディスプレイは、回転機構部によって上記アームと接続されている。ユーザは、この回転機構部を利用し、固定部及びアームがユーザの頭部に固定されたままの状態でディスプレイを跳ね上げたり降ろしたりすることができる。
特許文献1のヘッドマウントディスプレイには、3つのカメラが設けられている。まずディスプレイの両脇に1つずつカメラが設けられている。また、アームの頭頂部に1つのカメラが設けられている。
ここで前述したように、ディスプレイが可動式であるため、ディスプレイを動かすことにより、ディスプレイに設けられたカメラの視野が変動してしまう。一方で、頭頂部に設けられたカメラの位置は固定であるため、このカメラの視野は固定である。そこで特許文献1のヘッドマウントディスプレイは、位置が固定されている頭頂部のカメラによって生成される画像と、ディスプレイ部分に設けられたカメラによって生成される画像とを比較することで、ディスプレイの位置が所定の位置にあるか否かを判定する。
特開2001−211403号公報
警備員等は、ヘッドマウントディスプレイを装着すると共に、肩や胸などに別途カメラを装着することがある。例えばヘッドマウントディスプレイに設けられたカメラは、広い範囲を見渡した様子を撮像するために利用され、肩などに装着したカメラは、人の顔などをアップで撮像するために利用される。
ここで、この肩などに装着したカメラの視野が正しくないと、画像のモニタリングや解析に支障をきたす。特許文献1の技術は、ヘッドマウントディスプレイ上に位置合わせの基準となるカメラと位置合わせの対象となるカメラの双方が設けられていることを前提としている。そのため特許文献1の技術では、上述した肩などに装着されたカメラの視野が正しいか否かを判定することは難しい。
本発明は、上記課題に鑑みてなされたものである。本発明の目的は、人の身体に装着されたカメラの視野のずれを把握できる技術を提供することである。
本発明の情報処理装置は、1)人に装着されている第1のカメラによって生成された第1の撮像画像と、前記人に装着されている第2のカメラによって生成された第2の撮像画像と、前記第1のカメラの視野と前記第2のカメラの視野とが満たすべき所定の関係を定めた関係情報とに基づいて、前記第2のカメラの視野が正しいか否かを判定する判定手段と、2)前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野が正しくないことを報知する報知手段と、を有する。前記第1のカメラは前記人に装着されたヘッドマウントディスプレイに設けられている。前記第2のカメラは前記ヘッドマウントディスプレイ以外に設けられたカメラである。
本発明の制御方法はコンピュータによって実行される制御方法である。当該制御方法は、1)人に装着されている第1のカメラによって生成された第1の撮像画像と、前記人に装着されている第2のカメラによって生成された第2の撮像画像と、前記第1のカメラの視野と前記第2のカメラの視野とが満たすべき所定の関係を定めた関係情報とに基づいて、前記第2のカメラの視野が正しいか否かを判定する判定ステップと、2)前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野が正しくないことを報知する報知ステップと、を有する。前記第1のカメラは前記人に装着されたヘッドマウントディスプレイに設けられている。前記第2のカメラは前記ヘッドマウントディスプレイ以外に設けられたカメラである。
本発明のプログラムは、コンピュータに本発明の制御方法の各ステップを実行させることにより、そのコンピュータを本発明の情報処理装置として動作させる。
本発明によれば、人の身体に装着されたカメラの視野のずれを把握できる技術が提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1に係る情報処理装置の動作を概念的に例示する図である。 実施形態1に係る情報処理装置を例示するブロック図である。 情報処理装置を実現する計算機の構成を例示する図である。 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。 関係情報を概念的に例示する第1の図である。 関係情報を概念的に例示する第2の図である。 人の頭部が写ると想定される部分を所定範囲として定めたケースを例示する図である。 ケース2の判定方法を概念的に例示する図である。 ケース3の判定方法を概念的に例示する図である。 ディスプレイ装置に表示される報知情報を例示する図である。 実施形態2の情報処理装置を例示するブロック図である。 実施形態2の情報処理装置によって実行される処理の流れを例示するフローチャートである。 ディスプレイ装置に表示されるガイドを例示する図である。 所定領域や所定範囲がガイドの一部としてディスプレイ装置に表示される様子を例示する図である。 第1カメラがヘッドマウントディスプレイ上以外の場所に設けられるケースを例示する図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、ハードウェア構成図を除く各ブロック図において、各ブロックはハードウエア単位の構成ではなく、機能単位の構成を表している。
[実施形態1]
図1は、実施形態1に係る情報処理装置2000の動作を概念的に例示する図である。ユーザ30は、ヘッドマウントディスプレイ10を装着している。ユーザ30は、例えばイベント会場などを警備する警備員である。ヘッドマウントディスプレイ10には、第1カメラ12及びディスプレイ装置14が備えられている。第1カメラ12は周囲を撮像するカメラである。ディスプレイ装置14は任意の画像を表示するディスプレイ装置である。ヘッドマウントディスプレイ10がディスプレイ装置14に任意の画像を表示することにより、ユーザ30は、任意の画像が周囲の景色に重畳された様子を見ることができる。例えばヘッドマウントディスプレイ10は、第1カメラ12によって生成される撮像画像に基づいて周囲の景色を認識し、その周囲の景色に合わせて augmented reality(AR)画像をディスプレイ装置14に表示する。
ユーザ30はさらに、第2カメラ20を装着している。第2カメラ20は、周囲を撮像するカメラであり、ヘッドマウントディスプレイ10以外の任意の場所に装着されている。例えば第2カメラ20は、ユーザ30の周囲を監視するための監視映像を生成する監視カメラである。
情報処理装置2000は、第2カメラ20の視野が正しいか否かを判定する。情報処理装置2000はこの判定に、第1カメラ12によって生成される第1撮像画像40と、第2カメラ20によって生成される第2撮像画像50とを用いる。ここで、ユーザ30は第1カメラ12と第2カメラ20という2つのカメラを身に付けている。そのため、予めキャリブレーションなどを行うことで、第1カメラ12の視野と第2カメラ20の視野とが満たすべき関係が定まる。情報処理装置2000は、第1撮像画像40と第2撮像画像50とを比較することにより、第1カメラ12の視野と第2カメラ20の視野とが満たすべき関係が満たされているか否かを判定する。情報処理装置2000は、この関係が満たされていない場合に、第2カメラ20の視野が正しくないと判定する。
そして情報処理装置2000は、第2カメラ20の視野が正しくない場合に、第2カメラ20の視野が正しくないことを報知する。この報知の方法は、ユーザ30が知覚できる任意の方法でよい。
上記機能を実現するために、情報処理装置2000は、判定部2020及び報知部2040を有する。図2は、実施形態1に係る情報処理装置2000を例示するブロック図である。判定部2020は、第1撮像画像40、第2撮像画像50及び関係情報を用いて、第2カメラ20の視野が正しいか否かを判定する。関係情報は、第1カメラ12の視野と第2カメラ20の視野とが満たすべき関係を示す情報である。報知部2040は、第2カメラ20の視野が正しくない場合に、第2カメラ20の視野が正しくないことを報知する。
<作用・効果>
本実施形態の情報処理装置2000によれば、ヘッドマウントディスプレイ10に設けられている第1カメラ12によって生成された第1撮像画像40と、ユーザ30に装着されておりなおかつヘッドマウントディスプレイ10以外の部分に設けられている第2カメラ20によって生成された第2撮像画像50と、第1カメラ12の視野と第2カメラ20の視野とが満たすべき関係を定めた関係情報に基づいて、第2カメラ20の視野が正しいか否かが判定される。そして、第2カメラ20の視野が正しくない場合にはその旨が報知される。
この構成によれば、ヘッドマウントディスプレイ10以外の部分に設けられている第2カメラ20についてその視野が正しいか否かを判定できる。よって、ヘッドマウントディスプレイ10以外の部分に設けられている第2カメラ20の視野がずれていることをユーザ30が把握できるため、第2カメラ20の視野を容易に正すことができる。
以下、本実施形態の情報処理装置2000をさらに詳細に説明する。
<情報処理装置2000のハードウエア構成の例>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図3は、情報処理装置2000を実現する計算機1000の構成を例示する図である。計算機1000は、Personal Computer(PC)、サーバ装置、又は携帯端末など、種々の計算機である。例えば計算機1000は、ヘッドマウントディスプレイ10として実装される。その他にも例えば、計算機1000は、第2カメラ20として実装されてもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージ1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージ1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU (Central Processing Unit) や GPU (Graphics Processing Unit) などの演算処理装置である。メモリ1060は、RAM (Random Access Memory) や ROM (Read Only Memory) などのメモリである。ストレージ1080は、ハードディスク、SSD (Solid State Drive)、又はメモリカードなどの記憶装置である。ストレージ1080は、RAM や ROM などのメモリであってもよい。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば計算機1000がヘッドマウントディスプレイ10として実装される場合、入出力インタフェース1100には第1カメラ12やディスプレイ装置14が接続される。
ネットワークインタフェース1120は、計算機1000をネットワークと接続するためのインタフェースである。例えば計算機1000がヘッドマウントディスプレイ10として実装される場合、ネットワークインタフェース1120には第2カメラ20が接続される。計算機1000は、第2カメラ20によって生成された第2撮像画像50を、ネットワークを介して取得する。
ストレージ1080は情報処理装置2000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールを実行することで、そのプログラムモジュールに対応する各機能を実現する。ここでプロセッサ1040は、上記各モジュールを実行する際、これらのモジュールをメモリ1060上に読み出してから実行してもよいし、メモリ1060上に読み出さずに実行してもよい。
計算機1000のハードウエア構成は図3に示した構成に限定されない。例えば、各プログラムモジュールはメモリ1060に格納されてもよい。この場合、計算機1000は、ストレージ1080を備えていなくてもよい。また例えば、第2カメラ20は、ネットワークインタフェース1120を介してではなく、入出力インタフェース1100を介して計算機1000に接続されてもよい。
<<第1カメラ12について>>
第1カメラ12は、ヘッドマウントディスプレイ10の任意の位置に設けられるカメラである。第1カメラ12は、ヘッドマウントディスプレイ10の周囲を撮像できる任意のカメラでよい。第1カメラ12は、繰り返し撮像を行い、各撮像結果を表す第1撮像画像40を生成する。
<<第2カメラ20について>>
第2カメラ20は、ユーザ30の任意の位置(例えば肩や胸など)に固定されるカメラである。第2カメラ20は、第2カメラ20の周囲を撮像できる任意のカメラでよい。例えば第2カメラ20は、監視用のビデオカメラである。第2カメラ20は、繰り返し撮像を行い、各撮像結果を表す第2撮像画像50を生成する。
前述したように、計算機1000は第2カメラ20で実現されてもよい。この場合、第2カメラ20は、自身で生成する第2撮像画像50と、第1カメラ12によって生成される第1撮像画像40とを比較することにより、第1カメラ12の視野と第2カメラ20の視野とが満たすべき関係が満たされているか否かを判定する(判定部2020)。この関係が満たされていない場合、第2カメラ20は、自身の視野が正しくないことを報知する(報知部2040)。
このように情報処理装置2000の機能を持たせる第2カメラ20には、例えば、インテリジェントカメラ、ネットワークカメラ又は、IP(Internet Protocol)カメラなどと呼ばれるカメラを利用することができる。
<処理の流れ>
図4は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。判定部2020は第1撮像画像40及び第2撮像画像50を取得する(S102)。判定部2020は関係情報を取得する(S104)。判定部2020は、第1撮像画像40、第2撮像画像50及び関係情報を用いて、第2カメラ20の視野が正しいか否かを判定する(S106)。第2カメラ20の視野が正しい場合(S106:YES)、図4の処理は終了する。一方、第2カメラ20の視野が正しくない場合(S106:NO)、図4の処理はS108に進む。S108において、報知部2040は報知を行う(S110)。
<第1撮像画像40の取得方法>
情報処理装置2000は第1撮像画像40を取得する(S102)。情報処理装置2000が第1撮像画像40を取得する方法は様々である。例えば情報処理装置2000は、第1カメラ12から第1撮像画像40を取得する。この場合、情報処理装置2000と第1カメラ12とは通信可能に接続されている。
また、第1カメラ12が外部の記憶装置に撮像画像を記憶する場合、情報処理装置2000は、この記憶装置から第1撮像画像40を取得する。この場合、情報処理装置2000は、この記憶装置と通信可能に接続されている。
情報処理装置2000が第1撮像画像40を取得するタイミングは様々である。例えば情報処理装置2000は、第1撮像画像40が生成されたタイミングで、その生成された第1撮像画像40を取得する。また例えば、情報処理装置2000は、定期的に第1撮像画像40を取得してもよい。後者の場合、情報処理装置2000は、複数の第1撮像画像40をまとめて取得してもよい。
<第2撮像画像50の取得方法>
情報処理装置2000が第2撮像画像50を取得する方法や第2撮像画像50を取得するタイミングは、情報処理装置2000が第1撮像画像40を取得する方法や第1撮像画像40を取得するタイミングと同様である。
なお、情報処理装置2000が第2カメラ20で実現される場合、情報処理装置2000は、情報処理装置2000自身によって生成された第2撮像画像50を取得する。この場合、第2撮像画像50は、例えば情報処理装置2000の内部にあるメモリ1060やストレージ1080(図3参照)に記憶されている。
<関係情報の詳細>
関係情報は、第1カメラ12の視野と第2カメラ20の視野とが満たすべき関係を示す。以下、関係情報を具体的に例示する。
<<関係情報1>>
例えば第1カメラ12の視野と第2カメラ20の視野とが満たすべき関係は、「第2カメラ20の視野が、第1カメラ12の視野の所定範囲を含む」という関係である。この場合、関係情報は、上記所定範囲を特定する情報を含む。
図5は、関係情報を概念的に例示する第1の図である。図5において、視野90は第1カメラ12の視野を表す。所定範囲100は、第2カメラ20の視野が含むべき、第1カメラ12の視野内の範囲を表す。例えば関係情報は、所定範囲100を、「左上端の座標、幅及び高さ」で特定する。図5において、所定範囲100の左上端の座標、幅及び高さはそれぞれ、(x1, y1)、w1、及び h1 である。ここで図5の座標系において、原点は視野90の左上端であり、X 方向は右方向であり、なおかつ Y 方向は下方向である。また所定範囲100の幅と高さはいずれも、視野90の幅と高さを1とする相対的な長さで表されている。
なお、図5の関係情報は便宜上、所定範囲100の大きさを相対値で表している。しかし関係情報に示される値は、相対値に限定されない。例えば関係情報は、所定範囲100の大きさを画素数で表すようにしてもよい。また、X 方向やY 方向も図5で示したものに限定されず、同等の記述が可能な任意の座標系を用いることができる。ただし、以降の説明では、図5と同じ座標系を用いる。
関係情報が示す所定範囲100は、予め固定で設定されていてもよいし、動的に設定されてもよい。後者の場合、所定範囲100の設定は手動で行われてもよいし、任意の計算機(例えば情報処理装置2000)によって行われてもよい。
例えば上記計算機は、ユーザ30の顔の向きに応じて所定範囲100の位置を変更する。ユーザ30の顔の向きが変わると、第1撮像画像40に映る景色が変わる。通常、所定範囲100は、第1撮像画像40上の所定位置に対して固定的に設定されるよりも、第1撮像画像40に写る風景の特定領域(例えば人が頻繁に通過する領域)に対して固定的に設定される方が望ましい。そこで上記計算機は、ユーザ30の顔の向きの変化に応じて所定範囲100の位置を設定する。
例えば上記計算機は、複数の第1撮像画像40(第1カメラ12によって生成される動画を構成する各フレーム)の間でマッチングを行うことで、第1撮像画像40に写っている景色全体がどのように動いたかを検知する。そして上記計算機は、この動きを打ち消す方向に所定範囲100の位置をずらす。例えば、第1撮像画像40に写っている景色全体が (dx, dy) だけ動いたことが検知された場合、上記計算機は、所定範囲100の四隅の位置を現状の位置から (-dx, -dy) ずらす。
ここで、フレーム間でマッチングを行う方法としては、単純にオプティカルフローを求める方式や特徴点を抽出して特徴点間でマッチングをとる方式など、様々な方式を用いることができる。
<<関係情報2>>
また例えば、第1カメラ12の視野と第2カメラ20の視野とが満たすべき関係は、「第2カメラ20の視野が、第1カメラ12の視野の垂直方向又は水平方向について、第1カメラ12の視野の所定範囲を含む」という関係である。この場合、関係情報は、上記所定範囲を特定する情報を含む。
図6は、関係情報を概念的に例示する第2の図である。視野120は、第2カメラ20の視野を表す。所定範囲110は、第1カメラ12の視野90の垂直方向について、第2カメラ20の視野120が含むべき範囲を示している。垂直方向について視野120が満たすべき条件は、視野120の上端の Y 座標が y1 以下であり、なおかつ視野120の下端の Y 座標が y2 以上であることである。なお、水平方向について視野120が満たすべき条件は、視野120が第1カメラ12の視野90に含まることである。言い換えれば、視野120の水平方向の位置は、視野90に含まれる任意の位置でよい。
図6において、第2カメラ20の視野120が4通り例示されている。視野120−1、視野120−2及び視野120−3はいずれも、上述の条件を満たしている。よって、第2カメラ20の視野が視野120−1から視野120−3のいずれかである場合、判定部2020は、第2カメラ20の視野が正しいと判定する。一方で、視野120−4は、垂直方向に関する条件を満たしていない。よって、第2カメラ20の視野が視野120−4である場合、判定部2020は、第2カメラ20の視野が正しくないと判定する。
例えば第1カメラ12が人を全体的に撮影するために用いられる一方で、第2カメラ20が人の所定部位(例えば頭部)を大きく撮影するために用いられるとする。この場合、第2カメラ20の視野120は、第1カメラ12の視野90のうち、その所定部位が写ると想定される範囲を含む必要がある。そこで例えば、図6に示す関係情報は、第1カメラ12の視野90において人の頭部が写ると想定される範囲を、所定範囲110として示す。
図7は、人の頭部が写ると想定される部分を所定範囲110として定めたケースを例示する図である。図7において、第1カメラ12の視野90には、複数の人130が道140を歩いている様子が写っている。人130の頭部はいずれも、所定範囲110に含まれている。そのため、第2カメラ20の視野120が垂直方向について所定範囲110を含んでいれば、第2撮像画像50に人の頭部が写ることとなる。
なお、図6を用いた関係情報の例は、第2カメラ20の視野120の垂直方向についての条件を示しているが、関係情報は同様の方法で、第2カメラ20の視野120の水平方向についての条件を示すものでもよい。
また前述したように、第2カメラ20で人の所定部位を大きく写すことを目的とする場合、関係情報は、「第1カメラ12の所定範囲110に人が写っている場合に、第2カメラ20の視野120に人の所定部位が写る」という条件を示す情報であってもよい。
関係情報が示す所定範囲110を設定する方法は様々である。ユーザ30が立つ位置が固定されている場合、例えばユーザ30が所定の位置に立った状態で第1カメラ12によって生成された第1撮像画像40を予め取得し、その第1撮像画像40を利用することで、所定範囲110を設定することができる。この設定は手動で行われてもよいし、任意の計算機(例えば情報処理装置2000)によって行われてもよい。
所定範囲110の設定が計算機によって行われる場合、例えばこの計算機は、第1撮像画像40に写っている人の頭部を検出する。あるいはこの計算機は、頭部を直接検出する代わりに上半身を検出し、上半身の上方を頭部とみなしてもよい。そしてこの計算機は、検出した頭部の Y 軸方向の位置に基づいて、所定範囲110を設定する。
例えば所定範囲110の高さ(図6における y2-y1)が予め定められているとする。このとき、上記計算機は、検出した頭部の Y 軸方向の位置が中心であり、なおかつ高さが上記所定の高さである範囲を、所定範囲110として設定する。また例えば、頭部と一緒に持ち物や服などの情報も取得したい場合、上記計算機は、検出した頭部の Y 軸方向の位置が中心よりやや上方(y1 に近い値)となるように所定範囲110を設定してもよい。この場合、例えば上記計算機は、y1 と y2の間を 1:α(αは1より大きな値)に内分する点が頭部の中心となるように、所定範囲110を設定する。
また例えば、第1撮像画像40から人の頭部が複数検出されたとする。この場合、例えば上記計算機は、Y 軸方向の位置が最も小さい頭部の位置(以下、Ymin)を所定範囲110の上端とし、Y 軸方向の位置が最も大きい頭部の位置(以下、Ymax)を所定範囲110の下端とする。あるいは上記計算機は、所定幅Δの余裕を持たせて、Ymin-Δ から Ymax+Δ までを所定範囲110としてもよい。所定幅Δを示す情報は、予め上記計算機に設定されていてもよいし、上記計算機からアクセス可能な記憶装置に記憶されていてもよい。
ユーザ30が移動する場合、第1カメラ12の視野90内において人の頭が写ると想定される範囲(所定範囲110)が変化することがある。この場合、所定範囲110を示す関係情報は、任意の計算機(例えば情報処理装置2000)によって動的に更新されてもよい。例えばこの計算機は、定期的に第1撮像画像40を取得し、その第1撮像画像40から検出される人の頭部の位置に基づいて、前述したように所定範囲110を設定する。
このように動的に関係情報を更新することにより、ユーザ30の移動に応じて適切な関係情報を利用できる。よって、情報処理装置2000は、ユーザ30が移動したりする場合であっても、第2カメラ20の視野が意図した視野となっているかを適切に判定できる。
なお、関係情報は判定部2020に設定される情報であってもよいし、判定部2020からアクセス可能な記憶装置に記憶される情報であってもよい。
<判定部2020の詳細>
判定部2020は、第1撮像画像40、第2撮像画像50及び関係情報を用いて、第2カメラ20の視野が正しいか否かを判定する(S106)。ここで、第1撮像画像40に写っている景色は、第1カメラ12の視野に含まれる景色を表す。一方、第2撮像画像50に写っている景色は、第2カメラ20の視野に含まれる景色を表す。そこで判定部2020は、第1撮像画像40によって表される第1カメラ12の視野、第2撮像画像50によって表される第2カメラ20の視野、及び関係情報を用いて、第2カメラ20の視野が正しいか否かを判定する。
第2カメラ20の視野が正しいか否かを判定する具体的な方法は、関係情報がどのような種類の情報を示すかに依存する。以下、第2カメラ20の視野が正しいか否かを判定する具体的な方法を例示する。
<<ケース1>>
関係情報が、前述した関係情報1のように、「第2カメラ20の視野が、第1カメラ12の視野の所定範囲を含む」という関係を示しているとする。この場合、関係情報は、図5で例示した所定範囲100を特定する情報を含む。
判定部2020は、第1撮像画像40の所定範囲100に写っている景色が第2カメラ20に写っている景色に含まれるかを判定する。第1撮像画像40の所定範囲100に写っている景色が第2カメラ20に写っている景色に含まれる場合、判定部2020は、第2カメラ20の視野が正しいと判定する。一方、第1撮像画像40の所定範囲100に写っている景色が第2カメラ20に写っている景色に含まれない場合、第2カメラ20の視野が正しくないと判定する。
第1撮像画像40の所定範囲100に写っている景色が第2カメラ20に写っている景色に含まれるか否かを判定する方法は様々である。例えば判定部2020は、第1撮像画像40内の所定範囲100の特徴量と、第2撮像画像50の特徴量とをそれぞれ算出する。ここで、画像の特徴量は、例えば画像に含まれる特徴的な色、模様、又は形状などを表すデータである。さらに判定部2020は、これらの特徴量の一致度合いを算出する。例えば判定部2020は、第1撮像画像40と第2撮像画像50のそれぞれについて特徴点を求め、特徴点近傍の特徴量を抽出し、特徴点間でマッチングを行うことにより、これらの画像の特徴量の一致度合いを算出できる。
上述したマッチングを行う際、第1撮像画像40と第2撮像画像50との間で倍率の比がわかっていれば、判定部2020は、この倍率の比率を示す情報を用いてマッチングの高速化を図ることができる。例えばある物体の長さが、第1撮像画像40では L1 画素となり、第2撮像画像50では L2 画素となることがわかっているとする。この場合、判定部2020は、第2撮像画像を L1/L2 倍して第1撮像画像とマッチングを行う。このように倍率の比を考慮したマッチングを行うことにより、倍率の比がわからない場合に比べ、マッチングを高速化できる。
特徴量の一致度合いが所定値以上である場合、判定部2020は、第1撮像画像40の所定範囲100に写っている景色が第2撮像画像50に写っている景色に含まれると判定する。この場合、判定部2020は、第2カメラ20の視野が正しいと判定する。一方、特徴量の一致度合いが所定値未満である場合、判定部2020は、第1撮像画像40の所定範囲100に写っている景色が第2撮像画像50に写っている景色に含まれないと判定する。この場合、判定部2020は、第2カメラ20の視野が正しくないと判定する。あるいは判定部2020は、所定範囲100の外部の領域において、特徴量の一致度度合いが所定値以上となる領域が存在する場合について、同様の判定を行ってもよい。
また例えば、判定部2020は、第1撮像画像40の所定範囲100に写っている人の数と、第2撮像画像50に写っている人の数との一致度合いによって、第1撮像画像40の所定範囲100に写っている景色が第2撮像画像50に写っている景色に含まれるか否かを判定する。具体的にはまず判定部2020は、第1撮像画像40の所定範囲100について人物検出処理を行うことにより、所定範囲100に写っている人の数を割り出す。同様に判定部2020は、第2撮像画像50について人物検出処理を行うことにより、第2撮像画像50に写っている人の数を割り出す。そして判定部2020は、第1撮像画像40の所定範囲100に写っている人の数と第2撮像画像50に写っている人の数との一致度合いを算出する。例えばこの一致度合いは、第1撮像画像40の所定範囲100に写っている人の数を、第2撮像画像50に写っている人の数で除算した値である。
この一致度合いが所定値以上の場合、判定部2020は、第1撮像画像40の所定範囲100に写っている景色が第2撮像画像50に写っている景色に含まれると判定する。この場合、判定部2020は、第2カメラ20の視野が正しいと判定する。一方、この一致度合いが所定値未満である場合、判定部2020は、第1撮像画像40の所定範囲100に写っている景色が第2撮像画像50に写っている景色に含まれないと判定する。この場合、判定部2020は、第2カメラ20の視野が正しくないと判定する。例えば、第2カメラ20の視野が正しい場合に、第1撮像画像40に写っている景色と第2撮像画像50に写っている景色とが一致するようにしたいときは、上記所定値を1に設定する。
なお、第1撮像画像40と第2撮像画像50に対する人物検出処理は必ずしも同じ処理である必要はなく、解像度などに応じた適切な人物検出処理を行うように判定部2020を構成することができる。例えば判定部2020は、解像度などに応じ、人物全体を検出する方法や上半身のみを検出する方法といった様々な方式を用いることができる。
ここで前述したように、第2カメラ20は、人の所定部位(頭部など)を大きく写すために用いられることがある。この場合、判定部2020は、第2撮像画像50に写っている人の数を算出する際、第2撮像画像50について人の所定部位を検出する処理を行い、検出された所定部位の数を第2撮像画像50に写っている人の数としてもよい。例えば所定部位が頭部である場合、判定部2020は頭部検出処理や顔検出処理を行う。
これにより、判定部2020は、第1撮像画像40の所定範囲100に写っている人の数と、第2撮像画像50に写っている人の所定部位の数との一致度合いが所定値未満である場合に、第2カメラ20の視野が正しくないと判定する。こうすることで、第2カメラ20の視野が、人の所定部位を正しく撮影できる視野になっていない場合に、ユーザ30がそのことを把握できるようになる。
なお、人のどの部位を所定部位とするかを示す情報は、判定部2020に予め設定されていてもよいし、判定部2020からアクセス可能な記憶装置に記憶されていてもよい。
なお、第2撮像画像50に人の所定部位が写っているか否かを判定する方法は、第2撮像画像50についてその所定部位の検出処理を行う方法に限定されない。例えば判定部2020は、第2撮像画像50について所定部位以外の部位を検出する処理を行い、その結果に基づいて、第2撮像画像50に所定部位が写っているか否かを判定してもよい。
例えば所定部位が頭部であるとする。この場合、第2撮像画像50に人の足下が写っている場合、第2撮像画像50に人の頭部が写っている確率が小さい。そこで判定部2020は、第2撮像画像50について人の足を検出する処理を行う。人の足が検出された場合、判定部2020は、所定部位である頭部が第2撮像画像50に写っていないと判定する。一方、人の足が検出されなかった場合、判定部2020は、所定部位である頭部が第2撮像画像50に写っていると判定する。
また判定部2020は、第1撮像画像40の所定範囲100に写っている種々のオブジェクトと第2カメラ20に写っている種々のオブジェクトとの一致度合いに基づいて、第2カメラ20の視野が正しいか否かを判定してもよい。オブジェクトは、人を含んでもよいし含まなくてもよい。例えばオブジェクトは、道路標識、ロードコーン、車のタイヤ、又は家や車の窓枠などである。どのようなものをオブジェクトとして扱うかを表す情報は、判定部2020に予め設定されていてもよいし、判定部2020からアクセス可能な記憶装置に記憶されていてもよい。
具体的には、判定部2020は、第1撮像画像40の所定範囲100と第2カメラ20全体のそれぞれに対してオブジェクト検出処理を行うことにより、オブジェクトを検出する。そして判定部2020は、第1撮像画像40の所定範囲100に写っているオブジェクトと、第2カメラ20に写っているオブジェクトとの一致度合いを算出する。例えばこの一致度合いは、第1撮像画像40の所定範囲100に写っているオブジェクトのうち、どの程度の割合のオブジェクトが第2カメラ20にも写っているかを表す値である。
上記一致度合いが所定値以上である場合、判定部2020は、第1撮像画像40の所定範囲100に写っている景色が第2撮像画像50に写っている景色に含まれると判定する。この場合、判定部2020は、第2カメラ20の視野が正しいと判定する。一方、上記一致度合いが所定値未満である場合、判定部2020は、第1撮像画像40の所定範囲100に写っている景色が第2撮像画像50に写っている景色に含まれないと判定する。この場合、判定部2020は、第2カメラ20の視野が正しくないと判定する。
あるいは判定部2020は、検出されたオブジェクト間の位置関係も合わせて用いてもよい。例えば、第1撮像画像40では所定範囲100の下側で検出されるロードコーンが第2撮像画像50では上側で検出された場合や、第1撮像画像40では所定範囲100の上側で検出される標識が第2撮像画像50では下側で検出された場合、判定部2020は、第2カメラ20の視野が正しくないと判定する。
あるいは判定部2020は、第1撮像画像40については所定範囲100の外側の領域に存在するオブジェクトも検出しておき、所定範囲100の外側の領域に存在するオブジェクトが第2撮像画像50に写っているか否かを判定してもよい。所定範囲100の外側の領域に存在するオブジェクトが第2撮像画像50に写っている場合、判定部2020は、第2カメラ20の視野が正しくないと判定する。
なお、第1撮像画像40の所定範囲100に写っている景色が第2撮像画像50に写っている景色に含まれるか否かを判定部2020が判定するタイミングは様々である。例えば判定部2020は、第1撮像画像40及び第2撮像画像50を取得する度にこの判定を行う。また例えば、判定部2020は、定期的にこの判定を行う。また例えば、判定部2020は、第1撮像画像40の所定範囲100に人が写っているか否かを判定し、所定範囲100に人が写っている場合に、第1撮像画像40の所定範囲100に写っている景色が第2撮像画像50に写っている景色に含まれるか否かの判定を行ってもよい。なお、第1撮像画像40の所定範囲100に人が写っているか否かの判定は、第1撮像画像40を取得する度に行われてもよいし、定期的に行われてもよい。
あるいは判定部2020は、第1撮像画像40の所定範囲100に写っている景色が第2撮像画像50に写っている景色に含まれるか否かを一度判定した後は、判定処理を簡略化してもよい。例えば判定部2020は、一度上記判定をした後は、第1撮像画像40に写っている景色の変動の大きさを検出し、この変動が大きい場合に再度上記判定を行うようにしてもよい。
判定部2020が第1撮像画像40に写っている景色の変動が大きいか否かを判定する方法は様々である。例えば判定部2020は、第1撮像画像40全体の動きを表すオプティカルフローを利用してこの判定を行う。具体的にはまず、判定部2020は上記オプティカルフローを算出する。そして判定部2020は、このオプティカルフローの平均値が閾値を超える場合に、第1撮像画像40に写っている景色の変動が大きいと判定する。
また例えば、判定部2020は、複数の第1撮像画像40それぞれについて低解像度画像を生成し、この低解像度画像を利用して判定を行ってもよい。具体的には、判定部2020は、上記低解像度画像間で差分を計算し、差分が一定値以上になる場合に、第1撮像画像40に写っている景色の変動が大きいと判定する。
また例えば、判定部2020は、複数の第1撮像画像40それぞれの背景領域を抽出し、背景領域間の差分が大きい場合に、第1撮像画像40に写っている景色の変動が大きいと判定してもよい。ここで、第1撮像画像40の背景領域は、前景領域となる人が映り込みにくい領域である。画像から背景領域を抽出する手法には、既知の技術が利用できる。
また例えば、判定部2020は、複数の第1撮像画像40から成る動画(第1カメラ12によって生成される動画)に圧縮処理を施し、圧縮後の動画のデータサイズに基づいて、第1撮像画像40に写っている景色の変動が大きいか否かを判定してもよい。一般に、動画を圧縮する場合、フレーム間の差分が大きいほど、圧縮後の動画のデータサイズが大きくなる。そこで例えば、判定部2020は、第1カメラ12によって生成される動画を所定時間ごとの部分動画に区切り、各部分動画に対して圧縮処理を施す。次に判定部2020は、部分動画間でデータサイズを比較する。そして判定部2020は、部分動画間のデータサイズの変動が大きい場合に、第1撮像画像40に写っている景色の変動が大きいと判定する。なお、動画の圧縮処理には、既知の種々の圧縮手法を利用することができる。
なお判定部2020は、1回の判定のみで第2カメラ20の視野が正しくないと判定するのではなく、複数回判定を行い、それらの結果を統合して最終的に判定するように構成されていてもよい。例えばユーザ30が一時的に顔向きを変えて別の場所を見た場合など、第1撮像画像40に写る景色だけが大きく変化し、第2撮像画像50に写る景色はあまり変化しない場合がある。ユーザ30が一時的に顔の向きを変えただけであれば、ユーザ30はまた同じ方向を向くようになるため、第1撮像画像40の景色はいずれ元に戻る。このような場合、第2カメラ20の視野は正しいとみなしてもよいと考えられる。そこで判定部2020は、上述のように複数回の判定を行い、得られた結果を統合する。これにより、ユーザ30が一時的に顔の向きを変えた場合などにおいて、第2カメラ20の視野が正しくないと即座に判定されるのを防ぐことができる。
なお判定部2020は、上述した種々の判定方法を組み合わせて判定するように構成されていてもよい。
<ケース2>
関係情報が、前述した関係情報2のように、「第2カメラ20の視野が、第1カメラ12の視野の垂直方向又は水平方向について、第1カメラ12の視野の所定範囲を含む」という関係を示しているとする。この場合、関係情報は、図6で例示した所定範囲110を特定する情報を示す。図6を用いて示した例の場合、第2カメラ20の視野は、垂直方向について所定範囲110を含んでいれば正しい視野である。
そこで、例えば判定部2020は、所定範囲110内に、第2撮像画像50に写っている景色と同じ景色を示す領域があるか否かを判定する。図8を用いて、この比較方法の例を説明する。図8は、ケース2の判定方法を概念的に例示する図である。まず判定部2020は、第1撮像画像40から比較領域1を抽出する。比較領域1は、1)第2撮像画像50と同じ大きさか又は第2撮像画像50よりも所定割合小さい大きさであり、2)左端の位置が第1撮像画像40の左端と同じ位置であり、なおかつ3)垂直方向の中心位置が、所定範囲110の垂直方向の中心位置と同じ位置である。
判定部2020は、第1撮像画像40の比較領域1に写っている景色と、第2撮像画像50に写っている景色とを比較する。第1撮像画像40の比較領域1に写っている景色が第2撮像画像50に写っている景色に含まれる場合、判定部2020は、第2撮像画像50の視野が正しいと判定する。一方、第1撮像画像40の比較領域1に写っている景色が第2撮像画像50に含まれない場合、判定部2020は、第1撮像画像40から次の比較対象である比較領域2を抽出する。比較領域2は、比較領域1を右方向へ s だけずらした領域である。s は予め定められたスライド幅である。そして判定部2020は、比較領域2について比較領域1と同様の比較処理を行う。
判定部2020は、第2撮像画像50に含まれる景色が写っている比較領域が見つかるか、又は比較領域が第1撮像画像40の右端に達するまで、比較領域を s ずつ右にずらしながら上述の比較処理を繰り返す。比較領域が第1撮像画像40の右端に達しても、第2撮像画像50に含まれる景色が写っている比較領域が見つからない場合、判定部2020は、第2カメラ20の視野が正しくないと判定する。
ここで、第1撮像画像40の比較領域に写っている景色が第2撮像画像50に写っている景色に含まれるか否かを判定する方法には、ケース1において説明した、第1撮像画像40の所定範囲100に写っている景色が第2撮像画像50に写っている景色に含まれるか否かを判定する種々の方法のいずれかを利用できる。
なお判定部2020は、過去に(例えば前回)行った判定の結果を利用して、第2撮像画像50と比較する比較領域の初期位置(図8では左端)とその順序(図8では左から順)を決定してもよい。例えば判定部2020は、前回の判定処理で特定された比較領域の位置を記憶しておき、その位置を比較領域の初期位置とする。そして判定部2020は、その初期位置を中心として左右に s ずつずらした各比較領域について、順に第2撮像画像50との比較を行っていく。前回一致した比較領域又はその付近の比較領域に写っている景色は、再度第2撮像画像50に一致する蓋然性が高いと考えられる。そこで上述のように、前回の判定結果を利用して比較領域の初期位置及び比較順序を定めることにより、判定部2020が行う処理を高速化できる。
また、前回の判定処理が行われた時からの第1撮像画像40及び第2撮像画像50の全体の動きがわかっている場合、判定部2020は、これらの動きを補償した上で同様の判定処理を行ってもよい。例えば前回の判定処理において第2撮像画像50に写っている景色と同じ景色が写っている比較領域は、第1撮像画像40の左端から x1 の位置にあったとする。そして、今回の判定処理の対象となる第1撮像画像40は、前回の判定処理の対象であった第1撮像画像40と比較して左に d 動いているとする。この場合、判定部2020は、今回の比較領域の初期位置を x1-d に設定する。
なお、スライド幅s を示す情報は、判定部2020に予め設定されていてもよいし、判定部2020からアクセス可能な記憶装置に記憶されていてもよい。
なお、判定部2020が比較領域と第2撮像画像50との比較処理を行うタイミングは様々である。例えば判定部2020は、第1撮像画像40及び第2撮像画像50を取得する度にこの判定を行う。また例えば、判定部2020は、定期的にこの判定を行う。また例えば、判定部2020は、第1撮像画像40の所定範囲110に人が写っているか否かを判定し、所定範囲110に人が写っている場合に、上記比較処理を行ってもよい。なお、第1撮像画像40の所定範囲110に人が写っているか否かの判定は、第1撮像画像40を取得する度に行われてもよいし、定期的に行われてもよい。あるいは、ケース1のところで述べたように、画面全体の動きを検知して判定を行うように構成されていてもよい。
例えば図7で示した道140を警備しているような場合、第2カメラ20の視野は人の頭部を写すことができればよいため、第2カメラ20の視野が当初の視野から水平方向に変化しても、その変化は警備に支障を与えない。また、警備員は左右を見渡しながら警備を行うことがあるため、水平方向についての第2カメラ20の視野の変化は許容されることが好ましい。
ケース2の判定方法によれば、第2カメラ20の視野が当初の位置から水平方向に変化していても、垂直方向にさえ変化していなければ、第2カメラ20の視野は正しいと判定される。よって、警備などに支障を与えない範囲で第2カメラ20の視野の変化を許容できるため、第2カメラ20の利便性が向上する。
<<ケース3>>
関係情報が、「第1カメラ12の視野の所定範囲に人が写っている場合に、第2カメラ20の視野に人の所定部位が写る」という条件を示しているとする。この場合、関係情報は、図6で例示した所定範囲110を特定する情報を含む。判定部2020は、第1撮像画像40の所定範囲110に人が写っており、なおかつ第2撮像画像50に人の所定部位が写っていない場合に、第2カメラ20の視野が正しくないと判定する。
まず判定部2020は、第1撮像画像40の所定範囲110についてオブジェクト解析処理を行うことで、所定範囲110に人が写っているか否かを判定する。所定範囲110に人が写っている場合、さらに判定部2020は、第2撮像画像50について人の所定部位の検出を行う。第2撮像画像50に人の所定部位が写っている場合、判定部2020は、第2カメラ20の視野が正しいと判定する。一方、第2撮像画像50に人の所定部位が写っていない場合、判定部2020は、第2カメラ20の視野が正しくないと判定する。
図9は、ケース3の判定方法を概念的に例示する図である。この例において、人の所定部位は頭部である。図9(a)は第1撮像画像40を表している。図9(a)において、所定範囲110に人が写っている。そこでこの第1撮像画像40を取得した判定部2020は、第2撮像画像50に人の頭部が写っているか否かを判定する。図9(b)では、第2撮像画像50に人の頭部が写っている。そのため、この第2撮像画像50を取得した判定部2020は、第2カメラ20の視野が正しいと判定する。一方、図9(c)では、第2撮像画像50に人の頭部が写っていない。そのため、この第2撮像画像50を取得した判定部2020は、第2カメラ20の視野が正しくないと判定する。
なお前述したように、第2撮像画像50に人の所定部位が写っているか否かの判定は、第2撮像画像50に所定部位以外の部位が写っているか否かを判定した結果に基づいて行われてもよい。あるいは判定部2020は、背景にあるオブジェクトを認識して判定するように構成されていてもよい。例えばロードコーンや車のタイヤなどが(特に第2撮像画像50内の上方の領域で)検出された場合、第2撮像画像50に人の頭部が写っている蓋然性は低い。そのため、例えば、所定部位が頭部であり、なおかつ第2撮像画像50にロードコーンなどの所定のオブジェクトが写っている場合、判定部2020は、第2カメラ20の視野が正しくないと判定してもよい。
また、判定部2020がケース3で説明した処理を行うタイミングは様々である。例えば判定部2020は、第1撮像画像40及び第2撮像画像50を取得する度にこの処理を行う。また例えば判定部2020は、定期的にこの処理を行う。また、判定部2020は、上述の種々の判定方法を組み合わせて判定するように構成されていてもよい。
このケース3の判定方法によれば、ケース2の判定方法と同様に、警備などに支障を与えない範囲で第2カメラ20の視野の変化を許容できるため、第2カメラ20の利便性が向上する。
<報知部2040の詳細>
報知部2040は、第2カメラ20の視野が正しくないことをユーザ30に報知する(S110)。ここで、ユーザ30に報知される情報を、報知情報と呼ぶ。報知情報は、テキスト、画像、又は音声などの任意のフォーマットのデータである。報知部2040は、報知情報をディスプレイに表示したり、報知情報を音声で出力したりする。これにより、ユーザ30は第2カメラ20の視野が正しくないことを把握できる。
例えば報知部2040は、第2カメラ20の視野が正しくないことを示す報知情報を、ヘッドマウントディスプレイ10のディスプレイ装置14に表示する。図10は、ディスプレイ装置14に表示される報知情報を例示する図である。図10において、ディスプレイ装置14上に報知情報150が表示されている。ヘッドマウントディスプレイ10を装着しているユーザ30は、この報知情報150を見ることで、第2カメラ20の視野が正しくないことを認識することができる。
[実施形態2]
図11は、実施形態2の情報処理装置2000を例示するブロック図である。下記で説明する点を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様の機能を有する。
実施形態2の情報処理装置2000はガイド出力部2060を有する。ガイド出力部2060は、第2カメラ20の視野を修正するために利用できるガイドを出力する。
<処理の流れ>
図12は、実施形態2の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。実施形態2の情報処理装置2000は、図4におけるS102からS108の処理を実行した後、S202を実行する。図をシンプルにするため、図4に示したステップの一部は図12において省略されている。
S202において、ガイド出力部2060は第2カメラ20の視野を修正して正しくするためのガイドを出力する。
<ガイド出力部2060の詳細>
ガイド出力部2060が出力するガイドは、第2カメラ20の視野を正しくするために利用できる任意の情報である。このガイドは、テキスト、画像、又は音声などの任意のフォーマットのデータである。ガイド出力部2060は、ガイドをディスプレイに表示したり、ガイドを音声で出力したりする。ユーザ30は、このガイドに従って第2カメラ20の位置や画角を調整することにより、第2カメラ20の視野を修正することができる。
例えばガイド出力部2060は、第2カメラ20の視野を修正するためのガイドを、ヘッドマウントディスプレイ10のディスプレイ装置14に表示する。図13は、ディスプレイ装置14に表示されるガイドを例示する図である。
<<ガイドの例1>>
図13(a)のガイド160−1は、第2カメラ20を向けるべき方向を示す。ガイド160−1を見たユーザ30は、ガイド160−1が表示されなくなるまで、第2カメラ20の取り付け位置をずらすか、又は第2カメラ20の画角を変更することにより、第2カメラ20の視野を修正する。こうすることでユーザ30は、第2カメラ20の視野を正しい視野に修正することができる。
第2カメラ20を向けるべき方向を算出する方法について説明する。関係情報が図5のように、第2カメラ20の視野に一致すべき第1カメラ12の視野内の所定範囲110を示すとする。この場合、例えばガイド出力部2060は、第2撮像画像50に写っている景色と一致する第1撮像画像40内の領域の中心を始点とし、なおかつ所定範囲100の中心を終点とする方向を算出する。そしてガイド出力部2060は、この方向を表す矢印の画像を、ディスプレイ装置14上の任意の位置に表示する。
また関係情報が図6のように、第2カメラ20の視野に関する垂直方向の条件を表す所定範囲110を示すとする。この場合、ガイド出力部2060は、第2撮像画像50に写っている景色と一致する第1撮像画像40内の領域が所定範囲110よりも下に位置するときには、第2カメラ20を向けるべき方向を上方向とする。一方、ガイド出力部2060は、第2撮像画像50に写っている景色と一致する第1撮像画像40内の領域が所定範囲110よりも上に位置するときには、第2カメラ20を向けるべき方向を下方向とする。
また、第2カメラ20の視野を向けるべき方向は、ジャイロセンサなど、傾きを検出するセンサによって計測された値に基づいて算出してもよい。この場合、情報処理装置2000は、センサを用いて第2カメラ20の傾きを定期的に計測し、その結果を記憶装置に記憶しておく。そしてガイド出力部2060は、第2カメラ20の視野が正しいとき(例えば第2カメラ20の使用を開始したとき)から現在までに計測された各時点における第2カメラ20の傾きを用いて、視野が正しいときの第2カメラ20の傾きと現在の第2カメラ20の傾きとの違いを算出する。そしてガイド出力部2060は、現在の第2カメラ20の傾きを視野が正しいときの第2カメラ20の傾きに戻す方向を、第2カメラ20の視野を向けるべき方向とする。なお、前述したセンサは第2カメラ20に設けられる。
あるいは、情報処理装置2000は、第2カメラ20で撮影された画像を時系列で解析し、カメラの傾きの方向を求めてもよい。例えば情報処理装置2000は、第2カメラ20によって生成される動画のフレーム間でオプティカルフローを求め、フレーム全体がどちらに動いたかを把握する。そして情報処理装置2000は、フレーム全体の動きを元に戻す方向を、第2カメラ20の視野を向けるべき方向とする。
<<ガイドの例2>>
図13(b)においてディスプレイ装置14に表示されるガイド160−2は、現在第2カメラ20の視野に写っている景色(第2撮像画像50)である。ユーザ30は、このガイド160−2を見ることにより、現在第2カメラ20の視野にどのような景色が写っているかを知ることができる。
例えば前述したように、第2カメラ20が人の頭部を大きく写すために用いられているとする。一方で図13(a)において、ディスプレイ装置14に表示されているガイド160−2には、人の足下が写っている。このことから、第2カメラ20の視野はより上方を向く必要があることが分かる。そこでユーザ30は、160−2に人の頭部が表示されるまで、第2カメラ20の取り付け位置を上方にずらしたり、第2カメラ20の画角を上に傾けたりする。これにより、ユーザ30は、第2カメラ20の視野を正しい視野に修正することができる。
<<ガイドの例3>>
図13(c)のガイド160−3は、現在の第2カメラ20の視野を表す枠線である。ガイド160−2を見たユーザ30は、現在の第2カメラ20の視野が、ディスプレイ装置14上のガイド160−2に囲まれた領域に相当することを把握できる。そこでユーザ30は、ガイド160−2が第2カメラ20の視野の正しい視野を表すようになるまで、第2カメラ20の取り付け位置をずらしたり、第2カメラ20の画角を変えたりする。これにより、ユーザ30は、第2カメラ20の視野を正しい視野に修正することができる。
なおガイド出力部2060が出力するガイドは、枠線に限定されない。例えばガイド出力部2060は、枠線で囲う代わりに、該当の領域に色を付けるようにしてもよい。また例えば、ガイド出力部2060は、単にガイドを表示するだけでなく、ガイドを点滅させるなどすることで、ユーザの注意を喚起するような構成になっていてもよい。
ガイド出力部2060は、第1撮像画像40と第2撮像画像50とを比較することで、第2撮像画像50に写っている景色が、第1撮像画像40に含まれるどの領域の景色と一致するかを割り出す。そしてガイド出力部2060は、この割り出した領域(以下、一致領域)に相当するディスプレイ装置14上の領域を、第2カメラ20の視野を表す領域(ガイド160−3で表すべき領域)とする。
ここで、第2カメラ20の視野を表す領域をディスプレイ装置14上に表示する具体的な方法は、ヘッドマウントディスプレイ10が透過型のヘッドマウントディスプレイと非透過型のヘッドマウントディスプレイのどちらであるかによって異なる。透過型のヘッドマウントディスプレイとは、ディスプレイ装置が透明又は半透明であるヘッドマウントディスプレイである。透過型のヘッドマウントディスプレイを利用するユーザは、ディスプレイ装置を透過して見える実際の景色と、ディスプレイ装置に表示される AR 画像などとを同時に見ることで、AR 画像などが実際の景色に重畳された様子を見ることができる。
一方、非透過型のヘッドマウントディスプレイとは、ディスプレイ装置が非透明であるヘッドマウントディスプレイである。非透過型のヘッドマウントディスプレイ10は、周囲の景色を第1カメラ12で撮影して第1撮像画像40を生成し、第1撮像画像40をディスプレイ装置14に表示する。ユーザ30は、ディスプレイ装置14に表示される第1撮像画像40を見ることで、周囲の景色を見ることができる。また非透過型のヘッドマウントディスプレイ10は、AR 画像などを第1撮像画像40に重畳してディスプレイ装置14に表示する。これによりユーザ30は、AR 画像などが実際の景色に重畳された様子を見ることができる。
ヘッドマウントディスプレイ10が透過型のヘッドマウントディスプレイであるとする。この場合、ガイド出力部2060は、第1撮像画像40上の位置とディスプレイ装置14上の位置との対応関係を用いて、第1撮像画像40上の一致領域をディスプレイ装置14上の領域へ変換する。そしてガイド出力部2060は、この変換されたディスプレイ装置14上の領域を示す表示(枠線など)をディスプレイ装置14に表示する。
ここで、第1撮像画像40上の位置とディスプレイ装置14上の位置との対応関係は、第1カメラ12の視野とディスプレイ装置14との関係に基づいて予め定まる。具体的には、この対応関係は、第1カメラ12の視野を表すパラメタ(ディスプレイ装置14との相対位置や画角)を用いて予め定まる。この対応関係を示す情報は、ガイド出力部2060に予め設定されていてもよいし、ガイド出力部2060からアクセス可能な記憶領域に記憶されていてもよい。
ヘッドマウントディスプレイ10が非透過型のヘッドマウントディスプレイである場合、ガイド出力部2060は、ディスプレイ装置14に表示する第1撮像画像40に、上述の一致領域を表す枠線の画像などを重畳する。これにより、第2カメラ20の視野に相当する領域が、ディスプレイ装置14上に表される。
なおガイド出力部2060は、ガイドの一部として、関係情報に示される所定範囲100や所定範囲110をディスプレイ装置14に表示してもよい。図14は、所定範囲100や所定範囲110がガイドの一部としてディスプレイ装置14に表示される様子を例示する図である。図14(a)では、ガイド160−3及び所定範囲100がガイドとしてディスプレイ装置14に表示されている。ユーザは、所定範囲100がガイド160−3の中に含まれるように第2カメラ20の視野を修正することで、第2カメラ20の視野を正しくすることができる。
一方、図14(b)では、ガイド160−3及び所定範囲110がガイドとしてディスプレイ装置14に表示されている。ユーザは、垂直方向について所定範囲110がガイド160−3に含まれるように第2カメラ20の視野を修正することで、第2カメラ20の視野を正しくすることができる。
なお本実施形態において、ガイド出力部2060によって出力されるガイドは、報知部2040によって出力される報知情報を兼ねていてもよい。例えば図13(a)においてディスプレイ装置14に表示される矢印の画像は、第2カメラ20の視野を正しい視野へ修正するためのガイドとしての役割を持つと同時に、第2カメラ20の視野が正しくないことをユーザ30へ報知する報知情報としての役割も持つことができる。このような場合、情報処理装置2000は、ガイドとは別に報知情報を出力する必要がない。この場合、情報処理装置2000は、報知部2040を有さなくてもよい。
<ハードウエア構成例>
実施形態2の情報処理装置2000のハードウエア構成は、実施形態1の情報処理装置2000と同様に、例えば図3によって表される。実施形態2のストレージ1080には、上述した実施形態2の各機能を実現するプログラムが含まれる。
<作用・効果>
本実施形態によれば、第2カメラ20の視野が正しくないことが報知されるだけでなく、第2カメラ20の視野を正しくするためのガイドが出力される。このガイドを用いることにより、ユーザ30は第2カメラ20の視野を容易に修正することができる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。
例えば、第1カメラ12は、必ずしもヘッドマウントディスプレイ10上に設けられなくてもよい。図15は、第1カメラ12がヘッドマウントディスプレイ10上以外の場所に設けられるケースを例示する図である。図15において、第1カメラ12は、ユーザ30の左耳付近に固定されている。また第1カメラ12は、ユーザ30が装着している帽子や通常の眼鏡などに固定されていてもよい。
なお、第1撮像画像40に写る景色がユーザ30の視野に写る景色に近いものとなるように、第1カメラ12はユーザ30の頭部(首より上)に固定されていることが好ましい。ただし、第1カメラ12が設けられる位置はユーザ30の頭部に限定されない。
第1カメラ12をヘッドマウントディスプレイ10上に設けない場合、ユーザ30はヘッドマウントディスプレイ10を装着しなくてもよい。ユーザ30がヘッドマウントディスプレイ10を装着しない場合、例えば報知部2040によって生成される報知情報やガイド出力部2060によって生成されるガイドは、音声で出力される。また例えば、報知情報やガイドは、ユーザ30が所持する携帯端末に対してテキスト情報や画像として送信されてもよい。ユーザ30は、携帯端末のディスプレイ装置に表示されるテキスト情報や画像を見ることで、第2カメラ20の視野が正しくないことを把握したり、第2カメラ20の視野を正しくするためのガイドを見たりすることができる。
また、ユーザ30は、ヘッドマウントディスプレイ10の代わりに、ディスプレイ装置を備えたコンタクトレンズを装着してもよい。この場合、情報処理装置2000は、このコンタクトレンズに備えられたディスプレイ装置を、ヘッドマウントディスプレイ10のディスプレイ装置14と同様に扱うことができる。またこの場合、第1カメラ12はこのコンタクトレンズに埋め込まれてもよい。
以下、参考形態の例を付記する。
1. 人に装着されている第1のカメラによって生成された第1の撮像画像と、前記人に装着されている第2のカメラによって生成された第2の撮像画像と、前記第1のカメラの視野と前記第2のカメラの視野とが満たすべき所定の関係を定めた関係情報とに基づいて、前記第2のカメラの視野が正しいか否かを判定する判定手段と、
前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野が正しくないことを報知する報知手段と、を有し、
前記第1のカメラは前記人に装着されたヘッドマウントディスプレイに設けられており、
前記第2のカメラは前記ヘッドマウントディスプレイ以外に設けられたカメラである、
情報処理装置。
2. 前記関係情報は、前記第1のカメラの視野の所定範囲が前記第2のカメラの視野に含まれるという関係を示し、
前記判定手段は、
前記第1の撮像画像、前記第2の撮像画像、及び前記関係情報を用いて、前記第1のカメラの視野の前記所定範囲が前記第2のカメラの視野に含まれるか否かを判定し、
前記第1のカメラの視野の前記所定範囲が前記第2のカメラの視野に含まれない場合に、前記第2のカメラの視野が正しくないと判定する、1.に記載の情報処理装置。
3. 前記第1のカメラの視野の前記所定範囲は、前記第1のカメラの視野の垂直方向の範囲又は水平方向の範囲を示す、2.に記載の情報処理装置。
4. 前記関係情報は、前記第1のカメラの視野の所定範囲に人が写っている場合に、前記第2のカメラの視野に人の所定部位が写っているという関係を示し、
前記判定手段は、
前記第1の撮像画像及び前記関係情報を用いて、前記第1のカメラの視野の前記所定範囲に人が写っているか否かを判定し、
前記第1のカメラの視野の前記所定範囲に人が写っている場合、前記第2の撮像画像及び前記関係情報を用いて、前記第2のカメラの視野に人の前記所定部位が写っているか否かを判定し、
前記第2のカメラの視野に人の前記所定部位が写っていない場合に、前記第2のカメラの視野が正しくないと判定する、1.に記載の情報処理装置。
5. 前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野を修正するためのガイドを出力するガイド出力手段を有する、1.乃至4.いずれか一つに記載の情報処理装置。
6. 前記ガイドは、前記第2のカメラの視野を向けるべき方向を示す、5.に記載の情報処理装置。
7. 前記ガイドは、前記第2の撮像画像を示す、5.に記載の情報処理装置。
8. 前記ガイドは、前記第1のカメラの視野に重畳して前記第2のカメラの現在の視野を示す、5.に記載の情報処理装置。
9. 前記ガイド出力手段は前記ヘッドマウントディスプレイに設けられたディスプレイ装置に前記ガイドを表示する、5.乃至8.いずれか一つに記載の情報処理装置。
10. コンピュータによって実行される制御方法であって、
人に装着されている第1のカメラによって生成された第1の撮像画像と、前記人に装着されている第2のカメラによって生成された第2の撮像画像と、前記第1のカメラの視野と前記第2のカメラの視野とが満たすべき所定の関係を定めた関係情報とに基づいて、前記第2のカメラの視野が正しいか否かを判定する判定ステップと、
前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野が正しくないことを報知する報知ステップと、を有し、
前記第1のカメラは前記人に装着されたヘッドマウントディスプレイに設けられており、
前記第2のカメラは前記ヘッドマウントディスプレイ以外に設けられたカメラである、
制御方法。
11. 前記関係情報は、前記第1のカメラの視野の所定範囲が前記第2のカメラの視野に含まれるという関係を示し、
前記判定ステップは、
前記第1の撮像画像、前記第2の撮像画像、及び前記関係情報を用いて、前記第1のカメラの視野の前記所定範囲が前記第2のカメラの視野に含まれるか否かを判定し、
前記第1のカメラの視野の前記所定範囲が前記第2のカメラの視野に含まれない場合に、前記第2のカメラの視野が正しくないと判定する、10.に記載の制御方法。
12. 前記第1のカメラの視野の前記所定範囲は、前記第1のカメラの視野の垂直方向の範囲又は水平方向の範囲を示す、11.に記載の制御方法。
13. 前記関係情報は、前記第1のカメラの視野の所定範囲に人が写っている場合に、前記第2のカメラの視野に人の所定部位が写っているという関係を示し、
前記判定ステップは、
前記第1の撮像画像及び前記関係情報を用いて、前記第1のカメラの視野の前記所定範囲に人が写っているか否かを判定し、
前記第1のカメラの視野の前記所定範囲に人が写っている場合、前記第2の撮像画像及び前記関係情報を用いて、前記第2のカメラの視野に人の前記所定部位が写っているか否かを判定し、
前記第2のカメラの視野に人の前記所定部位が写っていない場合に、前記第2のカメラの視野が正しくないと判定する、10.に記載の制御方法。
14. 前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野を修正するためのガイドを出力するガイド出力ステップを有する、10.乃至13.いずれか一つに記載の制御方法。
15. 前記ガイドは、前記第2のカメラの視野を向けるべき方向を示す、14.に記載の制御方法。
16. 前記ガイドは、前記第2の撮像画像を示す、14.に記載の制御方法。
17. 前記ガイドは、前記第1のカメラの視野に重畳して前記第2のカメラの現在の視野を示す、14.に記載の制御方法。
18. 前記ガイド出力ステップは前記ヘッドマウントディスプレイに設けられたディスプレイ装置に前記ガイドを表示する、14.乃至17.いずれか一つに記載の制御方法。
19. 10.乃至18.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。
20. ヘッドマウントディスプレイであって、
撮像を行って第1の撮像画像を生成する第1のカメラと、
前記第1の撮像画像と、当該ヘッドマウントディスプレイを装着している人に装着されている第2のカメラによって生成された第2の撮像画像と、前記第1のカメラの視野と前記第2のカメラの視野とが満たすべき所定の関係を定めた関係情報とに基づいて、前記第2のカメラの視野が正しいか否かを判定する判定手段と、
前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野が正しくないことを報知する報知手段と、を有し、
前記第2のカメラは当該ヘッドマウントディスプレイ以外に設けられたカメラである、ヘッドマウントディスプレイ。
21. 人に装着されるウェアラブルカメラであって、
前記人に装着されているヘッドマウントディスプレイに設けられているカメラによって生成された第1の撮像画像と、当該ウェアラブルカメラによって生成された第2の撮像画像と、前記ヘッドマウントディスプレイに設けられているカメラの視野と当該ウェアラブルカメラの視野とが満たすべき所定の関係を定めた関係情報とに基づいて、当該ウェアラブルカメラの視野が正しいか否かを判定する判定手段と、
当該ウェアラブルカメラの視野が正しくないと判定された場合に、当該ウェアラブルカメラの視野が正しくないことを報知する報知手段と、を有し、
当該ウェアラブルカメラは前記ヘッドマウントディスプレイ以外に設けられる、ウェアラブルカメラ。
この出願は、2015年12月28日に出願された日本出願特願2015−255924号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (1)

  1. 人に装着されている第1のカメラによって生成された第1の撮像画像と、前記人に装着されている第2のカメラによって生成された第2の撮像画像と、前記第1のカメラの視野と前記第2のカメラの視野とが満たすべき所定の関係を定めた関係情報とに基づいて、前記第2のカメラの視野が正しいか否かを判定する判定手段と、
    前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野が正しくないことを報知する報知手段と、を有し、
    前記第1のカメラは前記人に装着されたヘッドマウントディスプレイに設けられており、
    前記第2のカメラは前記ヘッドマウントディスプレイ以外に設けられたカメラである、
    情報処理装置。
JP2020128080A 2015-12-28 2020-07-29 情報処理装置、制御方法、及びプログラム Active JP6977823B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015255924 2015-12-28
JP2015255924 2015-12-28
JP2017558886A JP6769444B2 (ja) 2015-12-28 2016-11-21 情報処理装置、制御方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017558886A Division JP6769444B2 (ja) 2015-12-28 2016-11-21 情報処理装置、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020182246A true JP2020182246A (ja) 2020-11-05
JP6977823B2 JP6977823B2 (ja) 2021-12-08

Family

ID=59225010

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017558886A Active JP6769444B2 (ja) 2015-12-28 2016-11-21 情報処理装置、制御方法、及びプログラム
JP2020128080A Active JP6977823B2 (ja) 2015-12-28 2020-07-29 情報処理装置、制御方法、及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017558886A Active JP6769444B2 (ja) 2015-12-28 2016-11-21 情報処理装置、制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US10950002B2 (ja)
JP (2) JP6769444B2 (ja)
WO (1) WO2017115587A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11199946B2 (en) * 2017-09-20 2021-12-14 Nec Corporation Information processing apparatus, control method, and program
CN113465611B (zh) 2021-06-29 2024-03-26 阿波罗智联(北京)科技有限公司 导航方法、装置、电子设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012029245A (ja) * 2010-07-27 2012-02-09 Sanyo Electric Co Ltd 撮像装置
JP2014179958A (ja) * 2013-03-15 2014-09-25 Olympus Corp 撮像画像表示装置、撮像システム、撮像画像表示方法およびプログラム
JP2015095802A (ja) * 2013-11-13 2015-05-18 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3305148A (en) * 1965-07-13 1967-02-21 Arthur E Zimmerman Instrument harness
JP2001211403A (ja) * 2000-01-25 2001-08-03 Mixed Reality Systems Laboratory Inc 頭部装着型表示装置及び頭部装着型表示システム
JP3676360B2 (ja) 2003-02-25 2005-07-27 松下電器産業株式会社 画像撮像処理方法
US9370704B2 (en) * 2006-08-21 2016-06-21 Pillar Vision, Inc. Trajectory detection and feedback system for tennis
US20110063446A1 (en) 2009-09-14 2011-03-17 Mcmordie David Saccadic dual-resolution video analytics camera
EP2513701B1 (en) 2009-12-17 2015-05-06 BAE Systems PLC A method of aligning a helmet mounted display
US8786680B2 (en) * 2011-06-21 2014-07-22 Disney Enterprises, Inc. Motion capture from body mounted cameras
US10110805B2 (en) * 2012-12-06 2018-10-23 Sandisk Technologies Llc Head mountable camera system
US9686466B1 (en) 2013-06-27 2017-06-20 Google Inc. Systems and methods for environment content sharing
US10408613B2 (en) 2013-07-12 2019-09-10 Magic Leap, Inc. Method and system for rendering virtual content
WO2015081313A2 (en) * 2013-11-27 2015-06-04 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9649558B2 (en) * 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
JP2015186021A (ja) 2014-03-24 2015-10-22 オリンパス株式会社 撮影機器、撮像観察機器、画像比較表示方法、画像比較表示プログラム及び画像比較表示システム
US10852838B2 (en) 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10492981B1 (en) 2015-07-17 2019-12-03 Bao Tran Systems and methods for computer assisted operation
US20190253618A1 (en) 2015-12-28 2019-08-15 Nec Corporation Information processing apparatus, control method, and program
US10764503B2 (en) 2015-12-28 2020-09-01 Nec Corporation Information processing apparatus, control method, and program for outputting a guide for correcting a field of view of a camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012029245A (ja) * 2010-07-27 2012-02-09 Sanyo Electric Co Ltd 撮像装置
JP2014179958A (ja) * 2013-03-15 2014-09-25 Olympus Corp 撮像画像表示装置、撮像システム、撮像画像表示方法およびプログラム
JP2015095802A (ja) * 2013-11-13 2015-05-18 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム

Also Published As

Publication number Publication date
JP6977823B2 (ja) 2021-12-08
US20200286259A1 (en) 2020-09-10
JPWO2017115587A1 (ja) 2018-11-08
JP6769444B2 (ja) 2020-10-14
WO2017115587A1 (ja) 2017-07-06
US10950002B2 (en) 2021-03-16

Similar Documents

Publication Publication Date Title
US9934573B2 (en) Technologies for adjusting a perspective of a captured image for display
JP5728009B2 (ja) 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
US9357203B2 (en) Information processing system using captured image, information processing device, and information processing method
CN103955272A (zh) 一种终端设备用户姿态检测系统
JP2016149660A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6977823B2 (ja) 情報処理装置、制御方法、及びプログラム
US20170372679A1 (en) Mobile Terminal for Automatically Adjusting a Text Size and a Method Thereof
CN110998666A (zh) 信息处理装置、信息处理方法以及程序
US11682183B2 (en) Augmented reality system and anchor display method thereof
US10764503B2 (en) Information processing apparatus, control method, and program for outputting a guide for correcting a field of view of a camera
US20190253618A1 (en) Information processing apparatus, control method, and program
US20170061695A1 (en) Wearable display apparatus, information processing apparatus, and control method therefor
TWI603225B (zh) 液晶顯示器顯示視角的調整方法和裝置
CN113568595A (zh) 基于ToF相机的显示器组件的控制方法、装置、设备和介质
JP2017173455A (ja) 情報処理装置、情報処理方法及びプログラム
WO2020044916A1 (ja) 情報処理装置、情報処理方法及びプログラム
US11030443B2 (en) Information processing apparatus, control method, and program
JP2018088604A (ja) 画像表示装置、画像表示方法、システム
US20190033589A1 (en) Head-mounted apparatus
KR20230081693A (ko) 증강현실 제공 장치 및 이의 동작 방법
CN113703161A (zh) 扩增实境系统与其锚定显示方法
WO2020137197A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP5853443B2 (ja) 映像表示装置
WO2024078686A1 (en) A computer software module arrangement, a circuitry arrangement, an arrangement and a method for improved human perception in xr systems
CN111554223A (zh) 显示设备的画面调节方法、显示设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211025

R150 Certificate of patent or registration of utility model

Ref document number: 6977823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150