JP2020182246A - 情報処理装置、制御方法、及びプログラム - Google Patents
情報処理装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2020182246A JP2020182246A JP2020128080A JP2020128080A JP2020182246A JP 2020182246 A JP2020182246 A JP 2020182246A JP 2020128080 A JP2020128080 A JP 2020128080A JP 2020128080 A JP2020128080 A JP 2020128080A JP 2020182246 A JP2020182246 A JP 2020182246A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- view
- field
- captured image
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 73
- 238000000034 method Methods 0.000 title abstract description 86
- 230000008569 process Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 17
- 230000008859 change Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/634—Warning indications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
Description
図1は、実施形態1に係る情報処理装置2000の動作を概念的に例示する図である。ユーザ30は、ヘッドマウントディスプレイ10を装着している。ユーザ30は、例えばイベント会場などを警備する警備員である。ヘッドマウントディスプレイ10には、第1カメラ12及びディスプレイ装置14が備えられている。第1カメラ12は周囲を撮像するカメラである。ディスプレイ装置14は任意の画像を表示するディスプレイ装置である。ヘッドマウントディスプレイ10がディスプレイ装置14に任意の画像を表示することにより、ユーザ30は、任意の画像が周囲の景色に重畳された様子を見ることができる。例えばヘッドマウントディスプレイ10は、第1カメラ12によって生成される撮像画像に基づいて周囲の景色を認識し、その周囲の景色に合わせて augmented reality(AR)画像をディスプレイ装置14に表示する。
本実施形態の情報処理装置2000によれば、ヘッドマウントディスプレイ10に設けられている第1カメラ12によって生成された第1撮像画像40と、ユーザ30に装着されておりなおかつヘッドマウントディスプレイ10以外の部分に設けられている第2カメラ20によって生成された第2撮像画像50と、第1カメラ12の視野と第2カメラ20の視野とが満たすべき関係を定めた関係情報に基づいて、第2カメラ20の視野が正しいか否かが判定される。そして、第2カメラ20の視野が正しくない場合にはその旨が報知される。
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
第1カメラ12は、ヘッドマウントディスプレイ10の任意の位置に設けられるカメラである。第1カメラ12は、ヘッドマウントディスプレイ10の周囲を撮像できる任意のカメラでよい。第1カメラ12は、繰り返し撮像を行い、各撮像結果を表す第1撮像画像40を生成する。
第2カメラ20は、ユーザ30の任意の位置(例えば肩や胸など)に固定されるカメラである。第2カメラ20は、第2カメラ20の周囲を撮像できる任意のカメラでよい。例えば第2カメラ20は、監視用のビデオカメラである。第2カメラ20は、繰り返し撮像を行い、各撮像結果を表す第2撮像画像50を生成する。
図4は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。判定部2020は第1撮像画像40及び第2撮像画像50を取得する(S102)。判定部2020は関係情報を取得する(S104)。判定部2020は、第1撮像画像40、第2撮像画像50及び関係情報を用いて、第2カメラ20の視野が正しいか否かを判定する(S106)。第2カメラ20の視野が正しい場合(S106:YES)、図4の処理は終了する。一方、第2カメラ20の視野が正しくない場合(S106:NO)、図4の処理はS108に進む。S108において、報知部2040は報知を行う(S110)。
情報処理装置2000は第1撮像画像40を取得する(S102)。情報処理装置2000が第1撮像画像40を取得する方法は様々である。例えば情報処理装置2000は、第1カメラ12から第1撮像画像40を取得する。この場合、情報処理装置2000と第1カメラ12とは通信可能に接続されている。
情報処理装置2000が第2撮像画像50を取得する方法や第2撮像画像50を取得するタイミングは、情報処理装置2000が第1撮像画像40を取得する方法や第1撮像画像40を取得するタイミングと同様である。
関係情報は、第1カメラ12の視野と第2カメラ20の視野とが満たすべき関係を示す。以下、関係情報を具体的に例示する。
例えば第1カメラ12の視野と第2カメラ20の視野とが満たすべき関係は、「第2カメラ20の視野が、第1カメラ12の視野の所定範囲を含む」という関係である。この場合、関係情報は、上記所定範囲を特定する情報を含む。
また例えば、第1カメラ12の視野と第2カメラ20の視野とが満たすべき関係は、「第2カメラ20の視野が、第1カメラ12の視野の垂直方向又は水平方向について、第1カメラ12の視野の所定範囲を含む」という関係である。この場合、関係情報は、上記所定範囲を特定する情報を含む。
判定部2020は、第1撮像画像40、第2撮像画像50及び関係情報を用いて、第2カメラ20の視野が正しいか否かを判定する(S106)。ここで、第1撮像画像40に写っている景色は、第1カメラ12の視野に含まれる景色を表す。一方、第2撮像画像50に写っている景色は、第2カメラ20の視野に含まれる景色を表す。そこで判定部2020は、第1撮像画像40によって表される第1カメラ12の視野、第2撮像画像50によって表される第2カメラ20の視野、及び関係情報を用いて、第2カメラ20の視野が正しいか否かを判定する。
関係情報が、前述した関係情報1のように、「第2カメラ20の視野が、第1カメラ12の視野の所定範囲を含む」という関係を示しているとする。この場合、関係情報は、図5で例示した所定範囲100を特定する情報を含む。
関係情報が、前述した関係情報2のように、「第2カメラ20の視野が、第1カメラ12の視野の垂直方向又は水平方向について、第1カメラ12の視野の所定範囲を含む」という関係を示しているとする。この場合、関係情報は、図6で例示した所定範囲110を特定する情報を示す。図6を用いて示した例の場合、第2カメラ20の視野は、垂直方向について所定範囲110を含んでいれば正しい視野である。
関係情報が、「第1カメラ12の視野の所定範囲に人が写っている場合に、第2カメラ20の視野に人の所定部位が写る」という条件を示しているとする。この場合、関係情報は、図6で例示した所定範囲110を特定する情報を含む。判定部2020は、第1撮像画像40の所定範囲110に人が写っており、なおかつ第2撮像画像50に人の所定部位が写っていない場合に、第2カメラ20の視野が正しくないと判定する。
報知部2040は、第2カメラ20の視野が正しくないことをユーザ30に報知する(S110)。ここで、ユーザ30に報知される情報を、報知情報と呼ぶ。報知情報は、テキスト、画像、又は音声などの任意のフォーマットのデータである。報知部2040は、報知情報をディスプレイに表示したり、報知情報を音声で出力したりする。これにより、ユーザ30は第2カメラ20の視野が正しくないことを把握できる。
図11は、実施形態2の情報処理装置2000を例示するブロック図である。下記で説明する点を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様の機能を有する。
図12は、実施形態2の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。実施形態2の情報処理装置2000は、図4におけるS102からS108の処理を実行した後、S202を実行する。図をシンプルにするため、図4に示したステップの一部は図12において省略されている。
ガイド出力部2060が出力するガイドは、第2カメラ20の視野を正しくするために利用できる任意の情報である。このガイドは、テキスト、画像、又は音声などの任意のフォーマットのデータである。ガイド出力部2060は、ガイドをディスプレイに表示したり、ガイドを音声で出力したりする。ユーザ30は、このガイドに従って第2カメラ20の位置や画角を調整することにより、第2カメラ20の視野を修正することができる。
図13(a)のガイド160−1は、第2カメラ20を向けるべき方向を示す。ガイド160−1を見たユーザ30は、ガイド160−1が表示されなくなるまで、第2カメラ20の取り付け位置をずらすか、又は第2カメラ20の画角を変更することにより、第2カメラ20の視野を修正する。こうすることでユーザ30は、第2カメラ20の視野を正しい視野に修正することができる。
図13(b)においてディスプレイ装置14に表示されるガイド160−2は、現在第2カメラ20の視野に写っている景色(第2撮像画像50)である。ユーザ30は、このガイド160−2を見ることにより、現在第2カメラ20の視野にどのような景色が写っているかを知ることができる。
図13(c)のガイド160−3は、現在の第2カメラ20の視野を表す枠線である。ガイド160−2を見たユーザ30は、現在の第2カメラ20の視野が、ディスプレイ装置14上のガイド160−2に囲まれた領域に相当することを把握できる。そこでユーザ30は、ガイド160−2が第2カメラ20の視野の正しい視野を表すようになるまで、第2カメラ20の取り付け位置をずらしたり、第2カメラ20の画角を変えたりする。これにより、ユーザ30は、第2カメラ20の視野を正しい視野に修正することができる。
実施形態2の情報処理装置2000のハードウエア構成は、実施形態1の情報処理装置2000と同様に、例えば図3によって表される。実施形態2のストレージ1080には、上述した実施形態2の各機能を実現するプログラムが含まれる。
本実施形態によれば、第2カメラ20の視野が正しくないことが報知されるだけでなく、第2カメラ20の視野を正しくするためのガイドが出力される。このガイドを用いることにより、ユーザ30は第2カメラ20の視野を容易に修正することができる。
1. 人に装着されている第1のカメラによって生成された第1の撮像画像と、前記人に装着されている第2のカメラによって生成された第2の撮像画像と、前記第1のカメラの視野と前記第2のカメラの視野とが満たすべき所定の関係を定めた関係情報とに基づいて、前記第2のカメラの視野が正しいか否かを判定する判定手段と、
前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野が正しくないことを報知する報知手段と、を有し、
前記第1のカメラは前記人に装着されたヘッドマウントディスプレイに設けられており、
前記第2のカメラは前記ヘッドマウントディスプレイ以外に設けられたカメラである、
情報処理装置。
2. 前記関係情報は、前記第1のカメラの視野の所定範囲が前記第2のカメラの視野に含まれるという関係を示し、
前記判定手段は、
前記第1の撮像画像、前記第2の撮像画像、及び前記関係情報を用いて、前記第1のカメラの視野の前記所定範囲が前記第2のカメラの視野に含まれるか否かを判定し、
前記第1のカメラの視野の前記所定範囲が前記第2のカメラの視野に含まれない場合に、前記第2のカメラの視野が正しくないと判定する、1.に記載の情報処理装置。
3. 前記第1のカメラの視野の前記所定範囲は、前記第1のカメラの視野の垂直方向の範囲又は水平方向の範囲を示す、2.に記載の情報処理装置。
4. 前記関係情報は、前記第1のカメラの視野の所定範囲に人が写っている場合に、前記第2のカメラの視野に人の所定部位が写っているという関係を示し、
前記判定手段は、
前記第1の撮像画像及び前記関係情報を用いて、前記第1のカメラの視野の前記所定範囲に人が写っているか否かを判定し、
前記第1のカメラの視野の前記所定範囲に人が写っている場合、前記第2の撮像画像及び前記関係情報を用いて、前記第2のカメラの視野に人の前記所定部位が写っているか否かを判定し、
前記第2のカメラの視野に人の前記所定部位が写っていない場合に、前記第2のカメラの視野が正しくないと判定する、1.に記載の情報処理装置。
5. 前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野を修正するためのガイドを出力するガイド出力手段を有する、1.乃至4.いずれか一つに記載の情報処理装置。
6. 前記ガイドは、前記第2のカメラの視野を向けるべき方向を示す、5.に記載の情報処理装置。
7. 前記ガイドは、前記第2の撮像画像を示す、5.に記載の情報処理装置。
8. 前記ガイドは、前記第1のカメラの視野に重畳して前記第2のカメラの現在の視野を示す、5.に記載の情報処理装置。
9. 前記ガイド出力手段は前記ヘッドマウントディスプレイに設けられたディスプレイ装置に前記ガイドを表示する、5.乃至8.いずれか一つに記載の情報処理装置。
10. コンピュータによって実行される制御方法であって、
人に装着されている第1のカメラによって生成された第1の撮像画像と、前記人に装着されている第2のカメラによって生成された第2の撮像画像と、前記第1のカメラの視野と前記第2のカメラの視野とが満たすべき所定の関係を定めた関係情報とに基づいて、前記第2のカメラの視野が正しいか否かを判定する判定ステップと、
前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野が正しくないことを報知する報知ステップと、を有し、
前記第1のカメラは前記人に装着されたヘッドマウントディスプレイに設けられており、
前記第2のカメラは前記ヘッドマウントディスプレイ以外に設けられたカメラである、
制御方法。
11. 前記関係情報は、前記第1のカメラの視野の所定範囲が前記第2のカメラの視野に含まれるという関係を示し、
前記判定ステップは、
前記第1の撮像画像、前記第2の撮像画像、及び前記関係情報を用いて、前記第1のカメラの視野の前記所定範囲が前記第2のカメラの視野に含まれるか否かを判定し、
前記第1のカメラの視野の前記所定範囲が前記第2のカメラの視野に含まれない場合に、前記第2のカメラの視野が正しくないと判定する、10.に記載の制御方法。
12. 前記第1のカメラの視野の前記所定範囲は、前記第1のカメラの視野の垂直方向の範囲又は水平方向の範囲を示す、11.に記載の制御方法。
13. 前記関係情報は、前記第1のカメラの視野の所定範囲に人が写っている場合に、前記第2のカメラの視野に人の所定部位が写っているという関係を示し、
前記判定ステップは、
前記第1の撮像画像及び前記関係情報を用いて、前記第1のカメラの視野の前記所定範囲に人が写っているか否かを判定し、
前記第1のカメラの視野の前記所定範囲に人が写っている場合、前記第2の撮像画像及び前記関係情報を用いて、前記第2のカメラの視野に人の前記所定部位が写っているか否かを判定し、
前記第2のカメラの視野に人の前記所定部位が写っていない場合に、前記第2のカメラの視野が正しくないと判定する、10.に記載の制御方法。
14. 前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野を修正するためのガイドを出力するガイド出力ステップを有する、10.乃至13.いずれか一つに記載の制御方法。
15. 前記ガイドは、前記第2のカメラの視野を向けるべき方向を示す、14.に記載の制御方法。
16. 前記ガイドは、前記第2の撮像画像を示す、14.に記載の制御方法。
17. 前記ガイドは、前記第1のカメラの視野に重畳して前記第2のカメラの現在の視野を示す、14.に記載の制御方法。
18. 前記ガイド出力ステップは前記ヘッドマウントディスプレイに設けられたディスプレイ装置に前記ガイドを表示する、14.乃至17.いずれか一つに記載の制御方法。
19. 10.乃至18.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。
20. ヘッドマウントディスプレイであって、
撮像を行って第1の撮像画像を生成する第1のカメラと、
前記第1の撮像画像と、当該ヘッドマウントディスプレイを装着している人に装着されている第2のカメラによって生成された第2の撮像画像と、前記第1のカメラの視野と前記第2のカメラの視野とが満たすべき所定の関係を定めた関係情報とに基づいて、前記第2のカメラの視野が正しいか否かを判定する判定手段と、
前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野が正しくないことを報知する報知手段と、を有し、
前記第2のカメラは当該ヘッドマウントディスプレイ以外に設けられたカメラである、ヘッドマウントディスプレイ。
21. 人に装着されるウェアラブルカメラであって、
前記人に装着されているヘッドマウントディスプレイに設けられているカメラによって生成された第1の撮像画像と、当該ウェアラブルカメラによって生成された第2の撮像画像と、前記ヘッドマウントディスプレイに設けられているカメラの視野と当該ウェアラブルカメラの視野とが満たすべき所定の関係を定めた関係情報とに基づいて、当該ウェアラブルカメラの視野が正しいか否かを判定する判定手段と、
当該ウェアラブルカメラの視野が正しくないと判定された場合に、当該ウェアラブルカメラの視野が正しくないことを報知する報知手段と、を有し、
当該ウェアラブルカメラは前記ヘッドマウントディスプレイ以外に設けられる、ウェアラブルカメラ。
Claims (1)
- 人に装着されている第1のカメラによって生成された第1の撮像画像と、前記人に装着されている第2のカメラによって生成された第2の撮像画像と、前記第1のカメラの視野と前記第2のカメラの視野とが満たすべき所定の関係を定めた関係情報とに基づいて、前記第2のカメラの視野が正しいか否かを判定する判定手段と、
前記第2のカメラの視野が正しくないと判定された場合に、前記第2のカメラの視野が正しくないことを報知する報知手段と、を有し、
前記第1のカメラは前記人に装着されたヘッドマウントディスプレイに設けられており、
前記第2のカメラは前記ヘッドマウントディスプレイ以外に設けられたカメラである、
情報処理装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015255924 | 2015-12-28 | ||
JP2015255924 | 2015-12-28 | ||
JP2017558886A JP6769444B2 (ja) | 2015-12-28 | 2016-11-21 | 情報処理装置、制御方法、及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017558886A Division JP6769444B2 (ja) | 2015-12-28 | 2016-11-21 | 情報処理装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020182246A true JP2020182246A (ja) | 2020-11-05 |
JP6977823B2 JP6977823B2 (ja) | 2021-12-08 |
Family
ID=59225010
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017558886A Active JP6769444B2 (ja) | 2015-12-28 | 2016-11-21 | 情報処理装置、制御方法、及びプログラム |
JP2020128080A Active JP6977823B2 (ja) | 2015-12-28 | 2020-07-29 | 情報処理装置、制御方法、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017558886A Active JP6769444B2 (ja) | 2015-12-28 | 2016-11-21 | 情報処理装置、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10950002B2 (ja) |
JP (2) | JP6769444B2 (ja) |
WO (1) | WO2017115587A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11199946B2 (en) * | 2017-09-20 | 2021-12-14 | Nec Corporation | Information processing apparatus, control method, and program |
CN113465611B (zh) | 2021-06-29 | 2024-03-26 | 阿波罗智联(北京)科技有限公司 | 导航方法、装置、电子设备及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012029245A (ja) * | 2010-07-27 | 2012-02-09 | Sanyo Electric Co Ltd | 撮像装置 |
JP2014179958A (ja) * | 2013-03-15 | 2014-09-25 | Olympus Corp | 撮像画像表示装置、撮像システム、撮像画像表示方法およびプログラム |
JP2015095802A (ja) * | 2013-11-13 | 2015-05-18 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3305148A (en) * | 1965-07-13 | 1967-02-21 | Arthur E Zimmerman | Instrument harness |
JP2001211403A (ja) * | 2000-01-25 | 2001-08-03 | Mixed Reality Systems Laboratory Inc | 頭部装着型表示装置及び頭部装着型表示システム |
JP3676360B2 (ja) | 2003-02-25 | 2005-07-27 | 松下電器産業株式会社 | 画像撮像処理方法 |
US9370704B2 (en) * | 2006-08-21 | 2016-06-21 | Pillar Vision, Inc. | Trajectory detection and feedback system for tennis |
US20110063446A1 (en) | 2009-09-14 | 2011-03-17 | Mcmordie David | Saccadic dual-resolution video analytics camera |
EP2513701B1 (en) | 2009-12-17 | 2015-05-06 | BAE Systems PLC | A method of aligning a helmet mounted display |
US8786680B2 (en) * | 2011-06-21 | 2014-07-22 | Disney Enterprises, Inc. | Motion capture from body mounted cameras |
US10110805B2 (en) * | 2012-12-06 | 2018-10-23 | Sandisk Technologies Llc | Head mountable camera system |
US9686466B1 (en) | 2013-06-27 | 2017-06-20 | Google Inc. | Systems and methods for environment content sharing |
US10408613B2 (en) | 2013-07-12 | 2019-09-10 | Magic Leap, Inc. | Method and system for rendering virtual content |
WO2015081313A2 (en) * | 2013-11-27 | 2015-06-04 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9649558B2 (en) * | 2014-03-14 | 2017-05-16 | Sony Interactive Entertainment Inc. | Gaming device with rotatably placed cameras |
JP2015186021A (ja) | 2014-03-24 | 2015-10-22 | オリンパス株式会社 | 撮影機器、撮像観察機器、画像比較表示方法、画像比較表示プログラム及び画像比較表示システム |
US10852838B2 (en) | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10492981B1 (en) | 2015-07-17 | 2019-12-03 | Bao Tran | Systems and methods for computer assisted operation |
US20190253618A1 (en) | 2015-12-28 | 2019-08-15 | Nec Corporation | Information processing apparatus, control method, and program |
US10764503B2 (en) | 2015-12-28 | 2020-09-01 | Nec Corporation | Information processing apparatus, control method, and program for outputting a guide for correcting a field of view of a camera |
-
2016
- 2016-11-21 WO PCT/JP2016/084406 patent/WO2017115587A1/ja active Application Filing
- 2016-11-21 JP JP2017558886A patent/JP6769444B2/ja active Active
- 2016-11-21 US US16/065,530 patent/US10950002B2/en active Active
-
2020
- 2020-07-29 JP JP2020128080A patent/JP6977823B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012029245A (ja) * | 2010-07-27 | 2012-02-09 | Sanyo Electric Co Ltd | 撮像装置 |
JP2014179958A (ja) * | 2013-03-15 | 2014-09-25 | Olympus Corp | 撮像画像表示装置、撮像システム、撮像画像表示方法およびプログラム |
JP2015095802A (ja) * | 2013-11-13 | 2015-05-18 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6977823B2 (ja) | 2021-12-08 |
US20200286259A1 (en) | 2020-09-10 |
JPWO2017115587A1 (ja) | 2018-11-08 |
JP6769444B2 (ja) | 2020-10-14 |
WO2017115587A1 (ja) | 2017-07-06 |
US10950002B2 (en) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9934573B2 (en) | Technologies for adjusting a perspective of a captured image for display | |
JP5728009B2 (ja) | 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路 | |
US9357203B2 (en) | Information processing system using captured image, information processing device, and information processing method | |
CN103955272A (zh) | 一种终端设备用户姿态检测系统 | |
JP2016149660A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6977823B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
US20170372679A1 (en) | Mobile Terminal for Automatically Adjusting a Text Size and a Method Thereof | |
CN110998666A (zh) | 信息处理装置、信息处理方法以及程序 | |
US11682183B2 (en) | Augmented reality system and anchor display method thereof | |
US10764503B2 (en) | Information processing apparatus, control method, and program for outputting a guide for correcting a field of view of a camera | |
US20190253618A1 (en) | Information processing apparatus, control method, and program | |
US20170061695A1 (en) | Wearable display apparatus, information processing apparatus, and control method therefor | |
TWI603225B (zh) | 液晶顯示器顯示視角的調整方法和裝置 | |
CN113568595A (zh) | 基于ToF相机的显示器组件的控制方法、装置、设备和介质 | |
JP2017173455A (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2020044916A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11030443B2 (en) | Information processing apparatus, control method, and program | |
JP2018088604A (ja) | 画像表示装置、画像表示方法、システム | |
US20190033589A1 (en) | Head-mounted apparatus | |
KR20230081693A (ko) | 증강현실 제공 장치 및 이의 동작 방법 | |
CN113703161A (zh) | 扩增实境系统与其锚定显示方法 | |
WO2020137197A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP5853443B2 (ja) | 映像表示装置 | |
WO2024078686A1 (en) | A computer software module arrangement, a circuitry arrangement, an arrangement and a method for improved human perception in xr systems | |
CN111554223A (zh) | 显示设备的画面调节方法、显示设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200729 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200729 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210622 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6977823 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |