JP6525740B2 - 情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム - Google Patents

情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム Download PDF

Info

Publication number
JP6525740B2
JP6525740B2 JP2015111680A JP2015111680A JP6525740B2 JP 6525740 B2 JP6525740 B2 JP 6525740B2 JP 2015111680 A JP2015111680 A JP 2015111680A JP 2015111680 A JP2015111680 A JP 2015111680A JP 6525740 B2 JP6525740 B2 JP 6525740B2
Authority
JP
Japan
Prior art keywords
imaging unit
processing apparatus
unit
information processing
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015111680A
Other languages
English (en)
Other versions
JP2016225885A (ja
Inventor
弘市 山口
弘市 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015111680A priority Critical patent/JP6525740B2/ja
Priority to US15/158,869 priority patent/US10198868B2/en
Priority to DE102016006242.8A priority patent/DE102016006242B4/de
Priority to GB1609331.2A priority patent/GB2541073B/en
Priority to CN201610373472.0A priority patent/CN106210699B/zh
Publication of JP2016225885A publication Critical patent/JP2016225885A/ja
Application granted granted Critical
Publication of JP6525740B2 publication Critical patent/JP6525740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Description

本発明は、情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラムに関し、特に、頭部装着型の表示装置、すなわちHMD(Head Mounted Display)を用いる画像処理技術に関する。
近年、現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルーHMD(HMDはHead Mounted Displayである。)を利用して、HMD使用者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像し、その撮像画像にCG(CGはComputer Graphicsである。)を重畳表示した画像をHMD使用者が観察する技術が知られている。
ビデオシースルー型HMDでは、CCD等の電荷結合素子により被写体を撮像して該被写体のデジタル画像データを得るとともに、CG画像を重畳したMR画像(複合現実画像)を液晶や有機EL等の表示デバイスを介して装着者に表示する構成になっている。
図15は、HMD使用者がHMD2501を装着している時の図である。HMD2501の他に外部装置(不図示)があり、HMD2501から外部装置にHMD2501で撮像した撮像画像を送信する。外部装置ではHMDから受信した撮像画像からHMD2501の位置姿勢を計算し、当該計算結果に基づいて撮像画像に対してCG画像を重畳しHMDへ送信する。HMD2501では外部装置から受信した重畳画像を表示する。HMD使用者はHMD2501を用いることでMR空間を体験することが可能となる。
現実世界を撮像し、CG画像を重畳してMR空間を体験するための撮像素子とは別に、HMD2501の位置姿勢を取得するための撮像素子を搭載しているHMDがある。体験用と位置姿勢取得用の撮像素子を別々にする理由の一つとして、位置姿勢を取得するための撮像素子の画角を広くし撮像範囲を広くして、位置姿勢を取得するための特徴点を多く撮像することで、より精度の高い位置姿勢を取得することができる。
一般に、撮像部はAuto Exposureと呼ばれる機能を有しておいる。これはシャッター速度やゲイン等を制御することで撮像部から出力される画像の明るさを一定にする機能である(特許文献1参照)。
ここで、図16(a)は撮像部で机を撮像した時の図である。机の上に置いているマークの特徴を計算することでHMDの位置姿勢を取得することができる。図16(b)は現実世界が明るくなった時に撮像部で撮像した結果の画像であり、現実世界が明るくなったことにより、撮像している対象物が白とびしている。例えば窓から差し込む太陽光の強さによって現実世界の明るさが変化する。図16(c)は、図16(b)の後、撮像部のAuto Exposure機能が動作したことによって、撮像部で撮像した後の撮像画像が図16(a)の時と同じようになった図である。
特開2006−295506号公報
特許文献1に記載のAuto Exposure機能では、MR体験用の撮像と位置姿勢取得用の撮像とを区別せずに行っている。そのため、図16(a)から図16(b)、そして図16(b)から図16(c)のように変化することが起こりうる。すなわち、外界の明るさが変化する時(図16(b)の時)に撮像画像が白とびしているため、必ずしも高精度にHMDの位置姿勢を取得することができないという課題がある。
本発明は、上記の課題に鑑みてなされたものであり、撮像部が複数存在する場合において、外界の明るさが変化する場合でも、各撮像部での撮像を高精度に行う技術を提供することを目的とする。
上記の目的を達成する本発明に係る情報処理装置は、
第1の撮像部又は第2の撮像部により撮像された撮像画像の輝度値を取得する輝度値取得手段と、
前記撮像画像を撮像した前記第1の撮像部又は前記第2の撮像部に対して外界の明るさの変化に対応する自動露光制御の追従パラメータを決定する決定手段と、
前記輝度値と前記追従パラメータとに基づいて、前記第1の撮像部又は前記第2の撮像部に対して撮像パラメータを設定する設定手段と、
を備えることを特徴とする。
本発明によれば、撮像部が複数存在する場合において、外界の明るさが変化する場合でも、各撮像部での撮像を高精度に行うことが可能になる。
第1実施形態に係る画像処理システムの構成例を示す図。 第1実施形態に係る機能ブロック図。 第1実施形態に係る撮像画像処理部の詳細ブロック図。 第1実施形態に係る位置姿勢取得用撮像部の向きと測光方式との関係を示す図。 第1実施形態に係る追従時間を決定するための表。 第1実施形態に係るAuto Exposure制御の一例を示す図。 第1実施形態に係るAuto Exposure制御の一例を示す図。 第1実施形態に係るAuto Exposure制御の全体フローチャート。 第1実施形態に係るAuto Exposure制御のフローチャート。 第2実施形態に係る位置姿勢取得用撮像部の向きを示す図。 第2実施形態に係る機能ブロック図。 第2実施形態に係る撮像画像処理部の詳細ブロック図。 第2実施形態に係るAuto Exposure制御の全体フローチャート。 第3実施形態に係るAuto Exposure制御のフローチャート。 HMDを使用者が装着した様子を示す図。 外界の明るさが変化した際の被写体の様子を示す図。
(第1実施形態)
本実施形態では、情報処理装置としての頭部搭載型の表示装置(以下、HMD。)の、体験用撮像部と位置姿勢取得用撮像部との各Auto Exposure(自動露光とも称する。)機能の制御を分離して制御すること、そして、位置姿勢取得用撮像部のAuto Exposure機能を外界の明るさの変化に対して素早く対応させる制御を行う例を説明する。
図1は、本実施形態に係る画像処理システムの構成例を示す図である。図1において、画像処理システムは、HMD1101と、コントローラ1102と、表示部1103を有する画像処理装置1104とを備えている。
HMD1101は、画像表示部11010、コントローラ1102と通信する通信部11011、及び、それらを制御する制御部11012を備えており、HMD1101は使用者の頭部に装着される。画像表示部11010は、画像処理装置1104により生成された画像を表示する。画像表示部11010は、使用者のそれぞれの眼の前に光学系を含む構成で取付けられている。
HMD1101は、WLAN(Wireless Local Area Network)やWPAN(Wireless Personal Area Network)のような小規模ネットワークを構成するコントローラ1102と通信を行う。HMD1101とコントローラ1102との間には、無線通信方式に限らず、有線通信方式を利用してもよい。また、HMD1101には撮像部1105が搭載されている。撮像部1105はHMD1101の位置姿勢を取得するために外界を撮像する。
コントローラ1102と有線接続された画像処理装置1104は、画像を再生する再生部と再生する画像を格納しておく格納部を有する。画像処理装置1104はコントローラ1102を介し、HMD1101と通信を行う。また、画像処理装置1104は、キーボードなどを備え、データや、命令等を入力し、入力されたデータの表示や、命令の結果等は、表示部1103に表示される。
なお、図1の例では、画像処理装置1104とコントローラ1102とを別々のハードウェア構成としている。一方で、コントローラ1102の持つ機能をすべて画像処理装置1104内に実装して一体化することや、画像処理装置1104とコントローラ1102とがそれぞれ有する機能を集め、専用の画像処理装置を構成することも可能である。
図2は、本実施形態に係るHMDと画像処理装置とを有する画像処理システムの機能ブロック図である。HMD1201は、位置姿勢取得用撮像部1202と、体験用撮像部1203と、表示部1204と、制御部1205と、撮像画像処理部1206と、画像処理装置I/F通信部1207と、その他不図示の機能部とを備える。HMD1201がHMD1101に対応している。
位置姿勢取得用撮像部1202は外界を撮像し、HMDの位置姿勢を取得するために使用する。体験用撮像部1203は外界を撮像し、複合現実感体験用に使用する。表示部1204は、画像を表示する。制御部1205は、HMD1201を制御する。撮像画像処理部1206は、体験用撮像部1203と位置姿勢取得用撮像部1202で撮像した画像の画像処理を行う。画像処理装置I/F通信部1207は、画像や制御信号を送受信する。
一方、画像処理装置1210は、PC(Personal Computer)やWS(Workstation)などHMD1201とは異なる外部の装置で構成されている。画像処理装置1210は、HMD I/F通信部1211と、位置姿勢取得部1212と、コンテンツデータベース(DB)1213と、CG描画部1214と、その他不図示の機能部とを備える。画像処理装置1210が画像処理装置1104に対応している。
HMD I/F通信部1211は、画像や制御信号等を送受信する。位置姿勢取得部1212は、HMD1201から受信した位置姿勢取得用の撮像画像からHMD1201の位置姿勢を取得する。コンテンツデータベース(DB)1213は、仮想画像のCGコンテンツを格納する。CG描画部1214は、コンテンツDB1213に格納されているCG画像を、体験用撮像部1203により撮像された撮像画像に重畳する。
なお、本実施形態では、HMD1201から画像処理装置1210へ撮像画像を送り、画像処理装置1210で位置姿勢取得を行い、仮想画像のCGを撮像画像に重畳しているが、この例に限定されない。例えば、位置姿勢取得部1212をHMD1201に搭載して、HMD1201の位置姿勢情報を画像処理装置1210へ送信してもよい。そして、画像処理装置1210からHMD1201へ仮想画像のCG画像のみを送り、HMD1201の中で撮像画像とCG画像とを重畳する構成にしてもよい。
上述の構成において、HMD1201の体験用撮像部1203、位置姿勢取得用撮像部1202で撮像した外界の画像は、撮像画像処理部1206で処理される。撮像画像処理部1206の処理内容は、撮像画像の色味補正や、Auto Exposure用の処理等である。その後、処理された撮像画像は画像処理装置I/F通信部1207を介して画像処理装置1210へ送られる。
画像処理装置1210の位置姿勢取得部1212は、受信した位置姿勢取得用の撮像画像に基づいて、HMD1201の位置姿勢を取得する。CG描画部1214は、位置姿勢取得部1212で取得したHMD1201の位置姿勢に基づいてCGを描画し、CGを体験用撮像部1203で撮像した撮像画像に重畳する。その後、HMD I/F通信部1211を介してHMD1201へ送信する。HMD1201は、画像処理装置1210から受信した画像を表示部1204で表示する。以上の構成により、HMD1201を装着することで、画像処理装置1210で描画したCGと撮像画像との重畳画像を観察することができる。
続いて、図3は、HMD1201の撮像画像処理部1206の詳細ブロック図であり、特にAuto Exposureの機能を実現する機能ブロック図である。撮像画像処理部1206は、輝度変換部1301と、輝度積分値取得部1302と、測光方法決定部1303と、パラメータ設定部1304と、追従パラメータ決定部1305とを備える。
体験用撮像部1203又は位置姿勢取得用撮像部1202で撮像された撮像画像は、輝度変換部1301へ送られる。輝度変換部1301は、撮像画像を画素毎にRed(R)、Green(G)、Blue(B)から輝度値へ変換を行う(輝度値取得)。R、G、Bから輝度(Y)への変換は一般的な以下の式等を用いて行う。
Y = 0.299×R+0.587×G+0.114×B...(1)
輝度変換部1301で輝度値に変換されたデータは、輝度積分値取得部1302へ送られる。輝度積分値取得部1302は、輝度変換部1301から送られてきた輝度値と、測光方法決定部1303から送られてきた測光方法とに基づいて、領域毎に重みづけを加味した輝度積分値を求めてパラメータ設定部1304へ送る。
ここで、測光方法決定部1303で決定する測光方法について説明する。測光方法の決定では、撮像画像を例えば3×3や5×5等の領域に分割し、どの領域の輝度値を重点的に用いるかを決定する。図4は、撮像画像を4×4に分割する時の測光方法の例を示している。
図4(a)の1701は体験者、1702は位置姿勢取得用撮像部である。図4(a)の位置姿勢取得用撮像部1702は、ほぼ体験者1701の視線と同じ方向を向いて取り付けられている。この場合、撮像画像の中央付近の領域1703の輝度積分値の重みを増やす。
一方、図4(b)の位置姿勢取得用撮像部1702は少し上方向を向いている。この場合、天井に付けられている照明を取る場合があるため、図4(a)の場合と比べて重みを付ける個所を領域1704に変更している。同様に、図4(c)の場合、位置姿勢取得用撮像部は少し下方向を向いている。この場合、床に映った影を取る場合があるため、同じように重みを付けている個所を領域1705に変更している。
位置姿勢取得用撮像部1702の向きが変わっているのは、MR体験する場所によって最適な向きへ変更して使用するためである。例えば、床に位置姿勢を取得するための情報が沢山ある場合は図4(c)のような方法で使用する。
追従パラメータ決定部1305は、外界の明るさの変化に対して、どの程度の時間差でAuto Exposure制御を行うかを追従パラメータとして決定し、当該情報をパラメータ設定部1304へ送る。
ここで、追従パラメータ決定部1305が決定する追従パラメータについて説明する。追従パラメータは、外界の明るさが変化してから自動露光制御の追従を行うまでの時間差を示す。図5は、外界の明るさの変化に対して、どの程度の時間差でAuto Exposure制御の追従を行うかを示した例である。図5(a)は、位置姿勢取得用撮像の追従パラメータの例であり、図5(b)は、体験用撮像の追従パラメータの例である。
図5の例では、位置姿勢取得用撮像部1202からの出力画像は、例えば1fps以内に目標輝度になるように制御したり、5fps以内に目標輝度になるように制御したりする。一方、図5(b)は、体験用撮像部1203の追従パラメータであり、1秒かけて目標輝度になるように制御したり、5秒かけて目標輝度になるように制御したりする。このように、位置姿勢取得用の追従パラメータの方が体験用の追従パラメータよりも早く目標輝度になるようなパラメータになっている。
パラメータ設定部1304は、輝度積分値取得部1302から受け取った領域毎の輝度積分値と、追従パラメータ決定部1305から受け取った追従パラメータとに基づいて、撮像画像の明るさが一定になるように体験用撮像部1203や位置姿勢取得用撮像部1202に対して設定するシャッター速度やゲイン等の撮像パラメータを求め、当該撮像パラメータを体験用撮像部1203や位置姿勢取得用撮像部1202へ送る。
なお、本実施形態では、撮像画像の輝度を変更するためにシャッター速度とゲインとの少なくとも何れか1つを制御する方法を説明するが、この限りではない。
続いて、パラメータ設定部1304が行うシャッター速度の変更方法について説明する。図6(a)−図6(e)は、外界の明るさの変化と、それに伴う各種制御タイミングと、当該制御によって出力された撮像画像の輝度とを示した図である。図6(a)は、外界の明るさの変化を示した図である。縦軸が明るさ、横軸が時間を表しており、時刻t1からt2にかけて明るくなり、時刻t3からt4にかけて暗くなることを示している。
図6(b)は、図6(a)に示すように外界の明るさが変化した場合の体験用撮像部1203に対するAuto Exposure制御のON/OFF制御を示す。時刻t1からある程度経過したt5からAuto Exposure制御を開始し、時刻t2からある程度経過したt6で制御を終了している。同様に、時刻t3からある程度経過したt7からAuto Exposure制御を開始し、時刻t4からある程度経過したt8で制御を終了している。
図6(c)は、図6(b)に示すON/OFF制御を行った場合に体験用撮像部1203から出力される撮像画像の輝度情報を示している。外界の明るさの変化に少し遅れて追従し、撮像画像の輝度を概ね一定に保つような制御になっている。外界の明るさの変化に素早く対応させると体験者が違和感を覚えるため、外界の明るさの変化から少し遅れて追従をさせる制御を行っている。
図6(d)は、位置姿勢取得用撮像部1202に対するAuto Exposure制御のON/OFF制御を示している。制御開始は時刻t9であり、体験用撮像部1203のON/OFF制御の開始時刻t5よりも早いタイミングであり、制御終了も時刻t10であり、体験用撮像部1203のON/OFF制御の終了時刻t6よりも早いタイミングで制御が終了する。
図6(e)は、図6(d)に示すON/OFF制御を行った際の位置姿勢用撮像部から出力される撮像画像の輝度情報を示している。図6(e)に示すように、外界の明るさの変化に遅れることなく追従して明るさを一定に保つような制御になっている。
なお、図6(a)−図6(e)に示すような制御に代えて、図7(a)−図7(e)に示すような制御であってもよい。図7(a)は外界の輝度の変化を示した図であり、図6(a)と同様である。図6(a)−図6(e)と図7(a)−図7(e)とでは、図6(b)と図7(b)とが異なっている。具体的には、体験用撮像部1203のAuto Exposure制御ONの開始時刻が異なっている。図7(b)での開始時刻t5は時刻t1とt2との間であるが、図6(b)での開始時刻t5よりも早い。同様に、図7(b)での開始時刻t7は時刻t3とt4との間であるが、図6(b)での開始時刻t7よりも早い。
体験用撮像部1203のAuto Exposure制御の開始・終了は、体験用撮像部1203から出力される撮像画像の輝度情報が外界の明るさの変化に少し遅れて追従するような制御であればよく、図6、図7に示す制御方法以外の方法であってもよい。図6等に示すような位置姿勢取得用撮像部1202に対するAuto Exposure制御に従うことで、図16のような場合において、外界の明るさが変化した時でも、位置姿勢取得用撮像部1202からの出力画像は図16(a)から図16(b)のようになることなく、図16(a)から図16(c)のようになる。
図8は、本実施形態に係る撮像画像処理部1206によるAuto Exposure制御の処理手順を示すフローチャートである。S1801において、輝度変換部1301は、撮像画像が位置姿勢取得用の撮像画像か、体験用の撮像画像かを判定する。位置姿勢取得用の撮像画像である場合、S1802へ進む。一方、体験用の撮像画像である場合、S1805へ進む。
S1802において、測光方法決定部1303は、位置姿勢取得用撮像部1202の向きを検出する。なお、位置姿勢取得用撮像部1202の向きの検出については、位置姿勢取得用撮像部1202の向きをあらかじめHMD1201に搭載されたROMに保存していてもよい。あるいは、画像処理装置1210からデータを受け取ってもよいし、もしくはHMD1201がある特定のチャートを撮像することでHMD1201が位置姿勢取得用撮像部1202の向きを取得してもよい。
S1803において、測光方法決定部1303は、位置姿勢取得用撮像部1202の向きに基づいて測光方法を決定する。図4を参照して説明したように、位置姿勢取得用撮像部1202の向きによって測光方法を決定する。S1804において、追従パラメータ決定部1305は、外界の明るさの変化に追従するパラメータを決定する。追従パラメータの決定については、画像処理装置1210からの決定であってもよいし、HMD1201と画像処理装置1210との接続シーケンス時に決定してもよい。
S1805において、測光方法決定部1303は、測光方法決定する。例えば、体験用撮像画像のために中央の領域を重点的に用いる方法に決定する。S1806において、追従パラメータ決定部1305は、体験用撮像画像のために外界の明るさの変化に追従するパラメータを決定する。S1807において、撮像画像処理部1206は、Auto Exposre制御(詳細は図9を参照して後述)を行って、図8のフローチャートの各処理が終了する。
以下、S1807の処理の詳細について、図9のフローチャートを参照して説明する。S1901において、輝度変換部1301は、取得した撮像画像について輝度値への変換を行う。前述した説明のように、Red、Green、Blueから輝度値への変換を行う。S1902において、輝度積分値取得部1302は、輝度変換部1301から送られてきた画素毎の輝度値と、測光方法決定部1303で決定した測光方式とに基づいて、領域毎の輝度積分値を取得する。
S1903において、追従パラメータ決定部1305は、S1804又はS1806で求めた追従パラメータを取得する。S1904において、パラメータ設定部1304は、外界の明るさが変化してから、S1903で取得した追従パラメータに対応する所定時間が経過しているか判定する。所定時間が経過している場合、S1905へ進む。一方、所定時間が経過していない場合、処理を終了する。
S1905において、パラメータ設定部1304は、輝度積分値取得部1302で取得した領域毎の輝度積分値から、各撮像部(位置姿勢取得用撮像部1202、体験用撮像部1203)に設定する撮像パラメータ(シャッター速度、ゲイン等)を決定する。S1906において、パラメータ設定部1304は、S1905で求めた撮像パラメータを各撮像部に設定する。以上で図9のフローチャートの各処理が終了する。
以上説明したように、本実施形態では、体験用撮像部と位置姿勢取得用撮像部との各Auto Exposure制御を、それぞれ最適化した上で行うため、外界の明るさが変化する場合でも、より高精度な位置姿勢を取得することが可能となる。
(第2実施形態)
第1実施形態では位置姿勢取得用撮像部は1つであるが、本実施形態では位置姿勢取得用撮像部が複数ある場合の処理について説明を行う。
図10(a)は、第1実施形態で用いたHMD1101であり、位置姿勢取得用撮像部2001が一つ搭載されている。これに対して、図10(b)は、本実施形態で用いるHMD2010であり、位置姿勢取得用撮像部2002、2003が二つ搭載されている。図10(b)では位置姿勢取得用撮像部2002、2003は同じ方向に向けて接続されているが、図10(c)のように位置姿勢取得用撮像部2005を上向き、位置姿勢取得用撮像部2004を下向きに接続してもよい。
図11は、本実施形態に係るHMDと画像処理装置とを有する画像処理システムの機能ブロック図である。図2とは異なり位置姿勢取得用撮像部(B)2101が搭載されており、撮像画像処理部2102は3つのカメラを処理可能な構成になっている。本実施形態では、位置姿勢取得用撮像部が2つの例を説明するが、複数であればよく特に2つに限定されるものではない。
図12は、HMD1201の撮像画像処理部2102の詳細ブロック図であり、特にAuto Exposureの機能を実現する機能ブロック図である。図3とは異なり位置姿勢取得用撮像部2101により撮像された撮像画像を撮像画像処理部2102で受け取ることができるようになっている。受け取った後の撮像画像を処理する処理部の構成については図3と同様である。
続いて、図13は、本実施形態に係る撮像画像処理部2102によるAuto Exposure制御の処理手順を示すフローチャートである。以下では、主に第1実施形態の図8に係るフローチャートの各処理との差分について説明をする。
S1801において、輝度変換部1301は、撮像画像が位置姿勢取得用の撮像画像か、体験用の撮像画像かを判定する。位置姿勢取得用の撮像画像である場合、S1802に代えてS2301へ進む。一方、体験用の撮像画像である場合、第1実施形態と同様にS1805へ進む。
S2301において、測光方法決定部1303は、位置姿勢取得用撮像部の向きと位置姿勢取得用撮像部間の関係を検出する。撮像部の向きの検出は測光方式を決めるためのものであり、第1実施形態と同様である。
以下、撮像部間の関係について説明を行う。図10(b)や図10(c)のように位置姿勢取得用撮像部の向きの関係を検出する。図10(b)の例の場合、位置姿勢取得用撮像部2002、2003は同じ方向を向いているが、図10(c)の例の場合、位置姿勢取得用撮像部2005は上を、位置姿勢取得用撮像部2004は下を向いている。図10(c)のように位置姿勢取得用撮像部の向いている方向が異なる場合、Auto Exposure制御を同期させず別々に制御を行った方がよい。上向きの撮像部で撮像する照明環境の変化と、下向きの撮像部で撮像する照明環境の変化とは異なることが多いためである。
一方、図10(b)のような取り付け場所の場合、共に同じ方向を向いているため位置姿勢取得用撮像部2002と位置姿勢取得用撮像部2003とで撮像する照明環境の変化はほぼ同一である。そのためAuto Exposure制御を同期させた方がよい。
各撮像部を取り付けている向きの関係を検出する方法については、撮像部間の関係をあらかじめHMD1201に搭載されたROMに保存しておき、それを読み出してもよい。あるいは、画像処理装置1210からデータを受け取ってもよいし、もしくはHMD1201が撮像した画像の輝度分布から推定してもよい。例えば、画面の領域毎の輝度積分値を取得することを利用して、領域毎の輝度積分値が撮像部間で閾値以上異なっている場合は、各撮像部の向いている方向が異なると推定してもよい。一方、閾値未満であれば各撮像部の向いている方向が同じであると推定してもよい。
図13におけるその他の処理は第1実施形態と同様であるが、S2302のAuto Exposre制御の処理内容が第1実施形態と異なっている。
以下、S2302の処理の詳細について、図14のフローチャートを参照して、主に図9のフローチャートの処理との差分について説明する。S2401において、輝度変換部1301は、受け取った撮像画像が位置姿勢取得用の撮像画像か、体験用の撮像画像かを判定する。位置姿勢取得用の撮像画像である場合、S2402へ進む。一方、体験用の撮像画像である場合、S1901へ進む。
S2402において、輝度変換部1301は、S2301で検出した位置姿勢取得用撮像部の向きを用いて判定する。各撮像部の向きが同じ方向を向いている場合、S2403へ進む。一方、各撮像部の向きが異なる方向を向いている場合、S1901へ進む。
S2403において、輝度変換部1301は、位置姿勢取得用撮像部の全ての画像に対して輝度値への変換を行う。S2404において、輝度積分値取得部1302は、輝度変換部1301から送られてきた輝度値と、測光方法決定部1303で決定した測光方式とに基づいて、領域毎の輝度積分値を、位置姿勢取得用撮像部毎に取得する。
S2405において、輝度積分値取得部1302は、S2404で取得された各位置姿勢取得用撮像部の輝度積分値に基づいて、平均輝度積分値を取得する。S2406において、追従パラメータ決定部1305は、外界の明るさの変化に追従するパラメータを決定する。S2407において、パラメータ設定部1304は、外界の明るさが変化してから、S2406で取得した追従パラメータに対応する所定時間が経過しているか判定する。所定時間が経過している場合、S2408へ進む。一方、所定時間が経過していない場合、処理を終了する。
S2408において、パラメータ設定部1304は、輝度積分値取得部1302により取得された領域毎の輝度積分値に基づいて、各撮像部に設定する撮像パラメータ(シャッター速度、ゲイン等)を決定する。S2409において、パラメータ設定部1304は、S2408で求めた撮像部に設定するパラメータをそれぞれの撮像部に設定する。
一方、S2401において位置姿勢取得用の撮像画像ではない、又はS2402において各位置姿勢取得用撮像部が異なる方向を向いていると判定された場合は、S1903−S1906の処理へと進む。そして、撮像部が1つである場合のAuto Exposure制御と同じ制御を行う。
本実施形態では位置姿勢取得用撮像部が2つの例を説明したが、位置姿勢取得用撮像部が3つ以上あってもよい。その場合は、同じ方向を向いている位置姿勢取得用撮像部毎にAuto Exposure制御を行えばよい。
以上説明したように、本実施形態によれば、位置姿勢取得用撮像部が複数ある場合に外界の明るさが変化しても、より高精度に位置姿勢を取得することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1201:HMD、1202:位置姿勢取得用撮像部、1203:体験用撮像部、1204:表示部、1205:制御部、1206:撮像画像処理部、1210:画像処理装置、1212:位置姿勢取得部、1213:コンテンツDB、1214:CG描画部、1301:輝度変換部、1302:輝度積分値取得部、1303:測光方法決定部、1304:パラメータ設定部、1305:追従パラメータ決定部

Claims (14)

  1. 第1の撮像部又は第2の撮像部により撮像された撮像画像の輝度値を取得する輝度値取得手段と、
    前記撮像画像を撮像した前記第1の撮像部又は前記第2の撮像部に対して、外界の明るさの変化に対応する自動露光制御の追従パラメータを決定する決定手段と、
    前記輝度値と前記追従パラメータとに基づいて、前記第1の撮像部又は前記第2の撮像部に対して撮像パラメータを設定する設定手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記第1の撮像部の向きを検出する検出手段と、
    前記第1の撮像部の向きに基づいて測光方法を決定する決定手段と、
    前記第1の撮像部の撮像画像の輝度値と、前記測光方法とに基づいて、前記輝度値の積分値を取得する取得手段とをさらに備え、
    前記設定手段は、前記輝度値の積分値と前記追従パラメータとに基づいて、前記第1の撮像部に対して撮像パラメータを設定することを特徴とする請求項1に記載の情報処理装置。
  3. 測光方法を決定する決定手段と、
    前記第2の撮像部の撮像画像の輝度値と、前記測光方法とに基づいて、前記輝度値の積分値を取得する取得手段とをさらに備え、
    前記設定手段は、前記輝度値の積分値と前記追従パラメータとに基づいて、前記第2の撮像部に対して撮像パラメータを設定することを特徴とする請求項1に記載の情報処理装置。
  4. 前記設定手段は、前記追従パラメータに対応する所定時間が経過した後に撮像パラメータを設定することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記追従パラメータは、外界の明るさが変化してから自動露光制御の追従を行うまでの時間差を示すことを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記決定手段は、前記第1の撮像部に対応する追従パラメータを、前記第2の撮像部に対応する追従パラメータよりも短く決定することを特徴とする請求項5に記載の情報処理装置。
  7. 前記撮像パラメータは、シャッター速度とゲインとの少なくとも何れか1つであることを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  8. 前記第1の撮像部は、前記情報処理装置の位置姿勢取得用の撮像部であり、
    前記第2の撮像部は、複合現実感体験用の撮像部である
    ことを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
  9. 前記検出手段は、前記第1の撮像部とは異なる第3の撮像部の向きを更に検出し、
    前記第1の撮像部の向き及び前記第3の撮像部の向きに基づいて前記第1の撮像部及び前記第3の撮像部を同期させて制御するか、又は別々に制御するかを切り替える制御手段をさらに備えることを特徴とする請求項2に記載の情報処理装置。
  10. 前記第1の撮像部は、前記情報処理装置の位置姿勢取得用の撮像部であり、
    前記第2の撮像部は、複合現実感体験用の撮像部であり、
    前記第3の撮像部は、前記情報処理装置の位置姿勢取得用の撮像部であることを特徴とする請求項9に記載の情報処理装置。
  11. 前記情報処理装置は、頭部搭載型の表示装置であることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 請求項1乃至10の何れか1項に記載の情報処理装置と、
    前記情報処理装置と有線又は無線で接続された画像処理装置と
    を備えることを特徴とする画像処理システム。
  13. 情報処理装置の制御方法であって、
    輝度値取得手段が、第1の撮像部又は第2の撮像部により撮像された撮像画像の輝度値を取得する工程と、
    決定手段が、前記撮像画像を撮像した前記第1の撮像部又は前記第2の撮像部に対して外界の明るさの変化に対応する自動露光制御の追従パラメータを決定する工程と、
    設定手段が、前記輝度値と前記追従パラメータとに基づいて、前記第1の撮像部又は前記第2の撮像部に対して撮像パラメータを設定する工程と、
    を有することを特徴とする情報処理装置の制御方法。
  14. 請求項13に記載の情報処理装置の制御方法の各工程をコンピュータに実行させるためのプログラム。
JP2015111680A 2015-06-01 2015-06-01 情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム Active JP6525740B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015111680A JP6525740B2 (ja) 2015-06-01 2015-06-01 情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム
US15/158,869 US10198868B2 (en) 2015-06-01 2016-05-19 Information processing apparatus, method for controlling information processing apparatus, image processing system and non-transitory computer-readable storage medium
DE102016006242.8A DE102016006242B4 (de) 2015-06-01 2016-05-20 Anzeigevorrichtung des kopfgetragenen Typs, Steuerverfahren für Anzeigevorrichtung des kopfgetragenen Typs, Bildverarbeitungssystem und Speichermedium
GB1609331.2A GB2541073B (en) 2015-06-01 2016-05-26 Information processing apparatus, method for controlling information processing apparatus, image processing system and storage medium
CN201610373472.0A CN106210699B (zh) 2015-06-01 2016-05-31 信息处理装置、信息处理装置的控制方法及图像处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015111680A JP6525740B2 (ja) 2015-06-01 2015-06-01 情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2016225885A JP2016225885A (ja) 2016-12-28
JP6525740B2 true JP6525740B2 (ja) 2019-06-05

Family

ID=56410623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015111680A Active JP6525740B2 (ja) 2015-06-01 2015-06-01 情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム

Country Status (5)

Country Link
US (1) US10198868B2 (ja)
JP (1) JP6525740B2 (ja)
CN (1) CN106210699B (ja)
DE (1) DE102016006242B4 (ja)
GB (1) GB2541073B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016221123A1 (de) 2016-10-26 2018-04-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
JP2019125986A (ja) * 2018-01-19 2019-07-25 ソニー株式会社 情報処理装置および方法、並びにプログラム
US10827164B2 (en) * 2018-03-01 2020-11-03 Google Llc Active LCD shutters for virtual and augmented reality low persistence
US11238662B2 (en) 2019-09-25 2022-02-01 Apple Inc. Optimal luminance mapping for augmented reality devices
US11030817B2 (en) * 2019-11-05 2021-06-08 Varjo Technologies Oy Display system and method of using environment map to generate extended-reality images

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209221A (ja) * 2001-01-11 2002-07-26 Minolta Co Ltd デジタル撮像装置および記録媒体
JP2005148262A (ja) * 2003-11-13 2005-06-09 Nec Saitama Ltd 携帯機器および測光制御方法
JP4522307B2 (ja) 2005-04-08 2010-08-11 キヤノン株式会社 画像撮像装置、画像撮像方法
JP2006345255A (ja) * 2005-06-09 2006-12-21 Canon Inc 撮像装置
JP2007004714A (ja) * 2005-06-27 2007-01-11 Canon Inc 情報処理方法、情報処理装置
JP4689639B2 (ja) * 2007-04-25 2011-05-25 キヤノン株式会社 画像処理システム
JP5058686B2 (ja) 2007-06-14 2012-10-24 キヤノン株式会社 情報処理方法及び情報処理装置
CN110825905A (zh) * 2010-02-19 2020-02-21 株式会社尼康 电子设备
JP5495841B2 (ja) * 2010-02-22 2014-05-21 オリンパスイメージング株式会社 カメラ及びカメラの制御方法
EP2590396B1 (en) * 2010-07-02 2018-08-08 Sony Interactive Entertainment Inc. Information processing system and information processing method
US9420166B2 (en) * 2012-02-13 2016-08-16 Nokia Technologies Oy Method and apparatus for enhanced automatic adjustment of focus, exposure and white balance in digital photography
US20130326364A1 (en) 2012-05-31 2013-12-05 Stephen G. Latta Position relative hologram interactions
US9977492B2 (en) 2012-12-06 2018-05-22 Microsoft Technology Licensing, Llc Mixed reality presentation
TWI486630B (zh) * 2013-03-27 2015-06-01 聚晶半導體股份有限公司 適應性調整頭戴式顯示器的方法與頭戴式顯示器
GB201310359D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-Mountable apparatus and systems

Also Published As

Publication number Publication date
US10198868B2 (en) 2019-02-05
DE102016006242A1 (de) 2016-12-01
JP2016225885A (ja) 2016-12-28
GB2541073B (en) 2019-06-19
CN106210699A (zh) 2016-12-07
GB201609331D0 (en) 2016-07-13
US20160350976A1 (en) 2016-12-01
GB2541073A (en) 2017-02-08
CN106210699B (zh) 2019-01-22
DE102016006242B4 (de) 2021-04-01

Similar Documents

Publication Publication Date Title
JP6525740B2 (ja) 情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム
CN108292489B (zh) 信息处理装置和图像生成方法
US10699473B2 (en) System and method for generating a virtual viewpoint apparatus
US10293252B2 (en) Image processing device, system and method based on position detection
EP3553465B1 (en) Information processing device and information processing method
US11190714B2 (en) Electronic device, head-mounted display, gaze point detector, and pixel data readout method
US20150116502A1 (en) Apparatus and method for dynamically selecting multiple cameras to track target object
JP6344723B2 (ja) 映像表示システム、映像表示装置及び映像表示方法
CN109453517B (zh) 虚拟角色控制方法和装置、存储介质、移动终端
JP4522307B2 (ja) 画像撮像装置、画像撮像方法
CN106375682B (zh) 影像处理方法、装置与可移动设备、无人机遥控器及系统
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
JP6768933B2 (ja) 情報処理装置、情報処理システム、および画像処理方法
KR101822169B1 (ko) 파노라마 영상을 제공하는 전자 장치 및 그 제어 방법
JP6725999B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2017072945A (ja) 画像処理装置、画像処理方法
JP2017199972A (ja) 端末装置、情報取得システム、情報取得方法およびプログラム
JP2020182109A (ja) 情報処理装置、情報処理方法及びプログラム
JP6930011B2 (ja) 情報処理装置、情報処理システム、および画像処理方法
EP3182367A1 (en) Apparatus and method for generating and visualizing a 3d model of an object
JP6686697B2 (ja) 送信制御プログラム、送信制御方法および送信制御システム
JP2023124647A (ja) 映像表示システムおよび映像表示方法
JP6700937B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2016062184A (ja) 動画像生成システム、動画像生成装置、動画像生成方法、及びコンピュータプログラム
JP2020109512A (ja) 画像処理装置、画像処理装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6525740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151