JP6645949B2 - 情報処理装置、情報処理システム、および情報処理方法 - Google Patents

情報処理装置、情報処理システム、および情報処理方法 Download PDF

Info

Publication number
JP6645949B2
JP6645949B2 JP2016214654A JP2016214654A JP6645949B2 JP 6645949 B2 JP6645949 B2 JP 6645949B2 JP 2016214654 A JP2016214654 A JP 2016214654A JP 2016214654 A JP2016214654 A JP 2016214654A JP 6645949 B2 JP6645949 B2 JP 6645949B2
Authority
JP
Japan
Prior art keywords
image
data
time
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016214654A
Other languages
English (en)
Other versions
JP2018074486A (ja
JP2018074486A5 (ja
Inventor
大場 章男
章男 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2016214654A priority Critical patent/JP6645949B2/ja
Priority to PCT/JP2017/038524 priority patent/WO2018084051A1/ja
Publication of JP2018074486A publication Critical patent/JP2018074486A/ja
Publication of JP2018074486A5 publication Critical patent/JP2018074486A5/ja
Application granted granted Critical
Publication of JP6645949B2 publication Critical patent/JP6645949B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、撮影画像を利用した情報処理を行う情報処理装置、撮影機能を有するヘッドマウントディスプレイ、撮影画像を利用して画像を表示する情報処理システム、および撮影画像を用いた情報処理方法に関する。
ユーザの頭部など体の一部をビデオカメラで撮影し、目、口、手などの所定の領域を抽出して、その領域を別の画像で置換してディスプレイに表示するゲームが知られている(例えば、特許文献1参照)。また、ビデオカメラで撮影された口や手の動きをアプリケーションの操作指示として受け取るユーザインタフェースシステムも知られている。このように、実世界を撮影しその動きに反応する仮想世界を表示させたり、何らかの情報処理を行ったりする技術は、小型の携帯端末からレジャー施設まで、その規模によらず幅広い分野で利用されている。
欧州特許出願公開第0999518号明細書
臨場感のある画像表現を実現したり、情報処理を高精度に行ったりするためには、撮影から結果出力までの即時性が重要となる。被写体の動きを即座に表示画像に反映させる場合や、ユーザが装着するヘッドマウントディスプレイに撮像装置を設け、視野に対応する画像を表示させる場合などは特に、ごく僅かな処理の遅延が違和感や使い勝手の悪さを生む。即時性の追求のため、データ転送量や処理負荷を軽減させようとすると、情報処理に十分な精度が得られないことも考えられる。
本発明はこうした課題に鑑みてなされたものであり、その目的は、撮影画像を用いた情報処理や表示において、即時性と処理の精度を両立させる技術を提供することにある。
本発明のある態様は情報処理装置に関する。この情報処理装置は、画素の行ごとに時間ずれを設けて画像を撮影するローリングシャッターを備えた撮像装置から、撮影された動画像のデータを取得する撮影画像取得部と、動画像のフレームにおける特徴点の位置座標を、当該フレームの基準時刻における位置座標に補正する補正部と、補正された位置座標を用いて画像解析を行い、その結果を出力データに反映させる解析処理部と、を備えたことを特徴とする。
本発明の別の態様はヘッドマウントディスプレイに関する。このヘッドマウントディスプレイは、画素の行ごとに時間ずれを設けて画像を撮影するローリングシャッターを備え、撮影が完了した行から順次、撮影画像のデータを出力する撮像部と、画素の行ごとに撮影画像のデータを取得し、取得が完了した行から順次、表示する表示部と、を備えたことを特徴とする。
本発明のさらに別の態様は情報処理システムに関する。この情報処理システムは、画素の行ごとに時間ずれを設けて画像を撮影するローリングシャッターを備え、撮影が完了した行から順次、撮影画像のデータを出力する撮像部と、撮像部から、撮影された動画像のデータを取得し、当該動画像のフレームにおける特徴点の位置座標を、当該フレームの基準時刻における位置座標に補正する補正部と、補正された位置座標を用いて画像解析を行う解析処理部と、画像解析の結果を利用して表示画像のデータを生成し行ごとに出力する出力データ生成部と、表示画像を、出力された行から順次表示する表示部と、を備えたことを特徴とする。
本発明のさらに別の態様は情報処理方法に関する。この情報処理方法は情報処理装置が、画素の行ごとに時間ずれを設けて画像を撮影するローリングシャッターを備えた撮像装置から、撮影された動画像のデータを取得するステップと、動画像のフレームにおける特徴点の位置座標を、当該フレームの基準時刻における位置座標に補正するステップと、補正された位置座標を用いて画像解析を行うステップと、解析結果を反映したデータを出力するステップと、を含むことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によると、撮影画像を用いた情報処理や表示において、即時性と処理の精度を両立させることができる。
本実施の形態の情報処理システムの構成例を示す図である。 本実施の形態の表示装置をヘッドマウントディスプレイとしたときの外観形状の例を示す図である。 本実施の形態におけるローリングシャッターによる撮影データの取得順と画像平面の関係を説明するための図である。 グローバルシャッターとローリングシャッターによる撮影画像の解析の差を説明するための図である。 転送時間を考慮したときの撮影から表示までの時間経過を説明するための図である。 本実施の形態における情報処理装置の内部回路構成を示す図である。 本実施の形態における情報処理装置の機能ブロックの構成を示す図である。 本実施の形態において補正部が行う補正処理の手法を説明するための図である。 本実施の形態において補正部が、補正したオプティカルフローを求める手法を説明するための図である。 本実施の形態において純粋な露光時間を考慮した場合の補正処理について説明するための図である。 本実施の形態における撮影画像、画像解析に用いる画像、および表示画像の、時間的な関係を模式的に示す図である。
図1は本実施の形態の情報処理システムの構成例を示す。情報処理システム1は、実空間を撮影する撮像装置12、撮影画像に基づき情報処理を行う情報処理装置10、情報処理装置10が出力した画像を表示する表示装置16を含む。情報処理装置10はインターネットなどのネットワーク18と接続可能としてもよい。
情報処理装置10と、撮像装置12、表示装置16、ネットワーク18とは、有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。撮像装置12、情報処理装置10、表示装置16のうちいずれか2つ、または全てが組み合わされて一体的に装備されてもよい。例えばそれらを装備した携帯端末やヘッドマウントディスプレイなどで情報処理システム1を実現してもよい。いずれにしろ撮像装置12、情報処理装置10、表示装置16の外観形状は図示するものに限らない。
撮像装置12は、対象物を所定のフレームレートで撮影するCMOS(Complementary Metal Oxide Semiconductor)センサなどの撮像素子と、その出力データにデモザイク処理、レンズ歪み補正、色補正などを施し、撮影画像のデータを生成する画像処理機構を含む。当該画像処理機構は、画像を縮小することで複数解像度の画像データを生成する機構を含んでいてもよい。また撮像装置12は、2つのカメラを既知の間隔で左右に配置したいわゆるステレオカメラとしてもよい。
撮像装置12は、撮影、生成した画像のデータを、画像の上端の画素列から順にストリーム形式で情報処理装置10に送信する。撮像装置12が複数解像度の画像データを生成する場合などは、情報処理装置10からの要求に従った解像度や領域のデータのみを送信してもよい。情報処理装置10は、撮像装置12から送信されたデータに対し画像解析を行い、その結果に基づき情報処理を行ったり、撮像装置12に対するデータ要求に反映させたりする。さらに情報処理装置10は、表示装置16に表示画像や音声などの出力データを送信する。
ここで出力データの内容は特に限定されず、ユーザがシステムに求める機能や起動させたアプリケーションの内容などによって様々であってよい。情報処理装置10は例えば、撮像装置12から送信された撮影画像のデータをそのまま表示装置16に送信し、撮影画像が即時に表示されるようにしてもよい。あるいは画像解析により撮影画像に写る対象物の位置や姿勢を取得し、それに基づき撮影画像に何らかの加工を施したり、画像解析の結果に基づき電子ゲームを進捗させてゲーム画面を生成したりしてもよい。このような態様の代表的なものとして、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)が挙げられる。
表示装置16は、画像を出力する液晶、プラズマ、有機ELなどのディスプレイと、音声を出力するスピーカーを備え、情報処理装置10から送信された出力データを画像や音声として出力する。表示装置16は、テレビ受像器、各種モニター、携帯端末の表示画面、カメラの電子ファインダなどでもよいし、ユーザの頭に装着してその眼前に画像を表示するヘッドマウントディスプレイでもよい。
図2は表示装置16をヘッドマウントディスプレイとしたときの外観形状の例を示している。この例においてヘッドマウントディスプレイ100は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。
出力機構部102は、ヘッドマウントディスプレイ100をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。筐体108内部にはさらに、ヘッドマウントディスプレイ100の装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大するレンズを備えてよい。またヘッドマウントディスプレイ100はさらに、装着時にユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。
この例でヘッドマウントディスプレイ100は、撮像装置12として、筐体108の前面にステレオカメラ110を備え、ユーザの視線に対応する視野で周囲の実空間を動画撮影する。この場合、情報処理装置10は、SLAM(Simultaneous Localization and Mapping)の技術を用いて撮影画像を解析することにより、周囲環境に対するユーザ頭部の位置や姿勢を特定できる。その情報を利用して、例えば仮想世界に対する視野を決定し左眼視用、右眼視用の表示画像を生成し表示させれば、あたかも眼前に仮想世界が広がっているようなVRを実現できる。このとき情報処理装置10は、ヘッドマウントディスプレイ100と通信を確立できる外部装置としてもよいし、ヘッドマウントディスプレイ100に内蔵してもよい。
このように本実施の形態の情報処理システム1は、様々な態様への適用が可能であるため、各装置の構成や外観形状もそれに応じて適宜決定してよい。以後、実空間の撮影から画像表示までの即時性と、撮影画像の解析精度を両立させる手法に主眼を置いて説明する。その目的において本実施の形態では、撮像装置12として、行ごとに撮影のタイミングがずれるローリングシャッターカメラを採用する。
図3は、ローリングシャッターによる撮影データの取得順と画像平面の関係を説明するための図である。同図上段は、撮像面の縦方向(y軸)と時間軸とがなす平面140に、横方向(x軸)の画素列からなる各行の露光時間142とデータ読み出し時間144を表している。ローリングシャッターカメラは「ライン露光順次読み出し」方式のカメラであり、図示するように撮像面の一行ごとに露光時間をずらし、露光完了直後に各行のデータを読み出すことにより1フレーム分のデータを取得する。
一般的にはそのように取得した行ごとのデータを、x軸およびy軸がなす平面146に展開し、同一時刻の画像フレームとして扱うことにより解析や表示がなされる。しかしながら厳密には、撮影画像の上方に写る物と下方に移る物とでは、実際の観測時刻が露光時間のずれに応じて異なるため、解析結果にはそれに起因した誤差が含まれ得る。当該誤差は、対象物あるいは撮像面の動きが速くなるほど大きくなる。このような誤差を解消するため、CCDなどの撮像素子を用いたグローバルシャッターカメラを採用することが考えられる。
グローバルシャッターカメラは「同時露光一括読み出し」方式のカメラであり、全ての行を同じタイミングで露光するため、1フレームに写る物は、その観測時刻に差が生じない。図4は被写体に動きがあるときの画像解析の差を説明するための図である。同図は(a)がグローバルシャッターカメラ、(b)がローリングシャッターカメラで同じ被写体(あるいはそれに含まれる特徴点)を撮影したときの、観測時刻およびy軸方向の位置を、連続する複数のフレームについて表している。すなわち最小単位の実線矩形(長方形または平行四辺形)が1フレーム分の露光を表す。
まず(a)に示すグローバルシャッターの場合、全ての行について同期間に露光がなされるため、データ処理上で定義される各フレームの基準時刻t、t、t、・・・と、実際の観測時刻との間に、y軸方向の位置に依存したずれは生じない。一方、(b)に示すローリングシャッターの場合は上述のとおり、行によって露光タイミングが異なるため、各フレームの基準時刻t、t、t、・・・に対し実際の観測時刻には、y軸方向の位置に依存したずれが生じる。
同図の場合、撮像面において最も上の行の露光時間を基準時刻としているため、被写体が下にあるほど誤差が大きくなる。このような撮影画像を、基準時刻t、t、t、・・・のデータとしてそれぞれ一括して解析すると、白丸で示すように、被写体の移動方向によって実際より速く認識されたり遅く認識されたりする誤差が発生する。画像解析の内容によっては、移動速度のみならず、位置や姿勢の解析結果に誤差が生じたり、検出対象を誤認識したりすることも考えられる。
一方、グローバルシャッターであっても、そのデータ読み出しや転送は行単位で順番になされるため、画像解析や表示における即時性の観点では不利となり得る。図5は転送時間を考慮したときの撮影から表示までの時間経過を説明するための図である。(a)はグローバルシャッターカメラで撮影した画像を、(b)はローリングシャッターカメラで撮影した画像を、それぞれ表示装置16に表示させる際の1フレーム分のデータ処理のタイミングを示している。なおデータの転送経路には情報処理装置10が介在してよいが、同図では省略している。
(a)に示すグローバルシャッターの場合、矩形110aに太線で示すように、時刻tgにおいて全ての行の露光が同時になされる。一方、撮像装置12からの出力は、矩形110a内に点線で示すように、伝送帯域の制限によって上の行から順番になされる。例えば画像上方の行は矢印aで示す早いタイミングで出力され、下方の行は矢印a’で示す、それより遅いタイミングで出力される。つまり下方の行はデータ出力までにΔtだけ待機する必要がある。その結果、撮像装置12が全ての行のデータを出力するのには、tg−tgの時間を要する。
そのようにして出力されたデータは、情報処理装置10を介して表示装置16のフレームバッファに格納され表示される。矩形112a内の点線は、表示装置16において各行のデータが格納されるタイミングを表している。この場合も、画像上方の行は矢印aで示すような早いタイミングで格納され、下方の行が矢印a’で示す、それより遅いタイミングで格納される。つまり上方の行は全てのデータが格納されるまでにΔt’だけ待機する必要がある。その結果、表示装置16が全ての行のデータをフレームバッファに格納するには、tg−tgの時間を要する。
なお同図では、フレームバッファへの格納が完了する時刻をtgとしているが、フレームバッファを前提とした表示装置の場合、実際の表示までにはさらに、駆動方式に応じた調整時間が発生する。図示する例は撮影画像をそのまま表示するシンプルな態様であるが、情報処理装置10において何らかの加工や描画をする場合であっても、伝送帯域に制限がある限り、データを順に送る時間、およびフレームバッファに溜めていく時間として、撮影から表示までには少なくともtg−tgの時間を要する。また情報処理装置10においてフレームバッファを設け、画像解析などを行う場合も同様の待機時間が生じる。
一方、(b)に示すローリングシャッターの場合、露光自体が上の行から順番になされるため、矩形110bに太線で示すように、全ての行を露光するのにtr−trの時間を要する。しかしながら、露光が完了した行から即時にデータが出力されるため、矢印b、b’に例示されるように、撮影から出力までの時間は行によらない。すなわちグローバルシャッターにおいて発生していた待機時間Δtは生じない。
このようなローリングシャッターの特徴を踏まえ、好適には、フレームバッファでの1フレーム分のデータ格納を待たず、行ごとに即時出力できるラインバッファ対応のディスプレイを表示装置16として採用する。すると矩形112bに示すように、撮像装置12からの出力タイミングと同期するように、時刻trからtrまでの時間で順次表示が進捗する。結果として、フレームバッファを前提とした表示装置において発生していた待機時間Δt’は生じない。
このような待機時間Δt、Δt’を考慮すると、撮像から表示までの時間差は、(b)に示すローリングシャッターカメラとラインバッファ対応の表示装置の組み合わせが最短となる。すなわち表示画面の走査による時間差を前提として、撮影側でもあえて観測時間差を行ごとに設けることにより、最新の情報を画像として表示させることができる。なお入力されたデータを即時表示する方式のディスプレイとして、電界放出ディスプレイ(FED:Field Emission Display)を採用してもよい。
また同図は最も理解しやすい例として、撮像装置12と表示装置16の処理のタイミングを示していたが、より新しいデータすなわち情報を処理対象とすることが望ましいのは、撮影画像を用いて情報処理を行う情報処理装置10においても同様である。すなわち入力されたデータをメモリなどに待機させる時間を極力短くするような連携した動作を各装置で実現することは、表示や情報処理の即時性や精度の面で格段の効果を奏する。また同時に、メモリ容量を節約する効果も得られる。
このような特有の知見に基づき、本実施の形態では、撮影にローリングシャッターカメラを採用し、撮像装置12、情報処理装置10、および表示装置16において、データを即時出力することを基本とする。一方、画像解析においては、1フレームにおける観測の時間差が解消されるようにデータを補正することにより、観測データの即時利用と解析精度を両立させる。補正は基本的に、特徴点が観測された時刻と位置に基づき、各フレームの基準時刻における位置を推定することによって行う。具体的な演算手法については後述する。
図6は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)23、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、表示装置16へデータを出力する出力部36、撮像装置12や図示しない入力装置からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。
CPU23は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU23はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU23からの描画命令に従って描画処理を行い、出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
図7は情報処理装置10の機能ブロックの構成を示している。同図に示す各機能ブロックは、ハードウェア的には、図6で示した各種回路によりで実現でき、ソフトウェア的には、記録媒体からメインメモリにロードした、画像解析機能、情報処理機能、画像描画機能、データ入出力機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
情報処理装置10は、撮像装置12から撮影画像のデータを取得する撮影画像取得部52、取得した画像を解析する画像解析部54、解析結果を利用するなどして出力すべきデータを生成する出力データ生成部56を含む。撮影画像取得部52は、図6の入力部38、CPU23、メインメモリ26などで実現され、撮像装置12から撮影画像のフレームデータを順次取得する。詳細には上述したように、1フレームのうち露光が完了した行から順にストリーム形式でデータを取得する。取得したデータは画像解析部54および出力データ生成部56に供給する。
このときも好適には、取得した行のデータから順次供給していく。ただし画像解析部54が実施する画像解析の内容によっては、メインメモリ26などに2次元の画像データとして格納しておき、画像解析部54が適宜参照できるようにしてもよい。また撮影画像取得部52は、画像解析部54による画像解析の結果に基づき、取得する撮影画像のデータを指定して撮像装置2に要求してもよい。
画像解析部54は、図6のCPU23、GPU24、メインメモリ26などで実現され、撮影画像のデータを用いて所定の画像解析を行い、その結果を出力データ生成部56に供給する。画像解析部54が行う解析の内容は特に限定されない。例えば上述のSLAMや対象物の追跡処理など、元から動きを想定した解析でもよいし、対象物検出、対象物認識、デプスマップ取得など一般的になされる画像解析のいずれでもよい。いずれにしろ上述したようにフレーム内での観測時間の差を解消する補正により、解析処理の精度を向上させることができる。
詳細には画像解析部54は、特徴抽出部60、補正部62、補正データ記憶部64、および解析処理部66を含む。特徴抽出部60は、画像解析に用いる特徴を撮影画像から抽出する。具体的な抽出対象や処理アルゴリズムは、実施する画像解析によって様々であるが、例えばエッジ検出、コーナー検出、輪郭線検出、テクスチャ等による領域分割などが挙げられる。このような特徴抽出は一般的な技術でよいため詳細な説明は省略する。
補正部62は、特徴として抽出された点、線、あるいは領域の境界線が、各フレームの基準時刻における正確な位置を表すように補正する。補正に必要なデータは補正データ記憶部64に格納しておき、適宜参照する。当該データとして、前のフレームまでに抽出された特徴の位置情報や、観測時刻のずれ時間に係るパラメータを画像平面上の離散的な位置に対応づけた2次元マップなどが挙げられる。当該パラメータは、撮像装置12でなされるレンズ歪み補正を考慮して計算してもよい。
レンズ歪み補正や露光の進捗速度などに基づき事前に算出できるパラメータについて、2次元マップやルックアップテーブルなどの形であらかじめ準備しておくことにより、補正処理を効率化できる。解析処理部66は、位置が補正された特徴のデータを用いて、上に例示したような画像解析のうち所定の解析を実施する。
出力データ生成部56は、図6のCPU23、GPU24、メインメモリ26、出力部36などで実現され、出力すべき表示画像や音声のデータを生成して表示装置16に出力する。どのようなデータを生成するかは、情報処理装置10の使用目的やユーザが選択するアプリケーションなどによって様々でよい。撮影画像をそのまま表示させる態様においては、撮影画像取得部52から取得したデータストリームをそのまま出力してもよい。撮影画像に何らかの加工を施す場合も、行ごとに処理を完了させ即時出力するなどして遅延時間を抑えることが望ましい。
図8は、補正部62が行う補正処理の手法を説明するための図である。同図は図4と同様、横方向を時間軸、縦方向を撮影画像の縦軸(y軸)とし、最小単位の実線矩形(平行四辺形)が、ローリングシャッターカメラによる1つのフレームの露光処理を表す。また黒丸は特徴点の観測時刻と位置を表し、同図の場合、各フレームに2つの特徴点が写っているとしている。例えばn番目のフレームfにおいて、点線で示した露光のタイミングで、y、y’の位置に2つの特徴点が観測されている。
なお同図はy軸と時間軸の2次元空間を示しているが、物体の位置情報は当然、画像平面の横軸(x軸)とy軸からなる2次元上の座標である。また最も上の行の露光時刻を基準時刻とし、フレーム間での基準時刻の間隔をdとすると、各フレームfn−1、f、fn+1、fn+2、・・・の基準時刻は図示するように、d・(n−1)、d・n、d・(n+1)、d・(n+2)、・・・となる。ここで間隔dは、y軸方向の露光の進捗速度と反比例の関係を有するとともに、フレームの撮影周期と捉えることもできる。補正部62は、1つ前のフレームfn−1からの特徴点の移動量に基づき、基準時刻における位置の補正値を補間により求める。
同図では補正後の位置を白抜きの四角で示している。例えばフレームfで抽出された特徴点120に着目すると、それが観測される時刻の、基準時刻d・nからの遅延時間Rは、画像平面の縦方向の位置yに依存し、次の式で与えられる。
=d・y/V
ここでVは画像の縦方向の長さである。直前のフレームfn−1を考慮すると、特徴点120は、基準時刻d・nより(d−Rn−1)だけ前の時刻と、Rだけ後の時刻で観測される。
それらの時刻で観測される特徴点120の位置座標をそれぞれ(xn−1,yn−1)、(x,y)とすると、その間の基準時刻d・nにおける当該特徴点120の位置座標(xc,yc)は次のように求められる。
Figure 0006645949
ここでL=1/(V−yn−1+y)とおくと、式1は次のように表現できる。
Figure 0006645949
補正部62は、式2を用いて、撮影画像を構成する各フレームの特徴点の位置座標を、当該フレームの基準時刻における値に補正する。特徴が線や領域であっても、当該線や境界線を構成する点の位置座標を補正することで、基準時刻における形状に補正できる。これにより、フレーム内で統一された時刻での像に基づき、画像解析を正確に行える。
なお上記補正には直前のフレームにおける同じ特徴点の位置座標を用いるため、補正部62は補正データ記憶部64に、特徴点の識別情報と、少なくとも直前のフレームにおける位置座標とを対応づけて格納しておく。図8の例では、前後の2つのフレームで観測された特徴点の位置座標の変化を線形補間したが、補間のアルゴリズムはこれに限らない。すなわち3つ以上のフレームで観測された位置座標を考慮してもよいし、それらを用いてスプライン補間など曲線で補間してもよい。
また図8の例は最も上の行の露光時刻を基準時刻としたため、およそ全ての特徴点の観測時刻がそれより遅くなることを想定している。一方、中央の行や最も下の行の露光時刻など、基準時刻は自由に設定することができる。この場合、当然、基準時刻に露光される行より上に位置する特徴点の観測時刻は、基準時刻より早くなるが、これまで述べた「遅延時間」を基準時刻からの「ずれ時間」に置き換えることにより、同様の計算で補正を実現できる。以下の計算においても同様である。
上記計算は、撮像素子の直交する2次元配列と、撮影画像の画素配列が対応することを前提としている。この場合、図8の点線のように、y軸方向の位置と観測時刻が比例関係になるため、基準時刻からの遅延時間Rが上述のとおりyの一次関数として求められる。一方、撮像装置12においてレンズ歪み補正がなされている場合、出力される撮影画像の各画素は、当該画素値を観測した撮像素子の位置からx軸方向およびy軸方向にずれ、そのずれ量は画像上の位置によって異なる。
その結果、レンズ歪み補正後の画像における特徴点の位置座標と実際の撮影時刻との関係も、画像平面上の位置によって変化する。このため補正部62は、撮像装置12におけるレンズ歪み補正を加味して補正を行ってもよい。具体的には、上述の遅延時間R=d・y/Vのうち、1フレーム分の露光時間に対する遅延時間の割合の成分であるy/Vに相当するパラメータm(x,y)を、画像平面上の複数の位置(x,y)に対し計算しておく。
具体的には下記のように、各位置(x,y)に対しレンズ歪み補正の逆補正Mを作用させて補正前の座標(x,y)を求めたうえ、そのうちのy座標yの、Vに対する割合を計算する。
(x,y)=(x,y)・M
m(x,y)=y/V
レンズ歪み補正時に、画像平面の直交メッシュに対し補正量を設定した補正マップを用いている場合、パラメータm(x,y)を2次元平面に表した遅延マップを、同様のメッシュに対し容易に生成できる。補正部62は、フレームfから抽出された特徴点の位置座標(x,y)に基づき、補正データ記憶部64に格納された遅延マップを参照し、必要に応じて内挿することで、当該特徴点を観測した時刻の遅延割合を示すパラメータm(x,y)を取得する。
すると、フレームfの基準時刻d・nからの、当該特徴点の観測時刻の遅延時間Rは、次のように求められる。
=d・m(x,y
この場合、L=1/(1−m(xn−1,yn−1)+m(x,y))として、補正後の位置座標(xc,yc)は式2の代わりに次のように求められる。
Figure 0006645949
図9は、補正部62が、補正したオプティカルフローを求める手法を説明するための図である。図の形式および特徴点の動きは図8で示したものと同様である。物体や特徴点の移動ベクトルを示すオプティカルフローは一般に、移動体を検出、追跡したり形状変化を特定したりする際の重要な情報である。図9においてオプティカルフローを示すベクトル130は、y軸と時間軸のなす2次元空間において示されているが、実際にはx軸およびy軸からなる画像平面上での単位時間あたりの移動量を表す。
補正部62は、式2または式3により補正した特徴点の位置座標(xc,yc)を用いて、正確にオプティカルフローを求める。具体的には、フレームfにおける特徴点のオプティカルフロー、すなわち画像平面でのベクトル(Vx,Vy)は次式のように求められる。
Figure 0006645949
式4は一旦、特徴点の位置座標(x,y)を式2または式3により補正してからベクトルを求める手法であるが、前後のフレームにおける同じ特徴点の位置座標から直接求めたベクトル132で次のように近似し、処理を簡略化してもよい。
Figure 0006645949
なお式5では、観測時刻の遅延時間の割合にパラメータmを用いているが、y/Vといった一次式で代用してもよい。またオプティカルフローは、解析処理部66が画像解析の途中で必要に応じて求めてもよい。これまで述べた例では、各行の露光時間が基準時刻の間隔d、すなわちフレームの撮影周期に等しいとしていたが、より厳密には露光時間は、撮影周期を上限として、撮影環境等に応じて変化し得る。
図10は純粋な露光時間を考慮した場合の補正処理について説明するための図である。図の形式は図8で示したものと同様であるが、各行の露光時間eは、基準時刻の間隔dより短い。この場合、画像の縦方向に対する露光の進行が、これまで説明した例より早くなるため、同じ観測位置でも遅延時間Rが短くなる。具体的には次のようになる。
=d・{m(x,y)−sh
ここでshはフレームfにおける露光時間eを考慮したシャッター補正値であり、次のように定義される。
sh=(1−e/d)/2
当該遅延時間Rを式3に代入すると、補正後の位置座標は次のように求められる。
Figure 0006645949
ただし連続するフレーム間で露光時間en−1とeの差、ひいてはシャッター補正値shn−1とshの差が無視できる程度であれば、次のように近似してもよい。
Figure 0006645949
さらに、連続するフレーム間で遅延時間の割合の変化が無視できる程度であれば、次のように近似してもよい。
≒1
これらは、露光時間を極端に変化させる状況やオプティカルフローが顕著に大きい状況が発生しない限り、妥当な近似といえる。同様の理由で、予測されるシャッター補正値の平均的な値を定数として設定しておけば、露光時間を純粋に考慮した場合であっても、撮影画像上での特徴点の位置座標と、それによって定まる遅延時間の割合を示すパラメータm(x,y)を用いて補正処理を容易に行える。
図11は、本実施の形態における撮影画像、画像解析に用いる画像、および表示画像の、時間的な関係を模式的に示している。同図左側は撮像装置12による撮影画像、右側は表示装置16による表示画像を、フレームfn−1、f、fn+1の3フレーム分、示している。撮像装置12にローリングシャッターを用いた場合、図の縦方向を時間軸として、各時刻で観測され読み出される行ごとのデータを時間軸方向に並べると、図示するように画像平面に対応することになる。
同図では簡単な例として、黒い玉200が下側に移動する模様を撮影しているとする。なお玉200の位置を明確にするため、その右側には静止物202を配置している。上述したように、各フレームにおいて玉200が観測される時刻は、フレームの最も上の行の露光時刻である基準時刻d・(n−1)、d・n、d・(n+1)からそれぞれ、Rn−1、R、Rn+1だけ遅延する。情報処理装置10は撮像装置12から、このような撮影画像のデータを、上の行から順にストリーム形式で取得する。
撮影画像をそのまま表示させるシンプルな態様の場合、情報処理装置10は取得したストリームを順次、表示装置16に出力する。表示装置16をラインバッファに対応するディスプレイとすると、当該データは出力された順に画面の上段から下段にかけて即時表示される。これにより原理的には全ての行において、撮影から表示までの遅延時間が、転送に要した時間ΔTに統一される。結果として、できうる限りで最も新しいデータが表示されることになる。
なお情報処理装置10において何らかの加工や画像生成をする場合であっても、処理を画像平面の上段から進めて即時出力することにより、より新しい画像を表示できる。一方、情報処理装置10において画像解析を行う場合、前処理として特徴点の位置やオプティカルフローを補正することにより、1つのフレームを同一時刻のデータとして扱う一般的なアルゴリズムをそのまま利用できるようにする。つまり各基準時刻に合わせた画像204a、204bを疑似的に生成する。
図示する画像204a、204bでは、基準時刻d・nおよびd・(n+1)の前後で観測された、玉200の像を点線で示し、それらを時間的に補間することで得られた補正後の玉の位置を網掛けで示している。ただし実際には補正対象を、画像解析に必要な特徴点に限定することにより、補正処理による遅延の発生を抑える。このようにして統一された時刻における特徴点の位置を用いて精度よく解析した結果は、その後の表示画像に反映させてもよいし、撮像装置12へのデータ要求に用いてもよい。
例えば所定の対象物の位置や動きを正確に取得することにより、当該対象物が写る領域を予測して撮像装置12に通知してもよい。これに応じて撮像装置12が、通知された領域の高解像度の画像データと、その他の領域の低解像度の画像データを送信するようにし、それらを合成して表示させたり、さらなる解析に利用したりすれば、全体としてデータの転送量を抑えることができる。あるいはSLAMなどにより視野の動きを正確に求め、違和感のないVRやARを実現することもできる。
本実施の形態では、画像解析に用いる特徴点を補正対象とし、画像自体は時間差を含んだまま出力することを基本とする。すなわち表示処理と解析処理で撮影画像の取り扱いが独立している。この特性を利用すれば、画像解析の種類や目的によっては、特徴点の補正やそれを用いた解析処理の頻度を、撮影や表示のフレームレートより低く抑え、全体的な処理の負荷を軽減させることもできる。
以上述べた本実施の形態によれば、撮像装置としてローリングシャッターカメラを利用し、実際の観測から出力までに要する時間を短くするとともに、その撮影画像を解析する際は、フレーム内で生じている観測時間差を解消するように補正する。これにより、従来用いられているアルゴリズムをそのまま利用して、精度のよい画像解析を行える。
また画像解析に用いる特徴に限定して補正したり、補正に用いるパラメータをあらかじめ算出しておいたりすることで、補正処理を効率化し、時間的な影響を少なくできる。パラメータの算出結果は、画像平面の離散的な位置に対応づけた2次元マップとして準備することで、ランダムアクセスが可能になるとともに、レンズ歪み補正など固有の操作がなされた画像であっても、容易かつ厳密な補正を実現できる。
また、ローリングシャッターによる撮像装置と、入力された画素列を即時表示可能な構造の表示装置とを組み合わせてシステムを構築することにより、撮影から表示までの経路におけるデータの滞りを最小限にし、常に最新の画像を表示できるようにする。このようなシステムに上述の画像解析手法を導入することにより、撮影画像を用いた情報処理や表示の即時性と処理の精度を両立させることができる。
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
1 情報処理システム、 10 情報処理装置、 12 撮像装置、 16 表示装置、 23 CPU、 24 GPU、 26 メインメモリ、 32 通信部、 34 記憶部、 36 出力部、 38 入力部、40 記録媒体駆動部、 52 撮影画像取得部、 54 画像解析部、 56 出力データ生成部、 60 特徴抽出部、 62 補正部、 64 補正データ記憶部、 66 解析処理部。

Claims (10)

  1. 画素の行ごとに時間ずれを設けて画像を撮影するローリングシャッターを備えた撮像装置から、撮影された動画像のデータを、撮影が完了した行から順次取得する撮影画像取得部と、
    前記動画像のフレームにおける特徴点の位置座標を、当該フレームの基準時刻における位置座標に補正する補正部と、
    補正された位置座標を用いて画像解析を行うことにより、前記基準時刻に対応する解析結果を得る解析処理部と、
    前記時間ずれを有する前記動画像のデータに、前記基準時刻に対応する解析結果を反映させたうえで、前記撮影画像取得部が取得した行から順次、当該動画像のデータを表示装置に出力するデータ出力部と、
    を備えたことを特徴とする情報処理装置。
  2. 前記補正部は、前記撮像装置において1フレームを撮影する際の縦方向の撮影進捗速度と補正対象の特徴点の位置座標に基づき、当該特徴点が観測された時刻の、前記基準時刻からのずれ時間を特定することにより、当該位置座標を補正することを特徴とする請求項1に記載の情報処理装置。
  3. 画像平面における離散的な位置に、前記ずれ時間の特定に用いる所定のパラメータを対応づけた2次元マップを格納した補正データ記憶部をさらに備え、
    前記補正部は、前記2次元マップを参照して、前記補正対象の特徴点の位置座標に対応する前記パラメータを取得することにより、前記ずれ時間を特定することを特徴とする請求項2に記載の情報処理装置。
  4. 前記所定のパラメータは、前記撮像装置においてなされるレンズ歪み補正を元に戻す補正のための成分を含むことを特徴とする請求項3に記載の情報処理装置。
  5. 前記補正部は、補正対象のフレームより前のフレームにおける特徴点の位置座標と、補正対象のフレームの特徴点の位置座標を、前記ずれ時間に基づき補間することにより、前記位置座標を補正することを特徴とする請求項2から4のいずれかに記載の情報処理装置。
  6. 前記補正部は、フレームごとの露光時間の変化に応じて、前記ずれ時間を調整することを特徴とする請求項2から5のいずれかに記載の情報処理装置。
  7. 前記データ出力部は、前記解析処理部による解析結果に基づき、前記動画像に加工を施したデータを、前記表示装置に出力することを特徴とする請求項1から6のいずれかに記載の情報処理装置。
  8. 画素の行ごとに時間ずれを設けて画像を撮影するローリングシャッターを備え、撮影が完了した行から順次、撮影画像のデータを出力する撮像部と、
    前記撮像部から、撮影された動画像のデータを取得し、当該動画像のフレームにおける特徴点の位置座標を、当該フレームの基準時刻における位置座標に補正する補正部と、
    補正された位置座標を用いて画像解析を行うことにより、前記基準時刻に対応する解析結果を得る解析処理部と、
    前記時間ずれを有する前記動画像のデータに、前記基準時刻に対応する解析結果を反映させたうえで、前記撮像部から取得した行から順次、当該動画像のデータを出力する出力データ生成部と、
    前記画像を、出力された行から順次表示する表示部と、
    を備えたことを特徴とする情報処理システム。
  9. 画素の行ごとに時間ずれを設けて画像を撮影するローリングシャッターを備えた撮像装置から、撮影された動画像のデータを、撮影が完了した行から順次取得するステップと、
    前記動画像のフレームにおける特徴点の位置座標を、当該フレームの基準時刻における位置座標に補正するステップと、
    補正された位置座標を用いて画像解析を行うことにより、前記基準時刻に対応する解析結果を得るステップと、
    前記時間ずれを有する前記動画像のデータに、前記基準時刻に対応する解析結果を反映させたうえで、前記撮像装置から取得した行から順次、当該動画像のデータを出力するステップと、
    を含むことを特徴とする情報処理装置による情報処理方法。
  10. 画素の行ごとに時間ずれを設けて画像を撮影するローリングシャッターを備えた撮像装置から、撮影された動画像のデータを、撮影が完了した行から順次取得する機能と、
    前記動画像のフレームにおける特徴点の位置座標を、当該フレームの基準時刻における位置座標に補正する機能と、
    補正された位置座標を用いて画像解析を行うことにより、前記基準時刻に対応する解析結果を得る機能と、
    前記時間ずれを有する前記動画像のデータに、前記基準時刻に対応する解析結果を反映させたうえで、前記撮像装置から取得した行から順次、当該動画像のデータを出力する機能と、
    をコンピュータに実現させることを特徴とするコンピュータプログラム。
JP2016214654A 2016-11-01 2016-11-01 情報処理装置、情報処理システム、および情報処理方法 Active JP6645949B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016214654A JP6645949B2 (ja) 2016-11-01 2016-11-01 情報処理装置、情報処理システム、および情報処理方法
PCT/JP2017/038524 WO2018084051A1 (ja) 2016-11-01 2017-10-25 情報処理装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016214654A JP6645949B2 (ja) 2016-11-01 2016-11-01 情報処理装置、情報処理システム、および情報処理方法

Publications (3)

Publication Number Publication Date
JP2018074486A JP2018074486A (ja) 2018-05-10
JP2018074486A5 JP2018074486A5 (ja) 2019-01-17
JP6645949B2 true JP6645949B2 (ja) 2020-02-14

Family

ID=62076171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016214654A Active JP6645949B2 (ja) 2016-11-01 2016-11-01 情報処理装置、情報処理システム、および情報処理方法

Country Status (2)

Country Link
JP (1) JP6645949B2 (ja)
WO (1) WO2018084051A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024093375A (ja) * 2022-12-27 2024-07-09 浜松ホトニクス株式会社 試料観察装置及び試料観察方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5731839B2 (ja) * 2011-01-31 2015-06-10 東芝アルパイン・オートモティブテクノロジー株式会社 撮像装置および動きベクトル検出方法
SG192767A1 (en) * 2011-02-25 2013-09-30 Photonis Netherlands B V Acquiring and displaying images in real-time
JP5240328B2 (ja) * 2011-08-08 2013-07-17 カシオ計算機株式会社 撮像装置及びプログラム
JP6041651B2 (ja) * 2012-12-10 2016-12-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2015185936A (ja) * 2014-03-20 2015-10-22 カシオ計算機株式会社 撮像制御装置、撮像制御方法及びプログラム
JP6477193B2 (ja) * 2015-04-20 2019-03-06 株式会社ソシオネクスト 画像処理装置および画像処理方法
JP6646361B2 (ja) * 2015-04-27 2020-02-14 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
JP2018074486A (ja) 2018-05-10
WO2018084051A1 (ja) 2018-05-11

Similar Documents

Publication Publication Date Title
WO2017163720A1 (ja) 情報処理装置、情報処理システム、および情報処理方法
WO2019171522A1 (ja) 電子機器、ヘッドマウントディスプレイ、注視点検出器、および画素データ読み出し方法
WO2015081870A1 (zh) 一种图像处理方法、装置及终端
JP5794705B2 (ja) 撮像装置、その制御方法及びプログラム
JP5725953B2 (ja) 撮像装置及びその制御方法、並びに情報処理装置
JP7150134B2 (ja) ヘッドマウントディスプレイおよび画像表示方法
US10349040B2 (en) Storing data retrieved from different sensors for generating a 3-D image
JP7358448B2 (ja) 画像生成装置、ヘッドマウントディスプレイ、および画像生成方法
US20230236425A1 (en) Image processing method, image processing apparatus, and head-mounted display
JP6768933B2 (ja) 情報処理装置、情報処理システム、および画像処理方法
JP2020167659A (ja) 画像処理装置、ヘッドマウントディスプレイ、および画像表示方法
WO2021261248A1 (ja) 画像処理装置、画像表示システム、方法及びプログラム
CN115812307A (zh) 图像处理装置、图像显示系统、方法以及程序
JP6645949B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP7142762B2 (ja) 表示装置および画像表示方法
US11614627B2 (en) Image processing apparatus, head-mounted display, and image displaying method
JP7446320B2 (ja) 画像処理装置、ヘッドマウントディスプレイ、および空間情報取得方法
JP7429515B2 (ja) 画像処理装置、ヘッドマウントディスプレイ、および画像表示方法
US11106042B2 (en) Image processing apparatus, head-mounted display, and image displaying method
JP6930011B2 (ja) 情報処理装置、情報処理システム、および画像処理方法
KR20200010247A (ko) 화상 처리 장치, 화상 처리 프로그램 및 화상 처리 방법
JP7365183B2 (ja) 画像生成装置、ヘッドマウントディスプレイ、コンテンツ処理システム、および画像表示方法
JP2018074502A (ja) 撮像装置、情報処理装置、撮像システム、撮像方法、情報処理方法、およびプログラム
JP2017079378A (ja) 画像処理装置およびその方法、並びに、撮像装置
JP2023105524A (ja) 表示制御装置、ヘッドマウントディスプレイ、および表示制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200109

R150 Certificate of patent or registration of utility model

Ref document number: 6645949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150