JP7445027B2 - 複合撮像測距装置 - Google Patents

複合撮像測距装置 Download PDF

Info

Publication number
JP7445027B2
JP7445027B2 JP2023002869A JP2023002869A JP7445027B2 JP 7445027 B2 JP7445027 B2 JP 7445027B2 JP 2023002869 A JP2023002869 A JP 2023002869A JP 2023002869 A JP2023002869 A JP 2023002869A JP 7445027 B2 JP7445027 B2 JP 7445027B2
Authority
JP
Japan
Prior art keywords
devices
orientation
imaging
distance measurement
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023002869A
Other languages
English (en)
Other versions
JP2023052347A (ja
Inventor
康宣 橋本
裕明 小野
治 川前
信夫 益岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2023002869A priority Critical patent/JP7445027B2/ja
Publication of JP2023052347A publication Critical patent/JP2023052347A/ja
Application granted granted Critical
Publication of JP7445027B2 publication Critical patent/JP7445027B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Description

本発明は、複合撮像測距装置に関し、特に、複数種類のデバイスを一つの基体に配置するための技術に関する。
近年、携帯電話やスマートフォン等の携帯情報端末等の装置では小型化が進むと同時に様々な付加機能が搭載されており、これにより差別化が行われている。特にカメラ機能が充実しており、広角レンズを搭載して広範囲の画像や映像を撮影することが可能となっている。例えば特許文献1には、「周囲カメラは、正十二面体のような多面体の各構成面上に1台ずつカメラを搭載してなり、各々のカメラによって全周囲にわたる撮像画像が得られる。隣り合うカメラの撮像画像同士を順次接続していくことで、1枚の全周囲画像が得られる。但し、各カメラの投影中心が完全に一致するように周囲カメラを組み立てることはできない。そこで、撮像画像同士を接続するときには、被写体の遠近に応じて、隣接する撮像画像同士の接続位置を動的に調整することで、画像間の境界付近での途切れや継ぎ目をなくし、滑らかな周囲風景を生成する。(要約抜粋)」構成が開示されている。
特開2001-204015号公報
特許文献1の方法による測距方法は、被写体までの距離を仮定して撮像画像同士の接続位置を動的に調整し、滑らかに接続された場合の距離をその被写体までの推定距離とするという間接的なものであるので、得られる距離の確度が十分なものにならない。従って、撮像機能の他に、被写体までの距離を直接的に測定する測距機能を別に備えた方が望ましい。特許文献1の周囲カメラで用いられるフレームは、有線接続されて固定的に用いられるので比較的大型のフレームを採用することができ、このような場合は、撮像デバイスの画角を大きくして撮像範囲を重複させ、ステレオ法による測距機能を実装することも可能である。しかし、携帯情報端末のような小型化が進んだ装置に、全立体角の測距機能と撮像機能を搭載する場合、測距機能を、撮像デバイスを用いたステレオ法で実現することは基線長が短くなるために測距精度が向上しないという課題がある。従って、特許文献1に記載の周囲カメラ技術を小型装置にそのまま転用することには課題が残る。
本発明は上記課題を解決するためになされたものであり、複数種類のデバイスを一つの基体に効率よく配置した複合撮像測距装置を提供することを目的とする。
上記課題を解決するために、本発明は特許請求の範囲に記載の構成を備える。その一例をあげるならば、本発明は、数の撮像デバイスと、数の測距デバイスと、前記複数の撮像デバイスと測距デバイスが配置される基体と、を備え、各撮像デバイスの撮像データを接続して連続した広範囲の撮像データを生成する第1プロセッサと、各測距デバイスの測距データを接続して連続した広範囲の測距データを生成する第2プロセッサを更に備え、前記複数の撮像デバイス及び前記複数の測距デバイスは、下記二つの拘束条件の両方を満たして前記基体に配置される;
拘束条件1:前記複数の撮像デバイスの其々が、方位空間において最近接するデバイスが前記測距デバイスの内の少なくとも一つである、
拘束条件2:前記複数の測距デバイスの其々が、方位空間において最近接するデバイスが前記撮像デバイスの内の少なくとも一つである、ことを特徴とする。
本発明によれば、複数種類のデバイスを一つの基体に効率よく配置した複合撮像測距装置を提供することができる。上記した以外の目的、構成、効果は以下の実施形態において明らかにされる。
第1実施形態に係る複合入出射装置1の外観図 第1実施形態に係る複合入出射装置1の全体ブロック図 第1実施形態における第1種デバイス及び第2種デバイスの配置例を示す図 第1実施形態における第1種デバイス及び第2種デバイスの配置例を示す図 立方体中心から見た面中心(重心)方向の方位グループを用いてデバイスを配置した図 頂点方向の方位グループを用いてデバイスを配置した図 辺中心方位の方位グループを用いてデバイスを配置した図 立方八面体の正方形の面に第1種デバイス、正三角形の面に第2種デバイスを配置した図 全てのデバイスの向いている方位を極座標で示す図 立方体、正八面体、立方八面体に関する各方位グループにおける方位数と必要入出射角度範囲とを示した図 直方体(六面体)の携帯情報端末に複合入出射装置を実装した図 測距センサを正八面体の各頂点方位グループの方向に配置した図 図5Aで示した4つの測距センサの其々が計測した測距データを示す図 全立体角測距データを示す図 撮像データの例を示す図 測距センサの合成方法例を示す図 領域間を接続して整形した例を示す図 第2実施形態に係る複合入出射装置の外観図 第2実施形態に係る複合入出射装置の表示例を示す図 第2実施形態に係る複合入出射装置の全体ブロック図 画像処理プロセッサが実行する全立体角撮影及び測距アルゴリズムを示す図 全立体角画像に距離情報を付加して表示した例を示す図 全立体角画像及び全立体角測距データの作成処理の流れを示すフローチャート 全立体角画像及び全立体角測距データの再生処理の流れを示すフローチャート 複合入出射装置1を適用したHMDの例を示す図 HMDにおけるデバイス配置例を示す図 HMDに配置されたデバイスの必要入出射角度範囲を示す図 全てのデバイスの向いている方位を極座標で示す図
以下、本発明の実施形態を、図面を参照して説明する。全図を通じて同一の構成には同一の符号を付し、重複説明を省略する。以下の説明では、異種デバイスの組み合わせとして、撮像デバイス(第1種デバイスに相当する)と測距センサ(第2種デバイスに相当する)を例示するが、これに限定されるものではない。
(第1実施形態)
第1実施形態では、デバイスを搭載する基体2(図1参照)の他に、第1種デバイス及び第2種デバイスの中心方位(入出射範囲の中心方向を向ける方位)を定義する方位定義多面体5(図3A参照)を考える。ここで、「方位」とは、入出射範囲の中心方向を向けるべき実空間における向きをいう。また「方位空間」とは、実空間における方位の集合として定義される空間である。例えば、極座標系(r、θ、φ)の偏角(θ、φ)で現実空間の方位は表される。そして、現実空間のベクトルで平行移動して重なるものは同一の方位を持つ、とする。「基体2」とは実空間内において実際に存在し、第1種デバイス及び第2種デバイスを搭載する物体である。これに対して「方位定義多面体5」とは、基体2に搭載される第1種デバイス及び第2種デバイスの中心方位を決定するために導入する概念上の形状であり、実存する物体ではない。「方位定義多面体5」とは、その幾何学的対称性から、対称性のよい複数の方位からなる方位グループを「方位空間」の中で定義する。
方位グループとは、例えば、「方位定義多面体5」の中心位置から同一形状の面の面中心に向かう方位のグループである(詳しくは後述する)。「方位定義多面体5」は、第1対称性と第2対称性との少なくとも二つ以上の方位の対称性を有する形状である。方位定義多面体5が内包する第1対称性を有する複数の方位のそれぞれに対応する第1種のデバイスを、対応する方位をデバイスの中心方位として基体2に配置する。また、方位定義多面体5が内包する第2対称性を有する複数の方位のそれぞれに対応する第2種のデバイスを、対応する方位をデバイスの中心方位として基体2に配置する。なお、第1種デバイス第2種デバイス共に、配置位置は、それぞれのデバイスの入出射範囲に基体2が入らないように設定する。但し、基体2が入出射範囲の妨害になったとしても、個々のデバイスの入出射範囲が十分に広く、それぞれの種類のデバイスの入出射範囲を合わせると全立体角が覆われる場合は妨害があってもよい。
更に、妨害を受ける方位が入出射を必要としていない方位の場合も、その方位に関わる一部のデバイスの入出射範囲に妨害があってもよい。基体2による妨害が少なくなるデバイスの配置は、基体2が方位定義多面体5と同じ形状かそれに近ければ、基体2の中心から見たデバイスの配置方位がデバイスの中心方位に近い場合である。このような配置の場合、デバイスの中心方位方向が、平均的に基体2の表面の垂直方向に近くためである。また、このような配置にした場合、第1種デバイスと第2種デバイスの中心方位を方位空間において入れ子状にしているため、基体2上の配置位置についても入れ子状になり、デバイスの配置効率がよくなる。基体2の形状が方位定義多面体5の形状と異なる場合は、基体2の中心から見たデバイスの配置方位がデバイスの中心方位になる位置を基本配置として、基体2の形状と実装上の制約を考慮して、デバイスの中心位置を保ちながら、その基体2上の配置位置を基本配置から移動させて調整する。この場合も基本配置からの調整であるので、デバイスの配置効率はよい。
図1は、第1実施形態に係る複合入出射装置1の外観図である。複合入出射装置1は、携帯情報端末、例えばスマートフォンの本体を基体2とし、方位定義多面体5が内包する第1対称性を満たす方位を中心方位として、複数の第1種デバイス1、2、・・・、M(11-1,11-2、・・・、11-M)が配置される。更に、方位定義多面体5が内包する第2対称性を満たす方位を中心方位として、複数の第2種デバイス1、2、・・・、N(11-1,11-2、・・・、11-N)が配置される。各デバイスの基体2上での配置位置は、基体2の実装上の制約を考慮して決定される。方位定義多面体5、第1対称性及び第2対称性については後述する。
基体2の内部にはコントローラ3が備えられる。コントローラ3は、複数の第1種デバイス1、2、・・・、M(11-1,11-2、・・・、11-M)の其々、及び複数の第2種デバイス1、2、・・・、N(11-1,11-2、・・・、11-N)の其々と接続される。コントローラ3は、プロセッサやサーキットを含むコンピュータにより構成される。第1種デバイスの個数を示すM及び第2種デバイスの個数を示すNは、2以上の整数である。MとNとが同数であってもよいし、異なる数でもよい。また複数の第1種デバイス1、2、・・・、M(11-1、11-2、・・・、11-M)をまとめて第1種デバイス群11、第2種デバイス1、2、・・・、N(11-1,11-2、・・・、11-N)をまとめて第2種デバイス群12という。
第1種デバイス1、2・・・、M(11-1,11-2、・・・、11-M)の其々は、広角レンズ、CCD(Charge―Coupled Device)センサ或いはCMOS(Complementary metal-oxide-semiconductor)センサ等で構成される撮像デバイスである。第1種デバイス1、2・・・、M(11-1,11-2、・・・、11-M)の其々は、基体2の適切な位置に適切な方位に向けて配置されることで、全立体角の撮像をすることが可能である。
第2種デバイス1、2、・・・N(11-1,11-2、・・・、11-N)の其々は、例えば人物や物体までの距離を測定するTOFセンサである。第2種デバイス1、2、・・・N(11-1,11-2、・・・、11-N)の其々は、基体2の適切な位置に適切な方位に向けて配置されることで、全立体角の物体の距離を測定することが可能である。
図2は、第1実施形態に係る複合入出射装置1の全体ブロック図である。複合入出射装置1のコントローラ3は、第1種デバイス群11を制御する第1種デバイスプロセッサ211、第2種デバイス群12を制御する第2種デバイスプロセッサ212、CPU(Central Processing Unit)16、CPU16の処理、第1種デバイス群11の制御、第2種デバイス群12の制御等を行うためのプログラムや各種設定値を保持するためのROM(Read Only Memory)13、第1種デバイス群11から出力された撮像データ及び第2種デバイス群12から出力された測距データ(以下、撮像データ及び測距データを総称して「計測データ」という)を一時保存し、実行されるプログラムのワークエリアを提供するRAM14、計測データ、撮像データ、また予め作成又は撮像された映像データや画像データを保存する外部メモリ15、及びシステムバス17を含む。
図3Aは、第1実施形態に係る第1種デバイス1、2・・・、M(11-1,11-2、・・・、11-M)の其々、及び第2種デバイス1、2、・・・N(11-1,11-2、・・・、11-N)の其々の方位定義多面体5に基づいた配置例を示す。
方位定義多面体5として、正多面体、半正多面体、又はカタランの立体(半正多面体の双対多面体)を用いる。図3Aでは、方位定義多面体5の形状は立方八面体である。
第1種デバイス群11、第2種デバイス群12のそれぞれは、方位定義多面体5が内包する対称性を用いて配置される。具体的には、方位定義多面体5の中心を基準点とし、中心から面中心(重心でもよい)を見た方位からなる方位グループを第1対称性、中心から辺中心を見た方位からなる方位グループを第2対称性、中心から頂点をみた方位からなる方位グループを第3対称性と定義する。対称性の良い同一の方位定義多面体5が内包する方位グループの方位を中心方位として、第1種デバイス1、2、・・・、M(11-1,11-2、・・・、11-M)、第2種デバイス1、2、・・・、N(11-1,11-2、・・・、11-N)の其々を配置すれば、相互に干渉することなく、方位空間において入れ子状に効率よく、全立体角をカバーすることができる。例えば、面中心方位(第1対称性)を中心方位として第1種デバイス1、2、・・・、M(11-1,11-2、・・・、11-M)を配置し、頂点中心方位(第3対称性)を中心方位として第2種デバイス1、2、・・・、N(11-1,11-2、・・・、11-N)を配置する。なお、方位グループの数だけ異種デバイスを配置できるので、デバイスの種類は3種類以上であってもよい。
また、例えば魚眼レンズ等の超広角レンズを使った撮像デバイスは、1つの撮像デバイスのみで180度以上の画角を有する場合などは敢えて方位グループ内の全ての方位を使用してデバイスを配置する必要はない。但し、この場合も、異種デバイスと組み合わせる場合は、異種デバイスを配置する方位グループと入れ子状となる方位グループの一部に撮像デバイスを配置する。これにより、全体的に対称性のよい効率的なデバイス配置とすることができ、また干渉も少なくすることができる。この場合、数の少ないデバイス近傍についてのみ方位空間において入れ子状の配置となる。この状況では、偏りのない入れ子状の配置であることは、取り付け誤差も考慮し、数の少ない方のデバイスの第1近接デバイスと第2近接デバイスが異種デバイスになっていると表現できる。
図3Aは、基体2が方位定義多面体5に等しい場合のデバイス配置の例でもある。図3Aでは、立方八面体中心から四角形の面中心に向かう方位を中心方位として、6か所に6個の第1種デバイス11-1、11-2、11-3(図では残り3つは省略する)の其々が配置される。図示を省略した残りの3個については反対側の見えない位置の正方形の面に配置されている。
更に立方八面体中心から三角形の面中心に向かう方位を中心方位として、8か所に8個の第2種デバイス12-1、12-2、12-3、12-4(図では残り4つは省略する)の其々が配置される。図示を省略した残りの4個については反対側の見えない位置の正三角形の面に配置されている。
第1種デバイス11-1、11-2、11-3の撮像範囲、第2種デバイス12-1、12-2、12-3、12-4の測距範囲はそれぞれ、個々のデバイスの入出射角度範囲を合成して、全立体角を覆う。一つの第1種デバイスから見ると、方位空間における最近接デバイスは第2種デバイスであり、一つの第2種デバイスから見ると、方位空間における最近接デバイスは第1種デバイスである。
個々のデバイスの入出射角度範囲が、必要最低限の値よりも大きい場合は、厳密に方位定義多面体5に内包される対称方位に合っている必要はなく、全立体角を覆う範囲でデバイスの取り付け方位には許容度がある。
例えば、第1種デバイスとして、広角レンズ付きのCCDやCMOSと組み合わせた撮像デバイスを複数個配置して全立体角の撮影を可能にする。第2種デバイスとしての測距センサとしては例えばTOF(Time of Flight)センサを複数個配置し、全立体角を測距する。TOFセンサを用いて撮像素子側から光を照射し、対象物に反射して戻ってくるまでの時間的なずれを画素ごとに計測し、距離を測定することで、二次元配列のセンサー(CMOSやCCD)と併用すると、被写体との距離を二次元的に把握できる。
但し、二次元的に把握できるが、そのためにはTOFセンサを二次元的に基体2に配置する必要がある。たとえ広角レンズを搭載するにしても、広画角のものでも120~140度程度である。但し、画素の大きさは10μm程度であるため、センサそのものの大きさは数ミリ角に抑えることが可能になる。このため、基体2に複数個搭載することも可能になる。従って、TOFセンサの数と配置位置、角度を適切に行えば、全立体角の測距は容易である。
デバイスの配置は、デバイスが向いている方位さえ同じであれば、基体2(今の場合は方位定義多面体5に同じ)の特定の位置(面中心位置、辺中心位置、頂点位置)でなくてもよい。
更に、基体2の形状は、方位定義多面体5の形状と異なっていてもよい。その場合、デバイスの向く方向は、方位定義多面体5に内包される方位グループの方位である。例えば、図3Aにおいて、立方八面体の撮像デバイスと測距センサをデバイスの向く方位は変えずに直方体を基体2として、直方体の面中心位置と頂点位置に配置してもよい。この例を図3Bに示す。
図3Bでは、直方体に第1種デバイスとしての撮像デバイスが各直方体の面に、第2種デバイスとしての測距センサが各直方体の頂点に配置される。この場合、撮像デバイスが向いている方位は、直方体中心から面中心に向かう方位と同一になるが、測距センサが向いている方位は、直方体中心から頂点に向かう方位とは異なる。あくまでも図3Aの立方八面体の正三角形の面が向く方位となる。この図3Bは、基体2の形状がスマートフォンやタブレット端末の形状(直方体)と同じなので、実際に携帯可能な複合入出射装置1として使用することも可能である。なお、上記「撮像デバイスが向いている方位」とは、撮像デバイスの画角中心線の方位であり、「測距センサが向いている方位」とは、測距センサのスキャン範囲の中心線の方位である。
図4A、図4B、図4Cは、上述した各デバイスを正多面体、半正多面体とカタランの立体に其々内包される対称性を用いて配置した例を示す図である。ここでの例示は、基体2の形状と方位定義多面体5の形状とが同じ場合である。図4Aは、立方体中心から見た面中心(重心)方向の方位グループを用いてデバイスを配置した図を示す。図4Bは、頂点方向の方位グループを用いてデバイスを配置した図を示す。図4Cは、辺中心方位の方位グループを用いてデバイスを配置した図である。
同じ立方体でも各方位グループにより搭載するデバイス数は異なる。どの方位グループを採用するかは搭載するデバイスの入出射角度により決めればよい。これに関しては下記に述べる。
搭載された各デバイスの組み合わせで実際に全立体角の測距や撮影を可能にするための各デバイスの必要入出射角度に関しての説明を図5、図6を用いて説明する。
図5Aは、立方八面体の正方形の面に第1種デバイス(11-1)(11-2)(11-3)が配置されており(裏側図示省略)、正三角形の面に第2種デバイス(12-1)(12-2)(12-3)(12-4)が配置されている(裏側図示省略)。ここでの例示も、基体2と方位定義多面体5が同じ場合である。正方形の面に搭載された第1種デバイスが全立体角を覆うため(全立体角を計測するため)には第1種デバイスのグループ内での最近接のサブグループの方位ベクトルで構成される角錐内の方位範囲を入出射角度範囲が覆えばよい。即ち、図5AのX軸、Y軸、Z軸で構成される三角錐内の方位範囲(これが第1種デバイスの計測範囲の一単位となる)が余裕(隣接する第1種デバイスの入出射角度範囲との重複領域)を含めて第1種デバイスの入出射角度範囲で覆われることが必要となる。
図5Bは、全てのデバイスの向いている方位を、極座標の偏角で示す。第1種デバイス(11-1)の方位はθ=0度の方位なので、図5Bにおいては図5Aの円が帯として表記される。必要入出射角度範囲を図5Bで示すと、第1種デバイスの1つのデバイス(例えば第1種デバイス11-2)の入出射角度範囲が、角錐頂角の中心軸方向まで覆えばいいことになる。この場合、「中心軸方向」とは、図5Aの第2種デバイス(12-1)の方向になる。即ち図5AのV方向になる。これは図5Bで示すところのαの値となる。即ち、必要入出射角度範囲は、第1種デバイスの方向と角錐頂角の中心軸方向がなす角αの2倍になる。
図5Bでは第1種デバイス11-2の周りに破線で示した領域の範囲である。この場合、αは54.7°になるので、必要入出射角度は2倍の109.5°になる。この例を踏まえて正四面体、立方体、正八面体、立方八面体に関する各方位グループにおける方位数(搭載デバイス数としてもよい)と必要入出射角度範囲を示したのが図6である。ここで、立方八面体の面中心方位グループのように、面や辺や頂点の種類により、方位グループが更に細かく分かれる場合もある。これはあくまでも一例であり、他の多面体の場合でも同様の考え方で必要入出射角度範囲を求めることができる。上記では第1種デバイスに関しての記述であるが、当然第2種デバイスに関しても同様の考え方で必要入出射角度範囲を決めることができる。
上記必要入出射角度であれば、測距センサとしてTOFセンサを用いた場合、隣接するTOFセンサとの間で測定範囲が重なることになるが、これに関しては互いにデータの補完をすることで精度の高い計測が可能になる。
即ち、TOFセンサでは画角の周辺部分より、中心に近い方のデータのほうが測定精度は高くなるので、隣接のTOFセンサのデータを比べて、画角の中心部分に近いほうの測距データを使うことでより精度の高い全立体角距離測定を可能にする。図6に示す必要入出射角度は多面体の各方位グループにTOFセンサを配置した時にそのTOFセンサに求められる必要画角を示したものになる。例えば正六面体では各頂点にTOFセンサを配置すると必要デバイス数は8個になるが、各TOFセンサの画角は109.5度有れば8個で全立体角の測距が可能になる。同様に、立方八面体では各頂点に配置するとすれば12個のTOFセンサが必要になるが、必要画角は90度となり、少ない画角のTOFセンサでも全立体角の距離を測定することができる。最隣接の同種デバイス同士で画角の重なりがある場合は、上述通り、隣接のデバイスの計測データを補完することでより高精度の測定や画像を得ることができる。上記は測距センサとしてのTOFセンサの記述であるが、同様に例えば撮像デバイスに関しても隣接の重なりがある場合は、画角の中心に近い画像のほうが歪みは少ないので、画角の中心に近い方の画像を選択するとよい。このように、デバイスの入出射角度範囲は搭載デバイス数を決める重要な要素である。
図6は各種多面体の方位グループとその方位数、必要入出射角度範囲を纏めた表である。図6では多面体の数を主なものとして正四面体、立方体、正八面体、立方八面体の場合を記載しているが、これに限ることは無く、他の正多面体、半正多面体とカタランの立体等、色々な多面体においても同様の考え方で必要入出射角度範囲が求められ、デバイスの搭載数も決めることができる。
即ち、本実施形態は、測定範囲が小立体角の測距センサによる全立体角測距とカメラによる全立体角撮像の組み合わせに関し、全立体角を効率よくカバーするために、測距系、撮像系共に対称性のよい方向の組み合わせを選ぶ事を特徴としている。その点に鑑み、方位定義多面体5としての正多面体、半正多面体とカタランの立体に内包される対称性を用いている。具体的には、各種正多面体や、半正多面体とカタランの立体の中心から見た、種類毎の、面中心(重心)方位、辺中心方位、頂点方位の方位グループを用い、同一の各種正多面体(或いは半正多面体やカタラン多面体)に内包される方位グループの方位に、測距センサ、撮像デバイスを配置すれば、相互に干渉することなく、入れ子状に効率よく、全立体角をカバーすることができる。
なお、180度以上の画角の広角レンズを持つ撮像デバイスであれば、相対する2方向にデバイスを配置すれば全立体角の撮像は可能になる。この場合は、方位グループの全ての方位にデバイスを配置しなくてもよい。但しこの場合も、異種デバイスと組み合わせる場合は、異種デバイスを配置する方位グループと入れ子状となる方位グループの一部に撮像デバイスを配置することにより、全体的に対称性のよい効率的なデバイス配置とすることができ、また異種デバイス間の干渉も少なくすることができる。
更に、後述するが、変形例として、各デバイスの中心を通る軸線は方向を変えなければ、1点に集まっている必要性はない。これにより、配置の自由度が増す。また、別の変形例として、デバイスの縦横でカバーする入出射角度が異なる場合は、菱形多面体の面中心方位を用いても配置効率がよい。
次に上述した各撮像デバイス、測距センサの搭載位置に関し、具体的に搭載する配置方法の一例を、図7A、図7Bを用いて説明する。但し、下記説明は一例なので、配置例は下記に限定されない。
図7Aは、概直方体(六面体)の携帯情報端末に複合入出射装置1を実装した例である。概直方体が基体2である。そして例えば正八面体を方位定義多面体5として、その方位グループを使用して、測距センサと撮像デバイスを配置する。測距センサの中心方位として面中心方位の方位グループを採用した場合には8個の測距センサを配置する必要がある。しかしながら、携帯情報端末は六面体なので8個の測距センサを各面に搭載することはできない。これを解決するために、8個の測距センサを図7Aに示すとおり、例えば、上面に4、底面に4を辺部分に、正八面体の面中心方位グループの方位に向けて配置する。
また、携帯情報端末の辺に測距センサを配置する場合は、各辺に溝を作り(又は面取りを行い)、そこに搭載してもよい。このときの測距センサの画角は、図6の正八面体方位グループの面中心方位の値109.5度以上有ればよい。上記は携帯情報端末の各辺に溝を作って測距センサを配置する方法についての記述であるが、これに限ることは無く、測距センサの中心方位が上述の方位に配置できるのならば、方法は問わない。
一方、撮影デバイス110、111は正八面体の辺中心方位グループ方向に配置する。ここでは、撮像デバイスの画角が180度以上あるとして、辺中心方位グループの中から対向する二方位を選択し、携帯情報端末の六面体の対称位置にある2つの面に搭載することで、全立体角を撮影することが可能になる。
図7Bは、測距センサを方位定義多面体5としての正八面体の各頂点方位グループの方位を中心方位として配置する例を示す。この場合、上面に3、底面に3を配置する。具体的には、携帯情報端末の頂点を斜めに切り落とし、上述の方位グループの方位に向くように搭載してもよい。この場合にも、測距センサの画角は109.5度以上あればよい。
一方、撮影デバイス110、111は正八面体の面中心方位グループ方位を中心方位として配置する。ここでは、撮像デバイスの画角が180度以上あるとして、面中心方位グループの中から対向する二方位を選択し、携帯情報端末の六面体の対称位置にある2つの面に搭載することで、全立体角を撮影することが可能になる。この例では、面中心方位グループの全ての方位に撮像デバイスを配置していないが、全ての測距センサの方位空間における最近接デバイスは撮像デバイスとなっている。
この様に、方位定義多面体5としての同一の正多面体、半正多面体とカタランの立体が内包する方位グループの方位を中心方位として基体2に撮像デバイスと測距センサを効率よく配置し、全立体角の測距と撮影を行うことが可能となる。
また、夜間や暗いところでの撮影を考慮し、全立体角用の照明を搭載したいこともあるが、これに関しても照明を出射デバイスとして同様の考え方で複数搭載すればよい。この場合、撮像デバイスの中心方位と照明デバイスの中心方位が方位空間において入れ子状に配置されることにより、照明デバイスから撮像デバイスへの直接的な干渉が減る、という効果がある。
図8は例えば図5Aで示した4つの測距センサ12-1、12-2、12-3、12-4の其々が計測した測距データを用いて、一つの測距データに合成した例を示す。
各測距センサ12-1、12-2、12-3、12-4はそれぞれ測定範囲を含む。各測定範囲は、周辺部分はより測距に対する誤差は大きくなる。これは例えばTOFセンサのような場合、測定系に光学系のレンズを使っているため、カメラセンサにおける画角のように、周辺部になるほど歪が大きくなることによる。従って、図8に示すように、中心部に比べ、周辺部の方が測定精度は悪くなる。
このため、周辺部はできるだけ使わないほうがよい。そこで、複数の測距センサ12-1、12-2、12-3、12-4の其々の測定範囲が方位空間において隣接する測距センサの測定範囲に重なり合うような位置に配置し、より測定精度のよい部分を優先的に使うことで、全立体角測距を行っても精度のよい測定が可能になる。この選択は例えば予め設計時に隣接する測距センサの位置関係は分かるので、個々の測距センサの距離計測担当範囲を決めておけばよい。図7Aで示す残りの測距センサ12-5~12-8迄の測距センサについても同様に行い、全立体角の測距を高精度に仕上げることができる。
図9は、複数の測距データを一つの測距データに合成した例を示す。図9では、距離情報がパターン3種類で表現されているがこれに限ることは無く、実際は更に細かな濃淡で正確に距離が算出されるし、色分けしても良い。
CPU16は、各測距センサ12-1~12-4の其々から測距データを読込み、これらを合成及びトリミングして、全立体角測距データ800を生成してもよい。測距データの合成処理は、各測距センサの測距データのみを用いて行っても良いし、複数の撮像デバイスからの撮像データを用いて測距データを補完し、測距データの合成処理を行ってもよい。この詳細は後述する。
測距データを合成する際に、測定範囲の接続部で測距データにずれが生じることがある。これは、各測距センサに入射する光の幾何学的な集光点が必ずしも一致しないため、測定対象の距離により、それぞれの測距センサがカバーする方位範囲の領域がずれてくるためである。このような場合のデータの補正方法について図10を用いて説明する。
図10Aで示す撮像データは例えば図2の撮像デバイス11-1を例にしたものである。図10Bは上述の撮像データの範囲を測距する測距センサ12-1と12-2の2つのデータの合成方法について記載したものである。実際は撮像デバイス11-1の近接デバイスは4個の測距センサが配置されているので、4個のデータの合成になるが、説明を簡単にするために、近接2つの測距センサに関して説明する。また、2つの測距センサ12-1、12-2の測定範囲は撮像デバイス11-1の撮像範囲以外の部分も存在しているが、この説明では撮像デバイス11-1の撮像範囲内の測定についての説明になっている。測距センサ12-1、12-2が幾何学的に正確な位置、角度、方向に配置していると仮定すれば補正は周辺部の歪のみとなる。この場合には測距データの合成は図8で示したように測定範囲とその位置関係より精度の高いほうのデータを使って合成すればよい。
しかしながら、実際の製品では測距センサは幾何学的な位置からずれた状態で配置される。即ち、各デバイスの「集光点」(入射信号が幾何学的に収束する点)が一点に揃っていない場合や、歪みと測距センサそのものの取り付け位置や精度の問題からたとえ画角が重なっていたとしてもデータ同士が綺麗に接続できない可能性がある。そのため、被写体の距離に応じてダイナミックにデータの接続を調整する必要がある。このために使うのが撮像データである。例えばある目標物を撮像した場合、その目標物を測距センサ12-1、12-2で計測した場合の測距データ範囲は図10Bに示すように集光点のずれや取り付け精度により少しずれた状態になる。従って、このずれを上述の撮像データに合うように測距データを修正し、領域間の接続の整形を行う(図10C参照)。この修正は対象物の距離と、デバイスの特性、配置から計算することも可能であるが、撮像データを参考に更に整形することにより、境界領域のデータの正確性を向上させることができる。
第1実施形態によれば、一つの基体2に複数種類のデバイスを配置する際に、方位定義多面体5が内包する異なる対称性方位グループを用いてデバイスを方位空間において入れ子状に配置するので、異種又は同種のデバイスのいずれとも基体2における中心方位が被ることなく、かつ全立体角の計測が可能なように複数種類のデバイスを効率よく配置できる。
(第2実施形態)
第2実施形態は、携帯情報端末4に複合入出射装置1aを応用した実施形態である。図11Aは、第2実施形態に係る複合入出射装置1aの外観図である。図11Bは、複合入出射装置1aの表示例を示す図である。
複合入出射装置1aは、基体2としての携帯情報端末4に撮影デバイスや測距センサで計測された物体や人物等の距離や画像を確認するためのディスプレイ20を備える。撮像デバイス及び測距センサの構成は、図5Bで示したものと同じである。図11Aでは隠れている部分は示していない。
図11Bに示すように、複合入出射装置1aは、計測中であることを示す文字表示等を行っても良い。また、計測&撮影後は全立体角の撮影画像や、距離情報を表示してもよい。この時は携帯情報端末4を左右上下等の方向に回転させることでディスプレイ20には全立体角の画像が表示される。この時は携帯情報端末のジャイロセンサ(図12参照)と連動させて携帯情報端末4の方位を確認し、それに対応する画像を表示させる。
図12は、複合入出射装置1aの全体ブロックを示す。
携帯情報端末4は、第1種デバイスとしての広角レンズ及び撮像素子(例えばCCD或いはCMOSセンサ)を含むカメラ110、同じく広角レンズと撮像素子を含み、ディスプレイ20側を撮像範囲とするインカメラ111、カメラ110及びインカメラ111の其々からの撮像データを基に画像処理を行う画像処理プロセッサ112、第2種デバイスとしてのN個のTOFセンサ1、2、・・・、N(12-1)、(12-2)、・・・、(12-N)、ROM13、RAM14、外部メモリ15、CPU16、システムバス17、ジャイロセンサ18、加速度センサ19、ディスプレイ20、LAN通信器21、電話網通信器22、及びGPS(Global Positioning System)23を備える。
画像処理プロセッサ112は、撮影画像からその角度補正や回転補正、或いは広角レンズのため、歪んでいる画像を本来の状態に見えるように補正する歪み補正部114、人物の顔や物体を認識する被写体認識部116、被写体認識部116に基づいて画像データから顔や物体部分を切り出すトリミング部115、上記複数のカメラの画像を合成する画像合成部117を含む。
本実施形態では、少なくともカメラは2個以上搭載されている。例えば上述ではカメラ2個をインカメラと通常カメラとして、少なくとも180度以上の画角の広角レンズを搭載し、搭載位置はそれぞれ別の面に搭載することで、全立体角の画像を撮影可能となっている。カメラの搭載個数は2個以上であれば、幾つ搭載しても良い。
画像処理プロセッサ112は、カメラ110又はインカメラ111のいずれかから取得した撮像データに対して最初に歪み補正部114で歪み補正をし、被写体認識部116で人物や物体を認識した後にトリミング部115で人物や物体をトリミングしているが、これに限ることは無く、超広角レンズにより発生した歪みを簡略的に補正した後に認識し、トリミングした後により精度の高い歪み補正を行っても良いし、後述するが測距センサ群12から得られた人物や物体までの詳細な距離を対応させてディスプレイ20に表示しても良い。
図13は、画像処理プロセッサ112が実行する全立体角撮影及び測距アルゴリズムを示す。
画像処理プロセッサ112は、カメラ110からの撮像データが入力され、広角レンズの歪みを補正する第1歪み補正部114-1、及びインカメラ111からの撮像データが入力され、広角レンズの歪みを補正する第2歪み補正部114-2と、を備える。第1歪み補正部114-1は、第1収差補正部及び第1正像変換部を含む。同様に。第2歪み補正部114-2は、第2収差補正部及び第2正像変換部を含む。上述ではカメラひとつに対し、歪み処理部は一つずつ有るが、これに限ることは無く、高速処理で時間的な制約が無ければひとつの処理機能がスイッチングしながら処理を行っても良い。
第1歪み補正部114-1及び第2歪み補正部114-2の其々は、歪み補正処理を行った画像を画像合成部117に出力する。画像合成部117は、第1歪み補正部114-1及び第2歪み補正部114-2の其々から取得した歪み補正後の画像を合成し、全立体角の画像(以下「全立体角画像」という)を作成し、被写体認識部116に出力する。
被写体認識部116は、全立体角画像に基づいて被写体認識処理を行い、その結果をトリミング部115に出力する。
トリミング部115は、全立体角画像中において被写体認識処理で認識された被写体が撮像領域に対してトリミングを行う。被写体領域を完全にトリミングして被写体領域だけを取り出してもよいし、被写体領域枠を内包する枠を付加する処理でも良い。トリミングした画像に関しては更なる歪み補正を施しても良いし、そのトリミングした部分を拡大や強調をし、後述するようにそこまでの距離を表示させても良い。
一方、CPU16は、TOFセンサ12-1、12-2、・・・12-nの各測距データを取得し、全立体角測距データに合成する。CPU16は、測距センサの画角で測定された測距データを相互に補完しながら、全立体角測距データ800を作成する(図8、図9参照)。
CPU16は、画像合成部117から全立体角画像を取得し(図13のL-A)、全立体角測距データ800と関連付ける。この手法は様々あるが、例えば、予め複合入出射装置1aの周囲の既知の位置に被写体を設置し、全立体角画像を作成する。また測距センサ群12を用いて複合入出射装置1aから同一の被写体までの距離を測定し全立体角測距データ800を作成する。そして同一の被写体が撮像された全立体角画像内の被写体領域と、全立体角測距データ800から読み出した同一の被写体までの距離情報と、を関連付けることで、全立体角画像内の撮像領域と、当該撮像領域内に写り込んだ被写体までの距離情報とを関連付けたキャリブレーションデータを作成し、格納しておく。
ユーザが複合入出射装置1aを使用すると、CPU16は、全立体角画像を作成し、キャリブレーションデータを参照し、全立体角画像の撮像領域に対応する距離情報を読み出す。CPU16は、読み出した距離情報及びそれに対応する撮像領域の全立体角画像内における位置(例えば全立体角画像内の座標)を距離情報付加部118に出力する。
距離情報付加部118は、トリミング部115から取得した被写体領域の情報を基に、CPU16から取得した距離情報を全立体角画像における被写体領域に付加する。
図14は、全立体角画像に距離情報を付加して表示した例を示す。図14では、ディスプレイ20の表示範囲は全立体角の一部であるが、全立体角を表示する時には、ジャイロセンサ18のデータを元にディスプレイ20の位置を上下、左右に回転させることで表示させても良いし、ディスプレイ20を前後左右にスクロールさせて表示させても良い。また、距離情報を特定の対象物に対し、図の様にそこまでの距離を表示させても良い。
図15は、複合入出射装置1aにおける全立体角画像及び全立体角測距データ800の作成処理の流れを示すフローチャートである。下記処理の流れは、第1実施形態で説明した複合入出射装置1にもあてはまる。
複合入出射装置1aのユーザが全立体角撮影及び全立体角測距をしたい場合、ユーザは、複合入出射装置1aの動作モードを全立体角撮影及び全立体角測距モードに切り替える(S100)。複合入出射装置1aはディスプレイ20にモードセレクト画面を表示させ、ユーザからモード選択操作を受け付ける。複合入出射装置1aは、全立体角撮影及び全立体角測距モードに切り替わると、ディスプレイ20に“ただ今全立体角撮影&測距システム稼働中”等の表示を行い、ユーザにできるだけ揺らさない等の注意を促す表示を行っても良い。
カメラ110及びインカメラ111の其々が起動及び撮影を開始する。また、各測距センサ12-1、12-2、・・・12-Nが起動し測距を開始する(S101)。
カメラ110及びインカメラ111の其々が生成した撮像データが画像処理プロセッサ112に出力される。画像処理プロセッサ112は、広角レンズに起因する歪み補正を行い(S102)、全立体角画像を作成する(S103)。
CPU16(第1実施形態では第2種デバイスプロセッサ212)は、測距センサ12-1、12-2、・・・12-Nで測定された測距データを合成して全立体角測距データ800を作成する(S104)。ステップS103とステップS104は同時に実行されてもよいし、ステップS104が先に実行されてもよい。
画像処理プロセッサ112は、全立体角画像から被写体領域を検出し(S105)、被写体領域に対してトリミング処理をして切り出す。そしてS104で作成された全立体角測距データ800を用いて複合入出射装置1aから被写体までの距離情報を付加する(S106)。
画像処理プロセッサ112は、距離情報を付加した全立体角画像、及び全立体角測距データをRAM14、外部メモリ15の少なくとも一方に記録し(S107)、終了する。
図16は、複合入出射装置1aにおける全立体角画像及び全立体角測距データ800の再生処理の流れを示すフローチャートである。下記処理の流れは、第1実施形態で説明した複合入出射装置1にもあてはまる。
複合入出射装置1aが全立体角画像及び全立体角測距データの再生モードに移行するための操作を行う(S110)。複合入出射装置1aは、ディスプレイ20にモードセレクト画面を表示させ、ユーザからモード選択操作を受け付ける。更に、複合入出射装置1aは、ユーザからRAM14又は外部メモリ15に記録されたデータのうち再生対象のファイルを選択する操作を受け付け、そのファイルを再生する(S111)。
再生するファイルは、ディスプレイ20より広範囲、即ち全立体角の画像情報と距離情報が含まれている(図14参照)。そこで、複合入出射装置1aは、ジャイロセンサ18、加速度センサ19とGPS23による位置情報を基に、水平面内の方位情報と仰ぎ角情報を演算し、全立体角画像の特定の方位の画像(全立体角画像の部分画像)及び距離情報を表示させる。
その後、複合入出射装置1aは、ユーザに対しディスプレイ20のスクロール処理、或いは複合入出射装置1aを動かす事を要求する(S112)。
複合入出射装置1aは、ユーザの動き(例えばスクロール操作や複合入出射装置1aを動かすこと)を検知すると(S113/Yes)、その指示に従いその方向の画像や距離情報を表示させる(S114)。
ユーザの動きがない場合(S113/No)、又はステップS114の後、終了条件、例えば、ユーザの指示や動きが一定時間無い場合や、再生終了操作を受け付けた場合(S115/Yes)、再生処理を終了する。終了条件非充足の場合(S115/No)、ステップS112へ戻る。
図17Aに複合入出射装置1をHMD(Head Mounted Display)50に適用した例を示す。
HMDを用いてAR(Augmented Reality;拡張現実)表示を行う場合に、HMDユーザの現実の周囲環境を撮像及び測距し、その撮像データ及び測距データをAR表示に用いてもよい。これにより、現実空間に仮想オブジェクトを重畳表示する際の制御がより精密になる。
図17Aに示すように、HMD50は、側頭部装着体50-1及び頭頂部装着体50-2、及び透過性又は非透過性のディスプレイ50-3を備える。ディスプレイ50-3の上辺中心に広角レンズを有する第1カメラ51-1を、側頭部装着体50-1の後頭部中央に広角レンズを有する第2カメラ51-2を備える。またディスプレイ50-3の左右頂点の其々に第1測距センサ52-1、第2測距センサ52-2を備える。更に頭頂部装着体50-2における頭頂部に第3測距センサ52-3を備え、側頭部装着体50-1の後頭部中央に第4測距センサ52-4を備える。即ち、図17Bに示すように、この例においてHMD50では、方位定義多面体5として正四面体を用いる。カメラは画角180度以上のものを用いて辺中心方位グループの内、対向する2つの方位(51-1、51-2)に配置し、測距センサは頂点中心方位に配置される。
HMD50において全立体角画像及び全立体角測距データを作成する場合、全立体角画像の接合部がHMD50の真下、即ちHMD50の装着者側に位置することが望ましい。これは、HMD50の装着者にとって、自分自身の画像は不要であることが多いためである。測距データについても同様で、自分自身との距離を知りたいという要望はほぼないと考えられるので、測距データの接合部もHMD50の装着者側に位置させることが望ましい。そこで、センサ配置の変形例として、図18A、図18Bに示すように、隣接するセンサとの必要入射角範囲を確保しつつ、カメラの方位を辺中心方位からずらす。これにより、撮像データ及び測距データの接合部を、HMD50の真下に来るように各センサの方向を調整する。図18Bは方位空間での各デバイスの向く方位を表している。図18Bで51-1、51-2が辺中心方位に配置した場合で、51-1、51-2が方位を調整した変形例である。変形例において、Z軸の正方向を垂直上側方向に選べば、ユーザの身体がZ軸の負方向になり、カメラの光軸が水平方向になるので、撮像データ、測距データ共に、接合部がHMD50の装着者側に位置することになる。なお、この変形例においても、個々のデバイスの方位空間における最近接デバイスは異種デバイスとなっている。
本実施形態によれば、スマートフォンのように小型の携帯情報端末にも複数種類のデバイスを、異種及び同種のデバイスの配置位置が重ならないように、かつ全立体角を計測範囲に含ませて配置することができる。
上記実施形態は、本発明の実施形態の一例を示したにすぎず、本発明は上記に限定されるものでない。例えば、別の実施態様としてテレビ会議システムとして使うことも可能である。全立体角の距離情報と物体認識を利用することで、例えばテレビ会議システムにおいて、出席者全員の顔認識画像と距離情報から会議に出席している人の位置を把握し、指向性マイクとの組み合わせで、発言している人を特定し、その人を拡大して表示すること。或いは会話内容と出席者の特定を行ったうえで会話を鮮明に記録することが可能になる。
また、その他の入射デバイス、出射デバイスの例としては電波の送信アンテナ及び受信アンテナがある。携帯電話で使用する周波数が高くなり、指向性が強くなることにより、効率よくアンテナを配置して全立体角を電波の入出射範囲として覆う必要がある。この場合にも本発明が有効である。
また、更に入射デバイス、出射デバイスの他の例として、指向性の強いマイクや指向性の強いスピーカがある。スマートスピーカのような音声入出力デバイスにおいて、周辺に存在する使用者の中から、特定の使用者を対象にした音声のやり取りを実現する際にも本発明が有効である。
また、複合入出射装置1、1aのハードウェア構成も一例に過ぎず、1つのCPU16が第1種デバイスプロセッサ211、第2種デバイスプロセッサ212、画像処理プロセッサ112の各機能を実行してもよい。
1、1a :複合入出射装置
2 :基体
3 :コントローラ
4 :携帯情報端末
5 :方位定義多面体
11 :第1種デバイス群
12 :第2種デバイス群
13 :ROM
14 :RAM
15 :外部メモリ
16 :CPU
17 :システムバス
18 :ジャイロセンサ
19 :加速度センサ
20 :ディスプレイ
21 :LAN通信器
22 :電話網通信器
23 :GPS
50 :HMD
50-1 :側頭部装着体
50-2 :頭頂部装着体
50-3 :ディスプレイ
51-1 :第1カメラ
51-2 :第2カメラ
52-1 :第1測距センサ
52-2 :第2測距センサ
52-3 :第3測距センサ
52-4 :第4測距センサ
110 :カメラ
111 :インカメラ
112 :画像処理プロセッサ
114 :歪み補正部
114-1 :補正部
114-2 :補正部
115 :トリミング部
116 :被写体認識部
117 :画像合成部
118 :距離情報付加部
211 :第1種デバイスプロセッサ
212 :第2種デバイスプロセッサ
800 :全立体角測距データ

Claims (2)

  1. 数の撮像デバイスと、
    数の測距デバイスと、
    前記複数の撮像デバイスと測距デバイスが配置される基体と、を備え、
    各撮像デバイスの撮像データを接続して連続した広範囲の撮像データを生成する第1プロセッサと、
    各測距デバイスの測距データを接続して連続した広範囲の測距データを生成する第2プロセッサを更に備え、
    前記複数の撮像デバイス及び前記複数の測距デバイスは、下記二つの拘束条件の両方を満たして前記基体に配置される;
    拘束条件1:前記複数の撮像デバイスの其々が、方位空間において最近接するデバイスが前記測距デバイスの内の少なくとも一つである、
    拘束条件2:前記複数の測距デバイスの其々が、方位空間において最近接するデバイスが前記撮像デバイスの内の少なくとも一つである、
    ことを特徴とする複合撮像測距装置。
  2. 請求項1に記載の複合撮像測距装置であって、
    前記第2プロセッサは、前記測距デバイスの測距データを接続する際、接続エリアの撮像データを参照して測距データの接続を行う、
    ことを特徴とする複合撮像測距装置。
JP2023002869A 2019-02-07 2023-01-12 複合撮像測距装置 Active JP7445027B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023002869A JP7445027B2 (ja) 2019-02-07 2023-01-12 複合撮像測距装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020570301A JP7212073B2 (ja) 2019-02-07 2019-02-07 複合入出射装置
PCT/JP2019/004493 WO2020161871A1 (ja) 2019-02-07 2019-02-07 複合入出射装置
JP2023002869A JP7445027B2 (ja) 2019-02-07 2023-01-12 複合撮像測距装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020570301A Division JP7212073B2 (ja) 2019-02-07 2019-02-07 複合入出射装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024025057A Division JP2024061729A (ja) 2024-02-22 複合入出射装置

Publications (2)

Publication Number Publication Date
JP2023052347A JP2023052347A (ja) 2023-04-11
JP7445027B2 true JP7445027B2 (ja) 2024-03-06

Family

ID=71947775

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020570301A Active JP7212073B2 (ja) 2019-02-07 2019-02-07 複合入出射装置
JP2023002869A Active JP7445027B2 (ja) 2019-02-07 2023-01-12 複合撮像測距装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020570301A Active JP7212073B2 (ja) 2019-02-07 2019-02-07 複合入出射装置

Country Status (4)

Country Link
US (3) US11418710B2 (ja)
JP (2) JP7212073B2 (ja)
CN (1) CN113396311A (ja)
WO (1) WO2020161871A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022123723A1 (ja) * 2020-12-10 2022-06-16 マクセル株式会社 携帯端末および電子メガネ

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005252482A (ja) 2004-03-02 2005-09-15 Softopia Japan Foundation 画像生成装置及び3次元距離情報取得装置
JP2018142963A (ja) 2018-03-27 2018-09-13 パナソニックIpマネジメント株式会社 画像処理システム、画像処理装置および画像処理方法
JP2018151793A (ja) 2017-03-10 2018-09-27 株式会社リコー プログラム、情報処理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204015A (ja) 2000-01-18 2001-07-27 Sony Corp 周囲カメラ・システム、周囲カメラの撮像画像に基づいて周囲画像を生成する方法、隣接カメラによる撮像画像の接続処理装置及び方法、並びに、隣接カメラを用いた距離測定装置及び方法
JP2001285894A (ja) 2000-03-31 2001-10-12 Olympus Optical Co Ltd 3次元画像データの掲載方法
US10263432B1 (en) * 2013-06-25 2019-04-16 Energous Corporation Multi-mode transmitter with an antenna array for delivering wireless power and providing Wi-Fi access
US9702977B2 (en) * 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
GB2525170A (en) 2014-04-07 2015-10-21 Nokia Technologies Oy Stereo viewing
CH713688A1 (de) * 2017-04-12 2018-10-15 Trihow Ag Gerät mit einer Elektronikeinrichtung, Set umfassend ein solches Gerät, damit verbundene Verwendung und Verfahren zur Nutzung eines solchen Sets.

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005252482A (ja) 2004-03-02 2005-09-15 Softopia Japan Foundation 画像生成装置及び3次元距離情報取得装置
JP2018151793A (ja) 2017-03-10 2018-09-27 株式会社リコー プログラム、情報処理装置
JP2018142963A (ja) 2018-03-27 2018-09-13 パナソニックIpマネジメント株式会社 画像処理システム、画像処理装置および画像処理方法

Also Published As

Publication number Publication date
CN113396311A (zh) 2021-09-14
US11765464B2 (en) 2023-09-19
JP7212073B2 (ja) 2023-01-24
US20220337749A1 (en) 2022-10-20
JPWO2020161871A1 (ja) 2021-10-28
WO2020161871A1 (ja) 2020-08-13
JP2023052347A (ja) 2023-04-11
US20220132032A1 (en) 2022-04-28
US20230379587A1 (en) 2023-11-23
US11418710B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
JP6859442B2 (ja) キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法
US7224382B2 (en) Immersive imaging system
US7277118B2 (en) Method and system for compensating for parallax in multiple camera systems
US11736801B2 (en) Merging webcam signals from multiple cameras
JP4661829B2 (ja) 画像データ変換装置、及びこれを備えたカメラ装置
KR101915729B1 (ko) 360도 전방향 뷰 영상 생성 장치 및 방법
JP7445027B2 (ja) 複合撮像測距装置
JP2003178298A (ja) 画像処理装置及び画像処理方法、記憶媒体、並びにコンピュータ・プログラム
US10057487B1 (en) Panoramic imaging systems based on normal-lens cameras
EP3451649B1 (en) Method and apparatus for generating indoor panoramic video
TW201734948A (zh) 用於在廣角圖像系統中生成相關的音頻和視覺信號的方法、系統及設備
WO2017144783A1 (en) A multi-camera device and a calibration method
JP2023026477A (ja) 撮像装置、撮像システム
JP7424076B2 (ja) 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム
JP7383911B2 (ja) 撮像システム、画像処理装置、撮像装置およびプログラム
JP6665917B2 (ja) 画像処理装置
JP2024061729A (ja) 複合入出射装置
JP2020204874A (ja) 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム
JP2018157314A (ja) 情報処理システム、情報処理方法及びプログラム
WO2021200185A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2022084529A (ja) 装置、システム、方法およびプログラム
JP2023139983A (ja) 撮影装置、撮影方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240222

R150 Certificate of patent or registration of utility model

Ref document number: 7445027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150