JP2024061729A - 複合入出射装置 - Google Patents

複合入出射装置 Download PDF

Info

Publication number
JP2024061729A
JP2024061729A JP2024025057A JP2024025057A JP2024061729A JP 2024061729 A JP2024061729 A JP 2024061729A JP 2024025057 A JP2024025057 A JP 2024025057A JP 2024025057 A JP2024025057 A JP 2024025057A JP 2024061729 A JP2024061729 A JP 2024061729A
Authority
JP
Japan
Prior art keywords
orientation
type devices
polyhedron
devices
distance measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024025057A
Other languages
English (en)
Inventor
康宣 橋本
裕明 小野
治 川前
信夫 益岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2024025057A priority Critical patent/JP2024061729A/ja
Publication of JP2024061729A publication Critical patent/JP2024061729A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Figure 2024061729000001
【課題】複数種類のデバイスを一つの基体に効率よく配置した複合入出射装置を提供する

【解決手段】複合入出射装置は、エネルギーを入射又は出射する複数の第1種デバイスと、エネルギーを入射又は出射し、前記第1種デバイスとは種類が異なる複数の第2種デバイスと、基体と、を備え、複数の第1種デバイスのエネルギーの入射又は出射によって計測された情報を合成し、複数の第2種デバイスのエネルギーの入射又は出射によって計測された情報を合成し、複数の第1種デバイス及び複数の第2種デバイスは、下記二つの拘束条件の両方を満たして基体に配置される;拘束条件1:複数の第1種デバイスの其々は、方位空間において最近接するデバイスが第2種デバイスの内の少なくとも一つである、拘束条件2:複数の第2種デバイスの其々が、方位空間において最近接するデバイスは第1種デバイスの内の少なくとも一つである。
【選択図】図1

Description

本発明は、複合入出射装置に関し、特に、複数種類のデバイスを一つの基体に配置する
ための技術に関する。
近年、携帯電話やスマートフォン等の携帯情報端末等の装置では小型化が進むと同時に
様々な付加機能が搭載されており、これにより差別化が行われている。特にカメラ機能が
充実しており、広角レンズを搭載して広範囲の画像や映像を撮影することが可能となって
いる。例えば特許文献1には、「周囲カメラは、正十二面体のような多面体の各構成面上
に1台ずつカメラを搭載してなり、各々のカメラによって全周囲にわたる撮像画像が得ら
れる。隣り合うカメラの撮像画像同士を順次接続していくことで、1枚の全周囲画像が得
られる。但し、各カメラの投影中心が完全に一致するように周囲カメラを組み立てること
はできない。そこで、撮像画像同士を接続するときには、被写体の遠近に応じて、隣接す
る撮像画像同士の接続位置を動的に調整することで、画像間の境界付近での途切れや継ぎ
目をなくし、滑らかな周囲風景を生成する。(要約抜粋)」構成が開示されている。
特開2001-204015号公報
特許文献1の方法による測距方法は、被写体までの距離を仮定して撮像画像同士の接続
位置を動的に調整し、滑らかに接続された場合の距離をその被写体までの推定距離とする
という間接的なものであるので、得られる距離の確度が十分なものにならない。従って、
撮像機能の他に、被写体までの距離を直接的に測定する測距機能を別に備えた方が望まし
い。特許文献1の周囲カメラで用いられるフレームは、有線接続されて固定的に用いられ
るので比較的大型のフレームを採用することができ、このような場合は、撮像デバイスの
画角を大きくして撮像範囲を重複させ、ステレオ法による測距機能を実装することも可能
である。しかし、携帯情報端末のような小型化が進んだ装置に、全立体角の測距機能と撮
像機能を搭載する場合、測距機能を、撮像デバイスを用いたステレオ法で実現することは
基線長が短くなるために測距精度が向上しないという課題がある。従って、特許文献1に
記載の周囲カメラ技術を小型装置にそのまま転用することには課題が残る。
本発明は上記課題を解決するためになされたものであり、複数種類のデバイスを一つの
基体に効率よく配置した複合入出射装置を提供することを目的とする。
上記課題を解決するために、本発明は特許請求の範囲に記載の構成を備える。その一例をあげるならば、本発明は、エネルギーを入射又は出射する複数の第1種デバイスと、エネルギーを入射又は出射し、前記第1種デバイスとは種類が異なる複数の第2種デバイスと、前記複数の第1種デバイス及び前記複数の第2種デバイスが配置される基体と、を備え、前記複数の第1種デバイスのエネルギーの入射又は出射によって計測された情報を合成し、前記複数の第2種デバイスのエネルギーの入射又は出射によって計測された情報を合成し、前記複数の第1種デバイス及び前記複数の第2種デバイスは、下記二つの拘束条件の両方を満たして前記基体に配置される;
拘束条件1:前記複数の第1種デバイスの其々は、方位空間において最近接するデバイスが前記第2種デバイスの内の少なくとも一つである、
拘束条件2:前記複数の第2種デバイスの其々が、方位空間において最近接するデバイスは前記第1種デバイスの内の少なくとも一つである、ことを特徴とする。
本発明によれば、複数種類のデバイスを一つの基体に効率よく配置した複合入出射装置
を提供することができる。上記した以外の目的、構成、効果は以下の実施形態において明
らかにされる。
第1実施形態に係る複合入出射装置1の外観図 第1実施形態に係る複合入出射装置1の全体ブロック図 第1実施形態における第1種デバイス及び第2種デバイスの配置例を示す図 第1実施形態における第1種デバイス及び第2種デバイスの配置例を示す図 立方体中心から見た面中心(重心)方向の方位グループを用いてデバイスを配置した図 頂点方向の方位グループを用いてデバイスを配置した図 辺中心方位の方位グループを用いてデバイスを配置した図 立方八面体の正方形の面に第1種デバイス、正三角形の面に第2種デバイスを配置した図 全てのデバイスの向いている方位を極座標で示す図 立方体、正八面体、立方八面体に関する各方位グループにおける方位数と必要入出射角度範囲とを示した図 直方体(六面体)の携帯情報端末に複合入出射装置を実装した図 測距センサを正八面体の各頂点方位グループの方向に配置した図 図5Aで示した4つの測距センサの其々が計測した測距データを示す図 全立体角測距データを示す図 撮像データの例を示す図 測距センサの合成方法例を示す図 領域間を接続して整形した例を示す図 第2実施形態に係る複合入出射装置の外観図 第2実施形態に係る複合入出射装置の表示例を示す図 第2実施形態に係る複合入出射装置の全体ブロック図 画像処理プロセッサが実行する全立体角撮影及び測距アルゴリズムを示す図 全立体角画像に距離情報を付加して表示した例を示す図 全立体角画像及び全立体角測距データの作成処理の流れを示すフローチャート 全立体角画像及び全立体角測距データの再生処理の流れを示すフローチャート 複合入出射装置1を適用したHMDの例を示す図 HMDにおけるデバイス配置例を示す図 HMDに配置されたデバイスの必要入出射角度範囲を示す図 全てのデバイスの向いている方位を極座標で示す図
以下、本発明の実施形態を、図面を参照して説明する。全図を通じて同一の構成には同
一の符号を付し、重複説明を省略する。以下の説明では、異種デバイスの組み合わせとし
て、撮像デバイス(第1種デバイスに相当する)と測距センサ(第2種デバイスに相当す
る)を例示するが、これに限定されるものではない。
(第1実施形態)
第1実施形態では、デバイスを搭載する基体2(図1参照)の他に、第1種デバイス及
び第2種デバイスの中心方位(入出射範囲の中心方向を向ける方位)を定義する方位定義
多面体5(図3A参照)を考える。ここで、「方位」とは、入出射範囲の中心方向を向け
るべき実空間における向きをいう。また「方位空間」とは、実空間における方位の集合と
して定義される空間である。例えば、極座標系(r、θ、φ)の偏角(θ、φ)で現実空
間の方位は表される。そして、現実空間のベクトルで平行移動して重なるものは同一の方
位を持つ、とする。「基体2」とは実空間内において実際に存在し、第1種デバイス及び
第2種デバイスを搭載する物体である。これに対して「方位定義多面体5」とは、基体2
に搭載される第1種デバイス及び第2種デバイスの中心方位を決定するために導入する概
念上の形状であり、実存する物体ではない。「方位定義多面体5」とは、その幾何学的対
称性から、対称性のよい複数の方位からなる方位グループを「方位空間」の中で定義する
方位グループとは、例えば、「方位定義多面体5」の中心位置から同一形状の面の面中
心に向かう方位のグループである(詳しくは後述する)。「方位定義多面体5」は、第1
対称性と第2対称性との少なくとも二つ以上の方位の対称性を有する形状である。方位定
義多面体5が内包する第1対称性を有する複数の方位のそれぞれに対応する第1種のデバ
イスを、対応する方位をデバイスの中心方位として基体2に配置する。また、方位定義多
面体5が内包する第2対称性を有する複数の方位のそれぞれに対応する第2種のデバイス
を、対応する方位をデバイスの中心方位として基体2に配置する。なお、第1種デバイス
第2種デバイス共に、配置位置は、それぞれのデバイスの入出射範囲に基体2が入らない
ように設定する。但し、基体2が入出射範囲の妨害になったとしても、個々のデバイスの
入出射範囲が十分に広く、それぞれの種類のデバイスの入出射範囲を合わせると全立体角
が覆われる場合は妨害があってもよい。
更に、妨害を受ける方位が入出射を必要としていない方位の場合も、その方位に関わる
一部のデバイスの入出射範囲に妨害があってもよい。基体2による妨害が少なくなるデバ
イスの配置は、基体2が方位定義多面体5と同じ形状かそれに近ければ、基体2の中心か
ら見たデバイスの配置方位がデバイスの中心方位に近い場合である。このような配置の場
合、デバイスの中心方位方向が、平均的に基体2の表面の垂直方向に近くためである。ま
た、このような配置にした場合、第1種デバイスと第2種デバイスの中心方位を方位空間
において入れ子状にしているため、基体2上の配置位置についても入れ子状になり、デバ
イスの配置効率がよくなる。基体2の形状が方位定義多面体5の形状と異なる場合は、基
体2の中心から見たデバイスの配置方位がデバイスの中心方位になる位置を基本配置とし
て、基体2の形状と実装上の制約を考慮して、デバイスの中心位置を保ちながら、その基
体2上の配置位置を基本配置から移動させて調整する。この場合も基本配置からの調整で
あるので、デバイスの配置効率はよい。
図1は、第1実施形態に係る複合入出射装置1の外観図である。複合入出射装置1は、
携帯情報端末、例えばスマートフォンの本体を基体2とし、方位定義多面体5が内包する
第1対称性を満たす方位を中心方位として、複数の第1種デバイス1、2、・・・、M(
11-1,11-2、・・・、11-M)が配置される。更に、方位定義多面体5が内包
する第2対称性を満たす方位を中心方位として、複数の第2種デバイス1、2、・・・、
N(11-1,11-2、・・・、11-N)が配置される。各デバイスの基体2上での
配置位置は、基体2の実装上の制約を考慮して決定される。方位定義多面体5、第1対称
性及び第2対称性については後述する。
基体2の内部にはコントローラ3が備えられる。コントローラ3は、複数の第1種デバ
イス1、2、・・・、M(11-1,11-2、・・・、11-M)の其々、及び複数の
第2種デバイス1、2、・・・、N(11-1,11-2、・・・、11-N)の其々と
接続される。コントローラ3は、プロセッサやサーキットを含むコンピュータにより構成
される。第1種デバイスの個数を示すM及び第2種デバイスの個数を示すNは、2以上の
整数である。MとNとが同数であってもよいし、異なる数でもよい。また複数の第1種デ
バイス1、2、・・・、M(11-1、11-2、・・・、11-M)をまとめて第1種
デバイス群11、第2種デバイス1、2、・・・、N(11-1,11-2、・・・、1
1-N)をまとめて第2種デバイス群12という。
第1種デバイス1、2・・・、M(11-1,11-2、・・・、11-M)の其々は
、広角レンズ、CCD(Charge―Coupled Device)センサ或いはC
MOS(Complementary metal-oxide-semiconduct
or)センサ等で構成される撮像デバイスである。第1種デバイス1、2・・・、M(1
1-1,11-2、・・・、11-M)の其々は、基体2の適切な位置に適切な方位に向
けて配置されることで、全立体角の撮像をすることが可能である。
第2種デバイス1、2、・・・N(11-1,11-2、・・・、11-N)の其々は
、例えば人物や物体までの距離を測定するTOFセンサである。第2種デバイス1、2、
・・・N(11-1,11-2、・・・、11-N)の其々は、基体2の適切な位置に適
切な方位に向けて配置されることで、全立体角の物体の距離を測定することが可能である
図2は、第1実施形態に係る複合入出射装置1の全体ブロック図である。複合入出射装
置1のコントローラ3は、第1種デバイス群11を制御する第1種デバイスプロセッサ2
11、第2種デバイス群12を制御する第2種デバイスプロセッサ212、CPU(Ce
ntral Processing Unit)16、CPU16の処理、第1種デバイ
ス群11の制御、第2種デバイス群12の制御等を行うためのプログラムや各種設定値を
保持するためのROM(Read Only Memory)13、第1種デバイス群1
1から出力された撮像データ及び第2種デバイス群12から出力された測距データ(以下
、撮像データ及び測距データを総称して「計測データ」という)を一時保存し、実行され
るプログラムのワークエリアを提供するRAM14、計測データ、撮像データ、また予め
作成又は撮像された映像データや画像データを保存する外部メモリ15、及びシステムバ
ス17を含む。
図3Aは、第1実施形態に係る第1種デバイス1、2・・・、M(11-1,11-2
、・・・、11-M)の其々、及び第2種デバイス1、2、・・・N(11-1,11-
2、・・・、11-N)の其々の方位定義多面体5に基づいた配置例を示す。
方位定義多面体5として、正多面体、半正多面体、又はカタランの立体(半正多面体の
双対多面体)を用いる。図3Aでは、方位定義多面体5の形状は立方八面体である。
第1種デバイス群11、第2種デバイス群12のそれぞれは、方位定義多面体5が内包
する対称性を用いて配置される。具体的には、方位定義多面体5の中心を基準点とし、中
心から面中心(重心でもよい)を見た方位からなる方位グループを第1対称性、中心から
辺中心を見た方位からなる方位グループを第2対称性、中心から頂点をみた方位からなる
方位グループを第3対称性と定義する。対称性の良い同一の方位定義多面体5が内包する
方位グループの方位を中心方位として、第1種デバイス1、2、・・・、M(11-1,
11-2、・・・、11-M)、第2種デバイス1、2、・・・、N(11-1,11-
2、・・・、11-N)の其々を配置すれば、相互に干渉することなく、方位空間におい
て入れ子状に効率よく、全立体角をカバーすることができる。例えば、面中心方位(第1
対称性)を中心方位として第1種デバイス1、2、・・・、M(11-1,11-2、・
・・、11-M)を配置し、頂点中心方位(第3対称性)を中心方位として第2種デバイ
ス1、2、・・・、N(11-1,11-2、・・・、11-N)を配置する。なお、方
位グループの数だけ異種デバイスを配置できるので、デバイスの種類は3種類以上であっ
てもよい。
また、例えば魚眼レンズ等の超広角レンズを使った撮像デバイスは、1つの撮像デバイ
スのみで180度以上の画角を有する場合などは敢えて方位グループ内の全ての方位を使
用してデバイスを配置する必要はない。但し、この場合も、異種デバイスと組み合わせる
場合は、異種デバイスを配置する方位グループと入れ子状となる方位グループの一部に撮
像デバイスを配置する。これにより、全体的に対称性のよい効率的なデバイス配置とする
ことができ、また干渉も少なくすることができる。この場合、数の少ないデバイス近傍に
ついてのみ方位空間において入れ子状の配置となる。この状況では、偏りのない入れ子状
の配置であることは、取り付け誤差も考慮し、数の少ない方のデバイスの第1近接デバイ
スと第2近接デバイスが異種デバイスになっていると表現できる。
図3Aは、基体2が方位定義多面体5に等しい場合のデバイス配置の例でもある。図3
Aでは、立方八面体中心から四角形の面中心に向かう方位を中心方位として、6か所に6
個の第1種デバイス11-1、11-2、11-3(図では残り3つは省略する)の其々
が配置される。図示を省略した残りの3個については反対側の見えない位置の正方形の面
に配置されている。
更に立方八面体中心から三角形の面中心に向かう方位を中心方位として、8か所に8個
の第2種デバイス12-1、12-2、12-3、12-4(図では残り4つは省略する
)の其々が配置される。図示を省略した残りの4個については反対側の見えない位置の正
三角形の面に配置されている。
第1種デバイス11-1、11-2、11-3の撮像範囲、第2種デバイス12-1、
12-2、12-3、12-4の測距範囲はそれぞれ、個々のデバイスの入出射角度範囲
を合成して、全立体角を覆う。一つの第1種デバイスから見ると、方位空間における最近
接デバイスは第2種デバイスであり、一つの第2種デバイスから見ると、方位空間におけ
る最近接デバイスは第1種デバイスである。
個々のデバイスの入出射角度範囲が、必要最低限の値よりも大きい場合は、厳密に方位
定義多面体5に内包される対称方位に合っている必要はなく、全立体角を覆う範囲でデバ
イスの取り付け方位には許容度がある。
例えば、第1種デバイスとして、広角レンズ付きのCCDやCMOSと組み合わせた撮
像デバイスを複数個配置して全立体角の撮影を可能にする。第2種デバイスとしての測距
センサとしては例えばTOF(Time of Flight)センサを複数個配置し、
全立体角を測距する。TOFセンサを用いて撮像素子側から光を照射し、対象物に反射し
て戻ってくるまでの時間的なずれを画素ごとに計測し、距離を測定することで、二次元配
列のセンサー(CMOSやCCD)と併用すると、被写体との距離を二次元的に把握でき
る。
但し、二次元的に把握できるが、そのためにはTOFセンサを二次元的に基体2に配置
する必要がある。たとえ広角レンズを搭載するにしても、広画角のものでも120~14
0度程度である。但し、画素の大きさは10μm程度であるため、センサそのものの大き
さは数ミリ角に抑えることが可能になる。このため、基体2に複数個搭載することも可能
になる。従って、TOFセンサの数と配置位置、角度を適切に行えば、全立体角の測距は
容易である。
デバイスの配置は、デバイスが向いている方位さえ同じであれば、基体2(今の場合は
方位定義多面体5に同じ)の特定の位置(面中心位置、辺中心位置、頂点位置)でなくて
もよい。
更に、基体2の形状は、方位定義多面体5の形状と異なっていてもよい。その場合、デ
バイスの向く方向は、方位定義多面体5に内包される方位グループの方位である。例えば
、図3Aにおいて、立方八面体の撮像デバイスと測距センサをデバイスの向く方位は変え
ずに直方体を基体2として、直方体の面中心位置と頂点位置に配置してもよい。この例を
図3Bに示す。
図3Bでは、直方体に第1種デバイスとしての撮像デバイスが各直方体の面に、第2種
デバイスとしての測距センサが各直方体の頂点に配置される。この場合、撮像デバイスが
向いている方位は、直方体中心から面中心に向かう方位と同一になるが、測距センサが向
いている方位は、直方体中心から頂点に向かう方位とは異なる。あくまでも図3Aの立方
八面体の正三角形の面が向く方位となる。この図3Bは、基体2の形状がスマートフォン
やタブレット端末の形状(直方体)と同じなので、実際に携帯可能な複合入出射装置1と
して使用することも可能である。なお、上記「撮像デバイスが向いている方位」とは、撮
像デバイスの画角中心線の方位であり、「測距センサが向いている方位」とは、測距セン
サのスキャン範囲の中心線の方位である。
図4A、図4B、図4Cは、上述した各デバイスを正多面体、半正多面体とカタランの
立体に其々内包される対称性を用いて配置した例を示す図である。ここでの例示は、基体
2の形状と方位定義多面体5の形状とが同じ場合である。図4Aは、立方体中心から見た
面中心(重心)方向の方位グループを用いてデバイスを配置した図を示す。図4Bは、頂
点方向の方位グループを用いてデバイスを配置した図を示す。図4Cは、辺中心方位の方
位グループを用いてデバイスを配置した図である。
同じ立方体でも各方位グループにより搭載するデバイス数は異なる。どの方位グループ
を採用するかは搭載するデバイスの入出射角度により決めればよい。これに関しては下記
に述べる。
搭載された各デバイスの組み合わせで実際に全立体角の測距や撮影を可能にするための
各デバイスの必要入出射角度に関しての説明を図5、図6を用いて説明する。
図5Aは、立方八面体の正方形の面に第1種デバイス(11-1)(11-2)(11
-3)が配置されており(裏側図示省略)、正三角形の面に第2種デバイス(12-1)
(12-2)(12-3)(12-4)が配置されている(裏側図示省略)。ここでの例
示も、基体2と方位定義多面体5が同じ場合である。正方形の面に搭載された第1種デバ
イスが全立体角を覆うため(全立体角を計測するため)には第1種デバイスのグループ内
での最近接のサブグループの方位ベクトルで構成される角錐内の方位範囲を入出射角度範
囲が覆えばよい。即ち、図5AのX軸、Y軸、Z軸で構成される三角錐内の方位範囲(こ
れが第1種デバイスの計測範囲の一単位となる)が余裕(隣接する第1種デバイスの入出
射角度範囲との重複領域)を含めて第1種デバイスの入出射角度範囲で覆われることが必
要となる。
図5Bは、全てのデバイスの向いている方位を、極座標の偏角で示す。第1種デバイス
(11-1)の方位はθ=0度の方位なので、図5Bにおいては図5Aの円が帯として表
記される。必要入出射角度範囲を図5Bで示すと、第1種デバイスの1つのデバイス(例
えば第1種デバイス11-2)の入出射角度範囲が、角錐頂角の中心軸方向まで覆えばい
いことになる。この場合、「中心軸方向」とは、図5Aの第2種デバイス(12-1)の
方向になる。即ち図5AのV方向になる。これは図5Bで示すところのαの値となる。即
ち、必要入出射角度範囲は、第1種デバイスの方向と角錐頂角の中心軸方向がなす角αの
2倍になる。
図5Bでは第1種デバイス11-2の周りに破線で示した領域の範囲である。この場合
、αは54.7°になるので、必要入出射角度は2倍の109.5°になる。この例を踏
まえて正四面体、立方体、正八面体、立方八面体に関する各方位グループにおける方位数
(搭載デバイス数としてもよい)と必要入出射角度範囲を示したのが図6である。ここで
、立方八面体の面中心方位グループのように、面や辺や頂点の種類により、方位グループ
が更に細かく分かれる場合もある。これはあくまでも一例であり、他の多面体の場合でも
同様の考え方で必要入出射角度範囲を求めることができる。上記では第1種デバイスに関
しての記述であるが、当然第2種デバイスに関しても同様の考え方で必要入出射角度範囲
を決めることができる。
上記必要入出射角度であれば、測距センサとしてTOFセンサを用いた場合、隣接する
TOFセンサとの間で測定範囲が重なることになるが、これに関しては互いにデータの補
完をすることで精度の高い計測が可能になる。
即ち、TOFセンサでは画角の周辺部分より、中心に近い方のデータのほうが測定精度
は高くなるので、隣接のTOFセンサのデータを比べて、画角の中心部分に近いほうの測
距データを使うことでより精度の高い全立体角距離測定を可能にする。図6に示す必要入
出射角度は多面体の各方位グループにTOFセンサを配置した時にそのTOFセンサに求
められる必要画角を示したものになる。例えば正六面体では各頂点にTOFセンサを配置
すると必要デバイス数は8個になるが、各TOFセンサの画角は109.5度有れば8個
で全立体角の測距が可能になる。同様に、立方八面体では各頂点に配置するとすれば12
個のTOFセンサが必要になるが、必要画角は90度となり、少ない画角のTOFセンサ
でも全立体角の距離を測定することができる。最隣接の同種デバイス同士で画角の重なり
がある場合は、上述通り、隣接のデバイスの計測データを補完することでより高精度の測
定や画像を得ることができる。上記は測距センサとしてのTOFセンサの記述であるが、
同様に例えば撮像デバイスに関しても隣接の重なりがある場合は、画角の中心に近い画像
のほうが歪みは少ないので、画角の中心に近い方の画像を選択するとよい。このように、
デバイスの入出射角度範囲は搭載デバイス数を決める重要な要素である。
図6は各種多面体の方位グループとその方位数、必要入出射角度範囲を纏めた表である
。図6では多面体の数を主なものとして正四面体、立方体、正八面体、立方八面体の場合
を記載しているが、これに限ることは無く、他の正多面体、半正多面体とカタランの立体
等、色々な多面体においても同様の考え方で必要入出射角度範囲が求められ、デバイスの
搭載数も決めることができる。
即ち、本実施形態は、測定範囲が小立体角の測距センサによる全立体角測距とカメラに
よる全立体角撮像の組み合わせに関し、全立体角を効率よくカバーするために、測距系、
撮像系共に対称性のよい方向の組み合わせを選ぶ事を特徴としている。その点に鑑み、方
位定義多面体5としての正多面体、半正多面体とカタランの立体に内包される対称性を用
いている。具体的には、各種正多面体や、半正多面体とカタランの立体の中心から見た、
種類毎の、面中心(重心)方位、辺中心方位、頂点方位の方位グループを用い、同一の各
種正多面体(或いは半正多面体やカタラン多面体)に内包される方位グループの方位に、
測距センサ、撮像デバイスを配置すれば、相互に干渉することなく、入れ子状に効率よく
、全立体角をカバーすることができる。
なお、180度以上の画角の広角レンズを持つ撮像デバイスであれば、相対する2方向
にデバイスを配置すれば全立体角の撮像は可能になる。この場合は、方位グループの全て
の方位にデバイスを配置しなくてもよい。但しこの場合も、異種デバイスと組み合わせる
場合は、異種デバイスを配置する方位グループと入れ子状となる方位グループの一部に撮
像デバイスを配置することにより、全体的に対称性のよい効率的なデバイス配置とするこ
とができ、また異種デバイス間の干渉も少なくすることができる。
更に、後述するが、変形例として、各デバイスの中心を通る軸線は方向を変えなければ
、1点に集まっている必要性はない。これにより、配置の自由度が増す。また、別の変形
例として、デバイスの縦横でカバーする入出射角度が異なる場合は、菱形多面体の面中心
方位を用いても配置効率がよい。
次に上述した各撮像デバイス、測距センサの搭載位置に関し、具体的に搭載する配置方
法の一例を、図7A、図7Bを用いて説明する。但し、下記説明は一例なので、配置例は
下記に限定されない。
図7Aは、概直方体(六面体)の携帯情報端末に複合入出射装置1を実装した例である
。概直方体が基体2である。そして例えば正八面体を方位定義多面体5として、その方位
グループを使用して、測距センサと撮像デバイスを配置する。測距センサの中心方位とし
て面中心方位の方位グループを採用した場合には8個の測距センサを配置する必要がある
。しかしながら、携帯情報端末は六面体なので8個の測距センサを各面に搭載することは
できない。これを解決するために、8個の測距センサを図7Aに示すとおり、例えば、上
面に4、底面に4を辺部分に、正八面体の面中心方位グループの方位に向けて配置する。
また、携帯情報端末の辺に測距センサを配置する場合は、各辺に溝を作り(又は面取り
を行い)、そこに搭載してもよい。このときの測距センサの画角は、図6の正八面体方位
グループの面中心方位の値109.5度以上有ればよい。上記は携帯情報端末の各辺に溝
を作って測距センサを配置する方法についての記述であるが、これに限ることは無く、測
距センサの中心方位が上述の方位に配置できるのならば、方法は問わない。
一方、撮影デバイス110、111は正八面体の辺中心方位グループ方向に配置する。
ここでは、撮像デバイスの画角が180度以上あるとして、辺中心方位グループの中から
対向する二方位を選択し、携帯情報端末の六面体の対称位置にある2つの面に搭載するこ
とで、全立体角を撮影することが可能になる。
図7Bは、測距センサを方位定義多面体5としての正八面体の各頂点方位グループの方
位を中心方位として配置する例を示す。この場合、上面に3、底面に3を配置する。具体
的には、携帯情報端末の頂点を斜めに切り落とし、上述の方位グループの方位に向くよう
に搭載してもよい。この場合にも、測距センサの画角は109.5度以上あればよい。
一方、撮影デバイス110、111は正八面体の面中心方位グループ方位を中心方位と
して配置する。ここでは、撮像デバイスの画角が180度以上あるとして、面中心方位グ
ループの中から対向する二方位を選択し、携帯情報端末の六面体の対称位置にある2つの
面に搭載することで、全立体角を撮影することが可能になる。この例では、面中心方位グ
ループの全ての方位に撮像デバイスを配置していないが、全ての測距センサの方位空間に
おける最近接デバイスは撮像デバイスとなっている。
この様に、方位定義多面体5としての同一の正多面体、半正多面体とカタランの立体が
内包する方位グループの方位を中心方位として基体2に撮像デバイスと測距センサを効率
よく配置し、全立体角の測距と撮影を行うことが可能となる。
また、夜間や暗いところでの撮影を考慮し、全立体角用の照明を搭載したいこともある
が、これに関しても照明を出射デバイスとして同様の考え方で複数搭載すればよい。この
場合、撮像デバイスの中心方位と照明デバイスの中心方位が方位空間において入れ子状に
配置されることにより、照明デバイスから撮像デバイスへの直接的な干渉が減る、という
効果がある。
図8は例えば図5Aで示した4つの測距センサ12-1、12-2、12-3、12-
4の其々が計測した測距データを用いて、一つの測距データに合成した例を示す。
各測距センサ12-1、12-2、12-3、12-4はそれぞれ測定範囲を含む。各
測定範囲は、周辺部分はより測距に対する誤差は大きくなる。これは例えばTOFセンサ
のような場合、測定系に光学系のレンズを使っているため、カメラセンサにおける画角の
ように、周辺部になるほど歪が大きくなることによる。従って、図8に示すように、中心
部に比べ、周辺部の方が測定精度は悪くなる。
このため、周辺部はできるだけ使わないほうがよい。そこで、複数の測距センサ12-
1、12-2、12-3、12-4の其々の測定範囲が方位空間において隣接する測距セ
ンサの測定範囲に重なり合うような位置に配置し、より測定精度のよい部分を優先的に使
うことで、全立体角測距を行っても精度のよい測定が可能になる。この選択は例えば予め
設計時に隣接する測距センサの位置関係は分かるので、個々の測距センサの距離計測担当
範囲を決めておけばよい。図7Aで示す残りの測距センサ12-5~12-8迄の測距セ
ンサについても同様に行い、全立体角の測距を高精度に仕上げることができる。
図9は、複数の測距データを一つの測距データに合成した例を示す。図9では、距離情
報がパターン3種類で表現されているがこれに限ることは無く、実際は更に細かな濃淡で
正確に距離が算出されるし、色分けしても良い。
CPU16は、各測距センサ12-1~12-4の其々から測距データを読込み、これ
らを合成及びトリミングして、全立体角測距データ800を生成してもよい。測距データ
の合成処理は、各測距センサの測距データのみを用いて行っても良いし、複数の撮像デバ
イスからの撮像データを用いて測距データを補完し、測距データの合成処理を行ってもよ
い。この詳細は後述する。
測距データを合成する際に、測定範囲の接続部で測距データにずれが生じることがある
。これは、各測距センサに入射する光の幾何学的な集光点が必ずしも一致しないため、測
定対象の距離により、それぞれの測距センサがカバーする方位範囲の領域がずれてくるた
めである。このような場合のデータの補正方法について図10を用いて説明する。
図10Aで示す撮像データは例えば図2の撮像デバイス11-1を例にしたものである
。図10Bは上述の撮像データの範囲を測距する測距センサ12-1と12-2の2つの
データの合成方法について記載したものである。実際は撮像デバイス11-1の近接デバ
イスは4個の測距センサが配置されているので、4個のデータの合成になるが、説明を簡
単にするために、近接2つの測距センサに関して説明する。また、2つの測距センサ12
-1、12-2の測定範囲は撮像デバイス11-1の撮像範囲以外の部分も存在している
が、この説明では撮像デバイス11-1の撮像範囲内の測定についての説明になっている
。測距センサ12-1、12-2が幾何学的に正確な位置、角度、方向に配置していると
仮定すれば補正は周辺部の歪のみとなる。この場合には測距データの合成は図8で示した
ように測定範囲とその位置関係より精度の高いほうのデータを使って合成すればよい。
しかしながら、実際の製品では測距センサは幾何学的な位置からずれた状態で配置され
る。即ち、各デバイスの「集光点」(入射信号が幾何学的に収束する点)が一点に揃って
いない場合や、歪みと測距センサそのものの取り付け位置や精度の問題からたとえ画角が
重なっていたとしてもデータ同士が綺麗に接続できない可能性がある。そのため、被写体
の距離に応じてダイナミックにデータの接続を調整する必要がある。このために使うのが
撮像データである。例えばある目標物を撮像した場合、その目標物を測距センサ12-1
、12-2で計測した場合の測距データ範囲は図10Bに示すように集光点のずれや取り
付け精度により少しずれた状態になる。従って、このずれを上述の撮像データに合うよう
に測距データを修正し、領域間の接続の整形を行う(図10C参照)。この修正は対象物
の距離と、デバイスの特性、配置から計算することも可能であるが、撮像データを参考に
更に整形することにより、境界領域のデータの正確性を向上させることができる。
第1実施形態によれば、一つの基体2に複数種類のデバイスを配置する際に、方位定義
多面体5が内包する異なる対称性方位グループを用いてデバイスを方位空間において入れ
子状に配置するので、異種又は同種のデバイスのいずれとも基体2における中心方位が被
ることなく、かつ全立体角の計測が可能なように複数種類のデバイスを効率よく配置でき
る。
(第2実施形態)
第2実施形態は、携帯情報端末4に複合入出射装置1aを応用した実施形態である。図
11Aは、第2実施形態に係る複合入出射装置1aの外観図である。図11Bは、複合入
出射装置1aの表示例を示す図である。
複合入出射装置1aは、基体2としての携帯情報端末4に撮影デバイスや測距センサで
計測された物体や人物等の距離や画像を確認するためのディスプレイ20を備える。撮像
デバイス及び測距センサの構成は、図5Bで示したものと同じである。図11Aでは隠れ
ている部分は示していない。
図11Bに示すように、複合入出射装置1aは、計測中であることを示す文字表示等を
行っても良い。また、計測&撮影後は全立体角の撮影画像や、距離情報を表示してもよい
。この時は携帯情報端末4を左右上下等の方向に回転させることでディスプレイ20には
全立体角の画像が表示される。この時は携帯情報端末のジャイロセンサ(図12参照)と
連動させて携帯情報端末4の方位を確認し、それに対応する画像を表示させる。
図12は、複合入出射装置1aの全体ブロックを示す。
携帯情報端末4は、第1種デバイスとしての広角レンズ及び撮像素子(例えばCCD或
いはCMOSセンサ)を含むカメラ110、同じく広角レンズと撮像素子を含み、ディス
プレイ20側を撮像範囲とするインカメラ111、カメラ110及びインカメラ111の
其々からの撮像データを基に画像処理を行う画像処理プロセッサ112、第2種デバイス
としてのN個のTOFセンサ1、2、・・・、N(12-1)、(12-2)、・・・、
(12-N)、ROM13、RAM14、外部メモリ15、CPU16、システムバス1
7、ジャイロセンサ18、加速度センサ19、ディスプレイ20、LAN通信器21、電
話網通信器22、及びGPS(Global Positioning System)
23を備える。
画像処理プロセッサ112は、撮影画像からその角度補正や回転補正、或いは広角レン
ズのため、歪んでいる画像を本来の状態に見えるように補正する歪み補正部114、人物
の顔や物体を認識する被写体認識部116、被写体認識部116に基づいて画像データか
ら顔や物体部分を切り出すトリミング部115、上記複数のカメラの画像を合成する画像
合成部117を含む。
本実施形態では、少なくともカメラは2個以上搭載されている。例えば上述ではカメラ
2個をインカメラと通常カメラとして、少なくとも180度以上の画角の広角レンズを搭
載し、搭載位置はそれぞれ別の面に搭載することで、全立体角の画像を撮影可能となって
いる。カメラの搭載個数は2個以上であれば、幾つ搭載しても良い。
画像処理プロセッサ112は、カメラ110又はインカメラ111のいずれかから取得
した撮像データに対して最初に歪み補正部114で歪み補正をし、被写体認識部116で
人物や物体を認識した後にトリミング部115で人物や物体をトリミングしているが、こ
れに限ることは無く、超広角レンズにより発生した歪みを簡略的に補正した後に認識し、
トリミングした後により精度の高い歪み補正を行っても良いし、後述するが測距センサ群
12から得られた人物や物体までの詳細な距離を対応させてディスプレイ20に表示して
も良い。
図13は、画像処理プロセッサ112が実行する全立体角撮影及び測距アルゴリズムを
示す。
画像処理プロセッサ112は、カメラ110からの撮像データが入力され、広角レンズ
の歪みを補正する第1歪み補正部114-1、及びインカメラ111からの撮像データが
入力され、広角レンズの歪みを補正する第2歪み補正部114-2と、を備える。第1歪
み補正部114-1は、第1収差補正部及び第1正像変換部を含む。同様に。第2歪み補
正部114-2は、第2収差補正部及び第2正像変換部を含む。上述ではカメラひとつに
対し、歪み処理部は一つずつ有るが、これに限ることは無く、高速処理で時間的な制約が
無ければひとつの処理機能がスイッチングしながら処理を行っても良い。
第1歪み補正部114-1及び第2歪み補正部114-2の其々は、歪み補正処理を行
った画像を画像合成部117に出力する。画像合成部117は、第1歪み補正部114-
1及び第2歪み補正部114-2の其々から取得した歪み補正後の画像を合成し、全立体
角の画像(以下「全立体角画像」という)を作成し、被写体認識部116に出力する。
被写体認識部116は、全立体角画像に基づいて被写体認識処理を行い、その結果をト
リミング部115に出力する。
トリミング部115は、全立体角画像中において被写体認識処理で認識された被写体が
撮像領域に対してトリミングを行う。被写体領域を完全にトリミングして被写体領域だけ
を取り出してもよいし、被写体領域枠を内包する枠を付加する処理でも良い。トリミング
した画像に関しては更なる歪み補正を施しても良いし、そのトリミングした部分を拡大や
強調をし、後述するようにそこまでの距離を表示させても良い。
一方、CPU16は、TOFセンサ12-1、12-2、・・・12-nの各測距デー
タを取得し、全立体角測距データに合成する。CPU16は、測距センサの画角で測定さ
れた測距データを相互に補完しながら、全立体角測距データ800を作成する(図8、図
9参照)。
CPU16は、画像合成部117から全立体角画像を取得し(図13のL-A)、全立
体角測距データ800と関連付ける。この手法は様々あるが、例えば、予め複合入出射装
置1aの周囲の既知の位置に被写体を設置し、全立体角画像を作成する。また測距センサ
群12を用いて複合入出射装置1aから同一の被写体までの距離を測定し全立体角測距デ
ータ800を作成する。そして同一の被写体が撮像された全立体角画像内の被写体領域と
、全立体角測距データ800から読み出した同一の被写体までの距離情報と、を関連付け
ることで、全立体角画像内の撮像領域と、当該撮像領域内に写り込んだ被写体までの距離
情報とを関連付けたキャリブレーションデータを作成し、格納しておく。
ユーザが複合入出射装置1aを使用すると、CPU16は、全立体角画像を作成し、キ
ャリブレーションデータを参照し、全立体角画像の撮像領域に対応する距離情報を読み出
す。CPU16は、読み出した距離情報及びそれに対応する撮像領域の全立体角画像内に
おける位置(例えば全立体角画像内の座標)を距離情報付加部118に出力する。
距離情報付加部118は、トリミング部115から取得した被写体領域の情報を基に、
CPU16から取得した距離情報を全立体角画像における被写体領域に付加する。
図14は、全立体角画像に距離情報を付加して表示した例を示す。図14では、ディス
プレイ20の表示範囲は全立体角の一部であるが、全立体角を表示する時には、ジャイロ
センサ18のデータを元にディスプレイ20の位置を上下、左右に回転させることで表示
させても良いし、ディスプレイ20を前後左右にスクロールさせて表示させても良い。ま
た、距離情報を特定の対象物に対し、図の様にそこまでの距離を表示させても良い。
図15は、複合入出射装置1aにおける全立体角画像及び全立体角測距データ800の
作成処理の流れを示すフローチャートである。下記処理の流れは、第1実施形態で説明し
た複合入出射装置1にもあてはまる。
複合入出射装置1aのユーザが全立体角撮影及び全立体角測距をしたい場合、ユーザは
、複合入出射装置1aの動作モードを全立体角撮影及び全立体角測距モードに切り替える
(S100)。複合入出射装置1aはディスプレイ20にモードセレクト画面を表示させ
、ユーザからモード選択操作を受け付ける。複合入出射装置1aは、全立体角撮影及び全
立体角測距モードに切り替わると、ディスプレイ20に“ただ今全立体角撮影&測距シス
テム稼働中”等の表示を行い、ユーザにできるだけ揺らさない等の注意を促す表示を行っ
ても良い。
カメラ110及びインカメラ111の其々が起動及び撮影を開始する。また、各測距セ
ンサ12-1、12-2、・・・12-Nが起動し測距を開始する(S101)。
カメラ110及びインカメラ111の其々が生成した撮像データが画像処理プロセッサ
112に出力される。画像処理プロセッサ112は、広角レンズに起因する歪み補正を行
い(S102)、全立体角画像を作成する(S103)。
CPU16(第1実施形態では第2種デバイスプロセッサ212)は、測距センサ12
-1、12-2、・・・12-Nで測定された測距データを合成して全立体角測距データ
800を作成する(S104)。ステップS103とステップS104は同時に実行され
てもよいし、ステップS104が先に実行されてもよい。
画像処理プロセッサ112は、全立体角画像から被写体領域を検出し(S105)、被
写体領域に対してトリミング処理をして切り出す。そしてS104で作成された全立体角
測距データ800を用いて複合入出射装置1aから被写体までの距離情報を付加する(S
106)。
画像処理プロセッサ112は、距離情報を付加した全立体角画像、及び全立体角測距デ
ータをRAM14、外部メモリ15の少なくとも一方に記録し(S107)、終了する。
図16は、複合入出射装置1aにおける全立体角画像及び全立体角測距データ800の
再生処理の流れを示すフローチャートである。下記処理の流れは、第1実施形態で説明し
た複合入出射装置1にもあてはまる。
複合入出射装置1aが全立体角画像及び全立体角測距データの再生モードに移行するた
めの操作を行う(S110)。複合入出射装置1aは、ディスプレイ20にモードセレク
ト画面を表示させ、ユーザからモード選択操作を受け付ける。更に、複合入出射装置1a
は、ユーザからRAM14又は外部メモリ15に記録されたデータのうち再生対象のファ
イルを選択する操作を受け付け、そのファイルを再生する(S111)。
再生するファイルは、ディスプレイ20より広範囲、即ち全立体角の画像情報と距離情
報が含まれている(図14参照)。そこで、複合入出射装置1aは、ジャイロセンサ18
、加速度センサ19とGPS23による位置情報を基に、水平面内の方位情報と仰ぎ角情
報を演算し、全立体角画像の特定の方位の画像(全立体角画像の部分画像)及び距離情報
を表示させる。
その後、複合入出射装置1aは、ユーザに対しディスプレイ20のスクロール処理、或
いは複合入出射装置1aを動かす事を要求する(S112)。
複合入出射装置1aは、ユーザの動き(例えばスクロール操作や複合入出射装置1aを
動かすこと)を検知すると(S113/Yes)、その指示に従いその方向の画像や距離
情報を表示させる(S114)。
ユーザの動きがない場合(S113/No)、又はステップS114の後、終了条件、
例えば、ユーザの指示や動きが一定時間無い場合や、再生終了操作を受け付けた場合(S
115/Yes)、再生処理を終了する。終了条件非充足の場合(S115/No)、ス
テップS112へ戻る。
図17Aに複合入出射装置1をHMD(Head Mounted Display)
50に適用した例を示す。
HMDを用いてAR(Augmented Reality;拡張現実)表示を行う場
合に、HMDユーザの現実の周囲環境を撮像及び測距し、その撮像データ及び測距データ
をAR表示に用いてもよい。これにより、現実空間に仮想オブジェクトを重畳表示する際
の制御がより精密になる。
図17Aに示すように、HMD50は、側頭部装着体50-1及び頭頂部装着体50-
2、及び透過性又は非透過性のディスプレイ50-3を備える。ディスプレイ50-3の
上辺中心に広角レンズを有する第1カメラ51-1を、側頭部装着体50-1の後頭部中
央に広角レンズを有する第2カメラ51-2を備える。またディスプレイ50-3の左右
頂点の其々に第1測距センサ52-1、第2測距センサ52-2を備える。更に頭頂部装
着体50-2における頭頂部に第3測距センサ52-3を備え、側頭部装着体50-1の
後頭部中央に第4測距センサ52-4を備える。即ち、図17Bに示すように、この例に
おいてHMD50では、方位定義多面体5として正四面体を用いる。カメラは画角180
度以上のものを用いて辺中心方位グループの内、対向する2つの方位(51-1、51-
2)に配置し、測距センサは頂点中心方位に配置される。
HMD50において全立体角画像及び全立体角測距データを作成する場合、全立体角画
像の接合部がHMD50の真下、即ちHMD50の装着者側に位置することが望ましい。
これは、HMD50の装着者にとって、自分自身の画像は不要であることが多いためであ
る。測距データについても同様で、自分自身との距離を知りたいという要望はほぼないと
考えられるので、測距データの接合部もHMD50の装着者側に位置させることが望まし
い。そこで、センサ配置の変形例として、図18A、図18Bに示すように、隣接するセ
ンサとの必要入射角範囲を確保しつつ、カメラの方位を辺中心方位からずらす。これによ
り、撮像データ及び測距データの接合部を、HMD50の真下に来るように各センサの方
向を調整する。図18Bは方位空間での各デバイスの向く方位を表している。図18Bで
51-1、51-2が辺中心方位に配置した場合で、51-1、51-2が方位を調整し
た変形例である。変形例において、Z軸の正方向を垂直上側方向に選べば、ユーザの身体
がZ軸の負方向になり、カメラの光軸が水平方向になるので、撮像データ、測距データ共
に、接合部がHMD50の装着者側に位置することになる。なお、この変形例においても
、個々のデバイスの方位空間における最近接デバイスは異種デバイスとなっている。
本実施形態によれば、スマートフォンのように小型の携帯情報端末にも複数種類のデバ
イスを、異種及び同種のデバイスの配置位置が重ならないように、かつ全立体角を計測範
囲に含ませて配置することができる。
上記実施形態は、本発明の実施形態の一例を示したにすぎず、本発明は上記に限定され
るものでない。例えば、別の実施態様としてテレビ会議システムとして使うことも可能で
ある。全立体角の距離情報と物体認識を利用することで、例えばテレビ会議システムにお
いて、出席者全員の顔認識画像と距離情報から会議に出席している人の位置を把握し、指
向性マイクとの組み合わせで、発言している人を特定し、その人を拡大して表示すること
。或いは会話内容と出席者の特定を行ったうえで会話を鮮明に記録することが可能になる
また、その他の入射デバイス、出射デバイスの例としては電波の送信アンテナ及び受信
アンテナがある。携帯電話で使用する周波数が高くなり、指向性が強くなることにより、
効率よくアンテナを配置して全立体角を電波の入出射範囲として覆う必要がある。この場
合にも本発明が有効である。
また、更に入射デバイス、出射デバイスの他の例として、指向性の強いマイクや指向性
の強いスピーカがある。スマートスピーカのような音声入出力デバイスにおいて、周辺に
存在する使用者の中から、特定の使用者を対象にした音声のやり取りを実現する際にも本
発明が有効である。
また、複合入出射装置1、1aのハードウェア構成も一例に過ぎず、1つのCPU16
が第1種デバイスプロセッサ211、第2種デバイスプロセッサ212、画像処理プロセ
ッサ112の各機能を実行してもよい。
1、1a :複合入出射装置
2 :基体
3 :コントローラ
4 :携帯情報端末
5 :方位定義多面体
11 :第1種デバイス群
12 :第2種デバイス群
13 :ROM
14 :RAM
15 :外部メモリ
16 :CPU
17 :システムバス
18 :ジャイロセンサ
19 :加速度センサ
20 :ディスプレイ
21 :LAN通信器
22 :電話網通信器
23 :GPS
50 :HMD
50-1 :側頭部装着体
50-2 :頭頂部装着体
50-3 :ディスプレイ
51-1 :第1カメラ
51-2 :第2カメラ
52-1 :第1測距センサ
52-2 :第2測距センサ
52-3 :第3測距センサ
52-4 :第4測距センサ
110 :カメラ
111 :インカメラ
112 :画像処理プロセッサ
114 :歪み補正部
114-1 :補正部
114-2 :補正部
115 :トリミング部
116 :被写体認識部
117 :画像合成部
118 :距離情報付加部
211 :第1種デバイスプロセッサ
212 :第2種デバイスプロセッサ
800 :全立体角測距データ

Claims (10)

  1. エネルギーを入射又は出射する複数の第1種デバイスと、
    エネルギーを入射又は出射し、前記第1種デバイスとは種類が異なる複数の第2種デバイスと、
    前記複数の第1種デバイス及び前記複数の第2種デバイスが配置される基体と、を備え、
    前記複数の第1種デバイスのエネルギーの入射又は出射によって計測された情報を合成し、前記複数の第2種デバイスのエネルギーの入射又は出射によって計測された情報を合成し、
    前記複数の第1種デバイス及び前記複数の第2種デバイスは、下記二つの拘束条件の両方を満たして前記基体に配置される;
    拘束条件1:前記複数の第1種デバイスの其々は、方位空間において最近接するデバイスが前記第2種デバイスの内の少なくとも一つである、
    拘束条件2:前記複数の第2種デバイスの其々が、方位空間において最近接するデバイスは前記第1種デバイスの内の少なくとも一つである、
    ことを特徴とする複合入出射装置。
  2. 請求項1に記載の複合入出射装置において、
    方位定義多面体が定義され、
    前記方位定義多面体は、前記方位定義多面体内の1点を基準点とする第1対称性及び当
    該第1対称性とは異なる第2対称性を内包する形状であり、
    前記複数の第1種デバイスの其々は、前記方位定義多面体における前記第1対称性を満
    たす方位に配置され、
    前記複数の第2種デバイスの其々は、前記方位定義多面体における前記第2対称性を満
    たす方位に配置される、
    ことを特徴とする複合入出射装置。
  3. 請求項2に記載の複合入出射装置において、
    前記方位定義多面体は、正多面体、半正多面体、又はカタランの立体である、
    ことを特徴とする複合入出射装置。
  4. 請求項3に記載の複合入出射装置において、
    前記第1対称性及び前記第2対称性の其々は、前記基準点から前記方位定義多面体の面
    中心又は重心に向けた方位グループ、前記基準点から前記基体の辺中心方位に向けた方位
    グループ、又は前記基準点から前記基体の頂点方位に向けた方位グループのいずれかであ
    る、
    ことを特徴とする複合入出射装置。
  5. 請求項1に記載の複合入出射装置において、
    前記複数の第1種デバイスの其々が入射デバイス、かつ前記複数の第2種デバイスの其
    々が出射デバイスである、又は前記複数の第1種デバイスの其々が出射デバイス、かつ前
    記複数の第2種デバイスの其々が入射デバイスであり、
    前記出射デバイスから出射されたエネルギーが前記入射デバイスに直接入射されること
    がない向き及び位置に、前記複数の第1種デバイス及び前記複数の第2種デバイスが前記
    基体に配置される、
    ことを特徴とする複合入出射装置。
  6. 請求項1記載の複合入出射装置において、
    前記基体は携帯情報端末である、
    ことを特徴とする複合入出射装置。
  7. 請求項1に記載の複合入出射装置において、
    前記複数の第1種デバイスによって計測された情報から全立体角の情報を合成し、前記
    複数の第2種デバイスによって計測された情報から全立体角の情報を合成するプロセッサ
    を更に備える、
    ことを特徴とする複合入出射装置。
  8. 請求項1に記載の複合入出射装置において、
    前記第1種デバイス及び前記第2種デバイスの一方は撮像デバイスであり、他方は測距
    センサである、
    ことを特徴とする複合入出射装置。
  9. 請求項8に記載の複合入出射装置において、
    前記撮像デバイスが計測した撮像データ、及び前記測距センサが計測した測距データを
    用いて、全立体角の画像情報を合成として表示するプロセッサを更に備える、
    ことを特徴とする複合入出射装置。
  10. 請求項9に記載の複合入出射装置において、
    前記プロセッサは、前記測距データを全立体角の測距情報として合成する際、前記測距
    センサの其々の測定範囲において、より高精度に測定される方位角から得られた測距デー
    タを抽出して合成する、
    ことを特徴とする複合入出射装置。
JP2024025057A 2019-02-07 2024-02-22 複合入出射装置 Pending JP2024061729A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024025057A JP2024061729A (ja) 2019-02-07 2024-02-22 複合入出射装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020570301A JP7212073B2 (ja) 2019-02-07 2019-02-07 複合入出射装置
PCT/JP2019/004493 WO2020161871A1 (ja) 2019-02-07 2019-02-07 複合入出射装置
JP2023002869A JP7445027B2 (ja) 2019-02-07 2023-01-12 複合撮像測距装置
JP2024025057A JP2024061729A (ja) 2019-02-07 2024-02-22 複合入出射装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2023002869A Division JP7445027B2 (ja) 2019-02-07 2023-01-12 複合撮像測距装置

Publications (1)

Publication Number Publication Date
JP2024061729A true JP2024061729A (ja) 2024-05-08

Family

ID=71947775

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020570301A Active JP7212073B2 (ja) 2019-02-07 2019-02-07 複合入出射装置
JP2023002869A Active JP7445027B2 (ja) 2019-02-07 2023-01-12 複合撮像測距装置
JP2024025057A Pending JP2024061729A (ja) 2019-02-07 2024-02-22 複合入出射装置

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2020570301A Active JP7212073B2 (ja) 2019-02-07 2019-02-07 複合入出射装置
JP2023002869A Active JP7445027B2 (ja) 2019-02-07 2023-01-12 複合撮像測距装置

Country Status (4)

Country Link
US (3) US11418710B2 (ja)
JP (3) JP7212073B2 (ja)
CN (1) CN113396311A (ja)
WO (1) WO2020161871A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240027617A1 (en) * 2020-12-10 2024-01-25 Maxell, Ltd. Portable terminal and electronic glasses

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204015A (ja) 2000-01-18 2001-07-27 Sony Corp 周囲カメラ・システム、周囲カメラの撮像画像に基づいて周囲画像を生成する方法、隣接カメラによる撮像画像の接続処理装置及び方法、並びに、隣接カメラを用いた距離測定装置及び方法
JP2001285894A (ja) 2000-03-31 2001-10-12 Olympus Optical Co Ltd 3次元画像データの掲載方法
JP2005252482A (ja) 2004-03-02 2005-09-15 Softopia Japan Foundation 画像生成装置及び3次元距離情報取得装置
US10263432B1 (en) * 2013-06-25 2019-04-16 Energous Corporation Multi-mode transmitter with an antenna array for delivering wireless power and providing Wi-Fi access
WO2014200589A2 (en) * 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
GB2525170A (en) * 2014-04-07 2015-10-21 Nokia Technologies Oy Stereo viewing
JP6859763B2 (ja) 2017-03-10 2021-04-14 株式会社リコー プログラム、情報処理装置
CH713688A1 (de) * 2017-04-12 2018-10-15 Trihow Ag Gerät mit einer Elektronikeinrichtung, Set umfassend ein solches Gerät, damit verbundene Verwendung und Verfahren zur Nutzung eines solchen Sets.
JP6664082B2 (ja) * 2018-03-27 2020-03-13 パナソニックIpマネジメント株式会社 画像処理システム、画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US20230379587A1 (en) 2023-11-23
US11418710B2 (en) 2022-08-16
JP7445027B2 (ja) 2024-03-06
US20220337749A1 (en) 2022-10-20
JPWO2020161871A1 (ja) 2021-10-28
US11765464B2 (en) 2023-09-19
US20220132032A1 (en) 2022-04-28
WO2020161871A1 (ja) 2020-08-13
JP2023052347A (ja) 2023-04-11
JP7212073B2 (ja) 2023-01-24
CN113396311A (zh) 2021-09-14

Similar Documents

Publication Publication Date Title
JP6115606B2 (ja) 撮像装置および撮像システム
US7224382B2 (en) Immersive imaging system
JP2024061729A (ja) 複合入出射装置
WO2015198691A1 (ja) 撮像装置
US20170330337A1 (en) Image processing device, image processing method, and recording medium storing program
JP2017524976A (ja) 視差およびチルトアーティファクトが無い屈曲光学系を使用するマルチカメラシステム
JP2023541551A (ja) 複数のカメラからのウェブカム信号のマージ
JP2017524968A (ja) 視差アーティファクトがない屈曲光学系を使用するマルチカメラシステム
JP2016040670A (ja) 画像処理システム、画像処理装置、プログラムおよび撮像システム
JP5846172B2 (ja) 画像処理装置、画像処理方法、プログラムおよび撮像システム
TW201734948A (zh) 用於在廣角圖像系統中生成相關的音頻和視覺信號的方法、系統及設備
JPWO2013014872A1 (ja) 画像変換装置、カメラ、映像システム、画像変換方法およびプログラムを記録した記録媒体
JP2021121121A (ja) 撮像装置、撮像システムおよび再生装置
JP7424076B2 (ja) 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム
JP2017525208A (ja) 完全な広視野画像をキャプチャすることができる視差のない薄型マルチカメラシステム
JP7306089B2 (ja) 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム
JP2005025703A (ja) 画像処理方法および装置、並びに画像処理プログラム
JP7383911B2 (ja) 撮像システム、画像処理装置、撮像装置およびプログラム
JP6132003B2 (ja) 画像処理システム
JP6665917B2 (ja) 画像処理装置
JP2016171577A (ja) 撮像装置および撮像システム
JP6439845B2 (ja) 画像処理装置
WO2024119902A1 (zh) 图像拼接方法及装置
WO2021200185A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
CN111629126A (zh) 音视频采集设备和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240222