JP2021097280A - Imaging apparatus, image creation method, and program - Google Patents
Imaging apparatus, image creation method, and program Download PDFInfo
- Publication number
- JP2021097280A JP2021097280A JP2019225855A JP2019225855A JP2021097280A JP 2021097280 A JP2021097280 A JP 2021097280A JP 2019225855 A JP2019225855 A JP 2019225855A JP 2019225855 A JP2019225855 A JP 2019225855A JP 2021097280 A JP2021097280 A JP 2021097280A
- Authority
- JP
- Japan
- Prior art keywords
- difference
- luminance
- image
- brightness
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims description 37
- 238000001514 detection method Methods 0.000 claims description 30
- 230000000737 periodic effect Effects 0.000 claims description 22
- 230000015572 biosynthetic process Effects 0.000 claims description 7
- 230000006835 compression Effects 0.000 claims description 7
- 238000007906 compression Methods 0.000 claims description 7
- 238000003786 synthesis reaction Methods 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 97
- 238000004891 communication Methods 0.000 description 52
- 239000003795 chemical substances by application Substances 0.000 description 34
- 230000008859 change Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 23
- 238000012937 correction Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 15
- 230000000694 effects Effects 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 14
- 230000001413 cellular effect Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Cameras In General (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置、画像生成方法、及び、プログラムに関する。 The present invention relates to an image pickup apparatus, an image generation method, and a program.
魚眼レンズや超広角レンズなどの広角なレンズを複数使用して周囲360度又は全方位を一度に撮像する撮像装置が知られている。この撮像装置では、各々のレンズからの像を各撮像素子に投影し、得られる各画像を画像処理によってつなぎ合わせることで、360度画像を生成する。 There is known an imaging device that uses a plurality of wide-angle lenses such as a fisheye lens and an ultra-wide-angle lens to image a circumference of 360 degrees or all directions at once. In this image pickup apparatus, an image from each lens is projected onto each image pickup device, and the obtained images are joined by image processing to generate a 360-degree image.
このような撮像装置で撮像された映像を撮像者が提供する場合、画角が広いために所望の被写体を簡単に明示できない場合がある。つまり360度が撮像された全天球画像のどこに明示したい被写体が写っているかを閲覧者に伝えることが容易でない。 When the imager provides an image captured by such an imaging device, it may not be possible to easily specify a desired subject due to the wide angle of view. That is, it is not easy to tell the viewer where in the spherical image of the 360-degree image the subject to be clearly shown appears.
そこで、画角を狭める技術が知られている(例えば、特許文献1参照。)。特許文献1には、タッチパネルや物理ボタンの押下により、ユーザの意図したタイミングで360度撮像モードと180度撮像モードを切り替える撮像装置が開示されている。
Therefore, a technique for narrowing the angle of view is known (see, for example, Patent Document 1).
しかしながら、従来の技術では、画像の画角を狭めるためのユーザの操作を受け付けるハードウェアが必要になるという問題があった。 However, the conventional technique has a problem that hardware that accepts a user's operation for narrowing the angle of view of an image is required.
本発明は、上記課題に鑑み、所定のハードウェアがなくても画像の画角を制御できる撮像装置を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an imaging device capable of controlling the angle of view of an image without a predetermined hardware.
上記課題に鑑み、本発明は、複数の撮像素子で撮像された画像データを合成して1つの撮像素子で撮像された画像データよりも広角な画像データを生成する撮像装置であって、一方の撮像素子で撮像された画像データの輝度平均値に周期性がある場合、周期性がある前記画像データを合成に使用せず、他方の撮像素子で撮像された画像データを出力することを特徴とする。 In view of the above problems, the present invention is an image pickup device that synthesizes image data captured by a plurality of image pickup elements to generate image data having a wider angle than the image data captured by one image pickup device. When the average brightness of the image data captured by the image sensor has periodicity, the characteristic is that the image data captured by the other image sensor is output without using the periodic image data for synthesis. To do.
所定のハードウェアがなくても画像の画角を制御できる撮像装置を提供することができる。 It is possible to provide an image pickup apparatus capable of controlling the angle of view of an image without a predetermined hardware.
以下、本発明を実施するための形態の一例として、撮像装置と撮像装置が行う画像生成方法について図面を参照しながら説明する。 Hereinafter, as an example of the embodiment for carrying out the present invention, the image pickup apparatus and the image generation method performed by the image pickup apparatus will be described with reference to the drawings.
<画像通信システムの概略>
図1は、画像通信システム100のユースケースを説明する図である。不動産物件110にいる不動産業者101は撮像装置5を把持して、360度画像を撮像しながら各部屋を移動する。撮像装置5は360度画像(動画)をリアルタイムに不動産店舗にある端末装置10Aへ送信する。端末装置10Aは受信した360度画像の所定範囲を平面デバイスであるディスプレイに表示する。
<Outline of image communication system>
FIG. 1 is a diagram illustrating a use case of the
不動産店舗にいる顧客102は、端末装置10Aを操作して360度画像を回転させる(任意の所定範囲を表示させる)ことができ、不動産店舗にいながら不動産物件の任意の方向を閲覧できる。
The
不動産物件110にいる不動産業者101が部屋に設置された例えばエアコンを顧客102に見せたい場合を説明する。従来は、360度画像のどこにエアコンが写っているかを不動産業者101が音声で説明しなければならなかったが、コミュニケーションが容易でなく説明が煩わしいと感じられるおそれがあった。
The case where the
そこで、本実施形態の画像通信システム100は、以下のようにして、不動産業者101が見せたい被写体を、顧客102が操作する端末装置10Aに容易に表示することを可能にする。
Therefore, the
図2を用いて、画像通信システム100の概略的な動作について説明する。図2は、不動産物件110にいる不動産業者101が任意の所定範囲を不動産店舗120にいる顧客102に表示させる画像通信システム100の概略的な動作を説明する図である。
The schematic operation of the
不動産業者101が把持する撮像装置5は360度画像を撮像できるため2つ以上の撮像素子を有している。本実施形態では主に2つの撮像素子を有する撮像装置5について説明するが、撮像素子は3以上の場合もある。撮像装置5は2つの撮像素子でそれぞれ撮像された画像データをつなぎ合わせて(合成して)360度画像を作成する。
The
不動産業者101が例えば顧客102をエアコン901に注目させてエアコン901について説明したい場合、不動産業者101はエアコン901とは反対側の撮像素子(写したいものが写っていない撮像素子)の前で手を周期的に動作させる。以下、この動作を「ジェスチャー切り替え動作」という。不動産業者101が撮像装置5のレンズ上を何度も通過するように手を左右(又は上下)に動かすと、周期的に輝度が変化する。片方のレンズに物体が被さる面積と検出される輝度平均値が反比例の関係にあるためである。また、例えば、手を近づける/遠ざける、手を開く/閉じるなどのジェスチャーでも同様の変化となる。
When the
図2では、エアコン901とは反対側のレンズが手のひらで周期的に遮光されている。撮像装置5は2つの撮像素子のうち少なくとも一方が検出する輝度が周期的に変化したことを検出した場合、2つの撮像素子でそれぞれ撮像された画像データの合成を行わず、輝度が変化していない方の画像データのみを不動産店舗120の端末装置10Aに送信する。本実施形態では、2つの撮像素子でそれぞれ撮像された画像データを合成すると360度(全天球)の画像が得られるので、1つの撮像素子で撮像された画像データを180度画像といい、2つの撮像素子で撮像された2つの画像データを合成したものを360度画像という。撮像装置5は次のジェスチャー切り替え動作が検出されるまで同じ状態(180度画像を出力する)を保持する。
In FIG. 2, the lens on the opposite side of the
なお、撮像装置5は輝度が変化した方の画像データのみを不動産店舗120の端末装置10Aに送信してもよい。輝度が変化した方の画像データを送信するのか、輝度が変化していない方の画像データのみを送信するのかを、例えば、ユーザが使いやすい方を選択して設定できてよい。
The
不動産店舗120の端末装置10Aは、180度画像の全体を表示するが、不動産業者101は撮像装置5の光軸の中心にエアコン901が写るように撮像しているため、端末装置10Aのディスプレイのほぼ中央付近にエアコン901が表示される。したがって、顧客102はエアコン901が写るように表示範囲を調整する必要があまりない。
The
このように、本実施形態の画像通信システム100は、360度画像から180度画像へ切り替えて広角な画像から任意の範囲を表示させることができる。また、タッチパネルや物理キーなど所定のハードウェア的なスイッチを使用することなく実行させることができ、直感的な操作で実現できる。したがって、不動産業者101が着目して欲しい被写体がどこあるかを説明しなくても、顧客102は不動産業者101が着目して欲しい被写体を閲覧できる。
In this way, the
<用語について>
合成とは、二つ以上の物を合わせて1つのものにすることをいう。本実施形態では2つ以上の画像で広角な画像データを生成することをいう。
<Terminology>
Synthesis means combining two or more things into one. In the present embodiment, it means to generate wide-angle image data with two or more images.
周期性とは一定の時間をおいて同じ状況が生じることをいう。ただし、一定とは厳密である必要がない。 Periodicity means that the same situation occurs after a certain period of time. However, it does not have to be strict to be constant.
<画像通信システムの概略>
続いて、図3を用いて、本実施形態の画像通信システム100の構成の概略について説明する。図3は、本実施形態の画像通信システム100の構成の概略図である。
<Outline of image communication system>
Subsequently, the outline of the configuration of the
図3Aに示されているように、本実施形態の画像通信システム100は、拠点Aに配置された端末装置10Aと拠点Bに配置された撮像装置5がインターネットやセルラー回線等の通信ネットワークNを介して通信することができる。拠点Aは例えば顧客102がいる不動産店舗120であり、拠点Bは例えば内見の対象となる不動産物件110である。
As shown in FIG. 3A, in the
撮像装置5は、上記のように、被写体や風景等を撮像して360度画像の元になる2つの180度画像を合成する特殊なデジタルカメラである。
As described above, the
端末装置10Aはビデオ会議用のアプリケーションソフトを動作させることで他の拠点と通信する汎用的な情報処理装置である。端末装置10Aは例えば、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、カーナビ、ゲーム機、PDA(Personal Digital Assistant)、ウェアラブルPC又はデスクトップPC等である。しかし、これらには限られない。
The
端末装置10Aは、自装置に設けられたディスプレイ720に受信した画像を表示する。
The
また、端末装置10Aには、OpenGL ES(Open Graphics Library for Embedded Systems)がインストールされており、撮像装置5から送られて来た360度画像から所定領域画像を作成することができる。したがって、各端末装置10Aは360度画像から切り出した所定領域画像を表示できる。
In addition, OpenGL ES (Open Graphics Library for Embedded Systems) is installed in the
拠点Aには少なくとも一人の顧客102が存在し、端末装置10Aは撮像装置5が撮像する映像(360度画像又は180度画像)をディスプレイ720に表示する。拠点Aの顧客102は、不動産業者101により切り替えられた180度画像又は360度画像を閲覧するユーザである。ただし、顧客102の人数は一例である。
At least one
拠点Bには、少なくとも一人の不動産業者101が存在し、撮像装置5を手に把持したり棒状部材に取り付けたりして保持している。不動産業者101は撮像装置5と共に移動することができる。不動産業者101は不動産物件110を撮像する撮像者である。ただし、不動産業者101の人数は一例である。
At the base B, at least one
次に、図3Bに示されているように、本実施形態の別の画像通信システム100は、少なくとも2つの拠点A、拠点Bに配置された各端末装置10A,10Bがインターネット等の通信ネットワークNを介して通信して、各拠点の端末装置10A,10Bが映像を共有することができる。拠点Aには撮像装置4と端末装置10Aが配置されており、拠点Bには端末装置10Bと撮像装置5が配置されている。拠点Aは例えば顧客102がいる不動産店舗120であり、拠点Bは例えば内見の対象となる不動産物件110である。
Next, as shown in FIG. 3B, in another
撮像装置5は、上記のように、被写体や風景等を撮像して360度画像の元になる2つの180度画像を合成する特殊なデジタルカメラである。一方、撮像装置4は、被写体や風景等を撮像して一般の平面画像を得るための一般のデジタルカメラである。
As described above, the
端末装置10A,10Bはビデオ会議用のアプリケーションソフトを動作させることで他の拠点と通信する汎用的な情報処理装置である。端末装置10A、10Bは例えば、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、カーナビ、ゲーム機、PDA(Personal Digital Assistant)、ウェアラブルPC又はデスクトップPC等である。しかし、これらには限られない。
The
端末装置10Aは、自装置に設けられたディスプレイ720に映像通話の画像を表示する。端末装置10Aは、外付けされた撮像装置4で顧客102等を撮像する。
The
端末装置10Bは、自装置に設けられたディスプレイ720に映像通話の画像を表示する。端末装置10Bは、通常は自装置に設けられた後述のCMOSセンサ712(Complementary Metal Oxide Semiconductor)等で撮像するが、Wi−Fi(Wireless Fidelity)やBluetooth(登録商標)等の無線通信技術を利用して、撮像装置5で得られた360度画像を取得することができる。
The
また、端末装置10A,10Bには、OpenGL ESがインストールされており、360度画像の一部の領域を示す所定領域画像を作成したり、他の端末装置10から送られて来た360度画像から所定領域画像を作成したりすることができる。したがって、各端末装置10A,10Bは360度画像から切り出した所定領域画像を表示できる。
In addition, OpenGL ES is installed in the
拠点Aには少なくとも一人の顧客102が存在し、端末装置10Aは撮像装置5が撮像する映像(360度画像又は180度画像)及び撮像装置4が撮像する映像をディスプレイ720に表示する。拠点Aの顧客102は、不動産業者101により切り替えられた180度画像又は360度画像を閲覧するユーザである。ただし、顧客102の人数は一例である。
At least one
拠点Bには、少なくとも一人の不動産業者101が存在し、撮像装置5を手に把持したり棒状部材に取り付けたりして保持している。不動産業者101は撮像装置5と共に移動することができる。不動産業者101は不動産物件110を撮像する撮像者である。また、端末装置10Bは、撮像装置4、5が撮像する映像をディスプレイ720に表示する。ただし、不動産業者101の人数は一例である。
At the base B, at least one
通信管理システム80は、端末装置10A,10Bの通信を管理及び制御する。よって、通信管理システム80は通信制御システムでもある。なお、通信管理システム80は、通信サービスを行うデータセンタやクラウドに設置されている。また、通信管理システム80は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
The
なお、図3Bに示した、拠点数、各拠点に配置される端末装置10A,10Bの種類、撮像装置4,5の種類、及び、ユーザ(顧客と不動産業者)の人数は一例であり、本実施形態では、拠点Aと他の1つの拠点があればよいが、画像通信システム100は3つ以上の拠点で通信できる。また、拠点Aは撮像装置4を有していなくてもよく、拠点Bから送信される360度画像を表示できればよい。
The number of bases, the types of
<構成例>
以下、図4及び図5を参照しながら、本実施形態による撮像装置5の全体構成について説明する。図4は、本実施形態による撮像装置5の断面図である。図4に示す撮像装置5は、撮像体19と、上記撮像体19の他、制御ユニット16やバッテリ15などの部品を保持する筐体17と、上記筐体17に設けられた撮像ボタン18とを備える。
<Configuration example>
Hereinafter, the overall configuration of the
図4に示す撮像体19は、2つの結像光学系20A,20Bと、撮像素子21A,撮像素子21Bと、を有する。撮像素子21A,21B(それぞれ第一の撮像素子、第二の撮像素子の一例)は、CCD(Charge Coupled Device)センサやCMOSセンサなどである。結像光学系20A、20Bは、例えば6群7枚の魚眼レンズとして構成される。上記魚眼レンズは、図4に示す実施形態では、180度(=360度/n;光学系の数n=2)より大きい画角を有し、好適には、190度以上の画角を有する。このような広角な結像光学系20A,20Bと撮像素子21A,21Bとを1個ずつ組み合わせたものを広角撮像光学系と称する。
The
2つの結像光学系20A,20Bの光学素子(レンズ、プリズム、フィルタ及び開口絞り)は、撮像素子21A,21Bに対して位置が定められる。結像光学系20A,20Bの光学素子の光軸が、対応する撮像素子21の受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように位置決めが行われる。
The optical elements (lens, prism, filter and aperture stop) of the two image pickup
図4に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられる。撮像素子21A,21Bは、受光した光分布を画像信号に変換し、制御ユニット16に、順次、画像フレーム(フレームとは画像データのことであるが、連続した画像データのうちの1つを指す場合に使用される場合が多い)を出力する。撮像素子21A,21Bでそれぞれ撮像された画像は、合成処理されて、これにより、立体角4πステラジアンの画像(360度画像又は全天球画像)が生成される。360度画像は、撮像地点から見渡すことのできる全ての方向を撮像したものとなる。説明する実施形態では、360度画像を生成するものとして説明するが、水平面のみ360度を撮像した、いわゆるパノラマ画像であってもよく、全天球又は水平面360度の全景のうちの一部を撮像した画像であってもよい。また、360度画像は、静止画として保存することもできるし、動画として保存することもできる。
In the embodiment shown in FIG. 4, the imaging
図5は、撮像装置5のハードウェア構成例を示す図である。撮像装置5は、CPU30、メインメモリ31、フラッシュROM32、魚眼レンズ14A,14B、撮像素子21A、21B、A/D変換回路33A,33B、入力画像処理モジュール34A、34B、3軸加速度センサ35、歪曲補正・画像合成モジュール36、画像コーデック37、音声コーデック38、マイク39、スピーカー40、無線通信モジュール41、メモリカードI/Fモジュール42、及び、メモリカード43を有している。
FIG. 5 is a diagram showing a hardware configuration example of the
CPU30はフラッシュROM32に記憶されているプログラムをメインメモリ31に展開して実行して撮像装置5の全体を制御する。メインメモリ31は、例えばDRAM(Dynamic Random Access Memory)であり、CPU30のワークエリアとして使用される。フラッシュROM32は、電源オン時のシステム立ち上げや撮像装置5の機能を実現するための各種プログラムを記憶する。
The
画像コーデック37は画像データを圧縮する。音声コーデック38はマイクが集音した音声データを圧縮し、また、無線通信モジュール41から入力された音声データを伸長してスピーカー40から出力する。
The
無線通信モジュール41はセルラー回線に接続して無線で映像や音声等を送受信する。メモリカードI/Fモジュール42は装着されたメモリカード43にデータを書き込み、また、メモリカード43からデータを読み出す。
The
撮像素子21A、21Bから出力されたアナログ画像信号はA/D変換回路33A、33Bによりデジタル画像データに変換され、これらの画像データは入力画像処理モジュール34A、34Bに入力される。
The analog image signals output from the
入力画像処理モジュール34A、34Bは、画像データの輝度情報を利用して測光し、露光量を調整する露光制御(AE(Automatic Exposure))やRGBの割合を均一にして色の再現性をよくするためのホワイトバランス(AWB(Automatic White Balance)の処理を行っている。これらの処理を施された画像データは歪曲補正・画像合成モジュール36に入力される。
The input
歪曲補正・画像合成モジュール36は、3軸加速度センサ35からの情報を利用して、2つの画像データに対して歪曲補正と共に天地補正を行って360度画像を合成する。この360度画像データは画像コーデック37で圧縮されて、無線通信(セルラー回線)により不動産店舗120にある端末装置10Aへ送信される。また、マイク39で集音された音声信号も無線通信(セルラー回線)により不動産店舗120にある端末装置10Aに送信される。
The distortion correction /
図6は、端末装置10のハードウェア構成図である。図6に示されているように、端末装置10は、CPU701、ROM702、RAM703、フラッシュメモリ704、SSD705、メディアI/F707、操作ボタン708、電源スイッチ709、バスライン710、ネットワークI/F711、CMOSセンサ712、撮像素子I/F713、マイク714、スピーカー715、音入出力I/F716、ディスプレイI/F717、外部機器接続I/F718、近距離通信回路719、近距離通信回路719のアンテナ719aを備えている。これらのうち、CPU701は、端末装置全体の動作を制御する。ROM702は、IPL等のOSの起動に用いられるプログラムを記憶する。RAM703は、CPU701のワークエリアとして使用される。フラッシュメモリ704は、通信用プログラム、画像データ、及び音データ等の各種データを記憶する。SSD705は、CPU701の制御にしたがってフラッシュメモリ704に対する各種データの読み出し又は書き込みを制御する。なお、SSDに代えてHDDを用いてもよい。メディアI/F707は、フラッシュメモリ等の記録メディア706に対するデータの読み出し又は書き込み(記憶)を制御する。操作ボタン708は、端末装置10の宛先を選択する場合などに操作されるボタンである。電源スイッチ709は、端末装置10の電源のON/OFFを切り換えるためのスイッチである。
FIG. 6 is a hardware configuration diagram of the terminal device 10. As shown in FIG. 6, the terminal device 10 includes a
また、ネットワークI/F711は、インターネット等の通信ネットワークNを利用してデータ通信をするためのインターフェイスである。CMOSセンサ712は、CPU701の制御にしたがって被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、CMOSセンサではなく、CCDセンサ等の撮像手段であってもよい。撮像素子I/F713は、CMOSセンサ712の駆動を制御する回路である。マイク714は、音を電気信号に変える内蔵型のデバイスである。スピーカー715は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型のデバイスである。音入出力I/F716は、CPU701の制御にしたがってマイク714及びスピーカー715との間で音信号の入出力を処理する回路である。ディスプレイI/F717は、CPU701の制御にしたがって外付けのディスプレイに画像データを送信する回路である。外部機器接続I/F718は、各種の外部機器を接続するためのインターフェイスである。近距離通信回路719は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。
Further, the network I / F711 is an interface for data communication using a communication network N such as the Internet. The
また、バスライン710は、図6に示されているCPU701等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
Further, the
ディスプレイ720は、被写体の画像や操作用アイコン等を表示する液晶や有機EL(Electro Luminescence)等によって構成された表示手段の一種である。また、ディスプレイ720は、ケーブルによってディスプレイI/F717に接続される。このケーブルは、アナログRGB(VGA)信号用のケーブルであってもよいし、コンポーネントビデオ用のケーブルであってもよいし、HDMI(High−Definition Multimedia Interface)(登録商標)やDVI(Digital Video Interactive)信号用のケーブルであってもよい。
The
なお、CMOSセンサ712は、CPU701の制御にしたがって被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、CMOSセンサではなく、CCDセンサ等の撮像手段であってもよい。外部機器接続I/F718には、USBケーブル等によって、外付けカメラ、外付けマイク、及び外付けスピーカー等の外部機器がそれぞれ接続可能である。外付けカメラが接続された場合には、CPU701の制御にしたがって、内蔵型のCMOSセンサ712に優先して、外付けカメラが駆動する。同じく、外付けマイクが接続された場合や、外付けスピーカーが接続された場合には、CPU701の制御にしたがって、それぞれが内蔵型のマイク714や内蔵型のスピーカー715に優先して、外付けマイクや外付けスピーカーが駆動する。
The
また、記録メディア706は、端末装置10に対して着脱自在な構成となっている。また、CPU701の制御にしたがってデータの読み出し又は書き込みを行う不揮発性メモリであれば、フラッシュメモリ704に限らず、EEPROM等を用いてもよい。
Further, the
<360度画像の生成方法>
次に、図7〜図9を用いて360度画像の生成方法を説明する。図7は、撮像装置5の使用イメージ図である。撮像装置5は、図7に示されているように、例えば、ユーザ(本実施形態では不動産業者)が手に持ってユーザの周りの被写体を撮像するために用いられる。この場合、図4に示されている撮像素子21A及び撮像素子21Bによって、それぞれユーザの周りの被写体が撮像されることで、2つの180度画像を得ることができる。
<How to generate a 360-degree image>
Next, a method of generating a 360-degree image will be described with reference to FIGS. 7 to 9. FIG. 7 is an image diagram of use of the
次に、図8及び図9を用いて、撮像装置5で撮像された画像から360度画像が作成されるまでの処理の概略を説明する。なお、図8(a)は撮像装置5で撮像された180度画像(前側)、図8(b)は撮像装置5で撮像された180度画像(後側)、図8(c)は正距円筒射影図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図9(a)は正距円筒射影画像で球を被う状態を示した概念図、図9(b)は360度画像を示した図である。
Next, the outline of the process from the image captured by the
図8(a)に示されているように、撮像素子21Aによって得られた画像は、魚眼レンズ14Aによって湾曲した180度画像(前側)となる。また、図8(b)に示されているように、撮像素子21Bによって得られた画像は、魚眼レンズ14Bによって湾曲した180度画像(後側)となる。そして、180度画像(前側)と、180度反転された180度画像(後側)とは、撮像装置5によって合成され、図8(c)に示されているように、正距円筒射影画像が作成される。
As shown in FIG. 8A, the image obtained by the
そして、端末装置10においてOpenGL ESが利用されることで、図9(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図9(b)に示されているような360度画像が作成される。このように、360度画像は、正距円筒射影画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2−Dimensions)及び3D(3−Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、360度画像は、静止画であっても動画であってもよい。 Then, by using OpenGL ES in the terminal device 10, as shown in FIG. 9A, the equirectangular projection image is pasted so as to cover the spherical surface, and is shown in FIG. 9B. A 360 degree image as shown above is created. As described above, the 360-degree image is represented as an image in which the equirectangular projection image faces the center of the sphere. OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. The 360-degree image may be a still image or a moving image.
以上のように、360度画像は、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、360度画像の一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。 As described above, since the 360-degree image is an image pasted so as to cover the spherical surface, it gives a sense of discomfort to humans. Therefore, by displaying a part of a predetermined area of the 360-degree image (hereinafter, referred to as "predetermined area image") as a flat image with less curvature, it is possible to display the image without giving a sense of discomfort to humans.
図10は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。 FIG. 10 is a diagram showing the positions of a virtual camera and a predetermined area when the spherical image is a three-dimensional stereoscopic sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the image with respect to the spherical image CE displayed as a three-dimensional stereoscopic sphere.
図10に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮像領域である。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。 As shown in FIG. 10, the virtual camera IC is located inside the spherical image CE. A predetermined region T in the spherical image CE is an imaging region of the virtual camera IC. The zoom of the predetermined region T can be expressed by expanding or contracting the range (arc) of the angle of view α. Further, the zoom of the predetermined area T can be expressed by moving the virtual camera IC closer to or further away from the spherical image CE. The predetermined region image Q is an image of the predetermined region T in the spherical image CE.
<機能について>
図11(a)は、入力画像処理モジュール34A、34Bの機能をブロック状に示す機能ブロック図の一例である。入力画像処理モジュール34A、34Bの機能は同じであるものとするが一方にのみ存在する機能があってもよい。また、図11(b)は輝度値比較部52の機能を詳細に示す図である。
<About functions>
FIG. 11A is an example of a functional block diagram showing the functions of the input
入力画像処理モジュール34A、34Bは露光制御部50、輝度値記憶部51、輝度値比較部52、ホワイトバランス制御部53、ガンマ補正部54、及び、色変換部55を有している。露光制御部50は、撮像素子21A、21Bから出力され、A/D変換された画像データの輝度情報を利用して測光し、露光量を調整したり、後述する360度画像と180度画像の切り替えに関する処理を実行したりする。露光制御部50は1フレームごとに輝度平均値を算出する。
The input
輝度値記憶部51は露光制御部50にて求められた輝度値を、時間的に後の画像データと比較するために一時的に記憶する。少なくとも周期性を判断できる程度の時間の画像データを記憶する。輝度値比較部52は輝度値記憶部51に記憶された過去の複数フレーム分の輝度値に基づいて輝度値の周期的な変化を検出する。
The brightness
ホワイトバランス制御部53は色の再現性をよくするために、RGBの割合を均一にする処理を行う。ガンマ補正部54は1フレーム分の画像全体の色合いを調整する処理を行う。色変換部55はRGBデジタル画像データについて、色差成分(Cb,Cr)と輝度成分(Y)に変換する。
The white
魚眼レンズ14A,14Bから入力される光量が変化して、入力画像処理モジュール34A、34Bに複数フレームにわたって入力される輝度平均値の変化パターンに特定の周期性を検出された場合の処理について説明する(処理内容を図13にて説明するので参照されたい)。
The processing when the amount of light input from the
入力画像処理モジュール34A、34Bの露光制御部50は入力される1フレーム分の全ての画像データの輝度成分の値の平均値を求め、この輝度平均値を輝度値記憶部51に記憶する。これを複数フレーム繰り返し、輝度値記憶部51に輝度平均値を時間経過に合わせて順次保存していく。
The
輝度値記憶部51の処理と平行して、輝度値比較部52は輝度値記憶部51に記憶された時間的に隣接した輝度平均値の差を比較する。図11(b)に示すように、輝度値比較部52は、輝度差計算部60、輝度値特徴記憶部61、及び、輝度値特徴判断部62を有している。
In parallel with the processing of the luminance
まず、輝度差計算部60が処理対象フレーム(現在の処理対象のフレーム)の輝度平均値とその前フレームの輝度平均値との輝度差を計算する。輝度差計算部60は、輝度値特徴記憶部61に輝度差を記憶していく。輝度値特徴判断部62は、輝度値特徴記憶部61に記憶された1つ前の輝度差と現在の輝度差との差が予め設定されている閾値A(第一の閾値の一例)以上か否かを判断する。閾値A以上の場合には、処理対象フレームのフレームナンバー(処理対象フレームが取得された時刻に相当する)を輝度値特徴記憶部61に記憶する。そして、前回、輝度差の差が閾値A以上であるとして記憶されたフレームナンバーとの間隔が(すなわち、時間の間隔が)、予め設定されている閾値B(第二の閾値の一例)未満の場合、輝度値特徴判断部62はフレームごとの輝度平均値に周期性があると判断する。
First, the luminance
そして、周期性があると判断した場合、入力画像処理モジュール34A、34Bは歪曲補正・画像合成モジュール36へジェスチャー切り替え信号を出す。また、輝度値特徴判断部62がフレームごとの輝度平均値に周期性があると再度、判断した場合、入力画像処理モジュール34A、34Bは歪曲補正・画像合成モジュール36へジェスチャー切り替え信号を出す。したがって、ユーザは同じジェスチャー切り替え動作で180度画像と360度画像を切り替えることができる(画角を制御することができる)。
Then, when it is determined that there is periodicity, the input
<撮像対象と撮像装置5の関係>
図12に基づいて、360度画像から180度画像に切り替える際の不動産業者101の動作と撮像装置5の処理について説明する。図12は撮像対象と撮像装置5の位置の一例を示す図である。
<Relationship between imaging target and
Based on FIG. 12, the operation of the
不動産物件を案内している不動産業者101は一脚3を持って撮像装置5で室内を撮像しながら、不動産店舗にいる顧客102に対して音声にて説明している。まず、全天球の映像を送信して顧客102に部屋全体(A空間とB空間)を見てもらうが、部屋に設置されたエアコン901の説明をする場合、360度画像におけるエアコン901の位置を説明する必要がある。
The
このエアコン901の位置の説明を省略するために、不動産業者101は360度画像を180度画像に切り替えて、エアコン901がこの180度画像の中心付近に映るように撮像装置5の向きと傾きを調整する。
In order to omit the description of the position of the
撮像素子21Aにて撮像される空間をA空間、撮像素子21Bにて撮像される空間をB空間と定義する。今、エアコン901がA空間にある場合、不動産業者101は魚眼レンズ14Aの光軸がおおよそエアコン901に向くように撮像装置5の向きと傾きを変える。そして、魚眼レンズ14Bにかざした手を何回か振ると、魚眼レンズ14Bから入力される光量が周期的に低下する。入力画像処理モジュール34Bの輝度値比較部52は周期的な低下を検出すると、歪曲補正・画像合成モジュール36へジェスチャー切り替え信号を出力する。歪曲補正・画像合成モジュール36はこのジェスチャー切り替え信号を検出すると、360度画像の合成処理を止め、入力画像処理モジュール34Aから入力される画像データについて(ジェスチャー切り替え信号を出力しない方の入力画像処理モジュール)、歪曲補正と共に天地補正を行って180度画像を生成するモードに切り替える。この180度画像は画像コーデック37にてH.264に圧縮して、無線通信モジュール41がこの画像データを、通信ネットワークN(セルラー回線等)を使用して不動産店舗120にある端末装置10Aに送信する。端末装置10Aのディスプレイには、180度画像のほぼ中心付近にエアコン901が表示される。
The space imaged by the
不動産業者101が魚眼レンズ14Bにかざした手を振ることを止めても、撮像装置5は180度画像の生成を継続する。
Even if the
その後、不動産物件110にいる不動産業者101が魚眼レンズ14Bにかざした手を再度振ると、魚眼レンズ14Bから入力される光量が周期的に低下する。入力画像処理モジュール34Bの輝度値比較部52は周期的な低下を検出すると、歪曲補正・画像合成モジュール36へジェスチャー切替信号を出力する。
After that, when the
歪曲補正・画像合成モジュール36はこのジェスチャー切り替え信号を検出すると、現在、180度画像を生成しているので、360度画像の合成処理を再開する。そして、この360度画像はH.264に圧縮されて、無線通信モジュール41によって通信ネットワークN(セルラー回線等)を使用して不動産店舗120にある端末装置10Aへ送信される。なお、現在、180度画像を生成している場合には、魚眼レンズ14A、14Bのどちらからジェスチャー切り替え信号が送信されても、歪曲補正・画像合成モジュール36が360度画像の合成処理を再開してよい。ユーザがどちらの魚眼レンズ14A、14Bが有効かを忘れても合成処理を再開できる。
When the distortion correction /
不動産業者101が魚眼レンズ14Aにかざした手を振った場合に、歪曲補正・画像合成モジュール36が魚眼レンズ14Bの180度画像を合成に用いることを停止してもよい。
When the
ここでは撮像素子21が2つの場合を説明したが、撮像素子が3つ以上の場合、1つの撮像素子の入力画像処理モジュール34がジェスチャー切り替え信号を出力すると、歪曲補正・画像合成モジュール36は残りの2つの撮像素子21の画像データを合成する。撮像素子が4つ以上の場合も同様である。
Here, the case where there are two image sensors 21 has been described, but when there are three or more image sensors, when the input image processing module 34 of one image sensor outputs a gesture switching signal, the distortion correction /
このように、360度画像から撮像素子21Aにて撮像される画像(概ね180度の画像)への切り替えや、360度画像から撮像素子21Bにて撮像される画像(概ね180度の画像)への切り替えをハード又はソフト的なスイッチを使用することなく、片方の魚眼レンズにかざした手を振るといった直感的な操作で実現することが可能となる。撮像素子21A、21Bにて撮像される画像(概ね180度の画像)から360度画像への切り替えも、ハード又はソフト的なスイッチを使用することなく片方の魚眼レンズにかざした手を振るといった直感的な操作で実現することが可能となる。
In this way, switching from a 360-degree image to an image captured by the
<輝度値の周期的な変化の検出>
本実施形態では、上記のように輝度値比較部52が「輝度平均値の特定の時間変化パターン」を1回以上検出した場合のみに360度画像と180度画像を切り替える。これにより、タッチパネルや物理キーなどのハードウェアが必要ないだけでなく、以下の効果も期待できる。
・一度切り替えれば、次の切り替え検出が発生するまで、撮像モード(360度画像又は180度画像を撮像するモード)がどちらであっても継続することができる。
・輝度ゆらぎ等による意図しない輝度の瞬間的な変化による切り替えを防止できる。
<Detection of periodic changes in brightness value>
In the present embodiment, the 360-degree image and the 180-degree image are switched only when the brightness
-Once switched, the imaging mode (mode for capturing a 360-degree image or a 180-degree image) can be continued until the next switching detection occurs.
-It is possible to prevent switching due to an unintended momentary change in brightness due to fluctuations in brightness.
図13は、ジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す。図13(a)は横軸を時間又はフレームナンバー、縦軸を輝度値とする散布図であり、図13(b)は輝度差の差が閾値A以上の時刻を説明する図である。 FIG. 13 shows an example of the time change of the average luminance value due to the gesture switching operation. FIG. 13A is a scatter plot in which the horizontal axis is the time or frame number and the vertical axis is the luminance value, and FIG. 13B is a diagram illustrating a time when the difference in luminance difference is equal to or greater than the threshold value A.
図13(a)に示すように、レンズ上を何度も通過するように不動産業者が手を左右(又は上下等)に動かすと、手を振る速度に応じた周期で輝度が変化する。片方のレンズに物体が被さる面積と検出される輝度平均値が反比例の関係にあるためである。また例えば、手を近づける又は遠ざける、手を開く又は閉じるなどのジェスチャーでも同様の変化となる。 As shown in FIG. 13A, when the real estate agent moves the hand left and right (or up and down, etc.) so as to pass over the lens many times, the brightness changes at a cycle corresponding to the speed of waving the hand. This is because the area covered by an object on one lens and the detected brightness average value are inversely proportional to each other. Further, for example, gestures such as moving the hand closer to or further away from the hand and opening or closing the hand cause the same change.
図13(a)では、手がレンズの上を1往復する期間に輝度が極端に小さくなる(下向きの極値を取る)タイミングが2回出現したと考えられる。輝度値特徴判断部62は、輝度が小さくなる期間Tの長さを閾値Bと比較することでジェスチャーなのか、又は、輝度ゆらぎであるのか判断可能になる。図13(b)では時刻t1〜t4で輝度差の差が閾値A以上になっている。なお、詳細には、輝度差の差が閾値A以上になっている。輝度差そのものを閾値Aと比較してもよい。また、輝度差の差が閾値A以上になるフレームの間隔(時間)が閾値B未満であると検出されたので、輝度値比較部52はジェスチャー切り替え動作を検出する。
In FIG. 13A, it is considered that the timing at which the brightness becomes extremely small (takes a downward extremum) appears twice during the period in which the hand makes one round trip over the lens. The luminance value
なお、輝度差の差が閾値A以上になるフレームの間隔(時間)が閾値B未満であることが2回以上検出された場合にジェスチャー切り替え動作を検出してもよい(手の往復に相当)。ジェスチャー切り替え動作でないのにジェスチャー切り替え動作を検出することを抑制できる。 The gesture switching operation may be detected when it is detected twice or more that the frame interval (time) at which the difference in luminance difference is equal to or greater than the threshold value A is less than the threshold value B (corresponding to the reciprocation of the hand). .. It is possible to suppress the detection of the gesture switching operation even though it is not the gesture switching operation.
<動作手順>
図14は、撮像装置5が360度画像から180度画像に切り替える手順を示すフローチャート図の一例である。図14の処理は撮像装置5が2つの画像データを合成して360度画像を作成している間、繰り返し実行される。
<Operation procedure>
FIG. 14 is an example of a flowchart showing a procedure in which the
入力画像処理モジュール34A、34Bの輝度値比較部52は露光制御部50が1フレームの全ての画素の輝度成分の平均値(輝度平均値)を輝度値記憶部51に記憶する(S11)。
In the brightness
次に、輝度差計算部60が処理対象フレームの輝度平均値とその前フレームの輝度平均値との輝度差を計算し、輝度値特徴記憶部61に輝度差を記憶していく(S12)。
Next, the luminance
輝度値特徴判断部62は、輝度値特徴記憶部61に記憶されている最も新しい輝度差と1つ前の輝度差の差の絶対値が閾値A以上かどうかを判断する(S13)。閾値A以上でない場合、図14の処理は終了する。
The luminance value
閾値A以上の場合、輝度値特徴判断部62は処理対象フレームのフレームナンバーを輝度値特徴記憶部61に記憶する(S14)。
When the threshold value is A or more, the luminance value
そして、輝度値特徴判断部62は処理対象フレームのフレームナンバーと1つ前に記憶されているフレームナンバーとの差が閾値B未満か否かを判断する(S15)。フレームナンバーを比較することで時間を比較することができる。閾値B未満でない場合、図14の処理は終了する。
Then, the luminance value
閾値B未満の場合、輝度値特徴判断部62はジェスチャー切り替え動作を検出してジェスチャー切り替え信号を出力する(S16)。
If it is less than the threshold value B, the luminance value
この結果、歪曲補正・画像合成モジュール36は360度画像の合成処理を止め、もう一方の入力画像処理モジュール34(ジェスチャー切り替え動作が検出されない方)から入力される画像について180度画像を生成する(S17)。
As a result, the distortion correction /
そして、画像コーデック37は180度画像をH.264に圧縮して、通信ネットワークNを使用して端末装置10Aへ送信する(S18)。
Then, the
360度画像の生成に戻すには、同じジェスチャー切り替え動作を不動産業者が行えばよい。 To return to the 360-degree image generation, the real estate agent may perform the same gesture switching operation.
<主な効果>
本実施形態の画像通信システム100は、360度画像から180度画像へ切り替えて広角な画像から任意の範囲を表示させることができる。また、タッチパネルや物理キーなど所定のハードウェア的なスイッチを使用することなく実行させることができ、直感的な操作で実現できる。一度切り替えれば、次のジェスチャー切り替え動作が検出されるまで、撮像モードがどちらであっても継続することができる。輝度ゆらぎ等による意図しない輝度の瞬間的な変化による切り替えを防止できる。
<Main effect>
The
本実施例では、輝度平均値の記憶に要する輝度値記憶部51の容量を低減できる撮像装置5について説明する。撮像装置5が複数回の周期的な輝度平均値の低下を検出した場合に、ジェスチャー切り替え動作を検出する場合、輝度値記憶部51には複数の周期分の輝度平均値が記憶される。したがって、例えば、複数回の周期的な輝度平均値の低下を検出した場合に、ジェスチャー切り替え動作を検出する場合に輝度値記憶部51の容量を低減できる。
In this embodiment, the
<輝度値特徴記憶部の構成について>
本実施例においては、上記の実施例にて説明した図4〜図6のハードウェア構成図、及び、図11に示した機能ブロック図を援用できるものとして説明する。
<About the configuration of the luminance value feature storage unit>
In this embodiment, the hardware configuration diagrams of FIGS. 4 to 6 and the functional block diagram shown in FIG. 11 described in the above embodiment will be described as being applicable.
図15は、本実施例の輝度値特徴記憶部61の構成例を示す図である。輝度値特徴記憶部61は特徴圧縮部70と特徴記憶部71を有する。輝度差計算部60が計算した輝度差のデータは一時的に特徴圧縮部70に蓄積され、特徴圧縮部70は輝度差を周期データに変換可能と判断できた場合には、周期データをパラメータで表す周期データパラメータを特徴記憶部71に記憶する。特徴記憶部71に記憶された周期データパラメータは輝度値記憶部51に転送される。
FIG. 15 is a diagram showing a configuration example of the luminance value
<輝度平均値の周期データ>
図16は、ジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す。特徴圧縮部70は1周期前の輝度平均値を順次周期データパラメータに変換していくことで、輝度値記憶部51が保持するデータ容量を圧縮する。
<Periodic data of average brightness value>
FIG. 16 shows an example of the time change of the average luminance value due to the gesture switching operation. Feature The
図16の現在の周期301では周期性の検出を行うため、フレームごとの輝度平均値を全て保持する必要がある。しかし、1つ前を含む以前の周期302に関しては、周期性の検出が完了しているため、周期データパラメータ(輝度差が大きくなる時刻とその輝度差の値)のみを保持できればよい。これらを使うと次のように輝度値記憶部51の保持データを圧縮できる。
(i)圧縮前のデータ数
1周期のフレーム数×(輝度平均値+時間) → データ数20〜30個
(ii) 圧縮後のデータ数(周期データパラメータのデータ数)
閾値A以上の輝度差の差+この輝度差が生じた時刻)×2 → データ数 4個
<動作手順>
図17は、撮像装置5が360度画像から180度画像に切り替える手順を示すフローチャート図の一例である。図17の説明では主に図14との相違を説明する。
In the
(i) Number of data before compression Number of frames in one cycle x (average brightness + time) → Number of data 20 to 30
(ii) Number of compressed data (number of periodic data parameter data)
Difference in brightness difference above threshold A + time when this brightness difference occurred) x 2 → Number of
FIG. 17 is an example of a flowchart showing a procedure in which the
図17の処理ではステップS15−2が追加されている。ステップS15−2では、特徴圧縮部70が、輝度値記憶部51に蓄積されていく輝度平均値について、閾値A以上の輝度差の差とこの輝度差の差が検出された時刻(フレームナンバーでもよい)を1周期分、特徴記憶部71に記憶する。1周期分なので、(ii)のように4つのデータを記憶する。特徴記憶部71は、周期データパラメータは輝度値特徴記憶部61に転送し、輝度値特徴記憶部61に記憶されている1周期分の輝度平均値を削除する。
In the process of FIG. 17, step S15-2 is added. In step S15-2, with respect to the brightness average value accumulated in the brightness
輝度値特徴判断部62は輝度値記憶部51の周期データパラメータを参照して、例えばN周期分の周期データパラメータを検出した場合に、ジェスチャー切り替え動作を検出する(S16−2)。以降の処理は図14と同様でよい。
The luminance value
<主な効果>
本実施例によれば、実施例1の効果に加え、輝度値記憶部51に記憶される輝度平均値の容量を低減することができる。
<Main effect>
According to this embodiment, in addition to the effect of the first embodiment, the capacity of the average luminance value stored in the luminance
本実施例では、ユーザがジェスチャー切り替え動作をしているにも関わらず、輝度平均値の周期的な変化が顕著に表れない場合でも、ジェスチャー切り替え動作の検出精度を高めることができる撮像装置5について説明する。
In the present embodiment, the
<輝度値比較部の構成例>
本実施例においては、実施例1にて説明した図4〜図6のハードウェア構成図、及び、図11(a)に示した入力画像処理モジュール34A、34Bの機能ブロック図を援用できるものとして説明する。
<Configuration example of brightness value comparison unit>
In this embodiment, the hardware configuration diagrams of FIGS. 4 to 6 described in the first embodiment and the functional block diagrams of the input
図18は本実施例の輝度値比較部52の機能を示す図である。入力画像処理モジュール34Aが有する輝度値記憶部51を51A,入力画像処理モジュール34Bが有する輝度値記憶部51を51Bとする。輝度値記憶部51Aは入力画像処理モジュール34Aが生成した画像データ(第一の画像データの一例)から算出された輝度平均値を記憶する。輝度値記憶部51Bは入力画像処理モジュール34Bが生成した画像データ(第二の画像データの一例)から算出された輝度平均値を記憶する。
FIG. 18 is a diagram showing the functions of the luminance
また、入力画像処理モジュール34Aの輝度値比較部52Aは、輝度差計算部60A(第一の輝度差計算部の一例)、輝度値特徴記憶部61A、及び、輝度値特徴判断部62A(第一の輝度値特徴判断部の一例)を有し、入力画像処理モジュール34Bの輝度値比較部52Bは、輝度差計算部60B(第二の輝度差計算部の一例)、輝度値特徴記憶部61B、及び、輝度値特徴判断部62B(第二の輝度値特徴判断部の一例)を有する。
Further, the luminance
本実施例の輝度値比較部52A,52Bが有する機能は実施例1と同様であるが、輝度差計算部60A、60Bに、他方の入力画像処理モジュール34A、34Bが出力した輝度平均値も入力される。したがって、輝度差計算部60A,60Bは自分のレンズ内の輝度差だけでなく、他方のレンズの輝度平均値と自分のレンズの輝度平均値との輝度差を算出できる。相対的な輝度差を算出することで、より詳細な輝度差の特徴の検出が可能になる。
The functions of the luminance
<輝度平均値の周期データ>
図19は、ジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す。図19にはユーザがジェスチャー切り替え動作をしている方のレンズからの輝度平均値310A(「○」で表す)の時間変化と合わせて、同時刻に取得した他方のレンズからの輝度平均値310B(「△」で表す)の時間変化も表示されている。輝度平均値の変化が大きい方が、ジェスチャー切り替え動作が行われたレンズの輝度平均値310Aであり、小さい方が、ジェスチャー切り替え動作が行われていないレンズの輝度平均値310Bである。
<Periodic data of average brightness value>
FIG. 19 shows an example of the time change of the average luminance value due to the gesture switching operation. In FIG. 19, the average brightness value 310B from the other lens acquired at the same time together with the time change of the
輝度値比較部52は相対的な視点から輝度平均値の時間変化を見ることで、実施例1では見られなかった周期性を検出可能にする。輝度差計算部60A,60Bは、実施例1の輝度差の計算に加え、同時刻の輝度平均値310Aと輝度平均値310Bの輝度差を算出する。輝度差に基づく周期性の判断方法は実施例1と同様でよい。
The brightness
図19では、時刻t1〜t4で、輝度平均値310Aと輝度平均値310Bの輝度差の差が閾値A以上となっている。
In FIG. 19, at times t1 to t4, the difference in luminance difference between the
<動作手順>
図20は、撮像装置5が360度画像から180度画像に切り替える手順を示すフローチャート図の一例である。図20の説明では主に図14との相違を説明する。
<Operation procedure>
FIG. 20 is an example of a flowchart showing a procedure in which the
まず、ステップS12−2において、輝度差計算部60A、60Bが処理対象フレームの輝度平均値とその前フレームの輝度平均値との輝度差を計算し、輝度値特徴記憶部61に輝度差の差I(第一の輝度差の差の一例)を記憶していく(同じ入力画像処理モジュール34A、34B内の比較)。また、輝度差計算部60Aは処理対象フレームと同時刻に入力画像処理モジュール34Bが出力した輝度平均値との輝度差の差II(第二の輝度差の差の一例)を計算し、輝度差計算部60Bは処理対象フレームと同時刻に入力画像処理モジュール34Aが出力した輝度平均値との輝度差の差IIを計算する(入力画像処理モジュール34Aと34Bの比較)。
First, in step S12-2, the brightness
そして、ステップS13〜S15では、輝度差の差I、輝度差の差IIについて同じように、閾値A、閾値Bとの比較を行う(S13〜S15)。 Then, in steps S13 to S15, the difference I in the brightness difference and the difference II in the brightness difference are similarly compared with the threshold values A and B (S13 to S15).
そして、輝度差の差I、輝度差の差IIのどちらか一方で、閾値A、閾値Bとの比較が基準を満たす場合、輝度値比較部52はジェスチャー切り替え動作を検出する(S16)。以降の処理は実施例1と同様でよい。
Then, when the comparison with the threshold value A and the threshold value B satisfies the criteria for either the difference I in the brightness difference or the difference II in the brightness difference, the brightness
<主な効果>
本実施例によれば、実施例1の効果に加え、ユーザがジェスチャー切り替え動作をしているにも関わらず、輝度平均値の周期的な変化が顕著に表れない場合でも、ジェスチャー切り替え動作の検出精度を高めることができる。
<Main effect>
According to this embodiment, in addition to the effect of the first embodiment, the gesture switching operation is detected even when the periodic change of the average luminance value does not appear remarkably even though the user is performing the gesture switching operation. The accuracy can be improved.
本実施例では、ユーザのジェスチャー位置がレンズの中心から外れていた場合にもジェスチャー切り替え動作を検出できる撮像装置5について説明する。本実施例では、画像データを分割したエリアごとに輝度平均値の時間変化の周期性を判断する。例えば、画像データを4分割する場合には、撮像装置5は輝度値記憶部51と輝度値比較部52を4つずつ有することになる。
In this embodiment, the
<分割例>
図21は画像データの分割例を示す図である。図21では画像データは中心を通る水平線と垂直線で4つのエリア320に分割されている。中心から等角度で分割してもよいし、エリアごとに異なる形状で分割してもよい。また、エリア320は2つ以上あればよく、4つは一例に過ぎない。
<Division example>
FIG. 21 is a diagram showing an example of dividing image data. In FIG. 21, the image data is divided into four
<機能について>
図22は、本実施例の入力画像処理モジュール34A、34Bの構成例を示す図である。入力画像処理モジュール34A、34Bは画像データを分割して処理を行うため、輝度値記憶部51と輝度値比較部52を分割した数だけ有する。更に、画像データを各エリアに分割する輝度エリア分割部56と、ジェスチャー切り替え動作が検出されたエリアの比較結果を選択して歪曲補正・画像合成モジュール36に出力する有効輝度エリア選択部57を有する。
<About functions>
FIG. 22 is a diagram showing a configuration example of the input
なお、輝度値比較部52の機能は実施例1の図11(b)と同様でよい。
The function of the luminance
<動作について>
図23は本実施例の入力画像処理モジュールの処理を説明するフローチャート図の一例である。
<About operation>
FIG. 23 is an example of a flowchart for explaining the processing of the input image processing module of this embodiment.
まず、輝度エリア分割部56はガンマ補正等が終わった入力画像(画像データ)を受け取り、設定されている数のエリアに分割する(S101)。エリアの数は任意でよいが例えば2つ以上であればよい。また、エリアの形状は元の画像データに相似形の矩形の他、中心から等間隔で分割された形状、又は不定形でもよい。各エリアの面積は同じでなくてよい。
First, the luminance
次に、露光制御部50は、分割したエリアごとに輝度平均値を計算する(S102)。
Next, the
次に、露光制御部50は、エリアに対応する複数の輝度値記憶部51にそれぞれの輝度平均値を転送する(S103)。
Next, the
輝度値比較部52は、実施例1と同様の方法で、エリアごとにジェスチャー切り替え動作を検出する(S104)。すなわち、各エリアの輝度値比較部52が図14のステップS12〜S15を実行する。エリアごとにジェスチャー切り替え動作を検出するので、ユーザの手がレンズの中心から離れていても、ジェスチャー切り替え動作を検出しやすくなる。
The brightness
各輝度値比較部52はエリアごとの比較結果をそれぞれ有効輝度エリア選択部57に転送する(S105)。この比較結果は、エリアの識別情報に対応付けられたジェスチャー切り替え動作の検出結果の有無である。
Each luminance
有効輝度エリア選択部57は1つでもジェスチャー切り替え動作が検出されたエリアがあれば(S106)、ユーザがジェスチャー動作を行ったと判断する(S107)。以降の処理は実施例1の図14と同様でよい。
If there is even one area in which the gesture switching operation is detected (S106), the effective luminance
<主な効果>
本実施例によれば、実施例1の効果に加え、ユーザのジェスチャー位置がレンズの中心から外れていた場合にもジェスチャー切り替え動作を検出できる。
<Main effect>
According to this embodiment, in addition to the effect of the first embodiment, the gesture switching operation can be detected even when the gesture position of the user is off the center of the lens.
本実施例では実施例1〜4とは異なるジェスチャー切り替え動作を検出できる撮像装置5について説明する。例えば、ユーザが円を描くようにレンズに手をかざした場合でも撮像装置5がジェスチャー切り替え動作を検出できる。
In this embodiment, an
<機能について>
図24は、本実施例の入力画像処理モジュール34A,34Bの機能を示す図の一例である。本実施例では画像データを分割して処理を行うため、入力画像処理モジュール34A,34Bは分割した数だけの輝度値記憶部51と輝度値比較部52を有している。更に、輝度の平均値を求めるエリアに画像データを分割するための輝度エリア分割部56と、複数の輝度値比較部52のフレームごとの輝度差の変化からジェスチャーを検知して歪曲補正・画像合成モジュール36に出力するジェスチャー検出部58を有する。ジェスチャー検出部58は、輝度値比較部52のフレームごとの輝度差の変化を各輝度値比較部52から取得して、各エリアの輝度差の変化からジェスチャー切り替え動作を検出する。
<About functions>
FIG. 24 is an example of a diagram showing the functions of the input
なお、輝度値比較部52の機能は実施例1の図11(b)と同様でよい。
The function of the luminance
<ジェスチャー切り替え動作と各エリアの輝度差の変化>
図25は本実施例の各エリアの輝度差の変化を模式的に示す図である。図25では元の画像データが4つに分割されたものとして説明する。また、ユーザはレンズ上で時計回りに円を描くように手を移動させている。画像データの中心を通る直線で4分割した場合、図25(a)は左上の画像データの輝度平均値であり、図25(b)は右上の画像データの輝度平均値であり、図25(c)は右下の画像データの輝度平均値であり、図25(d)は左下の画像データの輝度平均値である。時計回りなので、ユーザの手は、左上→右上→右下→左下の順に移動する。
<Gesture switching operation and change in brightness difference in each area>
FIG. 25 is a diagram schematically showing a change in brightness difference in each area of this embodiment. In FIG. 25, the original image data will be described as being divided into four parts. Also, the user is moving his hand in a clockwise circle on the lens. When divided into four by a straight line passing through the center of the image data, FIG. 25 (a) is the brightness average value of the upper left image data, and FIG. 25 (b) is the brightness average value of the upper right image data. c) is the brightness average value of the lower right image data, and FIG. 25 (d) is the brightness average value of the lower left image data. Since it is clockwise, the user's hand moves in the order of upper left → upper right → lower right → lower left.
図25を見ると分かるように、輝度平均値が小さい部分(下向きピーク)が、左上→右上→右下→左下の順に時間的に遅い方に移動している。すなわち、各エリアの輝度平均値を比較すると周期性があることが分かる。ジェスチャー検出部58は図25の周期性を検出した場合に、ジェスチャー切り替え動作が検出されたと判断する。
As can be seen from FIG. 25, the portion where the average luminance value is small (downward peak) moves to the later side in the order of upper left → upper right → lower right → lower left. That is, when comparing the average brightness values of each area, it can be seen that there is periodicity. When the
各エリアに対応した輝度値特徴判断部62は、輝度差の差が閾値A以上となる2つのフレーム間の中点Pを、輝度が最も小さくなるフレームに決定する。なお、中点Pは閾値A以上となる2つのタイミングの差が閾値B未満であることが条件となっている。そして、ジェスチャー検出部58は4つのエリアの輝度が最も小さくなるフレーム(各エリアの中点P)に基づいて周期性を確認する。
The luminance value
図25(e)は各エリアで輝度が最も小さくなるフレームf1〜f5(時刻t1〜t5でもよい)の間隔を示す。ジェスチャー検出部58はf1とf2の間隔とf2とf3の間隔の差、f2とf3の間隔のとf3とf4の間隔の差、f3とf4の間隔とf4とf5の間隔の差、がそれぞれ閾値C(第三の閾値の一例)未満の場合、エリアの輝度平均値に周期性があると判断し、ジェスチャー切り替え動作を検出する。
FIG. 25 (e) shows the intervals of frames f1 to f5 (time t1 to t5 may be used) in which the brightness is the smallest in each area. The
<動作手順>
図26は本実施例の入力画像処理モジュールの処理を説明するフローチャート図の一例である。
<Operation procedure>
FIG. 26 is an example of a flowchart for explaining the processing of the input image processing module of this embodiment.
まず、輝度エリア分割部56が入力画像(元の画像データ)をエリアに分割する(S201)。
First, the luminance
次に、露光制御部50が分割されたエリアごとに輝度平均値を計算する(S202)。
Next, the
次に、露光制御部50がエリアに対応する複数の輝度値記憶部51にそれぞれの輝度平均値を記憶する(S203)。
Next, the
次に、各エリアに対応する輝度値比較部52が輝度値記憶部51に記憶された輝度平均値に対し、実施例1と同様の方法で輝度平均値が極小値を取るフレームを決定する(S204)。すなわち、各エリアの輝度値比較部52が図14のステップS12〜S15を実行し、輝度差の差が閾値A以上となる2つのタイミングであってタイミングの差が閾値B未満のタイミングの中点P(又は中点Pに最も近いフレーム若しくは時刻)を決定する。
Next, the brightness
次に、各輝度値比較部52は輝度平均値が極小値を取るフレームを全てジェスチャー検出部58に転送する(S205)。
Next, each luminance
次に、ジェスチャー検出部58は、各エリアの輝度平均値が極小値を取るフレーム(タイミング)を集計し、各エリアで極小値を取るフレームの差が予め設定した閾値C未満である場合にジェスチャー動作が検出されたと判断する(S206)。
Next, the
<主な効果>
本実施例によれば、実施例1の効果に加え、ユーザが円を描くようにレンズに手をかざした場合でも撮像装置5がジェスチャー切り替え動作を検出できる。
<Main effect>
According to this embodiment, in addition to the effect of the first embodiment, the
本実施例では、ユーザのジェスチャー位置がレンズの中心から外れていた場合、かつ、輝度平均値の時間変化が顕著に表れない場合の精度を高めることができる撮像装置5について説明する。
In this embodiment, the
<機能について>
まず、入力画像処理モジュール34A,34Bの構成は実施例4の図22と同様であるとする。したがって、本実施例でも両レンズそれぞれの画像データを同様に分割する。
<About functions>
First, it is assumed that the configurations of the input
図27は、本実施例の輝度値比較部52の構成例を示す図である。輝度値比較部52の構成は実施例3の図18と同様とする。すなわち、輝度差計算部60A、60Bに、他方の入力画像処理モジュール34A、34Bが出力した輝度平均値も入力される。更に、入力される輝度平均値はエリアごとに算出されている。したがって、輝度差計算部60A,60Bは自分のレンズ内のエリアごとの輝度差だけでなく、他方のレンズの輝度平均値と自分のレンズの輝度平均値との輝度差をエリアごとに算出できる。相対的な輝度差を算出することで、より詳細な輝度差の特徴の検出が可能になる。
FIG. 27 is a diagram showing a configuration example of the brightness
1つの画像データが4つに分割される場合、入力画像処理モジュール34A,34B間の比較の組み合わせは4×4=16あるが、本実施例では、両レンズの点対称に位置するエリア同士を全て比較するものとする。
When one image data is divided into four, there are 4 × 4 = 16 comparison combinations between the input
図28は比較の対象を説明する図の一例である。図28(a)は入力画像処理モジュール34Aの画像データAであり、図28(b)は入力画像処理モジュール34Bの画像データBである。したがって、輝度値特徴判断部62は、以下の組み合わせで輝度平均値を比較する。
・画像データAのエリア1と点対称なのは画像データBのエリア3
・画像データAのエリア2と点対称なのは画像データBのエリア4
・画像データAのエリア3と点対称なのは画像データBのエリア1
・画像データAのエリア4と点対称なのは画像データBのエリア2
こうすることで、手の位置の影響を受けている画像データのエリアと手の位置の影響を受けにくい画像データのエリアの輝度平均値を比較できる。なお、線対称な関係にあるエリア同士を比較してもよい。
FIG. 28 is an example of a diagram illustrating an object of comparison. FIG. 28A is the image data A of the input
-
-
-
-
By doing so, it is possible to compare the brightness average value of the image data area affected by the hand position and the image data area less affected by the hand position. Areas having a line-symmetrical relationship may be compared with each other.
なお、図28の比較の対称は一例に過ぎず、画像データAのエリア1と画像データBのエリア1〜4のいずれか、画像データAのエリア2と画像データBのエリア1〜4のいずれか、画像データAのエリア3と画像データBのエリア1〜4のいずれか、画像データAのエリア4と画像データBのエリア1〜4のいずれか、を比較してもよい。
The symmetry of the comparison in FIG. 28 is only an example, and any of the
<ジェスチャー切り替え動作と各エリアの輝度差の変化>
図29はジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す図である。図29(a)は例えば入力画像処理モジュール34Aの左上のエリアの輝度平均値であり、図29(b)は右上のエリアの輝度平均値であり、図29(c)は右下のエリアの輝度平均値であり、図29(d)は左下のエリアの輝度平均値である。各エリアの輝度平均値が「○」で示され、比較対象の入力画像処理モジュール34Bの輝度平均値が「△」で表示されている。
<Gesture switching operation and change in brightness difference in each area>
FIG. 29 is a diagram showing an example of a time change of the average luminance value due to the gesture switching operation. FIG. 29 (a) is, for example, the brightness average value of the upper left area of the input
輝度値特徴判断部62A、62Bは、他方のレンズの輝度平均値との輝度差の差が閾値A以上のフレームを特定し、このフレームが閾値B未満の間隔で検出された場合にジェスチャー切り替え動作を検出する。図29(a)では左上のエリアの輝度平均値で周期性が検出される。各エリアに対応した輝度値特徴判断部62A、62Bはジェスチャー切り替え動作を検出した旨を有効輝度エリア選択部57に出力する。有効輝度エリア選択部57は1つでもジェスチャー切り替え動作が検出されたエリアがあれば、ユーザがジェスチャー動作を行ったと判断する。
The luminance value
<動作手順>
図30は本実施例の入力画像処理モジュールの処理を説明するフローチャート図の一例である。なお、図30の説明では主に図23との相違を説明する。
<Operation procedure>
FIG. 30 is an example of a flowchart for explaining the processing of the input image processing module of this embodiment. In the description of FIG. 30, the difference from FIG. 23 will be mainly described.
図30ではステップS103−2において、露光制御部50は、エリアに対応する複数の輝度値記憶部51にそれぞれの輝度平均値を転送し、他方のレンズの点対称な位置のエリアの輝度平均値も転送する。
In FIG. 30, in step S103-2, the
次に、ステップS104−2において、各エリアに対応する輝度値比較部52が輝度値記憶部51に記憶された輝度平均値を、他方のレンズの輝度平均値と比較して、輝度差を算出し、実施例1と同様にジェスチャー切り替え動作を検出する。以降の処理は図23と同様でよい。
Next, in step S104-2, the brightness
<主な効果>
本実施例によれば、実施例1の効果に加え、ユーザのジェスチャー位置がレンズの中心から外れていた場合、かつ、輝度平均値の時間変化が顕著に表れない場合の精度を高めることができる。
<Main effect>
According to this embodiment, in addition to the effect of the first embodiment, it is possible to improve the accuracy when the gesture position of the user is off the center of the lens and when the time change of the average luminance value does not appear remarkably. ..
本実施例では、三次元のジェスチャー切り替え動作を検出可能な撮像装置5について説明する。
In this embodiment, an
<機能について>
図31は、本実施例の入力画像処理モジュール34A,34Bの構成を説明する図である。入力画像処理モジュール34A,34Bの構成は実施例5の図24と同様であるが、ジェスチャー検出部58A,58B(それぞれ第一の検出部、第二の検出部の一例)は入力画像処理モジュール34A,34Bのそれぞれの輝度値比較部52から受け取るデータを他方(入力画像処理モジュール34B,34A)へ転送する。それぞれのジェスチャー検出部58には同じデータ(周期データ)が入力されることになるため、入力画像処理モジュール34A,34Bのどちらでもジェスチャーを認識することができる。
<About functions>
FIG. 31 is a diagram illustrating the configuration of the input
<動作手順>
図32は本実施例の入力画像処理モジュールの処理を説明するフローチャート図の一例である。
<Operation procedure>
FIG. 32 is an example of a flowchart for explaining the processing of the input image processing module of this embodiment.
まず、実施例5で説明したように、各輝度値比較部52は輝度平均値が極小値を取るフレームを決定し、フレームの全てをジェスチャー検出部58に転送する(S301)。
First, as described in the fifth embodiment, each luminance
次に、ジェスチャー検出部58Aは輝度平均値が極小値を取るフレームを他の入力画像処理モジュール34Bのジェスチャー検出部58Bに転送する(S302)。ジェスチャー検出部58Bは輝度平均値が極小値を取るフレームを他の入力画像処理モジュール34Aのジェスチャー検出部58Aに転送する。
Next, the
ジェスチャー検出部58A、58Bは、各エリアの輝度差が大きくなるフレーム(タイミング)を集計し、各エリアで極小値を取るフレームの差が予め設定した閾値C未満である場合にジェスチャー動作が検出されたと判断する(S303)。つまり、ジェスチャー検出部58A、58Bは自分の入力画像処理モジュールと他の入力画像処理モジュールの、輝度平均値が極小値を取るフレームについてそれぞれジェスチャー動作の有無を判断する。
The
<主な効果>
本実施例によれば、実施例1の効果に加え、三次元のジェスチャー切り替え動作を検出できる。
<Main effect>
According to this embodiment, in addition to the effect of the first embodiment, a three-dimensional gesture switching operation can be detected.
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above with reference to examples, the present invention is not limited to these examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.
例えば、本実施形態では不動産の内見を例にして説明したが、画像通信システム100の適用例はこれに限られない。例えば、展示会、展覧会、工場見学、観光、視察、など現地の対象を指し示す場合に適用できる。
For example, in the present embodiment, the inside view of real estate has been described as an example, but the application example of the
また、本実施形態では人間が撮像装置5で対象を撮像したが、機械やロボット、動物が指し示してもよい。
Further, in the present embodiment, a human image is taken by the
また、図11等の構成例は、画像通信システム100による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。画像通信システム100の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
Further, the configuration example shown in FIG. 11 and the like is divided according to the main functions in order to facilitate understanding of the processing by the
複数の通信管理システム80が存在してもよいし、通信管理システム80の機能が複数のサーバに分散していてもよい。画像データと音データを中継する中継装置があってもよい。
A plurality of
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.
5 撮像装置
10 端末装置
21 撮像素子
34 入力画像処理モジュール
50 露光制御部
51 輝度値記憶部
52 輝度値比較部
70 通信管理システム
100 画像通信システム
5 Image sensor 10 Terminal device 21 Image sensor 34 Input
Claims (11)
一方の撮像素子で撮像された画像データの輝度平均値に周期性がある場合、
輝度平均値に周期性がある前記画像データを合成に使用せず、他方の1つ以上の撮像素子で撮像された画像データを出力することを特徴とする撮像装置。 An image pickup device that synthesizes image data captured by a plurality of image sensors to generate image data having a wider angle than the image data captured by one image sensor.
When the average brightness of the image data captured by one of the image sensors has periodicity,
An image pickup apparatus characterized in that the image data having a periodic luminance average value is not used for synthesis, but the image data captured by the other one or more image pickup elements is output.
フレームの輝度平均値と前記輝度値記憶部に記憶されている前フレームの輝度平均値との輝度差、及び、時間的に隣接する2つの輝度差の差を計算する輝度差計算部と、
前記輝度差の差の絶対値が第一の閾値以上かどうかを判断する輝度値特徴判断部と、を有し、
前記輝度値特徴判断部は、前記第一の閾値以上の前記輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、輝度平均値に周期性があると判断することを特徴とする請求項1に記載の撮像装置。 A brightness value storage unit that stores the average brightness of the image data of each frame, and a brightness value storage unit.
A brightness difference calculation unit that calculates the brightness difference between the brightness average value of the frame and the brightness average value of the previous frame stored in the brightness value storage unit, and the difference between two temporally adjacent brightness differences.
It has a luminance value feature determination unit for determining whether or not the absolute value of the difference in luminance difference is equal to or greater than the first threshold value.
In the brightness value feature determination unit, the interval between the frame in which the difference in brightness difference equal to or greater than the first threshold value is detected and the frame in which the difference in brightness difference equal to or greater than the first threshold value is detected last time is set. The imaging device according to claim 1, wherein when the value is less than the second threshold value, it is determined that the luminance average value has periodicity.
前記第二の撮像素子で撮像された第二の画像データと、前記第一の撮像素子で撮像された第一の画像データとの第二の輝度差を計算する第二の輝度差計算部と、
時間的に隣接した2つの前記第一の輝度差の差であって前記第一の閾値以上の前記第一の輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記第一の輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、輝度平均値に周期性があると判断する第一の輝度値特徴判断部と、
時間的に隣接した2つの前記第一の輝度差の差であって第一の閾値以上の前記第二の輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記第二の輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、輝度平均値に周期性があると判断する第二の輝度値特徴判断部と、
を有することを特徴とする請求項2又は3に記載の撮像装置。 A first luminance difference calculation unit that calculates the first luminance difference between the first image data captured by the first image sensor and the second image data captured by the second image sensor.
A second luminance difference calculation unit that calculates a second luminance difference between the second image data captured by the second image sensor and the first image data captured by the first image sensor. ,
The frame in which the difference in the first luminance difference between the two temporally adjacent first luminance differences and equal to or greater than the first threshold value is detected, and the frame in which the difference in the first luminance difference equal to or greater than the first threshold value is detected, and the previous time, the said When the distance from the frame in which the difference in the first luminance difference is detected is less than the second threshold value, the first luminance value feature determination unit that determines that the average luminance value has periodicity, and the first luminance value feature determination unit.
The frame in which the difference between the two temporally adjacent first luminance differences and the difference in the second luminance difference equal to or greater than the first threshold value is detected, and the previous time, the first luminance difference equal to or greater than the first threshold value. When the distance from the frame in which the difference between the two luminance differences is detected is less than the second threshold value, the second luminance value feature determination unit that determines that the luminance average value has periodicity, and the second luminance value feature determination unit.
The imaging device according to claim 2 or 3, wherein the image pickup apparatus is characterized by having.
前記輝度値特徴判断部は、前記エリアごとに前記輝度平均値に周期性があるか否かを判断し、
1つでも周期性がある前記エリアが検出された場合、前記画像データの輝度平均値に周期性があると判断することを特徴とする請求項2又は3に記載の撮像装置。 It has an area division unit that divides the image data into a plurality of areas.
The luminance value feature determination unit determines whether or not the luminance average value has periodicity for each area, and determines whether or not the luminance average value has periodicity.
The imaging device according to claim 2 or 3, wherein when even one of the areas having periodicity is detected, it is determined that the brightness average value of the image data has periodicity.
前記輝度差計算部は、前記エリアごとに、フレームの輝度平均値、該フレームの前フレームの輝度平均値、該フレームと前フレームの輝度平均値の輝度差、及び、時間的に隣接した2つの前記輝度差の差を計算し、
前記輝度値特徴判断部は、前記エリアごとに、前記第一の閾値以上の前記輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、2つのフレーム間の中点の時刻を決定し、
各エリアの前記時刻の差が予め設定した第三の閾値未満である場合に、輝度平均値に周期性があると判断する検出部を有することを特徴とする請求項2又は3に記載の撮像装置。 It has an area division unit that divides the image data into a plurality of areas.
The brightness difference calculation unit has, for each area, the brightness average value of the frame, the brightness average value of the previous frame of the frame, the brightness difference of the brightness average value of the frame and the previous frame, and two temporally adjacent ones. Calculate the difference in brightness and
The luminance value feature determining unit detected the difference between the frame in which the difference in luminance difference equal to or greater than the first threshold value was detected and the difference in luminance difference equal to or greater than the first threshold value in the previous time for each area. If the distance from the frame is less than the second threshold, determine the time of the midpoint between the two frames and
The imaging according to claim 2 or 3, further comprising a detection unit for determining that the luminance average value has periodicity when the time difference in each area is less than a preset third threshold value. apparatus.
第一の撮像素子で撮像された第一の画像データの所定のエリアと、第二の撮像素子で撮像された第二の画像データの所定のエリアとの第一の輝度差、及び、時間的に隣接した2つの第一の輝度差の差を計算する第一の輝度差計算部と、
前記第二の撮像素子で撮像された第二の画像データの所定のエリアと、前記第一の撮像素子で撮像された第一の画像データの所定のエリアとの第二の輝度差、及び、時間的に隣接した2つの第二の輝度差の差を計算する第二の輝度差計算部と、
前記第一の閾値以上の前記第一の輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記第一の輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、輝度平均値に周期性があると判断する第一の輝度値特徴判断部と、
前記第一の閾値以上の前記第二の輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記第二の輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、輝度平均値に周期性がある第二の輝度値特徴判断部と、を有し、
前記第一の輝度値特徴判断部又は前記第二の輝度値特徴判断部が輝度平均値に周期性がある前記エリアがあると1つでも判断した場合、前記画像データの輝度平均値に周期性があると判断することを特徴とする請求項2又は3に記載の撮像装置。 An area division unit that divides the image data into a plurality of areas,
The first luminance difference between the predetermined area of the first image data captured by the first image sensor and the predetermined area of the second image data captured by the second image sensor, and the temporal period. The first luminance difference calculation unit that calculates the difference between the two first luminance differences adjacent to the
A second luminance difference between a predetermined area of the second image data captured by the second image sensor and a predetermined area of the first image data captured by the first image sensor, and A second luminance difference calculation unit that calculates the difference between two second luminance differences that are adjacent in time,
The interval between the frame in which the difference in the first luminance difference equal to or greater than the first threshold value is detected and the frame in which the difference in the first luminance difference equal to or greater than the first threshold value is detected last time is the second. If it is less than the threshold value of, the first luminance value feature determination unit that determines that the average luminance value has periodicity, and
The interval between the frame in which the difference in the second luminance difference above the first threshold value is detected and the frame in which the difference in the second luminance difference above the first threshold value is detected last time is the second. If it is less than the threshold value of, it has a second luminance value feature determination unit having periodicity in the luminance average value, and has.
When the first luminance value feature determination unit or the second luminance value feature determination unit determines that there is at least one of the areas having periodicity in the average luminance value, the average luminance value of the image data has periodicity. The imaging apparatus according to claim 2 or 3, wherein it is determined that there is.
前記エリアごとに、前記第一の閾値以上の前記輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、2つのフレーム間の中点の時刻を決定する第一の輝度値特徴判断部と、
各エリアの前記時刻の差が予め設定されている第三の閾値未満である場合に、輝度平均値に周期性があると判断する第一の検出部と、
前記エリアごとに、第二の撮像素子で撮像されたフレームの輝度平均値とその前フレームの輝度平均値との輝度差、及び、時間的に隣接した2つの輝度差の差を計算する第二の輝度差計算部と、
前記エリアごとに、前記第一の閾値以上の前記輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、2つのフレーム間の中点の時刻を決定する第二の輝度値特徴判断部と、
各エリアの前記時刻の差が予め設定されている第三の閾値未満である場合に、輝度平均値に周期性があると判断する第二の検出部と、を有し、
前記第一の検出部と前記第二の検出部は互いに各エリアの前記時刻の差を送信することを特徴とする請求項6に記載の撮像装置。 For each of the areas, the first is to calculate the brightness difference between the brightness average value of the frame imaged by the first image sensor and the brightness average value of the previous frame, and the difference between the two time-adjacent brightness differences. Luminance difference calculation unit and
For each of the areas, the interval between the frame in which the difference in luminance difference equal to or greater than the first threshold value is detected and the frame in which the difference in luminance difference equal to or greater than the first threshold value is detected last time is second. If it is less than the threshold value, the first luminance value feature determination unit that determines the time of the midpoint between the two frames, and
When the time difference in each area is less than a preset third threshold value, the first detection unit that determines that the luminance average value has periodicity, and
For each of the areas, the brightness difference between the brightness average value of the frame imaged by the second image sensor and the brightness average value of the previous frame, and the difference between the two time-adjacent brightness differences are calculated. Luminance difference calculation unit and
For each of the areas, the interval between the frame in which the difference in luminance difference equal to or greater than the first threshold value is detected and the frame in which the difference in luminance difference equal to or greater than the first threshold value is detected last time is second. If it is less than the threshold value, a second luminance value feature determination unit that determines the time of the midpoint between the two frames, and
It has a second detection unit that determines that the luminance average value has periodicity when the time difference in each area is less than a preset third threshold value.
The imaging device according to claim 6, wherein the first detection unit and the second detection unit transmit the difference in time in each area to each other.
一方の撮像素子で撮像された画像データの輝度平均値に周期性がある場合、
周期性がある前記画像データを合成に使用せず、他方の撮像素子で撮像された画像データを出力することを特徴とする画像生成方法。 This is an image generation method in which an image pickup device generates image data having a wider angle than the image data captured by one image sensor by synthesizing the image data captured by a plurality of image sensors.
When the average brightness of the image data captured by one of the image sensors has periodicity,
An image generation method characterized in that the image data having periodicity is not used for synthesis and the image data captured by the other image sensor is output.
一方の撮像素子で撮像された画像データの輝度平均値に周期性がある場合、
周期性がある前記画像データを合成に使用せず、他方の撮像素子で撮像された画像データを出力させることを特徴とするプログラム。 For an image pickup device that synthesizes image data captured by a plurality of image sensors to generate image data having a wider angle than the image data captured by one image sensor.
When the average brightness of the image data captured by one of the image sensors has periodicity,
A program characterized in that the image data having periodicity is not used for synthesis, but the image data captured by the other image sensor is output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019225855A JP7400430B2 (en) | 2019-12-13 | 2019-12-13 | Imaging device, image generation method, program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019225855A JP7400430B2 (en) | 2019-12-13 | 2019-12-13 | Imaging device, image generation method, program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021097280A true JP2021097280A (en) | 2021-06-24 |
JP7400430B2 JP7400430B2 (en) | 2023-12-19 |
Family
ID=76432232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019225855A Active JP7400430B2 (en) | 2019-12-13 | 2019-12-13 | Imaging device, image generation method, program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7400430B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003274278A (en) | 2002-03-15 | 2003-09-26 | Hitachi Kokusai Electric Inc | Television camera |
JP6426484B2 (en) | 2015-01-28 | 2018-11-21 | 京セラ株式会社 | Mobile terminal |
JP2019117330A (en) | 2017-12-27 | 2019-07-18 | 株式会社リコー | Imaging device and imaging system |
-
2019
- 2019-12-13 JP JP2019225855A patent/JP7400430B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7400430B2 (en) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7322940B2 (en) | Image communication system, image communication terminal, image communication method, program, and recording medium | |
US10721116B2 (en) | Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium | |
JP6756269B2 (en) | Communication terminals, image communication systems, communication methods, and programs | |
JP6805861B2 (en) | Image processing equipment, image processing system, image processing method and program | |
JP7400195B2 (en) | Image communication system, imaging device, communication terminal, mode switching method, program | |
JP6907861B2 (en) | Communication terminals, image communication systems, display methods, and programs | |
JP7205386B2 (en) | IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM | |
US11956547B2 (en) | Omnidirectional camera system with improved point of interest selection | |
CN116896675A (en) | Electronic device for stabilizing image and method of operating the same | |
US20200186407A1 (en) | Communication terminal, image network system, display method, and program | |
KR20190014959A (en) | Electronic device for playing movie based on movment information and operating mehtod thereof | |
KR102418852B1 (en) | Electronic device and method for controlling an image display | |
JP7017045B2 (en) | Communication terminal, display method, and program | |
EP3829159A1 (en) | Image capturing device, image communication system, and method for display control, and carrier means | |
JP7400430B2 (en) | Imaging device, image generation method, program | |
JP2018157314A (en) | Information processing system, information processing method and program | |
JPWO2017159014A1 (en) | Image processing apparatus, image processing method, and image processing system | |
US11928775B2 (en) | Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image | |
JP6992338B2 (en) | Communication system, communication management method, program, system and communication method | |
JP6816403B2 (en) | Image management system, image communication system, image management method, and program | |
KR20200098029A (en) | Screen providing method and electronic device supporting the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231027 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231120 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7400430 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |