JP2021097280A - Imaging apparatus, image creation method, and program - Google Patents

Imaging apparatus, image creation method, and program Download PDF

Info

Publication number
JP2021097280A
JP2021097280A JP2019225855A JP2019225855A JP2021097280A JP 2021097280 A JP2021097280 A JP 2021097280A JP 2019225855 A JP2019225855 A JP 2019225855A JP 2019225855 A JP2019225855 A JP 2019225855A JP 2021097280 A JP2021097280 A JP 2021097280A
Authority
JP
Japan
Prior art keywords
difference
luminance
image
brightness
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019225855A
Other languages
Japanese (ja)
Other versions
JP7400430B2 (en
Inventor
大貴 田中
Hirotaka Tanaka
大貴 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019225855A priority Critical patent/JP7400430B2/en
Publication of JP2021097280A publication Critical patent/JP2021097280A/en
Application granted granted Critical
Publication of JP7400430B2 publication Critical patent/JP7400430B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging apparatus that can control the angle of view of an image without requiring predetermined hardware.SOLUTION: An imaging apparatus 5 combines pieces of image data picked up by a plurality of image pick-up devices 21A, 21B to generate image data that has a wider angle than that of image data picked up by one image pick-up device. When the average value of the luminance of the image data picked up by one of the image pick-up devices has periodicity, the imaging apparatus does not use the image data having periodicity for composition, and outputs the image data picked up by the other of the image pick-up devices.SELECTED DRAWING: Figure 2

Description

本発明は、撮像装置、画像生成方法、及び、プログラムに関する。 The present invention relates to an image pickup apparatus, an image generation method, and a program.

魚眼レンズや超広角レンズなどの広角なレンズを複数使用して周囲360度又は全方位を一度に撮像する撮像装置が知られている。この撮像装置では、各々のレンズからの像を各撮像素子に投影し、得られる各画像を画像処理によってつなぎ合わせることで、360度画像を生成する。 There is known an imaging device that uses a plurality of wide-angle lenses such as a fisheye lens and an ultra-wide-angle lens to image a circumference of 360 degrees or all directions at once. In this image pickup apparatus, an image from each lens is projected onto each image pickup device, and the obtained images are joined by image processing to generate a 360-degree image.

このような撮像装置で撮像された映像を撮像者が提供する場合、画角が広いために所望の被写体を簡単に明示できない場合がある。つまり360度が撮像された全天球画像のどこに明示したい被写体が写っているかを閲覧者に伝えることが容易でない。 When the imager provides an image captured by such an imaging device, it may not be possible to easily specify a desired subject due to the wide angle of view. That is, it is not easy to tell the viewer where in the spherical image of the 360-degree image the subject to be clearly shown appears.

そこで、画角を狭める技術が知られている(例えば、特許文献1参照。)。特許文献1には、タッチパネルや物理ボタンの押下により、ユーザの意図したタイミングで360度撮像モードと180度撮像モードを切り替える撮像装置が開示されている。 Therefore, a technique for narrowing the angle of view is known (see, for example, Patent Document 1). Patent Document 1 discloses an imaging device that switches between a 360-degree imaging mode and a 180-degree imaging mode at a timing intended by the user by pressing a touch panel or a physical button.

しかしながら、従来の技術では、画像の画角を狭めるためのユーザの操作を受け付けるハードウェアが必要になるという問題があった。 However, the conventional technique has a problem that hardware that accepts a user's operation for narrowing the angle of view of an image is required.

本発明は、上記課題に鑑み、所定のハードウェアがなくても画像の画角を制御できる撮像装置を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an imaging device capable of controlling the angle of view of an image without a predetermined hardware.

上記課題に鑑み、本発明は、複数の撮像素子で撮像された画像データを合成して1つの撮像素子で撮像された画像データよりも広角な画像データを生成する撮像装置であって、一方の撮像素子で撮像された画像データの輝度平均値に周期性がある場合、周期性がある前記画像データを合成に使用せず、他方の撮像素子で撮像された画像データを出力することを特徴とする。 In view of the above problems, the present invention is an image pickup device that synthesizes image data captured by a plurality of image pickup elements to generate image data having a wider angle than the image data captured by one image pickup device. When the average brightness of the image data captured by the image sensor has periodicity, the characteristic is that the image data captured by the other image sensor is output without using the periodic image data for synthesis. To do.

所定のハードウェアがなくても画像の画角を制御できる撮像装置を提供することができる。 It is possible to provide an image pickup apparatus capable of controlling the angle of view of an image without a predetermined hardware.

画像通信システムの一例のユースケースを説明する図である。It is a figure explaining the use case of an example of an image communication system. 不動産物件を案内している不動産業者が任意の所定範囲を不動産店舗にいる顧客に表示させる画像通信システムの概略的な動作を説明する図である。It is a figure explaining the schematic operation of the image communication system that a real estate agent who guides a real estate property displays an arbitrary predetermined range to a customer in a real estate store. 画像通信システムの構成の概略図の一例である。This is an example of a schematic diagram of the configuration of an image communication system. 画像通信システムの別の構成の概略図の一例である。It is an example of the schematic diagram of another configuration of an image communication system. 撮像装置の断面図の一例である。This is an example of a cross-sectional view of an image pickup apparatus. 撮像装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the image pickup apparatus. 端末装置のハードウェア構成図の一例である。This is an example of a hardware configuration diagram of a terminal device. 撮像装置の使用イメージ図である。It is a use image figure of the image pickup apparatus. 撮像装置で撮像された画像から360度画像が作成されるまでの処理の概略を説明する図である(その1)。It is a figure explaining the outline of the process from the image captured by the image pickup apparatus to the creation of a 360 degree image (No. 1). 撮像装置で撮像された画像から360度画像が作成されるまでの処理の概略を説明する図である(その2)。It is a figure explaining the outline of the process from the image captured by the image pickup apparatus to the creation of a 360 degree image (No. 2). 全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。It is a figure which showed the position of the virtual camera and a predetermined area when the whole celestial sphere image is made into a three-dimensional stereoscopic sphere. 入力画像処理モジュールの機能をブロック状に示す機能ブロック図の一例である。This is an example of a functional block diagram showing the functions of the input image processing module in a block shape. 撮像装置が撮像する空間の一例を示す図である。It is a figure which shows an example of the space which an image pickup apparatus takes an image. ジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す図である。It is a figure which shows an example of the time change of the brightness average value by a gesture switching operation. 撮像装置が360度画像から180度画像に切り替える手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which an imaging device switches from a 360-degree image to a 180-degree image. 輝度値特徴記憶部の構成例を示す図である。It is a figure which shows the structural example of the luminance value characteristic storage part. ジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す図である。It is a figure which shows an example of the time change of the brightness average value by a gesture switching operation. 撮像装置が360度画像から180度画像に切り替える手順を示すフローチャート図の一例である(実施例2)。This is an example of a flowchart showing a procedure in which the imaging device switches from a 360-degree image to a 180-degree image (Example 2). 輝度値比較部の機能を示す図である(実施例3)。It is a figure which shows the function of the luminance value comparison part (Example 3). ジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す図である(実施例3)。It is a figure which shows an example of time change of the brightness average value by a gesture switching operation (Example 3). 撮像装置が360度画像から180度画像に切り替える手順を示すフローチャート図の一例である(実施例3)。This is an example of a flowchart showing a procedure in which the imaging device switches from a 360-degree image to a 180-degree image (Example 3). 画像データの分割例を示す図である。It is a figure which shows the division example of image data. 入力画像処理モジュールの構成例を示す図である(実施例4)。It is a figure which shows the configuration example of the input image processing module (Example 4). 入力画像処理モジュールの処理を説明するフローチャート図の一例である。This is an example of a flowchart for explaining the processing of the input image processing module. 入力画像処理モジュールの構成例を示す図である(実施例5)。It is a figure which shows the configuration example of the input image processing module (Example 5). ジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す図である(実施例5)。It is a figure which shows an example of the time change of the brightness average value by a gesture switching operation (Example 5). 入力画像処理モジュールの処理を説明するフローチャート図の一例である(実施例5)。This is an example of a flowchart for explaining the processing of the input image processing module (Example 5). 輝度値比較部の構成例を示す図である(実施例6)。It is a figure which shows the structural example of the luminance value comparison part (Example 6). エリア間の比較の対象を説明する図の一例である。It is an example of the figure explaining the target of comparison between areas. ジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す図である(実施例6)。It is a figure which shows an example of the time change of the brightness average value by a gesture switching operation (Example 6). 入力画像処理モジュールの処理を説明するフローチャート図の一例である(実施例6)。This is an example of a flowchart for explaining the processing of the input image processing module (Example 6). 入力画像処理モジュールの構成を説明する図の一例である(実施例7)。This is an example of a diagram for explaining the configuration of the input image processing module (Example 7). 入力画像処理モジュールの処理を説明するフローチャート図の一例である。This is an example of a flowchart for explaining the processing of the input image processing module.

以下、本発明を実施するための形態の一例として、撮像装置と撮像装置が行う画像生成方法について図面を参照しながら説明する。 Hereinafter, as an example of the embodiment for carrying out the present invention, the image pickup apparatus and the image generation method performed by the image pickup apparatus will be described with reference to the drawings.

<画像通信システムの概略>
図1は、画像通信システム100のユースケースを説明する図である。不動産物件110にいる不動産業者101は撮像装置5を把持して、360度画像を撮像しながら各部屋を移動する。撮像装置5は360度画像(動画)をリアルタイムに不動産店舗にある端末装置10Aへ送信する。端末装置10Aは受信した360度画像の所定範囲を平面デバイスであるディスプレイに表示する。
<Outline of image communication system>
FIG. 1 is a diagram illustrating a use case of the image communication system 100. The real estate agent 101 in the real estate property 110 grips the image pickup device 5 and moves in each room while capturing a 360-degree image. The image pickup device 5 transmits a 360-degree image (moving image) in real time to the terminal device 10A in the real estate store. The terminal device 10A displays a predetermined range of the received 360-degree image on a display which is a flat device.

不動産店舗にいる顧客102は、端末装置10Aを操作して360度画像を回転させる(任意の所定範囲を表示させる)ことができ、不動産店舗にいながら不動産物件の任意の方向を閲覧できる。 The customer 102 in the real estate store can operate the terminal device 10A to rotate the image 360 degrees (display an arbitrary predetermined range), and can browse any direction of the real estate property while staying in the real estate store.

不動産物件110にいる不動産業者101が部屋に設置された例えばエアコンを顧客102に見せたい場合を説明する。従来は、360度画像のどこにエアコンが写っているかを不動産業者101が音声で説明しなければならなかったが、コミュニケーションが容易でなく説明が煩わしいと感じられるおそれがあった。 The case where the real estate agent 101 in the real estate property 110 wants to show the customer 102, for example, the air conditioner installed in the room will be described. In the past, the real estate agent 101 had to explain by voice where the air conditioner was shown in the 360-degree image, but there was a risk that communication would not be easy and the explanation would be cumbersome.

そこで、本実施形態の画像通信システム100は、以下のようにして、不動産業者101が見せたい被写体を、顧客102が操作する端末装置10Aに容易に表示することを可能にする。 Therefore, the image communication system 100 of the present embodiment makes it possible to easily display the subject that the real estate agent 101 wants to show on the terminal device 10A operated by the customer 102 as follows.

図2を用いて、画像通信システム100の概略的な動作について説明する。図2は、不動産物件110にいる不動産業者101が任意の所定範囲を不動産店舗120にいる顧客102に表示させる画像通信システム100の概略的な動作を説明する図である。 The schematic operation of the image communication system 100 will be described with reference to FIG. FIG. 2 is a diagram illustrating a schematic operation of an image communication system 100 in which a real estate agent 101 in a real estate property 110 displays an arbitrary predetermined range on a customer 102 in a real estate store 120.

不動産業者101が把持する撮像装置5は360度画像を撮像できるため2つ以上の撮像素子を有している。本実施形態では主に2つの撮像素子を有する撮像装置5について説明するが、撮像素子は3以上の場合もある。撮像装置5は2つの撮像素子でそれぞれ撮像された画像データをつなぎ合わせて(合成して)360度画像を作成する。 The image pickup device 5 held by the real estate agent 101 has two or more image pickup elements because it can capture a 360-degree image. In the present embodiment, the image pickup device 5 having two image pickup elements will be mainly described, but the number of image pickup elements may be three or more. The image pickup device 5 creates a 360-degree image by stitching (synthesizing) the image data captured by the two image pickup elements.

不動産業者101が例えば顧客102をエアコン901に注目させてエアコン901について説明したい場合、不動産業者101はエアコン901とは反対側の撮像素子(写したいものが写っていない撮像素子)の前で手を周期的に動作させる。以下、この動作を「ジェスチャー切り替え動作」という。不動産業者101が撮像装置5のレンズ上を何度も通過するように手を左右(又は上下)に動かすと、周期的に輝度が変化する。片方のレンズに物体が被さる面積と検出される輝度平均値が反比例の関係にあるためである。また、例えば、手を近づける/遠ざける、手を開く/閉じるなどのジェスチャーでも同様の変化となる。 When the real estate agent 101 wants to explain the air conditioner 901 by focusing the customer 102 on the air conditioner 901, for example, the real estate agent 101 hands in front of the image sensor (the image sensor that does not show what he wants to capture) on the opposite side of the air conditioner 901. Operate periodically. Hereinafter, this operation is referred to as "gesture switching operation". When the real estate agent 101 moves his / her hand left / right (or up / down) so as to pass over the lens of the image pickup device 5 many times, the brightness changes periodically. This is because the area covered by an object on one lens and the detected brightness average value are inversely proportional to each other. In addition, for example, gestures such as moving the hand closer / away and opening / closing the hand make the same change.

図2では、エアコン901とは反対側のレンズが手のひらで周期的に遮光されている。撮像装置5は2つの撮像素子のうち少なくとも一方が検出する輝度が周期的に変化したことを検出した場合、2つの撮像素子でそれぞれ撮像された画像データの合成を行わず、輝度が変化していない方の画像データのみを不動産店舗120の端末装置10Aに送信する。本実施形態では、2つの撮像素子でそれぞれ撮像された画像データを合成すると360度(全天球)の画像が得られるので、1つの撮像素子で撮像された画像データを180度画像といい、2つの撮像素子で撮像された2つの画像データを合成したものを360度画像という。撮像装置5は次のジェスチャー切り替え動作が検出されるまで同じ状態(180度画像を出力する)を保持する。 In FIG. 2, the lens on the opposite side of the air conditioner 901 is periodically shielded from light by the palm of the hand. When the image pickup device 5 detects that the brightness detected by at least one of the two image pickup elements has changed periodically, the image data captured by the two image pickup elements is not combined and the brightness changes. Only the image data of the one that does not exist is transmitted to the terminal device 10A of the real estate store 120. In the present embodiment, a 360-degree (all-sky) image can be obtained by synthesizing the image data captured by the two image sensors, respectively. Therefore, the image data captured by one image sensor is referred to as a 180-degree image. A combination of two image data captured by two image sensors is called a 360-degree image. The image pickup device 5 maintains the same state (outputs a 180-degree image) until the next gesture switching operation is detected.

なお、撮像装置5は輝度が変化した方の画像データのみを不動産店舗120の端末装置10Aに送信してもよい。輝度が変化した方の画像データを送信するのか、輝度が変化していない方の画像データのみを送信するのかを、例えば、ユーザが使いやすい方を選択して設定できてよい。 The image pickup device 5 may transmit only the image data whose brightness has changed to the terminal device 10A of the real estate store 120. For example, the user-friendly one may be selected and set whether to transmit the image data whose brightness has changed or only the image data whose brightness has not changed.

不動産店舗120の端末装置10Aは、180度画像の全体を表示するが、不動産業者101は撮像装置5の光軸の中心にエアコン901が写るように撮像しているため、端末装置10Aのディスプレイのほぼ中央付近にエアコン901が表示される。したがって、顧客102はエアコン901が写るように表示範囲を調整する必要があまりない。 The terminal device 10A of the real estate store 120 displays the entire 180-degree image, but since the real estate agent 101 takes an image so that the air conditioner 901 is captured at the center of the optical axis of the image pickup device 5, the display of the terminal device 10A is displayed. The air conditioner 901 is displayed near the center. Therefore, the customer 102 does not need to adjust the display range so that the air conditioner 901 is captured.

このように、本実施形態の画像通信システム100は、360度画像から180度画像へ切り替えて広角な画像から任意の範囲を表示させることができる。また、タッチパネルや物理キーなど所定のハードウェア的なスイッチを使用することなく実行させることができ、直感的な操作で実現できる。したがって、不動産業者101が着目して欲しい被写体がどこあるかを説明しなくても、顧客102は不動産業者101が着目して欲しい被写体を閲覧できる。 In this way, the image communication system 100 of the present embodiment can switch from a 360-degree image to a 180-degree image and display an arbitrary range from a wide-angle image. In addition, it can be executed without using a predetermined hardware switch such as a touch panel or a physical key, and can be realized by an intuitive operation. Therefore, the customer 102 can browse the subject that the real estate agent 101 wants to pay attention to without explaining where the subject that the real estate agent 101 wants to pay attention to.

<用語について>
合成とは、二つ以上の物を合わせて1つのものにすることをいう。本実施形態では2つ以上の画像で広角な画像データを生成することをいう。
<Terminology>
Synthesis means combining two or more things into one. In the present embodiment, it means to generate wide-angle image data with two or more images.

周期性とは一定の時間をおいて同じ状況が生じることをいう。ただし、一定とは厳密である必要がない。 Periodicity means that the same situation occurs after a certain period of time. However, it does not have to be strict to be constant.

<画像通信システムの概略>
続いて、図3を用いて、本実施形態の画像通信システム100の構成の概略について説明する。図3は、本実施形態の画像通信システム100の構成の概略図である。
<Outline of image communication system>
Subsequently, the outline of the configuration of the image communication system 100 of the present embodiment will be described with reference to FIG. FIG. 3 is a schematic diagram of the configuration of the image communication system 100 of the present embodiment.

図3Aに示されているように、本実施形態の画像通信システム100は、拠点Aに配置された端末装置10Aと拠点Bに配置された撮像装置5がインターネットやセルラー回線等の通信ネットワークNを介して通信することができる。拠点Aは例えば顧客102がいる不動産店舗120であり、拠点Bは例えば内見の対象となる不動産物件110である。 As shown in FIG. 3A, in the image communication system 100 of the present embodiment, the terminal device 10A arranged at the base A and the image pickup device 5 arranged at the base B connect to a communication network N such as the Internet or a cellular line. Can communicate via. The base A is, for example, a real estate store 120 having a customer 102, and the base B is, for example, a real estate property 110 to be previewed.

撮像装置5は、上記のように、被写体や風景等を撮像して360度画像の元になる2つの180度画像を合成する特殊なデジタルカメラである。 As described above, the imaging device 5 is a special digital camera that captures a subject, a landscape, or the like and synthesizes two 180-degree images that are the basis of the 360-degree image.

端末装置10Aはビデオ会議用のアプリケーションソフトを動作させることで他の拠点と通信する汎用的な情報処理装置である。端末装置10Aは例えば、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、カーナビ、ゲーム機、PDA(Personal Digital Assistant)、ウェアラブルPC又はデスクトップPC等である。しかし、これらには限られない。 The terminal device 10A is a general-purpose information processing device that communicates with other bases by operating application software for video conferencing. The terminal device 10A is, for example, a notebook PC (Personal Computer), a mobile phone, a smartphone, a tablet terminal, a car navigation system, a game machine, a PDA (Personal Digital Assistant), a wearable PC, a desktop PC, or the like. However, it is not limited to these.

端末装置10Aは、自装置に設けられたディスプレイ720に受信した画像を表示する。 The terminal device 10A displays the received image on the display 720 provided in the own device.

また、端末装置10Aには、OpenGL ES(Open Graphics Library for Embedded Systems)がインストールされており、撮像装置5から送られて来た360度画像から所定領域画像を作成することができる。したがって、各端末装置10Aは360度画像から切り出した所定領域画像を表示できる。 In addition, OpenGL ES (Open Graphics Library for Embedded Systems) is installed in the terminal device 10A, and a predetermined area image can be created from the 360-degree image sent from the image pickup device 5. Therefore, each terminal device 10A can display a predetermined region image cut out from the 360-degree image.

拠点Aには少なくとも一人の顧客102が存在し、端末装置10Aは撮像装置5が撮像する映像(360度画像又は180度画像)をディスプレイ720に表示する。拠点Aの顧客102は、不動産業者101により切り替えられた180度画像又は360度画像を閲覧するユーザである。ただし、顧客102の人数は一例である。 At least one customer 102 exists at the base A, and the terminal device 10A displays an image (360-degree image or 180-degree image) captured by the image pickup device 5 on the display 720. The customer 102 of the base A is a user who browses a 180-degree image or a 360-degree image switched by the real estate agent 101. However, the number of customers 102 is an example.

拠点Bには、少なくとも一人の不動産業者101が存在し、撮像装置5を手に把持したり棒状部材に取り付けたりして保持している。不動産業者101は撮像装置5と共に移動することができる。不動産業者101は不動産物件110を撮像する撮像者である。ただし、不動産業者101の人数は一例である。 At the base B, at least one real estate agent 101 exists, and holds the image pickup device 5 by holding it in his hand or attaching it to a rod-shaped member. The real estate agent 101 can move together with the image pickup device 5. The real estate agent 101 is an imager who images the real estate property 110. However, the number of real estate agents 101 is an example.

次に、図3Bに示されているように、本実施形態の別の画像通信システム100は、少なくとも2つの拠点A、拠点Bに配置された各端末装置10A,10Bがインターネット等の通信ネットワークNを介して通信して、各拠点の端末装置10A,10Bが映像を共有することができる。拠点Aには撮像装置4と端末装置10Aが配置されており、拠点Bには端末装置10Bと撮像装置5が配置されている。拠点Aは例えば顧客102がいる不動産店舗120であり、拠点Bは例えば内見の対象となる不動産物件110である。 Next, as shown in FIG. 3B, in another image communication system 100 of the present embodiment, at least two bases A and terminal devices 10A and 10B arranged at the bases B are communication networks N such as the Internet. The terminal devices 10A and 10B of each base can share the video by communicating with each other. The image pickup device 4 and the terminal device 10A are arranged at the base A, and the terminal device 10B and the image pickup device 5 are arranged at the base B. The base A is, for example, a real estate store 120 having a customer 102, and the base B is, for example, a real estate property 110 to be previewed.

撮像装置5は、上記のように、被写体や風景等を撮像して360度画像の元になる2つの180度画像を合成する特殊なデジタルカメラである。一方、撮像装置4は、被写体や風景等を撮像して一般の平面画像を得るための一般のデジタルカメラである。 As described above, the image pickup device 5 is a special digital camera that captures a subject, a landscape, or the like and synthesizes two 180-degree images that are the basis of the 360-degree image. On the other hand, the image pickup device 4 is a general digital camera for capturing a subject, a landscape, or the like to obtain a general flat image.

端末装置10A,10Bはビデオ会議用のアプリケーションソフトを動作させることで他の拠点と通信する汎用的な情報処理装置である。端末装置10A、10Bは例えば、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、カーナビ、ゲーム機、PDA(Personal Digital Assistant)、ウェアラブルPC又はデスクトップPC等である。しかし、これらには限られない。 The terminal devices 10A and 10B are general-purpose information processing devices that communicate with other bases by operating application software for video conferencing. The terminal devices 10A and 10B are, for example, a notebook PC (Personal Computer), a mobile phone, a smartphone, a tablet terminal, a car navigation system, a game machine, a PDA (Personal Digital Assistant), a wearable PC, a desktop PC, or the like. However, it is not limited to these.

端末装置10Aは、自装置に設けられたディスプレイ720に映像通話の画像を表示する。端末装置10Aは、外付けされた撮像装置4で顧客102等を撮像する。 The terminal device 10A displays an image of a video call on a display 720 provided in the terminal device 10A. The terminal device 10A uses an external imaging device 4 to image the customer 102 and the like.

端末装置10Bは、自装置に設けられたディスプレイ720に映像通話の画像を表示する。端末装置10Bは、通常は自装置に設けられた後述のCMOSセンサ712(Complementary Metal Oxide Semiconductor)等で撮像するが、Wi−Fi(Wireless Fidelity)やBluetooth(登録商標)等の無線通信技術を利用して、撮像装置5で得られた360度画像を取得することができる。 The terminal device 10B displays an image of a video call on a display 720 provided in the terminal device 10B. The terminal device 10B usually takes an image with a CMOS sensor 712 (Complementary Metal Oxide Semiconductor) or the like, which will be described later, provided in the own device, but uses wireless communication technology such as Wi-Fi (Wireless Fidelity) or Bluetooth (registered trademark). Then, the 360-degree image obtained by the image pickup apparatus 5 can be acquired.

また、端末装置10A,10Bには、OpenGL ESがインストールされており、360度画像の一部の領域を示す所定領域画像を作成したり、他の端末装置10から送られて来た360度画像から所定領域画像を作成したりすることができる。したがって、各端末装置10A,10Bは360度画像から切り出した所定領域画像を表示できる。 In addition, OpenGL ES is installed in the terminal devices 10A and 10B, and a predetermined area image showing a part of the 360-degree image can be created, or a 360-degree image sent from another terminal device 10 can be created. A predetermined area image can be created from. Therefore, each of the terminal devices 10A and 10B can display a predetermined area image cut out from the 360-degree image.

拠点Aには少なくとも一人の顧客102が存在し、端末装置10Aは撮像装置5が撮像する映像(360度画像又は180度画像)及び撮像装置4が撮像する映像をディスプレイ720に表示する。拠点Aの顧客102は、不動産業者101により切り替えられた180度画像又は360度画像を閲覧するユーザである。ただし、顧客102の人数は一例である。 At least one customer 102 exists at the base A, and the terminal device 10A displays an image (360-degree image or 180-degree image) captured by the image pickup device 5 and an image captured by the image pickup device 4 on the display 720. The customer 102 of the base A is a user who browses a 180-degree image or a 360-degree image switched by the real estate agent 101. However, the number of customers 102 is an example.

拠点Bには、少なくとも一人の不動産業者101が存在し、撮像装置5を手に把持したり棒状部材に取り付けたりして保持している。不動産業者101は撮像装置5と共に移動することができる。不動産業者101は不動産物件110を撮像する撮像者である。また、端末装置10Bは、撮像装置4、5が撮像する映像をディスプレイ720に表示する。ただし、不動産業者101の人数は一例である。 At the base B, at least one real estate agent 101 exists, and holds the image pickup device 5 by holding it in his hand or attaching it to a rod-shaped member. The real estate agent 101 can move together with the image pickup device 5. The real estate agent 101 is an imager who images the real estate property 110. Further, the terminal device 10B displays the images captured by the image pickup devices 4 and 5 on the display 720. However, the number of real estate agents 101 is an example.

通信管理システム80は、端末装置10A,10Bの通信を管理及び制御する。よって、通信管理システム80は通信制御システムでもある。なお、通信管理システム80は、通信サービスを行うデータセンタやクラウドに設置されている。また、通信管理システム80は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。 The communication management system 80 manages and controls the communication of the terminal devices 10A and 10B. Therefore, the communication management system 80 is also a communication control system. The communication management system 80 is installed in a data center or cloud that provides communication services. Further, the communication management system 80 may be constructed by a single computer, or may be constructed by a plurality of computers arbitrarily assigned by dividing each unit (function, means, or storage unit).

なお、図3Bに示した、拠点数、各拠点に配置される端末装置10A,10Bの種類、撮像装置4,5の種類、及び、ユーザ(顧客と不動産業者)の人数は一例であり、本実施形態では、拠点Aと他の1つの拠点があればよいが、画像通信システム100は3つ以上の拠点で通信できる。また、拠点Aは撮像装置4を有していなくてもよく、拠点Bから送信される360度画像を表示できればよい。 The number of bases, the types of terminal devices 10A and 10B arranged at each base, the types of image pickup devices 4 and 5, and the number of users (customers and real estate agents) shown in FIG. 3B are examples. In the embodiment, it is sufficient that the base A and one other base are provided, but the image communication system 100 can communicate at three or more bases. Further, the base A does not have to have the image pickup device 4, and it is sufficient that the base A can display a 360-degree image transmitted from the base B.

<構成例>
以下、図4及び図5を参照しながら、本実施形態による撮像装置5の全体構成について説明する。図4は、本実施形態による撮像装置5の断面図である。図4に示す撮像装置5は、撮像体19と、上記撮像体19の他、制御ユニット16やバッテリ15などの部品を保持する筐体17と、上記筐体17に設けられた撮像ボタン18とを備える。
<Configuration example>
Hereinafter, the overall configuration of the image pickup apparatus 5 according to the present embodiment will be described with reference to FIGS. 4 and 5. FIG. 4 is a cross-sectional view of the image pickup apparatus 5 according to the present embodiment. The image pickup apparatus 5 shown in FIG. 4 includes an image pickup body 19, a housing 17 that holds components such as a control unit 16 and a battery 15 in addition to the image pickup body 19, and an image pickup button 18 provided on the housing 17. To be equipped.

図4に示す撮像体19は、2つの結像光学系20A,20Bと、撮像素子21A,撮像素子21Bと、を有する。撮像素子21A,21B(それぞれ第一の撮像素子、第二の撮像素子の一例)は、CCD(Charge Coupled Device)センサやCMOSセンサなどである。結像光学系20A、20Bは、例えば6群7枚の魚眼レンズとして構成される。上記魚眼レンズは、図4に示す実施形態では、180度(=360度/n;光学系の数n=2)より大きい画角を有し、好適には、190度以上の画角を有する。このような広角な結像光学系20A,20Bと撮像素子21A,21Bとを1個ずつ組み合わせたものを広角撮像光学系と称する。 The image pickup body 19 shown in FIG. 4 has two imaging optical systems 20A and 20B, and an image pickup element 21A and an image pickup element 21B. The image pickup devices 21A and 21B (an example of the first image pickup device and the second image pickup device, respectively) are a CCD (Charge Coupled Device) sensor, a CMOS sensor, and the like. The imaging optical systems 20A and 20B are configured as, for example, a fisheye lens having 7 elements in 6 groups. In the embodiment shown in FIG. 4, the fisheye lens has an angle of view larger than 180 degrees (= 360 degrees / n; the number of optical systems n = 2), and preferably has an angle of view of 190 degrees or more. A combination of such wide-angle imaging optical systems 20A and 20B and image pickup elements 21A and 21B one by one is referred to as a wide-angle imaging optical system.

2つの結像光学系20A,20Bの光学素子(レンズ、プリズム、フィルタ及び開口絞り)は、撮像素子21A,21Bに対して位置が定められる。結像光学系20A,20Bの光学素子の光軸が、対応する撮像素子21の受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように位置決めが行われる。 The optical elements (lens, prism, filter and aperture stop) of the two image pickup optical systems 20A and 20B are positioned with respect to the image pickup elements 21A and 21B. The optical axis of the optical elements of the imaging optical systems 20A and 20B is located orthogonal to the central portion of the light receiving region of the corresponding image sensor 21, and the light receiving region serves as the imaging surface of the corresponding fisheye lens. Positioning is performed so as to.

図4に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられる。撮像素子21A,21Bは、受光した光分布を画像信号に変換し、制御ユニット16に、順次、画像フレーム(フレームとは画像データのことであるが、連続した画像データのうちの1つを指す場合に使用される場合が多い)を出力する。撮像素子21A,21Bでそれぞれ撮像された画像は、合成処理されて、これにより、立体角4πステラジアンの画像(360度画像又は全天球画像)が生成される。360度画像は、撮像地点から見渡すことのできる全ての方向を撮像したものとなる。説明する実施形態では、360度画像を生成するものとして説明するが、水平面のみ360度を撮像した、いわゆるパノラマ画像であってもよく、全天球又は水平面360度の全景のうちの一部を撮像した画像であってもよい。また、360度画像は、静止画として保存することもできるし、動画として保存することもできる。 In the embodiment shown in FIG. 4, the imaging optical systems 20A and 20B have the same specifications, and are combined in opposite directions so that their optical axes match. The image pickup devices 21A and 21B convert the received light distribution into an image signal, and sequentially send an image frame to the control unit 16 (a frame is image data, but refers to one of continuous image data. Often used in cases) is output. The images captured by the image sensors 21A and 21B are combined, whereby an image having a solid angle of 4π steradian (360-degree image or spherical image) is generated. The 360-degree image is an image taken in all directions that can be seen from the imaging point. In the embodiment described, it is described as generating a 360-degree image, but it may be a so-called panoramic image in which only the horizontal plane is imaged at 360 degrees, and a part of the whole view of the whole celestial sphere or the horizontal plane of 360 degrees is taken. It may be an captured image. Further, the 360-degree image can be saved as a still image or as a moving image.

図5は、撮像装置5のハードウェア構成例を示す図である。撮像装置5は、CPU30、メインメモリ31、フラッシュROM32、魚眼レンズ14A,14B、撮像素子21A、21B、A/D変換回路33A,33B、入力画像処理モジュール34A、34B、3軸加速度センサ35、歪曲補正・画像合成モジュール36、画像コーデック37、音声コーデック38、マイク39、スピーカー40、無線通信モジュール41、メモリカードI/Fモジュール42、及び、メモリカード43を有している。 FIG. 5 is a diagram showing a hardware configuration example of the image pickup apparatus 5. The image pickup device 5 includes a CPU 30, a main memory 31, a flash ROM 32, a fisheye lens 14A, 14B, an image sensor 21A, 21B, an A / D conversion circuit 33A, 33B, an input image processing module 34A, 34B, a 3-axis acceleration sensor 35, and distortion correction. It has an image composition module 36, an image codec 37, an audio codec 38, a microphone 39, a speaker 40, a wireless communication module 41, a memory card I / F module 42, and a memory card 43.

CPU30はフラッシュROM32に記憶されているプログラムをメインメモリ31に展開して実行して撮像装置5の全体を制御する。メインメモリ31は、例えばDRAM(Dynamic Random Access Memory)であり、CPU30のワークエリアとして使用される。フラッシュROM32は、電源オン時のシステム立ち上げや撮像装置5の機能を実現するための各種プログラムを記憶する。 The CPU 30 expands and executes the program stored in the flash ROM 32 in the main memory 31 to control the entire image pickup apparatus 5. The main memory 31 is, for example, a DRAM (Dynamic Random Access Memory) and is used as a work area of the CPU 30. The flash ROM 32 stores various programs for starting the system when the power is turned on and realizing the functions of the image pickup apparatus 5.

画像コーデック37は画像データを圧縮する。音声コーデック38はマイクが集音した音声データを圧縮し、また、無線通信モジュール41から入力された音声データを伸長してスピーカー40から出力する。 The image codec 37 compresses the image data. The audio codec 38 compresses the audio data collected by the microphone, decompresses the audio data input from the wireless communication module 41, and outputs the audio data from the speaker 40.

無線通信モジュール41はセルラー回線に接続して無線で映像や音声等を送受信する。メモリカードI/Fモジュール42は装着されたメモリカード43にデータを書き込み、また、メモリカード43からデータを読み出す。 The wireless communication module 41 is connected to a cellular line to wirelessly transmit and receive video, audio, and the like. The memory card I / F module 42 writes data to the mounted memory card 43, and reads data from the memory card 43.

撮像素子21A、21Bから出力されたアナログ画像信号はA/D変換回路33A、33Bによりデジタル画像データに変換され、これらの画像データは入力画像処理モジュール34A、34Bに入力される。 The analog image signals output from the image pickup elements 21A and 21B are converted into digital image data by the A / D conversion circuits 33A and 33B, and these image data are input to the input image processing modules 34A and 34B.

入力画像処理モジュール34A、34Bは、画像データの輝度情報を利用して測光し、露光量を調整する露光制御(AE(Automatic Exposure))やRGBの割合を均一にして色の再現性をよくするためのホワイトバランス(AWB(Automatic White Balance)の処理を行っている。これらの処理を施された画像データは歪曲補正・画像合成モジュール36に入力される。 The input image processing modules 34A and 34B use the brightness information of the image data to measure light and adjust the exposure amount by adjusting the exposure control (AE (Automatic Exposure)) and making the ratio of RGB uniform to improve the color reproducibility. The white balance (AWB (Automatic White Balance)) for this purpose is processed. The image data subjected to these processes is input to the distortion correction / image composition module 36.

歪曲補正・画像合成モジュール36は、3軸加速度センサ35からの情報を利用して、2つの画像データに対して歪曲補正と共に天地補正を行って360度画像を合成する。この360度画像データは画像コーデック37で圧縮されて、無線通信(セルラー回線)により不動産店舗120にある端末装置10Aへ送信される。また、マイク39で集音された音声信号も無線通信(セルラー回線)により不動産店舗120にある端末装置10Aに送信される。 The distortion correction / image composition module 36 uses the information from the 3-axis acceleration sensor 35 to perform distortion correction and top-bottom correction on the two image data to synthesize a 360-degree image. The 360-degree image data is compressed by the image codec 37 and transmitted to the terminal device 10A in the real estate store 120 by wireless communication (cellular line). Further, the audio signal collected by the microphone 39 is also transmitted to the terminal device 10A in the real estate store 120 by wireless communication (cellular line).

図6は、端末装置10のハードウェア構成図である。図6に示されているように、端末装置10は、CPU701、ROM702、RAM703、フラッシュメモリ704、SSD705、メディアI/F707、操作ボタン708、電源スイッチ709、バスライン710、ネットワークI/F711、CMOSセンサ712、撮像素子I/F713、マイク714、スピーカー715、音入出力I/F716、ディスプレイI/F717、外部機器接続I/F718、近距離通信回路719、近距離通信回路719のアンテナ719aを備えている。これらのうち、CPU701は、端末装置全体の動作を制御する。ROM702は、IPL等のOSの起動に用いられるプログラムを記憶する。RAM703は、CPU701のワークエリアとして使用される。フラッシュメモリ704は、通信用プログラム、画像データ、及び音データ等の各種データを記憶する。SSD705は、CPU701の制御にしたがってフラッシュメモリ704に対する各種データの読み出し又は書き込みを制御する。なお、SSDに代えてHDDを用いてもよい。メディアI/F707は、フラッシュメモリ等の記録メディア706に対するデータの読み出し又は書き込み(記憶)を制御する。操作ボタン708は、端末装置10の宛先を選択する場合などに操作されるボタンである。電源スイッチ709は、端末装置10の電源のON/OFFを切り換えるためのスイッチである。 FIG. 6 is a hardware configuration diagram of the terminal device 10. As shown in FIG. 6, the terminal device 10 includes a CPU 701, a ROM 702, a RAM 703, a flash memory 704, an SSD 705, a media I / F 707, an operation button 708, a power switch 709, a bus line 710, a network I / F 711, and a CMOS. The sensor 712, the image sensor I / F713, the microphone 714, the speaker 715, the sound input / output I / F716, the display I / F717, the external device connection I / F718, the short-range communication circuit 719, and the antenna 719a of the short-range communication circuit 719 are provided. ing. Of these, the CPU 701 controls the operation of the entire terminal device. The ROM 702 stores a program used for booting an OS such as an IPL. The RAM 703 is used as a work area for the CPU 701. The flash memory 704 stores various data such as a communication program, image data, and sound data. The SSD 705 controls reading or writing of various data to the flash memory 704 according to the control of the CPU 701. An HDD may be used instead of the SSD. The media I / F 707 controls reading or writing (storage) of data to a recording medium 706 such as a flash memory. The operation button 708 is a button that is operated when selecting a destination of the terminal device 10. The power switch 709 is a switch for switching ON / OFF of the power supply of the terminal device 10.

また、ネットワークI/F711は、インターネット等の通信ネットワークNを利用してデータ通信をするためのインターフェイスである。CMOSセンサ712は、CPU701の制御にしたがって被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、CMOSセンサではなく、CCDセンサ等の撮像手段であってもよい。撮像素子I/F713は、CMOSセンサ712の駆動を制御する回路である。マイク714は、音を電気信号に変える内蔵型のデバイスである。スピーカー715は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型のデバイスである。音入出力I/F716は、CPU701の制御にしたがってマイク714及びスピーカー715との間で音信号の入出力を処理する回路である。ディスプレイI/F717は、CPU701の制御にしたがって外付けのディスプレイに画像データを送信する回路である。外部機器接続I/F718は、各種の外部機器を接続するためのインターフェイスである。近距離通信回路719は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。 Further, the network I / F711 is an interface for data communication using a communication network N such as the Internet. The CMOS sensor 712 is a kind of built-in imaging means that images a subject and obtains image data under the control of the CPU 701. It should be noted that the imaging means such as a CCD sensor may be used instead of the CMOS sensor. The image sensor I / F 713 is a circuit that controls the drive of the CMOS sensor 712. The microphone 714 is a built-in device that converts sound into an electrical signal. The speaker 715 is a built-in device that converts an electric signal into physical vibration to produce sounds such as music and voice. The sound input / output I / F 716 is a circuit that processes sound signal input / output between the microphone 714 and the speaker 715 under the control of the CPU 701. The display I / F 717 is a circuit that transmits image data to an external display under the control of the CPU 701. The external device connection I / F718 is an interface for connecting various external devices. The short-range communication circuit 719 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark).

また、バスライン710は、図6に示されているCPU701等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the bus line 710 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 701 shown in FIG.

ディスプレイ720は、被写体の画像や操作用アイコン等を表示する液晶や有機EL(Electro Luminescence)等によって構成された表示手段の一種である。また、ディスプレイ720は、ケーブルによってディスプレイI/F717に接続される。このケーブルは、アナログRGB(VGA)信号用のケーブルであってもよいし、コンポーネントビデオ用のケーブルであってもよいし、HDMI(High−Definition Multimedia Interface)(登録商標)やDVI(Digital Video Interactive)信号用のケーブルであってもよい。 The display 720 is a kind of display means composed of a liquid crystal, an organic EL (Electro Luminescence), or the like for displaying an image of a subject, an operation icon, or the like. Further, the display 720 is connected to the display I / F 717 by a cable. This cable may be a cable for analog RGB (VGA) signals, a cable for component video, HDMI (High-Definition Multimedia Interface) (registered trademark), or DVI (Digital Video Interactive). ) It may be a signal cable.

なお、CMOSセンサ712は、CPU701の制御にしたがって被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、CMOSセンサではなく、CCDセンサ等の撮像手段であってもよい。外部機器接続I/F718には、USBケーブル等によって、外付けカメラ、外付けマイク、及び外付けスピーカー等の外部機器がそれぞれ接続可能である。外付けカメラが接続された場合には、CPU701の制御にしたがって、内蔵型のCMOSセンサ712に優先して、外付けカメラが駆動する。同じく、外付けマイクが接続された場合や、外付けスピーカーが接続された場合には、CPU701の制御にしたがって、それぞれが内蔵型のマイク714や内蔵型のスピーカー715に優先して、外付けマイクや外付けスピーカーが駆動する。 The CMOS sensor 712 is a kind of built-in imaging means for capturing an image of a subject and obtaining image data under the control of the CPU 701. It should be noted that the imaging means such as a CCD sensor may be used instead of the CMOS sensor. External devices such as an external camera, an external microphone, and an external speaker can be connected to the external device connection I / F718 by a USB cable or the like. When an external camera is connected, the external camera is driven in preference to the built-in CMOS sensor 712 according to the control of the CPU 701. Similarly, when an external microphone is connected or an external speaker is connected, the external microphone takes precedence over the built-in microphone 714 and the built-in speaker 715, respectively, according to the control of the CPU 701. And an external speaker drives.

また、記録メディア706は、端末装置10に対して着脱自在な構成となっている。また、CPU701の制御にしたがってデータの読み出し又は書き込みを行う不揮発性メモリであれば、フラッシュメモリ704に限らず、EEPROM等を用いてもよい。 Further, the recording medium 706 has a structure that can be attached to and detached from the terminal device 10. Further, as long as it is a non-volatile memory that reads or writes data under the control of the CPU 701, not only the flash memory 704 but also an EEPROM or the like may be used.

<360度画像の生成方法>
次に、図7〜図9を用いて360度画像の生成方法を説明する。図7は、撮像装置5の使用イメージ図である。撮像装置5は、図7に示されているように、例えば、ユーザ(本実施形態では不動産業者)が手に持ってユーザの周りの被写体を撮像するために用いられる。この場合、図4に示されている撮像素子21A及び撮像素子21Bによって、それぞれユーザの周りの被写体が撮像されることで、2つの180度画像を得ることができる。
<How to generate a 360-degree image>
Next, a method of generating a 360-degree image will be described with reference to FIGS. 7 to 9. FIG. 7 is an image diagram of use of the image pickup apparatus 5. As shown in FIG. 7, the image pickup apparatus 5 is used, for example, for a user (a real estate agent in the present embodiment) to hold the image in his / her hand and take an image of a subject around the user. In this case, two 180-degree images can be obtained by taking an image of a subject around the user by the image sensor 21A and the image sensor 21B shown in FIG. 4, respectively.

次に、図8及び図9を用いて、撮像装置5で撮像された画像から360度画像が作成されるまでの処理の概略を説明する。なお、図8(a)は撮像装置5で撮像された180度画像(前側)、図8(b)は撮像装置5で撮像された180度画像(後側)、図8(c)は正距円筒射影図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図9(a)は正距円筒射影画像で球を被う状態を示した概念図、図9(b)は360度画像を示した図である。 Next, the outline of the process from the image captured by the image pickup apparatus 5 to the creation of the 360-degree image will be described with reference to FIGS. 8 and 9. 8 (a) is a 180-degree image (front side) captured by the image pickup device 5, FIG. 8 (b) is a 180-degree image (rear side) captured by the image pickup device 5, and FIG. 8 (c) is positive. It is a figure which showed the image represented by the equirectangular projection (hereinafter, referred to as "equirectangular projection image"). FIG. 9A is a conceptual diagram showing a state of covering a sphere in an equirectangular projection image, and FIG. 9B is a diagram showing a 360-degree image.

図8(a)に示されているように、撮像素子21Aによって得られた画像は、魚眼レンズ14Aによって湾曲した180度画像(前側)となる。また、図8(b)に示されているように、撮像素子21Bによって得られた画像は、魚眼レンズ14Bによって湾曲した180度画像(後側)となる。そして、180度画像(前側)と、180度反転された180度画像(後側)とは、撮像装置5によって合成され、図8(c)に示されているように、正距円筒射影画像が作成される。 As shown in FIG. 8A, the image obtained by the image sensor 21A is a 180-degree image (front side) curved by the fisheye lens 14A. Further, as shown in FIG. 8B, the image obtained by the image sensor 21B is a 180-degree image (rear side) curved by the fisheye lens 14B. Then, the 180-degree image (front side) and the 180-degree image (rear side) inverted 180 degrees are combined by the image pickup apparatus 5, and as shown in FIG. 8 (c), the equirectangular projection image. Is created.

そして、端末装置10においてOpenGL ESが利用されることで、図9(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図9(b)に示されているような360度画像が作成される。このように、360度画像は、正距円筒射影画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2−Dimensions)及び3D(3−Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、360度画像は、静止画であっても動画であってもよい。 Then, by using OpenGL ES in the terminal device 10, as shown in FIG. 9A, the equirectangular projection image is pasted so as to cover the spherical surface, and is shown in FIG. 9B. A 360 degree image as shown above is created. As described above, the 360-degree image is represented as an image in which the equirectangular projection image faces the center of the sphere. OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. The 360-degree image may be a still image or a moving image.

以上のように、360度画像は、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、360度画像の一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。 As described above, since the 360-degree image is an image pasted so as to cover the spherical surface, it gives a sense of discomfort to humans. Therefore, by displaying a part of a predetermined area of the 360-degree image (hereinafter, referred to as "predetermined area image") as a flat image with less curvature, it is possible to display the image without giving a sense of discomfort to humans.

図10は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。 FIG. 10 is a diagram showing the positions of a virtual camera and a predetermined area when the spherical image is a three-dimensional stereoscopic sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the image with respect to the spherical image CE displayed as a three-dimensional stereoscopic sphere.

図10に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮像領域である。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。 As shown in FIG. 10, the virtual camera IC is located inside the spherical image CE. A predetermined region T in the spherical image CE is an imaging region of the virtual camera IC. The zoom of the predetermined region T can be expressed by expanding or contracting the range (arc) of the angle of view α. Further, the zoom of the predetermined area T can be expressed by moving the virtual camera IC closer to or further away from the spherical image CE. The predetermined region image Q is an image of the predetermined region T in the spherical image CE.

<機能について>
図11(a)は、入力画像処理モジュール34A、34Bの機能をブロック状に示す機能ブロック図の一例である。入力画像処理モジュール34A、34Bの機能は同じであるものとするが一方にのみ存在する機能があってもよい。また、図11(b)は輝度値比較部52の機能を詳細に示す図である。
<About functions>
FIG. 11A is an example of a functional block diagram showing the functions of the input image processing modules 34A and 34B in a block shape. It is assumed that the functions of the input image processing modules 34A and 34B are the same, but there may be a function existing in only one of them. Further, FIG. 11B is a diagram showing in detail the function of the luminance value comparison unit 52.

入力画像処理モジュール34A、34Bは露光制御部50、輝度値記憶部51、輝度値比較部52、ホワイトバランス制御部53、ガンマ補正部54、及び、色変換部55を有している。露光制御部50は、撮像素子21A、21Bから出力され、A/D変換された画像データの輝度情報を利用して測光し、露光量を調整したり、後述する360度画像と180度画像の切り替えに関する処理を実行したりする。露光制御部50は1フレームごとに輝度平均値を算出する。 The input image processing modules 34A and 34B include an exposure control unit 50, a brightness value storage unit 51, a brightness value comparison unit 52, a white balance control unit 53, a gamma correction unit 54, and a color conversion unit 55. The exposure control unit 50 measures light using the luminance information of the image data output from the image sensors 21A and 21B and converted to A / D, adjusts the exposure amount, and adjusts the exposure amount, and the 360-degree image and the 180-degree image described later. Performs processing related to switching. The exposure control unit 50 calculates the brightness average value for each frame.

輝度値記憶部51は露光制御部50にて求められた輝度値を、時間的に後の画像データと比較するために一時的に記憶する。少なくとも周期性を判断できる程度の時間の画像データを記憶する。輝度値比較部52は輝度値記憶部51に記憶された過去の複数フレーム分の輝度値に基づいて輝度値の周期的な変化を検出する。 The brightness value storage unit 51 temporarily stores the brightness value obtained by the exposure control unit 50 in order to compare it with the image data later in time. Store image data for at least a period of time that allows the periodicity to be determined. The brightness value comparison unit 52 detects a periodic change in the brightness value based on the brightness values for a plurality of past frames stored in the brightness value storage unit 51.

ホワイトバランス制御部53は色の再現性をよくするために、RGBの割合を均一にする処理を行う。ガンマ補正部54は1フレーム分の画像全体の色合いを調整する処理を行う。色変換部55はRGBデジタル画像データについて、色差成分(Cb,Cr)と輝度成分(Y)に変換する。 The white balance control unit 53 performs a process of making the ratio of RGB uniform in order to improve the color reproducibility. The gamma correction unit 54 performs a process of adjusting the hue of the entire image for one frame. The color conversion unit 55 converts the RGB digital image data into a color difference component (Cb, Cr) and a luminance component (Y).

魚眼レンズ14A,14Bから入力される光量が変化して、入力画像処理モジュール34A、34Bに複数フレームにわたって入力される輝度平均値の変化パターンに特定の周期性を検出された場合の処理について説明する(処理内容を図13にて説明するので参照されたい)。 The processing when the amount of light input from the fisheye lenses 14A and 14B changes and a specific periodicity is detected in the change pattern of the brightness average value input to the input image processing modules 34A and 34B over a plurality of frames will be described. The processing contents will be described with reference to FIG. 13).

入力画像処理モジュール34A、34Bの露光制御部50は入力される1フレーム分の全ての画像データの輝度成分の値の平均値を求め、この輝度平均値を輝度値記憶部51に記憶する。これを複数フレーム繰り返し、輝度値記憶部51に輝度平均値を時間経過に合わせて順次保存していく。 The exposure control unit 50 of the input image processing modules 34A and 34B obtains the average value of the brightness component values of all the image data for one input frame, and stores the brightness average value in the brightness value storage unit 51. This is repeated for a plurality of frames, and the average luminance value is sequentially stored in the luminance value storage unit 51 in accordance with the passage of time.

輝度値記憶部51の処理と平行して、輝度値比較部52は輝度値記憶部51に記憶された時間的に隣接した輝度平均値の差を比較する。図11(b)に示すように、輝度値比較部52は、輝度差計算部60、輝度値特徴記憶部61、及び、輝度値特徴判断部62を有している。 In parallel with the processing of the luminance value storage unit 51, the luminance value comparison unit 52 compares the difference between the temporally adjacent luminance average values stored in the luminance value storage unit 51. As shown in FIG. 11B, the luminance value comparison unit 52 includes a luminance difference calculation unit 60, a luminance value feature storage unit 61, and a luminance value feature determination unit 62.

まず、輝度差計算部60が処理対象フレーム(現在の処理対象のフレーム)の輝度平均値とその前フレームの輝度平均値との輝度差を計算する。輝度差計算部60は、輝度値特徴記憶部61に輝度差を記憶していく。輝度値特徴判断部62は、輝度値特徴記憶部61に記憶された1つ前の輝度差と現在の輝度差との差が予め設定されている閾値A(第一の閾値の一例)以上か否かを判断する。閾値A以上の場合には、処理対象フレームのフレームナンバー(処理対象フレームが取得された時刻に相当する)を輝度値特徴記憶部61に記憶する。そして、前回、輝度差の差が閾値A以上であるとして記憶されたフレームナンバーとの間隔が(すなわち、時間の間隔が)、予め設定されている閾値B(第二の閾値の一例)未満の場合、輝度値特徴判断部62はフレームごとの輝度平均値に周期性があると判断する。 First, the luminance difference calculation unit 60 calculates the luminance difference between the luminance average value of the processing target frame (current processing target frame) and the luminance average value of the previous frame. The luminance difference calculation unit 60 stores the luminance difference in the luminance value feature storage unit 61. In the luminance value feature determination unit 62, is the difference between the previous luminance difference stored in the luminance value feature storage unit 61 and the current luminance difference equal to or greater than a preset threshold value A (an example of the first threshold value)? Judge whether or not. When the threshold value A or more is set, the frame number of the processing target frame (corresponding to the time when the processing target frame is acquired) is stored in the luminance value feature storage unit 61. Then, the interval from the frame number stored last time as the difference in brightness difference is equal to or greater than the threshold value A (that is, the time interval) is less than the preset threshold value B (an example of the second threshold value). In this case, the luminance value feature determination unit 62 determines that the luminance average value for each frame has periodicity.

そして、周期性があると判断した場合、入力画像処理モジュール34A、34Bは歪曲補正・画像合成モジュール36へジェスチャー切り替え信号を出す。また、輝度値特徴判断部62がフレームごとの輝度平均値に周期性があると再度、判断した場合、入力画像処理モジュール34A、34Bは歪曲補正・画像合成モジュール36へジェスチャー切り替え信号を出す。したがって、ユーザは同じジェスチャー切り替え動作で180度画像と360度画像を切り替えることができる(画角を制御することができる)。 Then, when it is determined that there is periodicity, the input image processing modules 34A and 34B output a gesture switching signal to the distortion correction / image composition module 36. When the luminance value feature determination unit 62 again determines that the luminance average value for each frame has periodicity, the input image processing modules 34A and 34B output a gesture switching signal to the distortion correction / image composition module 36. Therefore, the user can switch between the 180-degree image and the 360-degree image (the angle of view can be controlled) by the same gesture switching operation.

<撮像対象と撮像装置5の関係>
図12に基づいて、360度画像から180度画像に切り替える際の不動産業者101の動作と撮像装置5の処理について説明する。図12は撮像対象と撮像装置5の位置の一例を示す図である。
<Relationship between imaging target and imaging device 5>
Based on FIG. 12, the operation of the real estate agent 101 and the processing of the imaging device 5 when switching from the 360-degree image to the 180-degree image will be described. FIG. 12 is a diagram showing an example of the positions of the image pickup target and the image pickup device 5.

不動産物件を案内している不動産業者101は一脚3を持って撮像装置5で室内を撮像しながら、不動産店舗にいる顧客102に対して音声にて説明している。まず、全天球の映像を送信して顧客102に部屋全体(A空間とB空間)を見てもらうが、部屋に設置されたエアコン901の説明をする場合、360度画像におけるエアコン901の位置を説明する必要がある。 The real estate agent 101, who is guiding the real estate property, holds the monopod 3 and takes an image of the room with the image pickup device 5, and explains to the customer 102 in the real estate store by voice. First, the image of the whole celestial sphere is transmitted so that the customer 102 can see the entire room (space A and space B). When explaining the air conditioner 901 installed in the room, the position of the air conditioner 901 in the 360-degree image. Need to be explained.

このエアコン901の位置の説明を省略するために、不動産業者101は360度画像を180度画像に切り替えて、エアコン901がこの180度画像の中心付近に映るように撮像装置5の向きと傾きを調整する。 In order to omit the description of the position of the air conditioner 901, the real estate agent 101 switches the 360-degree image to the 180-degree image, and adjusts the orientation and tilt of the image pickup device 5 so that the air conditioner 901 appears near the center of the 180-degree image. adjust.

撮像素子21Aにて撮像される空間をA空間、撮像素子21Bにて撮像される空間をB空間と定義する。今、エアコン901がA空間にある場合、不動産業者101は魚眼レンズ14Aの光軸がおおよそエアコン901に向くように撮像装置5の向きと傾きを変える。そして、魚眼レンズ14Bにかざした手を何回か振ると、魚眼レンズ14Bから入力される光量が周期的に低下する。入力画像処理モジュール34Bの輝度値比較部52は周期的な低下を検出すると、歪曲補正・画像合成モジュール36へジェスチャー切り替え信号を出力する。歪曲補正・画像合成モジュール36はこのジェスチャー切り替え信号を検出すると、360度画像の合成処理を止め、入力画像処理モジュール34Aから入力される画像データについて(ジェスチャー切り替え信号を出力しない方の入力画像処理モジュール)、歪曲補正と共に天地補正を行って180度画像を生成するモードに切り替える。この180度画像は画像コーデック37にてH.264に圧縮して、無線通信モジュール41がこの画像データを、通信ネットワークN(セルラー回線等)を使用して不動産店舗120にある端末装置10Aに送信する。端末装置10Aのディスプレイには、180度画像のほぼ中心付近にエアコン901が表示される。 The space imaged by the image sensor 21A is defined as the A space, and the space imaged by the image sensor 21B is defined as the B space. Now, when the air conditioner 901 is in the A space, the real estate agent 101 changes the direction and inclination of the image pickup device 5 so that the optical axis of the fisheye lens 14A is approximately oriented toward the air conditioner 901. Then, when the hand held over the fisheye lens 14B is shaken several times, the amount of light input from the fisheye lens 14B periodically decreases. When the luminance value comparison unit 52 of the input image processing module 34B detects a periodic decrease, it outputs a gesture switching signal to the distortion correction / image composition module 36. When the distortion correction / image composition module 36 detects this gesture switching signal, the 360-degree image composition process is stopped, and the image data input from the input image processing module 34A (the input image processing module that does not output the gesture switching signal). ), Switch to the mode to generate a 180 degree image by performing top-bottom correction together with distortion correction. This 180-degree image is compressed to H.264 by the image codec 37, and the wireless communication module 41 transmits this image data to the terminal device 10A in the real estate store 120 using the communication network N (cellular line or the like). To do. On the display of the terminal device 10A, the air conditioner 901 is displayed near the center of the 180-degree image.

不動産業者101が魚眼レンズ14Bにかざした手を振ることを止めても、撮像装置5は180度画像の生成を継続する。 Even if the real estate agent 101 stops waving his hand over the fisheye lens 14B, the image pickup device 5 continues to generate a 180-degree image.

その後、不動産物件110にいる不動産業者101が魚眼レンズ14Bにかざした手を再度振ると、魚眼レンズ14Bから入力される光量が周期的に低下する。入力画像処理モジュール34Bの輝度値比較部52は周期的な低下を検出すると、歪曲補正・画像合成モジュール36へジェスチャー切替信号を出力する。 After that, when the real estate agent 101 in the real estate property 110 waved his hand over the fisheye lens 14B again, the amount of light input from the fisheye lens 14B periodically decreases. When the luminance value comparison unit 52 of the input image processing module 34B detects a periodic decrease, it outputs a gesture switching signal to the distortion correction / image composition module 36.

歪曲補正・画像合成モジュール36はこのジェスチャー切り替え信号を検出すると、現在、180度画像を生成しているので、360度画像の合成処理を再開する。そして、この360度画像はH.264に圧縮されて、無線通信モジュール41によって通信ネットワークN(セルラー回線等)を使用して不動産店舗120にある端末装置10Aへ送信される。なお、現在、180度画像を生成している場合には、魚眼レンズ14A、14Bのどちらからジェスチャー切り替え信号が送信されても、歪曲補正・画像合成モジュール36が360度画像の合成処理を再開してよい。ユーザがどちらの魚眼レンズ14A、14Bが有効かを忘れても合成処理を再開できる。 When the distortion correction / image composition module 36 detects this gesture switching signal, it is currently generating a 180-degree image, so that the 360-degree image composition process is restarted. Then, this 360-degree image is compressed to H.264 and transmitted to the terminal device 10A in the real estate store 120 by the wireless communication module 41 using the communication network N (cellular line or the like). If a 180-degree image is currently being generated, the distortion correction / image composition module 36 resumes the 360-degree image composition process regardless of whether the fisheye lens 14A or 14B transmits the gesture switching signal. Good. Even if the user forgets which fisheye lenses 14A and 14B are effective, the synthesis process can be restarted.

不動産業者101が魚眼レンズ14Aにかざした手を振った場合に、歪曲補正・画像合成モジュール36が魚眼レンズ14Bの180度画像を合成に用いることを停止してもよい。 When the real estate agent 101 waved his hand over the fisheye lens 14A, the distortion correction / image compositing module 36 may stop using the 180 degree image of the fisheye lens 14B for compositing.

ここでは撮像素子21が2つの場合を説明したが、撮像素子が3つ以上の場合、1つの撮像素子の入力画像処理モジュール34がジェスチャー切り替え信号を出力すると、歪曲補正・画像合成モジュール36は残りの2つの撮像素子21の画像データを合成する。撮像素子が4つ以上の場合も同様である。 Here, the case where there are two image sensors 21 has been described, but when there are three or more image sensors, when the input image processing module 34 of one image sensor outputs a gesture switching signal, the distortion correction / image synthesis module 36 remains. The image data of the two image sensors 21 of the above are combined. The same applies when the number of image sensors is four or more.

このように、360度画像から撮像素子21Aにて撮像される画像(概ね180度の画像)への切り替えや、360度画像から撮像素子21Bにて撮像される画像(概ね180度の画像)への切り替えをハード又はソフト的なスイッチを使用することなく、片方の魚眼レンズにかざした手を振るといった直感的な操作で実現することが可能となる。撮像素子21A、21Bにて撮像される画像(概ね180度の画像)から360度画像への切り替えも、ハード又はソフト的なスイッチを使用することなく片方の魚眼レンズにかざした手を振るといった直感的な操作で実現することが可能となる。 In this way, switching from a 360-degree image to an image captured by the image sensor 21A (approximately 180-degree image) and from a 360-degree image to an image captured by the image sensor 21B (approximately 180-degree image). It is possible to switch between the two by an intuitive operation such as waving a hand over one fisheye lens without using a hard or soft switch. Switching from images captured by the image sensors 21A and 21B (approximately 180-degree images) to 360-degree images is intuitive, such as waving your hand over one fisheye lens without using a hard or soft switch. It can be realized by various operations.

<輝度値の周期的な変化の検出>
本実施形態では、上記のように輝度値比較部52が「輝度平均値の特定の時間変化パターン」を1回以上検出した場合のみに360度画像と180度画像を切り替える。これにより、タッチパネルや物理キーなどのハードウェアが必要ないだけでなく、以下の効果も期待できる。
・一度切り替えれば、次の切り替え検出が発生するまで、撮像モード(360度画像又は180度画像を撮像するモード)がどちらであっても継続することができる。
・輝度ゆらぎ等による意図しない輝度の瞬間的な変化による切り替えを防止できる。
<Detection of periodic changes in brightness value>
In the present embodiment, the 360-degree image and the 180-degree image are switched only when the brightness value comparison unit 52 detects the “specific time change pattern of the brightness average value” one or more times as described above. As a result, not only hardware such as a touch panel and physical keys is not required, but also the following effects can be expected.
-Once switched, the imaging mode (mode for capturing a 360-degree image or a 180-degree image) can be continued until the next switching detection occurs.
-It is possible to prevent switching due to an unintended momentary change in brightness due to fluctuations in brightness.

図13は、ジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す。図13(a)は横軸を時間又はフレームナンバー、縦軸を輝度値とする散布図であり、図13(b)は輝度差の差が閾値A以上の時刻を説明する図である。 FIG. 13 shows an example of the time change of the average luminance value due to the gesture switching operation. FIG. 13A is a scatter plot in which the horizontal axis is the time or frame number and the vertical axis is the luminance value, and FIG. 13B is a diagram illustrating a time when the difference in luminance difference is equal to or greater than the threshold value A.

図13(a)に示すように、レンズ上を何度も通過するように不動産業者が手を左右(又は上下等)に動かすと、手を振る速度に応じた周期で輝度が変化する。片方のレンズに物体が被さる面積と検出される輝度平均値が反比例の関係にあるためである。また例えば、手を近づける又は遠ざける、手を開く又は閉じるなどのジェスチャーでも同様の変化となる。 As shown in FIG. 13A, when the real estate agent moves the hand left and right (or up and down, etc.) so as to pass over the lens many times, the brightness changes at a cycle corresponding to the speed of waving the hand. This is because the area covered by an object on one lens and the detected brightness average value are inversely proportional to each other. Further, for example, gestures such as moving the hand closer to or further away from the hand and opening or closing the hand cause the same change.

図13(a)では、手がレンズの上を1往復する期間に輝度が極端に小さくなる(下向きの極値を取る)タイミングが2回出現したと考えられる。輝度値特徴判断部62は、輝度が小さくなる期間Tの長さを閾値Bと比較することでジェスチャーなのか、又は、輝度ゆらぎであるのか判断可能になる。図13(b)では時刻t1〜t4で輝度差の差が閾値A以上になっている。なお、詳細には、輝度差の差が閾値A以上になっている。輝度差そのものを閾値Aと比較してもよい。また、輝度差の差が閾値A以上になるフレームの間隔(時間)が閾値B未満であると検出されたので、輝度値比較部52はジェスチャー切り替え動作を検出する。 In FIG. 13A, it is considered that the timing at which the brightness becomes extremely small (takes a downward extremum) appears twice during the period in which the hand makes one round trip over the lens. The luminance value feature determination unit 62 can determine whether it is a gesture or a luminance fluctuation by comparing the length of the period T during which the luminance becomes small with the threshold value B. In FIG. 13B, the difference in luminance difference is equal to or greater than the threshold value A at times t1 to t4. Specifically, the difference in luminance difference is equal to or greater than the threshold value A. The brightness difference itself may be compared with the threshold value A. Further, since it is detected that the frame interval (time) at which the difference in luminance difference becomes equal to or greater than the threshold value A is less than the threshold value B, the luminance value comparison unit 52 detects the gesture switching operation.

なお、輝度差の差が閾値A以上になるフレームの間隔(時間)が閾値B未満であることが2回以上検出された場合にジェスチャー切り替え動作を検出してもよい(手の往復に相当)。ジェスチャー切り替え動作でないのにジェスチャー切り替え動作を検出することを抑制できる。 The gesture switching operation may be detected when it is detected twice or more that the frame interval (time) at which the difference in luminance difference is equal to or greater than the threshold value A is less than the threshold value B (corresponding to the reciprocation of the hand). .. It is possible to suppress the detection of the gesture switching operation even though it is not the gesture switching operation.

<動作手順>
図14は、撮像装置5が360度画像から180度画像に切り替える手順を示すフローチャート図の一例である。図14の処理は撮像装置5が2つの画像データを合成して360度画像を作成している間、繰り返し実行される。
<Operation procedure>
FIG. 14 is an example of a flowchart showing a procedure in which the image pickup apparatus 5 switches from a 360-degree image to a 180-degree image. The process of FIG. 14 is repeatedly executed while the image pickup apparatus 5 synthesizes the two image data to create a 360-degree image.

入力画像処理モジュール34A、34Bの輝度値比較部52は露光制御部50が1フレームの全ての画素の輝度成分の平均値(輝度平均値)を輝度値記憶部51に記憶する(S11)。 In the brightness value comparison unit 52 of the input image processing modules 34A and 34B, the exposure control unit 50 stores the average value (luminance average value) of the brightness components of all the pixels in one frame in the brightness value storage unit 51 (S11).

次に、輝度差計算部60が処理対象フレームの輝度平均値とその前フレームの輝度平均値との輝度差を計算し、輝度値特徴記憶部61に輝度差を記憶していく(S12)。 Next, the luminance difference calculation unit 60 calculates the luminance difference between the luminance average value of the frame to be processed and the luminance average value of the previous frame, and stores the luminance difference in the luminance value feature storage unit 61 (S12).

輝度値特徴判断部62は、輝度値特徴記憶部61に記憶されている最も新しい輝度差と1つ前の輝度差の差の絶対値が閾値A以上かどうかを判断する(S13)。閾値A以上でない場合、図14の処理は終了する。 The luminance value feature determination unit 62 determines whether or not the absolute value of the difference between the latest luminance difference stored in the luminance value feature storage unit 61 and the previous luminance difference is the threshold value A or more (S13). If it is not equal to or higher than the threshold value A, the process of FIG. 14 ends.

閾値A以上の場合、輝度値特徴判断部62は処理対象フレームのフレームナンバーを輝度値特徴記憶部61に記憶する(S14)。 When the threshold value is A or more, the luminance value feature determination unit 62 stores the frame number of the frame to be processed in the luminance value feature storage unit 61 (S14).

そして、輝度値特徴判断部62は処理対象フレームのフレームナンバーと1つ前に記憶されているフレームナンバーとの差が閾値B未満か否かを判断する(S15)。フレームナンバーを比較することで時間を比較することができる。閾値B未満でない場合、図14の処理は終了する。 Then, the luminance value feature determination unit 62 determines whether or not the difference between the frame number of the frame to be processed and the frame number stored immediately before is less than the threshold value B (S15). Time can be compared by comparing frame numbers. If it is not less than the threshold value B, the process of FIG. 14 ends.

閾値B未満の場合、輝度値特徴判断部62はジェスチャー切り替え動作を検出してジェスチャー切り替え信号を出力する(S16)。 If it is less than the threshold value B, the luminance value feature determination unit 62 detects the gesture switching operation and outputs a gesture switching signal (S16).

この結果、歪曲補正・画像合成モジュール36は360度画像の合成処理を止め、もう一方の入力画像処理モジュール34(ジェスチャー切り替え動作が検出されない方)から入力される画像について180度画像を生成する(S17)。 As a result, the distortion correction / image composition module 36 stops the composition processing of the 360-degree image, and generates a 180-degree image for the image input from the other input image processing module 34 (the one in which the gesture switching operation is not detected) (the one in which the gesture switching operation is not detected). S17).

そして、画像コーデック37は180度画像をH.264に圧縮して、通信ネットワークNを使用して端末装置10Aへ送信する(S18)。 Then, the image codec 37 compresses the 180-degree image into H.264 and transmits it to the terminal device 10A using the communication network N (S18).

360度画像の生成に戻すには、同じジェスチャー切り替え動作を不動産業者が行えばよい。 To return to the 360-degree image generation, the real estate agent may perform the same gesture switching operation.

<主な効果>
本実施形態の画像通信システム100は、360度画像から180度画像へ切り替えて広角な画像から任意の範囲を表示させることができる。また、タッチパネルや物理キーなど所定のハードウェア的なスイッチを使用することなく実行させることができ、直感的な操作で実現できる。一度切り替えれば、次のジェスチャー切り替え動作が検出されるまで、撮像モードがどちらであっても継続することができる。輝度ゆらぎ等による意図しない輝度の瞬間的な変化による切り替えを防止できる。
<Main effect>
The image communication system 100 of the present embodiment can switch from a 360-degree image to a 180-degree image to display an arbitrary range from a wide-angle image. In addition, it can be executed without using a predetermined hardware switch such as a touch panel or a physical key, and can be realized by an intuitive operation. Once switched, it can continue in either imaging mode until the next gesture switching operation is detected. It is possible to prevent switching due to an unintended momentary change in brightness due to brightness fluctuation or the like.

本実施例では、輝度平均値の記憶に要する輝度値記憶部51の容量を低減できる撮像装置5について説明する。撮像装置5が複数回の周期的な輝度平均値の低下を検出した場合に、ジェスチャー切り替え動作を検出する場合、輝度値記憶部51には複数の周期分の輝度平均値が記憶される。したがって、例えば、複数回の周期的な輝度平均値の低下を検出した場合に、ジェスチャー切り替え動作を検出する場合に輝度値記憶部51の容量を低減できる。 In this embodiment, the image pickup apparatus 5 capable of reducing the capacity of the brightness value storage unit 51 required for storing the brightness average value will be described. When the image pickup apparatus 5 detects a plurality of periodic reductions in the luminance average value and detects a gesture switching operation, the luminance value storage unit 51 stores the luminance average values for the plurality of cycles. Therefore, for example, when the periodic decrease in the luminance value is detected a plurality of times, the capacity of the luminance value storage unit 51 can be reduced when the gesture switching operation is detected.

<輝度値特徴記憶部の構成について>
本実施例においては、上記の実施例にて説明した図4〜図6のハードウェア構成図、及び、図11に示した機能ブロック図を援用できるものとして説明する。
<About the configuration of the luminance value feature storage unit>
In this embodiment, the hardware configuration diagrams of FIGS. 4 to 6 and the functional block diagram shown in FIG. 11 described in the above embodiment will be described as being applicable.

図15は、本実施例の輝度値特徴記憶部61の構成例を示す図である。輝度値特徴記憶部61は特徴圧縮部70と特徴記憶部71を有する。輝度差計算部60が計算した輝度差のデータは一時的に特徴圧縮部70に蓄積され、特徴圧縮部70は輝度差を周期データに変換可能と判断できた場合には、周期データをパラメータで表す周期データパラメータを特徴記憶部71に記憶する。特徴記憶部71に記憶された周期データパラメータは輝度値記憶部51に転送される。 FIG. 15 is a diagram showing a configuration example of the luminance value feature storage unit 61 of this embodiment. The luminance value feature storage unit 61 includes a feature compression unit 70 and a feature storage unit 71. The luminance difference data calculated by the luminance difference calculation unit 60 is temporarily stored in the feature compression unit 70, and when the feature compression unit 70 can determine that the luminance difference can be converted into periodic data, the periodic data is used as a parameter. The represented periodic data parameters are stored in the feature storage unit 71. The periodic data parameters stored in the feature storage unit 71 are transferred to the luminance value storage unit 51.

<輝度平均値の周期データ>
図16は、ジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す。特徴圧縮部70は1周期前の輝度平均値を順次周期データパラメータに変換していくことで、輝度値記憶部51が保持するデータ容量を圧縮する。
<Periodic data of average brightness value>
FIG. 16 shows an example of the time change of the average luminance value due to the gesture switching operation. Feature The compression unit 70 compresses the data capacity held by the luminance value storage unit 51 by sequentially converting the luminance average value one cycle before into periodic data parameters.

図16の現在の周期301では周期性の検出を行うため、フレームごとの輝度平均値を全て保持する必要がある。しかし、1つ前を含む以前の周期302に関しては、周期性の検出が完了しているため、周期データパラメータ(輝度差が大きくなる時刻とその輝度差の値)のみを保持できればよい。これらを使うと次のように輝度値記憶部51の保持データを圧縮できる。
(i)圧縮前のデータ数
1周期のフレーム数×(輝度平均値+時間) → データ数20〜30個
(ii) 圧縮後のデータ数(周期データパラメータのデータ数)
閾値A以上の輝度差の差+この輝度差が生じた時刻)×2 → データ数 4個
<動作手順>
図17は、撮像装置5が360度画像から180度画像に切り替える手順を示すフローチャート図の一例である。図17の説明では主に図14との相違を説明する。
In the current period 301 of FIG. 16, since periodicity is detected, it is necessary to maintain all the average luminance values for each frame. However, since the periodicity detection has been completed for the previous period 302 including the previous period 302, it is sufficient that only the period data parameters (the time when the brightness difference becomes large and the value of the brightness difference) can be retained. By using these, the retained data of the luminance value storage unit 51 can be compressed as follows.
(i) Number of data before compression Number of frames in one cycle x (average brightness + time) → Number of data 20 to 30
(ii) Number of compressed data (number of periodic data parameter data)
Difference in brightness difference above threshold A + time when this brightness difference occurred) x 2 → Number of data 4 <Operation procedure>
FIG. 17 is an example of a flowchart showing a procedure in which the image pickup apparatus 5 switches from a 360-degree image to a 180-degree image. In the description of FIG. 17, the difference from FIG. 14 will be mainly described.

図17の処理ではステップS15−2が追加されている。ステップS15−2では、特徴圧縮部70が、輝度値記憶部51に蓄積されていく輝度平均値について、閾値A以上の輝度差の差とこの輝度差の差が検出された時刻(フレームナンバーでもよい)を1周期分、特徴記憶部71に記憶する。1周期分なので、(ii)のように4つのデータを記憶する。特徴記憶部71は、周期データパラメータは輝度値特徴記憶部61に転送し、輝度値特徴記憶部61に記憶されている1周期分の輝度平均値を削除する。 In the process of FIG. 17, step S15-2 is added. In step S15-2, with respect to the brightness average value accumulated in the brightness value storage unit 51, the feature compression unit 70 detects the difference in brightness difference of the threshold value A or more and the difference in brightness (even in the frame number). Good) is stored in the feature storage unit 71 for one cycle. Since it is for one cycle, four data are stored as shown in (ii). The feature storage unit 71 transfers the periodic data parameters to the luminance value feature storage unit 61, and deletes the luminance average value for one cycle stored in the luminance value feature storage unit 61.

輝度値特徴判断部62は輝度値記憶部51の周期データパラメータを参照して、例えばN周期分の周期データパラメータを検出した場合に、ジェスチャー切り替え動作を検出する(S16−2)。以降の処理は図14と同様でよい。 The luminance value feature determination unit 62 refers to the periodic data parameters of the luminance value storage unit 51, and detects, for example, a gesture switching operation when detecting periodic data parameters for N cycles (S16-2). Subsequent processing may be the same as in FIG.

<主な効果>
本実施例によれば、実施例1の効果に加え、輝度値記憶部51に記憶される輝度平均値の容量を低減することができる。
<Main effect>
According to this embodiment, in addition to the effect of the first embodiment, the capacity of the average luminance value stored in the luminance value storage unit 51 can be reduced.

本実施例では、ユーザがジェスチャー切り替え動作をしているにも関わらず、輝度平均値の周期的な変化が顕著に表れない場合でも、ジェスチャー切り替え動作の検出精度を高めることができる撮像装置5について説明する。 In the present embodiment, the image pickup device 5 capable of improving the detection accuracy of the gesture switching operation even when the periodic change of the average luminance value does not appear remarkably even though the user is performing the gesture switching operation. explain.

<輝度値比較部の構成例>
本実施例においては、実施例1にて説明した図4〜図6のハードウェア構成図、及び、図11(a)に示した入力画像処理モジュール34A、34Bの機能ブロック図を援用できるものとして説明する。
<Configuration example of brightness value comparison unit>
In this embodiment, the hardware configuration diagrams of FIGS. 4 to 6 described in the first embodiment and the functional block diagrams of the input image processing modules 34A and 34B shown in FIG. 11A can be used. explain.

図18は本実施例の輝度値比較部52の機能を示す図である。入力画像処理モジュール34Aが有する輝度値記憶部51を51A,入力画像処理モジュール34Bが有する輝度値記憶部51を51Bとする。輝度値記憶部51Aは入力画像処理モジュール34Aが生成した画像データ(第一の画像データの一例)から算出された輝度平均値を記憶する。輝度値記憶部51Bは入力画像処理モジュール34Bが生成した画像データ(第二の画像データの一例)から算出された輝度平均値を記憶する。 FIG. 18 is a diagram showing the functions of the luminance value comparison unit 52 of this embodiment. The brightness value storage unit 51 included in the input image processing module 34A is 51A, and the brightness value storage unit 51 included in the input image processing module 34B is 51B. The luminance value storage unit 51A stores the luminance average value calculated from the image data (an example of the first image data) generated by the input image processing module 34A. The luminance value storage unit 51B stores the luminance average value calculated from the image data (an example of the second image data) generated by the input image processing module 34B.

また、入力画像処理モジュール34Aの輝度値比較部52Aは、輝度差計算部60A(第一の輝度差計算部の一例)、輝度値特徴記憶部61A、及び、輝度値特徴判断部62A(第一の輝度値特徴判断部の一例)を有し、入力画像処理モジュール34Bの輝度値比較部52Bは、輝度差計算部60B(第二の輝度差計算部の一例)、輝度値特徴記憶部61B、及び、輝度値特徴判断部62B(第二の輝度値特徴判断部の一例)を有する。 Further, the luminance value comparison unit 52A of the input image processing module 34A includes a luminance difference calculation unit 60A (an example of the first luminance difference calculation unit), a luminance value feature storage unit 61A, and a luminance value feature determination unit 62A (first). The luminance value comparison unit 52B of the input image processing module 34B includes a luminance difference calculation unit 60B (an example of a second luminance difference calculation unit), a luminance value feature storage unit 61B, It also has a luminance value feature determination unit 62B (an example of a second luminance value feature determination unit).

本実施例の輝度値比較部52A,52Bが有する機能は実施例1と同様であるが、輝度差計算部60A、60Bに、他方の入力画像処理モジュール34A、34Bが出力した輝度平均値も入力される。したがって、輝度差計算部60A,60Bは自分のレンズ内の輝度差だけでなく、他方のレンズの輝度平均値と自分のレンズの輝度平均値との輝度差を算出できる。相対的な輝度差を算出することで、より詳細な輝度差の特徴の検出が可能になる。 The functions of the luminance value comparison units 52A and 52B of this embodiment are the same as those of the first embodiment, but the luminance average values output by the other input image processing modules 34A and 34B are also input to the luminance difference calculation units 60A and 60B. Will be done. Therefore, the brightness difference calculation units 60A and 60B can calculate not only the brightness difference in the own lens but also the brightness difference between the brightness average value of the other lens and the brightness average value of the own lens. By calculating the relative luminance difference, it becomes possible to detect the feature of the luminance difference in more detail.

<輝度平均値の周期データ>
図19は、ジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す。図19にはユーザがジェスチャー切り替え動作をしている方のレンズからの輝度平均値310A(「○」で表す)の時間変化と合わせて、同時刻に取得した他方のレンズからの輝度平均値310B(「△」で表す)の時間変化も表示されている。輝度平均値の変化が大きい方が、ジェスチャー切り替え動作が行われたレンズの輝度平均値310Aであり、小さい方が、ジェスチャー切り替え動作が行われていないレンズの輝度平均値310Bである。
<Periodic data of average brightness value>
FIG. 19 shows an example of the time change of the average luminance value due to the gesture switching operation. In FIG. 19, the average brightness value 310B from the other lens acquired at the same time together with the time change of the average brightness value 310A (represented by “○”) from the lens in which the user is performing the gesture switching operation. The time change (represented by "△") is also displayed. The larger change in the average brightness value is the average brightness value 310A of the lens on which the gesture switching operation is performed, and the smaller change is the average brightness value 310B of the lens on which the gesture switching operation is not performed.

輝度値比較部52は相対的な視点から輝度平均値の時間変化を見ることで、実施例1では見られなかった周期性を検出可能にする。輝度差計算部60A,60Bは、実施例1の輝度差の計算に加え、同時刻の輝度平均値310Aと輝度平均値310Bの輝度差を算出する。輝度差に基づく周期性の判断方法は実施例1と同様でよい。 The brightness value comparison unit 52 makes it possible to detect periodicity not seen in the first embodiment by observing the time change of the brightness average value from a relative viewpoint. In addition to the calculation of the luminance difference of the first embodiment, the luminance difference calculation units 60A and 60B calculate the luminance difference between the luminance average value 310A and the luminance average value 310B at the same time. The method for determining the periodicity based on the brightness difference may be the same as in the first embodiment.

図19では、時刻t1〜t4で、輝度平均値310Aと輝度平均値310Bの輝度差の差が閾値A以上となっている。 In FIG. 19, at times t1 to t4, the difference in luminance difference between the average luminance value 310A and the average luminance value 310B is equal to or greater than the threshold value A.

<動作手順>
図20は、撮像装置5が360度画像から180度画像に切り替える手順を示すフローチャート図の一例である。図20の説明では主に図14との相違を説明する。
<Operation procedure>
FIG. 20 is an example of a flowchart showing a procedure in which the image pickup apparatus 5 switches from a 360-degree image to a 180-degree image. In the description of FIG. 20, the difference from FIG. 14 will be mainly described.

まず、ステップS12−2において、輝度差計算部60A、60Bが処理対象フレームの輝度平均値とその前フレームの輝度平均値との輝度差を計算し、輝度値特徴記憶部61に輝度差の差I(第一の輝度差の差の一例)を記憶していく(同じ入力画像処理モジュール34A、34B内の比較)。また、輝度差計算部60Aは処理対象フレームと同時刻に入力画像処理モジュール34Bが出力した輝度平均値との輝度差の差II(第二の輝度差の差の一例)を計算し、輝度差計算部60Bは処理対象フレームと同時刻に入力画像処理モジュール34Aが出力した輝度平均値との輝度差の差IIを計算する(入力画像処理モジュール34Aと34Bの比較)。 First, in step S12-2, the brightness difference calculation units 60A and 60B calculate the brightness difference between the brightness average value of the frame to be processed and the brightness average value of the previous frame, and the difference in brightness difference in the brightness value feature storage unit 61. I (an example of the difference in the first luminance difference) is stored (comparison in the same input image processing modules 34A and 34B). Further, the luminance difference calculation unit 60A calculates the luminance difference II (an example of the second luminance difference difference) from the luminance average value output by the input image processing module 34B at the same time as the frame to be processed, and the luminance difference. The calculation unit 60B calculates the difference II of the brightness difference from the brightness average value output by the input image processing module 34A at the same time as the processing target frame (comparison between the input image processing modules 34A and 34B).

そして、ステップS13〜S15では、輝度差の差I、輝度差の差IIについて同じように、閾値A、閾値Bとの比較を行う(S13〜S15)。 Then, in steps S13 to S15, the difference I in the brightness difference and the difference II in the brightness difference are similarly compared with the threshold values A and B (S13 to S15).

そして、輝度差の差I、輝度差の差IIのどちらか一方で、閾値A、閾値Bとの比較が基準を満たす場合、輝度値比較部52はジェスチャー切り替え動作を検出する(S16)。以降の処理は実施例1と同様でよい。 Then, when the comparison with the threshold value A and the threshold value B satisfies the criteria for either the difference I in the brightness difference or the difference II in the brightness difference, the brightness value comparison unit 52 detects the gesture switching operation (S16). Subsequent processing may be the same as in Example 1.

<主な効果>
本実施例によれば、実施例1の効果に加え、ユーザがジェスチャー切り替え動作をしているにも関わらず、輝度平均値の周期的な変化が顕著に表れない場合でも、ジェスチャー切り替え動作の検出精度を高めることができる。
<Main effect>
According to this embodiment, in addition to the effect of the first embodiment, the gesture switching operation is detected even when the periodic change of the average luminance value does not appear remarkably even though the user is performing the gesture switching operation. The accuracy can be improved.

本実施例では、ユーザのジェスチャー位置がレンズの中心から外れていた場合にもジェスチャー切り替え動作を検出できる撮像装置5について説明する。本実施例では、画像データを分割したエリアごとに輝度平均値の時間変化の周期性を判断する。例えば、画像データを4分割する場合には、撮像装置5は輝度値記憶部51と輝度値比較部52を4つずつ有することになる。 In this embodiment, the image pickup device 5 capable of detecting the gesture switching operation even when the gesture position of the user is off the center of the lens will be described. In this embodiment, the periodicity of the time change of the average brightness value is determined for each area in which the image data is divided. For example, when the image data is divided into four, the image pickup apparatus 5 has four luminance value storage units 51 and four luminance value comparison units 52.

<分割例>
図21は画像データの分割例を示す図である。図21では画像データは中心を通る水平線と垂直線で4つのエリア320に分割されている。中心から等角度で分割してもよいし、エリアごとに異なる形状で分割してもよい。また、エリア320は2つ以上あればよく、4つは一例に過ぎない。
<Division example>
FIG. 21 is a diagram showing an example of dividing image data. In FIG. 21, the image data is divided into four areas 320 by a horizontal line and a vertical line passing through the center. It may be divided at an equal angle from the center, or it may be divided into different shapes for each area. Further, it is sufficient that there are two or more areas 320, and four are only examples.

<機能について>
図22は、本実施例の入力画像処理モジュール34A、34Bの構成例を示す図である。入力画像処理モジュール34A、34Bは画像データを分割して処理を行うため、輝度値記憶部51と輝度値比較部52を分割した数だけ有する。更に、画像データを各エリアに分割する輝度エリア分割部56と、ジェスチャー切り替え動作が検出されたエリアの比較結果を選択して歪曲補正・画像合成モジュール36に出力する有効輝度エリア選択部57を有する。
<About functions>
FIG. 22 is a diagram showing a configuration example of the input image processing modules 34A and 34B of this embodiment. Since the input image processing modules 34A and 34B divide the image data and perform processing, the input image processing modules 34A and 34B have the number of the luminance value storage unit 51 and the luminance value comparison unit 52 divided. Further, it has a luminance area dividing unit 56 that divides image data into each area, and an effective luminance area selecting unit 57 that selects the comparison result of the area in which the gesture switching operation is detected and outputs it to the distortion correction / image composition module 36. ..

なお、輝度値比較部52の機能は実施例1の図11(b)と同様でよい。 The function of the luminance value comparison unit 52 may be the same as that of FIG. 11B of the first embodiment.

<動作について>
図23は本実施例の入力画像処理モジュールの処理を説明するフローチャート図の一例である。
<About operation>
FIG. 23 is an example of a flowchart for explaining the processing of the input image processing module of this embodiment.

まず、輝度エリア分割部56はガンマ補正等が終わった入力画像(画像データ)を受け取り、設定されている数のエリアに分割する(S101)。エリアの数は任意でよいが例えば2つ以上であればよい。また、エリアの形状は元の画像データに相似形の矩形の他、中心から等間隔で分割された形状、又は不定形でもよい。各エリアの面積は同じでなくてよい。 First, the luminance area dividing unit 56 receives the input image (image data) for which gamma correction and the like have been completed, and divides the input image (image data) into a set number of areas (S101). The number of areas may be arbitrary, but may be, for example, two or more. Further, the shape of the area may be a rectangle similar to the original image data, a shape divided at equal intervals from the center, or an indeterminate shape. The area of each area does not have to be the same.

次に、露光制御部50は、分割したエリアごとに輝度平均値を計算する(S102)。 Next, the exposure control unit 50 calculates the brightness average value for each divided area (S102).

次に、露光制御部50は、エリアに対応する複数の輝度値記憶部51にそれぞれの輝度平均値を転送する(S103)。 Next, the exposure control unit 50 transfers each brightness average value to a plurality of brightness value storage units 51 corresponding to the area (S103).

輝度値比較部52は、実施例1と同様の方法で、エリアごとにジェスチャー切り替え動作を検出する(S104)。すなわち、各エリアの輝度値比較部52が図14のステップS12〜S15を実行する。エリアごとにジェスチャー切り替え動作を検出するので、ユーザの手がレンズの中心から離れていても、ジェスチャー切り替え動作を検出しやすくなる。 The brightness value comparison unit 52 detects the gesture switching operation for each area in the same manner as in the first embodiment (S104). That is, the brightness value comparison unit 52 in each area executes steps S12 to S15 of FIG. Since the gesture switching motion is detected for each area, it becomes easy to detect the gesture switching motion even if the user's hand is away from the center of the lens.

各輝度値比較部52はエリアごとの比較結果をそれぞれ有効輝度エリア選択部57に転送する(S105)。この比較結果は、エリアの識別情報に対応付けられたジェスチャー切り替え動作の検出結果の有無である。 Each luminance value comparison unit 52 transfers the comparison result for each area to the effective luminance area selection unit 57 (S105). This comparison result is the presence or absence of the detection result of the gesture switching operation associated with the area identification information.

有効輝度エリア選択部57は1つでもジェスチャー切り替え動作が検出されたエリアがあれば(S106)、ユーザがジェスチャー動作を行ったと判断する(S107)。以降の処理は実施例1の図14と同様でよい。 If there is even one area in which the gesture switching operation is detected (S106), the effective luminance area selection unit 57 determines that the user has performed the gesture operation (S107). Subsequent processing may be the same as in FIG. 14 of Example 1.

<主な効果>
本実施例によれば、実施例1の効果に加え、ユーザのジェスチャー位置がレンズの中心から外れていた場合にもジェスチャー切り替え動作を検出できる。
<Main effect>
According to this embodiment, in addition to the effect of the first embodiment, the gesture switching operation can be detected even when the gesture position of the user is off the center of the lens.

本実施例では実施例1〜4とは異なるジェスチャー切り替え動作を検出できる撮像装置5について説明する。例えば、ユーザが円を描くようにレンズに手をかざした場合でも撮像装置5がジェスチャー切り替え動作を検出できる。 In this embodiment, an imaging device 5 capable of detecting a gesture switching operation different from that of the first to fourth embodiments will be described. For example, the image pickup device 5 can detect the gesture switching operation even when the user holds his / her hand over the lens in a circular motion.

<機能について>
図24は、本実施例の入力画像処理モジュール34A,34Bの機能を示す図の一例である。本実施例では画像データを分割して処理を行うため、入力画像処理モジュール34A,34Bは分割した数だけの輝度値記憶部51と輝度値比較部52を有している。更に、輝度の平均値を求めるエリアに画像データを分割するための輝度エリア分割部56と、複数の輝度値比較部52のフレームごとの輝度差の変化からジェスチャーを検知して歪曲補正・画像合成モジュール36に出力するジェスチャー検出部58を有する。ジェスチャー検出部58は、輝度値比較部52のフレームごとの輝度差の変化を各輝度値比較部52から取得して、各エリアの輝度差の変化からジェスチャー切り替え動作を検出する。
<About functions>
FIG. 24 is an example of a diagram showing the functions of the input image processing modules 34A and 34B of this embodiment. In this embodiment, since the image data is divided and processed, the input image processing modules 34A and 34B have the luminance value storage unit 51 and the luminance value comparison unit 52 for the number of the divided images. Further, the brightness area dividing unit 56 for dividing the image data into the area for obtaining the average value of the brightness and the gesture is detected from the change in the brightness difference for each frame of the plurality of brightness value comparison units 52 to correct the distortion and synthesize the image. It has a gesture detection unit 58 that outputs to the module 36. The gesture detection unit 58 acquires the change in the brightness difference for each frame of the brightness value comparison unit 52 from each brightness value comparison unit 52, and detects the gesture switching operation from the change in the brightness difference in each area.

なお、輝度値比較部52の機能は実施例1の図11(b)と同様でよい。 The function of the luminance value comparison unit 52 may be the same as that of FIG. 11B of the first embodiment.

<ジェスチャー切り替え動作と各エリアの輝度差の変化>
図25は本実施例の各エリアの輝度差の変化を模式的に示す図である。図25では元の画像データが4つに分割されたものとして説明する。また、ユーザはレンズ上で時計回りに円を描くように手を移動させている。画像データの中心を通る直線で4分割した場合、図25(a)は左上の画像データの輝度平均値であり、図25(b)は右上の画像データの輝度平均値であり、図25(c)は右下の画像データの輝度平均値であり、図25(d)は左下の画像データの輝度平均値である。時計回りなので、ユーザの手は、左上→右上→右下→左下の順に移動する。
<Gesture switching operation and change in brightness difference in each area>
FIG. 25 is a diagram schematically showing a change in brightness difference in each area of this embodiment. In FIG. 25, the original image data will be described as being divided into four parts. Also, the user is moving his hand in a clockwise circle on the lens. When divided into four by a straight line passing through the center of the image data, FIG. 25 (a) is the brightness average value of the upper left image data, and FIG. 25 (b) is the brightness average value of the upper right image data. c) is the brightness average value of the lower right image data, and FIG. 25 (d) is the brightness average value of the lower left image data. Since it is clockwise, the user's hand moves in the order of upper left → upper right → lower right → lower left.

図25を見ると分かるように、輝度平均値が小さい部分(下向きピーク)が、左上→右上→右下→左下の順に時間的に遅い方に移動している。すなわち、各エリアの輝度平均値を比較すると周期性があることが分かる。ジェスチャー検出部58は図25の周期性を検出した場合に、ジェスチャー切り替え動作が検出されたと判断する。 As can be seen from FIG. 25, the portion where the average luminance value is small (downward peak) moves to the later side in the order of upper left → upper right → lower right → lower left. That is, when comparing the average brightness values of each area, it can be seen that there is periodicity. When the gesture detection unit 58 detects the periodicity shown in FIG. 25, it determines that the gesture switching operation has been detected.

各エリアに対応した輝度値特徴判断部62は、輝度差の差が閾値A以上となる2つのフレーム間の中点Pを、輝度が最も小さくなるフレームに決定する。なお、中点Pは閾値A以上となる2つのタイミングの差が閾値B未満であることが条件となっている。そして、ジェスチャー検出部58は4つのエリアの輝度が最も小さくなるフレーム(各エリアの中点P)に基づいて周期性を確認する。 The luminance value feature determination unit 62 corresponding to each area determines the midpoint P between the two frames in which the difference in luminance difference is equal to or greater than the threshold value A as the frame having the smallest luminance. The midpoint P is conditioned on the condition that the difference between the two timings that are equal to or higher than the threshold value A is less than the threshold value B. Then, the gesture detection unit 58 confirms the periodicity based on the frame (midpoint P of each area) where the brightness of the four areas is the smallest.

図25(e)は各エリアで輝度が最も小さくなるフレームf1〜f5(時刻t1〜t5でもよい)の間隔を示す。ジェスチャー検出部58はf1とf2の間隔とf2とf3の間隔の差、f2とf3の間隔のとf3とf4の間隔の差、f3とf4の間隔とf4とf5の間隔の差、がそれぞれ閾値C(第三の閾値の一例)未満の場合、エリアの輝度平均値に周期性があると判断し、ジェスチャー切り替え動作を検出する。 FIG. 25 (e) shows the intervals of frames f1 to f5 (time t1 to t5 may be used) in which the brightness is the smallest in each area. The gesture detection unit 58 has a difference between the distance between f1 and f2 and a distance between f2 and f3, a difference between the distance between f2 and f3 and a difference between f3 and f4, and a difference between the distance between f3 and f4 and the distance between f4 and f5. If it is less than the threshold C (an example of the third threshold), it is determined that the average brightness of the area has periodicity, and the gesture switching operation is detected.

<動作手順>
図26は本実施例の入力画像処理モジュールの処理を説明するフローチャート図の一例である。
<Operation procedure>
FIG. 26 is an example of a flowchart for explaining the processing of the input image processing module of this embodiment.

まず、輝度エリア分割部56が入力画像(元の画像データ)をエリアに分割する(S201)。 First, the luminance area dividing unit 56 divides the input image (original image data) into areas (S201).

次に、露光制御部50が分割されたエリアごとに輝度平均値を計算する(S202)。 Next, the exposure control unit 50 calculates the brightness average value for each divided area (S202).

次に、露光制御部50がエリアに対応する複数の輝度値記憶部51にそれぞれの輝度平均値を記憶する(S203)。 Next, the exposure control unit 50 stores the respective brightness average values in the plurality of brightness value storage units 51 corresponding to the areas (S203).

次に、各エリアに対応する輝度値比較部52が輝度値記憶部51に記憶された輝度平均値に対し、実施例1と同様の方法で輝度平均値が極小値を取るフレームを決定する(S204)。すなわち、各エリアの輝度値比較部52が図14のステップS12〜S15を実行し、輝度差の差が閾値A以上となる2つのタイミングであってタイミングの差が閾値B未満のタイミングの中点P(又は中点Pに最も近いフレーム若しくは時刻)を決定する。 Next, the brightness value comparison unit 52 corresponding to each area determines a frame in which the brightness average value takes the minimum value with respect to the brightness average value stored in the brightness value storage unit 51 in the same manner as in the first embodiment (the same method as in the first embodiment). S204). That is, the brightness value comparison unit 52 in each area executes steps S12 to S15 in FIG. 14, and is a midpoint between two timings in which the difference in brightness is equal to or greater than the threshold value A and the difference in timing is less than the threshold value B. Determine P (or the frame or time closest to the midpoint P).

次に、各輝度値比較部52は輝度平均値が極小値を取るフレームを全てジェスチャー検出部58に転送する(S205)。 Next, each luminance value comparison unit 52 transfers all the frames having the minimum luminance average value to the gesture detection unit 58 (S205).

次に、ジェスチャー検出部58は、各エリアの輝度平均値が極小値を取るフレーム(タイミング)を集計し、各エリアで極小値を取るフレームの差が予め設定した閾値C未満である場合にジェスチャー動作が検出されたと判断する(S206)。 Next, the gesture detection unit 58 aggregates the frames (timing) in which the average brightness value of each area takes the minimum value, and makes a gesture when the difference between the frames taking the minimum value in each area is less than the preset threshold value C. It is determined that the operation has been detected (S206).

<主な効果>
本実施例によれば、実施例1の効果に加え、ユーザが円を描くようにレンズに手をかざした場合でも撮像装置5がジェスチャー切り替え動作を検出できる。
<Main effect>
According to this embodiment, in addition to the effect of the first embodiment, the image pickup device 5 can detect the gesture switching operation even when the user holds his / her hand over the lens in a circular motion.

本実施例では、ユーザのジェスチャー位置がレンズの中心から外れていた場合、かつ、輝度平均値の時間変化が顕著に表れない場合の精度を高めることができる撮像装置5について説明する。 In this embodiment, the image pickup device 5 that can improve the accuracy when the gesture position of the user is off the center of the lens and the time change of the average luminance value does not appear remarkably will be described.

<機能について>
まず、入力画像処理モジュール34A,34Bの構成は実施例4の図22と同様であるとする。したがって、本実施例でも両レンズそれぞれの画像データを同様に分割する。
<About functions>
First, it is assumed that the configurations of the input image processing modules 34A and 34B are the same as those in FIG. 22 of the fourth embodiment. Therefore, in this embodiment as well, the image data of each of the two lenses is divided in the same manner.

図27は、本実施例の輝度値比較部52の構成例を示す図である。輝度値比較部52の構成は実施例3の図18と同様とする。すなわち、輝度差計算部60A、60Bに、他方の入力画像処理モジュール34A、34Bが出力した輝度平均値も入力される。更に、入力される輝度平均値はエリアごとに算出されている。したがって、輝度差計算部60A,60Bは自分のレンズ内のエリアごとの輝度差だけでなく、他方のレンズの輝度平均値と自分のレンズの輝度平均値との輝度差をエリアごとに算出できる。相対的な輝度差を算出することで、より詳細な輝度差の特徴の検出が可能になる。 FIG. 27 is a diagram showing a configuration example of the brightness value comparison unit 52 of this embodiment. The configuration of the luminance value comparison unit 52 is the same as that of FIG. 18 of the third embodiment. That is, the brightness average value output by the other input image processing modules 34A and 34B is also input to the brightness difference calculation units 60A and 60B. Further, the input luminance average value is calculated for each area. Therefore, the brightness difference calculation units 60A and 60B can calculate not only the brightness difference for each area in the own lens but also the brightness difference between the brightness average value of the other lens and the brightness average value of the own lens for each area. By calculating the relative luminance difference, it becomes possible to detect the feature of the luminance difference in more detail.

1つの画像データが4つに分割される場合、入力画像処理モジュール34A,34B間の比較の組み合わせは4×4=16あるが、本実施例では、両レンズの点対称に位置するエリア同士を全て比較するものとする。 When one image data is divided into four, there are 4 × 4 = 16 comparison combinations between the input image processing modules 34A and 34B, but in this embodiment, the areas located in point symmetry of both lenses are separated from each other. All shall be compared.

図28は比較の対象を説明する図の一例である。図28(a)は入力画像処理モジュール34Aの画像データAであり、図28(b)は入力画像処理モジュール34Bの画像データBである。したがって、輝度値特徴判断部62は、以下の組み合わせで輝度平均値を比較する。
・画像データAのエリア1と点対称なのは画像データBのエリア3
・画像データAのエリア2と点対称なのは画像データBのエリア4
・画像データAのエリア3と点対称なのは画像データBのエリア1
・画像データAのエリア4と点対称なのは画像データBのエリア2
こうすることで、手の位置の影響を受けている画像データのエリアと手の位置の影響を受けにくい画像データのエリアの輝度平均値を比較できる。なお、線対称な関係にあるエリア同士を比較してもよい。
FIG. 28 is an example of a diagram illustrating an object of comparison. FIG. 28A is the image data A of the input image processing module 34A, and FIG. 28B is the image data B of the input image processing module 34B. Therefore, the luminance value feature determination unit 62 compares the luminance average values with the following combinations.
-Area 3 of image data B is point-symmetrical to area 1 of image data A.
-Area 4 of image data B is point-symmetrical to area 2 of image data A.
-Area 1 of image data B is point-symmetrical with area 3 of image data A.
-Area 2 of image data B is point-symmetrical to area 4 of image data A.
By doing so, it is possible to compare the brightness average value of the image data area affected by the hand position and the image data area less affected by the hand position. Areas having a line-symmetrical relationship may be compared with each other.

なお、図28の比較の対称は一例に過ぎず、画像データAのエリア1と画像データBのエリア1〜4のいずれか、画像データAのエリア2と画像データBのエリア1〜4のいずれか、画像データAのエリア3と画像データBのエリア1〜4のいずれか、画像データAのエリア4と画像データBのエリア1〜4のいずれか、を比較してもよい。 The symmetry of the comparison in FIG. 28 is only an example, and any of the areas 1 of the image data A and the areas 1 to 4 of the image data B, and any of the areas 2 of the image data A and the areas 1 to 4 of the image data B. Alternatively, either the area 3 of the image data A and the areas 1 to 4 of the image data B, or any of the areas 4 of the image data A and the areas 1 to 4 of the image data B may be compared.

<ジェスチャー切り替え動作と各エリアの輝度差の変化>
図29はジェスチャー切り替え動作による輝度平均値の時間変化の一例を示す図である。図29(a)は例えば入力画像処理モジュール34Aの左上のエリアの輝度平均値であり、図29(b)は右上のエリアの輝度平均値であり、図29(c)は右下のエリアの輝度平均値であり、図29(d)は左下のエリアの輝度平均値である。各エリアの輝度平均値が「○」で示され、比較対象の入力画像処理モジュール34Bの輝度平均値が「△」で表示されている。
<Gesture switching operation and change in brightness difference in each area>
FIG. 29 is a diagram showing an example of a time change of the average luminance value due to the gesture switching operation. FIG. 29 (a) is, for example, the brightness average value of the upper left area of the input image processing module 34A, FIG. 29 (b) is the brightness average value of the upper right area, and FIG. 29 (c) is the brightness average value of the lower right area. It is the brightness average value, and FIG. 29 (d) is the brightness average value of the lower left area. The average luminance value of each area is indicated by “◯”, and the average luminance value of the input image processing module 34B to be compared is indicated by “Δ”.

輝度値特徴判断部62A、62Bは、他方のレンズの輝度平均値との輝度差の差が閾値A以上のフレームを特定し、このフレームが閾値B未満の間隔で検出された場合にジェスチャー切り替え動作を検出する。図29(a)では左上のエリアの輝度平均値で周期性が検出される。各エリアに対応した輝度値特徴判断部62A、62Bはジェスチャー切り替え動作を検出した旨を有効輝度エリア選択部57に出力する。有効輝度エリア選択部57は1つでもジェスチャー切り替え動作が検出されたエリアがあれば、ユーザがジェスチャー動作を行ったと判断する。 The luminance value feature determination units 62A and 62B identify a frame in which the difference in luminance difference from the average luminance value of the other lens is equal to or greater than the threshold value A, and when this frame is detected at intervals less than the threshold value B, a gesture switching operation is performed. Is detected. In FIG. 29 (a), the periodicity is detected by the average luminance value in the upper left area. The brightness value feature determination units 62A and 62B corresponding to each area output to the effective brightness area selection unit 57 that the gesture switching operation has been detected. The effective luminance area selection unit 57 determines that the user has performed the gesture operation if there is even one area in which the gesture switching operation is detected.

<動作手順>
図30は本実施例の入力画像処理モジュールの処理を説明するフローチャート図の一例である。なお、図30の説明では主に図23との相違を説明する。
<Operation procedure>
FIG. 30 is an example of a flowchart for explaining the processing of the input image processing module of this embodiment. In the description of FIG. 30, the difference from FIG. 23 will be mainly described.

図30ではステップS103−2において、露光制御部50は、エリアに対応する複数の輝度値記憶部51にそれぞれの輝度平均値を転送し、他方のレンズの点対称な位置のエリアの輝度平均値も転送する。 In FIG. 30, in step S103-2, the exposure control unit 50 transfers the respective luminance average values to the plurality of luminance value storage units 51 corresponding to the areas, and the luminance average value of the area at the point-symmetrical position of the other lens. Also forward.

次に、ステップS104−2において、各エリアに対応する輝度値比較部52が輝度値記憶部51に記憶された輝度平均値を、他方のレンズの輝度平均値と比較して、輝度差を算出し、実施例1と同様にジェスチャー切り替え動作を検出する。以降の処理は図23と同様でよい。 Next, in step S104-2, the brightness value comparison unit 52 corresponding to each area compares the brightness average value stored in the brightness value storage unit 51 with the brightness average value of the other lens, and calculates the brightness difference. Then, the gesture switching operation is detected as in the first embodiment. Subsequent processing may be the same as in FIG.

<主な効果>
本実施例によれば、実施例1の効果に加え、ユーザのジェスチャー位置がレンズの中心から外れていた場合、かつ、輝度平均値の時間変化が顕著に表れない場合の精度を高めることができる。
<Main effect>
According to this embodiment, in addition to the effect of the first embodiment, it is possible to improve the accuracy when the gesture position of the user is off the center of the lens and when the time change of the average luminance value does not appear remarkably. ..

本実施例では、三次元のジェスチャー切り替え動作を検出可能な撮像装置5について説明する。 In this embodiment, an image pickup device 5 capable of detecting a three-dimensional gesture switching operation will be described.

<機能について>
図31は、本実施例の入力画像処理モジュール34A,34Bの構成を説明する図である。入力画像処理モジュール34A,34Bの構成は実施例5の図24と同様であるが、ジェスチャー検出部58A,58B(それぞれ第一の検出部、第二の検出部の一例)は入力画像処理モジュール34A,34Bのそれぞれの輝度値比較部52から受け取るデータを他方(入力画像処理モジュール34B,34A)へ転送する。それぞれのジェスチャー検出部58には同じデータ(周期データ)が入力されることになるため、入力画像処理モジュール34A,34Bのどちらでもジェスチャーを認識することができる。
<About functions>
FIG. 31 is a diagram illustrating the configuration of the input image processing modules 34A and 34B of this embodiment. The configurations of the input image processing modules 34A and 34B are the same as those in FIG. 24 of the fifth embodiment, but the gesture detection units 58A and 58B (examples of the first detection unit and the second detection unit, respectively) are the input image processing modules 34A. , 34B, the data received from the respective luminance value comparison units 52 is transferred to the other (input image processing modules 34B, 34A). Since the same data (periodic data) is input to each gesture detection unit 58, the gesture can be recognized by either the input image processing modules 34A and 34B.

<動作手順>
図32は本実施例の入力画像処理モジュールの処理を説明するフローチャート図の一例である。
<Operation procedure>
FIG. 32 is an example of a flowchart for explaining the processing of the input image processing module of this embodiment.

まず、実施例5で説明したように、各輝度値比較部52は輝度平均値が極小値を取るフレームを決定し、フレームの全てをジェスチャー検出部58に転送する(S301)。 First, as described in the fifth embodiment, each luminance value comparison unit 52 determines a frame in which the average luminance value takes a minimum value, and transfers all of the frames to the gesture detection unit 58 (S301).

次に、ジェスチャー検出部58Aは輝度平均値が極小値を取るフレームを他の入力画像処理モジュール34Bのジェスチャー検出部58Bに転送する(S302)。ジェスチャー検出部58Bは輝度平均値が極小値を取るフレームを他の入力画像処理モジュール34Aのジェスチャー検出部58Aに転送する。 Next, the gesture detection unit 58A transfers the frame having the minimum brightness average value to the gesture detection unit 58B of the other input image processing module 34B (S302). The gesture detection unit 58B transfers a frame having a minimum brightness average value to the gesture detection unit 58A of another input image processing module 34A.

ジェスチャー検出部58A、58Bは、各エリアの輝度差が大きくなるフレーム(タイミング)を集計し、各エリアで極小値を取るフレームの差が予め設定した閾値C未満である場合にジェスチャー動作が検出されたと判断する(S303)。つまり、ジェスチャー検出部58A、58Bは自分の入力画像処理モジュールと他の入力画像処理モジュールの、輝度平均値が極小値を取るフレームについてそれぞれジェスチャー動作の有無を判断する。 The gesture detection units 58A and 58B aggregate the frames (timing) in which the brightness difference in each area becomes large, and detect the gesture operation when the difference between the frames that take the minimum value in each area is less than the preset threshold value C. (S303). That is, the gesture detection units 58A and 58B determine whether or not there is a gesture operation for each of the frames in which the average brightness value of the input image processing module and the other input image processing modules takes the minimum value.

<主な効果>
本実施例によれば、実施例1の効果に加え、三次元のジェスチャー切り替え動作を検出できる。
<Main effect>
According to this embodiment, in addition to the effect of the first embodiment, a three-dimensional gesture switching operation can be detected.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above with reference to examples, the present invention is not limited to these examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.

例えば、本実施形態では不動産の内見を例にして説明したが、画像通信システム100の適用例はこれに限られない。例えば、展示会、展覧会、工場見学、観光、視察、など現地の対象を指し示す場合に適用できる。 For example, in the present embodiment, the inside view of real estate has been described as an example, but the application example of the image communication system 100 is not limited to this. For example, it can be applied when pointing to a local object such as an exhibition, an exhibition, a factory tour, sightseeing, or a tour.

また、本実施形態では人間が撮像装置5で対象を撮像したが、機械やロボット、動物が指し示してもよい。 Further, in the present embodiment, a human image is taken by the image pickup device 5, but a machine, a robot, or an animal may point to the object.

また、図11等の構成例は、画像通信システム100による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。画像通信システム100の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。 Further, the configuration example shown in FIG. 11 and the like is divided according to the main functions in order to facilitate understanding of the processing by the image communication system 100. The present invention is not limited by the method of dividing the processing unit or the name. The processing of the image communication system 100 can be divided into more processing units according to the processing content. It is also possible to divide one processing unit so as to include more processing.

複数の通信管理システム80が存在してもよいし、通信管理システム80の機能が複数のサーバに分散していてもよい。画像データと音データを中継する中継装置があってもよい。 A plurality of communication management systems 80 may exist, or the functions of the communication management system 80 may be distributed to a plurality of servers. There may be a relay device that relays image data and sound data.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

5 撮像装置
10 端末装置
21 撮像素子
34 入力画像処理モジュール
50 露光制御部
51 輝度値記憶部
52 輝度値比較部
70 通信管理システム
100 画像通信システム
5 Image sensor 10 Terminal device 21 Image sensor 34 Input image processing module 50 Exposure control unit 51 Luminance value storage unit 52 Luminance value comparison unit 70 Communication management system 100 Image communication system

特開2019−012881号公報JP-A-2019-012881

Claims (11)

複数の撮像素子で撮像された画像データを合成して1つの撮像素子で撮像された画像データよりも広角な画像データを生成する撮像装置であって、
一方の撮像素子で撮像された画像データの輝度平均値に周期性がある場合、
輝度平均値に周期性がある前記画像データを合成に使用せず、他方の1つ以上の撮像素子で撮像された画像データを出力することを特徴とする撮像装置。
An image pickup device that synthesizes image data captured by a plurality of image sensors to generate image data having a wider angle than the image data captured by one image sensor.
When the average brightness of the image data captured by one of the image sensors has periodicity,
An image pickup apparatus characterized in that the image data having a periodic luminance average value is not used for synthesis, but the image data captured by the other one or more image pickup elements is output.
各フレームの画像データの輝度平均値を記憶する輝度値記憶部と、
フレームの輝度平均値と前記輝度値記憶部に記憶されている前フレームの輝度平均値との輝度差、及び、時間的に隣接する2つの輝度差の差を計算する輝度差計算部と、
前記輝度差の差の絶対値が第一の閾値以上かどうかを判断する輝度値特徴判断部と、を有し、
前記輝度値特徴判断部は、前記第一の閾値以上の前記輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、輝度平均値に周期性があると判断することを特徴とする請求項1に記載の撮像装置。
A brightness value storage unit that stores the average brightness of the image data of each frame, and a brightness value storage unit.
A brightness difference calculation unit that calculates the brightness difference between the brightness average value of the frame and the brightness average value of the previous frame stored in the brightness value storage unit, and the difference between two temporally adjacent brightness differences.
It has a luminance value feature determination unit for determining whether or not the absolute value of the difference in luminance difference is equal to or greater than the first threshold value.
In the brightness value feature determination unit, the interval between the frame in which the difference in brightness difference equal to or greater than the first threshold value is detected and the frame in which the difference in brightness difference equal to or greater than the first threshold value is detected last time is set. The imaging device according to claim 1, wherein when the value is less than the second threshold value, it is determined that the luminance average value has periodicity.
周期性の検出が完了している1周期分のフレームについて、前記第一の閾値以上の輝度差の差、及び、該輝度差の差が検出された時刻を前記輝度値記憶部に記憶し、すでに前記輝度値記憶部に記憶されている前記1周期分のフレームを削除する特徴圧縮部を有することを特徴とする請求項2に記載の撮像装置。 For one cycle of frames for which periodicity detection has been completed, the difference in brightness difference equal to or greater than the first threshold value and the time when the difference in brightness is detected are stored in the brightness value storage unit. The imaging device according to claim 2, further comprising a feature compression unit that deletes frames for one cycle already stored in the luminance value storage unit. 第一の撮像素子で撮像された第一の画像データと、第二の撮像素子で撮像された第二の画像データとの第一の輝度差を計算する第一の輝度差計算部と、
前記第二の撮像素子で撮像された第二の画像データと、前記第一の撮像素子で撮像された第一の画像データとの第二の輝度差を計算する第二の輝度差計算部と、
時間的に隣接した2つの前記第一の輝度差の差であって前記第一の閾値以上の前記第一の輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記第一の輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、輝度平均値に周期性があると判断する第一の輝度値特徴判断部と、
時間的に隣接した2つの前記第一の輝度差の差であって第一の閾値以上の前記第二の輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記第二の輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、輝度平均値に周期性があると判断する第二の輝度値特徴判断部と、
を有することを特徴とする請求項2又は3に記載の撮像装置。
A first luminance difference calculation unit that calculates the first luminance difference between the first image data captured by the first image sensor and the second image data captured by the second image sensor.
A second luminance difference calculation unit that calculates a second luminance difference between the second image data captured by the second image sensor and the first image data captured by the first image sensor. ,
The frame in which the difference in the first luminance difference between the two temporally adjacent first luminance differences and equal to or greater than the first threshold value is detected, and the frame in which the difference in the first luminance difference equal to or greater than the first threshold value is detected, and the previous time, the said When the distance from the frame in which the difference in the first luminance difference is detected is less than the second threshold value, the first luminance value feature determination unit that determines that the average luminance value has periodicity, and the first luminance value feature determination unit.
The frame in which the difference between the two temporally adjacent first luminance differences and the difference in the second luminance difference equal to or greater than the first threshold value is detected, and the previous time, the first luminance difference equal to or greater than the first threshold value. When the distance from the frame in which the difference between the two luminance differences is detected is less than the second threshold value, the second luminance value feature determination unit that determines that the luminance average value has periodicity, and the second luminance value feature determination unit.
The imaging device according to claim 2 or 3, wherein the image pickup apparatus is characterized by having.
前記画像データを複数のエリアに分割するエリア分割部を有し、
前記輝度値特徴判断部は、前記エリアごとに前記輝度平均値に周期性があるか否かを判断し、
1つでも周期性がある前記エリアが検出された場合、前記画像データの輝度平均値に周期性があると判断することを特徴とする請求項2又は3に記載の撮像装置。
It has an area division unit that divides the image data into a plurality of areas.
The luminance value feature determination unit determines whether or not the luminance average value has periodicity for each area, and determines whether or not the luminance average value has periodicity.
The imaging device according to claim 2 or 3, wherein when even one of the areas having periodicity is detected, it is determined that the brightness average value of the image data has periodicity.
前記画像データを複数のエリアに分割するエリア分割部を有し、
前記輝度差計算部は、前記エリアごとに、フレームの輝度平均値、該フレームの前フレームの輝度平均値、該フレームと前フレームの輝度平均値の輝度差、及び、時間的に隣接した2つの前記輝度差の差を計算し、
前記輝度値特徴判断部は、前記エリアごとに、前記第一の閾値以上の前記輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、2つのフレーム間の中点の時刻を決定し、
各エリアの前記時刻の差が予め設定した第三の閾値未満である場合に、輝度平均値に周期性があると判断する検出部を有することを特徴とする請求項2又は3に記載の撮像装置。
It has an area division unit that divides the image data into a plurality of areas.
The brightness difference calculation unit has, for each area, the brightness average value of the frame, the brightness average value of the previous frame of the frame, the brightness difference of the brightness average value of the frame and the previous frame, and two temporally adjacent ones. Calculate the difference in brightness and
The luminance value feature determining unit detected the difference between the frame in which the difference in luminance difference equal to or greater than the first threshold value was detected and the difference in luminance difference equal to or greater than the first threshold value in the previous time for each area. If the distance from the frame is less than the second threshold, determine the time of the midpoint between the two frames and
The imaging according to claim 2 or 3, further comprising a detection unit for determining that the luminance average value has periodicity when the time difference in each area is less than a preset third threshold value. apparatus.
前記画像データを複数のエリアに分割するエリア分割部と、
第一の撮像素子で撮像された第一の画像データの所定のエリアと、第二の撮像素子で撮像された第二の画像データの所定のエリアとの第一の輝度差、及び、時間的に隣接した2つの第一の輝度差の差を計算する第一の輝度差計算部と、
前記第二の撮像素子で撮像された第二の画像データの所定のエリアと、前記第一の撮像素子で撮像された第一の画像データの所定のエリアとの第二の輝度差、及び、時間的に隣接した2つの第二の輝度差の差を計算する第二の輝度差計算部と、
前記第一の閾値以上の前記第一の輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記第一の輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、輝度平均値に周期性があると判断する第一の輝度値特徴判断部と、
前記第一の閾値以上の前記第二の輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記第二の輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、輝度平均値に周期性がある第二の輝度値特徴判断部と、を有し、
前記第一の輝度値特徴判断部又は前記第二の輝度値特徴判断部が輝度平均値に周期性がある前記エリアがあると1つでも判断した場合、前記画像データの輝度平均値に周期性があると判断することを特徴とする請求項2又は3に記載の撮像装置。
An area division unit that divides the image data into a plurality of areas,
The first luminance difference between the predetermined area of the first image data captured by the first image sensor and the predetermined area of the second image data captured by the second image sensor, and the temporal period. The first luminance difference calculation unit that calculates the difference between the two first luminance differences adjacent to the
A second luminance difference between a predetermined area of the second image data captured by the second image sensor and a predetermined area of the first image data captured by the first image sensor, and A second luminance difference calculation unit that calculates the difference between two second luminance differences that are adjacent in time,
The interval between the frame in which the difference in the first luminance difference equal to or greater than the first threshold value is detected and the frame in which the difference in the first luminance difference equal to or greater than the first threshold value is detected last time is the second. If it is less than the threshold value of, the first luminance value feature determination unit that determines that the average luminance value has periodicity, and
The interval between the frame in which the difference in the second luminance difference above the first threshold value is detected and the frame in which the difference in the second luminance difference above the first threshold value is detected last time is the second. If it is less than the threshold value of, it has a second luminance value feature determination unit having periodicity in the luminance average value, and has.
When the first luminance value feature determination unit or the second luminance value feature determination unit determines that there is at least one of the areas having periodicity in the average luminance value, the average luminance value of the image data has periodicity. The imaging apparatus according to claim 2 or 3, wherein it is determined that there is.
前記エリアごとに、第一の撮像素子で撮像されたフレームの輝度平均値とその前フレームの輝度平均値との輝度差、及び、時間的に隣接した2つの輝度差の差を計算する第一の輝度差計算部と、
前記エリアごとに、前記第一の閾値以上の前記輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、2つのフレーム間の中点の時刻を決定する第一の輝度値特徴判断部と、
各エリアの前記時刻の差が予め設定されている第三の閾値未満である場合に、輝度平均値に周期性があると判断する第一の検出部と、
前記エリアごとに、第二の撮像素子で撮像されたフレームの輝度平均値とその前フレームの輝度平均値との輝度差、及び、時間的に隣接した2つの輝度差の差を計算する第二の輝度差計算部と、
前記エリアごとに、前記第一の閾値以上の前記輝度差の差が検出されたフレームと、前回、前記第一の閾値以上の前記輝度差の差が検出されたフレームとの間隔が第二の閾値未満の場合、2つのフレーム間の中点の時刻を決定する第二の輝度値特徴判断部と、
各エリアの前記時刻の差が予め設定されている第三の閾値未満である場合に、輝度平均値に周期性があると判断する第二の検出部と、を有し、
前記第一の検出部と前記第二の検出部は互いに各エリアの前記時刻の差を送信することを特徴とする請求項6に記載の撮像装置。
For each of the areas, the first is to calculate the brightness difference between the brightness average value of the frame imaged by the first image sensor and the brightness average value of the previous frame, and the difference between the two time-adjacent brightness differences. Luminance difference calculation unit and
For each of the areas, the interval between the frame in which the difference in luminance difference equal to or greater than the first threshold value is detected and the frame in which the difference in luminance difference equal to or greater than the first threshold value is detected last time is second. If it is less than the threshold value, the first luminance value feature determination unit that determines the time of the midpoint between the two frames, and
When the time difference in each area is less than a preset third threshold value, the first detection unit that determines that the luminance average value has periodicity, and
For each of the areas, the brightness difference between the brightness average value of the frame imaged by the second image sensor and the brightness average value of the previous frame, and the difference between the two time-adjacent brightness differences are calculated. Luminance difference calculation unit and
For each of the areas, the interval between the frame in which the difference in luminance difference equal to or greater than the first threshold value is detected and the frame in which the difference in luminance difference equal to or greater than the first threshold value is detected last time is second. If it is less than the threshold value, a second luminance value feature determination unit that determines the time of the midpoint between the two frames, and
It has a second detection unit that determines that the luminance average value has periodicity when the time difference in each area is less than a preset third threshold value.
The imaging device according to claim 6, wherein the first detection unit and the second detection unit transmit the difference in time in each area to each other.
3つ以上の撮像素子を有することを特徴とする請求項1〜8のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 8, wherein the image pickup device has three or more image pickup elements. 複数の撮像素子で撮像された画像データを合成して1つの撮像素子で撮像された画像データよりも広角な画像データを撮像装置が生成する画像生成方法であって、
一方の撮像素子で撮像された画像データの輝度平均値に周期性がある場合、
周期性がある前記画像データを合成に使用せず、他方の撮像素子で撮像された画像データを出力することを特徴とする画像生成方法。
This is an image generation method in which an image pickup device generates image data having a wider angle than the image data captured by one image sensor by synthesizing the image data captured by a plurality of image sensors.
When the average brightness of the image data captured by one of the image sensors has periodicity,
An image generation method characterized in that the image data having periodicity is not used for synthesis and the image data captured by the other image sensor is output.
複数の撮像素子で撮像された画像データを合成して1つの撮像素子で撮像された画像データよりも広角な画像データを生成する撮像装置に、
一方の撮像素子で撮像された画像データの輝度平均値に周期性がある場合、
周期性がある前記画像データを合成に使用せず、他方の撮像素子で撮像された画像データを出力させることを特徴とするプログラム。
For an image pickup device that synthesizes image data captured by a plurality of image sensors to generate image data having a wider angle than the image data captured by one image sensor.
When the average brightness of the image data captured by one of the image sensors has periodicity,
A program characterized in that the image data having periodicity is not used for synthesis, but the image data captured by the other image sensor is output.
JP2019225855A 2019-12-13 2019-12-13 Imaging device, image generation method, program Active JP7400430B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019225855A JP7400430B2 (en) 2019-12-13 2019-12-13 Imaging device, image generation method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019225855A JP7400430B2 (en) 2019-12-13 2019-12-13 Imaging device, image generation method, program

Publications (2)

Publication Number Publication Date
JP2021097280A true JP2021097280A (en) 2021-06-24
JP7400430B2 JP7400430B2 (en) 2023-12-19

Family

ID=76432232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019225855A Active JP7400430B2 (en) 2019-12-13 2019-12-13 Imaging device, image generation method, program

Country Status (1)

Country Link
JP (1) JP7400430B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274278A (en) 2002-03-15 2003-09-26 Hitachi Kokusai Electric Inc Television camera
JP6426484B2 (en) 2015-01-28 2018-11-21 京セラ株式会社 Mobile terminal
JP2019117330A (en) 2017-12-27 2019-07-18 株式会社リコー Imaging device and imaging system

Also Published As

Publication number Publication date
JP7400430B2 (en) 2023-12-19

Similar Documents

Publication Publication Date Title
JP7322940B2 (en) Image communication system, image communication terminal, image communication method, program, and recording medium
US10721116B2 (en) Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium
JP6756269B2 (en) Communication terminals, image communication systems, communication methods, and programs
JP6805861B2 (en) Image processing equipment, image processing system, image processing method and program
JP7400195B2 (en) Image communication system, imaging device, communication terminal, mode switching method, program
JP6907861B2 (en) Communication terminals, image communication systems, display methods, and programs
JP7205386B2 (en) IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
US11956547B2 (en) Omnidirectional camera system with improved point of interest selection
CN116896675A (en) Electronic device for stabilizing image and method of operating the same
US20200186407A1 (en) Communication terminal, image network system, display method, and program
KR20190014959A (en) Electronic device for playing movie based on movment information and operating mehtod thereof
KR102418852B1 (en) Electronic device and method for controlling an image display
JP7017045B2 (en) Communication terminal, display method, and program
EP3829159A1 (en) Image capturing device, image communication system, and method for display control, and carrier means
JP7400430B2 (en) Imaging device, image generation method, program
JP2018157314A (en) Information processing system, information processing method and program
JPWO2017159014A1 (en) Image processing apparatus, image processing method, and image processing system
US11928775B2 (en) Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image
JP6992338B2 (en) Communication system, communication management method, program, system and communication method
JP6816403B2 (en) Image management system, image communication system, image management method, and program
KR20200098029A (en) Screen providing method and electronic device supporting the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231120

R151 Written notification of patent or utility model registration

Ref document number: 7400430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151