JP2019201324A - Imaging apparatus, information processing apparatus, control method of the same, and program - Google Patents

Imaging apparatus, information processing apparatus, control method of the same, and program Download PDF

Info

Publication number
JP2019201324A
JP2019201324A JP2018094757A JP2018094757A JP2019201324A JP 2019201324 A JP2019201324 A JP 2019201324A JP 2018094757 A JP2018094757 A JP 2018094757A JP 2018094757 A JP2018094757 A JP 2018094757A JP 2019201324 A JP2019201324 A JP 2019201324A
Authority
JP
Japan
Prior art keywords
image
subject
information
imaging
composite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018094757A
Other languages
Japanese (ja)
Inventor
保章 伊勢
Yasuaki Ise
保章 伊勢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018094757A priority Critical patent/JP2019201324A/en
Publication of JP2019201324A publication Critical patent/JP2019201324A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

To provide a technique enabling prevention of erroneous detection in a synthesis area for composite images that are subject to image analysis such as detecting the number of people.SOLUTION: The imaging apparatus includes a plurality of imaging units, each of which is arranged so that a part of an imaging angle of view overlaps with an adjacent imaging unit. The imaging apparatus includes: combining means for generating a combined image by performing a combining process for combining images captured by each of the plurality of imaging units; and communication means for transmitting the combined image to an information processing apparatus. The communication means transmits information on subject images that are duplicated or missing in the combined image as combined information to the information processing apparatus together with the combined image.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置、情報処理装置、それらの制御方法、および、プログラムに関する。   The present invention relates to an imaging apparatus, an information processing apparatus, a control method thereof, and a program.

広視野の画像を撮像可能な撮像装置として、レンズと撮像素子を複数配置し、得られた画像を合成することにより広視野を実現する撮像装置が提案されている(特許文献1を参照)。また、監視などの用途に使用される撮像装置においては、画像解析機能として設定領域内を通過した人物の有無の判定や、領域内の人数を数える人数検出機能が実装されることがある。   As an imaging apparatus capable of capturing an image with a wide field of view, an imaging apparatus that realizes a wide field of view by arranging a plurality of lenses and imaging elements and synthesizing the obtained images has been proposed (see Patent Document 1). In addition, in an imaging apparatus used for monitoring or the like, a function for determining the presence / absence of a person who has passed through a setting area or a function for detecting the number of persons in the area may be implemented as an image analysis function.

特開2006-229789号公報JP 2006-229789

特許文献1の撮像装置により得られた合成画像を用いて画像解析を行う場合、以下のような問題が発生する。   When image analysis is performed using a composite image obtained by the imaging apparatus of Patent Document 1, the following problems occur.

複数の撮像装置の配置構成により、被写体の位置によっては合成画像における画像の結合部に二重像が生じる領域と、欠損が生じる領域が発生する場合がある。よって、このような合成画像を画像解析して人数検出を行う場合、対象となる被写体が画像の合成領域を通過する際に不具合が生ずるおそれがある。具体的には、被写体の一部或いは全体が欠損することで検出できなくなる、或いは、重複することで人数を数え間違えるといったことが考えられ、誤検知の要因となっていた。   Depending on the arrangement configuration of a plurality of imaging devices, there may be a region where a double image is generated at a combined portion of an image and a region where a defect is generated depending on the position of the subject. Therefore, when such a composite image is subjected to image analysis to detect the number of people, there is a possibility that a problem may occur when the subject subject passes through the composite region of the image. Specifically, it may be impossible to detect when a part or the whole of the subject is missing, or the number of persons may be mistaken due to duplication, which is a cause of erroneous detection.

そこで本発明は、人数検出等の画像解析の対象となる合成画像について、合成領域における誤検出を防止可能とするための技術を提供する。   Therefore, the present invention provides a technique for preventing erroneous detection in a composite area for a composite image that is an object of image analysis such as detection of the number of people.

上記課題を解決するための本発明は、複数の撮像部を備える撮像装置であって、
前記複数の撮像部のそれぞれは、隣接する撮像部と撮像画角の一部が重複するように配置され、
前記複数の撮像部のそれぞれで撮像された画像を結合する合成処理を行って合成画像を生成する合成手段と、
前記合成画像を情報処理装置に送信する通信手段と
を備え、
前記通信手段は、前記合成画像において重複、欠損している被写体像に関する情報を合成情報として、前記合成画像と共に前記情報処理装置に送信することを特徴とする。
The present invention for solving the above problems is an imaging apparatus including a plurality of imaging units,
Each of the plurality of imaging units is arranged so that a part of the imaging angle of view overlaps with an adjacent imaging unit,
Combining means for generating a combined image by performing a combining process for combining images captured by each of the plurality of imaging units;
Communication means for transmitting the composite image to an information processing device,
The communication means transmits information related to a subject image overlapping or missing in the composite image as composite information to the information processing apparatus together with the composite image.

本発明によれば、人数検出等の画像解析の対象となる合成画像について、合成領域における誤検出を防止可能とするための技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique for making it possible to prevent the misdetection in a synthetic | combination area | region can be provided about the synthetic | combination image used as the object of image analysis, such as a person detection.

発明の第1の実施形態に係る撮像装置の構成例を示す図、及び、当該撮像装置における撮像部の配置を説明するための図。The figure which shows the structural example of the imaging device which concerns on the 1st Embodiment of invention, and the figure for demonstrating arrangement | positioning of the imaging part in the said imaging device. 発明の第1の実施形態に係る撮像装置100及びクライアント装置180の機能構成及びハードウェア構成の例を示す図。2 is a diagram illustrating an example of functional configurations and hardware configurations of the imaging apparatus 100 and the client apparatus 180 according to the first embodiment of the invention. FIG. 発明の第1の実施形態に係る合成画像の一例を示す図、及び、被写体と撮像装置100の各撮像部の撮像画角との関係を説明するための図。FIG. 3 is a diagram illustrating an example of a composite image according to the first embodiment of the present invention, and a diagram for explaining a relationship between a subject and an imaging field angle of each imaging unit of the imaging apparatus. 発明の第1の実施形態に対応する画像の合成処理の一例を示すフローチャート。6 is a flowchart illustrating an example of an image composition process corresponding to the first embodiment of the invention. 発明の第1の実施形態に係る被写体像の重複欠損の発生について説明するための図。The figure for demonstrating generation | occurrence | production of the overlap defect | deletion of the to-be-photographed image which concerns on the 1st Embodiment of invention. 発明の第1の実施形態に係る画像合成情報を説明するための図。The figure for demonstrating the image composition information which concerns on the 1st Embodiment of invention. 発明の第1の実施形態に係るクライアント装置180の行う処理の一例を示すフローチャート。6 is a flowchart showing an example of processing performed by the client device 180 according to the first embodiment of the invention. 発明の第1の実施形態に係るクライアント装置180での第2の解析領域の設定例を説明するための図。The figure for demonstrating the example of a setting of the 2nd analysis area | region in the client apparatus 180 which concerns on the 1st Embodiment of invention. 発明の第2の実施形態に係る撮像装置100の機能構成例を示す図。The figure which shows the function structural example of the imaging device 100 which concerns on the 2nd Embodiment of invention. 発明の第2の実施形態に係る撮像装置100の動作の一例を示すフローチャート。6 is a flowchart showing an example of the operation of the imaging apparatus 100 according to the second embodiment of the invention. 発明の第2の実施形態に係るクライアント装置180の動作の一例を示すフローチャート。The flowchart which shows an example of operation | movement of the client apparatus 180 which concerns on the 2nd Embodiment of invention. 発明の第2の実施形態に係る画像合成情報を説明するための図。The figure for demonstrating the image composition information which concerns on the 2nd Embodiment of invention. 発明の第2の実施形態に係る重複欠損判定処理1の一例を示すフローチャート。The flowchart which shows an example of the overlap defect determination process 1 which concerns on the 2nd Embodiment of invention. 発明の第2の実施形態に係る重複欠損判定処理1を説明するための図。The figure for demonstrating the duplication defect | deletion determination process 1 which concerns on the 2nd Embodiment of invention. 発明の第2の実施形態に係る重複欠損判定処理2の一例を示すフローチャート。The flowchart which shows an example of the overlap defect determination process 2 which concerns on the 2nd Embodiment of invention. 発明の第2の実施形態に係る重複欠損判定処理2を説明するための図。The figure for demonstrating the duplication defect | deletion determination process 2 which concerns on the 2nd Embodiment of invention.

以下、発明の実施の形態を、添付の図面に基づいて詳細に説明する。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

[実施形態1]
以下の実施形態では、複数の撮像部で撮像した画像を合成して得られる広角画像または広角動画像を生成可能な撮像装置に発明を適用した実施形態について説明する。
[Embodiment 1]
In the following embodiment, an embodiment will be described in which the invention is applied to an imaging apparatus capable of generating a wide-angle image or a wide-angle moving image obtained by combining images captured by a plurality of imaging units.

まず、図1(A)は、本実施形態における撮像装置100の構成を示す概略図である。図1(B)は、撮像装置100内における各撮像部の配置を平面状に示した模式図である。図1(B)に示すように、本実施形態では撮像装置100が8つの撮像部101〜108で構成される例を示す。撮像部101〜108のそれぞれはレンズ光学系と撮像素子を備えた撮像ユニットであり、撮像装置100の中心に対して放射状に配置され360度の範囲を撮像可能とする。本実施形態では、8つの撮像部101〜108により、360度の範囲を網羅しているが、撮像部の数はこれに限定されるものではなく、また、撮像可能とする範囲は360度よりも狭くてもよい。例えば、撮像範囲は、設置上場所に応じて決定することができる。   First, FIG. 1A is a schematic diagram illustrating a configuration of the imaging apparatus 100 according to the present embodiment. FIG. 1B is a schematic diagram illustrating the arrangement of each imaging unit in the imaging apparatus 100 in a planar shape. As shown in FIG. 1B, in the present embodiment, an example in which the imaging apparatus 100 includes eight imaging units 101 to 108 is shown. Each of the imaging units 101 to 108 is an imaging unit including a lens optical system and an imaging element, and is arranged radially with respect to the center of the imaging device 100 to enable imaging of a range of 360 degrees. In the present embodiment, the range of 360 degrees is covered by the eight imaging units 101 to 108, but the number of imaging units is not limited to this, and the range that can be imaged is from 360 degrees. May be narrow. For example, the imaging range can be determined according to the installation location.

各撮像部は撮像画角を有しており、図1(B)ではそれらを実線と点線とで交互に示している。例えば、撮像部101の撮像画角121と隣接した撮像部102の撮像画角122のように、それぞれ撮像画角の一部が重複する様に配置される。撮像装置100は各撮像部で撮像した画像を合成し、最大360°の水平視野を持つ広角動画像を生成することができる。   Each imaging unit has an imaging angle of view. In FIG. 1B, these are alternately shown by a solid line and a dotted line. For example, like the imaging field angle 122 of the imaging unit 102 adjacent to the imaging field angle 121 of the imaging unit 101, the imaging field angles are respectively arranged so as to partially overlap. The imaging apparatus 100 can synthesize images captured by the imaging units and generate a wide-angle moving image having a horizontal field of view of 360 ° at the maximum.

次に、撮像装置100及びクライアント装置180の機能構成及びハードウェア構成について図2を参照して説明する。図2(A)は、発明の実施形態に対応する撮像装置100及びクライアント装置180の機能構成例を示す概略図である。制御部150は、例えばCPU,MPU、その他の専用演算回路などで構成することができ、撮像装置100全体の制御を司る。メモリ160は不揮発性メモリとRAM等で構成される。不揮発性メモリは制御部150の処理手順(制御プログラム)や、各種パラメータを記憶する。RAMは制御部150のワークエリアとして使用され、画像処理を行うための記憶領域としても使用される。また、制御部150は、画像処理部151、画像合成部152、圧縮伸長部153を含むことができ、これらのブロックが有する処理機能は、例えば、CPUがメモリ160に記憶されている対応するプログラムを実行することにより実現することができる。あるいは、制御部150を構成する専用演算回路により実現されてもよい。   Next, the functional configuration and hardware configuration of the imaging apparatus 100 and the client apparatus 180 will be described with reference to FIG. FIG. 2A is a schematic diagram illustrating a functional configuration example of the imaging device 100 and the client device 180 corresponding to the embodiment of the invention. The control unit 150 can be configured by, for example, a CPU, MPU, other dedicated arithmetic circuit, and the like, and controls the entire imaging apparatus 100. The memory 160 includes a nonvolatile memory and a RAM. The nonvolatile memory stores a processing procedure (control program) of the control unit 150 and various parameters. The RAM is used as a work area for the control unit 150 and is also used as a storage area for performing image processing. The control unit 150 can include an image processing unit 151, an image composition unit 152, and a compression / decompression unit 153. The processing functions of these blocks are, for example, corresponding programs stored in the memory 160 by the CPU. It can be realized by executing. Alternatively, the control unit 150 may be realized by a dedicated arithmetic circuit.

撮像部101〜108は、撮像素子131〜138およびレンズ光学系111〜118をそれぞれが含むユニット構成となっている。各撮像部は制御部150と接続して制御され、互いに同期した撮像が行われる。このような同期撮像により得られた撮像信号は後段の合成処理を経て1フレームの合成画像データを構成することとなる。そこで、これ以降、「フレームごと」という場合には、同期撮像により得られた撮像信号や、当該撮像信号から得られた画像データのことを意味するものである。撮像部101等から送信された撮像信号は制御部150において各種画像処理が施される。撮像素子131〜138は、CMOSセンサ等により構成され、撮像面に結像された被写体像を電気信号に変換して出力する。撮像素子131等から出力された電気信号としての撮像信号は、制御部内の画像処理部151に入力される。   The imaging units 101 to 108 have a unit configuration that includes the imaging elements 131 to 138 and the lens optical systems 111 to 118, respectively. Each imaging unit is connected to and controlled by the control unit 150, and imaging that is synchronized with each other is performed. An imaging signal obtained by such synchronous imaging constitutes synthesized image data of one frame through a subsequent synthesis process. Therefore, hereinafter, “every frame” means an imaging signal obtained by synchronous imaging or image data obtained from the imaging signal. The image pickup signal transmitted from the image pickup unit 101 or the like is subjected to various image processing in the control unit 150. The imaging elements 131 to 138 are configured by a CMOS sensor or the like, and convert a subject image formed on the imaging surface into an electrical signal and output it. An imaging signal as an electrical signal output from the imaging element 131 or the like is input to the image processing unit 151 in the control unit.

画像処理部151は、撮像信号に対して画素補間処理や色変換処理等の画像処理を行って、撮像部ごとの撮像画像データ(「撮像画像」、あるいは、合成処理の対象となる画像として「合成前画像」ともいう。)を生成する。当該画像処理には、例えば画素欠陥補正やレンズ補正などの各種補正処理、黒レベルやフォーカス、露出などの調整を行うための検波処理、デモザイク処理、ホワイトバランス処理、ホワイトバランス処理やガンマ補正処理、エッジ強調処理、ノイズ抑制処理などが含まれる。各撮像画像データはメモリ160に保存される。さらにメモリ160に保存された撮像部ごとの撮像画像データは、画像合成部152にてフレームごとに順次、画像合成され、広角の合成画像データとしてメモリ160に保存される。   The image processing unit 151 performs image processing such as pixel interpolation processing and color conversion processing on the captured image signal, and captures captured image data (“captured image” for each image capturing unit, or “ Also referred to as “pre-combination image”). The image processing includes various correction processing such as pixel defect correction and lens correction, detection processing for adjusting black level, focus, exposure, etc., demosaic processing, white balance processing, white balance processing and gamma correction processing, Edge enhancement processing, noise suppression processing, and the like are included. Each captured image data is stored in the memory 160. Further, the captured image data for each imaging unit stored in the memory 160 is sequentially combined for each frame by the image combining unit 152 and stored in the memory 160 as wide-angle combined image data.

制御部150はさらに、合成画像データを圧縮伸長部153にて圧縮して圧縮画像データを生成する。圧縮伸長部153は、静止画圧縮及び動画像圧縮を実行し、画像圧縮方式は、例えば、H.264、H.265、MPEGまたはJPEGなどの規格に基づくことができる。さらに、mp4やavi形式などを含む任意の形式の画像データを生成しても良い。圧縮伸長部153において生成された圧縮画像データは、撮像装置100に装着された不図示の記録媒体や内蔵メモリ等に記録されるとともに、通信部170からネットワーク190を介して外部の情報処理装置であるクライアント装置180に送信される。通信部170は、ネットワーク処理回路であり、圧縮された合成画像データを通信プロトコルに準拠した通信信号に変換した上で、ネットワーク190上へと配信する。   The control unit 150 further compresses the composite image data by the compression / decompression unit 153 to generate compressed image data. The compression / decompression unit 153 executes still image compression and moving image compression. H.264, H.C. 265, based on standards such as MPEG or JPEG. Furthermore, image data in an arbitrary format including mp4 or avi format may be generated. The compressed image data generated by the compression / decompression unit 153 is recorded in a recording medium (not shown) or a built-in memory attached to the imaging device 100, and is transmitted from the communication unit 170 to the external information processing apparatus via the network 190. It is transmitted to a certain client device 180. The communication unit 170 is a network processing circuit, converts the compressed composite image data into a communication signal conforming to a communication protocol, and distributes the communication signal onto the network 190.

クライアント装置180は、典型的にはパーソナルコンピュータなどの情報処理装置であり、ネットワーク190を介して撮像装置100と接続されている。クライアント装置180の制御部181は、CPU,MPU、その他の専用演算回路などで構成することができ、クライアント装置180全体の制御を司る。また、制御部181は、撮像装置100から合成画像データを受信し、伸長処理を行うとともに、撮像装置100をコントロールするための制御情報を送信することで各種制御を行う。画像解析部182は、撮像装置100から受信した合成画像データの画像解析を行う。また、画像解析部182において伸長処理を行ってもよい。画像解析では、例えば合成画像データ内の特定の領域に存在する被写体を検出し人数のカウントを行う、被写体の動きを検出し所定の領域への侵入を検出する等の処理を行う。表示部183は、クライアント装置180の操作者へ画像解析結果や撮像装置100から受信した合成画像データの表示を行う。通信部184は、ネットワーク処理回路であり、ネットワーク190を介して撮像装置100と通信を行い、撮像装置100が配信した合成画像データを受信するとともに、撮像装置100の動作を制御することが可能である。   The client device 180 is typically an information processing device such as a personal computer, and is connected to the imaging device 100 via the network 190. The control unit 181 of the client device 180 can be configured by a CPU, MPU, other dedicated arithmetic circuit, and the like, and controls the entire client device 180. In addition, the control unit 181 receives composite image data from the imaging device 100, performs decompression processing, and performs various controls by transmitting control information for controlling the imaging device 100. The image analysis unit 182 performs image analysis of the composite image data received from the imaging device 100. Further, the image analysis unit 182 may perform extension processing. In the image analysis, for example, a subject existing in a specific area in the composite image data is detected and the number of people is counted, a movement of the subject is detected, and an entry into a predetermined area is detected. The display unit 183 displays the image analysis result and the composite image data received from the imaging device 100 to the operator of the client device 180. The communication unit 184 is a network processing circuit, communicates with the imaging device 100 via the network 190, receives composite image data distributed by the imaging device 100, and can control the operation of the imaging device 100. is there.

上述の撮像装置100及びクライアント装置180のハードウェア構成の一例を図2(B)に示す。図2は、撮像装置100及びクライアント装置180の、主に制御部や処理部に関わるハードウェア構成の一例を示すブロック図である。   An example of a hardware configuration of the imaging device 100 and the client device 180 described above is illustrated in FIG. FIG. 2 is a block diagram illustrating an example of a hardware configuration mainly related to the control unit and the processing unit of the imaging apparatus 100 and the client apparatus 180.

図2(B)において、CPU210は、ハードディスク装置(以下、HDと呼ぶ)215に格納されているオペレーティングシステム(OS)や制御プログラム、処理プログラム等を実行して、発明の実施形態に対応する処理を実現する。さらには、インタフェース(I/F)218を介した外部の装置とのデータ送受信を制御する。CPU210は、図2(A)の制御部150や181として機能しえる。   In FIG. 2B, the CPU 210 executes an operating system (OS), a control program, a processing program, and the like stored in a hard disk device (hereinafter referred to as HD) 215, and processing corresponding to the embodiment of the invention. Is realized. Furthermore, data transmission / reception with an external apparatus via the interface (I / F) 218 is controlled. The CPU 210 can function as the control unit 150 or 181 in FIG.

ROM211は、内部に基本I/Oプログラムの他、所定の処理を実行するアプリケーションプログラム等の各種データを記憶する。RAM212は各種データを一時記憶し、CPU210の主メモリ、ワークエリア等として機能する。外部記憶ドライブ213は、記録媒体へのアクセスを実現するための外部記憶ドライブであり、メディア(記録媒体)214に記憶されたプログラム等を本コンピュータシステムにロードすることができる。ハードディスク装置215は、本実施形態では大容量メモリとして機能するHD(ハードディスク)を用いている。HD215には、アプリケーションプログラム、OS、制御プログラム、関連プログラム等が格納される。なお、ハードディスクの代わりに、フラッシュ(登録商標)メモリ等の不揮発性記憶装置を用いても良い。これらのROM、RAM、HD等は、図2(A)のメモリ160として機能しえる。   The ROM 211 stores various data such as an application program for executing predetermined processing in addition to the basic I / O program. The RAM 212 temporarily stores various data and functions as a main memory, work area, and the like for the CPU 210. The external storage drive 213 is an external storage drive for realizing access to a recording medium, and can load a program or the like stored in the medium (recording medium) 214 into the computer system. In this embodiment, the hard disk device 215 uses an HD (hard disk) that functions as a large-capacity memory. The HD 215 stores application programs, OS, control programs, related programs, and the like. A nonvolatile storage device such as a flash (registered trademark) memory may be used instead of the hard disk. These ROM, RAM, HD, and the like can function as the memory 160 in FIG.

指示入力装置216は、キーボードやポインティングデバイス(マウス等)、タッチパネル等がこれに相当する。出力装置217は、指示入力装置216から入力されたコマンドや、それに対するクライアント装置180の応答出力等を出力する。出力装置217にはディスプレイ、スピーカ、ヘッドフォン端子等を含むことができる。図2(A)の表示部183に対応する。システムバス219は、装置内のデータの流れを司る。   The instruction input device 216 corresponds to a keyboard, a pointing device (such as a mouse), a touch panel, or the like. The output device 217 outputs a command input from the instruction input device 216, a response output of the client device 180 in response thereto, and the like. The output device 217 can include a display, a speaker, a headphone terminal, and the like. This corresponds to the display portion 183 in FIG. A system bus 219 manages the flow of data in the apparatus.

インタフェース(以下、I/Fという)218は、外部装置とのデータのやり取りを仲介する役割を果たす。具体的に、I/F218は、無線通信モジュールを含むことができ、当該モジュールはアンテナシステム、RF送受信器、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュールカード、メモリなどを含む、周知の回路機構を含むことができる。また、有線接続のための有線通信モジュールを含むことができる。有線通信モジュールは1つ以上の外部ポートを介して他のデバイスとの通信を可能とする。また、データを処理する様々なソフトウェアコンポーネントを含むことができる。外部ポートは、イーサーネット、USBやIEEE1394等を介して、直接的に、又はネットワークを介して間接的に他のデバイスと結合する。尚、以上の各装置と同等の機能を実現するソフトウェアにより、ハードウェア装置の代替として構成することもできる。当該インタフェース218は、図2(A)の通信部170や184として機能しえる。   An interface (hereinafter referred to as I / F) 218 plays a role of mediating exchange of data with an external device. Specifically, the I / F 218 can include a wireless communication module, which includes an antenna system, an RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, a CODEC chipset. Well-known circuitry, including a subscriber identity module card, memory, and the like. In addition, a wired communication module for wired connection can be included. The wired communication module enables communication with other devices via one or more external ports. It can also include various software components that process the data. The external port is coupled to another device directly via Ethernet, USB, IEEE1394, or indirectly via a network. In addition, it can also be comprised as an alternative of a hardware apparatus with the software which implement | achieves a function equivalent to the above each apparatus. The interface 218 can function as the communication unit 170 or 184 in FIG.

次に、図3及び図4を参照しながら、本実施形態における画像の合成処理について説明を行う。以下では、特に広角動画像を生成する場合について説明する。図3は、発明の実施形態に対応する被写体と撮像装置100の各撮像部の撮像画角との関係を説明するための図である。図3(A)は、撮像部101から104で撮像された各撮像画像を結合して得られた合成画像300の一例を示す。図3(B)は、合成画像300のような合成画像を得るために実行する撮像部101から104で撮像された各撮像画像の画像合成処理を説明するための図である。図3(B)において、破線121〜124は、図1(A)の撮像部101〜104の撮像画角121〜124に対応する。ここに示すように各撮像部の撮像画角は、一部において互いに重複するように設定されている。   Next, an image composition process according to this embodiment will be described with reference to FIGS. 3 and 4. Hereinafter, a case where a wide-angle moving image is generated will be described. FIG. 3 is a diagram for explaining the relationship between the subject corresponding to the embodiment of the invention and the imaging angle of view of each imaging unit of the imaging apparatus 100. FIG. 3A illustrates an example of a composite image 300 obtained by combining the captured images captured by the imaging units 101 to 104. FIG. 3B is a diagram for describing image composition processing of each captured image captured by the imaging units 101 to 104, which is executed to obtain a composite image such as the composite image 300. 3B, dashed lines 121 to 124 correspond to the imaging field angles 121 to 124 of the imaging units 101 to 104 in FIG. As shown here, the imaging angle of view of each imaging unit is set to partially overlap each other.

各撮像部で撮像された画像を結合する場合、撮像部の配置によっては隣接する撮像部で視差が存在するため、撮像画角の重複する画像領域(画像重複領域)において、フレームごとに合成する画像の合成位置調整が必要となる。合成位置調整は、画像重複領域における同一被写体像が重なる様に行われる。図3(B)に示す例において、網掛け領域301〜303が画像重複領域となる。画像重複領域は、撮像装置100の設置時に、被写体距離に応じて撮像画角を設定することで任意に設定できる。また、画像重複領域は被写体に応じて適宜変更可能に構成しても構わない。撮像装置100は、各撮像部からの撮像画像を合成し、合成画像300を得る。ここでは、4枚の撮像画像を合成しているが、同期して撮像されたすべての撮像画像、図1に示す撮像装置100の場合には8枚を合成して1枚の合成画像としてもよいし、あるいは、撮像画像のサブグループ単位に合成を行って複数の合成画像を生成してもよい。例えば、4枚ずつのサブグループについて合計2枚の合成画像を生成してもよい。更に、合成枚数はこれらに限定されるものではない。   When combining images captured by the image capturing units, there is a parallax between adjacent image capturing units depending on the arrangement of the image capturing units. Therefore, synthesis is performed for each frame in an image region (image overlap region) where the imaging angle of view overlaps. It is necessary to adjust the composition position of the image. The composition position adjustment is performed so that the same subject image in the image overlap region overlaps. In the example shown in FIG. 3B, the shaded areas 301 to 303 are image overlapping areas. The image overlap area can be arbitrarily set by setting the imaging angle of view according to the subject distance when the imaging apparatus 100 is installed. Further, the image overlap area may be configured to be appropriately changed according to the subject. The imaging device 100 synthesizes the captured images from the imaging units to obtain a composite image 300. Here, four captured images are combined. However, all the captured images captured in synchronism, or in the case of the imaging apparatus 100 shown in FIG. 1, eight images are combined to form a single combined image. Alternatively, a plurality of synthesized images may be generated by synthesizing in units of subgroups of captured images. For example, a total of two composite images may be generated for every four subgroups. Furthermore, the number of composites is not limited to these.

次に、図4を参照して本実施形態における画像の合成処理を説明する。図4は、発明の実施形態に対応する画像の合成処理の一例を示すフローチャートである。該フローチャートに対応する処理は、例えば、制御部150として機能する1以上のプロセッサ(制御部150のCPU、MPU)が対応するプログラム(メモリ160等に格納)を実行することにより実現できる。   Next, an image composition process according to this embodiment will be described with reference to FIG. FIG. 4 is a flowchart illustrating an example of an image composition process corresponding to the embodiment of the invention. The processing corresponding to the flowchart can be realized, for example, by executing a program (stored in the memory 160 or the like) corresponding to one or more processors (CPU, MPU of the control unit 150) functioning as the control unit 150.

まず、S401において制御部150は、撮像部101〜108の各撮像素子に対して撮像指示を行う。各撮像素子は制御部150からの撮像指示に基づき撮像動作を行い、各撮像部から出力された撮像信号は、メモリ160のRAMに記憶される。撮像部から受信した撮像信号は、画像処理部151にて画素補間処理や色変換処理等の所定の画像処理を行って撮像画像データとして再度メモリへ保持される。   First, in S401, the control unit 150 issues an imaging instruction to each of the imaging elements of the imaging units 101 to 108. Each imaging element performs an imaging operation based on an imaging instruction from the control unit 150, and an imaging signal output from each imaging unit is stored in the RAM of the memory 160. The imaging signal received from the imaging unit is subjected to predetermined image processing such as pixel interpolation processing and color conversion processing in the image processing unit 151, and is held in the memory again as captured image data.

続くS402において、制御部150はメモリ160に記憶された撮像画像データから画像重複領域に該当する部分画像データを選択し、画像合成部152に供給する。続くS403において、画像合成部152が合成位置の調整を行う。画像合成部152は合成を行う2つの画像間で、それぞれの画像重複領域の画像データ内の同一被写体を検出し、合成前画像で検出した同一被写体の位置が一致する様に、合成するための位置補正パラメータを算出する。位置補正パラメータには、各撮像画像データの拡大、縮小、歪曲補正等の変形処理を行うパラメータや、補正処理後の撮像画像データからの画像切り出し等を行うためのパラメータが含まれる。同一被写体の検出には、例えば、背景差分等でエッジ検出を行い被写体の輪郭形状を抽出する、或いは動きベクトルの抽出や、色画素情報と併せて判定することで同一被写体であるかを判定できる。なお、S402及びS403の処理は、画像合成部152がまとめて実行してもよい。   In subsequent step S <b> 402, the control unit 150 selects partial image data corresponding to the image overlap area from the captured image data stored in the memory 160 and supplies the partial image data to the image composition unit 152. In subsequent S403, the image composition unit 152 adjusts the composition position. The image composition unit 152 detects the same subject in the image data of each image overlap region between the two images to be combined, and combines them so that the positions of the same subject detected in the pre-combine image match. A position correction parameter is calculated. The position correction parameters include parameters for performing deformation processing such as enlargement / reduction of each captured image data and distortion correction, and parameters for performing image cutout from the captured image data after the correction processing. For the detection of the same subject, for example, it is possible to determine whether the subject is the same subject by detecting the edge by background difference or the like and extracting the contour shape of the subject, or by extracting the motion vector and determining it together with the color pixel information. . Note that the processing of S402 and S403 may be executed together by the image composition unit 152.

続くS404において、画像合成部152は、各撮像部から得られた撮像画像データを結合して合成画像データを生成する合成処理を行う。算出した補正パラメータに基づき、各撮像画像データに合成位置の補正処理を行い、フレームごとに合成を行う。その後、適切な変倍処理を行い、指定の画角サイズに切り出しを行い、広角の合成画像データを生成する。生成した合成画像データは、画像合成部152が行った画像合成処理に関する情報(画像合成情報)と共にメモリ160に保存される。続くS405において、圧縮伸長部153は合成された合成画像データを順次圧縮処理して、動画像データとして通信部170に出力する。このとき、動画像データには、画像合成部152が生成した画像合成情報が付加される。画像合成情報の詳細は後述する。続くS406において、通信部170は、動画像データを所定のプロトコルに基づきネットワーク190を経由してクライアント装置180に配信する。   In subsequent S <b> 404, the image composition unit 152 performs a composition process for combining the captured image data obtained from the image capturing units to generate composite image data. Based on the calculated correction parameter, a combination position correction process is performed on each captured image data, and combination is performed for each frame. Thereafter, an appropriate scaling process is performed to cut out to a designated angle of view, and wide-angle composite image data is generated. The generated combined image data is stored in the memory 160 together with information (image combining information) regarding image combining processing performed by the image combining unit 152. In subsequent S 405, the compression / decompression unit 153 sequentially compresses the combined image data and outputs it to the communication unit 170 as moving image data. At this time, the image composition information generated by the image composition unit 152 is added to the moving image data. Details of the image composition information will be described later. In subsequent S406, the communication unit 170 distributes the moving image data to the client device 180 via the network 190 based on a predetermined protocol.

次に、図5を参照して、画像合成部152の画像合成処理における被写体像の重複、欠損の発生について説明する。まず、図5(A)は、撮像装置100の撮像画角と被写体位置との関係を説明するための図である。ここでは、撮像部101と撮像部102との関係を示しているが、これはあくまで一例を示すために他の撮像部を省略しているだけであって、他の撮像部についても同様の関係が成立しえる。撮像装置100の各撮像部101及び102は、設置位置が異なるため、撮像画角と光軸中心の位置が一致しない。このため、被写体の位置によってはこれらの撮像部の撮像画角に入らないことがある。被写体501〜503は、撮像装置100からの距離が異なる被写体である。被写体501、502は、撮像画角121と122に入る被写体であるが、被写体503の位置ではいずれの撮像画角からも外れることになる。   Next, with reference to FIG. 5, description will be given on the occurrence of overlap and loss of subject images in the image composition processing of the image composition unit 152. First, FIG. 5A is a diagram for explaining the relationship between the imaging angle of view of the imaging apparatus 100 and the subject position. Here, the relationship between the imaging unit 101 and the imaging unit 102 is shown, but this is merely omitting other imaging units to show an example, and the same relationship applies to other imaging units. Can be established. Since the image capturing units 101 and 102 of the image capturing apparatus 100 have different installation positions, the image capturing angle of view does not match the position of the optical axis center. For this reason, depending on the position of the subject, the imaging angle of view of these imaging units may not be entered. Subjects 501 to 503 are subjects having different distances from the imaging apparatus 100. The subjects 501 and 502 are subjects that enter the imaging angle of view 121 and 122, but deviate from any of the imaging angle of view at the position of the subject 503.

図5(B)、図5(C)は図5(A)の被写体を撮像した各撮像部の画像データと、合成後の合成画像の一例を示す。まず、図5(B)の例では、画像データ511と画像データ512とを合成して合成画像513を得る。また、図5(C)の例では、撮像画像511と撮像画像512を合成して合成画像514を得る。合成画像513と合成画像514とでは、合成位置が互いに異なっている。図5(B)に示す合成画像513は、被写体501に対して位置合わせを行っており、被写体501は像全体が良好に合成画像内に納まっている。しかしながら、被写体502は合成画像513内に2つの像(多重像)として発生してしまう。   FIGS. 5B and 5C show an example of image data of each imaging unit that images the subject of FIG. 5A and a combined image after combining. First, in the example of FIG. 5B, the composite image 513 is obtained by combining the image data 511 and the image data 512. In the example of FIG. 5C, the captured image 511 and the captured image 512 are combined to obtain a combined image 514. The composite image 513 and the composite image 514 have different composite positions. The composite image 513 shown in FIG. 5B is aligned with the subject 501, and the entire image of the subject 501 is well contained in the composite image. However, the subject 502 is generated as two images (multiple images) in the composite image 513.

図5(C)に示す合成画像514は、被写体502に対して位置合わせを行っており、被写体502は像全体が良好に合成画像内に納まっている。しかし、被写体501は像の一部領域が欠損した状態で合成されてしまい、元の被写体501を判別するのが困難な状態になっている。   The composite image 514 shown in FIG. 5C is aligned with the subject 502, and the entire image of the subject 502 is well within the composite image. However, the subject 501 is synthesized in a state where a part of the image is missing, and it is difficult to determine the original subject 501.

以上の様に、被写体の位置と合成位置の関係に応じて、合成画像内の被写体像に欠損、或いは重複を生じてしまう。これによって、合成画像を受信したクライアント装置は画像解析を行う際に誤検知することになる。そこで、本実施形態に対応する撮像装置100は、クライアント装置180での誤検知を防ぐために、画像合成情報として、画像の結合位置の情報を合成画像に付加して配信を行う。以降、多重像の誤検知を防ぐための画像合成情報の付加について説明を行う。   As described above, depending on the relationship between the position of the subject and the composition position, the subject image in the composite image is lost or overlapped. As a result, the client apparatus that has received the composite image makes a false detection when performing image analysis. Therefore, in order to prevent erroneous detection in the client device 180, the imaging apparatus 100 corresponding to the present embodiment performs distribution by adding information on the image combination position to the synthesized image as image synthesis information. Hereinafter, addition of image composition information for preventing erroneous detection of multiple images will be described.

図6は、発明の実施形態に対応する画像合成情報について説明するための図である。本実施形態では、画像合成情報として、合成位置を示す情報(合成位置情報)をクライアント装置180に対して通知する場合を説明する。図6(A)に示す合成画像601は、クライアント装置180へ配信する合成済みの画像の少なくとも一部分を表している。破線602、603は、合成時の画像の結合位置を示している。そして、画像合成情報を、例えば、図6(A)のように結合位置602、603で示す画像合成を行った境界線上の2点(A−A')の座標情報として表現され、合成画像とともにクライアント装置180に提供することができる。   FIG. 6 is a diagram for explaining the image composition information corresponding to the embodiment of the invention. In the present embodiment, a case will be described in which information indicating a composite position (composite position information) is notified to the client device 180 as image composite information. A composite image 601 shown in FIG. 6A represents at least a part of a composited image distributed to the client device 180. Dashed lines 602 and 603 indicate image combining positions at the time of synthesis. Then, the image synthesis information is expressed as coordinate information of two points (AA ′) on the boundary line where the image synthesis indicated by the coupling positions 602 and 603 as shown in FIG. It can be provided to the client device 180.

また、図6(B)に示すように、画像合成情報を、画像境界を含む領域として表現してもよい。例えば、合成画像610における画像合成領域611、612のように複数の点から成る多角形としてクライアント装置180に画像合成情報を送信することもできる。このとき、画像合成情報は、例えば点A〜Dの座標情報であり各座標を結ぶ曲線または領域としてクライアント装置へ通知される。座標の数は4つに限定するものではなく任意の数に設定できる。   Further, as shown in FIG. 6B, the image synthesis information may be expressed as a region including an image boundary. For example, the image composition information can also be transmitted to the client device 180 as a polygon composed of a plurality of points like image composition areas 611 and 612 in the composite image 610. At this time, the image composition information is, for example, coordinate information of the points A to D, and is notified to the client device as a curve or a region connecting the coordinates. The number of coordinates is not limited to four and can be set to an arbitrary number.

また、図6(C)に示すように、合成位置を中心とした複数の領域の組み合わせとしてクライアント装置180に画像合成情報を送信することもできる。例えば、画像620の下辺から上辺に向かって奥行のある被写体の場合、位置合わせした被写体より手前に欠損領域が発生し、位置合わせした被写体より後ろに多重像が発生する場合が考えられる。このとき、領域621を重複する被写体を含む多重像の発生領域、領域622を被写体の欠損が生じている可能性の高い欠損領域として通知することができる。多重像の発生する領域と像欠損の発生する領域は、合成時に位置合わせを行う被写体の距離に応じて変わるため、設置時の環境や、注視している被写体に応じて適宜変更してもよい。   Further, as shown in FIG. 6C, the image composition information can be transmitted to the client device 180 as a combination of a plurality of regions centered on the composition position. For example, in the case of a subject having a depth from the lower side to the upper side of the image 620, a defective area may be generated in front of the aligned subject, and a multiple image may be generated behind the aligned subject. At this time, the region 621 can be notified as a multiple image generation region including overlapping subjects, and the region 622 as a defective region where there is a high possibility that the subject is defective. The region where multiple images are generated and the region where image defects occur are changed according to the distance of the subject to be aligned at the time of synthesis, and may be appropriately changed according to the installation environment and the subject being watched. .

次に、クライアント装置180が受信する画像データと画像合成情報について説明を行う。図7は、発明の実施形態に対応するクライアント装置180の行う処理の一例を示すフローチャートである。該フローチャートに対応する処理は、例えば、制御部181及び画像解析部182として機能する1以上のプロセッサ(CPU、MPU)が対応するプログラムを実行することにより実現できる。   Next, image data and image composition information received by the client device 180 will be described. FIG. 7 is a flowchart illustrating an example of processing performed by the client device 180 corresponding to the embodiment of the invention. The processing corresponding to the flowchart can be realized, for example, when one or more processors (CPU, MPU) functioning as the control unit 181 and the image analysis unit 182 execute the corresponding program.

まず、S701においてクライアント装置180の制御部181は、通信部184を介して動画像データを受信すると、伸長処理を行って、合成画像データを復元する。続くS702において、クライアント装置180の制御部181は、S701において得られた合成画像データを表示部183に表示する。続くS703においてクライアント装置180の制御部181は、得られた合成画像データに画像合成情報が付加されているかどうかを判定する。画像合成情報が無い場合、処理はS706へ進み、受信した合成画像データをクライアント装置180内の画像解析部182で解析し、続くS706で、解析結果を表示部183において、すでに表示されている画像データに重畳表示する。一方、画像合成情報が付加されている場合、処理は4に進む。S704において制御部181は、受信データから抽出した画像合成情報に基づいて、画像合成領域を指定する情報が含まれている場合には、当該画像合成領域を本実施形態特有の解析領域(第2の解析領域)に設定する。また、画像合成情報に画像結合の境界線の情報が含まれている場合には、境界線に基づいて第2の解析領域を設定する。第2の解析領域とは、合成画像データのうち画像合成の影響を受けずに解析処理を行うことが可能な領域を第1の解析領域とした場合に、第1の解析領域とは異なる解析処理を適用する対象となる領域を表す。   First, in step S <b> 701, when the control unit 181 of the client device 180 receives moving image data via the communication unit 184, the control unit 181 performs decompression processing and restores composite image data. In subsequent S <b> 702, the control unit 181 of the client device 180 displays the composite image data obtained in S <b> 701 on the display unit 183. In subsequent S703, the control unit 181 of the client device 180 determines whether image synthesis information is added to the obtained synthesized image data. If there is no image synthesis information, the process proceeds to S706, the received synthesized image data is analyzed by the image analysis unit 182 in the client device 180, and the analysis result is displayed on the display unit 183 in the subsequent S706. Overlays the data. On the other hand, when the image composition information is added, the process proceeds to 4. In S <b> 704, if the information specifying the image composition area is included based on the image composition information extracted from the received data, the control unit 181 designates the image composition area as an analysis area (second area specific to the present embodiment). Analysis area). In addition, when the image composition information includes boundary information for image combination, the second analysis region is set based on the boundary line. The second analysis region is an analysis different from the first analysis region when a region in which analysis processing can be performed without being influenced by image synthesis in the composite image data is set as the first analysis region. Represents an area to which processing is applied.

続くS705では、制御部181は、設定した第2の解析領域をユーザへ通知するための標識(枠表示やマーカ表示等)を、すでに表示されている合成画像データに重畳して表示部183に表示する。その後、S706において、第1の解析領域について画像解析部182が解析を行い、例えば、合成画像に含まれる領域に存在する人物の人数をカウントする。続くS707において、制御部181は、S706における解析結果、例えば、カウントされた人数を表示部183に表示する。   In subsequent S705, the control unit 181 superimposes a marker (frame display, marker display, etc.) for notifying the user of the set second analysis region on the already displayed composite image data on the display unit 183. indicate. Thereafter, in S706, the image analysis unit 182 analyzes the first analysis region, and counts the number of persons existing in the region included in the composite image, for example. In subsequent S707, the control unit 181 displays the analysis result in S706, for example, the counted number of people on the display unit 183.

図8はクライアント装置180での第2の解析領域の設定例を説明するための図である。図8(A)の破線801は画像の結合位置(結合された画像の境界線)を示している。領域802は、第2の解析領域を示している。破線801及び、領域802は、クライアント装置180のユーザに視認可能となるように画像上に重畳表示してもよい。図8(B)は、第2の解析領域を被写体が横切る場合の一例を示す。図示の被写体811から813は、合成画像において時間の経過に応じて被写体811で示す位置から被写体813で示す位置にまで移動する。ここで、クライアント装置180は、領域810を第2の解析領域として設定している。本実施形態では、第2の解析領域の内側と、第2の解析領域の外側の第1の解析領域とで、実施する解析処理を異ならせる。具体的に、第2の解析領域810の内側では、画像合成の結合位置付近で被写体形状が崩れる可能性があるため、被写体形状を判定条件から除外する処理を行う。例えば、第1の解析領域においては、被写体の形状、色(輪郭内の色)、及び、動き(動きベクトル)という3種類の情報を用いて被写体を追尾する。これに対し、第2の解析領域内では、画像合成の境界線で被写体形状が崩れる可能性があるため、被写体形状を判定条件から外し、色と動きベクトルのみを用いて追尾様に制御方法を変更することができる。   FIG. 8 is a diagram for explaining a setting example of the second analysis area in the client device 180. A broken line 801 in FIG. 8A indicates a combined position of images (boundary line of combined images). An area 802 indicates a second analysis area. The broken line 801 and the area 802 may be superimposed on the image so as to be visible to the user of the client device 180. FIG. 8B shows an example where the subject crosses the second analysis region. The illustrated subjects 811 to 813 move from the position indicated by the subject 811 to the position indicated by the subject 813 as time passes in the composite image. Here, the client device 180 sets the area 810 as the second analysis area. In the present embodiment, the analysis processing to be performed is different between the inside of the second analysis region and the first analysis region outside the second analysis region. Specifically, inside the second analysis region 810, the subject shape may be collapsed in the vicinity of the combined position of image synthesis, and therefore processing for excluding the subject shape from the determination condition is performed. For example, in the first analysis region, the subject is tracked using three types of information, ie, the shape, color (color in the outline), and motion (motion vector) of the subject. On the other hand, in the second analysis area, the subject shape may be collapsed at the boundary of image composition, so the subject shape is excluded from the determination conditions, and the control method is performed in a tracking manner using only the color and the motion vector. Can be changed.

以上に示したように、本実施形態では、合成画像において重複している被写体、及び、欠損している被写体に関する画像合成情報をクライアント装置180に通知することにより、クライアント装置で画像解析の誤検知を起こす可能性を低くすることができる。   As described above, according to the present embodiment, the client device 180 is notified of the image composition information regarding the overlapping subject and the missing subject in the composite image, thereby causing the client device to erroneously detect image analysis. Can reduce the possibility of causing

[実施形態2]
次に、発明の第2の実施形態に対応する画像合成情報の生成方法を説明する。当該方法は、上述の発明の第1の実施形態にさらに追加して行うことが可能である。まず、図9は、本実施形態に対応する撮像装置100及びクライアント装置180の機能構成例を示すブロック図である。図2(A)と同じ構成については省略し、差分についてのみ説明を行う。
[Embodiment 2]
Next, a method for generating image synthesis information corresponding to the second embodiment of the invention will be described. The method can be performed in addition to the first embodiment of the invention described above. First, FIG. 9 is a block diagram illustrating a functional configuration example of the imaging device 100 and the client device 180 corresponding to the present embodiment. The same configuration as that in FIG. 2A is omitted, and only the difference will be described.

本実施形態に対応する撮像装置100の制御部150は、図2(A)の構成に加えて重複欠損判定部901を備える。重複欠損判定部901は、合成前後の画像を比較し、被写体像の重複及び欠損を判定する。その他の構成については図2(A)と同様である。また、クライアント装置のハードウェア構成は図2(B)に示したものと同じである。   The control unit 150 of the imaging apparatus 100 corresponding to the present embodiment includes an overlap defect determination unit 901 in addition to the configuration of FIG. The overlap defect determination unit 901 compares the images before and after the synthesis and determines the overlap and loss of the subject image. Other structures are similar to those in FIG. The hardware configuration of the client device is the same as that shown in FIG.

図10を参照して、本実施形態における重複欠損判定処理について説明する。図10は、発明の実施形態に対応する撮像装置100の重複欠損判定の一例を示すフローチャートである。該フローチャートに対応する処理は、例えば、制御部150として機能する1以上のプロセッサ(制御部150のCPU、MPU)が対応するプログラム(メモリ160等に格納)を実行することにより実現できる。   With reference to FIG. 10, the overlap defect determination processing in the present embodiment will be described. FIG. 10 is a flowchart illustrating an example of the overlap defect determination of the imaging apparatus 100 corresponding to the embodiment of the invention. The processing corresponding to the flowchart can be realized, for example, by executing a program (stored in the memory 160 or the like) corresponding to one or more processors (CPU, MPU of the control unit 150) functioning as the control unit 150.

まず、S1001において、制御部150は、撮像装置100が撮像を行ってメモリ160に保存した撮像画像データを選択し、画像合成部152が、画像合成処理により撮像画像データを結合し、合成画像データを生成する。生成された合成画像データはメモリ160に保存される。続くS1002において、重複欠損判定部901は、合成画像に被写体の重複、欠損が発生しているか否かを判定する。当該判定処理の詳細については、図13から図16を参照して後述する。被写体像の重複、欠損が発生していると判定された場合、処理はS1003に進む。重複、欠損が発生していない場合には、処理はS1004に進む。S1003では、S1002における判定結果に従い画像合成部152が画像合成情報を生成する。続くS1004において、通信部170が画像データと共に画像合成情報をネットワーク190を介してクライアント装置180に配信する。   First, in step S <b> 1001, the control unit 150 selects captured image data captured by the image capturing apparatus 100 and stored in the memory 160, and the image composition unit 152 combines the captured image data through image composition processing, and composite image data. Is generated. The generated composite image data is stored in the memory 160. In subsequent S1002, the overlap defect determination unit 901 determines whether or not there is a subject overlap or defect in the composite image. Details of the determination process will be described later with reference to FIGS. If it is determined that the subject images are duplicated or missing, the process proceeds to S1003. If no overlap or loss has occurred, the process proceeds to S1004. In S1003, the image composition unit 152 generates image composition information according to the determination result in S1002. In S <b> 1004, the communication unit 170 distributes the image composition information together with the image data to the client device 180 via the network 190.

次に、図11を参照してクライアント装置180側の動作について説明する。図11は、発明の実施形態2に対応するクライアント装置180の行う処理の一例を示すフローチャートである。該フローチャートに対応する処理は、例えば、制御部181及び画像解析部182として機能する1以上のプロセッサ(CPU、MPU)が対応するプログラムを実行することにより実現できる。   Next, the operation on the client device 180 side will be described with reference to FIG. FIG. 11 is a flowchart showing an example of processing performed by the client device 180 corresponding to the second embodiment of the invention. The processing corresponding to the flowchart can be realized, for example, when one or more processors (CPU, MPU) functioning as the control unit 181 and the image analysis unit 182 execute the corresponding program.

まず、S1101でクライアント装置180の制御部181は、通信部184を介して合成画像データを受信すると、伸長処理を行って、合成画像データを復元する。続くS1102において、クライアント装置180の制御部181は、S1101において得られた合成画像データを表示部183に表示する。続くS1103において、制御部181は、得られた合成画像データに画像合成情報が付加されているかどうかを判定する。画像合成情報が無い場合、処理はS1106へ進み、受信した合成画像データをクライアント装置180内の画像解析部182で解析し、続くS1107で、解析結果を表示部183において、すでに表示されている画像データに重畳表示する。一方、受信データに画像合成情報が付加されている場合、処理はS1104に進む。   First, in step S1101, when the control unit 181 of the client device 180 receives the composite image data via the communication unit 184, the control unit 181 performs decompression processing to restore the composite image data. In subsequent S1102, the control unit 181 of the client device 180 displays the composite image data obtained in S1101 on the display unit 183. In subsequent S1103, the control unit 181 determines whether or not image synthesis information is added to the obtained synthesized image data. If there is no image synthesis information, the process proceeds to S1106, where the received synthesized image data is analyzed by the image analysis unit 182 in the client device 180, and the analysis result is displayed on the display unit 183 in the subsequent S1107. Overlays the data. On the other hand, if the image composition information is added to the received data, the process proceeds to S1104.

S1104でクライアント装置180の制御部181は、受信データから抽出した画像合成情報に基づいて画像解析を行い、受信した合成画像における重複または欠損している被写体像、あるいは、画像領域を特定する。続くS1105では、制御部181は、設定した重複、欠損が発生した箇所をユーザへ通知するための標識(枠表示やマーカ表示等)を、すでに表示されている合成画像データに重畳して表示部183に表示する。その後、S1106において、合成画像データについて画像解析部182が解析を行い、例えば、合成画像に含まれる人物の人数をカウントする。続くS1107において、制御部181は、S1106における解析結果、例えば、カウントされた人数を表示部183に表示する。   In step S1104, the control unit 181 of the client device 180 performs image analysis based on the image synthesis information extracted from the received data, and identifies a subject image or an image region that is overlapped or missing in the received synthesized image. In subsequent S1105, the control unit 181 superimposes a marker (a frame display, a marker display, etc.) for notifying the user of the set overlapping or missing location on the already displayed composite image data. 183. Thereafter, in S1106, the image analysis unit 182 analyzes the composite image data, and counts the number of persons included in the composite image, for example. In subsequent S1107, the control unit 181 displays the analysis result in S1106, for example, the counted number of people on the display unit 183.

次に、図12を参照して撮像装置100において合成画像データに付加される重複・欠損の情報を含む画像合成情報のデータ構造の一例を説明する。図12(A)は撮像装置100が生成した合成画像1200の一例を示す。図12(B)は撮像装置100が合成画像1200に付加して送信する画像合成情報1210のデータ構造の一例を示す。   Next, an example of the data structure of image composition information including overlap / deletion information added to composite image data in the imaging apparatus 100 will be described with reference to FIG. FIG. 12A shows an example of a composite image 1200 generated by the imaging apparatus 100. FIG. 12B shows an example of the data structure of the image composition information 1210 that the imaging apparatus 100 adds to the composite image 1200 and transmits it.

図12(A)の合成画像1200上で合成位置1201が破線で示されている。当該合成位置1201の合成画像1200上における位置は、図12(B)の画像合成情報1210の合成位置1211で規定されている。合成位置1211に示すように、合成位置は(x0、y0)〜(xn、yn)までの複数の座標で表すことができる。各座標を結ぶ曲線が各撮像部で撮像した画像を合成した際の結合位置(結合された画像の境界線)を示す。   A composite position 1201 is indicated by a broken line on the composite image 1200 in FIG. The position on the composite image 1200 of the composite position 1201 is defined by the composite position 1211 of the image composite information 1210 in FIG. As shown in the synthesis position 1211, the synthesis position can be represented by a plurality of coordinates from (x0, y0) to (xn, yn). A curve connecting the coordinates indicates a combination position (boundary line of the combined image) when the images captured by the imaging units are combined.

重複・欠損フラグ1212は、被写体像の多重像又は欠損の発生有無を通知するためのフラグ情報である。フラグ情報は例えば2ビットで表現することができ、1ビット目で重複の有無、2ビット目で欠損の有無を表すことができる。具体的に「11」であれば、重複、欠損がともに存在することを表す。「01」は重複のみ、「10」は欠損のみを表し、「00」は重複、欠損が生じていないことを示す。重複・欠損フラグ1212は、合成位置1211との関連で発生した重複や欠損の有無を示すフラグ情報であり、合成画像データの他の合成位置において発生している重複や欠損の有無は、その合成位置との関連で登録される。   The overlap / deletion flag 1212 is flag information for notifying whether or not a multiple image of a subject image or a defect has occurred. The flag information can be expressed by, for example, 2 bits, and the first bit can indicate the presence or absence of duplication, and the second bit can indicate the presence or absence of a defect. Specifically, “11” indicates that both duplication and deficiency exist. “01” represents only duplication, “10” represents only deficiency, and “00” represents that no duplication or deficiency has occurred. The duplication / deletion flag 1212 is flag information indicating the presence / absence of duplication / deletion occurring in relation to the synthesis position 1211. The presence / absence of duplication / deletion occurring at other synthesis positions of the synthesized image data is determined by the synthesis. Registered in relation to location.

画像合成情報1210には、重複・欠損フラグ1212が「00」でない場合、重複、欠損している被写体像を特定するための被写体情報と位置情報がさらに追加される。対象1213は、重複、欠損が発生している被写体を識別するための識別情報である。当該識別情報は、同一の被写体を一意に特定可能な情報であれば、どのような情報でもよい。本実施形態では、個々の被写体に対してA、Bというようにアルファベットを割り当てて識別する。   When the overlap / deletion flag 1212 is not “00”, subject information and position information for specifying a subject image that is overlapping or missing is further added to the image composition information 1210. A target 1213 is identification information for identifying a subject in which duplication or loss occurs. The identification information may be any information as long as the information can uniquely identify the same subject. In the present embodiment, alphabets such as A and B are assigned to individual subjects for identification.

各被写体の画像における位置は、A1、A2、B1及びB2等の被写体情報1214から1217に含まれる、合成画像データ上における各被写体像の位置及び大きさを特定する情報により特定される。具体的に被写体像の重複・欠損が発生した被写体は、例えば、被写体像の中心位置と大きさを表す情報に基づき座標(x、y、r)と表現することができる。x、yは被写体座標、rは当該被写体座標を中心とした半径rの円で被写体の概寸を示す。被写体座標は必ずしも被写体の中心である必要はない。クライアント装置180側で、当該被写体像が判別できればよく、対象となる被写体の輪郭内の点であれば構わない。また、クライアント装置180側で背景差分情報から被写体の輪郭を抽出する際に、撮像装置100から送信した被写体座標が輪郭内に含まれていれば認識できる。   The position of each subject in the image is specified by information specifying the position and size of each subject image on the composite image data included in subject information 1214 to 1217 such as A1, A2, B1, and B2. Specifically, a subject in which overlapping / deletion of the subject image has occurred can be expressed as, for example, coordinates (x, y, r) based on information indicating the center position and size of the subject image. x and y are subject coordinates, and r is a circle with a radius r centered on the subject coordinates, indicating the approximate size of the subject. The subject coordinates are not necessarily the center of the subject. It is only necessary that the subject image can be discriminated on the client device 180 side, and any point within the contour of the subject subject can be used. Further, when the contour of the subject is extracted from the background difference information on the client device 180 side, it can be recognized if the subject coordinates transmitted from the imaging device 100 are included in the contour.

画像合成情報1210において、被写体A1、A2は同一の被写体Aの被写体像であることを示している。被写体の数に特に制限はなく、重複・欠損の発生した被写体の数だけ情報を用意するのが好ましい。被写体A1、A2は1組のデータで扱われる。左右2枚の画像を合成する場合に、左をA1、右をA2の様に位置関係を示してもよい。または、合成後の被写体の状態を判定し、A1を主被写体、A2を副被写体として優先順位を付けてもよい。   The image composition information 1210 indicates that the subjects A1 and A2 are subject images of the same subject A. There is no particular limitation on the number of subjects, and it is preferable to prepare as many information as the number of subjects with overlapping / deletion. The subjects A1 and A2 are handled by one set of data. When two left and right images are combined, the positional relationship may be indicated as A1 on the left and A2 on the right. Alternatively, the state of the combined subject may be determined, and A1 may be assigned as the main subject and A2 may be assigned as the sub-subject.

また、主被写体、副被写体の情報は、座標情報に組み込んでもよい。例えば、座標(x、y、r)に優先順位を表すビットp(1ビット)を追加して、(x、y、r、p)として表現することができる。pの値は、0において主被写体を表し、1において副被写体を表すことができる。   Further, the information on the main subject and the sub-subject may be incorporated into the coordinate information. For example, a bit p (1 bit) indicating the priority order is added to the coordinates (x, y, r) and can be expressed as (x, y, r, p). The value of p can represent a main subject at 0 and a sub-subject at 1.

なお、図12(B)は、図12(A)の合成位置1201との関連で登録された画像合成情報の一例を示すものであって、合成画像データが複数の合成位置を有する場合には、図12(B)に示したような情報のセットがそれぞれの合成位置について登録される。また、画像合成情報は、被写体像の重複、欠損が発生した場合に生成することができ、1フレーム単位で生成することができる。さらに、撮像部101から108において同期して撮像された撮像画像データから、サブグループ単位に合成が行われ複数の合成画像データが生成される場合、合成画像データごとに画像合成情報が生成される。   FIG. 12B shows an example of image composition information registered in relation to the composition position 1201 in FIG. 12A, and the composite image data has a plurality of composition positions. A set of information as shown in FIG. 12B is registered for each synthesis position. Further, the image composition information can be generated when duplication or loss of the subject image occurs, and can be generated in units of one frame. Further, when a plurality of composite image data is generated from the captured image data captured synchronously in the imaging units 101 to 108 in units of subgroups, image composite information is generated for each composite image data. .

図12(A)の被写体1202、1203の例では、像全体が判る被写体1202を主被写体A1とし、像の一部が欠けてしまっている被写体1203を副被写体A2として、クライアント装置に送信することができる。このように優先順位をつけることで、画像合成情報1210を受信したクライアント装置180が画像解析を行う際に検出精度を上げることが可能となる。   In the example of the subjects 1202 and 1203 in FIG. 12A, the subject 1202 whose entire image is known is the main subject A1, and the subject 1203 in which a part of the image is missing is sent as the sub-subject A2 to the client device. Can do. By assigning priorities in this way, it is possible to increase detection accuracy when the client device 180 that has received the image composition information 1210 performs image analysis.

図12(C)、(D)は、クライアント装置180側に備える表示部183に表示された画像の一例を示す。図12(C)の被写体1221と1222は重複(多重像)の関係であり、受信した画像合成情報1210内に被写体1221が主被写体A1であり、被写体1222が副被写体A2としてユーザから判別可能に表示されている。このように、クライアント装置180の表示においては、重複、欠損の生じている被写体像について、優先順位に対応した態様でマーカー等の標識を重畳表示することができる。このとき、表示する標識の色や形状などによって優先順位の識別を可能にできる。図12(D)の被写体1231は、画像上から欠損した状態を示す。よって、このとき被写体1232が主被写体A1となる。   12C and 12D show examples of images displayed on the display unit 183 provided on the client device 180 side. The subjects 1221 and 1222 in FIG. 12C are in an overlapping (multiple image) relationship, and the subject 1221 is the main subject A1 and the subject 1222 is the sub-subject A2 in the received image composition information 1210. It is displayed. As described above, in the display of the client device 180, markers such as markers can be superimposed and displayed in a manner corresponding to the priority order with respect to the subject images that are overlapped or missing. At this time, the priority can be identified by the color or shape of the sign to be displayed. A subject 1231 in FIG. 12D shows a state of being missing from the image. Accordingly, at this time, the subject 1232 becomes the main subject A1.

以下、例えばクライアント装置180が被写体の数量カウントを行う画像解析機能を実行する場合について示す。クライアント装置180は、撮像装置100から取得した画像合成情報に被写体が二重に発生していることが示されていること検知すると、最も優先順位の高い被写体像のみをカウント対象に含め、それ以外の被写体像はカウント対象から除外する。例えば、図12(C)の副被写体の被写体1222をカウントの対象から除外する。さらにクライアント装置180は、撮像装置100からの画像合成情報を基に多重像に対して優先関係を含めた情報表示を行う。一例として破線で対象となる被写体を囲んでいるが、表示方法はこれに限らない。被写体の色を変えて表示する、矢印等のマーカー表示を重ねる等、種々の表現方法が適用できる。破線1201は、画像合成時の境界線である。ユーザから目視可能な形で提示してもよいし、表示、非表示を切り替え可能に構成してもよい。   Hereinafter, for example, a case where the client apparatus 180 executes an image analysis function for counting the number of subjects will be described. When the client device 180 detects that the subject is doubled in the image composition information acquired from the imaging device 100, the client device 180 includes only the subject image with the highest priority as the count target, and otherwise. Subject images are excluded from the count target. For example, the sub-object 1222 in FIG. 12C is excluded from the count target. Further, the client device 180 displays information including a priority relationship with respect to the multiple images based on the image composition information from the imaging device 100. As an example, the subject is surrounded by a broken line, but the display method is not limited to this. Various expression methods can be applied, such as displaying a subject with a different color or overlaying marker displays such as arrows. A broken line 1201 is a boundary line at the time of image composition. It may be presented in a form that is visible to the user, or may be configured to be switchable between display and non-display.

次に、図13及び図14を参照して、図10のS1002における、重複欠損判定部901による被写体像の重複欠損判定方法の具体例を説明する。   Next, with reference to FIGS. 13 and 14, a specific example of the method for determining the overlapping defect of the subject image by the overlapping defect determination unit 901 in S1002 of FIG. 10 will be described.

図13は、重複欠損判定処理の一具体例を示すフローチャートである。S1301において、撮像装置100の画像合成部152は、合成前の撮像画像データ(合成前画像)に対して重複欠損を判定するための判定領域を設定し、設定した判定領域内に存在する被写体像を抽出する。続くS1302において、重複欠損判定部901は、これから合成する合成前画像間で、S1301でそれぞれ検出された被写体像が同一被写体のものであるか否かを判定する。同一被写体かどうかは、例えば、被写体形状、被写体の色、動きベクトルに基づいて判定することができる。   FIG. 13 is a flowchart illustrating a specific example of the overlap defect determination process. In step S <b> 1301, the image composition unit 152 of the image capturing apparatus 100 sets a determination region for determining overlapping deficiency with respect to captured image data (pre-combination image) before combining, and subject images that exist within the set determination region. To extract. In subsequent S1302, the overlap defect determination unit 901 determines whether or not the subject images detected in S1301 are those of the same subject among the pre-combination images to be synthesized. Whether or not they are the same subject can be determined based on the subject shape, the subject color, and the motion vector, for example.

続くS1303において、重複欠損判定部901は、合成前画像間で同一被写体の被写体像と認定された被写体像が、重複欠損が発生する関係にあるかどうかを判定する。重複・欠損は、撮像画角内における被写体の位置及び距離に応じて発生する。したがって、被写体が撮像画角内の特定の位置、距離に存在しているかどうかに基づいて、合成後に被写体像の重複・欠損が発生するかどうかを判定することができる。本実施形態においては撮像部の配置と撮像画角は既知の情報であるため、撮像画角内の被写体の位置と距離を2枚の合成前画像上における各被写体像の座標により特定することができる。よって、被写体像が各合成前画像のどこに位置しているかによって、合成後に重複、欠損が発生するかどうかを判定することが可能となる。   In subsequent S1303, the overlap defect determination unit 901 determines whether or not subject images that are recognized as subject images of the same subject between the pre-combination images have a relationship in which overlap defect occurs. Duplication / deletion occurs according to the position and distance of the subject within the imaging angle of view. Therefore, based on whether or not the subject exists at a specific position and distance within the imaging angle of view, it can be determined whether or not the subject image overlaps or is lost after the composition. In the present embodiment, since the arrangement of the imaging unit and the imaging angle of view are known information, the position and distance of the subject within the imaging angle of view can be specified by the coordinates of each subject image on the two pre-combine images. it can. Therefore, it is possible to determine whether duplication or loss occurs after composition depending on where the subject image is located in each pre-combination image.

被写体の位置及び距離の判別方法は上記に限らない。例えば撮像装置100が、撮像素子上に結像する被写体像の位相差を検出可能な撮像素子を備えた場合、撮像素子に結像した被写体像から被写体距離を算出することが可能である。また、一般的なコントラストAF(オートフォーカス)動作の様に、被写体像の結像するコントラスト値から被写体距離を検出する方法をとってもよい。   The method for determining the position and distance of the subject is not limited to the above. For example, when the imaging apparatus 100 includes an imaging device that can detect the phase difference of the subject image formed on the imaging device, the subject distance can be calculated from the subject image formed on the imaging device. Further, a method of detecting the subject distance from the contrast value at which the subject image is formed may be used like a general contrast AF (autofocus) operation.

次に図14を参照して、上記判定処理をより具体的に説明する。図14(A)は、撮像部101、102が被写体1401を撮像している場面を上空から見た模式図である。被写体1401が位置T1〜T3へ順次移動していく場合を想定している。被写体1402は撮像装置100の設置時から撮像環境に存在する被写体である。画像合成部152は、被写体1402を基準に合成位置の調整を行う。破線1403、1404は撮像装置100の合成画像において、画像の重複・欠損なく合成可能な被写体距離を概念的に示す。被写体1401は、撮像装置100に対して被写体1402よりも遠い位置を横切ることになる。領域1405、1406、1407はそれぞれ撮像部101、102の撮像画角で互いに重複している領域である。このうち、領域1406内に存在する被写体は、合成画像データにおいて被写体像が重複して存在することになる。   Next, the determination process will be described more specifically with reference to FIG. FIG. 14A is a schematic view of a scene in which the imaging units 101 and 102 are imaging the subject 1401 as seen from above. It is assumed that the subject 1401 moves sequentially to the positions T1 to T3. A subject 1402 is a subject that has existed in the imaging environment since the imaging device 100 was installed. The image composition unit 152 adjusts the composition position based on the subject 1402. Dashed lines 1403 and 1404 conceptually indicate subject distances that can be combined without overlapping or missing images in the combined image of the imaging apparatus 100. The subject 1401 crosses a position farther than the subject 1402 with respect to the imaging apparatus 100. Regions 1405, 1406, and 1407 are regions that overlap each other at the imaging angle of view of the imaging units 101 and 102, respectively. Among these, the subject existing in the region 1406 has duplicate subject images in the composite image data.

図14(B)は、図14(A)の状況下での合成前画像と合成画像とを、位置T1からT3について示す。まず、画像1411、1412、1421、1422、1431、1432はそれぞれ撮像部101及び102がそれぞれ撮像した合成前画像である。画像1413、1423、1433は合成後の合成画像である。領域1414及び1415は、画像1411に設定された判定領域であり、領域1416及び1417は画像1412に設定された判定領域である。判定領域は、画像1421、1422、1431及び1432にもそれぞれ同様に設定される。ここで、判定領域のうち、領域1415及び1416は合成後の画像に含まれない第1の領域に該当し、領域1414及び1417は合成後の画像に含まれる第2の領域に該当する。また、第1の領域と第2の領域との境界を破線1441と破線1442とで示しているが、これらが画像合成する際の結合部となる。   FIG. 14B shows a pre-combination image and a composite image for the positions T1 to T3 under the situation of FIG. First, images 1411, 1412, 1421, 1422, 1431, and 1432 are pre-combination images captured by the imaging units 101 and 102, respectively. Images 1413, 1423, and 1433 are synthesized images after synthesis. Areas 1414 and 1415 are determination areas set in the image 1411, and areas 1416 and 1417 are determination areas set in the image 1412. The determination areas are similarly set for the images 1421, 1422, 1431, and 1432, respectively. Here, of the determination areas, areas 1415 and 1416 correspond to first areas not included in the combined image, and areas 1414 and 1417 correspond to second areas included in the combined image. Further, although the boundary between the first area and the second area is indicated by a broken line 1441 and a broken line 1442, these serve as a connecting portion when the images are combined.

具体的に、被写体1401が位置T1の時、判定領域の外側にいるため、合成画像に被写体の重複は発生しない。被写体1401が位置T2の場合、判定領域の内側、具体的には領域1414及び領域1416に入るため、重複欠損判定部901は撮像画像1421、1422の重複欠損判定領域内の被写体像を探索し、同一被写体の被写体像を抽出する。続いて、重複欠損判定部は2つの画像の視差情報(2枚の合成前画像上における座標)から被写体1401の存在する空間位置を算出し、重複欠損が発生するかを判定する。図14(B)に示す例では、被写体1401の被写体像は、画像1421においては領域1414に含まれるが、画像1422においては領域1416に含まれている。ここで領域1416は合成画像データには含まれない第1の領域ゆえ、合成画像データにおいて重複は発生しないと判定できる。また、画像1421の被写体1401の被写体像は、第1の領域に属していないため、欠損も生じないと判定することができる。画像1422の被写体1401の被写体像は、第1の領域のみに属しており、合成画像データからは完全に削除されてしまう。よって、合成画像データ1423では、画像1421側の被写体像1424のみが含まれる。   Specifically, when the subject 1401 is at the position T1, since the subject 1401 is outside the determination region, the subject image does not overlap. When the subject 1401 is at the position T2, the overlap defect determination unit 901 searches for the subject image in the overlap defect determination area of the captured images 1421 and 1422 because it enters the determination area, specifically, the area 1414 and the area 1416. Extract a subject image of the same subject. Subsequently, the overlap defect determination unit calculates the spatial position where the subject 1401 exists from the parallax information of the two images (coordinates on the two pre-combination images), and determines whether the overlap defect occurs. In the example shown in FIG. 14B, the subject image of the subject 1401 is included in the region 1414 in the image 1421, but is included in the region 1416 in the image 1422. Here, since the region 1416 is a first region not included in the composite image data, it can be determined that no overlap occurs in the composite image data. Further, since the subject image of the subject 1401 of the image 1421 does not belong to the first region, it can be determined that no defect occurs. The subject image of the subject 1401 of the image 1422 belongs only to the first region, and is completely deleted from the composite image data. Therefore, the composite image data 1423 includes only the subject image 1424 on the image 1421 side.

次に、被写体1401が位置T3の場合、重複欠損判定部901は被写体1401が、画像1431において第1の領域1415と第2の領域1414との両方に属するように位置していると判定する。この場合、被写体像のうち第1の領域1415に属する部分は合成画像データにおいて削除されてしまうため、欠損が生ずると判定することができる。また、画像1431と1432のそれぞれにおいて、被写体像が第2の領域1414及び1417に存在するため、重複が発生していると判定することができる。このとき、画像1432側の被写体像は第2の領域1417にのみ属しているため欠損は生じず、全体像が残る。合成画像データ1433では、一部が欠損した被写体像1434と、全体像が残った被写体像1435が含まれる。このような場合、画像合成部152は、被写体像1434を副被写体、被写体像1435を主被写体に決定することができる。   Next, when the subject 1401 is at the position T3, the overlap defect determination unit 901 determines that the subject 1401 is located so as to belong to both the first region 1415 and the second region 1414 in the image 1431. In this case, since a portion belonging to the first region 1415 in the subject image is deleted in the composite image data, it can be determined that a defect occurs. In addition, in each of the images 1431 and 1432, the subject image exists in the second regions 1414 and 1417, so that it can be determined that overlap has occurred. At this time, since the subject image on the image 1432 side belongs only to the second region 1417, no defect occurs and the entire image remains. The composite image data 1433 includes a subject image 1434 in which a part is lost and a subject image 1435 in which the entire image remains. In such a case, the image composition unit 152 can determine the subject image 1434 as the sub subject and the subject image 1435 as the main subject.

このように、図13及び図14との関連で説明した方法によれば、第1の領域及び第2の領域を含む判定領域を合成前画像にそれぞれ設定し、被写体像の少なくとも一部が第1の領域に属する場合は欠損が生ずると判定することができる。また、合成対象の合成前画像のそれぞれから抽出された被写体画像(部分的であってもよい)が、共に第2の領域に属している場合には、合成後において被写体像の重複が発生すると判定することができる。   As described above, according to the method described in relation to FIGS. 13 and 14, the determination area including the first area and the second area is set as the pre-combination image, and at least a part of the subject image is the first area. If it belongs to one region, it can be determined that a defect occurs. Further, if subject images (may be partial) extracted from each of the pre-combination images to be synthesized belong to the second region, subject images overlap after synthesis. Can be determined.

次に、図15及び図16を参照して、図10のS1002における、重複欠損判定部901による被写体像の重複欠損判定方法の他の具体例を説明する。   Next, with reference to FIGS. 15 and 16, another specific example of the subject image overlap defect determination method by the overlap defect determination unit 901 in S1002 of FIG. 10 will be described.

図15は、重複欠損判定処理の一具体例を示すフローチャートである。S1501において、撮像装置100の重複欠損判定部901は、合成前画像と合成画像に対して重複欠損を判定するための判定領域をそれぞれ設定し、判定領域内で被写体像の検出を行う。続くS1502において重複欠損判定部901は、判定領域内に入った被写体像の検出数が増減するかを判定する。これは判定領域への被写体像の入出力数と、判定領域内の被写体像の数を比較して行う。判定領域内の被写体像の数が判定領域への入出力数を上回った場合、被写体像の重複(多重像)が発生したと判定する。一方で、判定領域内の被写体像の数が判定領域への入出力数を下回った場合、欠損が発生したと判定する。   FIG. 15 is a flowchart illustrating a specific example of the overlap defect determination process. In step S1501, the overlap defect determination unit 901 of the imaging apparatus 100 sets determination areas for determining overlap defects for the pre-combination image and the composite image, and detects a subject image in the determination area. In subsequent S1502, the overlap defect determination unit 901 determines whether the number of detected subject images that have entered the determination area increases or decreases. This is done by comparing the number of input / output of subject images to the determination area with the number of subject images in the determination area. If the number of subject images in the determination area exceeds the number of inputs / outputs to the determination area, it is determined that overlap (multiple images) of the subject images has occurred. On the other hand, if the number of subject images in the determination area is less than the number of inputs / outputs to the determination area, it is determined that a defect has occurred.

続くS1503において重複欠損判定部901は、合成前画像と合成画像とを比較し、被写体像に変化があるかどうか判定する。被写体像に変化がある場合、欠損が発生したと判定することができる。S1502では、被写体像の数のみに基づいて判定しているため、一部欠損している被写体像があっても、検出数は相違しないことが考えられる。そこで、S1502で動体像の数が一致した場合でも、合成前後の被写体像の変化が生じているかどうか、特に被写体像の形状に変化が生じているかどうかを判定し、変化している場合には、欠損が発生したと判定する。被写体像の一部が欠損した場合、合成画像上の被写体像では形状を判定することが難しい。このため、合成画像上の被写体像に対応する合成前画像の被写体像とで形状が一致しているかどうかを判定している。合成前画像と合成画像との比較は、メモリ160に保持した合成前画像と合成画像との間で行うことが好ましいが、被写体像の動きが小さい場合は合成画像と1フレーム後の合成前画像を比較しても構わない。これによってメモリ160の容量を削減できる。   In subsequent S1503, the overlap defect determination unit 901 compares the pre-combination image and the composite image to determine whether there is a change in the subject image. If there is a change in the subject image, it can be determined that a defect has occurred. In S1502, since the determination is based only on the number of subject images, it is conceivable that the number of detections does not differ even if there is a partially missing subject image. Therefore, even if the number of moving body images matches in S1502, it is determined whether or not the subject image has changed before and after the synthesis, in particular whether or not the shape of the subject image has changed. It is determined that a defect has occurred. When a part of the subject image is lost, it is difficult to determine the shape of the subject image on the composite image. Therefore, it is determined whether or not the shapes of the subject image of the pre-combination image corresponding to the subject image on the composite image match. The comparison between the pre-combination image and the composite image is preferably performed between the pre-combination image and the composite image stored in the memory 160. However, when the movement of the subject image is small, the composite image and the pre-combination image after one frame are used. May be compared. Thereby, the capacity of the memory 160 can be reduced.

続くS1504において、重複欠損判定部901は、上記判定結果に基づいて、重複、欠損が検出された被写体像について、合成画像内における座標情報を生成する。このとき、被写体像の重複が発生している場合、多重像同士を比較して、主被写体と副被写体の判別を行うことができる。画像合成部152は、このようにして生成された情報に基づいて画像合成情報を生成することができる。   In subsequent S1504, the overlap defect determination unit 901 generates coordinate information in the composite image for the subject image in which overlap or defect is detected based on the determination result. At this time, if the subject images overlap, the multiple images can be compared to determine the main subject and the sub-subject. The image synthesis unit 152 can generate image synthesis information based on the information generated in this way.

次に、図16を参照して図15の重複欠損判定方法をより具体的に説明する。図16(A)は、撮像部101、102が被写体1601を撮像している場面を上空から見た模式図である。被写体1601が位置T1〜T5へ順次移動していく場合を示している。被写体1602は合成位置の基準となっている被写体である。領域1603、1604、1605はそれぞれ撮像部101、102の撮像画角で互いに重複している領域である。このうち、領域1604内に存在する被写体は、合成画像データにおいて被写体像が重複して存在することになる。   Next, the overlap defect determination method of FIG. 15 will be described more specifically with reference to FIG. FIG. 16A is a schematic view of a scene in which the imaging units 101 and 102 are imaging the subject 1601 as seen from above. The case where the subject 1601 sequentially moves to positions T1 to T5 is shown. A subject 1602 is a subject serving as a reference for the synthesis position. Regions 1603, 1604, and 1605 are regions that overlap each other at the imaging angle of view of the imaging units 101 and 102, respectively. Among these, the subject existing in the area 1604 is duplicated in the composite image data.

図16(B)は、図16(A)の状況下での合成前画像と合成画像とを位置T1からT5について示す。画像1611、1612、1621、1622、1631、1632、1641、1642、1651、1652はそれぞれ撮像部101及び102がそれぞれ撮像した合成前画像である。画像1613、1623、1633、1643、1653は合成後の合成画像である。領域1614及び1615は、画像1611に設定された判定領域であり、領域1616及び1617は画像1612に設定された判定領域である。領域1618は合成画像1613に設定された判定領域である。判定領域は、他の合成前画像1621及び合成画像1623等にもそれぞれ同様に設定される。ここで、判定領域のうち、領域1615及び1616は合成後の画像に含まれない第1の領域に該当し、領域1614及び1617は合成後の画像に含まれる第2の領域に該当する。また、第1の領域と第2の領域との境界を破線1671と破線1672とで示すが、これらが画像合成する際の結合部となる。また、合成前画像の判定領域と区別するため、領域1618を第3の領域とする。   FIG. 16B shows a pre-combination image and a composite image at positions T1 to T5 under the situation of FIG. Images 1611, 1612, 1621, 1622, 1631, 1632, 1641, 1642, 1651, and 1652 are pre-combine images respectively captured by the imaging units 101 and 102. Images 1613, 1623, 1633, 1643, and 1653 are synthesized images after synthesis. Areas 1614 and 1615 are determination areas set for the image 1611, and areas 1616 and 1617 are determination areas set for the image 1612. An area 1618 is a determination area set in the composite image 1613. The determination area is similarly set for each of the other pre-combination images 1621 and 1623. Here, among the determination areas, areas 1615 and 1616 correspond to a first area not included in the combined image, and areas 1614 and 1617 correspond to a second area included in the combined image. In addition, a boundary between the first area and the second area is indicated by a broken line 1671 and a broken line 1672, which serve as a connecting portion when the images are combined. In order to distinguish from the determination area of the pre-combine image, the area 1618 is set as a third area.

具体的に、被写体1601が位置T1の時、合成画像の第3の判定領域1618内に被写体像がいないため、被写体像1663は重複欠損判定部901により検出されない。但し、被写体像の検出範囲は判定領域に制限してもよいし、全画像領域としても構わない。領域のサイズを制限することで演算処理の負荷を軽減できる。   Specifically, when the subject 1601 is at the position T1, the subject image 1663 is not detected by the overlap defect determination unit 901 because there is no subject image in the third determination region 1618 of the composite image. However, the detection range of the subject image may be limited to the determination area or the entire image area. By limiting the size of the area, the processing load can be reduced.

被写体1601が位置T2の時、合成画像1623の第3の判定領域1618内に被写体像として被写体像1663が入ったこと、及び、第3の判定領域1618内に被写体像1663が存在することを重複欠損判定部901が検出する。このとき、判定領域1618内の被写体の入出力数と被写体像の数とは同数であるため、対象の被写体像1663は重複、欠損のいずれも発生していないと判断される。   When the subject 1601 is at the position T2, it overlaps that the subject image 1663 is entered as the subject image in the third determination region 1618 of the composite image 1623 and that the subject image 1663 exists in the third determination region 1618. The defect determination unit 901 detects it. At this time, since the number of input / outputs of the subject in the determination area 1618 is the same as the number of subject images, it is determined that neither the target subject image 1663 is duplicated nor missing.

次に、被写体1601が位置T3の時、第3の判定領域1618内で被写体像1664が新たに発生し、これにより合成画像1633の第3の判定領域1618内の被写体像の数は2と判定される。その一方で、第3の判定領域1633への入出力数に増減がないことから、入出力数を被写体像の検出数が上回り、被写体像の重複が発生した可能性があると判定する。   Next, when the subject 1601 is at the position T3, a new subject image 1664 is generated in the third determination region 1618, whereby the number of subject images in the third determination region 1618 of the composite image 1633 is determined to be two. Is done. On the other hand, since the number of inputs / outputs to / from the third determination region 1633 does not increase or decrease, the number of detected subject images exceeds the number of inputs / outputs, and it is determined that the subject images may have overlapped.

ここで重複欠損判定部901は、合成前画像1631及び1632と合成画像1633とを比較し、重複が発生した可能性のある被写体像が、合成前画像上の第2の判定領域1614、1617にあるため、被写体1601の被写体像が重複している判定する。ここで、被写体像1663と被写体像1664のうち、被写体像としてより大きな面積が表示されている被写体像1664を主被写体、一部が欠損している被写体像1663を副被写体とする。被写体が人物である場合は、体より顔などの器官がより特徴を示す部分となるため、被写体像のサイズではなく重要器官がより多く含まれる被写体像を主被写体としてもよい。重複が発生した場合の被写体像の優先度は被写体の種類に応じて適宜変更してもよい。   Here, the overlap defect determination unit 901 compares the pre-combination images 1631 and 1632 with the composite image 1633, and subject images that may have overlapped are displayed in the second determination regions 1614 and 1617 on the pre-combine image. Therefore, it is determined that the subject images of the subject 1601 overlap. Here, out of the subject image 1663 and the subject image 1664, the subject image 1664 in which a larger area is displayed as the subject image is the main subject, and the subject image 1663 partially missing is the sub-subject. When the subject is a person, an organ such as a face becomes a more characteristic part than the body. Therefore, a subject image including more important organs instead of the size of the subject image may be used as the main subject. The priority of the subject image when overlap occurs may be changed as appropriate according to the type of subject.

次に被写体1601が位置T4の時、合成画像1643の第3の判定領域1618内の被写体の入出力数は変わらず、また、検出された被写体数も1であるので、入出力数と被写体像の検出数とは一致している。しかし、被写体像の判別が困難になっている。そこで重複欠損判定部901は、合成前後の画像を比較し、被写体像1663に欠損が発生していると判定する。これに応じて画像合成部152は、画像合成情報として被写体像1643に欠損が発生していることを、画像データと共にクライアント装置に配信する。   Next, when the subject 1601 is at the position T4, the input / output number of subjects in the third determination area 1618 of the composite image 1643 is not changed, and the number of detected subjects is 1, so the input / output number and subject image This is consistent with the detected number. However, it is difficult to determine the subject image. Therefore, the overlap defect determination unit 901 compares the images before and after the synthesis and determines that a defect has occurred in the subject image 1663. In response to this, the image composition unit 152 distributes, to the client device, together with the image data, information indicating that a defect has occurred in the subject image 1643 as image composition information.

次に、被写体1601が位置T5の時、合成画像1653の第3の判定領域1618内で被写体像を検出できなくなる。よって、被写体像の検出数は0となり、入出力数に変化がないため、入出力数が被写体像の検出数よりも多くなる。この場合、被写体像に欠損が発生したと判定することができる。重複欠損判定部901は、合成前後の画像を比較し、被写体1601に欠損が発生していると判定する。画像合成部152は、画像合成情報として被写体像1663に欠損が発生していることを、合成画像データと共にクライアント装置に配信する。   Next, when the subject 1601 is at the position T5, the subject image cannot be detected within the third determination region 1618 of the composite image 1653. Therefore, the number of detected subject images is 0, and the number of input / outputs is not changed, so the number of input / outputs is greater than the number of detected subject images. In this case, it can be determined that a defect has occurred in the subject image. The overlap defect determination unit 901 compares the images before and after the synthesis and determines that a defect has occurred in the subject 1601. The image composition unit 152 distributes to the client device together with the composite image data that the subject image 1663 is deficient as image composition information.

画像合成情報を受信したクライアント装置180は、被写体像1663の領域で被写体が欠損していることを画像解析部へ通知し、画像解析を行う。例えば、画像解析として被写体数をカウントしている場合、クライアント装置は画像データ上に被写体1601が表示されていないが、画像合成情報を基に被写体1601が存在しているとして、被写体数=1とカウントする。さらに表示部へ被写体像1663が欠損していることをユーザへ通知するためのマーカー表示等を行い表示部へ画像データを表示する。   The client device 180 that has received the image composition information notifies the image analysis unit that the subject is missing in the region of the subject image 1663 and performs image analysis. For example, when counting the number of subjects as image analysis, the client device does not display the subject 1601 on the image data, but assumes that the subject 1601 exists based on the image composition information, the number of subjects = 1. Count. Further, a marker is displayed to notify the user that the subject image 1663 is missing on the display unit, and image data is displayed on the display unit.

以上、撮像装置で重複欠損判定を行う場合について説明を行ったが、合成画像上の重複欠損判定をクライアント装置180で行い、重複欠損が発生した可能性がある場合に撮像装置100へ問い合わせる構成をとっても構わない。撮像装置100は、合成前画像1611、1612をメモリに保持しておき、クライアント装置からの問い合わせに応じて、重複欠損判定を行うことでも同様の効果を得ることができる。   As described above, the case where the overlap defect determination is performed by the imaging apparatus has been described, but the configuration in which the overlap defect determination on the composite image is performed by the client apparatus 180 and the imaging apparatus 100 is inquired when there is a possibility that the overlap defect has occurred. It doesn't matter. The imaging apparatus 100 can also obtain the same effect by holding the pre-combination images 1611 and 1612 in the memory and performing the overlap defect determination in response to an inquiry from the client apparatus.

以上のように、重複や欠損が生じている被写体の存在をクライアント装置180に通知することで、画像解析時の誤検出を防ぐことが可能となる。また、クライアント装置180のユーザに対して、被写体像の重複、または欠損状態を通知することが可能となる。   As described above, it is possible to prevent erroneous detection during image analysis by notifying the client device 180 of the existence of a subject in which duplication or loss has occurred. In addition, it is possible to notify the user of the client device 180 of overlapping or missing object images.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:撮像装置、180:情報処理装置 100: imaging device, 180: information processing device

Claims (23)

複数の撮像部を備える撮像装置であって、
前記複数の撮像部のそれぞれは、隣接する撮像部と撮像画角の一部が重複するように配置され、
前記複数の撮像部のそれぞれで撮像された画像を結合する合成処理を行って合成画像を生成する合成手段と、
前記合成画像を情報処理装置に送信する通信手段と
を備え、
前記通信手段は、前記合成画像において重複、欠損している被写体像に関する情報を合成情報として、前記合成画像と共に前記情報処理装置に送信することを特徴とする撮像装置。
An imaging device comprising a plurality of imaging units,
Each of the plurality of imaging units is arranged so that a part of the imaging angle of view overlaps with an adjacent imaging unit,
Combining means for generating a combined image by performing a combining process for combining images captured by each of the plurality of imaging units;
Communication means for transmitting the composite image to an information processing device,
The image capturing apparatus, wherein the communication unit transmits information related to a subject image overlapping or missing in the composite image as composite information to the information processing apparatus together with the composite image.
前記合成情報は、前記合成画像における、結合された画像の境界を特定するための情報、及び、前記境界を含む領域を特定するための情報の少なくともいずれかを含むことを特徴とする請求項1に記載の撮像装置。   The composite information includes at least one of information for specifying a boundary of combined images and information for specifying a region including the boundary in the composite image. The imaging device described in 1. 前記領域は、重複している被写体像を含んでいる領域と、被写体像の欠損が生じている領域との少なくともいずれかを含むことを特徴とする請求項2に記載の撮像装置。   The imaging device according to claim 2, wherein the region includes at least one of a region including overlapping subject images and a region in which a subject image is missing. 前記合成情報は、前記合成画像における被写体像の重複、欠損の有無の情報と、前記合成画像において当該被写体像を特定するための情報とを含むことを特徴とする請求項1から3のいずれか1項に記載の撮像装置。   The composite information includes information on the presence or absence of duplication or loss of subject images in the composite image, and information for specifying the subject image in the composite image. The imaging apparatus according to item 1. 前記合成情報は、同一の被写体について複数の被写体像の情報を含む場合に、前記複数の被写体像に対して割り当てられた優先順位を更に含むことを特徴とする請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the combination information further includes priority assigned to the plurality of subject images when the information includes a plurality of subject image information for the same subject. 前記合成画像において被写体像の重複または欠損が生じるかどうかを判定する判定手段をさらに備え、
前記合成情報は、前記判定手段が前記被写体像の重複または欠損が生じると判定した場合に生成されることを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
A determination means for determining whether duplication or loss of the subject image occurs in the composite image;
The imaging apparatus according to claim 1, wherein the composite information is generated when the determination unit determines that the subject image is duplicated or missing.
前記判定手段は、前記複数の撮像部のそれぞれで撮像された画像に対して判定領域を設定し、結合される画像の前記判定領域に同一の被写体の被写体像がそれぞれ含まれる場合に、前記被写体像の重複が生じると判定することを特徴とする請求項6に記載の撮像装置。   The determination unit sets a determination region for an image captured by each of the plurality of imaging units, and the subject is included when the determination region of the combined image includes a subject image of the same subject. The imaging apparatus according to claim 6, wherein it is determined that image overlap occurs. 前記判定領域には、前記合成画像には含まれない第1の領域と、前記合成画像に含まれる第2の領域とが含まれ、被写体像の少なくとも一部が前記第1の領域に含まれる場合に、前記判定手段は、当該被写体像は、前記合成画像において欠損が生ずると判定することを特徴とする請求項7に記載の撮像装置。   The determination area includes a first area that is not included in the synthesized image and a second area that is included in the synthesized image, and at least a part of the subject image is included in the first area. The image pickup apparatus according to claim 7, wherein the determination unit determines that the subject image has a defect in the composite image. 前記判定手段は、前記合成画像に対して判定領域を設定し、前記判定領域に入出する被写体数と、前記判定領域内の被写体数とをカウントし、前記入出する被写体数と前記判定領域内の被写体数との相違に基づいて、前記被写体像の重複または欠損が生じているかどうかを判定することを特徴とする請求項6に記載の撮像装置。   The determination unit sets a determination region for the composite image, counts the number of subjects entering / exiting the determination region and the number of subjects in the determination region, and counts the number of subjects input / output and the number of subjects in the determination region The imaging apparatus according to claim 6, wherein it is determined whether or not the subject images are duplicated or missing based on a difference from the number of subjects. 前記判定手段は、前記入出する被写体数よりも前記判定領域内の被写体数が多い場合に、前記被写体像の重複が生じていると判定することを特徴とする請求項9に記載の撮像装置。   The imaging apparatus according to claim 9, wherein the determination unit determines that the subject images overlap when the number of subjects in the determination region is larger than the number of subjects to enter and exit. . 前記判定手段は、前記入出する被写体数よりも前記判定領域内の被写体数が少ない場合に、前記被写体像の欠損が生じていると判定することを特徴とする請求項9または10に記載の撮像装置。   11. The determination unit according to claim 9, wherein the determination unit determines that the subject image is missing when the number of subjects in the determination region is smaller than the number of subjects entering and exiting. Imaging device. 前記判定手段は、前記合成画像において抽出された前記判定領域内の被写体像の形状と、前記複数の撮像部のそれぞれで撮像された画像において抽出された対応する被写体像の形状とを比較し、一致しない場合に前記被写体像の欠損が生じていると判定することを特徴とする請求項9から11のいずれか1項に記載の撮像装置。   The determination means compares the shape of the subject image in the determination region extracted in the composite image with the shape of the corresponding subject image extracted in the image captured by each of the plurality of imaging units, The imaging apparatus according to claim 9, wherein if there is no match, it is determined that the subject image is missing. 情報処理装置であって、
請求項1から3のいずれか1項に記載の撮像装置から、前記合成画像と前記合成情報とを受信する通信手段と、
前記合成画像を表示する表示部を制御する制御手段と、
前記合成画像に対して解析処理を行う解析手段と
を備え、
前記制御手段は、前記合成画像に前記合成情報に基づく領域を設定し、
前記解析手段は、前記合成画像に対して行う解析処理において、前記領域の内側と、前記領域の外側とで処理を異ならせ、
前記制御手段は、前記解析手段による解析結果を表示するように前記表示部を制御することを特徴とする情報処理装置。
An information processing apparatus,
Communication means for receiving the composite image and the composite information from the imaging apparatus according to any one of claims 1 to 3,
Control means for controlling a display unit for displaying the composite image;
Analyzing means for performing analysis processing on the composite image,
The control means sets an area based on the composite information in the composite image,
In the analysis processing to be performed on the composite image, the analysis unit makes the processing different between the inside of the region and the outside of the region,
The information processing apparatus, wherein the control unit controls the display unit to display an analysis result by the analysis unit.
前記制御手段は、前記領域を示す標識を前記合成画像に重畳して表示するように前記表示部を制御することを特徴とする請求項13に記載の情報処理装置。   The information processing apparatus according to claim 13, wherein the control unit controls the display unit to display a sign indicating the region so as to be superimposed on the composite image. 前記解析処理は、前記合成画像に含まれる被写体像の数をカウントすることを含み、
前記解析手段は、前記領域の内側においては、少なくとも前記被写体像の形状の情報を用いて前記カウントを行い、当該領域の外側においては、前記被写体像の形状の情報を用いずに前記カウントを行うことを特徴とする請求項13または14に記載の情報処理装置。
The analysis process includes counting the number of subject images included in the composite image,
The analysis means performs the counting using at least information on the shape of the subject image inside the region, and performs the counting without using information on the shape of the subject image outside the region. The information processing apparatus according to claim 13 or 14, characterized in that:
前記解析手段は、前記被写体像の数のカウントを、被写体像の形状、色、及び動きの情報に基づいて行い、
前記領域の内側において、前記解析手段は前記形状の情報を用いずに前記解析処理を行うことを特徴とする請求項13または14に記載の情報処理装置。
The analysis means counts the number of the subject images based on information on the shape, color, and movement of the subject images,
The information processing apparatus according to claim 13, wherein the analysis unit performs the analysis processing without using the shape information inside the region.
情報処理装置であって、
請求項4から12のいずれか1項に記載の撮像装置から、前記合成画像と前記合成情報とを受信する通信手段と、
前記合成画像を表示する表示部を制御する制御手段と、
前記合成画像に対して解析処理を行う解析手段と
を備え、
前記制御手段は、前記合成情報に基づき、前記合成画像において重複、欠損している被写体像に標識を重畳して表示するように前記表示部を制御し、
前記制御手段は、前記解析手段による解析結果を表示するように前記表示部を制御することを特徴とする情報処理装置。
An information processing apparatus,
Communication means for receiving the composite image and the composite information from the imaging apparatus according to any one of claims 4 to 12,
Control means for controlling a display unit for displaying the composite image;
Analyzing means for performing analysis processing on the composite image,
The control means controls the display unit to superimpose and display a sign on a subject image that is overlapped or missing in the composite image based on the composite information,
The information processing apparatus, wherein the control unit controls the display unit to display an analysis result by the analysis unit.
情報処理装置であって、
請求項5、及び、請求項5に従属する請求項6から12のいずれか1項に記載の撮像装置から、前記合成画像と前記合成情報とを受信する通信手段と、
前記合成画像を表示する表示部を制御する制御手段と、
前記合成画像に対して解析処理を行う解析手段と
を備え、
前記制御手段は、前記合成情報に基づき、前記合成画像における重複、欠損している被写体の被写体像に標識を重畳して表示するように前記表示部を制御し、
前記制御手段は、前記解析手段による解析結果を表示するように前記表示部を制御し、
前記解析処理は、前記合成画像に含まれる被写体像の数をカウントすることを含み、
前記解析手段は、前記複数の被写体像に対して割り当てられた優先順位に基づいて、前記複数の被写体像のうち最も優先順位の高い被写体像のみを前記カウントの対象に含める
ことを特徴とする情報処理装置。
An information processing apparatus,
Communication means for receiving the composite image and the composite information from the imaging device according to claim 5 and any one of claims 6 to 12 dependent on claim 5.
Control means for controlling a display unit for displaying the composite image;
Analyzing means for performing analysis processing on the composite image,
The control means controls the display unit to superimpose and display a marker on a subject image of a subject that is overlapped or missing in the composite image based on the composite information,
The control means controls the display unit to display an analysis result by the analysis means,
The analysis process includes counting the number of subject images included in the composite image,
The analysis unit includes only the subject image having the highest priority among the plurality of subject images based on the priority order assigned to the plurality of subject images. Processing equipment.
前記制御手段は、前記標識を、前記複数の被写体像に対して割り当てられた優先順位に対応する態様で表示するように前記表示部を制御することを特徴とする請求項18に記載の情報処理装置。   19. The information processing according to claim 18, wherein the control unit controls the display unit to display the sign in a manner corresponding to a priority order assigned to the plurality of subject images. apparatus. 隣接する撮像部と撮像画角の一部が重複するように配置された複数の撮像部を備える撮像装置の制御方法であって、
合成手段が、前記複数の撮像部のそれぞれで撮像された画像を結合する合成処理を行って合成画像を生成する生成工程と、
通信手段が、前記合成画像を情報処理装置に送信する送信工程と、
を含み、
前記送信工程では、前記合成画像において重複、欠損している被写体像に関する情報を合成情報として、前記合成画像と共に前記情報処理装置に送信することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus including a plurality of imaging units arranged so that a part of an imaging angle of view overlaps with an adjacent imaging unit,
A generating step in which a combining unit performs a combining process for combining images captured by each of the plurality of imaging units to generate a combined image;
A communication step of transmitting the composite image to an information processing apparatus;
Including
In the transmission step, information regarding a subject image that is overlapped or missing in the composite image is transmitted as composite information to the information processing apparatus together with the composite image.
情報処理装置の制御方法であって、
通信手段が、請求項1から3のいずれか1項に記載の撮像装置から、前記合成画像と前記合成情報とを受信する受信工程と、
解析手段が、前記合成画像に対して解析処理を行う解析工程と、
制御手段が、表示部に前記解析工程における解析結果と前記合成画像とを表示させる表示工程と
を含み、
前記解析工程では、前記合成画像に対して行う解析処理において、前記制御手段が前記合成画像に前記合成情報に基づいて設定した領域の内側と、前記領域の外側とで処理が異なることを特徴とする情報処理装置の制御方法。
A method for controlling an information processing apparatus, comprising:
A receiving step in which a communication unit receives the composite image and the composite information from the imaging apparatus according to any one of claims 1 to 3.
An analysis step in which the analysis means performs an analysis process on the composite image;
The control means includes a display step of displaying the analysis result in the analysis step and the composite image on the display unit,
In the analysis step, in the analysis processing performed on the composite image, the processing is different between the inside of the region set by the control unit in the composite image based on the composite information and the outside of the region. Control method for information processing apparatus.
コンピュータを請求項1から12のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the imaging device of any one of Claims 1-12. コンピュータを請求項13から19のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the information processing apparatus according to any one of claims 13 to 19.
JP2018094757A 2018-05-16 2018-05-16 Imaging apparatus, information processing apparatus, control method of the same, and program Pending JP2019201324A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018094757A JP2019201324A (en) 2018-05-16 2018-05-16 Imaging apparatus, information processing apparatus, control method of the same, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018094757A JP2019201324A (en) 2018-05-16 2018-05-16 Imaging apparatus, information processing apparatus, control method of the same, and program

Publications (1)

Publication Number Publication Date
JP2019201324A true JP2019201324A (en) 2019-11-21

Family

ID=68612355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018094757A Pending JP2019201324A (en) 2018-05-16 2018-05-16 Imaging apparatus, information processing apparatus, control method of the same, and program

Country Status (1)

Country Link
JP (1) JP2019201324A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7517881B2 (en) 2020-07-13 2024-07-17 株式会社竹中工務店 Management System

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7517881B2 (en) 2020-07-13 2024-07-17 株式会社竹中工務店 Management System

Similar Documents

Publication Publication Date Title
US11089284B2 (en) Image processing apparatus, image generating method, and storage medium
US11538207B2 (en) Image processing method and apparatus, image device, and storage medium
US10893251B2 (en) Three-dimensional model generating device and three-dimensional model generating method
JP7080103B2 (en) Imaging device, its control method, and program
EP3198862B1 (en) Image stitching for three-dimensional video
US9762816B2 (en) Video processing apparatus, camera apparatus, video processing method, and program
JP5147761B2 (en) Image monitoring device
US10674066B2 (en) Method for processing image and electronic apparatus therefor
JP2015133691A (en) Imaging apparatus, image processing system, imaging method and recording medium
US20160155009A1 (en) Display apparatus and image processing method thereby
JP2019083402A (en) Image processing apparatus, image processing system, image processing method, and program
JP5963006B2 (en) Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program
JP4539015B2 (en) Image communication apparatus, image communication method, and computer program
JP6584237B2 (en) Control device, control method, and program
US11195295B2 (en) Control system, method of performing analysis and storage medium
JP6021489B2 (en) Imaging apparatus, image processing apparatus and method thereof
JP2019201324A (en) Imaging apparatus, information processing apparatus, control method of the same, and program
KR20220121533A (en) Method and device for restoring image obtained from array camera
JP2018139052A (en) Communication terminal, image communication system, display method and program
JP2015156540A (en) Image processing device, image processing method, and image processing program
JP2005149145A (en) Object detecting device and method, and computer program
JP6812643B2 (en) Communication terminals, image communication systems, display methods, and programs
JP2017184025A (en) Communication terminal, image communication system, image transmission method, image display method, and program
JP2018112991A (en) Image processor, image processing system, method for image processing, and program
JP2020088571A (en) Management system, information processing system, information processing method and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113