JP2019115031A - Information processing apparatus, system, information processing method, and program - Google Patents

Information processing apparatus, system, information processing method, and program Download PDF

Info

Publication number
JP2019115031A
JP2019115031A JP2018160283A JP2018160283A JP2019115031A JP 2019115031 A JP2019115031 A JP 2019115031A JP 2018160283 A JP2018160283 A JP 2018160283A JP 2018160283 A JP2018160283 A JP 2018160283A JP 2019115031 A JP2019115031 A JP 2019115031A
Authority
JP
Japan
Prior art keywords
image
pattern
unit
information processing
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018160283A
Other languages
Japanese (ja)
Other versions
JP7182953B2 (en
Inventor
憲太朗 小暮
Kentaro Kogure
憲太朗 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/220,597 priority Critical patent/US10937124B2/en
Priority to EP18215256.1A priority patent/EP3503021B1/en
Priority to CN201811591092.XA priority patent/CN110009557A/en
Publication of JP2019115031A publication Critical patent/JP2019115031A/en
Application granted granted Critical
Publication of JP7182953B2 publication Critical patent/JP7182953B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

To output an image suitable for an imaging scene or the like.SOLUTION: The information processing apparatus includes: setting means for setting a pattern for outputting a partial image obtained from an omnidirectional image on the basis of the number and positions of regions of interest obtained from the omnidirectional image which is a captured image captured using a fisheye lens; cutting means for cutting out a partial image including a region of interest from the omnidirectional image on the basis of the pattern set by the setting means; correction means for performing distortion correction processing on the partial image cut off by the cutting means; and output means for outputting the partial image subjected to distortion correction processing by the correction means in accordance with the pattern set by the setting means.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置、システム、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, system, information processing method, and program.

従来、監視カメラの種別の1つとして魚眼レンズを搭載した魚眼カメラが浸透してきている。1台で360°監視することができるので、台数・コストの削減につながる。また、魚眼カメラから得られる全方位画像をそのまま出力するだけではなく、複数種類の切り取り処理及び歪補正処理を行った画像や映像を出力可能なカメラがある。このようなカメラでは人体検知や動体検知といった各種Video Content Analysis等を使用する際も切り取り処理及び歪み補正処理後の画像を用いることも多い。更に、このようなカメラでは複数種類の切り取り処理及び歪み補正処理を行った複数の映像を出力して撮像環境や設置環境に応じた監視ができる。
しかしながら、ユーザーが監視している撮像シーンに対して適切な切り取り処理あるいは歪補正方式を、ユーザーインターフェースを介して設定する必要がある。また、一度設定した切り取り処理及び歪曲補正方式を用いていると撮像シーンの変化に対応できない。
例えば、特許文献1では、複数の画像の特徴量を検出し、指定された各画像の連続表示時間ごとに表示装置に切り替える方法が開示されている。
Conventionally, a fisheye camera equipped with a fisheye lens as one of the types of surveillance cameras has penetrated. As one unit can monitor 360 °, it leads to the reduction of the number and cost. There is also a camera capable of outputting not only an omnidirectional image obtained from a fisheye camera as it is but also an image or video subjected to a plurality of types of clipping processing and distortion correction processing. In such a camera, when using various video content analysis and the like such as human body detection and moving body detection, an image after cutting processing and distortion correction processing is often used. Furthermore, such a camera can output a plurality of images subjected to a plurality of types of cutting processing and distortion correction processing, and can perform monitoring according to the imaging environment and the installation environment.
However, it is necessary to set an appropriate clipping process or distortion correction method for the imaging scene monitored by the user via the user interface. Also, if the cropping process and distortion correction method set once are used, it is not possible to cope with changes in the imaging scene.
For example, Patent Document 1 discloses a method of detecting feature amounts of a plurality of images and switching to a display device at each continuous display time of each designated image.

特開2015−222917号公報JP, 2015-222917, A

しかしながら、魚眼カメラから得られる撮像画像の表示に関して、撮像シーン等に適した表示がより一層求められている。   However, regarding the display of a captured image obtained from a fisheye camera, a display suitable for a captured scene or the like is further required.

本発明の情報処理装置は、魚眼レンズを用いて撮像された撮像画像である全方位画像から得られる注目領域の数及び位置に基づいて、前記全方位画像から得られる部分画像を出力するためのパターンを設定する設定手段と、前記設定手段により設定されたパターンに基づいて、前記全方位画像から前記注目領域を含む部分画像を切り取る切り取り手段と、前記切り取り手段により切り取られた部分画像に対して歪補正処理を行う補正手段と、前記設定手段によって設定されたパターンに従って、前記補正手段により歪補正処理された部分画像を出力する出力手段と、を有する。   An information processing apparatus according to the present invention is a pattern for outputting a partial image obtained from the omnidirectional image, based on the number and position of a notable area obtained from the omnidirectional image which is a captured image captured using a fisheye lens. And a cutting unit that cuts out a partial image including the region of interest from the omnidirectional image based on the pattern set by the setting unit, and a distortion with respect to the partial image cut by the cutting unit. The image processing apparatus further includes: a correction unit that performs a correction process; and an output unit that outputs a partial image that has been subjected to the distortion correction process by the correction unit according to the pattern set by the setting unit.

本発明によれば、撮像シーン等に適した、画像を出力することができる。   According to the present invention, it is possible to output an image suitable for an imaging scene or the like.

カメラのハードウェア構成の一例を示す図である。It is a figure showing an example of the hardware constitutions of a camera. 撮像部の一例を示す図である。It is a figure which shows an example of an imaging part. カメラのソフトウェア構成の一例を示す図である。It is a figure which shows an example of the software configuration of a camera. 撮像画像の一例を示す図である。It is a figure which shows an example of a captured image. 出力部により出力される画像の一例を示す図である。It is a figure which shows an example of the image output by an output part. 撮像画像の一例を示す図である。It is a figure which shows an example of a captured image. 出力部により出力される画像の一例を示す図である。It is a figure which shows an example of the image output by an output part. カメラの情報処理の一例を示すフローチャートである。It is a flowchart which shows an example of the information processing of a camera. カメラの情報処理の一例を示すフローチャートである。It is a flowchart which shows an example of the information processing of a camera. パターン1の一例を示す図である。FIG. 6 is a diagram showing an example of a pattern 1; 歪補正処理が行われた画像の一例を示す図である。It is a figure which shows an example of the image in which the distortion correction process was performed. パターン2の一例を示す図である。FIG. 7 is a diagram showing an example of a pattern 2; 歪補正処理が行われた画像の一例を示す図である。It is a figure which shows an example of the image in which the distortion correction process was performed. パターン3の一例を示す図である。FIG. 10 is a diagram illustrating an example of a pattern 3; 歪補正処理が行われた画像の一例を示す図である。It is a figure which shows an example of the image in which the distortion correction process was performed. 出力部により出力される画像の一例を示す図である。It is a figure which shows an example of the image output by an output part. 撮像システムを構成する装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the apparatus which comprises an imaging system. 撮像システムを構成する装置のソフトウェア構成の一例を示す図である。It is a figure which shows an example of the software configuration of the apparatus which comprises an imaging system. クライアント装置の情報処理の一例を示すフローチャートである。It is a flowchart which shows an example of the information processing of a client apparatus. 撮像画像の一例を示す図である。It is a figure which shows an example of a captured image. パターン2以外のパターンの一例を示す図である。It is a figure which shows an example of patterns other than the pattern 2. FIG. クライアント装置の情報処理の一例を示すフローチャートである。It is a flowchart which shows an example of the information processing of a client apparatus. パターン3の一例を示す図である。FIG. 10 is a diagram illustrating an example of a pattern 3; 歪補正処理が行われた画像の一例を示す図である。It is a figure which shows an example of the image in which the distortion correction process was performed. パターン2の一例を示す図である。FIG. 7 is a diagram showing an example of a pattern 2; 歪補正処理が行われた画像の一例を示す図である。It is a figure which shows an example of the image in which the distortion correction process was performed. パターン3の一例を示す図である。FIG. 10 is a diagram illustrating an example of a pattern 3; 歪補正処理が行われた画像の一例を示す図である。It is a figure which shows an example of the image in which the distortion correction process was performed. パターン3の一例を示す図である。FIG. 10 is a diagram illustrating an example of a pattern 3; 歪補正処理が行われた画像の一例を示す図である。It is a figure which shows an example of the image in which the distortion correction process was performed. パターン3の一例を示す図である。FIG. 10 is a diagram illustrating an example of a pattern 3; パターン3の一例を示す図である。FIG. 10 is a diagram illustrating an example of a pattern 3; 歪補正処理が行われた画像の一例を示す図である。It is a figure which shows an example of the image in which the distortion correction process was performed. パターン1の一例を示す図である。FIG. 6 is a diagram showing an example of a pattern 1; 歪補正処理が行われた画像の一例を示す図である。It is a figure which shows an example of the image in which the distortion correction process was performed.

以下、本発明の実施形態について図面に基づいて説明する。以下では、撮像装置としてカメラを用いる場合について説明する。   Hereinafter, embodiments of the present invention will be described based on the drawings. Below, the case where a camera is used as an imaging device is demonstrated.

<実施形態1>
図1は、カメラ10のハードウェア構成の一例を示す図である。カメラ10は魚眼カメラである。カメラ10は、ハードウェア構成として、撮像部11と、CPU12と、メモリ13と、入力部14と、表示部15と、通信部16と、を含む。撮像部11は、被写体像を撮像する。撮像部11の詳細は後述する図2に示す。CPU12は、カメラ10の全体を制御する。メモリ13は、プログラム、撮像部11で撮像された画像、設定値等を記憶する。入力部14は、ユーザーの選択操作等を入力し、CPU12に渡す。表示部15は、CPU12の制御に基づき画面等を表示する。通信部16は、カメラ10をネットワークに接続し、他の装置との通信等を制御する。CPU12がメモリ13に記憶されたプログラムに基づき処理を実行することによって後述する図3に示すカメラ10のソフトウェア構成、及び後述する図8のフローチャートの処理が実現される。カメラ10は、情報処理装置の一例である。カメラ10からネットワークを介して取得した全方位画像を蓄積する録画サーバ、又は全方位画像を表示させるための端末装置に対しても以下の実施形態を適用することが可能である。
First Embodiment
FIG. 1 is a diagram showing an example of the hardware configuration of the camera 10. As shown in FIG. The camera 10 is a fisheye camera. The camera 10 includes an imaging unit 11, a CPU 12, a memory 13, an input unit 14, a display unit 15, and a communication unit 16 as a hardware configuration. The imaging unit 11 captures an image of a subject. Details of the imaging unit 11 are shown in FIG. 2 described later. The CPU 12 controls the entire camera 10. The memory 13 stores a program, an image captured by the imaging unit 11, a setting value, and the like. The input unit 14 inputs the user's selection operation and the like, and passes it to the CPU 12. The display unit 15 displays a screen or the like based on the control of the CPU 12. The communication unit 16 connects the camera 10 to a network and controls communication with other devices. By the CPU 12 executing processing based on the program stored in the memory 13, the software configuration of the camera 10 shown in FIG. 3 described later and the processing of the flowchart in FIG. 8 described later are realized. The camera 10 is an example of an information processing apparatus. The following embodiments can also be applied to a recording server that accumulates omnidirectional images acquired from the camera 10 via a network, or a terminal device for displaying omnidirectional images.

図2は、撮像部11の一例を示す図である。撮像部11は、数枚のレンズ群からなるレンズ201、CCDやCMOS等の撮像素子202を備える。また、撮像部11は、雑音軽減を行う相関二重サンプリング(Correlated Double Sampling:CDS)回路203を備える。また、撮像部11は、カメラの利得制御を自動で行うゲインコントロールアンプ回路(Automatic Gain Control:AGC)204を備える。また、撮像部11は、アナログ信号をデジタル信号へと変換を行うA/D変換205を備える。   FIG. 2 is a diagram showing an example of the imaging unit 11. The imaging unit 11 includes a lens 201 including a plurality of lens groups, and an imaging element 202 such as a CCD or a CMOS. In addition, the imaging unit 11 includes a correlated double sampling (CDS) circuit 203 that performs noise reduction. The imaging unit 11 also includes a gain control amplifier circuit (Automatic Gain Control: AGC) 204 that automatically performs gain control of the camera. The imaging unit 11 further includes an A / D conversion 205 that converts an analog signal into a digital signal.

図3は、カメラ10のソフトウェア構成の一例を示す図である。撮像制御部101は、撮像部11を制御し、撮像部11からの信号を画像生成部102に渡す。画像生成部102は、受け取った信号に基づき撮像画像を生成する。判定部103は、撮像画像から撮像シーンを判定する。パターン設定部104は、撮像画像から部分画像を切り取り、更に歪み補正した画像を出力画像上に配置するパターンを設定する。切り取り位置設定部105は、設定されたパターンに従って撮像画像の切り取り位置を設定する。切り取り部106は、切り取り位置設定部105で設定された切り取り位置で画像を切り取る。歪補正処理部107は、切り取り部106により切り取られた画像に対応する歪補正を行い、パターン設定部104において設定されたパターンに基づいて切り取られた画像を出力画像として配置する処理を行う。出力部108は、歪補正処理部107で歪補正された画像信号を出力する。   FIG. 3 is a view showing an example of the software configuration of the camera 10. As shown in FIG. The imaging control unit 101 controls the imaging unit 11 and passes the signal from the imaging unit 11 to the image generation unit 102. The image generation unit 102 generates a captured image based on the received signal. The determination unit 103 determines a captured scene from the captured image. The pattern setting unit 104 cuts a partial image from the captured image, and sets a pattern for arranging an image subjected to distortion correction on the output image. The cut position setting unit 105 sets the cut position of the captured image according to the set pattern. The cutting unit 106 cuts out the image at the cutting position set by the cutting position setting unit 105. The distortion correction processing unit 107 performs distortion correction corresponding to the image cut by the cutting unit 106, and performs processing of arranging the cut image based on the pattern set by the pattern setting unit 104 as an output image. The output unit 108 outputs the image signal that has been subjected to the distortion correction by the distortion correction processing unit 107.

上述した各構成要素の動作について詳しく説明を行う。
まず、撮像装置について、図2及び図3を用いて詳しく説明を行う。撮像素子202は、撮像光学系としてのレンズ201を介して結像された被写体像を電気信号に変換する。レンズ201は歪みが多く画角が広い広角レンズや魚眼レンズでもよい。本実施形態では、撮像装置として魚眼レンズが備えられる魚眼カメラの場合に関して説明する。CDS回路203は、撮像素子202から出力された電気信号に対して相関二重サンプリング処理等を実施する。AGCアンプ204は、CDS回路203から出力された電気信号に対して増幅処理等を行う。A/D変換205は、AGCアンプ204により増幅処理されたアナログ信号をデジタル信号へと変換する。撮像制御部101は、撮像部11から得られた輝度信号及び色信号を画像生成部102に渡す。画像生成部102は、得られた輝度信号及び色信号からRGB画像やYUV画像等の画像信号を生成する。判定部103は、画像生成部102で生成された画像から注目領域の数、及び注目領域の位置を判定する。パターン設定部104は、判定部103で判定された画像内の注目領域の数及び位置(あるいは分布)に基づいてパターンを設定する。切り取り位置設定部105は、パターン設定部104において設定されたパターンに対応して、判定部103で判定された画像内の注目領域が切り取られる位置を設定する。このとき、1つの注目領域が分断されないような切り取り位置が設定される。切り取り部106は、切り取り位置設定部105で設定された切り取り位置を用いて画像生成部102で生成された画像から一部の画像を切り取る。歪補正処理部107は、切り取り部106で切り取られた画像に対して、種々の幾何学的変換等の歪補正処理を行う。そして、歪補正処理部107は、パターン設定部104で設定されたパターンに基づいて、歪み補正された画像を出力画像として配置する処理を実行する。
The operation of each component described above will be described in detail.
First, the imaging apparatus will be described in detail with reference to FIGS. 2 and 3. An imaging element 202 converts an object image formed through a lens 201 as an imaging optical system into an electrical signal. The lens 201 may be a wide-angle lens with a large distortion and a wide angle of view or a fisheye lens. In the present embodiment, the case of a fisheye camera provided with a fisheye lens as an imaging device will be described. The CDS circuit 203 performs correlated double sampling processing or the like on the electrical signal output from the imaging element 202. The AGC amplifier 204 performs amplification processing and the like on the electrical signal output from the CDS circuit 203. The A / D conversion 205 converts the analog signal amplified by the AGC amplifier 204 into a digital signal. The imaging control unit 101 passes the luminance signal and the color signal obtained from the imaging unit 11 to the image generation unit 102. The image generation unit 102 generates an image signal such as an RGB image or a YUV image from the obtained luminance signal and color signal. The determination unit 103 determines the number of attention areas and the position of the attention areas from the image generated by the image generation unit 102. The pattern setting unit 104 sets a pattern based on the number and the position (or distribution) of the attention area in the image determined by the determination unit 103. The cutout position setting unit 105 sets a position at which the attention area in the image determined by the determination unit 103 is cut out, corresponding to the pattern set by the pattern setting unit 104. At this time, a cutting position is set such that one region of interest is not divided. The cutting unit 106 cuts a part of the image from the image generated by the image generation unit 102 using the cutting position set by the cutting position setting unit 105. The distortion correction processing unit 107 performs distortion correction processing such as various geometric transformations on the image cut off by the cutting unit 106. Then, based on the pattern set by the pattern setting unit 104, the distortion correction processing unit 107 executes a process of arranging the distortion-corrected image as an output image.

ここで、図4〜図7を用いて切り取り部106で切り取り処理された画像及び歪補正処理部107で歪補正処理された画像に関して説明する。図4の全方位画像30は、屋内の天井に設置された魚眼レンズを備えた魚眼カメラで、床に対して垂直な方向を撮像して得られた画像の例である。切り取り部106は、図4の全方位画像30の破線で区切られた領域300の部分を除外して、同じく破線で区切られた領域301、領域302をそれぞれ切り取る。そして歪補正処理部107が歪補正処理を行い、領域302を上下反転させて繋げた出力画像の例を図5に示している。図4は、領域300を無効領域とみなして出力画像とせず、注目領域が含まれる領域301及び領域302を有効領域とみなして出力画像とする例である。更に、他の例として、図6に示すように、切り取り部106が注目領域である領域400〜402を部分的に切り取り、歪補正処理部107が歪補正処理を行う例が考えられる。図7の領域400〜402には、図6に示す切り取り領域400〜402の画像を歪み補正処理して出力された画像が配置されている。図6の例では、図6の領域400〜402を有効領域とみなして出力画像として用いられ、それ以外を無効領域とみなして出力画像としては用いられていない。なお、出力部108が3つの部分画像を合成して1つの画像として出力してもよいし、これら3つの部分画像を複数のストリームとして出力してもよい。4つ以上の場合も同様に、例えば出力部108が出力する画像の大きさに合わせて拡大縮小した後に各切り出し画像を合成して出力してもよいし、複数ストリームとして出力してもよい。出力部108は、歪補正処理部107で歪補正処理された画像信号を出力する。画像信号の出力先としてはカメラ10に内蔵されているディスプレイでもよいし、通信部16を介してネットワークに接続されている外部の端末装置でもよい。   Here, the image cut out by the cutting unit 106 and the image corrected by the distortion correction processing unit 107 will be described with reference to FIGS. 4 to 7. The omnidirectional image 30 in FIG. 4 is an example of an image obtained by imaging a direction perpendicular to the floor with a fisheye camera equipped with a fisheye lens installed on an indoor ceiling. The cutout unit 106 cuts out the area 301 and the area 302 which are similarly divided by the broken line except for the part of the area 300 which is divided by the broken line in the omnidirectional image 30 of FIG. 4. Then, FIG. 5 shows an example of an output image in which the distortion correction processing unit 107 performs distortion correction processing, and the areas 302 are vertically inverted and connected. FIG. 4 is an example in which the area 300 is regarded as an invalid area and is not regarded as an output image, but the area 301 and the area 302 including the attention area are regarded as effective areas and is regarded as an output image. Furthermore, as another example, as shown in FIG. 6, an example in which the region 400 to 402 which is the region of interest is partially cut out by the cutout unit 106 and the distortion correction processing unit 107 performs distortion correction processing can be considered. In the areas 400 to 402 of FIG. 7, images obtained by performing distortion correction processing on the images of the cut areas 400 to 402 shown in FIG. 6 are arranged. In the example of FIG. 6, the areas 400 to 402 of FIG. 6 are regarded as effective areas and used as an output image, and the other areas are regarded as invalid areas and are not used as an output image. Note that the output unit 108 may combine three partial images and output as one image, or may output these three partial images as a plurality of streams. Similarly, in the case of four or more, for example, each cut out image may be synthesized and output after being scaled according to the size of the image output by the output unit 108, or may be output as a plurality of streams. The output unit 108 outputs the image signal that has been subjected to the distortion correction processing by the distortion correction processing unit 107. The output destination of the image signal may be a display incorporated in the camera 10 or an external terminal device connected to the network via the communication unit 16.

図8のフローチャートを用いて、カメラ10が撮像画像の注目領域の条件に応じて画像を出力するためのパターン及び切り取り位置を設定する際の例を説明する。S101において、判定部103は、画像生成部102で生成された画像を取得する。この画像は歪み補正処理前の全方位画像である。次に、S102において、判定部103は、取得した歪み補正処理前の全方位画像から注目領域を抽出する。次に、S103において、判定部103は、注目領域が1箇所以上あるか否かを判定する。判定部103は、画像内の顔や人物の分布を算出し、画像内の顔や人物の数が設定された数より多い領域を注目領域として判定してもよいし、密集度が設定された値より高い領域を注目領域として判定してもよい。また、判定部103は、画像は一枚の画像から顔や人物の滞留度数や動線密度を算出してもよいし、複数枚の画像から顔や人物の滞留度数や動線密度を算出してもよい。なお、パターンマッチングを用いて顔あるいは人物を検出する場合、一旦歪み補正を行った画像に対して顔あるいは人物を検出する必要がある。また、判定部103は、解析を単純化して、所定サイズ以上の前景領域の数をカウントしてもよい。本実施形態では、判定部103は、歪み補正処理前の全方位画像内の周辺領域に対して、所定の大きさを有する領域内に人物が所定数(例えば3人)以上いる領域を注目領域と判定する。一方、判定部103は、歪み補正処理前の全方位画像内の中心領域に対して、当該設定された大きさを有する領域内に人物が1人以上存在する領域を注目領域とする。これは、歪み補正処理前の画像では、周辺部より中心部に存在する人物がより大きく撮影されるためである。前述の領域の設定された大きさは、予め全体画像に対して占める割合として決められメモリ13に記憶されていてもよいし、入力部14等を介したユーザー操作に応じて、メモリ13等に記憶されていてもよい。判定部103は、注目領域が画像上に存在しない場合(S103でNo)は、S104に遷移し、注目領域が1箇所以上画像上に存在する場合(S103でYes)は、S105に遷移する。S104において、パターン設定部104は、予めユーザーによって設定されたパターンを設定する。また、切り取り位置設定部105は、当該パターンに対応する切り取り位置を設定する。ここで、予めユーザーによって設定されたパターンは、パターン1、パターン2、パターン3の内、何れか1つでもよいし、切り取り前の全方位画像であってもよい。本実施形態では、予めユーザーによって設定されたパターンとして、画像全体が俯瞰できる切り取り前の全方位画像とし、この全方位画像が出力されるものとする。S105において、判定部103は、注目領域が2箇所以上あるか否かを判定する。判定部103は、注目領域が2箇所以上存在しない場合(S105でNo)は、S106に遷移し、注目領域が2箇所以上存在する場合(S105でYes)は、S107に遷移する。   An example of setting a pattern and a cutout position for outputting an image in accordance with the condition of the attention area of the captured image will be described using the flowchart of FIG. In S101, the determination unit 103 acquires the image generated by the image generation unit 102. This image is an omnidirectional image before distortion correction processing. Next, in S102, the determination unit 103 extracts a region of interest from the acquired omnidirectional image before distortion correction processing. Next, in S103, the determination unit 103 determines whether there is one or more attention areas. The determination unit 103 may calculate the distribution of faces and / or persons in the image, and determine an area having the number of faces and / or persons in the image larger than the set number as the attention area, or the density degree is set. An area higher than the value may be determined as the area of interest. In addition, the determination unit 103 may calculate the staying frequency or flow line density of the face or person from the image of one sheet, or calculate the staying frequency or flow line density of the face or person from the plurality of images. May be In the case of detecting a face or a person using pattern matching, it is necessary to detect the face or the person in an image which has been subjected to distortion correction. In addition, the determination unit 103 may simplify the analysis and count the number of foreground areas of a predetermined size or more. In the present embodiment, the determination unit 103 sets an area in which a predetermined number (for example, three people) or more of persons are present in an area having a predetermined size with respect to the peripheral area in the omnidirectional image before distortion correction processing. It is determined that On the other hand, with respect to the central area in the omnidirectional image before the distortion correction processing, the determination unit 103 sets an area in which one or more persons are present in the area having the set size as a focused area. This is because, in the image before the distortion correction processing, the person present in the central portion is photographed larger than the peripheral portion. The set size of the above-mentioned area may be determined in advance as a proportion of the entire image and may be stored in the memory 13 or may be stored in the memory 13 or the like according to user operation via the input unit 14 or the like. It may be stored. If the notable area is not present on the image (No in S103), the determination unit 103 transitions to S104, and if there is one or more notable areas on the image (Yes in S103), the determination unit 103 transitions to S105. In S104, the pattern setting unit 104 sets a pattern set by the user in advance. In addition, the cut position setting unit 105 sets a cut position corresponding to the pattern. Here, the pattern set in advance by the user may be any one of pattern 1, pattern 2 and pattern 3, or may be an omnidirectional image before cutting. In the present embodiment, it is assumed that an omnidirectional image before clipping which allows the entire image to be overlooked is used as a pattern set in advance by the user, and this omnidirectional image is output. In S105, the determination unit 103 determines whether there are two or more attention areas. If the determination unit 103 determines that two or more attention areas do not exist (No in S105), the process transitions to S106. If two or more attention areas exist (Yes in S105), the determination unit 103 transitions to S107.

S106において、パターン設定部104は、1箇所の注目領域に対応するため、分割画像を出力せずに1つの画像として出力するパターン1を設定する。また、切り取り位置設定部105は、設定されたパターン1に対応するように、1つの注目領域が含まれるような切り取り位置を設定する。S107において、判定部103は、注目領域が3箇所以上あるか否かを判定する。判定部103は、注目領域が3箇所以上存在しない場合(S107でNo)は、S108に遷移し、注目領域が3箇所以上存在する場合(S107でYes)は、S109に遷移する。S108において、パターン設定部104は、2箇所の注目領域に対応させるため、2画面分割画像(ダブルパノラマ)を生成し、出力するためのパターン2を設定する。また、切り取り位置設定部105は、設定されたパターン2に対応するように、検出された注目領域のそれぞれが分断されないような切り取り位置を設定する。S109において、パターン設定部104は、3箇所以上の注目領域に対応させるため、4画面分割画像を生成し、出力するためのパターン3を設定する。また、切り取り位置設定部105は、設定されたパターンに対応するように、注目領域を切り取る。   In step S106, the pattern setting unit 104 sets pattern 1 to be output as one image without outputting divided images in order to correspond to one target area. In addition, the cut position setting unit 105 sets a cut position that includes one target area so as to correspond to the set pattern 1. In S107, the determination unit 103 determines whether there are three or more attention areas. The determination unit 103 transitions to S108 when three or more attention areas do not exist (No in S107), and transitions to S109 when three or more attention areas exist (Yes in S107). In step S108, the pattern setting unit 104 generates a two-screen split image (double panorama) and sets pattern 2 for output in order to correspond to the two areas of interest. Further, the cut position setting unit 105 sets a cut position such that each of the detected attention areas is not divided so as to correspond to the set pattern 2. In step S109, the pattern setting unit 104 generates a 4-screen split image and sets pattern 3 for output in order to correspond to three or more target areas. In addition, the cutting position setting unit 105 cuts out the attention area so as to correspond to the set pattern.

図9のフローチャートを用いて、カメラ10が設定されたパターン及び切り取り位置に基づいて画像を切り取り、歪補正を行い、出力する例を説明する。S150において、切り取り部106は、パターン設定部104で設定されたパターン及び切り取り位置設定部105で設定された位置に基づいて、撮像画像より注目領域を切り取る。切り取り部106は、S106で設定されたパターン1及び切り取り位置の例では図10の全体画像から1箇所の破線で囲まれた左上に位置する注目領域501を切り取る。また、切り取り部106は、S108で設定されたパターン2及び切り取り位置の例では図12の全体画像から2箇所の破線で囲まれた真ん中の無効領域を除く、半円で表される領域601及び602から部分画像を切り取る。すなわち、切り取られた2枚の画像のそれぞれ1つずつ注目領域が含まれるように切り取り位置を設定する。また、切り取り部106は、S109で設定されたパターン3及び切り取り位置の例では図14の全体画像から3箇所の破線で囲まれた注目領域701、702、703を切り取る。S151において、歪補正処理部107は、S150で切り取られた画像に対して歪補正処理を実行する。例えば、歪補正処理部107は、パターンがパターン1、又はパターン3であった場合は、パターンに応じた歪み補正処理を実行する。また、例えば、歪補正処理部107は、設定されたパターンがパターン2であった場合は、パターン及び切り取り位置に応じた歪み補正処理を実行する。ここで、歪み補正処理とは、例えば、画像の拡大縮小や幾何学的変換等の処理である。S152において、出力部108は、S151で歪補正処理された画像を出力する。図11は、S106の設定に従って図10の注目領域501の画像が切り取られ、歪補正処理され、後述の図17に示すクライアント装置20へ出力された一例を示す図である。また、図13は、S106の設定に従って図12の領域601及び602が切り取られ、歪補正処理され、出力された一例を示す図である。図13に示すように、パターン2ではダブルパノラマと呼ばれる2画面分割画像が出力されることになる。また、図15は、S109の設定に従って図14の注目領域701、702、703が切り取られ、歪補正処理され、出力された一例を示す図である。すなわち、パターン3では、4画面分割画像が出力されることになる。なお、パターン3が選択された場合であって、注目領域が3つしか存在しない場合、空き領域が生じる。この場合、出力部108は、図16の画像のように切り取り画像701、702、703を並べ替え、空いている領域に対して図16の801のように撮像画像である全方位画像を縮小して出力してもよい。この全方位画像は注目領域が五か所以上存在する場合に有効である。なお、図8に示すフローチャートでは、注目領域が3箇所以上存在する場合、パターン3が選択される。注目領域が5箇所以上存在する場合、1つずつ注目領域を分割画像に割り当てた場合、出力できない注目領域が生じることになる。本実施の形態では、注目領域が5箇所以上存在する場合、隣接する注目領域同士をグループ化して4グループ作成すればよい。また、注目領域が5箇所以上存在する場合、あるいは注目領域がオーバーラップして最適な切り取り位置が設定できない場合、部分画像を出力することなく、全体が俯瞰可能なように歪み補正前の全方位画像を出力してもよい。   An example in which the image is cut out based on the set pattern and the cut position, the distortion correction is performed, and the image is output will be described using the flowchart of FIG. 9. In S150, based on the pattern set by the pattern setting unit 104 and the position set by the cutting position setting unit 105, the cutting unit 106 cuts out a region of interest from the captured image. In the example of the pattern 1 and the cutting position set in S106, the cutting unit 106 cuts out the attention area 501 located at the upper left surrounded by one broken line from the entire image of FIG. 10 in the example of the cutting position. In addition, in the example of the pattern 2 and the cutting position set in S108, the cutting unit 106 is an area 601 represented by a semicircle except the middle invalid area surrounded by two broken lines from the entire image of FIG. Cut out a partial image from 602. That is, the cutting position is set so that the attention area is included in each of the two cut-out images. In addition, in the example of the pattern 3 and the cutting position set in S109, the cutting unit 106 cuts out the attention areas 701, 702, and 703 surrounded by three broken lines from the entire image in FIG. In S151, the distortion correction processing unit 107 performs distortion correction processing on the image cut out in S150. For example, when the pattern is pattern 1 or pattern 3, the distortion correction processing unit 107 executes distortion correction processing according to the pattern. Also, for example, when the set pattern is the pattern 2, the distortion correction processing unit 107 executes distortion correction processing according to the pattern and the cutout position. Here, the distortion correction processing is, for example, processing such as scaling of an image or geometric transformation. In S152, the output unit 108 outputs the image subjected to the distortion correction processing in S151. FIG. 11 is a view showing an example of the image of the attention area 501 of FIG. 10 cut out according to the setting of S106, distortion correction processing, and output to the client device 20 shown in FIG. 17 described later. FIG. 13 is a view showing an example in which the areas 601 and 602 in FIG. 12 are cut out according to the setting of S106, the distortion correction processing is performed, and the output. As shown in FIG. 13, in pattern 2, a two-screen split image called double panorama is output. FIG. 15 is a view showing an example in which the attention areas 701, 702, and 703 in FIG. 14 are cut out according to the setting of S109, distortion correction processing is performed, and the result is output. That is, in the pattern 3, a 4-screen divided image is output. In the case where pattern 3 is selected and there are only three areas of interest, a vacant area is generated. In this case, the output unit 108 rearranges the cut images 701, 702, and 703 as in the image of FIG. 16, and reduces the omnidirectional image, which is a captured image, as illustrated in 801 of FIG. May be output. This omnidirectional image is effective when there are five or more regions of interest. In the flowchart shown in FIG. 8, when three or more attention areas exist, pattern 3 is selected. When five or more attention areas exist, when one attention area is assigned to the divided image, an attention area that can not be output occurs. In the present embodiment, when there are five or more attention areas, adjacent attention areas may be grouped to create four groups. Also, if there are five or more areas of interest, or if the areas of interest overlap and an optimal cropping position can not be set, all directions before distortion correction so that the entire image can be viewed without outputting a partial image You may output an image.

本実施形態の各パターンはそれぞれ切り取り時の例である。切り取り数及び切り取り位置の異なる他のパターンでもよい。また、各々のパターンの変更タイミングは、判定部103の判定結果に対して即時に反映してもよいし、予め決められた一定間隔でもよいし、ユーザーが任意に変更してもよい。切り取られた画像に対して歪補正処理部107で歪補正処理が行われ、出力部108で画像が出力される。   Each pattern in the present embodiment is an example at the time of cutting. Other patterns with different number of cuts and cut positions may be used. In addition, the change timing of each pattern may be immediately reflected on the determination result of the determination unit 103, may be a predetermined constant interval, or may be arbitrarily changed by the user. The distortion correction processing unit 107 performs distortion correction processing on the clipped image, and the output unit 108 outputs the image.

以上説明したように、本実施形態の処理によれば、注目領域(注目被写体)が画像切り取りにより見切れることを防止することができる。また、ユーザーが設定することなく撮像シーン等に応じた適切な切り取り処理及び歪補正処理を行った画像を出力することができる。よって、撮像シーン等に応じて画像のパターン及び歪補正処理を適切に変更しているので監視に好適な画像を提供することができる。   As described above, according to the process of the present embodiment, it is possible to prevent the attention region (the object of interest) from being overlooked due to the image clipping. In addition, it is possible to output an image that has been subjected to appropriate clipping processing and distortion correction processing according to the imaging scene or the like without being set by the user. Therefore, since the pattern of the image and the distortion correction process are appropriately changed according to the imaging scene or the like, an image suitable for monitoring can be provided.

<実施形態2>
図17は、撮像システムを構成する装置のハードウェア構成の一例を示す図である。撮像システムでは、カメラ10とクライアント装置20とがネットワークを介して通信可能に接続されている。ネットワークは有線であっても無線であってもよい。カメラ10のハードウェア構成は実施形態1と同様である。CPU12がメモリ13に記憶されたプログラムに基づき処理を実行することによって後述する図18に示すカメラ10のソフトウェア構成等が実現される。クライアント装置20は、ハードウェア構成として、CPU21と、メモリ22と、入力部23と、表示部24と、通信部25と、を含む。CPU21は、クライアント装置20の全体を制御する。メモリ22は、プログラム、カメラ10から送信された画像、設定値等を記憶する。入力部23は、ユーザーの選択操作等を入力し、CPU21に渡す。表示部24は、CPU21の制御に基づき画面等を表示する。通信部25は、クライアント装置20をネットワークに接続し、他の装置(例えば、カメラ10)との通信等を制御する。CPU21がメモリ22に記憶されたプログラムに基づき処理を実行することによって後述する図18に示すクライアント装置20のソフトウェア構成、及び後述する図19のフローチャートの処理が実現される。クライアント装置20は、情報処理装置の一例である。
Second Embodiment
FIG. 17 is a diagram illustrating an example of a hardware configuration of an apparatus that configures an imaging system. In the imaging system, the camera 10 and the client device 20 are communicably connected via a network. The network may be wired or wireless. The hardware configuration of the camera 10 is the same as that of the first embodiment. The CPU 12 executes the processing based on the program stored in the memory 13 to realize the software configuration and the like of the camera 10 shown in FIG. 18 described later. The client device 20 includes a CPU 21, a memory 22, an input unit 23, a display unit 24, and a communication unit 25 as a hardware configuration. The CPU 21 controls the entire client device 20. The memory 22 stores a program, an image transmitted from the camera 10, setting values, and the like. The input unit 23 inputs the user's selection operation and the like, and passes it to the CPU 21. The display unit 24 displays a screen or the like based on the control of the CPU 21. The communication unit 25 connects the client device 20 to a network, and controls communication with another device (for example, the camera 10). The CPU 21 executes the processing based on the program stored in the memory 22 to realize the software configuration of the client device 20 shown in FIG. 18 described later and the processing of the flowchart shown in FIG. 19 described later. The client device 20 is an example of an information processing apparatus.

図18は、撮像システムを構成する装置のソフトウェア構成の一例を示す図である。カメラ10の撮像部11、画像生成部102に関しては、実施形態1と同様の構成のため説明を省略する。撮像方向検出部121は、撮像部11の撮像方向を検出する。例えば、撮像方向検出部121は、ジャイロセンサの出力から撮像している角度を取得してもよい。クライアント装置20の判定部103、パターン設定部104、切り取り位置設定部105、切り取り部106、歪補正処理部107、出力部108に関しては、実施形態1のカメラ10の構成と同様であるため説明を省略する。通信処理部122は、カメラ10と通信して、画像生成部102で生成された画像及び撮像方向検出部121で検出された撮像方向を受信する。   FIG. 18 is a diagram showing an example of the software configuration of an apparatus that constitutes an imaging system. The configuration of the imaging unit 11 and the image generation unit 102 of the camera 10 is the same as that of the first embodiment and thus the description thereof is omitted. The imaging direction detection unit 121 detects the imaging direction of the imaging unit 11. For example, the imaging direction detection unit 121 may acquire the angle at which imaging is performed from the output of the gyro sensor. The determination unit 103, the pattern setting unit 104, the cutting position setting unit 105, the cutting unit 106, the distortion correction processing unit 107, and the output unit 108 of the client device 20 are the same as the configuration of the camera 10 of the first embodiment. I omit it. The communication processing unit 122 communicates with the camera 10 and receives the image generated by the image generation unit 102 and the imaging direction detected by the imaging direction detection unit 121.

次に、図19に示すフローチャートを用いて、カメラ10及びクライアント装置20で構成される撮像システムが撮像画像の注目領域の条件に応じて画像のパターン及び切り取り位置を設定し出力する際の例を説明する。図19のフローチャートのS101〜S109に関しては、それぞれ実施形態1と同様の処理内容、かつ、処理フローのため説明を省略する。また、図10〜図15のパターン等に関しては実施形態1と同様の処理内容のため説明を省略する。
S201では、判定部103は、撮像方向検出部121で検出され、通信処理部122を介して受信した撮像部11の撮像方向に基づき撮像部11の撮像方向が水平方向かどうかを判定する。このとき撮像方向が水平方向というのは、例えばカメラ10が壁面に設置されている場合等であり、それ以外は天井に設置されて垂直方向を撮像している場合等である。判定部103は、撮像方向が水平方向であると判定すると、S106に遷移し、撮像方向が水平方向でないと判定すると、S108に遷移する。パターン2では全体画像の中心部分を除いた周辺画像に対して切り取り処理及び歪補正処理を行う。したがって、撮像方向が水平方向である場合、S106において、パターン設定部104は、パターン1を設定する。また、切り取り位置設定部105は、設定されたパターン1に対応するように2つの注目領域を含むような1つの部分画像を切り取る切り取り位置を設定する。このとき、注目領域は全方位画像の上下領域を除く中央部に出現すると考えられるので、全方位画像の中央部を切り取るように切り取り位置が設定される。一方で、撮像部11が水平方向でない、すなわち、例えば、垂直方向を向いている場合、S108において、パターン設定部104は、パターン2を設定する。また、切り取り位置設定部105は、設定されたパターン2に対応するように、切り取られた2つの部分画像にはそれぞれ1つずつ注目領域が含まれるように切り取り位置が設定される。S202において、判定部103は、図20のように全体画像の中央部に特定の動体等の注目領域が出現したか否かを判定する。判定部103は、全体画像の中央部に特定の動体等の注目領域が出現した場合(S202でYes)は、S203に遷移し、全体画像の中央部に特定の動体等の注目領域が出現しない場合(S202でNo)、図19のフローチャートの処理を終了する。S203において、パターン設定部104は、一時的にパターン2以外のパターン、例えば図21のようにパターン3を設定する。また、切り取り位置設定部105は、設定されたパターン3に従って、注目領域がそれぞれ含まれるように3つの部分画像が切り取られる位置を設定する。ここで、判定部103は、顔認識等で特定の被写体を特定の動体として認識してもよいし、動体の大きさ又は速度が予め決められた閾値又はユーザーが設定した閾値を超える場合に特定の動体と認識してもよい。また、画像の中央部とは、例えば、画像の中心から設定された範囲内のことである。パターン2は、第1のパターンの一例である。S203の処理は、第1のパターン以外のパターンを設定する処理の一例である。
Next, using the flowchart shown in FIG. 19, an example in which the imaging system including the camera 10 and the client device 20 sets and outputs the pattern and the cropping position of the image according to the conditions of the attention area of the captured image explain. The process contents of S101 to S109 in the flowchart of FIG. 19 are the same as those of the first embodiment, and the description thereof is omitted. Further, with regard to the patterns and the like of FIGS.
In S201, the determination unit 103 determines whether the imaging direction of the imaging unit 11 is horizontal based on the imaging direction of the imaging unit 11 detected by the imaging direction detection unit 121 and received via the communication processing unit 122. At this time, the imaging direction is, for example, the case where the camera 10 is installed on a wall surface, and the case where the camera 10 is installed on a ceiling to capture an image in the vertical direction. If the determination unit 103 determines that the imaging direction is the horizontal direction, the process proceeds to step S106. If the determination unit 103 determines that the imaging direction is not the horizontal direction, the process proceeds to step S108. In pattern 2, a cutting process and a distortion correction process are performed on the peripheral image excluding the central portion of the entire image. Therefore, when the imaging direction is horizontal, the pattern setting unit 104 sets pattern 1 in S106. In addition, the cut position setting unit 105 sets a cut position at which one partial image is cut so as to include two regions of interest so as to correspond to the set pattern 1. At this time, it is considered that the region of interest appears in the central portion excluding the upper and lower regions of the omnidirectional image, so the cutout position is set so as to cut out the central portion of the omnidirectional image. On the other hand, when the imaging unit 11 is not in the horizontal direction, that is, for example, is facing the vertical direction, the pattern setting unit 104 sets the pattern 2 in S108. In addition, the cutout position setting unit 105 sets the cutout position so that one of the two partial images cut out includes the region of interest so as to correspond to the set pattern 2. In S202, the determination unit 103 determines whether or not an attention area such as a specific moving object has appeared at the center of the entire image as shown in FIG. When the determination unit 103 determines that a specific moving object or the like has appeared in the central portion of the entire image (Yes in S202), the process transitions to S203, and the specific moving object does not appear in the central portion of the entire image. In the case (No in S202), the processing of the flowchart in FIG. 19 is ended. In S203, the pattern setting unit 104 temporarily sets a pattern other than the pattern 2, for example, the pattern 3 as shown in FIG. Further, the cut-out position setting unit 105 sets positions at which three partial images are cut out so as to respectively include the regions of interest in accordance with the set pattern 3. Here, the determination unit 103 may recognize a specific subject as a specific moving object by face recognition or the like, or specify when the size or speed of the moving object exceeds a predetermined threshold or a threshold set by the user. It may be recognized as a moving body of Further, the central portion of the image is, for example, within a range set from the center of the image. Pattern 2 is an example of a first pattern. The process of S203 is an example of a process of setting a pattern other than the first pattern.

以上説明したように、本実施形態の処理によれば、実施形態1の効果に加え、特定の動体の監視に好適な画像を提供することができる。   As described above, according to the processing of the present embodiment, in addition to the effects of the first embodiment, it is possible to provide an image suitable for monitoring a specific moving object.

<実施形態3>
実施形態3では、撮像画像の注目領域の条件に応じてパターン及びパターンに対応する切り取り位置を設定する際の実施形態1及び2とは異なる場合の例を説明する。カメラ10及びクライアント装置20を構成するハードウェア構成及びソフトウェア構成に関しては上述の実施形態と同様のため説明を省略する。CPU21がメモリ22に記憶されたプログラムに基づき処理を実行することによって後述する図22のフローチャートの処理が実現される。
次に、図22に示すフローチャートを用いて、カメラ10及びクライアント装置20で構成される撮像システムが撮像画像の注目領域の条件に応じて画像のパターン及び切り出し位置を設定し、出力する際の例を説明する。フローチャートのS106〜S109、S201に関しては、それぞれ実施形態1及び実施形態2と同様の処理内容、かつ、処理フローである。また、実施形態1及び実施形態2のフローチャートでそれぞれ説明したS101〜S105、S202、S203の処理を図22に追加してもよい。
図23〜図28のパターン等に関しては実施形態1と同様のため説明を省略する。
Embodiment 3
The third embodiment will explain an example different from the first and second embodiments in setting the pattern and the cutout position corresponding to the pattern according to the condition of the attention area of the captured image. The hardware configuration and software configuration of the camera 10 and the client device 20 are the same as those of the above-described embodiment, and thus the description thereof is omitted. The processing of the flowchart of FIG. 22 described later is realized by the CPU 21 executing the processing based on the program stored in the memory 22.
Next, using the flowchart illustrated in FIG. 22, an example in which the imaging system including the camera 10 and the client device 20 sets and outputs the pattern and cutout position of the image according to the condition of the attention area of the captured image Explain. The processing content and processing flow similar to those of the first embodiment and the second embodiment are respectively S106 to S109 and S201 in the flowchart. Further, the processes of S101 to S105, S202, and S203 described in the flowcharts of the first embodiment and the second embodiment may be added to FIG.
The patterns and the like in FIGS. 23 to 28 are the same as in the first embodiment, and thus the description thereof is omitted.

S301において、判定部103は、注目領域が5箇所以上あるか否かを判定する。判定部103は、注目領域が5箇所以上存在しない場合(S301でNo)は、S109に遷移し、注目領域が5箇所以上存在する場合(S301でYes)は、S302に遷移する。S109において、図23のように注目領域が5箇所未満の4箇所の場合に、パターン設定部104は、図24のようにパターン3を選択し、領域1001〜領域1004のそれぞれの対応関係で分割する。また、注目領域の数を5箇所の場合としているが、パターン設定部104で分割可能な分割数を超える数であればよい。S302において、判定部103は、撮影画像内に優先領域が設定されているか否かを判定する。判定部103は、撮影画像内に優先領域が設定されていない場合(S302でNo)は、S303に遷移し、撮影画像内に優先領域が設定されている場合(S302でYes)は、S306に遷移する。図25は注目領域が5箇所ある場合の例であり、判定部103は、5箇所の位置関係を判定する。パターン2で5箇所すべての注目領域を出力可能なので、S303において、パターン設定部104は、図26のようにパターン2を選択する。このとき、切り取り位置設定部105は、それぞれの注目領域が分断されない位置に切り取り位置を設定する。その結果、画像切り取り部106は、それぞれの注目領域が分断されない位置で領域1101と領域1102とを切り取る。また、歪補正処理部107は、歪み補正処理を行う。S304において、判定部103は、図27のように注目領域である被写体が中央に位置する領域1103に侵入したか否かを判定する。判定部103は、被写体が中央に位置する領域に侵入した場合(S304でYes)は、S305に遷移し、被写体が中央に位置する領域に侵入しない場合(S304でNo)は、図22のフローチャートの処理を終了する。S305において、パターン設定部104は、図28のように図27の領域1101〜領域1103のすべての領域を含むことができる領域1104として全方位画像を一時的に選択してもよい。また、被写体が領域1103から消失した場合は、パターン設定部104は、図26のようなパターン2が再設定されることになる。   In S301, the determination unit 103 determines whether there are five or more attention areas. If the determination unit 103 determines that five or more attention areas do not exist (No in S301), the processing proceeds to S109. If five or more attention areas exist (Yes in S301), the determination unit 103 transitions to S302. In S109, in the case where the number of attention areas is four at less than five as shown in FIG. 23, the pattern setting unit 104 selects pattern 3 as shown in FIG. 24, and division is performed according to the correspondence of areas 1001 to 1004. Do. Further, although the number of attention areas is five, it may be a number that exceeds the number of divisions that can be divided by the pattern setting unit 104. In step S302, the determination unit 103 determines whether a priority area is set in the captured image. If no priority area is set in the captured image (No in S302), the determination unit 103 transitions to S303, and if a priority area is set in the captured image (Yes in S302), the process proceeds to S306. Transition. FIG. 25 is an example in the case where there are five regions of interest, and the determination unit 103 determines the positional relationship of the five regions. Since all five regions of interest can be output in pattern 2, the pattern setting unit 104 selects pattern 2 as shown in FIG. 26 in S303. At this time, the cutting position setting unit 105 sets the cutting position at a position where each of the target areas is not divided. As a result, the image cutout unit 106 cuts out the area 1101 and the area 1102 at positions where the respective target areas are not divided. Also, the distortion correction processing unit 107 performs distortion correction processing. In S304, the determination unit 103 determines whether or not the subject which is the region of interest has entered the region 1103 located at the center as shown in FIG. When the determination unit 103 intrudes into the area where the subject is located at the center (Yes in S304), the process transitions to S305, and when the object does not enter the area where the subject is located in the center (No in S304), the flowchart of FIG. End the processing of. In S305, the pattern setting unit 104 may temporarily select an omnidirectional image as an area 1104 that can include all the areas 1101 to 1103 of FIG. 27 as shown in FIG. When the subject disappears from the area 1103, the pattern setting unit 104 resets pattern 2 as shown in FIG.

S306において、判定部103は、撮影画像内に検知領域が設定されている場合、設定されている検知領域内に検知対象が存在するか否かを判定する。判定部103は、撮影画像内に予め設定されている検知領域内に検知対象が存在しない場合(S306でNo)は、S307に遷移し、撮影画像内に予め設定されている検知領域内に検知対象が存在する場合(S306でYes)は、S308に遷移する。
図29は、優先領域が設定されており、検知領域が設定されていない場合を示す例である。図29の領域1205が優先領域として設定されている。優先領域は、その領域が注目領域として検出しているか否かにかかわらず、優先領域に対応する部分画像が切り取られ、出力される領域である。但し、優先領域は画像中の任意の領域にも設定することができる。また、優先領域は、複数設定されてもよい。図31は、更に、画像中に設定されている検知領域1206の一例を示している。ここでいう検知領域は、人物が領域内に侵入又は領域から消失等の特定のイベントを検知するための領域である。図32は、検知領域1206内に人物の侵入が検出されていることを表している。
S308において、パターン設定部104は、図32に示される優先領域1205(1202)及び検知領域1206(1207)を選択し、更にステップ102において抽出された注目領域の中からより注目度の高い領域を選択する。そしてパターン設定部104は、図33の画像の配置になるようにパターン3を設定する。このとき注目領域のうち、より注目度の高い領域として人数の多い領域1201及び1203が選択される。そして、切り取り位置設定部105は、優先領域1205、検知領域1206、及び領域1201及び領域1203の部分画像が切り取られる切り取り位置を設定する。その結果、画像切り取り部106は、領域1201、1203、1205、及び1206から部分画像を切り取る。この処理は、全方位画像内に優先領域が設定されている場合、画像切り取り部106が、優先領域が注目領域として検出しているか否かにかかわらず、優先領域に対応する部分画像を優先的に切り取る処理の一例である。また、この処理は、全方位画像内に検知領域が設定されている場合、画像切り取り部106が、検知領域が他の注目領域よりも注目度の低い注目領域として検出されたいた場合であっても、検知領域に対応する部分画像を優先的に切り取る処理の一例でもある。歪補正処理部107は、それぞれ切り取られた部分画像に対して歪み補正処理を行う。
S307において、検知領域が設定されていない場合、図29に示される優先領域1205を選択し、更にステップS102において抽出された注目領域の中からより注目度の高い領域1201、1203、及び1204を選択する。そして、パターン設定部104は、図30の配置になるようにパターン3を設定する。図29では、検知領域が設定されていないため、図32の領域1207と同じ位置に存在する図29の注目領域は選択されずに注目領域1204が代わりに選択されている。その理由は、注目領域1204内の人数の方が図32の領域1207と同じ位置に存在する図29の注目領域内の人数より多く注目度が高いからである。なお、図29の左側にも注目領域1204と同じ人数が存在する注目領域があるが、本実施の形態では、人物の属性として「女性」が優先される設定となっているため注目領域1204が選択されることになる。
また、切り取り位置設定部105は、選択された領域1201、1202(1205)、1203、1204に対応する部分画像が切り取られるように切り取り位置を設定する。
In step S306, when the detection area is set in the captured image, the determination unit 103 determines whether a detection target exists in the set detection area. If there is no detection target in the detection area preset in the captured image (No in S306), the determination unit 103 transitions to S307, and detects in the detection area preset in the captured image. If the target exists (Yes in S306), the process transitions to S308.
FIG. 29 shows an example in which the priority area is set and the detection area is not set. The area 1205 of FIG. 29 is set as the priority area. The priority area is an area in which the partial image corresponding to the priority area is cut out and output regardless of whether the area is detected as the target area. However, the priority area can be set to any area in the image. Also, a plurality of priority areas may be set. FIG. 31 further shows an example of the detection area 1206 set in the image. The detection area here is an area for detecting a specific event such as a person intruding into the area or disappearance from the area. FIG. 32 shows that an intrusion of a person is detected in the detection area 1206.
In S308, the pattern setting unit 104 selects the priority area 1205 (1202) and the detection area 1206 (1207) shown in FIG. 32, and further selects an area of higher attention from the areas of interest extracted in step 102. select. Then, the pattern setting unit 104 sets pattern 3 so as to be the arrangement of the image of FIG. At this time, areas 1201 and 1203 with a large number of people are selected as areas of higher interest among the areas of interest. Then, the cut position setting unit 105 sets a cut position at which partial images of the priority area 1205, the detection area 1206, and the areas 1201 and 1203 are cut out. As a result, the image cutout unit 106 cuts out partial images from the regions 1201, 1203, 1205, and 1206. In this process, when the priority area is set in the omnidirectional image, the partial image corresponding to the priority area is prioritized regardless of whether the image cutout unit 106 detects the priority area as a target area. It is an example of processing to cut into. Further, in this process, when the detection area is set in the omnidirectional image, the image cutting unit 106 is to detect the detection area as a focus area having a lower level of attention than the other focus areas. Is also an example of processing for preferentially cutting out a partial image corresponding to a detection area. The distortion correction processing unit 107 performs distortion correction processing on the partially cut partial images.
In S307, when the detection area is not set, the priority area 1205 shown in FIG. 29 is selected, and further, the areas 1201, 1203, and 1204 with higher degree of attention are selected from the attention areas extracted in step S102. Do. Then, the pattern setting unit 104 sets pattern 3 so as to be arranged as shown in FIG. In FIG. 29, since the detection area is not set, the attention area of FIG. 29 present at the same position as the area 1207 of FIG. 32 is not selected, and the attention area 1204 is selected instead. The reason is that the number of people in the region of interest 1204 has a higher degree of attention than the number of people in the region of interest in FIG. 29 located at the same position as the region 1207 in FIG. Although there is an attention area on the left side of FIG. 29 in which the same number of people as the attention area 1204 exists, in the present embodiment, “Women” is given priority as the attribute of the person, and the attention area 1204 is It will be selected.
In addition, the cutting position setting unit 105 sets a cutting position so that partial images corresponding to the selected areas 1201, 1202 (1205), 1203 and 1204 are cut out.

S309において、判定部103は、2つの注目領域が検出され、その検出された2つの注目領域の位置が近接しているかどうかを判定する。判定部103は、歪み補正前の魚眼カメラの円形の撮像画像のうちの1つの半円内(中心領域を除く)に2つの注目領域が存在している場合、近接していると判定する。判定部103は、図34に示すように、2つの注目領域が近接していると判定した場合、S106に進む。即ち、パターン1が選択され、切り取り位置として中心領域を除く半円が設定される。歪み補正後の画像は、図35に示すようなシングルパノラマ画像となる。一方、判定部103は、図12に示すように、2つの注目領域が近接していないと判定した場合、S108に進む。その結果、図13に示すようなダブルパノラマ画像が表示されることになる。   In step S309, the determination unit 103 detects two regions of interest, and determines whether the positions of the two detected regions of interest are close to each other. The determination unit 103 determines that two regions of interest are in proximity within one semicircle (excluding the central region) of the circular captured image of the fisheye camera before distortion correction. . If the determination unit 103 determines that the two regions of interest are in proximity as shown in FIG. 34, the procedure proceeds to step S106. That is, the pattern 1 is selected, and a semicircle excluding the central region is set as a cutting position. The image after distortion correction becomes a single panoramic image as shown in FIG. On the other hand, as shown in FIG. 12, when the determination unit 103 determines that the two attention areas are not close to each other, the process proceeds to step S108. As a result, a double panoramic image as shown in FIG. 13 is displayed.

以上説明したように、本実施形態の処理によれば、実施形態1及び実施形態2の効果に加え、特定の領域及び物体、動体を考慮した監視に好適な画像を提供することができる。
なお、実施形態1〜3で説明したパターンの選択は適宜組み合わせることが可能である。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
As described above, according to the processing of this embodiment, in addition to the effects of the first and second embodiments, it is possible to provide an image suitable for monitoring in consideration of a specific region, an object, and a moving object.
The selection of the patterns described in the first to third embodiments can be appropriately combined.
<Other Embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium. And, it is also possible to realize the processing in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、上述した実施形態では、撮像装置として説明したカメラには、デジタルスチルカメラやデジタルビデオカメラに適用することができる。
また、上述したソフトウェア構成の一部又は全てをハードウェア構成として装置に実装してもよい。
また、ハードウェア構成としてCPUに替えてGPU(Graphics Processing Unit)を用いることとしてもよい。
As mentioned above, although an example of an embodiment of the present invention was explained in full detail, the present invention is not limited to such a specific embodiment.
For example, in the embodiment described above, the camera described as the imaging device can be applied to a digital still camera or a digital video camera.
Further, part or all of the above-described software configuration may be implemented as a hardware configuration in an apparatus.
Further, as a hardware configuration, a GPU (Graphics Processing Unit) may be used instead of the CPU.

以上、上述した各実施形態によれば、ユーザーが設定することなく撮像シーン等に応じてリアルタイムに適切な切り取り処理及び歪補正処理を行った画像を出力することができる。   As described above, according to each of the above-described embodiments, it is possible to output an image that has been subjected to appropriate clipping processing and distortion correction processing in real time according to an imaging scene or the like without being set by the user.

10 カメラ
11 撮像部
12 CPU
10 Camera 11 Imaging Unit 12 CPU

Claims (14)

魚眼レンズを用いて撮像された撮像画像である全方位画像から得られる注目領域の数及び位置に基づいて、前記全方位画像から得られる部分画像を出力するためのパターンを設定する設定手段と、
前記設定手段により設定されたパターンに基づいて、前記全方位画像から前記注目領域を含む部分画像を切り取る切り取り手段と、
前記切り取り手段により切り取られた部分画像に対して歪補正処理を行う補正手段と、
前記設定手段によって設定されたパターンに従って、前記補正手段により歪補正処理された部分画像を出力する出力手段と、
を有する情報処理装置。
Setting means for setting a pattern for outputting a partial image obtained from the omnidirectional image, based on the number and position of a region of interest obtained from the omnidirectional image which is a captured image captured using a fisheye lens;
A cutting unit that cuts out a partial image including the region of interest from the omnidirectional image based on the pattern set by the setting unit;
Correction means for performing distortion correction processing on the partial image cut off by the cutting means;
An output unit that outputs a partial image subjected to distortion correction processing by the correction unit according to the pattern set by the setting unit;
An information processing apparatus having
前記設定手段は、更に、前記魚眼レンズを有する撮像部の撮像方向に基づいて、前記パターンを設定する請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the setting unit further sets the pattern based on an imaging direction of an imaging unit having the fisheye lens. 前記全方位画像から得られる注目領域が2箇所の場合、前記設定手段は、前記2箇所の注目領域の位置が近接していれば前記2箇所の注目領域を含む1つの部分画像を切り取り、近接していなければそれぞれ1つの注目領域を含む2つの部分画像を切り取るパターンを設定する請求項1記載の情報処理装置。   When there are two areas of interest obtained from the omnidirectional image, the setting means cuts out one partial image including the two areas of interest if the positions of the two areas of interest are close, The information processing apparatus according to claim 1, wherein a pattern for cutting out two partial images each including one region of interest is set. 前記全方位画像から得られる注目領域が3箇所であってそのうちの1箇所の注目領域が前記撮像画像の中央に位置する場合、前記設定手段は、前記撮像画像の中央に位置する注目領域を除く注目領域を含む部分画像を切り取るパターンを設定する請求項1記載の情報処理装置。   When there are three attention areas obtained from the omnidirectional image and one attention area thereof is located at the center of the captured image, the setting unit excludes the attention area located at the center of the captured image. The information processing apparatus according to claim 1, wherein a pattern for cutting out a partial image including a region of interest is set. 前記全方位画像から得られる注目領域が3箇所である場合、前記設定手段は、前記撮像画像から切り取られた3箇所の注目領域に対応する部分画像及び前記魚眼レンズを介して得られる撮像画像を配置するためのパターンを設定する請求項1記載の情報処理装置。   When there are three regions of interest obtained from the omnidirectional image, the setting unit arranges partial images corresponding to the three regions of interest cut out from the captured image and the captured image obtained through the fisheye lens The information processing apparatus according to claim 1, wherein a pattern for setting is set. 前記全方位画像から得られる注目領域が5箇所以上である場合、前記設定手段は、部分画像を切り取ることなく前記全方位画像を出力するパターンを設定する請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein when the attention area obtained from the omnidirectional image is five or more, the setting unit sets a pattern for outputting the omnidirectional image without cutting out a partial image. 前記撮像画像から検出された注目領域が5箇所以上である場合、前記設定手段は、注目領域のそれぞれが分断されない位置に切り取り位置を設定し、2つの部分画像を出力する請求項1記載の情報処理装置。   The information according to claim 1, wherein the setting unit sets a cutout position at a position where each of the regions of interest is not divided and outputs two partial images when the number of regions of interest detected from the captured image is five or more. Processing unit. 前記全方位画像内に優先領域が設定されている場合、前記切り取り手段は、前記優先領域が注目領域として検出しているか否かにかかわらず、前記優先領域に対応する部分画像を優先的に切り取る請求項1記載の情報処理装置。   When the priority area is set in the omnidirectional image, the cutting unit preferentially cuts the partial image corresponding to the priority area regardless of whether the priority area is detected as the target area. An information processing apparatus according to claim 1. 前記全方位画像内に検知領域が設定されている場合、前記切り取り手段は、前記検知領域が他の注目領域よりも注目度の低い注目領域として検出されたいた場合であっても、前記検知領域に対応する部分画像を優先的に切り取る請求項1記載の情報処理装置。   When the detection area is set in the omnidirectional image, the cutting unit may detect the detection area even if it is detected as an attention area whose attention degree is lower than that of other attention areas. The information processing apparatus according to claim 1, wherein the partial image corresponding to is preferentially cut out. 前記情報処理装置は、撮像装置である請求項1乃至9何れか1項記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 9, wherein the information processing apparatus is an imaging apparatus. 前記情報処理装置は、撮像装置と通信可能なクライアント装置である請求項1乃至9何れか1項記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 9, wherein the information processing apparatus is a client apparatus capable of communicating with an imaging apparatus. 魚眼レンズを用いて撮像された撮像画像である全方位画像から得られる注目領域の数及び位置に基づいて、前記全方位画像から得られる部分画像を出力するためのパターンを設定する設定手段と、
前記設定手段により設定されたパターンに基づいて、前記全方位画像から前記注目領域を含む部分の画像を切り取る切り取り手段と、
前記切り取り手段により切り取られた部分画像に対して歪補正処理を行う補正手段と、
前記設定手段によって設定されたパターンに従って、前記補正手段により歪補正処理された画像を出力する出力手段と、
を有するシステム。
Setting means for setting a pattern for outputting a partial image obtained from the omnidirectional image, based on the number and position of a region of interest obtained from the omnidirectional image which is a captured image captured using a fisheye lens;
A cutting unit that cuts out an image of a portion including the attention area from the omnidirectional image based on the pattern set by the setting unit;
Correction means for performing distortion correction processing on the partial image cut off by the cutting means;
Output means for outputting an image subjected to distortion correction processing by the correction means in accordance with the pattern set by the setting means;
With a system.
情報処理装置が実行する情報処理方法であって、
魚眼レンズを用いて撮像された撮像画像である全方位画像から得られる注目領域の数及び位置に基づいて、前記全方位画像から得られる部分画像を出力するためのパターンを設定する設定工程と、
前記設定工程により設定されたパターンに基づいて、前記全方位画像から前記注目領域を含む部分画像を切り取る切り取り工程と、
前記切り取り工程により切り取られた部分画像に対して歪補正処理を行う補正工程と、
前記設定工程によって設定されたパターンに従って、前記補正工程により歪補正処理された部分画像を出力する出力工程と、
を含む情報処理方法。
An information processing method executed by the information processing apparatus;
A setting step of setting a pattern for outputting a partial image obtained from the omnidirectional image, based on the number and position of a region of interest obtained from the omnidirectional image which is a captured image captured using a fisheye lens;
Cutting out a partial image including the region of interest from the omnidirectional image based on the pattern set in the setting step;
A correction step of performing distortion correction processing on the partial image cut off in the cutting step;
An output step of outputting the partial image subjected to the distortion correction processing in the correction step according to the pattern set in the setting step;
Information processing method including:
コンピュータを請求項1乃至9何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 9.
JP2018160283A 2017-12-25 2018-08-29 Information processing device, system, information processing method and program Active JP7182953B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/220,597 US10937124B2 (en) 2017-12-25 2018-12-14 Information processing device, system, information processing method, and storage medium
EP18215256.1A EP3503021B1 (en) 2017-12-25 2018-12-21 Image information processing device and system, image information processing method and storage medium
CN201811591092.XA CN110009557A (en) 2017-12-25 2018-12-25 Information processing unit, information processing method and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017248013 2017-12-25
JP2017248013 2017-12-25

Publications (2)

Publication Number Publication Date
JP2019115031A true JP2019115031A (en) 2019-07-11
JP7182953B2 JP7182953B2 (en) 2022-12-05

Family

ID=67223311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018160283A Active JP7182953B2 (en) 2017-12-25 2018-08-29 Information processing device, system, information processing method and program

Country Status (1)

Country Link
JP (1) JP7182953B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11261868A (en) * 1998-03-13 1999-09-24 Fujitsu Ltd Fisheye lens camera device and image distortion correction method and image extraction method thereof
JP2007311860A (en) * 2006-05-16 2007-11-29 Opt Kk Image processing apparatus, camera and image processing method
JP2011139376A (en) * 2009-12-28 2011-07-14 Sony Corp Image processing apparatus, image processing method, and program
JP2012089954A (en) * 2010-10-15 2012-05-10 Dainippon Printing Co Ltd Conference system, monitoring system, image processing system, image processing method, and image processing program or the like
JP2014036323A (en) * 2012-08-08 2014-02-24 Ntt Docomo Inc Display terminal, and operation accepting method and program
JP2016025516A (en) * 2014-07-22 2016-02-08 キヤノン株式会社 Information processing device, information processing method, and program
JP2016039539A (en) * 2014-08-08 2016-03-22 キヤノン株式会社 Image processing system, image processing method, and program
JP2017168882A (en) * 2016-03-14 2017-09-21 カシオ計算機株式会社 Image processing apparatus, image processing method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11261868A (en) * 1998-03-13 1999-09-24 Fujitsu Ltd Fisheye lens camera device and image distortion correction method and image extraction method thereof
JP2007311860A (en) * 2006-05-16 2007-11-29 Opt Kk Image processing apparatus, camera and image processing method
JP2011139376A (en) * 2009-12-28 2011-07-14 Sony Corp Image processing apparatus, image processing method, and program
JP2012089954A (en) * 2010-10-15 2012-05-10 Dainippon Printing Co Ltd Conference system, monitoring system, image processing system, image processing method, and image processing program or the like
JP2014036323A (en) * 2012-08-08 2014-02-24 Ntt Docomo Inc Display terminal, and operation accepting method and program
JP2016025516A (en) * 2014-07-22 2016-02-08 キヤノン株式会社 Information processing device, information processing method, and program
JP2016039539A (en) * 2014-08-08 2016-03-22 キヤノン株式会社 Image processing system, image processing method, and program
JP2017168882A (en) * 2016-03-14 2017-09-21 カシオ計算機株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP7182953B2 (en) 2022-12-05

Similar Documents

Publication Publication Date Title
JP5867424B2 (en) Image processing apparatus, image processing method, and program
JP4912117B2 (en) Imaging device with tracking function
US11082660B2 (en) Information processing device and information processing method
JP6938270B2 (en) Information processing device and information processing method
US10225650B2 (en) Directivity control system, directivity control device, abnormal sound detection system provided with either thereof and directivity control method
US10992870B1 (en) Intelligent zoom method and video system implementing same
JP2017022664A (en) Monitoring system and monitoring method
US10937124B2 (en) Information processing device, system, information processing method, and storage medium
CN111246080A (en) Control apparatus, control method, image pickup apparatus, and storage medium
JP2007288354A (en) Camera device, image processing apparatus, and image processing method
JP5955170B2 (en) Display control apparatus, display control method, and program
JP5247338B2 (en) Image processing apparatus and image processing method
JP2013179708A (en) Imaging system and imaging method
JP2009288945A (en) Image display unit and image display method
JP2014146979A (en) Monitor camera system, imaging apparatus, and imaging method
JP2016144049A (en) Image processing apparatus, image processing method, and program
CN109391769B (en) Control apparatus, control method, and storage medium
JP7182953B2 (en) Information processing device, system, information processing method and program
JP6261191B2 (en) Display control apparatus, display control method, and program
JP6176073B2 (en) Imaging system and program
JP2016111561A (en) Information processing device, system, information processing method, and program
US11700446B2 (en) Information processing apparatus, system, control method of information processing apparatus, and non-transitory computer-readable storage medium
JP2019193110A (en) Information processing apparatus, information processing method, and program
JP2022117058A (en) Imaging apparatus and imaging method
JP6971589B2 (en) Imaging device, imaging system, its control method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221122

R151 Written notification of patent or utility model registration

Ref document number: 7182953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151