JP7150462B2 - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP7150462B2
JP7150462B2 JP2018084291A JP2018084291A JP7150462B2 JP 7150462 B2 JP7150462 B2 JP 7150462B2 JP 2018084291 A JP2018084291 A JP 2018084291A JP 2018084291 A JP2018084291 A JP 2018084291A JP 7150462 B2 JP7150462 B2 JP 7150462B2
Authority
JP
Japan
Prior art keywords
attention area
display
omnidirectional image
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018084291A
Other languages
Japanese (ja)
Other versions
JP2019193110A (en
Inventor
尚佳 丸橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018084291A priority Critical patent/JP7150462B2/en
Publication of JP2019193110A publication Critical patent/JP2019193110A/en
Application granted granted Critical
Publication of JP7150462B2 publication Critical patent/JP7150462B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

近年、ネットワークカメラの種類が多様化する中で、周囲360度を死角なく見渡せる全方位ネットワークカメラ(以下、「全方位カメラ」という。)が普及し始めている。このような全方位カメラは、例えば施設の天井に設置され、全方位カメラの下を通る人物や車両等の被写体を監視する監視カメラとして用いられる。
特許文献1には、天井に設置された全方位カメラによって撮像された全方位画像から動体が密集している部分を優先的に抽出し、当該動体を含む領域を動画表示用のアスペクト比で切り出す点が開示されている。
In recent years, with the diversification of types of network cameras, an omnidirectional network camera (hereinafter referred to as an "omnidirectional camera") capable of looking around 360 degrees without blind spots has become popular. Such an omnidirectional camera is installed, for example, on the ceiling of a facility, and used as a monitoring camera for monitoring subjects such as people and vehicles passing under the omnidirectional camera.
In Patent Document 1, a portion in which a moving object is concentrated is preferentially extracted from an omnidirectional image captured by an omnidirectional camera installed on the ceiling, and an area including the moving object is cut out at an aspect ratio for moving image display. points are disclosed.

特開2014-222825号公報JP 2014-222825 A

ところで、天井に設置された全方位カメラから真下に向かって撮像された全方位画像では、被写体は、画像中心に近いほど大きく撮像されるが、画像中心から離れた位置に存在する被写体の方が角度的に得られる情報が多くなるという特徴がある。また、このような全方位画像では、画像中心からの距離に応じて画素密度が変化するという特徴がある。
しかしながら、上記特許文献1に記載の技術では、動体の画像内における位置を考慮せずに表示の優先度を付与している。そのため、切り出した画像を表示させた場合に、角度的に動体の情報を取得できなかったり、解像度が劣っているために動体を確認できなかったりする場合がある。
そこで、本発明は、全方位画像内の注目領域の画像を表示する際の表示の優先度を適切に付与することを課題としている。
By the way, in an omnidirectional image captured directly downward from an omnidirectional camera installed on the ceiling, the closer the subject is to the center of the image, the larger the subject is imaged. It is characterized by increasing the amount of information that can be obtained from an angle. Moreover, such an omnidirectional image is characterized in that the pixel density changes according to the distance from the center of the image.
However, in the technique described in Patent Literature 1, display priority is given without considering the position of the moving object in the image. Therefore, when displaying the clipped image, it may not be possible to obtain angular information about the moving object, or the moving object may not be confirmed due to poor resolution.
Accordingly, an object of the present invention is to appropriately give display priority when displaying an image of an attention area in an omnidirectional image.

上記課題を解決するために、本発明に係る情報処理装置の一態様は、全方位画像における注目領域の位置を示す位置情報を取得する第一の取得手段と、前記全方位画像の画素密度情報を取得する第二の取得手段と、前記第一の取得手段により取得された位置情報と、前記第二の取得手段により取得された画素密度情報とに基づいて、前記注目領域の表示の優先度を設定する設定手段と、を備え、前記設定手段は、前記注目領域が、前記全方位画像の中心からの距離が所定範囲内となる所定領域内に存在する場合、前記注目領域が前記所定領域外に存在する場合よりも前記表示の優先度を高く設定するとともに、前記注目領域に含まれる動体の移動速度が速いほど、前記所定領域を前記全方位画像の中心に近い位置に設定するIn order to solve the above problems, one aspect of an information processing apparatus according to the present invention includes: first acquisition means for acquiring position information indicating the position of a region of interest in an omnidirectional image; and pixel density information of the omnidirectional image. , the position information acquired by the first acquisition means, and the pixel density information acquired by the second acquisition means, the display priority of the attention area and setting means for setting a distance from the center of the omnidirectional image within a predetermined range, the setting means determines that the attention area is within a predetermined range when the attention area is within a predetermined range. The priority of the display is set higher than the case where it exists outside, and the predetermined area is set closer to the center of the omnidirectional image as the moving speed of the moving object included in the attention area is faster .

本発明によれば、全方位画像内の注目領域の画像を表示する際の表示の優先度を適切に付与することができる。 ADVANTAGE OF THE INVENTION According to this invention, the priority of a display at the time of displaying the image of the attention area in an omnidirectional image can be assign|provided appropriately.

ネットワークカメラシステムの構成例である。1 is a configuration example of a network camera system; 撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of an imaging device. (A)全方位画像の一例である。(B)全方位画像の4画面表示例である。(A) is an example of an omnidirectional image. (B) is an example of four-screen display of an omnidirectional image. (A)車両を撮像した全方位画像例である。(B)人物を撮像した全方位画像例である。(A) is an example of an omnidirectional image of a vehicle. (B) is an example of an omnidirectional image of a person. 優先度設定処理を示すフローチャートである。8 is a flowchart showing priority setting processing; 動体検出処理を示すフローチャートである。4 is a flowchart showing moving object detection processing; 動体の中心からの距離の算出例である。It is an example of calculation of the distance from the center of the moving object. 表示対象範囲の一例である。It is an example of a display target range. (A)中心の画素密度が疎である場合の優先度「高」の領域の一例である。(B)中心の画素密度が密である場合の優先度「高」の領域の一例である。(A) is an example of a “high” priority region when the central pixel density is sparse. (B) is an example of a “high” priority area when the center pixel density is high. (A)優先度「高」の位置判定例である。(B)優先度「高」の画素密度判定例である。(A) This is an example of position determination with a priority of “high”. (B) is an example of pixel density determination with priority "high". (A)優先度「中」の位置判定例である。(B)優先度「中」の画素密度判定例である。(A) This is an example of position determination with a priority of "middle". (B) is an example of pixel density determination with priority "medium". 表示対象外の位置判定例である。This is an example of position determination not to be displayed. 表示制御処理を示すフローチャートである。4 is a flowchart showing display control processing; 表示の優先度が付与された注目領域の表示例である。It is a display example of attention areas to which display priority is assigned. 表示領域変更処理を示すフローチャートである。9 is a flowchart showing display area change processing; 表示画面の使用方法の変更例である。It is a modified example of how to use the display screen. 優先度設定処理の変形例を示すフローチャートである。It is a flow chart which shows the modification of a priority setting process.

以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.
The embodiments described below are examples of means for realizing the present invention, and should be appropriately modified or changed according to the configuration of the apparatus to which the present invention is applied and various conditions. It is not limited to the embodiment of

図1は、本実施形態におけるネットワークカメラシステム1000の構成例を示すブロック図である。
本実施形態におけるネットワークカメラシステム1000は、監視領域を監視するユーザに、当該監視領域を撮像した画像を提供する監視システムである。このネットワークカメラシステム1000は、監視領域を撮像した画像から注目領域を検出し、検出した注目領域に対して表示の優先度を付与し、付与した優先度に従って注目領域の画像をユーザに提示することができる。ここで、注目領域は、人体や車体といった動体を含む領域とすることができる。
FIG. 1 is a block diagram showing a configuration example of a network camera system 1000 according to this embodiment.
A network camera system 1000 according to the present embodiment is a monitoring system that provides a user who monitors a monitored area with an image of the monitored area. This network camera system 1000 detects an attention area from an image of a monitored area, assigns display priority to the detected attention area, and presents the image of the attention area to the user according to the assigned priority. can be done. Here, the attention area can be an area including a moving object such as a human body or a vehicle body.

ネットワークカメラシステム1000は、撮像装置100と、クライアント装置200と、を備える。撮像装置100とクライアント装置200とは、ネットワーク300によって相互に通信可能に接続されている。
ネットワーク300は、例えば、Ethernet(登録商標)の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から構成される。なお、ネットワーク300は、カメラ100とクライアント装置200との間で通信可能な構成であれば、その通信規格、規模および構成は問わない。ネットワーク300は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)、若しくはこれらの複合により実現してもよい。
A network camera system 1000 includes an imaging device 100 and a client device 200 . The imaging device 100 and the client device 200 are connected by a network 300 so as to be able to communicate with each other.
The network 300 is composed of, for example, a plurality of routers, switches, cables, etc. conforming to the Ethernet (registered trademark) communication standard. Note that the network 300 may have any communication standard, scale, or configuration as long as the network 300 can communicate between the camera 100 and the client device 200 . The network 300 may be implemented by the Internet, a wired LAN (Local Area Network), a wireless LAN (Wireless LAN), a WAN (Wide Area Network), or a combination thereof.

撮像装置100は、所定の撮像範囲を撮像するネットワークカメラ(以下、単に「カメラ」という。)であり、撮像画像もしくはその一部を、ネットワーク300を介してクライアント装置200に配信することができる。本実施形態では、カメラ100は、魚眼レンズを有し、撮像画像として全方位画像(魚眼画像)を取得することができる全方位カメラである場合について説明する。カメラ100は、例えば施設の天井に設置され、カメラ100の下を通る人物や車両等の被写体を撮像することができる。なお、カメラ100は、1枚の画像(静止画)を撮像するカメラであってもよいし、1枚以上の画像を含む映像を撮像するカメラであってもよい。
クライアント装置200は、パーソナルコンピュータ(PC)やスマートフォン、タブレット型PCといった端末装置により構成することができる。クライアント装置200は、カメラ100から配信される画像をユーザに提示する表示装置である。
The imaging device 100 is a network camera (hereinafter simply referred to as “camera”) that captures an image of a predetermined imaging range, and can deliver a captured image or a part thereof to the client device 200 via the network 300 . In this embodiment, the camera 100 is an omnidirectional camera that has a fisheye lens and can acquire an omnidirectional image (fisheye image) as a captured image. The camera 100 is installed, for example, on the ceiling of a facility, and can capture an image of an object such as a person or vehicle passing under the camera 100 . Note that the camera 100 may be a camera that captures one image (still image), or may be a camera that captures a video including one or more images.
The client device 200 can be configured by a terminal device such as a personal computer (PC), a smart phone, or a tablet PC. The client device 200 is a display device that presents images distributed from the camera 100 to the user.

撮像装置100は、CPU111と、ROM112と、RAM113と、撮像部114と、通信I/F115と、を備える。
CPU111は、撮像装置100における動作を統括的に制御する。ROM112は、CPU111が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、不図示の外部メモリや着脱可能な記憶媒体に記憶されていてもよい。RAM113は、CPU111の主メモリ、ワークエリア等として機能する。CPU111は、処理の実行に際してROM112から必要なプログラム等をRAM113にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
撮像部114は、撮像光学系を構成するレンズ部や撮像素子を備える。通信I/F115は、外部装置と通信するためのインタフェースである。
Imaging device 100 includes CPU 111 , ROM 112 , RAM 113 , imaging unit 114 , and communication I/F 115 .
The CPU 111 comprehensively controls operations in the imaging apparatus 100 . The ROM 112 is a non-volatile memory that stores control programs and the like necessary for the CPU 111 to execute processing. Note that the program may be stored in an external memory (not shown) or a removable storage medium. A RAM 113 functions as a main memory, a work area, and the like for the CPU 111 . The CPU 111 loads necessary programs and the like from the ROM 112 to the RAM 113 when executing processing, and executes various functional operations by executing the programs and the like.
The imaging unit 114 includes a lens unit and an imaging device that constitute an imaging optical system. Communication I/F 115 is an interface for communicating with an external device.

クライアント装置200は、CPU211と、ROM212と、RAM213と、表示部214と、操作部215と、通信I/F216と、を備える。CPU211、ROM212、RAM213および通信I/F216は、撮像装置100のCPU111、ROM112、RAM113および通信I/F115と同様である。
表示部214は、液晶ディスプレイ(LCD)等のモニタを備え、カメラ100から配信される画像を表示する。操作部215は、キーボードやマウス等のポインティングデバイスを備え、ユーザからの指示入力を受け付けることができる。
The client device 200 includes a CPU 211 , a ROM 212 , a RAM 213 , a display section 214 , an operation section 215 and a communication I/F 216 . The CPU 211 , ROM 212 , RAM 213 and communication I/F 216 are the same as the CPU 111 , ROM 112 , RAM 113 and communication I/F 115 of the imaging device 100 .
A display unit 214 includes a monitor such as a liquid crystal display (LCD) and displays images delivered from the camera 100 . An operation unit 215 includes a pointing device such as a keyboard and a mouse, and can accept instruction input from the user.

図2は、カメラ100の構成例を示すブロック図である。
カメラ100は、撮像部101と、画像処理部102と、露出制御部103と、光学制御部104と、動きベクトル検出部105と、表示情報処理部106と、画像出力部107と、を備える。
撮像部101は、レンズ群101a、光学フィルタ101b、撮像素子101c、ゲインコントロールアンプ回路(AGC)101dおよびA/D変換器101eを備える。撮像部101は、図1の撮像部114に対応している。
レンズ群101aは、被写体からの入射した光を撮像素子101c上に集光するための撮像光学系である。レンズ群101aは、魚眼レンズを含む。また、レンズ群101aは、被写体に対するピント合わせを行うフォーカスレンズや、画角を調整するズームレンズ等を含んでもよい。
FIG. 2 is a block diagram showing a configuration example of the camera 100. As shown in FIG.
The camera 100 includes an imaging unit 101 , an image processing unit 102 , an exposure control unit 103 , an optical control unit 104 , a motion vector detection unit 105 , a display information processing unit 106 and an image output unit 107 .
The imaging unit 101 includes a lens group 101a, an optical filter 101b, an imaging element 101c, a gain control amplifier circuit (AGC) 101d, and an A/D converter 101e. The imaging unit 101 corresponds to the imaging unit 114 in FIG.
The lens group 101a is an imaging optical system for condensing incident light from a subject onto the imaging element 101c. The lens group 101a includes a fisheye lens. Also, the lens group 101a may include a focus lens for focusing on a subject, a zoom lens for adjusting the angle of view, and the like.

レンズ群101aを通してカメラ100内に入ってきた光は、光学フィルタ101bを通過し、撮像素子101cに入射する。光学フィルタ101bは、例えば赤外線カットフィルタ(IRCF)等とすることができる。
撮像素子101cは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを備える。撮像素子101cは、レンズ群101aおよび光学フィルタ101bを介して結像された被写体像を電気信号(アナログ信号)に変換して出力する。AGC101dは、撮像素子101cから出力された電気信号に対して増幅処理などを行い、カメラ100の利得制御を自動で行う。A/D変換器101eは、AGC101dにより増幅処理されたアナログ信号をデジタル信号へと変換する。
Light entering the camera 100 through the lens group 101a passes through the optical filter 101b and enters the imaging element 101c. The optical filter 101b can be, for example, an infrared cut filter (IRCF) or the like.
The imaging element 101c includes a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like. The imaging device 101c converts the subject image formed via the lens group 101a and the optical filter 101b into an electrical signal (analog signal) and outputs the electrical signal. The AGC 101d performs amplification processing and the like on the electrical signal output from the image sensor 101c, and automatically performs gain control of the camera 100. FIG. The A/D converter 101e converts the analog signal amplified by the AGC 101d into a digital signal.

画像処理部102は、撮像部101から出力されるデジタル信号に対して、所定の処理を施し、画素毎の輝度信号と色信号とを出力する。また、画像処理部102は、カメラ制御を行うための各パラメータを生成することもできる。ここで、カメラ制御を行うための各パラメータは、絞りの制御や、ピント合わせの制御、色味を調整するホワイトバランス制御などにおいて使用されるパラメータを含む。
露出制御部103は、画像処理部102から出力される輝度情報をもとに、撮像画像を所望の明るさに調整すべく絞りおよびAGC101dを制御する。光学制御部104は、ピント合わせ動作を行う。ピント合わせ動作は、画像処理部102において生成された画像信号から高周波成分を抜き出し、高周波成分の値をフォーカスピント情報(フォーカス評価値)として、当該フォーカス評価値が最大となるようにレンズ群101aを制御する動作である。また、光学制御部104は、光学フィルタ101bの挿抜動作も行うことができる。
The image processing unit 102 performs predetermined processing on the digital signal output from the imaging unit 101, and outputs a luminance signal and a color signal for each pixel. The image processing unit 102 can also generate parameters for camera control. Here, each parameter for camera control includes parameters used in aperture control, focus control, white balance control for color adjustment, and the like.
Based on the brightness information output from the image processing unit 102, the exposure control unit 103 controls the diaphragm and the AGC 101d so as to adjust the captured image to desired brightness. The optical control unit 104 performs a focusing operation. In the focusing operation, high-frequency components are extracted from the image signal generated by the image processing unit 102, and the value of the high-frequency components is used as focus information (focus evaluation value). It is an action to control. The optical control unit 104 can also insert and remove the optical filter 101b.

動きベクトル検出部105は、画像処理部102から出力される撮像画像(全方位画像)から動体を検出する。具体的には、動きベクトル検出部105は、現フレームと前フレームとの差分を取ることで動体を検出する。そして、動きベクトル検出部105は、動体の動きベクトル量を取得して動体の移動方向と移動速度とを算出する。また、動きベクトル検出部105は、検出された動体の大きさを算出することもできる。ここで、上記動体は、上述したように人体や車体を含む。さらに、動きベクトル検出部105は、検出された動体を含む領域を注目領域として検出し、全方位画像における注目領域の位置を示す位置情報を取得することができる。 A motion vector detection unit 105 detects a moving object from the captured image (omnidirectional image) output from the image processing unit 102 . Specifically, the motion vector detection unit 105 detects a moving object by taking the difference between the current frame and the previous frame. Then, the motion vector detection unit 105 acquires the motion vector amount of the moving object and calculates the moving direction and moving speed of the moving object. The motion vector detection unit 105 can also calculate the size of the detected moving object. Here, the moving body includes a human body and a vehicle body as described above. Furthermore, the motion vector detection unit 105 can detect a region including the detected moving object as a region of interest, and acquire position information indicating the position of the region of interest in the omnidirectional image.

表示情報処理部106は、動きベクトル検出部105において検出された動体を含む注目領域に対して、表示の優先度を付与する。このとき、表示情報処理部106は、ユーザが全方位画像から切り出し表示する領域を指定している場合、その指定領域の表示の優先度を考慮して、注目領域の表示の優先度を設定することもできる。
画像出力部107は、画像処理部102において生成された全方位画像と、注目領域および指定領域に関する情報、表示情報処理部106において設定された優先度とに基づいて、クライアント装置200に表示させる画像を出力する。具体的には、画像出力部107は、全方位画像から注目領域の画像を切り出し、切り出した画像を、表示の優先度の高い順にクライアント装置200へ配信することで、クライアント装置200へ表示させる表示制御を行う。
The display information processing unit 106 assigns display priority to the attention area including the moving object detected by the motion vector detection unit 105 . At this time, when the user designates an area to be cut out and displayed from the omnidirectional image, the display information processing unit 106 sets the display priority of the attention area in consideration of the display priority of the designated area. can also
The image output unit 107 displays an image to be displayed on the client device 200 based on the omnidirectional image generated by the image processing unit 102, the information on the attention area and the designated area, and the priority set by the display information processing unit 106. to output Specifically, the image output unit 107 cuts out the image of the attention area from the omnidirectional image, and distributes the cut-out image to the client device 200 in order of display priority, thereby displaying the image on the client device 200. control.

図2に示すカメラ100の構成要素の一部または全部の機能は、カメラ100のCPU111がプログラムを実行することで実現することができる。ただし、図2に示すカメラ100の各要素のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU111の制御に基づいて動作する。 Some or all of the functions of the constituent elements of the camera 100 shown in FIG. 2 can be implemented by the CPU 111 of the camera 100 executing a program. However, at least some of the elements of the camera 100 shown in FIG. 2 may operate as dedicated hardware. In this case, the dedicated hardware operates under the control of the CPU 111 .

クライアント装置200は、カメラ100から配信される画像を表示することができる。本実施形態では、クライアント装置200は、1画面を4つの表示領域に分割し、各表示領域に4つの画像をそれぞれ表示する4画面表示を行う場合について説明する。この4画面表示では、全方位画像から切り出された注目領域の画像もしくはユーザが指定した指定領域の画像を、4つまで表示することができる。 The client device 200 can display images distributed from the camera 100 . In this embodiment, the client device 200 divides one screen into four display areas and performs four-screen display in which four images are displayed in each display area. In this four-screen display, up to four images of attention areas cut out from an omnidirectional image or images of specified areas specified by the user can be displayed.

図3(A)は、カメラ100により撮像された全方位画像400の一例である。円形の全方位画像400には、人体601と、車体602と、木603とが撮像されている。例えば、この全方位画像400に対して、ユーザが指定領域A1~A4を指定しており、カメラ100から指定領域A1~A4の切り出し画像が配信された場合、クライアント装置200は、これら指定領域A1~A4の画像を受信して表示画面に表示する。このときの表示画面の一例を図3(B)に示す。 FIG. 3A is an example of an omnidirectional image 400 captured by the camera 100. FIG. A human body 601 , a vehicle body 602 , and a tree 603 are imaged in a circular omnidirectional image 400 . For example, if the user has specified specified areas A1 to A4 for this omnidirectional image 400, and the clipped image of the specified areas A1 to A4 is delivered from the camera 100, the client device 200 will transfer these specified areas A1 to A4. Receive an A4 image and display it on the display screen. An example of the display screen at this time is shown in FIG.

図3(B)に示すように、表示画面500は、4つの表示領域501~504に分割されており、第1の表示領域501には指定領域A1の切り出し画像、第2の表示領域502には指定領域A2の切り出し画像が表示される。また、第3の表示領域503には指定領域A3の切り出し画像、第4の表示領域504には指定領域A4の切り出し画像が表示される。このように、ユーザが4つの指定領域を指定している場合、4つの表示領域501~504の表示は、それぞれユーザが指定した指定領域の切り出し画像を表示するユーザ指定領域表示となる。
一方、カメラ100が全方位画像から動体を含む注目領域を検出しており、カメラ100から注目領域の切り出し画像が配信された場合、クライアント装置200は、カメラ100から受信した注目領域の画像を表示画面に表示する。例えば、カメラ100が4つの注目領域を検出している場合、4つの表示領域501~504の表示は、それぞれ注目領域の切り出し画像を表示する注目領域表示となる。
As shown in FIG. 3B, the display screen 500 is divided into four display areas 501-504. , a clipped image of the specified area A2 is displayed. In addition, the clipped image of the specified area A3 is displayed in the third display area 503, and the clipped image of the specified area A4 is displayed in the fourth display area 504. FIG. In this way, when the user designates four designated areas, the display of the four display areas 501 to 504 is a user designated area display that displays a clipped image of the designated area designated by the user.
On the other hand, when the camera 100 detects an attention area including a moving object from the omnidirectional image and the clipped image of the attention area is delivered from the camera 100, the client device 200 displays the image of the attention area received from the camera 100. display on the screen. For example, when the camera 100 detects four attention areas, the display of the four display areas 501 to 504 is an attention area display that displays a clipped image of each attention area.

ところで、天井設置型の全方位カメラによって撮像された全方位画像の特徴として、被写体は画像の中心から離れるにつれて小さく撮像され、角度的に得られる情報が多くなるという特徴がある。例えば被写体が車両である場合、図4(A)に示すように、中心から離れている車体602aはナンバープレート情報を取得しやすく、中心に近い車体602bは車体しか映らないのでナンバープレート情報を取得できない。また、被写体が人物である場合、図4(B)に示すように、中心から離れている人体601aは顔情報を取得しやすく、中心に近い人体601bは頭部しか映らないので、顔情報を取得できない。 By the way, as a feature of an omnidirectional image captured by a ceiling-mounted omnidirectional camera, the subject becomes smaller as it moves away from the center of the image, and more angular information is obtained. For example, when the subject is a vehicle, as shown in FIG. 4A, it is easy to obtain license plate information for a vehicle body 602a that is far from the center, and only the vehicle body is visible for a vehicle body 602b that is close to the center, so license plate information is acquired. Can not. Further, when the subject is a person, as shown in FIG. 4B, it is easy to obtain face information of a human body 601a far from the center, and only the head of a human body 601b close to the center is captured. can not get.

クライアント装置200において4画面表示を行う場合、表示領域は4つと限られている。そのため、車体や人体といった動体が存在するからといって、当該動体を含む領域を注目領域として表示画面上に表示させても、ユーザはナンバープレートや顔を確認できない場合がある。
また、全方位画像の特徴として、画像中心からの距離に応じて画素密度が変化するという特徴もある。そのため、注目領域の画像内位置によっては、注目領域の切り出し画像を表示画面上に表示させても、解像度が劣っているために動体を確認できない場合がある。
When performing four-screen display on the client device 200, the number of display areas is limited to four. Therefore, even if a moving body such as a vehicle body or a human body is present, the user may not be able to check the license plate or face even if the area including the moving body is displayed as an attention area on the display screen.
Another feature of the omnidirectional image is that the pixel density changes according to the distance from the center of the image. Therefore, depending on the position of the attention area in the image, even if the clipped image of the attention area is displayed on the display screen, the moving object may not be confirmed due to the inferior resolution.

そこで、本実施形態では、カメラ100は、動体が、ナンバープレート情報や顔情報といった必要な情報を取得可能な適切な位置に存在する場合に、優先的にクライアント装置200の表示画面に表示させる。具体的には、カメラ100は、全方位画像における注目領域の位置を示す位置情報と、全方位画像の画素密度情報とを取得し、取得した位置情報と画素密度情報とに基づいて、注目領域の表示の優先度を設定する。より具体的には、カメラ100は、注目領域の画像中心からの距離が所定範囲内であり、且つ注目領域が存在する位置の画素密度が所定値以上である場合に、注目領域の表示の優先度が高くなるように設定する。 Therefore, in the present embodiment, the camera 100 preferentially displays the moving object on the display screen of the client device 200 when it is present at an appropriate position where necessary information such as license plate information and face information can be obtained. Specifically, camera 100 acquires position information indicating the position of a region of interest in an omnidirectional image and pixel density information of the omnidirectional image, and based on the acquired position information and pixel density information, determines the region of interest. set the display priority of More specifically, when the distance from the center of the image of the attention area to the attention area is within a predetermined range and the pixel density at the position where the attention area exists is equal to or greater than a predetermined value, the camera 100 gives priority to the display of the attention area. Set to high.

このように、カメラ100は、全方位画像における注目領域の位置情報を取得する機能と、全方位画像の画素密度情報を取得する機能と、注目領域について表示の優先度を設定する機能と、を有する。本実施形態では、カメラ100が、位置情報および画素密度情報に基づいて注目領域の表示の優先度を設定する情報処理装置として動作する場合について説明する。しかしながら、クライアント装置200が上記の情報処理装置として動作してもよいし、一般のPCや他の機器等が上記の情報処理装置として動作してもよい。また、カメラ100は、情報処理装置の一部の機能のみを備える構成であってもよい。この場合、カメラ100とネットワーク300を介して接続されたクライアント装置200や他の機器が情報処理装置の残りの機能を備える。 In this way, the camera 100 has a function of acquiring position information of a region of interest in an omnidirectional image, a function of acquiring pixel density information of the omnidirectional image, and a function of setting display priority for the region of interest. have. In the present embodiment, a case will be described in which the camera 100 operates as an information processing device that sets display priority of attention areas based on position information and pixel density information. However, the client device 200 may operate as the information processing device, or a general PC or other equipment may operate as the information processing device. Moreover, the camera 100 may be configured to include only a part of the functions of the information processing apparatus. In this case, the client device 200 and other devices connected to the camera 100 via the network 300 have the remaining functions of the information processing device.

図5は、カメラ100が実行する優先度設定処理手順を示すフローチャートである。
この図5の処理は、カメラ100の動きベクトル検出部105が画像処理部102から全方位画像を取得したタイミングで開始される。ただし、図5の処理の開始タイミングは、上記のタイミングに限らない。カメラ100は、CPU111が必要なプログラムを読み出して実行することにより、図5に示す各処理を実現することができる。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
FIG. 5 is a flowchart showing a priority setting process procedure executed by the camera 100. FIG.
The processing in FIG. 5 is started at the timing when the motion vector detection unit 105 of the camera 100 acquires the omnidirectional image from the image processing unit 102 . However, the start timing of the processing in FIG. 5 is not limited to the above timing. The camera 100 can realize each process shown in FIG. 5 by having the CPU 111 read and execute necessary programs. Hereafter, the letter S shall mean a step in the flow chart.

まずS1において、動きベクトル検出部105は、全方位画像から動体を検出する動体検出処理を行う。
図6は、S1において実行される動体検出処理を示すフローチャートである。
S11において、動きベクトル検出部105は、現フレームと前フレームとの差分である背景差分画像を取得し、S12に移行する。S12では、動きベクトル検出部105は、背景差分画像をもとに動体の有無を判定し、動体が存在しないと判定した場合には、注目領域が検出されなかったと判断してそのまま図6の処理を終了する。なお、この場合、優先度を付与する対象の注目領域が存在しないため、そのまま図5の処理も終了する。一方、動きベクトル検出部105は、動体が存在すると判定した場合にはS13に移行する。
First, in S1, the motion vector detection unit 105 performs moving object detection processing for detecting a moving object from an omnidirectional image.
FIG. 6 is a flow chart showing the moving object detection process executed in S1.
In S11, the motion vector detection unit 105 acquires a background difference image, which is the difference between the current frame and the previous frame, and proceeds to S12. In S12, the motion vector detection unit 105 determines the presence or absence of a moving object based on the background difference image. If it is determined that the moving object does not exist, it determines that the attention area has not been detected, and the processing of FIG. 6 is performed as it is. exit. In this case, since there is no region of interest to which priority is to be assigned, the processing in FIG. 5 is terminated as it is. On the other hand, when the motion vector detection unit 105 determines that there is a moving object, the process proceeds to S13.

S13では、動きベクトル検出部105は、動体の形状を検出する。このとき、動きベクトル検出部105は、検出した動体の形状から、動体が人体であるか車体であるかといった認識処理を行ってもよい。また、動きベクトル検出部105は、検出した動体の形状から、動体の大きさを算出してもよい。
S14では、動きベクトル検出部105は、動体の動きベクトルを取得する。S15では、動きベクトル検出部105は、S14において取得された動きベクトルから動体の移動方向を算出する。S16では、動きベクトル検出部105は、S14において取得された動きベクトルから動体の移動速度を算出する。
In S13, the motion vector detection unit 105 detects the shape of the moving object. At this time, the motion vector detection unit 105 may perform recognition processing to determine whether the moving object is a human body or a vehicle body from the shape of the detected moving object. Also, the motion vector detection unit 105 may calculate the size of the moving object from the shape of the detected moving object.
In S14, the motion vector detection unit 105 acquires the motion vector of the moving object. In S15, the motion vector detection unit 105 calculates the moving direction of the moving object from the motion vector acquired in S14. In S16, the motion vector detection unit 105 calculates the moving speed of the moving object from the motion vector acquired in S14.

図5に戻って、S2では、表示情報処理部106は、図7に示すように、S1において検出された動体610の画像中心からの距離Lを検出する。動体610の画像中心からの距離Lは、動体610を含む注目領域の全方位画像の中心からの距離である。動体610の位置(注目領域の位置)は、動体610の中心や重心とすることができる。なお、動体610が車体であり、認識対象がナンバープレートである場合、動体610の位置はナンバープレートの中心としてもよい。また、動体610が人体であり、認識対象が人物の顔である場合、動体610の位置は顔の中心としてもよい。 Returning to FIG. 5, in S2, the display information processing unit 106 detects the distance L from the center of the image of the moving object 610 detected in S1, as shown in FIG. The distance L from the image center of the moving object 610 is the distance from the center of the omnidirectional image of the attention area including the moving object 610 . The position of the moving object 610 (the position of the region of interest) can be the center or the center of gravity of the moving object 610 . If the moving object 610 is the vehicle body and the recognition target is the license plate, the position of the moving object 610 may be the center of the license plate. Further, when the moving body 610 is a human body and the recognition target is a person's face, the position of the moving body 610 may be the center of the face.

S3では、表示情報処理部106は、S2において検出された距離Lが所定範囲内であるか否かを判定する。具体的には、表示情報処理部106は、L2≦L≦L1であるか否かを判定する。つまり、表示情報処理部106は、動体を含む注目領域が、図8に示す半径L1の円C1の内側で且つ半径L2の円C2の外側である所定領域内に位置するか否かを判定する。ここで、円C1、C2は、全方位画像の中心を中心とする同心円である。そして、注目領域が所定領域内に位置する場合には、注目領域に含まれる動体から必要な情報を取得可能であると判定してS4に移行し、注目領域が所定領域外である場合には、注目領域に含まれる動体から取得可能な情報量が少ないと判定してS7に移行する。 In S3, the display information processing unit 106 determines whether or not the distance L detected in S2 is within a predetermined range. Specifically, the display information processing unit 106 determines whether or not L2≦L≦L1. That is, the display information processing unit 106 determines whether or not the attention area including the moving object is positioned within a predetermined area inside the circle C1 with the radius L1 and outside the circle C2 with the radius L2 shown in FIG. . Here, the circles C1 and C2 are concentric circles around the center of the omnidirectional image. Then, if the attention area is located within the predetermined area, it is determined that necessary information can be acquired from the moving object included in the attention area, and the process proceeds to S4. , the amount of information that can be acquired from the moving object included in the attention area is determined to be small, and the process proceeds to S7.

S4では、表示情報処理部106は、注目領域が存在する位置の画素密度情報を取得し、画素密度が所定値以上であるか否かを判定する。
画素密度は、カメラ100のレンズの特性により、画像の周辺部に近づくにつれて密になる場合と、画像の周辺部に近づくにつれて疎になる場合とがあるが、どちらの場合にも適用可能である。図9(A)は、画像の周辺部に近づくにつれて画素密度が密になる場合を示しており、この場合、半径L3の円C3の外側が、画素密度が所定値以上となる領域となる。また、図9(B)は、画像の周辺部に近づくにつれて画素密度が疎になる場合を示しており、この場合、半径L3の円C3の内側が、画素密度が所定値以上となる領域となる。したがって、注目領域の画像中心からの距離Lと円C3の半径L3とを比較することで、注目領域が、画素密度が所定値以上の位置に存在するか否かを判定することができる。
なお、図9(A)における半径L3と、図9(B)における半径L3とは、同じであってもよいし、異なっていてもよい。また、画素密度情報の代わりに、解像本数情報を使用することも可能である。
In S4, the display information processing unit 106 acquires pixel density information of the position where the attention area exists, and determines whether or not the pixel density is equal to or greater than a predetermined value.
Depending on the characteristics of the lens of the camera 100, the pixel density may become denser as it approaches the periphery of the image, or it may become less dense as it approaches the periphery of the image, but it is applicable to both cases. . FIG. 9A shows a case where the pixel density becomes denser as it approaches the periphery of the image. In this case, the outside of the circle C3 with the radius L3 is the area where the pixel density is equal to or higher than the predetermined value. Also, FIG. 9B shows a case where the pixel density becomes sparse toward the periphery of the image. In this case, the inside of the circle C3 with the radius L3 is the area where the pixel density is equal to or higher than a predetermined value. Become. Therefore, by comparing the distance L from the image center of the attention area to the radius L3 of the circle C3, it is possible to determine whether or not the attention area exists at a position where the pixel density is equal to or higher than a predetermined value.
Note that the radius L3 in FIG. 9A and the radius L3 in FIG. 9B may be the same or different. It is also possible to use resolution number information instead of pixel density information.

注目領域が存在する位置の画素密度が所定値以上である場合には、表示情報処理部106は、注目領域が存在する位置の解像度が良好であり、動体の情報取得に適していると判定してS5に移行し、この動体を含む注目領域の表示の優先度を「高」に設定する。
一方、画素密度が所定値未満である場合には、表示情報処理部106は、注目領域の画像から動体に関する必要な情報は取得可能だが、やや解像度が劣っていると判定してS6に移行し、この注目領域の表示の優先度を「中」に設定する。
S7では、表示情報処理部106は、優先度の設定対象である注目領域を表示の対象外とすべく表示の優先度を設定する(優先度を付与しない)。
If the pixel density at the position where the attention area exists is equal to or greater than a predetermined value, the display information processing unit 106 determines that the position where the attention area exists has good resolution and is suitable for acquiring information on a moving object. Then, the process proceeds to S5 to set the display priority of the attention area including the moving object to "high".
On the other hand, if the pixel density is less than the predetermined value, the display information processing unit 106 determines that the necessary information regarding the moving object can be obtained from the image of the attention area, but the resolution is somewhat inferior, and proceeds to S6. , the priority of the display of this attention area is set to "medium".
In S<b>7 , the display information processing unit 106 sets the display priority so that the attention area for which the priority is set is excluded from the display (no priority is given).

つまり、図10(A)に示すように、動体(人体)601が円C1の内側で円C2の外側である所定領域内に存在し、図10(B)に示すように、動体601が円C3の外側に存在している場合、この動体601を含む注目領域の表示の優先度は高となる。このように、動体601を含む注目領域の画像中心からの距離が所定範囲内であり、且つ当該注目領域が存在する位置の画素密度が所定値以上である場合、当該注目領域の表示の優先度は高となる。
なお、図10(A)および図10(B)において、動体601の位置(注目領域の位置)は、顔の中心としている。また、後述する図11(A)、図11(B)および図12についても同様である。
That is, as shown in FIG. 10A, a moving object (human body) 601 exists within a predetermined region inside the circle C1 and outside the circle C2, and as shown in FIG. If it exists outside C3, the display priority of the attention area including this moving object 601 is high. In this way, when the distance from the center of the image of the attention area including the moving object 601 is within a predetermined range and the pixel density at the position where the attention area exists is equal to or greater than a predetermined value, the display priority of the attention area is is high.
Note that in FIGS. 10A and 10B, the position of the moving object 601 (the position of the attention area) is the center of the face. The same applies to FIGS. 11A, 11B and 12, which will be described later.

これに対して、図11(A)に示すように、動体(人体)601が円C1の内側で円C2の外側である所定領域内に存在しているが、図11(B)に示すように、動体601が円C3の内側に存在している場合、表示の優先度は中となる。つまり、動体601を含む注目領域の画像中心からの距離が所定範囲内であり、且つ当該注目領域が存在する位置の画素密度が所定値未満である場合、当該注目領域の表示の優先度は中となる。 On the other hand, as shown in FIG. 11(A), a moving body (human body) 601 exists within a predetermined area inside the circle C1 and outside the circle C2, but as shown in FIG. 11(B) In addition, when the moving object 601 exists inside the circle C3, the display priority is medium. That is, when the distance from the center of the image of the attention area including the moving object 601 is within a predetermined range and the pixel density of the position where the attention area exists is less than a predetermined value, the display priority of the attention area is medium. becomes.

そして、図12に示すように、動体(人体)601が円C2の内側、つまり、動体601を含む注目領域が所定領域外に存在している場合には、この動体601を含む注目領域は表示対象外となる。
なお、本実施形態では、注目領域が所定領域外に存在している場合、当該注目領域を表示対象外とする場合について説明した。しかしながら、注目領域が所定領域外であり、注目領域の位置の画素密度が所定値以上である場合には、表示の優先度を、例えば「低」など、表示対象とするが優先度は低い状態に設定してもよい。
Then, as shown in FIG. 12, when a moving body (human body) 601 is inside the circle C2, that is, when the attention area including the moving body 601 exists outside the predetermined area, the attention area including the moving body 601 is displayed. Excluded.
Note that, in the present embodiment, a case has been described in which when an attention area exists outside a predetermined area, the attention area is excluded from the display target. However, when the attention area is outside the predetermined area and the pixel density at the position of the attention area is equal to or greater than a predetermined value, the display priority is set to, for example, "low", although the priority is low. can be set to

図13は、カメラ100が実行する表示制御処理手順を示すフローチャートである。
この図13の処理は、注目領域の表示の優先度に基づいて注目領域の画像をクライアント装置200に表示させる表示制御を行う処理であり、図5の優先度設定処理の終了後に開始される。カメラ100は、CPU111が必要なプログラムを読み出して実行することにより、図13に示す各処理を実現することができる。
まずS21において、画像出力部107は、ユーザの指示により注目領域の優先表示が実施されているか否かを判定する。ユーザは、クライアント装置200の操作部215を操作して、カメラ100により検出された注目領域を優先的に表示部214に表示するか否かを事前に指示することができる。画像出力部107は、注目領域の優先表示が実施されていると判定した場合にはS22に移行し、注目領域の優先表示が実施されていないと判定した場合にはそのまま図13の処理を終了する。
FIG. 13 is a flow chart showing a display control processing procedure executed by the camera 100. As shown in FIG.
The process of FIG. 13 is a process of performing display control for displaying the image of the attention area on the client device 200 based on the priority of the display of the attention area, and is started after the priority setting process of FIG. 5 ends. The camera 100 can realize each process shown in FIG. 13 by having the CPU 111 read out and execute necessary programs.
First, in S<b>21 , the image output unit 107 determines whether or not the attention area is preferentially displayed according to the user's instruction. The user can operate the operation unit 215 of the client device 200 to give an instruction in advance as to whether or not to preferentially display the attention area detected by the camera 100 on the display unit 214 . If the image output unit 107 determines that the attention area is preferentially displayed, the process proceeds to S22, and if it determines that the attention area is not preferentially displayed, the process of FIG. 13 is terminated. do.

S22では、画像出力部107は、クライアント装置200の表示画面上に、注目領域以外の画像の表示用として使用されている表示領域が存在するか否かを判定する。本実施形態では、画像出力部107は、クライアント装置200の表示画面上に、ユーザにより指定された指定領域の表示用として使用されている表示領域が存在するか否かを判定する。そして、指定領域の表示用として使用されている表示領域が存在しない場合、つまり、表示画面上において画像を表示可能な全表示領域を優先度が付与された注目領域の表示用として使用可能な場合、S23に移行する。一方、指定領域の表示用として使用されている表示領域が存在する場合には、表示領域の使用方法を変更する必要があると判定してS25に移行する。 In S<b>22 , the image output unit 107 determines whether or not there is a display area used for displaying an image other than the attention area on the display screen of the client device 200 . In this embodiment, the image output unit 107 determines whether or not there is a display area used for displaying the specified area specified by the user on the display screen of the client device 200 . Then, when there is no display area used for displaying the specified area, that is, when the entire display area in which an image can be displayed on the display screen can be used for displaying the attention area to which priority is assigned. , S23. On the other hand, if there is a display area used for displaying the specified area, it is determined that the usage of the display area needs to be changed, and the process proceeds to S25.

S23では、画像出力部107は、優先度が付与された注目領域の数と、表示画面上における注目領域の表示用として使用可能な表示領域の数とを比較する。そして、注目領域の数が使用可能な表示領域の数を超えている場合にはS25に移行し、注目領域の数が使用可能な表示領域の数以下である場合にはS24に移行する。S24では、画像出力部107は、優先度が付与された注目領域をすべて表示画面上に表示可能であるため、優先度が高い注目領域から順に、注目領域の画像をすべてクライアント装置200へ出力する。このようにして、画像出力部107は、注目領域の画像をクライアント装置200に表示させる表示制御を行う。この場合のクライアント装置200における表示例について、図14(A)および図14(B)を参照しながら説明する。 In S<b>23 , the image output unit 107 compares the number of prioritized regions of interest with the number of display regions that can be used for displaying the regions of interest on the display screen. Then, when the number of attention areas exceeds the number of usable display areas, the process proceeds to S25, and when the number of attention areas is equal to or less than the number of usable display areas, the process proceeds to S24. In S24, the image output unit 107 can display all the attention areas to which the priority is given on the display screen, and therefore outputs all the images of the attention areas to the client device 200 in order from the attention area with the highest priority. . In this manner, the image output unit 107 performs display control for displaying the image of the attention area on the client device 200 . A display example on the client device 200 in this case will be described with reference to FIGS. 14A and 14B.

図14(A)に示すように、全方位画像400に動体として人体601と車体602とが撮像されている場合、カメラ100は、人体601を含む領域と、車体602を含む領域とを注目領域として検出する。また、カメラ100は、これら注目領域について、表示優先度を設定する。このとき、カメラ100が、車体602を含む注目領域の表示の優先度を高、人体601を含む注目領域の表示の優先度を中と設定したものとする。この場合、カメラ100は、車体602を含む注目領域の画像と、人体601を含む注目領域の画像とを、この順番でクライアント装置200へ出力する。
このとき、クライアント装置200の表示画面500に表示可能な4つの表示領域501~504は、すべて注目領域の画像の表示用として使用可能である。そのため、クライアント装置200は、例えば図14(B)に示すように、車体602を含む注目領域の画像を第1の表示領域501に表示し、人体601を含む注目領域の画像を第2の表示領域502に表示する。なお、どの表示領域にどの優先度の画像を表示するかについては、予め設定されていてもよいし、ユーザにより指定可能であってもよい。
As shown in FIG. 14A, when a human body 601 and a vehicle body 602 are imaged as moving bodies in an omnidirectional image 400, the camera 100 divides an area including the human body 601 and an area including the vehicle body 602 into regions of interest. Detect as In addition, the camera 100 sets display priority for these attention areas. At this time, it is assumed that the camera 100 sets the display priority of the attention area including the vehicle body 602 to high and the display priority of the attention area including the human body 601 to medium. In this case, the camera 100 outputs the image of the attention area including the vehicle body 602 and the image of the attention area including the human body 601 to the client device 200 in this order.
At this time, all four display areas 501 to 504 that can be displayed on the display screen 500 of the client device 200 can be used for displaying the image of the attention area. Therefore, as shown in FIG. 14B, for example, the client device 200 displays the image of the attention area including the vehicle body 602 in the first display area 501, and displays the image of the attention area including the human body 601 in the second display area. Displayed in area 502 . It should be noted that which image of which priority is to be displayed in which display area may be set in advance, or may be specified by the user.

図13のS25では、表示領域の使用方法を変更する表示領域変更処理を実行する。
図15は、S25において実行される表示領域変更処理手順を示すフローチャートである。
まずS251において、画像出力部107は、クライアント装置200に表示させる注目領域の画像の数、つまり、注目領域の表示用として必要な表示領域の数(必要表示領域数)を決定する。ここで、注目領域用の必要表示領域数は、ユーザが指定した数であってもよいし、予め決められた数であってもよい。
In S25 of FIG. 13, display area change processing for changing the usage of the display area is executed.
FIG. 15 is a flow chart showing the display area change processing procedure executed in S25.
First, in S251, the image output unit 107 determines the number of images of attention areas to be displayed on the client device 200, that is, the number of display areas required for displaying attention areas (required number of display areas). Here, the required number of display areas for the attention area may be a number designated by the user or a predetermined number.

次にS252において、画像出力部107は、S251において決定された注目領域用の必要表示領域数と、注目領域の画像の表示用として使用可能な未使用の表示領域数とを比較する。そして、使用可能な表示領域数が不足している場合は、注目領域以外の画像、例えばユーザにより指定された指定領域の画像の表示用として使用されている表示領域から、注目領域の表示用として使用する表示領域を選択する。
具体的には、図16に示すように、4つの表示領域501~504においてユーザ指定領域表示が行われており、注目領域用の必要表示領域数が2つと決定された場合、4つの表示領域501~504のうちの2つを注目領域の表示用の表示領域に置き換える。図16では、2つの表示領域503、504を、注目領域の表示用の表示領域として選択し、注目領域表示を行わせる場合について示しているが、置き換える表示領域は上記に限定されない。例えば、表示領域に優先順位を付与しておく、動体が存在しない画像が表示されている表示領域を置き換える、最も変化が少ない画像が表示されている表示領域を置き換える等の方法を用いて決定することができる。
Next, in S252, the image output unit 107 compares the required number of display areas for the attention area determined in S251 with the number of unused display areas that can be used for displaying the image of the attention area. Then, when the number of usable display areas is insufficient, the display area used for displaying the image other than the attention area, for example, the image of the specified area specified by the user, is used for displaying the attention area. Select the display area to use.
Specifically, as shown in FIG. 16, when user-specified area display is performed in four display areas 501 to 504 and the number of required display areas for the attention area is determined to be two, four display areas are displayed. Two of 501 to 504 are replaced with display areas for displaying the attention area. FIG. 16 shows a case where the two display areas 503 and 504 are selected as display areas for displaying the attention area, and attention area display is performed, but the replacement display area is not limited to the above. For example, priority is given to display areas, a display area displaying an image without a moving object is replaced, a display area displaying an image with the least change is replaced, and so on. be able to.

S253では、画像出力部107は、図5の優先度設定処理において同じ優先度が設定された注目領域に対して、さらに詳細に優先度を設定するために、優先的に表示すべき特定物体の種類(優先対象物体)を決定する。例えば、ナンバープレートを優先的に確認したい場合は、車体が優先対象物体となる。優先対象物体は、ユーザが指定してもよいし、撮像画像中の存在割合が多い動体を優先対象物体としたり、撮像画像中の滞在時間が長い動体を優先対象物体としたりしてもよい。 In S253, the image output unit 107 selects a specific object to be preferentially displayed in order to set the priority in more detail with respect to the attention areas for which the same priority was set in the priority setting process of FIG. Determine the type (priority target object). For example, if it is desired to check the license plate preferentially, the vehicle body is the priority target object. The priority target object may be specified by the user, or may be a priority target object for a moving object that has a high presence rate in the captured image, or a priority target object for a moving object that stays for a long time in the captured image.

S254では、画像出力部107は、注目領域が、ユーザが指定した指定領域内に含まれるか否かを判定する。ここで、注目領域が複数存在する場合には、すべての注目領域について指定領域内に含まれるか否かを判定する。そして、注目領域が指定領域内に含まれる場合には、改めて注目領域の画像を表示させる必要はないと判断してそのまま図15の処理を終了する。つまり、画像出力部107は、注目領域の画像をクライアント装置200へ出力しない。 In S254, the image output unit 107 determines whether or not the attention area is included in the specified area specified by the user. Here, if there are a plurality of attention areas, it is determined whether or not all attention areas are included in the specified area. Then, if the attention area is included in the designated area, it is determined that there is no need to display the image of the attention area again, and the process of FIG. 15 is terminated. That is, the image output unit 107 does not output the image of the attention area to the client device 200 .

一方、注目領域が指定領域内に含まれない場合には、注目領域の画像を表示画面へ表示させる必要がある。そこで、その場合には、S255以降の処理を実行する。
S255では、画像出力部107は、注目領域内に優先対象物体が含まれるか否かを判定する。そして、画像出力部107は、注目領域内に優先対象物体が含まれると判定した場合にはS256に移行し、注目領域内に優先対象物体が含まれないと判定した場合にはS258に移行する。
S256では、画像出力部107は、優先対象物体が含まれると判定された注目領域の優先度を判定し、優先度が高い場合はS257に移行する。一方、優先度が中である場合など、優先度が高ではない場合にはS258に移行する。
On the other hand, when the attention area is not included in the designated area, it is necessary to display the image of the attention area on the display screen. Therefore, in that case, the processes after S255 are executed.
In S255, the image output unit 107 determines whether or not the attention area includes a priority target object. When the image output unit 107 determines that the priority target object is included in the attention area, the process proceeds to S256. .
In S256, the image output unit 107 determines the priority of the attention area determined to include the priority target object, and when the priority is high, the process proceeds to S257. On the other hand, if the priority is not high, such as when the priority is medium, the process proceeds to S258.

S257では、画像出力部107は、優先対象物体が含まれ且つ優先度が高いと判定された注目領域の画像を、クライアント装置200へ出力する。この注目領域の画像は、表示画面において注目領域の表示用の表示領域に表示される。
S258では、画像出力部107は、クライアント装置200の表示画面において注目領域の表示用の表示領域に空きがあるか否かを判定する。そして、画像出力部107は、表示領域に空きかあると判定した場合にはS257に移行し、空きがないと判定した場合にはそのまま図15の処理を終了する。つまり、優先対象物体を含まない場合や、注目領域の優先度が中である注目領域については、表示領域に空きがある場合にのみ表示が行われる。
In S<b>257 , the image output unit 107 outputs to the client device 200 an image of the attention area that includes the priority target object and is determined to have a high priority. The image of the attention area is displayed in the display area for displaying the attention area on the display screen.
In S<b>258 , the image output unit 107 determines whether or not there is an empty display area for displaying the attention area on the display screen of the client device 200 . Then, if the image output unit 107 determines that there is space in the display area, the process proceeds to S257, and if it determines that there is no space, the process of FIG. 15 is terminated. In other words, when the priority target object is not included, or when the priority of the attention area is medium, the attention area is displayed only when there is a free space in the display area.

以上説明したように、本実施形態におけるカメラ100は、全方位画像から動体を検出し、当該動体を含む領域を注目領域として検出する。そして、カメラ100は、全方位画像における注目領域の位置を示す位置情報と、全方位画像の画素密度情報とを取得し、取得した位置情報と画素密度情報とに基づいて、注目領域の表示の優先度を設定する。そして、カメラ100は、設定された表示の優先度が高い順に、注目領域の画像を表示装置であるクライアント装置200に表示させる表示制御を行う。
具体的には、カメラ100は、注目領域が、全方位画像の中心からの距離が所定範囲内となる所定領域内に存在する場合、注目領域が所定領域外に存在する場合よりも表示の優先度を高く設定する。また、カメラ100は、注目領域が、全方位画像の画素密度が所定値以上の位置に存在する場合、画素密度が所定値未満の位置に存在する場合よりも表示の優先度を高く設定する。
As described above, the camera 100 according to this embodiment detects a moving object from an omnidirectional image, and detects an area including the moving object as an attention area. Then, the camera 100 acquires position information indicating the position of the attention area in the omnidirectional image and pixel density information of the omnidirectional image, and determines display of the attention area based on the acquired position information and pixel density information. Set priority. Then, the camera 100 performs display control to display the image of the attention area on the client device 200, which is a display device, in order of the set display priority.
Specifically, the camera 100 gives priority to display over a case where the attention area exists outside the predetermined area when the attention area exists within a predetermined area within a predetermined distance from the center of the omnidirectional image. Set high. In addition, the camera 100 sets a higher display priority when the attention area exists at a position where the pixel density of the omnidirectional image is equal to or higher than a predetermined value than when it exists at a position where the pixel density is less than the predetermined value.

このように、本実施形態では、全方位画像を撮像する全方位カメラにおいて、動体を含む注目領域が存在する位置や、動体を含む注目領域が存在する位置の画素密度を考慮して、注目領域の表示の優先度を設定することができる。これにより、注目領域が、ナンバープレート情報や顔情報といった必要な情報を適切に取得可能な位置に存在する場合に、当該注目領域の画像を優先的に表示装置へ表示させることができる。したがって、上記の必要な情報を取得することができないにもかかわらず表示装置に注目領域の画像を表示させてしまうことを抑制することができる。 As described above, in the present embodiment, in an omnidirectional camera that captures an omnidirectional image, the position of the attention area including the moving object and the pixel density of the position of the attention area including the moving object are considered. display priority can be set. As a result, when the attention area exists at a position where necessary information such as license plate information and face information can be appropriately acquired, the image of the attention area can be preferentially displayed on the display device. Therefore, it is possible to prevent the image of the attention area from being displayed on the display device even though the necessary information cannot be acquired.

また、カメラ100は、注目領域に優先的に表示すべき特定物体が存在するか否かを判定し、特定物体が存在する場合、特定物体が存在しない場合よりも表示の優先度を高く設定することもできる。
これにより、全方位画像から、例えば人体と車体といった複数種類の動体が検出された場合、優先的に表示すべき動体を含む注目領域に対して高い優先度を付与することができる。したがって、ユーザが優先的に確認したい情報を適切に提示することができる。
In addition, the camera 100 determines whether or not there is a specific object to be preferentially displayed in the attention area, and sets a higher display priority when the specific object exists than when the specific object does not exist. can also
As a result, when multiple types of moving objects such as a human body and a vehicle body are detected from the omnidirectional image, high priority can be given to the attention area including the moving objects to be preferentially displayed. Therefore, it is possible to appropriately present the information that the user preferentially wants to check.

さらに、カメラ100は、ユーザにより指定された全方位画像における指定領域が存在する場合、指定領域と注目領域との表示の優先度を設定することができる。つまり、ユーザにより指定された指定領域が存在する場合、指定領域を最優先として注目領域の画像を表示させたり、表示画面における指定領域の表示用の表示領域を、注目領域の表示用の表示領域に置き換えたりすることができる。
カメラ100は、クライアント装置200の表示画面に表示させる注目領域の画像の数を決定し、表示画面において注目領域の表示用として使用可能な未使用の表示領域の数とを比較する。そして、使用可能な表示領域数が不足している場合は、表示画面上の複数の表示領域のうち、注目領域以外の画像の表示用として使用されている表示領域から、注目領域の画像の表示用として使用する表示領域を選択する。そして、選択された表示領域に注目領域の画像を表示させる表示制御を行う。
これにより、決められた表示領域数の中で、注目領域の画像を適切に表示画面へ表示させることができる。
Furthermore, when there is a specified area in the omnidirectional image specified by the user, the camera 100 can set the display priority of the specified area and the attention area. That is, when there is a designated area designated by the user, the image of the attention area is displayed with the designated area as the top priority, or the display area for displaying the designated area on the display screen is changed to the display area for displaying the attention area. can be replaced with
The camera 100 determines the number of images of the attention area to be displayed on the display screen of the client device 200, and compares it with the number of unused display areas available for displaying the attention area on the display screen. Then, when the number of usable display areas is insufficient, the image of the attention area is displayed from the display area used for displaying the image other than the attention area among the plurality of display areas on the display screen. Select the display area to use for Then, display control is performed to display the image of the attention area in the selected display area.
As a result, the image of the attention area can be appropriately displayed on the display screen within the determined number of display areas.

(変形例)
上記実施形態においては、カメラ100は、画像の歪曲率を考慮せずに注目領域を検出し、注目領域の表示の優先度を設定する場合について説明したが、画像の歪曲率を考慮して表示の優先度を設定するようにしてもよい。画像の歪みが著しい場合、注目領域の画像からナンバープレート情報や顔情報といった必要な情報を取得することが難しい。そのため、カメラ100は、画像の歪曲率を取得し、画像の歪曲率が閾値以上である場合には、動体検出処理を行わないようにしてもよい。つまり、歪曲率が閾値未満である場合に、動体検出処理を行い、注目領域の表示の優先度を設定するようにしてもよい。
また、上記実施形態においては、注目領域の位置の判定に用いる所定領域(閾値L1、L2)や、注目領域の位置の画素密度の判定に用いる所定値(閾値L3)を固定とする場合について説明した。しかしながら、上記閾値は、動体の移動速度等に応じて可変であってもよい。
以下、これらについて詳細に説明する。
(Modification)
In the above embodiment, the camera 100 detects a region of interest without considering the distortion rate of the image, and sets the display priority of the region of interest. priority may be set. When the distortion of the image is significant, it is difficult to obtain necessary information such as license plate information and face information from the image of the attention area. Therefore, the camera 100 may acquire the distortion rate of the image, and if the distortion rate of the image is equal to or greater than the threshold, the moving object detection process may not be performed. In other words, when the distortion rate is less than the threshold, moving object detection processing may be performed to set the display priority of the attention area.
Further, in the above embodiment, the case where the predetermined areas (thresholds L1 and L2) used for determining the position of the attention area and the predetermined value (threshold L3) used for determining the pixel density of the attention area are fixed will be described. did. However, the threshold may be variable according to the moving speed of the moving object.
These will be described in detail below.

図17は、カメラ100が実行する優先度設定処理の変形例を示すフローチャートである。この図17の処理の開始タイミングは、図5の処理の開始タイミングと同様である。カメラ100は、CPU111が必要なプログラムを読み出して実行することにより、図17に示す各処理を実現することができる。
S31において、カメラ100は、画像の歪曲率を取得し、歪曲率が閾値以上であるか否かを判定する。そして、歪曲率が閾値以上である場合には、表示の対象外とすべく表示の優先度の設定を行わないようにそのまま図17の処理を終了し、歪曲率が閾値未満である場合にS32に移行する。S32では、動きベクトル検出部105は、全方位画像から動体を検出する動体検出処理を行う。このS32における動体検出処理は、図5のS1の処理(図6の処理)と同様である。
FIG. 17 is a flow chart showing a modification of the priority setting process executed by the camera 100. FIG. The start timing of the processing in FIG. 17 is the same as the start timing of the processing in FIG. The camera 100 can realize each process shown in FIG. 17 by having the CPU 111 read out and execute necessary programs.
In S31, the camera 100 acquires the distortion rate of the image and determines whether or not the distortion rate is equal to or greater than a threshold. Then, if the distortion rate is equal to or greater than the threshold, the process of FIG. 17 is terminated as it is so as not to set the display priority so as not to be displayed, and if the distortion rate is less than the threshold, S32 transition to In S32, the motion vector detection unit 105 performs moving object detection processing for detecting a moving object from the omnidirectional image. The moving object detection process in S32 is the same as the process in S1 in FIG. 5 (the process in FIG. 6).

S33では、表示情報処理部106は、S32において検出された動体の移動速度や画像上のゲインを取得し、取得した情報に応じて、注目領域の位置の判定に用いる所定領域を変更する。つまり、表示情報処理部106は、画像中心から動体までの距離の閾値L1、L2を変更する。
また、S34では、表示情報処理部106は、S32において検出された動体の移動速度や画像上のゲインといった情報に応じて、注目領域の位置の画素密度の判定に用いる所定値を変更する。つまり、表示情報処理部106は、画素密度の閾値L3を変更する。
In S33, the display information processing unit 106 acquires the moving speed of the moving object detected in S32 and the gain on the image, and changes the predetermined area used for determining the position of the attention area according to the acquired information. That is, the display information processing unit 106 changes the thresholds L1 and L2 of the distance from the center of the image to the moving object.
Also, in S34, the display information processing unit 106 changes the predetermined value used for determining the pixel density at the position of the attention area according to information such as the moving speed of the moving object and the gain on the image detected in S32. That is, the display information processing unit 106 changes the pixel density threshold L3.

例えば、S33およびS34においては、表示情報処理部106は、動体の移動速度が速いほど、注目領域の位置の判定に用いる所定領域を全方位画像の中心に近い位置に変更する。また、表示情報処理部106は、動体の移動速度が速いほど、注目領域の位置の画素密度の判定に用いる所定値を大きい値に設定する。これにより、動体の移動速度が速いほど、動体がより画像中心に近い位置に存在する場合、また、動体がより画素密度が高い位置に存在する場合に、表示の優先度が高くなることになる。
動体の移動速度が速い場合、動体の像が流れてしまうことが想定される。そのため、上記のように閾値を変更することにより、動体の移動速度が速い場合には、ナンバープレートや顔が、より大きく、より鮮明に撮像される位置に存在する場合に、表示画面に優先的に表示させるようにすることができる。
For example, in S33 and S34, the display information processing unit 106 changes the predetermined area used for determining the position of the attention area to a position closer to the center of the omnidirectional image as the moving speed of the moving object increases. Further, the display information processing unit 106 sets the predetermined value used for determining the pixel density at the position of the attention area to a larger value as the moving speed of the moving object increases. As a result, the faster the moving speed of the moving object is, the higher the priority of display is when the moving object is present at a position closer to the center of the image, or when the moving object is present at a position with a higher pixel density. .
If the moving speed of the moving object is fast, it is assumed that the image of the moving object will be blurred. Therefore, by changing the threshold value as described above, when the moving speed of the moving object is fast, when the license plate or the face is larger and exists in a position where it can be imaged more clearly, it is preferentially displayed on the display screen. can be displayed on

また、表示情報処理部106は、注目領域のゲインが予め設定した第一の閾値値以上である場合、ゲインが第一の閾値未満である場合よりも、注目領域の位置の判定に用いる所定領域を全方位画像の中心に近い位置に変更する。また、表示情報処理部106は、ゲインが第一の閾値以上である場合、ゲインが第一の閾値未満である場合よりも、注目領域の位置の画素密度の判定に用いる所定値を大きい値に設定する。これにより、画像上のゲインが第一の閾値値以上である場合には、動体がより画像中心に近い位置に存在する場合、また、動体がより画素密度が高い位置に存在する場合に、表示の優先度が高くなることになる。
ゲインが高いほど、ノイズの影響をより大きく受けていることが想定される。そのため、上記のように閾値を変更することにより、ゲインが第一の閾値以上である場合には、動体が、より大きく、より鮮明に撮像される位置に存在する場合に、表示画面に優先的に表示させるようにすることができる。
なお、ゲインが第一の閾値よりもさらに大きい第二の閾値以上である場合は、ナンバープレートや顔の確認が困難と考えられるため、表示の対象外とすべく表示の優先度の設定を行わないようにしてもよい。
In addition, when the gain of the attention area is equal to or greater than a first threshold value set in advance, the display information processing unit 106 determines that the predetermined area used for determining the position of the attention area is larger than the case where the gain is less than the first threshold value. to a position closer to the center of the omnidirectional image. Further, when the gain is equal to or greater than the first threshold, the display information processing unit 106 sets the predetermined value used for determining the pixel density at the position of the attention area to a larger value than when the gain is less than the first threshold. set. As a result, when the gain on the image is equal to or greater than the first threshold value, when the moving object exists at a position closer to the center of the image, or when the moving object exists at a position with a higher pixel density, the display will have a higher priority.
It is assumed that the higher the gain, the greater the influence of noise. Therefore, by changing the threshold value as described above, when the gain is equal to or greater than the first threshold value, the moving object is preferentially displayed on the display screen when it is larger and exists in a position where it can be imaged more clearly. can be displayed on
If the gain is equal to or greater than the second threshold, which is even larger than the first threshold, it is considered difficult to confirm the license plate or face. may be omitted.

なお、上記の閾値は、動体の大きさに応じて変更することもできる。例えば、表示情報処理部106は、動体の大きさが大きいほど、注目領域の位置の判定に用いる所定領域を全方位画像の中心に近い位置に変更する。また、表示情報処理部106は、動体の大きさが大きいほど、注目領域の位置の画素密度の判定に用いる所定値を大きい値に設定する。これにより、動体の大きさが大きいほど、動体がより画像中心に近い位置に存在する場合、また、動体がより画素密度が高い位置に存在する場合に、表示の優先度が高くなることになる。
さらに、上記の閾値は、全方位画像を撮像した時間帯を考慮して変更してもよいし、照明の照射範囲や強度分布を考慮して変更してもよい。
Note that the above threshold can be changed according to the size of the moving object. For example, the display information processing unit 106 changes the predetermined area used for determining the position of the attention area to a position closer to the center of the omnidirectional image as the size of the moving object increases. Further, the display information processing unit 106 sets the predetermined value used for determining the pixel density at the position of the attention area to a larger value as the size of the moving object increases. As a result, the greater the size of the moving object, the higher the priority of display when the moving object exists at a position closer to the center of the image, or when the moving object exists at a position with a higher pixel density. .
Furthermore, the above threshold may be changed in consideration of the time zone in which the omnidirectional image was captured, or may be changed in consideration of the illumination range and intensity distribution.

S35では、表示情報処理部106は、注目領域の表示の優先度を設定する。このS35の処理は、図5のS2~S7の処理と同様である。ただし、S3およびS4においては、S33およびS34において設定された閾値を用いた判定を行う。
なお、表示情報処理部106は、動体の移動方向を考慮して表示の優先度を設定してもよい。例えば、表示情報処理部106は、動体の移動方向が全方位画像の中心に向かう方向である場合、動体の移動方向が全方位画像の中心から遠ざかる方向である場合よりも表示の優先度を高く設定することができる。
In S35, the display information processing unit 106 sets the display priority of the attention area. The processing of this S35 is the same as the processing of S2 to S7 in FIG. However, in S3 and S4, determination using the threshold values set in S33 and S34 is performed.
Note that the display information processing unit 106 may set the display priority in consideration of the moving direction of the moving object. For example, when the moving direction of the moving object is toward the center of the omnidirectional image, the display information processing unit 106 gives higher display priority than when the moving direction of the moving object is moving away from the center of the omnidirectional image. can be set.

動体が人体である場合、顔の確認が目的であることが想定される。動体の移動方向が画像の周辺部から中心部に向かう方向である場合に、表示の優先度を高く設定することで、人体が画像の中心部から周辺部へ向けて遠ざかっていくときの後姿を撮像した画像を、優先的に表示画面に表示させてしまうことを回避することができる。ここで、動体が人体であり、人体の移動方向が全方位画像の中心から遠ざかる方向である場合には、当該人体を含む注目領域を表示の対象外とすべく、表示の優先度の付与を行わないようにしてもよい。
また、動体が車体である場合、動体の移動方向が画像の周辺部から中心部に向かう方向である場合に、表示の優先度を高く設定することで、車体の前方部のナンバープレートを優先的に表示画面に表示させることができる。
If the moving object is a human body, it is assumed that the purpose is to confirm the face. If the direction of movement of the moving object is from the periphery to the center of the image, by setting a high display priority, the rear view of the human body moving away from the center of the image toward the periphery can be displayed. It is possible to prevent the captured image from being preferentially displayed on the display screen. Here, when the moving object is a human body and the moving direction of the human body is the direction away from the center of the omnidirectional image, display priority is given so that the attention area including the human body is excluded from the display target. You can choose not to do it.
Also, if the moving object is a vehicle body, and if the direction of movement of the moving object is the direction from the periphery to the center of the image, the display priority is set high so that the license plate in front of the vehicle body can be displayed preferentially. can be displayed on the display screen.

以上のように、動体の移動速度や大きさ、移動方向、画像上のゲインに応じて、表示の優先度の設定条件を変更することで、動体がより表示に適した位置に存在する場合に、優先的に表示画面に表示させることができる。したがって、動体の確認や情報が取得しやすくなる。 As described above, by changing the display priority setting conditions according to the movement speed, size, movement direction, and gain on the image of the moving object, when the moving object exists in a position more suitable for display, , can be preferentially displayed on the display screen. Therefore, confirmation of the moving object and acquisition of information are facilitated.

なお、上記実施形態においては、クライアント装置200の表示画面の分割方法を固定とする場合について説明したが、表示画面の分割方法は可変であってもよい。例えば、注目領域に含まれる動体の大きさや形状に応じて、表示画面の分割数を変更したり、表示領域の形状を変更したりしてもよい。例えば、注目領域に含まれる動体の形状が横長形状である場合には、4分割表示から上下2分割表示に変更し、注目領域に含まれる動体の形状が縦長形状である場合には、4分割表示から左右2分割表示に変更するようにしてもよい。
また、上記実施形態においては、クライアント装置200は、1つの表示画面上の複数の表示領域にそれぞれ画像を表示させる場合について説明したが、画像の表示方法は分割表示に限定されるものではない。例えば、クライアント装置200は、複数の表示画面(表示部214)を備え、各表示画面にそれぞれ画像を表示させる構成であってもよい。
In the above-described embodiment, the case where the method of dividing the display screen of the client device 200 is fixed has been described, but the method of dividing the display screen may be variable. For example, the number of divisions of the display screen may be changed or the shape of the display area may be changed according to the size and shape of the moving object included in the attention area. For example, if the shape of the moving object included in the attention area is horizontally elongated, the display is changed from 4-split display to upper and lower 2-split display. The display may be changed to a left and right split display.
Further, in the above embodiment, the client device 200 has described a case where images are displayed in a plurality of display areas on one display screen, but the image display method is not limited to split display. For example, the client device 200 may have a configuration in which a plurality of display screens (display unit 214) are provided and an image is displayed on each display screen.

さらに、上記実施形態においては、カメラ100は、全方位画像から注目領域の画像を切り出してクライアント装置200の表示画面に表示させる場合について説明したが、注目領域の画像の表示方法は上記に限定されない。例えば、カメラ100は、全方位画像を周方向に展開したパノラマ画像から注目領域の画像を切り出してクライアント装置200の表示画面に表示させるようにしてもよい。
また、上記実施形態においては、注目領域が人体や車体といった動体を含む領域である場合について説明したが、注目領域は、注目すべきオブジェクトが含まれる領域であればよく、注目すべきオブジェクトは動体に限定されない。
Furthermore, in the above embodiment, the camera 100 cuts out the image of the attention area from the omnidirectional image and displays it on the display screen of the client device 200, but the method of displaying the image of the attention area is not limited to the above. . For example, the camera 100 may cut out an image of an attention area from a panoramic image obtained by developing an omnidirectional image in the circumferential direction, and display the image on the display screen of the client device 200 .
Further, in the above embodiment, the case where the attention area is an area including a moving object such as a human body or a vehicle body has been described, but the attention area may be an area including an object of interest, and the object of attention is a moving body. is not limited to

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100…ネットワークカメラ、101…撮像部、102…画像処理部、105…動きベクトル検出部、106…表示情報処理部、107…画像出力部、200…クライアント装置、300…ネットワーク、1000…ネットワークカメラシステム DESCRIPTION OF SYMBOLS 100... Network camera 101... Imaging part 102... Image processing part 105... Motion vector detection part 106... Display information processing part 107... Image output part 200... Client apparatus 300... Network 1000... Network camera system

Claims (16)

全方位画像における注目領域の位置を示す位置情報を取得する第一の取得手段と、
前記全方位画像の画素密度情報を取得する第二の取得手段と、
前記第一の取得手段により取得された位置情報と、前記第二の取得手段により取得された画素密度情報とに基づいて、前記注目領域の表示の優先度を設定する設定手段と、を備え
前記設定手段は、
前記注目領域が、前記全方位画像の中心からの距離が所定範囲内となる所定領域内に存在する場合、前記注目領域が前記所定領域外に存在する場合よりも前記表示の優先度を高く設定するとともに、前記注目領域に含まれる動体の移動速度が速いほど、前記所定領域を前記全方位画像の中心に近い位置に設定することを特徴とする情報処理装置。
a first acquisition means for acquiring position information indicating the position of the attention area in the omnidirectional image;
a second acquiring means for acquiring pixel density information of the omnidirectional image;
setting means for setting the display priority of the attention area based on the position information acquired by the first acquisition means and the pixel density information acquired by the second acquisition means ;
The setting means
When the attention area exists within a predetermined area within a predetermined distance from the center of the omnidirectional image, the display priority is set higher than when the attention area exists outside the predetermined area. and setting the predetermined area closer to the center of the omnidirectional image as the moving speed of the moving object included in the attention area is faster .
全方位画像における注目領域の位置を示す位置情報を取得する第一の取得手段と、
前記全方位画像の画素密度情報を取得する第二の取得手段と、
前記第一の取得手段により取得された位置情報と、前記第二の取得手段により取得された画素密度情報とに基づいて、前記注目領域の表示の優先度を設定する設定手段と、を備え、
前記設定手段は、
前記注目領域が、前記全方位画像の中心からの距離が所定範囲内となる所定領域内に存在する場合、前記注目領域が前記所定領域外に存在する場合よりも前記表示の優先度を高く設定するとともに、前記注目領域に含まれる物体の大きさが大きいほど、前記所定領域を前記全方位画像の中心に近い位置に設定することを特徴とする情報処理装置。
a first acquisition means for acquiring position information indicating the position of the attention area in the omnidirectional image;
a second acquiring means for acquiring pixel density information of the omnidirectional image;
setting means for setting the display priority of the attention area based on the position information acquired by the first acquisition means and the pixel density information acquired by the second acquisition means;
The setting means
When the attention area exists within a predetermined area within a predetermined distance from the center of the omnidirectional image, the display priority is set higher than when the attention area exists outside the predetermined area. and setting the predetermined area closer to the center of the omnidirectional image as the size of the object included in the attention area is larger .
全方位画像における注目領域の位置を示す位置情報を取得する第一の取得手段と、
前記全方位画像の画素密度情報を取得する第二の取得手段と、
前記第一の取得手段により取得された位置情報と、前記第二の取得手段により取得された画素密度情報とに基づいて、前記注目領域の表示の優先度を設定する設定手段と、を備え、
前記設定手段は、
前記注目領域が、前記全方位画像の中心からの距離が所定範囲内となる所定領域内に存在する場合、前記注目領域が前記所定領域外に存在する場合よりも前記表示の優先度を高く設定するとともに、
前記注目領域のゲインが第一の閾値以上である場合、前記ゲインが前記第一の閾値未満である場合よりも前記所定領域を前記全方位画像の中心に近い位置に設定することを特徴とする情報処理装置。
a first acquisition means for acquiring position information indicating the position of the attention area in the omnidirectional image;
a second acquiring means for acquiring pixel density information of the omnidirectional image;
setting means for setting the display priority of the attention area based on the position information acquired by the first acquisition means and the pixel density information acquired by the second acquisition means;
The setting means
When the attention area exists within a predetermined area within a predetermined distance from the center of the omnidirectional image, the display priority is set higher than when the attention area exists outside the predetermined area. and
When the gain of the attention area is equal to or greater than the first threshold, the predetermined area is set at a position closer to the center of the omnidirectional image than when the gain is less than the first threshold. information processing equipment.
前記設定手段は、
前記注目領域のゲインが前記第一の閾値よりも大きい第二の閾値以上である場合、当該注目領域を表示の対象外とすべく前記表示の優先度を設定することを特徴とする請求項に記載の情報処理装置。
The setting means
3. When the gain of the attention area is equal to or greater than a second threshold larger than the first threshold, the display priority is set such that the attention area is excluded from display. The information processing device according to .
全方位画像における注目領域の位置を示す位置情報を取得する第一の取得手段と、
前記全方位画像の画素密度情報を取得する第二の取得手段と、
前記第一の取得手段により取得された位置情報と、前記第二の取得手段により取得された画素密度情報とに基づいて、前記注目領域の表示の優先度を設定する設定手段と、を備え、
前記設定手段は、
前記注目領域が、前記全方位画像の画素密度が所定値以上の位置に存在する場合、前記画素密度が前記所定値未満の位置に存在する場合よりも前記表示の優先度を高く設定するとともに、前記注目領域に含まれる動体の移動速度が速いほど、前記所定値を大きい値に設定することを特徴とする情報処理装置。
a first acquisition means for acquiring position information indicating the position of the attention area in the omnidirectional image;
a second acquiring means for acquiring pixel density information of the omnidirectional image;
setting means for setting the display priority of the attention area based on the position information acquired by the first acquisition means and the pixel density information acquired by the second acquisition means;
The setting means
when the attention area exists at a position where the pixel density of the omnidirectional image is equal to or higher than a predetermined value, the display priority is set higher than when the attention area exists at a position where the pixel density is less than the predetermined value ; An information processing apparatus , wherein the predetermined value is set to a larger value as a moving speed of a moving object included in the attention area is faster .
全方位画像における注目領域の位置を示す位置情報を取得する第一の取得手段と、
前記全方位画像の画素密度情報を取得する第二の取得手段と、
前記第一の取得手段により取得された位置情報と、前記第二の取得手段により取得された画素密度情報とに基づいて、前記注目領域の表示の優先度を設定する設定手段と、を備え、
前記設定手段は、
前記注目領域が、前記全方位画像の画素密度が所定値以上の位置に存在する場合、前記画素密度が前記所定値未満の位置に存在する場合よりも前記表示の優先度を高く設定するとともに、前記注目領域に含まれる物体の大きさが大きいほど、前記所定値を大きい値に設定することを特徴とする情報処理装置。
a first acquisition means for acquiring position information indicating the position of the attention area in the omnidirectional image;
a second acquiring means for acquiring pixel density information of the omnidirectional image;
setting means for setting the display priority of the attention area based on the position information acquired by the first acquisition means and the pixel density information acquired by the second acquisition means;
The setting means
when the attention area exists at a position where the pixel density of the omnidirectional image is equal to or higher than a predetermined value, the display priority is set higher than when the attention area exists at a position where the pixel density is less than the predetermined value; An information processing apparatus, wherein the predetermined value is set to a larger value as the size of an object included in the attention area is larger.
全方位画像における注目領域の位置を示す位置情報を取得する第一の取得手段と、
前記全方位画像の画素密度情報を取得する第二の取得手段と、
前記第一の取得手段により取得された位置情報と、前記第二の取得手段により取得された画素密度情報とに基づいて、前記注目領域の表示の優先度を設定する設定手段と、を備え、
前記設定手段は、
前記注目領域が、前記全方位画像の画素密度が所定値以上の位置に存在する場合、前記画素密度が前記所定値未満の位置に存在する場合よりも前記表示の優先度を高く設定するとともに、 前記注目領域のゲインが第一の閾値以上である場合、前記ゲインが前記第一の閾値未満である場合よりも前記所定値を大きい値に設定することを特徴とする情報処理装置。
a first acquisition means for acquiring position information indicating the position of the attention area in the omnidirectional image;
a second acquiring means for acquiring pixel density information of the omnidirectional image;
setting means for setting the display priority of the attention area based on the position information acquired by the first acquisition means and the pixel density information acquired by the second acquisition means;
The setting means
when the attention area exists at a position where the pixel density of the omnidirectional image is equal to or higher than a predetermined value, the display priority is set higher than when the attention area exists at a position where the pixel density is less than the predetermined value; The information processing apparatus, wherein when the gain of the attention area is equal to or greater than a first threshold, the predetermined value is set to a larger value than when the gain is less than the first threshold.
前記設定手段は、
前記注目領域の歪曲率が閾値以上である場合、当該注目領域を表示の対象外とすべく前記表示の優先度を設定することを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
The setting means
8. The method according to any one of claims 1 to 7 , wherein when the distortion rate of the attention area is equal to or greater than a threshold, the display priority is set so that the attention area is excluded from display. Information processing equipment.
前記全方位画像から前記注目領域を検出する検出手段をさらに備え、
前記設定手段は、ユーザにより指定された前記全方位画像における指定領域と、前記検出手段により検出された前記注目領域との表示の優先度を設定することを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
Further comprising detection means for detecting the attention area from the omnidirectional image,
9. The setting unit according to any one of claims 1 to 8 , wherein the setting unit sets a display priority between the specified area in the omnidirectional image specified by the user and the attention area detected by the detection unit. 1. The information processing apparatus according to 1.
前記検出手段は、動体を含む領域を前記注目領域として検出することを特徴とする請求項に記載の情報処理装置。 10. An information processing apparatus according to claim 9 , wherein said detection means detects an area including a moving body as said attention area. 前記設定手段により設定された表示の優先度が高い順に、前記注目領域の画像を表示装置に表示させる表示制御手段をさらに備えることを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。 11. The apparatus according to any one of claims 1 to 10 , further comprising display control means for causing a display device to display the image of the attention area in order of priority of display set by the setting means. Information processing equipment. 前記表示装置に表示させる前記注目領域の画像の数を決定する決定手段と、
前記決定手段により決定された前記注目領域の画像の数に応じて、前記表示装置において画像を表示可能な複数の表示領域のうち、前記注目領域以外の画像の表示用として使用されている表示領域から、前記注目領域の画像の表示用として使用する表示領域を選択する選択手段と、をさらに備え、
前記表示制御手段は、前記選択手段により選択された前記表示領域に前記注目領域の画像を表示させることを特徴とする請求項11に記載の情報処理装置。
determining means for determining the number of images of the attention area to be displayed on the display device;
A display area used for displaying an image other than the attention area among a plurality of display areas capable of displaying images on the display device according to the number of images of the attention area determined by the determining means. a selection means for selecting a display area to be used for displaying the image of the attention area from,
12. The information processing apparatus according to claim 11 , wherein said display control means displays an image of said attention area in said display area selected by said selection means.
全方位画像における注目領域の位置を示す位置情報を取得するステップと、
前記全方位画像の画素密度情報を取得するステップと、
前記位置情報と前記画素密度情報とに基づいて、前記注目領域の表示の優先度を設定する設定ステップと、を含み、
前記設定ステップでは、
前記注目領域が、前記全方位画像の中心からの距離が所定範囲内となる所定領域内に存在する場合、前記注目領域が前記所定領域外に存在する場合よりも前記表示の優先度を高く設定するとともに、前記注目領域に含まれる動体の移動速度が速いほど、前記所定領域を前記全方位画像の中心に近い位置に設定することを特徴とする情報処理方法。
obtaining position information indicating the position of the region of interest in the omnidirectional image;
obtaining pixel density information of the omnidirectional image;
a setting step of setting the display priority of the attention area based on the position information and the pixel density information ;
In the setting step,
When the attention area exists within a predetermined area within a predetermined distance from the center of the omnidirectional image, the display priority is set higher than when the attention area exists outside the predetermined area. and setting the predetermined area closer to the center of the omnidirectional image as the movement speed of the moving object included in the attention area is faster .
全方位画像における注目領域の位置を示す位置情報を取得するステップと、 obtaining position information indicating the position of the region of interest in the omnidirectional image;
前記全方位画像の画素密度情報を取得するステップと、 obtaining pixel density information of the omnidirectional image;
前記位置情報と前記画素密度情報とに基づいて、前記注目領域の表示の優先度を設定する設定ステップと、を含み、 a setting step of setting the display priority of the attention area based on the position information and the pixel density information;
前記設定ステップでは、 In the setting step,
前記注目領域が、前記全方位画像の中心からの距離が所定範囲内となる所定領域内に存在する場合、前記注目領域が前記所定領域外に存在する場合よりも前記表示の優先度を高く設定するとともに、前記注目領域に含まれる物体の大きさが大きいほど、前記所定領域を前記全方位画像の中心に近い位置に設定することを特徴とする情報処理方法。 When the attention area exists within a predetermined area within a predetermined distance from the center of the omnidirectional image, the display priority is set higher than when the attention area exists outside the predetermined area. and setting the predetermined area closer to the center of the omnidirectional image as the size of the object included in the attention area is larger.
全方位画像における注目領域の位置を示す位置情報を取得するステップと、 obtaining position information indicating the position of the region of interest in the omnidirectional image;
前記全方位画像の画素密度情報を取得するステップと、 obtaining pixel density information of the omnidirectional image;
前記位置情報と前記画素密度情報とに基づいて、前記注目領域の表示の優先度を設定する設定ステップと、を含み、 a setting step of setting the display priority of the attention area based on the position information and the pixel density information;
前記設定ステップでは、 In the setting step,
前記注目領域が、前記全方位画像の中心からの距離が所定範囲内となる所定領域内に存在する場合、前記注目領域が前記所定領域外に存在する場合よりも前記表示の優先度を高く設定するとともに、前記注目領域のゲインが第一の閾値以上である場合、前記ゲインが前記第一の閾値未満である場合よりも前記所定領域を前記全方位画像の中心に近い位置に設定することを特徴とする情報処理方法。 When the attention area exists within a predetermined area within a predetermined distance from the center of the omnidirectional image, the display priority is set higher than when the attention area exists outside the predetermined area. and setting the predetermined region to a position closer to the center of the omnidirectional image when the gain of the attention region is equal to or greater than the first threshold than when the gain is less than the first threshold. Information processing method characterized by:
コンピュータを、請求項1から12のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 12 .
JP2018084291A 2018-04-25 2018-04-25 Information processing device, information processing method and program Active JP7150462B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018084291A JP7150462B2 (en) 2018-04-25 2018-04-25 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018084291A JP7150462B2 (en) 2018-04-25 2018-04-25 Information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP2019193110A JP2019193110A (en) 2019-10-31
JP7150462B2 true JP7150462B2 (en) 2022-10-11

Family

ID=68391004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018084291A Active JP7150462B2 (en) 2018-04-25 2018-04-25 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7150462B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230093035A1 (en) * 2020-03-05 2023-03-23 Sony Semiconductor Solutions Corporation Information processing device and information processing method
KR102304609B1 (en) * 2021-01-20 2021-09-24 주식회사 딥바이오 Method for refining tissue specimen image, and computing system performing the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167604A (en) 2003-12-02 2005-06-23 Chuo Electronics Co Ltd Image monitoring system
WO2008035411A1 (en) 2006-09-20 2008-03-27 Fujitsu Limited Mobile body information detection device, mobile body information detection method, and mobile body information detection program
JP2011055361A (en) 2009-09-03 2011-03-17 Canon Inc Image processing apparatus and imaging apparatus
JP2014222825A (en) 2013-05-13 2014-11-27 キヤノン株式会社 Video processing apparatus and video processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167604A (en) 2003-12-02 2005-06-23 Chuo Electronics Co Ltd Image monitoring system
WO2008035411A1 (en) 2006-09-20 2008-03-27 Fujitsu Limited Mobile body information detection device, mobile body information detection method, and mobile body information detection program
JP2011055361A (en) 2009-09-03 2011-03-17 Canon Inc Image processing apparatus and imaging apparatus
JP2014222825A (en) 2013-05-13 2014-11-27 キヤノン株式会社 Video processing apparatus and video processing method

Also Published As

Publication number Publication date
JP2019193110A (en) 2019-10-31

Similar Documents

Publication Publication Date Title
CN111107276B (en) Information processing apparatus, control method thereof, storage medium, and imaging system
JP6267502B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP6994901B2 (en) Controls, control methods, and programs
JP7150462B2 (en) Information processing device, information processing method and program
JP2013223104A (en) Camera and camera system
JP2014146979A (en) Monitor camera system, imaging apparatus, and imaging method
JP7302596B2 (en) Image processing device, image processing method, and program
US9807311B2 (en) Imaging apparatus, video data transmitting apparatus, video data transmitting and receiving system, image processing method, and program
US11700446B2 (en) Information processing apparatus, system, control method of information processing apparatus, and non-transitory computer-readable storage medium
JP6971589B2 (en) Imaging device, imaging system, its control method and program
JP2021136671A (en) Information processing device, imaging device, method, program and storage medium
JP7353864B2 (en) Information processing device, control method and program for information processing device, imaging system
JP2016213781A (en) Imaging apparatus, control method thereof, and control program
JP2019216398A (en) Imaging apparatus and control method therefor, and program
WO2022097559A1 (en) Information processing device, image capturing device, program, storage medium, and method
US20210266466A1 (en) Imaging device, imaging system, control method, program, and storage medium
JP5629562B2 (en) Image processing apparatus, control method therefor, and program
JP2018037747A (en) Information processing device, and control method and program of same
JP7123544B2 (en) IMAGING DEVICE, IMAGING DEVICE METHOD, AND PROGRAM
JP2019134332A (en) Image processor and control method therefor
JP2022045532A (en) Imaging control device, imaging control method, and program
JP2023063765A (en) Image processing device, image processing method, image processing system, and program
JP2023175404A (en) Imaging apparatus, control method for the same, and program
JP2024012828A (en) Imaging apparatus and control method of the same
JP2012119993A (en) Image processing system, control method of the same, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220928

R151 Written notification of patent or utility model registration

Ref document number: 7150462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151