JP7371076B2 - Information processing device, information processing system, information processing method and program - Google Patents

Information processing device, information processing system, information processing method and program Download PDF

Info

Publication number
JP7371076B2
JP7371076B2 JP2021193868A JP2021193868A JP7371076B2 JP 7371076 B2 JP7371076 B2 JP 7371076B2 JP 2021193868 A JP2021193868 A JP 2021193868A JP 2021193868 A JP2021193868 A JP 2021193868A JP 7371076 B2 JP7371076 B2 JP 7371076B2
Authority
JP
Japan
Prior art keywords
detection
size
setting
area
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021193868A
Other languages
Japanese (ja)
Other versions
JP2022027804A (en
Inventor
弥志 河林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021193868A priority Critical patent/JP7371076B2/en
Publication of JP2022027804A publication Critical patent/JP2022027804A/en
Application granted granted Critical
Publication of JP7371076B2 publication Critical patent/JP7371076B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing system, an information processing method, and a program.

デジタルカメラやデジタルビデオカメラ等においては、静止画像や動画像の撮影時に、静止画像や動画像から被写体を自動的に検出するものがある。特許文献1ではデジタルカメラにおける顔検出方法が開示されている。 2. Description of the Related Art Some digital cameras, digital video cameras, and the like automatically detect a subject from a still image or a moving image when shooting a still image or a moving image. Patent Document 1 discloses a face detection method in a digital camera.

特開2008-289006号公報Japanese Patent Application Publication No. 2008-289006

例えば、監視カメラ等においては奥行きのある画像を撮像することが多い。このような場合、画像内に大きなオブジェクトと小さなオブジェクトとが混在し、オブジェクトを検出する検出処理に時間がかかる場合や、誤検出される場合がある。
本発明は、検出処理の高速化、及び、誤検出の削減の少なくとも何れかを目的とする。
For example, surveillance cameras and the like often capture images with depth. In such a case, large objects and small objects coexist in the image, and detection processing for detecting objects may take a long time or may be detected incorrectly.
The present invention aims at at least one of speeding up detection processing and reducing false detections.

本発明の情報処理装置は、画像内において検出エリアから検出される検出対象オブジェクトの第1の検出サイズと第2の検出サイズとを設定するためのサイズ設定画面または、前記検出対象オブジェクトを検出する前記検出エリアを設定するためのエリア設定画面を表示部に表示させる表示制御手段と、前記検出エリアから、前記第1の検出サイズと前記第2の検出サイズとの間のサイズの検出対象オブジェクトを検出する検出手段と、を有し、前記表示制御手段は、前記サイズ設定画面では、前記第1の検出サイズを設定するためのオブジェクトまたは前記第2の検出サイズを設定するためのオブジェクトを表示し、前記検出エリアを設定する画面では、前記第1の検出サイズを設定するためのオブジェクトまたは前記第2の検出サイズを設定するためのオブジェクトを表示しないように制御し、前記第2の検出サイズは前記第1の検出サイズより大きいサイズであり、前記表示制御手段は、前記サイズ設定画面において、前記第2の検出サイズを設定するためのオブジェクトの下端を、前記第1の検出サイズを設定するためのオブジェクトの下端よりも下方であって前記検出エリアの下辺の近傍に表示させ、前記第1の検出サイズを設定するためのオブジェクトの上端を、前記第2の検出サイズを設定するためのオブジェクトの上端より上方であって前記検出エリアの上辺の近傍に表示させる制御をする。 The information processing device of the present invention includes a size setting screen for setting a first detection size and a second detection size of a detection target object detected from a detection area in an image , or a size setting screen for setting a first detection size and a second detection size of a detection target object detected from a detection area in an image; display control means for displaying an area setting screen for setting the detection area on a display unit; and a display control means for displaying an area setting screen on a display unit for setting the detection area, and a detection target object having a size between the first detection size and the second detection size from the detection area. and a detection means for detecting, and the display control means displays an object for setting the first detection size or an object for setting the second detection size on the size setting screen. , on the screen for setting the detection area, the object for setting the first detection size or the object for setting the second detection size is controlled not to be displayed, and the second detection size is the size is larger than the first detection size, and the display control means is configured to set the lower end of the object for setting the second detection size on the size setting screen to the first detection size. is displayed below the bottom edge of the object and near the bottom edge of the detection area, and the top edge of the object for setting the first detection size is displayed below the bottom edge of the object for setting the second detection size. It is controlled to be displayed above the upper end and near the upper side of the detection area.

本発明によれば、検出処理の高速化、及び、誤検出の削減の少なくとも何れかを実現することができる。 According to the present invention, it is possible to realize at least one of speeding up detection processing and reducing false detections.

情報処理システムのハードウェア構成等の一例を示す図である。1 is a diagram illustrating an example of a hardware configuration, etc. of an information processing system. 情報処理システムの機能構成等の一例を示す図である。1 is a diagram illustrating an example of a functional configuration, etc. of an information processing system. 撮像画像の一例を示す図である。It is a figure showing an example of a captured image. 画面の一例を示す図である。It is a figure which shows an example of a screen. 情報処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of information processing. 検出エリアを設定する一例を示す図である。It is a figure which shows an example of setting a detection area. 人体サイズを設定する一例を示す図である。It is a figure which shows an example of setting a human body size. 人体サイズを変更した一例を示す図である。FIG. 3 is a diagram showing an example of changing the human body size.

以下、本発明の実施形態について図面に基づいて説明する。 Embodiments of the present invention will be described below based on the drawings.

<実施形態1>
本実施形態では、動画像をモニタリングする情報処理システムにおいて、撮像された動画像内で、人体検出を行う検出エリアを設定し、設定した検出エリアごとに最大、最小の人体サイズを設定し、人体を検出する処理について説明する。動画像であることは一例であり、静止画であってもよい。最小の人体サイズは、第1の検出サイズの一例である。また、最大の人体サイズは、第2の検出サイズの一例である。また、画像に含まれる人体は、オブジェクトの一例である。
本実施形態における情報処理システムのシステム構成及びハードウェア構成の一例を図1に示す。図1において、撮像装置110は、撮像を行う。クライアント装置120は、撮像装置110の駆動、撮像装置110で撮像された撮像画像の表示を行う。入力装置130は、マウスやキーボード等から構成され、クライアント装置120へのユーザー入力を行う。表示装置140は、ディスプレイ等から構成され、クライアント装置120が出力した画像の表示を行う。図1ではクライアント装置120と表示装置140とを各々独立した装置として示したが、クライアント装置120と表示装置140とを一体化して構成してもよい。また、入力装置130と表示装置140とを一体化して構成してもよいし、クライアント装置120と入力装置130と表示装置140とを一体化して構成してもよい。ネットワーク150は、撮像装置110とクライアント装置120とを接続する。ネットワーク150は、例えばローカルネットワーク等の通信規格を満たす複数のルータ、スイッチ、ケーブル等から構成される。本実施形態においては撮像装置、クライアント間の通信を行うことができるものであればその通信規格、規模、構成を問わない。例えば、ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。また、クライアント装置120に接続される撮像装置の数は1台に限られず、複数台であってもよい。表示装置140は、表示部の一例である。クライアント装置120は、情報処理装置の一例である。撮像装置110は、例えば、監視カメラ等である。
<Embodiment 1>
In this embodiment, in an information processing system that monitors moving images, a detection area for human body detection is set in the captured moving image, a maximum and minimum human body size is set for each set detection area, and the human body size is set for each set detection area. The process of detecting will be explained. The image may be a moving image, but it may be a still image. The minimum human body size is an example of the first detected size. Further, the maximum human body size is an example of the second detected size. Further, a human body included in an image is an example of an object.
FIG. 1 shows an example of the system configuration and hardware configuration of the information processing system in this embodiment. In FIG. 1, an imaging device 110 performs imaging. The client device 120 drives the imaging device 110 and displays images captured by the imaging device 110. The input device 130 includes a mouse, a keyboard, etc., and performs user input to the client device 120. The display device 140 is composed of a display or the like, and displays images output by the client device 120. Although the client device 120 and the display device 140 are shown as independent devices in FIG. 1, the client device 120 and the display device 140 may be integrated. Further, the input device 130 and the display device 140 may be configured as one unit, or the client device 120, the input device 130, and the display device 140 may be configured as one unit. Network 150 connects imaging device 110 and client device 120. The network 150 is composed of a plurality of routers, switches, cables, etc. that meet communication standards such as local networks, for example. In this embodiment, the communication standard, scale, and configuration are not limited as long as the imaging device and the client can communicate with each other. For example, the network 150 may be configured by the Internet, a wired LAN (Local Area Network), a wireless LAN (Wireless LAN), a WAN (Wide Area Network), or the like. Furthermore, the number of imaging devices connected to the client device 120 is not limited to one, but may be multiple. The display device 140 is an example of a display section. Client device 120 is an example of an information processing device. The imaging device 110 is, for example, a surveillance camera.

撮像装置110のハードウェア構成について説明する。撮像装置110は、ハードウェア構成として、撮像部11と、CPU12と、メモリ13と、通信I/F14と、を含む。撮像部11は、撮像素子と撮像素子上に被写体の工学系とを有し、CPU12の制御に基づき光学系の光軸と撮像素子との交点を撮像中心として撮像素子上に撮像を行う。撮像素子は、CMOS(ComplementaryMetal-Oxide Semiconductor)又はCCD(Charged Coupled Device)等の撮像素子である。CPU12は、撮像装置110の全体を制御する。メモリ13は、プログラムや撮像部11で撮像された画像、CPU12が処理を実行する際に利用するデータ等を記憶する。通信I/F14は、CPU12の制御に基づきネットワーク150を介したクライアント装置120との通信を制御する。CPU12がメモリ13に記憶されたプログラムに基づき処理を実行することにより、撮像装置110の機能等が実現される。
次に、クライアント装置120のハードウェア構成について説明する。クライアント装置120は、ハードウェア構成として、メモリ21と、CPU22と、通信I/F23と、入力I/F24と、表示I/F25と、を含む。CPU22は、クライアント装置120の全体を制御する。メモリ21は、プログラムや撮像装置110から送信された撮像画像、CPU22が処理を実行する際に利用するデータ等を記憶する。通信I/F23は、CPU22の制御に基づきネットワーク150を介した撮像装置110との通信を制御する。入力I/F24は、クライアント装置120と入力装置130とを接続し、入力装置130からの情報の入力を制御する。表示I/F25は、クライアント装置120と表示装置140とを接続し、表示装置140への情報の出力を制御する。CPU22がメモリ21に記憶されたプログラムに基づき処理を実行することにより、クライアント装置120の機能及び後述する図5のフローチャートの処理等が実現される。
The hardware configuration of the imaging device 110 will be explained. The imaging device 110 includes an imaging unit 11, a CPU 12, a memory 13, and a communication I/F 14 as a hardware configuration. The imaging unit 11 has an imaging device and an engineering system as a subject on the imaging device, and performs imaging on the imaging device with the intersection of the optical axis of the optical system and the imaging device as the imaging center under the control of the CPU 12. The image sensor is an image sensor such as a CMOS (Complementary Metal-Oxide Semiconductor) or a CCD (Charged Coupled Device). The CPU 12 controls the entire imaging device 110. The memory 13 stores programs, images captured by the imaging unit 11, data used by the CPU 12 when executing processing, and the like. The communication I/F 14 controls communication with the client device 120 via the network 150 based on the control of the CPU 12. The functions of the imaging device 110 are realized by the CPU 12 executing processing based on the program stored in the memory 13.
Next, the hardware configuration of the client device 120 will be explained. The client device 120 includes a memory 21, a CPU 22, a communication I/F 23, an input I/F 24, and a display I/F 25 as a hardware configuration. The CPU 22 controls the entire client device 120. The memory 21 stores programs, captured images transmitted from the imaging device 110, data used when the CPU 22 executes processing, and the like. The communication I/F 23 controls communication with the imaging device 110 via the network 150 under the control of the CPU 22 . The input I/F 24 connects the client device 120 and the input device 130 and controls input of information from the input device 130. The display I/F 25 connects the client device 120 and the display device 140 and controls the output of information to the display device 140. When the CPU 22 executes processing based on the program stored in the memory 21, the functions of the client device 120 and the processing shown in the flowchart of FIG. 5, which will be described later, are realized.

図2は、撮像装置110及びクライアント装置120の機能構成の一例を示す図である。撮像装置110は、機能構成として、制御部111と、信号処理部112と、駆動制御部113と、通信制御部114と、を含む。制御部111は、撮像装置110を制御する。信号処理部112は、撮像部11によって撮像された画像信号の処理を行う。例えば、信号処理部112は、撮像部11によって撮像された画像の符号化を行う。信号処理部112は、符号化方式として、例えば、JPEG(Joint Photographic Experts Group)を用いることができる。又は、信号処理部112は、符号化方式として、H.264/MPEG-4 AVC(以下H.264)を用いることができる。又は、信号処理部112は、符号化方式として、HEVC(High Efficiency Video Coding符号化方式)を用いることができる。但し符号化方式はこれらに限らない。また、信号処理部112は、複数の符号化方式の中から符号化方式を選択して符号化を行うようにしてもよい。駆動制御部113は、撮像部11の撮像方向、及び画角を変更させる制御を行う。本実施形態では、撮像部11は、パン方向、チルト方向に撮像方向を変更でき、撮像画角を変更することができる場合について説明するが、これに限らない。撮像装置110は、パン方向、チルト方向に撮像方向を変更する機能を有さなくてもよいし、画角を変更する機能を有さなくてもよい。通信制御部114は、信号処理部112で処理が行われた撮像画像をクライアント装置120に送信する。更に通信制御部114は、クライアント装置120から撮像装置110に対する制御命令を受信する。 FIG. 2 is a diagram illustrating an example of the functional configuration of the imaging device 110 and the client device 120. The imaging device 110 includes a control section 111, a signal processing section 112, a drive control section 113, and a communication control section 114 as functional configurations. The control unit 111 controls the imaging device 110. The signal processing unit 112 processes the image signal captured by the imaging unit 11. For example, the signal processing unit 112 encodes the image captured by the imaging unit 11. The signal processing unit 112 can use, for example, JPEG (Joint Photographic Experts Group) as the encoding method. Alternatively, the signal processing unit 112 uses H. H.264/MPEG-4 AVC (hereinafter referred to as H.264) can be used. Alternatively, the signal processing unit 112 can use HEVC (High Efficiency Video Coding) as the encoding method. However, the encoding method is not limited to these. Further, the signal processing unit 112 may select an encoding method from among a plurality of encoding methods and perform encoding. The drive control unit 113 performs control to change the imaging direction and angle of view of the imaging unit 11. In this embodiment, a case will be described in which the imaging unit 11 can change the imaging direction in the panning direction and the tilting direction, and can change the imaging angle of view, but the invention is not limited to this. The imaging device 110 does not need to have the function of changing the imaging direction in the panning direction or the tilting direction, nor does it need to have the function of changing the angle of view. The communication control unit 114 transmits the captured image processed by the signal processing unit 112 to the client device 120. Further, the communication control unit 114 receives a control command for the imaging device 110 from the client device 120.

クライアント装置120は、機能構成として、制御部121と、通信制御部123と、情報取得部124と、表示制御部125と、を含む。制御部121は、クライアント装置120を制御する。通信制御部123は、撮像画像を撮像装置110から受信する。情報取得部124は、入力装置130によるユーザー入力を受け付け、入力装置130より入力情報を取得する。表示制御部125は、映像を表示装置140へ出力し、後述する表示処理を表示装置140に実行させる。
本実施形態ではクライアント装置120は、撮像装置110から受信した撮像画像に対し人体検出を行う検出エリアを設定し、設定した検出エリアごとに最大、最小の人体サイズを設定し、人体検出処理を行う。これによって、リアルタイムのライブ映像に対して人体検出を行う検出エリアを設定し、設定した検出エリアごとに最大、最小の人体サイズを設定し、人体検出処理を行うことができる。しかしながらこれに限らない。例えば、クライアント装置120は、撮像装置110内に保存されている動画を取得し、各フレームに対し人体検出を行う検出エリアを設定し、設定した検出エリアごとに最大、最小の人体サイズを設定し、人体検出処理を行ってもよい。また、クライアント装置120は、クライアント装置120内に保存されている動画の各フレームに対して人体検出を行う検出エリアを設定し、設定した検出エリアごとに最大、最小の人体サイズを設定し、人体検出処理を行ってもよい。又はクライアント装置120は、録画サーバ等にアクセスし、録画サーバ内に保存されている動画の各フレームに対して人体検出を行う検出エリアを設定し、設定した検出エリアごとに最大、最小の人体サイズを設定し、人体検出処理を行ってもよい。
The client device 120 includes a control section 121, a communication control section 123, an information acquisition section 124, and a display control section 125 as functional configurations. The control unit 121 controls the client device 120. The communication control unit 123 receives captured images from the imaging device 110. The information acquisition unit 124 receives user input through the input device 130 and acquires input information from the input device 130. The display control unit 125 outputs the video to the display device 140 and causes the display device 140 to perform display processing to be described later.
In this embodiment, the client device 120 sets a detection area for performing human body detection on the captured image received from the imaging device 110, sets the maximum and minimum human body size for each set detection area, and performs human body detection processing. . With this, it is possible to set a detection area for performing human body detection on real-time live video, set the maximum and minimum human body sizes for each set detection area, and perform human body detection processing. However, it is not limited to this. For example, the client device 120 acquires a video stored in the imaging device 110, sets a detection area for human body detection for each frame, and sets the maximum and minimum human body size for each set detection area. , human body detection processing may be performed. In addition, the client device 120 sets a detection area for human body detection for each frame of the video stored in the client device 120, sets the maximum and minimum human body size for each set detection area, and Detection processing may also be performed. Alternatively, the client device 120 accesses the recording server or the like, sets a detection area for human body detection for each frame of the video stored in the recording server, and determines the maximum and minimum human body size for each set detection area. may be set to perform human body detection processing.

次に、本実施形態における人体検出を行う検出エリアを設定し、設定した検出エリアごとに最大、最小の人体サイズを設定する構成及び処理の流れを図3~図8を用いて説明する。
図3は、制御部121が撮像装置110から取得した撮像画像200の一例を示す図である。図3で表わされるように、画像200には人体201及び202及び人体203が撮像されている。
図4は人体検出を行う検出エリアを設定し、設定した検出エリアごとに最大、最小の人体サイズを設定する一例を示す図である。図4において、画面300は、検出エリアの設定をユーザーに促すためのグラフィカルユーザーインターフェイスである。画像301は、画面300に表示された画像200である。ボタン302は検出エリアを設定するためのボタンである。ボタン303は検出エリアごとに最大、最小の人体サイズを設定するためのボタンである。図4の画面300は、表示装置140によってユーザーに表示される。本実施形態ではグラフィカルユーザーインターフェイスを用いてユーザーに設定させるが、音声等、他の方法でユーザーに設定させてもよい。
Next, the configuration and process flow for setting a detection area for human body detection and setting the maximum and minimum human body size for each set detection area in this embodiment will be explained using FIGS. 3 to 8.
FIG. 3 is a diagram showing an example of a captured image 200 acquired by the control unit 121 from the imaging device 110. As shown in FIG. 3, the image 200 includes human bodies 201 and 202 and a human body 203.
FIG. 4 is a diagram showing an example of setting detection areas for human body detection and setting maximum and minimum human body sizes for each set detection area. In FIG. 4, a screen 300 is a graphical user interface for prompting the user to set a detection area. Image 301 is image 200 displayed on screen 300. Button 302 is a button for setting a detection area. A button 303 is a button for setting the maximum and minimum human body size for each detection area. Screen 300 in FIG. 4 is displayed to the user by display device 140. In this embodiment, the user makes settings using a graphical user interface, but the user may make settings using other methods such as voice.

図5は、人体検出を行う検出エリアを設定し、設定した検出エリアごとに最大、最小の人体サイズを設定する情報処理の一例を示すフローチャートである。
S400において、制御部121は、撮像装置110から撮像画像を取得する。S401の処理は、画像を受け付ける受付処理の一例である。
S401において、制御部121は、メモリ21に記憶されている設定ファイルの記述等に基づいて検出エリアと検出エリアの最大、最小の人体サイズとが設定完了状態であるか否かを判定する。制御部121は、設定完了状態であると判定すると(S401においてYES)、S415に進み、設定完了状態でないと判定すると(S401においてNO)、S402に進む。
S402において、制御部121は、入力装置130を介してユーザーの入力があったか否かを判定する。制御部121は、ユーザーの入力があったと判定すると(S402においてYES)、S403に進み、ユーザーの入力がなかったと判定すると(S402においてNO)、S400に戻る。
FIG. 5 is a flowchart showing an example of information processing for setting detection areas for human body detection and setting maximum and minimum human body sizes for each set detection area.
In S400, the control unit 121 acquires a captured image from the imaging device 110. The process in S401 is an example of a reception process for accepting an image.
In S<b>401 , the control unit 121 determines whether or not the detection area and the maximum and minimum human body sizes of the detection area have been set based on the description of the setting file stored in the memory 21 . If the control unit 121 determines that the setting is completed (YES in S401), the process proceeds to S415, and if it determines that the setting is not completed (NO in S401), the process proceeds to S402.
In S402, the control unit 121 determines whether there is a user input via the input device 130. If the control unit 121 determines that there is a user input (YES in S402), the process proceeds to S403, and if it determines that there is no user input (NO in S402), the process returns to S400.

S403において、制御部121は、ボタン302が選択されたか否かを判定する。制御部121は、ボタン302が選択されたと判定すると(S403においてYES)、S404に進み、ボタン303が選択されていないと判定すると(S403においてNO)、S407に進む。
S404において、制御部121は、検出エリアの設定モードに遷移し、図6に示す画面を表示装置140に表示させるよう制御する。
図6は、検出エリアの設定モードに遷移した場合の、検出エリアを設定する画面の一例を示す図である。画面500は、検出エリアの設定モードに遷移した人体検出を行う検出エリアを設定する画面である。画面500は、エリア設定画面の一例を示す図である。ボタン501は検出エリアの設定モードに遷移したことを示し表示が変わったボタン302である。カーソル502は検出エリアを設定するための入力装置130のカーソルである。検出エリア503は設定された検出エリアを示す矩形である。本実施形態では、検出エリア503を矩形で設定したが、他の形状であってもよい。ボタン501は、表示装置140に表示させている画面がエリア設定画面であることを識別する識別情報の一例である。
S405において、制御部121は、表示装置140に表示された画面500及び入力装置130を介したユーザーの検出エリア503の設定操作を受け付け、検出エリア503を設定する。検出エリア503は画像に対して設定された一定の大きさを有するエリア(範囲)である。
S406において、制御部121は、S405で設定した検出エリア503を図6に示すように表示装置140に表示させる。
In S403, the control unit 121 determines whether the button 302 is selected. If the control unit 121 determines that the button 302 is selected (YES in S403), the process proceeds to S404, and if it determines that the button 303 is not selected (NO in S403), the process proceeds to S407.
In S404, the control unit 121 changes to the detection area setting mode and controls the display device 140 to display the screen shown in FIG.
FIG. 6 is a diagram illustrating an example of a screen for setting the detection area when transitioning to the detection area setting mode. Screen 500 is a screen for setting a detection area in which human body detection is to be performed, which has transitioned to a detection area setting mode. Screen 500 is a diagram showing an example of an area setting screen. The button 501 is the button 302 whose display has changed, indicating that the mode has changed to the detection area setting mode. A cursor 502 is a cursor of the input device 130 for setting a detection area. Detection area 503 is a rectangle indicating a set detection area. In this embodiment, the detection area 503 is set to have a rectangular shape, but it may have another shape. The button 501 is an example of identification information that identifies that the screen displayed on the display device 140 is an area setting screen.
In S405, the control unit 121 receives the user's operation to set the detection area 503 via the screen 500 displayed on the display device 140 and the input device 130, and sets the detection area 503. The detection area 503 is an area (range) having a fixed size set for the image.
In S406, the control unit 121 displays the detection area 503 set in S405 on the display device 140 as shown in FIG.

S407において、制御部121は、ボタン303が選択されたか否かを判定する。制御部121は、ボタン303が選択されたと判定すると(S407においてYES)、S408に進み、ボタン303が選択されていないと判定すると(S407においてNO)、S400に戻る。
S408において、制御部121は、人体サイズの設定モードに遷移し、図7に示す画面を表示装置140に表示させるよう制御する。
図7は、人体サイズの設定モードに遷移した場合の、人体サイズを設定する画面の一例を示す図である。画面600は、サイズ設定画面の一例を示す図である。検出エリア601は、検出エリア503と同一であって、ユーザーによって最大、最小の人体サイズが設定されるエリアでもある。ボタン602は人体サイズの設定モードに遷移したことを示し表示が変わったボタン303である。人体モデル603は検出エリア601における最大の人体サイズを設定するための人体モデルである。人体モデル604は検出エリア601における最小の人体サイズを設定するための人体モデルである。本実施形態では、人体モデル603及び人体モデル604を人体に近い形状で表示しているが、他の形状で表示するようにしてもよい。ボタン602は、表示装置140に表示させている画面がサイズ設定画面であることを識別する識別情報の一例である。
In S407, the control unit 121 determines whether the button 303 is selected. If the control unit 121 determines that the button 303 is selected (YES in S407), the process proceeds to S408, and if it determines that the button 303 is not selected (NO in S407), the process returns to S400.
In S408, the control unit 121 changes to the human body size setting mode and controls the display device 140 to display the screen shown in FIG.
FIG. 7 is a diagram showing an example of a screen for setting the human body size when transitioning to the human body size setting mode. Screen 600 is a diagram showing an example of a size setting screen. The detection area 601 is the same as the detection area 503, and is also an area where the maximum and minimum human body sizes are set by the user. The button 602 is the button 303 whose display has changed, indicating that the mode has changed to the human body size setting mode. The human body model 603 is a human body model for setting the maximum human body size in the detection area 601. A human body model 604 is a human body model for setting the minimum human body size in the detection area 601. In this embodiment, the human body model 603 and the human body model 604 are displayed in a shape similar to a human body, but they may be displayed in other shapes. The button 602 is an example of identification information that identifies that the screen displayed on the display device 140 is a size setting screen.

S409において、制御部121は、人体モデル603及び人体モデル604を表示装置140に表示させるよう制御する。本実施形態では、制御部121は、人体サイズの設定モードに遷移してから人体モデル603及び人体モデル604を表示したが、このことは本実施の形態を制限するものではない。制御部121は、検出エリアの設定モードのときから人体モデル603及び人体モデル604を表示してもよいし、人体サイズの設定モードに遷移するまでは、半透明で表示する等、他の方法で人体モデル603及び人体モデル604の表示状態を制御してもよい。人体モデル604は、第1の検出サイズを設定するためのオブジェクトの一例である。また人体モデル603は、第2の検出サイズを設定するためのオブジェクトの一例である。制御部121は、画面600において、人体モデル603を、人体モデル604よりも手前、又は画面の下側に表示させる。これは、奥行きのある広範囲の撮像画像等では、相対的に大きい被写体が手前に、小さい被写体が奥に存在することになるからである。
S410において、制御部121は、表示装置140に表示された画面600における入力装置130を介したユーザーの人体モデル603のドラッグ操作等を受け付け、最大の人体サイズを変更する。ここで、最大の人体サイズは、画像に対する最大の人体の検出サイズである。本実施形態では、人体モデル603をドラッグすることで検出エリア601における最大の人体サイズを変更したが、他の方法で変更してもよい。
S411において、制御部121は、後述する図8に示すようにS410で変更された最大の人体サイズの人体モデル701を画面600に表示させる。
In S409, the control unit 121 controls the display device 140 to display the human body model 603 and the human body model 604. In this embodiment, the control unit 121 displays the human body model 603 and the human body model 604 after transitioning to the human body size setting mode, but this does not limit the present embodiment. The control unit 121 may display the human body model 603 and the human body model 604 from the time of the detection area setting mode, or may display the human body model 603 and the human body model 604 by other methods such as displaying them semitransparently until the transition to the human body size setting mode. The display state of the human body model 603 and the human body model 604 may be controlled. The human body model 604 is an example of an object for setting the first detection size. Furthermore, the human body model 603 is an example of an object for setting the second detection size. The control unit 121 causes the human body model 603 to be displayed on the screen 600 in front of the human body model 604 or at the bottom of the screen. This is because in a captured image of a wide range with depth, a relatively large object will be in the foreground, and a relatively small object will be in the background.
In S410, the control unit 121 accepts the user's drag operation of the human body model 603 via the input device 130 on the screen 600 displayed on the display device 140, and changes the maximum human body size. Here, the maximum human body size is the maximum detected size of the human body in the image. In this embodiment, the maximum human body size in the detection area 601 is changed by dragging the human body model 603, but it may be changed using other methods.
In S411, the control unit 121 causes the human body model 701 of the maximum human body size changed in S410 to be displayed on the screen 600, as shown in FIG. 8, which will be described later.

S412において、制御部121は、表示装置140に表示された画面600における入力装置130を介したユーザーの人体モデル604のドラッグ操作等を受け付け、最小の人体サイズを変更する。ここで、最小の人体サイズは、画像に対する最小の人体の検出サイズである。本実施形態では、人体モデル604をドラッグすることで検出エリア601における最小の人体サイズを変更したが、他の方法で変更してもよい。
S413において、制御部121は、後述する図8に示すようにS412で変更された最小の人体サイズの人体モデル702を画面600に表示させる。
図8は、変更された後の最大、最小の人体サイズの一例を示す図である。人体モデル701は大きさが変更された後の検出エリア601における最大の人体サイズの人体モデルである。人体モデル702は大きさが変更された後の検出エリア601における最小の人体サイズの人体モデルである。S410及びS411の処理と、S412及びS413の処理とは、逆の順序で行われてもよい。
S414において、制御部121は、設定完了状態であることを例えばメモリ21の設定ファイル等に記述し、保存する。
S415において、制御部121は、S405で設定した検出エリア内を、S412で設定した検出エリア内の最小の人体サイズからS410で設定した検出エリア内の最大の人体サイズまでの範囲で人体を検出する。人体検出方法としては特開2014-199506で公開されている技術等を利用すればよい。また、制御部121は、設定された検出エリアごとに最大の人体サイズ、最小の人体サイズを設定し、設定された検出エリアにおいて、設定された人体サイズの人体を検出するようにしてもよい。
制御部121は、検出した人体、及び、検出した人体の数等を、通信制御部123を介して外部装置に送信してもよいし、表示装置140に表示させてもよい。
S416において、制御部121は、繰り返し処理を終了するか否かを判定する。制御部121は、繰り返し処理を終了すると判定すると(S416においてYES)、図5に示すフローチャートの処理を終了し、繰り返し処理を終了すると判定すると(S416においてNO)、S400に戻る。
In S412, the control unit 121 accepts the user's drag operation of the human body model 604 via the input device 130 on the screen 600 displayed on the display device 140, and changes the minimum human body size. Here, the minimum human body size is the minimum detected size of the human body in the image. In this embodiment, the minimum human body size in the detection area 601 is changed by dragging the human body model 604, but it may be changed by other methods.
In S413, the control unit 121 causes the human body model 702 of the minimum human body size changed in S412 to be displayed on the screen 600, as shown in FIG. 8, which will be described later.
FIG. 8 is a diagram showing an example of the maximum and minimum human body sizes after being changed. The human body model 701 is the largest human body model in the detection area 601 after the size has been changed. The human body model 702 is the human body model of the smallest human size in the detection area 601 after the size has been changed. The processing in S410 and S411 and the processing in S412 and S413 may be performed in the reverse order.
In S414, the control unit 121 writes, for example, a setting file in the memory 21 indicating that the setting is completed, and saves it.
In S415, the control unit 121 detects a human body within the detection area set in S405, from the smallest human body size in the detection area set in S412 to the largest human body size in the detection area set in S410. . As a human body detection method, the technique disclosed in Japanese Patent Application Laid-open No. 2014-199506 may be used. Further, the control unit 121 may set a maximum human body size and a minimum human body size for each set detection area, and detect a human body of the set human body size in the set detection area.
The control unit 121 may transmit the detected human bodies, the number of detected human bodies, etc. to an external device via the communication control unit 123, or may display them on the display device 140.
In S416, the control unit 121 determines whether to end the iterative process. If the control unit 121 determines to end the repetitive processing (YES in S416), it ends the process of the flowchart shown in FIG. 5, and if it determines to end the repetitive process (NO in S416), the process returns to S400.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or device read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
撮像装置110の機能構成の一部又は全てはハードウェア構成として撮像装置110に実装されてもよい。同様に、クライアント装置120の機能構成の一部又は全てはハードウェア構成としてクライアント装置120に実装されてもよい。また、上述したクライアント装置や撮像装置のハードウェア構成は一例であり、例えば、CPUやメモリ、通信I/F等は複数有していてもよい。
また、上述した実施形態では、検出対象の一例として人体を例に説明したが、他のオブジェクト、例えば、自動車、動物等であってもよい。
Although an example of the embodiment of the present invention has been described in detail above, the present invention is not limited to such specific embodiment.
A part or all of the functional configuration of the imaging device 110 may be implemented in the imaging device 110 as a hardware configuration. Similarly, part or all of the functional configuration of the client device 120 may be implemented in the client device 120 as a hardware configuration. Furthermore, the hardware configurations of the client device and the imaging device described above are merely examples, and for example, they may have multiple CPUs, memories, communication I/Fs, and the like.
Further, in the above-described embodiment, the human body was described as an example of the detection target, but other objects such as a car, an animal, etc. may be used.

以上、上述した各実施形態の処理によれば、検出処理の高速化、及び、誤検出の削減の少なくとも何れかを実現することができる。 As described above, according to the processing of each embodiment described above, it is possible to realize at least one of speeding up the detection processing and reducing false detections.

22 CPU
120 クライアント装置
140 表示装置
22 CPU
120 Client device 140 Display device

Claims (12)

画像内において検出エリアから検出される検出対象オブジェクトの第1の検出サイズと第2の検出サイズとを設定するためのサイズ設定画面または、前記検出対象オブジェクトを検出する前記検出エリアを設定するためのエリア設定画面を表示部に表示させる表示制御手段と、
前記検出エリアから、前記第1の検出サイズと前記第2の検出サイズとの間のサイズの検出対象オブジェクトを検出する検出手段と、
を有し、
前記表示制御手段は、前記サイズ設定画面では、前記第1の検出サイズを設定するためのオブジェクトまたは前記第2の検出サイズを設定するためのオブジェクトを表示し、前記検出エリアを設定する画面では、前記第1の検出サイズを設定するためのオブジェクトまたは前記第2の検出サイズを設定するためのオブジェクトを表示しないように制御し、
前記第2の検出サイズは前記第1の検出サイズより大きいサイズであり、
前記表示制御手段は、前記サイズ設定画面において、前記第2の検出サイズを設定するためのオブジェクトの下端を、前記第1の検出サイズを設定するためのオブジェクトの下端よりも下方であって前記検出エリアの下辺の近傍に表示させ、前記第1の検出サイズを設定するためのオブジェクトの上端を、前記第2の検出サイズを設定するためのオブジェクトの上端より上方であって前記検出エリアの上辺の近傍に表示させる制御をする情報処理装置。
A size setting screen for setting a first detection size and a second detection size of a detection target object detected from a detection area in an image , or a size setting screen for setting the detection area in which the detection target object is detected. Display control means for displaying an area setting screen on a display unit;
Detection means for detecting a detection target object having a size between the first detection size and the second detection size from the detection area;
has
The display control means displays, on the size setting screen, an object for setting the first detection size or an object for setting the second detection size, and on the screen for setting the detection area, controlling not to display an object for setting the first detection size or an object for setting the second detection size;
The second detection size is larger than the first detection size,
On the size setting screen, the display control means sets the lower end of the object for setting the second detection size to be below the lower end of the object for setting the first detection size, and The upper edge of the object for setting the first detection size is displayed near the lower edge of the area, and the upper edge of the object for setting the first detection size is above the upper edge of the object for setting the second detection size and is above the upper edge of the detection area. An information processing device that controls display in the vicinity.
画像を取得する取得手段と、
前記取得された画像に対して前記検出エリアを設定する第1の設定手段と、
前記設定された検出エリアにおける前記検出対象オブジェクトの前記第1の検出サイズと前記第2の検出サイズとを設定する第2の設定手段と、を更に有し、
前記検出手段は、前記取得された画像における前記検出エリアから、前記第1の検出サイズと前記第2の検出サイズとの間のサイズの検出対象オブジェクトを検出する請求項1記載の情報処理装置。
an acquisition means for acquiring an image;
a first setting means for setting the detection area for the acquired image;
further comprising a second setting means for setting the first detection size and the second detection size of the detection target object in the set detection area,
The information processing apparatus according to claim 1, wherein the detection means detects a detection target object having a size between the first detection size and the second detection size from the detection area in the acquired image. .
前記画像は動画像である請求項2記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the image is a moving image. 前記第2の設定手段は、前記設定された検出エリアごとに前記検出対象オブジェクトの前記第1の検出サイズと前記第2の検出サイズとを設定する請求項2または3記載の情報処理装置。 4. The information processing apparatus according to claim 2, wherein the second setting means sets the first detection size and the second detection size of the detection target object for each of the set detection areas. 前記第1の検出サイズを設定するためのオブジェクトと、前記第2の検出サイズを設定するためのオブジェクトとを、重複させないように表示させる請求項1乃至4の何れか1項記載の情報処理装置。 The information processing according to any one of claims 1 to 4, wherein an object for setting the first detection size and an object for setting the second detection size are displayed so as not to overlap. Device. 前記表示制御手段は、前記第1の検出サイズを設定するためのオブジェクトまたは前記第2の検出サイズを設定するためのオブジェクトとして少なくとも2つの人体モデルを表示させる請求項1乃至5の何れか1項記載の情報処理装置。 6. The display control means displays at least two human body models as an object for setting the first detection size or an object for setting the second detection size. The information processing device described in . 前記表示制御手段は、前記表示部に表示させている画面が前記エリア設定画面か前記サイズ設定画面かを識別する識別情報を前記表示部に表示させる請求項1乃至6の何れか1項記載の情報処理装置。 7. The display control means causes the display section to display identification information for identifying whether the screen displayed on the display section is the area setting screen or the size setting screen. information processing equipment. 前記表示制御手段は、前記検出対象オブジェクト検出の結果である前記検出対象オブジェクトを示す情報を前記表示部に表示させる請求項1乃至7の何れか1項記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, wherein the display control means causes the display unit to display information indicating the detection target object, which is a result of detection of the detection target object. 前記表示制御手段は、前記画像を含む前記サイズ設定画面に、前記検出対象オブジェクトの最小サイズである前記第1の検出サイズを設定するためのオブジェクトと、前記検出対象オブジェクトの最大サイズである前記第2の検出サイズを設定するためのオブジェクトと、前記検出エリアを表すエリアとを重ねて前記表示部に表示させる請求項2乃至8の何れか1項記載の情報処理装置。 The display control means includes an object for setting the first detection size, which is the minimum size of the object to be detected , and a second object, which is the maximum size of the object to be detected , on the size setting screen including the image . 9. The information processing apparatus according to claim 2, wherein an object for setting the second detection size and an area representing the detection area are displayed on the display unit in an overlapping manner. 撮像装置と、
検出エリアから検出される検出対象オブジェクトの第1の検出サイズと第2の検出サイズとを設定するためのサイズ設定画面または、前記検出対象オブジェクトを検出する前記検出エリアを設定するためのエリア設定画面を表示部に表示させる表示制御手段と、
前記撮像装置から画像を取得する取得手段と、
前記取得された画像に対して前記検出エリアを設定する第1の設定手段と、
前記設定された検出エリアにおける前記検出対象オブジェクトの前記第1の検出サイズと前記第2の検出サイズとを設定する第2の設定手段と、
前記取得された画像における前記検出エリアから、前記第1の検出サイズと前記第2の検出サイズとの間のサイズの検出対象オブジェクトを検出する検出手段と、
を有し、
前記表示制御手段は、前記サイズ設定画面では、前記第1の検出サイズを設定するためのオブジェクトまたは前記第2の検出サイズを設定するためのオブジェクトを表示し、前記検出エリアを設定する画面では、前記第1の検出サイズを設定するためのオブジェクトまたは前記第2の検出サイズを設定するためのオブジェクトを表示しないように制御し、
前記第2の検出サイズは前記第1の検出サイズより大きいサイズであり、
前記表示制御手段は、前記サイズ設定画面において、前記第2の検出サイズを設定するためのオブジェクトの下端を、前記第1の検出サイズを設定するためのオブジェクトの下端よりも下方であって前記検出エリアの下辺の近傍に表示させ、前記第1の検出サイズを設定するためのオブジェクトの上端を、前記第2の検出サイズを設定するためのオブジェクトの上端より上方であって前記検出エリアの上辺の近傍に表示させる制御をする情報処理システム。
an imaging device;
A size setting screen for setting a first detection size and a second detection size of a detection target object detected from a detection area, or an area setting screen for setting the detection area in which the detection target object is detected. display control means for displaying on a display unit;
acquisition means for acquiring an image from the imaging device;
a first setting means for setting the detection area for the acquired image;
a second setting means for setting the first detection size and the second detection size of the detection target object in the set detection area;
Detection means for detecting a detection target object having a size between the first detection size and the second detection size from the detection area in the acquired image;
has
The display control means displays, on the size setting screen, an object for setting the first detection size or an object for setting the second detection size, and on the screen for setting the detection area, controlling not to display an object for setting the first detection size or an object for setting the second detection size;
The second detection size is larger than the first detection size,
On the size setting screen, the display control means sets the lower end of the object for setting the second detection size to be below the lower end of the object for setting the first detection size, and The upper edge of the object for setting the first detection size is displayed near the lower edge of the area, and the upper edge of the object for setting the first detection size is above the upper edge of the object for setting the second detection size and is above the upper edge of the detection area. An information processing system that controls display in the vicinity.
画像内において検出エリアから検出される検出対象オブジェクトの第1の検出サイズと第2の検出サイズとを設定するためのサイズ設定画面または、前記検出対象オブジェクトを検出する前記検出エリアを設定するためのエリア設定画面を表示部に表示させる表示制御工程と、
前記検出エリアから、前記第1の検出サイズと前記第2の検出サイズとの間のサイズの検出対象オブジェクトを検出する検出工程と、
を含み、
前記表示制御工程は、前記サイズ設定画面では、前記第1の検出サイズを設定するためのオブジェクトまたは前記第2の検出サイズを設定するためのオブジェクトを表示し、前記検出エリアを設定する画面では、前記第1の検出サイズを設定するためのオブジェクトまたは前記第2の検出サイズを設定するためのオブジェクトを表示しないように制御し、
前記第2の検出サイズは前記第1の検出サイズより大きいサイズであり、
前記表示制御工程は、前記サイズ設定画面において、前記第2の検出サイズを設定するためのオブジェクトの下端を、前記第1の検出サイズを設定するためのオブジェクトの下端よりも下方であって前記検出エリアの下辺の近傍に表示させ、前記第1の検出サイズを設定するためのオブジェクトの上端を、前記第2の検出サイズを設定するためのオブジェクトの上端より上方であって前記検出エリアの上辺の近傍に表示させる制御をする情報処理方法。
A size setting screen for setting a first detection size and a second detection size of a detection target object detected from a detection area in an image , or a size setting screen for setting the detection area in which the detection target object is detected. a display control step for displaying an area setting screen on a display unit;
a detection step of detecting a detection target object having a size between the first detection size and the second detection size from the detection area;
including;
In the display control step, on the size setting screen, an object for setting the first detection size or an object for setting the second detection size is displayed, and on the screen for setting the detection area, controlling not to display an object for setting the first detection size or an object for setting the second detection size;
The second detection size is larger than the first detection size,
In the display control step, on the size setting screen, the lower end of the object for setting the second detection size is located below the lower end of the object for setting the first detection size, and The upper edge of the object for setting the first detection size is displayed near the lower edge of the area, and the upper edge of the object for setting the first detection size is above the upper edge of the object for setting the second detection size and is above the upper edge of the detection area. An information processing method that controls display in the vicinity.
コンピュータを、請求項1乃至9の何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 9.
JP2021193868A 2017-05-24 2021-11-30 Information processing device, information processing system, information processing method and program Active JP7371076B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021193868A JP7371076B2 (en) 2017-05-24 2021-11-30 Information processing device, information processing system, information processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017102803A JP6987532B2 (en) 2017-05-24 2017-05-24 Information processing equipment, information processing system, information processing method and program
JP2021193868A JP7371076B2 (en) 2017-05-24 2021-11-30 Information processing device, information processing system, information processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017102803A Division JP6987532B2 (en) 2017-01-30 2017-05-24 Information processing equipment, information processing system, information processing method and program

Publications (2)

Publication Number Publication Date
JP2022027804A JP2022027804A (en) 2022-02-14
JP7371076B2 true JP7371076B2 (en) 2023-10-30

Family

ID=64663869

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017102803A Active JP6987532B2 (en) 2017-01-30 2017-05-24 Information processing equipment, information processing system, information processing method and program
JP2021193868A Active JP7371076B2 (en) 2017-05-24 2021-11-30 Information processing device, information processing system, information processing method and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017102803A Active JP6987532B2 (en) 2017-01-30 2017-05-24 Information processing equipment, information processing system, information processing method and program

Country Status (1)

Country Link
JP (2) JP6987532B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7378198B2 (en) 2017-05-15 2023-11-13 大王製紙株式会社 Cellulose fine fiber and its manufacturing method
JP7297463B2 (en) 2019-02-22 2023-06-26 キヤノン株式会社 Image processing device, image processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008016898A (en) 2006-06-30 2008-01-24 Sony Corp Monitoring apparatus, monitoring system and filter setting method
JP2012059196A (en) 2010-09-13 2012-03-22 Canon Inc Display control device and display control method
JP2016009877A (en) 2014-06-20 2016-01-18 キヤノン株式会社 Control apparatus, control method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008016898A (en) 2006-06-30 2008-01-24 Sony Corp Monitoring apparatus, monitoring system and filter setting method
JP2012059196A (en) 2010-09-13 2012-03-22 Canon Inc Display control device and display control method
JP2016009877A (en) 2014-06-20 2016-01-18 キヤノン株式会社 Control apparatus, control method, and program

Also Published As

Publication number Publication date
JP6987532B2 (en) 2022-01-05
JP2022027804A (en) 2022-02-14
JP2018198399A (en) 2018-12-13

Similar Documents

Publication Publication Date Title
JP7371076B2 (en) Information processing device, information processing system, information processing method and program
KR101739318B1 (en) Display control apparatus, imaging system, display control method, and recording medium
US9961268B2 (en) Control device, imaging system, control method, and program for controlling imaging unit according to image capturing direction and zoom magnification
WO2021168804A1 (en) Image processing method, image processing apparatus and image processing system
CN111107276A (en) Information processing apparatus, control method thereof, storage medium, and imaging system
JP6669959B2 (en) Image processing device, photographing device, image processing method, image processing program
JP2014222825A (en) Video processing apparatus and video processing method
US11019251B2 (en) Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program
JP2019054369A (en) Imaging device, control method of imaging device, and program
EP3883236A1 (en) Information processing apparatus, imaging apparatus, method, and storage medium
JP2015186210A (en) Imaging apparatus, control method of imaging apparatus, and program
JP6231757B2 (en) Imaging apparatus, information processing apparatus, control method therefor, and program
US10949713B2 (en) Image analyzing device with object detection using selectable object model and image analyzing method thereof
JP2016111561A (en) Information processing device, system, information processing method, and program
JP6700706B2 (en) Information processing apparatus, information processing method, and program
JP6483661B2 (en) Imaging control apparatus, imaging control method, and program
CN108476290B (en) Electronic device for providing panoramic image and control method thereof
JP7034690B2 (en) Information processing equipment, information processing methods and programs
WO2018232584A1 (en) Unmanned aerial vehicle and control method therefor, and control terminal and control method thereof
JP7195782B2 (en) Information processing device, control method and program
JP6501749B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
US20230122606A1 (en) Image capturing system, control method, and storage medium
JP2021090170A (en) Information processing device, information processing method, program, and storage medium
JP2023063765A (en) Image processing device, image processing method, image processing system, and program
JP2021150947A (en) Information processing apparatus, imaging apparatus, method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231018

R151 Written notification of patent or utility model registration

Ref document number: 7371076

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151