JP6736348B2 - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP6736348B2
JP6736348B2 JP2016100669A JP2016100669A JP6736348B2 JP 6736348 B2 JP6736348 B2 JP 6736348B2 JP 2016100669 A JP2016100669 A JP 2016100669A JP 2016100669 A JP2016100669 A JP 2016100669A JP 6736348 B2 JP6736348 B2 JP 6736348B2
Authority
JP
Japan
Prior art keywords
image
mark
size
superimposed
user operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016100669A
Other languages
Japanese (ja)
Other versions
JP2017207972A (en
JP2017207972A5 (en
Inventor
太一 松井
太一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016100669A priority Critical patent/JP6736348B2/en
Priority to US15/588,355 priority patent/US10475221B2/en
Publication of JP2017207972A publication Critical patent/JP2017207972A/en
Publication of JP2017207972A5 publication Critical patent/JP2017207972A5/ja
Priority to US16/653,304 priority patent/US10922864B2/en
Application granted granted Critical
Publication of JP6736348B2 publication Critical patent/JP6736348B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.

従来、画像から人体等を検知する物体検知装置が知られている。物体検知装置は、例えば、スタジアムにいる観客の人数を計測したり、遊園地の来客数の人数を計測したりするのに用いられる。特許文献1には、混雑の度合いに関わらず、画像における特定の物体の個数を計測する技術が開示されている。 Conventionally, an object detection device that detects a human body or the like from an image is known. The object detection device is used, for example, to measure the number of spectators in a stadium or the number of visitors to an amusement park. Patent Document 1 discloses a technique for measuring the number of specific objects in an image regardless of the degree of congestion.

特開2014−6586号公報JP, 2014-6586, A

しかしながら、物体検知においては、誤検知や未検知が生じ得る。誤検知等が生じた場合には、人手により検知された個体数を訂正しなければならないという問題があった。 However, in the object detection, erroneous detection or non-detection may occur. When erroneous detection occurs, there is a problem that the number of individuals detected manually must be corrected.

本発明はこのような問題点に鑑みなされたもので、検知された検知対象の個数を容易に訂正することを目的とする。 The present invention has been made in view of such problems, and an object thereof is to easily correct the number of detected detection targets.

そこで、本発明は、画像処理装置であって、撮像手段により撮像された画像を取得する取得手段と、前記画像から検知された検知対象に対応する第1マークを重畳した前記画像と、前記画像に重畳された前記第1マークの数を示す数字とを表示手段に表示させる表示制御手段とを有し、前記表示制御手段は、前記画像に重畳されるマークを追加するユーザ操作を受け付けた場合、前記検知対象に対応する前記第1マークと前記ユーザ操作に従って追加される第2マークとが重畳された前記画像と、前記画像に重畳された前記第1マークおよび前記第2マークの数の合計に対応する数字とを前記表示手段に表示させることを特徴とする。 Accordingly, the present invention provides an image processing apparatus, and the image obtained by superimposing an acquisition unit configured to acquire an image captured, the first mark corresponding to the detected object is detected from the previous SL image by the imaging means, the and a display control means for displaying on the display unit and a number indicating the number of the first mark that is superimposed on the image, wherein the display control unit, and receives a user operation of adding a mark to be superposed on the image In this case, the image on which the first mark corresponding to the detection target and the second mark added according to the user operation are superimposed, and the number of the first mark and the second mark superimposed on the image The number corresponding to the total is displayed on the display means .

本発明によれば、検知された検知対象の個数を容易に訂正することができる。 According to the present invention, the number of detected detection targets can be easily corrected.

画像処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an image processing apparatus. 画像処理装置のソフトウェア構成を示す図である。It is a figure which shows the software structure of an image processing apparatus. 検知処理を示すフローチャートである。It is a flowchart which shows a detection process. 対象画像の一例を示す図である。It is a figure which shows an example of a target image. 画面遷移を示す図である。It is a figure which shows a screen transition. ユーザ操作の説明図である。It is explanatory drawing of a user operation. 変更例の説明図である。It is explanatory drawing of the example of a change. 変更例の説明図である。It is explanatory drawing of the example of a change.

以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施形態に係る画像処理装置100のハードウェア構成の一例を示す図である。画像処理装置100は、CPU101、ROM102、RAM103、ハードディスクドライブ(HDD)204、ディスクドライブ105、通信部106、入力部107、及び表示部108を有する。 FIG. 1 is a diagram showing an example of a hardware configuration of an image processing apparatus 100 according to this embodiment. The image processing apparatus 100 includes a CPU 101, a ROM 102, a RAM 103, a hard disk drive (HDD) 204, a disk drive 105, a communication unit 106, an input unit 107, and a display unit 108.

CPU101は、画像処理装置100を統括制御する制御装置である。ROM102は、CPU101が画像処理装置100を制御するためのプログラムを記憶する。なお、ROM102に代えて、2次記憶装置を設けてもよい。RAM103は、CPU101がROM102から読み出したプログラムを展開し、処理を実行するためのメモリである。また、RAM103は、一時記憶メモリとして各種処理の対象となるデータを一時記憶するための記憶領域としても使用される。HDD104は、画像処理装置100の画像処理の対象となる画像ファイル等、各種情報を格納する。CPU101には、HDD104から画像ファイルが入力される。なお、画像ファイルは、HDD104ではなく、ディスクドライブ105又は通信部106からCPU101に入力されてもよく、この場合、CPU101は、HDD104を有さなくともよい。後述する画像処理装置100の機能や処理は、CPU101がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。 The CPU 101 is a control device that integrally controls the image processing device 100. The ROM 102 stores a program for the CPU 101 to control the image processing apparatus 100. A secondary storage device may be provided instead of the ROM 102. The RAM 103 is a memory for the CPU 101 to expand the program read from the ROM 102 and execute the processing. The RAM 103 is also used as a temporary storage memory as a storage area for temporarily storing data to be processed. The HDD 104 stores various kinds of information such as an image file that is an image processing target of the image processing apparatus 100. An image file is input to the CPU 101 from the HDD 104. The image file may be input to the CPU 101 from the disk drive 105 or the communication unit 106 instead of the HDD 104. In this case, the CPU 101 does not have to have the HDD 104. The functions and processing of the image processing apparatus 100, which will be described later, are realized by the CPU 101 reading a program stored in the ROM 102 or the HDD 104 and executing the program.

ディスクドライブ105は、CD、DVD、ブルーレイディスク、又はフレキシブルディスク内の画像ファイルを読み出し、CPU101はディスクドライブ105を介して画像ファイルを入力する。なお、CPU101が画像ファイルをHDD104又は通信部106から入力する場合には、ディスクドライブ105は必ずしもなくてもよい。 The disk drive 105 reads an image file in a CD, a DVD, a Blu-ray disc, or a flexible disk, and the CPU 101 inputs the image file via the disk drive 105. When the CPU 101 inputs the image file from the HDD 104 or the communication unit 106, the disk drive 105 is not always necessary.

通信部106は、ネットワーク120を介して通信を行う回路である。CPU101は、ネットワーク120を介して画像ファイルを入力する。CPU101が画像ファイルをHDD104又はディスクドライブ105から入力する場合には、通信部106は必ずしもなくてもよい。表示部108は、画像や領域枠を表示するディスプレイ等のデバイスである。入力部107は、数値入力用のキーボード、表示部108の表示領域の表示位置を指示するためのポインティングデバイス、マウス、及びタッチパネル等を有する。 The communication unit 106 is a circuit that performs communication via the network 120. The CPU 101 inputs an image file via the network 120. When the CPU 101 inputs the image file from the HDD 104 or the disk drive 105, the communication unit 106 is not always necessary. The display unit 108 is a device such as a display that displays images and area frames. The input unit 107 includes a keyboard for inputting numerical values, a pointing device for instructing the display position of the display area of the display unit 108, a mouse, a touch panel, and the like.

図2は、画像処理装置100のソフトウェア構成を示す図である。画像処理装置100は、受付部201と、選択部202と、検知部203と、計測部204と、表示処理部205と、ファイル処理部206と、を有している。受付部201は、入力部107を介してユーザにより入力された各種指示を受け付ける。選択部202は、HDD104等の記憶部に記憶されている複数の画像の中から、受付部201が受け付けたユーザからの選択指示に従い、処理対象の画像を選択する。以下、処理対象の画像を対象画像と称する。なお、対象画像は、静止画でもよく動画でもよい。 FIG. 2 is a diagram showing a software configuration of the image processing apparatus 100. The image processing apparatus 100 includes a reception unit 201, a selection unit 202, a detection unit 203, a measurement unit 204, a display processing unit 205, and a file processing unit 206. The reception unit 201 receives various instructions input by the user via the input unit 107. The selection unit 202 selects an image to be processed from a plurality of images stored in a storage unit such as the HDD 104 according to a selection instruction from the user received by the reception unit 201. Hereinafter, the image to be processed will be referred to as a target image. The target image may be a still image or a moving image.

検知部203は、対象画像において画像解析を行い、所定の画像を検知する。本実施形態においては、人物を検知する場合を例に説明するが、検知対象は、人物に限定されるものではなく、例えば、車等の移動体等所定の物体であってもよい。さらに、検知対象は物体に限定されるものではなく、車のナンバー等物体に描かれた文字や記号等であってもよい。このように、検知対象は、画像から検知可能なものであればよく、その種類は実施形態に限定されるものではない。検知部203はさらに、検知した人物の位置や大きさをRAM103等の記憶部に記録する。なお、画像から人物を検知するための方法は、特に限定されるものではない。例えば、人物の顔を認識することにより人物を認識する方法や、人物の頭部の大きさから人物を認識する方法、肩の傾きから人物を認識する方法等が挙げられる。 The detection unit 203 performs image analysis on the target image and detects a predetermined image. In the present embodiment, the case of detecting a person will be described as an example, but the detection target is not limited to a person, and may be a predetermined object such as a moving body such as a car. Further, the detection target is not limited to the object, and may be characters or symbols drawn on the object such as a car number. As described above, the detection target may be anything that can be detected from the image, and the type thereof is not limited to the embodiment. The detection unit 203 further records the detected position and size of the person in the storage unit such as the RAM 103. The method for detecting a person from an image is not particularly limited. For example, a method of recognizing a person by recognizing the face of the person, a method of recognizing the person from the size of the head of the person, a method of recognizing the person from the inclination of the shoulder, and the like can be given.

計測部204は、検知部203により対象画像から検知された人物の数(人数)を計測する。表示処理部205は、各種情報を表示部108に表示するよう制御する。表示処理部205は、表示部108への各種情報の表示を制御する。表示処理部205は、例えば、対象画像を表示部108に表示するよう制御する。表示処理部205はさらに、検知部203による検知結果を表示部108に表示するよう制御する。ファイル処理部206は、対象画像と、対象画像から得られた検知結果としての人数等の情報を含む結果ファイルを作成、保存する。ファイル処理部206は、また、結果ファイルを適宜外部装置等に出力する。 The measurement unit 204 measures the number of people (the number of people) detected from the target image by the detection unit 203. The display processing unit 205 controls to display various information on the display unit 108. The display processing unit 205 controls the display of various information on the display unit 108. The display processing unit 205 controls to display the target image on the display unit 108, for example. The display processing unit 205 further controls the display unit 108 to display the detection result of the detection unit 203. The file processing unit 206 creates and saves a target image and a result file including information such as the number of persons as the detection result obtained from the target image. The file processing unit 206 also appropriately outputs the result file to an external device or the like.

ユーザは、表示処理部205により表示部108に表示された検知結果から、人物以外が人物として検知されている領域、人物が存在するにも関わらず検知されていない領域等を確認することができる。そして、ユーザは、適宜、簡単なユーザ操作により、検知結果を訂正するための指示を入力することができる。計測部204は、このユーザから訂正のための指示を受け付けると、この指示に従い、計測結果としての人数を変更(訂正)する。なお、本処理については、図3、図4等を参照しつつ、後に詳述する。 From the detection result displayed on the display unit 108 by the display processing unit 205, the user can confirm an area where a person other than a person is detected as a person, an area where a person is present but is not detected, and the like. .. Then, the user can appropriately input an instruction for correcting the detection result by a simple user operation. Upon receiving an instruction for correction from this user, the measurement unit 204 changes (corrects) the number of people as the measurement result according to this instruction. It should be noted that this processing will be described later in detail with reference to FIGS.

図3は、画像処理装置100による検知処理を示すフローチャートである。以下、図4に示す対象画像400と、図5に示す画面遷移を参照しつつ、検知処理について説明する。図4に示す対象画像400には、9人の人物401が写っている。ここでは、説明の便宜上、左下から右下の人物を順に人物A、人物B、人物C、人物Dと称することとする。さらに、左上から右上の人物を順に、人物E、人物F、人物G、人物H、人物Iと称することとする。本実施形態においては、画像処理装置100は、例えば、壁や柱等により設置された監視カメラにより撮影された画像を処理対象とするものとする。このため、処理対象の画像は、人物を上から斜め方向に撮影した画像となり、画像の下側の人物は画像の上側の人物に比べて大きく写っている。 FIG. 3 is a flowchart showing the detection processing by the image processing apparatus 100. The detection process will be described below with reference to the target image 400 shown in FIG. 4 and the screen transition shown in FIG. The target image 400 shown in FIG. 4 shows nine persons 401. Here, for convenience of description, the persons from the lower left to the lower right will be referred to as a person A, a person B, a person C, and a person D in order. Furthermore, the persons from the upper left to the upper right are referred to as a person E, a person F, a person G, a person H, and a person I in order. In this embodiment, the image processing apparatus 100 is assumed to process an image captured by a surveillance camera installed on a wall or a pillar, for example. For this reason, the image to be processed is an image obtained by photographing a person in an oblique direction from above, and the person on the lower side of the image is larger than the person on the upper side of the image.

図3に戻り、S300において、選択部202は、受付部201が受け付けた、画像の選択指示に従い、処理対象とする対象画像を選択する。選択部202は、例えば、対象画像が静止画である場合には、静止画ファイルを指定する。また、選択部202は、対象画像が動画である場合には、動画ファイルの中の対象となる場面(フレーム)を選択する。例えば、表示部108は、ライブ動画や録画動画を再生表示し、所望の場面が表示されたときに、ユーザがこの場面を指定するユーザ操作を行う。これに対し、受付部201は、フレームが指定された選択指示を受け付ける。 Returning to FIG. 3, in S300, the selection unit 202 selects a target image to be processed according to the image selection instruction received by the reception unit 201. For example, when the target image is a still image, the selection unit 202 specifies a still image file. Further, when the target image is a moving image, the selection unit 202 selects a target scene (frame) in the moving image file. For example, the display unit 108 reproduces and displays a live moving image or a recorded moving image, and when a desired scene is displayed, the user performs a user operation of designating this scene. On the other hand, the reception unit 201 receives the selection instruction in which the frame is designated.

次に、S301において、検知部203は、人物検知を行う。検知部203は、例えば、撮像画像全体、撮像画像の中心を基準とした所定の領域等予め指定された平空間を検知対象領域として人物検知を行う。そして、計測部204は、検知部203により検知された人物の数(人数)を計測する。なお、計測部204は、受付部201が、ユーザ操作に応じて計測指示を受け付けた場合に、人数計測を開始することとしてもよい。 Next, in S301, the detection unit 203 performs person detection. The detection unit 203 performs person detection, for example, by using a predetermined flat space such as the entire captured image or a predetermined region based on the center of the captured image as a detection target region. Then, the measurement unit 204 measures the number of people (the number of people) detected by the detection unit 203. Note that the measuring unit 204 may start the number of people when the receiving unit 201 receives a measurement instruction in response to a user operation.

次に、S302において、表示処理部205は、修正ウインドウを表示するよう制御する。本処理は、表示制御処理の一例である。図5(a)は、修正ウインドウ500の一例を示す図である。修正ウインドウ500には、対象画像が表示される。さらに、対象画像上には、人物が検知された各領域上に検知枠501〜509が重畳表示されている。ここで、検知枠501〜509は、検知対象に対応して表示されるマークの一例である。例えば、人物Aに対し、検知枠501が重畳して表示されている。 Next, in S302, the display processing unit 205 controls to display the correction window. This process is an example of the display control process. FIG. 5A is a diagram showing an example of the correction window 500. The target image is displayed in the correction window 500. Further, on the target image, detection frames 501 to 509 are displayed in a superimposed manner on each area where a person is detected. Here, the detection frames 501 to 509 are examples of marks displayed corresponding to the detection target. For example, the detection frame 501 is displayed so as to be superimposed on the person A.

なお、図5(a)の修正ウインドウ500においては、対象画像において、人物Bが人物として検知されず、また、人物Cと人物Dの間において、誤って人物が検知された場合の検知結果が示されている。すなわち、人物Bに対して検知枠が表示されておらず、また、人物Cと人物Dの間に検知枠503が表示されている。 In addition, in the correction window 500 of FIG. 5A, the detection result when the person B is not detected as a person in the target image and a person is erroneously detected between the person C and the person D is displayed. It is shown. That is, the detection frame is not displayed for the person B, and the detection frame 503 is displayed between the person C and the person D.

さらに、修正ウインドウ500の上部には、人数ラベル520が表示されている。人数ラベル520には、計測部204により計測された人数が表示される。また、修正ウインドウ500の右下には保存ボタン523が表示されている。保存ボタン523は、計測結果としての人数を対象画像とともに保存する保存指示を受け付けるためのユーザインタフェースである。 Further, the number of people label 520 is displayed at the top of the correction window 500. The number of people measured by the measuring unit 204 is displayed on the number of people label 520. A save button 523 is displayed at the lower right of the correction window 500. The save button 523 is a user interface for receiving a save instruction to save the number of people as the measurement result together with the target image.

修正ウインドウ500の左上には、追加モードボタン521と、削除モードボタン522とが表示されている。各ボタン521、522は、対応するモードの開始指示を受け付けるためのユーザインタフェースである。追加モード及び削除モードは、検知部203により検知された人物の数を訂正する動作モードである。追加モードでは、ユーザ操作に応じて、検知結果に対して、検出されなかった人物を追加することができ、削除モードでは、ユーザ操作に応じて、検知結果から誤検出に係る人物(人物以外の物体)を削除することができる。 An addition mode button 521 and a deletion mode button 522 are displayed at the upper left of the correction window 500. Each of the buttons 521 and 522 is a user interface for receiving a start instruction of a corresponding mode. The addition mode and the deletion mode are operation modes for correcting the number of persons detected by the detection unit 203. In the addition mode, a person who is not detected can be added to the detection result according to the user operation, and in the deletion mode, a person (other than the person) involved in the false detection is detected from the detection result according to the user operation. Object) can be deleted.

なお、本実施形態においては、検知された人物を示すマークとして、検知された人物を囲む、囲み線を表示することとしたが、マークの形状やサイズ等は実施形態に限定されるものではない。また、本実施形態においては、対象画像上において、人物が検知された領域上にマークを表示することとしたが、マークは、検知された領域との対応関係をユーザが視認可能に表示すればよく、必ずしも検知された領域上に表示されなくともよい。他の例としては、対象画像としての人物を指す矢印を表示してもよい。また、他の例としては、対象画像と異なる領域に、検知された領域の座標を表示してもよい。 In addition, in the present embodiment, as the mark indicating the detected person, a surrounding line surrounding the detected person is displayed, but the shape and size of the mark are not limited to the embodiment. .. Further, in the present embodiment, the mark is displayed on the area where the person is detected on the target image. However, if the mark is displayed so that the user can visually recognize the correspondence with the detected area. Well, it does not necessarily have to be displayed on the detected area. As another example, an arrow pointing to a person as the target image may be displayed. Further, as another example, the coordinates of the detected area may be displayed in an area different from the target image.

図3に戻り、S302の処理の後、CPU101は、処理をS303へ進める。S303において、CPU101は、受付部201がユーザ入力に応じて指示を受け付けると、指示内容を確認する。CPU101は、指示内容が、追加モードの選択指示であった場合には(S303で追加モードの選択指示)、処理をS304へ進める。CPU101は、指示内容が、削除モードの選択指示であった場合には(S303で削除モードの選択指示)、処理をS307へ進める。CPU101は、指示内容が保存指示であった場合には(S303で保存指示)、処理をS310へ進める。 Returning to FIG. 3, after the processing of S302, the CPU 101 advances the processing to S303. In S303, when the accepting unit 201 accepts an instruction in response to a user input, the CPU 101 confirms the instruction content. When the instruction content is the additional mode selection instruction (additional mode selection instruction in S303), the CPU 101 advances the process to S304. When the instruction content is the deletion mode selection instruction (in S303, the deletion mode selection instruction), the CPU 101 advances the process to S307. When the instruction content is the save instruction (save instruction in S303), the CPU 101 advances the process to S310.

S304において、受付部201は、ユーザ操作に応じて、新たな検知枠の追加指示を受け付ける。追加指示は、追加する検知枠の位置及びサイズを指定する情報を含んでいる。以下、ユーザ操作により新たに追加される検知枠を追加検知枠と称する。図6は、追加検知枠の位置及びサイズを指定するためのユーザ操作の説明図である。ユーザは、修正ウインドウ500において、検知枠を追加したい領域をドラッグすることにより、追加検知枠の位置及びサイズを指定することができる。ユーザが、点601でマウスダウンし、点602でマウスアップしたとする。この場合、受付部201は、点601及び点602を対角とする長方形を特定し、特定した長方形に内接する楕円603の位置及びサイズを含む追加指示を受け付ける。 In S304, the reception unit 201 receives an instruction to add a new detection frame in response to a user operation. The addition instruction includes information that specifies the position and size of the detection frame to be added. Hereinafter, the detection frame newly added by the user operation will be referred to as an additional detection frame. FIG. 6 is an explanatory diagram of a user operation for designating the position and size of the additional detection frame. The user can specify the position and size of the additional detection frame by dragging the area to which the detection frame is to be added in the correction window 500. It is assumed that the user moves the mouse down at the point 601 and moves the mouse up at the point 602. In this case, the reception unit 201 specifies a rectangle having the points 601 and 602 as diagonals, and receives an additional instruction including the position and size of the ellipse 603 inscribed in the specified rectangle.

次に、S305において、表示処理部205は、追加指示に係る追加検知枠を修正ウインドウ500に表示する。ここで、追加検知枠は、追加マークの一例である。次に、S306において、計測部204は、計測結果に対し、修正ウインドウ500に追加された追加検知枠の数だけ人数を増加する。そして、表示処理部205は、追加後の検知枠の数、すなわち訂正後の人物の数を人数ラベル520に表示する。CPU101は、その後処理をS303へ進める。 Next, in step S305, the display processing unit 205 displays the additional detection frame related to the addition instruction in the correction window 500. Here, the additional detection frame is an example of an additional mark. Next, in S306, the measuring unit 204 increases the number of persons by the number of additional detection frames added to the correction window 500 with respect to the measurement result. Then, the display processing unit 205 displays the number of detection frames after addition, that is, the number of corrected persons on the number-of-persons label 520. The CPU 101 then advances the process to S303.

例えば、図5(a)の修正ウインドウ500において、ユーザが追加モードボタン521を押下し、人物Bを囲む矩形を指定したとする。この場合、図5(b)に示すように、人物Bの周りに追加検知枠530が追加される。さらに、図5(b)に示すように、人数ラベル520の人数は、図5(a)の「9」人から「10」人に増加する。 For example, in the correction window 500 of FIG. 5A, it is assumed that the user presses the addition mode button 521 and designates a rectangle surrounding the person B. In this case, as shown in FIG. 5B, the additional detection frame 530 is added around the person B. Further, as shown in FIG. 5B, the number of people in the number-of-people label 520 increases from “9” in FIG. 5A to “10”.

図3に戻り、S307において、受付部201は、ユーザ操作に応じて、修正ウインドウ500に表示されている検知枠の削除指示を受け付ける。削除指示は、修正ウインドウ500に表示される検知枠のうち、削除対象の検知枠を指定する情報を含んでいる。例えば、ユーザは、図5(b)の修正ウインドウ500に表示中の検知枠503の中にカーソルを移動してクリックする。これに対し、受付部201は、クリックした点を含む検知枠503を削除対象として指定し、指定した検知枠503の削除指示を受け付ける。なお、クリックした点が複数の検知枠の中になる場合には、この複数の検知枠すべてが削除対象として指定される。 Returning to FIG. 3, in S307, the reception unit 201 receives an instruction to delete the detection frame displayed in the correction window 500 according to a user operation. The deletion instruction includes information designating the detection frame to be deleted among the detection frames displayed in the correction window 500. For example, the user moves the cursor into the detection frame 503 displayed in the correction window 500 of FIG. 5B and clicks it. On the other hand, the reception unit 201 specifies the detection frame 503 including the clicked point as a deletion target and receives a deletion instruction of the specified detection frame 503. When the clicked point falls within the plurality of detection frames, all of the plurality of detection frames are designated as deletion targets.

次に、S308において、表示処理部205は、削除指示に係る検知枠を修正ウインドウ500から削除する。次に、S309において、計測部204は、計測結果に対し、修正ウインドウ500から削除された検知枠の数だけ人数を減らす。そして、表示処理部205は、減らした後の検知枠の数、すなわち訂正後の人物の数を人数ラベル520に表示する。CPU101は、その後処理をS303へ進める。例えば、図5(b)の修正ウインドウ500において検知枠503が指定されると、図5(c)に示すように検知枠503が削除される。さらに、人数ラベル520の人数は、図5(b)の「10」から「9」人に減少する。 Next, in S308, the display processing unit 205 deletes the detection frame related to the deletion instruction from the correction window 500. Next, in S309, the measurement unit 204 reduces the number of persons in the measurement result by the number of detection frames deleted from the correction window 500. Then, the display processing unit 205 displays the reduced number of detection frames, that is, the corrected number of persons on the number-of-persons label 520. The CPU 101 then advances the process to S303. For example, when the detection frame 503 is designated in the correction window 500 of FIG. 5B, the detection frame 503 is deleted as shown in FIG. 5C. Further, the number of people in the number of people label 520 is reduced from “10” in FIG. 5B to “9”.

また、S310において、ファイル処理部206は、修正ウインドウ500に表示されている、検知枠が重畳された重畳画像と、人数ラベル520に表示される人数と、を結果ファイルとしてHDD104等の記憶部に保存する。以上で、検知処理が終了する。なお、ファイル処理部206は、結果ファイルを外部に出力することもできる。なお、ファイル処理部206は、少なくとも検知された人数(訂正された場合には訂正後の人数)を含む結果ファイルを保存すればよい。ファイル処理部206は、例えば、対象画像と、検知枠の位置を示す情報と、検知された人数と、を結果ファイルとして保存してもよい。 Further, in S310, the file processing unit 206 causes the storage image such as the HDD 104 to store, as a result file, the superimposed image on which the detection frame is displayed, which is displayed in the correction window 500, and the number of people displayed on the number of people label 520. save. This is the end of the detection process. The file processing unit 206 can also output the result file to the outside. It should be noted that the file processing unit 206 may store the result file including at least the detected number of people (when corrected, the number of people after correction). The file processing unit 206 may store the target image, information indicating the position of the detection frame, and the detected number of people as a result file, for example.

以上のように、本実施形態に係る画像処理装置100は、人物の検知結果の表示画面において、ユーザ操作に応じて、検知枠の追加、削除等の訂正処理を行い、訂正処理の結果を反映した検知対象の数を保存、出力することができる。すなわち、画像処理装置100は、ユーザによる煩雑な操作を要することなく、検知された検知対象の個数を容易に訂正することができる。 As described above, the image processing apparatus 100 according to the present embodiment performs correction processing such as addition and deletion of detection frames according to a user operation on the display screen of the detection result of a person, and reflects the result of the correction processing. The number of detected detection targets can be saved and output. That is, the image processing apparatus 100 can easily correct the number of detected detection targets without requiring a complicated operation by the user.

実施形態に係る画像処理装置100の変更例について説明する。追加モードにおいて、追加検知枠の位置及びサイズを決めるための処理は、実施形態に限定されるものではない。例えば、ユーザは、位置及びサイズに替えて、位置のみを指定する追加指示を入力してもよい。図7を参照しつつ、人物Bに対して検知枠を追加したい場合を例に具体的に説明する。ユーザは、人物Bの中心点701をクリックする。なお、中心点701は、中心付近の点であればよい。これに対し、表示処理部205は、中心点701を位置として指定した追加指示を受け付ける。さらに、この場合、表示処理部205は、自動的に追加検知枠のサイズを決定する。サイズを決めるための処理としては、以下に示すものが挙げられる。なお、本処理は、サイズ決定処理の一例である。 A modification of the image processing apparatus 100 according to the embodiment will be described. The processing for determining the position and size of the additional detection frame in the additional mode is not limited to the embodiment. For example, the user may input an additional instruction that specifies only the position, instead of the position and the size. A case in which a detection frame is desired to be added to the person B will be specifically described with reference to FIG. 7. The user clicks the center point 701 of the person B. The center point 701 may be any point near the center. On the other hand, the display processing unit 205 receives an additional instruction specifying the center point 701 as the position. Further, in this case, the display processing unit 205 automatically determines the size of the additional detection frame. The processing for determining the size includes the following. Note that this process is an example of the size determination process.

1つ目は、所定のサイズを追加検知枠のサイズとする処理である。すなわち、表示処理部205は、追加指示に係る位置に、予め定められたサイズの検知枠を追加検知枠として表示する。 The first is a process of setting a predetermined size as the size of the additional detection frame. That is, the display processing unit 205 displays a detection frame having a predetermined size as an additional detection frame at the position related to the addition instruction.

2つ目は、指定された位置に最も近い位置に存在する検知枠と同じサイズを追加検知枠のサイズとする処理である。表示処理部205は、追加指示に係る位置と、周囲の追加検知枠それぞれの中心点との距離を特定する。そして、表示処理部205は、最も近い位置に存在する検知枠のサイズと同じサイズの追加検知枠を表示する。 The second is a process of setting the size of the additional detection frame to the same size as the detection frame existing at the position closest to the specified position. The display processing unit 205 identifies the distance between the position related to the addition instruction and the center point of each of the surrounding additional detection frames. Then, the display processing unit 205 displays the additional detection frame having the same size as the size of the detection frame existing at the closest position.

3つ目は、指定された位置から所定の距離範囲内に中心点が存在する検知枠のサイズの平均値を追加検知枠のサイズとする処理である。表示処理部205は、追加指示に係る位置から所定の距離範囲内に中心点が存在する検知枠を特定する。そして、表示処理部205は、特定した検知枠のサイズの平均値を求め、この平均値のサイズの追加検知枠を表示する。例えば、図7の例では、所定の距離範囲である基準範囲710内に中心点が存在するのは、人物A及び人物Cの検知枠501、502である。そこで、表示処理部205は、検知枠501、502のサイズの平均値のサイズの追加検知枠700を表示する。 The third is a process of setting the average value of the sizes of the detection frames having the center point within a predetermined distance range from the designated position as the size of the additional detection frame. The display processing unit 205 identifies the detection frame in which the center point exists within a predetermined distance range from the position related to the addition instruction. Then, the display processing unit 205 obtains an average value of the sizes of the specified detection frames, and displays the additional detection frame having the size of this average value. For example, in the example of FIG. 7, it is in the detection frames 501 and 502 of the person A and the person C that the center point exists in the reference range 710 that is the predetermined distance range. Therefore, the display processing unit 205 displays the additional detection frame 700 having the average size of the detection frames 501 and 502.

4つ目は、対象画像中の複数の検知枠のサイズの傾向に合わせて追加検知枠のサイズを決める処理である。例えば、図8の例のように、人物Bの中心点801が指定された場合、表示処理部205は、まず修正ウインドウ500に表示されるすべての検知枠のサイズを特定し、サイズに応じて検知枠をグループ化する。例えば、表示処理部205は、複数の検知枠それぞれのサイズの分布からグループの数を求め、各グループに属する検知枠を特定する。そして、各グループに属する検知枠の中心点を結ぶ線を特定する。本処理は、線特定処理の一例である。そして、表示処理部205は、特定した線の中から、指定された位置からの距離が距離閾値以下となる線を選択し、選択した線で結ばれる検知枠のサイズの平均値を追加検知枠のサイズとして決定する。このように、表示処理部205は、特定した線と指定された位置との位置関係に基づいて一の線を選択し、選択した線で結ばれる検知枠のサイズに基づいて、追加検知枠のサイズを決定する。 The fourth is a process of determining the size of the additional detection frame according to the tendency of the sizes of the plurality of detection frames in the target image. For example, when the center point 801 of the person B is designated as in the example of FIG. 8, the display processing unit 205 first specifies the sizes of all the detection frames displayed in the correction window 500, and according to the size. Group detection windows. For example, the display processing unit 205 obtains the number of groups from the distribution of the sizes of the plurality of detection frames, and specifies the detection frames that belong to each group. Then, a line connecting the center points of the detection frames belonging to each group is specified. This processing is an example of line identification processing. Then, the display processing unit 205 selects, from the identified lines, a line whose distance from the specified position is equal to or less than the distance threshold, and determines the average value of the sizes of the detection frames connected by the selected line as the additional detection frame. To determine the size of. In this way, the display processing unit 205 selects one line based on the positional relationship between the specified line and the specified position, and based on the size of the detection frame connected by the selected line, the additional detection frame Determine the size.

図8の例では、検知枠501、502、503、504がグループ化され、各検知枠501、502、503、504の中心点を通る直線811が特定される。また、検知枠505、506、507、508、509がグループ化され、各検知枠505、506、507、508、509の中心点を通る直線812が特定される。指定された位置(中心点801)は、直線811から所定距離以下であるとする。また、検知枠505、506、507、508、509のサイズの平均値が「5」であるのに対し、検知枠501、502、503、504のサイズの平均値が「10」であるとする。この場合、表示処理部205は、追加検知枠のサイズを「10」に決定する。 In the example of FIG. 8, the detection frames 501, 502, 503, 504 are grouped, and a straight line 811 passing through the center points of the detection frames 501, 502, 503, 504 is specified. Further, the detection frames 505, 506, 507, 508, 509 are grouped, and a straight line 812 passing through the center points of the respective detection frames 505, 506, 507, 508, 509 is specified. It is assumed that the designated position (center point 801) is a predetermined distance or less from the straight line 811. Further, it is assumed that the average size of the detection frames 505, 506, 507, 508, 509 is “5”, whereas the average size of the detection frames 501, 502, 503, 504 is “10”. .. In this case, the display processing unit 205 determines the size of the additional detection frame to be “10”.

さらにこの場合、表示処理部205は、ユーザが指定した位置から、直線811上の位置(線上の位置)に移動した位置を、追加検知枠の中心点として決定してもよい。この場合、表示処理部205は、決定した、直線811上の位置を中心点とし、サイズ「10」の追加検知枠800を表示する。また、他の例としては、他の人物との位置関係等を考慮した場合に、中心点が直線811上に位置することがないことがわかっている場合がある。このような場合には、表示処理部205は、できるだけ直線811と中心点との距離が短くなるような位置を、追加検知枠の中心点として決定してもよい。この場合も、表示処理部205は、決定した位置を中心点として、追加検知枠800を表示する。 Further, in this case, the display processing unit 205 may determine the position moved from the position designated by the user to the position on the straight line 811 (the position on the line) as the center point of the additional detection frame. In this case, the display processing unit 205 displays the additional detection frame 800 of size “10” with the determined position on the straight line 811 as the center point. In addition, as another example, it may be known that the center point is not located on the straight line 811 in consideration of the positional relationship with other persons. In such a case, the display processing unit 205 may determine a position where the distance between the straight line 811 and the center point is as short as possible as the center point of the additional detection frame. Also in this case, the display processing unit 205 displays the additional detection frame 800 with the determined position as the center point.

さらに、表示処理部205は、直線811に応じて、追加検知枠800の表示をアニメーション等により移動させてもよい。例えば、表示処理部205は、まずユーザが指定した位置にサイズ「10」の追加検知枠800を表示する。そして、表示処理部205は、追加検知枠800を、ユーザが指定した位置から、直線811上の位置、又は直線811との距離が短くなるような位置まで移動させる。 Further, the display processing unit 205 may move the display of the additional detection frame 800 by animation or the like according to the straight line 811. For example, the display processing unit 205 first displays the additional detection frame 800 of size “10” at the position designated by the user. Then, the display processing unit 205 moves the additional detection frame 800 from the position designated by the user to a position on the straight line 811 or a position where the distance to the straight line 811 becomes short.

以上、上述した各実施形態によれば、検知された検知対象の個数を容易に訂正することができる。 As described above, according to the above-described embodiments, the number of detected detection targets can be easily corrected.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the preferred embodiments of the present invention have been described above in detail, the present invention is not limited to the specific embodiments, and various modifications are possible within the scope of the gist of the present invention described in the claims. -Can be changed.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 画像処理装置
101 CPU
107 入力部
108 表示部
203 検知部
205 表示処理部
100 image processing apparatus 101 CPU
107 input unit 108 display unit 203 detection unit 205 display processing unit

Claims (19)

撮像手段により撮像された画像を取得する取得手段と、
記画像から検知された検知対象に対応する第1マークを重畳した前記画像と、前記画像に重畳された前記第1マークの数を示す数字とを表示手段に表示させる表示制御手段とを有し、
前記表示制御手段は、前記画像に重畳されるマークを追加するユーザ操作を受け付けた場合、前記検知対象に対応する前記第1マークと前記ユーザ操作に従って追加される第2マークとが重畳された前記画像と、前記画像に重畳された前記第1マークおよび前記第2マークの数の合計に対応する数字とを前記表示手段に表示させることを特徴とする画像処理装置。
Acquisition means for acquiring an image captured by the imaging means,
Yes and the image obtained by superimposing the first mark corresponding to the detected object is detected from the previous SL image, and a display control means for displaying on the display unit and a number indicating the number of the first mark superimposed on said image Then
When the display control means receives a user operation of adding a mark to be superimposed on the image, the first mark corresponding to the detection target and the second mark added according to the user operation are superimposed. An image processing apparatus for displaying an image and a number corresponding to the total number of the first mark and the second mark superimposed on the image on the display means .
前記表示制御手段は、前記画像に重畳された前記第1マークまたは前記第2マークのうち少なくとも1つを削除する対象として指定するユーザ操作を受け付けた場合、削除する対象として指定された前記第1マークまたは前記第2マークが削除された前記画像と、前記ユーザ操作に従って指定された前記第1マークまたは前記第2マーク以外の前記画像に重畳された前記第1マークおよび前記第2マークの数の合計に対応する数字とを前記表示手段に表示させることを特徴とする請求項1に記載の画像処理装置。When the display control unit receives a user operation that designates at least one of the first mark and the second mark superimposed on the image as a target to be deleted, the display control unit specifies the first target to be deleted. The number of the first mark and the second mark superimposed on the image other than the first mark or the second mark designated according to the user operation, and the image in which the mark or the second mark is deleted. The image processing apparatus according to claim 1, wherein a number corresponding to the total is displayed on the display unit. 前記表示制御手段は、前記画像上の検知対象に対応する位置に前記第1マークが重畳された前記画像を前記表示手段に表示させることを特徴とする請求項1又は2に記載の画像処理装置。 Wherein the display control unit, an image processing apparatus according to claim 1 or 2, characterized in that for displaying the image of the first mark is superimposed at a position corresponding to the detection target on the image on the display means .. ユーザ操作に従って追加される前記第2マークのサイズは、ユーザにより指定されたサイズであることを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 The size of the second mark to be added in accordance with user operation, the image processing apparatus according to any one of claims 1 to 3, characterized in that it is the size specified by the user. ユーザ操作に従って追加される前記第2マークのサイズは、予め定められたサイズであることを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 The added according to a user operation size of the second mark, the image processing apparatus according to any one of claims 1 to 3, characterized in that it is a predetermined size. 記画像上の位置が指定された前記第2マークを追加するユーザ操作を受け付けた場合に、前記画像上の前記位置に最も近い位置に存在する前記第1マークのサイズを前記第2マークのサイズとして決定するサイズ決定手段をさらに有し、
前記表示制御手段は、前記サイズ決定手段により決定されたサイズの前記第2マークを前記画像上に重畳することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
When the position on the front Symbol image accepts a user operation of adding the specified second mark, the size of the first mark which exists at a position closest to the position on the image of the second mark Further having a size determining means for determining the size,
Wherein the display control unit, an image processing apparatus according to any one of claims 1 to 3, characterized in that superimposes the second mark of the determined size by said size determining unit on the image.
記画像上の位置が指定された前記第2マークを追加するユーザ操作を受け付けた場合に、前記画像上の前記位置を基準とした基準範囲に存在する前記第1マークのサイズに基づいて、前記第2マークのサイズを決定するサイズ決定手段をさらに有し、
前記表示制御手段は、前記サイズ決定手段により決定されたサイズの前記第2マークを前記画像上に重畳することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
When receiving a user operation of adding the second mark position on the front Symbol image is specified, based on the size of the first mark present in the reference range with respect to the position on the image, Further comprising size determining means for determining the size of the second mark,
Wherein the display control unit, an image processing apparatus according to any one of claims 1 to 3, characterized in that superimposes the second mark of the determined size by said size determining unit on the image.
前記サイズ決定手段は、前記基準範囲に存在する前記第1マークのサイズの平均値を前記第2マークのサイズとして決定することを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 7 , wherein the size determination unit determines an average value of the sizes of the first marks existing in the reference range as the size of the second marks. 前記画像中の前記第1マークを、前記第1マークのサイズに応じてグループ化し、各グループの前記第1マークを結ぶ線を特定する線特定手段と、
記画像上の位置が指定された前記第2マークを追加するユーザ操作を受け付けた場合に、前記画像上の前記位置と、前記線と、の位置関係に基づいて一の線を選択し、選択した線で結ばれる前記第1マークのサイズを前記第2マークのサイズとして決定するサイズ決定手段と
をさらに有し、
前記表示制御手段は、前記サイズ決定手段により決定されたサイズの前記第2マークを表示させることを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
The first mark in the image, grouped according to the size of the first mark, the line identifying means for identifying a line connecting the first mark of each group,
When the position on the front Symbol image accepts a user operation of adding a second mark that is specified by selecting one of the lines on the basis of said position on said image, the positional relationship between the line, A size determining unit that determines the size of the first mark connected by the selected line as the size of the second mark,
Wherein the display control unit, an image processing apparatus according to any one of claims 1 to 3, wherein the displaying the second mark of size determined by the size determination means.
前記表示制御手段は、前記サイズ決定手段により選択された線上の位置を前記第2マークの中心点の位置として決定し、前記中心点の位置に基づいて、前記第2マークを表示させることを特徴とする請求項に記載の画像処理装置。 Wherein the display control unit, said determining the position of the selected lines by size determination means as the position of the center point of the second mark based on the position of the center point, characterized in that for displaying the second mark The image processing apparatus according to claim 9 . 前記表示制御手段は、前記サイズ決定手段により選択された線との距離が、ユーザ操作に応じて定まる位置に比べて短くなるような位置を前記第2マークの中心点の位置として決定し、前記中心点の位置に基づいて、前記第2マークを表示させることを特徴とする請求項に記載の画像処理装置。 The display control unit determines, as the position of the center point of the second mark, a position such that the distance to the line selected by the size determination unit becomes shorter than a position determined according to a user operation, The image processing apparatus according to claim 9 , wherein the second mark is displayed based on the position of the center point. 前記表示制御手段は、前記画像上の位置が指定された前記第2マークを追加するユーザ操作を受け付けた場合に、指定された前記位置に対応させて前記第2マークを表示させることを特徴とする請求項1乃至11の何れか1項に記載の画像処理装置。 Wherein the display control unit, characterized in that the position on the front Symbol image when receiving a user operation of adding a second mark that is designated to display the second mark in correspondence to said designated location The image processing apparatus according to any one of claims 1 to 11 . 撮像手段により撮像された画像を取得する取得手段と、Acquisition means for acquiring an image captured by the imaging means,
前記画像から検知された検知対象に対応する第1マークを重畳した前記画像と、前記画像に重畳された前記第1マークの数に対応する数字とを表示手段に表示させる表示制御手段とを有し、A display control unit that causes the display unit to display the image on which the first mark corresponding to the detection target detected from the image is superimposed and the number corresponding to the number of the first marks superimposed on the image. Then
前記表示制御手段は、前記画像に重畳された前記第1マークのうち少なくとも1つを削除する対象として指定するユーザ操作を受け付けた場合、前記画像に重畳された前記第1マークのうち前記ユーザ操作に従って指定された前記第1マークが削除された前記画像と、前記ユーザ操作に従って指定された前記第1マーク以外の前記画像に重畳された前記第1マークの数に対応する数字とを前記表示手段に表示させることを特徴とする画像処理装置。When the display control unit receives a user operation that specifies at least one of the first marks superimposed on the image as a target to be deleted, the user operation of the first marks superimposed on the image is performed. The image in which the first mark designated in accordance with the above is deleted, and a number corresponding to the number of the first marks superimposed on the image other than the first mark designated in accordance with the user operation. An image processing device characterized by being displayed on.
前記画像から前記検知対象を検知する検知手段をさらに有し、
前記表示制御手段は、前記検知手段により検知された前記検知対象に対応させて前記第1マークを前記画像上に重畳することを特徴とする請求項1乃至13の何れか1項に記載の画像処理装置。
Further comprising detection means for detecting the detection target from the image,
Wherein the display control unit, an image according to any one of claims 1 to 13, characterized in that superimposed the first mark in correspondence with the detection target detected by the detecting means on the image Processing equipment.
前記検知対象は、物体であることを特徴とする請求項1乃至14の何れか1項に記載の画像処理装置。 The detection target is an image processing apparatus according to any one of claims 1 to 14, characterized in that it is a object. 前記検知対象は、人物であることを特徴とする請求項15に記載の画像処理装置。 The image processing apparatus according to claim 15 , wherein the detection target is a person. 撮像手段により撮像された画像を取得する取得工程と、
記画像から検知された検知対象に対応する第1マークを重畳した前記画像と、前記画像に重畳された前記第1マークの数を示す数字とを表示手段に表示させる第1表示制御工程と、
前記画像に重畳されるマークを追加するユーザ操作を受け付けた場合、前記検知対象に対応する前記第1マークと前記ユーザ操作に従って追加される第2マークとが重畳された前記画像と、前記画像に重畳された前記第1マークおよび前記第2マークの数の合計に対応する数字とを前記表示手段に表示させる第2表示制御工程と
を含むことを特徴とする画像処理方法。
An acquisition step of acquiring an image captured by the imaging means,
And the image obtained by superimposing the first mark corresponding to the detected object is detected from the previous SL image, a first display control step of displaying on the display unit and a number indicating the number of the first mark superimposed on said image ,
When a user operation of adding a mark to be superimposed on the image is accepted, the image on which the first mark corresponding to the detection target and the second mark added according to the user operation are superimposed, and the image. A second display control step of causing the display means to display a number corresponding to the total number of the first marks and the second marks that have been superimposed.
Image processing method, which comprises a.
撮像手段により撮像された画像を取得する取得工程と、An acquisition step of acquiring an image captured by the imaging means,
前記画像から検知された検知対象に対応する第1マークを重畳した前記画像と、前記画像に重畳された前記第1マークの数に対応する数字とを表示手段に表示させる第1表示制御工程と、A first display control step of displaying on the display means the image on which the first mark corresponding to the detection target detected from the image is superimposed, and the number corresponding to the number of the first marks superimposed on the image. ,
前記画像に重畳された前記第1マークのうち少なくとも1つを削除する対象として指定するユーザ操作を受け付けた場合、前記画像に重畳された前記第1マークのうち前記ユーザ操作に従って指定された前記第1マークが削除された前記画像と、前記ユーザ操作に従って指定された前記第1マーク以外の前記画像に重畳された前記第1マークの数に対応する数字とを前記表示手段に表示させる第2表示制御工程とWhen a user operation of designating at least one of the first marks superimposed on the image as a target to be deleted is received, the first mark of the first marks superimposed on the image designated according to the user operation is received. A second display that causes the display means to display the image in which one mark is deleted and a number corresponding to the number of the first marks superimposed on the image other than the first mark designated according to the user operation. Control process
を含むことを特徴とする画像処理方法。An image processing method comprising:
コンピュータを、請求項1乃至16の何れか1項に記載の画像処理装置の各手段として、機能させるためのプログラム。 A program for causing a computer to function as each unit of the image processing apparatus according to claim 1.
JP2016100669A 2016-05-19 2016-05-19 Image processing apparatus, image processing method and program Active JP6736348B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016100669A JP6736348B2 (en) 2016-05-19 2016-05-19 Image processing apparatus, image processing method and program
US15/588,355 US10475221B2 (en) 2016-05-19 2017-05-05 Image processing device, image processing method and program for detected objects
US16/653,304 US10922864B2 (en) 2016-05-19 2019-10-15 Image processing device, image processing method and program, for object detection in an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016100669A JP6736348B2 (en) 2016-05-19 2016-05-19 Image processing apparatus, image processing method and program

Publications (3)

Publication Number Publication Date
JP2017207972A JP2017207972A (en) 2017-11-24
JP2017207972A5 JP2017207972A5 (en) 2019-06-20
JP6736348B2 true JP6736348B2 (en) 2020-08-05

Family

ID=60417295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016100669A Active JP6736348B2 (en) 2016-05-19 2016-05-19 Image processing apparatus, image processing method and program

Country Status (1)

Country Link
JP (1) JP6736348B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113903036B (en) * 2021-11-10 2023-11-03 北京百度网讯科技有限公司 Text recognition method and device, electronic equipment, medium and product
CN114356189A (en) * 2021-12-16 2022-04-15 苏州镁伽科技有限公司 Editing method and device for panel image to be detected, electronic equipment and storage medium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281605A (en) * 1996-04-15 1997-10-31 Fuji Photo Film Co Ltd Image recorder
JP4440164B2 (en) * 2005-04-22 2010-03-24 富士フイルム株式会社 Photo movie creation device and photo movie creation program
JP4916403B2 (en) * 2007-08-30 2012-04-11 キヤノン株式会社 Image processing apparatus and control method thereof
JP5213620B2 (en) * 2008-10-01 2013-06-19 キヤノン株式会社 Image processing apparatus and image processing method
JP5261769B2 (en) * 2009-02-19 2013-08-14 株式会社ザクティ Imaging apparatus and group photo shooting support program
JP2013093639A (en) * 2010-03-03 2013-05-16 Panasonic Corp Vehicle periphery monitoring device
JP2012160950A (en) * 2011-02-01 2012-08-23 Nikon Corp Image processing device, imaging device, and display device
KR20160033800A (en) * 2014-09-17 2016-03-29 삼성전자주식회사 Method for counting person and counting apparatus
US10373021B2 (en) * 2015-03-19 2019-08-06 Nec Corporation Object detection device, object detection method, and recording medium

Also Published As

Publication number Publication date
JP2017207972A (en) 2017-11-24

Similar Documents

Publication Publication Date Title
US9767563B2 (en) Image processing apparatus and method for obtaining position and orientation of imaging apparatus
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6639091B2 (en) Display control device and display control method
JP6311764B2 (en) Automatic measurement of objects in images
JP6716996B2 (en) Image processing program, image processing apparatus, and image processing method
US8306359B2 (en) Method, terminal, and computer-readable recording medium for trimming a piece of image content
JP2015179984A (en) Image processing apparatus, and method and program therefor
US9536164B2 (en) Setting apparatus and setting method
JP7085812B2 (en) Image processing device and its control method
KR20120010875A (en) Apparatus and Method for Providing Recognition Guide for Augmented Reality Object
JP2016224919A (en) Data browsing device, data browsing method, and program
JP6736348B2 (en) Image processing apparatus, image processing method and program
JP4345755B2 (en) Input position setting method, input position setting device, input position setting program, and information input system
US10930068B2 (en) Estimation apparatus, estimation method, and non-transitory computer-readable storage medium for storing estimation program
JP2018029270A (en) Image processing apparatus, control method thereof, imaging apparatus, and program
JP6765884B2 (en) Information processing equipment, information processing methods and programs
US10922864B2 (en) Image processing device, image processing method and program, for object detection in an image
JP2020098575A (en) Image processor, method for processing information, and image processing program
US9805245B2 (en) Image resolution recognition device, method for recognizing image resolution and image resolution recognition program
JP6723822B2 (en) Image processing apparatus, image processing method and program
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
JP2022095121A (en) Image processing device, image processing method and program
KR101911676B1 (en) Apparatus and Method for Presentation Image Processing considering Motion of Indicator
JP6378740B2 (en) Information processing apparatus and control method thereof
JP6663105B2 (en) Projection apparatus, projection program and projection method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200715

R151 Written notification of patent or utility model registration

Ref document number: 6736348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151