JP2013186838A - Generation device, generation program, and generation method - Google Patents

Generation device, generation program, and generation method Download PDF

Info

Publication number
JP2013186838A
JP2013186838A JP2012053767A JP2012053767A JP2013186838A JP 2013186838 A JP2013186838 A JP 2013186838A JP 2012053767 A JP2012053767 A JP 2012053767A JP 2012053767 A JP2012053767 A JP 2012053767A JP 2013186838 A JP2013186838 A JP 2013186838A
Authority
JP
Japan
Prior art keywords
image
person
generation
unit
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012053767A
Other languages
Japanese (ja)
Other versions
JP6007523B2 (en
Inventor
Kentaro Tsuji
健太郎 辻
Eigo Segawa
英吾 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012053767A priority Critical patent/JP6007523B2/en
Publication of JP2013186838A publication Critical patent/JP2013186838A/en
Application granted granted Critical
Publication of JP6007523B2 publication Critical patent/JP6007523B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable behavior of a photographed person to be easily grasped while suppressing violation of the person's portrait right and privacy.SOLUTION: A generation device 10 comprises an extraction unit 15b, a change unit 15c, and a generation unit 15d. The extraction unit 15b extracts a feature point from an image area of a person in an image. The change unit 15c changes the image area of the person to another image. The generation unit 15d overlaps the other image and the feature point to generate an image.

Description

本発明は、生成装置、生成プログラムおよび生成方法に関する。   The present invention relates to a generation device, a generation program, and a generation method.

オフィス、ショッピングセンター、商店街など様々な場所に、カメラを設置し、カメラで撮影された映像が、防犯、マーケティング、サービスなど様々な目的で用いられる。例えば、ショッピングセンター、商店街などに設置されたカメラによって撮影された映像は、利用者がどのような経路を移動し、どのような商品を手に取ったかなどの解析に用いられる。そして、解析の結果は、商品の陳列方法の改善などに利用される。   Cameras are installed in various places such as offices, shopping centers, and shopping streets, and images taken with the cameras are used for various purposes such as crime prevention, marketing, and services. For example, an image captured by a camera installed in a shopping center, a shopping street, or the like is used for analysis of what route the user has moved and what product has been picked up. The analysis result is used to improve the display method of the product.

ここで、カメラによって撮影された人物の肖像権やプライバシーの侵害が問題となる可能性がある。そこで、従来、撮影した画像に含まれる人物の顔画像を抽出し、抽出した顔画像にモザイクをかける技術がある。   Here, infringement of portrait rights and privacy of a person photographed by a camera may be a problem. Therefore, conventionally, there is a technique of extracting a face image of a person included in a photographed image and applying a mosaic to the extracted face image.

また、従来、撮影した画像に含まれる人物全体の領域を抽出し、抽出した人物全体の領域にモザイクをかける技術がある。   Conventionally, there is a technique for extracting an entire area of a person included in a photographed image and applying a mosaic to the extracted entire area of the person.

特開2000−000216号公報JP 2000-000216 A 特開2004−062560号公報JP 2004-062560 A

しかしながら、上記の従来の技術では、撮影された人物の肖像権やプライバシーの侵害を抑制しつつ、人物の行動を把握することが困難であるという問題がある。   However, the above-described conventional technology has a problem that it is difficult to grasp the behavior of a person while suppressing infringement of portrait rights and privacy of the photographed person.

例えば、顔画像にモザイクをかける従来の技術では、顔画像にモザイクがかけられたところで、人物の服装や体型から個人を特定することができる場合がある。このため、顔画像にモザイクをかける従来の技術では、撮影された人物の肖像権やプライバシーの侵害となる場合がある。   For example, in the conventional technique for applying a mosaic to a face image, there may be a case where an individual can be identified from the clothes and body shape of the person when the mosaic is applied to the face image. For this reason, the conventional technique for applying a mosaic to a face image may infringe the portrait rights or privacy of the photographed person.

また、人物全体の領域にモザイクをかける従来の技術では、人物全体の領域にモザイクがかかるため、人物の行動が把握することが困難である。   In addition, in the conventional technique of applying a mosaic to the entire area of the person, it is difficult to grasp the action of the person because the mosaic is applied to the entire area of the person.

開示の技術は、上記に鑑みてなされたものであって、撮影された人物の肖像権やプライバシーの侵害を抑制しつつ、人物の行動を容易に把握することができる生成装置、生成プログラムおよび生成方法を提供することを目的とする。   The disclosed technology has been made in view of the above, and a generation device, a generation program, and a generation that can easily grasp a person's behavior while suppressing infringement of portrait rights and privacy of a photographed person It aims to provide a method.

本願の開示する生成装置は、抽出部と、変更部と、生成部とを有する。抽出部は、画像内の人物の画像領域から特徴点を抽出する。変更部は、人物の画像領域を他の画像に変更する。生成部は、他の画像と、特徴点とを重ね合わせて画像を生成する。   The generation device disclosed in the present application includes an extraction unit, a change unit, and a generation unit. The extraction unit extracts feature points from an image area of a person in the image. The changing unit changes the image area of the person to another image. The generation unit generates an image by superimposing other images and feature points.

本願の開示する生成装置の一つの態様によれば、撮影された人物の肖像権やプライバシーの侵害を抑制しつつ、人物の行動を容易に把握することができる。   According to one aspect of the generating device disclosed in the present application, it is possible to easily grasp the behavior of a person while suppressing infringement of portrait rights and privacy of the photographed person.

図1は、実施例1に係る生成装置を有するシステムのシステム構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a system configuration of a system including a generation apparatus according to the first embodiment. 図2Aは、人物および背景が黒色に塗りつぶされ、人物の特徴点が人物に重ね合わされた画像が時系列に沿って表示された場合の一例を示す図である。FIG. 2A is a diagram illustrating an example in which an image in which a person and a background are painted black and a person's feature points are superimposed on the person is displayed in time series. 図2Bは、人物および背景が黒色に塗りつぶされ、人物の特徴点が人物に重ね合わされた画像が時系列に沿って表示された場合の一例を示す図である。FIG. 2B is a diagram illustrating an example in which an image in which a person and a background are painted black and a person's feature points are superimposed on the person is displayed in time series. 図3は、画像データに含まれるフレームの一例を示す図である。FIG. 3 is a diagram illustrating an example of a frame included in the image data. 図4は、人物領域の検出方法の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of a person region detection method. 図5は、実施例1に係る生成装置が実行する処理の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of processing executed by the generation apparatus according to the first embodiment. 図6は、実施例1に係る生成装置が実行する処理の一例を説明するための図である。FIG. 6 is a schematic diagram illustrating an example of a process executed by the generation apparatus according to the first embodiment. 図7は、実施例1に係る生成装置が実行する処理の一例を示す図である。FIG. 7 is a diagram illustrating an example of processing executed by the generation apparatus according to the first embodiment. 図8は、実施例1に係る生成処理の手順を示すフローチャートである。FIG. 8 is a flowchart illustrating the procedure of the generation process according to the first embodiment. 図9は、実施例1に係る他の生成処理の手順を示すフローチャートである。FIG. 9 is a flowchart illustrating a procedure of another generation process according to the first embodiment. 図10は、実施例2に係る生成装置を有するシステムのシステム構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of a system configuration of a system including the generation apparatus according to the second embodiment. 図11は、実施例2に係る生成装置が実行する処理の一例を説明するための図である。FIG. 11 is a schematic diagram illustrating an example of a process executed by the generation apparatus according to the second embodiment. 図12は、実施例2に係る生成装置が実行する処理の一例を説明するための図である。FIG. 12 is a schematic diagram illustrating an example of a process executed by the generation apparatus according to the second embodiment. 図13は、実施例2に係る生成処理の手順を示すフローチャートである。FIG. 13 is a flowchart illustrating the procedure of the generation process according to the second embodiment. 図14は、実施例3に係る生成装置を有するシステムのシステム構成の一例を示す図である。FIG. 14 is a diagram illustrating an example of a system configuration of a system including the generation apparatus according to the third embodiment. 図15は、実施例3に係る生成処理の手順を示すフローチャートである。FIG. 15 is a flowchart illustrating the procedure of the generation process according to the third embodiment. 図16は、実施例4に係る生成装置を有するシステムのシステム構成の一例を示す図である。FIG. 16 is a diagram illustrating an example of a system configuration of a system including the generation apparatus according to the fourth embodiment. 図17は、実施例4に係る生成処理の手順を示すフローチャートである。FIG. 17 is a flowchart illustrating the procedure of the generation process according to the fourth embodiment. 図18は、生成プログラムを実行するコンピュータを示す図である。FIG. 18 is a diagram illustrating a computer that executes a generation program.

以下に、本願の開示する生成装置、生成プログラムおよび生成方法の各実施例を図面に基づいて詳細に説明する。なお、実施例は開示の技術を限定するものではない。   Hereinafter, embodiments of a generation apparatus, a generation program, and a generation method disclosed in the present application will be described in detail with reference to the drawings. The embodiments do not limit the disclosed technology.

[生成装置10を有するシステムのシステム構成]
実施例に係る生成装置について説明する。図1は、実施例1に係る生成装置を有するシステムのシステム構成の一例を示す図である。システム1は、カメラ20および生成装置10を有する。カメラ20は、人物を撮影可能な場所に設置される。例えば、カメラ20は、オフィス、ショッピングセンター、商店街などの場所に設置される。カメラ20で撮影された映像は、防犯、マーケティング、サービスなど様々な目的で用いられる。カメラ20は、撮影した動画像の映像を、フレームごとに生成装置10に出力する。
[System Configuration of System Having Generating Device 10]
A generation apparatus according to an embodiment will be described. FIG. 1 is a diagram illustrating an example of a system configuration of a system including a generation apparatus according to the first embodiment. The system 1 includes a camera 20 and a generation device 10. The camera 20 is installed in a place where a person can be photographed. For example, the camera 20 is installed in places such as an office, a shopping center, and a shopping street. Images taken by the camera 20 are used for various purposes such as crime prevention, marketing, and services. The camera 20 outputs the captured video image to the generation device 10 for each frame.

生成装置10は、カメラ20で撮影された映像の各画像内の人物の画像領域から特徴点を抽出する。また、生成装置10は、人物の画像領域を、他の画像、例えば、所定の色に塗りつぶされた画像に変更する。そして、生成装置10は、他の画像と、特徴点とを重ね合わせて画像を生成する。続いて、生成装置10は、生成した画像を時系列に沿って表示するように、後述の表示部12の表示を制御する。   The generation apparatus 10 extracts feature points from an image area of a person in each image of a video photographed by the camera 20. Further, the generation device 10 changes the image area of the person to another image, for example, an image painted in a predetermined color. And the production | generation apparatus 10 superimposes another image and a feature point, and produces | generates an image. Subsequently, the generation device 10 controls display on the display unit 12 described later so that the generated image is displayed in time series.

ここで、このようにして生成された画像が、時系列に沿って表示された場合には、人は、表示内容から、画像中の人物がどのような行動をとったか把握することができる。これは、人は、二次元上に配置された複数の特徴点が動いている場合に、特徴点の動きから、特徴点を三次元の各平面に投影させて、二次元の人物の動きを、三次元の人物の動きに変換して考えることができるからである。例えば、人物の体を10個くらいの特徴点で表現していても、人は、各点の動きから、どの点が手の部分で、どの点が足の部分であるのかを判断し、人物がどのように動いているかを把握することができる。そのため、人物全体が、所定の色、例えば、黒色の塗りつぶされた画像に変換された画像であっても、特徴点が表示されることで、人は、人物がどのように動いているかを把握することができる。   Here, when the image generated in this way is displayed in chronological order, the person can grasp what action the person in the image took from the display content. This is because, when a plurality of feature points arranged in two dimensions are moving, a person projects the feature points on each three-dimensional plane from the movement of the feature points, thereby This is because it can be converted into the movement of a three-dimensional person. For example, even if a person's body is expressed by about 10 feature points, the person determines which point is the hand part and which point is the foot part from the movement of each point. Can understand how is moving. Therefore, even if the entire person is an image converted into a predetermined color, for example, a black painted image, the feature point is displayed so that the person can grasp how the person moves. can do.

図2Aおよび図2Bは、人物および背景が黒色に塗りつぶされ、人物の特徴点が人物に重ね合わされた画像が時系列に沿って表示された場合の一例を示す図である。図2Aおよび図2Bの例に示す画像から、人物がどのように動いているかを把握することができる。   FIGS. 2A and 2B are diagrams illustrating an example in which an image in which a person and a background are painted black and a person's feature points are superimposed on the person is displayed in time series. From the images shown in the examples of FIGS. 2A and 2B, it can be understood how the person is moving.

図1に示すように、生成装置10は、入力部11と、表示部12と、通信部13と、記憶部14と、制御部15とを有する。   As illustrated in FIG. 1, the generation device 10 includes an input unit 11, a display unit 12, a communication unit 13, a storage unit 14, and a control unit 15.

入力部11は、各種情報を制御部15に入力する。例えば、入力部11は、ユーザから、各種の指示を受け付けて、受け付けた指示を制御部15に入力する。入力部11のデバイスの一例としては、マウスやキーボードなどのユーザの操作を受け付けるデバイスなどが挙げられる。   The input unit 11 inputs various information to the control unit 15. For example, the input unit 11 receives various instructions from the user and inputs the received instructions to the control unit 15. As an example of the device of the input unit 11, there is a device that accepts a user operation such as a mouse or a keyboard.

表示部12は、各種の情報を出力する。例えば、表示部12は、後述の表示制御部15eの制御により、人物領域が所定の色に塗りつぶされた画像と、人物の特徴点とが重ね合わせられた画像を時系列に沿って表示する。表示部12のデバイスの一例としては、液晶ディスプレイなどが挙げられる。   The display unit 12 outputs various information. For example, the display unit 12 displays an image in which a person region is painted in a predetermined color and an image in which a person's feature points are overlapped in time series under the control of a display control unit 15e described later. An example of the device of the display unit 12 is a liquid crystal display.

通信部13は、通信を行うためのインターフェースである。例えば、通信部13は、カメラ20から、動画像の映像を、フレームごとに受信すると、受信した各フレームを生成装置10に出力する。   The communication unit 13 is an interface for performing communication. For example, when the communication unit 13 receives a video of a moving image from the camera 20 for each frame, the communication unit 13 outputs each received frame to the generation device 10.

記憶部14は、各種情報を記憶する。例えば、記憶部14は、画像データ14aを記憶する。   The storage unit 14 stores various information. For example, the storage unit 14 stores image data 14a.

画像データ14aは、後述の生成部15dにより生成されるデータである。画像データ14aは、人物領域が所定の色に塗りつぶされた画像と、人物の特徴点とが重ね合わせられた各フレームを含む動画像のデータである。   The image data 14a is data generated by a generation unit 15d described later. The image data 14a is data of a moving image including each frame in which an image in which a person area is filled with a predetermined color and a person feature point are superimposed.

図3は、画像データに含まれるフレームの一例を示す図である。図3の例では、人物21の領域22が、所定の色、例えば、青に塗りつぶされた画像と、人物の複数の特徴点23とが重ね合わされた画像24のフレームを示す。このような画像が時系列に沿って表示された場合には、人は、人物21がどのように動いているかを把握することができる。   FIG. 3 is a diagram illustrating an example of a frame included in the image data. In the example of FIG. 3, the region 22 of the person 21 indicates a frame of an image 24 in which an image painted in a predetermined color, for example, blue, and a plurality of feature points 23 of the person are superimposed. When such an image is displayed in chronological order, the person can grasp how the person 21 is moving.

記憶部14は、例えば、フラッシュメモリなどの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置である。なお、記憶部14は、上記の種類の記憶装置に限定されるものではなく、RAM(Random Access Memory)、ROM(Read Only Memory)であってもよい。   The storage unit 14 is, for example, a semiconductor memory device such as a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 14 is not limited to the above type of storage device, and may be a RAM (Random Access Memory) or a ROM (Read Only Memory).

制御部15は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。図1に示すように、制御部15は、取得部15aと、抽出部15bと、変更部15cと、生成部15dと、表示制御部15eとを有する。   The control unit 15 has an internal memory for storing programs defining various processing procedures and control data, and executes various processes using these. As shown in FIG. 1, the control unit 15 includes an acquisition unit 15a, an extraction unit 15b, a change unit 15c, a generation unit 15d, and a display control unit 15e.

取得部15aは、通信部13から出力されたフレームを取得する。取得したフレームは、抽出部15bおよび変更部15cの各部での処理に用いられる。   The acquisition unit 15a acquires the frame output from the communication unit 13. The acquired frame is used for processing in each unit of the extraction unit 15b and the change unit 15c.

抽出部15bは、画像内の人物の画像領域から特徴点を抽出する。具体例を挙げて説明すると、抽出部15bは、取得部15aによって取得されたフレームごとに、すなわち、人物を撮影した動画像のフレームごとに、1フレーム内の人物の画像領域から特徴点を抽出する。   The extraction unit 15b extracts feature points from an image area of a person in the image. Explaining with a specific example, the extraction unit 15b extracts feature points from the image area of a person in one frame for each frame acquired by the acquisition unit 15a, that is, for each frame of a moving image obtained by photographing a person. To do.

例えば、抽出部15bは、まず、取得部15aによって取得されたフレームごとに、人物の領域(画像領域)である人物領域を検出する。ここで、人物領域の検出方法の一例について説明する。図4は、人物領域の検出方法の一例を説明するための図である。図4の例に示すように、人物21がいない状態の画像(背景画像)を予め記憶部14に記憶しておき、抽出部15bは、フレームと背景画像との各画素の輝度値を比較し、輝度値の差が閾値を超えた画素の集合を人物領域22として検出することができる。また、抽出部15bは、特開2006−079832号公報に記載されているような手法により、人物領域を検出することもできる。すなわち、抽出部15bは、フレームの画像中から人物の顔を検出し、検出した顔の大きさや位置とカメラの位置、向きなどから画像中での人物の体部分の範囲を検出し、検出した顔部分および体部分の領域を人物領域として検出することもできる。また、抽出部15bは、他の公知の技術を用いて、人物領域を検出することもできる。   For example, the extraction unit 15b first detects a person region that is a person region (image region) for each frame acquired by the acquisition unit 15a. Here, an example of a person region detection method will be described. FIG. 4 is a diagram for explaining an example of a person region detection method. As shown in the example of FIG. 4, an image (background image) in the absence of the person 21 is stored in the storage unit 14 in advance, and the extraction unit 15b compares the luminance values of the pixels of the frame and the background image. A set of pixels whose luminance value difference exceeds a threshold value can be detected as the person region 22. In addition, the extraction unit 15b can also detect a person region by a method described in Japanese Patent Application Laid-Open No. 2006-077982. That is, the extraction unit 15b detects the face of a person from the image of the frame, detects the range of the body part of the person in the image from the size and position of the detected face, the position and orientation of the camera, and the like. It is also possible to detect the area of the face part and the body part as a person area. Further, the extraction unit 15b can also detect a person region using another known technique.

そして、抽出部15bは、人物領域内の特徴点を抽出する。特徴点を抽出する方法について、例を挙げて説明する。例えば、抽出部15bは、画像上のコントラストが大きいエッジ点を利用して特徴点を抽出することができる。この特徴点の抽出方法は、例えば、「“ロボットビジョン” pp51−76、4.2 エッジ検出法、谷内田雅彦著」に記載されている。すなわち、抽出部15bは、ソーベルオペレータなどによって画像をエッジ画像に変換し、ある範囲内でエッジ強度が周囲より大きいものだけを残すことで特徴点を抽出することができる。   And the extraction part 15b extracts the feature point in a person area. A method for extracting feature points will be described with an example. For example, the extraction unit 15b can extract feature points using edge points with high contrast on the image. This feature point extraction method is described in, for example, ““ Robot Vision ”pp51-76, 4.2 Edge Detection Method, Masahiko Taniuchi”. That is, the extraction unit 15b can extract a feature point by converting an image into an edge image by a Sobel operator or the like, and leaving only those whose edge strength is larger than the surrounding area within a certain range.

また、抽出部15bは、テンプレート画像と類似した点を特徴点として抽出することができる。この特徴点の抽出方法は、例えば、「“ロボットビジョン” pp104−106、6.1.1 テンプレート照合法、谷内田雅彦著」に記載されている。すなわち、抽出部15bは、同一の輝度を有する所定のテンプレート画像を利用して、人物領域の全領域に対して正規化相関によりテンプレート画像との類似度を算出し、類似度が所定値を超えた点を特徴点として検出することができる。   The extraction unit 15b can extract points similar to the template image as feature points. This feature point extraction method is described in, for example, ““ Robot Vision ”pp104-106, 6.1.1 Template Matching Method, Masahiko Taniuchi”. That is, the extraction unit 15b uses a predetermined template image having the same brightness to calculate a similarity with the template image by normalization correlation for all areas of the person area, and the similarity exceeds a predetermined value. Can be detected as feature points.

また、抽出部15bは、画像からSHIFT特徴量を算出し、算出したSHIFT特徴量が閾値を超えた人物領域内の点を特徴点として検出することもできる。この特徴点の抽出方法は、例えば、「D.Lowe. “Distinctive image features from scale invariant keypoints”, Proc. of International Journal of Computer Vision (IJCV), 60(2), pp.91-110, 2004.」に記載されている。   The extraction unit 15b can also calculate a SHIFT feature value from the image, and detect a point in the person area where the calculated SHIFT feature value exceeds a threshold value as a feature point. This feature point extraction method is described, for example, in “D. Lowe.“ Distinctive image features from scale invariant keypoints ”, Proc. Of International Journal of Computer Vision (IJCV), 60 (2), pp.91-110, 2004. "It is described in.

このように各種の方法により特徴点を抽出するので、抽出部15bによれば、特徴点として抽出する際に処理時間を要する人物の目や鼻や口などを特徴点として抽出する場合と比較して、簡易に特徴点を抽出することができる。なお、抽出部15bが、人物の目や鼻や口などを特徴点として抽出してもよい。   Since feature points are extracted by various methods in this way, the extraction unit 15b compares the case where a person's eyes, nose, mouth, and the like that require processing time to be extracted as feature points are extracted as feature points. Thus, feature points can be easily extracted. Note that the extraction unit 15b may extract a person's eyes, nose, mouth, and the like as feature points.

図5および図6は、実施例1に係る生成装置が実行する処理の一例を説明するための図である。図5の例は、1フレーム内において、抽出部15bにより、人物21の人物領域22が検出された場合を示す。図5の例に示すように、人物領域22が検出されると、抽出部15bは、人物領域22内の特徴点23を抽出する。   FIG. 5 and FIG. 6 are diagrams for explaining an example of processing executed by the generation apparatus according to the first embodiment. The example of FIG. 5 shows a case where the person area 22 of the person 21 is detected by the extraction unit 15b in one frame. As shown in the example of FIG. 5, when the person area 22 is detected, the extraction unit 15 b extracts the feature points 23 in the person area 22.

変更部15cは、画像内の人物の画像領域を、他の画像に変更する。具体例を挙げて説明すると、変更部15cは、取得部15aによって取得されたフレームごとに、1フレーム内の人物の画像領域を、他の画像に変更する。これにより、画像中の人物の特定が困難となる。したがって、生成装置10によれば、撮影された人物の肖像権やプライバシーの侵害が抑制された画像データを生成することができる。   The changing unit 15c changes the image area of the person in the image to another image. If it demonstrates with a specific example, the change part 15c will change the image area of the person in 1 frame into another image for every flame | frame acquired by the acquisition part 15a. This makes it difficult to identify a person in the image. Therefore, according to the generation device 10, it is possible to generate image data in which a portrait right or privacy infringement of a photographed person is suppressed.

例えば、変更部15cは、抽出部15bにより検出された人物領域を、所定の色で塗りつぶされた画像に変更する。ここで、変更部15cは、人物領域を、青、黒、または、赤色などの色に塗りつぶされた画像に変更することができる。なお、塗りつぶされた画像の色については、任意の色を採用することができる。図7は、実施例1に係る生成装置が実行する処理の一例を示す図である。図7の例は、抽出部15bが、人物領域22を、青の色に塗りつぶされた画像に変更した場合を示す。図7の例に示すように、人物領域22が、青の色に塗りつぶされた画像に変更されているため、図7に示す画像から画像中の人物を特定することは、困難である。   For example, the changing unit 15c changes the person area detected by the extracting unit 15b to an image filled with a predetermined color. Here, the changing unit 15c can change the person area to an image painted in a color such as blue, black, or red. Note that any color can be adopted as the color of the filled image. FIG. 7 is a diagram illustrating an example of processing executed by the generation apparatus according to the first embodiment. The example of FIG. 7 shows a case where the extraction unit 15b changes the person region 22 to an image painted in blue. As shown in the example of FIG. 7, the person region 22 is changed to an image painted in blue, and therefore it is difficult to specify a person in the image from the image shown in FIG. 7.

このようにして、変更部15cは、カメラ20から入力された全フレームについて画像内の人物を特定するための情報量が削減された画像を生成する。   In this way, the changing unit 15c generates an image with a reduced amount of information for identifying a person in the image for all frames input from the camera 20.

生成部15dは、他の画像と、特徴点とを重ね合わせて画像を生成する。例えば、先の図3の例に示すように、生成部15dは、1フレームごとに、人物領域22の変更された画像(他の画像)と、特徴点23とを重ね合わせて画像を生成する。特徴点の描き方としては、例えば、色のついた丸や四角などのマークを描いたり、他の特徴点と重ならないような小さい画像などをはりつけたりするなどの方法がある。そして、生成部15dは、生成した1フレームの画像を画像データ14aとして記憶装置14に格納する。生成部15dは、このような処理を、カメラ20から入力された全フレームについて行う。そのため、記憶装置14に記憶された動画像の画像データ14aが時系列に沿って表示部12に表示された場合には、例えば、先の図2Aおよび図2Bに示すような動画像において人物領域22以外の部分の背景画像が表示された動画像となる。したがって、生成装置10によれば、人物の行動を容易に把握することができる画像データを生成することができる。また、上述したように、生成装置10によれば、撮影された人物の肖像権やプライバシーの侵害が抑制された画像データを生成することができる。それゆえ、生成装置10によれば、撮影された人物の肖像権やプライバシーの侵害を抑制し、かつ、撮影された人物の行動を容易に把握することができる。   The generation unit 15d generates an image by superimposing other images and feature points. For example, as shown in the example of FIG. 3, the generation unit 15d generates an image by superimposing the image (the other image) in which the person area 22 is changed and the feature point 23 for each frame. . Examples of how to draw a feature point include a method of drawing a mark such as a colored circle or square, or attaching a small image that does not overlap other feature points. Then, the generation unit 15d stores the generated one-frame image in the storage device 14 as image data 14a. The generation unit 15d performs such processing for all frames input from the camera 20. Therefore, when the image data 14a of the moving image stored in the storage device 14 is displayed on the display unit 12 in time series, for example, in the moving image as shown in FIG. 2A and FIG. A moving image in which a background image of a portion other than 22 is displayed. Therefore, according to the generation device 10, it is possible to generate image data that can easily grasp the behavior of a person. Further, as described above, according to the generation device 10, it is possible to generate image data in which a portrait right of a photographed person and invasion of privacy are suppressed. Therefore, according to the generation device 10, it is possible to suppress infringement of the portrait right and privacy of the photographed person and to easily grasp the action of the photographed person.

続いて、表示制御部15eは、画像データ14aが示す動画像が表示されるように表示部12の表示を制御する。すなわち、表示制御部15eは、画像データ14aが示す各フレームを時系列に沿って表示されるように表示部12の表示を制御する。これにより、撮影された人物の肖像権やプライバシーの侵害を抑制し、かつ、撮影された人物の行動を容易に把握することができる画像を表示することができる。   Subsequently, the display control unit 15e controls the display of the display unit 12 so that the moving image indicated by the image data 14a is displayed. That is, the display control unit 15e controls the display of the display unit 12 so that each frame indicated by the image data 14a is displayed in time series. As a result, it is possible to display an image that can suppress infringement of portrait rights and privacy of the photographed person and can easily grasp the action of the photographed person.

制御部15は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路またはCPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路である。   The control unit 15 is an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA) or an electronic circuit such as a central processing unit (CPU) or a micro processing unit (MPU).

[処理の流れ]
次に、本実施例に係る生成装置10の処理の流れについて説明する。図8は、実施例1に係る生成処理の手順を示すフローチャートである。生成処理は、例えば、通信部13を介してカメラ20からのフレームを取得部15aが受信したタイミングで、実行される。
[Process flow]
Next, a processing flow of the generation apparatus 10 according to the present embodiment will be described. FIG. 8 is a flowchart illustrating the procedure of the generation process according to the first embodiment. The generation process is executed, for example, at a timing when the acquisition unit 15a receives a frame from the camera 20 via the communication unit 13.

図8に示すように、抽出部15bは、取得部15aによって取得されたフレームの画像から人物領域を検出する(S101)。続いて、抽出部15bは、人物領域内の特徴点を抽出する(S102)。その後、変更部15cは、抽出部15bにより検出された人物領域を、所定の色で塗りつぶされた画像に変更する(S103)。   As illustrated in FIG. 8, the extraction unit 15b detects a person region from the frame image acquired by the acquisition unit 15a (S101). Subsequently, the extraction unit 15b extracts feature points in the person region (S102). Thereafter, the changing unit 15c changes the person area detected by the extracting unit 15b to an image filled with a predetermined color (S103).

そして、生成部15dは、他の画像と、特徴点とを重ね合わせて1フレームの画像を生成する(S104)。続いて、生成部15dは、生成した1フレームの画像を画像データ14aとして記憶装置14に格納する(S105)。その後、表示制御部15eは、画像データ14aが示す各フレームを時系列に沿って表示されるように表示部12の表示を制御する(S106)。そして、表示制御部15eは、次のフレームがあるか否かを判定する(S107)。なお、表示制御部15eは、例えば、取得部15aによって次のフレームが取得されたか否かを判定することで、次のフレームがあるか否かを判定することができる。次のフレームがある場合(S107肯定)には、S101に戻って、抽出部15bが、取得部15aによって新たに取得されたフレームの画像から人物領域を検出し、以降の処理を繰り返し行う。一方、次のフレームがない場合(S107否定)には、処理を終了する。   Then, the generation unit 15d generates one frame image by superimposing other images and feature points (S104). Subsequently, the generation unit 15d stores the generated one-frame image as image data 14a in the storage device 14 (S105). Thereafter, the display control unit 15e controls the display of the display unit 12 so that each frame indicated by the image data 14a is displayed in time series (S106). Then, the display control unit 15e determines whether there is a next frame (S107). The display control unit 15e can determine whether there is a next frame, for example, by determining whether the next frame is acquired by the acquisition unit 15a. When there is a next frame (Yes in S107), the process returns to S101, and the extraction unit 15b detects a person area from the image of the frame newly acquired by the acquisition unit 15a, and repeats the subsequent processing. On the other hand, if there is no next frame (No at S107), the process is terminated.

上述してきたように、本実施例に係る生成装置10によれば、人物の行動を容易に把握することができる画像データを生成することができる。また、生成装置10によれば、撮影された人物の肖像権やプライバシーの侵害が抑制された画像データを生成することができる。それゆえ、生成装置10によれば、撮影された人物の肖像権やプライバシーの侵害を抑制し、かつ、撮影された人物の行動を容易に把握することができる。   As described above, according to the generation device 10 according to the present embodiment, it is possible to generate image data that can easily grasp the behavior of a person. Moreover, according to the production | generation apparatus 10, the image data by which the infringement of the portrait rights and privacy of the image | photographed person were suppressed can be produced | generated. Therefore, according to the generation device 10, it is possible to suppress infringement of the portrait right and privacy of the photographed person and to easily grasp the action of the photographed person.

なお、実施例1では、変更部15cが、人物領域を、所定の色で塗りつぶされた画像に変更する場合について例示した。しかしながら、開示の生成装置10は、これに限定されない。例えば、生成装置10の変更部15cは、人物領域における人物の画像をガウシアンフィルタや平滑化フィルタをかけてぼかした画像を生成する。そして、生成装置10の変更部15cは、人物領域を、生成したぼかした画像に変更することができる。したがって、生成装置10によれば、人物の行動を容易に把握することができる画像データを生成することができる。また、生成装置10によれば、撮影された人物の肖像権やプライバシーの侵害が抑制された画像データを生成することができる。それゆえ、生成装置10によれば、撮影された人物の肖像権やプライバシーの侵害を抑制し、かつ、撮影された人物の行動を容易に把握することができる。   In the first embodiment, the case where the changing unit 15c changes the person area to an image painted with a predetermined color has been illustrated. However, the disclosed generation device 10 is not limited to this. For example, the changing unit 15c of the generation device 10 generates an image obtained by blurring a person image in a person region by applying a Gaussian filter or a smoothing filter. And the change part 15c of the production | generation apparatus 10 can change a person area | region into the produced | generated blurred image. Therefore, according to the generation device 10, it is possible to generate image data that can easily grasp the behavior of a person. Moreover, according to the production | generation apparatus 10, the image data by which the infringement of the portrait rights and privacy of the image | photographed person were suppressed can be produced | generated. Therefore, according to the generation device 10, it is possible to suppress infringement of the portrait right and privacy of the photographed person and to easily grasp the action of the photographed person.

[処理の流れ]
次に、本実施例に係る生成装置10の他の処理の流れについて説明する。図9は、実施例1に係る他の生成処理の手順を示すフローチャートである。生成処理は、例えば、通信部13を介してカメラ20からのフレームを取得部15aが受信したタイミングで、実行される。なお、S101、S102、S104〜S107の各処理は、上述した図8に示すS101、S102、S104〜S107の各処理と同様であるため、説明を省略する。
[Process flow]
Next, another processing flow of the generation apparatus 10 according to the present embodiment will be described. FIG. 9 is a flowchart illustrating a procedure of another generation process according to the first embodiment. The generation process is executed, for example, at a timing when the acquisition unit 15a receives a frame from the camera 20 via the communication unit 13. Note that the processes of S101, S102, and S104 to S107 are the same as the processes of S101, S102, and S104 to S107 shown in FIG.

図9に示すように、S102での処理の次に、変更部15cは、人物領域における人物の画像をぼかした画像を生成し、人物領域を、生成したぼかした画像に変更し(S201)、S104へ進む。   As shown in FIG. 9, after the process in S102, the changing unit 15c generates an image in which the person image in the person area is blurred, and changes the person area to the generated blurred image (S201). The process proceeds to S104.

上述してきたように、生成装置10は、人物領域における人物の画像をぼかした画像を生成し、人物領域を、生成したぼかした画像に変更する。これにより、生成装置10によれば、人物の行動を容易に把握することができる画像データを生成することができる。また、生成装置10によれば、撮影された人物の肖像権やプライバシーの侵害が抑制された画像データを生成することができる。それゆえ、生成装置10によれば、撮影された人物の肖像権やプライバシーの侵害を抑制し、かつ、撮影された人物の行動を容易に把握することができる。   As described above, the generation apparatus 10 generates an image obtained by blurring a person image in the person area, and changes the person area to the generated blurred image. Thereby, according to the production | generation apparatus 10, the image data which can grasp | ascertain a person's action easily can be produced | generated. Moreover, according to the production | generation apparatus 10, the image data by which the infringement of the portrait rights and privacy of the image | photographed person were suppressed can be produced | generated. Therefore, according to the generation device 10, it is possible to suppress infringement of the portrait right and privacy of the photographed person and to easily grasp the action of the photographed person.

実施例2では、変更部35cが、人物領域を、当該人物領域に対応する背景画像に変更する場合について説明する。   In the second embodiment, a case will be described in which the changing unit 35c changes a person area to a background image corresponding to the person area.

[生成装置30を有するシステムのシステム構成]
図10は、実施例2に係る生成装置を有するシステムのシステム構成の一例を示す図である。図10に示すように、生成装置30は、制御部35を有する。制御部35は、図1に示す実施例1に係る制御部15と比較して、変更部35cを有する点が異なる。なお、以下では、上記の実施例1と同様の機能を果たす各部や機器については図1と同様の符号を付し、その説明を省略することとする。
[System Configuration of System Having Generating Device 30]
FIG. 10 is a diagram illustrating an example of a system configuration of a system including the generation apparatus according to the second embodiment. As illustrated in FIG. 10, the generation device 30 includes a control unit 35. The control unit 35 is different from the control unit 15 according to the first embodiment illustrated in FIG. 1 in that it includes a changing unit 35c. In the following description, the same reference numerals as those in FIG. 1 are given to the respective units and devices that perform the same functions as those in the first embodiment, and the description thereof will be omitted.

変更部35cは、取得部15aによって取得されたフレームごとに、1フレーム内の人物領域を、当該人物領域に対応する背景画像に変更する。図11および図12は、実施例2に係る生成装置が実行する処理の一例を説明するための図である。図11の例は、人物21がいない状態の画像(背景画像)の一例を示す。例えば、記憶部14には、予め背景画像が記憶されており、変更部35cは、抽出部15bにより人物領域が検出されたフレームに対して、次のような処理を行う。すなわち、変更部35cは、まず、背景画像を生成する。具体例を挙げて説明すると、変更部35cは、記憶部14に記憶された背景画像を取得する。なお、変更部35cは、予め背景画像が記憶部14に記憶されていない場合であっても、抽出部15bにより人物領域が検出されてないときのフレームを、背景画像として取得することで、背景画像を生成することができる。そして、変更部35cは、人物領域を、当該人物領域に対応する背景画像に変更する。その後、図12の例に示すように、生成部15dによって、人物領域の背景画像と、特徴点23とが重ね合わせられた画像が生成される。したがって、生成装置30によれば、人物の行動を容易に把握することができる画像データを生成することができる。また、生成装置30によれば、撮影された人物の肖像権やプライバシーの侵害が抑制された画像データを生成することができる。それゆえ、生成装置30によれば、撮影された人物の肖像権やプライバシーの侵害を抑制し、かつ、撮影された人物の行動を容易に把握することができる。   For each frame acquired by the acquisition unit 15a, the change unit 35c changes the person area in one frame to a background image corresponding to the person area. FIG. 11 and FIG. 12 are diagrams for explaining an example of processing executed by the generation apparatus according to the second embodiment. The example of FIG. 11 shows an example of an image (background image) in the absence of the person 21. For example, a background image is stored in the storage unit 14 in advance, and the changing unit 35c performs the following process on the frame in which the person area is detected by the extracting unit 15b. That is, the changing unit 35c first generates a background image. To explain with a specific example, the changing unit 35 c acquires the background image stored in the storage unit 14. Even if the background image is not stored in the storage unit 14 in advance, the changing unit 35c acquires the frame when the person area is not detected by the extracting unit 15b as the background image, thereby obtaining the background. An image can be generated. Then, the changing unit 35c changes the person area to a background image corresponding to the person area. Thereafter, as illustrated in the example of FIG. 12, the generation unit 15d generates an image in which the background image of the person area and the feature point 23 are superimposed. Therefore, according to the generating device 30, it is possible to generate image data that can easily grasp the behavior of a person. Moreover, according to the production | generation apparatus 30, the image data by which the infringement of the portrait rights and privacy of the image | photographed person were suppressed can be produced | generated. Therefore, according to the generation device 30, it is possible to suppress infringement of the portrait right and privacy of the photographed person and to easily grasp the action of the photographed person.

[処理の流れ]
次に、本実施例に係る生成装置30の他の処理の流れについて説明する。図13は、実施例2に係る生成処理の手順を示すフローチャートである。生成処理は、例えば、通信部13を介してカメラ20からのフレームを取得部15aが受信したタイミングで、実行される。なお、S101、S102、S104〜S107の各処理は、上述した図8に示すS101、S102、S104〜S107の各処理と同様であるため、説明を省略する。
[Process flow]
Next, another processing flow of the generation apparatus 30 according to the present embodiment will be described. FIG. 13 is a flowchart illustrating the procedure of the generation process according to the second embodiment. The generation process is executed, for example, at a timing when the acquisition unit 15a receives a frame from the camera 20 via the communication unit 13. Note that the processes of S101, S102, and S104 to S107 are the same as the processes of S101, S102, and S104 to S107 shown in FIG.

図13に示すように、S102での処理の次に、変更部35cは、背景画像を生成する(S301)。そして、変更部35cは、人物領域を、当該人物領域に対応する背景画像に変更し(S302)、S104へ進む。   As shown in FIG. 13, after the processing in S102, the changing unit 35c generates a background image (S301). Then, the changing unit 35c changes the person area to a background image corresponding to the person area (S302), and proceeds to S104.

上述してきたように、生成装置30は、人物領域対応する背景画像を生成し、人物領域を、生成した背景画像に変更する。これにより、生成装置30によれば、人物の行動を容易に把握することができる画像データを生成することができる。また、生成装置30によれば、撮影された人物の肖像権やプライバシーの侵害が抑制された画像データを生成することができる。それゆえ、生成装置30によれば、撮影された人物の肖像権やプライバシーの侵害を抑制し、かつ、撮影された人物の行動を容易に把握することができる。   As described above, the generation device 30 generates a background image corresponding to the person area, and changes the person area to the generated background image. Thereby, according to the production | generation apparatus 30, the image data which can grasp | ascertain a person's action easily can be produced | generated. Moreover, according to the production | generation apparatus 30, the image data by which the infringement of the portrait rights and privacy of the image | photographed person were suppressed can be produced | generated. Therefore, according to the generation device 30, it is possible to suppress infringement of the portrait right and privacy of the photographed person and to easily grasp the action of the photographed person.

実施例3では、抽出部45bが、抽出した特徴点を追従して、当該特徴点が抽出されたフレームの次のフレーム内の人物領域から特徴点を抽出する場合について説明する。   In the third embodiment, a case where the extraction unit 45b follows the extracted feature point and extracts the feature point from the person region in the frame next to the frame from which the feature point is extracted will be described.

[生成装置40を有するシステムのシステム構成]
図14は、実施例3に係る生成装置を有するシステムのシステム構成の一例を示す図である。図14に示すように、生成装置40は、制御部45を有する。制御部45は、実施例1に係る制御部15や実施例2に係る制御部35と比較して、抽出部45bを有する点が異なる。なお、以下では、上記の実施例1、実施例2と同様の機能を果たす各部や機器については図1、図10と同様の符号を付し、その説明を省略することとする。
[System Configuration of System Having Generating Device 40]
FIG. 14 is a diagram illustrating an example of a system configuration of a system including the generation apparatus according to the third embodiment. As illustrated in FIG. 14, the generation device 40 includes a control unit 45. The control unit 45 is different from the control unit 15 according to the first embodiment and the control unit 35 according to the second embodiment in that it includes an extraction unit 45b. In the following description, the same reference numerals as those in FIGS. 1 and 10 are assigned to the respective parts and devices that perform the same functions as those in the first and second embodiments, and the description thereof is omitted.

抽出部45bは、あるフレームについて、人物領域から特徴点を抽出する際に、そのフレームの1つ前のフレームにおいて抽出された特徴点と類似した点を探し、前フレームと類似した特徴点以外の特徴点を利用しない。具体的には、まず特徴点を抽出する際に、各フレームにおける各特徴点の特徴量の大きさ(エッジ強度など)や検出座標を記憶しておく。今回のフレームで検出した各特徴点に対して、前フレームで抽出された特徴点と、特徴量の大きさが類似しており、さらに検出座標が近い場合のみ特徴点として採用する。したがって、本実施例の生成装置40によれば、前フレームと同じ特徴点を表示することになるため、特徴点の量がフレームによって変化せず、さらに同一の特徴点を表示することで人物の動作をより認識しやすい動画像の画像データ14aを生成することができる。なお、実施例3に係る抽出部45bは実施例1、実施例2の各実施例に適用できる。   When extracting a feature point from a person area for a certain frame, the extraction unit 45b searches for a point similar to the feature point extracted in the previous frame of the frame, and other than the feature point similar to the previous frame. Do not use feature points. Specifically, first, when extracting feature points, the feature amount size (edge strength, etc.) and detected coordinates of each feature point in each frame are stored. For each feature point detected in the current frame, the feature point is similar to the feature point extracted in the previous frame, and is used as a feature point only when the detected coordinates are close. Therefore, according to the generation device 40 of the present embodiment, the same feature point as that of the previous frame is displayed. Therefore, the amount of the feature point does not change depending on the frame, and the person's It is possible to generate image data 14a of a moving image that can easily recognize the operation. The extraction unit 45b according to the third embodiment can be applied to each of the first and second embodiments.

[処理の流れ]
次に、本実施例に係る生成装置40の他の処理の流れについて説明する。図15は、実施例3に係る生成処理の手順を示すフローチャートである。生成処理は、例えば、通信部13を介してカメラ20からのフレームを取得部15aが受信したタイミングで、実行される。なお、S101〜S107の各処理は、上述した図8に示すS101〜S107の各処理と同様であるため、説明を省略する。
[Process flow]
Next, another processing flow of the generation apparatus 40 according to the present embodiment will be described. FIG. 15 is a flowchart illustrating the procedure of the generation process according to the third embodiment. The generation process is executed, for example, at a timing when the acquisition unit 15a receives a frame from the camera 20 via the communication unit 13. Note that the processes of S101 to S107 are the same as the processes of S101 to S107 shown in FIG.

図15に示すように、S102での処理の次に、抽出部45bは、今回のフレームの処理で検出した人物の特徴点が前回フレームで抽出していたか否かを判定する(S401)。初めて特徴点を抽出した場合(S401肯定)には、これまでと同様にS103に進む。既に前フレーム以前に特徴点を抽出したことがある場合(S401否定)には、現在のフレームで抽出された特徴点と、前回のフレームで抽出された特徴点とで類似度を調査し、同一と考えられる特徴点を対応づける(S402)。そして、前回フレームの特徴点と対応づかなかった現在のフレームの特徴点を消去する(S403)。その後S103に進む。   As shown in FIG. 15, after the process in S102, the extraction unit 45b determines whether or not the feature point of the person detected in the process of the current frame has been extracted in the previous frame (S401). When feature points are extracted for the first time (Yes at S401), the process proceeds to S103 as before. If the feature points have already been extracted before the previous frame (No in S401), the similarity is investigated between the feature points extracted in the current frame and the feature points extracted in the previous frame. The feature points considered to be associated with each other (S402). Then, the feature point of the current frame that does not correspond to the feature point of the previous frame is deleted (S403). Thereafter, the process proceeds to S103.

また、S106での処理の次に、今回のフレームで検出した特徴点の情報(特徴量の大きさや検出座標位置など)を記憶する。これは次のフレームの特徴点との類似度比較に使用する。   Further, after the processing in S106, information on the feature points detected in the current frame (the size of the feature amount, the detected coordinate position, etc.) is stored. This is used for similarity comparison with the feature point of the next frame.

上述してきたように、生成装置40は、人物領域対応する背景画像を生成し、人物領域を、生成した背景画像に変更する。これにより、生成装置40によれば、人物の行動を容易に把握することができる画像データを生成することができる。また、生成装置40によれば、撮影された人物の肖像権やプライバシーの侵害が抑制された画像データを生成することができる。それゆえ、生成装置40によれば、撮影された人物の肖像権やプライバシーの侵害を抑制し、かつ、撮影された人物の行動を容易に把握することができる。   As described above, the generation device 40 generates a background image corresponding to the person area, and changes the person area to the generated background image. Thereby, according to the production | generation apparatus 40, the image data which can grasp | ascertain a person's action easily can be produced | generated. Moreover, according to the production | generation apparatus 40, the image data by which the infringement of the portrait rights and privacy of the image | photographed person were suppressed can be produced | generated. Therefore, according to the generation device 40, it is possible to suppress infringement of the portrait right and privacy of the photographed person and to easily grasp the action of the photographed person.

また、本実施例の生成装置40によれば、特徴点を追従しているため、人物の動作がより滑らかとなる動画像の画像データ14aを生成することができる。   Further, according to the generation device 40 of the present embodiment, since the feature points are tracked, it is possible to generate the image data 14a of the moving image that makes the movement of the person smoother.

実施例4では、抽出部45bが、抽出した特徴点の数が少ない場合には、人物領域から特徴点を抽出する抽出方法を変更する場合について説明する。   In the fourth embodiment, a case where the extraction unit 45b changes the extraction method for extracting feature points from a person region when the number of extracted feature points is small will be described.

[生成装置50を有するシステムのシステム構成]
図16は、実施例4に係る生成装置を有するシステムのシステム構成の一例を示す図である。図16に示すように、生成装置50は、制御部55を有する。制御部55は、実施例1に係る制御部15、実施例2に係る制御部35、実施例3に係る制御部45と比較して、抽出部55bを有する点が異なる。なお、以下では、上記の実施例1、実施例2、実施例3と同様の機能を果たす各部や機器については図1、図10、図14と同様の符号を付し、その説明を省略することとする。
[System Configuration of System Having Generation Device 50]
FIG. 16 is a diagram illustrating an example of a system configuration of a system including the generation apparatus according to the fourth embodiment. As illustrated in FIG. 16, the generation device 50 includes a control unit 55. The control unit 55 is different from the control unit 15 according to the first embodiment, the control unit 35 according to the second embodiment, and the control unit 45 according to the third embodiment in that it includes an extraction unit 55b. In the following description, the same reference numerals as those in FIGS. 1, 10, and 14 are assigned to the respective parts and devices that perform the same functions as those in the first, second, and third embodiments, and the description thereof is omitted. I will do it.

抽出部55bは、第一の特徴点の抽出方法を用いて特徴点を抽出し、抽出した特徴点の数がα以下である場合には、第二の特徴点の抽出方法を用いて特徴点を抽出する。例えば、抽出部55bは、実施例1で説明した方法と同様に、肌色のテンプレート画像を用いて、人物領域から特徴点を抽出する。そして、抽出部55bは、抽出した特徴点の個数がαより大きいか否かを判定する。特徴点の個数がα以下である場合には、抽出部55bは、エッジ点を利用して、人物領域から特徴点を抽出する。したがって、本実施例の生成装置50によれば、より多くの個数の特徴点を抽出することができるため、人物の動作がより把握しやすい画像データを生成することができる。なお、実施例4に係る抽出部55bは、実施例1〜実施例3の各実施例に適用できる。   The extraction unit 55b extracts feature points using the first feature point extraction method, and if the number of extracted feature points is equal to or less than α, the feature points are extracted using the second feature point extraction method. To extract. For example, similarly to the method described in the first embodiment, the extraction unit 55b extracts feature points from a person region using a skin color template image. Then, the extraction unit 55b determines whether or not the number of extracted feature points is greater than α. When the number of feature points is less than or equal to α, the extraction unit 55b extracts feature points from the person region using the edge points. Therefore, according to the generating apparatus 50 of the present embodiment, it is possible to extract a larger number of feature points, and thus it is possible to generate image data that makes it easier to grasp a person's action. The extraction unit 55b according to the fourth embodiment can be applied to each of the first to third embodiments.

[処理の流れ]
次に、本実施例に係る生成装置50の他の処理の流れについて説明する。図17は、実施例4に係る生成処理の手順を示すフローチャートである。生成処理は、例えば、通信部13を介してカメラ20からのフレームを取得部15aが受信したタイミングで、実行される。なお、S101、S103〜S107の各処理は、上述した図8に示すS101、S103〜S107の各処理と同様であるため、説明を省略する。
[Process flow]
Next, another processing flow of the generation device 50 according to the present embodiment will be described. FIG. 17 is a flowchart illustrating the procedure of the generation process according to the fourth embodiment. The generation process is executed, for example, at a timing when the acquisition unit 15a receives a frame from the camera 20 via the communication unit 13. In addition, since each process of S101 and S103-S107 is the same as each process of S101 shown in FIG. 8 mentioned above, and S103-S107, description is abbreviate | omitted.

図17に示すように、S101での処理の次に、抽出部55bは、実施例1で説明した方法と同様に、肌色のテンプレート画像を用いて、人物領域から特徴点を抽出する(S501)。そして、抽出部55bは、抽出した特徴点の個数がαより大きいか否かを判定する(S502)。特徴点の個数がα以下である場合(S502否定)には、抽出部55bは、エッジ点を利用して、人物領域から特徴点を抽出し(S503)、S103へ進む。また、特徴点の個数がαより大きい場合(S502肯定)にも、S103へ進む。   As shown in FIG. 17, following the processing in S101, the extraction unit 55b extracts feature points from the person region using the skin color template image, as in the method described in the first embodiment (S501). . Then, the extraction unit 55b determines whether or not the number of extracted feature points is larger than α (S502). If the number of feature points is less than or equal to α (No in S502), the extraction unit 55b uses the edge points to extract feature points from the person area (S503), and proceeds to S103. Also, when the number of feature points is larger than α (Yes in S502), the process proceeds to S103.

上記では、特徴点が少ない場合についてのみ述べたが、特徴量が多すぎる場合や、特徴点の分布が人物領域内の一部に偏っているなどで分布状況が悪い場合なども同様である。
また、特徴点の抽出方法の変更についても、第1の抽出方法と第2の抽出方法で抽出された特徴点全てを使うだけでなく、第2の抽出方法のみ使用したり、第1の抽出方法で抽出る特徴点の特徴量の閾値を変更する方法などもある。
In the above description, only the case where the number of feature points is small has been described. However, the same applies to the case where the feature amount is too large, or the distribution of the feature points is biased to a part of the person area and the distribution situation is bad.
Also, regarding the change of the feature point extraction method, not only the feature points extracted by the first extraction method and the second extraction method are used, but also only the second extraction method is used, or the first extraction method is used. There is also a method of changing the threshold value of the feature amount of the feature point extracted by the method.

上述してきたように、生成装置50は、人物領域対応する背景画像を生成し、人物領域を、生成した背景画像に変更する。これにより、生成装置50によれば、人物の行動を容易に把握することができる画像データを生成することができる。また、生成装置50によれば、撮影された人物の肖像権やプライバシーの侵害が抑制された画像データを生成することができる。それゆえ、生成装置50によれば、撮影された人物の肖像権やプライバシーの侵害を抑制し、かつ、撮影された人物の行動を容易に把握することができる。   As described above, the generation device 50 generates a background image corresponding to the person area, and changes the person area to the generated background image. Thereby, according to the production | generation apparatus 50, the image data which can grasp | ascertain a person's action easily can be produced | generated. Moreover, according to the production | generation apparatus 50, the image data by which the infringement of the portrait rights and privacy of the image | photographed person were suppressed can be produced | generated. Therefore, according to the generation device 50, it is possible to suppress infringement of the portrait right and privacy of the photographed person and easily grasp the action of the photographed person.

また、本実施例の生成装置50によれば、特徴点を追従しているため、人物の動作がより滑らかとなる動画像の画像データ14aを生成することができる。   Further, according to the generation device 50 of the present embodiment, since the feature points are tracked, it is possible to generate the image data 14a of the moving image that makes the movement of the person smoother.

また、生成装置50によれば、人物の動作がより把握しやすい画像データを生成することができる。   Further, according to the generation device 50, it is possible to generate image data that makes it easier to grasp the motion of a person.

さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。   Although the embodiments related to the disclosed apparatus have been described above, the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, another embodiment included in the present invention will be described below.

例えば、各実施例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともできる。また、各実施例において説明した各処理のうち、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。   For example, all or some of the processes described as being automatically performed among the processes described in the embodiments may be performed manually. In addition, among the processes described in the embodiments, all or a part of the processes described as being performed manually can be automatically performed by a known method.

また、各種の負荷や使用状況などに応じて、各実施例において説明した各処理の各ステップでの処理を任意に細かくわけたり、あるいはまとめたりすることができる。また、ステップを省略することもできる。   In addition, the processing at each step of each processing described in each embodiment can be arbitrarily finely divided or combined according to various loads and usage conditions. Also, the steps can be omitted.

また、各種の負荷や使用状況などに応じて、各実施例において説明した各処理の各ステップでの処理の順番を変更できる。   Further, the order of processing at each step of each processing described in each embodiment can be changed according to various loads and usage conditions.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的状態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific state of distribution / integration of each device is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

[生成プログラム]
また、上記の実施例で説明した生成装置の各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、図18を用いて、上記の各実施例で説明した生成装置と同様の機能を有する生成プログラムを実行するコンピュータの一例を説明する。図18は、生成プログラムを実行するコンピュータを示す図である。
[Generator]
The various types of processing of the generation apparatus described in the above embodiments can also be realized by executing a program prepared in advance on a computer system such as a personal computer or a workstation. Therefore, in the following, an example of a computer that executes a generation program having the same function as that of the generation apparatus described in each embodiment will be described with reference to FIG. FIG. 18 is a diagram illustrating a computer that executes a generation program.

図18に示すように、コンピュータ300は、CPU、ROM320、HDD330、RAM340を有する。   As illustrated in FIG. 18, the computer 300 includes a CPU, a ROM 320, an HDD 330, and a RAM 340.

ROM320には、OSなどの基本プログラムが記憶されている。また、HDD330には、上記の実施例で示す取得部、抽出部、変更部、生成部、表示制御部と同様の機能を発揮する生成プログラム330aが予め記憶される。なお、生成プログラム330aについては、適宜分離しても良い。また、HDD330には、画像データが設けられる。画像データは、上述した画像データ14aに対応する。   The ROM 320 stores basic programs such as an OS. In addition, the HDD 330 stores in advance a generation program 330a that exhibits the same functions as the acquisition unit, extraction unit, change unit, generation unit, and display control unit described in the above embodiment. Note that the generation program 330a may be separated as appropriate. The HDD 330 is provided with image data. The image data corresponds to the image data 14a described above.

そして、CPU310が、生成プログラム330aをHDD330から読み出して実行する。   Then, the CPU 310 reads the generation program 330a from the HDD 330 and executes it.

そして、CPU310は、画像データを読み出してRAM340に格納する。さらに、CPU310は、RAM340に格納された画像データを用いて、生成プログラム330aを実行する。なお、RAM340に格納されるデータは、常に全てのデータがRAM330に格納されなくともよい。処理に用いられるデータがRAM340に格納されれば良い。   Then, the CPU 310 reads out the image data and stores it in the RAM 340. Further, the CPU 310 executes the generation program 330a using the image data stored in the RAM 340. Note that the data stored in the RAM 340 may not always be stored in the RAM 330. Data used for processing may be stored in the RAM 340.

なお、上記した生成プログラム330aについては、必ずしも最初からHDD330に記憶させておく必要はない。   Note that the above-described generation program 330a is not necessarily stored in the HDD 330 from the beginning.

例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」にプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。   For example, the program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into the computer 300. Then, the computer 300 may read and execute the program from these.

さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される「他のコンピュータ(またはサーバ)」などにプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。   Furthermore, the program is stored in “another computer (or server)” connected to the computer 300 via a public line, the Internet, a LAN, a WAN, or the like. Then, the computer 300 may read and execute the program from these.

10 生成装置
11 入力部
12 表示部
13 通信部
14 記憶部
14a 画像データ
15 制御部
15a 取得部
15b 抽出部
15c 変更部
15d 生成部
15e 表示制御部
20 カメラ
DESCRIPTION OF SYMBOLS 10 Generation apparatus 11 Input part 12 Display part 13 Communication part 14 Storage part 14a Image data 15 Control part 15a Acquisition part 15b Extraction part 15c Change part 15d Generation part 15e Display control part 20 Camera

Claims (9)

画像内の人物の画像領域から特徴点を抽出する抽出部と、
前記人物の画像領域を他の画像に変更する変更部と、
前記他の画像と、前記特徴点とを重ね合わせて画像を生成する生成部と、
を有することを特徴とする生成装置。
An extraction unit for extracting feature points from an image area of a person in the image;
A changing unit for changing the image area of the person to another image;
A generation unit that generates an image by superimposing the other image and the feature point;
A generation apparatus comprising:
前記抽出部は、前記人物を撮影した動画像の1フレームごとに、1フレーム内の人物の画像領域から特徴点を抽出し、
前記変更部は、前記動画像の1フレームごとに、1フレーム内の前記人物の画像領域を他の画像に変更し、
前記生成部は、前記動画像の1フレームごとに、前記他の画像と、前記特徴点とを重ね合わせてフレームを生成し、
さらに、前記生成部により生成されたフレームが示す画像を表示するように制御する表示制御部を有することを特徴とする請求項1に記載の生成装置。
The extraction unit extracts a feature point from an image area of a person in one frame for each frame of a moving image obtained by photographing the person,
The change unit changes the image area of the person in one frame to another image for each frame of the moving image,
The generation unit generates a frame by superimposing the other image and the feature point for each frame of the moving image,
The generation apparatus according to claim 1, further comprising a display control unit that controls to display an image indicated by the frame generated by the generation unit.
前記抽出部は、抽出した特徴点を追従して、該特徴点が抽出されたフレームの次のフレーム内の人物の画像領域から特徴点を抽出する
ことを特徴とする生成装置。
The extraction unit follows the extracted feature point and extracts the feature point from the image area of the person in the frame next to the frame from which the feature point was extracted.
前記抽出部は、抽出した特徴点の数に応じて、前記人物の画像領域から特徴点を抽出する抽出方法を変更する
ことを特徴とする請求項1〜3のいずれか1つに記載の生成装置。
The generation according to claim 1, wherein the extraction unit changes an extraction method of extracting feature points from the image area of the person according to the number of extracted feature points. apparatus.
前記変更部は、前記人物の画像領域を、所定の色で塗りつぶされた画像に変更する
ことを特徴とする請求項1〜4のいずれか1つに記載の生成装置。
The generating device according to claim 1, wherein the changing unit changes the image area of the person to an image filled with a predetermined color.
前記変更部は、前記人物の画像領域を、該人物の画像領域に対応する背景画像に変更する
ことを特徴とする請求項1〜4のいずれか1つに記載の生成装置。
The generation device according to claim 1, wherein the change unit changes the person's image area to a background image corresponding to the person's image area.
前記変更部は、前記人物の画像領域を、該人物の画像をぼかした画像に変更する
ことを特徴とする請求項1〜4のいずれか1つに記載の生成装置。
The generating device according to claim 1, wherein the changing unit changes the image area of the person to an image obtained by blurring the image of the person.
コンピュータに、
画像内の人物の画像領域から特徴点を抽出し、
前記人物の画像領域を他の画像に変更し、
前記他の画像と、前記特徴点とを重ね合わせて画像を生成する
各処理を実行させるための生成プログラム。
On the computer,
Extract feature points from the image area of the person in the image,
Change the image area of the person to another image,
A generation program for executing each process of generating an image by superimposing the other image and the feature point.
コンピュータが実行する生成方法であって、
画像内の人物の画像領域から特徴点を抽出し、
前記人物の画像領域を他の画像に変更し、
前記他の画像と、前記特徴点とを重ね合わせて画像を生成する
各処理を実行することを特徴とする生成方法。
A generation method executed by a computer,
Extract feature points from the image area of the person in the image,
Change the image area of the person to another image,
A generation method characterized by executing each process of generating an image by superimposing the other image and the feature point.
JP2012053767A 2012-03-09 2012-03-09 Generating device, generating program, and generating method Active JP6007523B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012053767A JP6007523B2 (en) 2012-03-09 2012-03-09 Generating device, generating program, and generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012053767A JP6007523B2 (en) 2012-03-09 2012-03-09 Generating device, generating program, and generating method

Publications (2)

Publication Number Publication Date
JP2013186838A true JP2013186838A (en) 2013-09-19
JP6007523B2 JP6007523B2 (en) 2016-10-12

Family

ID=49388167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012053767A Active JP6007523B2 (en) 2012-03-09 2012-03-09 Generating device, generating program, and generating method

Country Status (1)

Country Link
JP (1) JP6007523B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2905738A1 (en) 2014-02-05 2015-08-12 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system, and monitoring method
DE102015209138A1 (en) 2014-05-23 2015-11-26 Panasonic Intellectual Property Management Co., Ltd. Monitoring device, monitoring system and monitoring method
WO2016002152A1 (en) * 2014-06-30 2016-01-07 日本電気株式会社 Image processing system, image processing method and program storage medium for which personal private information has been taken into consideration
EP2991344A2 (en) 2014-08-27 2016-03-02 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system and monitoring method
JP2016099927A (en) * 2014-11-26 2016-05-30 パナソニックIpマネジメント株式会社 Imaging apparatus, video recording device, and video output controller
WO2016114392A1 (en) * 2015-01-15 2016-07-21 日本電気株式会社 Information output device, camera, information output system, information output method, and program
US10535143B2 (en) 2015-02-25 2020-01-14 Panasonic Intellectual Property Management Co., Ltd. Monitoring device and monitoring method
JP2020086504A (en) * 2018-11-15 2020-06-04 日本電気株式会社 Image processing apparatus, image processing method and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10302070A (en) * 1997-04-25 1998-11-13 Fujitsu Ltd Movement extracting processing method, its device and program storing medium
JP2007004718A (en) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd Image generation device and image generation method
JP2009225398A (en) * 2008-03-19 2009-10-01 Secom Co Ltd Image distribution system
JP2011130203A (en) * 2009-12-17 2011-06-30 Canon Inc Video information processing method and apparatus therefor
JP2011205282A (en) * 2010-03-25 2011-10-13 Fujifilm Corp Imaging apparatus and image processing method
JP2011254289A (en) * 2010-06-02 2011-12-15 Toa Corp Moving body locus display device, and moving body locus display program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10302070A (en) * 1997-04-25 1998-11-13 Fujitsu Ltd Movement extracting processing method, its device and program storing medium
JP2007004718A (en) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd Image generation device and image generation method
JP2009225398A (en) * 2008-03-19 2009-10-01 Secom Co Ltd Image distribution system
JP2011130203A (en) * 2009-12-17 2011-06-30 Canon Inc Video information processing method and apparatus therefor
JP2011205282A (en) * 2010-03-25 2011-10-13 Fujifilm Corp Imaging apparatus and image processing method
JP2011254289A (en) * 2010-06-02 2011-12-15 Toa Corp Moving body locus display device, and moving body locus display program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9693023B2 (en) 2014-02-05 2017-06-27 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system, and monitoring method
US10178356B2 (en) 2014-02-05 2019-01-08 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, and moving image output method
EP2905738A1 (en) 2014-02-05 2015-08-12 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system, and monitoring method
DE102015209138A1 (en) 2014-05-23 2015-11-26 Panasonic Intellectual Property Management Co., Ltd. Monitoring device, monitoring system and monitoring method
US9202112B1 (en) 2014-05-23 2015-12-01 Panasonic Intellectual Property Mangement Co., Ltd. Monitoring device, monitoring system, and monitoring method
US10432877B2 (en) 2014-06-30 2019-10-01 Nec Corporation Image processing system, image processing method and program storage medium for protecting privacy
JP7095770B2 (en) 2014-06-30 2022-07-05 日本電気株式会社 Image processing system, image processing method and program
JPWO2016002152A1 (en) * 2014-06-30 2017-04-27 日本電気株式会社 Image processing system, image processing method and program storage medium considering personal information
WO2016002152A1 (en) * 2014-06-30 2016-01-07 日本電気株式会社 Image processing system, image processing method and program storage medium for which personal private information has been taken into consideration
US11159745B2 (en) 2014-06-30 2021-10-26 Nec Corporation Image processing system, image processing method and program storage medium for protecting privacy
US10623664B2 (en) 2014-06-30 2020-04-14 Nec Corporation Image processing system, image processing method and program storage medium for protecting privacy
JP2021108181A (en) * 2014-06-30 2021-07-29 日本電気株式会社 Image processing system, method for processing image, and program
EP2991344A3 (en) * 2014-08-27 2016-03-09 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system and monitoring method
EP2991344A2 (en) 2014-08-27 2016-03-02 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system and monitoring method
US10965913B2 (en) 2014-08-27 2021-03-30 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system and monitoring method
JP2016099927A (en) * 2014-11-26 2016-05-30 パナソニックIpマネジメント株式会社 Imaging apparatus, video recording device, and video output controller
JPWO2016114392A1 (en) * 2015-01-15 2017-09-28 日本電気株式会社 Information output device, camera, information output system, information output method and program
US11042667B2 (en) 2015-01-15 2021-06-22 Nec Corporation Information output device, camera, information output system, information output method, and program
US11227061B2 (en) 2015-01-15 2022-01-18 Nec Corporation Information output device, camera, information output system, information output method, and program
WO2016114392A1 (en) * 2015-01-15 2016-07-21 日本電気株式会社 Information output device, camera, information output system, information output method, and program
US10535143B2 (en) 2015-02-25 2020-01-14 Panasonic Intellectual Property Management Co., Ltd. Monitoring device and monitoring method
JP2020086504A (en) * 2018-11-15 2020-06-04 日本電気株式会社 Image processing apparatus, image processing method and program
JP7387981B2 (en) 2018-11-15 2023-11-29 日本電気株式会社 Image processing device, image processing method, program

Also Published As

Publication number Publication date
JP6007523B2 (en) 2016-10-12

Similar Documents

Publication Publication Date Title
JP6007523B2 (en) Generating device, generating program, and generating method
Shreve et al. Macro-and micro-expression spotting in long videos using spatio-temporal strain
JP6204659B2 (en) Video processing apparatus and video processing method
TWI499966B (en) Interactive operation method of electronic apparatus
JP2017091518A (en) Image generating method and apparatus
JP6325401B2 (en) Information processing apparatus, image changing method, and program
JP6293386B2 (en) Data processing apparatus, data processing method, and data processing program
JP6157165B2 (en) Gaze detection device and imaging device
JP2011076255A (en) Gesture recognizing device, gesture recognizing method and gesture recognizing program
JP2017017431A (en) Image processing apparatus, information processing method, and program
JP5887264B2 (en) Object recognition apparatus, method, program, and computer-readable medium storing the software
Raheja et al. Hand gesture pointing location detection
JP2010225118A (en) Image processing device, method and program
JP2013037539A (en) Image feature amount extraction device and program thereof
KR101360063B1 (en) Method and system for recognizing gesture
JP6229554B2 (en) Detection apparatus and detection method
US11263759B2 (en) Image processing apparatus, image processing method, and storage medium
JP5747695B2 (en) Image processing apparatus, image processing method, and image processing program
CN103839032A (en) Identification method and electronic device
JP2012003724A (en) Three-dimensional fingertip position detection method, three-dimensional fingertip position detector and program
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP2010113562A (en) Apparatus, method and program for detecting and tracking object
KR102372711B1 (en) Image photographing apparatus and control method thereof
JP6467994B2 (en) Image processing program, image processing apparatus, and image processing method
JP2008130015A (en) Photographic object identification program and photographic object identification device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160829

R150 Certificate of patent or registration of utility model

Ref document number: 6007523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150