JP2013120497A - Method for extracting silhouette and silhouette extraction system - Google Patents

Method for extracting silhouette and silhouette extraction system Download PDF

Info

Publication number
JP2013120497A
JP2013120497A JP2011268286A JP2011268286A JP2013120497A JP 2013120497 A JP2013120497 A JP 2013120497A JP 2011268286 A JP2011268286 A JP 2011268286A JP 2011268286 A JP2011268286 A JP 2011268286A JP 2013120497 A JP2013120497 A JP 2013120497A
Authority
JP
Japan
Prior art keywords
human body
pixels
histogram
background
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011268286A
Other languages
Japanese (ja)
Other versions
JP5816068B2 (en
Inventor
Katsuhiko Ueda
勝彦 植田
Yoshiaki Shirai
良明 白井
Nobutaka Shimada
伸敬 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Rubber Industries Ltd
Dunlop Sports Co Ltd
Original Assignee
Sumitomo Rubber Industries Ltd
Dunlop Sports Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Rubber Industries Ltd, Dunlop Sports Co Ltd filed Critical Sumitomo Rubber Industries Ltd
Priority to JP2011268286A priority Critical patent/JP5816068B2/en
Priority to US13/707,218 priority patent/US8824787B2/en
Priority to KR1020120142374A priority patent/KR101982352B1/en
Priority to CN201210556368.7A priority patent/CN103150720B/en
Publication of JP2013120497A publication Critical patent/JP2013120497A/en
Application granted granted Critical
Publication of JP5816068B2 publication Critical patent/JP5816068B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method for extracting a silhouette capable of extracting the silhouette of a person in each frame of a moving image.SOLUTION: The method for extracting silhouettes is configured to extract a frame from a moving image obtained by photographing a person performing a swing action along with background, identify each pixel to the person or the background, and extract the silhouette of the person. The method includes: a feature point extraction step S102 of performing image processing for an address frame and extracting a plurality of feature points of the person and a golf club; a step S103 of setting a mask region that is the region including the person and the golf club and including the background of the periphery with a small range; a step S104 of setting a human body zone that has a high probability zone of constituting the silhouette of the person, among the pixels included in the mask region; a step S105 of determining a human body section representing the human body in a histogram on the basis of a histogram of the pixels of the human body zone and color information of the pixels of the human zone of the address frame; and a step S106 of determining the human body section in the histogram of the pixels outside the human body zone on the basis of the determined human body section.

Description

本発明は、ゴルフクラブを持ってスイング動作を行う人物を背景とともに撮影した動画から抽出されたフレームの各ピクセルを、人物又は背景のいずれかに切り分けて人物のシルエットを抽出することができるシルエット抽出方法及びシルエット抽出システムに関する。   The present invention is a silhouette extraction capable of extracting a person's silhouette by dividing each pixel of a frame extracted from a moving image obtained by photographing a person performing a swing motion with a golf club together with a background into either a person or a background. The present invention relates to a method and a silhouette extraction system.

ゴルフの技量向上のためには、適切なゴルフスイングの習得が重要である。このような目的のために、ゴルフスイングの動画を撮影し、この動画を元にスイング診断がなされている。古典的なスイング診断では、ティーチングプロ等が動画に基づいてスイング中の問題点を指摘する。一方、前記動画を画像処理することでスイングを診断しようとの試みもなされている。   In order to improve the skill of golf, it is important to acquire an appropriate golf swing. For this purpose, a video of a golf swing is taken, and a swing diagnosis is made based on this video. In classic swing diagnosis, teaching professionals point out problems during swing based on video. On the other hand, an attempt has been made to diagnose a swing by performing image processing on the moving image.

画像処理による場合、人物が撮影されたピクセルと背景が撮影されたピクセルとが区別され、人物のシルエットが抽出されうる。このような処理を精度良く行うものとして、本件出願人は、すでに下記特許文献1を提案している。   In the case of image processing, a pixel where a person is photographed is distinguished from a pixel where a background is photographed, and a silhouette of the person can be extracted. The present applicant has already proposed the following Patent Document 1 for performing such processing with high accuracy.

特開2011−78069号公報JP 2011-78069 A

上記特許文献では、それなりの精度が確保されてはいるが、いくつかの問題点が指摘されている。即ち、上記特許文献のものでは、人物と背景とが似たような色合いである場合、両者を上手く区別することができないという問題があった。   In the above patent document, although some accuracy is ensured, several problems are pointed out. That is, in the above-mentioned patent document, when the person and the background have similar colors, there is a problem that the two cannot be distinguished well.

本発明は、以上のような問題点に鑑み案出されたもので、人物と背景とが似たような色合いであっても、両者を上手く区別することができるシルエット抽出方法及びシルエット抽出システムを提供することを主たる目的としている。   The present invention has been devised in view of the above problems. A silhouette extraction method and a silhouette extraction system that can distinguish a person and a background even if they have similar colors are provided. The main purpose is to provide.

本発明のうち請求項1記載の発明は、ゴルフクラブを持ってスイング動作を行う人物を背景とともに撮影した動画から、ピクセルの集合体であるフレームを抽出し、該抽出されたフレームの各ピクセルを前記人物又は前記背景のいずれかに特定して前記人物のシルエットを抽出する方法であって、それぞれのピクセルについて、全てのフレームからなる全フレーム集合を作成するステップと、前記全フレーム集合について、頻度がフレーム数であり、階級が色情報であるヒストグラムを作成するステップと、前記動画から前記人物のアドレス状態が撮像されたアドレスフレームを抽出するステップと、前記アドレスフレームを画像処理し、前記人物及び前記ゴルフクラブについて予め定められた複数箇所の特徴点を抽出する特徴点抽出ステップと、前記特徴点に基づいて、前記人物及びゴルフクラブを包含しつつその周囲の背景を一部に含んだ領域であるマスク領域を設定するステップと、前記特徴点に基づいて、前記マスク領域に含まれるピクセルの中から前記人物のシルエットを構成する確率が高い領域である人体ゾーンを設定するステップと、前記人体ゾーンのピクセルのヒストグラムと、前記アドレスフレームの前記人体ゾーンのピクセルの色情報とに基づいて、前記ヒストグラムの中で人体を表す階級である人体区間を決定する人体区間決定ステップと、決定された前記人体区間に基づいて、前記人体ゾーンの外側のピクセルのヒストグラムに人体区間を決定する人体区間伝播ステップと、前記マスク領域の外側である非マスク領域のピクセルのヒストグラムと、前記アドレスフレームの前記非マスク領域のピクセルの色情報とに基づいて、前記ヒストグラムの中で背景を表す階級である背景区間を決定する背景区間決定ステップと、決定された前記背景区間に基づいて、前記マスク領域内のピクセルのヒストグラムに背景区間を決定する背景区間伝播ステップとを含むことを特徴とする。   According to the first aspect of the present invention, a frame, which is an aggregate of pixels, is extracted from a moving image in which a person who performs a swing motion with a golf club is photographed together with a background, and each pixel of the extracted frame is extracted. A method for extracting a silhouette of the person by specifying either the person or the background, the step of creating an entire frame set consisting of all frames for each pixel, and a frequency for the entire frame set Is a number of frames and a class is a color information histogram, extracting an address frame in which the address state of the person is imaged from the moving image, image processing the address frame, the person and A feature point extraction step for extracting a plurality of predetermined feature points for the golf club. And a step of setting a mask region that is a region that includes the person and the golf club and partially includes a background around the person and the golf club, based on the feature point, and on the mask region based on the feature point. A step of setting a human body zone which is a region having a high probability of constituting the silhouette of the person among the included pixels, a histogram of pixels of the human body zone, and color information of pixels of the human body zone of the address frame Based on the human body section determination step for determining a human body section that is a class representing the human body in the histogram, and based on the determined human body section, the human body section is determined in a histogram of pixels outside the human body zone. A human body segment propagation step, a histogram of pixels in a non-mask area outside the mask area, and the histogram. Based on the color information of the pixels of the non-masked area of the less frame, a background section determining step for determining a background section that is a class representing a background in the histogram, and based on the determined background section, And a background interval propagation step for determining a background interval in a histogram of pixels in the mask area.

また請求項2記載の発明は、前記ヒストグラムは、全てのピクセルを対象としかつ階級を輝度とした第1ヒストグラム、有彩色のピクセルを対象として階級を色相とした第2ヒストグラム、及び、無彩色のピクセルを対象として階級が輝度である第3ヒストグラムを含むことを特徴とする。   In the invention according to claim 2, the histogram includes a first histogram for all pixels and a class as luminance, a second histogram for chromatic pixels as a class and hue, and an achromatic color A third histogram having a luminance level for pixels is included.

また請求項3記載の発明は、前記特徴点は、アドレス状態の人体の頭頂部、おでこ、背中、腰、膝裏、踵、つま先、太股、手元、ゴルフクラブのヘッド及び肩の各部を代表する位置を含むことを特徴とする。   According to a third aspect of the present invention, the feature points represent the top of the human body in the addressed state, the forehead, the back, the waist, the back of the knee, the heel, the toes, the thighs, the hands, and the golf club head and shoulders. It includes a position.

また請求項4記載の発明は、前記マスク領域を設定するステップは、前記特徴点を繋いで初期マスク領域を設定するステップと、前記初期マスク領域を予め定められた厚さに膨張させて前記マスク領域を設定することを特徴とする。   According to a fourth aspect of the present invention, the step of setting the mask region includes the step of connecting the feature points to set an initial mask region, and expanding the initial mask region to a predetermined thickness to form the mask. An area is set.

また請求項5記載の発明は、前記人体ゾーンを設定するステップは、前記特徴点に基づいて、前記初期マスク領域の内側かつ明らかに人体である位置に基準点を設定するステップと、前記基準点を用いて前記人体ゾーンを決定することを特徴とする。   In the invention according to claim 5, the step of setting the human body zone includes a step of setting a reference point inside the initial mask area and a position that is clearly a human body based on the feature point, and the reference point The human body zone is determined using.

また請求項6記載の発明は、前記フレームのピクセルのうち、ゴルフ練習場の支柱を表示するピクセルを特定するステップと、該支柱を表示するピクセルと、そのヒストグラムとに基づいて、支柱を表示している階級である支柱区間を決定するステップとを含み、前記背景区間伝播ステップは、前記支柱区間をスキップすることを特徴とする。   According to a sixth aspect of the present invention, a strut is displayed based on a step of identifying a pixel for displaying a driving range support post, a pixel for displaying the support post, and a histogram thereof. Determining a strut section which is a certain class, and the background section propagation step skips the strut section.

また請求項7記載の発明は、前記背景区間及び前記人体区間が決定された後、これらの整合性を判定するステップをさらに含むことを特徴とする。   The invention according to claim 7 further includes a step of determining consistency between the background section and the human body section after the background section and the human body section are determined.

また請求項8記載の発明は、ゴルフクラブを持ってスイング動作を行う人物を背景とともに撮影した動画から、ピクセルの集合体であるフレームを抽出し、該抽出されたフレームの各ピクセルを前記人物又は前記背景のいずれかに特定して前記人物のシルエットを抽出するシステムであって、前記動画を撮影するカメラ、撮影された動画を記憶するメモリ、及び演算部を具え、前記演算部は、それぞれのピクセルについて、全てのフレームからなる全フレーム集合を作成する集合作成部と、前記全フレーム集合について、頻度がフレーム数であり、階級が色情報であるヒストグラムを作成するヒストグラム作成部とを含むとともに、前記動画から前記人物のアドレス状態が撮像されたアドレスフレームを抽出するアドレスフレーム抽出部、前記アドレスフレームを画像処理し、前記人物及び前記ゴルフクラブについて予め定められた複数箇所の特徴点を抽出する特徴点抽出部、前記特徴点に基づいて、前記人体及びゴルフクラブを包含しつつその周囲の背景を小範囲で含んだ領域であるマスク領域を設定するマスク領域設定部、前記特徴点に基づいて、前記マスク領域に含まれるピクセルの中から前記人物のシルエットを構成する確率が高い領域である人体ゾーンを設定する人体ゾーン設定部、前記人体ゾーンのピクセルのヒストグラムと、前記アドレスフレームの前記人体ゾーンのピクセルの色情報とに基づいて、前記ヒストグラムの中で人体を表す階級である人体区間を決定する人体区間決定部、決定された前記人体区間に基づいて、前記人体ゾーンの外側のピクセルのヒストグラムに人体区間を決定する人体区間伝播部、前記マスク領域の外側である非マスク領域のピクセルのヒストグラムと、前記アドレスフレームの前記非マスク領域のピクセルの色情報とに基づいて、前記ヒストグラムの中で背景を表す階級である背景区間を決定する背景区間決定部、及び決定された前記背景区間に基づいて、前記マスク領域内のピクセルのヒストグラムに背景区間を決定する背景区間伝播部を含む判定部を有することを特徴とする。   The invention according to claim 8 extracts a frame, which is an aggregate of pixels, from a moving image in which a person who performs a swing motion with a golf club is photographed together with a background, and each pixel of the extracted frame is defined as the person or A system for extracting the silhouette of the person by specifying any of the backgrounds, comprising a camera for capturing the moving image, a memory for storing the captured moving image, and a calculation unit, The pixel includes a set creation unit that creates a set of all frames including all frames, and a histogram creation unit that creates a histogram in which the frequency is the number of frames and the class is color information for the entire frame set. An address frame extraction unit for extracting an address frame in which the address state of the person is imaged from the moving image; An image processing is performed on the address frame, and a feature point extracting unit that extracts a plurality of predetermined feature points for the person and the golf club. Based on the feature points, the human body and the golf club are included while surrounding the human body and the golf club. A mask region setting unit that sets a mask region that is a region including a background in a small range, and a region that has a high probability of forming the silhouette of the person from the pixels included in the mask region based on the feature points Based on the human body zone setting unit for setting the human body zone, the pixel histogram of the human body zone, and the color information of the pixel of the human body zone of the address frame, a human body section which is a class representing the human body in the histogram. A human body segment determining unit for determining, based on the determined human body segment, a histogram of pixels outside the human body zone; A human body section propagation unit for determining a human body section in a ram, a histogram of pixels in a non-mask area outside the mask area, and color information of pixels in the non-mask area in the address frame. And a determination unit including a background interval determining unit that determines a background interval that is a class representing a background, and a background interval propagating unit that determines a background interval in a histogram of pixels in the mask region based on the determined background interval It is characterized by having.

本発明は、スイング動作中のアドレス状態に着目されてなされた。即ち、アドレス状態は、スイング動作の他の状態に比べて個人差が小さく、人物は、皆、ほぼ同様の姿勢になる。本発明では、このような経験則に基づき、アドレス状態のフレームであるアドレスフレームを画像処理し、人物及びゴルフクラブについて予め定められた複数箇所の特徴点が抽出される。この特徴点に基づいて、人物のシルエットを包含するマスク領域及び該マスク領域の中でさらに人体を構成する確率が高い領域である人体ゾーンが設定される。そして、人体ゾーンのピクセルのヒストグラムと、アドレスフレームの前記人体ゾーンのピクセルの色情報とに基づいて、ヒストグラムの中で人体を表す階級である人体区間が決定され、これに基づいて、人体ゾーンの外側のピクセルのヒストグラムに人体区間を決定するいわゆる人体区間の伝播が行われる。   The present invention has been made paying attention to the address state during the swing operation. In other words, the address state has a smaller individual difference than the other states of the swing motion, and all of the persons are in almost the same posture. In the present invention, based on such an empirical rule, an address frame, which is a frame in an address state, is subjected to image processing, and feature points at a plurality of predetermined locations for a person and a golf club are extracted. Based on the feature points, a mask region including a person's silhouette and a human body zone which is a region having a higher probability of forming a human body in the mask region are set. Then, based on the histogram of the pixel of the human body zone and the color information of the pixel of the human body zone of the address frame, a human body section which is a class representing the human body is determined in the histogram, and based on this, the human body zone Propagation of the so-called human body section is performed to determine the human body section in the histogram of the outer pixels.

また、アドレスフレームにおいて、マスク領域の外側である非マスク領域のピクセルは、背景を構成する確率が高い。そこで、本発明では、非マスク領域のピクセルのヒストグラムと、前記アドレスフレームの前記非マスク領域のピクセルの色情報とに基づいて、前記ヒストグラムの中で背景を表す階級である背景区間が決定され、これに基づいて、前記マスク領域内のピクセルのヒストグラムに背景区間を決定するいわゆる背景区間の伝播が行われる。   In the address frame, the pixels in the non-mask area outside the mask area have a high probability of forming the background. Therefore, in the present invention, based on the histogram of the pixels of the non-mask area and the color information of the pixels of the non-mask area of the address frame, a background section that is a class representing the background in the histogram is determined, Based on this, so-called background interval propagation is performed to determine the background interval in the histogram of the pixels in the mask area.

このような2つの伝播処理を含む本発明の方法によれば、人物と背景とが似たような色合いであっても、両者を上手く区別することができる。従って、精度の高いシルエット抽出が可能になる。   According to the method of the present invention including such two propagation processes, even if the person and the background have similar colors, the two can be distinguished well. Therefore, highly accurate silhouette extraction is possible.

本実施形態のシルエット抽出システムの概念図である。It is a conceptual diagram of the silhouette extraction system of this embodiment. 図1のシステムの演算部の詳細が示された概念図である。FIG. 2 is a conceptual diagram illustrating details of a calculation unit of the system of FIG. 1. 本実施形態のシルエット抽出方法のフローチャートである。It is a flowchart of the silhouette extraction method of this embodiment. カメラアングルが示された説明図である。It is explanatory drawing in which the camera angle was shown. (a)乃至(c)はピクセルについての輝度ヒストグラムである。(A) thru | or (c) are the brightness | luminance histograms about a pixel. (a)乃至(c)はピクセルについての色ヒストグラムである。(A) to (c) are color histograms for pixels. 判定処理のフローチャートである。It is a flowchart of a determination process. 人物の特徴点を説明する概念図である。It is a conceptual diagram explaining the feature point of a person. アドレスフレームとトップフレームとの差分画像である。It is a difference image between an address frame and a top frame. 踵及びつま先の特徴点を説明する画像である。It is an image explaining the feature point of a heel and a toe. 太股の特徴点を説明する画像である。It is an image explaining the feature point of a thigh. 頭頂の特徴点を説明する画像である。It is an image explaining the feature point of a head. おでこの特徴点を説明する画像である。It is an image explaining this forehead feature point. 腰の特徴点を説明する画像である。It is an image explaining the feature point of the waist. 膝裏の特徴点を説明する画像である。It is an image explaining the feature point of the back of the knee. 背中及び肩付近の特徴点を説明する画像である。It is an image explaining the feature point of back and shoulder vicinity. マスク領域を説明する画像である。It is an image explaining a mask area. 人体ゾーンを説明する画像である。It is an image explaining a human body zone. 人体区間決定ステップの一例を示すフローチャートである。It is a flowchart which shows an example of a human body area determination step. ヒストグラムの各位置を説明するグラフである。It is a graph explaining each position of a histogram. 人体区間伝播ステップの一例を示すフローチャートである。It is a flowchart which shows an example of a human body area propagation step. 距離画像を説明するピクセル配列図である。It is a pixel arrangement | sequence figure explaining a distance image. ヒストグラムの各位置を説明するグラフである。It is a graph explaining each position of a histogram. 本発明の概念を説明する線図である。It is a diagram explaining the concept of the present invention. 整合性チエックステップの一例を示すフローチャートである。It is a flowchart which shows an example of a consistency check step. ヒストグラムを用いた説明図である。It is explanatory drawing using a histogram. 本実施形態によって得られたアドレス状態の人物のシルエットである。It is the silhouette of the person of the address state obtained by this embodiment. 本実施形態によって得られたトップ状態の人物のシルエットである。It is the silhouette of the person of the top state obtained by this embodiment. 本実施形態によって得られたフィニッシュ状態の人物のシルエットである。It is the silhouette of the person of the finish state obtained by this embodiment. 支柱が撮影されたアドレスフレームである。This is an address frame in which a support is photographed. 背景区間伝播ステップの処理方法を説明するピクセルの拡大配列図である。It is an enlarged array diagram of a pixel explaining a processing method of a background section propagation step. 実施例1及び比較例1の処理結果を示すシルエット画像である。It is a silhouette image which shows the processing result of Example 1 and Comparative Example 1. 実施例2及び比較例2の処理結果を示すシルエット画像である。It is a silhouette image which shows the processing result of Example 2 and Comparative Example 2. 実施例3及び比較例3の処理結果を示すシルエット画像である。It is a silhouette image which shows the processing result of Example 3 and Comparative Example 3. 実施例4及び比較例4の処理結果を示すシルエット画像である。It is a silhouette image which shows the processing result of Example 4 and Comparative Example 4.

以下、本発明の実施の一形態が図面に基づき説明される。
図1には、本発明を実施するためのシルエット抽出システム1の構成図が示される。本実施形態のシステムは、携帯電話機2と、該携帯電話機2と通信手段を介して接続されたサーバー3とを含む。なお、通信手段には、無線のみならず、途中に有線の通信手段を含ませても良い。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a configuration diagram of a silhouette extraction system 1 for carrying out the present invention. The system of the present embodiment includes a mobile phone 2 and a server 3 connected to the mobile phone 2 via communication means. Note that the communication means may include not only wireless but also wired communication means in the middle.

前記携帯電話機2は、カメラ4、メモリ5及び送受信部6とを含む。前記カメラ4は、動画を撮影することができる。前記メモリ5には、例えばRAM、SDカード(ミニSD、マイクロSD等を含む)及びその他の記憶媒体が挙げられる。   The mobile phone 2 includes a camera 4, a memory 5, and a transmission / reception unit 6. The camera 4 can take a moving image. Examples of the memory 5 include a RAM, an SD card (including a mini SD, a micro SD, and the like) and other storage media.

前記サーバー3は、演算部7、メモリ8及び送受信部9を含む。   The server 3 includes a calculation unit 7, a memory 8, and a transmission / reception unit 9.

前記演算部7には、例えばCPUが用いられ、図2に示されるように、フレーム抽出部7a、第1集合作成部7b、第2集合作成部7c、輝度ヒストグラム作成部7d、色ヒストグラム作成部7e及び判定部7fを含む。   For example, a CPU is used as the arithmetic unit 7, and as shown in FIG. 2, a frame extraction unit 7a, a first set creation unit 7b, a second set creation unit 7c, a luminance histogram creation unit 7d, and a color histogram creation unit. 7e and determination unit 7f.

図3には、本実施形態のシステム1によって行われるシルエット抽出方法の処理手順が記載される。本実施形態では、先ず、ゴルフスイングがカメラ4で撮影される(ステップS1)。   FIG. 3 describes a processing procedure of the silhouette extraction method performed by the system 1 of the present embodiment. In the present embodiment, first, a golf swing is photographed by the camera 4 (step S1).

ゴルフスイングは、ゴルフクラブを持った人物によって行われる一連の動きである。本明細書において、ゴルフスイングは、静止して構えた状態であるアドレス状態、ゴルフクラブを徐々に振り上げるテイクバック、最もゴルフクラブを振り上げられた状態であるトップ、トップからゴルフクラブが振り下ろされるダウンスイング、ゴルフクラブのヘッドがゴルフボールと衝突するインパクト、及び、インパクト後、ゴルフクラブを前方から上方へと振り抜いて静止するフィニッシュまでを含む。   A golf swing is a series of movements performed by a person with a golf club. In this specification, the golf swing refers to an address state where the golf club is stationary, a takeback where the golf club is gradually swung up, a top where the golf club is most swung up, and the golf club is swung down from the top. It includes a downswing, an impact in which the head of the golf club collides with the golf ball, and a finish after the impact, by swinging the golf club from the front upward.

図4には、携帯電話機2のカメラ4で撮影を開始する際の画面が示されている。この画面は、携帯電話機2のモニタ(図示省略)に表示される。この画面は、人物11がゴルフクラブ10を構えて静止したアドレス状態で、人物11の後方から撮影されている。   FIG. 4 shows a screen when shooting is started with the camera 4 of the mobile phone 2. This screen is displayed on a monitor (not shown) of the mobile phone 2. This screen is taken from the back of the person 11 in the address state where the person 11 stands still holding the golf club 10.

好ましい実施形態として、携帯電話機2には、第1ガイド枠12及び第2ガイド枠13が示される。これらの枠12、13は、携帯電話機2の演算部(図示省略)上で実行されるソフトウエアによって表示される。撮影者は、第1ガイド枠12にゴルフクラブ10のグリップ10aが含まれ、第2ガイド枠13にヘッド10bが含まれるように、カメラ4のアングルを決定する。従って、これらの枠12、13は、カメラ4と人物11との距離や、カメラアングルを決定するのに役立つ。   As a preferred embodiment, the mobile phone 2 shows a first guide frame 12 and a second guide frame 13. These frames 12 and 13 are displayed by software executed on a calculation unit (not shown) of the mobile phone 2. The photographer determines the angle of the camera 4 so that the first guide frame 12 includes the grip 10a of the golf club 10 and the second guide frame 13 includes the head 10b. Therefore, these frames 12 and 13 are useful for determining the distance between the camera 4 and the person 11 and the camera angle.

本実施形態では、図4のアドレス状態から前記撮影が開始される。撮影が開始されると、人物11はゴルフスイングを開始し、前記フィニッシュまで撮影が継続される。撮影によって、動画データが得られる。このデータは、メモリ5に記憶される(ステップS2)。この動画のピクセル数は、例えば縦640×横320である。   In the present embodiment, the photographing is started from the address state of FIG. When shooting is started, the person 11 starts a golf swing, and shooting is continued until the finish. Movie data is obtained by shooting. This data is stored in the memory 5 (step S2). The number of pixels of this moving image is, for example, length 640 × width 320.

撮影者又は人物11が携帯電話機2を操作することにより、動画のデータがサーバー3へと送信される(ステップS3)。データは、携帯電話機2の送受信部6から、サーバー3の送受信部9へ送信され、メモリ8に記憶される(ステップS4)。   When the photographer or person 11 operates the mobile phone 2, moving image data is transmitted to the server 3 (step S3). The data is transmitted from the transmission / reception unit 6 of the mobile phone 2 to the transmission / reception unit 9 of the server 3 and stored in the memory 8 (step S4).

次に、フレーム抽出部7aが、動画のデータからピクセルの集合体である多数のフレーム(すなわち静止画のデータ)を抽出する(ステップS5)。1秒あたりの抽出数(フレーム)は30又は60である。例えば、フレーム数が30である3秒の動画データの場合、30×3の90フレームが抽出される。なお、抽出されたフレームには、必要に応じ、各フレームに補正処理がなされる。補正処理としては、手ぶれ補正処理が挙げられる。   Next, the frame extraction unit 7a extracts a large number of frames (that is, still image data) that are aggregates of pixels from the moving image data (step S5). The number of extractions (frames) per second is 30 or 60. For example, in the case of 3 second moving image data with 30 frames, 30 × 3 90 frames are extracted. The extracted frame is subjected to correction processing as necessary. An example of the correction process is a camera shake correction process.

次に、第1集合作成部7bは、それぞれのピクセルについて、全てのフレームからなる全フレーム集合を作成する(ステップS6)。画像が縦640×横320の上記動画の場合、640×320×90=18432000(ピクセル)の集合が作成される。   Next, the first set creation unit 7b creates a whole frame set including all frames for each pixel (step S6). When the image is the above-mentioned moving image of 640 × 320, a set of 640 × 320 × 90 = 184432000 (pixels) is created.

また、第2集合作成部7cは、それぞれのフレームのそれぞれのピクセルが、無彩色であるか有彩色であるかを決定し、それぞれのピクセルごとに、有彩色フレーム集合と無彩色フレーム集合とを作成する(ステップS7)。   The second set creation unit 7c determines whether each pixel of each frame is an achromatic color or a chromatic color. For each pixel, a chromatic color frame set and an achromatic color frame set are determined. Create (step S7).

さらに、輝度ヒストグラム作成部7dは、全フレーム集合について、輝度ヒストグラム(第1ヒストグラム)を作成する(ステップS8)。この輝度ヒストグラムでは、例えば、図5(a)乃至(c)に示されるように、頻度がフレーム数であり、階級が輝度(色情報)である。他の色情報に基づいて輝度ヒストグラムが作成されてもよい。また、輝度ヒストグラムは、平滑化処理されても良い。   Further, the luminance histogram creating unit 7d creates a luminance histogram (first histogram) for all frame sets (step S8). In this luminance histogram, for example, as shown in FIGS. 5A to 5C, the frequency is the number of frames, and the class is luminance (color information). A luminance histogram may be created based on other color information. Further, the luminance histogram may be smoothed.

さらに、色ヒストグラム作成部7eは、有彩色フレーム集合及び無彩色フレーム集合について、色ヒストグラム(第2ヒストグラム)を作成する(ステップS9)。この色ヒストグラムは、例えば、図6(a)乃至(c)に示されるように、頻度がフレーム数であり、有彩色フレーム集合に関する階級が色相(色情報)であり、無彩色フレーム集合に関する階級が輝度(色情報)である。有彩色フレーム集合に関する階級が、色相以外の色情報であってもよく、無彩色フレーム集合に関する階級が、輝度以外の色情報であってもよい。   Further, the color histogram creation unit 7e creates a color histogram (second histogram) for the chromatic color frame set and the achromatic color frame set (step S9). In this color histogram, for example, as shown in FIGS. 6A to 6C, the frequency is the number of frames, the class relating to the chromatic color frame set is the hue (color information), and the class relating to the achromatic color frame set. Is the luminance (color information). The class related to the chromatic color frame set may be color information other than hue, and the class related to the achromatic color frame set may be color information other than luminance.

判定部7fは、これらの情報を用いて、それぞれのピクセルのそれぞれのフレームが背景であるか人物であるかを判定する判定処理(ラベル付け)を行う(ステップS10)。判定処理の手順については、図7に示されている。   The determination unit 7f performs determination processing (labeling) for determining whether each frame of each pixel is a background or a person using these pieces of information (step S10). The procedure of the determination process is shown in FIG.

本実施形態の判定処理では、先ず、判定部7fのアドレスフレーム抽出部が、前記動画のフレームから人物11のアドレス状態が撮像されたアドレスフレームを抽出する(ステップS101)。例えば、アドレスした状態から撮影が開始された場合、時間軸で先頭のフレームが抽出される。このアドレスレームには、図4に示したような、人物11及びゴルフクラブ10が撮影されている。   In the determination process of the present embodiment, first, the address frame extraction unit of the determination unit 7f extracts an address frame in which the address state of the person 11 is captured from the moving image frame (step S101). For example, when shooting starts from the addressed state, the first frame on the time axis is extracted. In this address frame, a person 11 and a golf club 10 are photographed as shown in FIG.

[特徴点抽出ステップ]
次に、判定部7fの特徴点抽出部が、アドレスフレームを画像処理し、人物11及びゴルフクラブ10について予め定められた複数箇所の特徴点を抽出する特徴点抽出ステップを行う(ステップS102)。
[Feature point extraction step]
Next, the feature point extraction unit of the determination unit 7f performs image processing on the address frame, and performs a feature point extraction step of extracting a plurality of predetermined feature points for the person 11 and the golf club 10 (step S102).

本実施形態において、前記特徴点は、図8に示されるように、アドレス状態の人体11の頭頂部11a、おでこ11b、背中11c、腰11d、膝裏11e、踵11f、つま先11g、太股11h、手元11i、ゴルフクラブのヘッド10b及び肩11jの各部を代表する位置である特徴点P1乃至P12を含む。これらの特徴点P1乃至P12は、画像処理から得られるデータに対して、アドレス状態で人物(ゴルファ)がとるほぼ一定の姿勢を考慮することで計算により抽出することができる。以下、その例について述べる。   In the present embodiment, as shown in FIG. 8, the feature points include the top 11a of the human body 11 in the addressed state, the forehead 11b, the back 11c, the waist 11d, the back 11e, the heel 11f, the toes 11g, the thigh 11h, It includes feature points P1 to P12 which are positions representing the respective parts of the hand 11i, the golf club head 10b and the shoulder 11j. These feature points P1 to P12 can be extracted by calculation by considering a substantially constant posture taken by a person (golfer) in an address state with respect to data obtained from image processing. Examples thereof will be described below.

[手元の特徴点P1(x1、y1)]
先ず、判定部7fは、アドレスフレームと、トップの状態にあるフレームとの差分を計算する。図9には、上記計算結果である差分画像の2値画像D1が示され、黒で表示された部分は、変化があったピクセルである。図9から明らかなように、対局とも言える状態にある上記2つのフレームの差分をとることにより、アドレス状態の手元及びゴルフクラブ10の状態が明りょうに現れる。次に、判定部7fは、この差分画像D1に、検出領域F1を設定する。この検出領域F1は、白抜きで示され、ピクセルの座標として、200≦x≦480、250≦y≦530の範囲に設定される。これは、カメラアングル等に基づいて確実に手元及びヘッドが含まれる領域として予め定められている。しかし、検出領域F1は、異なる設定においては範囲の変更が可能である。次に、判定部7fは、差分画像D1の検出領域F1をハフ変換し、ゴルフクラブのシャフト10cから直線Laを抽出する。検出された直線Laの両端La1、La2は、それぞれ検出領域F1の境界上にある。さらに、判定部7fは、直線L1の中点La3に矩形領域を定義し、これを直線Laに沿って、左上に移動させ、該矩形領域内の差分画像数が予め定めた一定値以上になった位置を手元の特徴点P1として抽出する。この処理は、アドレス姿勢では、シャフト10cの上端側には人物の手によって膨らんだ部分、即ち、手元があるという経験則に基づいている。
[Feature point P1 (x1, y1) at hand]
First, the determination unit 7f calculates the difference between the address frame and the frame in the top state. FIG. 9 shows a binary image D1 of the difference image, which is the calculation result, and the portion displayed in black is a pixel that has changed. As is apparent from FIG. 9, by taking the difference between the two frames in a state that can be said to be a game, the hand of the address state and the state of the golf club 10 clearly appear. Next, the determination unit 7f sets a detection area F1 in the difference image D1. This detection area F1 is shown in white and is set in the range of 200 ≦ x ≦ 480 and 250 ≦ y ≦ 530 as pixel coordinates. This is determined in advance as an area that reliably includes the hand and the head based on the camera angle and the like. However, the range of the detection area F1 can be changed in different settings. Next, the determination unit 7f performs Hough transform on the detection area F1 of the difference image D1, and extracts a straight line La from the shaft 10c of the golf club. Both ends La1 and La2 of the detected straight line La are on the boundary of the detection area F1. Further, the determination unit 7f defines a rectangular area at the midpoint La3 of the straight line L1, moves it to the upper left along the straight line La, and the number of difference images in the rectangular area becomes equal to or greater than a predetermined value. The extracted position is extracted as a feature point P1 at hand. This processing is based on an empirical rule that, in the address posture, there is a portion that is swollen by the hand of the person, that is, the hand, on the upper end side of the shaft 10c.

[ヘッドの特徴点P2(x2、y2)]
上記図9において、判定部7fは、矩形領域を直線Laに沿って、右下に移動させ、該矩形領域内の差分ピクセル数が予め定めた一定値以上になった位置をゴルフクラブのヘッドの特徴点P2として抽出する。これらの処理は、アドレス姿勢では、シャフト10cの下端側に形状の大きなヘッドがあるという経験則に基づいている。
[Feature point P2 of head (x2, y2)]
In FIG. 9, the determination unit 7f moves the rectangular area to the lower right along the straight line La, and sets the position where the number of difference pixels in the rectangular area is equal to or larger than a predetermined value to the position of the golf club head. Extracted as a feature point P2. These processes are based on an empirical rule that there is a large-shaped head on the lower end side of the shaft 10c in the address posture.

[右足のつま先の特徴点P3(x3、y3)、右足の踵の特徴点P4(x4、y4)]
図10には、アドレスフレームの二値画像を簡略化して示している。人物11の大凡のシルエットが黒で表示されている。この例では、判定部7fは、上記二値画像に検出領域F2を設定する。この検出領域F2は、カメラアングル等に基づいて右足の踵及びつま先が含まれる領域として予め定められている。判定部7fは、検出領域F2の左下角F2Lから最も近い黒のピクセルを右足の踵の特徴点P4として抽出する。同様に、判定部7fは、検出領域F2の右下角F2Rから最も近い黒のピクセルを右足のつま先の特徴点P3として抽出する。この処理は、アドレス状態を後方から撮影した場合、人物の足元は、右側の端がつま先に、左側の端が踵になるという経験則に基づいている。
[Right foot toe feature point P3 (x3, y3), right foot heel feature point P4 (x4, y4)]
FIG. 10 shows a simplified binary image of an address frame. The general silhouette of the person 11 is displayed in black. In this example, the determination unit 7f sets a detection area F2 in the binary image. The detection area F2 is determined in advance as an area including the heel and toe of the right foot based on the camera angle and the like. The determination unit 7f extracts the black pixel closest to the lower left corner F2L of the detection area F2 as the feature point P4 of the right foot heel. Similarly, the determination unit 7f extracts the black pixel closest to the lower right corner F2R of the detection area F2 as the feature point P3 of the toe of the right foot. This process is based on an empirical rule that when the address state is photographed from the back, the right end is a toe and the left end is a heel.

[左足のつま先の特徴点P5(x5、y5)]
左足のつま先の特徴点P5は、先の右足のつま先の特徴点P3の結果を利用して抽出される。即ち、判定部7fは、図10に示されるように、右足のつま先の特徴点P3を囲む参考領域F3を設定し、この参考領域F3をテンプレートとして、最もマッチングする領域を計算する。この処理は、アドレス状態を後方から撮影した場合、人物の足元は、左右でほぼ同じような形状になるという経験則に基づいている。なお、アドレスフレーム内では、左足のつま先は、右足のつま先の上方近傍に位置するため、マッチングする検索対象領域を限定することもできる。
[Left foot toe feature point P5 (x5, y5)]
The feature point P5 of the toe of the left foot is extracted using the result of the feature point P3 of the toe of the previous right foot. That is, as shown in FIG. 10, the determination unit 7f sets a reference region F3 surrounding the feature point P3 of the right foot toe, and calculates the most matching region using the reference region F3 as a template. This process is based on an empirical rule that when the address state is photographed from the rear, the person's feet have substantially the same shape on the left and right. In the address frame, the toe of the left foot is located in the vicinity of the upper portion of the toe of the right foot, so that the search target area to be matched can be limited.

[太股の特徴点P6(x6、y6)]
図11には、アドレスフレームの二値画像を簡略化して示している。判定部7fは、左足のつま先の特徴点P5を通るy軸と平行な直線Lbと、手元の特徴点P1を通るx軸と平行な直線Lcとの交点を、太股の特徴点P6として抽出する。この処理も、アドレス状態を後方から撮影した場合、人物の太股前側は、上記の位置の近傍になるという経験則に基づいている。
[Thigh feature point P6 (x6, y6)]
FIG. 11 shows a simplified binary image of an address frame. The determination unit 7f extracts, as a feature point P6 of the thigh, an intersection point between a straight line Lb parallel to the y axis passing through the feature point P5 of the toe of the left foot and a straight line Lc parallel to the x axis passing through the feature point P1 at hand. . This process is also based on an empirical rule that when the address state is taken from behind, the front side of the person's thigh is in the vicinity of the above position.

[頭頂の特徴点P7(x7、y7)]
判定部7fは、アドレスフレームと、インパクトの状態のフレームとの差分を計算する。図12には、計算された差分の二値画像D2が示されている。次に、判定部7fは、検出領域F4を設定する。この検出領域F4は、白抜きで示されており、x及びyの座標が下記の範囲に設定される。この検出領域F4は、カメラアングル等に基づいて、予め定められる。次に、判定部7fは、検出領域F4の中の差分ピクセルのうち、y座標が最小の位置を頭頂の特徴点P7として抽出する。この処理では、上記2つの状態では、頭の位置がほぼ同じ位置にあることが経験則的に分かっているので、これらの状態のいずれかでy座標が最小の位置を頭頂とみなすことができるという経験則に基づいている。
x5−15ピクセル≦x≦x1+10ピクセル
10≦y≦y1
ただし、符号は次の通りである。
x1:手元の特徴点P1のx座標
x5:左足のつま先の特徴点P5のx座標
y1:手元の特徴点P1のy座標
[Characteristic point P7 (x7, y7)]
The determination unit 7f calculates the difference between the address frame and the frame in the impact state. FIG. 12 shows a binary image D2 of the calculated difference. Next, the determination unit 7f sets a detection area F4. This detection area F4 is shown in white, and the coordinates of x and y are set in the following range. This detection area F4 is determined in advance based on the camera angle or the like. Next, the determination unit 7f extracts the position having the smallest y coordinate among the difference pixels in the detection region F4 as the feature point P7 on the top of the head. In this process, since it is empirically known that the head position is almost the same in the above two states, the position having the smallest y coordinate in any of these states can be regarded as the top of the head. Based on the rule of thumb.
x5-15 pixels ≦ x ≦ x1 + 10 pixels 10 ≦ y ≦ y1
However, the symbols are as follows.
x1: x coordinate of the feature point P1 at hand x5: x coordinate of the feature point P5 of the toe of the left foot y1: y coordinate of the feature point P1 at hand

[おでこの特徴点P8(x8、y8)]
判定部7fは、アドレスフレームと、フィニッシュの状態のフレームとの差分を計算する。図13には、計算された差分の二値画像D3が示されている。次に、判定部7fは、検出領域F5を設定する。この検出領域F5は、白抜きで示されており、x及びyの座標が下記の範囲に設定される。この検出領域F5は、カメラアングル等に基づいて、予め定められる。次に、判定部7fは、検出領域F5の中の差分ピクセルのうち、x座標が最小の位置をおでこの特徴点P8として抽出する。この処理では、上記2つの状態では、頭の位置がほぼ同じ位置にあることが経験則的に分かっているので、これらの状態のいずれかでx座標が最小の位置をおでことみなすことができるという経験則に基づいている。
x7≦x≦x7+70ピクセル
y7≦y7+40ピクセル
ただし、符号は次の通りである。
x7:頭頂の特徴点P7のx座標
y7:頭頂の特徴点P7のy座標
[Forehead feature point P8 (x8, y8)]
The determination unit 7f calculates the difference between the address frame and the frame in the finish state. FIG. 13 shows a binary image D3 of the calculated difference. Next, the determination unit 7f sets a detection area F5. This detection area F5 is shown in white, and the coordinates of x and y are set in the following range. This detection area F5 is determined in advance based on the camera angle or the like. Next, the determination unit 7f extracts, as the feature point P8, the position where the x coordinate is minimum among the difference pixels in the detection region F5. In this process, since it is empirically known that the head position is approximately the same in the above two states, it is possible to regard the position where the x coordinate is minimum in either of these states as a forehead. It is based on the rule of thumb that you can.
x7 ≦ x ≦ x7 + 70 pixels y7 ≦ y7 + 40 pixels However, the signs are as follows.
x7: x-coordinate of the top feature point P7 y7: y-coordinate of the top feature point P7

[腰の特徴点P9(x9、y9)]
判定部7fは、アドレスフレームと、フィニッシュの状態のフレームとの差分を計算する。図14には、計算された差分の二値画像D4が示されている。次に、判定部7fは、検出領域F6を設定する。この検出領域F6は、白抜きで示されており、x及びyの座標が下記の範囲に設定される。この検出領域F6は、カメラアングル等に基づいて、予め定められる。次に、判定部7fは、検出領域F6の中の差分ピクセルのうち、x座標が最小の位置を腰の特徴点P9として抽出する。この処理では、上記2つの状態では、腰の位置が最も出っ張ることが経験則的に分かっているので、これらの状態のいずれかでx座標が最小の位置をおでことみなすことができるという経験則に基づいている。
x4−70ピクセル≦x≦x4+10ピクセル
y1−50ピクセル≦y1+50ピクセル
ただし、符号は次の通りである。
x4:右足の踵の特徴点P4のx座標
y1:手元の特徴点P1のy座標
[Lumbar feature point P9 (x9, y9)]
The determination unit 7f calculates the difference between the address frame and the frame in the finish state. FIG. 14 shows a binary image D4 of the calculated difference. Next, the determination unit 7f sets a detection area F6. This detection area F6 is shown in white, and the coordinates of x and y are set in the following range. This detection area F6 is determined in advance based on the camera angle or the like. Next, the determination unit 7f extracts a position having the minimum x coordinate as the waist feature point P9 from among the difference pixels in the detection region F6. In this process, since it is empirically known that the position of the waist protrudes most in the above two states, the experience that the position where the x coordinate is the minimum can be regarded as a forehead in any of these states. Based on the law.
x4-70 pixels ≦ x ≦ x4 + 10 pixels y1-50 pixels ≦ y1 + 50 pixels However, the symbols are as follows.
x4: x-coordinate of the right foot heel feature point P4 y1: y-coordinate of the hand feature point P1

[膝裏の特徴点P10(x10、y10)]
判定部7fは、アドレスフレームと、インパクトの状態のフレームとの差分を計算する。図15には、計算された差分の二値画像D5が示されている。次に、判定部7fは、検出領域F7を二値画像D5に設定する。この検出領域F7は、白抜きで示されており、x及びyの座標が下記の範囲に設定される。この検出領域F7は、カメラアングル等に基づいて予め定められる。次に、判定部7fは、検出領域F7の中の差分ピクセルのうち、x座標が最大の位置を膝裏の特徴点P10として抽出する。この処理では、上記2つの状態では、膝裏の位置が最も凹むことが経験則的に分かっているので、これらの状態のいずれかでx座標が最大の位置を膝裏とみなすことができるという経験則に基づいている。
x9≦x≦x9+10ピクセル
0.5*(y9+y4)−10≦y≦0.5*(y9+y4)+10
ただし、符号は次の通りである。
x9:腰の特徴点P9のx座標
y4:右足の踵の特徴点P4のy座標
y9:腰の特徴点P9のy座標
[Feature point P10 of the knee back (x10, y10)]
The determination unit 7f calculates the difference between the address frame and the frame in the impact state. FIG. 15 shows a binary image D5 of the calculated difference. Next, the determination unit 7f sets the detection area F7 to the binary image D5. This detection area F7 is shown in white, and the x and y coordinates are set in the following range. This detection area F7 is determined in advance based on the camera angle or the like. Next, the determination unit 7f extracts, as a feature point P10 of the back of the knee, a position having the maximum x coordinate among the difference pixels in the detection region F7. In this process, since it is empirically known that the position of the back of the knee is the most concave in the above two states, the position where the x coordinate is maximum in any of these states can be regarded as the back of the knee. Based on rules of thumb.
x9 ≦ x ≦ x9 + 10 pixels 0.5 * (y9 + y4) −10 ≦ y ≦ 0.5 * (y9 + y4) +10
However, the symbols are as follows.
x9: x-coordinate of the waist feature point P9 y4: y-coordinate of the feature point P4 of the right heel y9: y-coordinate of the waist feature point P9

[背中の特徴点P11(x11、y11)]
図16に示されるように、判定部7fは、頭頂の特徴点P7と腰の特徴点P9とを結ぶ直線Lcの中点Lc1から法線方向に25ピクセル外側の位置を背中の特徴点P11として抽出する。これは、平均的な人体の体型に基づいて、経験則的に導かれる。
[Back feature point P11 (x11, y11)]
As illustrated in FIG. 16, the determination unit 7f sets a position 25 pixels outside in the normal direction from the midpoint Lc1 of the straight line Lc connecting the top feature point P7 and the waist feature point P9 as the back feature point P11. Extract. This is derived heuristically based on the average human body shape.

[肩付近の特徴点P12(x12、y12)]
図16に示されるように、判定部7fは、おでこの特徴点P8と手元の特徴点P1とを結ぶ直線Ldの中点Ld1から法線方向に30ピクセル内側の位置を肩付近の特徴点P12として抽出する。これは、平均的な人体の体型に基づいて、経験則的に導かれる。
[Feature point P12 near shoulder (x12, y12)]
As shown in FIG. 16, the determination unit 7f determines a position 30 pixels inside the normal direction from the midpoint Ld1 of the straight line Ld connecting the forehead feature point P8 and the feature point P1 at hand. Extract as P12. This is derived heuristically based on the average human body shape.

[マスク領域決定ステップ]
次に、判定部7fは、特徴点P1乃至P12に基づいて、マスク領域を設定する(ステップS103)。
[Mask area determination step]
Next, the determination unit 7f sets a mask area based on the feature points P1 to P12 (step S103).

図17に示されるように、判定部7fは、特徴点P1−P6−P5−P3−P4−P10−P9−P11−P7−P8−P12−P1を繋いで閉区間を形成する。次に、判定部7fは、これらの繋いだ線の外側に数ピクセルの距離dを隔てて平行線Leを引き閉じた領域である第1マスク領域M1を設定する。   As illustrated in FIG. 17, the determination unit 7f connects feature points P1-P6-P5-P3-P4-P10-P9-P11-P7-P8-P12-P1 to form a closed section. Next, the determination unit 7f sets a first mask region M1 that is a region in which the parallel line Le is closed and separated by a distance d of several pixels outside these connected lines.

また、判定部7fは、ゴルフクラブのシャフトを含むP1−P2を繋ぐ直線を膨張させて第2マスク領域M2を設定する。さらに、判定部7fは、ヘッドの特徴点P2を含むとともにヘッドよりも大きい所定の矩形領域である第3のマスク領域M3を設定する。   Moreover, the determination part 7f expands the straight line which connects P1-P2 containing the shaft of a golf club, and sets the 2nd mask area | region M2. Further, the determination unit 7f sets a third mask area M3 that includes a feature point P2 of the head and is a predetermined rectangular area larger than the head.

さらに、判定部7fは、これら第1乃至第3のマスク領域の論理和をマスク領域Mとして決定し、メモリ8に記憶する。このマスク領域Mは、特徴点P1乃至P12に基づいて、人体10及びゴルフクラブ11を包含しつつその周囲の背景を小範囲で含んだ領域とされるよう、前記ピクセル数dが予め設定される。一例として、前記距離dは10ピクセル程度が望ましい。また、前記矩形領域は、xが30ピクセル、yが25ピクセル程度の長方形が望ましい。これらの設定は、カメラアングル等に応じて、適宜変更される場合がある。   Further, the determination unit 7 f determines the logical sum of these first to third mask areas as the mask area M and stores it in the memory 8. Based on the feature points P1 to P12, the mask number M is set in advance so that the mask region M is a region that includes the human body 10 and the golf club 11 and includes a surrounding background in a small range. . As an example, the distance d is preferably about 10 pixels. The rectangular area is preferably a rectangle having x of about 30 pixels and y of about 25 pixels. These settings may be appropriately changed according to the camera angle or the like.

[人体ゾーン決定ステップ]
次に、判定部7fの人体ゾーン設定部が、前記特徴点P1乃至P12に基づいて、前記マスク領域Mに含まれるピクセルの中から前記人物11のシルエットを構成する確率が高い領域である人体ゾーンZを設定する(ステップS104)。
[Human zone determination step]
Next, the human body zone setting unit of the determination unit 7f is a human body zone that has a high probability of forming the silhouette of the person 11 from the pixels included in the mask region M based on the feature points P1 to P12. Z is set (step S104).

この処理は、図18に示されるように、ゾーン設定用の次の基準点Z1乃至Z6が先ず、抽出される。
基準点Z1:頭頂の特徴点P7を通るy軸線と、おでこの特徴点P8を通るx軸線との交点
基準点Z2:頭頂の特徴点P7と腰の特徴点P9とを結ぶ直線の中点
基準点Z3:腰の特徴点P9から右側へ20ピクセルの点
基準点Z4:膝裏の特徴点P10から右側に20ピクセルの点
基準点Z5:右足の踵の特徴点P4から右に20ピクセル及び上に20ピクセルの点
基準点Z6:肩付近の特徴点P12と基準点Z2とを結ぶ直線の中点
これらの基準点Z1乃至Z2は、経験則、及び、カメラアングルを考慮し、各特徴点よりも内側(人物11側)となるように定められる。
In this process, as shown in FIG. 18, the next reference points Z1 to Z6 for zone setting are first extracted.
Reference point Z1: intersection of the y-axis passing through the top feature point P7 and the x-axis passing through the forehead feature point P8 Reference point Z2: midpoint of a straight line connecting the top feature point P7 and the waist feature point P9 Reference point Z3: 20 pixels to the right from the waist feature point P9 Reference point Z4: 20 pixels to the right from the knee feature point P10 Reference point Z5: 20 pixels to the right from the feature point P4 of the right foot 20 pixel points above Reference point Z6: Midpoint of straight line connecting feature point P12 near shoulder and reference point Z2 These reference points Z1 to Z2 are characteristic points in consideration of empirical rules and camera angles. It is determined to be inside (the person 11 side).

次に、判定部7fは、前記基準点Z1乃至Z6を用いて、人体ゾーンZaを決定し、メモリ8に記憶する。この実施形態において、人体ゾーンZaは、基準点Z1−Z2−Z3−Z4−Z5−Z4−Z6−Z1で囲まれる領域である。しかし、より精度を高めるために、区間Z4−Z6は、基準点Z4から上向きにのびる基準点Z5−Z4を結ぶ直線の延長線と、基準点Z6から下向きにのびる基準点Z2−Z3を結ぶ直線と平行な直線とを用いて背中側に凹となる屈曲線で構成される。また、区間Z1−Z6も、基準点Z1とZ6とを直線で結ぶのではなく、基準点Z6からy軸と平行な線と、基準点Z1とZ2とを結ぶ直線とで構成される。なお、人体ゾーンZaの直線の部分は、その直線上のピクセルが、人体ゾーンZaに含まれる。このように決定された人体ゾーンZaは、経験則上、アドレス状態において、明らかに人物11を構成している可能性が高いピクセルの集合となる。   Next, the determination unit 7f determines the human body zone Za using the reference points Z1 to Z6 and stores it in the memory 8. In this embodiment, the human body zone Za is a region surrounded by the reference points Z1-Z2-Z3-Z4-Z5-Z4-Z6-Z1. However, in order to increase the accuracy, the section Z4-Z6 includes an extended line of a straight line connecting the reference points Z5-Z4 extending upward from the reference point Z4 and a straight line connecting the reference points Z2-Z3 extending downward from the reference point Z6. And a bend line that is concave on the back side using a straight line parallel to. Also, the section Z1-Z6 is not formed by connecting the reference points Z1 and Z6 with a straight line, but is formed by a line parallel to the y-axis from the reference point Z6 and a straight line connecting the reference points Z1 and Z2. In the straight line portion of the human body zone Za, pixels on the straight line are included in the human body zone Za. The human body zone Za determined in this way is a set of pixels that are apparently likely to constitute the person 11 in the address state based on a rule of thumb.

[人体区間決定ステップ]
次に、判定部7fの人体区間決定部が、人体ゾーンのピクセルのヒストグラムと、前記アドレスフレームの前記人体ゾーンのピクセルの色情報とに基づいて、前記ヒストグラムに人体区間を決定する人体区間決定ステップを行う(ステップS105)。
[Human body segment determination step]
Next, the human body section determining step in which the human body section determining unit of the determination unit 7f determines the human body section in the histogram based on the histogram of the pixels of the human body zone and the color information of the pixels of the human body zone of the address frame. Is performed (step S105).

ここで、人体区間とは、ヒストグラムにおいて、人体を表している階級(この例では、輝度及び色相)についての範囲である。アドレスフレームの人体ゾーンZaのピクセルは、経験則的に人物を表示している可能性が高い。従って、このピクセルが持つ輝度及び色相の情報を利用すれば、ヒストグラムに人体区間を精度良く決定することができる。   Here, the human body section is a range for a class (in this example, luminance and hue) representing the human body in the histogram. A pixel in the human body zone Za of the address frame is likely to display a person as a rule of thumb. Therefore, if the information on the luminance and hue of the pixel is used, the human body section can be accurately determined in the histogram.

図19には、人体区間決定ステップの処理手順の一例が示されている。
判定部7fは、先ず、メモリ8を参照し、アドレスフレームの処理がされていない人体ゾーンZaの1ピクセルを選択する(ステップS1051)。
FIG. 19 shows an example of the processing procedure of the human body section determination step.
First, the determination unit 7f refers to the memory 8 and selects one pixel of the human body zone Za that has not been processed for an address frame (step S1051).

次に、判定部7fは、該ピクセルの輝度(又は色相)に基づいて、ヒストグラムの左右の端Lleft及びLright(色相の場合、Hleft及びHrightで以下同じ。)を決定する(ステップS1052)。いま、当該ピクセルの輝度ヒストグラムの平滑化処理がなされた場合の例が図20で、当該ピクセルの輝度がLmiddle(色相の場合、Hmiddleで以下同じ。)でそれぞれ表される場合、左端Lleftは、ヒストグラムの曲線上をLmiddleから左に進め、フレーム数が零になる位置とする。同様に、右端Lrightは、ヒストグラムの曲線上をLmiddleから右に進め、フレーム数が零になる位置とする。ただし、零になる位置は、ノイズを避けるために、連続して3階級零が連続したところとする。これにより、アドレスフレームの人体ゾーンZaの任意のピクセルについて、その輝度(又は色相)が含まれるヒストグラムの山の両端が分かる。 Next, the determination unit 7f determines left and right ends L left and L right (in the case of hue, the same applies to H left and H right ) based on the luminance (or hue) of the pixel (step). S1052). Now, an example in which the luminance histogram of the pixel has been smoothed is shown in FIG. 20, and when the luminance of the pixel is represented by L middle (the same applies to H middle in the case of hue), the left end L “left” is a position where the number of frames becomes zero by moving the curve of the histogram from L middle to the left. Similarly, the right end L right is set to a position where the number of frames becomes zero by moving the curve of the histogram from L middle to the right. However, in order to avoid noise, the position where the value becomes zero is assumed to be a place where the third class zero is consecutive. Thereby, for any pixel in the human body zone Za of the address frame, both ends of the peak of the histogram including the luminance (or hue) are known.

次に、判定部7fは、ヒストグラムの左端Lleftと右端Lrightとの差の絶対値|Lright−Lleft|(色相の場合、|Hright−left|で以下同じ。)が所定の階級内か否かを判定する(ステップS1053)。本実施形態では、前記差の絶対値|Lright−Lleft|が1以上14階級以下か否かが判定される。この階級幅は、必要に応じて、変えることができる。 Next, the determination unit 7f the absolute value of the difference between the left L left and right L. Right of the histogram | L right -L left | (case of the hue, | H right- H left |. The same hereinafter) is given It is determined whether or not it is within a class (step S1053). In this embodiment, it is determined whether or not the absolute value | L right −L left | of the difference is 1 or more and 14 or less. This class width can be changed as required.

判定部7fは、前記差の絶対値|Lright−Lleft|がステップS1053を満たさないと判断した場合、即ち、ヒストグラムの幅が零又は予め定めた幅よりも大きい場合、当該ピクセルは、全てのフレームにおいて「背景」を表示するピクセルとして決定する(ステップS1057)。このようなピクセルは、人体区間と決められないため、全てのフレームで「背景」と決定される。 If the determination unit 7f determines that the absolute value | L right −L left | of the difference does not satisfy step S1053, that is, if the width of the histogram is zero or larger than a predetermined width, all the pixels are Are determined as pixels for displaying “background” in the frame (step S1057). Since such a pixel cannot be determined as a human body section, it is determined as “background” in all frames.

他方、前記差の絶対値|Lright−Lleft|がステップS1053で真と判定された場合、色距離Dが計算される(ステップS1054)。ここで、例えば、ピクセルの色情報がHSVである場合、一方のピクセルの色相H1、彩度S1、明度V1の色ベクトルをC1とし、他方のピクセルの色相H2、彩度S2、明度V2の色ベクトルをC2とすると、それらの色距離D(C1,C2)は、下式で計算される。このステップでは、当該ピクセルの輝度(色相)と同一階級のピクセルのHSV平均と、Lright〜Lleftで同一階級のピクセルのHSV平均との色距離が計算される。 On the other hand, if the absolute value | L right −L left | of the difference is determined to be true in step S1053, the color distance D is calculated (step S1054). Here, for example, when the color information of a pixel is HSV, the color vector of hue H 1 , saturation S 1 , and brightness V 1 of one pixel is C 1, and the hue H 2 and saturation S of the other pixel are set. 2. If the color vector of lightness V 2 is C 2 , the color distance D (C 1 , C 2 ) is calculated by the following equation. In this step, the color distance between the HSV average of pixels of the same class as the luminance (hue) of the pixel and the HSV average of pixels of the same class from L right to L left is calculated.

D(C1,C2)=aΔH’+bΔS’+cΔV’
上記式において、符号は次の通りである。
a,b,c:定数で、本実施形態ではa=5.1、b=2.25及びc=2.65
ΔH’=ΔH/4.0
ΔS’=ΔS/2.0
ΔV’=ΔV/2.0
ΔH=√{(X1−X22+(Y1−Y22
ΔS=|S1/100−S2/100|
ΔV=|V1/100−V2/100|
1=S'avgcos(H1×3.6)
1=S'avgsin(H1×3.6)
2=S'avgcos(H2×3.6)
2=S'avgsin(H2×3.6)
S'avg=(S1'+S2')/2
1'=log10(S1/100×99+1.0)
2'=log10(S2/100×99+1.0)
D (C 1 , C 2 ) = aΔH ′ + bΔS ′ + cΔV ′
In the above formula, the symbols are as follows.
a, b, c: constants; in this embodiment, a = 5.1, b = 2.25, and c = 2.65
ΔH ′ = ΔH / 4.0
ΔS ′ = ΔS / 2.0
ΔV ′ = ΔV / 2.0
ΔH = √ {(X 1 −X 2 ) 2 + (Y 1 −Y 2 ) 2 }
ΔS = | S 1/100- S 2/100 |
ΔV = | V 1/100- V 2/100 |
X 1 = S ′ avg cos (H 1 × 3.6)
Y 1 = S ′ avg sin (H 1 × 3.6)
X 2 = S ′ avg cos (H 2 × 3.6)
Y 2 = S ′ avg sin (H 2 × 3.6)
S ′ avg = (S 1 ′ + S 2 ′) / 2
S 1 '= log 10 (S 1 /100×99+1.0)
S 2 '= log 10 (S 2 /100×99+1.0)

次に、判定部7fは、全ての組合せで色距離が0.25以下であるか否かを判定する(ステップS1055)。このステップS1055の判定結果が真の場合、当該ピクセルのヒストグラムの左右の端Lleft、Lrightの階級を人体区間の範囲として定める(ステップS1056)。この色距離の閾値0.25は、種々変更することができる。 Next, the determination unit 7f determines whether or not the color distance is 0.25 or less for all combinations (step S1055). If the determination result in step S1055 is true, the left and right ends L left and L right of the histogram of the pixel are determined as the range of the human body section (step S1056). The color distance threshold 0.25 can be variously changed.

また、ステップS1055の判定結果が偽である場合、当該ピクセルは、全てのフレームにおいて「背景」を表示するピクセルとして決定する(ステップS1057)。   If the determination result in step S1055 is false, the pixel is determined as a pixel that displays “background” in all frames (step S1057).

次に、判定部7fは、輝度ヒストグラム及び色相ヒストグラムの両ヒストグラムで判定したか否かを判断する。輝度ヒストグラムのみを判定した場合には、色相ヒストグラムについてステップS1052以降の処理を同様に行う。この際、輝度は色相に、またヒストグラムの左右の端Lleft、Lrightは、色相ヒストグラムの左右の端Hleft、Hrightにそれぞれ読み替えられるものとする。 Next, the determination unit 7f determines whether or not the determination is made using both the luminance histogram and the hue histogram. When only the luminance histogram is determined, the processing from step S1052 is similarly performed on the hue histogram. At this time, it is assumed that the luminance is read as hue, and the left and right ends L left and L right of the histogram are read as left and right ends H left and H right of the hue histogram, respectively.

次に、判定部7fは、人体ゾーンZaの全てのピクセルについて、人体区間を決定したか否かを判断し(ステップS1059)、結果が偽の場合には、次のピクセルを選択し(ステップS1051)、ステップS1052以降が再度行われる。他方、ステップS1059の結果が真の場合には、メインルーチンに戻る(リターン)。   Next, the determination unit 7f determines whether or not a human body section has been determined for all the pixels in the human body zone Za (step S1059). If the result is false, the next pixel is selected (step S1051). ), Step S1052 and subsequent steps are performed again. On the other hand, if the result of step S1059 is true, the process returns to the main routine (return).

このように、人体区間は、アドレスフレームにおいて、明らかに人体を構成するピクセルを使用し、そのピクセルの輝度Lmiddle(又は色相Hmiddle)を含むヒストグラムの山が一定の幅の区間であること、かつ、色距離が全ての組合せで一定値以下となるようなほぼ等しい色であること条件として定められる。従って、本実施形態の人体区間設定ステップは、精度良く人体区間を決定することができる。 Thus, the human body section uses pixels that clearly constitute the human body in the address frame, and the peak of the histogram including the luminance L middle (or hue H middle ) of the pixel is a section having a certain width. In addition, it is determined as a condition that the color distances are substantially equal so that the color distances are not more than a certain value in all combinations. Therefore, the human body section setting step of the present embodiment can determine the human body section with high accuracy.

[人体区間伝播ステップ]
次に、判定部7fの人体区間伝播部は、ステップS105にて決定された人体区間に基づいて、人体ゾーンZaの外側のピクセルのヒストグラムに人体区間を決定する人体区間伝播ステップを行う(ステップS106)。
[Human body interval propagation step]
Next, based on the human body section determined in step S105, the human body section propagation unit of the determination unit 7f performs a human body section propagation step of determining the human body section in the histogram of the pixels outside the human body zone Za (step S106). ).

一般に、人体を表す隣接するピクセルの色はほぼ等しい場合が多い。このような2つのピクセルでは、ヒストグラムの人体区間の範囲はほぼ等しくなり、かつ、対応するピクセルの色もほぼ等しい。人体区間伝播ステップは、これらの特徴を用いて、人体区間が高い精度で既に設定されているピクセル(判定完了ピクセル)の8近傍のピクセルについて、人体区間が決まっていないピクセル(未判定ピクセル)の人体区間を決定するものである。   In general, the colors of adjacent pixels representing a human body are often almost equal. With such two pixels, the range of the human body section of the histogram is approximately equal, and the colors of the corresponding pixels are approximately equal. Using these characteristics, the human body segment propagation step uses pixels of which the human body segment has not been determined (undecided pixels) for pixels in the vicinity of eight pixels (determination completion pixels) for which the human body segment has already been set with high accuracy. It determines the human body section.

人体区間伝播ステップの具体的な処理手順の一例は、図21に示されている。判定部7fは、先ず、距離画像dijを生成する(ステップS1061)。図22にピクセル配列図が示されるように、距離画像dijは、グレー色で表されている人体ゾーンZaからの距離を表す画像であり、人体ゾーンZaに最も近いところで”1”、そこから遠くなるにつれて1ずつ距離が大きくなるものである。 An example of a specific processing procedure of the human body section propagation step is shown in FIG. First, the determination unit 7f generates a distance image d ij (step S1061). As shown in the pixel arrangement diagram in FIG. 22, the distance image dij is an image representing the distance from the human body zone Za expressed in gray, and is “1” closest to the human body zone Za, and from there The distance increases by 1 as the distance increases.

次に、判定部7fは、初期値として、伝播範囲を規定するパラメータtに1をセットする(ステップS1062)。   Next, the determination unit 7f sets 1 as a parameter t that defines the propagation range as an initial value (step S1062).

次に、判定部7fは、前記距離画像を参照し、t≧dijである未判定ピクセルの8近傍に、人体区間が決定されている判定完了ピクセルが有るか否かを判断する(ステップS1063)。ここで、「8近傍」とは、当該未判定ピクセルに隣接して左、左上、上、右上、右、右下、下及び左下に位置する8個のピクセルを意味する。   Next, the determination unit 7f refers to the distance image and determines whether or not there is a determination completion pixel in which a human body section is determined in the vicinity of 8 of the undetermined pixels where t ≧ dij (step S1063). . Here, “near 8” means eight pixels located adjacent to the undetermined pixel at the left, upper left, upper, upper right, right, lower right, lower and lower left.

未判定ピクセルの8近傍に人体区間が決定されている判定完了ピクセルが全く存在しない場合(ステップS1063でN)、未判定ピクセルは、人体区間が決定されたピクセルと隣設(連続)していないことを意味する。このような場合、前記特徴を満たさないため、当該ピクセルは、全てのフレームにおいて「背景区間」と判定される(ステップS1070)。   If there is no determination completion pixel for which the human body section is determined in the vicinity of 8 of the undetermined pixel (N in step S1063), the undetermined pixel is not adjacent (continuous) to the pixel for which the human body section is determined. Means that. In such a case, since the feature is not satisfied, the pixel is determined as a “background section” in all frames (step S1070).

判定部7fは、8近傍に判定完了ピクセルが存在する場合(ステップS1063でY)、当該未判定ピクセルの輝度及び色相をLBmiddle、HBmiddleに決定(セット)する(ステップS1064)。 If there is a determination completion pixel in the vicinity of 8 (Y in step S1063), the determination unit 7f determines (sets) the luminance and hue of the undetermined pixel as LB middle and HB middle (step S1064).

次に、判定部7fは、伝播条件1を満たすか否かを判断する(ステップS1065)。伝播条件1は、判定の対象となる未判定ピクセルの輝度及び色相が、判定完了ピクセルの人体区間の最頻の輝度及び色相と近似していることである。具体的な計算は、下記の条件で行われる。   Next, the determination unit 7f determines whether or not the propagation condition 1 is satisfied (step S1065). Propagation condition 1 is that the luminance and hue of an undetermined pixel to be determined approximate to the most frequent luminance and hue of the human body section of the determination-completed pixel. The specific calculation is performed under the following conditions.

[伝播条件1]
(輝度の場合)
LAmax−β≦LBmiddle≦LAmax+β
D(CLBmiddle、CLAmax)≦ρ
ただし、符号は次の通りである。
LAmax:判定完了ピクセルの人体区間[Lleft、Lright]の最頻の輝度
β:定数で本実施形態では3
ρ:定数で本実施形態では0.25
D:色距離
CLBmiddle:アドレスフレームの未判定ピクセルの色ベクトル
CLAmax:判定完了ピクセルの最頻値の色ベクトル
(色相の場合)
HAmax−β≦HBmiddle≦HAmax+β
D(CHBmiddle、CHAmax)≦ρ
ただし、符号は次の通りである。
HAmax:判定完了ピクセルの人体区間[Hleft、Hright]の最頻の輝度
β:定数で本実施形態では3
ρ:定数で本実施形態では0.25
D:色距離
CHBmiddle:アドレスフレームの未判定ピクセルの色ベクトル
CHAmax:判定完了ピクセルの最頻値の色ベクトル
[Propagation condition 1]
(In the case of brightness)
LA max −β ≦ LB middle ≦ LA max + β
D (CLB middle , CLA max ) ≦ ρ
However, the symbols are as follows.
LA max : the most frequent luminance of the human body section [L left , L right ] of the determination completion pixel β: constant, 3 in the present embodiment
ρ: constant, 0.25 in this embodiment
D: Color distance CLB middle : Color vector of undetermined pixel of address frame CLA max : Color vector of mode value of determination completed pixel (in case of hue)
HA max −β ≦ HB middle ≦ HA max + β
D (CHB middle , CHA max ) ≦ ρ
However, the symbols are as follows.
HA max : the most frequent luminance of the human body section [H left , H right ] of the determination completion pixel β: constant, 3 in the present embodiment
ρ: constant, 0.25 in this embodiment
D: Color distance CHB middle : Color vector of undetermined pixel of address frame CHA max : Color vector of mode value of determination completed pixel

次に、判定部7fは、未判定ピクセルが伝播条件1を満たす場合(ステップS1065でY)、当該未判定ピクセルのヒストグラムの左右の端LBleft、LBright、HBleft、HBrightが決定される(ステップS1066)。 Next, when the undetermined pixel satisfies the propagation condition 1 (Y in step S1065), the determination unit 7f determines the left and right ends LB left , LB right , HB left , and HB right of the histogram of the undetermined pixel. (Step S1066).

いま、当該未判定ピクセルの輝度及び色相ヒストグラムの平滑化処理がなされた場合の例が図23で、当該ピクセルの輝度(又は色相)がLBmiddle(HBmiddle)でそれぞれ表される場合、左端LBleft(HBleft)は、前記同様、ヒストグラムの曲線上をLBmiddle(HBmiddle)から左に進め、フレーム数が零になる位置とする。同様に、右端LBright(HBright)は、ヒストグラムの曲線上をLBmiddle(HBmiddle)から右に進め、フレーム数が零になる位置とする。ただし、零になる位置は、ノイズを避けるために、連続して3階級零が連続したところとする。これにより、前記ピクセルが持っている輝度及び色相を含む両ヒストグラムの山の両端が分かる。 Now, an example in which the luminance and hue histograms of the undetermined pixel are smoothed is shown in FIG. 23. When the luminance (or hue) of the pixel is represented by LB middle (HB middle ), the left end LB Similarly to the above, left (HB left ) is a position where the number of frames becomes zero by moving the curve on the histogram from LB middle (HB middle ) to the left. Similarly, the right end LB right (HB right ) is set to a position where the number of frames becomes zero by proceeding on the curve of the histogram from LB middle (HB middle ) to the right. However, in order to avoid noise, the position where the value becomes zero is assumed to be a place where the third class zero is consecutive. Thereby, the both ends of the peaks of both histograms including the luminance and hue of the pixel are found.

次に、判定部7fは、未判定ピクセルが、伝播条件2を満たすか否かを判断する(ステップS1067)。伝播条件2は、判定の対象となる未判定ピクセルの輝度ヒストグラム及び色相ヒストグラムの前記山が、予め定めた小さい幅の区間内にあることである。具体的には、下記の式によって計算される。   Next, the determination unit 7f determines whether or not the undetermined pixel satisfies the propagation condition 2 (step S1067). Propagation condition 2 is that the peaks of the luminance histogram and hue histogram of the undetermined pixel to be determined are within a predetermined small width interval. Specifically, it is calculated by the following formula.

[伝播条件2]
(輝度の場合)
1≦|LBright−LBleft|≦14
LAleft−γ≦LBleft≦LAleft+γ
LAright−γ≦LBright≦LAright+γ
ここで、符号は次の通りである。
LAleft:判定完了ピクセルの人体区間の左端
LAright:判定完了ピクセルの人体区間の右端
γ:定数で本実施形態では4とする。
(色相の場合)
1≦|HBright−HBleft|≦14
HAleft−γ≦HBleft≦HAleft+γ
HAright−γ≦HBright≦HAright+γ
ここで、符号は次の通りである。
HAleft:判定完了ピクセルの人体区間の左端
HAright:判定完了ピクセルの人体区間の右端
γ:定数で本実施形態では4とする。
[Propagation condition 2]
(In the case of brightness)
1 ≦ | LB right −LB left | ≦ 14
LA left −γ ≦ LB left ≦ LA left + γ
LA right −γ ≦ LB right ≦ LA right + γ
Here, the symbols are as follows.
LA left : Left end of the human body section of the determination completion pixel LA right : Right end of the human body section of the determination completion pixel γ: Constant, which is 4 in this embodiment.
(In the case of hue)
1 ≦ | HB right −HB left | ≦ 14
HA left −γ ≦ HB left ≦ HA left + γ
HA right −γ ≦ HB right ≦ HA right + γ
Here, the symbols are as follows.
HA left : The left end of the human body section of the determination completion pixel HA right : The right end of the human body section of the determination completion pixel γ: A constant, which is 4 in this embodiment.

伝播条件2が満たされた場合(ステップS1067でY)、判定部7fは、未判定ピクセルが伝播条件3を満たすか否かを判定する(ステップS1068)。   When the propagation condition 2 is satisfied (Y in step S1067), the determination unit 7f determines whether or not the undetermined pixel satisfies the propagation condition 3 (step S1068).

[伝播条件3]
伝播条件3は、輝度については、輝度ヒストグラム内の同一階級のピクセルの色平均p(ただし、p∈[LBleft、LBright])と、LBmiddleである全てのピクセルの色の平均とで計算された色距離Dの値が一定値以下(本実施形態では0.25以下)であることと定義される。色相についても、色相ヒストグラム内の同一階級のピクセルのHSV平均m(ただし、m∈[HBleft、HBright])と、LBmiddleである全てのピクセルの色の平均とで計算された色距離Dの値が一定値以下(本実施形態では0.25以下)であること定義される。伝播条件3を検証することにより、輝度及び色相について、ヒストグラム内で色が同じような傾向になっているかを確認できる。
[Propagation condition 3]
In the propagation condition 3, the luminance is calculated by the color average p of pixels in the same class in the luminance histogram (where pε [LB left , LB right ]) and the average of the colors of all the pixels that are LB middle. It is defined that the value of the color distance D is not more than a certain value (in this embodiment, not more than 0.25). Regarding the hue, the HSV average m (where m∈ [HB left , HB right ]) of pixels in the same class in the hue histogram and the color distance D calculated by the average of the colors of all the pixels that are LB middle Is defined to be not more than a certain value (in this embodiment, not more than 0.25). By verifying the propagation condition 3, it is possible to confirm whether the colors have the same tendency in the histogram with respect to luminance and hue.

判定部7fは、未判定ピクセルが、伝播条件3を満たすと判定した場合、このピクセルのヒストグラムについて、伝播条件1乃至3を全て満たす区間は人体区間、それ以外の区間は背景区間にそれぞれ決定する(ステップS1069)。   When the determination unit 7f determines that the undetermined pixel satisfies the propagation condition 3, regarding the histogram of this pixel, the section that satisfies all the propagation conditions 1 to 3 is determined as the human body section, and the other sections are determined as the background section. (Step S1069).

次に、判定部7fは、未判定ピクセルが、伝播条件1、2及び3の一つでも満たさない場合(ステップS1065、1067又は1068でN)、当該未判定ピクセルの全てのフレームは背景と決定する(ステップS1070)。   Next, when the undetermined pixel does not satisfy one of the propagation conditions 1, 2, and 3 (N in Steps S1065, 1067, or 1068), the determination unit 7f determines that all frames of the undetermined pixel are the background. (Step S1070).

次に、判定部7fは、全ての未判定ピクセルを処理したか否かを判断し(ステップS1071)、判定結果が偽の場合(ステップS1071でN)、他の未判定ピクセルを選択してステップS1063以降を繰り返す。   Next, the determination unit 7f determines whether or not all undetermined pixels have been processed (step S1071). If the determination result is false (N in step S1071), another undetermined pixel is selected and step is performed. S1063 and subsequent steps are repeated.

次に、判定部7fは、ステップS1071で判定結果が真の場合(ステップS1071でY)、伝播範囲を特定するパラメータtに1を加算する(ステップS1072)。これにより、伝播範囲の領域が広げられる。   Next, when the determination result is true in step S1071 (Y in step S1071), the determination unit 7f adds 1 to the parameter t that specifies the propagation range (step S1072). Thereby, the area | region of a propagation range is expanded.

次に、判定部7fは、パラメータtが伝播範囲の最大値(本実施形態では100)以下か否かを判断し(ステップS1073)、結果が真の場合には、メインルーチンに戻る(リターン)。他方、ステップS1073の結果が偽の場合、伝播範囲を一つ広げてステップS1063以降が繰り返される。   Next, the determination unit 7f determines whether or not the parameter t is equal to or less than the maximum value (100 in the present embodiment) of the propagation range (step S1073). If the result is true, the process returns to the main routine (return). . On the other hand, if the result of step S1073 is false, the propagation range is expanded by one and step S1063 and subsequent steps are repeated.

[背景区間決定ステップ]
次に、判定部7fの背景区間決定部は、前記マスク領域Mの外側である非マスク領域のピクセルのヒストグラムと、前記アドレスフレームの非マスク領域のピクセルの色情報とに基づいて、背景区間を決定する(ステップS107)。ここで、背景区間とは、ヒストグラムの中で背景を表す階級(この例では輝度及び色相)についての範囲である。
[Background section determination step]
Next, the background interval determination unit of the determination unit 7f determines the background interval based on the histogram of the pixels in the non-mask area outside the mask area M and the color information of the pixels in the non-mask area of the address frame. Determine (step S107). Here, the background section is a range for a class (in this example, luminance and hue) representing the background in the histogram.

アドレスフレームの非マスク領域のピクセルは、背景を表示している可能性が高い。従って、この非マスク領域のピクセルが持つ輝度及び色相の情報を利用すれば、ヒストグラムに背景区間を精度良く決定することができる。   The pixels in the unmasked area of the address frame are likely to display the background. Therefore, the background interval can be accurately determined in the histogram by using the luminance and hue information of the pixels in the non-mask area.

背景区間決定ステップの処理手順は、基本的には、図19に示した人体区間決定ステップと同様であり、図19の「人体区間」を「背景区間」と、「背景区間」を「人体区間」とそれぞれ読み替えたものであるため、詳細なフローチャートは示さないが、概ね、判定部7fは、次のような処理を行う。   The processing procedure of the background section determination step is basically the same as the human body section determination step shown in FIG. 19, with “human body section” in FIG. 19 being “background section” and “background section” being “human body section. ”, The detailed flowchart is not shown, but the determination unit 7f generally performs the following processing.

a)非マスク領域のピクセルの選択
b)該ピクセルの輝度(色相)に基づき、そのピクセルのヒストグラムの左右の端Lleft及びLright(色相の場合には、Hleft及びHright)の決定
c)ヒストグラムの左端Lleft(Hleft)と右端Lright(Hright)との差の絶対値|Lright−Lleft|(|Hright−Hleft|)が予め定めた所定の階級内か否かを判定
d)前記差の絶対値|Lright−Lleft|(|Hright−Hleft|)が所定の値よりも大きい場合、当該ピクセルを全てのフレームにおいて「人物」を表示するピクセルとして決定
e)前記差の絶対値|Lright−Lleft|(|Hright−Hleft|)が所定の値以下の場合、色距離Dの計算
f)全ての組合せで色距離Dが所定の範囲内にあるか否かを判定
g)ステップfの結果が所定の範囲内の場合、当該ピクセルのヒストグラムの左右の端Lleft(Hleft)、Lright(Hright)の階級を背景区間の範囲として決定
h)ステップfの結果が所定の範囲内ではない場合、当該ピクセルは、全てのフレームにおいて「人物」を表示するものとして決定
i)非マスク領域の全てのピクセルについて上記ステップを実行
a) Selection of a pixel in an unmasked area b) Determination of left and right ends L left and L right (H left and H right in the case of hue) of the histogram of the pixel based on the luminance (hue) of the pixel c ) Whether the absolute value | L right −L left | (| H right −H left |) of the difference between the left end L left (H left ) and the right end L right (H right ) of the histogram is within a predetermined predetermined class. D) If the absolute value | L right −L left | (| H right −H left |) of the difference is larger than a predetermined value, the pixel is set as a pixel for displaying “person” in all frames. Determination e) When the absolute value | L right −L left | (| H right −H left |) of the difference is equal to or less than a predetermined value, the color distance D is calculated. F) The color distance D is a predetermined range in all combinations. G) The result of step f is within a predetermined range For end L left (H left) of the right and left of the histogram of the pixel, when L right (H right) class to determine h) the result of step f as a range of the background section of is not within the predetermined range, the pixel Determined to display “person” in all frames i) perform the above steps for all pixels in the non-masked area

このように、アドレスフレームの中で明らかに背景を構成するであろうピクセルを使用し、そのピクセルの輝度Lmiddle(又は色相Hmiddle)を含むヒストグラムの山が狭い幅の区間にあり、かつ、色距離が全ての組合せで一定値以下となるようなほぼ等しい色であること条件として背景区間が定められる。従って、本実施形態の背景区間設定ステップも、精度良く背景区間を決定することができる。 Thus, using a pixel that will obviously constitute the background in the address frame, the peak of the histogram containing the luminance L middle (or hue H middle ) of that pixel is in a narrow width interval, and The background interval is determined as a condition that the color distances are substantially equal so that the color distance is equal to or less than a certain value in all combinations. Therefore, the background interval setting step of this embodiment can also determine the background interval with high accuracy.

[背景区間伝播ステップ]
次に、判定部7fの背景区間伝播部は、決定された前記背景区間に基づいて、前記マスク領域内のピクセルのヒストグラムに背景区間を決定する背景区間伝播ステップを行う(ステップS108)。
[Background interval propagation step]
Next, the background interval propagation unit of the determination unit 7f performs a background interval propagation step of determining a background interval in the histogram of the pixels in the mask region based on the determined background interval (step S108).

背景区間伝播ステップの処理手順は、基本的には、図21に示した人体区間伝播ステップと同様であり、図21の「人体区間」を「背景区間」と、「背景区間」を「人体区間」とそれぞれ読み替えたものであるため、詳細なフローチャートは示さないが、判定部7fは、概ね、次のような処理を行う。   The processing procedure of the background section propagation step is basically the same as the human body section propagation step shown in FIG. 21. In FIG. 21, “human body section” is “background section” and “background section” is “human body section. The detailed description is not shown, but the determination unit 7f generally performs the following processing.

ア)距離画像dijの生成
イ)伝播範囲を規定するパラメータtに1をセット
ウ)t≧dijである未判定ピクセルの8近傍に、背景区間が決定されている判定完了ピクセルが有るか否かを判断
エ)未判定ピクセルの8近傍に背景区間が決定されている判定完了ピクセルが全く存在しない場合、当該ピクセルを全てのフレームにおいて「人体区間」と判定
オ)未判定ピクセルの8近傍に判定完了ピクセルが存在する場合、当該未判定ピクセルの輝度及び色相をLBmiddle、HBmiddleに決定
カ)未判定ピクセルが伝播条件1を満たすか否かを判断し、未判定ピクセルが伝播条件1を満たす場合、当該未判定ピクセルのヒストグラムの左右の端LBleft、LBright、HBleft、HBrightを決定して伝播条件2を満たすか否かを判断
キ)伝播条件2が満たされた場合、未判定ピクセルが伝播条件3を満たすか否かの判定
ク)未判定ピクセルが、伝播条件3を満たす場合、このピクセルのヒストグラムについて、伝播条件1乃至3を全て満たす区間は背景区間、それ以外の区間は人体区間にそれぞれ決定
ケ)未判定ピクセルが、伝播条件1、2及び3の一つでも満たさない場合、当該未判定ピクセルの全てのフレームを人体と決定
コ)全ての未判定ピクセルについて上記処理を実行した後、パラメータtに1を加算
サ)パラメータtが伝播範囲の最大値を越えるまで処理を続ける
A) Generation of distance image d ij b) Set 1 to parameter t that defines the propagation range c) Whether there is a determination completion pixel whose background section is determined in the vicinity of 8 undetermined pixels where t ≧ d ij D) If there are no determination complete pixels whose background interval is determined in the vicinity of 8 undetermined pixels, the pixel is determined to be a “human body interval” in all frames. E) 8 neighborhoods of undetermined pixels If there is a determination completion pixel, the luminance and hue of the undetermined pixel are determined as LB middle and HB middle. F ) It is determined whether the undetermined pixel satisfies the propagation condition 1, and the undetermined pixel is determined as the propagation condition 1. If it satisfies, the left and right ends LB left , LB right , HB left , HB right of the histogram of the undetermined pixel are determined to determine whether or not the propagation condition 2 is satisfied. If the undetermined pixel satisfies the propagation condition 3, if the undetermined pixel satisfies the propagation condition 3, the interval that satisfies all of the propagation conditions 1 to 3 in the histogram of this pixel is The background section and the other sections are determined as the human body section. I) If the undetermined pixel does not satisfy one of the propagation conditions 1, 2, and 3, all frames of the undetermined pixel are determined as the human body. After executing the above processing for the undetermined pixels, add 1 to the parameter t. The processing continues until the parameter t exceeds the maximum value of the propagation range.

[整合性判定ステップ]
次に、判定部7fの整合性チェック部は、前記背景区間及び前記人体区間が決定された後、これらの整合性を判定する(ステップS109)。
[Consistency judgment step]
Next, after the background section and the human body section are determined, the consistency check section of the determination unit 7f determines the consistency of these (step S109).

図24には、これまで行った処理が模式的に示されている。人体区間伝播ステップは、人体ゾーンのピクセルを用いてその周囲に人体区間を伝播させていくものである。また、背景区間伝播ステップは、非マスク領域のピクセルを用いてその内側に背景区間を伝播させていくものである。これらのステップにより、次の各領域は、それぞれ2つの方式で人体区間及び背景区間が決定されることになる。
人体ゾーン:人体区間決定ステップ及び背景区間伝播ステップ
人体ゾーンの外部でマスク領域内:人体区間伝播ステップ及び背景区間伝播ステップ
非マスク領域:背景区間決定ステップ及び人体区間伝播ステップ
FIG. 24 schematically shows the processing performed so far. In the human body zone propagation step, the human body zone is propagated around the human body zone using pixels. In the background interval propagation step, the background interval is propagated inward using pixels in the non-mask area. With these steps, the human body section and the background section are determined for each of the following areas by two methods.
Human body zone: human body zone determination step and background zone propagation step Outside the human body zone in mask area: human body zone propagation step and background zone propagation step Non-masked region: background zone determination step and human body zone propagation step

しかしながら、各方式の違いによって、区間の決め方に矛盾が生じるおそれがある。そこで、本実施形態では、このような矛盾を解決するために、整合性判定ステップが行われる。整合性判定ステップの処理手順の一例は、図25に示されている。   However, there is a possibility that contradictions occur in the method of determining the section due to the difference in each method. Therefore, in this embodiment, a consistency determination step is performed in order to solve such a contradiction. An example of the processing procedure of the consistency determination step is shown in FIG.

判定部7fは、先ず、整合性条件1を満たすか否かを判断する(ステップ1091)。この実施形態では、整合性条件1は、次の通りである。   First, the determination unit 7f determines whether or not the consistency condition 1 is satisfied (step 1091). In this embodiment, the consistency condition 1 is as follows.

[整合性条件1]
D(C;C)<0.3
人体区間伝播ステップ、背景区間伝播ステップ、人体区間決定ステップ又は背景区間決定ステップのいずれかにおいて、背景区間と人体区間の両方が決定されたピクセルを対象として、背景区間のピクセル値(輝度及び色相)の平均Cと、人体区間のピクセル値(輝度及び色相)の平均Cの色距離D(C;C)が予め定めた一定値未満(本実施形態では0.3未満)か否か
[Consistency condition 1]
D (C b ; C h ) <0.3
Pixel values (luminance and hue) of the background section for pixels for which both the background section and the human body section are determined in any of the human body section propagation step, the background section propagation step, the human body section determination step, or the background section determination step. not; (C h C b) is less than a constant value determined in advance (less than 0.3 in this embodiment) of the average C b, the body section pixel value average C h color distance D (luminance and hue) Or

そして、判定部7fは、整合性条件1の判定結果が偽の場合(ステップS1091でN)、決定された人体区間及び背景区間は、それぞれ正しいものと判定する。また、それ以外の区間は、背景区間として決定する(ステップS1095)。整合性条件1では、人体区間と背景区間のピクセル値の平均の色が近すぎないかが判断される。判定部7fは、整合性条件1が満たされないと判断した場合、人体区間と背景区間との色が十分に相違していると判断し、先の判定結果を正しいものとして取り扱う。   Then, when the determination result of the consistency condition 1 is false (N in Step S1091), the determination unit 7f determines that the determined human body section and the background section are correct. The other sections are determined as background sections (step S1095). In the consistency condition 1, it is determined whether the average color of the pixel values of the human body section and the background section is not too close. If the determination unit 7f determines that the consistency condition 1 is not satisfied, the determination unit 7f determines that the colors of the human body section and the background section are sufficiently different, and treats the previous determination result as correct.

他方、判定部7fは、整合性条件1を満たすと判断した場合(ステップS1091でY)、整合性条件2を満たすか否かを判断する(ステップS1092)。この実施形態では、整合性条件2は、次の通りである。   On the other hand, when determining that the consistency condition 1 is satisfied (Y in step S1091), the determination unit 7f determines whether the consistency condition 2 is satisfied (step S1092). In this embodiment, the consistency condition 2 is as follows.

[整合性条件2]
D(C;Cback)<D(C;Chuman) …(1)
A>B …(2)
ここで、符号は次の通りである。
D(C;Cback):対象ピクセルのピクセル値の平均Cと、その伝播元である非マスク領域のピクセルの背景区間のピクセル値の色ベクトルCbackとの色距離
D(C;Chuman):ピクセル値の平均Cと、その伝播元である人体ゾーンのピクセルの人体区間のピクセル値の色ベクトルChumanとの色距離
A:(FとFback)の共通しているフレーム数/Fbackの数
B:(FとFhuman)の共通しているフレーム数/Fhumanの数
:D(C;C)<0.3を満たす位置の背景区間に対応するフレーム集合
back:Cbackの背景区間に対応するフレーム集合
human:Chumanの人体区間に対応するフレーム集合
[Consistency condition 2]
D (C b ; C back ) <D (C b ; C human ) (1)
A> B (2)
Here, the symbols are as follows.
D (C b ; C back ): Color distance D (C b ;) between the average C b of the pixel values of the target pixel and the color vector C back of the pixel value of the background section of the non-mask region pixel that is the propagation source. C human): average pixel value C b and the color distance between the color vector C human pixel values of the human body section of the propagation source in which the human body zones pixels a: are common in (F b and F back) Number of frames / Number of F back B: Number of frames common to (F b and F human ) / Number of F human F b : In the background section at a position satisfying D (C b ; C h ) <0.3 Corresponding frame set F back : Frame set corresponding to the background section of C back F human : Frame set corresponding to the human body section of C human

図26には、あるピクセルのヒストグラムが例に挙げられている。あるピクセルの背景区間のピクセルの色平均と、伝播元の背景色、伝播元の人体色との色距離を計算した場合、背景色との色距離が小さくなることがある。整合性条件2の式(1)は、この点を検証する。また、背景のフレームを多く含む方が、背景区間として信頼できる。整合性条件2の式(2)では、この点を検証している。   FIG. 26 shows a histogram of a certain pixel as an example. When the color distance between the average color of pixels in the background section of a certain pixel, the background color of the propagation source, and the human body color of the propagation source is calculated, the color distance from the background color may be small. Equation (1) of consistency condition 2 verifies this point. In addition, it is more reliable as a background section to include more background frames. This point is verified in the expression (2) of the consistency condition 2.

判定部7fは、整合性条件2をも満たすと判断した場合(ステップS1092でY)、当該区間は、背景区間と決定する(ステップS1094)。また、判定部7fは、整合性条件2が満たされないと判断した場合、当該区間は、人体区間に決定する(ステップS1093)。このように、整合性チェックを行うことにより、より精度の高い判定が可能になる。   If it is determined that the consistency condition 2 is also satisfied (Y in step S1092), the determination unit 7f determines that the section is a background section (step S1094). If the determination unit 7f determines that the consistency condition 2 is not satisfied, the section is determined as a human body section (step S1093). As described above, by performing the consistency check, it is possible to perform determination with higher accuracy.

以上の処理により、全てのフレームの全てのピクセルが、「背景区間」又は「人物区間」のいずれかに区分される。そして、各フレームについては、輝度ヒストグラム及び色相ヒストグラムを用いて背景か人物かを決定することができる。   Through the above processing, all the pixels in all the frames are classified into either “background section” or “person section”. For each frame, it is possible to determine whether it is a background or a person using a luminance histogram and a hue histogram.

図27乃至29には、本実施形態のシルエット抽出方法によって得られたアドレス、トップ及びフィニッシュの各フレームの人物のシルエットが示されている。この方法により、人物のシルエットがほぼ忠実に再現されている。このようなシルエットを用い、ゴルファのスイングが画像処理によって診断される。   27 to 29 show the silhouettes of the person in the address, top, and finish frames obtained by the silhouette extraction method of the present embodiment. By this method, the silhouette of the person is reproduced almost faithfully. A golfer's swing is diagnosed by image processing using such a silhouette.

本発明は、種々の改良を加えることができる。
例えば、カメラ4によるスイングの撮影がゴルフ練習場で行われる場合、各フレームの背景の中には、図30に示されるように、ゴルフ練習場のネットを支える1乃至複数本の支柱16が含まれることがある。このような支柱16は、カメラアングルに縦方向にのびている。このため、支柱16は、その間の背景の類似した景色の色iの横方向の連続性を阻害する。これは、背景区間伝播ステップの精度を低下させる原因になりやすい。従って、背景の中でも、予め支柱16を別に認識しておけば、背景区間伝播ステップにおいて、この支柱16を表すピクセルをスキップして(跨いで)伝播させれば、背景区間伝播ステップの精度を高めることができる。
Various improvements can be added to the present invention.
For example, when shooting of a swing by the camera 4 is performed at a golf driving range, the background of each frame includes one or more support columns 16 that support the net of the golf driving range, as shown in FIG. May be. Such a support column 16 extends vertically in the camera angle. For this reason, the support | pillar 16 blocks | interrupts the horizontal continuity of the color i of the scenery with the similar background in the meantime. This tends to reduce the accuracy of the background interval propagation step. Therefore, if the struts 16 are separately recognized in the background in advance, if the pixels representing the struts 16 are skipped (spread) in the background interval propagation step, the accuracy of the background interval propagation step is increased. be able to.

支柱の特徴としては、例えば、次の規則性を挙げることができる。
A)アドレスフレームの上部エリア(例えば0≦y≦250)にある
B)ほぼ無彩色である
C)垂直線に対して±2度
D)x方向の幅が所定ピクセルの範囲(本実施形態では1〜11ピクセル)
As a feature of the support, for example, the following regularity can be given.
A) In the upper area of the address frame (for example, 0 ≦ y ≦ 250) B) Almost achromatic C) ± 2 degrees with respect to the vertical line D) Range in the x direction of a predetermined pixel (in this embodiment, 1-11 pixels)

本実施形態では、上記の規則性を利用し、アドレスフレームの各ピクセルの情報を用いて、上記ピクセル集合を検索する。これによって、アドレスフレームにおいて、支柱16を表示している階級である支柱区間の特定することができる。また、支柱16は、ゴルフスイングの間、変化しないと考えられるので、他のフレームにおいても支柱16とみなすことができる。   In the present embodiment, the pixel set is searched using the information of each pixel of the address frame using the regularity. Thereby, in the address frame, it is possible to specify the column section that is the class displaying the column 16. Moreover, since it is thought that the support | pillar 16 does not change during a golf swing, it can be considered as the support | pillar 16 also in another frame.

そして、前記背景区間決定ステップにおいて、前記支柱区間のピクセルをスキップすることが望ましい。図31には、ピクセルの拡大平面図が示されており、グレーで表示されているピクセルは、支柱16を表示するものとする。今、背景区間伝播ステップにおいて、ピクセル9を処理するものとする。ピクセル9の8近傍ピクセルは、ピクセル1乃至8になる。しかし、この場合、ピクセル3、5及び8が支柱を表示するピクセルであるため、この場合の8近傍は、これらのピクセルをスキップしてピクセル1、2、4、6、7、3’、5’及び8’とし、これらを参照するものとする。従って、例えば、ピクセル1、2、4、6及び7が、未判定ピクセルであっっても、ピクセル3’、5’及び8’のいずれかが判定完了ピクセルであればこれらを参考にしてピクセル9の背景区間を決定することができる。   In the background section determination step, it is desirable to skip pixels in the support section. FIG. 31 shows an enlarged plan view of the pixel, and the pixel displayed in gray displays the column 16. Now, assume that the pixel 9 is processed in the background interval propagation step. The eight neighboring pixels of pixel 9 become pixels 1-8. However, in this case, since the pixels 3, 5 and 8 are the pixels displaying the pillars, the neighborhood of 8 in this case skips these pixels, and the pixels 1, 2, 4, 6, 7, 3 ′, 5 These shall be referred to as “and 8”. Therefore, for example, even if the pixels 1, 2, 4, 6, and 7 are undetermined pixels, if any of the pixels 3 ′, 5 ′, and 8 ′ is a determination completed pixel, the pixels are referred to these pixels. Nine background segments can be determined.

以上、本発明について種々説明したが、本発明のシルエット抽出システムは、携帯電話機2のCPUを使用して、これだけで実現することもできる。この場合、携帯電話機のみで本発明を実施でき、サーバーとの接続は不要である。撮影者は、携帯電話機2のみを持参すれば、その場でスイングを診断しうる。   As described above, the present invention has been variously described, but the silhouette extraction system of the present invention can be realized by using only the CPU of the mobile phone 2. In this case, the present invention can be implemented using only a mobile phone, and connection with a server is unnecessary. If the photographer brings only the mobile phone 2, the photographer can diagnose the swing on the spot.

[処理例1:図32]
実施例1は、原画像に、本発明に従うシルエット抽出処理を施したものである。比較例1は、上記特許文献1のように、原画像に背景区間伝播ステップ+固定マスク処理を行ってシルエット抽出を行ったものである。処理の結果、比較例1では、矩形の枠囲み部分のように、背景とよく似た色である人物の胸部分が背景として認識されている。一方、実施例1では、このような不具合はなく、認識精度が高い。
[Processing Example 1: FIG. 32]
In the first embodiment, a silhouette extraction process according to the present invention is performed on an original image. In Comparative Example 1, silhouette extraction is performed by performing a background interval propagation step + fixed mask process on an original image as in Patent Document 1 described above. As a result of the processing, in Comparative Example 1, a person's chest part having a color very similar to the background, such as a rectangular framed part, is recognized as the background. On the other hand, in Example 1, there is no such inconvenience and the recognition accuracy is high.

[処理例2:図33]
実施例2は、原画像に、本発明に従うシルエット抽出処理を施したものである。比較例2は、上記特許文献1のシルエット抽出を行ったものである。処理の結果、比較例1では、矩形の枠囲み部分のように、背景とよく似た色である人物の腰前方部分が背景として認識されている。一方、実施例2では、このような不具合はなく、認識精度が高い。
[Processing Example 2: FIG. 33]
In the second embodiment, a silhouette extraction process according to the present invention is performed on an original image. In Comparative Example 2, the silhouette extraction of Patent Document 1 is performed. As a result of the processing, in Comparative Example 1, a waist front portion of a person having a color very similar to the background, such as a rectangular framed portion, is recognized as the background. On the other hand, in Example 2, there is no such a malfunction and recognition accuracy is high.

[処理例3:図34]
実施例3は、原画像に、本発明に従うシルエット抽出処理を施したものであり、支柱の認識処理及び背景区間伝播ステップにおいて支柱のピクセルのスキップを行った。比較例3は、上記特許文献1のシルエット抽出を行ったものである。処理の結果、比較例3では、矩形の枠囲み部分のように、支柱の一部が人物として認識されている。これは、支柱を越えて背景区間の伝播が行えなかったため、支柱のピクセルが人物に含まれていると考えられる。一方、実施例3では、このような不具合はなく、認識精度が高い。
[Processing Example 3: FIG. 34]
In the third embodiment, silhouette extraction processing according to the present invention is performed on the original image, and strut pixels are skipped in the strut recognition processing and the background interval propagation step. In Comparative Example 3, the silhouette extraction of Patent Document 1 is performed. As a result of the processing, in Comparative Example 3, a part of the support column is recognized as a person like a rectangular framed part. This is because the background pixel cannot be propagated beyond the support column, and the pixel of the support column is considered to be included in the person. On the other hand, in Example 3, there is no such inconvenience and the recognition accuracy is high.

[処理例4:図35]
実施例4は、原画像に、本発明に従うシルエット抽出処理を施したものであり、支柱の認識処理及び背景区間伝播ステップにおいて支柱のピクセルのスキップを行った。比較例4は、上記特許文献1のシルエット抽出を行ったものである。処理の結果、比較例4では、矩形の枠囲み部分のように、支柱の一部が人物として認識されている。一方、実施例4では、このような不具合はなく、認識精度が高い。
[Processing Example 4: FIG. 35]
In the fourth embodiment, silhouette extraction processing according to the present invention is performed on the original image, and strut pixels are skipped in the strut recognition processing and the background interval propagation step. In Comparative Example 4, the silhouette extraction of Patent Document 1 is performed. As a result of the processing, in Comparative Example 4, a part of the support column is recognized as a person like a rectangular framed portion. On the other hand, in Example 4, there is no such inconvenience and the recognition accuracy is high.

1 シルエット抽出システム
2 携帯電話機
3 サーバー
4 カメラ
5、8 メモリ
7 演算部
1 Silhouette Extraction System 2 Mobile Phone 3 Server 4 Camera 5 and 8 Memory 7 Calculation Unit

Claims (8)

ゴルフクラブを持ってスイング動作を行う人物を背景とともに撮影した動画から、ピクセルの集合体であるフレームを抽出し、該抽出されたフレームの各ピクセルを前記人物又は前記背景のいずれかに特定して前記人物のシルエットを抽出する方法であって、
それぞれのピクセルについて、全てのフレームからなる全フレーム集合を作成するステップと、
前記全フレーム集合について、頻度がフレーム数であり、階級が色情報であるヒストグラムを作成するステップと、
前記動画から前記人物のアドレス状態が撮像されたアドレスフレームを抽出するステップと、
前記アドレスフレームを画像処理し、前記人物及び前記ゴルフクラブについて予め定められた複数箇所の特徴点を抽出する特徴点抽出ステップと、
前記特徴点に基づいて、前記人物及びゴルフクラブを包含しつつその周囲の背景を一部に含んだ領域であるマスク領域を設定するステップと、
前記特徴点に基づいて、前記マスク領域に含まれるピクセルの中から前記人物のシルエットを構成する確率が高い領域である人体ゾーンを設定するステップと、
前記人体ゾーンのピクセルのヒストグラムと、前記アドレスフレームの前記人体ゾーンのピクセルの色情報とに基づいて、前記ヒストグラムの中で人体を表す階級である人体区間を決定する人体区間決定ステップと、
決定された前記人体区間に基づいて、前記人体ゾーンの外側のピクセルのヒストグラムに人体区間を決定する人体区間伝播ステップと、
前記マスク領域の外側である非マスク領域のピクセルのヒストグラムと、前記アドレスフレームの前記非マスク領域のピクセルの色情報とに基づいて、前記ヒストグラムの中で背景を表す階級である背景区間を決定する背景区間決定ステップと、
決定された前記背景区間に基づいて、前記マスク領域内のピクセルのヒストグラムに背景区間を決定する背景区間伝播ステップとを含むことを特徴とするシルエット抽出方法。
Extract a frame, which is a collection of pixels, from a moving image of a person who performs a swing motion with a golf club and the background, and specify each pixel of the extracted frame as either the person or the background A method for extracting the silhouette of the person,
Creating a complete frame set of all frames for each pixel;
Creating a histogram in which the frequency is the number of frames and the class is color information for the entire frame set;
Extracting an address frame in which the address state of the person is imaged from the moving image;
A feature point extracting step of performing image processing on the address frame and extracting feature points at a plurality of predetermined locations for the person and the golf club;
Based on the feature points, setting a mask area that includes the person and the golf club while partially including the surrounding background;
Setting a human body zone that is a region having a high probability of forming the silhouette of the person from pixels included in the mask region based on the feature points;
A human body section determining step for determining a human body section that is a class representing a human body in the histogram based on a histogram of pixels of the human body zone and color information of pixels of the human body zone of the address frame;
A human body segment propagation step for determining a human body segment in a histogram of pixels outside the human body zone based on the determined human body segment;
Based on the histogram of the pixels in the non-mask area outside the mask area and the color information of the pixels in the non-mask area in the address frame, a background section that is a class representing the background in the histogram is determined. A background segment determination step;
A silhouette extraction method comprising: a background interval propagation step of determining a background interval in a histogram of pixels in the mask region based on the determined background interval.
前記ヒストグラムは、全てのピクセルを対象としかつ階級を輝度とした第1ヒストグラム、有彩色のピクセルを対象として階級を色相とした第2ヒストグラム、及び、無彩色のピクセルを対象として階級が輝度である第3ヒストグラムを含む請求項1記載のシルエット抽出方法。   The histogram is a first histogram for all pixels and having a class as luminance, a second histogram with a class as hue for chromatic pixels, and a class whose luminance is achromatic pixels. The silhouette extraction method according to claim 1, comprising a third histogram. 前記特徴点は、アドレス状態の人体の頭頂部、おでこ、背中、腰、膝裏、踵、つま先、太股、手元、ゴルフクラブのヘッド及び肩の各部を代表する位置を含む請求項1又は2記載のシルエット抽出方法。   3. The feature points include positions representing the top of the human body in the addressed state, forehead, back, waist, back of knees, heels, toes, thighs, hands, golf club heads and shoulders. Silhouette extraction method. 前記マスク領域を設定するステップは、前記特徴点を繋いで初期マスク領域を設定するステップと、
前記初期マスク領域を予め定められた厚さに膨張させて前記マスク領域を設定する請求項1乃至3のいずれかに記載のシルエット抽出方法。
The step of setting the mask region includes the step of connecting the feature points to set an initial mask region;
4. The silhouette extraction method according to claim 1, wherein the mask area is set by expanding the initial mask area to a predetermined thickness.
前記人体ゾーンを設定するステップは、前記特徴点に基づいて、前記初期マスク領域の内側かつ明らかに人体である位置に基準点を設定するステップと、
前記基準点を用いて前記人体ゾーンを決定する請求項4記載のシルエット抽出方法。
Setting the human body zone based on the feature points, setting a reference point at a position that is clearly human body inside the initial mask region; and
The silhouette extraction method according to claim 4, wherein the human body zone is determined using the reference point.
前記フレームのピクセルのうち、ゴルフ練習場の支柱を表示するピクセルを特定するステップと、
該支柱を表示するピクセルと、そのヒストグラムとに基づいて、支柱を表示している階級である支柱区間を決定するステップとを含み、
前記背景区間伝播ステップは、前記支柱区間をスキップする請求項1乃至5のいずれかに記載のシルエット抽出方法。
Identifying a pixel for displaying a driving range support among the pixels of the frame;
Determining a column section that is a class displaying the column based on the pixel displaying the column and the histogram thereof;
The silhouette extraction method according to claim 1, wherein the background section propagation step skips the strut section.
前記背景区間及び前記人体区間が決定された後、これらの整合性を判定するステップをさらに含む請求項1乃至6のいずれかに記載のシルエット抽出方法。   The silhouette extraction method according to claim 1, further comprising a step of determining consistency between the background section and the human body section after the background section and the human body section are determined. ゴルフクラブを持ってスイング動作を行う人物を背景とともに撮影した動画から、ピクセルの集合体であるフレームを抽出し、該抽出されたフレームの各ピクセルを前記人物又は前記背景のいずれかに特定して前記人物のシルエットを抽出するシステムであって、
前記動画を撮影するカメラ、撮影された動画を記憶するメモリ、及び演算部を具え、
前記演算部は、
それぞれのピクセルについて、全てのフレームからなる全フレーム集合を作成する集合作成部と、
前記全フレーム集合について、頻度がフレーム数であり、階級が色情報であるヒストグラムを作成するヒストグラム作成部とを含むとともに、
前記動画から前記人物のアドレス状態が撮像されたアドレスフレームを抽出するアドレスフレーム抽出部、
前記アドレスフレームを画像処理し、前記人物及び前記ゴルフクラブについて予め定められた複数箇所の特徴点を抽出する特徴点抽出部、
前記特徴点に基づいて、前記人体及びゴルフクラブを包含しつつその周囲の背景を小範囲で含んだ領域であるマスク領域を設定するマスク領域設定部、
前記特徴点に基づいて、前記マスク領域に含まれるピクセルの中から前記人物のシルエットを構成する確率が高い領域である人体ゾーンを設定する人体ゾーン設定部、
前記人体ゾーンのピクセルのヒストグラムと、前記アドレスフレームの前記人体ゾーンのピクセルの色情報とに基づいて、前記ヒストグラムの中で人体を表す階級である人体区間を決定する人体区間決定部、
決定された前記人体区間に基づいて、前記人体ゾーンの外側のピクセルのヒストグラムに人体区間を決定する人体区間伝播部、
前記マスク領域の外側である非マスク領域のピクセルのヒストグラムと、前記アドレスフレームの前記非マスク領域のピクセルの色情報とに基づいて、前記ヒストグラムの中で背景を表す階級である背景区間を決定する背景区間決定部、及び
決定された前記背景区間に基づいて、前記マスク領域内のピクセルのヒストグラムに背景区間を決定する背景区間伝播部を含む判定部を有することを特徴とするシルエット抽出システム。
Extract a frame, which is a collection of pixels, from a moving image of a person who performs a swing motion with a golf club and the background, and specify each pixel of the extracted frame as either the person or the background A system for extracting the silhouette of the person,
A camera for capturing the video, a memory for storing the captured video, and a calculation unit;
The computing unit is
For each pixel, a set creation unit that creates a set of all frames including all frames;
A histogram creation unit that creates a histogram in which the frequency is the number of frames and the class is color information for the entire frame set;
An address frame extraction unit that extracts an address frame in which the address state of the person is imaged from the moving image;
A feature point extraction unit that performs image processing on the address frame and extracts feature points at a plurality of predetermined positions for the person and the golf club;
Based on the feature points, a mask area setting unit that sets a mask area that includes the human body and the golf club and includes a background around the human body and the golf club;
Based on the feature points, a human body zone setting unit that sets a human body zone that is a region having a high probability of forming the silhouette of the person from the pixels included in the mask region;
A human body section determination unit that determines a human body section that is a class representing a human body in the histogram based on a histogram of pixels of the human body zone and color information of pixels of the human body zone of the address frame;
Based on the determined human body section, a human body section propagation unit that determines a human body section in a histogram of pixels outside the human body zone,
Based on the histogram of the pixels in the non-mask area outside the mask area and the color information of the pixels in the non-mask area in the address frame, a background section that is a class representing the background in the histogram is determined. A silhouette extraction system comprising: a background section determination section; and a determination section including a background section propagation section that determines a background section in a histogram of pixels in the mask region based on the determined background section.
JP2011268286A 2011-12-07 2011-12-07 Silhouette extraction method and silhouette extraction system Active JP5816068B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011268286A JP5816068B2 (en) 2011-12-07 2011-12-07 Silhouette extraction method and silhouette extraction system
US13/707,218 US8824787B2 (en) 2011-12-07 2012-12-06 Silhouette correction method and system and silhouette extraction method and system
KR1020120142374A KR101982352B1 (en) 2011-12-07 2012-12-07 Silhouette correction method and system and silhouette extraction method and system
CN201210556368.7A CN103150720B (en) 2011-12-07 2012-12-07 Contour correction method and system and contour extraction method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011268286A JP5816068B2 (en) 2011-12-07 2011-12-07 Silhouette extraction method and silhouette extraction system

Publications (2)

Publication Number Publication Date
JP2013120497A true JP2013120497A (en) 2013-06-17
JP5816068B2 JP5816068B2 (en) 2015-11-17

Family

ID=48773110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011268286A Active JP5816068B2 (en) 2011-12-07 2011-12-07 Silhouette extraction method and silhouette extraction system

Country Status (1)

Country Link
JP (1) JP5816068B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021521543A (en) * 2018-04-20 2021-08-26 ソニーグループ株式会社 Object segmentation in a series of color image frames with background image and background depth correction

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164563A (en) * 2002-09-26 2004-06-10 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program
JP2011078069A (en) * 2009-10-02 2011-04-14 Sri Sports Ltd Silhouette extracting method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164563A (en) * 2002-09-26 2004-06-10 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program
JP2011078069A (en) * 2009-10-02 2011-04-14 Sri Sports Ltd Silhouette extracting method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021521543A (en) * 2018-04-20 2021-08-26 ソニーグループ株式会社 Object segmentation in a series of color image frames with background image and background depth correction
JP6997419B2 (en) 2018-04-20 2022-01-17 ソニーグループ株式会社 Object segmentation in a series of color image frames with background image and background depth correction

Also Published As

Publication number Publication date
JP5816068B2 (en) 2015-11-17

Similar Documents

Publication Publication Date Title
US20180232561A1 (en) Facial image processing method and apparatus, and storage medium
KR101982352B1 (en) Silhouette correction method and system and silhouette extraction method and system
US9928411B2 (en) Image processing apparatus, image processing system, image processing method, and computer program product
JP5820366B2 (en) Posture estimation apparatus and posture estimation method
JP5791812B2 (en) Clothes image processing device, clothes image display method, and program
US9384563B2 (en) Image processing device, method, and computer program product
JP5613741B2 (en) Image processing apparatus, method, and program
KR102514697B1 (en) Apparatus and method for analyzing golf motion
US9639950B2 (en) Site estimation device, site estimation method, and site estimation program
US20150190716A1 (en) Generation of avatar reflecting player appearance
US11429193B2 (en) Control of virtual objects based on gesture changes of users
JP2007087345A (en) Information processing device, control method therefor, computer program, and memory medium
JP2019096113A (en) Processing device, method and program relating to keypoint data
CN107481280B (en) Correction method of skeleton points and computing device
WO2019116495A1 (en) Technique recognition program, technique recognition method, and technique recognition system
JP2019046239A (en) Image processing apparatus, image processing method, program, and image data for synthesis
JP5816068B2 (en) Silhouette extraction method and silhouette extraction system
JP4717445B2 (en) Image processing system, image processing device, game device, program, information storage medium, and image processing method
JP5876121B2 (en) Image processing apparatus, method, and program
WO2012161291A1 (en) Site separation location extraction device, program, and method
JP7031047B1 (en) Image processing methods, computer programs and image processing equipment
JP7024876B2 (en) Detection device, processing device, detection method, and processing program
CN114641794A (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium storing image processing program
US20220203200A1 (en) Golf swing analysis system, golf swing analysis method, and information storage medium
WO2023017723A1 (en) Information processing device, information processing system, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150925

R150 Certificate of patent or registration of utility model

Ref document number: 5816068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250