JP2015079339A - Posture estimation device - Google Patents
Posture estimation device Download PDFInfo
- Publication number
- JP2015079339A JP2015079339A JP2013215777A JP2013215777A JP2015079339A JP 2015079339 A JP2015079339 A JP 2015079339A JP 2013215777 A JP2013215777 A JP 2013215777A JP 2013215777 A JP2013215777 A JP 2013215777A JP 2015079339 A JP2015079339 A JP 2015079339A
- Authority
- JP
- Japan
- Prior art keywords
- person
- model
- image
- posture
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011156 evaluation Methods 0.000 claims abstract description 75
- 238000003384 imaging method Methods 0.000 claims abstract description 58
- 238000000605 extraction Methods 0.000 abstract description 10
- 230000036544 posture Effects 0.000 description 93
- 238000000034 method Methods 0.000 description 81
- 230000008569 process Effects 0.000 description 69
- 238000004364 calculation method Methods 0.000 description 44
- 238000012545 processing Methods 0.000 description 40
- 238000012544 monitoring process Methods 0.000 description 30
- 230000008859 change Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 208000012802 recumbency Diseases 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 230000035807 sensation Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
Abstract
【課題】人物の姿勢を推定するにあたって複数の特徴量を用いて姿勢評価式を生成し、当該姿勢評価式を用いて姿勢の判別をする姿勢推定装置を提供する。【解決手段】撮像部にて撮影された第一姿勢の人物を模した第一モデル画像と、撮像部にて撮影された第二姿勢の人物を模した第二モデル画像を生成するモデル画像生成手段と、画像から複数種類の特徴量を算出する特徴量算出手段と、特徴量ごとに、第一モデル画像の特徴量と第二モデル画像の特徴量との相違に応じて姿勢評価用の重みを決定して姿勢評価式を生成する姿勢評価式生成手段と、入力画像から人物領域画像を抽出する人物領域抽出手段と、人物領域画像について算出した特徴量から姿勢評価式に基づいて姿勢を推定する姿勢判定手段を有する。【選択図】図1Provided is a posture estimation device that generates a posture evaluation formula using a plurality of feature amounts and estimates a posture using the posture evaluation formula when estimating a posture of a person. Model image generation for generating a first model image simulating a person in a first posture photographed by an imaging unit and a second model image simulating a person in a second posture photographed by an imaging unit A feature amount calculating means for calculating a plurality of types of feature amounts from the image, and a weight for posture evaluation according to a difference between the feature amount of the first model image and the feature amount of the second model image for each feature amount A posture evaluation formula generating means for generating a posture evaluation formula and a human region extraction means for extracting a human area image from the input image, and estimating a posture from the feature amount calculated for the human area image based on the posture evaluation formula Posture determination means for [Selection] Figure 1
Description
本発明は、人物が写された画像から算出される特徴量に基づいて当該人物の姿勢を推定する装置に関する。 The present invention relates to an apparatus for estimating a posture of a person based on a feature amount calculated from an image of the person.
人物が写された画像から当該人物の姿勢を推定する装置が提案されている。姿勢の推定には、入力された画像に写された人物の領域を求め、当該領域について各種の特徴量を抽出して閾値処理する等の処理が行われる。 An apparatus for estimating the posture of a person from an image of the person has been proposed. For the estimation of the posture, a region of a person shown in the input image is obtained, and various features are extracted from the region and threshold processing is performed.
例えば、特徴量として、入力画像中の人物領域の長軸方向が入力画像の横軸(X軸)となす角度を用いる技術が開示されている(特許文献1)。 For example, a technique is disclosed that uses, as a feature amount, an angle formed by a long axis direction of a human region in an input image and a horizontal axis (X axis) of the input image (Patent Document 1).
また、特徴量として、背景差分により得られた人物領域の面積を用い、閾値以上の場合には人物は床面に横臥していると判定する装置が開示されている(特許文献2)。 In addition, an apparatus is disclosed that uses the area of a person region obtained by background difference as a feature amount and determines that a person is lying on the floor surface when the area is equal to or greater than a threshold value (Patent Document 2).
図11(a)〜(c)は、実際の空間を模擬した図(右図)とカメラ120が撮影した画像(左図)を示している。図11(a)〜(c)は、カメラ120を左上方に設置して、斜め上方から人物を撮影した画像である。
FIGS. 11A to 11C show a diagram (right diagram) simulating an actual space and an image (left diagram) taken by the
図11(a)では、立位の人物121がカメラ120にて撮影されている図である。図11(b)は、人物とカメラ120とを含む鉛直面101に沿った方向に横臥している人物122がカメラ120にて撮影されている図である。図11(c)は、人物とカメラ120とを含む鉛直面101に垂直となる方向に横臥している人物123がカメラ120にて撮影されている図である。
In FIG. 11A, the standing
特許文献1では、画像中の人物領域の長軸方向(足と頭を結ぶ方向)が画像の横軸(X軸)となす角度を主軸角θとして算出し、立位であれば90°に近く、横臥であれば0°に近くなるとして、人物の姿勢を判定している。
In
このため、図11(a)の立位の人物領域103と、図11(c)の横臥している人物領域105は、人物領域の長軸方向と画像の横軸(X軸)となす角度である主軸角θが90°近辺と0°近辺と大きく異なり、立位なのか横臥なのか判別は容易である。しかしながら、図11(a)の立位の人物領域103と、図11(b)の横臥している人物領域104とは、人物領域の長軸方向と画像の横軸(X軸)となす角度である主軸角θがどちらも90°近辺となり判別が困難となる。したがって、特許文献1の方法では、立位と横臥を判別することが困難である。
For this reason, the standing
特許文献2では、人物領域の面積から人物が転倒したかを検出している。図11(a)の立位の人物領域103と、図11(b)の横臥している人物領域104とは、図から明らかなように面積が大きく変動しているので立位と横臥の区別は可能である。しかしながら、図11(a)立位の人物領域103と図11(c)の横臥の人物領域105の面積は、略同じ面積を示すため立位なのか横臥なのか判別できない。したがって、特許文献2の方法では、立位と横臥を判別することが困難になる。
In Patent Literature 2, it is detected whether a person has fallen from the area of the person region. Since the area of the standing
このように、特徴量を1つのみ用いて人物の姿勢を推定した場合、高い確度での推定が困難であった。さらに、仮に複数の特徴量を用いたとしても、単に併用しただけでは高い精度での推定は困難である。 In this way, when the posture of a person is estimated using only one feature amount, it is difficult to estimate with high accuracy. Furthermore, even if a plurality of feature quantities are used, it is difficult to estimate with high accuracy simply by using them together.
そこで、本発明は、人物の姿勢を推定するにあたって複数の特徴量を用い、正しい姿勢が推定されるように特徴量を重み付けして姿勢の判別をする姿勢推定装置を提供することを目的とする。 In view of the above, an object of the present invention is to provide a posture estimation apparatus that uses a plurality of feature amounts to estimate a posture of a person and weights the feature amounts so that a correct posture is estimated to determine the posture. .
本発明にかかる姿勢推定装置は、所定位置に設置された撮像部が撮影した入力画像中の人物領域画像から複数種類の特徴量を算出して人物の姿勢を推定する姿勢推定装置であって、撮像部にて撮影された第一姿勢の人物を模した第一モデル画像と、撮像部にて撮影された第二姿勢の人物を模した第二モデル画像を生成するモデル画像生成手段と、画像から複数種類の特徴量を算出する特徴量算出手段と、特徴量ごとに、第一モデル画像の特徴量と第二モデル画像の特徴量との相違に応じて姿勢評価用の重みを決定して姿勢評価式を生成する姿勢評価式生成手段と、入力画像から人物領域画像を抽出する人物領域抽出手段と、人物領域画像について算出した特徴量から姿勢評価式に基づいて姿勢を推定する姿勢判定手段を有することを特徴とする。 An attitude estimation apparatus according to the present invention is an attitude estimation apparatus that calculates a plurality of types of feature amounts from a person region image in an input image captured by an imaging unit installed at a predetermined position and estimates a person's attitude. A model image generating means for generating a first model image imitating a person in a first posture photographed by an imaging unit, a second model image imitating a person in a second posture photographed by an imaging unit, and an image A feature amount calculation means for calculating a plurality of types of feature amounts from the feature amount, and for each feature amount, a weight for posture evaluation is determined according to a difference between the feature amount of the first model image and the feature amount of the second model image Attitude evaluation expression generating means for generating an attitude evaluation expression, human area extraction means for extracting a person area image from an input image, and attitude determination means for estimating an attitude based on an attitude evaluation expression from a feature amount calculated for the person area image It is characterized by having .
本発明にかかる姿勢推定装置は、姿勢の違いによる特徴量の差に応じて重み付けをして姿勢評価式を生成して用いるため、姿勢を精度良く推定できる。 Since the posture estimation apparatus according to the present invention generates and uses a posture evaluation formula by weighting according to a difference in feature amount due to a difference in posture, the posture can be estimated with high accuracy.
さらに、モデル画像生成手段は、人物領域画像から撮像部の撮影空間にて推定された人物の体格に合致するように、予め記憶した所定の人物モデルを拡大又は縮小し、人物モデルを撮像部にて撮影したと仮定して第一モデル画像および第二モデル画像を生成することが好適である。 Further, the model image generation means enlarges or reduces a predetermined person model stored in advance so as to match the physique of the person estimated from the person region image in the imaging space of the imaging unit, and the person model is stored in the imaging unit. It is preferable to generate the first model image and the second model image on the assumption that the images have been taken.
これにより、人物の体格を反映させて重みを決定するので、さらに精度良く人物の姿勢を推定できる。 Thereby, since the weight is determined by reflecting the physique of the person, the posture of the person can be estimated with higher accuracy.
さらに、モデル画像生成手段は、人物領域画像から撮像部の撮影空間における人物位置を推定し、位置に予め記憶した所定の人物モデルを配置し、人物モデルを撮像部が撮影したと仮定して第一モデル画像および第二モデル画像を生成することが好適である。 Further, the model image generation means estimates the person position in the imaging space of the imaging unit from the person area image, places a predetermined person model stored in advance at the position, and assumes that the imaging unit has captured the person model. It is preferable to generate one model image and a second model image.
これにより、撮影空間における人物の位置による写り方の違いを反映させて重みを決定するので、さらに精度良く人物の姿勢を推定できる。 As a result, the weight is determined by reflecting the difference in how the image is taken depending on the position of the person in the shooting space, so that the posture of the person can be estimated with higher accuracy.
さらに、所定の人物モデルは、単一形状の人物モデルであって、モデル画像生成手段は、人物領域画像から撮像部の撮影空間における人物の足元位置を推定し、足元位置を合わせて立位姿勢と横臥姿勢のモデルを配置し、立位姿勢の人物モデルを撮像部が撮影したと仮定して第一モデル画像を生成し、横臥姿勢の人物モデルを撮像部が撮影したと仮定して第二モデル画像を生成することが好適である。 Further, the predetermined person model is a single-shaped person model, and the model image generation means estimates a person's foot position in the imaging space of the imaging unit from the person area image, and matches the foot position to a standing posture. And a recumbent posture model, a first model image is generated on the assumption that the imaging unit has captured a human model in a standing posture, and a second model on the assumption that the imaging unit has captured a human model in a recumbent posture. It is preferable to generate a model image.
これにより、第一の姿勢として立位の姿勢、第二の姿勢として横臥の姿勢としたときに、立位姿勢と横臥姿勢との特徴量の差を反映して重み付けをした姿勢評価式を生成し、用いるため、精度良く立位姿勢または横臥姿勢の推定ができる。 As a result, when the first posture is the standing posture and the second posture is the recumbent posture, a weighted posture evaluation formula is generated that reflects the difference in the feature amount between the standing posture and the recumbent posture. Therefore, the standing posture or the lying posture can be estimated with high accuracy.
さらに、所定の人物モデルは、第一姿勢の人物モデルおよび第一姿勢の人物モデルと形状が異なる第二姿勢の人物モデルであることが好適である。 Further, the predetermined person model is preferably a person model having a first posture and a person model having a second posture having a shape different from that of the person model having the first posture.
これにより、形状の違いによる特徴量の差に応じて重み付けをするため、人物の形状の違いが生じる姿勢を精度良く推定できる。 Thereby, since weighting is performed according to the difference in feature amount due to the difference in shape, it is possible to accurately estimate the posture in which the difference in shape of the person occurs.
本発明によれば、人物の姿勢を推定するにあたって複数の特徴量を用いて姿勢評価式を生成し、当該姿勢評価式を用いて姿勢の判別をする姿勢推定装置を提供することができる。 According to the present invention, it is possible to provide a posture estimation apparatus that generates a posture evaluation formula using a plurality of feature amounts and estimates a posture using the posture evaluation formula when estimating the posture of a person.
本発明の姿勢推定装置を、立位姿勢と横臥姿勢を識別する横臥判定装置に適用した形態について説明する。
本発明の実施の形態における横臥判定装置1は、図1に示すように、撮像部10、記憶部20、画像処理部30及び出力部40を含んで構成される。横臥判定装置1は、撮像部10で撮像された画像に写された人物の立位姿勢と横臥姿勢を識別して判定する。
A mode in which the posture estimation device of the present invention is applied to a recumbent determination device that identifies a standing posture and a recumbent posture will be described.
As shown in FIG. 1, the
本実施の形態では、横臥判定装置1として各部を一体的に説明するが、撮像部10、記憶部20、画像処理部30、出力部40とをそれぞれ別筐体とし、通信技術を駆使して必要な制御信号等を通信するようにしてもよい。また、これらを適宜組み合わせて筐体に組み込むようにしてもよい。
In the present embodiment, each unit will be described as the lying down
撮像部10は、撮像空間を撮影した画像を入力画像として画像処理部30に出力する。撮像部10は、光学系、CCD素子又はC−MOS素子等の撮像素子、光学系部品、アナログ/デジタル変換器等を含んで構成される。これらの撮像素子は、明るさを電気信号に変換する可視光タイプでもよいし、赤外線に反応して温度を電気信号に変換する熱画像タイプとしてもよい。撮影は所定時間間隔で行う。
入力画像は、撮像部10から撮影される都度、画像処理部30を介して一時的に記憶部20に記憶される。
The
The input image is temporarily stored in the
本実施の形態では、撮像部10は、人物の姿勢を推定するべき場所(監視領域)の床面の上方、例えば天井に設置される。撮像部10は、支柱に取り付けてもよい。撮像部10は、撮像方向が斜め下向きに向けられて設置されているものとする。
In the present embodiment, the
記憶部20は、ROM(Read Only Memory)、RAM(Random Access Memory)等の半導体メモリ、ハードディスク等のメモリ装置で構成される。記憶部20は、画像処理部30からアクセス可能であり、カメラ情報21、追跡情報22、人物モデル23の他、図示しないプログラム、入力画像、背景画像、判定処理に用いられる閾値等のデータを記憶する。
The
カメラ情報21は、入力画像中の領域と監視領域の実際の位置との関係を幾何学的な方法で算出するために用いられる情報である。カメラ情報21は、撮像部10の画角、床面からの高さ、俯角の情報などの各種パラメータを含む。
The
追跡情報22は、撮像部10が入力画像を取得した現時刻、入力画像から抽出された人物領域画像の位置情報(重心位置座標)、人物領域画像を追跡したフレーム数である追跡回数、後述する体格推定処理にて推定された体格情報(身長および身幅)を対応付けた情報である。人物領域画像の位置情報は、入力画像に複数の人物が存在した場合の追跡処理、および各人物の体格を推定するために用いられる。追跡回数は、後述する追跡手段により新規に出現したと判断されると、初期値として1が設定される。
The tracking
人物モデル23は、撮影対象である人物をポリゴンモデルやサーフェースモデルなどで3次元形状を表現した情報であり、少なくとも標準的な人間の身長(170cm)、身幅(60cm)および頭頂と足下を結ぶ軸(主軸)を表現したモデルである。かかる人物モデル23は、後述する体格推定処理にて推定された体格に合わせて拡大縮小される。また、本実施の形態では、「気を付け」の姿勢が人物モデル23として記憶されているものとする。
尚、予め記憶される背景画像とは、入力画像のうち撮像範囲内に人物が存在しないときの画像である。
The
The background image stored in advance is an image when no person is present in the imaging range of the input image.
画像処理部30は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)又はMCU(Micro Control Unit)等を含む演算装置(コンピュータ)により実現される。画像処理部30は、記憶部20に記憶している各種プログラムを読み出して実行することにより、以下に述べる各手段として機能する。
The
画像処理部30は、撮像部10で撮影された入力画像を順次処理する。なお、処理する画像は、1フレーム毎に撮影時間順に処理してもよいし、数フレームおきに処理を行ってもよい。
The
画像処理部30は、人物領域抽出手段301、追跡手段302、特徴量算出手段303、姿勢評価式生成手段304、評価値算出手段311及び姿勢判定手段312の各モジュールから構成されている。
The
人物領域抽出手段301は、記憶部20に一時的に記憶された入力画像において生じた変化領域を抽出し、その内部を切り出す手段である。具体的には、入力画像と記憶部20に記憶された背景画像とにおいて対応する画素どうしの輝度差を求め、その差分値が輝度閾値以上となる画素を変化領域として抽出する。なお、変化領域の抽出方法は、これに限られるものではなく、時間的に隣り合う入力画像のフレーム間差分処理によって抽出した領域を変化領域として抽出する方法を採用してもよい。
The person
人物領域抽出手段301は、変化領域として特定された画素群について、同一の物体によるものと考えられる領域を纏めてラベリング処理を行う。ラベリング処理には、周知の処理を適用すればよい。変化領域は、通常、照明の変動やノイズの重畳等の理由により、大小様々な領域が抽出されるが、撮像部10の解像度やカメラ情報21を参照して、人らしい条件を満たす大きさ、縦横比を有する変化領域に人が写っているものとして以後の処理対象とする。この処理対象となった変化領域を、以下「人物領域」と呼び、入力画像からその内部を切り出した部分画像を以下「人物領域画像」と呼ぶ。
なお、人物領域画像の抽出方法は、これに限られるものではなく、検出対象である人物画像を学習した学習識別器によって人物領域画像を抽出する方法、人物テンプレートとのマッチング処理にて類似するとされた領域を人物領域画像として抽出する方法など種々の方法を採用してもよい。
The person
Note that the method of extracting a person area image is not limited to this, and is similar in a method of extracting a person area image by a learning discriminator that has learned a person image that is a detection target, and a matching process with a person template. Various methods such as a method of extracting a region as a human region image may be employed.
また、人物領域抽出手段301は、人物領域画像の入力画像中の重心位置を求め、追跡処理のために追跡手段302に出力する。
In addition, the person
追跡手段302は、記憶部20に追跡情報22として記憶されている前時刻における人物領域画像の位置を参照して、その位置から所定の距離以内にある現時刻における人物領域画像を同一人物によるものとみなして対応付けることにより追跡処理をする。また、前時刻における人物領域画像に対応付いた現時刻の人物領域画像の重心位置を、現時刻と対応付けて記憶部20の追跡情報22として記憶させる。なお、現時刻の人物領域画像が前時刻おける人物領域画像と対応付くと、追跡情報22の追跡回数を1加算する。
現時刻の人物領域画像に対応する記憶部20に記憶されている前時刻の人物領域画像が無かった場合、現時刻において撮像部10によって新規の人が撮像され始めたものとして、次の時刻から追跡の対象とする。
逆に、記憶部20に前時刻の人物領域画像として記憶されており、現時刻において対応する人物領域画像が無い場合には、これまで撮像部10によって撮像されていた人が入力画像に撮像されなくなったものとして、以後の処理対象から外し、記憶部20から消去する。
これらの追跡処理は、周知の方法を適用すればよいので詳細は省略する。
The
If there is no person area image at the previous time stored in the
Conversely, if the person area image stored at the previous time is stored in the
Since these tracking processes may apply a known method, the details are omitted.
なお、監視領域において人が1人しか入らないことが前提となる場合や、時間の推移による特徴量の変化を用いない場合には、追跡手段302による追跡処理は不要である。
Note that the tracking process by the
特徴量算出手段303は、人物領域抽出手段301にて抽出した人物領域画像から、体格特徴量、横臥判定用特徴量を求める。また、姿勢評価式生成手段304から、後述する立位モデル画像と横臥モデル画像を取得して、後述する重みを決定するための立位モデル特徴量と横臥モデル特徴量の値を求める。体格特徴量、横臥判定用特徴量、立位モデル特徴量及び横臥モデル特徴量は、抽出された人物領域画像毎に算出する。
The feature
図2を参照して、特徴量算出手段303での処理を説明する。
図2(a)には、入力画像における縦軸(y軸)と横軸(x軸)に沿い、人物200を含む人物領域画像201の外接矩形202が示されている。外接矩形202は横幅pと高さqを有する。
図2(b)には、人物領域画像201の主軸204の方向に長辺の方向を一致させた外接矩形203が示されている。外接矩形203は、横幅wと高さhを有する。
With reference to FIG. 2, processing in the feature
FIG. 2A shows a circumscribed
FIG. 2B shows a circumscribed
特徴量算出手段303は、人物の体格を推定するための体格特徴量として、以下の2つを求める。
(A)人物の身長に対応する外接矩形202の高さq
(B)人物の身幅に対応する外接矩形202の横幅p
そして、求めた体格特徴量を姿勢評価式生成手段304に出力する。
The feature quantity calculation means 303 obtains the following two as physique feature quantities for estimating the physique of a person.
(A) The height q of the circumscribed
(B) The width p of the circumscribed
Then, the obtained physique feature amount is output to the posture evaluation
また、特徴量算出手段303は、横臥検知に用いるための横臥判定用特徴量として、以下の5つの値を計算する。
(1)外接矩形面積fj1=外接矩形202の横幅p×高さq
(2)外接矩形アスペクト比fj2=外接矩形202の横幅p/高さq
(3)外接矩形高さfj3=外接矩形202の高さq
(4)主軸方向アスペクト比fj4=外接矩形203の横幅wと高さhについて(短い方/長い方)
(5)主軸方向長辺長fj5=外接矩形203の横幅wと高さhの長い方
そして、求めた横臥判定用特徴量を評価値算出手段311に出力する。
In addition, the feature
(1) circumscribed rectangle area fj1 = lateral width p × height q of circumscribed
(2) circumscribed rectangle aspect ratio fj2 = width p / height q of circumscribed
(3) circumscribed rectangle height fj3 = height q of circumscribed
(4) Aspect ratio fj4 in the principal axis direction = width w and height h of the circumscribed rectangle 203 (shorter / longer)
(5) Main axis direction long side length fj5 = the longer one of the lateral width w and the height h of the circumscribed
また、特徴量算出手段303は、後述するように、姿勢評価式生成手段304のモデル画像生成手段313が生成した立位モデル画像の外接矩形から、上記(1)〜(5)と同様に、立位モデル特徴量(外接矩形面積fs1、外接矩形アスペクト比fs2、外接矩形高さfs3、主軸アスペクト比fs4、主軸方向長辺長fs5)を算出する。
そして、求めた立位モデル特徴量を姿勢評価式生成手段304に出力する。
Further, as will be described later, the feature
Then, the obtained standing model feature amount is output to the posture evaluation
また、特徴量算出手段303は、後述するように、姿勢評価式生成手段304のモデル画像生成手段313が生成した横臥モデル画像の外接矩形から、上記(1)〜(5)と同様に、横臥モデル特徴量(外接矩形面積ft1、外接矩形アスペクト比ft2、外接矩形高さft3、主軸アスペクト比ft4、主軸方向長辺長ft5)を算出する。
そして、求めた横臥モデル特徴量を姿勢評価式生成手段304に出力する。
In addition, as described later, the feature
Then, the obtained recumbent model feature amount is output to the posture evaluation
上記(1)〜(5)は画像の形状に関する特徴量であったが、このほか、特徴量算出手段303は、平均輝度値やテクスチャ情報など、内部に含まれる画素の画素値に基づいた特徴量を算出して用いてもよい。 The above (1) to (5) are feature amounts related to the shape of the image. In addition to this, the feature amount calculation means 303 is a feature based on pixel values of pixels included therein, such as an average luminance value and texture information. An amount may be calculated and used.
姿勢評価式生成手段304は、人物領域画像に写った人物が、立位か横臥かを識別するために用いる判定用評価値を算出するための姿勢評価式を生成する。
姿勢評価式生成手段304は、人物領域画像が10フレーム分追跡されると体格情報(身長、身幅)を求め、特徴量算出手段303が算出した各特徴量、記憶部20に記憶されている人物モデル23などを参照して姿勢評価式を生成する。
姿勢評価式生成手段304は、モデル画像生成手段313、重み算出処理309、評価式決定処理310からなる。以下、各処理を説明する。
The posture evaluation
The posture evaluation
The posture evaluation
モデル画像生成手段313は、人物領域画像に写っている人物と同じ体格の人物の姿勢が、立位であることを仮定した場合の立位モデル画像と横臥であることを仮定した場合の横臥モデル画像を生成し、重み算出処理309に出力する。
モデル画像生成手段313は、2次元/3次元変換処理305、体格推定処理306、3次元モデル生成処理307、モデル領域生成処理308からなる。
The model image generating means 313 is a recumbent model when it is assumed that the posture of the person having the same physique as the person shown in the person area image is recumbent with the standing model image when recognizing that the person is standing. An image is generated and output to the
The model
2次元/3次元変換処理305は、入力画像における2次元の座標値と、監視領域を世界座標系にて表現した3次元の位置を相互に変換する処理である。
変換する処理は、記憶部20にカメラ情報21として記憶されている撮像部10の画角、設置高さ、俯角等の情報に基づいて周知の幾何学的方法により実現される。
2次元/3次元変換処理305により、例えば入力画像における人物領域画像の座標情報に基づき、監視領域に存在する人物の位置を算出することができる。その例を、図3を用いて説明する。
The two-dimensional / three-
The conversion process is realized by a known geometric method based on information such as the angle of view, the installation height, and the depression angle of the
The position of the person existing in the monitoring area can be calculated by the 2D /
図3(a)には、入力画像において人物200により生じた人物領域画像201が抽出された様子が示されている。2次元/3次元変換処理305は、人物領域画像201の最下点205を人物200の足下位置(人物位置)とみなし、最下点205の入力画像内での座標値を、図3(b)に示すように、監視領域に別途定義された世界座標系における座標値に変換する。図3(b)には、監視領域に実際に立っている人物206が示されており、人物領域画像201の最下点205に相当するのが監視領域における実際の足下位置207である。
FIG. 3A shows a state in which a
体格推定処理306は、人物領域画像に写っている人物の体格を推定する。体格は、身長及び身幅とし、推定された身長及び身幅を「推定身長」及び「推定身幅」と称する。
The
体格推定処理306は、図3(a)に示す人物領域画像201の高さと幅、即ち人物領域画像201の外接矩形202の高さqと横幅pを、2次元/3次元変換処理305により、図3(b)に示すように、監視領域の足下位置207に実際に立っている人物206の推定身長q’および推定身幅p’として求める。
求められた推定身長と推定身幅の値は、現時刻の人物領域画像の情報と関連づけられて、記憶部20の追跡情報22に記憶される。
In the
The obtained estimated height and estimated width values are stored in the tracking
なお、本実施の形態では、人物が画像に写り始めてから所定フレーム数は、その人物が立って歩行している立位の人物と仮定している。体格推定処理306は、人物が入力画像に写り始めてから所定フレーム数に亘り推定身長及推定身幅を求め、その平均値を体格情報として追跡情報22に記憶し、その後、さらなる推定身長及び推定身幅の算出処理は省略する。この所定フレーム数は、人物の体格を画像から推定する際に精度を向上させるのに適切なフレーム数であり、横臥判定装置1の設置条件などによって定められる。本実施の形態では10フレームとしている。
体格推定処理306は、10フレーム分の平均値を用いるのではなく、1フレームごとに算出された推定身長と推定身幅をそのまま用いてもよい。
In the present embodiment, it is assumed that the predetermined number of frames after the person begins to appear in the image is a standing person who is standing and walking. The
The
3次元モデル生成処理307は、体格推定処理306にて算出された推定身長と推定身幅を用い、記憶部20の人物モデル23を読み出し、変形して、立位モデル及び横臥モデルを生成する。
The three-dimensional
まず、3次元モデル生成処理307は、まず人物領域抽出手段301にて抽出された人物領域画像について、床面身体方向を決定する。これについて、図4を用いて説明する。床面身体方向とは、人物領域画像に写った人物が床面に横臥していると仮定した場合の身体の方向である。
図4(a)に示すように、3次元モデル生成処理307は、人物領域画像201の主軸350を求め、主軸350上の画面上における2つの点として、頭頂である端点Aと足下である端点Bの座標を求める。そして、3次元モデル生成処理307は、図4(b)に示すように、2次元/3次元変換処理305により、端点Aと端点Bを監視領域の床面上の点A’及び点B’の座標(世界座標)として算出する。
First, the three-dimensional
As shown in FIG. 4A, the three-dimensional
3次元モデル生成処理307は、撮像部10の視軸351と床面との交点および撮像部10の鉛直下の床面位置を通るv軸、撮像部10の視軸351と床面との交点を原点として、v軸に直交するu軸を考え、図4(c)に示すように、床面上にて点A’と点B’を結んだ直線352がu軸と成す角度を床面身体方向353として求める。なお、床面上の点B’は、図3(b)に示す足下位置207を用いてもよい。
The three-dimensional
続いて、3次元モデル生成処理307は、「立位モデル」と「横臥モデル」を算出して、仮想的に監視領域における床面上に両モデルを配置する処理を行う。
Subsequently, the three-dimensional
図5を参照して、両モデルを仮想的に配置する処理を説明する。3次元モデル生成処理307は、記憶部20に記憶されている人物モデル23を読み出し、体格推定処理306にて推定された推定身長及び推定身幅に合致するよう、人物モデル23を拡大又は縮小する。そして、3次元モデル生成処理307は、監視領域の床面における点B’に人物モデル23の足下の位置を一致させ、立位モデル400を仮想的に配置する。立位モデル400は、床面上にて直立しているものとする。さらに、同じく点B’に足下の位置を一致させ、立位モデル400と同じ大きさの横臥モデル401を仮想的に配置する。横臥モデル401の、頭頂と足下を結んだ方向は、図4(c)の床面身体方向353と一致させる。
With reference to FIG. 5, the process of virtually arranging both models will be described. The three-dimensional
モデル領域生成処理308は、監視領域の床面に仮想的に配置した立位モデル400と横臥モデル401を、撮像部10にて撮影したと仮定したときの画像中における立位モデル領域及び横臥モデル領域とを算出する。
The model
図6(a)は、監視領域の床面の点B’の位置に立位モデル400を配置したときに、撮像部10が撮影したと仮定した立位モデル400の輪郭を表わす立位モデル領域の内部をモデル画像生成手段313が切り出した立位モデル画像500を示したものである。また入力画像における縦軸(y軸)と横軸(x軸)に沿い、立位モデル画像500を含む外接矩形501及び図示しない主軸方向に長辺の方向を一致させた外接矩形502が示されている。なお、立位モデルの場合は主軸方向がy軸に一致することになる。
図6(b)は、監視領域の床面の点B’の位置に横臥モデル401を配置したときに、撮像部10が撮影したと仮定した横臥モデル401の輪郭を表わす横臥モデル領域の内部をモデル画像生成手段313が切り出した横臥モデル画像503を示したものである。また入力画像における縦軸(y軸)と横軸(x軸)に沿い、横臥モデル画像503を含む外接矩形501、および横臥モデル画像503の図示しない主軸方向に長辺の方向を一致させた外接矩形502が示されている。
FIG. 6A shows a standing model region that represents the contour of the standing
FIG. 6B shows the inside of the recumbent model region representing the contour of the
前述したように、特徴量算出手段303は、モデル領域生成処理308が生成した立位モデル画像500から立位モデル特徴量、横臥モデル画像503から横臥モデル特徴量を求める。
すなわち、特徴量算出手段303は、立位モデル画像500の外接矩形501と外接矩形502から、立位モデル特徴量(外接矩形面積fs1、外接矩形アスペクト比fs2、外接矩形高さfs3、主軸アスペクト比fs4、主軸方向長辺長fs5)を算出する。
また、特徴量算出手段303は、横臥モデル画像503の外接矩形501と外接矩形502から横臥モデル特徴量(外接矩形面積ft1、外接矩形アスペクト比ft2、外接矩形高さft3、主軸アスペクト比ft4、主軸方向長辺長ft5)を算出する。
立位モデル特徴量と横臥モデル特徴量の算出方法は、特徴量算出手段303の説明の箇所で述べた通りであり、外接矩形501の高さq、横幅p、外接矩形502の高さh、横幅wを用いて算出される。
As described above, the feature
That is, the feature
Also, the feature amount calculation means 303 calculates the horizontal model feature amount (circumscribed rectangle area ft1, circumscribed rectangle aspect ratio ft2, circumscribed rectangle height ft3, main axis aspect ratio ft4, main axis from the circumscribed
The calculation method of the standing model feature quantity and the recumbent model feature quantity is as described in the description of the feature
立位モデル特徴量fsi(i=1〜5)は、図3(b)における人物の足下位置207にて、その入力画像に写っている人物の体格と同じ人物が立位であった場合に得られる各特徴量を表わしている。同様に、横臥モデル特徴量fti(i=1〜5)は、図3(b)における人物の足下位置207にて、その入力画像に写っている人物の体格と同じ人物が横臥していた場合に得られる各特徴量を表わしている。
The standing model feature value fsi (i = 1 to 5) is obtained when the same person as the person's physique shown in the input image is standing at the
重み算出処理309は、前述の立位モデル特徴量及び横臥モデル特徴量に基づいて、横臥判定用特徴量のそれぞれに対する重みw1〜w5を算出する。重みは、抽出された人物領域の各々について横臥判定用特徴量毎に算出する。
具体的には、以下の条件式に応じて重みw1〜w5を決定する。以下では、iは1〜5の整数とする。
The
Specifically, the weights w1 to w5 are determined according to the following conditional expressions. In the following, i is an integer of 1 to 5.
すなわち、|fsi−fti|≦thiの条件が成立すれば重みwi=0.2、成立しなければ重みwi=0.8とする。thiは、fsiとftiの差が、立位と横臥とで有意な差と認められる値であって、実験的経験的に予め定められた閾値である。 That is, if the condition | fsi−fti | ≦ thi is satisfied, the weight wi = 0.2, and if not, the weight wi = 0.8. thi is a value in which the difference between fsi and fti is recognized as a significant difference between the standing position and the recumbent position, and is a threshold value that is determined experimentally and empirically.
つまり、これらの立位モデル特徴量fsiと横臥モデル特徴量ftiとの差が小さいということは、立位と横臥の違いによる特徴量の値の変化が小さく、その特徴量に対応する横臥判定用特徴量fjiを用いて立位と横臥を峻別するのは難しいことを意味している。そのような横臥判定用特徴量fjiは、姿勢推定のための評価値を求める際には重視すべきではないので、立位モデル特徴量fsiと横臥モデル特徴量ftiとの差が小さいほど重みwiを小さな値とする。
逆に、立位モデル特徴量fsiと横臥モデル特徴量ftiとの差が大きいということは、立位と横臥の違いによる特徴量の値の変化が大きく、その特徴量に対応する横臥判定用特徴量fjiを用いて立位と横臥を峻別するのは容易であることを意味している。そのような横臥判定用特徴量fjiは、姿勢推定のための評価値を求める際には重視すべきであるので、立位モデル特徴量fsiと横臥モデル特徴量ftiとの差が大きいほど重みwiを大きな値とする。
That is, the small difference between the standing model feature value fsi and the recumbent model feature value fti means that the change in the value of the feature value due to the difference between the standing position and the recumbent is small, and for the recumbency determination corresponding to the feature value. This means that it is difficult to distinguish the standing position and the recumbent position using the feature amount fji. Such a recumbent determination feature quantity fji should not be emphasized when obtaining an evaluation value for posture estimation. Therefore, the smaller the difference between the standing model feature quantity fsi and the recumbent model feature quantity fti, the more weight wi. Let be a small value.
On the contrary, the fact that the difference between the standing model feature value fsi and the recumbent model feature value fti is large means that the change in the value of the feature value due to the difference between the standing position and the recumbent is large and the recumbent determination feature corresponding to the feature value. It means that it is easy to distinguish standing and recumbent using the quantity fji. Such a recumbent determination feature value fji should be emphasized when obtaining an evaluation value for posture estimation. Therefore, the greater the difference between the standing model feature value fsi and the recumbent model feature value fti, the greater the weight wi. Let be a large value.
なお、判定に用いられる特徴量は、これらの特徴量に限定されるものではなく、判別される姿勢の間において相違が生ずるであろうと考えられる特徴量であればよい。本実施の形態では、立位と横臥との間で値に違いが生ずると考えられる特徴量であればよい。 Note that the feature amount used for the determination is not limited to these feature amounts, and may be any feature amount that is considered to cause a difference between the determined postures. In the present embodiment, any feature value may be used as long as it is considered that a difference in value occurs between standing and lying.
また重みwiの数値は例示であり、重みwiは、立位モデル特徴量と横臥モデル特徴量との差が閾値以下の場合に当該差が閾値より大きい場合よりも小さくなるように設定することが好適である。 The numerical value of the weight wi is an example, and the weight wi may be set so that the difference between the standing model feature quantity and the recumbent model feature quantity is smaller than the threshold value and smaller than when the difference is larger than the threshold value. Is preferred.
例えば、立位モデル特徴量と横臥モデル特徴量との差が閾値以下という条件が成立した場合には重みwi=0、成立しない場合には重みwi=1としてもよい。この場合、重みwiが0である特徴量については後述する判定用評価値には反映されず、重みwiが1である特徴量については後述する判定用評価値に完全に反映させることになる。 For example, the weight wi = 0 may be set when the condition that the difference between the standing model feature quantity and the recumbent model feature quantity is equal to or less than the threshold value, and the weight wi = 1 may be set when the condition is not established. In this case, the feature quantity having the weight wi of 0 is not reflected in the evaluation value for determination described later, and the feature quantity having the weight wi of 1 is completely reflected in the evaluation value for determination described later.
また、重みwiは、立位モデル特徴量と横臥モデル特徴量の差に応じた連続値としてもよい。例えば、|fsi−fti|の最小値は両者が等しいときの0であり、最大値はカメラ情報21に基づいて算出することができる。よって、|fsi−fti|が最小の0のときには重みwiを0とし、最大のときには重みwiを1とするように、重みwiを|fsi−fti|の値に比例する値に設定してもよい。ここで、|fsi−fti|が最大とは、監視領域に仮想的に立位モデルと横臥モデルを多数配置して求められた|fsi−fti|の最大のものをいう。
Further, the weight wi may be a continuous value corresponding to the difference between the standing model feature quantity and the recumbent model feature quantity. For example, the minimum value of | fsi−fti | is 0 when both are equal, and the maximum value can be calculated based on the
評価式決定処理310は、重み算出処理309にて算出されたwiを用い、入力画像中の人物が立位か横臥かを峻別するための判定用評価値を算出する姿勢評価式を決定する。
本実施の形態では、姿勢評価式として次式を用いる。
In the present embodiment, the following equation is used as the posture evaluation equation.
数式(1)において、vmiは中間評価値であり、横臥判定用特徴量fjiと立位モデル特徴量fsiとの差の大きさと、横臥判定用特徴量fjiと横臥モデル特徴量ftiとの差の大きさを比較し、前者が小さい場合には立位であるとして中間評価値vmiに+1が設定され、後者が小さい場合には横臥であるとして中間評価値vmiに−1が設定される。 In Equation (1), vmi is an intermediate evaluation value, and the difference between the recumbent determination feature quantity fji and the standing model feature fsi and the difference between the recumbent determination feature quantity fji and the recumbent model feature quantity fti If the former is small, the intermediate evaluation value vmi is set to +1 if the former is small, and if the latter is small, the intermediate evaluation value vmi is set to −1.
評価値算出手段311は、特徴量算出手段303において算出された横臥判定用特徴量fji(i=1〜5)を用いて、評価式決定処理310で決定された数式(1)に従い、入力画像中の人物の横臥の有無を判定するための判定用評価値Vjを算出する。そして、評価値算出手段311は、算出した判定用評価値Vjを姿勢判定手段312に出力する。
The evaluation
例えば、外接矩形面積fj1と外接矩形面積fs1との差の大きさと、外接矩形面積fj1と外接矩形面積ft1との差の大きさを比較し、前者が小さい場合には、外接矩形面積によれば人物は立位であるとして中間評価値vm1に+1を設定し、後者が小さい場合には人物は横臥であるとして中間評価値vm1に−1を設定する。同様に、外接矩形アスペクト比、外接矩形高さ、主軸方向アスペクト比及び主軸方向長辺長の特徴量のそれぞれについて人物が立位であるか、横臥であるかを判定し、中間評価値vm2〜vm5に+1又は−1を設定する。 For example, the difference between the circumscribed rectangular area fj1 and the circumscribed rectangular area fs1 is compared with the difference between the circumscribed rectangular area fj1 and the circumscribed rectangular area ft1, and if the former is small, the circumscribed rectangular area The intermediate evaluation value vm1 is set to +1 assuming that the person is standing, and if the latter is small, the person is lying down and the intermediate evaluation value vm1 is set to -1. Similarly, it is determined whether the person is standing or lying on the circumscribed rectangle aspect ratio, circumscribed rectangle height, principal axis direction aspect ratio, and principal axis direction long side length, and the intermediate evaluation value vm2− Set vm5 to +1 or -1.
これは、横臥判定用特徴量fjiと立位モデル特徴量fsiとの差が小さいほど横臥判定用特徴量fjiを用いて姿勢判定すると、人物領域の人物の体格と同じ人物が立位である可能性が高いことを意味し、横臥判定用特徴量fjiと横臥モデル特徴量ftiとの差が小さいほど横臥判定用特徴量fjiを用いて姿勢判定すると、人物領域の人物の体格と同じ人物が横臥である可能性が高いことを意味する。そして、中間評価値vmiは、人物が立位である可能性が高いと大きな値(例えば+1)に設定し、横臥である可能性が高いと小さな値(例えば−1)に設定される。 This is because the smaller the difference between the recumbent determination feature value fji and the standing model feature value fsi, the more the same person as the person's physique in the person area can be standing when the posture determination is performed using the recumbent determination feature value fji. The smaller the difference between the recumbent determination feature quantity fji and the recumbent model feature quantity fti, the smaller the difference between the recumbent determination feature quantity fji, This means that there is a high possibility that The intermediate evaluation value vmi is set to a large value (for example, +1) when the possibility that the person is standing is high, and is set to a small value (for example, -1) when the possibility that the person is lying is high.
評価値算出手段311が求めた判定用評価値Vjは、評価対象となっている人物領域が立位モデル領域に近いほど大きな値となり、横臥モデル領域に近いほど小さな値となる。すなわち、評価対象となっている人物領域の人物が人物モデルの立位に近いほど判定用評価値Vjの値は大きくなり、人物モデルの横臥に近いほど判定用評価値Vjの値は小さくなる。 The evaluation value Vj for determination obtained by the evaluation value calculation means 311 becomes a larger value as the person area to be evaluated is closer to the standing model area, and becomes a smaller value as it is closer to the recumbent model area. In other words, the evaluation value Vj for determination becomes larger as the person in the person area to be evaluated is closer to the standing position of the person model, and the evaluation value Vj for determination becomes smaller as the person model is closer to lying.
姿勢判定手段312は、判定用評価値Vjが所定の判定閾値を超えていると、入力画像中の人物は立位であると判定し、そうでなければ横臥であると判定して、その旨を出力部40に出力する。ここで、判定閾値は、人物が立位であるときと人物が横臥であるときとを識別可能な値として、実験的に決められた値である。
The posture determination means 312 determines that the person in the input image is standing when the evaluation value Vj for determination exceeds a predetermined determination threshold value, and determines that the person is lying down otherwise. Is output to the
出力部40は、外部の機器に接続するためのインターフェースである。例えば、図示しない警備装置の制御装置に接続され、姿勢判定手段312から横臥を表わす信号を受け取ると、当該制御装置が受信できる形式の信号に変換して出力する。
The
例えば、横臥判定装置1がオフィスビルや商業ビルに設置されている場合、急病で高齢者が行き倒れたとして、その旨を守衛室に設置された警備装置に通報する。
For example, when the
次に、横臥判定装置1の動作を図7に示すフローチャートに沿って説明する。図7のフローは、入力画像を1フレーム取得する毎に実行する。
Next, the operation of the
ステップS100では、撮像部10が入力画像を取得して画像処理部30に出力し、画像処理部30は入力画像を記憶部20に一時記憶させる。入力画像は、画像処理部30による処理に供される。ステップS120では、人物領域抽出手段301が入力画像から人物領域画像を抽出する。
In step S <b> 100, the
ここでは、以下のステップS130〜S420を、人物領域画像が1つ抽出された場合について説明するが、人物領域画像が複数抽出された場合には人物領域画像毎に行われる。 Here, the following steps S130 to S420 will be described for the case where one person area image is extracted. However, when a plurality of person area images are extracted, they are performed for each person area image.
ステップS130では、追跡手段302にて、抽出された人物領域画像の追跡処理を行う。
ステップS140では、姿勢評価式生成手段304が、記憶部20に記憶されている追跡情報22を参照して、抽出された人物領域画像の追跡回数が「11」未満か否かを判定する。追跡回数が「11」未満の場合には、体格推定処理をするためにステップS160に進み(Noの分岐)、追跡回数が「11」以上の場合には、ステップS260〜S340の姿勢評価式を決定する処理、およびS240の横臥判定用の特徴量を算出する処理(Yesの分岐)に進む。
In step S130, the
In step S140, the posture evaluation
まず、ステップS160では、2次元/3次元変換処理305と体格推定処理306が、記憶部20のカメラ情報21を参照し、人物領域画像に写っている人物の身長と身幅を推定する処理を行う。
体格推定処理306は、現時刻において、追跡情報22の追跡回数が「10」になっていると(ステップS180のYesの分岐)、10フレーム分の推定身長と推定身幅について平均を求めて体格情報とする(ステップS200)。
現時刻において、追跡情報22の追跡回数が「10」になっていないと、推定身長と推定身幅について平均を求める処理(ステップS200)は行わない。
First, in step S160, the two-dimensional / three-
When the tracking number of the tracking
If the number of tracking of the tracking
ステップS220では、追跡情報22の追跡回数が「9」までは、ステップS160において体格推定処理306が求めた推定身長と推定身幅がそのまま人物領域画像に関する情報のひとつとして追跡情報22に記憶される。追跡情報22の追跡回数が「10」になると、ステップS200において体格推定処理306が求めた推定身長と推定身幅の平均値が体格情報として追跡情報22に記憶される。
そして、現時刻の人物領域画像についての処理を終了する。
In step S220, the estimated height and estimated width obtained by the
Then, the process for the person area image at the current time is terminated.
ステップS140においてYesとなると、評価式を決定するための処理に進む。
ステップS260では、3次元モデル生成処理307が、人物モデル23と、ステップS220において記憶された体格情報(推定身長と推定身幅の平均値)を読み出す。
If Yes in step S140, the process proceeds to a process for determining an evaluation formula.
In step S260, the three-dimensional
ステップS280では、3次元モデル生成処理307が、人物モデル23を体格情報に合致するように拡大縮小して3次元モデルを生成する。
ステップS300では、モデル領域生成処理308が、3次元モデルを監視領域に立位させて、撮像部10にて撮影したと仮定した画像における立位モデルの領域である立位モデル領域と、3次元モデルを監視領域に横臥させて、撮像部10にて撮影したと仮定した画像における横臥モデルの領域である横臥モデル領域を求める。そして、モデル画像生成手段313が、立位モデル領域と横臥モデル領域の内部を切り出して、それぞれ立位モデル画像と横臥モデル画像を生成する。
In step S280, the three-dimensional
In step S300, the model
ステップS320では、重み算出処理309が、立位モデル画像と横臥モデル画像を用いて、外接矩形面積、外接矩形アスペクト比、外接矩形高さ、主軸アスペクト比、主軸方向長辺長のそれぞれの重みを求める。
図8を参照して、重み算出処理について詳細に説明する。
In step S320, the
The weight calculation process will be described in detail with reference to FIG.
ステップS3201では、重み算出処理309が、5つの特徴量から1つを選択し、立位モデル領域から求めた立位モデル特徴量の値と、横臥モデル領域から求めた横臥モデル特徴量の値の差を求める。
当該差が閾値を超える場合には(ステップS3203のYesの分岐)、その特徴量についての重みwiを大きな値、例えば0.8とし(ステップS3203)、さもなくは重みwiを小さな値、例えば0.2とする(ステップS3204)。
全ての特徴量について重みの値を決定すると、図7のステップS340に戻る。
In step S3201, the
If the difference exceeds the threshold (Yes branch in step S3203), the weight wi for the feature amount is set to a large value, for example, 0.8 (step S3203), and the weight wi is set to a small value, for example, 0. .2 (step S3204).
When the weight values are determined for all the feature values, the process returns to step S340 in FIG.
ステップS340では、評価式決定処理310が、人物が立位か横臥かを判定する判定用評価値Vjを算出するための姿勢評価式を決定する処理を行う。本実施の形態では数式(1)に、ステップS320にて算出した重みwiを代入して定める。
In step S340, the evaluation
一方、ステップS240では、特徴量算出手段303が、人物領域画像の高さや幅などから、横臥判定用特徴量を算出する。
On the other hand, in step S240, the feature
ステップS360では、評価値算出手段311が、ステップS240にて求めた横臥判定用特徴量の値を、ステップS340にて定めた姿勢評価式に代入し、判定用評価値Vjを求める。
In step S360, the evaluation
ステップS380では、姿勢判定手段312が、判定用評価値Vjと判定用閾値を比較し、人物領域画像に写っている人物が立位か横臥かを判定する。
ステップS400では、姿勢判定手段312が、人物領域画像に写っている人物の横臥を判定した場合には(Yesの分岐)、その旨を出力部40に出力する。ステップS420では、出力部40は、外部の機器に通知する。
姿勢判定手段312が、人物領域画像のいずれについても立位を判定した場合には特に処理を行わない(ステップS400のNoの分岐)。
In step S380, the
In step S400, when the posture determination means 312 determines the recumbency of the person shown in the person area image (Yes branch), the
When the
<変形例1>
上記実施の形態では、監視領域に入った人物が立位であるときと横臥したときとの姿勢を推定する態様について説明したが、本発明の適用範囲はこれに限定されるもではない。例えば、立位からしゃがんだ姿勢に変化したときは、急病で意識不明ほどの重要性はないが、警備員へ注意を喚起するようにしてもよい。
<
In the above-described embodiment, the aspect of estimating the posture when the person who entered the monitoring area is standing and lying is described, but the scope of application of the present invention is not limited to this. For example, when the posture changes from a standing position to a squatting posture, it may not be as important as an unconsciousness due to a sudden illness, but the guard may be alerted.
図9を参照して、ここでの処理を説明する。図9(a)は、監視領域の床面において人物が立っているときに撮像部10によって撮像された入力画像中における人物領域画像800と、その外接矩形801を示している。また、図9(b)は、監視領域の床面において人物がしゃがんでいるときに撮像部10によって撮像された入力画像中における人物領域画像804と、その外接矩形805を示したものである。さらに、本変形例1では、特徴量算出手段303は、人物領域画像800,804の主軸802,806を求める。また、図9の例では、入力画像における縦軸(y軸)と横軸(x軸)に沿い、人物領域画像800,804の外接矩形801,805は横幅pと高さqを有する。
The processing here will be described with reference to FIG. FIG. 9A shows a
また、モデル領域生成処理308により、図5に示す場合と同様に、監視領域の床面に立位モデルとしゃがみモデルを仮想的に配置して、立位モデルの輪郭を表わす立位モデル領域としゃがみモデルの輪郭を表わすしゃがみモデル領域を求め、モデル画像生成手段313は、それぞれの内部から切り出した立位モデル画像としゃがみモデル画像を生成する。
ここで、しゃがみモデルは、撮像対象である人物がしゃがんでいる姿勢をポリゴンモデルやサーフェースモデルなどで表現した情報である。
Further, as in the case shown in FIG. 5, the model
Here, the crouching model is information that expresses a posture in which a person to be imaged is crouching with a polygon model or a surface model.
そして、特徴量算出手段303は、入力画像における人物領域からしゃがみ検知用特徴量と、立位モデル画像としゃがみモデル画像から重みを決定するための立位モデル特徴量としゃがみモデル特徴量の値を求める。 Then, the feature amount calculation means 303 calculates the squat detection feature amount from the person area in the input image, and the standing model feature amount and the crouch model feature amount value for determining the weight from the standing model image and the crouching model image. Ask.
特徴量算出手段303は、しゃがみ検知に用いるためのしゃがみ検知用特徴量と、立位モデル特徴量と、しゃがみモデル特徴量の値として、以下の5つを計算する。
(11)外接矩形の高さq
(12)外接矩形アスペクト比=横幅p/高さq
(13)外接矩形の画素数に対する人物領域の画素数の比
(14)人物領域外周画素数に対する人物領域の画素数
(15)画像のx軸に対する主軸の角度803,807
The feature
(11) Height q of circumscribed rectangle
(12) circumscribed rectangle aspect ratio = width p / height q
(13) Ratio of the number of pixels in the person area to the number of pixels of the circumscribed rectangle (14) Number of pixels in the person area with respect to the number of pixels in the outer periphery of the person area (15) Angles of
重み算出処理309は、立位モデル特徴量及びしゃがみモデル特徴量に基づいて、しゃがみ検知用特徴量のそれぞれに対する重みw1〜w5を算出する。この重みwiの算出方法は、上記実施の形態と同様である。
The
評価値算出手段311は、本実施の形態と同様に、しゃがみ検知用特徴量と算出された重みを用いて、入力画像中の人物がしゃがんでいるか否かを判定するための判定用評価値を算出する。
以下、上記実施の形態と同様に、判定用評価値を判定閾値と比較すればよいので、詳細は省略する。
As in the present embodiment, the evaluation
Hereinafter, as in the above-described embodiment, the evaluation value for determination may be compared with the determination threshold value, and thus the details are omitted.
<変形例2>
また、監視領域に入った人物が両手を下ろした気を付けの姿勢でいるときと両手を挙げて万歳しているときとの姿勢を推定する態様についての変形例2について説明する。本例は、立位であっても両手を下ろした姿勢から両手を挙げた姿勢へと移った場合には、賊等に脅されている可能性があるので警備員へ注意を喚起する用途を想定している。
<Modification 2>
In addition, a description will be given of a second modification of a mode for estimating the posture when a person entering the monitoring area is in a posture where both hands are lowered and when both are raised. In this example, even if you are standing, if you move from a position with both hands down to a position with both hands raised, you may be threatened by bandits, etc. Assumed.
図10を参照して、ここでの処理を説明する。図10(a)は、監視領域の床面において人物が両手を下げて立っている姿勢(気を付けの姿勢)のときに撮像部10によって撮像された入力画像中における人物領域画像810と、その外接矩形811を示している。また、図10(b)は、監視領域の床面において人物が両手を挙げて立っている姿勢(万歳の姿勢)のときに撮像部10によって撮像された入力画像中における人物領域画像812と、その外接矩形813を示したものである。また、図10の例では、入力画像における縦軸(y軸)と横軸(x軸)に沿い、人物領域画像810,812の外接矩形811,813は横幅pと高さqを有する。
The processing here will be described with reference to FIG. FIG. 10A illustrates a
また、モデル領域生成処理308により、図5に示す場合と同様に、監視領域の床面に気を付けモデルと万歳モデルを仮想的に配置して、気を付けモデルの輪郭を表わす気を付けモデル領域と万歳モデルの輪郭を表わす万歳モデル領域を求め、モデル画像生成手段313は、それぞれの内部から切り出した気を付けモデル画像と万歳モデル画像を生成する。
ここで、気を付けモデル及び万歳モデルは、撮像対象である人物が両手を下げた気を付けの姿勢で立っている姿勢及び両手を挙げた万歳の姿勢で立っている姿勢をポリゴンモデルやサーフェースモデルなどで表現した情報である。
In addition, the model
Here, the watchfulness model and the all-year-old model refer to a posture in which the person to be imaged stands in a careful posture with both hands lowered and a posture in which the both-handed posture with both hands raised is a polygon model or a service model. This is information expressed by a face model.
そして、特徴量算出手段303は、入力画像における人物領域画像から万歳検知用特徴量と、気を付けモデル画像と万歳モデル画像から重みを決定するための気を付けモデル特徴量と万歳モデル特徴量の値を求める。 Then, the feature amount calculation means 303 takes care of detecting the feature value from the person area image in the input image, the care model feature value and the feature model feature value for determining the weight from the care model image and the care model image. Find the value of.
特徴量算出手段303は、万歳検知に用いるための万歳検知用特徴量と、気を付けモデル特徴量と、万歳モデル特徴量の値として、以下の3つを計算する。
(21)外接矩形の高さq
(22)外接矩形アスペクト比=横幅p/高さq
(23)外接矩形の上半分(上半身に対応)の画素数に対する人物領域の上半分の画素数の比
The feature value calculation means 303 calculates the following three values as the feature values for the detection of the sensation for use in the detection of sensation, the careful model feature value, and the sensation model feature value.
(21) Height q of circumscribed rectangle
(22) circumscribed rectangle aspect ratio = width p / height q
(23) Ratio of the number of pixels in the upper half of the person area to the number of pixels in the upper half of the circumscribed rectangle (corresponding to the upper body)
以下、上記実施の形態や変形例1と同様に、各特徴量に対応した重みを算出し、判定用評価値を求めて、判定閾値と比較すればよいので、詳細は省略する。 Hereinafter, as in the above embodiment and the first modification, the weight corresponding to each feature amount is calculated, the evaluation value for determination is obtained, and compared with the determination threshold value.
なお、これまで述べてきた実施の形態とその変形例では、記憶部に記憶する人物モデルとして、ポリゴンモデルやサーフェースモデルなどの3次元形状を表す情報を記憶するとしていた。これに代え、人物モデルとして、2次元の人物の輪郭情報を記憶してもよい。この場合、モデル領域生成処理は、人物の足下位置と、記憶部に記憶されているカメラ情報を参照しつつ、人物モデルを拡大縮小、および変形して、入力画像中におけるモデル領域を求める。 In the embodiments described above and modifications thereof, information representing a three-dimensional shape such as a polygon model or a surface model is stored as a person model stored in the storage unit. Instead, the outline information of a two-dimensional person may be stored as a person model. In this case, the model region generation processing obtains a model region in the input image by enlarging / reducing and deforming the person model while referring to the person's foot position and camera information stored in the storage unit.
また、体格推定処理あるいは3次元モデル生成処理において、人物領域画像の最下点を足下と見なして、監視領域における足下位置とする代わりに、人物領域画像の最上点を足下と見なして同じく足下位置を求めてもよい。これは人物が撮像部に対して手前方向に横臥すると、入力画像中では人物領域画像の最上点が足下に相当するからである。 In addition, in the physique estimation process or the 3D model generation process, instead of considering the lowest point of the person area image as the foot and setting it as the foot position in the monitoring area, the same as the foot position. You may ask for. This is because when the person lies on the front side with respect to the imaging unit, the highest point of the person area image corresponds to the foot in the input image.
また、最初の数フレーム(例えば10フレーム)においても横臥判定を行いたい場合には、体格情報として標準的な身長と身幅(例えば、身長として170cm、身幅として60cm)を用いても良い。 In addition, when it is desired to perform recumbent determination even in the first few frames (for example, 10 frames), standard height and width (for example, 170 cm for height and 60 cm for width) may be used as physique information.
また、記憶手段に記憶される人物モデルは、前述の人物の標準的な寸法を有する人物モデルを予め記憶しておき、姿勢の推定にあたっては共通してその人物モデルを用いることとしてもよい。この場合、体格推定処理は省略することができる。 In addition, the person model stored in the storage means may be stored in advance as a person model having the standard dimensions of the person described above, and the person model may be used in common for estimating the posture. In this case, the physique estimation process can be omitted.
また、平均輝度やテクスチャ情報など、画素値を用いた特徴量を用いない場合には、特徴量を算出するために、人物領域などの内部から切り出した部分画像を用いる代わりに、人物領域そのものを用いてもよい。この場合、部分画像の切り出し処理を省略することができる。 In addition, when not using feature values using pixel values, such as average luminance and texture information, instead of using partial images cut out from inside the person region, etc., the person region itself is used to calculate the feature value. It may be used. In this case, the partial image cut-out process can be omitted.
以上のように、上記実施の形態及び変形例によれば、人物の姿勢を推定するにあたって複数の特徴量を用い、正しい姿勢が推定されるように特徴量を重み付けして正しい姿勢の判別をする姿勢推定装置を提供することができる。 As described above, according to the embodiment and the modification example described above, a plurality of feature amounts are used for estimating the posture of a person, and the correct posture is determined by weighting the feature amounts so that the correct posture is estimated. A posture estimation device can be provided.
1 横臥判定装置、23 人物モデル、303 特徴量算出手段、304 姿勢評価式生成手段、306 体格推定処理、308 モデル領域生成処理、309 重み算出処理、311 評価値算出手段、312 姿勢判定手段、313 モデル画像生成手段。
DESCRIPTION OF
Claims (5)
前記撮像部にて撮影された第一姿勢の人物を模した第一モデル画像と、前記撮像部にて撮影された第二姿勢の人物を模した第二モデル画像を生成するモデル画像生成手段と、
画像から複数種類の特徴量を算出する特徴量算出手段と、
前記特徴量ごとに、第一モデル画像の特徴量と第二モデル画像の特徴量との相違に応じて姿勢評価用の重みを決定して姿勢評価式を生成する姿勢評価式生成手段と、
前記入力画像から人物領域画像を抽出する人物領域抽出手段と、
前記人物領域画像について算出した特徴量から前記姿勢評価式に基づいて姿勢を推定する姿勢判定手段を有することを特徴とした姿勢推定装置。 An attitude estimation apparatus that calculates a plurality of types of feature amounts from a person area image in an input image captured by an imaging unit installed at a predetermined position and estimates a person's attitude,
A model image generating unit that generates a first model image imitating a person in a first posture photographed by the imaging unit and a second model image imitating a person in a second posture imaged by the imaging unit; ,
A feature amount calculating means for calculating a plurality of types of feature amounts from an image;
Posture evaluation formula generating means for determining a weight for posture evaluation according to the difference between the feature amount of the first model image and the feature amount of the second model image for each feature amount, and generating a posture evaluation formula;
Person area extracting means for extracting a person area image from the input image;
A posture estimation apparatus comprising posture determination means for estimating a posture based on the posture evaluation formula from a feature amount calculated for the person region image.
前記モデル画像生成手段は、前記人物領域画像から前記撮像部の撮影空間における人物の足元位置を推定し、当該足元位置を合わせて立位姿勢と横臥姿勢に人物モデルを配置し、立位姿勢の人物モデルを前記撮像部が撮影したと仮定して第一モデル画像を生成し、横臥姿勢の人物モデルを前記撮像部が撮影したと仮定して第二モデル画像を生成する請求項2または請求項3に記載の姿勢推定装置。 The predetermined person model is a single-shaped person model,
The model image generation means estimates a person's foot position in the imaging space of the imaging unit from the person area image, and arranges the person model in a standing posture and a recumbent posture together with the foot position, The first model image is generated on the assumption that the image capturing unit has photographed the human model, and the second model image is generated on the assumption that the image capturing unit has captured the human model in a lying posture. 4. The posture estimation apparatus according to 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013215777A JP6189170B2 (en) | 2013-10-16 | 2013-10-16 | Posture estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013215777A JP6189170B2 (en) | 2013-10-16 | 2013-10-16 | Posture estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015079339A true JP2015079339A (en) | 2015-04-23 |
JP6189170B2 JP6189170B2 (en) | 2017-08-30 |
Family
ID=53010721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013215777A Active JP6189170B2 (en) | 2013-10-16 | 2013-10-16 | Posture estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6189170B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015174228A1 (en) * | 2014-05-13 | 2015-11-19 | オムロン株式会社 | Attitude estimation device, attitude estimation system, attitude estimation method, attitude estimation program, and computer-readable recording medium whereupon attitude estimation program is recorded |
JP2017049676A (en) * | 2015-08-31 | 2017-03-09 | セコム株式会社 | Posture discrimination device and object detection device |
JP2018022297A (en) * | 2016-08-02 | 2018-02-08 | トヨタ自動車株式会社 | Orientation discrimination device and orientation discrimination method |
JP2018049052A (en) * | 2016-09-20 | 2018-03-29 | ヤフー株式会社 | Program, device, and method for virtual musical instrument performance |
CN109284280A (en) * | 2018-09-06 | 2019-01-29 | 百度在线网络技术(北京)有限公司 | Emulate data optimization methods, device and storage medium |
JPWO2020241057A1 (en) * | 2019-05-29 | 2020-12-03 | ||
JP2021033343A (en) * | 2019-08-14 | 2021-03-01 | Kddi株式会社 | People detectors, methods and programs |
JP2021078715A (en) * | 2019-11-19 | 2021-05-27 | 株式会社エヌ・ティ・ティ ピー・シー コミュニケーションズ | Body motion analysis device, body motion analysis system, body motion analysis method, and program |
CN113297963A (en) * | 2021-05-24 | 2021-08-24 | 网易(杭州)网络有限公司 | Multi-person posture estimation method and device, electronic equipment and readable storage medium |
CN116206779A (en) * | 2023-04-28 | 2023-06-02 | 山东铭泰医疗设备集团有限公司 | Wisdom ward interactive system based on visual perception |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005086089A1 (en) * | 2004-03-03 | 2005-09-15 | Nec Corporation | Object posture estimation/correlation system, object posture estimation/correlation method, and program for the same |
JP2011113313A (en) * | 2009-11-26 | 2011-06-09 | Secom Co Ltd | Attitude estimation device |
JP2011221985A (en) * | 2010-03-24 | 2011-11-04 | Oki Electric Ind Co Ltd | Input support device, input support method and program |
JP2012212301A (en) * | 2011-03-31 | 2012-11-01 | Secom Co Ltd | Abnormality detection apparatus |
-
2013
- 2013-10-16 JP JP2013215777A patent/JP6189170B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005086089A1 (en) * | 2004-03-03 | 2005-09-15 | Nec Corporation | Object posture estimation/correlation system, object posture estimation/correlation method, and program for the same |
JP2011113313A (en) * | 2009-11-26 | 2011-06-09 | Secom Co Ltd | Attitude estimation device |
JP2011221985A (en) * | 2010-03-24 | 2011-11-04 | Oki Electric Ind Co Ltd | Input support device, input support method and program |
JP2012212301A (en) * | 2011-03-31 | 2012-11-01 | Secom Co Ltd | Abnormality detection apparatus |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015174228A1 (en) * | 2014-05-13 | 2015-11-19 | オムロン株式会社 | Attitude estimation device, attitude estimation system, attitude estimation method, attitude estimation program, and computer-readable recording medium whereupon attitude estimation program is recorded |
US10198813B2 (en) | 2014-05-13 | 2019-02-05 | Omron Corporation | Posture estimation device, posture estimation system, posture estimation method, posture estimation program, and computer-readable recording medium on which posture estimation program is recorded |
JP2017049676A (en) * | 2015-08-31 | 2017-03-09 | セコム株式会社 | Posture discrimination device and object detection device |
JP2018022297A (en) * | 2016-08-02 | 2018-02-08 | トヨタ自動車株式会社 | Orientation discrimination device and orientation discrimination method |
US10699106B2 (en) | 2016-08-02 | 2020-06-30 | Toyota Jidosha Kabushiki Kaisha | Direction discrimination device and direction discrimination method |
JP2018049052A (en) * | 2016-09-20 | 2018-03-29 | ヤフー株式会社 | Program, device, and method for virtual musical instrument performance |
JP2020042773A (en) * | 2018-09-06 | 2020-03-19 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method, device for optimizing simulation data, and storage medium |
CN109284280A (en) * | 2018-09-06 | 2019-01-29 | 百度在线网络技术(北京)有限公司 | Emulate data optimization methods, device and storage medium |
US12014258B2 (en) | 2018-09-06 | 2024-06-18 | Baidu Online Network Technology (Beijing) Co. Ltd. | Method and device for optimizing simulation data, and computer-readable storage medium |
JPWO2020241057A1 (en) * | 2019-05-29 | 2020-12-03 | ||
JP2021033343A (en) * | 2019-08-14 | 2021-03-01 | Kddi株式会社 | People detectors, methods and programs |
JP2021078715A (en) * | 2019-11-19 | 2021-05-27 | 株式会社エヌ・ティ・ティ ピー・シー コミュニケーションズ | Body motion analysis device, body motion analysis system, body motion analysis method, and program |
JP7241004B2 (en) | 2019-11-19 | 2023-03-16 | 株式会社エヌ・ティ・ティ ピー・シー コミュニケーションズ | Body motion analysis device, body motion analysis system, body motion analysis method, and program |
CN113297963A (en) * | 2021-05-24 | 2021-08-24 | 网易(杭州)网络有限公司 | Multi-person posture estimation method and device, electronic equipment and readable storage medium |
CN116206779A (en) * | 2023-04-28 | 2023-06-02 | 山东铭泰医疗设备集团有限公司 | Wisdom ward interactive system based on visual perception |
Also Published As
Publication number | Publication date |
---|---|
JP6189170B2 (en) | 2017-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6189170B2 (en) | Posture estimation device | |
JP6534499B1 (en) | MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD | |
JP6125188B2 (en) | Video processing method and apparatus | |
JP5041458B2 (en) | Device for detecting three-dimensional objects | |
JP5873442B2 (en) | Object detection apparatus and object detection method | |
JP5493108B2 (en) | Human body identification method and human body identification device using range image camera | |
JP6352208B2 (en) | 3D model processing apparatus and camera calibration system | |
JP5613741B2 (en) | Image processing apparatus, method, and program | |
EP2894851B1 (en) | Image processing device, image processing method, program, and computer-readable storage medium | |
JP2009009413A (en) | Operation detector and operation detection program, and operation basic model generator and operation basic model generation program | |
JP4341564B2 (en) | Object judgment device | |
JP2008148237A (en) | Posture detecting device | |
JP2009288917A (en) | Information processor, information processing method and program | |
JP4914870B2 (en) | Congestion degree measuring device, congestion degree measuring method, congestion degree measuring program, and recording medium recording the program | |
CN114463663A (en) | Method and device for calculating height of person, electronic equipment and storage medium | |
JP7426611B2 (en) | Calibration method and calibration device | |
JP4875652B2 (en) | Action recognition system and method | |
JP2007004318A (en) | Image processing method, program for executing image processing and storage medium with its program stored | |
WO2020090188A1 (en) | Methods and apparatus to cluster and collect head-toe lines for automatic camera calibration | |
JP3994954B2 (en) | Object detection apparatus and object detection method | |
US20220138458A1 (en) | Estimation device, estimation system, estimation method and program | |
JP2005339363A (en) | Device and method for automatically dividing human body part | |
JP4628910B2 (en) | Length measuring device and height measuring device | |
CN114372996A (en) | A Pedestrian Trajectory Generation Method for Indoor Scenes | |
JP4623320B2 (en) | Three-dimensional shape estimation system and image generation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6189170 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |