JP2005322077A6 - Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program - Google Patents
Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program Download PDFInfo
- Publication number
- JP2005322077A6 JP2005322077A6 JP2004140351A JP2004140351A JP2005322077A6 JP 2005322077 A6 JP2005322077 A6 JP 2005322077A6 JP 2004140351 A JP2004140351 A JP 2004140351A JP 2004140351 A JP2004140351 A JP 2004140351A JP 2005322077 A6 JP2005322077 A6 JP 2005322077A6
- Authority
- JP
- Japan
- Prior art keywords
- head
- image
- human
- boundary line
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【課題】 第三者に対して視界的な違和感を与えることなく、着脱及び使用が容易で且つユーザの頭部の姿勢を正確に推定することができる頭部姿勢推定装置、頭部姿勢推定方法及び頭部姿勢推定処理プログラムを提供する。
【解決手段】 赤外線カメラ1、赤外線照明器2、広角カメラ3、マイクロフォン4及び通信部5からなるセンサ部10がユーザの胸部に装着され、赤外線カメラ1は、ユーザの頭部及び胴部を含む赤外線画像を撮影し、データ処理部7は、撮影された赤外線画像からユーザの頭部及び胴部を含む人物領域を抽出した後、人物領域において頭部と胴部との境界を表す境界線を決定するとともに、境界線の中点からの距離が最大となる鼻先点を抽出し、鼻先点の位置を基に頭部の姿勢を推定する。
【選択図】 図1PROBLEM TO BE SOLVED: To provide a head posture estimation device and a head posture estimation method which can be easily attached and detached and can accurately estimate the posture of a user's head without giving a third party a sense of incongruity. And a head posture estimation processing program.
A sensor unit 10 including an infrared camera 1, an infrared illuminator 2, a wide-angle camera 3, a microphone 4, and a communication unit 5 is mounted on a user's chest, and the infrared camera 1 includes a user's head and torso. After capturing an infrared image, the data processing unit 7 extracts a human region including the user's head and torso from the captured infrared image, and then displays a boundary line representing the boundary between the head and the torso in the human region. At the same time, the nose tip point having the maximum distance from the middle point of the boundary line is extracted, and the head posture is estimated based on the position of the nose tip point.
[Selection] Figure 1
Description
本発明は、人間の頭部の姿勢を推定する頭部姿勢推定装置、頭部姿勢推定方法及び頭部姿勢推定処理プログラムに関するものである。 The present invention relates to a head posture estimation apparatus, a head posture estimation method, and a head posture estimation processing program that estimate the posture of a human head.
近年、コンピュータ、カメラ及びセンサ等の小型化により、様々なセンサを人間に装着することが可能となっている。そのため、ユーザがコンピュータ等を身につけることにより、ユーザがどこにいてもユーザに対する情報提示など、日常生活における支援を行うことが可能になると考えられている。このような研究は「ウエアラブル コンピューティング」と呼ばれ、様々な研究が行われている。 In recent years, various sensors can be attached to humans by downsizing computers, cameras, sensors, and the like. Therefore, it is considered that when the user wears a computer or the like, it is possible to provide support in daily life such as presenting information to the user wherever the user is. Such research is called “wearable computing”, and various researches have been conducted.
また、ウェアラブルな装置を用いることにより、ユーザの行動の記録及び解析を目指した研究もなされている。このような研究においては、得られた情報に対して自動的にタグ付けを行うことが重要であり、加えて、人物の行動の記録や注目対象の検出なども必要となる。人の行動を記録するための方法としては、例えば、音声情報、映像情報、位置及びジェスチャ等の身体の動き情報、心拍、発汗及び呼吸等の生理的情報など様々なものが考えられる。これらの情報を得るためには、マイクロフォン、カメラ、ジャイロセンサ、GPS(global positioning system)、皮膚センサなどが用いられる。 In addition, research aimed at recording and analyzing user behavior by using wearable devices has been conducted. In such research, it is important to automatically tag the obtained information. In addition, it is necessary to record the behavior of a person and detect a target of interest. As a method for recording human behavior, various methods such as voice information, video information, body movement information such as position and gesture, and physiological information such as heartbeat, sweating and breathing can be considered. In order to obtain such information, a microphone, a camera, a gyro sensor, a GPS (global positioning system), a skin sensor, or the like is used.
上記の情報の中で映像情報、特に、ユーザの視点からの映像には、周囲の状況に加えて、ユーザの注目対象、ユーザの頭部運動についての情報が含まれるため、行動を記録及び解析する上で重要と考えられる。そのため、多くの研究では、ユーザの視野映像を得るためにヘッドマウントカメラを用いている(非特許文献1参照)。
しかしながら、ヘッドマウントカメラを着脱することはユーザにとって面倒な作業であり、また、ヘッドマウントカメラを頭部に装着することによってユーザが疲労し、さらには、ヘッドマウントカメラの頭部への装着が周囲の人間に対して視覚的な違和感を与える等の種々の問題があり、日常的にヘッドマウントカメラを装着することは困難である。また、ヘッドマウントカメラをユーザの視線方向と正確に一致させて固定することが困難であるため、頭部運動によりヘッドマウントカメラと視線方向にズレが生じ、ユーザの頭部の姿勢を正確に推定することは困難である。 However, it is troublesome for the user to attach and detach the head mounted camera, and the user gets tired by attaching the head mounted camera to the head. It is difficult to wear a head-mounted camera on a daily basis because there are various problems such as visually discomforting humans. In addition, since it is difficult to fix the head-mounted camera so that it is accurately aligned with the user's line-of-sight direction, the head movement causes a shift in the line-of-sight direction with the head-mounted camera, and the user's head posture is accurately estimated. It is difficult to do.
本発明の目的は、第三者に対して視界的な違和感を与えることなく、着脱及び使用が容易で且つユーザの頭部の姿勢を正確に推定することができる頭部姿勢推定装置、頭部姿勢推定方法及び頭部姿勢推定処理プログラムを提供することである。 An object of the present invention is to provide a head posture estimation device, a head that can be easily attached and detached and can accurately estimate the posture of a user's head without giving a third-party a sense of discomfort in the field of view. To provide a posture estimation method and a head posture estimation processing program.
本発明に係る頭部姿勢推定装置は、人間の胸部に装着され、当該人間の頭部を観測する頭部観測手段と、前記頭部観測手段により観測された情報から頭部の姿勢を推定する頭部姿勢推定手段とを備えるものである。 A head posture estimation apparatus according to the present invention is mounted on a human chest and observes the head of the human, and estimates the posture of the head from information observed by the head observation means. And a head posture estimation means.
本発明に係る頭部姿勢推定装置においては、人間の胸部に装着された頭部観測手段により当該人間の頭部が観測され、観測された情報から頭部の姿勢が推定されるので、ヘッドマウントカメラのようにユーザの頭部に観測手段を装着ことなく、頭部の姿勢を推定することができ、第三者に対して視界的な違和感を与えることなく、着脱及び使用が容易で且つユーザの頭部の姿勢を正確に推定することができる。 In the head posture estimation apparatus according to the present invention, the human head is observed by the head observation means attached to the human chest, and the head posture is estimated from the observed information. It is possible to estimate the posture of the head without attaching observation means to the user's head like a camera, and it is easy to attach and detach and use without giving a third party a sense of discomfort. The head posture can be accurately estimated.
前記頭部姿勢推定装置は、前記頭部観測手段と一体的に固定され、前記人間の前方の画像を撮影する前方撮影手段と、前記頭部姿勢推定手段により推定された頭部の姿勢に基づいて前記前方撮影手段により撮影された画像から前記人間の視線方向の画像を抽出する視線画像抽出手段とをさらに備えることが好ましい。 The head posture estimation apparatus is fixed integrally with the head observation unit, and is based on a front photographing unit that captures an image in front of the human and a head posture estimated by the head posture estimation unit. It is preferable that the camera further includes a line-of-sight image extracting unit that extracts an image in the line-of-sight direction of the human from the image photographed by the front photographing unit.
この場合、推定された頭部の姿勢に基づいて前方撮影手段により撮影された画像から人間の視線方向の画像を抽出しているので、ユーザの視線方向の画像すなわちユーザが注目しているものを正確に検出することができる。また、前方撮影手段が頭部観測手段と一体的に固定されているので、前方撮影手段と頭部観測手段との位置関係が変化せず、ユーザが注目しているものをより正確に検出することができる。 In this case, since the image in the human gaze direction is extracted from the image photographed by the front photographing means based on the estimated head posture, the image in the user's gaze direction, that is, what the user is paying attention to. It can be detected accurately. Further, since the front photographing means is fixed integrally with the head observing means, the positional relationship between the front photographing means and the head observing means does not change, and the user's attention is detected more accurately. be able to.
前記頭部観測手段は、人間の胸部に装着され、当該人間の頭部及び胴部を含む画像を撮影する頭部撮影手段を含み、前記頭部姿勢推定手段は、前記頭部撮影手段により撮影された画像から人間の頭部及び胴部を含む人物領域を抽出する領域抽出手段と、前記人物領域において頭部と胴部との境界を表す境界線を決定するとともに、前記人物領域のうち前記境界線により頭部として区分された領域から、前記境界線の中点からの距離が最大となる先端点を抽出する先端点抽出手段と、前記先端点の位置を基に頭部の姿勢を推定する推定手段とを含むことが好ましい。 The head observing means is mounted on a human chest and includes a head photographing means for photographing an image including the human head and torso, and the head posture estimating means is photographed by the head photographing means. A region extracting means for extracting a human region including a human head and torso from the image obtained, and determining a boundary line representing a boundary between the head and the torso in the human region; From the region divided as the head by the boundary line, the tip point extraction means for extracting the tip point having the maximum distance from the midpoint of the boundary line, and the head posture is estimated based on the position of the tip point It is preferable that the estimation means to include.
この場合、頭部撮影手段により人間の頭部及び胴部を含む画像が撮影され、撮影された画像から人間の頭部及び胴部を含む人物領域が抽出され、抽出された人物領域において頭部と胴部との境界を表す境界線が決定されるとともに、境界線の中点が決定され、境界線の中点からの距離が最大となる先端点が人物領域のうち境界線により頭部として区分された領域から抽出され、抽出された先端点の位置を基に頭部の姿勢が推定されるので、ユーザの頭部の姿勢を正確に推定することができる。また、頭部撮影手段は人間の胸部に装着され、ヘッドマウントカメラのようにユーザの頭部に装着する必要がないため、第三者に対して視界的な違和感を与えることなく、容易に着脱及び使用することができる。 In this case, an image including the human head and torso is photographed by the head photographing means, and a person region including the human head and torso is extracted from the photographed image, and the head in the extracted person region A boundary line representing the boundary between the body and the torso is determined, the midpoint of the boundary line is determined, and the tip point with the maximum distance from the midpoint of the boundary line is the head of the person area by the boundary line Since the posture of the head is estimated based on the position of the extracted tip point extracted from the segmented region, the posture of the user's head can be accurately estimated. In addition, since the head imaging means is mounted on the human chest and does not need to be mounted on the user's head like a head-mounted camera, it can be easily attached and detached without giving a sense of incongruity to a third party. And can be used.
前記頭部姿勢推定装置は、人間の胸部に装着され、前記頭部撮影手段により撮影される人物の頭部及び胴部を、赤外線を用いて照明する赤外線照明手段をさらに備え、前記頭部撮影手段は、前記赤外線照明手段により赤外線照明された人間の頭部及び胴部を含む赤外線画像を撮影する赤外線撮影手段を含み、前記領域抽出手段は、前記赤外線撮影手段により撮影された赤外線画像から人間の頭部及び胴部を含む人物領域を抽出することが好ましい。 The head posture estimation apparatus further includes infrared illumination means that illuminates the head and torso of a person, which is attached to a human chest and is photographed by the head photographing means, using infrared rays, and the head photographing The means includes infrared photographing means for photographing an infrared image including a human head and torso illuminated by infrared light by the infrared illuminating means, and the region extracting means is configured to extract a human image from the infrared image photographed by the infrared photographing means. It is preferable to extract a person region including the head and torso of the person.
この場合、赤外線を用いて照明された人物の頭部及び胴部を撮影した赤外線画像から人間の頭部及び胴部を含む人物領域を抽出することができるので、人物領域とその他の背景領域とを明確に区分することができ、人物領域を高精度に抽出することができる。 In this case, since the person area including the human head and torso can be extracted from the infrared image obtained by photographing the head and torso of the person illuminated using infrared rays, the person area and other background areas Can be clearly distinguished, and the person region can be extracted with high accuracy.
前記推定手段は、前記先端点の位置から前記境界線の中点を回転中心とする頭部の水平角度及び垂直角度を推定することが好ましい。この場合、先端点の位置から境界線の中点を回転中心とする頭部の水平角度及び垂直角度を推定しているので、ユーザの頭部の姿勢を正確に推定することができる。 It is preferable that the estimation means estimates a horizontal angle and a vertical angle of the head centering on the midpoint of the boundary line from the position of the tip point. In this case, since the horizontal angle and the vertical angle of the head centering on the center point of the boundary line are estimated from the position of the tip point, the posture of the user's head can be estimated accurately.
前記頭部姿勢推定装置は、前記頭部撮影手段と一体に固定され、前記頭部撮影手段を装着した人間の正面方向の画像を撮影する正面撮影手段と、前記推定手段により推定された頭部の姿勢を基に、前記正面撮影手段により撮影された画像から前記頭部撮影手段を装着した人間の視線方向の画像を抽出する画像抽出手段とをさらに備えることが好ましい。 The head posture estimation device is fixed integrally with the head photographing means, and includes a front photographing means for photographing an image in the front direction of a person wearing the head photographing means, and a head estimated by the estimating means. It is preferable to further include an image extracting unit that extracts an image in the line of sight of a human wearing the head photographing unit from the image photographed by the front photographing unit.
この場合、推定された頭部の姿勢を基に正面撮影手段により撮影された画像から頭部撮影手段を装着した人間の視線方向の画像を抽出しているので、ユーザの視線方向の画像すなわちユーザが注目しているものを正確に検出することができる。また、正面撮影手段が頭部撮影手段と一体に固定されているので、正面撮影手段と頭部撮影手段との位置関係が変化せず、ユーザが注目しているものをより正確に検出することができる。 In this case, since an image in the direction of the line of sight of the person wearing the head imaging unit is extracted from an image captured by the frontal imaging unit based on the estimated head posture, an image in the direction of the user's line of sight, that is, the user Can be accurately detected. In addition, since the front photographing unit is fixed integrally with the head photographing unit, the positional relationship between the front photographing unit and the head photographing unit does not change, and the user's attention can be detected more accurately. Can do.
前記頭部姿勢推定装置は、前記境界線を基に人間に対する前記頭部撮影手段及び前記正面撮影手段の姿勢変化量を算出する算出手段をさらに備え、前記画像抽出手段は、前記算出手段により算出された前記頭部撮影手段及び前記正面撮影手段の姿勢変化量並びに前記推定手段により推定された頭部の姿勢を基に、前記正面撮影手段により撮影された画像から前記頭部撮影手段を装着した人間の視線方向の画像を抽出することが好ましい。 The head posture estimation apparatus further includes a calculation unit that calculates a posture change amount of the head photographing unit and the front photographing unit with respect to a human based on the boundary line, and the image extraction unit is calculated by the calculation unit. The head photographing means is mounted from the image photographed by the front photographing means based on the posture change amount of the head photographing means and the front photographing means and the posture of the head estimated by the estimating means. It is preferable to extract an image in the human gaze direction.
この場合、境界線を基に人間に対する頭部撮影手段及び正面撮影手段の姿勢変化量を算出し、算出された頭部撮影手段及び正面撮影手段の姿勢変化量をも考慮して推定した頭部の姿勢を基に人間の視線方向の画像を抽出しているので、頭部撮影手段及び正面撮影手段と人間との相対姿勢の変化を補正した頭部の姿勢を基に人間の視線方向の画像を抽出することができ、人間の視線方向の画像をより高精度に抽出することができる。 In this case, the posture change amount of the head photographing unit and the front photographing unit with respect to the human being calculated based on the boundary line, and the head estimated by considering the calculated posture variation amount of the head photographing unit and the front photographing unit Since the image in the human gaze direction is extracted based on the posture of the head, the image in the human gaze direction based on the posture of the head corrected for the relative posture change between the head photographing means and the front photographing means and the human being. Can be extracted, and an image in the human gaze direction can be extracted with higher accuracy.
本発明に係る頭部姿勢推定方法は、領域抽出手段、境界線決定手段、先端点抽出手段及び推定手段として機能するコンピュータを用い、人間の頭部及び胴部を含む画像を撮影する頭部撮影手段を胸部に装着した人間の頭部の姿勢を推定する頭部姿勢推定方法であって、前記領域抽出手段が、前記頭部撮影手段により撮影された画像から人間の頭部及び胴部を含む人物領域を抽出するステップと、前記境界線決定手段が、前記人物領域において頭部と胴部との境界を表す境界線を決定するとともに、前記境界線の中点を決定するステップと、前記先端点抽出手段が、前記人物領域のうち前記境界線により頭部として区分された領域から、前記境界線の中点からの距離が最大となる先端点を抽出するステップと、前記推定手段が、前記先端点の位置を基に頭部の姿勢を推定するステップとを含むものである。 The head posture estimation method according to the present invention uses a computer functioning as an area extraction unit, a boundary line determination unit, a tip point extraction unit, and an estimation unit, and shoots an image including a human head and a torso. A head posture estimation method for estimating the posture of a human head wearing a means on a chest, wherein the region extraction means includes a human head and a torso from an image photographed by the head photographing means Extracting a person area; and wherein the boundary line determining means determines a boundary line representing a boundary between a head and a torso in the person area, determining a midpoint of the boundary line, and the tip A point extracting unit extracting a tip point having a maximum distance from a middle point of the boundary line from an area of the person region divided as the head by the boundary line; and the estimating unit, Tip position The is intended to include a step of estimating the posture of the head based.
本発明に係る頭部姿勢推定処理プログラムは、人間の頭部及び胴部を含む画像を撮影する頭部撮影手段を胸部に装着した人間の頭部の姿勢を推定するための頭部姿勢推定処理プログラムであって、前記頭部撮影手段により撮影された画像から人間の頭部及び胴部を含む人物領域を抽出する領域抽出手段と、前記人物領域において頭部と胴部との境界を表す境界線を決定するとともに、前記境界線の中点を決定する境界線決定手段と、前記人物領域のうち前記境界線により頭部として区分された領域から、前記境界線の中点からの距離が最大となる先端点を抽出する先端点抽出手段と、前記先端点の位置を基に頭部の姿勢を推定する推定手段としてコンピュータを機能させるものである。 The head posture estimation processing program according to the present invention is a head posture estimation process for estimating the posture of a human head having a head photographing means for photographing an image including the human head and torso on the chest. A region extracting means for extracting a person region including a human head and a torso from an image photographed by the head photographing means; and a boundary representing a boundary between the head and the torso in the person region A boundary line determining means for determining a middle point of the boundary line, and a distance from the middle point of the boundary line to a maximum from a region of the person region divided as a head by the boundary line The computer functions as tip point extraction means for extracting the tip point, and estimation means for estimating the posture of the head based on the position of the tip point.
本発明によれば、人間の胸部に装着された頭部観測手段により当該人間の頭部を観測され、観測された情報から頭部の姿勢が推定されるので、ヘッドマウントカメラのようにユーザの頭部に観測手段を装着することなく、頭部の姿勢を推定することができ、第三者に対して視界的な違和感を与えることなく、着脱及び使用が容易で且つユーザの頭部の姿勢を正確に推定することができる。 According to the present invention, the human head is observed by the head observing means attached to the human chest, and the posture of the head is estimated from the observed information. The posture of the head can be estimated without wearing an observation means on the head, and the posture of the user's head can be easily attached / detached and used without giving a sense of discomfort to a third party. Can be estimated accurately.
以下、本発明の一実施の形態による頭部姿勢推定装置について図面を参照しながら説明する。図1は、本発明の一実施の形態による頭部姿勢推定装置の構成を示すブロック図であり、図2は、図1に示す頭部姿勢推定装置のセンサ部の人物への装着状態を示す概略図である。 Hereinafter, a head posture estimation apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a head posture estimation apparatus according to an embodiment of the present invention, and FIG. 2 illustrates a state where a sensor unit of the head posture estimation apparatus illustrated in FIG. 1 is attached to a person. FIG.
図1に示す頭部姿勢推定装置は、赤外線カメラ1、赤外線照明器2、広角カメラ3、マイクロフォン4、通信部5,6、データ処理部7及びデータ記録部8を備える。赤外線カメラ1、赤外線照明器2、広角カメラ3、マイクロフォン4及び通信部5は、センサ部10として一体に構成され、図2に示すように、ユーザ(人間)の胸部に装着される。センサ部10の装着方法は、クリップ等を用いて衣服に取り付けたり、ペンダント方式を用いて首から吊り下げる等の種々の方法を用いることができる。また、センサ部10の装着位置は、赤外線カメラ1がユーザの頭部(少なくとも鼻の頂点及び胴部との境界付近)及び胴部(少なくとも頭部との境界付近、例えば、両肩部)を確実に撮影できるように、人体のバストラインの中心位置付近に装着することが好ましいが、赤外線カメラ1がユーザの頭部及び胴部を撮影できる位置であれば、胸部周辺の他の位置に装着するようにしてもよい。
The head posture estimation apparatus shown in FIG. 1 includes an
赤外線カメラ1は、赤外線領域に十分な感度を有するCCDカメラ等から構成され、ユーザの胸部に上向きに装着される。赤外線照明器2は、赤外線LED等から構成され、赤外線カメラ1と一体に構成され、近赤外線を用いて距離の近い領域のみを照明するように照明強度が調整されており、ユーザの頭部及び胴部のみを照明する。赤外線カメラ1には赤外線のうち主に近赤外線のみ透過させる赤外線フィルタが取り付けられており、赤外線フィルタとしては、例えば、可視光を透過せず且つ近赤外光を透過するエドモンド社製プラスチックIRパスフィルタを用いることができる。赤外線カメラ1は、赤外線照明器2により赤外線で照明されているユーザの頭部及び胴部を含む赤外線画像を撮影して赤外線画像データを通信部5へ出力する。
The
広角カメラ3は、赤外線カメラ1の撮影方向と広角カメラ3の撮影方向とが所定の角度をなすように調整された状態で赤外線カメラ1と一体に固定され、ユーザの前方に向けてユーザの胸部に装着される。広角カメラ3は、通常のカメラより高解像度で且つ広角なCMOSカメラ等から構成され、例えば、画素数1280×1024のPixeLINK社製PL−A662を用いることができる。広角カメラ3は、ユーザの正面方向のカラー画像(可視光画像)を撮影して正面画像データを通信部5へ出力する。
The wide-
マイクロフォン4は、ユーザの発話又は周囲音を集音して音声データを通信部5へ出力する。なお、音声を録音しない場合は、マイクロフォン4を省略してもよく、また、ユーザに音声等を伝達するためにスピーカ等を一体に構成してもよい。
The
通信部5は、無線方式により赤外線画像データ、正面画像データ及び音声データを通信部6へ送信する。なお、各データの送信方式は、上記の例に特に限定されず、有線方式等により各データを送信してもよい。また、データ処理部7及びデータ記録部8を小型化してセンサ部10と一体に構成する場合は、通信部5,6を省略して赤外線カメラ1等から各データをデータ処理部7へ直接送信するようにしてもよい。
The
通信部6、データ処理部7及びデータ記録部8は、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、ハードディスクドライブ、無線通信装置等を備えるコンピュータ等から構成され、ユーザから離間した所定位置に設置される。 The communication unit 6, the data processing unit 7, and the data recording unit 8 are configured by a computer or the like that includes a ROM (Read Only Memory), a CPU (Central Processing Unit), a RAM (Random Access Memory), a hard disk drive, a wireless communication device, and the like. And installed at a predetermined position away from the user.
通信部6は、通信部5から無線方式により送信される赤外線画像データ、正面画像データ及び音声データを受信してデータ処理部7へ出力する。データ処理部7は、赤外線画像データからユーザの頭部姿勢データを算出するとともに、頭部姿勢データを基に正面画像データからユーザの視線方向のユーザ視点画像データを抽出し、頭部姿勢データ、ユーザ視点画像データ及び音声データを観測時間に対応付けてデータ記録部8にデータベース化して記録させる。
The communication unit 6 receives infrared image data, front image data, and audio data transmitted from the
図3は、図1に示すデータ処理部7の機能的な構成を示すブロックである。なお、図3では、説明を容易にするために通信部5,6の図示を省略している。図3に示すように、データ処理部7は、ROM等に記憶されている頭部姿勢推定処理プログラムをCPU等で実行することにより、2値化部11、人物領域抽出部12、境界線算出部13、鼻先点抽出部14、頭部回転算出部15、変化量算出部16、視線方向算出部17及び視線画像抽出部18として機能する。なお、データ処理部7の構成は、上記の例に特に限定されず、専用のハードウエア等により構成してもよい。
FIG. 3 is a block diagram showing a functional configuration of the data processing unit 7 shown in FIG. In FIG. 3, the
2値化部11は、通信部5,6を介して赤外線カメラ1から赤外線画像データを取得し、取得した赤外線画像データを2値化処理して人物領域抽出部12へ出力する。人物領域抽出部12は、2値化された赤外線画像データを用いてユーザの頭部及び胴部からなる人物領域とその他の背景領域との境界線を検出して人物領域と背景領域とに分割する。
The
境界線算出部13は、人物領域と背景領域との境界線の形状を基に頭部と胴部との境界線を決定するとともに、頭部と胴部との境界線の中点をユーザの頭部の回転中心として決定する。鼻先点抽出部14は、人物領域のうち頭部と胴部との境界線により頭部として区分された領域から、頭部と胴部との境界線の中点からの距離が最大となる先端点を鼻先点として抽出する。頭部回転算出部15は、鼻先点の位置から頭部と胴部との境界線の中点を回転中心とする頭部の水平角度及び垂直角度を算出してデータ記録部8に頭部姿勢データとして記録させる。
The boundary
変化量算出部16は、頭部と胴部との境界線の傾き及び中点の位置を基にユーザに対する赤外線カメラ1及び広角カメラ3の姿勢変化量となる水平補正角度及び垂直補正角度を算出する。視線方向算出部17は、頭部回転算出部15により算出された頭部の水平角度及び垂直角度と変化量算出部16により算出された赤外線カメラ1及び広角カメラ3の水平補正角度及び垂直補正角度からユーザの視線方向を算出する。視線画像抽出部18は、通信部5,6を介して広角カメラ3から正面画像データを取得し、取得した正面画像データからユーザの視線方向を中心とする所定範囲の画像を抽出してデータ記録部8にユーザ視点画像データとして記録させる。
The change
本実施の形態では、赤外線カメラ1が頭部観測手段の一例に相当し、2値化部11、人物領域抽出部12、境界線算出部13及び鼻先点抽出部14、頭部回転算出部15が頭部姿勢推定手段の一例に相当し、広角カメラ3が前方撮影手段の一例に相当し、視線方向算出部17及び視線画像抽出部18が視線画像抽出手段の一例に相当する。また、赤外線カメラ1が頭部撮影手段及び赤外線撮影手段の一例に相当し、2値化部11及び人物領域抽出部12が領域抽出手段の一例に相当し、境界線算出部13が境界線決定手段の一例に相当し、鼻先点抽出部14が先端点抽出手段の一例に相当し、頭部回転算出部15が推定手段の一例に相当する。赤外線照明器2が赤外線照明手段の一例に相当し、広角カメラ3が正面撮影手段の一例に相当し、視線方向算出部17及び視線画像抽出部18が画像抽出手段の一例に相当し、変化量算出部16が算出手段の一例に相当する。
In the present embodiment, the
次に、図3に示すデータ処理部7による頭部姿勢推定処理について説明する。図4は、図3に示すデータ処理部7による頭部姿勢推定処理を説明するためのフローチャートである。 Next, the head posture estimation process by the data processing unit 7 shown in FIG. 3 will be described. FIG. 4 is a flowchart for explaining head posture estimation processing by the data processing unit 7 shown in FIG.
まず、2値化部11は、赤外線カメラ1から出力される赤外線画像データを、通信部5,6を介して取得し(ステップS11)、取得した赤外線画像データを2値化処理する(ステップS12)。ここで、頭部姿勢推定処理に使用される頭部モデルの座標系及び赤外線画像について以下に説明する。
First, the
図5は、頭部モデルの座標系を示す模式図である。図5に示すように、水平面に沿ってX0軸及びZ0軸が規定され、垂直方向にY0軸が規定され、原点となるユーザの頭部の回転中心RCが首の前方に規定され、回転後の頭部座標系をX,Y,Zで表す。このとき、ユーザの視線はZ軸回転には依存しないので、Y軸及びX軸回りの回転角α、βがユーザの頭部の水平角度及び垂直角度となる。 FIG. 5 is a schematic diagram showing a coordinate system of the head model. As shown in FIG. 5, the X0 axis and the Z0 axis are defined along the horizontal plane, the Y0 axis is defined in the vertical direction, the rotation center RC of the user's head as the origin is defined in front of the neck, and after rotation Is represented by X, Y, and Z. At this time, since the user's line of sight does not depend on the Z-axis rotation, the rotation angles α and β around the Y-axis and the X-axis become the horizontal angle and the vertical angle of the user's head.
図6は、ユーザの頭部及び胴部を撮影した赤外線画像と可視光画像とを模式的に示す図である。図6に示すように、ユーザの胸部にカメラを装着してユーザの頭部及び胴部を撮影した場合、赤外線画像として図6の(a)に示す画像が撮影され、可視光画像として図6の(b)に示す画像が撮影される。 FIG. 6 is a diagram schematically showing an infrared image and a visible light image obtained by photographing the user's head and torso. As shown in FIG. 6, when a camera is mounted on the user's chest and the user's head and torso are photographed, the image shown in FIG. 6A is photographed as an infrared image, and the visible light image is depicted in FIG. An image shown in (b) of FIG.
すなわち、(b)に示す可視光画像では、背景となる天井の空調機及び照明等が鮮明に撮影され、逆に、ユーザの頭部の一部は照明により鮮明に撮影されない。このような画像を2値化処理しても、人物領域と背景領域とを分離することは困難である。一方、(a)に示す赤外線画像では、赤外線照明器2が赤外線を用いて距離の近い領域のみを照明しているため、ユーザの頭部及び胴部のみが鮮明に撮影され、背景となるその他の部分は暗く撮影される。したがって、この赤外線画像を2値化処理することにより人物領域と背景領域とを正確に区分することができる。
In other words, in the visible light image shown in (b), the ceiling air conditioner and illumination as a background are clearly photographed, and conversely, a part of the user's head is not clearly photographed by illumination. Even if such an image is binarized, it is difficult to separate the person area and the background area. On the other hand, in the infrared image shown in (a), since the
次に、人物領域抽出部12は、2値化された赤外線画像データから人物領域と背景領域との境界線を検出して人物領域と背景領域とに分割し(ステップS13)、境界線算出部13は、人物領域と背景領域との境界線の傾きの変化から頭部領域を抽出し、胴部の境界線のみを用いて頭部と胴部との境界線を検出する(ステップS14)。これに限定されないが、例えば、後述する図7に示すように、当該境界線の傾きの変化の大きい部分の点P4,P5を胴体−頭部の境界として検出することで頭部領域を抽出し、点P4,P5を検出することで頭部を抽出し、点P4,P5を用いて頭部と胴部との境界線を検出する。ここで、位置xにおける境界線の傾きをθ(x)とするとき、dθ(x)/dxが最大の点、最小の点をそれぞれP4,P5とする。
Next, the person
次に、境界線算出部13は、頭部と胴部との境界線の中点をユーザの頭部の回転中心として検出し(ステップS15)、鼻先点抽出部14は、人物領域のうち人物領域と背景領域との境界線により頭部として区分された領域から、境界線の中点からの距離が最大となる鼻先点を抽出する(ステップS16)。
Next, the boundary
図7は、頭部と胴部との境界線及び鼻先点を決定する方法を説明するための模式図である。図7に示すように、人物領域抽出部12は、人物領域と背景領域との境界線L1〜L3を検出し、境界線算出部13は、境界線L1〜L3の傾きの変化から点P4と点P5とを用いて頭部と胴部との境界線BLを算出する。次に、境界線算出部13は、点P4と点P5との中点MPを抽出し、鼻先点抽出部14は、点P4と点P5との間の頭部領域すなわち頭部の境界線L2内の領域において中点MPからの距離が最大となる点NPを鼻先点として決定する。
FIG. 7 is a schematic diagram for explaining a method of determining the boundary line between the head and the torso and the nose tip. As shown in FIG. 7, the person
図8は、人物領域、頭部と胴部との境界線及び鼻先点の検出例を示す模式図である。図8の上段の各画像において、斜線部は背景領域を示し、斜線のない白色部は人物領域PRを示しており、下段の各画像において、直線は頭部と胴部との境界線BLを示し、×印は鼻先点NPを示している。このように、赤外線画像からユーザの頭部の動きに応じて、人物領域PR、頭部と胴部との境界線BL及び鼻先点NPが正確に推定された。 FIG. 8 is a schematic diagram illustrating a detection example of a person region, a boundary line between a head and a torso, and a nose tip point. In each upper image in FIG. 8, the hatched portion indicates the background region, the white portion without the oblique line indicates the person region PR, and in each lower image, the straight line indicates the boundary line BL between the head and the torso. The x mark indicates the nose tip NP. Thus, the person region PR, the boundary line BL between the head and the torso, and the nose tip NP were accurately estimated from the infrared image according to the movement of the user's head.
次に、頭部回転算出部15は、鼻先点の位置から人物領域と背景領域との境界線の中点を回転中心とする頭部の水平角度及び垂直角度を算出する(ステップS17)。図9は、鼻先点と、人物領域と背景領域との境界線の中点との関係を示す模式図である。図9に示すように、赤外線画像上の鼻先点と、人物領域と背景領域との境界線の中点すなわち頭部回転中心とをそれぞれPn(=〔un,vn〕)、Pc(=〔uc,vc〕=〔0,0〕)で表す。ここで、u軸は、頭部と胴部との境界線BLと一致し、v軸はu軸に対して垂直な軸である。
Next, the head
このとき、ユーザの頭部の水平角度α及び垂直角度βは、頭部回転中心Pcがユーザの首の前方に位置するので、次式により計算される。 At this time, the horizontal angle α and the vertical angle β of the user's head are calculated by the following equations since the head rotation center P c is located in front of the user's neck.
ここで、Pn (0)(=〔un (0),vn (0)〕)は、α=0,β=0のときのPnの値である。これは、ユーザが正面を向いて装置の初期化設定(ボタンを押すなど)を行った際に設定する。また、kは、ユーザの頭部の大きさと赤外線カメラ1の内部パラメータにより決定される定数であり、以下のようにして求められる。
Here, P n (0) (= [u n (0) , v n (0) ]) is the value of P n when α = 0 and β = 0. This is set when the user makes an initialization setting (such as pressing a button) of the apparatus facing the front. Further, k is a constant determined by the size of the user's head and the internal parameters of the
図10は、ユーザを側面からみたときの模式図であり、(a)はユーザが正面を向いている状態を示し、(b)はユーザが俯いている状態を示している。図10の(a)に示すように、ユーザが正面を向いているとき、赤外線カメラ1から頭部回転中心Pcまでの垂直距離をd0、鼻先点Pnと頭部回転中心Pcとの距離をD、その水平距離をh0、鼻先点Pnと頭部回転中心Pcとを結ぶ直線の水平線に対する角度をθ0とし、(b)に示すように、ユーザが俯いたときの鼻先点Pnと頭部回転中心Pcとの水平距離をh1、鼻先点Pnと頭部回転中心Pcとを結ぶ直線の水平線に対する角度をθ1とすると、下式が成り立つ。
FIG. 10 is a schematic diagram when the user is viewed from the side. FIG. 10A shows a state where the user is facing the front, and FIG. 10B shows a state where the user is scolding. As shown in FIG. 10A, when the user is facing the front, the vertical distance from the
ここで、赤外線カメラ1の焦点距離をfとすると、下式が成り立つ。
Here, when the focal length of the
式(5)を式(4)へ代入すると、 Substituting equation (5) into equation (4),
となり、式(2)のkは、k=D(f/d0)となる。ここで、距離D、垂直距離d0は、予め上記初期化の際計測しておく。焦点距離fは、光学系設計時に決定される。 Thus, k in the equation (2) is k = D (f / d 0 ). Here, the distance D and the vertical distance d0 are measured in advance during the initialization. The focal length f is determined when designing the optical system.
次に、変化量算出部16は、頭部と胴部との境界線の傾き及び中点の位置を基にユーザに対する赤外線カメラ1及び広角カメラ3の姿勢変化量となる水平補正角度Δα及び垂直補正角度Δβを算出する(ステップS18)。水平補正角度Δαは、図9に示す頭部と胴部との境界線BLの傾きであり、垂直補正角度Δβは下式により算出される。
Next, the change
ここで、Pc (0)(=〔uc (0),vc (0)〕)は、Δα=0,Δβ=0のときのPcの値である。 Here, P c (0) (= [u c (0) , v c (0) ]) is the value of P c when Δα = 0 and Δβ = 0.
次に、視線方向算出部17は、頭部回転算出部15により算出された頭部の水平角度α及び垂直角度βと、変化量算出部16により算出された赤外線カメラ1及び広角カメラ3の水平補正角度Δα及び垂直補正角度Δβとから広角カメラ3の正面画像上のユーザの視線方向xα,yβを、下式を用いて算出する(ステップS19)。
Next, the line-of-sight
xα=f・tan(α+Δα),yβ=f・tan(β+Δβ)…(8)
最後に、視線画像抽出部18は、広角カメラ3により撮影された正面画像からユーザの視線方向を中心とする所定範囲の画像を抽出し(ステップS20)、その後ステップS11以降の処理を適宜繰り返す。なお、本実施の形態において、視線方向とは、目の向いている方向を直接的に意味するものではなく、頭部の姿勢すなわち顔の方向が通常では目の向いている方向すなわち視線方向とほぼ同じであるため、頭部の姿勢、頭部の回転の算出から視線方向を推定するものである。
xα = f · tan (α + Δα), yβ = f · tan (β + Δβ) (8)
Finally, the line-of-sight
次に、上記の頭部姿勢推定処理における鼻先点の推定精度等について具体例を挙げて説明する。図11は、図1に示す頭部姿勢推定装置による鼻先点の推定結果を示す図であり、図中の破線は実験者が手作業により計測した真値を示し、実線は図1に示す頭部姿勢推定装置による鼻先点の推定結果を示している。図11から図1に示す頭部姿勢推定装置は鼻先点を高精度に抽出できたことがわかる。 Next, the estimation accuracy of the nose tip in the head posture estimation process will be described with a specific example. FIG. 11 is a diagram showing the estimation results of the nose tip by the head posture estimation apparatus shown in FIG. 1. The broken line in the figure shows the true value measured manually by the experimenter, and the solid line shows the head shown in FIG. The nose tip point estimation result by the head posture estimation device is shown. It can be seen that the head posture estimation apparatus shown in FIG. 11 can extract the nose tip with high accuracy.
図12は、図1に示す頭部姿勢推定装置により室内において推定されたユーザの視線方向の軌跡の一例を示す図である。図12に示す折れ線VTがユーザの視線方向の軌跡であり、この軌跡VTから、ユーザは3つの物体、すなわち、時計T1、カレンダーT2、椅子T3を順に見ていたことがわかる。また、頭部運動の静止時間からユーザの注目物体の抽出を行った結果、図12に示す時計T1、カレンダーT2、椅子T3を含む画像が抽出され、ユーザの注目物体を自動抽出することができた。 FIG. 12 is a diagram illustrating an example of the locus of the user's line-of-sight direction estimated in the room by the head posture estimation apparatus illustrated in FIG. A broken line VT shown in FIG. 12 is a trajectory in the user's line-of-sight direction, and it can be seen from the trajectory VT that the user has looked at three objects, that is, a clock T1, a calendar T2, and a chair T3 in order. Further, as a result of extracting the user's attention object from the stationary time of the head movement, an image including the clock T1, the calendar T2, and the chair T3 shown in FIG. 12 is extracted, and the user's attention object can be automatically extracted. It was.
図13は、図1に示す頭部姿勢推定装置により記録されたユーザの行動履歴データの一例を示す図である。図13の上段及び中段はユーザの頭部姿勢データを示し、下段は音声データを示しており、これらのデータとともに上記のようなユーザ視点画像データがデータ記録部8に記録された。これらの情報を用いることにより、ユーザの頭部ジェスチャ(頷き、首振りなど)の検出や、ユーザが話している時間の検出などが可能になる。 FIG. 13 is a diagram illustrating an example of user action history data recorded by the head posture estimation apparatus illustrated in FIG. 1. The upper and middle sections of FIG. 13 show the user's head posture data, and the lower section shows the audio data. The user viewpoint image data as described above was recorded in the data recording unit 8 together with these data. By using these pieces of information, it is possible to detect a user's head gesture (whipping, swinging, etc.), detecting the time the user is speaking, and the like.
上記のように、本実施の形態では、赤外線カメラ1によりユーザの頭部及び胴部を含む赤外線画像が撮影され、撮影された赤外線画像からユーザの頭部及び胴部を含む人物領域が抽出され、抽出された人物領域において頭部と胴部との境界を表す境界線が決定されるとともに、境界線の中点が決定され、境界線の中点からの距離が最大となる鼻先点が人物領域のうち境界線により頭部として区分された領域から抽出され、抽出された鼻先点の位置を基に頭部の姿勢が推定されるので、ユーザの頭部の姿勢を正確に推定することができる。
As described above, in the present embodiment, the
また、推定された頭部の姿勢を基に広角カメラ3により撮影された正面画像からユーザの視線方向の画像を切り出しているので、ユーザの視線方向の画像すなわちユーザが注目しているものを正確に検出することができる。
In addition, since the image in the user's line-of-sight direction is cut out from the front image captured by the wide-
さらに、赤外線カメラ1及び広角カメラ3等のセンサ部10がユーザの胸部に装着され、ヘッドマウントカメラのようにユーザの頭部に装着する必要がないため、第三者に対して視界的な違和感を与えることなく、容易に着脱及び使用することができ、日常的な行動の記録に好適に用いることができる。
Further, since the
なお、本実施の形態では、赤外線カメラを用いて鼻先点を検出したが、頭部の運動に応じて位置が変化する特徴点を検出することができれば、この例に特に限定されず、可視光用カメラを用いて顎先点を検出する等の種々の変更が可能である。また、本実施の形態では、一つのセンサ部に対してそれぞれ一つのデータ処理部及びデータ記録部を用いたが、この例に特に限定されず、複数のセンサ部(複数の人間)に対する処理を一つのデータ処理部で行う等の種々の変更が可能である。また、本実施の形態では、撮影した画像を用いて頭部の姿勢を推定したが、頭部姿勢の推定に用いる情報は、この例に特に限定されず、例えば、光、超音波等により胸部から頭部までの距離等を測定して頭部の形を取得し、さらには、頭部の姿勢をパターンマッチング等により推定するようにしてもよい。 In the present embodiment, the nose tip point is detected using an infrared camera. However, the present invention is not particularly limited to this example as long as a feature point whose position changes according to the movement of the head can be detected. Various modifications, such as detecting the tip of the chin using a camera, are possible. In this embodiment, one data processing unit and one data recording unit are used for each sensor unit. However, the present invention is not particularly limited to this example, and processing for a plurality of sensor units (a plurality of humans) is performed. Various changes such as a single data processing unit are possible. In this embodiment, the posture of the head is estimated using the captured image. However, information used for estimating the head posture is not particularly limited to this example. The head shape may be acquired by measuring the distance from the head to the head, and the head posture may be estimated by pattern matching or the like.
また、本発明の頭部姿勢推定装置は、日常的な行動の記録に好適に用いることができるので、人間の体験の記録、人間の行動履歴の要約、人間のインタラクションの解析等の用途に適しており、これらの場合、脈拍、体温等の生体データ等の他のデータを併せて記録するようにしてもよい。 In addition, since the head posture estimation apparatus of the present invention can be suitably used for recording daily activities, it is suitable for uses such as recording of human experiences, summarization of human behavior history, analysis of human interactions, etc. In these cases, other data such as biological data such as pulse and body temperature may be recorded together.
1 赤外線カメラ
2 赤外線照明器
3 広角カメラ
4 マイクロフォン
5,6 通信部
7 データ処理部
8 データ記録部
11 2値化部
12 人物領域抽出部
13 境界線算出部
14 鼻先点抽出部
15 頭部回転算出部
16 変化量算出部
17 視線方向算出部
18 視線画像抽出部
DESCRIPTION OF
Claims (9)
前記頭部観測手段により観測された情報から頭部の姿勢を推定する頭部姿勢推定手段とを備えることを特徴とする頭部姿勢推定装置。 A head observation means mounted on a human chest and observing the human head;
A head posture estimation apparatus comprising: head posture estimation means for estimating a head posture from information observed by the head observation means.
前記頭部姿勢推定手段により推定された頭部の姿勢に基づいて前記前方撮影手段により撮影された画像から前記人間の視線方向の画像を抽出する視線画像抽出手段とをさらに備えることを特徴とする請求項1記載の頭部姿勢推定装置。 A front photographing means fixed integrally with the head observing means and photographing a front image of the human;
The image processing apparatus further comprises: a line-of-sight image extracting unit that extracts an image in the human line-of-sight direction from an image captured by the front image capturing unit based on the head posture estimated by the head posture estimation unit. The head posture estimation apparatus according to claim 1.
前記頭部姿勢推定手段は、
前記頭部撮影手段により撮影された画像から人間の頭部及び胴部を含む人物領域を抽出する領域抽出手段と、
前記人物領域において頭部と胴部との境界を表す境界線を決定するとともに、前記境界線の中点を決定する境界線決定手段と、
前記人物領域のうち前記境界線により頭部として区分された領域から、前記境界線の中点からの距離が最大となる先端点を抽出する先端点抽出手段と、
前記先端点の位置を基に頭部の姿勢を推定する推定手段とを含むことを特徴とする請求項1記載の頭部姿勢推定装置。 The head observing means includes a head photographing means that is mounted on a human chest and photographs an image including the human head and torso.
The head posture estimation means includes
Area extracting means for extracting a person area including a human head and torso from an image photographed by the head photographing means;
Determining a boundary line representing a boundary between the head and the torso in the person region, and a boundary line determining means for determining a midpoint of the boundary line;
Tip point extraction means for extracting a tip point having a maximum distance from a midpoint of the boundary line from an area of the person region divided as the head by the boundary line;
The head posture estimation apparatus according to claim 1, further comprising: estimation means for estimating a head posture based on the position of the tip point.
前記頭部撮影手段は、前記赤外線照明手段により赤外線照明された人間の頭部及び胴部を含む赤外線画像を撮影する赤外線撮影手段を含み、
前記領域抽出手段は、前記赤外線撮影手段により撮影された赤外線画像から人間の頭部及び胴部を含む人物領域を抽出することを特徴とする請求項3記載の頭部姿勢推定装置。 Infrared illumination means for illuminating the human head and torso, which is mounted on a human chest and photographed by the head photographing means, using infrared rays,
The head photographing means includes an infrared photographing means for photographing an infrared image including a human head and a torso illuminated by infrared rays by the infrared illuminating means,
4. The head posture estimation apparatus according to claim 3, wherein the region extracting unit extracts a human region including a human head and a torso from an infrared image captured by the infrared imaging unit.
前記推定手段により推定された頭部の姿勢を基に、前記正面撮影手段により撮影された画像から前記頭部撮影手段を装着した人間の視線方向の画像を抽出する画像抽出手段とをさらに備えることを特徴とする請求項3〜5のいずれかに記載の頭部姿勢推定装置。 A front imaging unit that is fixed integrally with the head imaging unit and that captures an image in the front direction of the person wearing the head imaging unit;
An image extracting means for extracting an image in the direction of the line of sight of a human wearing the head photographing means from an image photographed by the front photographing means based on the posture of the head estimated by the estimating means; The head posture estimation apparatus according to any one of claims 3 to 5.
前記画像抽出手段は、前記算出手段により算出された前記頭部撮影手段及び前記正面撮影手段の姿勢変化量並びに前記推定手段により推定された頭部の姿勢を基に、前記正面撮影手段により撮影された画像から前記頭部撮影手段を装着した人間の視線方向の画像を抽出することを特徴とする請求項6記載の頭部姿勢推定装置。 A calculation means for calculating a posture change amount of the head photographing means and the front photographing means with respect to a human based on the boundary line;
The image extracting means is photographed by the front photographing means based on the posture change amount of the head photographing means and the front photographing means calculated by the calculating means and the posture of the head estimated by the estimating means. The head posture estimation apparatus according to claim 6, wherein an image in a line of sight of a human wearing the head photographing means is extracted from the captured image.
前記領域抽出手段が、前記頭部撮影手段により撮影された画像から人間の頭部及び胴部を含む人物領域を抽出するステップと、
前記境界線決定手段が、前記人物領域において頭部と胴部との境界を表す境界線を決定するとともに、前記境界線の中点を決定するステップと、
前記先端点抽出手段が、前記人物領域のうち前記境界線により頭部として区分された領域から、前記境界線の中点からの距離が最大となる先端点を抽出するステップと、
前記推定手段が、前記先端点の位置を基に頭部の姿勢を推定するステップとを含むことを特徴とする頭部姿勢推定方法。 Using a computer functioning as an area extraction means, boundary line determination means, tip point extraction means, and estimation means, a head photographing means for photographing an image including a human head and torso is mounted on a chest. A head posture estimation method for estimating posture,
The region extracting means extracting a human region including a human head and torso from an image photographed by the head photographing means;
The boundary line determining means determines a boundary line representing a boundary between a head and a torso in the person area, and determines a midpoint of the boundary line;
The tip point extracting means extracts a tip point having a maximum distance from the middle point of the boundary line from an area of the person region divided as a head by the boundary line;
And a step of estimating the head posture based on the position of the tip point.
前記頭部撮影手段により撮影された画像から人間の頭部及び胴部を含む人物領域を抽出する領域抽出手段と、
前記人物領域において頭部と胴部との境界を表す境界線を決定するとともに、前記境界線の中点を決定する境界線決定手段と、
前記人物領域のうち前記境界線により頭部として区分された領域から、前記境界線の中点からの距離が最大となる先端点を抽出する先端点抽出手段と、
前記先端点の位置を基に頭部の姿勢を推定する推定手段としてコンピュータを機能させることを特徴とする頭部姿勢推定処理プログラム。 A head posture estimation processing program for estimating the posture of a human head equipped with a head photographing means for photographing an image including a human head and a torso on a chest,
Area extracting means for extracting a person area including a human head and torso from an image photographed by the head photographing means;
Determining a boundary line representing a boundary between the head and the torso in the person region, and a boundary line determining means for determining a midpoint of the boundary line;
Tip point extraction means for extracting a tip point having a maximum distance from a midpoint of the boundary line from an area of the person region divided as the head by the boundary line;
A head posture estimation processing program for causing a computer to function as estimation means for estimating a head posture based on the position of the tip point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004140351A JP4547547B2 (en) | 2004-05-10 | 2004-05-10 | Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004140351A JP4547547B2 (en) | 2004-05-10 | 2004-05-10 | Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2005322077A JP2005322077A (en) | 2005-11-17 |
JP2005322077A6 true JP2005322077A6 (en) | 2006-04-13 |
JP4547547B2 JP4547547B2 (en) | 2010-09-22 |
Family
ID=35469310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004140351A Expired - Fee Related JP4547547B2 (en) | 2004-05-10 | 2004-05-10 | Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4547547B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013057648A1 (en) | 2011-10-20 | 2013-04-25 | Koninklijke Philips Electronics N.V. | Device and method for monitoring movement and orientation of the device |
GB2611154A (en) | 2021-07-29 | 2023-03-29 | Canon Kk | Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor |
GB2611156A (en) * | 2021-07-30 | 2023-03-29 | Canon Kk | Image capture apparatus, control method, and program |
GB2611157A (en) | 2021-07-30 | 2023-03-29 | Canon Kk | Image pickup apparatus used as action camera, calibration system, control method for image pickup apparatus, and storage medium storing control program for... |
KR20230019016A (en) | 2021-07-30 | 2023-02-07 | 캐논 가부시끼가이샤 | Image pickup apparatus used as action camera |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3235809B2 (en) * | 1994-01-18 | 2001-12-04 | キヤノン株式会社 | Three-dimensional link mechanism of optical equipment |
-
2004
- 2004-05-10 JP JP2004140351A patent/JP4547547B2/en not_active Expired - Fee Related
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6664512B2 (en) | Calibration method of eyebrain interface system, slave device and host device in system | |
KR100949743B1 (en) | Apparatus and method for wearable eye tracking having goggle typed | |
Duchowski et al. | Eye tracking techniques | |
JP2014515291A5 (en) | ||
CN103429141B (en) | For determining the method for dominant eye | |
WO2017077279A1 (en) | Systems and methods for generating and using three-dimensional images | |
WO2019010959A1 (en) | Method and device for determining sight line, and computer readable storage medium | |
KR20110038568A (en) | Apparatus and mehtod for tracking eye | |
JP2009523517A (en) | Device for eye irritation and body reaction detection | |
JP6625219B2 (en) | Device, method and computer program product for continuous monitoring of vital signs | |
JP2018196730A (en) | Method and system for monitoring eye position | |
WO2020245717A1 (en) | System and method for a multimodal deception test graded by machine learning | |
JP4716119B2 (en) | INTERACTION INFORMATION OUTPUT DEVICE, INTERACTION INFORMATION OUTPUT METHOD, AND PROGRAM | |
JP2018099174A (en) | Pupil detector and pupil detection method | |
US20210249116A1 (en) | Smart Glasses and Wearable Systems for Measuring Food Consumption | |
US10783376B2 (en) | Information processing apparatus | |
JP2014030621A (en) | Information processor, program, and biological signal measuring set | |
JP2005253778A (en) | Visual axis detecting method and device | |
JP4547547B2 (en) | Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program | |
JP2005322077A6 (en) | Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program | |
US10288879B1 (en) | Method and system for glint/reflection identification | |
CN110621216A (en) | Method and apparatus for providing guidance on placement of wearable devices | |
US10729370B2 (en) | Mobile sensor system and methods for use | |
JP7209954B2 (en) | Nystagmus analysis system | |
JP2021018729A (en) | Personal identification apparatus, head-mounted display, content distribution server, and personal identification method |