JP2005322077A6 - Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program - Google Patents

Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program Download PDF

Info

Publication number
JP2005322077A6
JP2005322077A6 JP2004140351A JP2004140351A JP2005322077A6 JP 2005322077 A6 JP2005322077 A6 JP 2005322077A6 JP 2004140351 A JP2004140351 A JP 2004140351A JP 2004140351 A JP2004140351 A JP 2004140351A JP 2005322077 A6 JP2005322077 A6 JP 2005322077A6
Authority
JP
Japan
Prior art keywords
head
image
human
boundary line
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004140351A
Other languages
Japanese (ja)
Other versions
JP2005322077A (en
JP4547547B2 (en
Inventor
章 内海
大丈 山添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004140351A priority Critical patent/JP4547547B2/en
Priority claimed from JP2004140351A external-priority patent/JP4547547B2/en
Publication of JP2005322077A publication Critical patent/JP2005322077A/en
Publication of JP2005322077A6 publication Critical patent/JP2005322077A6/en
Application granted granted Critical
Publication of JP4547547B2 publication Critical patent/JP4547547B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

【課題】 第三者に対して視界的な違和感を与えることなく、着脱及び使用が容易で且つユーザの頭部の姿勢を正確に推定することができる頭部姿勢推定装置、頭部姿勢推定方法及び頭部姿勢推定処理プログラムを提供する。
【解決手段】 赤外線カメラ1、赤外線照明器2、広角カメラ3、マイクロフォン4及び通信部5からなるセンサ部10がユーザの胸部に装着され、赤外線カメラ1は、ユーザの頭部及び胴部を含む赤外線画像を撮影し、データ処理部7は、撮影された赤外線画像からユーザの頭部及び胴部を含む人物領域を抽出した後、人物領域において頭部と胴部との境界を表す境界線を決定するとともに、境界線の中点からの距離が最大となる鼻先点を抽出し、鼻先点の位置を基に頭部の姿勢を推定する。
【選択図】 図1
PROBLEM TO BE SOLVED: To provide a head posture estimation device and a head posture estimation method which can be easily attached and detached and can accurately estimate the posture of a user's head without giving a third party a sense of incongruity. And a head posture estimation processing program.
A sensor unit 10 including an infrared camera 1, an infrared illuminator 2, a wide-angle camera 3, a microphone 4, and a communication unit 5 is mounted on a user's chest, and the infrared camera 1 includes a user's head and torso. After capturing an infrared image, the data processing unit 7 extracts a human region including the user's head and torso from the captured infrared image, and then displays a boundary line representing the boundary between the head and the torso in the human region. At the same time, the nose tip point having the maximum distance from the middle point of the boundary line is extracted, and the head posture is estimated based on the position of the nose tip point.
[Selection] Figure 1

Description

本発明は、人間の頭部の姿勢を推定する頭部姿勢推定装置、頭部姿勢推定方法及び頭部姿勢推定処理プログラムに関するものである。   The present invention relates to a head posture estimation apparatus, a head posture estimation method, and a head posture estimation processing program that estimate the posture of a human head.

近年、コンピュータ、カメラ及びセンサ等の小型化により、様々なセンサを人間に装着することが可能となっている。そのため、ユーザがコンピュータ等を身につけることにより、ユーザがどこにいてもユーザに対する情報提示など、日常生活における支援を行うことが可能になると考えられている。このような研究は「ウエアラブル コンピューティング」と呼ばれ、様々な研究が行われている。   In recent years, various sensors can be attached to humans by downsizing computers, cameras, sensors, and the like. Therefore, it is considered that when the user wears a computer or the like, it is possible to provide support in daily life such as presenting information to the user wherever the user is. Such research is called “wearable computing”, and various researches have been conducted.

また、ウェアラブルな装置を用いることにより、ユーザの行動の記録及び解析を目指した研究もなされている。このような研究においては、得られた情報に対して自動的にタグ付けを行うことが重要であり、加えて、人物の行動の記録や注目対象の検出なども必要となる。人の行動を記録するための方法としては、例えば、音声情報、映像情報、位置及びジェスチャ等の身体の動き情報、心拍、発汗及び呼吸等の生理的情報など様々なものが考えられる。これらの情報を得るためには、マイクロフォン、カメラ、ジャイロセンサ、GPS(global positioning system)、皮膚センサなどが用いられる。   In addition, research aimed at recording and analyzing user behavior by using wearable devices has been conducted. In such research, it is important to automatically tag the obtained information. In addition, it is necessary to record the behavior of a person and detect a target of interest. As a method for recording human behavior, various methods such as voice information, video information, body movement information such as position and gesture, and physiological information such as heartbeat, sweating and breathing can be considered. In order to obtain such information, a microphone, a camera, a gyro sensor, a GPS (global positioning system), a skin sensor, or the like is used.

上記の情報の中で映像情報、特に、ユーザの視点からの映像には、周囲の状況に加えて、ユーザの注目対象、ユーザの頭部運動についての情報が含まれるため、行動を記録及び解析する上で重要と考えられる。そのため、多くの研究では、ユーザの視野映像を得るためにヘッドマウントカメラを用いている(非特許文献1参照)。
角康之他、「複数センサ群による協調的なインタラクションの記録」、インタラクション 2003、2003年、p.255−p.262
Among the above information, video information, especially video from the user's viewpoint, includes information on the user's attention target and user's head movement in addition to the surrounding situation, so record and analyze behavior It is considered important to do so. Therefore, in many studies, a head mounted camera is used to obtain a user's visual field image (see Non-Patent Document 1).
Yasuyuki Kado et al., “Recording Cooperative Interaction by Multiple Sensors”, Interaction 2003, 2003, p. 255-p. 262

しかしながら、ヘッドマウントカメラを着脱することはユーザにとって面倒な作業であり、また、ヘッドマウントカメラを頭部に装着することによってユーザが疲労し、さらには、ヘッドマウントカメラの頭部への装着が周囲の人間に対して視覚的な違和感を与える等の種々の問題があり、日常的にヘッドマウントカメラを装着することは困難である。また、ヘッドマウントカメラをユーザの視線方向と正確に一致させて固定することが困難であるため、頭部運動によりヘッドマウントカメラと視線方向にズレが生じ、ユーザの頭部の姿勢を正確に推定することは困難である。   However, it is troublesome for the user to attach and detach the head mounted camera, and the user gets tired by attaching the head mounted camera to the head. It is difficult to wear a head-mounted camera on a daily basis because there are various problems such as visually discomforting humans. In addition, since it is difficult to fix the head-mounted camera so that it is accurately aligned with the user's line-of-sight direction, the head movement causes a shift in the line-of-sight direction with the head-mounted camera, and the user's head posture is accurately estimated. It is difficult to do.

本発明の目的は、第三者に対して視界的な違和感を与えることなく、着脱及び使用が容易で且つユーザの頭部の姿勢を正確に推定することができる頭部姿勢推定装置、頭部姿勢推定方法及び頭部姿勢推定処理プログラムを提供することである。   An object of the present invention is to provide a head posture estimation device, a head that can be easily attached and detached and can accurately estimate the posture of a user's head without giving a third-party a sense of discomfort in the field of view. To provide a posture estimation method and a head posture estimation processing program.

本発明に係る頭部姿勢推定装置は、人間の胸部に装着され、当該人間の頭部を観測する頭部観測手段と、前記頭部観測手段により観測された情報から頭部の姿勢を推定する頭部姿勢推定手段とを備えるものである。   A head posture estimation apparatus according to the present invention is mounted on a human chest and observes the head of the human, and estimates the posture of the head from information observed by the head observation means. And a head posture estimation means.

本発明に係る頭部姿勢推定装置においては、人間の胸部に装着された頭部観測手段により当該人間の頭部が観測され、観測された情報から頭部の姿勢が推定されるので、ヘッドマウントカメラのようにユーザの頭部に観測手段を装着ことなく、頭部の姿勢を推定することができ、第三者に対して視界的な違和感を与えることなく、着脱及び使用が容易で且つユーザの頭部の姿勢を正確に推定することができる。   In the head posture estimation apparatus according to the present invention, the human head is observed by the head observation means attached to the human chest, and the head posture is estimated from the observed information. It is possible to estimate the posture of the head without attaching observation means to the user's head like a camera, and it is easy to attach and detach and use without giving a third party a sense of discomfort. The head posture can be accurately estimated.

前記頭部姿勢推定装置は、前記頭部観測手段と一体的に固定され、前記人間の前方の画像を撮影する前方撮影手段と、前記頭部姿勢推定手段により推定された頭部の姿勢に基づいて前記前方撮影手段により撮影された画像から前記人間の視線方向の画像を抽出する視線画像抽出手段とをさらに備えることが好ましい。   The head posture estimation apparatus is fixed integrally with the head observation unit, and is based on a front photographing unit that captures an image in front of the human and a head posture estimated by the head posture estimation unit. It is preferable that the camera further includes a line-of-sight image extracting unit that extracts an image in the line-of-sight direction of the human from the image photographed by the front photographing unit.

この場合、推定された頭部の姿勢に基づいて前方撮影手段により撮影された画像から人間の視線方向の画像を抽出しているので、ユーザの視線方向の画像すなわちユーザが注目しているものを正確に検出することができる。また、前方撮影手段が頭部観測手段と一体的に固定されているので、前方撮影手段と頭部観測手段との位置関係が変化せず、ユーザが注目しているものをより正確に検出することができる。   In this case, since the image in the human gaze direction is extracted from the image photographed by the front photographing means based on the estimated head posture, the image in the user's gaze direction, that is, what the user is paying attention to. It can be detected accurately. Further, since the front photographing means is fixed integrally with the head observing means, the positional relationship between the front photographing means and the head observing means does not change, and the user's attention is detected more accurately. be able to.

前記頭部観測手段は、人間の胸部に装着され、当該人間の頭部及び胴部を含む画像を撮影する頭部撮影手段を含み、前記頭部姿勢推定手段は、前記頭部撮影手段により撮影された画像から人間の頭部及び胴部を含む人物領域を抽出する領域抽出手段と、前記人物領域において頭部と胴部との境界を表す境界線を決定するとともに、前記人物領域のうち前記境界線により頭部として区分された領域から、前記境界線の中点からの距離が最大となる先端点を抽出する先端点抽出手段と、前記先端点の位置を基に頭部の姿勢を推定する推定手段とを含むことが好ましい。   The head observing means is mounted on a human chest and includes a head photographing means for photographing an image including the human head and torso, and the head posture estimating means is photographed by the head photographing means. A region extracting means for extracting a human region including a human head and torso from the image obtained, and determining a boundary line representing a boundary between the head and the torso in the human region; From the region divided as the head by the boundary line, the tip point extraction means for extracting the tip point having the maximum distance from the midpoint of the boundary line, and the head posture is estimated based on the position of the tip point It is preferable that the estimation means to include.

この場合、頭部撮影手段により人間の頭部及び胴部を含む画像が撮影され、撮影された画像から人間の頭部及び胴部を含む人物領域が抽出され、抽出された人物領域において頭部と胴部との境界を表す境界線が決定されるとともに、境界線の中点が決定され、境界線の中点からの距離が最大となる先端点が人物領域のうち境界線により頭部として区分された領域から抽出され、抽出された先端点の位置を基に頭部の姿勢が推定されるので、ユーザの頭部の姿勢を正確に推定することができる。また、頭部撮影手段は人間の胸部に装着され、ヘッドマウントカメラのようにユーザの頭部に装着する必要がないため、第三者に対して視界的な違和感を与えることなく、容易に着脱及び使用することができる。   In this case, an image including the human head and torso is photographed by the head photographing means, and a person region including the human head and torso is extracted from the photographed image, and the head in the extracted person region A boundary line representing the boundary between the body and the torso is determined, the midpoint of the boundary line is determined, and the tip point with the maximum distance from the midpoint of the boundary line is the head of the person area by the boundary line Since the posture of the head is estimated based on the position of the extracted tip point extracted from the segmented region, the posture of the user's head can be accurately estimated. In addition, since the head imaging means is mounted on the human chest and does not need to be mounted on the user's head like a head-mounted camera, it can be easily attached and detached without giving a sense of incongruity to a third party. And can be used.

前記頭部姿勢推定装置は、人間の胸部に装着され、前記頭部撮影手段により撮影される人物の頭部及び胴部を、赤外線を用いて照明する赤外線照明手段をさらに備え、前記頭部撮影手段は、前記赤外線照明手段により赤外線照明された人間の頭部及び胴部を含む赤外線画像を撮影する赤外線撮影手段を含み、前記領域抽出手段は、前記赤外線撮影手段により撮影された赤外線画像から人間の頭部及び胴部を含む人物領域を抽出することが好ましい。   The head posture estimation apparatus further includes infrared illumination means that illuminates the head and torso of a person, which is attached to a human chest and is photographed by the head photographing means, using infrared rays, and the head photographing The means includes infrared photographing means for photographing an infrared image including a human head and torso illuminated by infrared light by the infrared illuminating means, and the region extracting means is configured to extract a human image from the infrared image photographed by the infrared photographing means. It is preferable to extract a person region including the head and torso of the person.

この場合、赤外線を用いて照明された人物の頭部及び胴部を撮影した赤外線画像から人間の頭部及び胴部を含む人物領域を抽出することができるので、人物領域とその他の背景領域とを明確に区分することができ、人物領域を高精度に抽出することができる。   In this case, since the person area including the human head and torso can be extracted from the infrared image obtained by photographing the head and torso of the person illuminated using infrared rays, the person area and other background areas Can be clearly distinguished, and the person region can be extracted with high accuracy.

前記推定手段は、前記先端点の位置から前記境界線の中点を回転中心とする頭部の水平角度及び垂直角度を推定することが好ましい。この場合、先端点の位置から境界線の中点を回転中心とする頭部の水平角度及び垂直角度を推定しているので、ユーザの頭部の姿勢を正確に推定することができる。   It is preferable that the estimation means estimates a horizontal angle and a vertical angle of the head centering on the midpoint of the boundary line from the position of the tip point. In this case, since the horizontal angle and the vertical angle of the head centering on the center point of the boundary line are estimated from the position of the tip point, the posture of the user's head can be estimated accurately.

前記頭部姿勢推定装置は、前記頭部撮影手段と一体に固定され、前記頭部撮影手段を装着した人間の正面方向の画像を撮影する正面撮影手段と、前記推定手段により推定された頭部の姿勢を基に、前記正面撮影手段により撮影された画像から前記頭部撮影手段を装着した人間の視線方向の画像を抽出する画像抽出手段とをさらに備えることが好ましい。   The head posture estimation device is fixed integrally with the head photographing means, and includes a front photographing means for photographing an image in the front direction of a person wearing the head photographing means, and a head estimated by the estimating means. It is preferable to further include an image extracting unit that extracts an image in the line of sight of a human wearing the head photographing unit from the image photographed by the front photographing unit.

この場合、推定された頭部の姿勢を基に正面撮影手段により撮影された画像から頭部撮影手段を装着した人間の視線方向の画像を抽出しているので、ユーザの視線方向の画像すなわちユーザが注目しているものを正確に検出することができる。また、正面撮影手段が頭部撮影手段と一体に固定されているので、正面撮影手段と頭部撮影手段との位置関係が変化せず、ユーザが注目しているものをより正確に検出することができる。   In this case, since an image in the direction of the line of sight of the person wearing the head imaging unit is extracted from an image captured by the frontal imaging unit based on the estimated head posture, an image in the direction of the user's line of sight, that is, the user Can be accurately detected. In addition, since the front photographing unit is fixed integrally with the head photographing unit, the positional relationship between the front photographing unit and the head photographing unit does not change, and the user's attention can be detected more accurately. Can do.

前記頭部姿勢推定装置は、前記境界線を基に人間に対する前記頭部撮影手段及び前記正面撮影手段の姿勢変化量を算出する算出手段をさらに備え、前記画像抽出手段は、前記算出手段により算出された前記頭部撮影手段及び前記正面撮影手段の姿勢変化量並びに前記推定手段により推定された頭部の姿勢を基に、前記正面撮影手段により撮影された画像から前記頭部撮影手段を装着した人間の視線方向の画像を抽出することが好ましい。   The head posture estimation apparatus further includes a calculation unit that calculates a posture change amount of the head photographing unit and the front photographing unit with respect to a human based on the boundary line, and the image extraction unit is calculated by the calculation unit. The head photographing means is mounted from the image photographed by the front photographing means based on the posture change amount of the head photographing means and the front photographing means and the posture of the head estimated by the estimating means. It is preferable to extract an image in the human gaze direction.

この場合、境界線を基に人間に対する頭部撮影手段及び正面撮影手段の姿勢変化量を算出し、算出された頭部撮影手段及び正面撮影手段の姿勢変化量をも考慮して推定した頭部の姿勢を基に人間の視線方向の画像を抽出しているので、頭部撮影手段及び正面撮影手段と人間との相対姿勢の変化を補正した頭部の姿勢を基に人間の視線方向の画像を抽出することができ、人間の視線方向の画像をより高精度に抽出することができる。   In this case, the posture change amount of the head photographing unit and the front photographing unit with respect to the human being calculated based on the boundary line, and the head estimated by considering the calculated posture variation amount of the head photographing unit and the front photographing unit Since the image in the human gaze direction is extracted based on the posture of the head, the image in the human gaze direction based on the posture of the head corrected for the relative posture change between the head photographing means and the front photographing means and the human being. Can be extracted, and an image in the human gaze direction can be extracted with higher accuracy.

本発明に係る頭部姿勢推定方法は、領域抽出手段、境界線決定手段、先端点抽出手段及び推定手段として機能するコンピュータを用い、人間の頭部及び胴部を含む画像を撮影する頭部撮影手段を胸部に装着した人間の頭部の姿勢を推定する頭部姿勢推定方法であって、前記領域抽出手段が、前記頭部撮影手段により撮影された画像から人間の頭部及び胴部を含む人物領域を抽出するステップと、前記境界線決定手段が、前記人物領域において頭部と胴部との境界を表す境界線を決定するとともに、前記境界線の中点を決定するステップと、前記先端点抽出手段が、前記人物領域のうち前記境界線により頭部として区分された領域から、前記境界線の中点からの距離が最大となる先端点を抽出するステップと、前記推定手段が、前記先端点の位置を基に頭部の姿勢を推定するステップとを含むものである。   The head posture estimation method according to the present invention uses a computer functioning as an area extraction unit, a boundary line determination unit, a tip point extraction unit, and an estimation unit, and shoots an image including a human head and a torso. A head posture estimation method for estimating the posture of a human head wearing a means on a chest, wherein the region extraction means includes a human head and a torso from an image photographed by the head photographing means Extracting a person area; and wherein the boundary line determining means determines a boundary line representing a boundary between a head and a torso in the person area, determining a midpoint of the boundary line, and the tip A point extracting unit extracting a tip point having a maximum distance from a middle point of the boundary line from an area of the person region divided as the head by the boundary line; and the estimating unit, Tip position The is intended to include a step of estimating the posture of the head based.

本発明に係る頭部姿勢推定処理プログラムは、人間の頭部及び胴部を含む画像を撮影する頭部撮影手段を胸部に装着した人間の頭部の姿勢を推定するための頭部姿勢推定処理プログラムであって、前記頭部撮影手段により撮影された画像から人間の頭部及び胴部を含む人物領域を抽出する領域抽出手段と、前記人物領域において頭部と胴部との境界を表す境界線を決定するとともに、前記境界線の中点を決定する境界線決定手段と、前記人物領域のうち前記境界線により頭部として区分された領域から、前記境界線の中点からの距離が最大となる先端点を抽出する先端点抽出手段と、前記先端点の位置を基に頭部の姿勢を推定する推定手段としてコンピュータを機能させるものである。   The head posture estimation processing program according to the present invention is a head posture estimation process for estimating the posture of a human head having a head photographing means for photographing an image including the human head and torso on the chest. A region extracting means for extracting a person region including a human head and a torso from an image photographed by the head photographing means; and a boundary representing a boundary between the head and the torso in the person region A boundary line determining means for determining a middle point of the boundary line, and a distance from the middle point of the boundary line to a maximum from a region of the person region divided as a head by the boundary line The computer functions as tip point extraction means for extracting the tip point, and estimation means for estimating the posture of the head based on the position of the tip point.

本発明によれば、人間の胸部に装着された頭部観測手段により当該人間の頭部を観測され、観測された情報から頭部の姿勢が推定されるので、ヘッドマウントカメラのようにユーザの頭部に観測手段を装着することなく、頭部の姿勢を推定することができ、第三者に対して視界的な違和感を与えることなく、着脱及び使用が容易で且つユーザの頭部の姿勢を正確に推定することができる。   According to the present invention, the human head is observed by the head observing means attached to the human chest, and the posture of the head is estimated from the observed information. The posture of the head can be estimated without wearing an observation means on the head, and the posture of the user's head can be easily attached / detached and used without giving a sense of discomfort to a third party. Can be estimated accurately.

以下、本発明の一実施の形態による頭部姿勢推定装置について図面を参照しながら説明する。図1は、本発明の一実施の形態による頭部姿勢推定装置の構成を示すブロック図であり、図2は、図1に示す頭部姿勢推定装置のセンサ部の人物への装着状態を示す概略図である。   Hereinafter, a head posture estimation apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a head posture estimation apparatus according to an embodiment of the present invention, and FIG. 2 illustrates a state where a sensor unit of the head posture estimation apparatus illustrated in FIG. 1 is attached to a person. FIG.

図1に示す頭部姿勢推定装置は、赤外線カメラ1、赤外線照明器2、広角カメラ3、マイクロフォン4、通信部5,6、データ処理部7及びデータ記録部8を備える。赤外線カメラ1、赤外線照明器2、広角カメラ3、マイクロフォン4及び通信部5は、センサ部10として一体に構成され、図2に示すように、ユーザ(人間)の胸部に装着される。センサ部10の装着方法は、クリップ等を用いて衣服に取り付けたり、ペンダント方式を用いて首から吊り下げる等の種々の方法を用いることができる。また、センサ部10の装着位置は、赤外線カメラ1がユーザの頭部(少なくとも鼻の頂点及び胴部との境界付近)及び胴部(少なくとも頭部との境界付近、例えば、両肩部)を確実に撮影できるように、人体のバストラインの中心位置付近に装着することが好ましいが、赤外線カメラ1がユーザの頭部及び胴部を撮影できる位置であれば、胸部周辺の他の位置に装着するようにしてもよい。   The head posture estimation apparatus shown in FIG. 1 includes an infrared camera 1, an infrared illuminator 2, a wide-angle camera 3, a microphone 4, communication units 5 and 6, a data processing unit 7, and a data recording unit 8. The infrared camera 1, infrared illuminator 2, wide-angle camera 3, microphone 4, and communication unit 5 are integrally configured as a sensor unit 10 and are attached to the chest of the user (human) as shown in FIG. 2. As a method for mounting the sensor unit 10, various methods such as attachment to clothes using a clip or the like, or hanging from a neck using a pendant method can be used. In addition, the infrared camera 1 places the user's head (at least near the apex of the nose and the torso) and the torso (at least near the boundary with the head, for example, both shoulders). Although it is preferable to attach it near the center position of the bust line of the human body so as to be surely photographed, if it is a position where the infrared camera 1 can photograph the user's head and torso, it is attached to other positions around the chest You may make it do.

赤外線カメラ1は、赤外線領域に十分な感度を有するCCDカメラ等から構成され、ユーザの胸部に上向きに装着される。赤外線照明器2は、赤外線LED等から構成され、赤外線カメラ1と一体に構成され、近赤外線を用いて距離の近い領域のみを照明するように照明強度が調整されており、ユーザの頭部及び胴部のみを照明する。赤外線カメラ1には赤外線のうち主に近赤外線のみ透過させる赤外線フィルタが取り付けられており、赤外線フィルタとしては、例えば、可視光を透過せず且つ近赤外光を透過するエドモンド社製プラスチックIRパスフィルタを用いることができる。赤外線カメラ1は、赤外線照明器2により赤外線で照明されているユーザの頭部及び胴部を含む赤外線画像を撮影して赤外線画像データを通信部5へ出力する。   The infrared camera 1 is composed of a CCD camera or the like having sufficient sensitivity in the infrared region, and is mounted upward on the chest of the user. The infrared illuminator 2 is composed of an infrared LED or the like, is configured integrally with the infrared camera 1, and the illumination intensity is adjusted so as to illuminate only a near-distance area using near infrared rays. Illuminate only the torso. The infrared camera 1 is provided with an infrared filter that transmits only near-infrared rays out of infrared rays. As the infrared filter, for example, a plastic IR path manufactured by Edmond that does not transmit visible light but transmits near-infrared light. A filter can be used. The infrared camera 1 captures an infrared image including the user's head and torso illuminated by infrared rays from the infrared illuminator 2 and outputs infrared image data to the communication unit 5.

広角カメラ3は、赤外線カメラ1の撮影方向と広角カメラ3の撮影方向とが所定の角度をなすように調整された状態で赤外線カメラ1と一体に固定され、ユーザの前方に向けてユーザの胸部に装着される。広角カメラ3は、通常のカメラより高解像度で且つ広角なCMOSカメラ等から構成され、例えば、画素数1280×1024のPixeLINK社製PL−A662を用いることができる。広角カメラ3は、ユーザの正面方向のカラー画像(可視光画像)を撮影して正面画像データを通信部5へ出力する。   The wide-angle camera 3 is fixed integrally with the infrared camera 1 in a state in which the shooting direction of the infrared camera 1 and the shooting direction of the wide-angle camera 3 are adjusted to form a predetermined angle, and faces the user's chest toward the front of the user. It is attached to. The wide-angle camera 3 is composed of a CMOS camera or the like having a higher resolution and a wider angle than a normal camera. For example, a PL-A662 manufactured by Pixellink with a pixel number of 1280 × 1024 can be used. The wide-angle camera 3 captures a color image (visible light image) in the front direction of the user and outputs front image data to the communication unit 5.

マイクロフォン4は、ユーザの発話又は周囲音を集音して音声データを通信部5へ出力する。なお、音声を録音しない場合は、マイクロフォン4を省略してもよく、また、ユーザに音声等を伝達するためにスピーカ等を一体に構成してもよい。   The microphone 4 collects a user's utterance or ambient sound and outputs voice data to the communication unit 5. When not recording sound, the microphone 4 may be omitted, and a speaker or the like may be integrally configured to transmit sound or the like to the user.

通信部5は、無線方式により赤外線画像データ、正面画像データ及び音声データを通信部6へ送信する。なお、各データの送信方式は、上記の例に特に限定されず、有線方式等により各データを送信してもよい。また、データ処理部7及びデータ記録部8を小型化してセンサ部10と一体に構成する場合は、通信部5,6を省略して赤外線カメラ1等から各データをデータ処理部7へ直接送信するようにしてもよい。   The communication unit 5 transmits infrared image data, front image data, and audio data to the communication unit 6 by a wireless method. The transmission method of each data is not particularly limited to the above example, and each data may be transmitted by a wired method or the like. When the data processing unit 7 and the data recording unit 8 are downsized and configured integrally with the sensor unit 10, the communication units 5 and 6 are omitted and each data is directly transmitted from the infrared camera 1 or the like to the data processing unit 7. You may make it do.

通信部6、データ処理部7及びデータ記録部8は、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、ハードディスクドライブ、無線通信装置等を備えるコンピュータ等から構成され、ユーザから離間した所定位置に設置される。   The communication unit 6, the data processing unit 7, and the data recording unit 8 are configured by a computer or the like that includes a ROM (Read Only Memory), a CPU (Central Processing Unit), a RAM (Random Access Memory), a hard disk drive, a wireless communication device, and the like. And installed at a predetermined position away from the user.

通信部6は、通信部5から無線方式により送信される赤外線画像データ、正面画像データ及び音声データを受信してデータ処理部7へ出力する。データ処理部7は、赤外線画像データからユーザの頭部姿勢データを算出するとともに、頭部姿勢データを基に正面画像データからユーザの視線方向のユーザ視点画像データを抽出し、頭部姿勢データ、ユーザ視点画像データ及び音声データを観測時間に対応付けてデータ記録部8にデータベース化して記録させる。   The communication unit 6 receives infrared image data, front image data, and audio data transmitted from the communication unit 5 by a wireless method and outputs them to the data processing unit 7. The data processing unit 7 calculates the user's head posture data from the infrared image data, extracts user viewpoint image data in the user's line-of-sight direction from the front image data based on the head posture data, The user viewpoint image data and audio data are associated with the observation time and recorded in the data recording unit 8 as a database.

図3は、図1に示すデータ処理部7の機能的な構成を示すブロックである。なお、図3では、説明を容易にするために通信部5,6の図示を省略している。図3に示すように、データ処理部7は、ROM等に記憶されている頭部姿勢推定処理プログラムをCPU等で実行することにより、2値化部11、人物領域抽出部12、境界線算出部13、鼻先点抽出部14、頭部回転算出部15、変化量算出部16、視線方向算出部17及び視線画像抽出部18として機能する。なお、データ処理部7の構成は、上記の例に特に限定されず、専用のハードウエア等により構成してもよい。   FIG. 3 is a block diagram showing a functional configuration of the data processing unit 7 shown in FIG. In FIG. 3, the communication units 5 and 6 are not shown for ease of explanation. As shown in FIG. 3, the data processing unit 7 executes a head posture estimation processing program stored in a ROM or the like by a CPU or the like, thereby calculating a binarizing unit 11, a person area extracting unit 12, a boundary line calculation. Functions as a unit 13, a nose tip extraction unit 14, a head rotation calculation unit 15, a change amount calculation unit 16, a gaze direction calculation unit 17, and a gaze image extraction unit 18. The configuration of the data processing unit 7 is not particularly limited to the above example, and may be configured by dedicated hardware or the like.

2値化部11は、通信部5,6を介して赤外線カメラ1から赤外線画像データを取得し、取得した赤外線画像データを2値化処理して人物領域抽出部12へ出力する。人物領域抽出部12は、2値化された赤外線画像データを用いてユーザの頭部及び胴部からなる人物領域とその他の背景領域との境界線を検出して人物領域と背景領域とに分割する。   The binarization unit 11 acquires infrared image data from the infrared camera 1 via the communication units 5 and 6, binarizes the acquired infrared image data, and outputs the infrared image data to the person region extraction unit 12. The person area extracting unit 12 detects a boundary line between the person area including the user's head and torso and other background areas using the binarized infrared image data, and divides the person area and the background area. To do.

境界線算出部13は、人物領域と背景領域との境界線の形状を基に頭部と胴部との境界線を決定するとともに、頭部と胴部との境界線の中点をユーザの頭部の回転中心として決定する。鼻先点抽出部14は、人物領域のうち頭部と胴部との境界線により頭部として区分された領域から、頭部と胴部との境界線の中点からの距離が最大となる先端点を鼻先点として抽出する。頭部回転算出部15は、鼻先点の位置から頭部と胴部との境界線の中点を回転中心とする頭部の水平角度及び垂直角度を算出してデータ記録部8に頭部姿勢データとして記録させる。   The boundary line calculation unit 13 determines the boundary line between the head and the torso based on the shape of the boundary line between the person area and the background area, and determines the midpoint of the boundary line between the head and the body. Determine as the center of rotation of the head. The tip of the nose tip extraction unit 14 is the tip where the distance from the midpoint of the boundary line between the head and the torso is the maximum from the region divided as the head by the boundary between the head and the torso in the human region. A point is extracted as a nose tip point. The head rotation calculation unit 15 calculates a horizontal angle and a vertical angle of the head around the midpoint of the boundary line between the head and the torso from the position of the nose tip, and sends the head posture to the data recording unit 8 Record as data.

変化量算出部16は、頭部と胴部との境界線の傾き及び中点の位置を基にユーザに対する赤外線カメラ1及び広角カメラ3の姿勢変化量となる水平補正角度及び垂直補正角度を算出する。視線方向算出部17は、頭部回転算出部15により算出された頭部の水平角度及び垂直角度と変化量算出部16により算出された赤外線カメラ1及び広角カメラ3の水平補正角度及び垂直補正角度からユーザの視線方向を算出する。視線画像抽出部18は、通信部5,6を介して広角カメラ3から正面画像データを取得し、取得した正面画像データからユーザの視線方向を中心とする所定範囲の画像を抽出してデータ記録部8にユーザ視点画像データとして記録させる。   The change amount calculation unit 16 calculates a horizontal correction angle and a vertical correction angle, which are posture change amounts of the infrared camera 1 and the wide-angle camera 3 with respect to the user, based on the inclination of the boundary line between the head and the torso and the position of the midpoint. To do. The line-of-sight direction calculation unit 17 includes the horizontal and vertical angles of the infrared camera 1 and the wide-angle camera 3 calculated by the horizontal and vertical angles of the head calculated by the head rotation calculation unit 15 and the change amount calculation unit 16. From this, the user's line-of-sight direction is calculated. The line-of-sight image extraction unit 18 acquires front image data from the wide-angle camera 3 via the communication units 5 and 6, extracts an image in a predetermined range centered on the user's line-of-sight direction from the acquired front image data, and records the data. The unit 8 records it as user viewpoint image data.

本実施の形態では、赤外線カメラ1が頭部観測手段の一例に相当し、2値化部11、人物領域抽出部12、境界線算出部13及び鼻先点抽出部14、頭部回転算出部15が頭部姿勢推定手段の一例に相当し、広角カメラ3が前方撮影手段の一例に相当し、視線方向算出部17及び視線画像抽出部18が視線画像抽出手段の一例に相当する。また、赤外線カメラ1が頭部撮影手段及び赤外線撮影手段の一例に相当し、2値化部11及び人物領域抽出部12が領域抽出手段の一例に相当し、境界線算出部13が境界線決定手段の一例に相当し、鼻先点抽出部14が先端点抽出手段の一例に相当し、頭部回転算出部15が推定手段の一例に相当する。赤外線照明器2が赤外線照明手段の一例に相当し、広角カメラ3が正面撮影手段の一例に相当し、視線方向算出部17及び視線画像抽出部18が画像抽出手段の一例に相当し、変化量算出部16が算出手段の一例に相当する。   In the present embodiment, the infrared camera 1 corresponds to an example of a head observing means, and a binarization unit 11, a person region extraction unit 12, a boundary line calculation unit 13, a nose tip extraction unit 14, and a head rotation calculation unit 15 Corresponds to an example of a head posture estimation unit, the wide-angle camera 3 corresponds to an example of a front photographing unit, and the line-of-sight direction calculation unit 17 and the line-of-sight image extraction unit 18 correspond to an example of a line-of-sight image extraction unit. In addition, the infrared camera 1 corresponds to an example of a head imaging unit and an infrared imaging unit, the binarization unit 11 and the person area extraction unit 12 correspond to an example of an area extraction unit, and the boundary line calculation unit 13 determines a boundary line. The nose tip point extraction unit 14 corresponds to an example of a tip point extraction unit, and the head rotation calculation unit 15 corresponds to an example of an estimation unit. The infrared illuminator 2 corresponds to an example of an infrared illumination unit, the wide-angle camera 3 corresponds to an example of a front photographing unit, the line-of-sight direction calculation unit 17 and the line-of-sight image extraction unit 18 correspond to an example of an image extraction unit, and the amount of change The calculation unit 16 corresponds to an example of a calculation unit.

次に、図3に示すデータ処理部7による頭部姿勢推定処理について説明する。図4は、図3に示すデータ処理部7による頭部姿勢推定処理を説明するためのフローチャートである。   Next, the head posture estimation process by the data processing unit 7 shown in FIG. 3 will be described. FIG. 4 is a flowchart for explaining head posture estimation processing by the data processing unit 7 shown in FIG.

まず、2値化部11は、赤外線カメラ1から出力される赤外線画像データを、通信部5,6を介して取得し(ステップS11)、取得した赤外線画像データを2値化処理する(ステップS12)。ここで、頭部姿勢推定処理に使用される頭部モデルの座標系及び赤外線画像について以下に説明する。   First, the binarization unit 11 acquires infrared image data output from the infrared camera 1 via the communication units 5 and 6 (step S11), and binarizes the acquired infrared image data (step S12). ). Here, the coordinate system and infrared image of the head model used for the head posture estimation process will be described below.

図5は、頭部モデルの座標系を示す模式図である。図5に示すように、水平面に沿ってX0軸及びZ0軸が規定され、垂直方向にY0軸が規定され、原点となるユーザの頭部の回転中心RCが首の前方に規定され、回転後の頭部座標系をX,Y,Zで表す。このとき、ユーザの視線はZ軸回転には依存しないので、Y軸及びX軸回りの回転角α、βがユーザの頭部の水平角度及び垂直角度となる。   FIG. 5 is a schematic diagram showing a coordinate system of the head model. As shown in FIG. 5, the X0 axis and the Z0 axis are defined along the horizontal plane, the Y0 axis is defined in the vertical direction, the rotation center RC of the user's head as the origin is defined in front of the neck, and after rotation Is represented by X, Y, and Z. At this time, since the user's line of sight does not depend on the Z-axis rotation, the rotation angles α and β around the Y-axis and the X-axis become the horizontal angle and the vertical angle of the user's head.

図6は、ユーザの頭部及び胴部を撮影した赤外線画像と可視光画像とを模式的に示す図である。図6に示すように、ユーザの胸部にカメラを装着してユーザの頭部及び胴部を撮影した場合、赤外線画像として図6の(a)に示す画像が撮影され、可視光画像として図6の(b)に示す画像が撮影される。   FIG. 6 is a diagram schematically showing an infrared image and a visible light image obtained by photographing the user's head and torso. As shown in FIG. 6, when a camera is mounted on the user's chest and the user's head and torso are photographed, the image shown in FIG. 6A is photographed as an infrared image, and the visible light image is depicted in FIG. An image shown in (b) of FIG.

すなわち、(b)に示す可視光画像では、背景となる天井の空調機及び照明等が鮮明に撮影され、逆に、ユーザの頭部の一部は照明により鮮明に撮影されない。このような画像を2値化処理しても、人物領域と背景領域とを分離することは困難である。一方、(a)に示す赤外線画像では、赤外線照明器2が赤外線を用いて距離の近い領域のみを照明しているため、ユーザの頭部及び胴部のみが鮮明に撮影され、背景となるその他の部分は暗く撮影される。したがって、この赤外線画像を2値化処理することにより人物領域と背景領域とを正確に区分することができる。   In other words, in the visible light image shown in (b), the ceiling air conditioner and illumination as a background are clearly photographed, and conversely, a part of the user's head is not clearly photographed by illumination. Even if such an image is binarized, it is difficult to separate the person area and the background area. On the other hand, in the infrared image shown in (a), since the infrared illuminator 2 uses infrared rays to illuminate only a region close to the distance, only the user's head and torso are clearly captured, and the other is the background. The part of is taken dark. Therefore, the person area and the background area can be accurately divided by binarizing the infrared image.

次に、人物領域抽出部12は、2値化された赤外線画像データから人物領域と背景領域との境界線を検出して人物領域と背景領域とに分割し(ステップS13)、境界線算出部13は、人物領域と背景領域との境界線の傾きの変化から頭部領域を抽出し、胴部の境界線のみを用いて頭部と胴部との境界線を検出する(ステップS14)。これに限定されないが、例えば、後述する図7に示すように、当該境界線の傾きの変化の大きい部分の点P4,P5を胴体−頭部の境界として検出することで頭部領域を抽出し、点P4,P5を検出することで頭部を抽出し、点P4,P5を用いて頭部と胴部との境界線を検出する。ここで、位置xにおける境界線の傾きをθ(x)とするとき、dθ(x)/dxが最大の点、最小の点をそれぞれP4,P5とする。   Next, the person area extraction unit 12 detects a boundary line between the person area and the background area from the binarized infrared image data, and divides it into the person area and the background area (step S13), and the boundary line calculation unit 13 extracts the head region from the change in the inclination of the boundary between the person region and the background region, and detects the boundary between the head and the torso using only the boundary of the torso (step S14). Although not limited to this, for example, as shown in FIG. 7 to be described later, a head region is extracted by detecting points P4 and P5 of a portion where the change in the inclination of the boundary line is large as a body-head boundary. The head is extracted by detecting the points P4 and P5, and the boundary line between the head and the torso is detected using the points P4 and P5. Here, when the inclination of the boundary line at the position x is θ (x), the maximum point and the minimum point of dθ (x) / dx are P4 and P5, respectively.

次に、境界線算出部13は、頭部と胴部との境界線の中点をユーザの頭部の回転中心として検出し(ステップS15)、鼻先点抽出部14は、人物領域のうち人物領域と背景領域との境界線により頭部として区分された領域から、境界線の中点からの距離が最大となる鼻先点を抽出する(ステップS16)。   Next, the boundary line calculation unit 13 detects the midpoint of the boundary line between the head and the torso as the rotation center of the user's head (step S15), and the nose tip point extraction unit 14 detects the person in the person area. From the region divided as the head by the boundary line between the region and the background region, the nose tip point having the maximum distance from the middle point of the boundary line is extracted (step S16).

図7は、頭部と胴部との境界線及び鼻先点を決定する方法を説明するための模式図である。図7に示すように、人物領域抽出部12は、人物領域と背景領域との境界線L1〜L3を検出し、境界線算出部13は、境界線L1〜L3の傾きの変化から点P4と点P5とを用いて頭部と胴部との境界線BLを算出する。次に、境界線算出部13は、点P4と点P5との中点MPを抽出し、鼻先点抽出部14は、点P4と点P5との間の頭部領域すなわち頭部の境界線L2内の領域において中点MPからの距離が最大となる点NPを鼻先点として決定する。   FIG. 7 is a schematic diagram for explaining a method of determining the boundary line between the head and the torso and the nose tip. As shown in FIG. 7, the person area extraction unit 12 detects boundary lines L1 to L3 between the person area and the background area, and the boundary line calculation unit 13 determines the point P4 from the change in the inclination of the boundary lines L1 to L3. A boundary line BL between the head and the trunk is calculated using the point P5. Next, the boundary line calculation unit 13 extracts the midpoint MP between the points P4 and P5, and the nose tip point extraction unit 14 selects the head region between the points P4 and P5, that is, the head boundary line L2. A point NP having the maximum distance from the midpoint MP in the inner region is determined as the nose tip point.

図8は、人物領域、頭部と胴部との境界線及び鼻先点の検出例を示す模式図である。図8の上段の各画像において、斜線部は背景領域を示し、斜線のない白色部は人物領域PRを示しており、下段の各画像において、直線は頭部と胴部との境界線BLを示し、×印は鼻先点NPを示している。このように、赤外線画像からユーザの頭部の動きに応じて、人物領域PR、頭部と胴部との境界線BL及び鼻先点NPが正確に推定された。   FIG. 8 is a schematic diagram illustrating a detection example of a person region, a boundary line between a head and a torso, and a nose tip point. In each upper image in FIG. 8, the hatched portion indicates the background region, the white portion without the oblique line indicates the person region PR, and in each lower image, the straight line indicates the boundary line BL between the head and the torso. The x mark indicates the nose tip NP. Thus, the person region PR, the boundary line BL between the head and the torso, and the nose tip NP were accurately estimated from the infrared image according to the movement of the user's head.

次に、頭部回転算出部15は、鼻先点の位置から人物領域と背景領域との境界線の中点を回転中心とする頭部の水平角度及び垂直角度を算出する(ステップS17)。図9は、鼻先点と、人物領域と背景領域との境界線の中点との関係を示す模式図である。図9に示すように、赤外線画像上の鼻先点と、人物領域と背景領域との境界線の中点すなわち頭部回転中心とをそれぞれPn(=〔un,vn〕)、Pc(=〔uc,vc〕=〔0,0〕)で表す。ここで、u軸は、頭部と胴部との境界線BLと一致し、v軸はu軸に対して垂直な軸である。 Next, the head rotation calculation unit 15 calculates the horizontal angle and the vertical angle of the head centering on the midpoint of the boundary line between the person area and the background area from the position of the nose tip (step S17). FIG. 9 is a schematic diagram showing the relationship between the nose tip point and the midpoint of the boundary line between the person area and the background area. As shown in FIG. 9, the nose tip point on the infrared image and the midpoint of the boundary line between the person area and the background area, that is, the head rotation center are respectively represented by P n (= [u n , v n ]), P c. (= [U c , v c ] = [0, 0]). Here, the u-axis coincides with the boundary line BL between the head and the trunk, and the v-axis is an axis perpendicular to the u-axis.

このとき、ユーザの頭部の水平角度α及び垂直角度βは、頭部回転中心Pcがユーザの首の前方に位置するので、次式により計算される。 At this time, the horizontal angle α and the vertical angle β of the user's head are calculated by the following equations since the head rotation center P c is located in front of the user's neck.

Figure 2005322077
Figure 2005322077

ここで、Pn (0)(=〔un (0),vn (0)〕)は、α=0,β=0のときのPnの値である。これは、ユーザが正面を向いて装置の初期化設定(ボタンを押すなど)を行った際に設定する。また、kは、ユーザの頭部の大きさと赤外線カメラ1の内部パラメータにより決定される定数であり、以下のようにして求められる。 Here, P n (0) (= [u n (0) , v n (0) ]) is the value of P n when α = 0 and β = 0. This is set when the user makes an initialization setting (such as pressing a button) of the apparatus facing the front. Further, k is a constant determined by the size of the user's head and the internal parameters of the infrared camera 1, and is obtained as follows.

図10は、ユーザを側面からみたときの模式図であり、(a)はユーザが正面を向いている状態を示し、(b)はユーザが俯いている状態を示している。図10の(a)に示すように、ユーザが正面を向いているとき、赤外線カメラ1から頭部回転中心Pcまでの垂直距離をd0、鼻先点Pnと頭部回転中心Pcとの距離をD、その水平距離をh0、鼻先点Pnと頭部回転中心Pcとを結ぶ直線の水平線に対する角度をθ0とし、(b)に示すように、ユーザが俯いたときの鼻先点Pnと頭部回転中心Pcとの水平距離をh1、鼻先点Pnと頭部回転中心Pcとを結ぶ直線の水平線に対する角度をθ1とすると、下式が成り立つ。 FIG. 10 is a schematic diagram when the user is viewed from the side. FIG. 10A shows a state where the user is facing the front, and FIG. 10B shows a state where the user is scolding. As shown in FIG. 10A, when the user is facing the front, the vertical distance from the infrared camera 1 to the head rotation center P c is d 0 , the nose tip point P n and the head rotation center P c . , D is the horizontal distance, h 0 is the horizontal distance, θ 0 is the angle with respect to the horizontal line of the straight line connecting the nose tip point P n and the head rotation center P c , as shown in FIG. When the horizontal distance between the nose tip point P n and the head rotation center P c is h 1 , and the angle with respect to the horizontal line of the straight line connecting the nose tip point P n and the head rotation center P c is θ 1 , the following equation is established.

Figure 2005322077
Figure 2005322077

ここで、赤外線カメラ1の焦点距離をfとすると、下式が成り立つ。   Here, when the focal length of the infrared camera 1 is f, the following equation is established.

Figure 2005322077
Figure 2005322077

式(5)を式(4)へ代入すると、   Substituting equation (5) into equation (4),

Figure 2005322077
Figure 2005322077

となり、式(2)のkは、k=D(f/d0)となる。ここで、距離D、垂直距離d0は、予め上記初期化の際計測しておく。焦点距離fは、光学系設計時に決定される。 Thus, k in the equation (2) is k = D (f / d 0 ). Here, the distance D and the vertical distance d0 are measured in advance during the initialization. The focal length f is determined when designing the optical system.

次に、変化量算出部16は、頭部と胴部との境界線の傾き及び中点の位置を基にユーザに対する赤外線カメラ1及び広角カメラ3の姿勢変化量となる水平補正角度Δα及び垂直補正角度Δβを算出する(ステップS18)。水平補正角度Δαは、図9に示す頭部と胴部との境界線BLの傾きであり、垂直補正角度Δβは下式により算出される。   Next, the change amount calculation unit 16 uses the horizontal correction angle Δα and the vertical direction that are the amount of change in posture of the infrared camera 1 and the wide-angle camera 3 with respect to the user based on the inclination of the boundary line between the head and the torso and the position of the midpoint. A correction angle Δβ is calculated (step S18). The horizontal correction angle Δα is the inclination of the boundary line BL between the head and torso shown in FIG. 9, and the vertical correction angle Δβ is calculated by the following equation.

Figure 2005322077
Figure 2005322077

ここで、Pc (0)(=〔uc (0),vc (0)〕)は、Δα=0,Δβ=0のときのPcの値である。 Here, P c (0) (= [u c (0) , v c (0) ]) is the value of P c when Δα = 0 and Δβ = 0.

次に、視線方向算出部17は、頭部回転算出部15により算出された頭部の水平角度α及び垂直角度βと、変化量算出部16により算出された赤外線カメラ1及び広角カメラ3の水平補正角度Δα及び垂直補正角度Δβとから広角カメラ3の正面画像上のユーザの視線方向xα,yβを、下式を用いて算出する(ステップS19)。   Next, the line-of-sight direction calculation unit 17 calculates the horizontal angle α and the vertical angle β of the head calculated by the head rotation calculation unit 15 and the horizontal direction of the infrared camera 1 and the wide-angle camera 3 calculated by the change amount calculation unit 16. From the correction angle Δα and the vertical correction angle Δβ, the user's line-of-sight directions xα, yβ on the front image of the wide-angle camera 3 are calculated using the following equations (step S19).

xα=f・tan(α+Δα),yβ=f・tan(β+Δβ)…(8)
最後に、視線画像抽出部18は、広角カメラ3により撮影された正面画像からユーザの視線方向を中心とする所定範囲の画像を抽出し(ステップS20)、その後ステップS11以降の処理を適宜繰り返す。なお、本実施の形態において、視線方向とは、目の向いている方向を直接的に意味するものではなく、頭部の姿勢すなわち顔の方向が通常では目の向いている方向すなわち視線方向とほぼ同じであるため、頭部の姿勢、頭部の回転の算出から視線方向を推定するものである。
xα = f · tan (α + Δα), yβ = f · tan (β + Δβ) (8)
Finally, the line-of-sight image extraction unit 18 extracts an image in a predetermined range centered on the user's line-of-sight direction from the front image captured by the wide-angle camera 3 (step S20), and then repeats the processing after step S11 as appropriate. In the present embodiment, the line-of-sight direction does not directly mean the direction in which the eyes are facing, and the head posture, that is, the face direction, is usually the direction in which the eyes are facing, that is, the line-of-sight direction. Since they are almost the same, the gaze direction is estimated from the calculation of the posture of the head and the rotation of the head.

次に、上記の頭部姿勢推定処理における鼻先点の推定精度等について具体例を挙げて説明する。図11は、図1に示す頭部姿勢推定装置による鼻先点の推定結果を示す図であり、図中の破線は実験者が手作業により計測した真値を示し、実線は図1に示す頭部姿勢推定装置による鼻先点の推定結果を示している。図11から図1に示す頭部姿勢推定装置は鼻先点を高精度に抽出できたことがわかる。   Next, the estimation accuracy of the nose tip in the head posture estimation process will be described with a specific example. FIG. 11 is a diagram showing the estimation results of the nose tip by the head posture estimation apparatus shown in FIG. 1. The broken line in the figure shows the true value measured manually by the experimenter, and the solid line shows the head shown in FIG. The nose tip point estimation result by the head posture estimation device is shown. It can be seen that the head posture estimation apparatus shown in FIG. 11 can extract the nose tip with high accuracy.

図12は、図1に示す頭部姿勢推定装置により室内において推定されたユーザの視線方向の軌跡の一例を示す図である。図12に示す折れ線VTがユーザの視線方向の軌跡であり、この軌跡VTから、ユーザは3つの物体、すなわち、時計T1、カレンダーT2、椅子T3を順に見ていたことがわかる。また、頭部運動の静止時間からユーザの注目物体の抽出を行った結果、図12に示す時計T1、カレンダーT2、椅子T3を含む画像が抽出され、ユーザの注目物体を自動抽出することができた。   FIG. 12 is a diagram illustrating an example of the locus of the user's line-of-sight direction estimated in the room by the head posture estimation apparatus illustrated in FIG. A broken line VT shown in FIG. 12 is a trajectory in the user's line-of-sight direction, and it can be seen from the trajectory VT that the user has looked at three objects, that is, a clock T1, a calendar T2, and a chair T3 in order. Further, as a result of extracting the user's attention object from the stationary time of the head movement, an image including the clock T1, the calendar T2, and the chair T3 shown in FIG. 12 is extracted, and the user's attention object can be automatically extracted. It was.

図13は、図1に示す頭部姿勢推定装置により記録されたユーザの行動履歴データの一例を示す図である。図13の上段及び中段はユーザの頭部姿勢データを示し、下段は音声データを示しており、これらのデータとともに上記のようなユーザ視点画像データがデータ記録部8に記録された。これらの情報を用いることにより、ユーザの頭部ジェスチャ(頷き、首振りなど)の検出や、ユーザが話している時間の検出などが可能になる。   FIG. 13 is a diagram illustrating an example of user action history data recorded by the head posture estimation apparatus illustrated in FIG. 1. The upper and middle sections of FIG. 13 show the user's head posture data, and the lower section shows the audio data. The user viewpoint image data as described above was recorded in the data recording unit 8 together with these data. By using these pieces of information, it is possible to detect a user's head gesture (whipping, swinging, etc.), detecting the time the user is speaking, and the like.

上記のように、本実施の形態では、赤外線カメラ1によりユーザの頭部及び胴部を含む赤外線画像が撮影され、撮影された赤外線画像からユーザの頭部及び胴部を含む人物領域が抽出され、抽出された人物領域において頭部と胴部との境界を表す境界線が決定されるとともに、境界線の中点が決定され、境界線の中点からの距離が最大となる鼻先点が人物領域のうち境界線により頭部として区分された領域から抽出され、抽出された鼻先点の位置を基に頭部の姿勢が推定されるので、ユーザの頭部の姿勢を正確に推定することができる。   As described above, in the present embodiment, the infrared camera 1 captures an infrared image including the user's head and torso, and a person region including the user's head and torso is extracted from the captured infrared image. In the extracted person area, the boundary line representing the boundary between the head and the torso is determined, the midpoint of the boundary line is determined, and the nose point that has the maximum distance from the midpoint of the boundary line is the person Since the posture of the head is estimated based on the position of the extracted nose point extracted from the region divided as the head by the boundary line in the region, it is possible to accurately estimate the posture of the user's head it can.

また、推定された頭部の姿勢を基に広角カメラ3により撮影された正面画像からユーザの視線方向の画像を切り出しているので、ユーザの視線方向の画像すなわちユーザが注目しているものを正確に検出することができる。   In addition, since the image in the user's line-of-sight direction is cut out from the front image captured by the wide-angle camera 3 based on the estimated head posture, the image in the user's line-of-sight direction, that is, the image that the user is paying attention to is accurate. Can be detected.

さらに、赤外線カメラ1及び広角カメラ3等のセンサ部10がユーザの胸部に装着され、ヘッドマウントカメラのようにユーザの頭部に装着する必要がないため、第三者に対して視界的な違和感を与えることなく、容易に着脱及び使用することができ、日常的な行動の記録に好適に用いることができる。   Further, since the sensor unit 10 such as the infrared camera 1 and the wide-angle camera 3 is mounted on the chest of the user and does not need to be mounted on the user's head like a head-mounted camera, it is visually uncomfortable for a third party. It can be easily attached and detached without giving an image, and can be suitably used for recording daily activities.

なお、本実施の形態では、赤外線カメラを用いて鼻先点を検出したが、頭部の運動に応じて位置が変化する特徴点を検出することができれば、この例に特に限定されず、可視光用カメラを用いて顎先点を検出する等の種々の変更が可能である。また、本実施の形態では、一つのセンサ部に対してそれぞれ一つのデータ処理部及びデータ記録部を用いたが、この例に特に限定されず、複数のセンサ部(複数の人間)に対する処理を一つのデータ処理部で行う等の種々の変更が可能である。また、本実施の形態では、撮影した画像を用いて頭部の姿勢を推定したが、頭部姿勢の推定に用いる情報は、この例に特に限定されず、例えば、光、超音波等により胸部から頭部までの距離等を測定して頭部の形を取得し、さらには、頭部の姿勢をパターンマッチング等により推定するようにしてもよい。   In the present embodiment, the nose tip point is detected using an infrared camera. However, the present invention is not particularly limited to this example as long as a feature point whose position changes according to the movement of the head can be detected. Various modifications, such as detecting the tip of the chin using a camera, are possible. In this embodiment, one data processing unit and one data recording unit are used for each sensor unit. However, the present invention is not particularly limited to this example, and processing for a plurality of sensor units (a plurality of humans) is performed. Various changes such as a single data processing unit are possible. In this embodiment, the posture of the head is estimated using the captured image. However, information used for estimating the head posture is not particularly limited to this example. The head shape may be acquired by measuring the distance from the head to the head, and the head posture may be estimated by pattern matching or the like.

また、本発明の頭部姿勢推定装置は、日常的な行動の記録に好適に用いることができるので、人間の体験の記録、人間の行動履歴の要約、人間のインタラクションの解析等の用途に適しており、これらの場合、脈拍、体温等の生体データ等の他のデータを併せて記録するようにしてもよい。   In addition, since the head posture estimation apparatus of the present invention can be suitably used for recording daily activities, it is suitable for uses such as recording of human experiences, summarization of human behavior history, analysis of human interactions, etc. In these cases, other data such as biological data such as pulse and body temperature may be recorded together.

本発明の一実施の形態による頭部姿勢推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the head posture estimation apparatus by one embodiment of this invention. 図1に示す頭部姿勢推定装置のセンサ部の人物への装着状態を示す概略図である。It is the schematic which shows the mounting state to the person of the sensor part of the head posture estimation apparatus shown in FIG. 図1に示すデータ処理部の機能的な構成を示すブロックである。It is a block which shows the functional structure of the data processing part shown in FIG. 図3に示すデータ処理部による頭部姿勢推定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the head posture estimation process by the data processing part shown in FIG. 頭部モデルの座標系を示す模式図である。It is a schematic diagram which shows the coordinate system of a head model. ユーザの頭部及び胴部を撮影した赤外線画像と可視光画像とを模式的に示す図である。It is a figure which shows typically the infrared image and visible light image which image | photographed the user's head and trunk | drum. 頭部と胴部との境界線及び鼻先点を決定する方法を説明するための模式図である。It is a schematic diagram for demonstrating the method of determining the boundary line and nose tip point of a head and a trunk | drum. 人物領域、頭部と胴部との境界線及び鼻先点の検出例を示す模式図である。It is a schematic diagram which shows the example of a person area | region, the boundary line of a head and a trunk | drum, and a nose tip point. 鼻先点と、人物領域と背景領域との境界線の中点との関係を示す模式図である。It is a schematic diagram which shows the relationship between a nose tip point and the midpoint of the boundary line of a person area | region and a background area | region. ユーザを側面からみたときの模式図である。It is a schematic diagram when a user is seen from the side. 図1に示す頭部姿勢推定装置による鼻先点の推定結果を示す図である。It is a figure which shows the estimation result of the nose tip point by the head posture estimation apparatus shown in FIG. 図1に示す頭部姿勢推定装置により室内において推定されたユーザの視線方向の軌跡の一例を示す図である。It is a figure which shows an example of the locus | trajectory of a user's gaze direction estimated in the room | chamber interior by the head posture estimation apparatus shown in FIG. 図1に示す頭部姿勢推定装置により記録されたユーザの行動履歴データの一例を示す図である。It is a figure which shows an example of the user's action history data recorded by the head posture estimation apparatus shown in FIG.

符号の説明Explanation of symbols

1 赤外線カメラ
2 赤外線照明器
3 広角カメラ
4 マイクロフォン
5,6 通信部
7 データ処理部
8 データ記録部
11 2値化部
12 人物領域抽出部
13 境界線算出部
14 鼻先点抽出部
15 頭部回転算出部
16 変化量算出部
17 視線方向算出部
18 視線画像抽出部
DESCRIPTION OF SYMBOLS 1 Infrared camera 2 Infrared illuminator 3 Wide angle camera 4 Microphone 5,6 Communication part 7 Data processing part 8 Data recording part 11 Binary part 12 Person area extraction part 13 Boundary line calculation part 14 Nose tip point extraction part 15 Head rotation calculation Unit 16 change amount calculation unit 17 gaze direction calculation unit 18 gaze image extraction unit

Claims (9)

人間の胸部に装着され、当該人間の頭部を観測する頭部観測手段と、
前記頭部観測手段により観測された情報から頭部の姿勢を推定する頭部姿勢推定手段とを備えることを特徴とする頭部姿勢推定装置。
A head observation means mounted on a human chest and observing the human head;
A head posture estimation apparatus comprising: head posture estimation means for estimating a head posture from information observed by the head observation means.
前記頭部観測手段と一体的に固定され、前記人間の前方の画像を撮影する前方撮影手段と、
前記頭部姿勢推定手段により推定された頭部の姿勢に基づいて前記前方撮影手段により撮影された画像から前記人間の視線方向の画像を抽出する視線画像抽出手段とをさらに備えることを特徴とする請求項1記載の頭部姿勢推定装置。
A front photographing means fixed integrally with the head observing means and photographing a front image of the human;
The image processing apparatus further comprises: a line-of-sight image extracting unit that extracts an image in the human line-of-sight direction from an image captured by the front image capturing unit based on the head posture estimated by the head posture estimation unit. The head posture estimation apparatus according to claim 1.
前記頭部観測手段は、人間の胸部に装着され、当該人間の頭部及び胴部を含む画像を撮影する頭部撮影手段を含み、
前記頭部姿勢推定手段は、
前記頭部撮影手段により撮影された画像から人間の頭部及び胴部を含む人物領域を抽出する領域抽出手段と、
前記人物領域において頭部と胴部との境界を表す境界線を決定するとともに、前記境界線の中点を決定する境界線決定手段と、
前記人物領域のうち前記境界線により頭部として区分された領域から、前記境界線の中点からの距離が最大となる先端点を抽出する先端点抽出手段と、
前記先端点の位置を基に頭部の姿勢を推定する推定手段とを含むことを特徴とする請求項1記載の頭部姿勢推定装置。
The head observing means includes a head photographing means that is mounted on a human chest and photographs an image including the human head and torso.
The head posture estimation means includes
Area extracting means for extracting a person area including a human head and torso from an image photographed by the head photographing means;
Determining a boundary line representing a boundary between the head and the torso in the person region, and a boundary line determining means for determining a midpoint of the boundary line;
Tip point extraction means for extracting a tip point having a maximum distance from a midpoint of the boundary line from an area of the person region divided as the head by the boundary line;
The head posture estimation apparatus according to claim 1, further comprising: estimation means for estimating a head posture based on the position of the tip point.
人間の胸部に装着され、前記頭部撮影手段により撮影される人物の頭部及び胴部を、赤外線を用いて照明する赤外線照明手段をさらに備え、
前記頭部撮影手段は、前記赤外線照明手段により赤外線照明された人間の頭部及び胴部を含む赤外線画像を撮影する赤外線撮影手段を含み、
前記領域抽出手段は、前記赤外線撮影手段により撮影された赤外線画像から人間の頭部及び胴部を含む人物領域を抽出することを特徴とする請求項3記載の頭部姿勢推定装置。
Infrared illumination means for illuminating the human head and torso, which is mounted on a human chest and photographed by the head photographing means, using infrared rays,
The head photographing means includes an infrared photographing means for photographing an infrared image including a human head and a torso illuminated by infrared rays by the infrared illuminating means,
4. The head posture estimation apparatus according to claim 3, wherein the region extracting unit extracts a human region including a human head and a torso from an infrared image captured by the infrared imaging unit.
前記推定手段は、前記先端点の位置から前記境界線の中点を回転中心とする頭部の水平角度及び垂直角度を推定することを特徴とする請求項3又は4記載の頭部姿勢推定装置。   5. The head posture estimation apparatus according to claim 3, wherein the estimation unit estimates a horizontal angle and a vertical angle of a head centering on a midpoint of the boundary line from a position of the tip point. . 前記頭部撮影手段と一体に固定され、前記頭部撮影手段を装着した人間の正面方向の画像を撮影する正面撮影手段と、
前記推定手段により推定された頭部の姿勢を基に、前記正面撮影手段により撮影された画像から前記頭部撮影手段を装着した人間の視線方向の画像を抽出する画像抽出手段とをさらに備えることを特徴とする請求項3〜5のいずれかに記載の頭部姿勢推定装置。
A front imaging unit that is fixed integrally with the head imaging unit and that captures an image in the front direction of the person wearing the head imaging unit;
An image extracting means for extracting an image in the direction of the line of sight of a human wearing the head photographing means from an image photographed by the front photographing means based on the posture of the head estimated by the estimating means; The head posture estimation apparatus according to any one of claims 3 to 5.
前記境界線を基に人間に対する前記頭部撮影手段及び前記正面撮影手段の姿勢変化量を算出する算出手段をさらに備え、
前記画像抽出手段は、前記算出手段により算出された前記頭部撮影手段及び前記正面撮影手段の姿勢変化量並びに前記推定手段により推定された頭部の姿勢を基に、前記正面撮影手段により撮影された画像から前記頭部撮影手段を装着した人間の視線方向の画像を抽出することを特徴とする請求項6記載の頭部姿勢推定装置。
A calculation means for calculating a posture change amount of the head photographing means and the front photographing means with respect to a human based on the boundary line;
The image extracting means is photographed by the front photographing means based on the posture change amount of the head photographing means and the front photographing means calculated by the calculating means and the posture of the head estimated by the estimating means. The head posture estimation apparatus according to claim 6, wherein an image in a line of sight of a human wearing the head photographing means is extracted from the captured image.
領域抽出手段、境界線決定手段、先端点抽出手段及び推定手段として機能するコンピュータを用い、人間の頭部及び胴部を含む画像を撮影する頭部撮影手段を胸部に装着した人間の頭部の姿勢を推定する頭部姿勢推定方法であって、
前記領域抽出手段が、前記頭部撮影手段により撮影された画像から人間の頭部及び胴部を含む人物領域を抽出するステップと、
前記境界線決定手段が、前記人物領域において頭部と胴部との境界を表す境界線を決定するとともに、前記境界線の中点を決定するステップと、
前記先端点抽出手段が、前記人物領域のうち前記境界線により頭部として区分された領域から、前記境界線の中点からの距離が最大となる先端点を抽出するステップと、
前記推定手段が、前記先端点の位置を基に頭部の姿勢を推定するステップとを含むことを特徴とする頭部姿勢推定方法。
Using a computer functioning as an area extraction means, boundary line determination means, tip point extraction means, and estimation means, a head photographing means for photographing an image including a human head and torso is mounted on a chest. A head posture estimation method for estimating posture,
The region extracting means extracting a human region including a human head and torso from an image photographed by the head photographing means;
The boundary line determining means determines a boundary line representing a boundary between a head and a torso in the person area, and determines a midpoint of the boundary line;
The tip point extracting means extracts a tip point having a maximum distance from the middle point of the boundary line from an area of the person region divided as a head by the boundary line;
And a step of estimating the head posture based on the position of the tip point.
人間の頭部及び胴部を含む画像を撮影する頭部撮影手段を胸部に装着した人間の頭部の姿勢を推定するための頭部姿勢推定処理プログラムであって、
前記頭部撮影手段により撮影された画像から人間の頭部及び胴部を含む人物領域を抽出する領域抽出手段と、
前記人物領域において頭部と胴部との境界を表す境界線を決定するとともに、前記境界線の中点を決定する境界線決定手段と、
前記人物領域のうち前記境界線により頭部として区分された領域から、前記境界線の中点からの距離が最大となる先端点を抽出する先端点抽出手段と、
前記先端点の位置を基に頭部の姿勢を推定する推定手段としてコンピュータを機能させることを特徴とする頭部姿勢推定処理プログラム。
A head posture estimation processing program for estimating the posture of a human head equipped with a head photographing means for photographing an image including a human head and a torso on a chest,
Area extracting means for extracting a person area including a human head and torso from an image photographed by the head photographing means;
Determining a boundary line representing a boundary between the head and the torso in the person region, and a boundary line determining means for determining a midpoint of the boundary line;
Tip point extraction means for extracting a tip point having a maximum distance from a midpoint of the boundary line from an area of the person region divided as the head by the boundary line;
A head posture estimation processing program for causing a computer to function as estimation means for estimating a head posture based on the position of the tip point.
JP2004140351A 2004-05-10 2004-05-10 Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program Expired - Fee Related JP4547547B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004140351A JP4547547B2 (en) 2004-05-10 2004-05-10 Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004140351A JP4547547B2 (en) 2004-05-10 2004-05-10 Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program

Publications (3)

Publication Number Publication Date
JP2005322077A JP2005322077A (en) 2005-11-17
JP2005322077A6 true JP2005322077A6 (en) 2006-04-13
JP4547547B2 JP4547547B2 (en) 2010-09-22

Family

ID=35469310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004140351A Expired - Fee Related JP4547547B2 (en) 2004-05-10 2004-05-10 Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program

Country Status (1)

Country Link
JP (1) JP4547547B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013057648A1 (en) 2011-10-20 2013-04-25 Koninklijke Philips Electronics N.V. Device and method for monitoring movement and orientation of the device
GB2611154A (en) 2021-07-29 2023-03-29 Canon Kk Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor
GB2611156A (en) * 2021-07-30 2023-03-29 Canon Kk Image capture apparatus, control method, and program
GB2611157A (en) 2021-07-30 2023-03-29 Canon Kk Image pickup apparatus used as action camera, calibration system, control method for image pickup apparatus, and storage medium storing control program for...
KR20230019016A (en) 2021-07-30 2023-02-07 캐논 가부시끼가이샤 Image pickup apparatus used as action camera

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3235809B2 (en) * 1994-01-18 2001-12-04 キヤノン株式会社 Three-dimensional link mechanism of optical equipment

Similar Documents

Publication Publication Date Title
JP6664512B2 (en) Calibration method of eyebrain interface system, slave device and host device in system
KR100949743B1 (en) Apparatus and method for wearable eye tracking having goggle typed
Duchowski et al. Eye tracking techniques
JP2014515291A5 (en)
CN103429141B (en) For determining the method for dominant eye
WO2017077279A1 (en) Systems and methods for generating and using three-dimensional images
WO2019010959A1 (en) Method and device for determining sight line, and computer readable storage medium
KR20110038568A (en) Apparatus and mehtod for tracking eye
JP2009523517A (en) Device for eye irritation and body reaction detection
JP6625219B2 (en) Device, method and computer program product for continuous monitoring of vital signs
JP2018196730A (en) Method and system for monitoring eye position
WO2020245717A1 (en) System and method for a multimodal deception test graded by machine learning
JP4716119B2 (en) INTERACTION INFORMATION OUTPUT DEVICE, INTERACTION INFORMATION OUTPUT METHOD, AND PROGRAM
JP2018099174A (en) Pupil detector and pupil detection method
US20210249116A1 (en) Smart Glasses and Wearable Systems for Measuring Food Consumption
US10783376B2 (en) Information processing apparatus
JP2014030621A (en) Information processor, program, and biological signal measuring set
JP2005253778A (en) Visual axis detecting method and device
JP4547547B2 (en) Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program
JP2005322077A6 (en) Head posture estimation apparatus, head posture estimation method, and head posture estimation processing program
US10288879B1 (en) Method and system for glint/reflection identification
CN110621216A (en) Method and apparatus for providing guidance on placement of wearable devices
US10729370B2 (en) Mobile sensor system and methods for use
JP7209954B2 (en) Nystagmus analysis system
JP2021018729A (en) Personal identification apparatus, head-mounted display, content distribution server, and personal identification method