JP2010268157A - Image processing unit, method of processing image, and program - Google Patents

Image processing unit, method of processing image, and program Download PDF

Info

Publication number
JP2010268157A
JP2010268157A JP2009116977A JP2009116977A JP2010268157A JP 2010268157 A JP2010268157 A JP 2010268157A JP 2009116977 A JP2009116977 A JP 2009116977A JP 2009116977 A JP2009116977 A JP 2009116977A JP 2010268157 A JP2010268157 A JP 2010268157A
Authority
JP
Japan
Prior art keywords
image
line
sight
image processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009116977A
Other languages
Japanese (ja)
Other versions
JP5096409B2 (en
Inventor
Makoto Yonaha
誠 與那覇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009116977A priority Critical patent/JP5096409B2/en
Publication of JP2010268157A publication Critical patent/JP2010268157A/en
Application granted granted Critical
Publication of JP5096409B2 publication Critical patent/JP5096409B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing unit for appropriately determining objects that captured persons are interested in. <P>SOLUTION: The image processing unit includes: an image acquisition section for acquiring an image; a line-of-sight identification section for identifying a line-of-sight direction of the person captured in the image; and an image processing section for compressing a line-of-sight region, namely an image region in the line-of-sight direction of the person, by an amount smaller than that of other image regions. The image processing unit further includes a characteristic region identification section for identifying a characteristic region, namely a characteristic region in the image. The image processing section may compress the characteristic region and the line-of-sight region identified by the characteristic region identification section by an amount smaller than that of other regions. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

画像の背景部分の情報量が人物部分の情報量より削減することができる技術が知られている(例えば、特許文献1参照。)。特許文献1には、目を検出する技術が開示されている。また、複数のカメラにより得られた画像から、人物の移動方向の領域を切り出す技術が知られている(例えば、特許文献2参照。)。
特開平8−88853号公報 特開2007−36748号公報
A technique is known in which the amount of information in the background portion of an image can be reduced from the amount of information in a person portion (see, for example, Patent Document 1). Patent Document 1 discloses a technique for detecting eyes. In addition, a technique is known in which a region in the moving direction of a person is cut out from images obtained by a plurality of cameras (see, for example, Patent Document 2).
JP-A-8-88853 JP 2007-36748 A

上記特許文献1に記載の技術によると、人物像を高解像度とすることができるが、人物が見ている物体の画像は低解像度になってしまう。また、上記特許文献2に記載の技術では、人物が見ている方向がトリミングで取り除かれてしまう場合がある。このように、上記特許文献に記載の技術によると、人物が何を注視しているかを分析するための画像情報が失われてしまうという課題があった。   According to the technique described in Patent Document 1, a human image can have a high resolution, but an image of an object viewed by a person has a low resolution. In the technique described in Patent Document 2, the direction in which a person is looking may be removed by trimming. Thus, according to the technique described in the above-mentioned patent document, there is a problem that image information for analyzing what the person is gazing at is lost.

上記課題を解決するために、本発明の第1の態様においては、画像処理装置であって、画像を取得する画像取得部と、画像内に撮像されている人物の視線方向を特定する視線特定部と、人物の視線方向の画像領域である視線領域を、他の画像領域より小さい強度で圧縮する画像処理部とを備える。   In order to solve the above-described problem, in the first aspect of the present invention, an image processing apparatus includes an image acquisition unit that acquires an image and a line-of-sight specification that specifies a line-of-sight direction of a person imaged in the image. And an image processing unit that compresses a line-of-sight area, which is an image area in the line-of-sight direction of a person, with a smaller intensity than other image areas.

画像における特徴的な領域である特徴領域を特定する特徴領域特定部をさらに備え、画像処理部は、特徴領域特定部が特定した特徴領域および視線領域を、他の領域より小さい強度で圧縮してよい。   The image processing unit further includes a feature region specifying unit that specifies a feature region that is a characteristic region in the image, and the image processing unit compresses the feature region and the line-of-sight region specified by the feature region specifying unit with a smaller intensity than the other regions. Good.

特徴領域特定部は、予め定められた条件に適合するオブジェクトを含む領域を、特徴領域として特定してよい。   The feature region specifying unit may specify a region including an object that meets a predetermined condition as a feature region.

特徴領域特定部は、人物のオブジェクトを含む領域を、特徴領域として特定してよい。   The feature region specifying unit may specify a region including a person object as a feature region.

人物の視線方向および画像として撮像された撮像空間情報に基づいて、人物の視線方向の画像領域のうち、人物が見た対象物が撮像された画像領域を視線領域として特定する対象領域特定部をさらに備え、画像処理部は、対象領域特定部が特定した視線領域を、他の画像領域より小さい強度で圧縮してよい。   A target area specifying unit that specifies, as a line-of-sight area, an image area in which an object viewed by a person is imaged out of image areas in the line-of-sight direction of a person based on the line-of-sight direction of the person and imaging space information captured as an image Further, the image processing unit may compress the line-of-sight region specified by the target region specifying unit with a smaller intensity than the other image regions.

対象領域特定部は、人物の視線方向の画像領域のうち、人物が見た予め定められた特定の対象物が撮像された画像領域を視線領域として特定してよい。   The target area specifying unit may specify, as the line-of-sight area, an image area in which a predetermined specific object viewed by the person is captured among the image areas in the line-of-sight direction of the person.

人物が視線方向を向いていた時間長さである注視時間を特定する時間特定部をさらに備え、画像処理部は、注視時間さが長いほど、視線領域をより小さい強度で圧縮してよい。   The image processing unit may further include a time specifying unit that specifies a gaze time, which is a length of time during which the person is facing the line of sight, and the image processing unit may compress the line-of-sight region with a smaller intensity as the gaze time is longer.

時間特定部は、人物が視線方向を継続して向いていた時間長さを注視時間として特定してよい。時間特定部は、人物の視線が視線方向に向いていた複数の期間の合計の時間長さを、注視時間として特定してもよい。   The time specifying unit may specify the length of time that the person is continuously facing the line of sight as the gaze time. The time specifying unit may specify a total time length of a plurality of periods in which the person's line of sight is directed in the line of sight as the gaze time.

画像取得部は、動画を取得し、視線特定部は、動画内に撮像されている人物の視線方向を特定し、画像処理部は、動画における視線領域を、他の画像領域より小さい強度で圧縮してよい。   The image acquisition unit acquires a moving image, the line-of-sight specifying unit specifies the line-of-sight direction of the person imaged in the moving image, and the image processing unit compresses the line-of-sight region in the moving image with a smaller intensity than other image regions. You can do it.

画像処理部は、他の画像領域における画質を視線領域より低減してよい。また、画像処理部は、他の画像領域における解像度を視線領域より低減してよい。また、画像処理部は、他の画像領域における画素値の階調数を視線領域より低減してよい。また、画像処理部は、他の画像領域に含まれる色数を視線領域より低減してよい。また、画像処理部は、他の画像領域における動画のフレームレートを視線領域より低減してよい。   The image processing unit may reduce the image quality in the other image areas as compared to the line-of-sight area. In addition, the image processing unit may reduce the resolution in the other image area as compared to the line-of-sight area. Further, the image processing unit may reduce the number of gradations of pixel values in other image areas as compared to the line-of-sight area. In addition, the image processing unit may reduce the number of colors included in the other image area as compared to the line-of-sight area. Further, the image processing unit may reduce the frame rate of the moving image in the other image area as compared with the line-of-sight area.

本発明の第2の態様においては、画像処理方法であって、画像を取得する画像取得段階と、画像内に撮像されている人物の視線方向を特定する視線特定段階と、人物の視線方向の画像領域である視線領域を、他の画像領域より小さい強度で圧縮する画像処理段階とを備える。   According to a second aspect of the present invention, there is provided an image processing method, an image acquisition stage for acquiring an image, a gaze identification stage for identifying a gaze direction of a person imaged in the image, and a gaze direction of the person And an image processing step of compressing the line-of-sight region, which is an image region, with a smaller intensity than the other image regions.

本発明の第3の態様においては、画像処理装置用のプログラムであって、コンピュータを、画像を取得する画像取得部、画像内に撮像されている人物の視線方向を特定する視線特定部、人物の視線方向の画像領域である視線領域を、他の画像領域より小さい強度で圧縮する画像処理部として機能させる。   According to a third aspect of the present invention, there is provided a program for an image processing apparatus, wherein the computer includes an image acquisition unit that acquires an image, a line-of-sight specifying unit that specifies a line-of-sight direction of a person imaged in the image, and a person The line-of-sight area, which is an image area in the line-of-sight direction, is caused to function as an image processing unit that compresses with a smaller intensity than other image areas.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一実施形態における画像処理システム10の一例を示す。以下に説明するように、画像処理システム10は、一実施形態において店舗用の画像処理システムとして機能することができる。   FIG. 1 shows an example of an image processing system 10 according to an embodiment. As described below, the image processing system 10 can function as an image processing system for a store in one embodiment.

画像処理システム10は、店舗空間160を撮像する複数の撮像装置100a−b、店舗サーバ170、通信ネットワーク150、画像処理装置110、処理結果データベース112、および端末装置180を備える。なお、以下の説明において、撮像装置100aおよび撮像装置100bを、撮像装置100と総称する場合がある。同様に、以後の説明においては、末尾の英文字など、数字符号に続く文字を省略することで、数字符号が指し示すものを総称することがある。   The image processing system 10 includes a plurality of imaging devices 100a-b that images the store space 160, a store server 170, a communication network 150, an image processing device 110, a processing result database 112, and a terminal device 180. In the following description, the imaging device 100a and the imaging device 100b may be collectively referred to as the imaging device 100. Similarly, in the following description, a character indicated by a numerical code may be generically named by omitting a character following the numerical code, such as an English letter at the end.

撮像装置100aは店舗空間160を撮像する。撮像装置100aは、店舗空間160内の人物164aおよび人物164bを、店舗空間160内の商品棚162a、商品棚162bなどとともに撮像して、動画を生成する。撮像装置100aは、店舗空間160を撮像して得られた動画を、店舗サーバ170に供給する。なお、撮像装置100bは、撮像装置100aと異なる位置に設けられている。その他の点においては、撮像装置100bの機能および動作は撮像装置100aの機能および動作と略同一であるので、撮像装置100bについては説明を省略する。   The imaging device 100a images the store space 160. The imaging device 100a images the person 164a and the person 164b in the store space 160 together with the product shelf 162a, the product shelf 162b, and the like in the store space 160, and generates a moving image. The imaging device 100 a supplies the moving image obtained by imaging the store space 160 to the store server 170. Note that the imaging device 100b is provided at a position different from that of the imaging device 100a. In other respects, the function and operation of the image capturing apparatus 100b are substantially the same as the function and operation of the image capturing apparatus 100a, and thus the description of the image capturing apparatus 100b is omitted.

店舗サーバ170は、撮像装置100aおよび撮像装置100bから供給された動画を、画像処理装置110に向けて通信ネットワーク150に送出する。通信ネットワーク150としては、インターネットなどの電気通信回線を例示することができる。店舗サーバ170は、例えば撮像装置100の近傍に設けられる。他の形態において、店舗サーバ170は店舗空間160内に設けられてもよい。   The store server 170 sends the moving images supplied from the imaging device 100 a and the imaging device 100 b to the communication network 150 toward the image processing device 110. The communication network 150 can be exemplified by a telecommunication line such as the Internet. The store server 170 is provided in the vicinity of the imaging device 100, for example. In another form, the store server 170 may be provided in the store space 160.

また、店舗サーバ170は、撮像装置100の撮像動作を制御する。例えば、店舗サーバ170は、撮像装置100の撮像機能のオン/オフ、撮像レートなどを制御する。撮像装置100がズーム撮影できる場合には、店舗サーバ170は撮像装置100のズーム値を制御してもよい。また、撮像装置100の撮像方向が可変である場合には、店舗サーバ170は撮像装置100の撮像方向を制御してもよい。   Further, the store server 170 controls the imaging operation of the imaging device 100. For example, the store server 170 controls on / off of the imaging function of the imaging device 100, the imaging rate, and the like. When the imaging device 100 can perform zoom shooting, the store server 170 may control the zoom value of the imaging device 100. Further, when the imaging direction of the imaging device 100 is variable, the store server 170 may control the imaging direction of the imaging device 100.

画像処理装置110は、店舗空間160とは異なる空間に設けられ、撮像装置100がそれぞれ撮像した動画を、通信ネットワーク150を通じて店舗サーバ170から取得する。画像処理装置110は、動画を処理して、処理結果を端末装置180に向けて通信ネットワーク150に送出する。   The image processing device 110 is provided in a space different from the store space 160, and acquires the moving images captured by the imaging device 100 from the store server 170 through the communication network 150. The image processing device 110 processes the moving image and sends the processing result to the communication device 150 toward the terminal device 180.

なお、画像処理装置110は、処理結果を処理結果データベース112に出力してもよい。画像処理装置110は、処理結果を処理結果データベース112から読み出して、読み出した処理結果を端末装置180に送信してもよい。なお、処理結果データベース112は、画像処理装置110が有してもよい。他にも、処理結果データベース112は、画像処理装置110が設けられた空間とは異なる空間に設けられてよい。この場合、画像処理装置110は、通信ネットワーク150を介して処理結果データベース112に処理結果を送信してもよい。   Note that the image processing apparatus 110 may output the processing result to the processing result database 112. The image processing apparatus 110 may read the processing result from the processing result database 112 and transmit the read processing result to the terminal device 180. Note that the processing result database 112 may be included in the image processing apparatus 110. In addition, the processing result database 112 may be provided in a space different from the space in which the image processing apparatus 110 is provided. In this case, the image processing apparatus 110 may transmit the processing result to the processing result database 112 via the communication network 150.

端末装置180は、画像処理装置110による処理結果を、通信ネットワーク150を通じて画像処理装置110から取得する。端末装置180は、処理結果をユーザの指示に応じて加工して表示する。端末装置180は、画像処理装置110が設けられた空間とは異なる空間に設けられてよい。端末装置180は、店舗空間160の近傍または店舗空間160内に設けられてもよい。   The terminal device 180 acquires the processing result by the image processing device 110 from the image processing device 110 through the communication network 150. The terminal device 180 processes and displays the processing result according to a user instruction. The terminal device 180 may be provided in a space different from the space in which the image processing device 110 is provided. The terminal device 180 may be provided in the vicinity of the store space 160 or in the store space 160.

以下に、画像処理装置110の動作の一例を概略的に説明する。画像処理装置110は、画像処理装置110が撮像した動画に含まれる複数のフレーム画像のそれぞれから、人物164が撮像されたオブジェクトを抽出する。そして、画像処理装置110は、フレーム画像の内容から、人物164の視線方向を特定する。   Hereinafter, an example of the operation of the image processing apparatus 110 will be schematically described. The image processing apparatus 110 extracts an object in which the person 164 is captured from each of a plurality of frame images included in the moving image captured by the image processing apparatus 110. Then, the image processing apparatus 110 identifies the line-of-sight direction of the person 164 from the contents of the frame image.

そして、画像処理装置110は、フレーム画像の画像領域上における人物164の視線方向から、人物164が注目している物体の像である注目オブジェクトを特定する。画像処理装置110は、特定した注目オブジェクトの領域を強調する処理を施す。例えば、画像処理装置110は、注目オブジェクトを枠で囲むなどの強調処理を動画に施す。他にも、画像処理装置110は、注目オブジェクトの領域以外の領域を低解像度化する圧縮処理を動画に施す。   Then, the image processing apparatus 110 identifies a target object that is an image of an object focused on by the person 164 from the line-of-sight direction of the person 164 on the image area of the frame image. The image processing apparatus 110 performs processing for enhancing the identified region of the object of interest. For example, the image processing apparatus 110 performs enhancement processing such as enclosing the target object with a frame on the moving image. In addition, the image processing apparatus 110 performs a compression process for reducing the resolution of an area other than the area of the object of interest on the moving image.

そして、端末装置180は、画像処理装置110により処理された動画を取得して表示する。画像処理装置110により注目オブジェクトの領域が強調されているので、端末装置180が表示された動画を観察することで人物164がいずれの商品に興味を持ったかを容易に特定することができる。   Then, the terminal device 180 acquires and displays the moving image processed by the image processing device 110. Since the region of the object of interest is emphasized by the image processing device 110, it is possible to easily identify which product the person 164 is interested in by observing the moving image displayed on the terminal device 180.

なお、画像処理装置110は、撮像装置100aが撮像したフレーム画像から、人物164の視線方向を特定してよい。そして、画像処理装置110は、撮像装置100bが撮像したフレーム画像から、人物164が注目した物体の像である注目オブジェクトを特定してよい。この場合、異なる方向から撮像されたフレーム画像を利用することで、例えば人物164が注目した商品と人物164の正面の顔とを適切に対応づけることができる。   Note that the image processing apparatus 110 may specify the line-of-sight direction of the person 164 from the frame image captured by the imaging apparatus 100a. Then, the image processing apparatus 110 may specify a target object that is an image of an object focused by the person 164 from the frame image captured by the imaging apparatus 100b. In this case, by using frame images taken from different directions, for example, the product that the person 164 has paid attention to and the face in front of the person 164 can be associated with each other appropriately.

なお、記憶媒体90は、画像処理装置110用のプログラムを記憶している。記憶媒体90が記憶しているプログラムは、本実施形態に係る画像処理装置110として機能するコンピュータなどの電子情報処理装置に提供される。当該コンピュータが有するCPUは、当該プログラムの内容に応じて動作して、当該コンピュータの各部を制御する。CPUが実行するプログラムは、本図および以後の図に関連して説明される画像処理装置110などとして当該コンピュータを機能させる。   Note that the storage medium 90 stores a program for the image processing apparatus 110. The program stored in the storage medium 90 is provided to an electronic information processing apparatus such as a computer that functions as the image processing apparatus 110 according to the present embodiment. The CPU included in the computer operates according to the contents of the program and controls each unit of the computer. The program executed by the CPU causes the computer to function as the image processing apparatus 110 described with reference to this figure and subsequent figures.

記憶媒体90としては、CD−ROMの他に、DVDまたはPD等の光学記録媒体、MOまたはMDなどの光磁気記録媒体、テープ媒体またはハードディスク装置などの磁気記録媒体、半導体メモリ、磁気メモリなどを例示することができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置が記憶媒体90として機能することもできる。   Examples of the storage medium 90 include an optical recording medium such as a DVD or PD, a magneto-optical recording medium such as an MO or MD, a magnetic recording medium such as a tape medium or a hard disk device, a semiconductor memory, a magnetic memory, etc. It can be illustrated. Further, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet can function as the storage medium 90.

また、記憶媒体90は、画像処理システム10用のプログラムを記憶してよい。画像処理システム10用のプログラムは、画像処理装置110の他に、本図および以後の図に関連して説明される処理結果データベース112、店舗サーバ170、端末装置180、および撮像装置100の少なくともいずれかとして、コンピュータを機能させることができる。   The storage medium 90 may store a program for the image processing system 10. In addition to the image processing apparatus 110, the program for the image processing system 10 is at least one of the processing result database 112, the store server 170, the terminal apparatus 180, and the imaging apparatus 100 described in relation to this figure and the subsequent figures. As such, the computer can function.

図2は、画像処理装置110のブロック構成の一例を示す。画像処理装置110は、画像取得部200、特徴領域特定部202、視線特定部204、視線領域解析部220、画像処理部230、撮像範囲情報格納部240、および出力部290を有する。視線領域解析部220は、視線領域特定部222、対象領域特定部224、時間特定部226、選択部228を含む。   FIG. 2 shows an example of a block configuration of the image processing apparatus 110. The image processing apparatus 110 includes an image acquisition unit 200, a feature region specifying unit 202, a line-of-sight specifying unit 204, a line-of-sight region analyzing unit 220, an image processing unit 230, an imaging range information storage unit 240, and an output unit 290. The line-of-sight region analysis unit 220 includes a line-of-sight region specification unit 222, a target region specification unit 224, a time specification unit 226, and a selection unit 228.

画像取得部200は、撮像装置100が撮像した動画を、通信ネットワーク150を通じて店舗サーバ170から取得する。このように、画像取得部200は、複数の撮像装置100がそれぞれ撮像したフレーム画像を取得する。なお、フレーム画像は、この発明において画像取得部200が取得する画像の一例であって、画像取得部200が取得する画像は、静止画であってもよい。画像取得部200が取得した動画は、視線特定部204および特徴領域特定部202、および画像処理部230に供給される。   The image acquisition unit 200 acquires the moving image captured by the imaging apparatus 100 from the store server 170 through the communication network 150. In this way, the image acquisition unit 200 acquires frame images captured by the plurality of imaging devices 100, respectively. The frame image is an example of an image acquired by the image acquisition unit 200 in the present invention, and the image acquired by the image acquisition unit 200 may be a still image. The moving image acquired by the image acquisition unit 200 is supplied to the line-of-sight specifying unit 204, the feature region specifying unit 202, and the image processing unit 230.

視線特定部204は、フレーム画像内に撮像されている人物の視線方向を特定する。ここで、視線特定部204は、フレーム画像の画像領域における視線方向を特定してよい。視線特定部204が特定した視線方向は、視線領域解析部220に供給される。   The line-of-sight specifying unit 204 specifies the line-of-sight direction of the person imaged in the frame image. Here, the line-of-sight specifying unit 204 may specify the line-of-sight direction in the image area of the frame image. The gaze direction identified by the gaze identification unit 204 is supplied to the gaze region analysis unit 220.

視線領域特定部222は、撮像装置100により撮像されたフレーム画像における、人物の視線方向の領域が撮像された画像領域である視線領域を特定する。対象領域特定部224は、人物の視線方向に基づき、人物の視線方向の画像領域のうち、人物が見た対象物が撮像された画像領域である視線領域を特定する。例えば、対象領域特定部224は、人物の視線方向の画像領域のうち、人物が見た予め定められた特定の対象物が撮像された画像領域を視線領域として特定する。   The line-of-sight area specifying unit 222 specifies a line-of-sight area that is an image area in which an area in the line-of-sight direction of a person in the frame image captured by the imaging apparatus 100 is captured. The target area specifying unit 224 specifies a line-of-sight area, which is an image area in which an object viewed by a person is imaged, among image areas in the line-of-sight direction of the person based on the line-of-sight direction of the person. For example, the target area specifying unit 224 specifies, as the line-of-sight area, an image area in which a predetermined specific object viewed by the person is captured among the image areas in the line-of-sight direction of the person.

例えば、対象領域特定部224は、人物の視線方向およびフレーム画像として撮像された空間の情報である撮像空間情報に基づき、視線領域を特定することができる。他にも、対象領域特定部224は、人物の視線方向に存在する特定の対象物のオブジェクトを抽出することによって、視線領域を特定してもよい。例えば、特定の対象物は、店舗内の特定の商品であってよい。   For example, the target area specifying unit 224 can specify the line-of-sight area based on the person's line-of-sight direction and imaging space information that is information about the space captured as a frame image. In addition, the target area specifying unit 224 may specify the line-of-sight area by extracting an object of a specific target existing in the person's line-of-sight direction. For example, the specific object may be a specific product in the store.

なお、撮像範囲情報格納部240は、撮像空間情報を格納している。具体的には、撮像範囲情報格納部240は、店舗空間160内の商品棚162などのレイアウト情報、および、複数の撮像装置100のそれぞれが撮像する撮像範囲を特定する情報を格納している。例えば、撮像範囲情報格納部240は、複数の撮像装置100の位置および複数の撮像装置100のそれぞれの撮像方向を含む撮像範囲情報を格納してよい。対象領域特定部224は、撮像範囲情報格納部240が格納している撮像空間情報に基づき、視線領域を特定することができる。   The imaging range information storage unit 240 stores imaging space information. Specifically, the imaging range information storage unit 240 stores layout information such as the product shelf 162 in the store space 160 and information specifying the imaging range captured by each of the plurality of imaging devices 100. For example, the imaging range information storage unit 240 may store imaging range information including the positions of the plurality of imaging devices 100 and the imaging directions of the plurality of imaging devices 100. The target area specifying unit 224 can specify the line-of-sight area based on the imaging space information stored in the imaging range information storage unit 240.

選択部228は、視線特定部204が特定した視線方向の領域が撮像されたフレーム画像を選択する。このとき、選択部228は、複数の撮像装置100がそれぞれ撮像した複数のフレーム画像の中から、視線方向の領域が撮像されたフレーム画像を選択してよい。視線領域特定部222は、選択部228が選択したフレーム画像における視線領域を特定してよい。また、対象領域特定部224は、選択部228が選択したフレーム画像から、人物が見た対象物が撮像された画像領域である視線領域を特定してよい。   The selection unit 228 selects a frame image in which a region in the line-of-sight direction specified by the line-of-sight specifying unit 204 is captured. At this time, the selection unit 228 may select a frame image in which a region in the line-of-sight direction is captured from a plurality of frame images captured by the plurality of imaging devices 100, respectively. The line-of-sight area specifying unit 222 may specify the line-of-sight area in the frame image selected by the selection unit 228. Further, the target area specifying unit 224 may specify a line-of-sight area that is an image area in which an object viewed by a person is captured from the frame image selected by the selection unit 228.

画像処理部230は、対象領域特定部224が特定した視線領域を、他の画像領域の画像より強調する。具体的には、画像処理部230は、視線領域を、他の画像領域より小さい強度で圧縮する。   The image processing unit 230 emphasizes the line-of-sight region specified by the target region specifying unit 224 from the images of other image regions. Specifically, the image processing unit 230 compresses the line-of-sight area with a smaller intensity than other image areas.

出力部290は、画像処理部230が圧縮して得られた画像を出力する。このとき、出力部290は、人物を特定する情報と、人物の視線方向の領域に撮像された領域とを対応づけて出力してよい。例えば、人物が撮像された領域を特定する座標情報と、人物の視線方向の領域に撮像された領域を特定する座標情報とを対応づけて出力してよい。   The output unit 290 outputs an image obtained by the image processing unit 230 compressing. At this time, the output unit 290 may output the information specifying the person in association with the area captured in the area in the line-of-sight direction of the person. For example, coordinate information for specifying an area in which a person is imaged and coordinate information for specifying an area in which the person is captured in an area in the line-of-sight direction of the person may be output in association with each other.

画像処理装置110によると、視線領域が他の画像領域より強調されたフレーム画像を提供することができる。このため、人物の視線の先に存在する物体が何であるかが一見して分かる動画を提供することができる。   According to the image processing apparatus 110, it is possible to provide a frame image in which the line-of-sight area is emphasized more than other image areas. For this reason, it is possible to provide a moving image that can be understood at a glance what the object existing ahead of the person's line of sight.

なお、他の画像領域とは、視線領域以外の全画像領域であってよいが、視線領域以外の一部の画像領域であってもよい。例えば、他の画像領域とは、視線領域以外の画像領域のうち、人物が撮像された領域以外の画像領域であってよい。   The other image area may be the entire image area other than the line-of-sight area, but may be a part of the image area other than the line-of-sight area. For example, the other image area may be an image area other than the area where the person is imaged among the image areas other than the line-of-sight area.

特徴領域特定部202は、画像における特徴的な領域である特徴領域を特定する。画像処理部230は、特徴領域特定部202が特定した特徴領域および視線領域を、他の領域より小さい強度で圧縮してよい。例えば、特徴領域特定部202は、予め定められた条件に適合するオブジェクトを含む領域を、特徴領域として特定してよい。より具体的には、特徴領域特定部202は、人物のオブジェクトを含む領域を、特徴領域として特定してよい。   The feature area specifying unit 202 specifies a feature area that is a characteristic area in the image. The image processing unit 230 may compress the feature region and the line-of-sight region specified by the feature region specifying unit 202 with a smaller intensity than the other regions. For example, the feature region specifying unit 202 may specify a region including an object that meets a predetermined condition as a feature region. More specifically, the feature region specifying unit 202 may specify a region including a human object as a feature region.

ここで、視線特定部204は、特徴領域特定部202が特定したオブジェクトが示す人物の視線方向を特定してよい。このため、画像処理装置110によると、人物が注目している商品の画像情報量と、当該人物の画像情報とを維持しつつ、画像のデータ量を削減することができる。このため、どのような人物が何の商品に興味を持ったかを後で容易に特定することができる。このように、画像処理装置110によると、顧客の年齢・性別を分析したり、顧客の購買動向を分析したりするのに有用な画像データを提供することができる。   Here, the line-of-sight specifying unit 204 may specify the line-of-sight direction of the person indicated by the object specified by the feature region specifying unit 202. Therefore, according to the image processing apparatus 110, it is possible to reduce the amount of image data while maintaining the image information amount of the product that the person is paying attention to and the image information of the person. Therefore, it is possible to easily specify later what kind of person is interested in what product. As described above, according to the image processing apparatus 110, it is possible to provide image data useful for analyzing the age and sex of the customer and analyzing the purchase trend of the customer.

時間特定部226は、人物が上記視線方向を向いていた時間長さである注視時間を特定する。例えば、注視時間とは、人物が上記視線方向を継続して向いていた時間長さであってよい。上記視線方向を継続して向いていた時間長さとは、人物の視線が上記視線方向に完全に一致していた時間長さを意味しているのではなく、人物の視線が上記視線方向に略一致する方向に向いていた時間長さであってよい。言い換えると、注視時間とは、視線方向の角度変化幅が所定値より小さい期間の時間長さであってよい。   The time specifying unit 226 specifies the gaze time that is the length of time that the person has faced the line of sight. For example, the gaze time may be the length of time that the person has been continuously facing the line-of-sight direction. The time length in which the line of sight is continuously directed does not mean the length of time that the person's line of sight is completely coincident with the line of sight, but the person's line of sight is approximately in the line of sight. It may be the length of time that was in the direction of matching. In other words, the gaze time may be a time length of a period in which the angle change width in the gaze direction is smaller than a predetermined value.

他にも、時間特定部226は、人物の視線が上記視線方向に向いていた複数の期間の合計の時間長さを、注視時間として特定してもよい。そして、画像処理部230は、当該注視時間さが長いほど、視線領域をより強調してよい。例えば、画像処理部230は、当該注視時間さが長いほど、視線領域をより小さい強度で圧縮してよい。このように、画像処理装置110によると、注視時間が長いほど人物が注視した領域の画像情報を多くすることができるので、人物がより強く興味を抱いた物体を適切に解析することができる。   In addition, the time specifying unit 226 may specify the total time length of a plurality of periods in which the person's line of sight is directed in the line of sight as the gaze time. Then, the image processing unit 230 may emphasize the line-of-sight region more as the gaze time is longer. For example, the image processing unit 230 may compress the line-of-sight region with a lower strength as the gaze time is longer. As described above, according to the image processing apparatus 110, as the gaze time is longer, the image information of the area in which the person is gazing can be increased, so that the object that the person is more interested in can be analyzed appropriately.

以上説明したように、視線特定部204が動画内に撮像されている人物の視線方向を特定して、視線領域解析部220が、視線方向に基づき動画における視線領域を特定する。そして、画像処理部230は、動画における視線領域を、他の画像領域より小さい強度で圧縮する。   As described above, the line-of-sight specifying unit 204 specifies the line-of-sight direction of the person imaged in the moving image, and the line-of-sight region analyzing unit 220 specifies the line-of-sight region in the moving image based on the line-of-sight direction. Then, the image processing unit 230 compresses the line-of-sight area in the moving image with a smaller intensity than the other image areas.

図3は、視線領域および特徴領域の一例を示す。フレーム画像300は、画像取得部200が取得した動画の一フレームを示す。フレーム画像300には、人物オブジェクト350および商品台オブジェクト360が含まれている。   FIG. 3 shows an example of the line-of-sight region and the feature region. A frame image 300 indicates one frame of a moving image acquired by the image acquisition unit 200. The frame image 300 includes a person object 350 and a product stand object 360.

特徴領域特定部202は、フレーム画像300の画像内容から、人物が撮像された領域を抽出することにより、人物のオブジェクトである人物オブジェクト350を抽出する。特徴領域特定部202は、テンプレートマッチングなどの種々の方法を用いて人物オブジェクト350を抽出することができる。   The feature region specifying unit 202 extracts a person object 350 that is a person object by extracting a region where a person is captured from the image content of the frame image 300. The feature area specifying unit 202 can extract the person object 350 by using various methods such as template matching.

特徴領域特定部202は、人物の頭部のオブジェクトを含む頭部領域310を、特徴領域として特定する。また、特徴領域特定部202は、人物の体部のオブジェクトを含む体部領域320を、特徴領域として特定する。   The feature region specifying unit 202 specifies the head region 310 including the human head object as the feature region. The feature area specifying unit 202 specifies a body part area 320 including an object of a person's body part as a feature area.

視線特定部204は、人物オブジェクト350中の頭部のオブジェクトの領域から、人物オブジェクト350の人物の視線方向380を特定する。例えば、視線特定部204は、頭部のオブジェクト中における目のオブジェクトの位置、目のオブジェクトと他のオブジェクトとの間の位置関係などに基づき、視線方向を特定してよい。   The line-of-sight specifying unit 204 specifies the line-of-sight direction 380 of the person of the person object 350 from the area of the head object in the person object 350. For example, the line-of-sight specifying unit 204 may specify the line-of-sight direction based on the position of the eye object in the head object, the positional relationship between the eye object and other objects, and the like.

例えば、視線特定部204は、頭部のオブジェクト中において右よりに目のオブジェクトが存在している場合には、フレーム画像300において右方に向かう向きを視線方向として特定することができる。また、頭部のオブジェクト中に、口、鼻、耳など、頭部のオブジェクト中においてランドマークとなり得る特定オブジェクトが含まれている場合には、視線特定部204は、当該特定オブジェクトと目のオブジェクトとの間の位置関係に基づき、視線方向を判断することもできる。なお、視線特定部204は、目のオブジェクトが含まれていない場合であっても、特定オブジェクトの位置関係に基づき顔の向きを判断できる場合には、当該顔の方向を視線方向として特定してもよい。   For example, the line-of-sight specifying unit 204 can specify the direction toward the right in the frame image 300 as the line-of-sight direction when the eye object is present to the right in the head object. When the head object includes a specific object that can be a landmark in the head object, such as the mouth, nose, and ear, the line-of-sight specifying unit 204 displays the specific object and the eye object. The line-of-sight direction can also be determined based on the positional relationship between Note that the line-of-sight specifying unit 204 specifies the direction of the face as the line-of-sight direction when the direction of the face can be determined based on the positional relationship of the specific object even when the eye object is not included. Also good.

なお、視線特定部204は、目のオブジェクトの画像内容にさらに基づき、視線方向を特定してもよい。例えば、視線特定部204は、目のオブジェクト中における瞳のオブジェクトの位置、白目のオブジェクトの位置などにさらに基づき、視線方向を特定してもよい。   Note that the line-of-sight specifying unit 204 may specify the line-of-sight direction based further on the image content of the eye object. For example, the line-of-sight specifying unit 204 may specify the line-of-sight direction based on the position of the pupil object in the eye object, the position of the white-eye object, and the like.

視線領域特定部222は、視線特定部204が特定した視線方向380に基づき、フレーム画像300において頭部のオブジェクトから視線方向380に位置する領域を、視線領域330として特定する。視線領域特定部222は、人物の視野角に応じて視線方向380に広がる視線領域330を特定してよい。   The line-of-sight area specifying unit 222 specifies an area located in the line-of-sight direction 380 from the head object in the frame image 300 based on the line-of-sight direction 380 specified by the line-of-sight specifying unit 204. The line-of-sight area specifying unit 222 may specify the line-of-sight area 330 extending in the line-of-sight direction 380 according to the viewing angle of the person.

視線領域330を特定する場合に、フレーム画像300内における視線方向の領域を視線領域330とすることの他、人物の視線方向の領域を3次元空間において特定して、特定した3次元空間での領域が撮像されたフレーム画像300上の領域を、視線領域330として特定することもできる。全方位カメラ(全周カメラ)で撮像されたフレーム画像300から視線領域330を特定する場合のように、より広い画角で撮像されたフレーム画像300から視線領域330を特定する場合には、視線方向の領域を3次元空間で特定することで視線領域330をより正確に特定することができる。   When the line-of-sight area 330 is specified, the line-of-sight area in the frame image 300 is set as the line-of-sight area 330, and the person's line-of-sight area is specified in the three-dimensional space. An area on the frame image 300 in which the area is captured can also be specified as the line-of-sight area 330. When the line-of-sight area 330 is specified from the frame image 300 captured at a wider angle of view, such as when the line-of-sight area 330 is specified from the frame image 300 captured by the omnidirectional camera (omnidirectional camera), the line of sight is determined. By specifying the direction area in the three-dimensional space, the line-of-sight area 330 can be specified more accurately.

具体的には、視線特定部204は、人物の視線方向として、例えば3次元空間での人物位置から撮像装置100の位置への方向に対する、3次元空間での人物の視線方向の角度を特定する。そして、視線領域特定部222は、人物頭部のオブジェクトのフレーム画像300内での位置およびサイズと、撮像装置100の画角とから、撮像装置100に対する人物頭部の相対位置(例えば、撮像装置100から人物頭部の位置への方向、および、撮像装置100から人物頭部までの距離)を算出する。視線領域特定部222は、算出した相対位置と撮像装置100のワールド座標系での位置とに基づき、人物頭部のワールド座標系での人物頭部の位置座標を算出することができる。   Specifically, the line-of-sight specifying unit 204 specifies the angle of the person's line-of-sight direction in the three-dimensional space, for example, with respect to the direction from the person position in the three-dimensional space to the position of the imaging device 100 as the person's line-of-sight direction. . The line-of-sight region specifying unit 222 then determines the relative position of the human head relative to the imaging device 100 (for example, the imaging device) from the position and size of the object of the human head in the frame image 300 and the angle of view of the imaging device 100. The direction from 100 to the position of the person's head and the distance from the imaging device 100 to the person's head are calculated. The line-of-sight area specifying unit 222 can calculate the position coordinates of the human head in the world coordinate system of the human head based on the calculated relative position and the position of the imaging device 100 in the world coordinate system.

視線領域特定部222は、算出したワールド座標系での人物頭部の位置座標から、視線特定部204が特定した視線の角度の方向を中心に所定の立体角に収まる空間を、ワールド座標系において特定する。所定の立体角は人物の全視野角であってもよいが、人物が注目できる程度のより狭い立体角が所定の立体角として予め定められていてよい。そして、視線領域特定部222は、ワールド座標系での撮像装置100の位置、撮像装置100の画角、および、特定したワールド座標系での視線方向の空間に基づき、当該視線方向の空間が撮像されているフレーム画像300上の領域を、視線領域330として特定する。   The line-of-sight area specifying unit 222 uses, in the world coordinate system, a space that falls within a predetermined solid angle centered on the direction of the line-of-sight angle specified by the line-of-sight specifying unit 204 based on the calculated position coordinates of the human head in the world coordinate system. Identify. The predetermined solid angle may be the full viewing angle of the person, but a narrower solid angle that can be noticed by the person may be predetermined as the predetermined solid angle. Then, the line-of-sight area specifying unit 222 captures the space in the line-of-sight direction based on the position of the imaging apparatus 100 in the world coordinate system, the angle of view of the image pickup apparatus 100, and the space in the line-of-sight direction in the specified world coordinate system. The region on the frame image 300 that is being identified is specified as the line-of-sight region 330.

画像処理部230は、特徴領域の一例としての頭部領域310および体部領域320、ならびに、視線領域330を、他の領域より強調したフレーム画像を生成する。強調処理としては、特徴領域および視線領域330をそれぞれ枠で囲む処理など視覚的な強調処理、特徴領域および視線領域330をそれぞれ切り出すトリミング処理、特徴領域および視線領域330を他の領域より高画質化するなど画像情報量を他の領域より高める処理などを例示することができる。   The image processing unit 230 generates a frame image in which the head region 310, the body region 320, and the line-of-sight region 330 as examples of feature regions are emphasized from other regions. As enhancement processing, visual enhancement processing such as processing that surrounds each of the feature region and the line-of-sight region 330 with a frame, trimming processing that cuts out the feature region and the line-of-sight region 330, respectively, and higher image quality of the feature region and the line-of-sight region 330 than other regions For example, a process for increasing the amount of image information over other areas can be exemplified.

特徴領域および視線領域330をそれぞれ枠で囲む処理を施す場合には、頭部領域310と視線領域330とを同じ色の枠で囲んでもよい。視覚的な強調処理としては、その他にも、他の領域より彩度を高める処理などを例示することができる。   When the process of enclosing the feature area and the line-of-sight area 330 with a frame is performed, the head area 310 and the line-of-sight area 330 may be surrounded with the same color frame. Other examples of the visual enhancement process include a process for increasing the saturation from other areas.

また、画像情報量を他の領域より高める処理としては、解像度、階調数、色数を他の領域より高める処理であったり、特徴領域および視線領域330の実質的なフレームレートを他の領域より高める処理などを例示することができる。なお、画像処理部230がフレーム画像300を圧縮する場合には、上記他の領域の画像情報量を低減することにより、圧縮してよい。   Further, the process for increasing the amount of image information over other areas is a process for increasing the resolution, the number of gradations, and the number of colors over other areas, or the substantial frame rate of the feature area and the line-of-sight area 330 is increased to other areas. An example of a process that can be further increased can be given. When the image processing unit 230 compresses the frame image 300, it may be compressed by reducing the amount of image information in the other area.

このように、画像処理部230は、他の画像領域における画質を視線領域330より低減することにより、フレーム画像300を圧縮する。具体的には、画像処理部230は、他の画像領域における解像度を視線領域330より低減したり、他の画像領域における画素値の階調数を視線領域330より低減したり、他の画像領域に含まれる色数を視線領域330より低減したりすることにより、フレーム画像300を圧縮してよい。   As described above, the image processing unit 230 compresses the frame image 300 by reducing the image quality in the other image regions from the line-of-sight region 330. Specifically, the image processing unit 230 reduces the resolution in another image area from the line-of-sight area 330, reduces the number of gradations of pixel values in the other image area from the line-of-sight area 330, The frame image 300 may be compressed by reducing the number of colors included in the visual line region 330.

また、画像処理部230は、動画として圧縮する場合には、他の画像領域における動画のフレームレートを視線領域330より低減することにより、画像取得部200が取得した動画を圧縮してよい。このように、画像処理部230は、視線領域330における時間解像度を他の領域における時間解像度より高めてよい。   In addition, when compressing as a moving image, the image processing unit 230 may compress the moving image acquired by the image acquisition unit 200 by reducing the frame rate of the moving image in another image region from the line-of-sight region 330. In this way, the image processing unit 230 may increase the temporal resolution in the line-of-sight region 330 than the temporal resolution in other regions.

なお、画像処理部230は、特徴領域および視線領域330に対して超解像処理などを施すことにより、フレーム画像300における特徴領域および視線領域330より解像度、階調数、および色数の少なくともいずれかを高めてもよい。また、画像処理装置110は、画像取得部200が取得した動画に含まれる複数のフレーム画像のそれぞれから、上記のように特徴領域および視線領域を特定してよい。画像処理部230は、複数のフレーム画像のそれぞれに対して、特定した特徴領域および視線領域に上記した画像処理を施してよい。   Note that the image processing unit 230 performs at least one of the resolution, the number of gradations, and the number of colors from the feature region and the line-of-sight region 330 in the frame image 300 by performing super-resolution processing or the like on the feature region and the line-of-sight region 330. You may raise it. Further, the image processing apparatus 110 may specify the feature region and the line-of-sight region from each of a plurality of frame images included in the moving image acquired by the image acquisition unit 200 as described above. The image processing unit 230 may perform the above-described image processing on the specified feature region and line-of-sight region for each of the plurality of frame images.

以上説明したように、画像処理装置110によると、頭部領域310、体部領域320、および視線領域330を、他の領域より高めることができる。このため、人物が何に興味を持っているかを一見して確認することができる動画を提供することができる。   As described above, according to the image processing apparatus 110, the head region 310, the body region 320, and the line-of-sight region 330 can be made higher than other regions. For this reason, the moving image which can confirm what the person is interested in at a glance can be provided.

図4は、撮像範囲情報格納部240が格納しているレイアウト情報の一例を2次元的に示す。撮像範囲情報格納部240は、店舗空間160のレイアウト情報として、撮像範囲情報格納部240は、本図に示すように、店舗内平面400における商品棚410、商品台420、およびレジ430が存在する範囲を格納している。また、レイアウト情報としては、商品棚410、商品台420、およびレジ430などの立体物の高さ情報を含んでよい。このように、撮像範囲情報格納部240は、店舗空間160の3次元のレイアウトを示すレイアウト情報を格納してよい。   FIG. 4 two-dimensionally shows an example of layout information stored in the imaging range information storage unit 240. The imaging range information storage unit 240 includes layout information of the store space 160, and the imaging range information storage unit 240 includes a product shelf 410, a product stand 420, and a cash register 430 on the in-store plane 400, as shown in FIG. The range is stored. Further, the layout information may include height information of three-dimensional objects such as the product shelf 410, the product stand 420, and the cash register 430. As described above, the imaging range information storage unit 240 may store layout information indicating a three-dimensional layout of the store space 160.

また、撮像範囲情報格納部240は、撮像装置100が撮像する撮像方向および画角情報、ならびに撮像装置100の位置を示す位置情報を格納している。位置情報としては、店舗空間160における3次元の座標値などを例示することができる。撮像方向および画角情報としては、店舗空間160における3次元のベクトル情報などを例示することができる。撮像装置100の撮像方向、画角、位置情報、およびレイアウト情報は、店舗空間160の空間全体をあらわすワールド座標系で定められてよい。撮像範囲情報格納部240が格納している撮像方向および画角情報、位置情報、ならびにレイアウト情報により、店舗空間160において撮像装置100が撮像する範囲が特定され得る。   In addition, the imaging range information storage unit 240 stores imaging direction and angle-of-view information captured by the imaging apparatus 100 and position information indicating the position of the imaging apparatus 100. Examples of the position information include a three-dimensional coordinate value in the store space 160. Examples of the imaging direction and the angle of view information include three-dimensional vector information in the store space 160. The imaging direction, angle of view, position information, and layout information of the imaging device 100 may be determined in a world coordinate system that represents the entire space of the store space 160. Based on the imaging direction and angle-of-view information, position information, and layout information stored in the imaging range information storage unit 240, the range that the imaging apparatus 100 captures in the store space 160 can be specified.

このように、撮像範囲情報格納部240は、複数の撮像装置100がそれぞれ撮像する撮像範囲を特定する撮像範囲情報を格納している。これにより、対象領域特定部224は、視線領域330から人物の視線方向において物体が存在しない空間の領域を除くことができ、人物が見た対象物が撮像された画像領域を特定することができる。   As described above, the imaging range information storage unit 240 stores imaging range information that specifies the imaging ranges that each of the plurality of imaging devices 100 captures. Thereby, the target area specifying unit 224 can exclude the area of the space where no object exists in the gaze direction of the person from the gaze area 330, and can specify the image area where the target object viewed by the person is captured. .

図5は、視線領域および特徴領域の他の一例を示す。本図に示す視線領域および特徴領域は、視線領域の範囲が異なる点を除いて、図3に関連して説明した視線領域および特徴領域と同じであるので、以下の説明ではその相違点を説明する。なお、本図において図3に示したものと同じものには、図3で付した符号と同じ符号が付されている。   FIG. 5 shows another example of the line-of-sight region and the feature region. The line-of-sight area and feature area shown in this figure are the same as the line-of-sight area and feature area described in relation to FIG. 3 except that the range of the line-of-sight area is different. To do. In this figure, the same reference numerals as those shown in FIG. 3 are attached to the same elements as those shown in FIG.

対象領域特定部224は、図4に関連して説明した撮像範囲情報に基づき、図3に関連して説明した視線領域330から人物の視線方向において物体が存在しない空間の領域を除くことにより、人物が見た対象物が撮像された画像領域である視線領域332を対象領域として特定する。これにより、視線領域の範囲をより限定することができるので、画像処理部230による処理後の画像情報量をより低減することができる。   Based on the imaging range information described in relation to FIG. 4, the target area specifying unit 224 excludes a space area in which no object exists in the person's line-of-sight direction from the line-of-sight area 330 described in relation to FIG. 3. A line-of-sight area 332 that is an image area in which an object viewed by a person is captured is specified as the target area. Thereby, since the range of the line-of-sight region can be further limited, the amount of image information after processing by the image processing unit 230 can be further reduced.

具体的には、対象領域特定部224は、図3に関連して説明したワールド座標系での視線方向の空間と、ワールド座標系でのレイアウト情報から特定される商品棚410または商品台420(簡単のため、陳列器として総称する。)の占める空間とに基づき、視線方向の空間と、陳列器が占める空間との双方に含まれる空間を、ワールド座標系において特定する。なお、他の立体物により人物の視野が遮られることにより、特定した空間の一部の空間しか人物の視野に収まらない場合がある。この場合、対象領域特定部224は、人物の視野に収まっている空間を、ワールド座標系での人物の位置座標と、立体物のレイアウト情報とに基づき、ワールド座標系において注視空間として特定することができる。他の立体物で視野が遮られていない場合には、特定した空間を注視空間とすることができる。   Specifically, the target area specifying unit 224 has a product shelf 410 or a product stand 420 (specified from the space in the line-of-sight direction in the world coordinate system and layout information in the world coordinate system described with reference to FIG. Based on the space occupied by the display), the space included in both the space in the line-of-sight direction and the space occupied by the display is specified in the world coordinate system. Note that there are cases where only a part of the specified space can be accommodated in the field of view of the person because the field of view of the person is blocked by another three-dimensional object. In this case, the target area specifying unit 224 specifies the space within the person's field of view as the gaze space in the world coordinate system based on the position coordinates of the person in the world coordinate system and the layout information of the three-dimensional object. Can do. When the field of view is not obstructed by another three-dimensional object, the specified space can be set as the gaze space.

対象領域特定部224は、ワールド座標系での撮像装置100の位置、撮像装置100の画角、および、ワールド座標系での注視空間に基づき、当該注視空間が撮像されているフレーム画像300上の領域を、視線領域332として特定する。このように、対象領域特定部224は、人物が実際に見ている商品などの物体が存在する空間に対応するフレーム画像300上の領域を、視線領域332として特定することができる。   The target area specifying unit 224 is based on the position of the imaging device 100 in the world coordinate system, the angle of view of the imaging device 100, and the gaze space in the world coordinate system on the frame image 300 in which the gaze space is captured. The area is specified as the line-of-sight area 332. In this way, the target area specifying unit 224 can specify the area on the frame image 300 corresponding to the space in which an object such as a product actually viewed by a person exists as the line-of-sight area 332.

図6は、画像処理部230により生成される動画の一例を示す。動画602は画像取得部200が取得した動画を示しており、人物の頭部の領域の動画612、人物の体部の領域の動画622、背景の動画632、および視線領域の動画642は、画像処理部230が動画602を圧縮することにより生成した動画を示している。   FIG. 6 shows an example of a moving image generated by the image processing unit 230. A moving image 602 indicates a moving image acquired by the image acquisition unit 200. The moving image 612 of the person's head region, the moving image 622 of the person's body region, the moving image 632 of the background, and the moving image 642 of the line-of-sight region are images. The moving image generated by the processing unit 230 compressing the moving image 602 is shown.

画像処理部230は、フレーム画像600−1の画素値を、特徴領域特定部202がフレーム画像600−1において特定した人物の頭部領域以外の領域において所定の値に変換することにより、人物の頭部領域だけ被写体の画像情報を有するフレーム画像610−1を生成する。同様にして、画像処理部230は、フレーム画像600−2〜5から、それぞれフレーム画像600−2〜5において特定した人物の頭部領域だけ被写体の画像情報を有するフレーム画像610−2〜5を生成する。   The image processing unit 230 converts the pixel value of the frame image 600-1 into a predetermined value in a region other than the head region of the person specified by the feature region specifying unit 202 in the frame image 600-1, thereby A frame image 610-1 having image information of the subject only in the head region is generated. Similarly, the image processing unit 230 generates frame images 610-2 to 610-5 having image information of the subject from the frame images 600-2 to 600-5 only for the head region of the person specified in the frame images 600-2 to 600-5, respectively. Generate.

また、画像処理部230は、フレーム画像600−1を所定の解像度に低減するとともに、特徴領域特定部202がフレーム画像600−1において特定した人物の体部領域に対応する領域以外の領域を所定の画素値に変換することにより、人物の体部領域だけ被写体の画像情報を有するフレーム画像620−1を生成する。同様にして、画像処理部230は、フレーム画像600−3およびフレーム画像600−5から、それぞれフレーム画像600−3およびフレーム画像600−5において特定した人物の頭部領域だけ被写体の画像情報を有するフレーム画像620−2およびフレーム画像620−3を生成する。   Further, the image processing unit 230 reduces the frame image 600-1 to a predetermined resolution, and determines a region other than the region corresponding to the human body region specified by the feature region specifying unit 202 in the frame image 600-1. By converting the pixel value into the frame value 620-1, a frame image 620-1 having image information of the subject only in the human body region is generated. Similarly, the image processing unit 230 has subject image information only for the head region of the person specified in the frame image 600-3 and the frame image 600-5 from the frame image 600-3 and the frame image 600-5, respectively. A frame image 620-2 and a frame image 620-3 are generated.

なお、画像処理部230は、フレーム画像600の画素を間引くことにより解像度を1/2にしたフレーム画像620を生成してよい。また、画像処理部230は、フレーム画像600−2およびフレーム画像600−4を間引くことにより、フレームレートが1/2の動画622を生成してよい。   Note that the image processing unit 230 may generate a frame image 620 having a resolution halved by thinning out the pixels of the frame image 600. In addition, the image processing unit 230 may generate the moving image 622 having a frame rate of ½ by thinning out the frame image 600-2 and the frame image 600-4.

また、画像処理部230は、フレーム画像600−1を所定の解像度に低減することで、フレーム画像630−1およびフレーム画像630−2を生成する。フレーム画像630の解像度は、フレーム画像620よりさらに低くてよい。例えば、画像処理部230は、フレーム画像600の解像度を1/4にすることにより、フレーム画像630を生成してよい。また、画像処理部230は、画像処理部230は、フレーム画像600−2〜4を間引くことにより、フレームレートが1/4の動画642を生成してよい。   Further, the image processing unit 230 generates the frame image 630-1 and the frame image 630-2 by reducing the frame image 600-1 to a predetermined resolution. The resolution of the frame image 630 may be lower than that of the frame image 620. For example, the image processing unit 230 may generate the frame image 630 by reducing the resolution of the frame image 600 to ¼. In addition, the image processing unit 230 may generate the moving image 642 having a frame rate of ¼ by thinning out the frame images 600-2 to 4-4.

また、画像処理部230は、フレーム画像600−1の画素値を、特徴領域特定部202がフレーム画像600−1において特定した視線領域以外の領域において所定の値に変換することにより、視線領域だけ被写体の画像情報を有するフレーム画像640−1を生成する。同様にして、画像処理部230は、フレーム画像600−2〜5から、それぞれフレーム画像600−2〜5において特定した視線領域だけ被写体の画像情報を有するフレーム画像640−2〜5を生成する。   Further, the image processing unit 230 converts the pixel value of the frame image 600-1 into a predetermined value in an area other than the line-of-sight area specified by the feature area specifying unit 202 in the frame image 600-1, so that only the line-of-sight area is obtained. A frame image 640-1 having image information of the subject is generated. Similarly, the image processing unit 230 generates frame images 640-2 to 640-5 having image information of the subject only in the line-of-sight areas specified in the frame images 600-2 to 600-5 from the frame images 600-2 to 600-5, respectively.

本図の例では、画像処理部230は、複数のフレーム画像600のそれぞれから、フレーム画像600と同じ解像度のフレーム画像640を生成したが、画像処理部230は、フレーム画像600より低い解像度のフレーム画像640を生成してもよい。また、画像処理部230は、動画602のフレームレートと異なるフレームレートの動画642を生成してもよい。なお、本図の例のようにフレーム画像610とフレーム画像640との間で解像度およびフレームレートが同じである場合には、画像処理部230は、頭部領域611および視線領域641においてだけ被写体の画像情報を有するフレーム画像を生成してもよい。   In the example of this figure, the image processing unit 230 generates a frame image 640 having the same resolution as that of the frame image 600 from each of the plurality of frame images 600, but the image processing unit 230 has a lower resolution frame than the frame image 600. An image 640 may be generated. Further, the image processing unit 230 may generate a moving image 642 having a frame rate different from the frame rate of the moving image 602. Note that when the resolution and the frame rate are the same between the frame image 610 and the frame image 640 as in the example of this figure, the image processing unit 230 displays the subject only in the head region 611 and the line-of-sight region 641. A frame image having image information may be generated.

また、本図の例では、画像処理部230が制御する画質の一例として、解像度およびフレームレートを例に挙げて画像処理部230の動作を説明した。画質としては、解像度およびフレームレートの他に、階調数、色数、およびダイナミックレンジなど種々のパラメータを例示することができる。また、画像処理部230は、上述したように、頭部領域611、体部領域621、および視線領域641に、彩度などの視覚的な強調処理を施してもよい。   Further, in the example of this figure, the operation of the image processing unit 230 has been described by taking the resolution and the frame rate as an example of the image quality controlled by the image processing unit 230. Examples of the image quality include various parameters such as the number of gradations, the number of colors, and the dynamic range in addition to the resolution and the frame rate. Further, as described above, the image processing unit 230 may perform visual enhancement processing such as saturation on the head region 611, the body region 621, and the line-of-sight region 641.

画像処理部230は、フレーム画像610に対してMPEG符号化などにより符号化して、MPEG符号化された動画612を生成することができる。同様に、画像処理部230は、フレーム画像620、フレーム画像630、およびフレーム画像640をそれぞれMPEG符号化することにより、動画622、動画632、および動画642を生成してよい。   The image processing unit 230 can generate an MPEG-encoded moving image 612 by encoding the frame image 610 by MPEG encoding or the like. Similarly, the image processing unit 230 may generate the moving image 622, the moving image 632, and the moving image 642 by MPEG-encoding the frame image 620, the frame image 630, and the frame image 640, respectively.

図7は、画像処理部230により生成される動画の他の一例を示す。画像処理部230は、画像取得部200が取得した動画に含まれるフレーム画像700から、画質の異なる複数のフレーム画像750a〜cを生成する。そして、画像処理部230は、フレーム画像750a〜cの間で差分処理をすることにより、フレーム画像を圧縮する。   FIG. 7 shows another example of a moving image generated by the image processing unit 230. The image processing unit 230 generates a plurality of frame images 750 a to 750 c having different image quality from the frame image 700 included in the moving image acquired by the image acquisition unit 200. Then, the image processing unit 230 compresses the frame image by performing a difference process between the frame images 750a to 750c.

具体的には、画像処理部230は、頭部領域用および視線領域用のフレーム画像750aを、フレーム画像700を複製することにより生成する。また、画像処理部230は、フレーム画像700を体部領域用の解像度に低減することにより、体部領域用のフレーム画像750bを生成する。また、画像処理部230は、フレーム画像700を背景領域用の解像度に低減することにより、体部領域用のフレーム画像750bを生成する。体部領域用の解像度はフレーム画像700の1/2の解像度であってよく、背景領域用の解像度はフレーム画像700の1/4の解像度であってよい。   Specifically, the image processing unit 230 generates a frame image 750a for the head region and the line-of-sight region by duplicating the frame image 700. Further, the image processing unit 230 generates the frame image 750b for the body region by reducing the frame image 700 to the resolution for the body region. In addition, the image processing unit 230 generates the frame image 750b for the body region by reducing the frame image 700 to the resolution for the background region. The resolution for the body region may be ½ the resolution of the frame image 700, and the resolution for the background region may be ¼ the resolution of the frame image 700.

ここで、画像処理部230は、フレーム画像700を体部領域用の解像度に低減した画像と、フレーム画像750cを体部領域用の解像度に拡大した画像との差分情報を有するフレーム画像750bを生成する。このとき、画像処理部230は、頭部領域711b、体部領域721、および視線領域741bにおいて差分情報を有しており、頭部領域711b、体部領域721、および視線領域741b以外の領域において差分値が0であるフレーム画像750bを生成する。   Here, the image processing unit 230 generates a frame image 750b having difference information between the image obtained by reducing the frame image 700 to the resolution for the body region and the image obtained by enlarging the frame image 750c to the resolution for the body region. To do. At this time, the image processing unit 230 has difference information in the head region 711b, the body region 721, and the line-of-sight region 741b, and in areas other than the head region 711b, the body region 721, and the line-of-sight region 741b. A frame image 750b having a difference value of 0 is generated.

同様に、画像処理部230は、フレーム画像700と同じ解像度の画像と、フレーム画像750bをフレーム画像700と同じ解像度に拡大した画像との差分情報を有するフレーム画像750aを生成する。このとき、画像処理部230は、頭部領域711aおよび視線領域741aにおいて差分情報を有しており、頭部領域711aおよび視線領域741a以外の領域において差分値が0であるフレーム画像750bを生成する。   Similarly, the image processing unit 230 generates a frame image 750a having difference information between an image having the same resolution as the frame image 700 and an image obtained by enlarging the frame image 750b to the same resolution as the frame image 700. At this time, the image processing unit 230 generates the frame image 750b having difference information in the head region 711a and the line-of-sight region 741a and having a difference value of 0 in the region other than the head region 711a and the line-of-sight region 741a. .

これにより、端末装置180は、フレーム画像750cおよびフレーム画像750bを取得して合成することで、頭部領域711b、体部領域721b、および視線領域741bにおいて他の領域より解像度が高いフレーム画像を得ることができる。また、端末装置180は、フレーム画像750a〜cを取得して合成することで、頭部領域711aおよび視線領域741aにおいて、他の領域より解像度が高く、体部領域において、頭部領域、体部領域、および視線領域以外の領域より解像度が高いフレーム画像を得ることができる。   As a result, the terminal device 180 obtains a frame image 750c and a frame image 750b, and obtains a frame image having a higher resolution in the head region 711b, the body region 721b, and the line-of-sight region 741b than the other regions. be able to. Further, the terminal device 180 acquires and synthesizes the frame images 750a to 750c, so that the resolution in the head region 711a and the line-of-sight region 741a is higher than that in other regions. A frame image having a higher resolution than the region and the region other than the line-of-sight region can be obtained.

以上図6および図7に関連して説明したように、画像処理装置110によると、特徴領域の特徴の種類、視線領域に応じて画質を制御して、符号量を低減することができる。このとき、頭部領域および視線領域の画質を維持することができるので、顧客の年齢層を正確に分析したり、顧客が興味を持った商品などを正確に分析することができる映像を提供することができる。   As described above with reference to FIGS. 6 and 7, according to the image processing apparatus 110, it is possible to reduce the code amount by controlling the image quality according to the feature type and line-of-sight region of the feature region. At this time, since the image quality of the head region and the line-of-sight region can be maintained, an image that can accurately analyze the age group of the customer or the product that the customer is interested in is provided. be able to.

図8は、興味に応じた人物の行動の一例を示す。画像処理部230は、視線領域の画質を、人物の興味度に応じて決定してよい。   FIG. 8 shows an example of the behavior of a person according to interest. The image processing unit 230 may determine the image quality of the line-of-sight area according to the interest level of the person.

興味度を算出する指標としては、視線方向と人体の方向とがなす角を例示することができる。人物が移動している場合、人体の方向としては、人物の移動方向を例示することができる。他にも、人体の方向とは、人物の体部の正面が向く方向であってよい。この場合、静止画からでも人体の方向を特定することができる。   As an index for calculating the degree of interest, an angle formed by the line-of-sight direction and the direction of the human body can be exemplified. When the person is moving, the direction of the human body can be exemplified by the moving direction of the person. In addition, the direction of the human body may be a direction in which the front of the human body part faces. In this case, the direction of the human body can be specified from a still image.

本図を参照して、一のフレーム画像800には、人物オブジェクト850aおよび人物オブジェクト850bが含まれるとする。視線特定部204は、フレーム画像800において、人物オブジェクト850aの人物の視線方向880aと、人物オブジェクト850bの人物の視線方向880bとを特定する。そして、画像処理部230は、人物オブジェクト850aの人物の体の方向である体方向890aを算出して、体方向890aと視線方向880aとがなす角度を算出する。また、画像処理部230は、人物オブジェクト850bの人物の体の方向である体方向890bを算出して、体方向890bと視線方向880bとがなす角度を算出する。そして、画像処理部230は、当該角度の大きさが大きいほど、より大きい興味度を算出する。   Referring to this figure, it is assumed that one frame image 800 includes a person object 850a and a person object 850b. The line-of-sight specifying unit 204 specifies a person's line-of-sight direction 880a of the person object 850a and a person's line-of-sight direction 880b of the person object 850b in the frame image 800. Then, the image processing unit 230 calculates a body direction 890a that is the direction of the human body of the person object 850a, and calculates an angle formed by the body direction 890a and the line-of-sight direction 880a. In addition, the image processing unit 230 calculates a body direction 890b that is a human body direction of the person object 850b, and calculates an angle formed by the body direction 890b and the line-of-sight direction 880b. Then, the image processing unit 230 calculates a greater degree of interest as the angle is larger.

人物オブジェクト850aの人物は、特定の商品860が位置する方向を向いているが、商品860に興味を持っているわけではなく、ただぼんやり見ている場合もある。一方、人物オブジェクト850bの人物は、体の方向と異なる向きにわざわざ頭を向けて、商品860が位置する方向を見ている。この場合、人物オブジェクト850bの人物は、商品860に興味を持っている可能性が高い。このように、顧客が興味を抱いた商品を見つけた場合には、体の向きよりも先に頭部の向きをその商品に向ける場合が多い。画像処理部230が、体方向と視線方向とがなす角度の大きさが大きいほど興味度を大きく算出する。このため、画像処理装置110は、顧客の興味度が高い商品のオブジェクトを正確に分析することができる画像を提供することができる。   The person of the person object 850a is facing the direction in which the specific product 860 is located, but is not interested in the product 860, and may be merely gazed at it. On the other hand, the person of the person object 850b looks at the direction in which the product 860 is located, with his head directed in a direction different from the body direction. In this case, the person of the person object 850b is likely to be interested in the product 860. Thus, when a customer finds an item of interest, the head is often directed toward the item prior to the body orientation. The image processing unit 230 calculates the degree of interest as the angle between the body direction and the line-of-sight direction increases. For this reason, the image processing apparatus 110 can provide an image that can accurately analyze an object of a product having a high degree of customer interest.

興味度の他の算出例を、フレーム画像の画像領域805の画像を用いて説明する。画像領域805は興味度の他の算出方法を説明するための図であり、3フレームから抽出された人物の頭部のオブジェクトである頭部オブジェクト855−1〜3が、同一の画像領域805上に重ねて示してある。ここで、画像処理部230は、当該人物は体方向の一例として移動方向895を特定する。画像処理部230は、視線特定部204が各フレーム画像から算出した視線方向885と、移動方向895とがなす角度を算出する。   Another calculation example of the interest level will be described using an image in the image area 805 of the frame image. An image area 805 is a diagram for explaining another method of calculating the degree of interest. Head objects 855-1 to 855-3, which are human head objects extracted from three frames, are displayed on the same image area 805. It is shown superimposed on. Here, the image processing unit 230 specifies the moving direction 895 as an example of the body direction of the person. The image processing unit 230 calculates an angle formed by the line-of-sight direction 885 calculated from each frame image by the line-of-sight specifying unit 204 and the moving direction 895.

そして、画像処理部230は、移動方向895と視線方向885とがなす角度の時間的な変化量がより大きい場合に、興味度をより大きく算出してよい。例えば、画像処理部230は、視線方向885が特定の領域を向いており、かつ、上記角度の時間的な変化量の大きさがより大きい場合に、興味度をより大きく算出してよい。本図の下図に示すように、移動しながら商品860の方向を見ている人物は、商品860により強い興味を抱いていることが予想される。本例では、視線方向885と移動方向895とがなす角度の大きさが時間的に増加しているので、画像処理部230は興味度を比較的に大きく算出して、商品860の画像領域をより高画質にする。   Then, the image processing unit 230 may calculate the degree of interest larger when the temporal change amount of the angle formed by the movement direction 895 and the line-of-sight direction 885 is larger. For example, the image processing unit 230 may calculate the degree of interest larger when the line-of-sight direction 885 faces a specific region and the magnitude of the temporal change amount of the angle is larger. As shown in the lower part of the figure, it is expected that the person who is looking at the direction of the product 860 while moving is more interested in the product 860. In this example, since the size of the angle formed by the line-of-sight direction 885 and the movement direction 895 increases with time, the image processing unit 230 calculates the degree of interest to be relatively large so that the image area of the product 860 is displayed. Make higher image quality.

また、人物が特定の商品の方を見つつ移動方向を当該商品の方向に変えた場合にも、当該人物はその商品により強く興味を抱いていることが予想される。この場合、時間が経過するにつれて、移動方向と視線方向とがなす角度の大きさは時間的に減少していく。画像処理部230が上記角度の時間的な変化量の大きさから興味度を算出するので、このような人物についても興味度を適切に算出することができる。   Also, when a person changes the direction of movement to the direction of the product while looking at a specific product, the person is expected to be more interested in the product. In this case, as time passes, the magnitude of the angle formed by the moving direction and the line-of-sight direction decreases with time. Since the image processing unit 230 calculates the degree of interest from the magnitude of the temporal change in angle, the degree of interest can be appropriately calculated for such a person.

なお、画像処理部230は、人物が商品を見た時間をひとつの指標として興味度を算出してもよい。例えば、画像処理部230は、時間特定部226が特定した時間長さが長いほど、興味度をより大きく算出してよい。そして、画像処理部230は、興味度が大きいほど、視線領域の画質を高くしてよい。   Note that the image processing unit 230 may calculate the degree of interest using a time when a person views the product as one index. For example, the image processing unit 230 may calculate the degree of interest larger as the time length specified by the time specifying unit 226 is longer. Then, the image processing unit 230 may increase the image quality of the line-of-sight region as the degree of interest increases.

図9は、画像処理部230が記憶しているデータの一例をテーブル形式で示す。画像処理部230は、注視時間、角度の大きさ、角度変化量の絶対値に対応づけて、興味度を算出する。注視時間は、時間特定部226が算出する時間を示す。角度の大きさは、図8に関連して説明した、体方向と視線方向とがなす角度の大きさを示す。角度変化量の絶対値は、図8の下図に関連して説明した、移動方向と視線方向とがなす角度の単位時間あたりの変化量の絶対値を示す。   FIG. 9 shows an example of data stored in the image processing unit 230 in a table format. The image processing unit 230 calculates the interest level in association with the gaze time, the magnitude of the angle, and the absolute value of the angle change amount. The gaze time indicates the time calculated by the time specifying unit 226. The size of the angle indicates the size of the angle formed by the body direction and the line-of-sight direction described with reference to FIG. The absolute value of the angle change amount indicates the absolute value of the change amount per unit time of the angle formed by the movement direction and the line-of-sight direction described with reference to the lower diagram of FIG.

画像処理部230は、時間特定部226が特定した注視時間に対応づけて記憶している興味度、および、体方向と視線方向とがなす角度の大きさに対応づけて記憶している興味度を特定する。また、画像処理部230は、人物が移動している場合には、移動方向と視線方向とがなす角度の単位時間あたりの変化量に対応づけて記憶している興味度を特定する。そして、画像処理部230は、特定した各興味度を所定の重み付けて合計することなど、特定した各興味度を総合して、総合的な興味度を算出する。他にも、画像処理部230は、特定した興味度の最大値を総合的な興味度として算出してよい。そして、画像処理部230は、総合的な興味度が大きいほど、視線領域の画質を高くしてよい。   The image processing unit 230 stores the degree of interest stored in association with the gaze time specified by the time specifying unit 226 and the degree of interest stored in association with the magnitude of the angle between the body direction and the line-of-sight direction. Is identified. In addition, when the person is moving, the image processing unit 230 specifies the degree of interest stored in association with the amount of change per unit time of the angle formed by the moving direction and the line-of-sight direction. Then, the image processing unit 230 calculates the total degree of interest by combining the specified degrees of interest, for example, summing the specified degrees of interest with a predetermined weight. In addition, the image processing unit 230 may calculate the maximum value of the specified degree of interest as the total degree of interest. Then, the image processing unit 230 may increase the image quality of the line-of-sight region as the overall degree of interest increases.

図10は、視線領域情報と人物情報との対応づけの一例を示す。出力部290は、人物の頭部領域の情報と、視線領域の情報とを対応づけて出力する。頭部領域の情報とは、フレーム画像内の画像領域を特定する情報であってよい。例えば、頭部領域が矩形である場合、頭部領域の情報としては、矩形の対角の座標値を例示することができる。その他の場合においても、頭部領域を規定するベクトル情報などを、頭部領域の情報として例示することができる。同様に、視線領域の情報としては、視線領域を規定するベクトル情報など、フレーム画像内における画像領域を特定する情報であってよい。   FIG. 10 shows an example of the correspondence between the line-of-sight area information and the person information. The output unit 290 associates and outputs information on the head region of the person and information on the line-of-sight region. The head region information may be information for specifying an image region in the frame image. For example, when the head region is a rectangle, the coordinate value of the diagonal of the rectangle can be exemplified as the information on the head region. In other cases, vector information that defines the head region can be exemplified as the head region information. Similarly, the line-of-sight area information may be information specifying an image area in the frame image, such as vector information defining the line-of-sight area.

その他、頭部領域の情報とは、頭部領域の解析結果であってもよい。例えば、頭部領域から抽出した画像の特徴量、頭部領域の画像を画像認識することにより識別した人物を特定する情報であってもよい。同様に、視線領域の情報とは、視線領域の解析結果であってもよい。例えば、視線領域から抽出した画像の特徴量、視線領域の画像を画像認識することにより識別した物体を特定する情報であってもよい。   In addition, the head region information may be an analysis result of the head region. For example, it may be information that identifies a feature amount of an image extracted from the head region or a person identified by image recognition of the image of the head region. Similarly, the line-of-sight area information may be an analysis result of the line-of-sight area. For example, the feature amount of the image extracted from the line-of-sight area, or information specifying an object identified by image recognition of the image of the line-of-sight area may be used.

ここで、本図を参照して、フレーム画像1000−1は人物オブジェクト1050−1および人物オブジェクト1051−2を含んでいる。人物オブジェクト1050−1の人物の視線方向にある物体は、人物オブジェクト1051−1により遮られて、フレーム画像1000−1内には撮像されていない。   Here, with reference to this figure, frame image 1000-1 includes person object 1050-1 and person object 1051-2. An object in the line-of-sight direction of the person of the person object 1050-1 is blocked by the person object 1051-1 and is not captured in the frame image 1000-1.

一方、他のフレーム画像1000−5が撮像されたタイミングでは、人物オブジェクト1051−5の人物が移動しており、人物オブジェクト1050−1の人物の視線方向にある物体はフレーム画像1000−5内に撮像されている。選択部228は、視線特定部204が特定した視線領域にある人物以外の物体が撮像されているフレーム画像を、画像取得部200が取得した動画に含まれるフレーム画像の中から選択する。そして、視線領域特定部222は、選択部228が選択したフレーム画像1000−5における視線領域1030を特定する。これにより、画像処理装置110は、視線の先の物体が他の人物に遮られて撮像されていない場合においても、人物の頭部の画像と当該人物が見た物体の画像とを正確に対応づけることができる。   On the other hand, at the timing when another frame image 1000-5 is captured, the person of the person object 1051-5 is moving, and the object of the person object 1050-1 in the direction of the line of sight of the person is in the frame image 1000-5. An image is being taken. The selection unit 228 selects a frame image in which an object other than a person in the line-of-sight area specified by the line-of-sight specifying unit 204 is captured from frame images included in the moving image acquired by the image acquisition unit 200. Then, the line-of-sight area specifying unit 222 specifies the line-of-sight area 1030 in the frame image 1000-5 selected by the selection unit 228. As a result, the image processing apparatus 110 accurately corresponds the image of the head of the person and the image of the object viewed by the person even when the object ahead of the line of sight is not captured by another person. Can be attached.

図11は、他の撮像装置100が撮像したフレーム画像から視線領域を特定する一形態を示す。上記の実施形態においては、特定の撮像装置100が撮像したフレーム画像から視線領域を抽出したが、画像処理装置110は、視線を特定したフレーム画像を撮像した撮像装置100と異なる撮像装置100が撮像したフレーム画像から、視線領域を特定してもよい。   FIG. 11 shows an embodiment in which a line-of-sight area is specified from a frame image captured by another image capturing apparatus 100. In the above embodiment, the line-of-sight region is extracted from the frame image captured by the specific image capturing apparatus 100. However, the image processing apparatus 110 is captured by an image capturing apparatus 100 different from the image capturing apparatus 100 that captures the frame image specifying the line of sight. The line-of-sight area may be specified from the frame image.

図11を参照して、フレーム画像1100aは撮像装置100aが撮像したフレーム画像であり、フレーム画像1100bは撮像装置100bが撮像したフレーム画像であるとする。フレーム画像1100aには、人物オブジェクト1150aが含まれており、視線特定部204は、人物オブジェクト1150aの人物の視線方向1140を特定する。   Referring to FIG. 11, it is assumed that frame image 1100a is a frame image captured by imaging device 100a, and frame image 1100b is a frame image captured by imaging device 100b. The frame image 1100a includes a person object 1150a, and the line-of-sight specifying unit 204 specifies the line-of-sight direction 1140 of the person of the person object 1150a.

選択部228は、撮像装置100bにより撮像された1以上のフレーム画像の中から、予め定められた条件に適合する条件で人物の視線方向1140の領域が撮像されたフレーム画像1100bを選択する。予め定められた条件に適合する条件で撮像されたフレーム画像としては、予め定められた大きさより大きく撮像されたフレーム画像、予め定められた画質より高い画質で撮像されたフレーム画像、予め定められた方向に合致する方向から撮像されているフレーム画像などを例示することができる。   The selection unit 228 selects a frame image 1100b in which a region in the line-of-sight direction 1140 of a person is captured under a condition that matches a predetermined condition from one or more frame images captured by the imaging device 100b. Examples of frame images captured under conditions that match a predetermined condition include a frame image captured larger than a predetermined size, a frame image captured with a higher image quality than a predetermined image quality, and a predetermined frame image. A frame image captured from a direction that matches the direction can be exemplified.

視線領域特定部222は、フレーム画像1100bにおける、人物の視線方向の領域が撮像された画像領域である視線領域1130を特定する。そして、画像処理部230は、視線領域特定部222が特定したフレーム画像1100bにおける画像領域である視線領域1130を、フレーム画像1100bにおける他の画像領域より強調する。   The line-of-sight area specifying unit 222 specifies a line-of-sight area 1130 that is an image area in which an area in the line-of-sight direction of a person in the frame image 1100b is captured. Then, the image processing unit 230 emphasizes the line-of-sight region 1130 that is the image region in the frame image 1100b specified by the line-of-sight region specifying unit 222 over other image regions in the frame image 1100b.

このように、選択部228は、複数の撮像装置100により撮像された複数のフレーム画像の中から、予め定められた条件に適合する条件で人物の視線方向の領域が撮像されたフレーム画像を選択する。このため、人物の顔を正面近くから撮像した頭部領域1110aの画像情報と、正面近くから撮像された視線領域1130の画像情報とを対応づけることができる。   As described above, the selection unit 228 selects a frame image in which a region in the line-of-sight direction of a person is captured from a plurality of frame images captured by the plurality of imaging devices 100 under a condition that satisfies a predetermined condition. To do. For this reason, the image information of the head region 1110a obtained by capturing the human face from near the front can be associated with the image information of the line-of-sight region 1130 captured from near the front.

なお、視線特定部204は、図3に関連して説明したように、フレーム画像1100aを撮像した撮像装置100の位置および画角から、人物の視線方向の空間をワールド座標系において特定することができる。また、対象領域特定部224は、図11に関連して説明したように、ワールド座標系での注視空間を特定することができる。そして、対象領域特定部224は、フレーム画像1100bを撮像した撮像装置100のワールド座標系での位置および画角と、ワールド座標系での注視空間に基づき、当該注視空間が撮像されているフレーム画像1100b上の領域を、対象領域として特定することができる。これにより、対象領域特定部224は、人物が実際に見ている商品などの物体が存在する空間に対応するフレーム画像1100b上の領域を、対象領域として特定することができる。   Note that, as described with reference to FIG. 3, the line-of-sight specifying unit 204 can specify a space in the line-of-sight direction of a person in the world coordinate system from the position and the angle of view of the imaging device 100 that has captured the frame image 1100a. it can. In addition, the target area specifying unit 224 can specify the gaze space in the world coordinate system as described with reference to FIG. Then, the target area specifying unit 224 captures the frame image 1100b based on the position and angle of view of the imaging apparatus 100 in the world coordinate system and the gaze space in the world coordinate system, and the frame image in which the gaze space is captured. The area on 1100b can be specified as the target area. Thereby, the target area specifying unit 224 can specify an area on the frame image 1100b corresponding to a space in which an object such as a product actually viewed by a person exists as a target area.

なお、図11に関連して、視線領域特定部222が他の撮像装置100が撮像したフレーム画像から視線領域を特定する場合の機能および動作を説明した。視線領域特定部222が視線領域を特定した後の処理については、同じ撮像装置100が撮像したフレーム画像の視線領域に対する処理と同様の処理をすることができるので、その説明を省略する。   In addition, in relation to FIG. 11, the function and operation in the case where the line-of-sight area specifying unit 222 specifies the line-of-sight area from the frame image captured by the other imaging device 100 have been described. The process after the line-of-sight area specifying unit 222 specifies the line-of-sight area can be performed in the same manner as the process for the line-of-sight area of the frame image captured by the same imaging apparatus 100, and thus the description thereof is omitted.

以上図1から図11に関連して説明したように、画像処理システム10によると、得られた画像から、顧客情報を正確に分析したり、当該顧客が興味を持った商品を正確に分析したりすることができる。このように、画像処理システム10は、店舗用の画像処理システムとして機能することができる。   As described above with reference to FIGS. 1 to 11, according to the image processing system 10, the customer information is accurately analyzed from the obtained image, or the product that the customer is interested in is accurately analyzed. Can be. As described above, the image processing system 10 can function as an image processing system for a store.

その他、画像処理システム10は多様な用途に適用することができる。例えば、画像処理システム10によると、顧客が興味を持った商品の情報に基づき広告コンテンツを顧客に提供することもでき、この場合、画像処理システム10はサイネージシステムとして機能することができる。また、画像処理システム10は、不審者が注目したものを特定する監視システムあるいは防犯システムとして機能することもできる。   In addition, the image processing system 10 can be applied to various uses. For example, according to the image processing system 10, advertisement content can be provided to the customer based on information on products that the customer is interested in. In this case, the image processing system 10 can function as a signage system. The image processing system 10 can also function as a monitoring system or a crime prevention system that identifies what the suspicious person has noticed.

また、画像処理装置110は、異なる店舗空間160の動画を取得して、解析してもよい。これにより、顧客の動向などを店舗間で比較することができる。また、上記においては店舗用のシステムとして画像処理システム10の機能および動作を説明したが、画像処理システム10の用途としては、店舗用以外にも種々の用途に利用することができる。   Further, the image processing apparatus 110 may acquire and analyze moving images of different store spaces 160. Thereby, a customer's trend etc. can be compared between stores. In the above description, the functions and operations of the image processing system 10 have been described as a store system. However, the image processing system 10 can be used for various purposes other than for a store.

なお、画像処理装置110の機能は、店舗サーバ170が有してもよい。店舗サーバ170において動画を圧縮して通信ネットワーク150に送信することで、画像のデータ量を低減しつつ、人物・商品の画像領域に後の分析に適した十分な情報量を持たせることができる。   Note that the store server 170 may have the function of the image processing apparatus 110. By compressing the moving image in the store server 170 and transmitting it to the communication network 150, the image area of the person / product can have a sufficient amount of information suitable for later analysis while reducing the amount of image data. .

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

一実施形態における画像処理システム10の一例を示す図である。1 is a diagram illustrating an example of an image processing system 10 according to an embodiment. 画像処理装置110のブロック構成の一例を示す図である。2 is a diagram illustrating an example of a block configuration of an image processing apparatus 110. FIG. 視線領域および特徴領域の一例を示す図である。It is a figure which shows an example of a gaze area | region and a characteristic area | region. 撮像範囲情報格納部240が格納しているレイアウト情報の一例を2次元的に示す図である。It is a figure which shows 2-dimensionally an example of the layout information which the imaging range information storage part 240 has stored. 視線領域および特徴領域の他の一例を示す図である。It is a figure which shows another example of a gaze area | region and a characteristic area | region. 画像処理部230により生成される動画の一例を示す図である。It is a figure which shows an example of the moving image produced | generated by the image process part. 画像処理部230により生成される動画の他の一例を示す図である。It is a figure which shows another example of the moving image produced | generated by the image process part. 興味に応じた人物の行動の一例を示す図である。It is a figure which shows an example of the action of the person according to interest. 画像処理部230が記憶しているデータの一例をテーブル形式で示す図である。It is a figure which shows an example of the data which the image process part 230 has memorize | stored in a table format. 視線領域情報と人物情報との対応づけの一例を示す図である。It is a figure which shows an example of matching with eyes | visual_axis area | region information and person information. 他の撮像装置100が撮像したフレーム画像から視線領域を特定する一形態を示す図である。It is a figure which shows one form which pinpoints a gaze area | region from the frame image which the other imaging device 100 imaged.

10 画像処理システム
90 記憶媒体
100 撮像装置
110 画像処理装置
112 処理結果データベース
150 通信ネットワーク
160 店舗空間
162 商品棚
164 人物
170 店舗サーバ
180 端末装置
200 画像取得部
202 特徴領域特定部
204 視線特定部
220 視線領域解析部
222 視線領域特定部
224 対象領域特定部
226 時間特定部
228 選択部
230 画像処理部
240 撮像範囲情報格納部
290 出力部
300 フレーム画像
310 頭部領域
320 体部領域
330、332 視線領域
350 人物オブジェクト
360 商品台オブジェクト
380 視線方向
400 店舗内平面
410 商品棚
420 商品台
430 レジ
602、612、622、632、642 動画
600、610、620、630、640 フレーム画像
611 頭部領域
621 体部領域
641 視線領域
700 フレーム画像
711 頭部領域
721 体部領域
741 視線領域
750 フレーム画像
800 フレーム画像
805 画像領域
850 人物オブジェクト
855 頭部オブジェクト
860 商品
880、885 視線方向
890 体方向
895 移動方向
1000 フレーム画像
1050、1051 人物オブジェクト
1030 視線領域
1100 フレーム画像
1110 頭部領域
1130 視線領域
1140 視線方向
1150 人物オブジェクト
DESCRIPTION OF SYMBOLS 10 Image processing system 90 Storage medium 100 Imaging device 110 Image processing device 112 Processing result database 150 Communication network 160 Store space 162 Product shelf 164 Person 170 Store server 180 Terminal device 200 Image acquisition part 202 Characteristic area specific | specification part 204 Line-of-sight specific part 220 Line of sight Area analysis unit 222 Line-of-sight specifying unit 224 Target region specifying unit 226 Time specifying unit 228 Selection unit 230 Image processing unit 240 Imaging range information storage unit 290 Output unit 300 Frame image 310 Head region 320 Body region 330, 332 Line-of-sight region 350 Person object 360 Product stand object 380 Line of sight 400 In-store plane 410 Product shelf 420 Product stand 430 Cash register 602, 612, 622, 632, 642 Video 600, 610, 620, 630, 640 Frame image 6 1 Head region 621 Body region 641 Line-of-sight region 700 Frame image 711 Head region 721 Body region 741 Line-of-sight region 750 Frame image 800 Frame image 805 Image region 850 Human object 855 Head object 860 Product 880, 885 Line-of-sight direction 890 Body Direction 895 Movement direction 1000 Frame images 1050 and 1051 Human object 1030 Gaze area 1100 Frame image 1110 Head area 1130 Gaze area 1140 Gaze direction 1150 Human object

Claims (17)

画像を取得する画像取得部と、
前記画像内に撮像されている人物の視線方向を特定する視線特定部と、
前記人物の視線方向の画像領域である視線領域を、他の画像領域より小さい強度で圧縮する画像処理部と
を備える画像処理装置。
An image acquisition unit for acquiring images;
A line-of-sight identifying unit that identifies the line-of-sight direction of the person imaged in the image;
An image processing apparatus comprising: an image processing unit that compresses a line-of-sight area, which is an image area in the line-of-sight direction of the person, with a smaller intensity than other image areas.
前記画像における特徴的な領域である特徴領域を特定する特徴領域特定部
をさらに備え、
前記画像処理部は、前記特徴領域特定部が特定した特徴領域および前記視線領域を、他の領域より小さい強度で圧縮する
請求項1に記載の画像処理装置。
A feature region specifying unit for specifying a feature region that is a characteristic region in the image;
The image processing apparatus according to claim 1, wherein the image processing unit compresses the feature region and the line-of-sight region specified by the feature region specifying unit with an intensity smaller than that of other regions.
前記特徴領域特定部は、予め定められた条件に適合するオブジェクトを含む領域を、前記特徴領域として特定する
請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the feature region specifying unit specifies a region including an object that meets a predetermined condition as the feature region.
前記特徴領域特定部は、前記人物のオブジェクトを含む領域を、前記特徴領域として特定する
請求項2または3に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the feature region specifying unit specifies a region including the person object as the feature region.
前記人物の視線方向および前記画像として撮像された撮像空間情報に基づいて、前記人物の視線方向の画像領域のうち、前記人物が見た対象物が撮像された画像領域を前記視線領域として特定する対象領域特定部
をさらに備え、
前記画像処理部は、前記対象領域特定部が特定した前記視線領域を、他の画像領域より小さい強度で圧縮する
請求項1乃至4のいずれかに記載の画像処理装置。
Based on the gaze direction of the person and the imaging space information captured as the image, the image area in which the object seen by the person is imaged is specified as the gaze area among the image areas in the gaze direction of the person. It further includes a target area specifying unit,
The image processing apparatus according to claim 1, wherein the image processing unit compresses the line-of-sight region specified by the target region specifying unit with a smaller intensity than other image regions.
前記対象領域特定部は、前記人物の視線方向の画像領域のうち、前記人物が見た予め定められた特定の対象物が撮像された画像領域を前記視線領域として特定する
請求項5に記載の画像処理装置。
The said target area specific | specification part specifies the image area | region where the predetermined specific object which the said person saw was imaged as the said visual line area | region among the image areas of the said person's gaze direction. Image processing device.
前記人物が前記視線方向を向いていた時間長さである注視時間を特定する時間特定部
をさらに備え、
前記画像処理部は、前記注視時間さが長いほど、前記視線領域をより小さい強度で圧縮する
請求項1乃至6のいずれかに記載の画像処理装置。
A time specifying unit that specifies a gaze time that is a length of time that the person is facing the line-of-sight direction;
The image processing apparatus according to claim 1, wherein the image processing unit compresses the line-of-sight region with a smaller intensity as the gaze time is longer.
前記時間特定部は、前記人物が前記視線方向を継続して向いていた時間長さを前記注視時間として特定する
請求項7に記載の画像処理装置。
The image processing apparatus according to claim 7, wherein the time specifying unit specifies the length of time that the person is continuously facing the line of sight as the gaze time.
前記時間特定部は、前記人物の視線が前記視線方向に向いていた複数の期間の合計の時間長さを、前記注視時間として特定する
請求項7に記載の画像処理装置。
The image processing apparatus according to claim 7, wherein the time specifying unit specifies a total time length of a plurality of periods in which the line of sight of the person is directed in the line of sight as the gaze time.
前記画像取得部は、動画を取得し、
前記視線特定部は、前記動画内に撮像されている前記人物の視線方向を特定し、
前記画像処理部は、前記動画における前記視線領域を、前記他の画像領域より小さい強度で圧縮する
請求項1乃至9のいずれかに記載の画像処理装置。
The image acquisition unit acquires a video,
The line-of-sight specifying unit specifies the line-of-sight direction of the person imaged in the moving image,
The image processing apparatus according to claim 1, wherein the image processing unit compresses the line-of-sight region in the moving image with a smaller intensity than the other image regions.
前記画像処理部は、前記他の画像領域における画質を前記視線領域より低減する
請求項1乃至10のいずれかに記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image processing unit reduces image quality in the other image area from that of the line-of-sight area.
前記画像処理部は、前記他の画像領域における解像度を前記視線領域より低減する
請求項1乃至11のいずれかに記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image processing unit reduces the resolution in the other image area from the line-of-sight area.
前記画像処理部は、前記他の画像領域における画素値の階調数を前記視線領域より低減する
請求項1乃至11のいずれかに記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image processing unit reduces the number of gradations of pixel values in the other image area from the line-of-sight area.
前記画像処理部は、前記他の画像領域に含まれる色数を前記視線領域より低減する
請求項1乃至11のいずれかに記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image processing unit reduces the number of colors included in the other image area from the line-of-sight area.
前記画像処理部は、前記他の画像領域における動画のフレームレートを前記視線領域より低減する
請求項10に記載の画像処理装置。
The image processing device according to claim 10, wherein the image processing unit reduces a frame rate of a moving image in the other image area from the line-of-sight area.
画像を取得する画像取得段階と、
前記画像内に撮像されている人物の視線方向を特定する視線特定段階と、
前記人物の視線方向の画像領域である視線領域を、他の画像領域より小さい強度で圧縮する画像処理段階と
を備える画像処理方法。
An image acquisition stage for acquiring images;
A line-of-sight identifying step for identifying a line-of-sight direction of a person imaged in the image;
An image processing method comprising: compressing a line-of-sight area, which is an image area in the line-of-sight direction of the person, with a smaller intensity than other image areas.
画像処理装置用のプログラムであって、コンピュータを、
画像を取得する画像取得部、
前記画像内に撮像されている人物の視線方向を特定する視線特定部、
前記人物の視線方向の画像領域である視線領域を、他の画像領域より小さい強度で圧縮する画像処理部
として機能させるプログラム。
A program for an image processing apparatus, comprising:
An image acquisition unit for acquiring images;
A line-of-sight identifying unit that identifies the line-of-sight direction of the person imaged in the image,
A program that causes a line-of-sight area that is an image area in the line-of-sight direction of the person to function as an image processing unit that compresses the line-of-sight area with a smaller intensity than other image areas.
JP2009116977A 2009-05-13 2009-05-13 Image processing apparatus, image processing method, and program Expired - Fee Related JP5096409B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009116977A JP5096409B2 (en) 2009-05-13 2009-05-13 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009116977A JP5096409B2 (en) 2009-05-13 2009-05-13 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2010268157A true JP2010268157A (en) 2010-11-25
JP5096409B2 JP5096409B2 (en) 2012-12-12

Family

ID=43364791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009116977A Expired - Fee Related JP5096409B2 (en) 2009-05-13 2009-05-13 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5096409B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059788A (en) * 2012-09-19 2014-04-03 Fujitsu Ltd Gazing action estimation device, gazing action estimation method and gazing action estimation program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1048008A (en) * 1996-08-02 1998-02-20 Omron Corp Attention information measuring method, instrument for the method and various system using the instrument
JP2007286995A (en) * 2006-04-19 2007-11-01 Hitachi Ltd Attention level measurement device and attention level measurement system
JP2009048620A (en) * 2007-07-20 2009-03-05 Fujifilm Corp Image processor, image processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1048008A (en) * 1996-08-02 1998-02-20 Omron Corp Attention information measuring method, instrument for the method and various system using the instrument
JP2007286995A (en) * 2006-04-19 2007-11-01 Hitachi Ltd Attention level measurement device and attention level measurement system
JP2009048620A (en) * 2007-07-20 2009-03-05 Fujifilm Corp Image processor, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059788A (en) * 2012-09-19 2014-04-03 Fujitsu Ltd Gazing action estimation device, gazing action estimation method and gazing action estimation program

Also Published As

Publication number Publication date
JP5096409B2 (en) 2012-12-12

Similar Documents

Publication Publication Date Title
JP2010268158A (en) Image processing system, method of processing image, and program
US20240013458A1 (en) Image processing system, image processing method and program, and device
KR101490016B1 (en) Person image processing apparatus and person image processing method
US20140152530A1 (en) Multimedia near to eye display system
US10887548B2 (en) Scaling image of speaker&#39;s face based on distance of face and size of display
JP4061379B2 (en) Information processing apparatus, portable terminal, information processing method, information processing program, and computer-readable recording medium
JP6362085B2 (en) Image recognition system, image recognition method and program
JP2008199549A (en) Monitor image processing method, monitoring system, and monitor image processing program
CN108141568B (en) OSD information generation camera, synthesis terminal device and sharing system
US11068699B2 (en) Image processing device, image processing method, and telecommunication system to generate an output image for telecommunication
KR101856546B1 (en) Method for removing processing target object in image and apparatus for performing the method
US11315360B2 (en) Live facial recognition system and method
KR101540113B1 (en) Method, apparatus for gernerating image data fot realistic-image and computer-readable recording medium for executing the method
JP5088463B2 (en) Monitoring system
JP2014064083A (en) Monitoring device and method
WO2020056769A1 (en) Method and system of facial resolution upsampling for image processing
CN112073640B (en) Panoramic information acquisition pose acquisition method, device and system
JP5096409B2 (en) Image processing apparatus, image processing method, and program
CN110321782B (en) System for detecting human body characteristic signals
JP7297455B2 (en) Image processing device, image processing method, and program
US20140016859A1 (en) Systems, methods, and media for optical recognition
JP6355146B1 (en) Medical safety system
JP6858007B2 (en) Image processing system, image processing method
JP5242827B2 (en) Face image processing apparatus, face image processing method, electronic still camera, digital image processing apparatus, and digital image processing method
US11587321B2 (en) Enhanced person detection using face recognition and reinforced, segmented field inferencing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120920

R150 Certificate of patent or registration of utility model

Ref document number: 5096409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees