JP2019086912A - Degree-of-interest measurement system and method - Google Patents
Degree-of-interest measurement system and method Download PDFInfo
- Publication number
- JP2019086912A JP2019086912A JP2017213057A JP2017213057A JP2019086912A JP 2019086912 A JP2019086912 A JP 2019086912A JP 2017213057 A JP2017213057 A JP 2017213057A JP 2017213057 A JP2017213057 A JP 2017213057A JP 2019086912 A JP2019086912 A JP 2019086912A
- Authority
- JP
- Japan
- Prior art keywords
- mode
- interest
- user
- face
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、講義等の内容に興味を持っているか否かを判定する、関心度計測技術に関する。 The present invention relates to an interest level measurement technique that determines whether or not the user is interested in the content of a lecture or the like.
会議参加者の視認領域の重なりを検知して注目情報(注目領域、注目時間)を検出する技術が知られている。 There is known a technique for detecting an overlap of visual areas of a conference participant and detecting attention information (an attention area, an attention time).
注目情報の作成方法としては、例えば特許文献1に記載の技術が知られている。特許文献1には、「注目情報処理部108は、会議参加者の視認領域の重なりを検知する。図3(C)中の符号240は、視認領域が重なった領域(重複領域)を示す。重複領域240は、左上原点の2次元の座標値(x,y)と、領域の幅と高さ(w,h)を持ち、場所の特定とサイズ計算が可能である。注目情報処理部108は、重複領域の検知結果に基づいて、注目情報を作成する。注目情報は、会議参加者の注目を集めたシーンに関する情報である。 For example, the technology described in Patent Document 1 is known as a method of creating attention information. In Patent Document 1, “the focused information processing unit 108 detects an overlap of the visual recognition areas of the conference participants. Reference numeral 240 in FIG. 3C indicates an area (overlap area) in which the visual recognition areas overlap. The overlapping area 240 has two-dimensional coordinate values (x, y) of the upper left origin and the width and height (w, h) of the area, and can specify the place and calculate the size. Creates attention information based on the detection result of the overlapping area, which is information about a scene that has attracted the attention of the meeting participants.
具体的には、注目情報は、少なくとも、注目領域と、注目を集めた時間(注目時間)とを含む。注目領域は、会議参加者の注目を集めた領域である。注目領域は、会議データにおいて、視認領域の重なりが検出されたフレーム同士の重なりが連続する場合に、当該連続するフレーム間での視認領域の論理和演算により得られる(OR領域である)。注目時間は、会議データにおいて、視認領域の重なりが検出されるフレームの連続数に対応する。」ことが記載されている。特許文献1に記載の検出方法は、会議において参加者の注目を集めた内容に絞って再生する仕組みを提供できる。 Specifically, the attention information includes at least a region of interest and a time when attention was focused (time of attention). The attention area is an area where the attention of the meeting participants is collected. The attention area is obtained by OR operation of the visual recognition areas between the continuous frames when the overlapping of the frames in which the visual recognition areas are detected in the conference data is continuous (OR area). The attention time corresponds to the number of consecutive frames in which overlapping of the viewing areas is detected in the conference data. Is stated. The detection method described in Patent Document 1 can provide a mechanism for focusing and reproducing the content of the participants' attention at the conference.
特許文献1の技術では、参加者の瞳の位置、及び、顔の向きに基づいて予測することで、視認領域を抽出するため、顔が一定の大きさ以上でないと顔を検出できず、人数をカウントできない、という課題があった。 In the technique of Patent Document 1, the visual recognition area is extracted by predicting based on the position of the pupil of the participant and the direction of the face, so the face can not be detected unless the size is a certain size or more. There was a problem that it could not count.
本発明の一側面は、注目対象に対するユーザの関心度を計測する関心度計測システムであって、ユーザの状態を撮影する撮像装置からのカラー画像を入力として得る演算装置を備え、演算装置は、カラー画像中にあるユーザの顔を認識し、顔の数をカウントする第1モードと、カラー画像中の所定のRGB値を持つ画素の面積を算出し、面積に基づいて顔の数を推定する第2モードと、を切替可能に構成される。 One aspect of the present invention is a degree-of-interest measurement system that measures the degree of interest of a user to a target of interest, and includes an arithmetic device that obtains a color image from an imaging device that captures a user's state. Recognizes the user's face in the color image, calculates the area of the pixel with a predetermined RGB value in the color image and the first mode to count the number of faces, and estimates the number of faces based on the area The second mode is configured to be switchable.
本発明の他の一側面は、演算装置、記憶装置、入力装置、出力装置を備える計算機を用いて、会場における注目対象に対するユーザの関心度を計測する関心度計測方法であって、入力装置によりユーザの状態を撮影した撮像装置からのカラー画像を取得し、演算装置は、カラー画像中にあるユーザの顔をパターン認識し、認識結果により関心度を算出する第1モードと、カラー画像中の所定の色の面積を算出し、面積に基づいて関心度を算出する第2モードと、を切替可能とする。 Another aspect of the present invention is a method of measuring the degree of interest of a user with respect to a target of interest in a hall using a computer provided with a computing device, a storage device, an input device, and an output device, using an input device A first mode for acquiring a color image from an imaging device that has captured the state of the user, the arithmetic device pattern-recognizing the user's face in the color image, and calculating the degree of interest based on the recognition result; The area of a predetermined color is calculated, and switching to the second mode in which the degree of interest is calculated based on the area is enabled.
本発明によれば、顔が一定の大きさ以下でも、講義等の内容に興味を持っているか否かを判定することが可能になる。上記以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。 According to the present invention, it is possible to determine whether or not the user is interested in the contents of a lecture or the like even if the face is smaller than a certain size. Problems, configurations and effects other than the above are clarified by the description of the following embodiments.
以下、本発明の実施例を、図面を用いて説明する。ただし、本発明は以下に示す実施の形態の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。 Hereinafter, embodiments of the present invention will be described using the drawings. However, the present invention should not be construed as being limited to the description of the embodiments below. Those skilled in the art can easily understand that the specific configuration can be changed without departing from the spirit or the spirit of the present invention.
以下に説明する発明の構成において、同一又は類似する構成又は機能には同一の符号を付し、重複する説明は省略する。 In the configurations of the invention described below, the same or similar configurations or functions are denoted by the same reference numerals, and overlapping descriptions will be omitted.
本明細書における「第1」、「第2」、「第3」等の表記は、構成要素を識別するために付するものであり、必ずしも、数又は順序を限定するものではない。 In the present specification, the expressions “first”, “second”, “third” and the like are used to identify components, and are not necessarily limited in number or order.
図面等において示す各構成の位置、大きさ、形状、及び範囲等は、発明の理解を容易にするため、実際の位置、大きさ、形状、及び範囲等を表していない場合がある。したがって、本発明では、図面等に開示された位置、大きさ、形状、及び範囲等に限定されない。 The positions, sizes, shapes, ranges, and the like of the components shown in the drawings and the like may not represent actual positions, sizes, shapes, ranges, and the like in order to facilitate understanding of the invention. Accordingly, the present invention is not limited to the position, size, shape, range, and the like disclosed in the drawings and the like.
以下の実施例の代表的な一例を示せば以下の通りである。すなわち、講義等の参加者が、話の内容に興味を持っているか否かを計測する計算機システムであって、計算機システムは、狭い会場では顔検出の可否で、広い会場では顔の輝度や色情報から関心を持っている人の層を検出する演算装置を備える。また、計算機システムは、撮像装置、演算装置、演算装置に接続される記憶装置、及び演算装置に接続されるインタフェースを有し、インタフェースを介して、撮像装置が取得したカラー画像を用いた人数カウント処理に使用する画像を格納するデータベースと接続する。演算装置は、顔検出ができるか否かで人数をカウントし、顔検出ができる場合は顔領域の個数から人数をカウントする。 It will be as follows if a representative example of the following examples is shown. That is, it is a computer system that measures whether or not participants in a lecture or the like are interested in the contents of the story, and the computer system is capable of face detection in a narrow venue and the brightness and color of a face in a wide venue. A computing device is provided which detects a layer of a person of interest from the information. In addition, the computer system has an imaging device, a computing device, a storage device connected to the computing device, and an interface connected to the computing device, and counts the number of people using a color image acquired by the imaging device via the interface Connect with a database that stores images used for processing. The arithmetic device counts the number of people according to whether or not face detection can be performed, and counts the number of people from the number of face areas when face detection can be performed.
図1は、実施例1の関心度計測システム100の構成の一例を示す図である。関心度計測システム100は、計算機システム101、及びマザーブレイン計算機システム102から構成される。また、計算機システム101は、ネットワーク103を介してマザーブレイン計算機システム102に接続する。図1に示す計算機システム101は一つであるが、複数あってもよい。計算機システム101とマザーブレイン計算機システム102は、ともに通常のコンピュータで構成することができる。
FIG. 1 is a diagram illustrating an example of the configuration of the interest
本実施例では、計算機システム101は講義やイベントが行なわれる1または複数の会場104に設置されることを想定している。計算機システム101は、会場104においてプレゼンテーションや展示の状況を表すデータを取得する。例えば、映像、音声、あるいは、入場者数など、入力装置を介して取得される各種データである。計算機システム101は、その他、会場の運営を補助する表示機能や入力機能等を備えても良い。
In this embodiment, it is assumed that the
また、マザーブレイン計算機システム102は、遠隔地にあって情報を管理し、1または複数の会場104全体を統括する。もっとも、計算機システム101とマザーブレイン計算機システム102を一体として構成し、会場104に設置することも可能である。
In addition, the mother
なお、会場104には計算機システム101の代わりに、ディスプレイ、集音マイク、及びスピーカから構成される機器のみを置き、ネットワーク103を介してデータを送受信することで、計算機システム101の機能をマザーブレイン計算機システム102に分担させてもよい。
It should be noted that instead of the
実施例1の関心度計測システム100は、会場104において取得された、プレゼンテーションや展示の状況を表すデータに基づいて、プレゼンテーションや展示に参加した人々(以下ユーザという)の関心度を計測する。
The interest
図2は、実施例1の計算機システム101のハードウェア構成及びソフトウェア構成を示す図である。計算機システム101は、例えば一般的なコンピュータで構成することができ、演算装置201、記憶装置202、通信装置203、撮像装置204、音声再生装置205、集音装置206を有する。撮像装置204および集音装置206は入力装置の一種であり、音声再生装置205は出力装置の一種である。この他にも公知の入出力装置を備えてよい。各ハードウェアは、内部バス等を介して互いに接続される。
FIG. 2 is a diagram showing a hardware configuration and a software configuration of the
演算装置201は、CPU(Central Processing Unit)等の装置である。演算装置201は、記憶装置202に格納されるプログラムを実行する。演算装置201がプログラムにしたがって処理を実行することによって、特定の機能を実現するモジュールとして動作する。以下の説明では、モジュールを主語に処理を説明する場合、演算装置201が当該モジュールを実現するプログラムを実行していることを表す。
The
記憶装置202は、メモリ等の装置であり、演算装置201が実行するプログラム及びプログラムの実行に必要な情報を格納する。また、記憶装置202は、プログラムが使用するワークエリアを含む。なお、計算機システム101は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等の記憶装置を有してもよい。
The storage device 202 is a device such as a memory, and stores a program executed by the
本実施例では、記憶装置202は、制御モジュール211を実現するプログラムを格納し、また、画像DB212を格納する。通信装置203は、ネットワークインタフェース等の装置であり、ネットワーク103を介して他の装置と接続する。撮像装置204は、カメラ等の装置であり、所定の範囲のカラー画像を取得する。後述するように、本実施例では撮像装置は例えば講師やスクリーンの位置に設置して、ユーザの様子を撮影する。音声再生装置205は、スピーカ等の装置であり、発話内容を音声として再生する。集音装置206は、集音マイク等の装置であり音声を取得する。
In the present embodiment, the storage device 202 stores a program for realizing the
本実施例では、撮像装置204が取得した画像を用いて関心度が計測される。関心度の計測は、ユーザの顔が所定の方向を向いているかどうかを判定して行なう。例えば、100名のユーザが参加している場合、その内の50名が所定の方向を向いている場合、その50人は所定の方向を注目しているものとして、関心度は50%と判定される。
In the present embodiment, the degree of interest is measured using the image acquired by the
例えば、講義における出席者の関心度を計測する場合には、講師あるいはモニター画面の位置に撮像装置204であるカメラを備え付け、カメラ方向を向いている出席者の顔を検出して関心度を算出する。すなわち、下や横を向いていたり別の方向を向いている人は、カメラ方向に顔を向けていない(注目していない)ので、関心がないものと判定する。本実施例では、顔の検出手法として、パターン認識を用いた顔数のカウントによる第1の手法(第1モード)と、色情報(肌色)を用いた顔部分の面積割合による第2の手法(第2モード)を切り替えて用いることにより、会場の特性によらず正確な関心度の計測を可能とする。
For example, when measuring the degree of interest of an attendee in a lecture, a camera as the
顔数のカウントによる第1の手法では、デジタルカメラなどで公知となっている顔パターンの認識により、顔の数をカウントする。色情報顔部分の面積割合による第2の手法では、カラー画像信号の各画素のRGB要素が、肌色を示す所定の色の範囲か否かを判定し、画像中の肌色の面積が顔部分の面積を示すものとする。第2の手法では色のほか、輝度の情報を用いても良い。 In the first method based on the count of the number of faces, the number of faces is counted by recognition of a face pattern which is known in digital cameras and the like. In the second method based on the area ratio of the color information face part, it is determined whether the RGB element of each pixel of the color image signal is a predetermined color range indicating skin color, and the skin color area in the image is the face part Indicates the area. In the second method, information on luminance may be used in addition to color.
図3は、実施例1の関心度計測システム100が利用する管理データベース300のデータ構造の一例を示す図である。図3のデータの例では、複数の会場104のデータを一括して管理しており、マザーブレイン計算機システム102が管理するものとしている。ただし、会場ごとのデータを其々各会場104の計算機システム101が管理していても良い。
FIG. 3 is a view showing an example of the data structure of the
図3を用いて管理データベース300に格納される情報について説明する。管理データベース300は、ユーザ110をカウントした際の人数を保持するため等に使用するデータベースである。管理データベース300は、会場104のIDである会場ID301、会場名302、人数303、座席数304、注目人数305、日時306から構成されるエントリを含む。一つのエントリが一つのデータベースのグループ(部分グループ)に対応する。
Information stored in the
会場ID301は、会場ごとの識別情報を格納するフィールドである。会場名302は会場名を格納するフィールドである。人数303は、入場者数を格納するフィールドである。入場者数は、例えばユーザが入場するたびにカウントし、計算機システム101の入力手段から入力することができる。あるいは、入場チケットの販売数が入場者数と等しいと推定し、チケット数をもとにして入力してもよい。座席数304は座席がある場合には座席数であり、会場の定員に相当する数を格納するフィールドである。注目人数305は、上述の第1の手法あるいは第2の手法により測定された、注視している人数を格納するフィールドである。
The
上記のフィールドは一例であり、他のフィールドを持っていても良いし、一部を省略しても良い。人数303や座席数304は、関心度を測定する際の母数となる全ユーザ数を設定するために利用される。例えば、母数として人数303をそのまま利用することができる。あるいは、全席指定でチケット完売の場合には、座席数304を母数とすることができる。これらは一例であって、他の方法で母数を推定してもよい。例えば、管理データベース300の情報を使用しない場合には、顔のパターン認識と同様に、人の体のパターン認識を行なって、母数を推定することも可能である。
The above fields are examples and may have other fields or may omit some of them. The number of
図4は、実施例1の計算機システム101が実行する処理の概要を示す図である。計算機システム101は、周期的又はイベントの発生を検知した場合、撮像装置204を用いて画像を取得する(ステップS401)。
FIG. 4 is a diagram showing an outline of processing executed by the
次に、計算機システムの制御モジュール211は、管理データベース300から、関心度測定のための第1の手法あるいは第2の手法を切り替えるためのパラメータを取得する(ステップS402)。
Next, the
図5により、第1の手法あるいは第2の手法を切り替える概念を説明する。本実施例では、関心度を所定方向を向いているユーザの顔をもとにして測定する。この場合、会場にはスタジアムや公会堂のような広い会場(例えば300m四方)と、教室や会議室のような狭い会場(10m四方)がある。広い会場では、撮像装置204で撮像した画像中の顔部分の大きさが小さく、かつ、顔の数が多くなり、解像度が不足、あるいは、処理量が多くなりすぎる場合がある。この場合、顔パターン認識による第1の手法では、広い会場の顔認識ができず、測定が困難あるいは不正確となる場合がある。そこで、本実施例では、会場の広さにより第1の手法と第2の手法を切り替える。ここで広さとは、大きさ、面積、収容人数と言い換えることもできる。以降これらを「規模」ということがある。
The concept of switching the first method or the second method will be described with reference to FIG. In the present embodiment, the degree of interest is measured based on the face of the user facing in a predetermined direction. In this case, there are large venues (for example, 300 m square) such as a stadium or public hall and small venues (10 m square) such as a classroom or a conference room. In a large venue, the size of the face portion in the image captured by the
このための規模のパラメータとして、例えば管理データベース300の人数303や座席数304を用いることができる。例えば、閾値を300(人)としてパラメータと比較し、閾値未満であれば第1の手法(顔パターン認識)、閾値以上であれば第2の手法(肌色面積検出)とする(ステップS403)。
For example, the number of
すなわち、図4に示すようにパラメータが閾値以上であれば、広い会場と判断して、RGB信号を元に顔の肌色面積を算出する。これは所定のRGB値を有する画素数をカウントすることで行なうことができる(ステップS404)。さらに肌色面積から顔領域の個数を算出するために、顔1個あたりの面積で肌色面積を除する(ステップS405)。顔1個あたりの面積は予め規定値を設定しておくか、人数303や座席数304と撮像装置204の撮像範囲から推定を行なって求める。
That is, as shown in FIG. 4, if the parameter is equal to or greater than the threshold, it is determined that the venue is wide and the skin color area of the face is calculated based on the RGB signal. This can be done by counting the number of pixels having a predetermined RGB value (step S404). Furthermore, in order to calculate the number of face areas from the skin color area, the skin color area is divided by the area per face (step S405). The area per face may be determined in advance by setting a prescribed value or by estimating the number of
なお、上記では人数303や座席数304を元に会場の広さを判定しているが、他の方法でもよい。例えば、予め管理データベース300に会場の広さのデータを格納しておき、会場の広さを閾値と比較しても良い。あるいは、第1の手法と第2の手法のどちらを用いるかを会場ごとに設定しておいても良い。例えば、図3の例で会場名302が「会議室」の場合は第1の手法で、「展示場」の場合は第2の手法で行なうようにすることが考えられる。
Although the size of the hall is determined based on the number of
一方、パラメータが閾値未満であれば、狭い会場と判断して、顔領域の個数算出をパターン認識により実行する(ステップS406)。制御モジュール311は、受信した画像から顔領域を検出する。顔領域を検出する処理は公知の技術があり、例えば顔のパターンと画像中のパターンを照合することにより可能である。 On the other hand, if the parameter is less than the threshold, it is determined that the venue is narrow, and the number of face areas is calculated by pattern recognition (step S406). The control module 311 detects a face area from the received image. The process of detecting the face area is known in the art, and can be performed, for example, by comparing the face pattern with the pattern in the image.
ステップS405あるいはS406の結果、特定方向を向いている人、すなわち注目している人の数が算出できる。制御モジュール311は、顔領域の個数算出結果から注目人数をカウントする(ステップS407)。 As a result of step S405 or S406, it is possible to calculate the number of people who are facing a specific direction, that is, people who are paying attention. The control module 311 counts the number of notable people from the calculation result of the number of face areas (step S407).
次に、制御モジュール311は、管理データベース300から母数となる人数303や座席数304を取得する。そして、ステップS407のカウント結果を母数で割り算することで、関心度(%)を得る(ステップS408)。
Next, the control module 311 acquires, from the
実施例1では、管理データベース300の情報を利用し、予め会場の広さが既知である場合を例にした。しかし、例えば会場が仮設会場であり、予め会場の広さが不明の場合もある。実施例2ではこの場合にも対応可能な例を説明する。基本的な構成は実施例1と同じであるが、管理データベース300のデータからは会場の広さを示すパラメータが得られない場合を想定している。
In the first embodiment, the information in the
図6は、実施例2の計算機システム101が実行する処理の概要を示す図である。計算機システム101は、周期的又はイベントの発生を検知した場合、撮像装置204を用いて画像を取得する。
FIG. 6 is a diagram showing an outline of processing executed by the
まず、計算機システムの制御モジュール211は、受信した画像を用いて、画像の解像度を算出する(ステップS501)。
First, the
次に顔検出個数の上限値(閾値)を算出する(ステップS502)。すなわち、一般的にパターン認識による顔個数の検出には処理速度による制約があり、あまりに顔の数が多い場合にはカウントが行なえない場合がある。これは主にソフトウェアによる処理量に依存する。したがって、上限値を超えた場合には顔数のカウントができない。このとき、制御モジュール311は、ステップS501で算出された画像の解像度から上限値を自動で算出する。また、上限値を規定値あるいは手動で与えても良い。 Next, the upper limit value (threshold value) of the number of detected faces is calculated (step S502). That is, detection of the number of faces by pattern recognition is generally restricted by the processing speed, and when the number of faces is too large, counting may not be possible. This mainly depends on the amount of processing by software. Therefore, when the upper limit is exceeded, the number of faces can not be counted. At this time, the control module 311 automatically calculates the upper limit value from the resolution of the image calculated in step S501. Also, the upper limit value may be given manually or manually.
制御モジュール311は、受信した画像から顔領域を検出する(ステップS503)。顔領域を検出する処理は公知の技術があり、例えばリファレンスとなる顔のパターンと画像中のパターンを照合することにより可能である。 The control module 311 detects a face area from the received image (step S503). The process of detecting the face area is known in the art, and can be performed, for example, by comparing the pattern of the reference face with the pattern in the image.
制御モジュール311は、顔領域が検出できているか否かを判定する。すなわちパターン認識が成功したかを判定する。会場が広く、あまりに画像中の顔の大きさが小さい場合には、解像度が不足しパターン認識ができない場合がある(ステップS504)。 The control module 311 determines whether a face area can be detected. That is, it is determined whether pattern recognition has succeeded. If the venue is large and the size of the face in the image is too small, the resolution may be insufficient and pattern recognition may not be possible (step S504).
顔領域が検出できていないと判定された場合、制御モジュール311は、顔の肌色面積を算出する処理を実行する(ステップS404)。顔の肌色面積の算出には、肌色領域の面積を時系列に連続または断続的に計測してもよい。制御モジュール311は、顔の肌色面積算出結果から顔領域の個数算出処理を実行する(ステップS405)。制御モジュール311は、顔領域の個数算出結果から人数をカウントする(ステップS407)。これらの処理は実施例1と同様である。 If it is determined that the face area can not be detected, the control module 311 executes a process of calculating the skin color area of the face (step S404). In order to calculate the skin color area of the face, the area of the skin color area may be measured continuously or intermittently in time series. The control module 311 executes the process of calculating the number of face areas based on the calculation result of the skin color area of the face (step S405). The control module 311 counts the number of people from the calculation result of the number of face areas (step S407). These processes are the same as in the first embodiment.
ステップS504で顔領域が検出できていると判定された場合、制御モジュール311は、顔領域の検出結果から顔領域の個数算出処理を実行する(ステップS406)。制御モジュール311は、顔個数のカウント中、算出された顔領域の個数が閾値以上か否かを判定している(ステップS506)。検出された顔領域の個数が閾値(上限)を超えた場合には、それ以降のカウントはできないあるいは不正確と判定する。 If it is determined in step S504 that the face area can be detected, the control module 311 executes the process of calculating the number of face areas based on the detection result of the face area (step S406). During counting of the number of faces, the control module 311 determines whether the calculated number of face areas is equal to or greater than a threshold (step S506). If the number of detected face areas exceeds a threshold (upper limit), it is determined that the subsequent counting is impossible or inaccurate.
そこで、顔領域の個数が閾値以上と判定された場合、制御モジュール311は、顔の肌色面積を算出する処理を実行する(ステップS404)。顔の肌色面積の算出には、肌色領域の面積を時系列に連続または断続的に計測してもよい。制御モジュール311は、顔の肌色面積算出結果から顔領域の個数算出処理を実行する(ステップS405)。 Therefore, when it is determined that the number of face areas is equal to or more than the threshold, the control module 311 executes a process of calculating the skin color area of the face (step S404). In order to calculate the skin color area of the face, the area of the skin color area may be measured continuously or intermittently in time series. The control module 311 executes the process of calculating the number of face areas based on the calculation result of the skin color area of the face (step S405).
顔領域の個数が値未満であると判定された場合、制御モジュール311は、顔領域の個数算出結果から人数をカウントする(ステップS407)。 If it is determined that the number of face areas is less than the value, the control module 311 counts the number of people from the calculation result of the number of face areas (step S407).
基幹業務システムに実施例2の計算機システムを適用した場合、会場についての情報がない場合であっても、狭い会場では、顔を検出できるか否かで人数をカウントし、広い会場では、肌色輝度領域の面積を時系列に連続または断続的に計測することにより、顔が一定の大きさ以下でも、講義等の内容に興味を持っているか否かを判定することが可能になる。 When the computer system of the second embodiment is applied to the core business system, the number of people is counted in the narrow hall whether or not the face can be detected even if there is no information about the hall. By measuring the area of the region continuously or intermittently in time series, it is possible to determine whether or not the user is interested in the contents of a lecture or the like even if the face is smaller than a certain size.
実施例3では、プレゼンテーションや授業を見ているユーザの状況を演者にフィードバックする点が実施例1と異なる。以下、実施例1との差異を中心に実施例3について説明する。実施例3の計算機システムの構成は、実施例1の計算機システムの構成と同一である。実施例3の計算機システム101、及びマザーブレイン計算機システム102の構成は、実施例1の各装置の構成と同一である。また、各装置が保持するデータベースのデータ構造は、実施例1のデータベースのデータ構造と同一である。実施例3で特に説明する部分以外は、実施例1あるいは2と同様と考えてよい。
The third embodiment differs from the first embodiment in that the situation of the user who is watching a presentation or a class is fed back to the performer. The third embodiment will be described below focusing on the difference from the first embodiment. The configuration of the computer system of the third embodiment is the same as the configuration of the computer system of the first embodiment. The configurations of the
図7で、実施例3の注視人数算出処理について説明する。制御モジュール311は、管理データベース300から母数となるユーザ数(全出席者数)を取得する(ステップS701)。そして、時系列に連続または断続的に計測することにより、実施例1あるいは2と同様に注目人数を算出する(ステップS407)。ついで、母数と算出された注視人数との割合により、関心度(注目度)を算出する(ステップS408)。 The number of watched people calculation process according to the third embodiment will be described with reference to FIG. The control module 311 acquires the number of users (the number of all attendees) serving as a parameter from the management database 300 (step S701). Then, by measuring continuously or intermittently in time series, the number of people of interest is calculated as in the first or second embodiment (step S407). Next, the degree of interest (degree of attention) is calculated from the ratio of the parameter and the calculated number of gazers (step S408).
次に母数と注目人数、注目度を画面に表示する(ステップS702)。また、フィードバックは画面に表示するだけでなく、アラームなどの音声でフィードバックしてもよい。
他の処理は実施例1あるいは2と同一である。ただし本実施例では、注視人数や関心度が時系列的に表示され、時間的変化を知ることができる。
Next, the parameter number, the number of attention persons, and the attention degree are displayed on the screen (step S702). Further, the feedback may not only be displayed on the screen, but may be audio feedback such as an alarm.
The other processes are the same as in the first or second embodiment. However, in the present embodiment, the number of gazers and the degree of interest are displayed in time series, so that temporal changes can be known.
図8には、母数と注視人数、注目度を画面1010に表示する例を示している。注目度メータとして注目している人の人数の割合(%)が表示される。
FIG. 8 shows an example in which the parameter number, the number of people watching, and the degree of attention are displayed on the
実施例3によれば、プレゼンテーションや授業を見ているユーザの状況を演者にリアルタイムにフィードバックするため、演者が説明内容を工夫することにより、ユーザの理解度向上が期待できる。 According to the third embodiment, in order to feed back the situation of the user who is watching a presentation or a class to the performer in real time, when the performer devises the content of the explanation, it is possible to expect improvement in the user's understanding level.
実施例4では、プレゼンテーションや商品を見ているユーザの状況を記録する点が実施例1と異なる。以下、実施例1との差異を中心に実施例4について説明する。 The fourth embodiment is different from the first embodiment in that the situation of the user who is viewing a presentation or a product is recorded. Hereinafter, the fourth embodiment will be described focusing on the difference from the first embodiment.
実施例4の計算機システムの構成は、実施例1の計算機システムの構成と同一である。実施例4の計算機システム101、及びマザーブレイン計算機システム102の構成は、実施例4の各装置の構成と同一である。また、各装置が保持するデータベースのデータ構造は、実施例4のデータベースのデータ構造と同一である。
The configuration of the computer system of the fourth embodiment is the same as the configuration of the computer system of the first embodiment. The configurations of the
図9により実施例4の処理の流れを説明する。実施例4で特に説明する部分以外は、実施例1あるいは2と同様と考えてよい。まず、実施例4の注視人数算出処理について説明する。制御モジュール311は、母数となる人数をカウントする(ステップS701)。 The flow of the process of the fourth embodiment will be described with reference to FIG. Except for parts particularly described in the fourth embodiment, it may be considered similar to the first or second embodiment. First, the watched number of people calculation process of the fourth embodiment will be described. The control module 311 counts the number of people to be a parameter (step S701).
次に、注目対象を特定する。例えば、講義においてスクリーンにスライドが順次表示されており、各スライドに対するユーザの関心度を測定する場合を考える。その場合には、表示されるスライドに対応して、注目対象が設定される。注目対象は例えば現在表示しているスライドの番号で識別される(ステップS1101)。注目対象はプレゼンテーション資料などの電子データや商品などの実物でもよい。 Next, an attention target is specified. For example, it is assumed that slides are sequentially displayed on the screen in a lecture, and the user's interest in each slide is measured. In that case, the target of attention is set corresponding to the slide to be displayed. The target of interest is identified, for example, by the number of the slide currently displayed (step S1101). The target of attention may be real data such as presentation data and products such as electronic data.
注目対象ごとに時系列に連続または断続的に計測することにより、注目人数を算出する(ステップS407)。算出された注目対象ごとの注目人数と母数との割合により、関心度を算出する(ステップS408)。算出された注目対象ごとの関心度を、例えば画像DB212に記録する(ステップS1104)。他の処理は実施例1または2と同一である。 The attention number is calculated by measuring continuously or intermittently in time series for each attention target (step S407). The degree of interest is calculated from the calculated ratio of the number of attention persons and the number of attention for each attention object (step S408). The calculated degree of interest for each target of interest is recorded, for example, in the image DB 212 (step S1104). The other processes are the same as in Example 1 or 2.
図10は画像DBに記録されたデータの概念図である。注目対象であるスライドの番号に対応して、関心度が記録される。実施例4によれば、プレゼンテーションや商品を見ているユーザの注目度を記録するため、注目度の高い資料や商品の陳列などが期待できる。 FIG. 10 is a conceptual view of data recorded in the image DB. The degree of interest is recorded corresponding to the slide number that is the target of interest. According to the fourth embodiment, since the degree of attention of the user who is viewing a presentation or a product is recorded, it is possible to expect display of a material or product with a high degree of attention.
上記説明した実施例によれば、狭い会場では、顔を検出できるか否かで人数をカウントし、広い会場では、肌色輝度領域の面積を時系列に連続または断続的に計測することにより、顔が一定の大きさ以下でも、講義等の内容に興味を持っているか否かを判定することが可能になる According to the embodiment described above, the number of people is counted as to whether or not a face can be detected in a narrow venue, and the face is measured continuously or intermittently in time series in a large venue with the area of the skin color luminance region. It is possible to determine whether you are interested in the contents of lectures etc.
100 関心度計測システム
101 計算機システム
102 マザーブレイン計算機システム
103 ネットワーク
104 会場
100 Degree of
Claims (11)
前記ユーザの状態を撮影する撮像装置からのカラー画像を入力として得る演算装置を備え、
前記演算装置は、
前記カラー画像中にある前記ユーザの顔を認識し、顔の数をカウントする第1モードと、
前記カラー画像中の所定のRGB値を持つ画素の面積を算出し、該面積に基づいて顔の数を推定する第2モードと、
を切替可能に構成される、
関心度計測システム。 An interest measurement system for measuring a user's interest in an object of interest, comprising:
The arithmetic device is provided with an input device that obtains a color image from an imaging device that captures the state of the user.
The arithmetic device is
A first mode for recognizing the user's face in the color image and counting the number of faces;
A second mode for calculating an area of a pixel having a predetermined RGB value in the color image and estimating the number of faces based on the area;
Configured to be switchable,
Degree of interest measurement system.
入力されるパラメータを閾値と比較し、
比較結果に基づいて、前記第1モードと前記第2モードを切り替える、
請求項1記載の関心度計測システム。 The arithmetic device is
Compare the input parameter with the threshold,
Switching between the first mode and the second mode based on a comparison result,
The interest measurement system according to claim 1.
前記注目対象と前記ユーザの存在が想定される会場の大きさ、および、前記会場にいると想定される前記ユーザの数の少なくとも一つの情報を格納する管理データベースからの情報を入力とし、
前記会場の大きさ、および、前記ユーザの数の少なくとも一つの情報を前記パラメータとして、前記第1モードと前記第2モードを切り替える、
請求項2記載の関心度計測システム。 The arithmetic device is
Information from a management database storing at least one information of the size of the venue where the presence of the target and the user is assumed and the number of the users assumed to be at the venue is input,
The first mode and the second mode are switched using the size of the hall and at least one piece of information of the number of users as the parameter.
The interest measurement system according to claim 2.
前記カラー画像中にある前記ユーザの顔の認識結果に基づいて、
前記第1モードと前記第2モードを切り替える、
請求項1記載の関心度計測システム。 The arithmetic device is
Based on the recognition result of the face of the user in the color image,
Switching between the first mode and the second mode,
The interest measurement system according to claim 1.
前記カラー画像中にある前記ユーザの顔の数のカウント結果に基づいて、
前記第1モードと前記第2モードを切り替える、
請求項1記載の関心度計測システム。 The arithmetic device is
Based on the count result of the number of faces of the user in the color image,
Switching between the first mode and the second mode,
The interest measurement system according to claim 1.
前記入力装置により前記ユーザの状態を撮影した撮像装置からのカラー画像を取得し、
前記演算装置は、
前記カラー画像中にある前記ユーザの顔をパターン認識し、認識結果により関心度を算出する第1モードと、
前記カラー画像中の所定の色の面積を算出し、該面積に基づいて関心度を算出する第2モードと、
を切替可能とする、
関心度計測方法。 An interest level measurement method for measuring a user's level of interest in an object of interest in a hall using a computer including an arithmetic unit, a storage unit, an input unit, and an output unit.
Acquiring a color image from an imaging device that captures the state of the user by the input device;
The arithmetic device is
A first mode for pattern-recognizing the face of the user in the color image, and calculating a degree of interest from the recognition result;
A second mode for calculating an area of a predetermined color in the color image and calculating a degree of interest based on the area;
Make it switchable,
Degree of interest measurement method.
前記会場の規模に基づいて選択される、
請求項6記載の関心度計測方法。 The first mode and the second mode are
Selected based on the size of the venue,
The interest level measurement method according to claim 6.
前記会場の規模が所定閾値以上の場合、前記第2モードを選択する、
請求項7記載の関心度計測方法。 If the size of the venue is less than a predetermined threshold, select the first mode,
The second mode is selected when the size of the venue is equal to or greater than a predetermined threshold.
The interest level measurement method according to claim 7.
前記ユーザの顔のパターン認識結果に基づいて選択される、
請求項6記載の関心度計測方法。 The first mode and the second mode are
It is selected based on the pattern recognition result of the user's face,
The interest level measurement method according to claim 6.
前記ユーザの顔のパターン認識が成功しなかった場合、前記第2モードを選択する、
請求項9記載の関心度計測方法。 If the pattern recognition of the user's face is successful, the first mode is selected,
If the pattern recognition of the face of the user is not successful, the second mode is selected.
The interest level measurement method according to claim 9.
前記ユーザの顔のパターン認識が成功しなかった場合、前記第2モードを選択する
請求項9記載の関心度計測方法。 If the pattern recognition of the face of the user succeeds, the face area where the pattern recognition is performed is counted, and if the count result is less than a predetermined threshold, the first mode is selected, and if the count result is equal to or more than a predetermined threshold Select the second mode,
The method according to claim 9, wherein if the pattern recognition of the face of the user is not successful, the second mode is selected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017213057A JP7001429B2 (en) | 2017-11-02 | 2017-11-02 | Interest measurement system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017213057A JP7001429B2 (en) | 2017-11-02 | 2017-11-02 | Interest measurement system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019086912A true JP2019086912A (en) | 2019-06-06 |
JP7001429B2 JP7001429B2 (en) | 2022-01-19 |
Family
ID=66764217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017213057A Active JP7001429B2 (en) | 2017-11-02 | 2017-11-02 | Interest measurement system and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7001429B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111619118A (en) * | 2019-12-26 | 2020-09-04 | 南京铖联激光科技有限公司 | Focal plane adjustment closed-loop control system and control method applied to 3D printing equipment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002269290A (en) * | 2001-03-09 | 2002-09-20 | Sony Corp | Advertisement delivery system |
JP2005025328A (en) * | 2003-06-30 | 2005-01-27 | Ntt Data Corp | Congestion monitoring system and congestion monitoring program |
JP2014232362A (en) * | 2013-05-28 | 2014-12-11 | Kddi株式会社 | System for analyzing and predicting moving object action |
WO2017018012A1 (en) * | 2015-07-28 | 2017-02-02 | ソニー株式会社 | Information processing system, information processing method, and storage medium |
-
2017
- 2017-11-02 JP JP2017213057A patent/JP7001429B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002269290A (en) * | 2001-03-09 | 2002-09-20 | Sony Corp | Advertisement delivery system |
JP2005025328A (en) * | 2003-06-30 | 2005-01-27 | Ntt Data Corp | Congestion monitoring system and congestion monitoring program |
JP2014232362A (en) * | 2013-05-28 | 2014-12-11 | Kddi株式会社 | System for analyzing and predicting moving object action |
WO2017018012A1 (en) * | 2015-07-28 | 2017-02-02 | ソニー株式会社 | Information processing system, information processing method, and storage medium |
Non-Patent Citations (2)
Title |
---|
LI-HUA ZOU,YUN-CHENG LIU: "A New Algorithm of Counting Human Based on Segmentation of Human Faces inColor Image", 2009 INTERNATIONAL CONFERENCE ON COMPUTATIONAL INTELLIGENCE AND SECURITY, JPN6021018026, 14 December 2009 (2009-12-14), US, pages 505 - 509, XP031597960, ISSN: 0004508656 * |
大野直樹、他3名: "注目度に基づく映像選択", 電子情報通信学会技術研究報告, vol. 第100巻第566号, JPN6021018025, 12 January 2001 (2001-01-12), JP, pages 53 - 58, ISSN: 0004508655 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111619118A (en) * | 2019-12-26 | 2020-09-04 | 南京铖联激光科技有限公司 | Focal plane adjustment closed-loop control system and control method applied to 3D printing equipment |
CN111619118B (en) * | 2019-12-26 | 2022-03-04 | 南京铖联激光科技有限公司 | Focal plane adjustment closed-loop control system and control method applied to 3D printing equipment |
Also Published As
Publication number | Publication date |
---|---|
JP7001429B2 (en) | 2022-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2521670C (en) | Automatic face extraction for use in recorded meetings timelines | |
JP4876687B2 (en) | Attention level measuring device and attention level measuring system | |
WO2017215295A1 (en) | Camera parameter adjusting method, robotic camera, and system | |
US8471889B1 (en) | Adjusting an image for video conference display | |
US8466952B2 (en) | Analysis of video composition of participants in a video conference | |
EP3008897A1 (en) | Providing user video having a virtual curtain to an online conference | |
CN107820037B (en) | Audio signal, image processing method, device and system | |
JP2007310454A (en) | Image evaluation device, subject concentration ratio calculation device, image evaluation program, and subject concentration ratio calculation program | |
EP3739573B1 (en) | Information processing device, information processing method, and program | |
JP2007102344A (en) | Automatic evaluation device, program, and method | |
US20120327099A1 (en) | Dynamically adjusted display attributes based on audience proximity to display device | |
JP2016213677A (en) | Remote communication system, and control method and program for the same | |
JP5489197B2 (en) | Electronic advertisement apparatus / method and program | |
JP2009267621A (en) | Communication apparatus | |
JPWO2009119288A1 (en) | Communication system and communication program | |
JP7001429B2 (en) | Interest measurement system and method | |
WO2021033592A1 (en) | Information processing apparatus, information processing method, and program | |
KR101468347B1 (en) | Method and arrangement for identifying virtual visual information in images | |
US20220189200A1 (en) | Information processing system and information processing method | |
JP2013182450A (en) | Location management program and location management device | |
WO2023084715A1 (en) | Information processing device, information processing method, and program | |
JP2017028688A (en) | Image managing device, image managing method and program | |
US9883142B1 (en) | Automated collaboration system | |
US20230141019A1 (en) | Attention Tracking of a Crowd | |
US20240137641A1 (en) | Framing in a video system using depth information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7001429 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |