JP7001429B2 - Interest measurement system and method - Google Patents

Interest measurement system and method Download PDF

Info

Publication number
JP7001429B2
JP7001429B2 JP2017213057A JP2017213057A JP7001429B2 JP 7001429 B2 JP7001429 B2 JP 7001429B2 JP 2017213057 A JP2017213057 A JP 2017213057A JP 2017213057 A JP2017213057 A JP 2017213057A JP 7001429 B2 JP7001429 B2 JP 7001429B2
Authority
JP
Japan
Prior art keywords
mode
interest
user
face
venue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017213057A
Other languages
Japanese (ja)
Other versions
JP2019086912A (en
Inventor
佑人 小松
伸宏 福田
大樹 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017213057A priority Critical patent/JP7001429B2/en
Publication of JP2019086912A publication Critical patent/JP2019086912A/en
Application granted granted Critical
Publication of JP7001429B2 publication Critical patent/JP7001429B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、講義等の内容に興味を持っているか否かを判定する、関心度計測技術に関する。 The present invention relates to a degree of interest measurement technique for determining whether or not an person is interested in the content of a lecture or the like.

会議参加者の視認領域の重なりを検知して注目情報(注目領域、注目時間)を検出する技術が知られている。 There is known a technique for detecting attention information (attention area, attention time) by detecting overlap of visual areas of conference participants.

注目情報の作成方法としては、例えば特許文献1に記載の技術が知られている。特許文献1には、「注目情報処理部108は、会議参加者の視認領域の重なりを検知する。図3(C)中の符号240は、視認領域が重なった領域(重複領域)を示す。重複領域240は、左上原点の2次元の座標値(x,y)と、領域の幅と高さ(w,h)を持ち、場所の特定とサイズ計算が可能である。注目情報処理部108は、重複領域の検知結果に基づいて、注目情報を作成する。注目情報は、会議参加者の注目を集めたシーンに関する情報である。 As a method for creating attention information, for example, the technique described in Patent Document 1 is known. In Patent Document 1, "The information processing unit 108 of interest detects the overlap of the viewing areas of the conference participants. Reference numeral 240 in FIG. 3C indicates an overlapping area (overlapping area). The overlapping region 240 has a two-dimensional coordinate value (x, y) of the upper left origin and a width and height (w, h) of the region, and can specify the location and calculate the size. Creates attention information based on the detection result of the overlapping area. The attention information is information about a scene that attracts the attention of the conference participants.

具体的には、注目情報は、少なくとも、注目領域と、注目を集めた時間(注目時間)とを含む。注目領域は、会議参加者の注目を集めた領域である。注目領域は、会議データにおいて、視認領域の重なりが検出されたフレーム同士の重なりが連続する場合に、当該連続するフレーム間での視認領域の論理和演算により得られる(OR領域である)。注目時間は、会議データにおいて、視認領域の重なりが検出されるフレームの連続数に対応する。」ことが記載されている。特許文献1に記載の検出方法は、会議において参加者の注目を集めた内容に絞って再生する仕組みを提供できる。 Specifically, the attention information includes at least a region of interest and a time of attention (time of interest). Areas of interest are areas that have attracted the attention of conference participants. The region of interest is obtained by ORing the visible regions between the consecutive frames when the overlapping of the frames in which the overlap of the visual regions is detected is continuous in the conference data (OR region). The attention time corresponds to the number of consecutive frames in which the overlap of the visual recognition areas is detected in the conference data. "It is stated. The detection method described in Patent Document 1 can provide a mechanism for reproducing content focused on the content that attracted the attention of the participants at the conference.

特開2014-204411号公報Japanese Unexamined Patent Publication No. 2014-204411

特許文献1の技術では、参加者の瞳の位置、及び、顔の向きに基づいて予測することで、視認領域を抽出するため、顔が一定の大きさ以上でないと顔を検出できず、人数をカウントできない、という課題があった。 In the technique of Patent Document 1, since the visual recognition area is extracted by predicting based on the position of the pupil of the participant and the direction of the face, the face cannot be detected unless the face is a certain size or larger, and the number of people. There was a problem that it could not be counted.

本発明の一側面は、注目対象に対するユーザの関心度を計測する関心度計測システムであって、ユーザの状態を撮影する撮像装置からのカラー画像を入力として得る演算装置を備え、演算装置は、カラー画像中にあるユーザの顔を認識し、顔の数をカウントする第1モードと、カラー画像中の所定のRGB値を持つ画素の面積を算出し、面積に基づいて顔の数を推定する第2モードと、を切替可能に構成される。 One aspect of the present invention is an interest level measuring system that measures a user's degree of interest in an object of interest, and includes an arithmetic device that obtains a color image from an image pickup device that captures a user's state as an input. The first mode that recognizes the user's face in the color image and counts the number of faces, calculates the area of the pixel having a predetermined RGB value in the color image, and estimates the number of faces based on the area. The second mode and the second mode can be switched.

本発明の他の一側面は、演算装置、記憶装置、入力装置、出力装置を備える計算機を用いて、会場における注目対象に対するユーザの関心度を計測する関心度計測方法であって、入力装置によりユーザの状態を撮影した撮像装置からのカラー画像を取得し、演算装置は、カラー画像中にあるユーザの顔をパターン認識し、認識結果により関心度を算出する第1モードと、カラー画像中の所定の色の面積を算出し、面積に基づいて関心度を算出する第2モードと、を切替可能とする。 Another aspect of the present invention is a method of measuring the degree of interest of a user with respect to an object of interest at a venue by using a computer including an arithmetic unit, a storage device, an input device, and an output device, wherein the input device is used. The first mode, which acquires a color image from an image pickup device that captures the user's state, recognizes the user's face in the color image as a pattern, and calculates the degree of interest based on the recognition result, and the color image. It is possible to switch between the second mode in which the area of a predetermined color is calculated and the degree of interest is calculated based on the area.

本発明によれば、顔が一定の大きさ以下でも、講義等の内容に興味を持っているか否かを判定することが可能になる。上記以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。 According to the present invention, it is possible to determine whether or not a person is interested in the content of a lecture or the like even if the face is smaller than a certain size. Issues, configurations and effects other than the above will be clarified by the description of the following examples.

実施例1の計算機システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the computer system of Example 1. FIG. 実施例1の人数カウント装置のハードウェア構成及びソフトウェア構成を示す機能ブロック図である。It is a functional block diagram which shows the hardware configuration and software configuration of the number of people counting apparatus of Example 1. FIG. 実施例1の画像DBに含まれる会場と人数のデータ構造の一例を示す表図である。It is a table diagram which shows an example of the data structure of the venue and the number of people included in the image DB of Example 1. FIG. 実施例1の人数カウント処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the number of people count processing of Example 1. FIG. 実施例の関心度測定の概念を示す概念図である。It is a conceptual diagram which shows the concept of interest degree measurement of an Example. 実施例2の人数カウント処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the number of people count processing of Example 2. 実施例3の人数カウント処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the number of people count processing of Example 3. 実施例3の表示の一例を説明する概念図である。It is a conceptual diagram explaining an example of the display of Example 3. FIG. 実施例4の人数カウント処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the number of people count processing of Example 4. 実施例4のデータ構造の一例を示す概念図である。It is a conceptual diagram which shows an example of the data structure of Example 4. FIG.

以下、本発明の実施例を、図面を用いて説明する。ただし、本発明は以下に示す実施の形態の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。 Hereinafter, examples of the present invention will be described with reference to the drawings. However, the present invention is not limited to the description of the embodiments shown below. It is easily understood by those skilled in the art that a specific configuration thereof can be changed without departing from the idea or purpose of the present invention.

以下に説明する発明の構成において、同一又は類似する構成又は機能には同一の符号を付し、重複する説明は省略する。 In the configuration of the invention described below, the same or similar configurations or functions are designated by the same reference numerals, and duplicate description will be omitted.

本明細書における「第1」、「第2」、「第3」等の表記は、構成要素を識別するために付するものであり、必ずしも、数又は順序を限定するものではない。 The notations such as "first", "second", and "third" in the present specification are attached to identify the components, and do not necessarily limit the number or order.

図面等において示す各構成の位置、大きさ、形状、及び範囲等は、発明の理解を容易にするため、実際の位置、大きさ、形状、及び範囲等を表していない場合がある。したがって、本発明では、図面等に開示された位置、大きさ、形状、及び範囲等に限定されない。 The position, size, shape, range, etc. of each configuration shown in the drawings and the like may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. Therefore, the present invention is not limited to the position, size, shape, range, etc. disclosed in the drawings and the like.

以下の実施例の代表的な一例を示せば以下の通りである。すなわち、講義等の参加者が、話の内容に興味を持っているか否かを計測する計算機システムであって、計算機システムは、狭い会場では顔検出の可否で、広い会場では顔の輝度や色情報から関心を持っている人の層を検出する演算装置を備える。また、計算機システムは、撮像装置、演算装置、演算装置に接続される記憶装置、及び演算装置に接続されるインタフェースを有し、インタフェースを介して、撮像装置が取得したカラー画像を用いた人数カウント処理に使用する画像を格納するデータベースと接続する。演算装置は、顔検出ができるか否かで人数をカウントし、顔検出ができる場合は顔領域の個数から人数をカウントする。 A typical example of the following embodiment is as follows. That is, it is a computer system that measures whether or not participants in lectures are interested in the content of the story. The computer system can detect faces in a small venue, and the brightness and color of the face in a large venue. It is equipped with an arithmetic unit that detects the layer of people who are interested in the information. Further, the computer system has an image pickup device, an arithmetic unit, a storage device connected to the arithmetic unit, and an interface connected to the arithmetic unit, and counts the number of people using the color image acquired by the image pickup device via the interface. Connect to the database that stores the images used for processing. The arithmetic unit counts the number of people depending on whether or not the face can be detected, and if the face can be detected, the number of people is counted from the number of face areas.

図1は、実施例1の関心度計測システム100の構成の一例を示す図である。関心度計測システム100は、計算機システム101、及びマザーブレイン計算機システム102から構成される。また、計算機システム101は、ネットワーク103を介してマザーブレイン計算機システム102に接続する。図1に示す計算機システム101は一つであるが、複数あってもよい。計算機システム101とマザーブレイン計算機システム102は、ともに通常のコンピュータで構成することができる。 FIG. 1 is a diagram showing an example of the configuration of the interest level measurement system 100 of the first embodiment. The interest level measurement system 100 includes a computer system 101 and a mother brain computer system 102. Further, the computer system 101 is connected to the mother brain computer system 102 via the network 103. Although there is one computer system 101 shown in FIG. 1, there may be a plurality of computer systems 101. Both the computer system 101 and the mother brain computer system 102 can be configured by a normal computer.

本実施例では、計算機システム101は講義やイベントが行なわれる1または複数の会場104に設置されることを想定している。計算機システム101は、会場104においてプレゼンテーションや展示の状況を表すデータを取得する。例えば、映像、音声、あるいは、入場者数など、入力装置を介して取得される各種データである。計算機システム101は、その他、会場の運営を補助する表示機能や入力機能等を備えても良い。 In this embodiment, it is assumed that the computer system 101 is installed in one or more venues 104 where lectures and events are held. The computer system 101 acquires data representing the status of a presentation or exhibition at the venue 104. For example, various data acquired via an input device such as video, audio, or the number of visitors. The computer system 101 may also have a display function, an input function, and the like that assist the operation of the venue.

また、マザーブレイン計算機システム102は、遠隔地にあって情報を管理し、1または複数の会場104全体を統括する。もっとも、計算機システム101とマザーブレイン計算機システム102を一体として構成し、会場104に設置することも可能である。 In addition, the Mother Brain computer system 102 manages information in a remote location and controls one or a plurality of venues 104 as a whole. However, it is also possible to integrally configure the computer system 101 and the mother brain computer system 102 and install them at the venue 104.

なお、会場104には計算機システム101の代わりに、ディスプレイ、集音マイク、及びスピーカから構成される機器のみを置き、ネットワーク103を介してデータを送受信することで、計算機システム101の機能をマザーブレイン計算機システム102に分担させてもよい。 In addition, instead of the computer system 101, only a device consisting of a display, a sound collecting microphone, and a speaker is placed in the venue 104, and data is transmitted and received via the network 103 to bring the functions of the computer system 101 to the mother brain. It may be shared by the computer system 102.

実施例1の関心度計測システム100は、会場104において取得された、プレゼンテーションや展示の状況を表すデータに基づいて、プレゼンテーションや展示に参加した人々(以下ユーザという)の関心度を計測する。 The interest level measurement system 100 of the first embodiment measures the degree of interest of people (hereinafter referred to as users) who participated in the presentation or exhibition based on the data representing the situation of the presentation or exhibition acquired at the venue 104.

図2は、実施例1の計算機システム101のハードウェア構成及びソフトウェア構成を示す図である。計算機システム101は、例えば一般的なコンピュータで構成することができ、演算装置201、記憶装置202、通信装置203、撮像装置204、音声再生装置205、集音装置206を有する。撮像装置204および集音装置206は入力装置の一種であり、音声再生装置205は出力装置の一種である。この他にも公知の入出力装置を備えてよい。各ハードウェアは、内部バス等を介して互いに接続される。 FIG. 2 is a diagram showing a hardware configuration and a software configuration of the computer system 101 of the first embodiment. The computer system 101 can be configured by, for example, a general computer, and includes an arithmetic unit 201, a storage device 202, a communication device 203, an image pickup device 204, a voice reproduction device 205, and a sound collection device 206. The image pickup device 204 and the sound collecting device 206 are a kind of input device, and the sound reproduction device 205 is a kind of output device. In addition to this, a known input / output device may be provided. The hardware is connected to each other via an internal bus or the like.

演算装置201は、CPU(Central Processing Unit)等の装置である。演算装置201は、記憶装置202に格納されるプログラムを実行する。演算装置201がプログラムにしたがって処理を実行することによって、特定の機能を実現するモジュールとして動作する。以下の説明では、モジュールを主語に処理を説明する場合、演算装置201が当該モジュールを実現するプログラムを実行していることを表す。 The arithmetic unit 201 is a device such as a CPU (Central Processing Unit). The arithmetic unit 201 executes a program stored in the storage device 202. The arithmetic unit 201 operates as a module that realizes a specific function by executing processing according to a program. In the following description, when the process is described with the module as the subject, it means that the arithmetic unit 201 is executing the program that realizes the module.

記憶装置202は、メモリ等の装置であり、演算装置201が実行するプログラム及びプログラムの実行に必要な情報を格納する。また、記憶装置202は、プログラムが使用するワークエリアを含む。なお、計算機システム101は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等の記憶装置を有してもよい。 The storage device 202 is a device such as a memory, and stores a program executed by the arithmetic unit 201 and information necessary for executing the program. The storage device 202 also includes a work area used by the program. The computer system 101 may have a storage device such as an HDD (Hard Disk Drive) and an SSD (Solid State Drive).

本実施例では、記憶装置202は、制御モジュール211を実現するプログラムを格納し、また、画像DB212を格納する。通信装置203は、ネットワークインタフェース等の装置であり、ネットワーク103を介して他の装置と接続する。撮像装置204は、カメラ等の装置であり、所定の範囲のカラー画像を取得する。後述するように、本実施例では撮像装置は例えば講師やスクリーンの位置に設置して、ユーザの様子を撮影する。音声再生装置205は、スピーカ等の装置であり、発話内容を音声として再生する。集音装置206は、集音マイク等の装置であり音声を取得する。 In this embodiment, the storage device 202 stores a program that realizes the control module 211, and also stores the image DB 212. The communication device 203 is a device such as a network interface, and is connected to another device via the network 103. The image pickup device 204 is a device such as a camera, and acquires a color image in a predetermined range. As will be described later, in this embodiment, the image pickup device is installed at the position of a lecturer or a screen, for example, and the state of the user is photographed. The voice reproduction device 205 is a device such as a speaker, and reproduces the utterance content as voice. The sound collecting device 206 is a device such as a sound collecting microphone and acquires sound.

本実施例では、撮像装置204が取得した画像を用いて関心度が計測される。関心度の計測は、ユーザの顔が所定の方向を向いているかどうかを判定して行なう。例えば、100名のユーザが参加している場合、その内の50名が所定の方向を向いている場合、その50人は所定の方向を注目しているものとして、関心度は50%と判定される。 In this embodiment, the degree of interest is measured using the image acquired by the image pickup apparatus 204. The degree of interest is measured by determining whether or not the user's face is facing a predetermined direction. For example, when 100 users are participating and 50 of them are facing a predetermined direction, it is assumed that 50 of them are paying attention to the predetermined direction, and the degree of interest is determined to be 50%. Will be done.

例えば、講義における出席者の関心度を計測する場合には、講師あるいはモニター画面の位置に撮像装置204であるカメラを備え付け、カメラ方向を向いている出席者の顔を検出して関心度を算出する。すなわち、下や横を向いていたり別の方向を向いている人は、カメラ方向に顔を向けていない(注目していない)ので、関心がないものと判定する。本実施例では、顔の検出手法として、パターン認識を用いた顔数のカウントによる第1の手法(第1モード)と、色情報(肌色)を用いた顔部分の面積割合による第2の手法(第2モード)を切り替えて用いることにより、会場の特性によらず正確な関心度の計測を可能とする。 For example, when measuring the degree of interest of attendees in a lecture, a camera, which is an image pickup device 204, is installed at the position of the lecturer or the monitor screen, and the face of the attendee facing the camera is detected to calculate the degree of interest. do. That is, a person who is facing down, sideways, or in another direction is not looking at the camera (not paying attention), so it is judged that he / she is not interested. In this embodiment, as a face detection method, a first method (first mode) by counting the number of faces using pattern recognition and a second method based on the area ratio of the face portion using color information (skin color). By switching and using (second mode), it is possible to accurately measure the degree of interest regardless of the characteristics of the venue.

顔数のカウントによる第1の手法では、デジタルカメラなどで公知となっている顔パターンの認識により、顔の数をカウントする。色情報顔部分の面積割合による第2の手法では、カラー画像信号の各画素のRGB要素が、肌色を示す所定の色の範囲か否かを判定し、画像中の肌色の面積が顔部分の面積を示すものとする。第2の手法では色のほか、輝度の情報を用いても良い。 In the first method of counting the number of faces, the number of faces is counted by recognizing a face pattern known by a digital camera or the like. In the second method based on the area ratio of the color information face portion, it is determined whether or not the RGB element of each pixel of the color image signal is within a predetermined color range indicating the skin color, and the area of the skin color in the image is the face portion. It shall indicate the area. In the second method, not only the color but also the luminance information may be used.

図3は、実施例1の関心度計測システム100が利用する管理データベース300のデータ構造の一例を示す図である。図3のデータの例では、複数の会場104のデータを一括して管理しており、マザーブレイン計算機システム102が管理するものとしている。ただし、会場ごとのデータを其々各会場104の計算機システム101が管理していても良い。 FIG. 3 is a diagram showing an example of the data structure of the management database 300 used by the interest level measurement system 100 of the first embodiment. In the example of the data in FIG. 3, the data of the plurality of venues 104 are collectively managed, and the mother brain computer system 102 manages them. However, the data for each venue may be managed by the computer system 101 of each venue 104.

図3を用いて管理データベース300に格納される情報について説明する。管理データベース300は、ユーザ110をカウントした際の人数を保持するため等に使用するデータベースである。管理データベース300は、会場104のIDである会場ID301、会場名302、人数303、座席数304、注目人数305、日時306から構成されるエントリを含む。一つのエントリが一つのデータベースのグループ(部分グループ)に対応する。 The information stored in the management database 300 will be described with reference to FIG. The management database 300 is a database used for holding the number of people when the user 110 is counted. The management database 300 includes an entry composed of a venue ID 301, a venue name 302, a number of people 303, a number of seats 304, a number of people of interest 305, and a date and time 306, which are IDs of the venue 104. One entry corresponds to one database group (subgroup).

会場ID301は、会場ごとの識別情報を格納するフィールドである。会場名302は会場名を格納するフィールドである。人数303は、入場者数を格納するフィールドである。入場者数は、例えばユーザが入場するたびにカウントし、計算機システム101の入力手段から入力することができる。あるいは、入場チケットの販売数が入場者数と等しいと推定し、チケット数をもとにして入力してもよい。座席数304は座席がある場合には座席数であり、会場の定員に相当する数を格納するフィールドである。注目人数305は、上述の第1の手法あるいは第2の手法により測定された、注視している人数を格納するフィールドである。 The venue ID 301 is a field for storing identification information for each venue. The venue name 302 is a field for storing the venue name. The number of people 303 is a field for storing the number of visitors. The number of visitors is counted each time the user enters, and can be input from the input means of the computer system 101, for example. Alternatively, it may be estimated that the number of admission tickets sold is equal to the number of visitors, and the number of admission tickets may be used as the basis for input. The number of seats 304 is the number of seats when there are seats, and is a field for storing the number corresponding to the capacity of the venue. The number of people of interest 305 is a field for storing the number of people who are watching, as measured by the first method or the second method described above.

上記のフィールドは一例であり、他のフィールドを持っていても良いし、一部を省略しても良い。人数303や座席数304は、関心度を測定する際の母数となる全ユーザ数を設定するために利用される。例えば、母数として人数303をそのまま利用することができる。あるいは、全席指定でチケット完売の場合には、座席数304を母数とすることができる。これらは一例であって、他の方法で母数を推定してもよい。例えば、管理データベース300の情報を使用しない場合には、顔のパターン認識と同様に、人の体のパターン認識を行なって、母数を推定することも可能である。 The above field is an example, and may have other fields or may omit some of them. The number of people 303 and the number of seats 304 are used to set the total number of users, which is a parameter when measuring the degree of interest. For example, the number of people 303 can be used as it is as a parameter. Alternatively, if all seats are designated and the ticket is sold out, the number of seats 304 can be used as a parameter. These are examples, and the population parameter may be estimated by other methods. For example, when the information in the management database 300 is not used, it is possible to estimate the population parameter by recognizing the pattern of the human body in the same manner as recognizing the pattern of the face.

図4は、実施例1の計算機システム101が実行する処理の概要を示す図である。計算機システム101は、周期的又はイベントの発生を検知した場合、撮像装置204を用いて画像を取得する(ステップS401)。 FIG. 4 is a diagram showing an outline of processing executed by the computer system 101 of the first embodiment. When the computer system 101 detects the occurrence of a periodic event or an event, the computer system 101 acquires an image by using the image pickup apparatus 204 (step S401).

次に、計算機システムの制御モジュール211は、管理データベース300から、関心度測定のための第1の手法あるいは第2の手法を切り替えるためのパラメータを取得する(ステップS402)。 Next, the control module 211 of the computer system acquires a parameter for switching the first method or the second method for measuring the degree of interest from the management database 300 (step S402).

図5により、第1の手法あるいは第2の手法を切り替える概念を説明する。本実施例では、関心度を所定方向を向いているユーザの顔をもとにして測定する。この場合、会場にはスタジアムや公会堂のような広い会場(例えば300m四方)と、教室や会議室のような狭い会場(10m四方)がある。広い会場では、撮像装置204で撮像した画像中の顔部分の大きさが小さく、かつ、顔の数が多くなり、解像度が不足、あるいは、処理量が多くなりすぎる場合がある。この場合、顔パターン認識による第1の手法では、広い会場の顔認識ができず、測定が困難あるいは不正確となる場合がある。そこで、本実施例では、会場の広さにより第1の手法と第2の手法を切り替える。ここで広さとは、大きさ、面積、収容人数と言い換えることもできる。以降これらを「規模」ということがある。 FIG. 5 illustrates the concept of switching between the first method and the second method. In this embodiment, the degree of interest is measured based on the face of the user facing a predetermined direction. In this case, the venue includes a large venue (for example, 300 m square) such as a stadium or a public hall, and a narrow venue (10 m square) such as a classroom or a conference room. In a large venue, the size of the face portion in the image captured by the image pickup apparatus 204 may be small, the number of faces may be large, the resolution may be insufficient, or the amount of processing may be too large. In this case, in the first method based on face pattern recognition, face recognition in a large venue cannot be performed, and measurement may be difficult or inaccurate. Therefore, in this embodiment, the first method and the second method are switched depending on the size of the venue. Here, the size can be rephrased as the size, the area, and the number of people that can be accommodated. Hereinafter, these are sometimes referred to as "scale".

このための規模のパラメータとして、例えば管理データベース300の人数303や座席数304を用いることができる。例えば、閾値を300(人)としてパラメータと比較し、閾値未満であれば第1の手法(顔パターン認識)、閾値以上であれば第2の手法(肌色面積検出)とする(ステップS403)。 As a parameter of the scale for this, for example, the number of people 303 and the number of seats 304 of the management database 300 can be used. For example, the threshold value is set to 300 (human) and compared with the parameters, and if it is less than the threshold value, the first method (face pattern recognition) is used, and if it is more than the threshold value, the second method (skin color area detection) is used (step S403).

すなわち、図4に示すようにパラメータが閾値以上であれば、広い会場と判断して、RGB信号を元に顔の肌色面積を算出する。これは所定のRGB値を有する画素数をカウントすることで行なうことができる(ステップS404)。さらに肌色面積から顔領域の個数を算出するために、顔1個あたりの面積で肌色面積を除する(ステップS405)。顔1個あたりの面積は予め規定値を設定しておくか、人数303や座席数304と撮像装置204の撮像範囲から推定を行なって求める。 That is, as shown in FIG. 4, if the parameter is equal to or greater than the threshold value, it is determined that the venue is large, and the skin color area of the face is calculated based on the RGB signal. This can be done by counting the number of pixels having a predetermined RGB value (step S404). Further, in order to calculate the number of face areas from the skin color area, the skin color area is divided by the area per face (step S405). The area per face is obtained by setting a predetermined value in advance or estimating from the number of people 303, the number of seats 304, and the imaging range of the imaging device 204.

なお、上記では人数303や座席数304を元に会場の広さを判定しているが、他の方法でもよい。例えば、予め管理データベース300に会場の広さのデータを格納しておき、会場の広さを閾値と比較しても良い。あるいは、第1の手法と第2の手法のどちらを用いるかを会場ごとに設定しておいても良い。例えば、図3の例で会場名302が「会議室」の場合は第1の手法で、「展示場」の場合は第2の手法で行なうようにすることが考えられる。 In the above, the size of the venue is determined based on the number of people 303 and the number of seats 304, but other methods may be used. For example, data on the size of the venue may be stored in the management database 300 in advance, and the size of the venue may be compared with the threshold value. Alternatively, it may be set for each venue whether to use the first method or the second method. For example, in the example of FIG. 3, when the venue name 302 is the "meeting room", the first method may be used, and when the venue name 302 is the "exhibition hall", the second method may be used.

一方、パラメータが閾値未満であれば、狭い会場と判断して、顔領域の個数算出をパターン認識により実行する(ステップS406)。制御モジュール311は、受信した画像から顔領域を検出する。顔領域を検出する処理は公知の技術があり、例えば顔のパターンと画像中のパターンを照合することにより可能である。 On the other hand, if the parameter is less than the threshold value, it is determined that the venue is narrow, and the number of face regions is calculated by pattern recognition (step S406). The control module 311 detects the face region from the received image. There is a known technique for the process of detecting a face region, and it is possible, for example, by collating a face pattern with a pattern in an image.

ステップS405あるいはS406の結果、特定方向を向いている人、すなわち注目している人の数が算出できる。制御モジュール311は、顔領域の個数算出結果から注目人数をカウントする(ステップS407)。 As a result of step S405 or S406, the number of people facing a specific direction, that is, the number of people paying attention can be calculated. The control module 311 counts the number of people of interest from the calculation result of the number of face regions (step S407).

次に、制御モジュール311は、管理データベース300から母数となる人数303や座席数304を取得する。そして、ステップS407のカウント結果を母数で割り算することで、関心度(%)を得る(ステップS408)。 Next, the control module 311 acquires the population parameter 303 and the number of seats 304 from the management database 300. Then, the degree of interest (%) is obtained by dividing the count result in step S407 by the parameter (step S408).

実施例1では、管理データベース300の情報を利用し、予め会場の広さが既知である場合を例にした。しかし、例えば会場が仮設会場であり、予め会場の広さが不明の場合もある。実施例2ではこの場合にも対応可能な例を説明する。基本的な構成は実施例1と同じであるが、管理データベース300のデータからは会場の広さを示すパラメータが得られない場合を想定している。 In the first embodiment, the case where the size of the venue is known in advance by using the information of the management database 300 is taken as an example. However, for example, the venue may be a temporary venue, and the size of the venue may be unknown in advance. In the second embodiment, an example in which this case can be dealt with will be described. The basic configuration is the same as that of the first embodiment, but it is assumed that the parameter indicating the size of the venue cannot be obtained from the data of the management database 300.

図6は、実施例2の計算機システム101が実行する処理の概要を示す図である。計算機システム101は、周期的又はイベントの発生を検知した場合、撮像装置204を用いて画像を取得する。 FIG. 6 is a diagram showing an outline of processing executed by the computer system 101 of the second embodiment. When the computer system 101 detects the occurrence of a periodic event or an event, the computer system 101 acquires an image by using the image pickup apparatus 204.

まず、計算機システムの制御モジュール211は、受信した画像を用いて、画像の解像度を算出する(ステップS501)。 First, the control module 211 of the computer system calculates the resolution of the image using the received image (step S501).

次に顔検出個数の上限値(閾値)を算出する(ステップS502)。すなわち、一般的にパターン認識による顔個数の検出には処理速度による制約があり、あまりに顔の数が多い場合にはカウントが行なえない場合がある。これは主にソフトウェアによる処理量に依存する。したがって、上限値を超えた場合には顔数のカウントができない。このとき、制御モジュール311は、ステップS501で算出された画像の解像度から上限値を自動で算出する。また、上限値を規定値あるいは手動で与えても良い。 Next, the upper limit value (threshold value) of the number of face detections is calculated (step S502). That is, in general, the detection of the number of faces by pattern recognition is limited by the processing speed, and if the number of faces is too large, counting may not be possible. This mainly depends on the amount of processing by the software. Therefore, if the upper limit is exceeded, the number of faces cannot be counted. At this time, the control module 311 automatically calculates the upper limit value from the image resolution calculated in step S501. Further, the upper limit value may be given as a specified value or manually.

制御モジュール311は、受信した画像から顔領域を検出する(ステップS503)。顔領域を検出する処理は公知の技術があり、例えばリファレンスとなる顔のパターンと画像中のパターンを照合することにより可能である。 The control module 311 detects a face region from the received image (step S503). There is a known technique for the process of detecting a face region, and it is possible, for example, by collating a reference face pattern with a pattern in an image.

制御モジュール311は、顔領域が検出できているか否かを判定する。すなわちパターン認識が成功したかを判定する。会場が広く、あまりに画像中の顔の大きさが小さい場合には、解像度が不足しパターン認識ができない場合がある(ステップS504)。 The control module 311 determines whether or not the face region can be detected. That is, it is determined whether the pattern recognition is successful. If the venue is large and the size of the face in the image is too small, the resolution may be insufficient and pattern recognition may not be possible (step S504).

顔領域が検出できていないと判定された場合、制御モジュール311は、顔の肌色面積を算出する処理を実行する(ステップS404)。顔の肌色面積の算出には、肌色領域の面積を時系列に連続または断続的に計測してもよい。制御モジュール311は、顔の肌色面積算出結果から顔領域の個数算出処理を実行する(ステップS405)。制御モジュール311は、顔領域の個数算出結果から人数をカウントする(ステップS407)。これらの処理は実施例1と同様である。 When it is determined that the face region cannot be detected, the control module 311 executes a process of calculating the skin color area of the face (step S404). In order to calculate the skin color area of the face, the area of the skin color area may be measured continuously or intermittently in time series. The control module 311 executes a process of calculating the number of face regions from the calculation result of the skin color area of the face (step S405). The control module 311 counts the number of people from the calculation result of the number of face areas (step S407). These processes are the same as in Example 1.

ステップS504で顔領域が検出できていると判定された場合、制御モジュール311は、顔領域の検出結果から顔領域の個数算出処理を実行する(ステップS406)。制御モジュール311は、顔個数のカウント中、算出された顔領域の個数が閾値以上か否かを判定している(ステップS506)。検出された顔領域の個数が閾値(上限)を超えた場合には、それ以降のカウントはできないあるいは不正確と判定する。 When it is determined in step S504 that the face region can be detected, the control module 311 executes the process of calculating the number of face regions from the detection result of the face region (step S406). The control module 311 determines whether or not the calculated number of face regions is equal to or greater than the threshold value during the counting of the number of faces (step S506). When the number of detected face areas exceeds the threshold value (upper limit), it is determined that the subsequent count cannot be performed or is inaccurate.

そこで、顔領域の個数が閾値以上と判定された場合、制御モジュール311は、顔の肌色面積を算出する処理を実行する(ステップS404)。顔の肌色面積の算出には、肌色領域の面積を時系列に連続または断続的に計測してもよい。制御モジュール311は、顔の肌色面積算出結果から顔領域の個数算出処理を実行する(ステップS405)。 Therefore, when it is determined that the number of face regions is equal to or greater than the threshold value, the control module 311 executes a process of calculating the skin color area of the face (step S404). In order to calculate the skin color area of the face, the area of the skin color area may be measured continuously or intermittently in time series. The control module 311 executes a process of calculating the number of face regions from the calculation result of the skin color area of the face (step S405).

顔領域の個数が値未満であると判定された場合、制御モジュール311は、顔領域の個数算出結果から人数をカウントする(ステップS407)。 When it is determined that the number of face regions is less than the value, the control module 311 counts the number of people from the calculation result of the number of face regions (step S407).

基幹業務システムに実施例2の計算機システムを適用した場合、会場についての情報がない場合であっても、狭い会場では、顔を検出できるか否かで人数をカウントし、広い会場では、肌色輝度領域の面積を時系列に連続または断続的に計測することにより、顔が一定の大きさ以下でも、講義等の内容に興味を持っているか否かを判定することが可能になる。 When the computer system of Example 2 is applied to the mission-critical business system, even if there is no information about the venue, the number of people is counted based on whether or not the face can be detected in a narrow venue, and the skin color brightness in a large venue. By continuously or intermittently measuring the area of the area in time series, it becomes possible to determine whether or not the person is interested in the content of the lecture or the like even if the face is smaller than a certain size.

実施例3では、プレゼンテーションや授業を見ているユーザの状況を演者にフィードバックする点が実施例1と異なる。以下、実施例1との差異を中心に実施例3について説明する。実施例3の計算機システムの構成は、実施例1の計算機システムの構成と同一である。実施例3の計算機システム101、及びマザーブレイン計算機システム102の構成は、実施例1の各装置の構成と同一である。また、各装置が保持するデータベースのデータ構造は、実施例1のデータベースのデータ構造と同一である。実施例3で特に説明する部分以外は、実施例1あるいは2と同様と考えてよい。 The third embodiment is different from the first embodiment in that the situation of the user who is watching the presentation or the lesson is fed back to the performer. Hereinafter, Example 3 will be described with a focus on the differences from Example 1. The configuration of the computer system of the third embodiment is the same as the configuration of the computer system of the first embodiment. The configurations of the computer system 101 and the mother brain computer system 102 of the third embodiment are the same as the configurations of the respective devices of the first embodiment. Further, the data structure of the database held by each device is the same as the data structure of the database of the first embodiment. Except for the part particularly described in Example 3, it may be considered to be the same as in Example 1 or 2.

図7で、実施例3の注視人数算出処理について説明する。制御モジュール311は、管理データベース300から母数となるユーザ数(全出席者数)を取得する(ステップS701)。そして、時系列に連続または断続的に計測することにより、実施例1あるいは2と同様に注目人数を算出する(ステップS407)。ついで、母数と算出された注視人数との割合により、関心度(注目度)を算出する(ステップS408)。 FIG. 7 describes the gaze number calculation process of the third embodiment. The control module 311 acquires the number of users (total number of attendees) as a parameter from the management database 300 (step S701). Then, the number of people of interest is calculated in the same manner as in Example 1 or 2 by continuously or intermittently measuring in time series (step S407). Then, the degree of interest (attention) is calculated from the ratio of the population parameter and the calculated number of gazes (step S408).

次に母数と注目人数、注目度を画面に表示する(ステップS702)。また、フィードバックは画面に表示するだけでなく、アラームなどの音声でフィードバックしてもよい。
他の処理は実施例1あるいは2と同一である。ただし本実施例では、注視人数や関心度が時系列的に表示され、時間的変化を知ることができる。
Next, the population parameter, the number of people to pay attention to, and the degree of attention are displayed on the screen (step S702). Further, the feedback is not limited to being displayed on the screen, but may be fed back by voice such as an alarm.
Other processes are the same as in Example 1 or 2. However, in this embodiment, the number of people watching and the degree of interest are displayed in chronological order, and it is possible to know the change over time.

図8には、母数と注視人数、注目度を画面1010に表示する例を示している。注目度メータとして注目している人の人数の割合(%)が表示される。 FIG. 8 shows an example of displaying the population parameter, the number of gazes, and the degree of attention on the screen 1010. The percentage of the number of people who are paying attention as an attention meter is displayed.

実施例3によれば、プレゼンテーションや授業を見ているユーザの状況を演者にリアルタイムにフィードバックするため、演者が説明内容を工夫することにより、ユーザの理解度向上が期待できる。 According to the third embodiment, since the situation of the user who is watching the presentation or the lesson is fed back to the performer in real time, it can be expected that the user's understanding level is improved by devising the explanation content by the performer.

実施例4では、プレゼンテーションや商品を見ているユーザの状況を記録する点が実施例1と異なる。以下、実施例1との差異を中心に実施例4について説明する。 The fourth embodiment differs from the first embodiment in that the situation of the user who is viewing the presentation or the product is recorded. Hereinafter, Example 4 will be described with a focus on the differences from Example 1.

実施例4の計算機システムの構成は、実施例1の計算機システムの構成と同一である。実施例4の計算機システム101、及びマザーブレイン計算機システム102の構成は、実施例4の各装置の構成と同一である。また、各装置が保持するデータベースのデータ構造は、実施例4のデータベースのデータ構造と同一である。 The configuration of the computer system of the fourth embodiment is the same as the configuration of the computer system of the first embodiment. The configurations of the computer system 101 and the mother brain computer system 102 of the fourth embodiment are the same as the configurations of the respective devices of the fourth embodiment. Further, the data structure of the database held by each device is the same as the data structure of the database of the fourth embodiment.

図9により実施例4の処理の流れを説明する。実施例4で特に説明する部分以外は、実施例1あるいは2と同様と考えてよい。まず、実施例4の注視人数算出処理について説明する。制御モジュール311は、母数となる人数をカウントする(ステップS701)。 The processing flow of the fourth embodiment will be described with reference to FIG. Except for the part particularly described in Example 4, it may be considered to be the same as in Example 1 or 2. First, the gaze number calculation process of Example 4 will be described. The control module 311 counts the number of people as a parameter (step S701).

次に、注目対象を特定する。例えば、講義においてスクリーンにスライドが順次表示されており、各スライドに対するユーザの関心度を測定する場合を考える。その場合には、表示されるスライドに対応して、注目対象が設定される。注目対象は例えば現在表示しているスライドの番号で識別される(ステップS1101)。注目対象はプレゼンテーション資料などの電子データや商品などの実物でもよい。 Next, the target of interest is specified. For example, consider a case where slides are sequentially displayed on a screen in a lecture and the user's interest in each slide is measured. In that case, the attention target is set corresponding to the displayed slide. The object of interest is identified, for example, by the number of the currently displayed slide (step S1101). The object of interest may be electronic data such as presentation materials or the actual product.

注目対象ごとに時系列に連続または断続的に計測することにより、注目人数を算出する(ステップS407)。算出された注目対象ごとの注目人数と母数との割合により、関心度を算出する(ステップS408)。算出された注目対象ごとの関心度を、例えば画像DB212に記録する(ステップS1104)。他の処理は実施例1または2と同一である。 The number of people of interest is calculated by continuously or intermittently measuring each object of interest in chronological order (step S407). The degree of interest is calculated from the calculated ratio between the number of people of interest and the population parameter for each object of interest (step S408). The calculated degree of interest for each object of interest is recorded in, for example, the image DB 212 (step S1104). Other processes are the same as in Example 1 or 2.

図10は画像DBに記録されたデータの概念図である。注目対象であるスライドの番号に対応して、関心度が記録される。実施例4によれば、プレゼンテーションや商品を見ているユーザの注目度を記録するため、注目度の高い資料や商品の陳列などが期待できる。 FIG. 10 is a conceptual diagram of the data recorded in the image DB. The degree of interest is recorded according to the number of the slide of interest. According to the fourth embodiment, since the degree of attention of the user who is viewing the presentation or the product is recorded, it can be expected that the material or the product having a high degree of attention will be displayed.

上記説明した実施例によれば、狭い会場では、顔を検出できるか否かで人数をカウントし、広い会場では、肌色輝度領域の面積を時系列に連続または断続的に計測することにより、顔が一定の大きさ以下でも、講義等の内容に興味を持っているか否かを判定することが可能になる According to the above-described embodiment, in a narrow venue, the number of people is counted based on whether or not the face can be detected, and in a large venue, the area of the skin color luminance region is continuously or intermittently measured in chronological order. It is possible to judge whether or not you are interested in the content of a lecture, etc., even if the size is less than a certain size.

100 関心度計測システム
101 計算機システム
102 マザーブレイン計算機システム
103 ネットワーク
104 会場
100 Interest level measurement system 101 Computer system 102 Mother Brain computer system 103 Network 104 Venue

Claims (11)

注目対象に対するユーザの関心度を計測する関心度計測システムであって、
前記ユーザの状態を撮影する撮像装置からのカラー画像を入力として得る演算装置を備え、
前記演算装置は、
前記カラー画像中にある前記ユーザの顔を認識し、顔の数をカウントする第1モードと、
前記カラー画像中の所定のRGB値を持つ画素の面積を算出し、該面積に基づいて顔の数を推定する第2モードと、
を切替可能に構成される、
関心度計測システム。
An interest level measurement system that measures the user's level of interest in an object of interest.
It is equipped with an arithmetic unit that obtains a color image from an image pickup device that captures the state of the user as an input.
The arithmetic unit is
A first mode that recognizes the user's face in the color image and counts the number of faces, and
A second mode in which the area of a pixel having a predetermined RGB value in the color image is calculated and the number of faces is estimated based on the area.
Is configured to be switchable,
Interest level measurement system.
前記演算装置は、
管理データベースに格納される会場の広さ、および、検出された顔領域の個数の少なくとも一つをパラメータとして用い、
入力される前記パラメータを閾値と比較し、
比較結果に基づいて、前記第1モードと前記第2モードを切り替える、
請求項1記載の関心度計測システム。
The arithmetic unit is
Using at least one of the size of the venue stored in the management database and the number of detected face areas as parameters,
Compare the input parameters with the threshold and
Switching between the first mode and the second mode based on the comparison result.
The degree of interest measurement system according to claim 1.
前記演算装置は、
入力されるパラメータを閾値と比較し、
比較結果に基づいて、前記第1モードと前記第2モードを切り替えるものであって、
前記注目対象と前記ユーザの存在が想定される会場の大きさ、および、前記会場にいると想定される前記ユーザの数の少なくとも一つの情報を格納する管理データベースからの情報を入力とし、
前記会場の大きさ、および、前記ユーザの数の少なくとも一つの情報を前記パラメータとして、前記第1モードと前記第2モードを切り替える、
請求項記載の関心度計測システム。
The arithmetic unit is
Compare the input parameters with the threshold
The mode is switched between the first mode and the second mode based on the comparison result.
Information from the management database that stores information on at least one of the attention target, the size of the venue where the user is assumed to exist, and the number of the users who are assumed to be in the venue is input.
Switching between the first mode and the second mode using at least one piece of information on the size of the venue and the number of users as the parameters.
The degree of interest measurement system according to claim 1 .
前記演算装置は、
前記カラー画像中にある前記ユーザの顔の認識結果に基づいて、
前記第1モードと前記第2モードを切り替える、
請求項1記載の関心度計測システム。
The arithmetic unit is
Based on the recognition result of the user's face in the color image,
Switching between the first mode and the second mode,
The degree of interest measurement system according to claim 1.
前記演算装置は、
前記カラー画像中にある前記ユーザの顔の数のカウント結果に基づいて、
前記第1モードと前記第2モードを切り替える、
請求項1記載の関心度計測システム。
The arithmetic unit is
Based on the count result of the number of faces of the user in the color image
Switching between the first mode and the second mode,
The degree of interest measurement system according to claim 1.
演算装置、記憶装置、入力装置、出力装置を備える計算機を用いて、会場における注目対象に対するユーザの関心度を計測する関心度計測方法であって、
前記入力装置により前記ユーザの状態を撮影した撮像装置からのカラー画像を取得し、
前記演算装置は、
前記カラー画像中にある前記ユーザの顔をパターン認識し、認識結果により関心度を算出する第1モードと、
前記カラー画像中の所定の色の面積を算出し、該面積に基づいて関心度を算出する第2モードと、
を切替可能とする、
関心度計測方法。
It is a method of measuring the degree of interest of a user in a venue by using a computer equipped with an arithmetic unit, a storage device, an input device, and an output device.
A color image from an image pickup device that captures the state of the user is acquired by the input device, and the color image is acquired.
The arithmetic unit is
A first mode that recognizes the user's face in the color image as a pattern and calculates the degree of interest based on the recognition result.
A second mode in which the area of a predetermined color in the color image is calculated and the degree of interest is calculated based on the area.
Can be switched,
Interest level measurement method.
前記第1モードと前記第2モードは、
前記会場の規模に基づいて選択される、
請求項6記載の関心度計測方法。
The first mode and the second mode are
Selected based on the size of the venue,
The method for measuring the degree of interest according to claim 6.
前記会場の規模が所定閾値未満の場合、前記第1モードを選択し、
前記会場の規模が所定閾値以上の場合、前記第2モードを選択する、
請求項7記載の関心度計測方法。
If the size of the venue is less than the predetermined threshold, the first mode is selected.
When the scale of the venue is equal to or larger than a predetermined threshold value, the second mode is selected.
The method for measuring the degree of interest according to claim 7.
前記第1モードと前記第2モードは、
前記ユーザの顔のパターン認識結果に基づいて選択される、
請求項6記載の関心度計測方法。
The first mode and the second mode are
Selected based on the user's face pattern recognition result.
The method for measuring the degree of interest according to claim 6.
前記ユーザの顔のパターン認識が成功した場合、前記第1モードを選択し、
前記ユーザの顔のパターン認識が成功しなかった場合、前記第2モードを選択する、
請求項9記載の関心度計測方法。
If the user's face pattern recognition is successful, the first mode is selected.
If the user's face pattern recognition is not successful, the second mode is selected.
The method for measuring the degree of interest according to claim 9.
前記ユーザの顔のパターン認識が成功した場合、パターン認識した顔領域をカウントし、カウント結果が所定閾値未満の場合には前記第1モードを選択し、カウント結果が所定閾値以上の場合には前記第2モードを選択し、
前記ユーザの顔のパターン認識が成功しなかった場合、前記第2モードを選択する
請求項9記載の関心度計測方法。
When the pattern recognition of the user's face is successful, the face area where the pattern is recognized is counted, the first mode is selected when the count result is less than the predetermined threshold value, and the first mode is selected when the count result is the predetermined threshold value or more. Select the second mode,
The interest level measuring method according to claim 9, wherein when the user's face pattern recognition is not successful, the second mode is selected.
JP2017213057A 2017-11-02 2017-11-02 Interest measurement system and method Active JP7001429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017213057A JP7001429B2 (en) 2017-11-02 2017-11-02 Interest measurement system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017213057A JP7001429B2 (en) 2017-11-02 2017-11-02 Interest measurement system and method

Publications (2)

Publication Number Publication Date
JP2019086912A JP2019086912A (en) 2019-06-06
JP7001429B2 true JP7001429B2 (en) 2022-01-19

Family

ID=66764217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017213057A Active JP7001429B2 (en) 2017-11-02 2017-11-02 Interest measurement system and method

Country Status (1)

Country Link
JP (1) JP7001429B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111619118B (en) * 2019-12-26 2022-03-04 南京铖联激光科技有限公司 Focal plane adjustment closed-loop control system and control method applied to 3D printing equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269290A (en) 2001-03-09 2002-09-20 Sony Corp Advertisement delivery system
JP2005025328A (en) 2003-06-30 2005-01-27 Ntt Data Corp Congestion monitoring system and congestion monitoring program
JP2014232362A (en) 2013-05-28 2014-12-11 Kddi株式会社 System for analyzing and predicting moving object action
WO2017018012A1 (en) 2015-07-28 2017-02-02 ソニー株式会社 Information processing system, information processing method, and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269290A (en) 2001-03-09 2002-09-20 Sony Corp Advertisement delivery system
JP2005025328A (en) 2003-06-30 2005-01-27 Ntt Data Corp Congestion monitoring system and congestion monitoring program
JP2014232362A (en) 2013-05-28 2014-12-11 Kddi株式会社 System for analyzing and predicting moving object action
WO2017018012A1 (en) 2015-07-28 2017-02-02 ソニー株式会社 Information processing system, information processing method, and storage medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Li-hua Zou,Yun-cheng Liu,A New Algorithm of Counting Human Based on Segmentation of Human Faces inColor Image,2009 International Conference on Computational Intelligence and Security ,米国,IEEE,2009年12月14日,p505-509
大野直樹、他3名,注目度に基づく映像選択,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2001年01月12日,第100巻第566号,p53-58

Also Published As

Publication number Publication date
JP2019086912A (en) 2019-06-06

Similar Documents

Publication Publication Date Title
JP4876687B2 (en) Attention level measuring device and attention level measuring system
CA2521670C (en) Automatic face extraction for use in recorded meetings timelines
US10235574B2 (en) Image-capturing device, recording device, and video output control device
JP6112616B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP7094814B2 (en) Detection system and detection method
JP2007102344A (en) Automatic evaluation device, program, and method
JP2008112401A (en) Advertisement effect measurement apparatus
JP5866523B2 (en) Facility usage status measurement device, facility usage status measurement system, and facility usage status measurement method
US20200184205A1 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
JP6910208B2 (en) Information processing equipment, information processing methods and programs
WO2010053192A1 (en) Behavioral analysis device, behavioral analysis method, and recording medium
JP2010211485A (en) Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded
JP2007104091A (en) Image selection apparatus, program, and method
JP2009267621A (en) Communication apparatus
JP5088463B2 (en) Monitoring system
EP3023987A1 (en) Method and apparatus for visualizing information of a digital video stream
JP6516702B2 (en) People count system, number count method, and view method of number count result
JP7001429B2 (en) Interest measurement system and method
JP2007102341A (en) Automatic counter
JP2018207175A5 (en) Information processing device, information processing method, and program
JPWO2009119288A1 (en) Communication system and communication program
TW201222422A (en) Method and arrangement for identifying virtual visual information in images
US20220189200A1 (en) Information processing system and information processing method
WO2023084715A1 (en) Information processing device, information processing method, and program
CN110287929A (en) The quantity of target determines method, apparatus, equipment and storage medium in group region

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211224

R150 Certificate of patent or registration of utility model

Ref document number: 7001429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150