JP5441071B2 - Face analysis device, face analysis method, and program - Google Patents

Face analysis device, face analysis method, and program Download PDF

Info

Publication number
JP5441071B2
JP5441071B2 JP2011201450A JP2011201450A JP5441071B2 JP 5441071 B2 JP5441071 B2 JP 5441071B2 JP 2011201450 A JP2011201450 A JP 2011201450A JP 2011201450 A JP2011201450 A JP 2011201450A JP 5441071 B2 JP5441071 B2 JP 5441071B2
Authority
JP
Japan
Prior art keywords
face
analysis
unit
lecture
student
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011201450A
Other languages
Japanese (ja)
Other versions
JP2013061906A (en
JP2013061906A5 (en
Inventor
史雄 仲矢
昌直 片桐
Original Assignee
国立大学法人 大阪教育大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人 大阪教育大学 filed Critical 国立大学法人 大阪教育大学
Priority to JP2011201450A priority Critical patent/JP5441071B2/en
Priority to PCT/JP2012/073185 priority patent/WO2013039062A1/en
Publication of JP2013061906A publication Critical patent/JP2013061906A/en
Publication of JP2013061906A5 publication Critical patent/JP2013061906A5/ja
Application granted granted Critical
Publication of JP5441071B2 publication Critical patent/JP5441071B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Economics (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、講義中の1以上の受講生の顔を認識し、講義中の顔を分析する顔分析装置等に関するものである。   The present invention relates to a face analysis device that recognizes the faces of one or more students in a lecture and analyzes the faces in the lecture.

従来、教室を入退室する生徒及び指導者(講師)から発信される個人識別情報を受信し、これを入退室情報として入退室情報データベースに蓄積する入退室情報データベースサーバと、入退室情報データベースから、生徒と指導者(講師)が各1名ずつとなっている教室情報を取得する人数確認プログラムを有するWebサーバと、人数確認プログラムによって該当教室が存在した場合に、該当教室を管理する管理者へ電子メールを送信するメールサーバと、を備えたことを特徴とする教室管理システムが知られていた(例えば、特許文献1参照)。 Conventionally, from the entrance / exit information database server that receives personal identification information transmitted from the students who enter and leave the classroom and the instructor (lecturer), and stores this in the entrance / exit information database as entrance / exit information, and the entrance / exit information database , A Web server having a number confirmation program for acquiring classroom information for each student and instructor (lecturer), and an administrator who manages the corresponding classroom when the corresponding class exists by the number confirmation program There has been known a classroom management system including a mail server that transmits an e-mail to the Internet (for example, see Patent Document 1).

特開2009−129117号公報(第1頁、第1図等)JP 2009-129117 A (first page, FIG. 1 etc.)

しかしながら、従来は、講義中における受講生(例えば生徒)等の受講状況等を客観的に適切に分析することができず、この結果、講義に関する適切な分析を行うことができない、という課題があった。   However, in the past, there has been a problem that it is impossible to objectively analyze the attendance status of students (for example, students) during the lecture, and as a result, it is not possible to perform an appropriate analysis on the lecture. It was.

本発明の顔分析装置は、講義中における1以上の受講生の顔を撮影した動画像である受講生画像が格納される受講生画像格納部と、受講生画像から受講生の顔を認識して、認識した顔に対する分析を行う顔分析部と、顔分析部による分析結果に関連する情報を出力する出力部とを備えた顔分析装置である。   The face analysis apparatus of the present invention recognizes a student's face from a student image storage unit that stores a student image, which is a moving image obtained by capturing one or more students' faces during a lecture, and a student image. The face analysis apparatus includes a face analysis unit that performs analysis on the recognized face, and an output unit that outputs information related to the analysis result by the face analysis unit.

かかる構成により、受講生画像から認識した講義中の1以上の受講生の顔を分析して、講義に関する適切な分析を行うことができる。また、受講生画像から、受講生の顔を自動認識して分析を行うため、分析の際に受講生の顔等を見る必要がなく、受講生のプライバシーを確保することができる。   With this configuration, it is possible to analyze the face of one or more students in the lecture recognized from the student image and perform appropriate analysis on the lecture. In addition, since the student's face is automatically recognized from the student image and analyzed, it is not necessary to look at the student's face during the analysis, and the student's privacy can be ensured.

また、本発明の顔分析装置は、前記顔分析装置において、顔分析部が取得した分析結果を用いて、予め指定された統計分析を行う統計分析部を更に備え、出力部は、統計分析の結果を出力する顔分析装置である。   Further, the face analysis device of the present invention further includes a statistical analysis unit that performs a statistical analysis specified in advance using the analysis result acquired by the face analysis unit in the face analysis device, and the output unit performs statistical analysis. It is a face analysis device that outputs a result.

かかる構成により、講義中の1以上の受講生の顔の分析結果についての統計分析結果を出力することができる。   With this configuration, it is possible to output a statistical analysis result on the analysis result of the faces of one or more students in the lecture.

また、本発明の顔分析装置は、前記顔分析装置において、顔分析部が取得した分析結果を用いて、予め指定された統計分析を行う統計分析部と、統計分析部の統計分析の結果を用いて、講義の評価を行う講義評価部を更に備え、出力部は、講義評価部の評価結果を出力する顔分析装置である。   Further, the face analysis device of the present invention includes a statistical analysis unit that performs a statistical analysis specified in advance using the analysis result acquired by the face analysis unit in the face analysis device, and a statistical analysis result of the statistical analysis unit. In addition, a lecture evaluation unit that evaluates a lecture is further provided, and the output unit is a face analysis device that outputs an evaluation result of the lecture evaluation unit.

かかる構成により、統計分析結果を利用して、講義に対する評価結果を出力することができる。   With this configuration, it is possible to output the evaluation result for the lecture using the statistical analysis result.

また、本発明の顔分析装置は、前記顔分析装置において、講義中の講師を撮影した動画像である講師画像、または講義中の講師の音声の情報である講師音声情報の少なくとも一方を含む情報である講師情報が格納される講師情報格納部と、講師情報の変化の検出を行う変化検出部とを更に備え、顔分析部は、変化検出部が変化を検出した時点直後に取得された受講生画像に対する顔の分析結果を取得し、出力部は、変化検出部が変化を検出した時点直後に取得された受講生画像に対する顔の分析結果に関連する情報を出力する顔分析装置である。   The face analysis device of the present invention is the face analysis device, wherein the face analysis device includes at least one of a lecturer image that is a moving image of a lecturer during a lecture or lecturer voice information that is voice information of a lecturer during a lecture. A lecturer information storage unit for storing lecturer information and a change detection unit for detecting changes in the lecturer information, and the face analysis unit is a class acquired immediately after the change detection unit detects a change. The face analysis apparatus acquires a face analysis result for the raw image, and the output unit outputs information related to the face analysis result for the student raw image acquired immediately after the change detection unit detects the change.

かかる構成により、講師情報の変化を更に利用して、講義に関するより適切な分析を行うことができる。   With this configuration, it is possible to perform a more appropriate analysis regarding the lecture by further utilizing the change in the lecturer information.

また、本発明の顔分析装置は、前記顔分析装置において、変化検出部が変化を検出した時点直後に取得された受講生画像に対する分析結果を用いて、予め指定された統計分析を行う関連統計分析部を更に備え、出力部は、関連統計分析部の統計分析の結果を出力する顔分析装置である。   Further, the face analysis device of the present invention is a related statistics for performing statistical analysis specified in advance using the analysis result for the student raw image acquired immediately after the change detection unit detects the change in the face analysis device. The face analysis apparatus further includes an analysis unit, and the output unit outputs a result of statistical analysis of the related statistical analysis unit.

かかる構成により、講師情報に変化が生じた場合の1以上の受講生の顔の分析結果についての統計分析結果を出力することができる。   With this configuration, it is possible to output a statistical analysis result regarding the analysis result of one or more students' faces when a change occurs in the lecturer information.

また、本発明の顔分析装置は、前記顔分析装置において、変化検出部が変化を検出した時点直後に取得された受講生画像に対する分析結果を用いて、予め指定された統計分析を行う関連統計分析部と、関連統計分析部の統計分析の結果を用いて、講義の評価を行う関連講義評価部を更に備え、出力部は、関連講義評価部の評価結果を出力する顔分析装置である。   Further, the face analysis device of the present invention is a related statistics for performing statistical analysis specified in advance using the analysis result for the student raw image acquired immediately after the change detection unit detects the change in the face analysis device. An analysis unit and a related lecture evaluation unit that evaluates a lecture using the statistical analysis result of the related statistical analysis unit are further provided, and the output unit is a face analysis device that outputs an evaluation result of the related lecture evaluation unit.

かかる構成により、講師情報に変化が生じた場合の顔の分析結果についての統計分析の結果を利用して、講義に対するより適切な評価結果を出力することができる。   With this configuration, it is possible to output a more appropriate evaluation result for a lecture by using a result of statistical analysis of a face analysis result when a change occurs in lecturer information.

また、本発明の顔分析装置は、前記顔分析装置において、顔分析部は、時系列に沿った受講生の顔の分析結果を取得し、出力部は、顔分析部の顔の分析結果を時系列に沿って出力する顔分析装置である。   Further, in the face analysis device of the present invention, in the face analysis device, the face analysis unit acquires the analysis result of the face of the student along the time series, and the output unit displays the analysis result of the face of the face analysis unit. It is a face analyzer that outputs in time series.

かかる構成により、顔の分析結果を時系列順に出力することができる。   With this configuration, face analysis results can be output in chronological order.

また、本発明の顔分析装置は、前記顔分析装置において、出力部が出力する一の時点の顔の分析結果に対する指定を受け付ける指定受付部を更に備え、出力部は、指定受付部が指定を受け付けた分析結果に対応する時点の受講生画像を出力する顔分析装置である。   The face analysis device of the present invention further includes a designation receiving unit that receives designation for the analysis result of the face at one time point that is output by the output unit in the face analysis device, and the output unit is designated by the designation receiving unit. It is a face analysis device that outputs a student raw image at a time corresponding to a received analysis result.

かかる構成により、指定された分析結果に対応する受講生画像を容易に出力することができる。   With this configuration, it is possible to easily output the student image corresponding to the designated analysis result.

また、本発明の顔分析装置は、前記顔分析装置において、前記出力部は、前記受講生画像を出力する際に、受講生の顔の部分を、受講生が識別できなくなるような表示態様とした受講生画像を出力する顔分析装置である。   Further, in the face analysis device of the present invention, in the face analysis device, when the output unit outputs the student image, the display mode is such that the student's face cannot be identified by the student. This is a face analysis device that outputs the trained raw images.

かかる構成により、表示される受講生画像から、受講生を特定できないようにして、受講生のプライバシーを保護することができる。   With this configuration, it is possible to protect the student's privacy by preventing the student from being identified from the displayed student image.

本発明による顔分析装置等によれば、講義に関する適切な分析を行うことができる。   According to the face analysis apparatus and the like according to the present invention, it is possible to perform an appropriate analysis regarding a lecture.

本発明の実施の形態1における顔分析装置のブロック図Block diagram of face analysis apparatus according to Embodiment 1 of the present invention 同動作について説明するフローチャートFlow chart explaining the operation 同受講生画像のフレーム画像の一部を模式的に示す図A diagram schematically showing part of the frame image of the student image 同顔が認識された状態のフレーム画像を示す模式図Schematic diagram showing a frame image with the same face recognized 同顔分析結果管理表を示す図The figure which shows the same face analysis result management table 同統計分析結果管理表を示す図Figure showing the statistical analysis result management table 同表示例を示す図Figure showing the display example 同表示例を示す図Figure showing the display example 同表示例を示す図Diagram showing the display example 本発明の実施の形態2における顔分析装置のブロック図Block diagram of face analysis apparatus according to Embodiment 2 of the present invention 同動作について説明するフローチャートFlow chart explaining the operation 同講師情報の一部を示す図Figure showing a part of the lecturer information 同変化時分析結果管理表を示す図Figure showing the same time analysis result management table 同統計分析結果管理表を示す図Figure showing the statistical analysis result management table 本発明の各実施の形態におけるコンピュータシステムの外観の一例を示す図The figure which shows an example of the external appearance of the computer system in each embodiment of this invention 同コンピュータシステムの構成の一例を示す図The figure which shows an example of a structure of the computer system

以下、顔分析装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。   Hereinafter, embodiments of the face analysis device and the like will be described with reference to the drawings. In addition, since the component which attached | subjected the same code | symbol in embodiment performs the same operation | movement, description may be abbreviate | omitted again.

(実施の形態1)
図1は、本実施の形態における顔分析装置1のブロック図である。
(Embodiment 1)
FIG. 1 is a block diagram of face analysis apparatus 1 in the present embodiment.

顔分析装置1は、第一撮影部11、受講生画像格納部12、顔分析部13、統計分析部14、講義評価部15、指定受付部16、出力部17を備える。   The face analysis device 1 includes a first photographing unit 11, a student raw image storage unit 12, a face analysis unit 13, a statistical analysis unit 14, a lecture evaluation unit 15, a designation receiving unit 16, and an output unit 17.

第一撮影部11は、講義中の1以上の受講生の顔を撮影して、講義中の1以上の受講生の顔の画像を取得する。1以上の受講生の顔の画像とは、例えば、少なくとも1以上の受講生の顔が含まれている画像を意味する。第一撮影部11は、複数の受講生の顔を含む画像を取得することが好ましい。第一撮影部11は、例えば、1以上の受講生の正面側から撮影を行って動画像を取得する。講義とは、例えば、小中学校や、高等学校、大学、塾、予備校等における授業等も含む概念である。受講生は、例えば、講義を受講している生徒である。受講生は、受講者と考えても良い。また、受講生は、講義に参加しているものであれば、講義を受講する申込みや資格の有無等は問わない。第一撮影部11は、動画像を撮影する。なお、予め指定された一定または不定のタイミングで連続して撮影された複数の静止画像も、ここでは動画像と考えて良い。かかることは、以下においても同様である。第一撮影部11は、撮影した動画像を、例えば、受講生画像格納部12に蓄積する。第一撮影部11は、時系列と対応付けられた動画像を取得する。例えば、いわゆるタイムコードと対応付けられたフレーム画像で構成される動画像を取得する。フレーム画像は、動画像を構成する各静止画像と考えてよい。第一撮影部11は、例えばカメラで実現可能である。   The 1st imaging | photography part 11 image | photographs the face of one or more students in a lecture, and acquires the image of the face of one or more students in a lecture. The face image of one or more students means, for example, an image including at least one student's face. It is preferable that the 1st imaging | photography part 11 acquires the image containing a several student's face. For example, the first photographing unit 11 performs photographing from the front side of one or more students and acquires a moving image. Lecture is a concept including classes at elementary and junior high schools, high schools, universities, cram schools, prep schools, and the like. The student is, for example, a student taking a lecture. A student may be considered a student. In addition, as long as the students are participating in the lecture, it does not matter whether they apply for the lecture or have qualifications. The first imaging unit 11 captures a moving image. Note that a plurality of still images taken continuously at a predetermined or indefinite timing designated in advance may be considered as moving images here. The same applies to the following. The first imaging unit 11 accumulates the captured moving images in, for example, the student raw image storage unit 12. The first imaging unit 11 acquires a moving image associated with a time series. For example, a moving image composed of frame images associated with so-called time codes is acquired. A frame image may be considered as each still image constituting a moving image. The 1st imaging | photography part 11 is realizable with a camera, for example.

受講生画像格納部12には、受講生画像が格納される。受講生画像は、講義中における1以上の受講生の顔を撮影した動画像である。例えば、受講生画像格納部12には、第一撮影部11が撮影した受講生画像が格納される。受講生画像は、複数の受講生の顔を撮影した画像であることが好ましい。受講生画像は、複数の受講生を、複数のエリアに分けてそれぞれ撮影した複数の動画像で構成されていても良い。受講生画像を構成する2以上のフレーム画像や静止画像は、例えば、通常、時系列と対応付けられている。例えば、受講生画像を構成する各フレーム画像や静止画像には、例えば、撮影時刻を示すタイムコード等が対応付けられている。受講生画像のファイル形式や圧縮方式等は問わない。また、画像のサイズや縦横比等は問わない。例えば、受講生画像は、MPEG2やMPEG4、モーションJPEG、AVCHD、DV形式等の形式の動画像である。なお、ここでの時刻は、標準時刻等の絶対的な時刻であっても良いし、撮影開始からの経過時間等の相対的な時刻であっても良い。かかることは以下においても同様である。なお、ここでの格納は一時記憶も含む概念である。受講生画像格納部12は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。かかることは、他の格納部においても同様である。   The student raw image storage unit 12 stores student raw images. The student image is a moving image obtained by photographing one or more students' faces during a lecture. For example, the student raw image storage unit 12 stores a student raw image captured by the first imaging unit 11. The student image is preferably an image obtained by photographing a plurality of students' faces. The student image may be composed of a plurality of moving images obtained by dividing a plurality of students into a plurality of areas. Two or more frame images and still images constituting the student image are usually associated with a time series, for example. For example, each frame image or still image constituting the student raw image is associated with, for example, a time code indicating the shooting time. The file format of the student image and the compression method are not limited. Also, the size and aspect ratio of the image do not matter. For example, the student raw image is a moving image in a format such as MPEG2, MPEG4, motion JPEG, AVCHD, or DV. The time here may be an absolute time such as a standard time or a relative time such as an elapsed time from the start of imaging. The same applies to the following. The storage here is a concept including temporary storage. The student raw image storage unit 12 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium. The same applies to other storage units.

顔分析部13は、受講生画像格納部12に格納されている受講生画像から1以上の受講生の顔を認識して、認識した顔に対する分析を行う。例えば、顔分析部13は、例えば、受講生画像から認識した各受講生の顔を分析して、各顔の表情や、向き、視線方向、まばたき(まばたきをしている、目をつぶっている、または、目を開いている等)等の分析項目についての分析結果を示す情報を取得する。ここで取得される分析結果は、例えば、各分析項目別の特徴量を示す値であると考えても良い。この値は、数値であっても良いし、分析結果を示す文字列等であっても良い。顔の分析結果とは、例えば、分析により得られた顔の表情や、向き、視線、まばたきを示す情報であっても良い。顔の表情とは、例えば、笑いや、怒り、悲しみ等の表情である。顔分析部13は、例えば、受講生画像の一の時点(例えば時刻)の以前または以後に連続したフレーム画像について、それぞれ1以上の顔を検出し、ほぼ同じ場所に検出された顔の画像同士をフレーム画像間で比較することで、一の時点(例えば時刻)についての受講生の顔の表情やまばたきの状況を示す情報を取得してもよい。また、受講生画像の一の時点(例えば時刻)のフレーム画像について、それぞれ1以上の顔を検出し、その顔の画像を分析することで、顔の向きや、視線等を示す情報を取得してもよい。動画像から、顔を認識する処理や、認識した顔を分析して、顔の表情や、向き、視線、まばたきを示す情報を取得する処理は、顔検出技術や、顔表情認識技術等として公知の技術であるので、ここでは詳細な説明は省略する。例えば、次の非特許文献等を参考にされたい("Sony Japan|技術情報 Sony's Technology|技術・テーマから見る|顔画像認識"、[online]、[平成23年8月23日検索]、インターネット<URL:http://www.sony.co.jp/SonyInfo/technology/technology/theme/sface_01.html>)。   The face analysis unit 13 recognizes one or more students' faces from the student raw images stored in the student raw image storage unit 12 and analyzes the recognized faces. For example, the face analysis unit 13 analyzes, for example, the face of each student recognized from the student image, and closes the eyes, blinking (flapping) the facial expression, direction, line-of-sight direction of each face. Or information indicating an analysis result of an analysis item such as an eye open. The analysis result acquired here may be considered as a value indicating a feature amount for each analysis item, for example. This value may be a numerical value, a character string indicating the analysis result, or the like. The face analysis result may be, for example, information indicating the facial expression, orientation, line of sight, and blinking obtained by the analysis. The facial expression is, for example, an expression such as laughter, anger, or sadness. The face analysis unit 13 detects, for example, one or more faces for consecutive frame images before or after one time point (for example, time) of the student raw images, and the face images detected at substantially the same place are detected. May be acquired between the frame images to obtain information indicating the facial expression of the student and the blinking situation at one time point (for example, time). In addition, one or more faces are detected for each frame image at one time (for example, time) of the student image, and information indicating the face direction, line of sight, etc. is acquired by analyzing the face image. May be. Processing for recognizing a face from a moving image and processing for analyzing the recognized face to acquire facial expression, orientation, line of sight, and blinking information are known as face detection technology, facial expression recognition technology, etc. Therefore, detailed description is omitted here. For example, please refer to the following non-patent documents ("Sony Japan | Technical Information Sony's Technology | View from Technology / Theme | Facial Image Recognition", [online], [Search August 23, 2011], Internet <URL: http://www.sony.co.jp/SonyInfo/technology/technology/theme/sface_01.html>).

顔分析部13は、例えば、受講生画像を用いて、1以上の時点、好ましくは複数の時点(例えば時刻)における受講生の顔の分析結果を取得する。なお、ここでの時点、とは、受講生画像の一の時点のフレーム画像を意味すると考えて良い。かかることは以下においても同様である。例えば、顔分析部13は、受講生画像を構成する複数の時点のフレーム画像について、それぞれ1以上の受講生の顔を認識し、認識された受講生の顔のそれぞれについて、各フレーム画像ごとに分析結果を取得する。各時点のフレーム画像についての顔の分析結果を取得する際には、各フレームの前または後のフレーム画像を適宜利用してもよい。かかることは以下においても同様である。複数の時点は、例えば、受講生画像が撮影された時間内の、予め指定された時間間隔を隔てた複数の時刻や、ユーザにより指定された複数の時刻やフレーム画像である。例えば、顔分析部13は、動画である受講生画像についてn秒(nは1以上の整数)ごとに順次分析結果を取得しても良い。   For example, the face analysis unit 13 acquires the analysis results of the student's face at one or more time points, preferably at a plurality of time points (for example, time points), using the student image. The time point here may be considered to mean a frame image at one time point of the student image. The same applies to the following. For example, the face analysis unit 13 recognizes one or more students' faces for each of the frame images at a plurality of time points constituting the student image, and for each recognized student's face, for each frame image Get analysis results. When acquiring the face analysis result for the frame image at each time point, the frame image before or after each frame may be used as appropriate. The same applies to the following. The plurality of time points are, for example, a plurality of times at predetermined time intervals within a time when the student image is taken, or a plurality of times and frame images specified by the user. For example, the face analysis unit 13 may sequentially acquire the analysis results for every n seconds (n is an integer equal to or greater than 1) for the student image that is a moving image.

統計分析部14は、顔分析部13が取得した分析結果を用いて、予め指定された統計分析を行う。統計分析部14は、どのような統計分析を行っても良い。統計分析部14は、例えば、受講生画像の1以上の各時点ごとに個別に統計分析を行っても良いし、一の講義に対応する受講生画像全体あるいはその一部に対して総合的な統計分析を行っても良い。、また、統計分析部14は、例えば、顔分析部13が取得した分析項目別の分析結果について、統計分析を行っても良いし、顔分析部13が取得した分析項目別の分析結果を利用して、総合的な分析結果を取得して、この総合的な分析結果について統計分析を行っても良い。   The statistical analysis unit 14 performs statistical analysis designated in advance using the analysis result acquired by the face analysis unit 13. The statistical analysis unit 14 may perform any statistical analysis. For example, the statistical analysis unit 14 may individually perform statistical analysis for each of one or more time points of the student image, or may comprehensively analyze the entire student image corresponding to one lecture or a part thereof. Statistical analysis may be performed. The statistical analysis unit 14 may perform statistical analysis on the analysis result for each analysis item acquired by the face analysis unit 13 or use the analysis result for each analysis item acquired by the face analysis unit 13. Then, a comprehensive analysis result may be acquired and statistical analysis may be performed on the comprehensive analysis result.

例えば、統計分析部14は、顔分析部13が動画像の1以上の各時点ごとに取得した分析結果のそれぞれに対して、分析項目別に(例えば、表情別、向き別、視線方向別、まばたきの状況別に)検出された顔の数の集計を行い、その集計結果あるいはその集計結果の検出された顔全体に対する比率等と、各時点を特定する情報(例えば、各時点に対応する時刻や、講義開始からの経過時間やフレーム番号等)とを対応付けた情報を、統計分析結果として取得しても良い。なお、顔の数の集計結果等は、適宜、正規化しても良い。かかることは以下においても同様である。   For example, the statistical analysis unit 14 performs, for each analysis item (for example, for each expression, each direction, each line of sight, blinking), for each analysis result acquired by the face analysis unit 13 for each of one or more time points of the moving image. The number of detected faces is counted, and the total result or the ratio of the total result to the detected face and the information specifying each time point (for example, the time corresponding to each time point, Information that associates the elapsed time from the start of the lecture, the frame number, and the like) may be acquired as a statistical analysis result. Note that the result of counting the number of faces may be normalized as appropriate. The same applies to the following.

また、統計分析部14は、例えば、一の講義において得られた受講生画像の1以上の各時点において、分析項目別に検出された顔を、一の講義(あるいは、その一部)について集計した値、あるいは、この集計した値の検出された顔の数に対する比率を、統計分析結果として取得しても良い。あるいは、受講生画像の1以上の各時点(例えば各時点のフレーム画像)について認識した複数の顔のそれぞれについての分析項目別の分析結果(例えば、表情や顔の向きや視線方向等)を、予め用意された変換表や変換式等を用いて数値に変換し、この数値の平均値や分散や標準偏差等を、各時点について、あるいは、一の講義(あるいは、その一部)について取得しても良い。この数値としては、顔分析の際に用いられる数値を用いても良い。   In addition, the statistical analysis unit 14 totals, for example, one face (or a part thereof) of faces detected by analysis item at one or more time points of the student image obtained in one lecture. A value or a ratio of the total value to the number of detected faces may be acquired as a statistical analysis result. Alternatively, an analysis result (for example, facial expression, face direction, line-of-sight direction, etc.) for each analysis item for each of a plurality of faces recognized at one or more time points (for example, frame images at each time point) of the student raw image, Convert to numerical values using conversion tables and conversion formulas prepared in advance, and obtain the average value, variance, standard deviation, etc. of these numerical values for each time point or for one lecture (or part of it). May be. As this numerical value, a numerical value used in face analysis may be used.

また、統計分析部14は、各時点について取得した分析結果の分析項目別の顔の数の集計結果やその比率から、集計結果や比率が高い時点を示す情報(例えば時刻や講義開始からの経過時間等)を統計分析結果として取得しても良い。   In addition, the statistical analysis unit 14 obtains information indicating the time when the count result and the ratio are high from the count result of the number of faces for each analysis item of the analysis result acquired for each time point and the ratio thereof (for example, time and progress from the start of the lecture Time etc.) may be acquired as a statistical analysis result.

また、統計分析部14は、統計分析結果として、例えば、顔分析部13が認識した各受講生の顔別に、顔の分析結果を複数の時点にわたって取り出したり、これを時系列に沿って配列したりしてもよい。複数の時点にわたる受講生の顔の分析結果とは、例えば、一の講義について撮影された受講生画像の異なる時点(時刻)において、それぞれ取得した分析結果である。例えば、受講生画像から、2以上の時点(好ましくは複数の時点)において1以上の受講生についての顔の分析結果を取得し、この分析結果を受講生別に時系列に沿って配列したものを取得してもよい。この際、顔分析部13は、各分析結果を、各分析結果を取得した時点を示す情報(例えば、時刻の情報や、フレーム番号等の情報等)と対応付けた情報を取得するようにしても良い。   In addition, the statistical analysis unit 14 extracts, for example, face analysis results over a plurality of points in time for each student face recognized by the face analysis unit 13 as a statistical analysis result, or arranges them in time series. Or you may. The student's face analysis results over a plurality of time points are, for example, analysis results obtained at different time points (time) of the student image taken for one lecture. For example, a face analysis result for one or more students is acquired from two or more time points (preferably a plurality of time points) from the student image, and the analysis results are arranged in time series for each student. You may get it. At this time, the face analysis unit 13 acquires information in which each analysis result is associated with information indicating the time when each analysis result is acquired (for example, time information, frame number information, etc.). Also good.

また、統計分析部14は、顔分析部13が、受講者画像の複数の時点について取得した分析結果について、顔分析部13が認識した顔ごとに、各分析項目別の分析結果の出現回数を集計して、集計結果と、認識した顔を識別する情報(例えば、認識した顔に割り当てられる識別情報)等とを対応付けた情報を統計結果として取得しても良い。これにより、受講者画像に認識された各受講者の顔の時系列の分析結果の変化を示す統計結果を取得することができる。   In addition, the statistical analysis unit 14 determines the number of appearances of the analysis result for each analysis item for each face recognized by the face analysis unit 13 for the analysis results obtained by the face analysis unit 13 for a plurality of time points of the student image. The information may be aggregated, and information in which the aggregation result is associated with information for identifying the recognized face (for example, identification information assigned to the recognized face) may be acquired as a statistical result. Thereby, the statistical result which shows the change of the analysis result of the time series of each student's face recognized by the student image can be acquired.

また、顔分析部13は、分析項目別の分析結果の値を多変量として、クラスタ分析や多変量解析を行っても良い。   Further, the face analysis unit 13 may perform cluster analysis or multivariate analysis using the value of the analysis result for each analysis item as a multivariate.

また、統計分析部14は、例えば、顔ごとの分析項目の検出結果を数値に変換したものを加算した値、あるいは分析項目別に重み付けして加算した値を、認識された顔ごとの総合的な分析結果である特徴量として取得し、この特徴量を用いて平均値や分散や偏差値等を取得しても良い。   In addition, the statistical analysis unit 14, for example, adds a value obtained by converting the detection result of the analysis item for each face into a numerical value or a value obtained by weighting and adding the analysis item for each comprehensive face for each recognized face. It may be acquired as a feature value that is an analysis result, and an average value, variance, deviation value, or the like may be acquired using this feature value.

なお、顔分析部13が取得した分析結果とは、後述する出力部17が図示しない記憶媒体等に蓄積した顔分析部13が取得した分析結果であっても良い。   The analysis result acquired by the face analysis unit 13 may be an analysis result acquired by the face analysis unit 13 accumulated in a storage medium (not shown) by the output unit 17 described later.

講義評価部15は、統計分析部14の統計分析の結果を用いて、講義の評価を行う。ここで行う講義の評価とは、例えば、講義に関連する評価である。講義評価部15が行う講義の評価は、例えば、講義の進め方や講義の内容に対する評価である。また、講義を受ける受講生に対する評価であっても良いし、講義を行う講師に対する評価であっても良い。例えば、講義の良い悪いを判断する評価や、講義が適切であるか否かを判断する評価や、講義の良さや適切さを、数値や指標で示すことである。あるいは、講義が分かりやすいか否かや、講義がおもしろいか否かや、講義の内容に集中しやすいか否か等の評価であっても良い。   The lecture evaluation unit 15 evaluates the lecture using the statistical analysis result of the statistical analysis unit 14. The lecture evaluation performed here is, for example, an evaluation related to the lecture. The evaluation of the lecture performed by the lecture evaluation unit 15 is, for example, an evaluation of how to advance the lecture or the content of the lecture. Further, the evaluation may be an evaluation for a student who takes a lecture, or an evaluation for a lecturer who gives a lecture. For example, an evaluation for determining whether a lecture is good or bad, an evaluation for determining whether or not a lecture is appropriate, and the good or appropriateness of a lecture are indicated by numerical values or indicators. Alternatively, it may be an evaluation of whether the lecture is easy to understand, whether the lecture is interesting, and whether it is easy to concentrate on the content of the lecture.

講義評価部15は、例えば、一の講義全体について統計分析部14により取得された統計分析の結果を用いて講義の評価を行う。例えば、一の講義全体についての統計分析結果(例えば、一の講義全体において集計された分析項目別の顔の検出数)が、予め指定された条件を満たすか否かを判断し、条件を満たす場合、予めこの条件に対応付けられて用意された評価結果を取得する。なお、条件を満たさない場合も、満たさない場合のために予め用意された評価結果を取得してもよい。この条件は、例えば、分析項目別に用意された、予め指定された分析項目の値が閾値を超える、あるいは閾値を超えないという条件である。あるいは、この条件は、複数の分類項目別に個別に用意された条件を全て満たす、あるいは満たさない、あるいはその一部だけを満たす等の条件であっても良い。   For example, the lecture evaluation unit 15 evaluates a lecture using the result of statistical analysis acquired by the statistical analysis unit 14 for the entire lecture. For example, it is determined whether or not a statistical analysis result (for example, the number of face detections for each analysis item aggregated in one entire lecture) for a whole lecture satisfies a predetermined condition. In this case, an evaluation result prepared in advance in association with this condition is acquired. An evaluation result prepared in advance for not satisfying the condition or not satisfying the condition may be acquired. This condition is, for example, a condition that the value of an analysis item designated in advance prepared for each analysis item exceeds a threshold value or does not exceed a threshold value. Alternatively, this condition may be a condition such that all the conditions individually prepared for each of the plurality of classification items are satisfied, not satisfied, or only a part thereof is satisfied.

また、講義評価部15は、例えば、受講生画像の各時点について、統計分析部14により取得された統計分析の結果が、予め指定された条件を満たすか否かを判断して、講義の評価を行ってもよい。例えば、受講生画像の各時点について統計分析部14が取得した各分析項目別の顔の検出数(あるいはこれを正規化した値)が、分析項目別に予め指定された閾値を超えるか否かを判断し、1以上の検出数が閾値を超える場合に、条件を満たすと判断して、この条件に対応付けられた評価結果を取得しても良い。   In addition, the lecture evaluation unit 15 determines, for example, whether or not the result of the statistical analysis acquired by the statistical analysis unit 14 satisfies a predetermined condition for each time point of the student image. May be performed. For example, it is determined whether or not the number of detected faces (or a normalized value) for each analysis item acquired by the statistical analysis unit 14 at each time point of the student image exceeds a threshold value specified in advance for each analysis item. When the number of detections of 1 or more exceeds the threshold, it may be determined that the condition is satisfied, and an evaluation result associated with the condition may be acquired.

また、講義評価部15は、上記のように取得した一の講義の受講生画像の各時点についての講義の評価結果を用いて、一の講義の評価結果を取得しても良い。例えば、一の講義の受講生画像の複数の時点についてそれぞれ取得した講義の評価結果の全て、あるいは一部が、予め指定された条件を満たす場合に、この条件に対応付けられた評価結果を、一の講義の評価結果として取得しても良い。例えば、複数の時点についてそれぞれ取得した講義の評価結果のなかに、予め指定された閾値以上の数の、予め指定された評価結果(例えば、生徒の興味が保たれているという評価結果)が含まれている場合、条件を満たすと判断して、この条件に対応付けられた「良質な講義」という評価結果を取得しても良い。あるいは、複数の講義の評価結果を用いて、複数の講義全体の評価結果を取得しても良い。   Further, the lecture evaluation unit 15 may acquire the evaluation result of one lecture using the evaluation result of the lecture at each time point of the student image of the one lecture acquired as described above. For example, when all or some of the evaluation results of lectures acquired for a plurality of time points of a student image of one lecture satisfy a predetermined condition, the evaluation results associated with this condition are It may be acquired as an evaluation result of one lecture. For example, among the evaluation results of lectures acquired for a plurality of time points, the number of evaluation results specified in advance (for example, the evaluation result indicating that the student's interest is maintained) is greater than or equal to a predetermined threshold value. If the condition is satisfied, it may be determined that the condition is satisfied, and an evaluation result of “quality lecture” associated with the condition may be acquired. Alternatively, evaluation results of a plurality of lectures as a whole may be acquired using evaluation results of a plurality of lectures.

どのような受講生画像についての統計分析の結果を、講義の評価に用いるかは、講義の評価目的等により適宜変更するようにしてよい。一の講義を評価する場合、評価に用いられる統計分析の結果は、例えば、一の講義において撮影された受講者画像から統計分析部14が取得した統計分析の結果である。また、一のテーマや、一の科目、一の学年、一のクラス等に対して行われた講義を評価する場合、例えば、一のテーマや、一の科目、一の学年、一のクラス等について行われた1以上(好ましくは複数)の講義において撮影された受講者画像から統計分析部14が取得した統計分析の結果が評価に用いられる。また、一の講師の講義の評価を行う場合、例えば、一の講師によって行われた1以上(好ましくは複数)の講義において撮影された受講者画像から統計分析部14が取得した統計分析の結果が評価に用いられる。   What kind of student analysis results are used for the evaluation of the lecture may be appropriately changed depending on the purpose of the evaluation of the lecture. When evaluating one lecture, the result of statistical analysis used for evaluation is, for example, the result of statistical analysis acquired by the statistical analysis unit 14 from a student image taken in one lecture. Also, when evaluating lectures conducted on one theme, one subject, one grade, one class, etc., for example, one theme, one subject, one grade, one class, etc. The result of the statistical analysis acquired by the statistical analysis unit 14 from the student images taken in one or more (preferably a plurality of) lectures conducted on is used for evaluation. Further, when evaluating a lecture by one lecturer, for example, a result of statistical analysis acquired by the statistical analysis unit 14 from student images taken in one or more (preferably a plurality of) lectures conducted by one lecturer. Is used for evaluation.

なお、講義評価部15が講義の評価に用いる統計分析部14の統計分析の結果は、講述する出力部17が図示しない記憶媒体等に蓄積した統計分析部14が取得した統計分析結果であっても良い。   Note that the statistical analysis result of the statistical analysis unit 14 used by the lecture evaluation unit 15 for the evaluation of the lecture is a statistical analysis result acquired by the statistical analysis unit 14 accumulated in a storage medium (not shown) by the output unit 17 to be lectured. Also good.

指定受付部16は、顔分析部13が、時系列に沿った受講生の顔の複数の分析結果を取得する場合、後述する出力部17が出力する一の時点の顔の分析結果に対する指定を受け付ける。例えば、指定受付部16は、出力部17が時系列に沿って出力した顔の分析結果の1以上の指定を受け付ける。ここでの出力は、表示や図示しない記憶媒体への蓄積等である。分析結果の指定とは、分析結果の識別情報や、分析結果を示す画像等に対する指定であっても良い。ここでの受け付けとは、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、有線もしくは無線の通信回線を介して送信された情報の受信、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念である。指定のための入力手段は、テンキーやキーボードやマウスやメニュー画面によるもの等、何でも良い。指定受付部16は、テンキーやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。   When the face analysis unit 13 acquires a plurality of analysis results of the student's face in time series, the designation receiving unit 16 designates the analysis result of the face at one time point output by the output unit 17 described later. Accept. For example, the designation receiving unit 16 receives one or more designations of the face analysis results output by the output unit 17 in time series. The output here is display, storage in a storage medium (not shown), or the like. The designation of the analysis result may be designation of analysis result identification information, an image showing the analysis result, or the like. Accepting here means accepting information input from input devices such as a keyboard, mouse, touch panel, receiving information sent via a wired or wireless communication line, recording on an optical disc, magnetic disc, semiconductor memory, etc. It is a concept including reception of information read from a medium. The input means for designating may be anything such as a numeric keypad, keyboard, mouse or menu screen. The designation receiving unit 16 can be realized by a device driver for input means such as a numeric keypad or a keyboard, control software for a menu screen, and the like.

出力部17は、顔分析部13による分析結果に関連する情報を出力する。顔分析部13による分析結果に関連する情報は、例えば、顔分析部13が取得した分析結果の情報である。また、この分析結果の情報と、分析結果の取得対象となったフレーム画像等の取得された時点(例えば、時刻)の情報とを対応付けて有する情報であってもよい。また、顔分析部13による分析結果に関連する情報は、例えば、顔分析部13が取得した分析結果を用いて取得された情報であってもよい。例えば、出力部17は、顔分析部13による分析結果に関連する情報として、統計分析部14が取得した統計分析の結果を出力する。また、出力部17は、顔分析部13による分析結果に関連する情報として、講義評価部15の評価結果を出力する。   The output unit 17 outputs information related to the analysis result by the face analysis unit 13. The information related to the analysis result by the face analysis unit 13 is, for example, information on the analysis result acquired by the face analysis unit 13. Moreover, the information which has this analysis result information and the information of the acquired time (for example, time), such as a frame image used as the acquisition target of the analysis result, may be associated with each other. The information related to the analysis result by the face analysis unit 13 may be information acquired using the analysis result acquired by the face analysis unit 13, for example. For example, the output unit 17 outputs the result of the statistical analysis acquired by the statistical analysis unit 14 as information related to the analysis result by the face analysis unit 13. The output unit 17 outputs the evaluation result of the lecture evaluation unit 15 as information related to the analysis result by the face analysis unit 13.

また、出力部17は、顔分析部13が、時系列に沿った受講生の顔の複数の分析結果を取得する場合、顔分析部13の顔の分析結果を時系列に沿って出力するようにしてもよい。分析結果を時系列に沿って出力するということは、例えば、分析結果を時系列順に並べて出力することである。例えば、分析結果の取得対象となる受講生画像の時点の順番にあわせて、分析結果を配列して出力しても良い。あるいは、分析結果を時刻と対応付けて出力することも、時系列順の並びを容易に把握することができ、時系列順の並び替えも容易であることから、時系列に沿った出力と考えても良い。例えば、出力部17は、分析結果と、この分析結果の取得対象となる受講生画像の時点を識別する情報(例えば、分析結果の取得対象となる受講生画像のフレーム画像と対応付けられた時刻の情報や、フレーム画像の識別情報等)とを、対応付けて出力してもよい。また、特に出力が表示である場合、各分析結果の識別情報や、分析結果と対応付けられたリンクボタン等を、時間軸と対応付けて表示することも、分析結果を時系列に沿って出力することと考えても良い。   Further, the output unit 17 outputs the face analysis results of the face analysis unit 13 along the time series when the face analysis unit 13 acquires a plurality of analysis results of the face of the student along the time series. It may be. Outputting the analysis results in time series means, for example, outputting the analysis results arranged in time series. For example, the analysis results may be arranged and output according to the order of the time points of the student raw images that are the acquisition targets of the analysis results. Alternatively, the analysis results can be output in association with the time, and the time-series order can be easily grasped, and the time-series order can be easily rearranged. May be. For example, the output unit 17 identifies the analysis result and information identifying the time point of the student raw image from which the analysis result is acquired (for example, the time associated with the frame image of the student raw image from which the analysis result is to be acquired). And the frame image identification information) may be output in association with each other. In addition, when the output is a display, the identification information of each analysis result, the link button associated with the analysis result, and the like can be displayed in association with the time axis, or the analysis result can be output in time series. You may think that

また、出力部17は、顔分析部13が、時系列に沿った受講生の顔の複数の分析結果を取得する場合、指定受付部16が指定を受け付けた分析結果に対応する時点の受講生画像を出力する。例えば、出力部17は、指定受付部16が指定を受け付けた分析結果に対応する時点(例えば時刻)と対応付けられたフレーム画像を、受講生画像格納部12から読み出して出力する。あるいは、指定受付部16が指定を受け付けた分析結果に対応する時点の前後の期間の動画像を受講生画像から読み出して、指定を受け付けた分析結果に対応する時点の受講生画像として出力しても良い。なお、受講生画像(例えば、フレーム画像)を出力する際には、受講生画像の受講生の顔の部分を、受講生が識別できなくなるような表示態様とした受講生画像を、出力するようにしても良い。顔の部分を、受講生が識別できなくなるような表示態様にするということは、例えば、受講生画像の受講生の顔の部分に、単色の画像や、予め用意されているアイコン等の画像や、パターン画像等の、受講生の個々の顔とは無関係な画像を表示することや、受講生の顔の部分をマスク処理して顔を非表示とすることや、受講生の顔の部分の画像に対してモザイク処理やぼかし処理を行うことである。なお、受講生画像に含まれる受講生の顔の部分は、例えば、顔分析部13が、顔の分析を行う際に受講生画像について認識した顔の領域を示す情報(例えば、顔の輪郭の画素の座標や、顔を構成する画素の座標)を用いて検出しても良いし、出力部17が受講生画像を出力する際に、顔分析部13が、顔の分析を行う際の処理と同様に、受講生画像内の顔を認識することで検出しても良い。このようにすることで、受講生画像内の各受講生の顔が見分けられないようにして、受講生のプライバシーを保護することが可能となる。   In addition, when the face analysis unit 13 acquires a plurality of analysis results of the students' faces along the time series, the output unit 17 is a student at the time corresponding to the analysis result received by the designation receiving unit 16 Output an image. For example, the output unit 17 reads out the frame image associated with the time point (for example, the time) corresponding to the analysis result received by the designation receiving unit 16 from the student raw image storage unit 12 and outputs the frame image. Alternatively, a moving image of a period before and after the time corresponding to the analysis result received by the designation receiving unit 16 is read from the student raw image and output as a student raw image at the time corresponding to the analysis result received the designation. Also good. When outputting a student image (for example, a frame image), a student image that is displayed in such a manner that the student's face portion of the student image cannot be identified by the student is output. Anyway. For example, the face portion is displayed in such a manner that the student cannot be identified. For example, the face portion of the student image of the student image is a monochrome image, an image such as an icon prepared in advance, To display images that are unrelated to the student's individual face, such as pattern images, to mask the student's face and hide the face, This is to perform mosaic processing and blur processing on the image. The face part of the student included in the student image is, for example, information indicating the face area recognized by the face analysis unit 13 for the student image when the face is analyzed (for example, the face contour). The coordinates of the pixels and the coordinates of the pixels constituting the face), and when the output unit 17 outputs the student raw image, the process when the face analysis unit 13 performs the face analysis Similarly to the above, it may be detected by recognizing the face in the student image. By doing in this way, it becomes possible to protect each student's privacy by not distinguishing each student's face in a student image.

ここでの出力とは、ディスプレイへの表示、プロジェクターを用いた投影、プリンタへの印字、外部の装置への送信、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である。また、ここで述べる出力とは、一時記憶も含む概念である。出力部17は、ディスプレイ等の出力デバイスを含むと考えても含まないと考えても良い。出力部17は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。なお、かかることは、以下の出力部においても同様である。   Output here means display on a display, projection using a projector, printing on a printer, transmission to an external device, storage on a recording medium, processing results to other processing devices or other programs, etc. It is a concept that includes delivery. The output described here is a concept including temporary storage. The output unit 17 may or may not include an output device such as a display. The output unit 17 can be realized by output device driver software, or output device driver software and an output device. This also applies to the following output units.

次に、顔分析装置1の動作について図2のフローチャートを用いて説明する。なお、ここでは、予め、一の講義について撮影された受講生画像が、予め受講生画像格納部12に格納されているものとする。この受講生画像は、ここでは、一のファイルを構成する動画像であるとする。受講生画像の各フレーム画像には、タイムコードが対応付けられているものとする。   Next, the operation of the face analysis apparatus 1 will be described using the flowchart of FIG. Here, it is assumed that the student raw images taken for one lecture are stored in the student raw image storage unit 12 in advance. Here, it is assumed that this student raw image is a moving image constituting one file. It is assumed that a time code is associated with each frame image of the student image.

(ステップS201)顔分析装置1は、図示しない受付部等を介して、受講生画像格納部12に格納されている一の受講生画像を分析する指示を受け付けたか否かを判断する。指示を受け付けた場合、ステップS202に進み、受け付けていない場合、ステップS201に戻る。   (Step S201) The face analysis apparatus 1 determines whether an instruction to analyze one student raw image stored in the student raw image storage unit 12 has been received via a receiving unit (not shown) or the like. If an instruction has been accepted, the process proceeds to step S202. If not, the process returns to step S201.

(ステップS202)顔分析部13は、カウンターnに1を代入する。   (Step S202) The face analysis unit 13 substitutes 1 for a counter n.

(ステップS203)顔分析部13は、受講生画像内に、分析対象となるn番目の時刻と対応付けられたフレーム画像が、分析対象となる受講生画像に存在するか否かを判断する。ここでのフレーム画像は連続したフレーム画像でなくてよい。例えば、撮影開始から5秒間隔で顔分析を順次行う場合、撮影開始からn×5秒後のタイムコードと対応付けられたフレーム画像が存在するか否かを判断する。フレーム画像がある場合、ステップS204に進み、ない場合、ステップS210に進む。   (Step S203) The face analysis unit 13 determines whether or not a frame image associated with the n-th time to be analyzed exists in the student raw image to be analyzed in the student raw image. The frame image here may not be a continuous frame image. For example, when face analysis is sequentially performed at intervals of 5 seconds from the start of shooting, it is determined whether there is a frame image associated with a time code n × 5 seconds after the start of shooting. If there is a frame image, the process proceeds to step S204; otherwise, the process proceeds to step S210.

(ステップS204)顔分析部13は、n番目の時刻と対応付けられたフレーム画像について、1以上の顔を順次認識する。顔分析部13は、例えば、認識した1以上の顔の輪郭を示す情報に対して、それぞれ、顔の識別情報を付与して、図示しない記憶媒体等に一時記憶する。   (Step S204) The face analysis unit 13 sequentially recognizes one or more faces in the frame image associated with the nth time. For example, the face analysis unit 13 assigns face identification information to information indicating the contours of one or more recognized faces, and temporarily stores them in a storage medium (not shown).

(ステップS205)顔分析部13は、ステップS204で認識した各顔について分析を行う。例えば、ステップS204で認識した各顔ごとに、予め指定された分析項目についての分析を行い、分析結果を示す情報を取得する。顔の分析を行う際には、例えば、n番目の時刻と対応付けられたフレーム画像の前または後のフレーム画像を利用してもよい。   (Step S205) The face analysis unit 13 analyzes each face recognized in step S204. For example, for each face recognized in step S204, an analysis is performed on the analysis item designated in advance, and information indicating the analysis result is acquired. When performing face analysis, for example, a frame image before or after the frame image associated with the nth time may be used.

(ステップS206)顔分析部13は、各顔の識別情報と、各顔についての分析結果と、分析態様となったフレーム画像に対応する時刻とを対応付けて、図示しない記憶媒体等に蓄積する。これにより、分析結果が時系列に沿って出力(ここでは、特に蓄積)される。この蓄積は、出力部17が行うようにしても良い。なお、顔分析部13は、n番目の時刻と対応付けられたフレーム画像について、顔を検出する処理を行い、一の顔を検出するごとに、その顔についてステップS205に示すような分析を行い、その分析結果を蓄積する処理を、新たな顔が検出できなくなるまで繰り返し行うようにしても良い。   (Step S206) The face analysis unit 13 associates the identification information of each face, the analysis result for each face, and the time corresponding to the frame image in the analysis mode, and accumulates them in a storage medium (not shown). . As a result, the analysis results are output (in particular, accumulated here) along the time series. This accumulation may be performed by the output unit 17. The face analysis unit 13 performs a face detection process on the frame image associated with the nth time, and performs an analysis as shown in step S205 for each face each time a face is detected. The process of accumulating the analysis results may be repeated until no new face can be detected.

(ステップS207)統計分析部14は、n番目の時刻と対応付けられたフレーム画像に対する顔分析部13の分析結果を用いて、統計分析を行う。例えば、ステップS206で取得した各顔の分析結果について、分析結果が同じである顔の数を集計する。例えば、この集計値が、統計分析結果である。例えば、分析結果が同じものとは、例えば、分析項目と、その分析項目について得られた分析値が同じものである。なお、一の顔に関して複数の分析結果が得られている場合、一部の分析結果が同じものを優先的に集計するようにしても良い。あるいは、この一の顔を、それぞれの分析結果の集計において重複してカウントしても良い。なお、ここでは、フレーム画像ごとに統計分析を行うが、複数のフレーム画像に対する顔分析部13の分析結果を用いて、ステップS210の直前等に、複数のフレーム画像についてそれぞれ上記と同様の統計分析を行っても良い。   (Step S207) The statistical analysis unit 14 performs statistical analysis using the analysis result of the face analysis unit 13 for the frame image associated with the nth time. For example, for the analysis result of each face acquired in step S206, the number of faces having the same analysis result is totaled. For example, this total value is a statistical analysis result. For example, the same analysis result means that the analysis item and the analysis value obtained for the analysis item are the same. In addition, when a plurality of analysis results are obtained for one face, a part of the same analysis result may be preferentially aggregated. Alternatively, this one face may be counted redundantly in the aggregation of the respective analysis results. Here, the statistical analysis is performed for each frame image. However, using the analysis result of the face analysis unit 13 for the plurality of frame images, the same statistical analysis as described above is performed for each of the plurality of frame images immediately before step S210. May be performed.

(ステップS208)統計分析部14は、ステップS207で取得した統計分析結果を、n番目の時刻と対応付けて図示しない記憶媒体等に蓄積する。この蓄積は、出力部17が行うようにしても良い。   (Step S208) The statistical analysis unit 14 stores the statistical analysis result acquired in step S207 in a storage medium (not shown) or the like in association with the nth time. This accumulation may be performed by the output unit 17.

(ステップS209)顔分析部13は、カウンターnの値を1インクリメントする。そして、ステップS203に戻る。   (Step S209) The face analysis unit 13 increments the value of the counter n by 1. Then, the process returns to step S203.

(ステップS210)講義評価部15は、ステップS208で蓄積された統計分析結果を用いて、上述した一の受講生画像に対応する講義の評価を行う。例えば、ステップS208で蓄積された統計分析結果の中に、予め指定された条件を満たす統計分析結果が存在する場合、この条件に予め対応付けられた講義の評価を示す情報を取得する。例えば、各時刻に対応した統計分析結果が、横を向いている受講生の顔の集計数であり、予め指定された条件が、横を向いている受講生の顔の数が予め指定された数以上の統計分析結果が、予め指定された数以上検出されるという条件であり、この条件に対応した講義の評価が、「集中力が保たれていない」という評価であるとすると、ステップS208で蓄積された統計分析結果が、この条件を満たす場合、「集中力が保たれていない」という講義の評価結果が得られる。なお、ここでは、異なる複数の評価を行っても良い。なお、横を向いている受講生の顔の数が予め指定された数以上の統計分析結果を集計する処理を、統計分析部14が行うようにしても良い。   (Step S210) The lecture evaluation unit 15 evaluates the lecture corresponding to the above-described one student raw image using the statistical analysis result accumulated in step S208. For example, if there is a statistical analysis result that satisfies a previously specified condition among the statistical analysis results accumulated in step S208, information indicating the evaluation of a lecture that is associated with this condition in advance is acquired. For example, the statistical analysis result corresponding to each time is the total number of faces of students who are facing sideways, and the predesignated condition is that the number of faces of students who are facing sideways is designated in advance. If it is a condition that more than a predetermined number of statistical analysis results are detected, and the evaluation of the lecture corresponding to this condition is an evaluation that “concentration is not maintained”, step S208. If the statistical analysis result accumulated in this condition satisfies this condition, the evaluation result of the lecture “Concentration is not maintained” is obtained. Here, a plurality of different evaluations may be performed. Note that the statistical analysis unit 14 may perform a process of counting statistical analysis results in which the number of faces of students facing sideways is equal to or greater than a predetermined number.

(ステップS211)講義評価部15は、評価結果を、講義の識別情報や、受講生画像等と対応付けて、図示しない記憶媒体等に蓄積する。この蓄積は、出力部17が行うようにしても良い。   (Step S211) The lecture evaluation unit 15 stores the evaluation results in a storage medium (not shown) or the like in association with the lecture identification information, the student raw images, or the like. This accumulation may be performed by the output unit 17.

(ステップS212)出力部17は、ステップS208で蓄積した統計分析結果と、ステップS211で蓄積した評価結果とを表示する。   (Step S212) The output unit 17 displays the statistical analysis result accumulated in Step S208 and the evaluation result accumulated in Step S211.

(ステップS213)出力部17は、ステップS206で蓄積した顔分析部13が取得した分析結果を表示するか否かを判断する。例えば、図示しない受付部等を介して、分析結果を表示する指示を受け付けたか否かを判断する。分析結果を表示する場合、ステップS214に進み、表示しない場合、ステップS219に進む。   (Step S213) The output unit 17 determines whether to display the analysis result acquired by the face analysis unit 13 accumulated in Step S206. For example, it is determined whether or not an instruction to display the analysis result is received via a reception unit (not shown) or the like. If the analysis result is displayed, the process proceeds to step S214. If not, the process proceeds to step S219.

(ステップS214)出力部17は、ステップS206で蓄積した分析結果を表示する。   (Step S214) The output unit 17 displays the analysis result accumulated in Step S206.

(ステップS215)指定受付部16は、図示しない受付部等を介して、一の分析結果の指定を受け付けたか否かを判断する。ここでの一の分析結果とは、例えば、一の時刻に対応付けられた分析結果である。受け付けた場合、ステップS216に進み、受け付けていない場合、ステップS220に進む。   (Step S215) The designation receiving unit 16 determines whether designation of one analysis result has been received via a receiving unit (not shown) or the like. The one analysis result here is, for example, an analysis result associated with one time. If accepted, the process proceeds to step S216. If not accepted, the process proceeds to step S220.

(ステップS216)出力部17は、ステップS215で指定された分析結果に対応する時刻と同じ時刻のフレーム画像を受講生画像から取得する。   (Step S216) The output unit 17 acquires a frame image at the same time as the time corresponding to the analysis result specified in Step S215 from the student raw image.

(ステップS217)出力部17は、ステップS216で取得したフレーム画像を表示する。なお、出力部17は、受講生画像のステップS216で取得したフレーム画像以降のフレーム画像を連続再生するようにしても良い。つまり、ステップS216で取得したフレーム画像から動画像を再生してもよい。なお、動画像を再生する場合等においては、ステップS216で出力部17が取得するフレーム画像は、ステップS215で指定された分析結果に対応する時刻の1フレーム前または1フレーム後のフレーム画像であっても良いし、ステップS215で指定された分析結果に対応する時刻に対して、予め指定され時刻を隔てた前後の時刻のフレーム画像であってもよい。また、一のフレーム画像あるいは連続したフレーム画像を出力する際には、各フレーム画像の受講生の顔の部分を、受講生が識別できなくなるような表示態様としたフレーム画像を、出力するようにしても良い。   (Step S217) The output unit 17 displays the frame image acquired in step S216. Note that the output unit 17 may continuously reproduce the frame images after the frame image acquired in step S216 of the student raw images. That is, a moving image may be reproduced from the frame image acquired in step S216. When playing back a moving image, the frame image acquired by the output unit 17 in step S216 is a frame image one frame before or one frame after the time corresponding to the analysis result specified in step S215. Alternatively, it may be a frame image of the time before and after the time specified in advance with respect to the time corresponding to the analysis result specified in step S215. Also, when outputting one frame image or continuous frame images, output a frame image in such a display mode that the student's face portion of each frame image cannot be identified by the student. May be.

(ステップS218)出力部17は、フレーム画像の表示を終了するか否かを判断する。例えば、図示しない受付部等を介して表示を終了する操作を受け付けた場合に、表示を終了することを判断する。表示を終了する場合、表示を終了してステップS215に戻り、表示を終了しない場合、ステップS218に戻る。   (Step S218) The output unit 17 determines whether or not to end the display of the frame image. For example, when an operation for ending the display is received via a reception unit (not shown) or the like, it is determined to end the display. When the display is finished, the display is finished and the process returns to step S215. When the display is not finished, the process returns to step S218.

(ステップS219)出力部17は、評価結果と統計分析の結果との表示を終了するか否かを判断する。例えば、図示しない受付部等を介して表示を終了する操作を受け付けた場合に、表示を終了することを判断する。表示を終了する場合、表示を終了してステップS212に戻り、表示を終了しない場合、ステップS215に戻る。   (Step S219) The output unit 17 determines whether or not to end the display of the evaluation result and the statistical analysis result. For example, when an operation for ending the display is received via a reception unit (not shown) or the like, it is determined to end the display. When the display is ended, the display is ended and the process returns to step S212. When the display is not ended, the process returns to step S215.

(ステップS220)出力部17は、顔分析部13が取得した分析結果の表示を終了するか否かを判断する。例えば、図示しない受付部等を介して表示を終了する操作を受け付けた場合に、表示を終了することを判断する。表示を終了する場合、表示を終了してステップS201に戻り、表示を終了しない場合、ステップS213に戻る。   (Step S220) The output unit 17 determines whether or not to end the display of the analysis result acquired by the face analysis unit 13. For example, when an operation for ending the display is received via a reception unit (not shown) or the like, it is determined to end the display. If the display is to be ended, the display is ended and the process returns to step S201. If the display is not ended, the process returns to step S213.

なお、図2のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。   In the flowchart of FIG. 2, the process is terminated by powering off or a process termination interrupt.

以下、本実施の形態における顔分析装置1の具体的な動作について一例を示して説明する。   Hereinafter, an example of the specific operation of the face analysis apparatus 1 according to the present embodiment will be described.

図3は、受講生画像格納部12に格納されている受講生画像を構成するフレーム画像の一部を模式的に示す図である。この受講生画像は、一の講義に参加している受講生全体を、講師側から第一撮影部11を用いて撮影した動画像であるとする。この受講生画像は、一のファイルで構成されるものとする。ここでは、説明のため、各フレーム画像の下部に、各フレーム画像に対応付けられたタイムコードを示している。タイムコードは、各フレーム画像が撮影された時刻を「時:分:秒.フレーム」で表している。   FIG. 3 is a diagram schematically showing a part of the frame image constituting the student raw image stored in the student raw image storage unit 12. It is assumed that this student image is a moving image obtained by photographing the entire student participating in one lecture using the first photographing unit 11 from the lecturer side. This student raw image is composed of one file. Here, for the sake of explanation, a time code associated with each frame image is shown below each frame image. The time code represents the time at which each frame image was taken as “hour: minute: second.frame”.

ユーザが、マウスやキーボード等の図示しない入力デバイス等を操作して、図3に示した受講生画像の分析を行う指示を顔分析装置1に与えたとする。なお、ここでは、予め1秒間隔のフレーム画像に対して、顔分析の処理を行うことが予め設定されているものとする。   Assume that the user operates the input device (not shown) such as a mouse and a keyboard to give the face analysis apparatus 1 an instruction to analyze the student raw image shown in FIG. Here, it is assumed that face analysis processing is set in advance for frame images at intervals of 1 second.

顔分析部13は、まず、受講生画像の最初のフレーム画像(撮影開始時のフレーム画像)であるタイムコード「10:30:00:01」と対応付けられたフレーム画像を読み出す。そして、読み出したフレーム画像内において、顔を認識する処理を行う。   First, the face analysis unit 13 reads out a frame image associated with the time code “10: 30: 30: 01” which is the first frame image (frame image at the start of photographing) of the student raw image. Then, processing for recognizing a face is performed in the read frame image.

図4は、顔分析部13によって顔が認識された状態のフレーム画像を示す模式図である。図において、点線で囲んだ領域401〜430が、それぞれ認識された顔の領域であるとする。なお、この図で示す顔の表情や向き、視線方向やまばたきの状況等は、模式的なものであって、必ずしも顔の表情や向き、視線方向やまばたきの状況等を正確に示したものでないものとする。かかることは以下においても同様である。   FIG. 4 is a schematic diagram showing a frame image in a state where the face is recognized by the face analysis unit 13. In the figure, it is assumed that regions 401 to 430 surrounded by dotted lines are recognized facial regions. It should be noted that the facial expression and orientation, line-of-sight direction, and blinking situation shown in this figure are schematic and do not necessarily accurately represent the facial expression and direction, line-of-sight direction, and blinking situation, etc. Shall. The same applies to the following.

顔認識処理によって、図4に示すように、フレーム画像内に複数の顔が認識される。顔分析部13は、認識した顔の領域401〜430の輪郭を示す情報に、それぞれ顔を識別するための識別情報である顔IDを対応付けて、図示しない記憶媒体等に蓄積する。輪郭を示す情報は、例えば、フレーム画像内における輪郭を構成する画素の座標群であるとする。ここでは、例えば、領域401〜430には、それぞれ顔IDとして「ID401」〜「ID430」が対応付けられるものとする。   As shown in FIG. 4, a plurality of faces are recognized in the frame image by the face recognition process. The face analysis unit 13 associates information indicating the contours of the recognized face regions 401 to 430 with face IDs, which are identification information for identifying faces, and accumulates them in a storage medium (not shown). The information indicating the contour is, for example, a coordinate group of pixels constituting the contour in the frame image. Here, for example, “ID401” to “ID430” are associated with the areas 401 to 430 as face IDs, respectively.

顔分析部13は、上記で認識した各顔について、順次、分析を行う。まず、顔IDが「ID401」の顔(即ち、領域401の顔)についての分析を行う。ここでは、例えば、顔の表情が笑っている顔であるか否かの分析項目と、視線方向が正面(講師側)を向いているか否かの分析項目と、顔の方向が正面(講師側)を向いているか否かの分析項目と、まばたきの有無の分析項目とについてそれぞれ分析を行う。なお、これらの分析処理は公知の技術であるので、具体的な説明は省略する。なお、各分析においては、必要に応じて、分析対象となっているフレーム画像の前または後の1以上のフレーム画像を受講生画像から読み出して、読み出したフレーム画像の領域401内の画像またはその周辺の画像を利用してもよい。   The face analysis unit 13 sequentially analyzes each face recognized above. First, an analysis is performed on the face with the face ID “ID 401” (that is, the face in the region 401). Here, for example, an analysis item whether or not the facial expression is a smiling face, an analysis item whether or not the gaze direction is facing the front (the lecturer side), and the face direction is the front (the lecturer side) ) Analyze each of the analysis items for whether or not they are facing and the analysis items for the presence or absence of blinking. In addition, since these analysis processes are well-known techniques, specific description is abbreviate | omitted. In each analysis, if necessary, one or more frame images before or after the frame image to be analyzed are read from the student raw image, and the image in the area 401 of the read frame image or its frame image is read. Peripheral images may be used.

顔分析部13は、顔IDが「ID401」の顔についての分析結果を、タイムコード「10:30:10:01」と、顔ID「ID401」と対応付けて、図示しない記憶媒体に蓄積する。   The face analysis unit 13 stores the analysis result for the face with the face ID “ID401” in a storage medium (not shown) in association with the time code “10: 30: 10: 01” and the face ID “ID401”. .

顔分析部13は、顔IDが「ID402」〜「ID430」である顔についても同様の処理を行う。   The face analysis unit 13 performs the same processing for the faces whose face IDs are “ID402” to “ID430”.

図5は、顔分析部13が取得して図示しない記憶媒体に蓄積した、顔分析の分析結果を示す情報を管理する顔分析結果管理表である。顔分析結果管理表は、「時刻」、「顔ID」、「表情」、「視線方向」、「顔方向」、および「まばたき」という項目を有している。「時刻」は、受講生画像の分析対象となるフレーム画像の時刻であり、ここでは、フレーム画像のタイムコードである。「顔ID」は、上述した顔IDである。「表情」は、受講生の顔の表情の分析結果であり、ここでは、値「スマイル」は、顔が笑っていることを示し、空欄は、顔が笑っていないことを示す。「視線方向」は、受講生の顔の視線方向の分析結果であり、ここでは、値「正面」は、視線方向が正面を向いていることを示し、空欄は正面を向いていないことを示す。「顔方向」は受講生の顔の方向の分析結果であり、値「正面」は、顔が正面を向いていることを示し、空欄は正面を向いていないことを示す。「まばたき」は、受講生が目を閉じているか否かの分析結果であり、値「閉」は、目を閉じている状態であることを示し、空欄は、目が開いていることを示す。   FIG. 5 is a face analysis result management table for managing information indicating the analysis result of the face analysis acquired by the face analysis unit 13 and accumulated in a storage medium (not shown). The face analysis result management table includes items of “time”, “face ID”, “expression”, “gaze direction”, “face direction”, and “blink”. “Time” is the time of the frame image to be analyzed of the student image, and here is the time code of the frame image. “Face ID” is the face ID described above. “Expression” is the analysis result of the facial expression of the student. Here, the value “Smile” indicates that the face is laughing, and the blank indicates that the face is not laughing. “Gaze direction” is the analysis result of the gaze direction of the student's face, where the value “front” indicates that the gaze direction is facing the front and the blank indicates that it is not facing the front . “Face direction” is the analysis result of the student's face direction, and the value “front” indicates that the face is facing the front, and the blank indicates that the face is not facing. “Blink” is the analysis result of whether or not the student has closed eyes, the value “Closed” indicates that the eyes are closed, and the blank indicates that the eyes are open .

統計分析部14は、図5に示したような、タイムコード「10:30:00:01」と対応付けられたフレーム画像に対する顔分析部13による顔の分析結果を用いて、統計分析を行う。ここでは、統計分析部14は、タイムコードが「10:30:00:01」であるフレーム画像について、「表情」が「スマイル」である顔の数、「視線方向」が「正面」である顔の数、「顔方向」が「正面」である顔の数、および「まばたき」が「閉」である顔の数の集計をそれぞれ行う。つまり、分析項目別に集計を行う。そして、これらの集計結果を、認識した顔の総数「30」で除算して、各分析項目別の顔が出現する比率を取得する。なお、比率を算出する代わりに、分散等を算出しても良い。そして、統計分析部14は、取得した分析項目別の比率を、統計分析結果として、タイムコード「10:30:00:01」と対応付けて図示しない記憶媒体に蓄積する。   The statistical analysis unit 14 performs statistical analysis using the face analysis result by the face analysis unit 13 with respect to the frame image associated with the time code “10: 30: 30: 01” as illustrated in FIG. . Here, the statistical analysis unit 14 has the number of faces whose “expression” is “smile” and the “gaze direction” is “front” for the frame image whose time code is “10: 30: 00: 00”. The number of faces, the number of faces whose “face direction” is “front”, and the number of faces whose “blink” is “closed” are respectively tabulated. That is, aggregation is performed for each analysis item. Then, these total results are divided by the total number of recognized faces “30” to obtain the ratio of appearance of faces for each analysis item. Instead of calculating the ratio, variance or the like may be calculated. Then, the statistical analysis unit 14 stores the acquired ratio for each analysis item as a statistical analysis result in a storage medium (not shown) in association with the time code “10: 30: 30: 01”.

顔分析部13は、更に、上記で読み出したフレーム画像の1秒経過後の時刻に対応するタイムコード「10:30:01:01」が対応付けられたフレーム画像を読み出して、上記と同様に、顔を認識する処理を行い、認識した顔について、上記と同様の分析を行い、分析結果を図示しない記憶媒体に追記する。これにより、「時刻」が「10:30:01:01」と対応付けられた分析結果のレコードが、図5に示した顔分析結果管理表に追加される。なお、ここでは、例として、認識した顔のうちの、直前に認識した顔とほぼ同じ位置にある顔に対しては、直前に認識した顔と同じ顔IDを割り当てる。ほぼ同じ位置にある顔とは、例えば、領域に含まれる画素の座標が所定数以上(例えば、半分以上)一致する顔である。   The face analysis unit 13 further reads out a frame image associated with the time code “10: 30: 01: 01” corresponding to the time after 1 second of the frame image read out above, and performs the same as described above. Then, the process of recognizing the face is performed, the same analysis as described above is performed on the recognized face, and the analysis result is added to a storage medium (not shown). As a result, an analysis result record in which “time” is associated with “10: 30: 01: 01” is added to the face analysis result management table shown in FIG. Here, as an example, the same face ID as that of the face recognized immediately before is assigned to the face in the recognized face that is substantially in the same position as the face recognized immediately before. A face in substantially the same position is, for example, a face in which the coordinates of pixels included in the region match a predetermined number or more (for example, half or more).

更に、この分析結果を用いて、統計分析部14は、上記と同様に分析項目別に統計分析を行い、統計分析結果を蓄積する。   Further, using this analysis result, the statistical analysis unit 14 performs statistical analysis for each analysis item in the same manner as described above, and accumulates the statistical analysis results.

顔分析部13および統計分析部14は、さらに、上記の処理を受講生画像内に一秒後のフレーム画像がなくなるまで、順次繰り返す。   The face analysis unit 13 and the statistical analysis unit 14 sequentially repeat the above processing until there is no frame image after one second in the student raw images.

図6は、統計分析部14が取得して蓄積した統計分析結果を管理する統計分析結果管理表を示す図である。統計分析結果管理表は、「時刻」、「表情(スマイル)」、「視線(正面) 顔方向(正面)」、「まばたき(閉)」という項目を有している。「時刻」分析対象となるフレーム画像の時刻であり、ここでは、フレーム画像のタイムコードである。「表情(スマイル)」は、顔の分析結果のうちの、分析項目「表情」の値が「スマイル」である顔の比率(%)、「視線(正面)」は、顔の分析結果のうちの、分析項目「視線方向」の値が「正面」である顔の比率(%)、「顔方向(正面)」は、顔の分析結果のうちの、分析項目「顔方向」の値が「正面」である顔の比率(%)、「まばたき(閉)」は、顔の分析結果のうちの、分析項目「まばたき」の値が「閉」である顔の比率(%)である。   FIG. 6 is a diagram illustrating a statistical analysis result management table for managing the statistical analysis results acquired and accumulated by the statistical analysis unit 14. The statistical analysis result management table has items of “time”, “expression (smile)”, “line of sight (front), face direction (front)”, and “blink (close)”. “Time” is the time of the frame image to be analyzed, and here is the time code of the frame image. “Facial expression (smile)” is the percentage of faces whose analysis item “expression” is “smile” in the facial analysis results (%), and “Gaze (front)” is the facial analysis result The ratio (%) of faces whose analysis item “line-of-sight direction” is “front” and “face direction (front)” is the value of the analysis item “face direction” in the face analysis result “ The ratio (%) of the face that is “front” and “blink (closed)” are the ratio (%) of the face whose analysis item “blink” is “closed” in the face analysis result.

次に、講義評価部15は、統計分析部14が取得した統計分析結果を用いて、受講生画像に対応する講義の評価を行う。ここでは、例えば、講義の評価を行うための条件として、『「視線(正面)」の比率が、「70%以上」である時刻が、顔分析を行った時刻のうちの「80%」を超える』という条件が、予め図示しない記憶媒体に格納されており、この条件を満たした場合の講義の評価を示す値として「集中度の高い講義」という値が、この条件と対応付けて図示しない記憶媒体に格納されているとする。ここでの時刻は、分析対象となった各フレーム画像と考えても良いし、図6に示した統計分析結果管理表の各レコードと考えても良い。   Next, the lecture evaluation unit 15 uses the statistical analysis result acquired by the statistical analysis unit 14 to evaluate the lecture corresponding to the student raw images. Here, for example, as a condition for evaluating the lecture, the time when the ratio of ““ line of sight (front) ”is“ 70% or more ”is“ 80% ”of the time when the face analysis is performed. The condition “exceeding” is stored in a storage medium (not shown) in advance, and the value of “highly concentrated lecture” is not shown in association with this condition as a value indicating the evaluation of the lecture when this condition is satisfied. Assume that it is stored in a storage medium. The time here may be considered as each frame image to be analyzed, or may be considered as each record of the statistical analysis result management table shown in FIG.

講義評価部15は、まず、上記の条件を読み出す。次に、図6に示した統計分析結果管理表において、「視線(正面)」の比率が、「70%以上」であるレコードの数をカウントする。例えば、カウント数が「1752」であったとする。また、講義評価部15は、図6に示した統計分析結果管理表の総レコード数を取得する。例えば、総レコード数は、「2386」であったとする。講義評価部15は、視線(正面)」の比率が、「70%以上」であるレコードのカウント数「1752」を、総レコード数「2382」で除算して、「視線(正面)」の比率「73.6(%)」を取得する。そして、取得した比率が「70%以上」であるか否かを判断する。ここでは70%以上であるので、「集中度の高い講義」という評価結果を取得する。なお、70%未満の場合、「集中度が高くない講義」という評価結果を取得するようにしても良い。取得した評価結果は、例えば、受講生画像のファイル名等と対応付けて、図示しない記憶媒体等に蓄積する。   The lecture evaluation unit 15 first reads out the above conditions. Next, in the statistical analysis result management table shown in FIG. 6, the number of records whose “line of sight (front)” ratio is “70% or more” is counted. For example, assume that the count number is “1752”. Also, the lecture evaluation unit 15 acquires the total number of records in the statistical analysis result management table shown in FIG. For example, it is assumed that the total number of records is “2386”. The lecture evaluation unit 15 divides the count number “1752” of the record whose “line of sight (front)” is “70% or more” by the total number of records “2382” to obtain the ratio of “line of sight (front)”. “73.6 (%)” is acquired. Then, it is determined whether or not the acquired ratio is “70% or more”. Here, since it is 70% or more, the evaluation result “lecture with high concentration” is acquired. In the case of less than 70%, an evaluation result “lecture with a low degree of concentration” may be acquired. The acquired evaluation result is stored in a storage medium (not shown) in association with the file name of the student raw image, for example.

出力部17は、統計分析部14が取得した統計分析結果と、講義評価部15が取得した評価結果をモニタ等に表示する。   The output unit 17 displays the statistical analysis result acquired by the statistical analysis unit 14 and the evaluation result acquired by the lecture evaluation unit 15 on a monitor or the like.

図7は、統計分析結果と講義の評価結果との表示例を示す図である。なお、統計分析結果または講義の評価結果がモニタの表示領域に入りきらない場合は、スクロールバー等を示して、このスクロールバーの操作によって入りきらない部分が適宜表示されるようにしても良い。かかることは、以下においても同様である。   FIG. 7 is a diagram illustrating a display example of a statistical analysis result and a lecture evaluation result. When the statistical analysis result or the lecture evaluation result does not fit in the display area of the monitor, a scroll bar or the like may be shown so that a portion that cannot be entered by operating the scroll bar may be displayed as appropriate. The same applies to the following.

ここで、図示しない受付部等を介して、顔分析部13が取得した顔の分析結果を表示する指示を受け付けたとすると、出力部17は、図5に示した顔分析結果管理表で管理されている顔分析部13が取得した時系列に沿った顔の分析結果を、モニタ等に表示する。例えば、出力部17は、分析結果を時系列に沿って並べて表示する。   Here, assuming that an instruction to display the analysis result of the face acquired by the face analysis unit 13 is received via a reception unit (not shown) or the like, the output unit 17 is managed by the face analysis result management table shown in FIG. The face analysis result along the time series acquired by the face analysis unit 13 is displayed on a monitor or the like. For example, the output unit 17 displays the analysis results side by side along a time series.

図8は、顔の分析結果の表示例を示す図である。なお、この顔の分析結果の表示画面において、各分析結果の「時刻」の文字列には、ここでは、一例として、各分析結果に対する指定を受け付けたか否かを判定するための判定領域等(図示せず)が設けられているものとする。   FIG. 8 is a diagram illustrating a display example of a face analysis result. In this face analysis result display screen, the character string of “time” of each analysis result is, for example, a determination area for determining whether or not designation for each analysis result is accepted (for example) (Not shown) is provided.

次に、ユーザが、マウス等の入力デバイス等を操作して、図8に示した画面において、一の時刻「10:30:02.01」の文字列上を押したとすると、指定受付部16は、この時刻に対応した顔の分析結果に対する指定を受け付ける。そして、指定受付部16がこの指定を受け付けると、出力部17は、この分析結果に対応する時点の受講生画像を、受講生画像格納部12から読み出す。ここでは、指定を受け付けた分析結果の時刻「10:30:02.01」と同じ時刻に対応付けられたフレーム画像を、受講生画像から読み出す。そして、出力部17は、読み出したフレーム画像をモニタに表示する。なお、フレーム画像を出力する際に、出力部17は、フレーム画像の受講生の顔の部分を、受講生が識別できなくなるような表示態様としたフレーム画像を出力するようにしてもよい。このようにすることで、受講生の顔が見分けられないようにして、受講生のプライバシーを保護することが可能となる。なお、出力部17は、例えば、顔分析部13が、フレーム画像に対して、顔認識処理において図4に示すように認識して図示しない記憶媒体に蓄積した各顔の領域401〜430の輪郭を示す情報を読み出して、表示態様を変更する対象となるフレーム画像内の顔の部分を検出する。あるいは、顔分析部13が、出力部17が出力するフレーム画像に対して、新たに検出した顔の部分を、出力部17が、表示態様の変更対象としてもよい。   Next, if the user operates an input device such as a mouse and presses the character string at one time “10: 30: 02.01” on the screen shown in FIG. Accepts the designation for the face analysis result corresponding to this time. When the designation accepting unit 16 accepts this designation, the output unit 17 reads the student raw image at the time corresponding to the analysis result from the student raw image storage unit 12. Here, the frame image associated with the same time as the time “10: 30: 02.01” of the analysis result that received the designation is read from the student image. Then, the output unit 17 displays the read frame image on the monitor. Note that when outputting the frame image, the output unit 17 may output a frame image in a display mode in which the student's face portion of the frame image cannot be identified by the student. By doing so, it is possible to protect the student's privacy by preventing the student's face from being recognized. For example, the output unit 17 recognizes the contours of the face regions 401 to 430 that the face analysis unit 13 has recognized in the face recognition process as shown in FIG. 4 and accumulated in a storage medium (not shown). Is read, and the face portion in the frame image whose display mode is to be changed is detected. Or the face part newly detected with respect to the frame image output by the output unit 17 by the face analysis unit 13 may be the display mode change target by the output unit 17.

図9は、指定受付部16が指定を受け付けた顔の分析結果に対応するフレーム画像の表示例を示す図である。   FIG. 9 is a diagram illustrating a display example of a frame image corresponding to the analysis result of the face whose designation is accepted by the designation receiving unit 16.

以上、本実施の形態によれば、講義中の1以上の受講生の顔を自動認識して分析したり、この分析結果を統計分析したり、この統計分析の結果から、講義の評価等を行うことができ、講義に関する適切な分析を行うことができる。   As described above, according to the present embodiment, the face of one or more students in the lecture is automatically recognized and analyzed, the analysis result is statistically analyzed, and the evaluation of the lecture is performed from the result of the statistical analysis. And conduct appropriate analysis on lectures.

なお、上記実施の形態においては、統計分析部14は、各フレーム画像について、顔の分析結果の統計分析を行うようにしたが、各顔についての、時系列に沿った表情や、視線方向や、顔方向や、まばたき等の分析結果の変化を示す情報を、統計分析の結果を示す情報として取得しても良い。また、このような時系列に沿った分析結果が、数値等の変化で示されるものである場合、更に、フーリエ変換等を行ったものを統計分析の結果として取得しても良い。これにより、各顔に対応した受講生の受講時の状況を、周波数成分等の数値として表すことが可能となる。また、一の顔について検出した上記のようなまばたきの情報が、「閉」であると分析されたフレーム画像が、予め指定された時間以上(例えば一分以上)連続した場合に、この顔に対応する受講生が、居眠りをしていたと判断するようにしても良い。予め指定された時間は、例えば、通常のまばたきにおいてまぶたが閉じられると考えられる最大の時間以上の時間である。   In the above embodiment, the statistical analysis unit 14 performs the statistical analysis of the face analysis results for each frame image. However, the facial expression, the line-of-sight direction, Information indicating changes in analysis results such as face direction and blinking may be acquired as information indicating the results of statistical analysis. Moreover, when the analysis result along such a time series is indicated by a change in a numerical value or the like, a result obtained by performing Fourier transform or the like may be acquired as a result of statistical analysis. As a result, it is possible to represent the situation at the time of attendance of students corresponding to each face as numerical values such as frequency components. In addition, when a frame image analyzed as the above-mentioned blink information detected for one face is “closed” continues for a predetermined time (for example, one minute or longer), The corresponding student may be determined to have fallen asleep. The predesignated time is, for example, a time that is equal to or greater than the maximum time during which the eyelid is considered to be closed during normal blinking.

(実施の形態2)
本実施の形態2にかかる顔分析装置2は、上記実施の形態1の顔分析装置1において、講義中の講師の画像や、講師の音声情報を、受講生の顔の分析や、顔の分析結果の統計分析や、講義の評価等に利用するようにしたものである。
(Embodiment 2)
The face analysis apparatus 2 according to the second embodiment is the same as the face analysis apparatus 1 according to the first embodiment, in which the image of the lecturer in lecture and the voice information of the lecturer are analyzed for the face of the student and the analysis of the face. It is used for statistical analysis of results and evaluation of lectures.

図10は、本実施の形態における顔分析装置2のブロック図である。   FIG. 10 is a block diagram of face analysis apparatus 2 in the present embodiment.

顔分析装置2は、第一撮影部11、受講生画像格納部12、第二撮影部21、音声取得部22、講師情報格納部23、変化検出部24、顔分析部25、関連統計分析部26、関連講義評価部27、出力部28を備える。   The face analysis device 2 includes a first photographing unit 11, a student raw image storage unit 12, a second photographing unit 21, a voice acquisition unit 22, a lecturer information storage unit 23, a change detection unit 24, a face analysis unit 25, and a related statistical analysis unit. 26, a related lecture evaluation unit 27, and an output unit 28.

第一撮影部11、受講生画像格納部12については、上記実施の形態1と同様であるので、ここでは詳細な説明を省略する。   Since the first imaging unit 11 and the student raw image storage unit 12 are the same as those in the first embodiment, detailed description thereof is omitted here.

第二撮影部21は、講義中の講師を撮影して、講義中の講師の動画像を取得する。講師とは講義を行う者である。講師は、通常は一人であるが、複数人であっても良い。講師を撮影するということは、例えば、講師の動きが分かるような動画像を取得することである。例えば、第二撮影部21は、講師の全体や、上半身を撮影した動画像を取得する。第二撮影部21や、第二撮影部21が取得する動画像は、撮影対象が異なる点を除けば、上述した第一撮影部11と同様の構成を有するものであり、ここでは詳細な説明は省略する。第二撮影部21は、例えば、取得した動画像を、後述する講師情報として、あるいはその一部として、講師情報格納部23に蓄積する。   The second photographing unit 21 photographs the lecturer during the lecture and acquires a moving image of the lecturer during the lecture. A lecturer is a person who gives a lecture. There is usually one instructor, but there may be multiple instructors. Shooting the instructor means, for example, obtaining a moving image that shows the instructor's movement. For example, the second photographing unit 21 acquires a moving image obtained by photographing the entire lecturer or the upper body. The second image capturing unit 21 and the moving image acquired by the second image capturing unit 21 have the same configuration as the first image capturing unit 11 described above except that the object to be imaged is different. Is omitted. For example, the second photographing unit 21 accumulates the acquired moving image in the instructor information storage unit 23 as instructor information described later or as a part thereof.

音声取得部22は、講義中の講師の音声の情報(例えば、講師の発する音声の情報)を取得する。音声取得部22は、例えば、音声を、音声が取得されたタイミング(例えば時刻)と対応付けた情報を取得する。音声取得部22は、例えば、取得した音声情報を、後述する講師情報の一部として、講師情報格納部23に蓄積する。講師音声情報のファイル形式や圧縮方式等は、問わない。なお、音声取得部22または第二撮影部21のいずれかが、音声取得部22が取得した音声と、第二撮影部21が取得した動画像と、同期がとれるよう対応付けた講師情報を、講師情報格納部23に蓄積するようにしても良い。音声取得部22は、例えば、マイクにより実現される。なお、第二撮影部21と音声取得部22は、一のビデオカメラの撮影部(カメラ部)と、音声取得部(マイク)であっても良い。   The voice acquisition unit 22 acquires voice information of the lecturer during the lecture (for example, voice information emitted by the lecturer). For example, the voice acquisition unit 22 acquires information in which voice is associated with timing (for example, time) when the voice is acquired. For example, the voice acquisition unit 22 accumulates the acquired voice information in the lecturer information storage unit 23 as a part of lecturer information described later. The file format, compression method, etc. of lecturer audio information are not limited. Note that either the audio acquisition unit 22 or the second imaging unit 21 has instructor information associated with the audio acquired by the audio acquisition unit 22 and the moving image acquired by the second imaging unit 21 so as to be synchronized. You may make it accumulate | store in the lecturer information storage part 23. FIG. The voice acquisition unit 22 is realized by a microphone, for example. The second imaging unit 21 and the audio acquisition unit 22 may be an imaging unit (camera unit) and an audio acquisition unit (microphone) of one video camera.

講師情報格納部23には、講師情報が格納される。講師情報は、講師画像または講師音声情報の少なくとも一方を含む情報である。講師画像は、講義中の講師を撮影した動画像である。例えば、第二撮影部21が取得した動画像である。講師音声画像は、講義中の講師の音声の情報である。例えば、音声取得部22が取得した講師の音声の情報である。講師画像は、撮影対象が異なる点を除けば、受講生画像と同様の情報である。講師音声画像は、例えば、時系列と対応付けられた情報である。例えば、講師画像が、タイムコード等と対応付けられており、講師音声情報がこの講師画像と同期付けられて講師情報格納部23に格納されていても良い。なお、ここでの格納は、一時記憶も含む概念である。   Instructor information storage unit 23 stores instructor information. Instructor information is information including at least one of instructor image or instructor audio information. The instructor image is a moving image of the instructor being lectured. For example, it is a moving image acquired by the second imaging unit 21. The lecturer audio image is information on the audio of the lecturer who is giving a lecture. For example, the voice information of the lecturer acquired by the voice acquisition unit 22. The lecturer image is the same information as the student image, except that the shooting target is different. The lecturer sound image is, for example, information associated with a time series. For example, the lecturer image may be associated with a time code or the like, and the lecturer voice information may be stored in the lecturer information storage unit 23 in synchronization with the lecturer image. The storage here is a concept including temporary storage.

変化検出部24は、講師情報の変化の検出を行う。例えば、変化検出部24は、講師情報から、予め指定されている所定の変化を検出する。変化検出部24は、変化が検出された時点を特定する情報(例えば、変化が検出された時刻)を検出結果として取得するようにしても良い。講師情報の変換の検出は、講師情報に含まれる講師画像の変化の検出、または、講師情報に含まれる講師音声情報の変化の検出のいずれか、またはその両方である。変化検出部24は、例えば、予め指定された条件を満たす変化を検出する。予め指定されている条件とは、変化の検出対象が講師画像である場合、例えば、動きの有無や、予め指定されている動きの大きさ以上の動きである。また、変化の検出対象が講師音声情報である場合、予め指定されている条件とは、例えば、予め指定されたレベル以上の音声出力である。変化検出部24は、検出した変化の内容(例えば種別等)を示す情報や、変化量を示す情報を検出結果として取得しても良い。   The change detection unit 24 detects changes in instructor information. For example, the change detection unit 24 detects a predetermined change designated in advance from the lecturer information. The change detection unit 24 may acquire information (for example, the time when the change is detected) specifying the time point when the change is detected as a detection result. The detection of the conversion of the lecturer information is either the detection of the change in the lecturer image included in the lecturer information, the detection of the change in the lecturer audio information included in the lecturer information, or both. For example, the change detection unit 24 detects a change that satisfies a predetermined condition. In the case where the change detection target is a lecturer image, the predesignated condition is, for example, the presence or absence of a motion or a motion greater than the size of a predesignated motion. In addition, when the change detection target is lecturer voice information, the predesignated condition is, for example, voice output of a level specified in advance or higher. The change detection unit 24 may acquire information indicating the content (for example, type) of the detected change or information indicating the amount of change as a detection result.

変化検出部24は、例えば、講師情報に含まれる講師画像について、フレーム画像の画素の比較等を行うことで動きベクトル検出を行って、動きの有無や、予め指定されている閾値以上の動きベクトルの検出を行う。予め指定されている閾値以上の動き(例えば、閾値以上の距離の変化)が検出された場合、動きが検出されたと判断する。また、講師情報に含まれる講師画像について、顔分析部25と同様に、講師の顔を検出したり、講師の手等を検出して、検出した部分の動きベクトル検出等を行うことで、動きの有無や、予め指定されている閾値以上の動きの検出を行う。   For example, the change detection unit 24 performs motion vector detection by comparing the pixels of the frame image with respect to the lecturer image included in the lecturer information, and the presence or absence of motion or a motion vector greater than or equal to a predetermined threshold value. Detection is performed. When a motion that is equal to or greater than a predetermined threshold value (for example, a change in distance that is equal to or greater than a threshold value) is detected, it is determined that a motion is detected. In addition, the instructor image included in the instructor information, like the face analysis unit 25, detects the instructor's face, detects the instructor's hand, etc., and performs motion vector detection of the detected portion, thereby moving The detection of the presence or absence of movement and the movement more than the threshold value designated beforehand is performed.

また、変化検出部24は、例えば、講師情報に含まれる講師音声情報における音声のレベルの変化によって、講師情報の変化を検出する。例えば、変化検出部24は、講師音声情報に、予め指定された閾値以上のレベルの出力を検出した場合に、講師情報の変化を検出したと判断する。また、講師音声情報のSN比の値が、閾値以上となった場合に、講師情報の変化を検出しても良い。また、講師音声情報の発声速度を検出し、その発声速度が、予め指定された閾値を超える場合に、講師情報の変化を検出しても良い。発声速度を検出する技術は、例えば、特願平7−307897号公報等に開示されている。   Moreover, the change detection part 24 detects the change of lecturer information by the change of the audio | voice level in the lecturer audio | voice information contained in lecturer information, for example. For example, the change detection unit 24 determines that a change in the lecturer information is detected when an output having a level equal to or higher than a predetermined threshold value is detected in the lecturer voice information. Moreover, you may detect the change of lecturer information, when the value of SN ratio of lecturer audio | voice information becomes more than a threshold value. Further, the utterance speed of the lecturer voice information may be detected, and the change in the lecturer information may be detected when the utterance speed exceeds a predetermined threshold value. A technique for detecting the utterance speed is disclosed in, for example, Japanese Patent Application No. 7-307897.

顔分析部25は、受講生画像から受講生の顔を認識して、この認識した顔に対する分析を行う。この実施の形態においては、特に、顔分析部23は、変化検出部24が変化を検出した時点直後に取得された受講生画像に対する顔の分析結果を取得する。ここでの直後については、上記実施の形態1において説明した直後と同様の意味である。顔分析部25が、受講生画像に対して行う顔の認識処理や分析処理等については、上記実施の形態1の顔分析装置13と同様であるが、顔分析部25は、受講生画像(具体的にはフレーム画像)が、後述する変化検出部24が講師情報に変化を検出した時点直後に取得された受講生画像(フレーム画像)について、1以上の受講生の顔の分析結果を取得する点が、上記実施の形態1の顔分析部13とは異なる。なお、変化を検出した時点直後に取得された受講生画像(フレーム画像)について受講生の顔の分析結果を取得するということは、顔分析部25が、後述する変化検出部24が講師情報に変化を検出した時点直後に取得された受講生画像に対して顔に対する分析を行って分析結果を取得することであっても良いし、顔分析部25が、受講生画像の異なる複数の時点(時刻)において取得した顔の分析結果の中から、講師情報に変化を検出した時点の直後に取得された分析結果を取得すること、もしくはこれに相当する処理を行うことであっても良い。変化を検出した時点直後とは、例えば、変化を検出した時点(例えば、時刻)から、予め指定された時間だけ経過した時点である。予め指定された時間やフレーム数を隔てた時点と考えても良い。この経過時間は、講師の動きの変化や音声の変化と、それに応じた受講生の表情等の変化との間のタイムラグを考慮するためのものである。この経過時間は、例えば、5秒以下の時間である。この経過時間は、例えば、予め、実験結果等に基づいて取得してもよい。ただし、変化を検出した時点の時刻であっても良いし、変化を検出した時点の次の時刻(例えば、次のフレーム画像)と考えても良い。変化を検出した時点直後とは、変化を検出した以降の、変化を検出した時点の周辺の時刻と考えても良い。かかることは、以下においても同様である。なお、ここでの時間は、フレーム数と考えても良い。また、変化を検出した時点直後は、変化を検出した時点直後の予め指定された長さの期間と考えても良い。顔分析部25は、例えば、変化検出部24が講師情報に変化を検出した時刻から、予め指定された秒数だけ経過した時刻のフレーム画像について行われた顔に対する分析結果を取得する。なお、分析の際には、その前後のフレーム画像等を適宜利用して良い。   The face analysis unit 25 recognizes the face of the student from the student image and analyzes the recognized face. In this embodiment, in particular, the face analysis unit 23 acquires the analysis result of the face for the student raw image acquired immediately after the change detection unit 24 detects the change. The term “immediately after here” has the same meaning as just described in the first embodiment. The face recognition process and analysis process performed by the face analysis unit 25 on the student raw image are the same as those of the face analysis device 13 of the first embodiment. Specifically, a frame image) obtains the analysis results of one or more students' faces for student images (frame images) acquired immediately after the change detection unit 24 described later detects a change in instructor information. This is different from the face analysis unit 13 of the first embodiment. Note that the acquisition result of the student's face for the student image (frame image) acquired immediately after the change is detected means that the face analysis unit 25 uses the change detection unit 24 described later as instructor information. The student image acquired immediately after the change is detected may be analyzed for the face to obtain an analysis result, and the face analysis unit 25 may have a plurality of different time points ( The analysis result acquired immediately after the time point when the change is detected in the lecturer information may be acquired from the analysis results of the face acquired at (time), or a process corresponding to this may be performed. The term “immediately after the change is detected” means, for example, a point in time that has passed for a predetermined time from the time (for example, time) at which the change is detected. It may be considered that the time and the number of frames specified in advance are separated. This elapsed time is for considering the time lag between the change of the teacher's movement and the change of the voice and the change of the student's facial expression corresponding to the change. This elapsed time is, for example, a time of 5 seconds or less. This elapsed time may be acquired based on, for example, experimental results in advance. However, it may be the time when the change is detected, or may be considered as the next time (for example, the next frame image) after the change is detected. Immediately after the change is detected, the time immediately after the change is detected may be considered as the time around the time when the change is detected. The same applies to the following. Note that the time here may be considered as the number of frames. Further, immediately after the time when the change is detected, it may be considered as a period of a predesignated length immediately after the time when the change is detected. For example, the face analysis unit 25 acquires the analysis result of the face performed on the frame image at the time when a predetermined number of seconds have elapsed from the time when the change detection unit 24 detects the change in the lecturer information. In the analysis, frame images before and after that may be used as appropriate.

関連統計分析部26は、変化検出部24が変化を検出した時点直後に取得された受講生画像に対する顔分析部25の分析結果を用いて、予め指定された統計分析を行う。予め指定された統計分析は、どのような統計分析であってもよい。例えば、関連統計分析部26が行う予め指定された統計分析は、統計分析部14が行う統計分析と同様の統計分析であって、統計分析に用いられる分析結果を、変化検出部24が変化を検出した時点直後に取得された受講生画像に対して顔分析部25が取得した分析結果としたものである。また、予め指定された統計分析は、変化検出部24が検出した変化の対象を示す情報や、変化の内容を示す情報と、顔分析部25の分析結果とを関連付けた統計分析であってもよい。変化の対象とは、変化検出部24が変化を検出した対象であり、例えば、講師画像や講師音声情報である。また、変化の内容を示す情報とは、変化検出部24が検出した変化の内容を示す情報であり、例えば、講師が手を挙げたという変化を示す情報や、講師が横に動いたという変化等を示す情報である。また、講師音声情報が、予め指定されたレベル以上の音声となったという変化等を示す情報でもよい。変化が検出された複数の時点のそれぞれの直後に取得された受講生画像のフレーム画像に対する顔分析部25の分析結果を、上記の統計分析部14と同様に分析項目別に集計したものを、更に、変化検出部24が検出した変化の対象や変化の内容別に集計したものであってもよい。   The related statistical analysis unit 26 performs statistical analysis specified in advance using the analysis result of the face analysis unit 25 on the raw student image acquired immediately after the change detection unit 24 detects the change. The statistical analysis designated in advance may be any statistical analysis. For example, the statistical analysis designated in advance by the related statistical analysis unit 26 is the same statistical analysis as the statistical analysis performed by the statistical analysis unit 14, and the analysis result used for the statistical analysis is changed by the change detection unit 24. This is an analysis result acquired by the face analysis unit 25 with respect to the student raw image acquired immediately after the detection. Further, the statistical analysis designated in advance may be statistical analysis in which information indicating the change target detected by the change detection unit 24, information indicating the content of the change, and the analysis result of the face analysis unit 25 are associated with each other. Good. The change target is a target for which the change detection unit 24 has detected a change, such as a lecturer image or lecturer audio information. The information indicating the content of the change is information indicating the content of the change detected by the change detecting unit 24. For example, the information indicating the change that the instructor raised his hand or the change that the instructor moved sideways. It is information which shows etc. Moreover, the information which shows the change etc. that lecturer audio | voice information became the audio | voice more than the level designated beforehand may be sufficient. The result of the analysis of the face analysis unit 25 with respect to the frame image of the student raw image acquired immediately after each of the plurality of time points when the change is detected is further tabulated according to the analysis item as in the statistical analysis unit 14 described above. Alternatively, the data may be aggregated according to the change target detected by the change detection unit 24 and the content of the change.

関連講義評価部27は、関連統計分析部26の統計分析の結果を用いて、講義の評価を行う。ここで行う講義の評価とは、例えば、講義に関連する評価である。関連講義評価部27が行う評価は、講義評価部15が行う評価と同様に、例えば、講義の進め方や講義の内容に対する評価である。   The related lecture evaluation unit 27 evaluates the lecture using the statistical analysis result of the related statistical analysis unit 26. The lecture evaluation performed here is, for example, an evaluation related to the lecture. Similar to the evaluation performed by the lecture evaluation unit 15, the evaluation performed by the related lecture evaluation unit 27 is, for example, an evaluation of how to proceed with the lecture and the content of the lecture.

関連講義評価部27は、例えば、関連統計分析部26が取得する統計分析の結果(以下、関連統計分析結果と称す)に含まれる、関連統計分析部26が行った統計分析の結果から講義の評価結果を取得しても良いし、関連統計分析結果に含まれる変化検出部24が検出した変化の内容と、関連統計分析部26が行った統計分析の結果との組合せから、講義の評価結果を取得してもよい。   The related lecture evaluation unit 27, for example, uses the result of the statistical analysis performed by the related statistical analysis unit 26 included in the result of the statistical analysis acquired by the related statistical analysis unit 26 (hereinafter referred to as the related statistical analysis result). An evaluation result may be acquired, or a lecture evaluation result is obtained from a combination of the content of the change detected by the change detection unit 24 included in the related statistical analysis result and the result of the statistical analysis performed by the related statistical analysis unit 26. May be obtained.

関連講義評価部27は、例えば、一の講義を撮影した受講生画像から関連統計分析部26が取得した関連統計分析結果が、例えば、予め指定された条件を満たすか否かを判断し、条件を満たす場合、予めこの条件に対応付けられて用意された講義の評価結果を取得する。なお、条件を満たさない場合も、満たさない場合のために予め用意された評価結果を取得してもよい。この条件は、例えば、予め指定された分析項目の値が、分析項目別に用意された閾値を超える、あるいは閾値を超えないという条件である。あるいは、この条件は、複数の分類項目別に個別に用意された条件を全て満たす、あるいは満たさない、あるいはその一部だけを満たす等の条件であっても良い   For example, the related lecture evaluation unit 27 determines whether or not the related statistical analysis result acquired by the related statistical analysis unit 26 from the student image obtained by photographing one lecture satisfies a predetermined condition, for example. If the condition is satisfied, the evaluation result of the lecture prepared in advance associated with this condition is acquired. An evaluation result prepared in advance for not satisfying the condition or not satisfying the condition may be acquired. This condition is, for example, a condition that the value of the analysis item designated in advance exceeds or does not exceed the threshold value prepared for each analysis item. Alternatively, this condition may be a condition such that all the conditions individually prepared for a plurality of classification items are satisfied, or not satisfied, or only a part thereof is satisfied.

関連講義評価部27は、例えば、関連統計分析結果に含まれる変化検出部24が検出した変化の内容と、関連統計分析部26が行った統計分析の結果との組合せが、予め指定された条件を満たすか否かを判断し、条件を満たす場合、予めこの条件に対応付けられて用意された講義の評価結果を取得する。例えば、講師情報に含まれる講師音声情報のレベルが、予め指定された閾値以上である1以上の時点の直後の受講生画像からそれぞれ検出した、笑っている顔の数を集計し、この集計数が、予め指定した閾値以上である場合、講師のしゃべった言葉に対して、笑っている受講生が多いと考えられることから、予めこの条件と対応付けられた「関心が持続する講義」という評価結果を取得しても良い。この場合は、例えば、講師の喋った言葉に対して、笑っている受講生が多いと考えられることから、受講生が講義を関心を持って聴講していると考えられるからである。   For example, the related lecture evaluation unit 27 has a condition in which a combination of the content of the change detected by the change detection unit 24 included in the related statistical analysis result and the result of the statistical analysis performed by the related statistical analysis unit 26 is specified in advance. If the condition is satisfied, the evaluation result of the lecture prepared in advance associated with the condition is acquired. For example, the number of laughing faces detected from each student image immediately after one or more time points when the level of the lecturer audio information included in the lecturer information is equal to or greater than a predetermined threshold is counted. Is greater than a pre-specified threshold value, it is considered that there are many students laughing at the words spoken by the instructor. The result may be obtained. In this case, for example, since it is considered that there are many students laughing at the words spoken by the lecturer, it is considered that the students are listening to the lecture with interest.

また、関連講義評価部27は、例えば、変化検出部24が変化を検出した各時点の受講生画像について、関連統計分析部26により取得された統計分析の結果を用いて講義の評価を行ってもよい。例えば、関連講義評価部27は、講師情報に予め指定された変化が検出された各時点について関連統計分析部26が取得した1以上の分析項目別の顔の検出数(あるいはこれを正規化した値)が、分析項目別に予め指定された閾値を超えるか否かを判断し、超えた場合に、条件を満たすと判断して、この条件に対応付けられた評価結果を取得しても良い。   In addition, the related lecture evaluation unit 27 evaluates the lecture using the result of statistical analysis acquired by the related statistical analysis unit 26 for each student raw image at each time point when the change detection unit 24 detects the change. Also good. For example, the related lecture evaluation unit 27 normalizes the number of face detections by one or more analysis items acquired by the related statistical analysis unit 26 for each time point when a change designated in advance in the lecturer information is detected. It is determined whether or not (value) exceeds a threshold value specified in advance for each analysis item, and if it exceeds, it is determined that the condition is satisfied, and an evaluation result associated with this condition may be acquired.

また、関連講義評価部27は、上記のように取得した一の講義の受講生画像の各時点についての講義の評価結果を用いて、一の講義の評価結果を取得しても良い。例えば、一の講義の受講生画像の複数の時点についてそれぞれ取得した講義の評価結果の全て、あるいは一部が、予め指定された条件を満たす場合に、この条件に対応付けられた評価結果を、一の講義の評価結果として取得しても良い。例えば、複数の時点についてそれぞれ取得した講義の評価結果のなかに、予め指定された閾値以上の数の、予め指定された評価結果(例えば、生徒の興味が保たれているという評価結果)が含まれている場合、条件を満たすと判断して、この条件に対応付けられた「良質な講義」という評価結果を取得しても良い。あるいは、複数の講義の評価結果を用いて、複数の講義全体の評価結果を取得しても良い。   Further, the related lecture evaluation unit 27 may acquire the evaluation result of one lecture using the evaluation result of the lecture at each time point of the raw image of the one lecture acquired as described above. For example, when all or some of the evaluation results of lectures acquired for a plurality of time points of a student image of one lecture satisfy a predetermined condition, the evaluation results associated with this condition are It may be acquired as an evaluation result of one lecture. For example, among the evaluation results of lectures acquired for a plurality of time points, the number of evaluation results specified in advance (for example, the evaluation result indicating that the student's interest is maintained) is greater than or equal to a predetermined threshold value. If the condition is satisfied, it may be determined that the condition is satisfied, and an evaluation result of “quality lecture” associated with the condition may be acquired. Alternatively, evaluation results of a plurality of lectures as a whole may be acquired using evaluation results of a plurality of lectures.

関連講義評価部27が、どのような受講生画像についての統計分析の結果を、講義の評価に用いるかは、講義評価部15と同様に、講義の評価目的等により適宜変更するようにしてよい。   As with the lecture evaluation unit 15, it may be changed as appropriate according to the purpose of the lecture evaluation, etc., as with the lecture evaluation unit 15, what kind of student analysis statistical analysis results are used by the related lecture evaluation unit 27. .

なお、関連講義評価部27が講義の評価に用いる関連統計分析部26の統計分析の結果は、関連統計分析部26が取得して、後述する出力部28が図示しない記憶媒体等に蓄積した統計分析の結果であっても良い。   The statistical analysis result of the related statistical analysis unit 26 used by the related lecture evaluation unit 27 for the evaluation of the lecture is acquired by the related statistical analysis unit 26, and the output unit 28 described later accumulates in a storage medium (not shown). It may be the result of analysis.

出力部28は、顔分析部25による分析結果に関連する情報を出力する。本実施の形態においては、特に、出力部28は、変化検出部24が変化を検出した時点直後に取得された受講生画像に対する顔分析部25による分析結果に関連する情報を出力する。ここでの分析結果に関連する情報は、例えば、変化検出部24が変化を検出した時点直後の受講生画像に対して顔分析部25が取得した分析結果の情報である。また、変化検出部24が変化を検出した時点直後の受講生画像に対して顔分析部25が取得した分析結果の情報と、この分析結果の情報に対応する変化検出部24が検出した講師情報の変化の内容等を示す情報、または、この分析結果の取得対象となったフレーム画像等の取得された時点(例えば、時刻)の情報の少なくとも一方とを有する情報であっても良い。また、ここでの顔分析部25による分析結果に関連する情報は、変化検出部24が変化を検出した時点直後に顔分析部25が取得した分析結果を用いて取得された情報であっても良い。例えば、出力部28は、ここでの分析結果に関連する情報として、関連統計分析部26が取得した統計分析の結果を出力してもよい。また、出力部28は、顔分析部25による分析結果に関連する情報として、関連講義評価部27が取得した評価結果を出力してもよい。   The output unit 28 outputs information related to the analysis result by the face analysis unit 25. In the present embodiment, in particular, the output unit 28 outputs information related to the analysis result of the face analysis unit 25 for the student raw image acquired immediately after the change detection unit 24 detects the change. The information related to the analysis result here is, for example, information on the analysis result acquired by the face analysis unit 25 with respect to the student raw image immediately after the change detection unit 24 detects the change. The analysis result information acquired by the face analysis unit 25 for the student raw image immediately after the change detection unit 24 detects the change, and the instructor information detected by the change detection unit 24 corresponding to the analysis result information. It may be information having at least one of information indicating the contents of the change, or information at the time of acquisition (for example, time) of the frame image or the like that is the acquisition target of the analysis result. Further, the information related to the analysis result by the face analysis unit 25 here is information acquired using the analysis result acquired by the face analysis unit 25 immediately after the change detection unit 24 detects the change. good. For example, the output unit 28 may output the result of statistical analysis acquired by the related statistical analysis unit 26 as information related to the analysis result here. The output unit 28 may output the evaluation result acquired by the related lecture evaluation unit 27 as information related to the analysis result by the face analysis unit 25.

また、出力部28は、分析結果に関連する情報として、変化検出部24が検出した講師情報の変化の内容等を示す情報を更に出力しても良い。   Further, the output unit 28 may further output information indicating the content of the change in the lecturer information detected by the change detection unit 24 as information related to the analysis result.

また、出力部28は、上記実施の形態1の出力部17と同様に、顔分析部25が、時系列に沿った受講生の顔の複数の分析結果を取得する場合、顔分析部25の顔の分析結果を時系列に沿って出力するようにしてもよい。   Similarly to the output unit 17 of the first embodiment, when the face analysis unit 25 acquires a plurality of analysis results of the student's face in time series, the output unit 28 of the face analysis unit 25 You may make it output the analysis result of a face along a time series.

次に、顔分析装置2の動作について図11のフローチャートを用いて説明する。なお、ここでは、予め、一の講義について撮影された受講生画像と、講師画像および講師音声情報を有する講師情報とが、予め受講生画像格納部12と、講師情報格納部23にそれぞれ格納されているものとする。受講生画像および講師画像の各フレーム画像には、タイムコードが対応付けられているものとする。また、講師情報においては、講師画像と、講師音声画像とは同期付けられているものとする。   Next, the operation of the face analysis apparatus 2 will be described using the flowchart of FIG. Here, the student image taken in advance for one lecture and the lecturer information including the lecturer image and the lecturer audio information are stored in advance in the student image storage unit 12 and the lecturer information storage unit 23, respectively. It shall be. It is assumed that a time code is associated with each frame image of the student raw image and the lecturer image. In the lecturer information, it is assumed that the lecturer image and the lecturer audio image are synchronized.

(ステップS1101)顔分析装置2は、図示しない受付部等を介して、受講生画像格納部12に格納されている一の受講生画像を分析する指示を受け付けたか否かを判断する。指示を受け付けた場合、ステップS1102に進み、受け付けていない場合、ステップS1101に戻る。   (Step S1101) The face analysis apparatus 2 determines whether an instruction to analyze one student raw image stored in the student raw image storage unit 12 has been received via a receiving unit (not shown) or the like. If an instruction is accepted, the process proceeds to step S1102, and if not accepted, the process returns to step S1101.

(ステップS1102)変化検出部17は、講師画像から変化の箇所を検出する処理を行う。例えば、講師画像の先頭のフレーム画像から順番に変化の箇所の検出を行う。   (Step S1102) The change detection unit 17 performs a process of detecting a change location from the lecturer image. For example, the change location is detected in order from the first frame image of the lecturer image.

(ステップS1103)変化検出部17は、一の変化の箇所が検出されたか否かを判断する。検出された場合、ステップS1104に進み、検出されなかった場合、ステップS1105に進む。   (Step S1103) The change detection unit 17 determines whether or not one change point has been detected. If detected, the process proceeds to step S1104. If not detected, the process proceeds to step S1105.

(ステップS1104)変化検出部17は、検出した変化の内容と変化が検出されたフレーム画像に対応する時刻とを対応付けて、図示しない記憶媒体等に蓄積する。そして、ステップS1102に戻る。   (Step S1104) The change detection unit 17 associates the content of the detected change with the time corresponding to the frame image where the change is detected, and accumulates it in a storage medium (not shown). Then, the process returns to step S1102.

(ステップS1105)変化検出部17は、講師画像に、変化の検出処理が行われていない残りのフレーム画像があるか否かを判断する。ある場合、ステップS1102に戻り、ない場合、ステップS1106に進む。   (Step S1105) The change detection unit 17 determines whether or not there is a remaining frame image that has not been subjected to change detection processing in the lecturer image. If there is, the process returns to step S1102, and if not, the process proceeds to step S1106.

(ステップS1106)変化検出部17は、講師音声情報から変化の箇所を検出する。例えば、講師音声情報の先頭から、予め指定されたレベル以上の出力の箇所を変換箇所として検出する処理を行う。   (Step S1106) The change detection part 17 detects the location of a change from lecturer audio | voice information. For example, a process of detecting an output portion at a level higher than a predetermined level as a conversion portion from the head of the lecturer voice information is performed.

(ステップS1107)変化検出部17は、講師音声情報に変化の箇所が検出されたか否かを判断する。変化の箇所が検出された場合、ステップS1108に進み、検出されなかった場合、ステップS1109に進む。   (Step S1107) The change detection unit 17 determines whether or not a change point is detected in the lecturer voice information. If a change location is detected, the process proceeds to step S1108. If not detected, the process proceeds to step S1109.

(ステップS1108)変化検出部17は、変化の内容を示す情報(例えば閾値を超えるレベルの音声が検出されたこと)を示す情報と、変化が検出された時刻とを対応付けて、図示しない記憶媒体等に蓄積する。   (Step S1108) The change detection unit 17 stores information (not shown) by associating information indicating the content of the change (for example, information indicating that a sound having a level exceeding the threshold is detected) and the time when the change is detected. Accumulate on media.

(ステップS1109)変化検出部17は、変化の検出が行われていない残りの講師音声情報があるか否かを判断する。残りがある場合、ステップS1106に戻り、残りがない場合、ステップS1110に進む。   (Step S1109) The change detection unit 17 determines whether there is remaining lecturer voice information for which no change is detected. If there is a remainder, the process returns to step S1106, and if there is no remainder, the process proceeds to step S1110.

(ステップS1110)顔分析部25は、カウンターmに1を代入する。   (Step S1110) The face analysis unit 25 substitutes 1 for the counter m.

(ステップS1111)顔分析部25は、ステップS1104およびステップS1108で蓄積された変化が検出された時刻の中に、m番目の時刻があるか否かを判断する。m番目の時刻がある場合、ステップS1112に進み、ない場合、ステップS1118に進む。   (Step S1111) The face analysis unit 25 determines whether there is an mth time among the times at which the changes accumulated in steps S1104 and S1108 are detected. If there is an mth time, the process proceeds to step S1112; otherwise, the process proceeds to step S1118.

(ステップS1112)顔分析部25は、m番目の時刻に対応する受講生画像のフレーム画像について、1以上の顔を順次認識する。顔分析部25は、例えば、認識した1以上の顔の輪郭を示す情報に対して、それぞれ、顔の識別情報を付与して、図示しない記憶媒体等に一時記憶する。   (Step S1112) The face analysis unit 25 sequentially recognizes one or more faces in the frame image of the student raw image corresponding to the mth time. For example, the face analysis unit 25 assigns face identification information to information indicating the outline of one or more recognized faces, and temporarily stores the information in a storage medium (not shown).

(ステップS1113)顔分析部25は、ステップS1112で認識した各顔について分析を行う。例えば、ステップS1112で認識した各顔ごとに、予め指定された分析項目についての分析を行い、分析結果を示す情報を取得する。顔の分析を行う際には、例えば、m番目の時刻と対応付けられたフレーム画像の前または後のフレーム画像を利用してもよい。   (Step S1113) The face analysis unit 25 analyzes each face recognized in step S1112. For example, for each face recognized in step S1112, an analysis is performed on an analysis item designated in advance, and information indicating the analysis result is acquired. When performing face analysis, for example, a frame image before or after the frame image associated with the mth time may be used.

(ステップS1114)顔分析部25は、各顔の識別情報と、各顔についての分析結果と、分析態様となったフレーム画像に対応する時刻とを対応付けて、図示しない記憶媒体等に蓄積する。これにより、分析結果が時系列に沿って出力(ここでは、特に蓄積)される。この蓄積は、出力部28が行うようにしても良い。なお、顔分析部25は、n番目の時刻と対応付けられたフレーム画像について、顔を検出する処理を行い、一の顔を検出するごとに、その顔についてステップS1113に示すような分析を行い、その分析結果を蓄積する処理を、新たな顔が検出できなくなるまで繰り返し行うようにしても良い。   (Step S1114) The face analysis unit 25 associates the identification information of each face, the analysis result for each face, and the time corresponding to the frame image in the analysis mode, and accumulates them in a storage medium (not shown). . As a result, the analysis results are output (in particular, accumulated here) along the time series. This accumulation may be performed by the output unit 28. Note that the face analysis unit 25 performs a face detection process on the frame image associated with the nth time, and performs an analysis as shown in step S1113 for each face each time a face is detected. The process of accumulating the analysis results may be repeated until no new face can be detected.

(ステップS1115)関連統計分析部26は、m番目の時刻と対応付けられたフレーム画像に対する顔分析部25の分析結果を用いて、統計分析を行う。例えば、ステップS1113で取得した各顔の分析結果について、分析結果が同じである顔の数を集計する。例えば、この集計値と、このフレーム画像に対応する時刻と対応付けられて蓄積されている変化の内容を示す情報とを対応付けた情報が、ここでは、統計分析結果の一例である。例えば、分析結果が同じものとは、例えば、分析項目と、その分析項目について得られた分析値が同じものである。なお、一の顔に関して複数の分析結果が得られている場合、一部の分析結果が同じものを優先的に集計するようにしても良い。   (Step S1115) The related statistical analysis unit 26 performs statistical analysis using the analysis result of the face analysis unit 25 with respect to the frame image associated with the mth time. For example, for the analysis results of each face acquired in step S1113, the number of faces having the same analysis result is totaled. For example, information in which the total value is associated with information indicating the content of the change accumulated in association with the time corresponding to the frame image is an example of a statistical analysis result here. For example, the same analysis result means that the analysis item and the analysis value obtained for the analysis item are the same. In addition, when a plurality of analysis results are obtained for one face, a part of the same analysis result may be preferentially aggregated.

(ステップS1116)統計分析部20は、ステップS1107で取得した統計分析の結果である関連統計分析結果を、m番目の時刻と対応付けて図示しない記憶媒体等に蓄積する。この蓄積は、出力部28が行うようにしても良い。   (Step S1116) The statistical analysis unit 20 accumulates the related statistical analysis result, which is the result of the statistical analysis acquired in step S1107, in a storage medium or the like not shown in association with the mth time. This accumulation may be performed by the output unit 28.

(ステップS1117)顔分析部25は、カウンターmの値を1インクリメントする。そして、ステップS1111に戻る。   (Step S1117) The face analysis unit 25 increments the value of the counter m by 1. Then, the process returns to step S1111.

(ステップS1118)関連講義評価部27は、ステップS1116で蓄積された関連統計分析結果を用いて、講義の評価を行う。例えば、ステップS1116で蓄積された関連統計分析結果の中に、予め指定された条件を満たす統計分析結果が存在する場合、この条件に予め対応付けられた講義の評価を示す情報を取得する。例えば、講師情報に変化が検出された時刻に対応して得られた各関連統計分析結果が、笑っている受講生の顔の集計数と、講師情報について検出された変化の内容とを対応付けた情報であり、予め指定された条件が、講師情報について検出された変化が、講師音声情報が、予め指定されたレベル以上であって、笑っている受講生の顔の数が予め指定された数以上である統計分析結果が、予め指定された数以上検出されるという条件であり、この条件に対応した講義の評価が、「楽しい講義」という評価であるとすると、ステップS1108で蓄積された統計分析結果が、この条件を満たす場合、「楽しい講義」という講義の評価結果が得られる。なお、ここは、異なる複数の評価を行っても良い。   (Step S1118) The related lecture evaluation unit 27 evaluates the lecture using the related statistical analysis result accumulated in step S1116. For example, if there is a statistical analysis result that satisfies a predesignated condition among the related statistical analysis results accumulated in step S1116, information indicating the evaluation of the lecture that is associated in advance with this condition is acquired. For example, each related statistical analysis result obtained corresponding to the time when a change was detected in instructor information correlates the total number of faces of laughing students with the content of changes detected in instructor information The change detected for the instructor information is the predesignated condition, the instructor audio information is higher than the predesignated level, and the number of faces of the laughing students is designated in advance. It is a condition that more than a predetermined number of statistical analysis results are detected, and if the evaluation of the lecture corresponding to this condition is an evaluation of “fun lecture”, it is accumulated in step S1108. If the statistical analysis result satisfies this condition, the evaluation result of the lecture “fun lecture” is obtained. Here, a plurality of different evaluations may be performed.

(ステップS1119)講義評価部21は、ステップS1118で取得した評価結果を、講義の識別情報や、受講生画像等と対応付けて、図示しない記憶媒体等に蓄積する。この蓄積は、出力部28が行うようにしても良い。   (Step S1119) The lecture evaluation unit 21 accumulates the evaluation result acquired in step S1118 in a storage medium (not shown) or the like in association with the identification information of the lecture, the student raw image, or the like. This accumulation may be performed by the output unit 28.

(ステップS1120)出力部28は、ステップS1116で蓄積した統計分析結果と、ステップS1119で蓄積した評価結果とを表示する。   (Step S1120) The output unit 28 displays the statistical analysis result accumulated in step S1116 and the evaluation result accumulated in step S1119.

(ステップS1119)出力部28は、評価結果と統計分析の結果との表示を終了するか否かを判断する。例えば、図示しない受付部等を介して表示を終了する操作を受け付けた場合に、表示を終了することを判断する。表示を終了する場合、表示を終了してステップS1101に戻り、表示を終了しない場合、ステップS1121に戻る。   (Step S1119) The output unit 28 determines whether or not to end the display of the evaluation result and the statistical analysis result. For example, when an operation for ending the display is received via a reception unit (not shown) or the like, it is determined to end the display. If the display is to be terminated, the display is terminated and the process returns to step S1101. If the display is not to be terminated, the process returns to step S1121.

なお、図11のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。   Note that the processing is ended by powering off or interruption for aborting the processing in the flowchart in FIG.

以下、本実施の形態における顔分析装置2の具体的な動作について説明する。
受講生画像格納部12には、上記実施の形態1の具体例において図3を用いて説明したものと同様の、受講生画像が格納されているものとする。
Hereinafter, a specific operation of the face analysis apparatus 2 in the present embodiment will be described.
It is assumed that the student raw image storage unit 12 stores student raw images similar to those described with reference to FIG. 3 in the specific example of the first embodiment.

図12は、講師情報格納部23に格納されている講師情報である講師画像121と講師音声情報122との一部を示す図である。この講師画像121および講師音声情報122は、図3に示した受講生画像を撮影する際に、第二撮影部21および音声取得部22によりそれぞれ取得された講師の動画像と音声情報である。ここでは、講師画像121の各フレーム画像の下にはタイムコードを示している。また、講師画像121と講師音声情報122とは、同期付けられているものとする。   FIG. 12 is a diagram illustrating a part of the lecturer image 121 and the lecturer voice information 122 which are lecturer information stored in the lecturer information storage unit 23. The lecturer image 121 and the lecturer audio information 122 are the lecturer's moving image and audio information respectively acquired by the second imaging unit 21 and the audio acquisition unit 22 when the student raw image shown in FIG. 3 is captured. Here, a time code is shown below each frame image of the lecturer image 121. In addition, the lecturer image 121 and the lecturer audio information 122 are assumed to be synchronized.

ユーザが、マウスやキーボード等の図示しない入力デバイス等を操作して、図3に示した受講生画像の分析を行う指示を顔分析装置2に与えたとする。   It is assumed that the user operates an input device (not shown) such as a mouse or a keyboard to give an instruction to analyze the student raw image shown in FIG.

変化検出部24は、講師情報格納部23に格納されている講師画像と、講師音声情報とをそれぞれ先頭から読み出し、それぞれについて変化の検出を行う。ここでは、例えば、講師画像については、フレーム画像を順次読み出して、前後のフレーム画像等の差分等を用いて動き検出を行う。そして、講師画像内に予め指定された動き以上の物体の動き(例えば、距離等)が検出されたか否かの判断を行う。予め指定された動き以上の物体の動きが検出された場合、変化検出部24は、変化が検出されたと判断する。また、講師音声情報については、予め指定されたレベル以上の音声情報があるか否かを講師音声情報の先頭から順番に判断し、ある場合に変化が検出されたと判断する。   The change detection unit 24 reads out the lecturer image and the lecturer voice information stored in the lecturer information storage unit 23 from the head, and detects a change for each. Here, for example, for the lecturer image, the frame images are sequentially read out, and motion detection is performed using the difference between the previous and subsequent frame images. Then, it is determined whether or not an object movement (for example, a distance or the like) that is equal to or greater than a movement designated in advance in the lecturer image is detected. When a motion of an object that is equal to or greater than the motion specified in advance is detected, the change detection unit 24 determines that a change has been detected. In addition, regarding the lecturer voice information, it is judged in order from the beginning of the lecturer voice information whether or not there is voice information of a level specified in advance, and in some cases, it is judged that a change has been detected.

顔分析部25は、変化検出部24が、講師画像または講師音声情報の少なくとも一方に変化を検出すると、その変化が検出された部分の講師画像のフレーム画像、または更新音声情報に対応付けられたタイムコードを講師情報から読み出す。そして、読み出したタイムコードが示す時刻に対して、予め指定された時間を加算した時刻に対応付けられたフレーム画像を、図3に示した受講生画像から読み出し、この受講生画像について、上記実施の形態1の具体例と同様に、顔の認識や、認識した各顔についての分析を行う。予め指定された時間は、例えば、受講生の顔の変化等が、講師の動作や講師の発する音声に起因するものであるか否かを判断するのに適した時間であることが好ましく、ここでは、例えば、1〜5秒程度に予め設定される。なお、時間を加算するのは、講師の動作や音声に変化が生じてから、受講生の顔等に変化や反応が生じるまでにタイムラグがあるからである。ここでは、例えば、予め指定された時間を加算した時刻が「10:35:38.21」であったとする。   When the change detection unit 24 detects a change in at least one of the lecturer image and the lecturer voice information, the face analysis unit 25 associates the change with the frame image or updated voice information of the part of the lecturer image where the change is detected. Read time code from instructor information. Then, a frame image associated with a time obtained by adding a predetermined time to the time indicated by the read time code is read from the student raw image shown in FIG. As in the specific example of the first embodiment, face recognition and analysis for each recognized face are performed. The pre-designated time is preferably a time suitable for determining whether, for example, the student's face change or the like is due to the instructor's action or the voice uttered by the instructor. Then, for example, it is set in advance to about 1 to 5 seconds. The reason for adding the time is that there is a time lag from when a change occurs in the teacher's action or voice until a change or reaction occurs in the student's face or the like. Here, for example, it is assumed that the time obtained by adding the predesignated time is “10: 35: 38.21”.

そして、変化検出部24が検出した変化の対象を示す情報と、顔分析部25の各顔についての分析結果と、顔の分析の対象となったフレーム画像のタイムコード「10:35:38.21」とを対応付けて、図示しない記憶媒体等に蓄積する。変化の対象を示す情報は、ここでは、例えば、変化検出部24が検出した変化が、講師画像についての変化であるか、講師音声情報についての変化であるかを示す情報であるとする。   The information indicating the change target detected by the change detection unit 24, the analysis result of each face of the face analysis unit 25, and the time code “10:35:38. 21 ”is stored in association with a storage medium (not shown). Here, it is assumed that the information indicating the change target is, for example, information indicating whether the change detected by the change detection unit 24 is a change for the lecturer image or a change for the lecturer audio information.

図13は、変化検出部24が蓄積した顔の分析結果等を管理する変化時分析結果管理表である。この変化時分析結果管理表は、上記実施の形態1の具体例において図5に示した顔分析結果管理表において、変化検出部24が検出した変化の内容を示す情報である「変化対象」という項目を追加したものである。「変化対象」の値のうち、「講師画像」は、変化検出部24が検出した変化が講師画像についての変化であることを示し、「講師音声情報」は、変化検出部24が検出した変化が講師画像についての変化であることを示す。   FIG. 13 is a change time analysis result management table for managing the face analysis results and the like accumulated by the change detection unit 24. This change-time analysis result management table is referred to as “change target” which is information indicating the content of the change detected by the change detection unit 24 in the face analysis result management table shown in FIG. 5 in the specific example of the first embodiment. An item is added. Of the values of “change target”, “instructor image” indicates that the change detected by the change detection unit 24 is a change in the instructor image, and “instructor voice information” indicates the change detected by the change detection unit 24. Indicates a change in the lecturer image.

次に、関連統計分析部26は、顔分析部25の分析結果を統計分析する。ここでは、図13に示すような、タイムコードが「10:35:38.21」であるフレーム画像と、「変化対象」の値である「講師画像」と対応付けられた分析結果について統計分析を行う。具体的には、タイムコードが「10:35:38.21」であるフレーム画像についての分析結果において、「表情」が「スマイル」である顔の数、「視線方向」が「正面」である顔の数、「顔方向」が「正面」である顔の数、および「まばたき」が「閉」である顔の数の集計をそれぞれ行う。つまり、分析項目別に集計を行う。そして、これらの集計結果を、認識した顔の総数「30」で除算して、各分析項目別の顔が出現する比率を取得する。なお、比率を算出する代わりに、分散等を算出しても良い。そして、関連統計分析部26は、取得した分析項目別の比率を、統計分析結果として、タイムコード「10:35:38.21」、及び「変化対象」の値である「講師画像」と対応付けて図示しない記憶媒体に蓄積する。なお、統計分析の対象となる分析結果が、「講師画像」という「変化対象」と対応付けられたものである場合、統計分析結果は、「講師音声情報」という「変化対象」と対応付けられて蓄積される。   Next, the related statistical analysis unit 26 statistically analyzes the analysis result of the face analysis unit 25. Here, as shown in FIG. 13, statistical analysis is performed on the analysis result associated with the frame image whose time code is “10: 35: 38.21” and the “instructor image” which is the value of “change target”. I do. Specifically, in the analysis result of the frame image with the time code “10: 35: 38.21”, the number of faces whose “expression” is “smile” and “line-of-sight direction” is “front” The number of faces, the number of faces whose “face direction” is “front”, and the number of faces whose “blink” is “closed” are respectively tabulated. That is, aggregation is performed for each analysis item. Then, these total results are divided by the total number of recognized faces “30” to obtain the ratio of appearance of faces for each analysis item. Instead of calculating the ratio, variance or the like may be calculated. And the related statistical analysis part 26 respond | corresponds with the "instructor image" which is the value of time code "10: 35: 38.21" and the value of "change object" as a statistical analysis result for the acquired ratio for every analysis item. In addition, it is stored in a storage medium (not shown). In addition, when the analysis result to be subjected to statistical analysis is associated with “change object” “instructor image”, the statistical analysis result is associated with “change object” “instructor voice information”. Accumulated.

変化検出部24は、その後も、残りの講師画像及び講師音声情報について、変化を検出する処理を繰り返し、顔分析部25は、変化が検出されるごとに、変化が検出された時刻に対して予め指定された時刻を加算した時刻に対応する受講生画像のフレーム画像について顔の分析を行い、関連統計分析部26は、統計分析を行う。   After that, the change detection unit 24 repeats the process of detecting changes for the remaining lecturer images and lecturer audio information, and the face analysis unit 25 performs the change detection for each time a change is detected. The face analysis is performed on the frame image of the student image corresponding to the time obtained by adding the time specified in advance, and the related statistical analysis unit 26 performs the statistical analysis.

図14は、関連統計分析部26が蓄積した統計分析の結果を管理する統計分析結果管理表を示す図である。関連統計分析結果管理表は、図6に示した統計分析結果管理表において、図13に示したような「変化対象」という項目を追加したものである。   FIG. 14 is a diagram showing a statistical analysis result management table for managing the results of statistical analysis accumulated by the related statistical analysis unit 26. The related statistical analysis result management table is obtained by adding the item “change target” as shown in FIG. 13 to the statistical analysis result management table shown in FIG.

次に、関連講義評価部27は、図14に示すような、関連統計分析部26が取得した統計分析結果を用いて、受講生画像に対応する講義の評価を行う。ここでは、例えば、講義の評価を行うための条件として、『「変化対象」が「講師音声情報」であり、かつ、「表情(スマイル)」の比率が「60%以上」である時刻の数が、「40」を超える」』という条件が、予め図示しない記憶媒体に格納されており、この条件を満たした場合の講義の評価を示す値として「講師の話に集中している講義」という値が、この条件と対応付けて図示しない記憶媒体に格納されているとする。ここでの時刻は、分析対象となった各フレーム画像と考えても良いし、図14に示した関連統計分析結果管理表の各レコードと考えても良い。   Next, the related lecture evaluation unit 27 evaluates the lecture corresponding to the student image using the statistical analysis result acquired by the related statistical analysis unit 26 as shown in FIG. Here, for example, as a condition for evaluating a lecture, “the number of times when“ change target ”is“ lecturer voice information ”and the ratio of“ expression (smile) ”is“ 60% or more ” However, the condition “is over 40” is stored in advance in a storage medium (not shown), and the value indicating the evaluation of the lecture when this condition is satisfied is called “lecture concentrated on the lecturer's story”. It is assumed that the value is stored in a storage medium (not shown) in association with this condition. The time here may be considered as each frame image to be analyzed, or may be considered as each record in the related statistical analysis result management table shown in FIG.

関連講義評価部27は、上記の条件を読み出す。次に、図14に示した関連統計分析結果管理表において、「変化対象」が「講師音声情報」であり、かつ、「表情(スマイル)」の比率が、「60%以上」であるレコードの数をカウントする。例えば、カウント数が「52」であったとする。そして、取得したカウント数が「40以上」であるか否かを判断する。ここでは40以上であるので、「講師の話に集中している講義」という評価結果を取得する。なお、40未満の場合、「講師の話に集中していない講義」という評価結果を取得するようにしても良い。取得した評価結果は、例えば、受講生画像のファイル名等と対応付けて、図示しない記憶媒体等に蓄積する。   The related lecture evaluation unit 27 reads the above conditions. Next, in the related statistical analysis result management table shown in FIG. 14, records whose “change target” is “lecturer voice information” and whose “expression (smile)” ratio is “60% or more” are recorded. Count the number. For example, assume that the count number is “52”. Then, it is determined whether or not the acquired count number is “40 or more”. Here, since it is 40 or more, the evaluation result “lecture concentrated on the lecturer's story” is acquired. When the number is less than 40, an evaluation result “lecture not concentrated on the lecturer's story” may be acquired. The acquired evaluation result is stored in a storage medium (not shown) in association with the file name of the student raw image, for example.

出力部28は、関連統計分析部26が取得した統計分析結果と、関連講義評価部27が取得した評価結果を、図7と同様に、モニタ等に表示する。   The output unit 28 displays the statistical analysis result acquired by the related statistical analysis unit 26 and the evaluation result acquired by the related lecture evaluation unit 27 on a monitor or the like as in FIG.

また、出力部28は、顔分析部25が取得した顔の分析結果を表示する指示を受け付けた場合、図13に示した変化時分析結果管理表で管理されている顔分析部25が取得した顔の分析結果を、図8に示すように、時系列に沿わせてモニタ等に表示する。例えば、出力部17は、分析結果を時系列に沿って並べて表示する。   Further, when the output unit 28 receives an instruction to display the analysis result of the face acquired by the face analysis unit 25, the output unit 28 acquired by the face analysis unit 25 managed by the change analysis result management table shown in FIG. As shown in FIG. 8, the face analysis result is displayed on a monitor or the like in time series. For example, the output unit 17 displays the analysis results side by side along a time series.

なお、上記実施の形態1と同様に、出力部28が出力する一の時点の顔の分析結果に対する指定を受け付けるようにし、指定を受け付けた場合に、指定された分析結果に対応するフレーム画像を、上記実施の形態1の具体例と同様に、出力部28が受講生画像から読み出して表示するようにしてもよい。   As in the first embodiment, a specification for the analysis result of the face at one point output by the output unit 28 is received, and when the specification is received, a frame image corresponding to the specified analysis result is displayed. Similarly to the specific example of the first embodiment, the output unit 28 may read out from the student image and display it.

以上、本実施の形態によれば、講師情報の分析結果と、講義中の受講生の顔の分析結果とを利用して、講義に関する分析を適切に行うことができる。   As described above, according to the present embodiment, it is possible to appropriately analyze the lecture by using the analysis result of the lecturer information and the analysis result of the face of the student during the lecture.

なお、上記各実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。   In each of the above embodiments, each process (each function) may be realized by centralized processing by a single device (system), or by distributed processing by a plurality of devices. May be.

また、上記各実施の形態では、顔分析装置がスタンドアロンである場合について説明したが、顔分析装置は、スタンドアロンの装置であってもよく、サーバ・クライアントシステムにおけるサーバ装置であってもよい。後者の場合には、出力部や受付部は、通信回線を介して入力を受け付けたり、画面を出力したりすることになる。   Further, although cases have been described with the above embodiments where the face analysis device is a stand-alone device, the face analysis device may be a stand-alone device or a server device in a server / client system. In the latter case, the output unit or the reception unit receives an input or outputs a screen via a communication line.

また、上記各実施の形態において、顔分析部13、統計分析部14、講義評価部15、変化検出部24、顔分析部25、関連統計分析部26、関連講義評価部27等の各構成要素は専用のハードウェアにより構成されてもよく、あるいは、ソフトウェアにより構成され、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。   In each of the above embodiments, the constituent elements such as the face analysis unit 13, the statistical analysis unit 14, the lecture evaluation unit 15, the change detection unit 24, the face analysis unit 25, the related statistical analysis unit 26, the related lecture evaluation unit 27, etc. May be configured by dedicated hardware, or may be configured by software and realized by executing a program. For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.

なお、上記各実施の形態における顔分析装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、講義中における1以上の受講生の顔を撮影した動画像である受講生画像が格納される受講生画像格納部にアクセス可能なコンピュータを、受講生画像から受講生の顔を認識して、認識した顔に対する分析を行う顔分析部と、顔分析部による分析結果に関連する情報を出力する出力部として機能させるためのプログラムである。   The software that realizes the face analysis device in each of the above embodiments is a program as described below. In other words, this program uses a computer that can access a student image storage unit in which a student image, which is a moving image obtained by capturing one or more students' faces during a lecture, from a student image to a student's face. Is a program for functioning as a face analysis unit that analyzes the recognized face and an output unit that outputs information related to the analysis result by the face analysis unit.

なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を取得する取得部や、情報を出力する出力部などにおけるモデムやインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には含まれない。   In the program, the functions realized by the program do not include functions that can be realized only by hardware. For example, a function that can be realized only by hardware such as a modem or an interface card in an acquisition unit that acquires information or an output unit that outputs information is not included in the function realized by the program.

また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。   Further, the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

図15は、上記プログラムを実行して、上記実施の形態による顔分析装置を実現するコンピュータの外観の一例を示す模式図である。上記実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムによって実現されうる。   FIG. 15 is a schematic diagram showing an example of the external appearance of a computer that executes the program and realizes the face analysis apparatus according to the embodiment. The above-described embodiment can be realized by computer hardware and a computer program executed on the computer hardware.

図15において、コンピュータシステム900は、CD−ROM(Compact Disk Read Only Memory)ドライブ905、FD(Floppy(登録商標) Disk)ドライブ906を含むコンピュータ901と、キーボード902と、マウス903と、モニタ904とを備える。   15, a computer system 900 includes a computer 901 including a CD-ROM (Compact Disk Read Only Memory) drive 905, an FD (Floppy (registered trademark) Disk) drive 906, a keyboard 902, a mouse 903, a monitor 904, and the like. Is provided.

図16は、コンピュータシステム900の内部構成を示す図である。図16において、コンピュータ901は、CD−ROMドライブ905、FDドライブ906に加えて、MPU(Micro Processing Unit)911と、ブートアッププログラム等のプログラムを記憶するためのROM912と、MPU911に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM(Random Access Memory)913と、アプリケーションプログラム、システムプログラム、及びデータを記憶するハードディスク914と、MPU911、ROM912等を相互に接続するバス915とを備える。なお、コンピュータ901は、LANへの接続を提供する図示しないネットワークカードを含んでいてもよい。   FIG. 16 is a diagram showing an internal configuration of the computer system 900. In FIG. 16, in addition to the CD-ROM drive 905 and the FD drive 906, a computer 901 is connected to an MPU (Micro Processing Unit) 911, a ROM 912 for storing a program such as a bootup program, and the MPU 911. A RAM (Random Access Memory) 913 that temporarily stores program instructions and provides a temporary storage space, a hard disk 914 that stores application programs, system programs, and data, and an MPU 911 and a ROM 912 are interconnected. And a bus 915. The computer 901 may include a network card (not shown) that provides connection to the LAN.

コンピュータシステム900に、上記実施の形態による顔分析装置等の機能を実行させるプログラムは、CD−ROM921、またはFD922に記憶されて、CD−ROMドライブ905、またはFDドライブ906に挿入され、ハードディスク914に転送されてもよい。これに代えて、そのプログラムは、図示しないネットワークを介してコンピュータ901に送信され、ハードディスク914に記憶されてもよい。プログラムは実行の際にRAM913にロードされる。なお、プログラムは、CD−ROM921やFD922、またはネットワークから直接、ロードされてもよい。   A program for causing the computer system 900 to execute the functions of the face analysis apparatus and the like according to the above embodiment is stored in the CD-ROM 921 or the FD 922, inserted into the CD-ROM drive 905 or the FD drive 906, and stored in the hard disk 914. May be forwarded. Instead, the program may be transmitted to the computer 901 via a network (not shown) and stored in the hard disk 914. The program is loaded into the RAM 913 when executed. The program may be loaded directly from the CD-ROM 921, the FD 922, or the network.

プログラムは、コンピュータ901に、上記実施の形態による顔分析装置の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム900がどのように動作するのかについては周知であり、詳細な説明は省略する。   The program does not necessarily include an operating system (OS) or a third-party program that causes the computer 901 to execute the functions of the face analysis apparatus according to the above-described embodiment. The program may include only a part of an instruction that calls an appropriate function (module) in a controlled manner and obtains a desired result. How the computer system 900 operates is well known and will not be described in detail.

本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   The present invention is not limited to the above-described embodiments, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.

以上のように、本発明にかかる顔分析装置は、講義に関する分析を行う装置として適しており、特に、受講生の顔を撮影した画像等を用いて講義に関する分析を行う装置等として有用である。   As described above, the face analysis apparatus according to the present invention is suitable as an apparatus for analyzing a lecture, and is particularly useful as an apparatus for performing an analysis on a lecture using an image obtained by photographing a student's face. .

1、2 顔分析装置
11 第一撮影部
12 受講生画像格納部
13、25 顔分析部
14 統計分析部
15 講義評価部
16 指定受付部
17、28 出力部
21 第二撮影部
22 音声取得部
23 講師情報格納部
24 変化検出部
26 関連統計分析部
27 関連講義評価部
121 講師画像
122 講師音声情報
DESCRIPTION OF SYMBOLS 1, 2 Face analyzer 11 1st imaging | photography part 12 Student raw image storage part 13, 25 Face analysis part 14 Statistical analysis part 15 Lecture evaluation part 16 Specification reception part 17, 28 Output part 21 2nd imaging | photography part 22 Voice acquisition part 23 Instructor information storage unit 24 Change detection unit 26 Related statistical analysis unit 27 Related lecture evaluation unit 121 Instructor image 122 Instructor audio information

Claims (9)

講義中における1以上の受講生の顔を撮影した動画像である受講生画像が格納される受講生画像格納部と、
前記受講生画像から受講生の顔を認識して、当該認識した顔に対する分析を行い、顔の表情、顔の向き、視線方向、およびまばたきを含む分析項目についての分析結果を示す情報であり、顔の表情、顔の向き、視線方向、およびまばたきを示す情報を取得する顔分析部と、
前記顔の表情、顔の向き、視線方向、およびまばたきを示す情報を用いて、顔の表情、顔の向き、視線方向、およびまばたきを含む分析項目別に、顔の数を集計する統計分析部と、
前記顔の表情、顔の向き、視線方向、およびまばたきを含む分析項目別の顔の集計結果を用いて、前記講義の評価を行う講義評価部と、
前記講義評価部の評価結果を出力する出力部とを備えた顔分析装置であって、
講義中の講師を撮影した動画像である講師画像、または講義中の講師の音声の情報である講師音声情報の少なくとも一方を含む情報である講師情報が格納される講師情報格納部と、
前記講師情報の変化の検出を行う変化検出部と、
前記変化検出部が変化を検出した時点直後に取得された受講生画像に対する分析結果を用いて、予め指定された統計分析を行う関連統計分析部と、
前記関連統計分析部の統計分析の結果を用いて、前記講義の評価を行う関連講義評価部とを更に備え、
前記顔分析部は、前記変化検出部が変化を検出した時点直後に取得された受講生画像に対する顔の分析結果であり、顔の表情の分析項目についての分析結果を示す情報を取得し、
前記出力部は、前記関連講義評価部の評価結果を出力する顔分析装置
A student image storage unit that stores a student image that is a moving image of a face of one or more students during the lecture;
Recognizing a student's face from the student image, performing an analysis on the recognized face, information indicating an analysis result for an analysis item including facial expression, face direction, gaze direction, and blinking, A face analysis unit for acquiring information indicating facial expressions, face orientations, gaze directions, and blinks;
A statistical analysis unit that counts the number of faces for each analysis item including facial expression, face orientation, gaze direction, and blink using information indicating the facial expression, face orientation, gaze direction, and blink ,
A lecture evaluation unit that evaluates the lecture by using the face count result by analysis item including the facial expression, face direction, line-of-sight direction, and blink,
A face analyzer including an output unit for outputting the evaluation result of the lecture evaluation unit ,
A lecturer information storage unit that stores lecturer information that is information including at least one of a lecturer image that is a moving image of a lecturer who is taking a lecture, or lecturer voice information that is voice information of a lecturer being lectured;
A change detector for detecting changes in the lecturer information;
An associated statistical analysis unit that performs a statistical analysis specified in advance using an analysis result for a student raw image acquired immediately after the change detection unit detects a change;
Using a result of statistical analysis of the related statistical analysis unit, further comprising a related lecture evaluation unit for evaluating the lecture,
The face analysis unit is a face analysis result for a student raw image acquired immediately after the change detection unit detects a change, and acquires information indicating an analysis result for a facial expression analysis item,
The output unit is a face analysis device that outputs an evaluation result of the related lecture evaluation unit .
前記統計分析部は、
顔の表情のうち、笑い、怒り、または悲しみの顔の出現回数を集計し、
前記講義評価部は、
前記笑い、怒り、または悲しみの顔の出現回数を用いて、前記講義の評価を行う請求項1記載の顔分析装置。
The statistical analysis unit
Aggregate the number of appearances of facial expressions of laughter, anger, or sadness,
The lecture evaluation section
The face analysis apparatus according to claim 1, wherein the lecture is evaluated using the number of appearances of the laughing, angry, or sad face.
前記出力部は、前記関連統計分析部の統計分析の結果をも出力する請求項1または請求項2記載の顔分析装置。 The face analysis apparatus according to claim 1 , wherein the output unit also outputs a result of statistical analysis of the related statistical analysis unit. 前記変化検出部は、
講師情報に含まれる講師音声情報のレベルが、予め指定された閾値以上である1以上の時点を検出し、
前記関連統計分析部は、
前記変化検出部が検出した1以上の時点の直後の受講生画像からそれぞれ検出された、笑っている顔の数を集計し、
前記関連講義評価部は、
前記笑っている顔の集計数が、予め指定した閾値以上である場合に、関心が持続する講義であることを示す評価結果を取得する請求項1から請求項3いずれか一項に記載の顔分析装置。
The change detector is
The level of the lecturer audio information included in the lecturer information is detected at one or more time points that are equal to or higher than a predetermined threshold value,
The related statistical analysis unit
The number of laughing faces respectively detected from the student image immediately after the one or more time points detected by the change detection unit is totalized,
The related lecture evaluation section
The face according to any one of claims 1 to 3 , wherein an evaluation result indicating that the interest is a lecture is acquired when the total number of smiling faces is equal to or greater than a predetermined threshold value. Analysis equipment.
前記顔分析部は、時系列に沿った受講生の顔の分析結果を取得し、
前記出力部は、前記顔分析部の顔の分析結果を時系列に沿って出力する請求項1から請求項4いずれか一項に記載の顔分析装置。
The face analysis unit obtains the analysis results of the students' faces in time series,
The output unit, a face analyzer as claimed in any one claims 1 to 4 for outputting in a time series analysis of the face of the face analysis unit.
前記出力部が出力する一の時点の顔の分析結果に対する指定を受け付ける指定受付部を更に備え、
前記出力部は、当該指定受付部が指定を受け付けた分析結果に対応する時点の受講生画像を出力する請求項5記載の顔分析装置。
A specification accepting unit that accepts a designation for the analysis result of the face at one time output by the output unit;
The face analysis device according to claim 5 , wherein the output unit outputs a raw student image at a time corresponding to an analysis result received by the designation receiving unit.
前記出力部は、前記受講生画像を出力する際に、受講生の顔の部分を、受講生が識別できなくなるような表示態様とした受講生画像を出力する請求項6記載の顔分析装置。 The face analysis apparatus according to claim 6 , wherein when outputting the student image, the output unit outputs a student image in a display mode in which a student's face cannot be identified. 講義中における1以上の受講生の顔を撮影した動画像である受講生画像が格納される受講生画像格納部と、講義中の講師を撮影した動画像である講師画像、または講義中の講師の音声の情報である講師音声情報の少なくとも一方を含む情報である講師情報が格納される講師情報格納部と、顔分析部と、統計分析部と、講義評価部と、出力部と、変化検出部と、関連統計分析部と、関連講義評価部とを用いて行われる顔分析方法であって、
前記顔分析部が、前記受講生画像から受講生の顔を認識して、当該認識した顔に対する分析を行い、顔の表情、顔の向き、視線方向、およびまばたきを含む分析項目についての分析結果を示す情報であり、顔の表情、顔の向き、視線方向、およびまばたきを示す情報を取得する顔分析ステップと、
前記統計分析部が、前記顔の表情、顔の向き、視線方向、およびまばたきを示す情報を用いて、顔の表情、顔の向き、視線方向、およびまばたきを含む分析項目別に、顔の数を集計する統計分析ステップと、
前記講義評価部が、前記顔の表情、顔の向き、視線方向、およびまばたきを含む分析項目別の顔の集計結果を用いて、前記講義の評価を行う講義評価ステップと、
前記出力部が、前記講義評価ステップにおける評価結果を出力する出力ステップとを備えた顔分析方法であって、
前記変化検出部が、前記講師情報の変化の検出を行う変化検出ステップと、
前記関連統計分析部が、前記変化検出ステップにおいて変化を検出した時点直後に取得された受講生画像に対する分析結果を用いて、予め指定された統計分析を行う関連統計分析ステップと、
前記関連講義評価部が、前記関連統計分析ステップにおける統計分析の結果を用いて、前記講義の評価を行う関連講義評価ステップとを更に備え、
前記顔分析ステップは、前記変化検出ステップにおいて変化を検出した時点直後に取得された受講生画像に対する顔の分析結果であり、顔の表情の分析項目についての分析結果を示す情報を取得し、
前記出力ステップにおいて、前記関連講義評価ステップにおける評価結果を出力する顔分析方法
A student image storage unit that stores a student image that is a moving image of the face of one or more students during a lecture, a lecturer image that is a moving image of a lecturer during a lecture, or a lecturer during a lecture Lecturer information storage unit that stores at least one of instructor audio information, which is audio information of the lecturer, a face analysis unit, a statistical analysis unit, a lecture evaluation unit, an output unit, and change detection A face analysis method performed using a department, a related statistical analysis section, and a related lecture evaluation section ,
The face analysis unit recognizes a student's face from the student image, performs analysis on the recognized face, and results of analysis on analysis items including facial expression, face direction, line-of-sight direction, and blinking A face analysis step for acquiring information indicating facial expression, facial orientation, gaze direction, and blinking,
The statistical analysis unit uses the information indicating the facial expression, facial orientation, gaze direction, and blinking to calculate the number of faces for each analysis item including facial expression, facial orientation, gaze direction, and blinking. A statistical analysis step to aggregate,
The lecture evaluation unit performs the evaluation of the lecture using the face count for each analysis item including the facial expression, face direction, gaze direction, and blink,
The output unit is a face analysis method including an output step of outputting an evaluation result in the lecture evaluation step ,
A change detecting step in which the change detecting unit detects a change in the lecturer information;
A related statistical analysis step in which the related statistical analysis unit performs a statistical analysis specified in advance using an analysis result for a student raw image acquired immediately after detecting a change in the change detection step;
The related lecture evaluation unit further includes a related lecture evaluation step for evaluating the lecture using a result of statistical analysis in the related statistical analysis step,
The face analysis step is a face analysis result for a student raw image acquired immediately after detecting a change in the change detection step, and acquires information indicating an analysis result for an analysis item of facial expression,
A face analysis method for outputting an evaluation result in the related lecture evaluation step in the output step .
講義中における1以上の受講生の顔を撮影した動画像である受講生画像が格納される受講生画像格納部と、講義中の講師を撮影した動画像である講師画像、または講義中の講師の音声の情報である講師音声情報の少なくとも一方を含む情報である講師情報が格納される講師情報格納部とにアクセス可能なコンピュータを、
前記受講生画像から受講生の顔を認識して、当該認識した顔に対する分析を行い、顔の表情、顔の向き、視線方向、およびまばたきを含む分析項目についての分析結果を示す情報であり、顔の表情、顔の向き、視線方向、およびまばたきを示す情報を取得する顔分析部と、
前記顔の表情、顔の向き、視線方向、およびまばたきを示す情報を用いて、顔の表情、顔の向き、視線方向、およびまばたきを含む分析項目別に、顔の数を集計する統計分析部と、
前記顔の表情、顔の向き、視線方向、およびまばたきを含む分析項目別の顔の集計結果を用いて、前記講義の評価を行う講義評価部と、
前記講義評価部の評価結果を出力する出力部として機能させるためのプログラムであって、
コンピュータを、
前記講師情報の変化の検出を行う変化検出部と、
前記変化検出部が変化を検出した時点直後に取得された受講生画像に対する分析結果を用いて、予め指定された統計分析を行う関連統計分析部と、
前記関連統計分析部の統計分析の結果を用いて、前記講義の評価を行う関連講義評価部としてさらに機能させ、
前記顔分析部は、前記変化検出部が変化を検出した時点直後に取得された受講生画像に対する顔の分析結果であり、顔の表情の分析項目についての分析結果を示す情報を取得し、
前記出力部は、前記関連講義評価部の評価結果を出力するものとして、コンピュータを機能させるためのプログラム。
A student image storage unit that stores a student image that is a moving image of the face of one or more students during a lecture, a lecturer image that is a moving image of a lecturer during a lecture, or a lecturer during a lecture A computer that can access a lecturer information storage unit that stores lecturer information that is information including at least one of lecturer voice information that is voice information of
Recognizing a student's face from the student image, performing an analysis on the recognized face, information indicating an analysis result for an analysis item including facial expression, face direction, gaze direction, and blinking, A face analysis unit for acquiring information indicating facial expressions, face orientations, gaze directions, and blinks;
A statistical analysis unit that counts the number of faces for each analysis item including facial expression, face orientation, gaze direction, and blink using information indicating the facial expression, face orientation, gaze direction, and blink ,
A lecture evaluation unit that evaluates the lecture by using the face count result by analysis item including the facial expression, face direction, line-of-sight direction, and blink,
A program for functioning as an output unit that outputs the evaluation result of the lecture evaluation unit,
Computer
A change detector for detecting changes in the lecturer information;
An associated statistical analysis unit that performs a statistical analysis specified in advance using an analysis result for a student raw image acquired immediately after the change detection unit detects a change;
Using the result of statistical analysis of the related statistical analysis unit, further function as a related lecture evaluation unit for evaluating the lecture,
The face analysis unit is a face analysis result for a student raw image acquired immediately after the change detection unit detects a change, and acquires information indicating an analysis result for a facial expression analysis item,
The output unit is a program for causing a computer to function as an output of the evaluation result of the related lecture evaluation unit .
JP2011201450A 2011-09-15 2011-09-15 Face analysis device, face analysis method, and program Active JP5441071B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011201450A JP5441071B2 (en) 2011-09-15 2011-09-15 Face analysis device, face analysis method, and program
PCT/JP2012/073185 WO2013039062A1 (en) 2011-09-15 2012-09-11 Facial analysis device, facial analysis method, and memory medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011201450A JP5441071B2 (en) 2011-09-15 2011-09-15 Face analysis device, face analysis method, and program

Publications (3)

Publication Number Publication Date
JP2013061906A JP2013061906A (en) 2013-04-04
JP2013061906A5 JP2013061906A5 (en) 2013-11-21
JP5441071B2 true JP5441071B2 (en) 2014-03-12

Family

ID=47883291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011201450A Active JP5441071B2 (en) 2011-09-15 2011-09-15 Face analysis device, face analysis method, and program

Country Status (2)

Country Link
JP (1) JP5441071B2 (en)
WO (1) WO2013039062A1 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6672592B2 (en) * 2015-02-19 2020-03-25 富士通株式会社 Presenter selection support program, presenter selection support method, and information processing device
JP2016218766A (en) * 2015-05-21 2016-12-22 富士ゼロックス株式会社 Information processor and information processing program
CN107851324B (en) * 2015-07-28 2022-12-20 索尼公司 Information processing system, information processing method, and recording medium
JP6451608B2 (en) * 2015-11-30 2019-01-16 京セラドキュメントソリューションズ株式会社 Lecture confirmation system
JP6512082B2 (en) * 2015-11-30 2019-05-15 京セラドキュメントソリューションズ株式会社 Lecture confirmation system
JP6859640B2 (en) * 2016-09-21 2021-04-14 富士ゼロックス株式会社 Information processing equipment, evaluation systems and programs
US20190371189A1 (en) * 2016-11-24 2019-12-05 Gaia System Solutions Inc. Engagement measurement system
JP6897095B2 (en) * 2016-12-27 2021-06-30 富士通株式会社 Image processing program, image processing device and image processing method
JP7069550B2 (en) * 2017-03-16 2022-05-18 日本電気株式会社 Lecture video analyzer, lecture video analysis system, method and program
US10930169B2 (en) * 2017-05-04 2021-02-23 International Business Machines Corporation Computationally derived assessment in childhood education systems
TWI684159B (en) * 2018-03-20 2020-02-01 麥奇數位股份有限公司 Instant monitoring method for interactive online teaching
JP7161318B2 (en) * 2018-06-20 2022-10-26 矢崎総業株式会社 Occupancy monitoring system
WO2020054855A1 (en) * 2018-09-14 2020-03-19 日本電気株式会社 Class assistance system, determination device, class assistance method, and program
CN109889916B (en) * 2019-01-07 2023-04-07 北京汉博信息技术有限公司 Application system of recorded broadcast data
CN110827491A (en) * 2019-09-26 2020-02-21 天津市华软创新科技有限公司 School student behavior big data analysis system
JP6850507B1 (en) * 2020-03-31 2021-03-31 株式会社オープンソース活用研究所 Seminar management system, seminar management method, and server equipment
CN111931585A (en) * 2020-07-14 2020-11-13 东云睿连(武汉)计算技术有限公司 Classroom concentration degree detection method and device
CN112232166B (en) * 2020-10-10 2023-12-01 中国平安人寿保险股份有限公司 Lecturer dynamic evaluation method and device based on artificial intelligence and computer equipment
WO2023203960A1 (en) * 2022-04-19 2023-10-26 Metaclassroom株式会社 Information processing device, information processing method, program, and information processing system
CN114724229B (en) * 2022-05-23 2022-09-02 北京英华在线科技有限公司 Learning state detection system and method for online education platform
CN116798103B (en) * 2023-08-29 2023-12-01 广州诚踏信息科技有限公司 Artificial intelligence-based face image processing method and system
CN117079338B (en) * 2023-10-17 2024-01-09 山东惠通科技有限公司 Teaching quality monitoring method and system based on artificial intelligence

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002023716A (en) * 2000-07-05 2002-01-25 Pfu Ltd Presentation system and recording medium
JP2003037826A (en) * 2001-07-23 2003-02-07 Alpine Electronics Inc Substitute image display and tv phone apparatus
JP2006330464A (en) * 2005-05-27 2006-12-07 Fujifilm Holdings Corp Attendance status discriminating device, method, and program
JP2007102344A (en) * 2005-09-30 2007-04-19 Fujifilm Corp Automatic evaluation device, program, and method
JP2007213282A (en) * 2006-02-09 2007-08-23 Seiko Epson Corp Lecturer support device and lecturer support method
WO2008129356A2 (en) * 2006-03-13 2008-10-30 Imotions-Emotion Technology A/S Visual attention and emotional response detection and display system
JP2009258175A (en) * 2008-04-11 2009-11-05 Yamaha Corp Lecture system and tabulation system

Also Published As

Publication number Publication date
WO2013039062A1 (en) 2013-03-21
JP2013061906A (en) 2013-04-04

Similar Documents

Publication Publication Date Title
JP5441071B2 (en) Face analysis device, face analysis method, and program
US8926335B2 (en) System and method for remote test administration and monitoring
Soldner et al. Box of lies: Multimodal deception detection in dialogues
Nguyen et al. Multimodal analysis of body communication cues in employment interviews
JP6859640B2 (en) Information processing equipment, evaluation systems and programs
WO2017018012A1 (en) Information processing system, information processing method, and storage medium
JP4704174B2 (en) Status identification device, program, and method
JP2008027086A (en) Facial expression inducing device, facial expression inducing method, and facial expression inducing system
KR20150082093A (en) Evaluation program, evaluation method, and evaluation apparatus
JP6906273B2 (en) Programs, devices and methods that depict the trajectory of displacement of the human skeleton position from video data
KR101838792B1 (en) Method and apparatus for sharing user&#39;s feeling about contents
JP2011164681A (en) Device, method and program for inputting character and computer-readable recording medium recording the same
US20220335246A1 (en) System And Method For Video Processing
CN105561536A (en) Man-machine interaction system having bodybuilding action correcting function
WO2020144835A1 (en) Information processing device and information processing method
JP6819194B2 (en) Information processing systems, information processing equipment and programs
JP7206741B2 (en) HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM
Suryani et al. Multi-modal asian conversation mobile video dataset for recognition task
Soneda et al. M3B corpus: Multi-modal meeting behavior corpus for group meeting assessment
CN113949891B (en) Video processing method and device, server and client
JP2019191718A (en) Serving operation analysis and evaluation system
JP6859641B2 (en) Evaluation system, information processing equipment and programs
CN111435268A (en) Human-computer interaction method based on image recognition and reconstruction and system and device using same
CN111770300B (en) Conference information processing method and virtual reality head-mounted equipment
Bahreini et al. Improved multimodal emotion recognition for better game-based learning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131007

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131021

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20131021

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20131105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131210

R150 Certificate of patent or registration of utility model

Ref document number: 5441071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250