JP2018060375A - Information processing system, information processing device and program - Google Patents

Information processing system, information processing device and program Download PDF

Info

Publication number
JP2018060375A
JP2018060375A JP2016197555A JP2016197555A JP2018060375A JP 2018060375 A JP2018060375 A JP 2018060375A JP 2016197555 A JP2016197555 A JP 2016197555A JP 2016197555 A JP2016197555 A JP 2016197555A JP 2018060375 A JP2018060375 A JP 2018060375A
Authority
JP
Japan
Prior art keywords
information
student
screen
lecturer
lecture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016197555A
Other languages
Japanese (ja)
Other versions
JP6819194B2 (en
Inventor
伊藤 篤
Atsushi Ito
篤 伊藤
鈴木 譲
Yuzuru Suzuki
譲 鈴木
河野 功幸
Yoshiyuki Kono
功幸 河野
耕輔 丸山
Kosuke Maruyama
耕輔 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2016197555A priority Critical patent/JP6819194B2/en
Publication of JP2018060375A publication Critical patent/JP2018060375A/en
Application granted granted Critical
Publication of JP6819194B2 publication Critical patent/JP6819194B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide student information needed by instructors according to lecture scenes.SOLUTION: An information processing system comprises a video camera 100 for capturing an image of students, an information processing device 200 for specifying a student based on the captured image to obtain information on a lecture of the specified student, and a terminal device 300 for obtaining information from the information processing device 200 to display the student information on a display device. The terminal device 300 switches between an overall information display screen for displaying information on a position of the student in a classroom and an information presentation screen for displaying information on the lecture of the student according to a position and an orientation of the instructor in the classroom, and then displays it on the display device.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システム、情報処理装置およびプログラムに関する。   The present invention relates to an information processing system, an information processing apparatus, and a program.

講義の受講者を撮影して得られた画像を用いて受講者の状態を分析することが行われている。特許文献1には、授業等を受講する複数の受講者の受講風景を撮影して得た画像から、複数の受講者の顔画像を抽出する抽出手段と、抽出された顔画像に基づいて受講者の状態を判定する判定手段と、抽出手段が抽出した受講者の顔画像に判定手段が判定した状態を示す指標を付して一覧表示するための一覧画像を生成する画像生成手段とを備えた受講状態判別装置が開示されている。   The state of the student is analyzed using an image obtained by photographing the student of the lecture. Patent Document 1 discloses an extraction means for extracting face images of a plurality of students from an image obtained by photographing the attendance scenery of a plurality of students who take a class and the like based on the extracted face images. Determination means for determining a person's state, and an image generation means for generating a list image for displaying a list by adding an index indicating the state determined by the determination means to the face image of the student extracted by the extraction means An attendance state discriminating apparatus is disclosed.

特開2006−330464号公報JP 2006-330464 A

講義において受講者の情報を講師に報知する場合、講義の場面に応じて講師が必要とする情報が変化する場合がある。受講者の画像に基づいて受講者の状態を分析するだけでは、講師が必要とする情報を提供できない場合がある。   When a lecturer is informed of student information in a lecture, information required by the lecturer may change depending on the scene of the lecture. There is a case where the information required by the lecturer cannot be provided only by analyzing the state of the student based on the image of the student.

本発明は、講義の場面に応じて講師が必要とする受講生の情報を提供可能とすることを目的とする。   An object of the present invention is to make it possible to provide student information required by a lecturer according to the scene of a lecture.

本発明の請求項1に係る情報処理システムは、
講義における受講者の画像を取得する画像取得手段と、
前記画像取得手段により取得された画像に基づいて受講者を特定する特定手段と、
前記特定手段により特定された受講者の前記講義に関する情報を取得する情報取得手段と、
前記講義が行われる部屋における受講者の位置の情報を表示する第1の画面、および、前記特定手段により特定された受講者に関して前記情報取得手段により取得された講義の情報を含む当該受講者の情報を表示する第2の画面を表示する表示手段と、
前記表示手段に前記第1の画面と前記第2の画面との表示の切り替えを実行させる操作が行われる操作手段と、
を備えることを特徴とする、情報処理システムである。
本発明の請求項2に係る情報処理システムは、
前記表示手段は、前記受講者の位置の情報と前記受講者の情報とをともに表示する第3の画面をさらに表示可能であり、
前記操作手段は、前記第1の画面および前記第2の画面と前記第3の画面との表示の切り替えを実行させる操作がさらに行われることを特徴とする、請求項1に記載の情報処理システムである。
本発明の請求項3に係る情報処理システムは、
前記講義における講師に関して当該講義が行われる部屋における位置を含む情報を取得する講師情報取得手段をさらに備え、
前記表示手段は、前記講師情報取得手段により取得された前記講師の位置の情報に応じて、前記第1の画面と前記第2の画面とを切り替えて表示することを特徴とする、請求項1または請求項2に記載の情報処理システムである。
本発明の請求項4に係る情報処理システムは、
前記表示手段は、前記講師情報取得手段により取得された前記講師の位置の情報に基づき、講師が演壇の位置にいる場合に、前記第1の画面を表示し、講師が受講者から一定の範囲にいる場合に、当該範囲内の受講者の情報が表示された前記第2の画面を表示することを特徴とする、請求項3に記載の情報処理システムである。
本発明の請求項5に係る情報処理システムは、
前記講義における講師に関して当該講義が行われる部屋における位置を含む情報を取得する講師情報取得手段をさらに備え、
前記表示手段は、前記講師情報取得手段により取得された前記講師の位置の情報に基づき、講師が演壇の位置にいる場合に、前記第1の画面または前記第3の画面を表示することを特徴とする、請求項2に記載の情報処理システムである。
本発明の請求項6に係る情報処理システムは、
前記講師情報取得手段は、講師の向きの情報をさらに取得し、
前記表示手段は、前記講師情報取得手段により取得された前記講師の位置の情報および向きの情報に応じて、表示対象の受講者を切り替えて前記第2の画面を表示することを特徴とする、請求項3に記載の情報処理システムである。
本発明の請求項7に係る情報処理システムは、
前記表示手段は、前記講師情報取得手段により取得された前記講師の位置の情報および向きの情報に応じて、講師が向いている方向に位置する受講者に関して、位置の情報および講義に関する情報を含む当該受講者の情報が表示された前記第2の画面を表示することを特徴とする、請求項6に記載の情報処理システムである。
本発明の請求項8に係る情報処理システムは、
前記画像取得手段は、前記講義における講師の画像をさらに取得し、
前記講師情報取得手段は、前記画像取得手段により取得された画像を解析して、前記講師の情報を取得することを特徴とする、請求項3または請求項6に記載の情報処理システムである。
本発明の請求項9に係る情報処理システムは、
前記特定手段は、少なくとも講義中の予め定められた時間において、受講者を特定する処理を繰り返し実行することを特徴とする、請求項1または請求項2に記載の情報処理システムである。
本発明の請求項10に係る情報処理システムは、
前記特定手段は、一度特定した受講者に対しても、受講者を特定する処理を繰り返し実行することを特徴とする、請求項9に記載の情報処理システムである。
本発明の請求項11に係る情報処理装置は、
講義における受講者を特定する情報および当該受講者の当該講義に関する情報、並びに、当該講義が行われる部屋における講師の位置の情報を取得する情報取得手段と、
前記講義が行われる部屋における受講者の位置の情報を表示する第1の画面、および、前記情報取得手段により取得された情報に基づいて受講者を特定する情報および当該受講者の当該講義に関する情報を表示する第2の画面を表示する表示手段と、を備え、
前記表示手段は、前記情報取得手段により取得された前記講師の位置の情報に応じて、前記第1の画面と前記第2の画面とを切り替えて表示することを特徴とする、情報処理装置である。
本発明の請求項12に係る情報処理装置は、
前記表示手段は、前記受講者の位置の情報と前記受講者の情報とをともに表示する第3の画面をさらに表示可能であり、前記第1の画面、前記第2の画面および当該第3の画面を切り替えて表示することを特徴とする、請求項11に記載の情報処理装置である。
本発明の請求項13に係る情報処理装置は、
前記情報取得手段が取得する情報には、前記講師の向きの情報をさらに含み、
前記表示手段は、前記情報取得手段により取得された前記講師の位置の情報および向きの情報に応じて、表示対象の受講者を切り替えて前記第2の画面を表示することを特徴とする、請求項11または請求項12に記載の情報処理装置である。
本発明の請求項14に係る情報処理装置は、
前記表示手段は、前記情報取得手段により取得された前記講師の位置の情報および向きの情報に応じて、講師が向いている方向に位置する受講者に関して、位置の情報および講義に関する情報を含む当該受講者の情報が表示された前記第2の画面を表示することを特徴とする、請求項13に記載の情報処理装置である。
本発明の請求項15に係るプログラムは、
コンピュータを、
講義における受講者を特定する情報および当該受講者の当該講義に関する情報、並びに、当該講義が行われる部屋における講師の位置の情報を取得する情報取得手段と、
前記講義が行われる部屋における受講者の位置の情報を表示する第1の画面、および、前記情報取得手段により取得された情報に基づいて受講者を特定する情報および当該受講者の当該講義に関する情報を表示する第2の画面を、当該情報取得手段により取得された前記講師の位置の情報に応じて切り替えて、表示装置に表示させる表示制御手段として、
機能させることを特徴とする、プログラムである。
本発明の請求項16に係る情報処理装置は、
前記表示制御手段の機能として、前記受講者の位置の情報と前記受講者の情報とをともに表示する第3の画面をさらに表示可能とし、前記第1の画面、前記第2の画面および当該第3の画面を表示装置に切り替えて表示する機能を前記コンピュータに実現させることを特徴とする、請求項15に記載のプログラムである。
本発明の請求項17に係るプログラムは、
前記情報取得手段において取得する情報には、前記講師の向きの情報をさらに含み、
前記表示制御手段の機能として、前記情報取得手段により取得された前記講師の位置の情報および向きの情報に応じて、前記表示装置に前記第2の画面における表示対象の受講者を切り替える機能を、前記コンピュータに実現させることを特徴とする、請求項15または請求項16に記載のプログラムである。
本発明の請求項18に係る情報処理装置は、
前記表示制御手段の機能として、前記情報取得手段により取得された前記講師の位置の情報および向きの情報に応じて、講師が向いている方向に位置する受講者に関して、位置の情報および講義に関する情報を含む当該受講者の情報が表示された前記第2の画面を表示する機能を前記コンピュータに実現させることを特徴とする、請求項17に記載のプログラムである。
An information processing system according to claim 1 of the present invention includes:
Image acquisition means for acquiring images of students in a lecture;
Identifying means for identifying a student based on the image obtained by the image obtaining means;
Information acquisition means for acquiring information on the lecture of the student specified by the specification means;
A first screen that displays information on the position of the student in the room where the lecture is held, and the information on the student including the information on the lecture acquired by the information acquisition unit regarding the student specified by the specifying unit; Display means for displaying a second screen for displaying information;
An operation means for performing an operation for causing the display means to switch display between the first screen and the second screen;
An information processing system comprising:
An information processing system according to claim 2 of the present invention includes:
The display means can further display a third screen that displays both the location information of the student and the information of the student,
2. The information processing system according to claim 1, wherein the operation unit further performs an operation of switching display between the first screen and the second screen and the third screen. 3. It is.
An information processing system according to claim 3 of the present invention includes:
A lecturer information acquisition means for acquiring information including a position in a room where the lecture is held with respect to the lecturer in the lecture,
The said display means switches and displays the said 1st screen and the said 2nd screen according to the information of the position of the said lecturer acquired by the said lecturer information acquisition means, The display means characterized by the above-mentioned. Alternatively, the information processing system according to claim 2.
An information processing system according to claim 4 of the present invention includes:
The display means displays the first screen when the instructor is at the podium position based on the instructor position information acquired by the instructor information acquiring means, and the instructor is within a certain range from the students. 4. The information processing system according to claim 3, wherein the second screen on which information of students within the range is displayed is displayed when the user is in the area.
An information processing system according to claim 5 of the present invention includes:
A lecturer information acquisition means for acquiring information including a position in a room where the lecture is held with respect to the lecturer in the lecture,
The display means displays the first screen or the third screen when the instructor is at the podium position based on the instructor position information acquired by the instructor information acquisition means. The information processing system according to claim 2.
An information processing system according to claim 6 of the present invention includes:
The lecturer information acquisition means further acquires information on the direction of the lecturer,
The display means displays the second screen by switching the display target students according to the position information and orientation information of the lecturer acquired by the lecturer information acquisition means. An information processing system according to claim 3.
An information processing system according to claim 7 of the present invention includes:
The display means includes position information and information about a lecture regarding a student who is located in a direction in which the lecturer is facing, according to the position information and orientation information of the lecturer acquired by the lecturer information acquisition means. The information processing system according to claim 6, wherein the second screen on which the information of the student is displayed is displayed.
An information processing system according to claim 8 of the present invention includes:
The image acquisition means further acquires an image of a lecturer in the lecture,
The information processing system according to claim 3, wherein the lecturer information acquisition unit analyzes the image acquired by the image acquisition unit and acquires the information of the lecturer.
An information processing system according to claim 9 of the present invention includes:
The information processing system according to claim 1, wherein the specifying unit repeatedly executes a process of specifying a student at least at a predetermined time during a lecture.
An information processing system according to claim 10 of the present invention includes:
The information processing system according to claim 9, wherein the specifying unit repeatedly executes a process of specifying a student even for a student who has been specified once.
An information processing apparatus according to claim 11 of the present invention includes:
An information acquisition means for acquiring information identifying a student in the lecture, information on the lecture of the student, and information on the position of the lecturer in the room where the lecture is held;
A first screen that displays information on the position of the student in the room where the lecture is held, information that identifies the student based on the information acquired by the information acquisition means, and information related to the lecture of the student Display means for displaying a second screen for displaying
In the information processing apparatus, the display unit may switch and display the first screen and the second screen according to the position information of the lecturer acquired by the information acquisition unit. is there.
An information processing apparatus according to claim 12 of the present invention includes:
The display means can further display a third screen that displays both the position information of the student and the information of the student, and includes the first screen, the second screen, and the third screen. The information processing apparatus according to claim 11, wherein the display is switched and displayed.
An information processing apparatus according to claim 13 of the present invention provides:
The information acquired by the information acquisition means further includes information on the orientation of the lecturer,
The display means displays the second screen by switching the students to be displayed according to the position information and orientation information of the lecturer acquired by the information acquisition means. An information processing apparatus according to item 11 or claim 12.
An information processing apparatus according to claim 14 of the present invention includes:
The display means includes position information and lecture information regarding a student who is located in a direction in which the lecturer is facing, according to the position information and orientation information of the lecturer acquired by the information acquisition means. The information processing apparatus according to claim 13, wherein the second screen on which student information is displayed is displayed.
A program according to claim 15 of the present invention is:
Computer
An information acquisition means for acquiring information identifying a student in the lecture, information on the lecture of the student, and information on the position of the lecturer in the room where the lecture is held;
A first screen that displays information on the position of the student in the room where the lecture is held, information that identifies the student based on the information acquired by the information acquisition means, and information related to the lecture of the student As a display control means for switching the second screen for displaying the information according to the position information of the lecturer acquired by the information acquisition means and displaying the information on the display device,
It is a program characterized by functioning.
An information processing apparatus according to claim 16 of the present invention includes:
As a function of the display control means, it is possible to further display a third screen that displays both the position information of the student and the information of the student, the first screen, the second screen, and the first screen. The program according to claim 15, wherein the computer realizes a function of switching and displaying the third screen on a display device.
A program according to claim 17 of the present invention includes:
The information acquired by the information acquisition means further includes information on the orientation of the lecturer,
As a function of the display control means, according to the position information and orientation information of the lecturer acquired by the information acquisition means, a function of switching the display target students on the second screen to the display device, The program according to claim 15 or 16, which is realized by the computer.
An information processing apparatus according to claim 18 of the present invention provides:
As a function of the display control means, the position information and the lecture information regarding the student who is located in the direction the lecturer is facing, according to the position information and orientation information of the lecturer acquired by the information acquisition means. The program according to claim 17, wherein the computer is caused to realize a function of displaying the second screen on which the information of the student including the information is displayed.

請求項1の発明によれば、受講者の画像に基づいて受講者の状態を分析する構成と比較して、講師が必要とする各受講者の詳細な情報を得ることができる。
請求項2の発明によれば、各受講者の詳細な情報を、受講者の位置の情報と共に得ることができる。
請求項3の発明によれば、講師の状態を参酌することなく受講者の情報を出力する構成と比較して、講師の位置に応じて、講師が必要とする受講者の詳細な情報を得ることができる。
請求項4の発明によれば、講師に対して一定の範囲内にいる受講者の詳細な情報を得ることができる。
請求項5の発明によれば、講師が教壇にいる際に、各受講者の詳細な情報を、受講者の位置の情報と共に得ることができる。
請求項6の発明によれば、講師の状態を参酌することなく受講者の情報を出力する構成と比較して、講師の位置および向きに応じて、講師が必要とする受講者の詳細な情報を得ることができる。
請求項7の発明によれば、講師の位置および向きから想定される、講師が必要とする各受講者の詳細な情報を、受講者の位置の情報と共に得ることができる。
請求項8の発明によれば、受講者の画像に基づいて受講者の状態を分析する構成と比較して、講師の画像から講師の状態を特定し、講師が必要とする情報を得ることができる。
請求項9の発明によれば、受講者を特定する処理を繰り返し実行することにより、講義への途中参加を含む受講者の詳細な情報を得ることができる。
請求項10の発明によれば、受講者を特定する処理を繰り返し実行することにより、講義の途中退席を含む受講者の詳細な情報を得ることができる。
請求項11の発明によれば、講師の状態を参酌することなく受講者の情報を出力する構成と比較して、講師の位置に応じて、講師が必要とする受講者の詳細な情報を得ることができる。
請求項12の発明によれば、各受講者の詳細な情報を、受講者の位置の情報と共に得ることができる。
請求項13の発明によれば、講師の状態を参酌することなく受講者の情報を出力する構成と比較して、講師の位置および向きに応じて、講師が必要とする受講者の詳細な情報を得ることができる。
請求項14の発明によれば、講師の位置および向きから想定される、講師が必要とする各受講者の詳細な情報を、受講者の位置の情報と共に得ることができる。
請求項15の発明によれば、講師の状態を参酌することなく受講者の情報を出力する構成と比較して、本発明のプログラムを実行するコンピュータにおいて、講師の位置に応じて、講師が必要とする受講者の詳細な情報を得ることができる。
請求項16の発明によれば、本発明のプログラムを実行するコンピュータにおいて、各受講者の詳細な情報を、受講者の位置の情報と共に得ることができる。
請求項17の発明によれば、講師の状態を参酌することなく受講者の情報を出力する構成と比較して、本発明のプログラムを実行するコンピュータにおいて、講師の位置および向きに応じて、講師が必要とする受講者の詳細な情報を得ることができる。
請求項18の発明によれば、本発明のプログラムを実行するコンピュータにおいて、講師の位置および向きから想定される、講師が必要とする各受講者の詳細な情報を、受講者の位置の情報と共に得ることができる。
According to the first aspect of the present invention, it is possible to obtain detailed information of each student required by the instructor as compared with the configuration in which the state of the student is analyzed based on the image of the student.
According to the invention of claim 2, detailed information of each student can be obtained together with information on the position of the student.
According to the third aspect of the present invention, detailed information on the student required by the instructor is obtained according to the position of the instructor as compared with the configuration in which the information of the instructor is output without taking into consideration the state of the instructor. be able to.
According to invention of Claim 4, the detailed information of the student who exists in a fixed range with respect to a lecturer can be obtained.
According to the invention of claim 5, when the lecturer is on the platform, detailed information on each student can be obtained together with information on the position of the student.
According to the invention of claim 6, the detailed information of the student that the instructor needs according to the position and orientation of the instructor, as compared with the configuration in which the information of the instructor is output without taking into consideration the state of the instructor. Can be obtained.
According to the seventh aspect of the present invention, detailed information of each student required by the instructor, which is assumed from the position and orientation of the instructor, can be obtained together with information on the position of the student.
According to invention of Claim 8, compared with the structure which analyzes a student's state based on a student's image, a lecturer's state is specified from a lecturer's image and the information which a lecturer needs can be obtained. it can.
According to the ninth aspect of the present invention, it is possible to obtain detailed information of the student including participation in the course during the course by repeatedly executing the process of identifying the student.
According to the tenth aspect of the present invention, it is possible to obtain detailed information of the student including leaving the course halfway by repeatedly executing the process of identifying the student.
According to the invention of claim 11, in comparison with the configuration in which the information of the student is output without taking into consideration the state of the instructor, the detailed information of the student required by the instructor is obtained according to the position of the instructor. be able to.
According to the invention of claim 12, detailed information of each student can be obtained together with information on the position of the student.
According to the invention of claim 13, the detailed information of the student that the instructor needs according to the position and orientation of the instructor as compared with the configuration in which the information of the instructor is output without taking into consideration the state of the instructor. Can be obtained.
According to the invention of claim 14, detailed information of each student required by the instructor, which is assumed from the position and orientation of the instructor, can be obtained together with information on the position of the student.
According to the invention of claim 15, the computer that executes the program of the present invention requires a lecturer according to the position of the lecturer, as compared with the configuration in which the information of the student is output without considering the state of the lecturer. You can get detailed information about the students.
According to the invention of claim 16, in the computer for executing the program of the present invention, detailed information of each student can be obtained together with information on the position of the student.
According to the invention of claim 17, in the computer that executes the program according to the present invention, the instructor according to the position and orientation of the instructor, in comparison with the configuration in which the information of the student is output without considering the state of the instructor. You can get detailed information of students who need.
According to the invention of claim 18, in the computer executing the program of the present invention, detailed information of each student required by the instructor, which is assumed from the position and orientation of the instructor, together with information on the position of the student Can be obtained.

本実施形態が適用される非言語情報評価システムの構成例を示す図である。It is a figure which shows the structural example of the non-linguistic information evaluation system to which this embodiment is applied. 情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of information processing apparatus. 情報処理装置の機能構成を示す図である。It is a figure which shows the function structure of information processing apparatus. 端末装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of a terminal device. 端末装置の機能構成を示す図である。It is a figure which shows the function structure of a terminal device. フレーム間特徴量を用いて人体に関わる領域を特定する手法を説明する図であり、図6(A)は、動画の1フレームにおいて、人物が横を向いて椅子に座っている様子を示す図、図6(B)は、動画の別の1フレームにおいて、同じ人物が前方へ乗り出した様子を示す図である。FIG. 6A is a diagram for explaining a technique for specifying a region related to a human body using inter-frame feature values, and FIG. 6A is a diagram showing a person sitting sideways on a chair in one frame of a moving image. FIG. 6B is a diagram showing a state where the same person has moved forward in another frame of the moving image. 情報処理装置から受講者の情報および評価結果を取得した端末装置の表示出力の例であり、教室の全体情報を表示する第1の画面の例を示す図である。It is an example of the display output of the terminal device which acquired the information and evaluation result of the student from the information processing apparatus, and is a diagram illustrating an example of a first screen that displays the entire classroom information. 情報処理装置から受講者の情報および評価結果を取得した端末装置の表示出力の例であり、受講者の情報を提示する第2の画面の例を示す図である。It is an example of the display output of the terminal device which acquired the information and evaluation result of the student from the information processing apparatus, and is a diagram illustrating an example of a second screen presenting the student information. ビデオカメラの配置の例を示す図である。It is a figure which shows the example of arrangement | positioning of a video camera. 全体情報表示画面の例を示す図である。It is a figure which shows the example of a whole information display screen.

<本実施形態が適用される非言語情報評価システムの構成>
図1は、本実施形態が適用される非言語情報評価システムの構成例を示す図である。図1に示すように、本実施形態による非言語情報評価システム10は、動画取得装置としてのビデオカメラ100と、動画解析装置としての情報処理装置200と、情報処理装置200による解析結果を出力する出力装置としての端末装置300と、学習管理データを格納した学習管理サーバ400と、個人情報データベース(DB)500とを備える。ビデオカメラ100、情報処理装置200、端末装置300、学習管理サーバ400および個人情報DB500は、それぞれネットワーク20を介して接続されている。
<Configuration of non-linguistic information evaluation system to which this embodiment is applied>
FIG. 1 is a diagram illustrating a configuration example of a non-language information evaluation system to which the present embodiment is applied. As shown in FIG. 1, the non-linguistic information evaluation system 10 according to the present embodiment outputs a video camera 100 as a moving image acquisition device, an information processing device 200 as a moving image analysis device, and an analysis result by the information processing device 200. A terminal device 300 as an output device, a learning management server 400 storing learning management data, and a personal information database (DB) 500 are provided. The video camera 100, the information processing device 200, the terminal device 300, the learning management server 400, and the personal information DB 500 are connected via the network 20, respectively.

ネットワーク20は、ビデオカメラ100、情報処理装置200、端末装置300、学習管理サーバ400および個人情報DB500の間で情報通信を行えるものであれば特に限定されず、例えばインターネットやLAN(Local Area Network)等としてよい。情報通信に用いられる通信回線は、有線であっても無線であっても良い。ビデオカメラ100と情報処理装置200とを接続するネットワーク20と、情報処理装置200と端末装置300と学習管理サーバ400および個人情報DB500とを接続するネットワーク20とは、共通のネットワークであってもよいし、異なるネットワークであってもよい。また、特に図示しないが、ネットワーク20にはネットワークや通信回線を接続するためのゲートウェイやハブ等の中継装置が適宜設けられる。   The network 20 is not particularly limited as long as it can perform information communication among the video camera 100, the information processing device 200, the terminal device 300, the learning management server 400, and the personal information DB 500. For example, the Internet or a LAN (Local Area Network) is used. Etc. A communication line used for information communication may be wired or wireless. The network 20 that connects the video camera 100 and the information processing apparatus 200, and the network 20 that connects the information processing apparatus 200, the terminal device 300, the learning management server 400, and the personal information DB 500 may be a common network. However, it may be a different network. Although not particularly illustrated, the network 20 is appropriately provided with a relay device such as a gateway or a hub for connecting a network or a communication line.

本実施形態の非言語情報評価システム10は、評価対象である人物または評価対象を構成する人物の動画を解析して、その人物の動作や顔の表情といった非言語情報を抽出し、抽出された非言語情報に基づき評価対象を評価する。本実施形態の非言語情報評価システム10は、例えば、授業、講演、催事、娯楽施設、その他の多くの人が集まる場所や場面において参加者の様子を評価したり、面接のような対象となる個人が固定される場面において個人の様子を評価したりする。評価対象、評価項目、評価内容などは、非言語情報評価システム10の適用対象や適用場面等に応じて設定される。例えば、評価対象は、個々の人物とされる場合もあるし、複数の人物の集合(グループ、チーム等)とされる場合もある。評価項目は、例えば評価対象である人物や人物の集合が何かに集中しているか、活発に活動しているか等が設定され、評価内容としては、例えばそのような評価項目に適合する程度(度合)等が判断される。以下、本実施形態においては、本システムを教室において講義(授業)を受ける受講者(参加者)を評価するのに用いる場合を例として説明する。この評価については、後で具体的な適用例を挙げて説明する。   The non-linguistic information evaluation system 10 of this embodiment analyzes a moving image of a person who is an evaluation object or a person constituting the evaluation object, and extracts and extracts non-language information such as the movement of the person and facial expressions. Evaluate the evaluation target based on non-linguistic information. The non-linguistic information evaluation system 10 according to the present embodiment is an object such as an interview or an evaluation of a participant in a place or scene where many people gather, such as classes, lectures, events, entertainment facilities, and the like. Evaluate the state of individuals in situations where individuals are fixed. The evaluation target, the evaluation item, the evaluation content, and the like are set according to the application target and application scene of the non-linguistic information evaluation system 10. For example, the evaluation target may be an individual person or a set (group, team, etc.) of a plurality of persons. The evaluation item is set, for example, whether the person or the set of persons to be evaluated is concentrated on something, whether it is actively active, etc. The evaluation content is, for example, a degree suitable for such an evaluation item ( Degree) etc. are judged. Hereinafter, in this embodiment, the case where this system is used for evaluating students (participants) who take lectures (classes) in a classroom will be described as an example. This evaluation will be described later with a specific application example.

図1に示すシステムにおいて、ビデオカメラ100は、画像取得手段の一例であり、本実施形態による評価の適用対象である受講者を撮影範囲に捉える位置および向きに設置され、受講者を撮影する。本実施形態では、ビデオカメラ100により撮影された受講者の動画を解析し、動作や顔の表情といった非言語情報が抽出される。したがって、評価対象の構成(個人か集合か等)、設置場所や撮影範囲の広さ等に応じて、受講者の動作や表情が識別できるように、ビデオカメラ100の種類や設置台数が設定される。例えば広い場所で個人を撮影するには望遠カメラが用いられ、広い範囲に存在する複数の人物を撮影するには広角カメラが用いられる。また、受講者の身体の様々な部位を撮影するために、複数台のカメラを様々な向きで設置してもよい。また、高解像度のカメラを用いて広範囲を撮影することにより、複数人の画像を取得するとともに、得られた画像を拡大して個人の画像を解析対象とするようにしてもよい。また、本実施形態において、ビデオカメラ100は、撮影した動画をデジタル・データとして、ネットワーク20を介して情報処理装置200へ送信する機能を備える。   In the system shown in FIG. 1, the video camera 100 is an example of an image acquisition unit, and is installed at a position and orientation where a student who is an application target of evaluation according to the present embodiment is captured in a photographing range, and photographs the student. In this embodiment, a student's moving image image | photographed with the video camera 100 is analyzed, and non-language information, such as operation | movement and a facial expression, is extracted. Therefore, the type and the number of installed video cameras 100 are set so that the movements and facial expressions of the students can be identified according to the configuration of the evaluation target (whether it is an individual or a group), the installation location, the range of the shooting range, etc. The For example, a telephoto camera is used for photographing an individual in a wide place, and a wide-angle camera is used for photographing a plurality of persons existing in a wide range. Moreover, in order to image various parts of the student's body, a plurality of cameras may be installed in various directions. Further, by capturing a wide range using a high-resolution camera, a plurality of images may be acquired, and the obtained image may be enlarged so that an individual image is an analysis target. In the present embodiment, the video camera 100 has a function of transmitting a captured moving image as digital data to the information processing apparatus 200 via the network 20.

学習管理サーバ400は、講義の学習管理データを管理するコンピュータ(サーバ)である。学習管理データには、例えば、講義の進捗を管理するための学習計画情報、講義における受講者の情報、受講者ごとの学習進度および成績、グループワークが行われる場合等における各受講者が所属するグループの情報などが含まれる。学習管理サーバ400は、単体のコンピュータにより構成してもよいし、ネットワーク20に接続された複数のコンピュータにより構成してもよい。後者の場合、学習管理サーバ400としての機能は、複数のコンピュータによる分散処理にて実現される。   The learning management server 400 is a computer (server) that manages learning management data for lectures. The learning management data includes, for example, learning plan information for managing the progress of the lecture, information on the students in the lecture, learning progress and results for each student, and each student in the case of group work. Contains group information. The learning management server 400 may be composed of a single computer or a plurality of computers connected to the network 20. In the latter case, the function as the learning management server 400 is realized by distributed processing by a plurality of computers.

個人情報DB500は、受講者の個人情報が格納されたデータベース・サーバである。個人情報DB500に格納される個人情報には、氏名や学籍番号などの識別情報、顔認証用のイメージデータ、受講している講義の情報などが含まれる。個人情報DB500を構成するサーバは、単体のコンピュータにより構成してもよいし、ネットワーク20に接続された複数のコンピュータにより構成してもよい。後者の場合、受講者の情報は、複数のコンピュータに分散して格納される。   The personal information DB 500 is a database server that stores personal information of students. The personal information stored in the personal information DB 500 includes identification information such as name and student ID number, image data for face authentication, information on lectures attended, and the like. The server constituting the personal information DB 500 may be constituted by a single computer or may be constituted by a plurality of computers connected to the network 20. In the latter case, student information is distributed and stored in a plurality of computers.

情報処理装置200は、行動評価手段の一例であり、ビデオカメラ100により撮影された動画を解析して受講者に関する非言語情報を抽出し、評価するコンピュータ(サーバ)である。情報処理装置200は、単体のコンピュータにより構成してもよいし、ネットワーク20に接続された複数のコンピュータにより構成してもよい。後者の場合、後述する本実施形態の情報処理装置200としての機能は、複数のコンピュータによる分散処理にて実現される。   The information processing apparatus 200 is an example of a behavior evaluation unit, and is a computer (server) that analyzes a moving image taken by the video camera 100 to extract and evaluate non-linguistic information about the student. The information processing apparatus 200 may be configured by a single computer or may be configured by a plurality of computers connected to the network 20. In the latter case, the function as the information processing apparatus 200 of the present embodiment to be described later is realized by distributed processing by a plurality of computers.

図2は、情報処理装置200のハードウェア構成例を示す図である。図2に示すように、情報処理装置200は、制御手段および演算手段であるCPU(Central Processing Unit)201と、RAM202およびROM203と、外部記憶装置204と、ネットワーク・インターフェイス205とを備える。CPU201は、ROM203に格納されているプログラムを実行することにより、各種の制御および演算処理を行う。RAM202は、CPU201による制御や演算処理において作業メモリとして用いられる。ROM203は、CPU201が実行するプログラムや制御において用いられる各種のデータを格納している。外部記憶装置204は、例えば磁気ディスク装置や、データの読み書きが可能で不揮発性の半導体メモリで実現され、RAM202に展開されてCPU201により実行されるプログラムや、CPU201による演算処理の結果を格納する。ネットワーク・インターフェイス205は、ネットワーク20に接続して、ビデオカメラ100や端末装置300との間でデータの送受信を行う。なお、図2に示す構成例は、情報処理装置200をコンピュータで実現するハードウェア構成の一例に過ぎない。情報処理装置200の具体的構成は、以下に説明する機能を実現し得るものであれば、図2に示す構成例に限定されない。   FIG. 2 is a diagram illustrating a hardware configuration example of the information processing apparatus 200. As illustrated in FIG. 2, the information processing apparatus 200 includes a central processing unit (CPU) 201 that is a control unit and a calculation unit, a RAM 202 and a ROM 203, an external storage device 204, and a network interface 205. The CPU 201 performs various controls and arithmetic processes by executing programs stored in the ROM 203. The RAM 202 is used as a working memory in the control and arithmetic processing by the CPU 201. The ROM 203 stores various data used in programs executed by the CPU 201 and control. The external storage device 204 is realized by, for example, a magnetic disk device or a non-volatile semiconductor memory that can read and write data, and stores a program that is expanded in the RAM 202 and executed by the CPU 201 and a result of arithmetic processing by the CPU 201. The network interface 205 is connected to the network 20 and transmits / receives data to / from the video camera 100 and the terminal device 300. The configuration example illustrated in FIG. 2 is merely an example of a hardware configuration that implements the information processing apparatus 200 with a computer. The specific configuration of the information processing apparatus 200 is not limited to the configuration example illustrated in FIG. 2 as long as the functions described below can be realized.

図3は、情報処理装置200の機能構成を示す図である。図3に示すように、情報処理装置200は、動画データ取得部210と、顔検出部211と、受講者特定部212と、学習情報取得部213と、領域識別部220と、動作検出部230と、非言語情報抽出部240と、反応評価部250と、出力部260とを備える。   FIG. 3 is a diagram illustrating a functional configuration of the information processing apparatus 200. As illustrated in FIG. 3, the information processing apparatus 200 includes a moving image data acquisition unit 210, a face detection unit 211, a student identification unit 212, a learning information acquisition unit 213, a region identification unit 220, and a motion detection unit 230. A non-linguistic information extraction unit 240, a reaction evaluation unit 250, and an output unit 260.

動画データ取得部210は、例えば図2に示すコンピュータにおいて、CPU201がプログラムを実行し、ネットワーク・インターフェイス205を制御することにより実現される。動画データ取得部210は、ネットワーク20を介してビデオカメラ100から動画データを受信する。受信した動画データは、例えば図2に示すRAM202や外部記憶装置204に格納される。   For example, in the computer shown in FIG. 2, the moving image data acquisition unit 210 is realized by the CPU 201 executing a program and controlling the network interface 205. The moving image data acquisition unit 210 receives moving image data from the video camera 100 via the network 20. The received moving image data is stored, for example, in the RAM 202 or the external storage device 204 shown in FIG.

顔検出部211は、例えば図2に示すコンピュータにおいて、CPU201がプログラムを実行することにより実現される。顔検出部211は、動画データ取得部210により取得された動画を解析し、顔が映っている部分を検出する。顔を検出する手法としては、例えばデジタルカメラ等で実現されている既存の識別手法を用いてよい。   For example, in the computer shown in FIG. 2, the face detection unit 211 is realized by the CPU 201 executing a program. The face detection unit 211 analyzes the moving image acquired by the moving image data acquisition unit 210 and detects a portion where a face is reflected. As a method for detecting a face, for example, an existing identification method realized by a digital camera or the like may be used.

受講者特定部212は、例えば図2に示すコンピュータにおいて、CPU201がプログラムを実行することにより実現される。受講者特定部212は、ネットワーク・インターフェイス205を介して個人情報DB500に接続する。そして、顔検出部211により検出された顔画像と、個人情報DB500に格納されている顔認証用のイメージデータとを用いて認証処理を行い、動画に映っている受講者を特定する。   The student specifying unit 212 is realized by the CPU 201 executing a program in the computer shown in FIG. 2, for example. The student identifying unit 212 connects to the personal information DB 500 via the network interface 205. Then, an authentication process is performed using the face image detected by the face detection unit 211 and the image data for face authentication stored in the personal information DB 500, and the student shown in the moving image is specified.

学習情報取得部213は、例えば図2に示すコンピュータにおいて、CPU201がプログラムを実行することにより実現される。学習情報取得部213は、ネットワーク・インターフェイス205を介して学習管理サーバ400に接続する。そして、受講者特定部212により特定された受講者の情報と、学習管理サーバ400に格納されている学習管理データとを用い、特定された受講者ごとの講義に関する情報(講義情報)を取得する。   The learning information acquisition unit 213 is realized by the CPU 201 executing a program in the computer illustrated in FIG. 2, for example. The learning information acquisition unit 213 is connected to the learning management server 400 via the network interface 205. Then, using the student information specified by the student specifying unit 212 and the learning management data stored in the learning management server 400, information (lecture information) regarding the specified lecture for each student is acquired. .

領域識別部220は、例えば図2に示すコンピュータにおいて、CPU201がプログラムを実行することにより実現される。領域識別部220は、動画データ取得部210により取得された動画を解析し、後段の非言語情報抽出部240により非言語情報として抽出される受講者の部位が映っている領域を識別する。具体的には、人体(全体)が映っている領域、人体の頭部、体部、腕部、手部、指などが映っている領域、頭部の顔、目、口、鼻、耳などが映っている領域、上半身、下半身が映っている領域、その他身体の各特徴点が映っている領域等を識別する(以下、人体の全体や一部分を特に区別せず、部位、身体の部位などと呼ぶ)。識別対象の部位としては、予め定められた部位を全て識別してもよいし、後段の非言語情報抽出部240による抽出や反応評価部250による評価の内容に基づき、これらの処理に用いられる部位のみを識別してもよい。   For example, in the computer shown in FIG. 2, the area identification unit 220 is realized by the CPU 201 executing a program. The region identifying unit 220 analyzes the moving image acquired by the moving image data acquiring unit 210 and identifies a region in which the part of the student extracted as non-linguistic information by the non-linguistic information extracting unit 240 in the subsequent stage is shown. Specifically, areas where the human body (the whole) is shown, areas where the human head, body, arms, hands, fingers, etc. are reflected, head face, eyes, mouth, nose, ears, etc. The area where the body is reflected, the area where the upper body and the lower body are reflected, and the area where each body feature point is reflected, etc. (Hereinafter, the whole body part or part of the human body is not particularly distinguished. Called). As the parts to be identified, all the predetermined parts may be identified, or parts used for these processes based on the extraction by the subsequent non-linguistic information extraction unit 240 and the evaluation by the reaction evaluation unit 250 Only may be identified.

動作検出部230は、例えば図2に示すコンピュータにおいて、CPU201がプログラムを実行することにより実現される。動作検出部230は、領域識別部220の識別結果に基づき、各領域に映っている身体の部位を特定し、特定した部位ごとの動作を検出する。具体的には、頭の動き、顔の向き、顔の構成部位(目、口など)の動き、腕や脚の動き、身体の向き、身体の移動(歩きまわる等)等の動作を検出する。検出対象の動作としては、予め定められた部位についての予め定められた動作を全て対象として検出してもよいし、後段の非言語情報抽出部240による抽出や反応評価部250による評価の内容に基づき、これらの処理に用いられる部位の動作のみを検出してもよい。   For example, in the computer shown in FIG. 2, the operation detection unit 230 is realized by the CPU 201 executing a program. The motion detection unit 230 identifies the body part shown in each region based on the identification result of the region identification unit 220, and detects the motion for each identified region. Specifically, motions such as head movements, face orientations, face component movements (eyes, mouth, etc.), arm and leg movements, body orientations, body movements (walking, etc.) are detected. . As the motion of the detection target, all of the predetermined motions regarding a predetermined portion may be detected as targets, or the content of the evaluation by the non-linguistic information extraction unit 240 in the subsequent stage or the evaluation by the reaction evaluation unit 250 may be used. Based on this, only the movement of the part used for these processes may be detected.

非言語情報抽出部240は、例えば図2に示すコンピュータにおいて、CPU201がプログラムを実行することにより実現される。非言語情報抽出部240は、動作検出部230により検出された部位の動きに基づき、受講者の行動のうち、反応評価部250の評価項目ごとの評価に用いられるもの(非言語情報)を抽出する。言い換えれば、非言語情報抽出部240は、受講者の発する非言語情報として定義された行動を抽出する行動抽出部である。具体的には、例えば、うなずく動作、顔を特定の方向に向けたり顔の向きを変えたりする動作、表情の変化、口を動かして発言する動作、欠伸(あくび)をする動作、居眠りしているときの動き、目くばせをする動作、挙手、筆記動作、キーボードを打つ動作、振り向く動作、貧乏ゆすりなどを抽出する。   The non-linguistic information extraction unit 240 is realized by the CPU 201 executing a program in, for example, the computer shown in FIG. The non-linguistic information extraction unit 240 extracts, based on the movement of the part detected by the motion detection unit 230, what is used for evaluation for each evaluation item of the reaction evaluation unit 250 (non-linguistic information) among the behaviors of the students. To do. In other words, the non-linguistic information extraction unit 240 is an action extraction unit that extracts an action defined as non-linguistic information issued by a student. Specifically, for example, nodding, moving the face in a specific direction or changing the direction of the face, changing facial expressions, moving the mouth, speaking, yawning, or falling asleep It extracts motions when you are in motion, moving your eyes, raising your hands, writing, typing your keyboard, turning, turning poor, etc.

出力部260は、例えば図2に示すコンピュータにおいて、CPU201がプログラムを実行し、ネットワーク・インターフェイス205を制御することにより実現される。出力部260は、ネットワーク20を介して、反応評価部250による評価結果の情報を端末装置300に送信する。   For example, in the computer shown in FIG. 2, the output unit 260 is realized by the CPU 201 executing a program and controlling the network interface 205. The output unit 260 transmits information on the evaluation result by the reaction evaluation unit 250 to the terminal device 300 via the network 20.

端末装置300は、出力手段の一例であり、情報処理装置200による評価結果を出力する情報端末(クライアント)である。端末装置300としては、例えばパーソナルコンピュータ、タブレット端末、スマートフォン等の出力手段として画像表示手段を備えた装置が用いられる。   The terminal device 300 is an example of an output unit, and is an information terminal (client) that outputs an evaluation result by the information processing device 200. As the terminal device 300, for example, a device including an image display unit as an output unit such as a personal computer, a tablet terminal, or a smartphone is used.

図4は、端末装置300のハードウェア構成例を示す図である。図4に示すように、端末装置300は、CPU301と、RAM302およびROM303と、表示装置304と、入力装置305と、ネットワーク・インターフェイス306とを備える。CPU301は、ROM303に格納されているプログラムを実行することにより、各種の制御および演算処理を行う。RAM302は、CPU301による制御や演算処理において作業メモリとして用いられる。ROM303は、CPU301が実行するプログラムや制御において用いられる各種のデータを格納している。表示装置304は、例えば液晶ディスプレイにより構成され、表示手段として、CPU301の制御により画像を表示する。入力装置305は、例えばキーボードやマウス、タッチセンサ等の入力デバイスで実現され、操作手段として、操作者により操作される。一例として、端末装置300がタブレット端末やスマートフォン等である場合は、液晶ディスプレイとタッチセンサとが組み合わされたタッチパネルが表示手段(表示装置304)および操作手段(入力装置305)として機能する。ネットワーク・インターフェイス306は、ネットワーク20に接続して、ビデオカメラ100や端末装置300との間でデータの送受信を行う。なお、図4に示す構成例は、端末装置300をコンピュータで実現するハードウェア構成の一例に過ぎない。端末装置300の具体的構成は、以下に説明する機能を実現し得るものであれば、図4に示す構成例に限定されない。   FIG. 4 is a diagram illustrating a hardware configuration example of the terminal device 300. As illustrated in FIG. 4, the terminal device 300 includes a CPU 301, a RAM 302 and a ROM 303, a display device 304, an input device 305, and a network interface 306. The CPU 301 performs various controls and arithmetic processes by executing programs stored in the ROM 303. The RAM 302 is used as a work memory in the control and arithmetic processing by the CPU 301. The ROM 303 stores various data used in programs executed by the CPU 301 and control. The display device 304 is configured by a liquid crystal display, for example, and displays an image as a display unit under the control of the CPU 301. The input device 305 is realized by an input device such as a keyboard, a mouse, or a touch sensor, and is operated by an operator as an operation unit. As an example, when the terminal device 300 is a tablet terminal, a smartphone, or the like, a touch panel in which a liquid crystal display and a touch sensor are combined functions as a display unit (display device 304) and an operation unit (input device 305). The network interface 306 is connected to the network 20 and transmits / receives data to / from the video camera 100 and the terminal device 300. The configuration example illustrated in FIG. 4 is merely an example of a hardware configuration that implements the terminal device 300 with a computer. The specific configuration of the terminal device 300 is not limited to the configuration example illustrated in FIG. 4 as long as the functions described below can be realized.

図5は、端末装置300の機能構成を示す図である。図5に示すように、本実施形態の端末装置300は、処理結果取得部310と、表示画像生成部320と、表示制御部330と、操作受け付け部340とを備える。   FIG. 5 is a diagram illustrating a functional configuration of the terminal device 300. As illustrated in FIG. 5, the terminal device 300 according to the present embodiment includes a processing result acquisition unit 310, a display image generation unit 320, a display control unit 330, and an operation reception unit 340.

処理結果取得部310は、例えば図4に示すコンピュータにおいて、CPU301がプログラムを実行し、ネットワーク・インターフェイス306を制御することにより実現される。処理結果取得部310は、情報取得手段の一例であり、ネットワーク20を介して情報処理装置200から受講者の情報(位置の情報と講義情報)および評価結果のデータを受信する。また、後述するように、処理結果取得部310は、ビデオカメラ100により撮影された画像から抽出される講師の位置および向きの情報を示すデータを受信する。受信したデータは、例えば図4のRAM302に格納される。   For example, in the computer shown in FIG. 4, the processing result acquisition unit 310 is realized by the CPU 301 executing a program and controlling the network interface 306. The processing result acquisition unit 310 is an example of an information acquisition unit, and receives student information (position information and lecture information) and evaluation result data from the information processing apparatus 200 via the network 20. As will be described later, the processing result acquisition unit 310 receives data indicating the position and orientation information of the lecturer extracted from the image captured by the video camera 100. The received data is stored, for example, in the RAM 302 in FIG.

表示画像生成部320は、例えば図4に示すコンピュータにおいて、CPU301がプログラムを実行することにより実現される。表示画像生成部320は、処理結果取得部310により取得された評価結果のデータに基づき、評価結果を示す出力画像を生成する。生成される出力画像の構成や表示態様は、評価項目や評価内容等に応じて設定し得る。出力画像の詳細については後述する。   For example, in the computer shown in FIG. 4, the display image generating unit 320 is realized by the CPU 301 executing a program. The display image generation unit 320 generates an output image indicating the evaluation result based on the evaluation result data acquired by the processing result acquisition unit 310. The configuration and display mode of the generated output image can be set according to the evaluation items, evaluation contents, and the like. Details of the output image will be described later.

表示制御部330は、例えば図4に示すコンピュータにおいて、CPU301がプログラムを実行することにより実現される。表示制御部330は、表示画像生成部320により生成された出力画像を、例えば図4に示すコンピュータにおける表示装置304に表示させる。また、表示制御部330は、表示装置304への表示に関する命令を受け付け、受け付けた命令に基づいて表示の切り替え等の制御を行う。   For example, in the computer shown in FIG. 4, the display control unit 330 is realized by the CPU 301 executing a program. The display control unit 330 displays the output image generated by the display image generation unit 320 on, for example, the display device 304 in the computer shown in FIG. In addition, the display control unit 330 receives a command related to display on the display device 304 and performs control such as display switching based on the received command.

操作受け付け部340は、例えば図4に示すコンピュータにおいて、CPU301がプログラムを実行することにより実現される。操作受け付け部340は、操作者が入力装置305により行った入力操作を受け付ける。そして、操作受け付け部340により受け付けた操作にしたがって、表示制御部330が表示装置304への出力画像等の表示制御を行う。   For example, in the computer shown in FIG. 4, the operation receiving unit 340 is realized by the CPU 301 executing a program. The operation receiving unit 340 receives an input operation performed by the operator using the input device 305. Then, in accordance with the operation received by the operation receiving unit 340, the display control unit 330 performs display control of an output image or the like to the display device 304.

<領域識別部の処理>
情報処理装置200の領域識別部220による処理について説明する。領域識別部220は、ビデオカメラ100により撮影された動画から、その動画に映っている人物の動作に係る部位を識別する。この部位の識別には、既存の種々の画像解析技術を適用してよい。例えば、顔や笑顔の識別は、デジタルカメラ等で実現されている既存の識別手法を用いてよい。また、動画に映されている特定の形状の部分(領域)やそのような複数の部分の配置等に基づいて、身体の部位が映っている領域を特定し得る。さらに一例として、フレーム間特徴量に基づく識別を行ってもよい。具体的には、動画データの連続する2枚以上のフレームの差分に基づき、フレーム間特徴量を求める。ここで、フレーム間特徴量としては、例えば、色の境界(エッジ)、色の変化量、これらによって特定される領域の移動方向や移動量などが用いられる。予め設定された時間分のフレーム間特徴量を累積し、フレームごとのフレーム間特徴量の距離や類似度に基づいて、フレーム間特徴量を分類、統合する。これにより、動画において連携して変化する領域が特定され、身体の部位が映っている領域が識別される。
<Processing of area identification unit>
Processing performed by the area identification unit 220 of the information processing apparatus 200 will be described. The area identifying unit 220 identifies a part related to the motion of a person shown in the moving image from the moving image captured by the video camera 100. Various existing image analysis techniques may be applied to this part identification. For example, an existing identification method realized by a digital camera or the like may be used to identify a face or a smile. Moreover, based on the part (area | region) of the specific shape currently reflected on the moving image, arrangement | positioning of such a some part, etc., the area | region where the body part is reflected can be specified. Further, as an example, identification based on inter-frame feature values may be performed. Specifically, an inter-frame feature value is obtained based on a difference between two or more consecutive frames of moving image data. Here, as the interframe feature amount, for example, a color boundary (edge), a color change amount, a moving direction or a moving amount of an area specified by these, and the like are used. The inter-frame feature quantity for a preset time is accumulated, and the inter-frame feature quantity is classified and integrated based on the distance and similarity of the inter-frame feature quantity for each frame. Thereby, the area | region which changes in cooperation in a moving image is specified, and the area | region where the part of the body is reflected is identified.

図6は、フレーム間特徴量を用いて人体に関わる領域を特定する手法を説明する図である。図6(A)は、動画の1フレームにおいて、人物が横を向いて椅子に座っている様子を示し、図6(B)は、動画の別の1フレームにおいて、同じ人物が前方へ乗り出した様子を示している。図6に示す例において、領域識別部220は、図6(A)に映っている色の境界や変化量に基づき、近似する色が映っている範囲を特定する。そして、領域識別部220は、図6(A)のフレームと図6(B)のフレームとを対比し、対応する色の範囲の移動方向および移動量に基づき、画像中の破線の枠で囲まれた領域221において、複数個の色の範囲が連携して動いていることを認識し、この領域221を人体の上半身が映っている領域として識別する。図6(A)、(B)を参照すると、人体(上半身)を構成する色の範囲の動きに応じて、領域221の位置や大きさが変化している。なお、ここでは図6(A)、(B)の2つのフレームを対比したが、3つ以上のフレームを対比して色の範囲の変化等のフレーム間特徴量を累積した結果に基づいて人体が映っている領域を識別するようにしてもよい。   FIG. 6 is a diagram for explaining a method for specifying a region related to a human body using inter-frame feature values. FIG. 6A shows a person sitting sideways in one frame of the video, and FIG. 6B shows that the same person has moved forward in another frame of the video. It shows a state. In the example illustrated in FIG. 6, the region identification unit 220 identifies a range in which an approximate color is reflected based on the color boundary and the amount of change shown in FIG. Then, the region identification unit 220 compares the frame in FIG. 6A and the frame in FIG. 6B and surrounds the frame with a broken line frame in the image based on the moving direction and moving amount of the corresponding color range. In the area 221, it is recognized that a plurality of color ranges are moving in cooperation, and this area 221 is identified as an area in which the upper body of the human body is reflected. Referring to FIGS. 6A and 6B, the position and size of the region 221 change according to the movement of the color range constituting the human body (upper body). Although the two frames in FIGS. 6A and 6B are compared here, the human body is based on the result of accumulating inter-frame feature quantities such as a change in color range by comparing three or more frames. You may make it identify the area | region where is reflected.

<動作検出部の処理>
動作検出部230による処理について説明する。動作検出部230は、領域識別部220により識別された身体の部位が映っている領域を解析して、具体的にどの部位が映っているかを特定し、特定した部位ごとの動きを検出する。この動きの検出には、既存の種々の画像解析技術を適用してよい。検出される動きは、特定された部位ごとに身体動作として起こり得る動きである。例えば、目を閉じたり口を開けたりする動き、視線の変化、顔の向きを上下や左右に変える動き、肘の曲げ伸ばしや腕を振る動き、手指の曲げ伸ばしや手を開いたり閉じたりする動き、腰の曲げ伸ばしや体を捻じる動き、膝の曲げ伸ばしや脚を振る動き、歩行等による身体の移動などが検出される。なお、これらの動きは例示に過ぎず、本実施形態の非言語情報評価システム10で検出し得る動きは、上記に提示した動きに限定されない。本実施形態では、動作検出部230は、領域識別部220で領域として識別された全ての部位の動きを検出してもよいし、後段の非言語情報抽出部240で抽出される動作を特定するための動き等に限定して検出してもよい。例えば、非言語情報抽出部240でうなずく動作のみを抽出するのであれば、顔の向きを上下に変えるような頭の動きを検出すればよい。
<Processing of motion detection unit>
Processing by the motion detection unit 230 will be described. The motion detection unit 230 analyzes a region in which the body part identified by the region identification unit 220 is reflected, identifies which part is specifically reflected, and detects a motion for each identified part. Various existing image analysis techniques may be applied to this motion detection. The detected motion is a motion that can occur as a physical motion for each identified part. For example, moving your eyes closed or opening your mouth, changing your line of sight, moving your face up and down, left and right, bending your elbows and waving your arms, bending your fingers, stretching your hands and opening and closing your hands. Motion, bending and stretching of the waist, twisting of the body, bending and stretching of the knee, movement of shaking the legs, movement of the body by walking, etc. are detected. Note that these movements are merely examples, and movements that can be detected by the non-language information evaluation system 10 of the present embodiment are not limited to the movements presented above. In the present embodiment, the motion detection unit 230 may detect the movements of all parts identified as regions by the region identification unit 220 or specify the motions extracted by the non-linguistic information extraction unit 240 at the subsequent stage. Therefore, the detection may be limited to the movement for the purpose. For example, if only the nodding motion is extracted by the non-linguistic information extraction unit 240, it is only necessary to detect a head movement that changes the face direction up and down.

<非言語情報抽出部の処理>
非言語情報抽出部240による処理について説明する。非言語情報抽出部240は、動作検出部230により検出された部位の動きに基づいて、受講者が意識的にまたは無意識的に行った意味のある行動を非言語情報として抽出する。例えば、顔の向きを上下に変える動きからうなずくという動作を抽出したり、口を動かす動きから発話や欠伸という動作を抽出したり、腕を上げる動きから挙手という動作を抽出したりする。非言語情報の抽出は、単に動作検出部230により検出された部位の動きのみに基づいて行われるのではなく、例えば、検出された動きの前後における該当部位の動き、周囲の部位や他の人物の動き、動きが検出された場面や文脈(背景)等の情報も参酌して行われる。具体例を挙げると、顔の向きを上下に連続的に変える動きが特定の時間内で行われたとき、この動きは、うなずきの動作として抽出される。一方、顔の向きが上を向き、ある程度の時間が経過した後に下方向へ動いてもとに戻ったとき、この動きは、思考するために上方を見上げた動作として抽出される。また、顔の向きが下を向き、ある程度の時間が経過したとき、この動作は、居眠りしていることを示す動作として抽出される。なお、これらの動作や参酌情報は例示に過ぎず、本実施形態の非言語情報評価システム10で非言語情報として抽出し得る動作や参酌情報は、上記に提示した動作や情報に限定されない。
<Processing of non-linguistic information extraction unit>
Processing by the non-language information extraction unit 240 will be described. The non-linguistic information extraction unit 240 extracts meaningful actions that the student has consciously or unconsciously performed as non-linguistic information based on the movement of the part detected by the motion detection unit 230. For example, a motion of nodding is extracted from a motion of changing the face direction up and down, a motion of utterance or absence is extracted from a motion of moving the mouth, and a motion of raising a hand is extracted from a motion of raising an arm. Extraction of non-linguistic information is not performed based solely on the movement of the part detected by the motion detection unit 230. For example, the movement of the corresponding part before and after the detected movement, the surrounding part, or another person This is also performed in consideration of information such as movements, scenes where the movements are detected, and context (background). As a specific example, when a motion that continuously changes the orientation of the face up and down is performed within a specific time, this motion is extracted as a motion of nodding. On the other hand, when the face is directed upward, and after a certain amount of time has passed, it moves downward and returns to its original state, and this movement is extracted as an action looking up upward for thinking. Also, when the face is facing down and a certain amount of time has elapsed, this action is extracted as an action indicating that the person is dozing. In addition, these operation | movement and consideration information are only illustrations, and the operation | movement and consideration information which can be extracted as non-language information in the non-language information evaluation system 10 of this embodiment are not limited to the operation | movement and information which were shown above.

<反応評価部の処理>
反応評価部250による処理について説明する。反応評価部250は、非言語情報抽出部240により抽出された非言語情報に基づき、非言語情報評価システム10が適用される場面に応じた受講者の反応を評価する。例えば、講義における受講者の反応を評価するのであれば、講義に対する集中の度合い等が評価項目となる。また、参加型の授業であれば、各生徒の集中の度合いや積極性、授業全体の活性度等が評価項目となる。また、単純に、非言語情報評価システム10が適用される場面の目的に対して肯定的(ポジティブ)な反応か否定的(ネガティブ)な反応かを評価するようにしてもよい。評価結果は、評価項目や評価の目的等に応じて様々な形式で決定し得る。例えば、授業中に発言したか否かというような二値的な評価を行ってもよいし、集中度や積極性などの評価項目の達成度(評価の程度)を段階的に特定する多値的な評価を行ってもよい。また、反応評価部250は、講義や授業が行われる一定時間にわたって継続的に評価を行い、時間の経過に伴って変化する時系列の評価情報を生成してもよい。
<Processing of reaction evaluation unit>
Processing by the reaction evaluation unit 250 will be described. The reaction evaluation unit 250 evaluates the response of the student according to the scene to which the non-language information evaluation system 10 is applied based on the non-language information extracted by the non-language information extraction unit 240. For example, when evaluating the responses of students in a lecture, the degree of concentration on the lecture is an evaluation item. In the case of a participatory class, the degree of concentration and aggressiveness of each student, the activity level of the entire class, and the like are evaluation items. Moreover, you may make it evaluate simply whether it is a positive (positive) reaction or a negative (negative) reaction with respect to the objective of the scene where the non-linguistic information evaluation system 10 is applied. The evaluation result can be determined in various forms according to the evaluation item, the purpose of the evaluation, and the like. For example, a binary evaluation such as whether or not he / she spoke during the class may be performed, or a multi-value that specifies the achievement level (evaluation level) of evaluation items such as concentration and aggressiveness in stages Evaluation may be performed. The reaction evaluation unit 250 may perform continuous evaluation over a certain period of time during which a lecture or lesson is performed, and generate time-series evaluation information that changes with the passage of time.

多値的な評価を行う場合、反応評価部250において評価される評価項目に応じて、その評価に用いられる非言語情報として定義された(抽出される)行動(以下、反応行動)の種類および反応行動の出現態様が設定される。言い換えると、同じ反応行動であっても、その出現態様に応じて異なる評価となる。例えば、非言語情報として抽出される特定の反応行動が1回行われた場合と、複数回繰り返されたり、一定時間以上継続したりした場合とでは評価が異なる。   When performing multivalued evaluation, according to the evaluation items evaluated in the response evaluation unit 250, the types of actions (hereinafter referred to as reaction actions) defined (extracted) as non-linguistic information used for the evaluation and The appearance mode of the reaction behavior is set. In other words, even if the reaction behavior is the same, the evaluation is different depending on the appearance mode. For example, the evaluation differs between a case where a specific reaction action extracted as non-linguistic information is performed once and a case where the specific reaction action is repeated a plurality of times or continued for a certain time or more.

さらに、多値的な評価を行う場合、例えば、その評価項目における反応行動の種類、出現頻度、継続時間などに基づいて、評価の程度を特定してもよい。一例として、集中度を評価するための評価対象の反応行動として、うなずく動作と筆記する動作とが定義されている場合を考える。そして、うなずく動作は筆記する動作よりも高い集中度を表すものとする。この場合、反応行動の種類として、うなずく動作が出現したときは、筆記する動作が出現したときよりも集中度が高い(評価の程度が高い)と評価する。また、反応行動の出現頻度として、一定時間内にうなずく動作が多いほうが少ないよりも集中度が高い(評価の程度が高い)と評価する。また、一定時間内に筆記する動作の継続時間が長いほうが短いよりも集中度が高い(評価の程度が高い)と評価する。なお、これらの評価項目や評価方法は例示に過ぎず、本実施形態の非言語情報評価システム10でとり得る評価項目や評価方法は、上記に提示した評価項目や評価方法に限定されない。   Furthermore, when performing multi-level evaluation, for example, the degree of evaluation may be specified based on the type of reaction behavior, the appearance frequency, the duration, and the like in the evaluation item. As an example, let us consider a case where a nodding action and a writing action are defined as reaction behaviors to be evaluated for evaluating the degree of concentration. The nodding operation represents a higher degree of concentration than the writing operation. In this case, when a nodding action appears as a type of reaction action, it is evaluated that the degree of concentration is higher (the degree of evaluation is higher) than when a writing action appears. Further, as the appearance frequency of the reaction behavior, it is evaluated that the degree of concentration is higher (the degree of evaluation is higher) than the case where there are many nodding motions within a certain time. Moreover, it is evaluated that the degree of concentration is higher (the degree of evaluation is higher) when the duration of the writing operation within a certain time is longer than when the duration is shorter. Note that these evaluation items and evaluation methods are merely examples, and the evaluation items and evaluation methods that can be taken by the non-linguistic information evaluation system 10 of the present embodiment are not limited to the evaluation items and evaluation methods presented above.

<非言語情報の評価の他の例>
上記のように、評価対象としての受講者の具体的な動作に基づく非言語情報としての反応行動の詳細な評価を行う他、反応評価部250による評価として、受講者の動きの活性度を簡易に評価する構成としてもよい。具体的には、例えば、動作検出部230により受講者の身体を表す領域として検出された領域が動いている場合には、その動きが身体のどの部位によるどのような動作を表すかに関わらず、その動きの大きさや速さのみに基づいて活性度を評価する。また、詳しくは後述するが、複数の受講者によりグループが構成される場合、グループを構成する受講者のいずれかが動いていれば、その動きによる活性度をグループの活性度として評価したり、動いている受講者が多いほど活性度が高いと評価したりしてもよい。
<Other examples of non-linguistic information evaluation>
As described above, in addition to performing detailed evaluation of reaction behavior as non-linguistic information based on the specific behavior of the student as an evaluation target, the activity evaluation of the student movement is simplified as an evaluation by the reaction evaluation unit 250 It is good also as a structure evaluated to. Specifically, for example, when the region detected by the motion detection unit 230 as the region representing the body of the student is moving, regardless of which motion of which part of the body represents the motion The activity is evaluated based only on the magnitude and speed of the movement. In addition, as will be described in detail later, when a group is composed of a plurality of students, if any of the students who make up the group is moving, the activity based on the movement is evaluated as the group activity, It may be evaluated that the more students are moving, the higher the activity level is.

<端末装置における表示例>
図7および図8は、情報処理装置200から受講者の情報および評価結果を取得した端末装置300の表示出力の例を示す図である。図7は、教室(部屋)の全体情報を表示する第1の画面(以下、全体情報表示画面)の例を示す。図7に示す例では、教室の座席を模式的に示した画面が、端末装置300の表示装置304に表示されている。図示の画面において、座席は4人ずつ4列に並んで設けられており、各座席には座席番号1〜16が付されている。また、受講者が着席している座席には丸印「○」が表示されている(図7の例では、座席番号1〜3、6、8、9、11〜16の各座席)。これにより、受講者の位置が特定される。図7に示す例において、教室における座席の配置は、例えば、学習管理サーバ400に格納された学習計画情報に、講義が行われる教室の情報として登録しておき、講義が行われる際に学習管理サーバ400から取得すればよい。この情報は、情報処理装置200を経由して取得してもよいし、端末装置300から学習管理サーバ400へ直接アクセスして取得してもよい。受講者が着席している座席の情報は、情報処理装置200の受講者特定部212において受講者を特定する際に座席を特定し、受講者の情報として情報処理装置200から端末装置300へ送るようにしてもよい。また、座席に受講者が着席したことを感知するセンサを設け、端末装置300がセンサから直接、情報を取得するようにしてもよい。端末装置300において教室の情報および座席の情報が取得されると、表示画像生成部320が画面を生成し、生成した画面を表示制御部330が表示装置304に表示する(図5参照)。なお、図7に示す例では、全体情報表示画面を、教室の座席を模式的に示す画面としたが、全体情報表示画面の構成は、図示の例に限定されない。例えば、ビデオカメラ100で撮影した教室全体を映す画像を端末装置300の表示装置304に表示し、各座席の位置に、座席番号や着席の有無を示す表示等を重畳して表示するように、全体情報表示画面を構成してもよい。
<Example of display on terminal device>
FIG. 7 and FIG. 8 are diagrams illustrating examples of display output of the terminal device 300 that has acquired the student information and the evaluation result from the information processing device 200. FIG. 7 shows an example of a first screen (hereinafter referred to as an overall information display screen) that displays overall information of a classroom (room). In the example illustrated in FIG. 7, a screen schematically showing classroom seats is displayed on the display device 304 of the terminal device 300. In the illustrated screen, four seats are provided in four rows, and seat numbers 1 to 16 are assigned to each seat. In addition, a circle “◯” is displayed on the seat where the student is seated (in the example of FIG. 7, seat numbers 1 to 3, 6, 8, 9, and 11 to 16). Thereby, the position of the student is specified. In the example shown in FIG. 7, the arrangement of seats in the classroom is registered as learning plan information stored in the learning management server 400 as information on the classroom where the lecture is performed, and learning management is performed when the lecture is performed. What is necessary is just to acquire from the server 400. This information may be acquired via the information processing apparatus 200, or may be acquired by directly accessing the learning management server 400 from the terminal apparatus 300. The information on the seat where the student is seated specifies the seat when the student identification unit 212 of the information processing apparatus 200 identifies the student, and sends the information from the information processing apparatus 200 to the terminal device 300 as the student information. You may do it. In addition, a sensor that senses that a student is seated in the seat may be provided, and the terminal device 300 may acquire information directly from the sensor. When classroom information and seat information are acquired in the terminal device 300, the display image generation unit 320 generates a screen, and the display control unit 330 displays the generated screen on the display device 304 (see FIG. 5). In the example shown in FIG. 7, the overall information display screen is a screen schematically showing classroom seats, but the configuration of the overall information display screen is not limited to the illustrated example. For example, an image showing the entire classroom photographed by the video camera 100 is displayed on the display device 304 of the terminal device 300, and a seat number, a display indicating the presence or absence of seating, etc. are superimposed and displayed at the position of each seat. An overall information display screen may be configured.

図8は、受講者の情報を提示する第2の画面(以下、情報提示画面)の例を示す図である。情報提示画面は、例えば、図7に示した画面上で、いずれかの座席が選択されると、選択された座席に着席している受講者の情報を含む画面として生成され、表示される。座席の選択は、例えば、操作者がタッチパネル等の入力装置305(図4参照)を操作して任意の座席を指定することにより行われる。端末装置300の操作受け付け部340(図5参照)がこの操作を受け付けると、表示画像生成部320が、選択された座席に着席している受講者の情報に基づいて情報提示画面を生成する。   FIG. 8 is a diagram illustrating an example of a second screen (hereinafter, an information presentation screen) for presenting student information. For example, when any seat is selected on the screen shown in FIG. 7, the information presentation screen is generated and displayed as a screen including information on the students seated in the selected seat. The seat is selected, for example, when the operator operates the input device 305 (see FIG. 4) such as a touch panel to designate an arbitrary seat. When the operation reception unit 340 (see FIG. 5) of the terminal device 300 receives this operation, the display image generation unit 320 generates an information presentation screen based on the information of the students who are seated in the selected seat.

図8に示す例では、座席番号1〜3に着席している受講者の情報が表示されている。そして、各受講者に関して、氏名、学籍番号(No.)、出席率、成績が表示されている。これらの情報のうち、氏名および学籍番号は、例えば、個人情報DB500から得られる。また、出席率および成績は、例えば、学習管理サーバ400から得られる。図8に示す例において、座席番号3の受講者に関しては、氏名が「該当者なし」となっており、その他の情報も全て表示されていない。これは、情報処理装置200の受講者特定部212が、座席番号3の座席に着席している受講者の認証に失敗したことを意味する。なお、図8に示す例では、情報提示画面を、数人の受講者の情報を座席番号順に並べて示す画面としたが、情報提示画面の構成は、図示の例に限定されない。例えば、ビデオカメラ100で撮影した画像の中から該当する座席番号の座席が映っている部分を抽出して端末装置300の表示装置304に表示し、各座席の位置に、座席番号および受講者の表示等を重畳して表示するように、全体情報表示画面を構成してもよい。   In the example shown in FIG. 8, the information of the students who are seated in seat numbers 1 to 3 is displayed. For each student, the name, student ID number (No.), attendance rate, and grade are displayed. Of these pieces of information, the name and student ID number are obtained from the personal information DB 500, for example. Further, the attendance rate and the grade are obtained from the learning management server 400, for example. In the example shown in FIG. 8, the name of the student with seat number 3 is “No applicable person”, and all other information is not displayed. This means that the student identification unit 212 of the information processing apparatus 200 has failed to authenticate the student seated in the seat of seat number 3. In the example shown in FIG. 8, the information presentation screen is a screen showing information of several students arranged in order of seat numbers, but the configuration of the information presentation screen is not limited to the illustrated example. For example, a portion in which a seat with a corresponding seat number is captured from an image captured by the video camera 100 is extracted and displayed on the display device 304 of the terminal device 300, and the seat number and the trainee's The overall information display screen may be configured so as to superimpose a display or the like.

本実施形態では、情報処理装置200の受講者特定部212は、定期的にまたは予め定められたタイミングで、教室内の各受講者に対する認証処理を繰り返し実行する。認証処理は、例えば講義が行われている間は、認証に成功したか否かに関わらず、全ての受講者に対して繰り返し実行される。したがって、図8に示す座席番号3の受講者のように「該当者なし」とされた受講者についても、その後の認証処理において認証されれば各情報が表示される。受講者特定部212が認証処理を繰り返し実行することにより、講義に遅刻した受講者がいても、これを検知し得る。また、受講者特定部212は、受講者の認証に成功した後も、繰り返し、認証処理を実行する。これにより、講義中に退席した受講者や席を移動した受講者がいた場合には、これを検知し得る。なお、認証処理の繰り返しは、必ずしも講義が行われている間の全てにわたって実行しなくてもよく、少なくとも講義中の予め定められた時間(例えば、講義開始から一定時間および講義終了前の一定時間等)において実行するように設定してもよい。   In the present embodiment, the student specifying unit 212 of the information processing apparatus 200 repeatedly executes authentication processing for each student in the classroom regularly or at a predetermined timing. For example, during the lecture, the authentication process is repeatedly executed for all students regardless of whether or not the authentication is successful. Therefore, even if a student who is “no relevant person” like the student of seat number 3 shown in FIG. 8 is authenticated in the subsequent authentication process, each information is displayed. When the student identification unit 212 repeatedly executes the authentication process, even if there is a student who is late for the lecture, this can be detected. In addition, the student identification unit 212 repeatedly executes the authentication process even after the student is successfully authenticated. Thereby, when there is a student who has left during the lecture or a student who has moved his / her seat, this can be detected. It is not always necessary to repeat the authentication process throughout the course of the lecture. At least a predetermined time during the lecture (for example, a certain time from the start of the lecture and a certain time before the lecture ends) Etc.) may be set to be executed.

なお、本実施形態では、個人情報DB500に格納されているイメージデータを用いて顔認証を行うため、図8に示した座席番号3の受講者のように「該当者なし」と表示される受講者は、ビデオカメラ100によって顔認証可能な顔画像を撮影できていないか、または個人情報DB500に登録されていない人物であることを意味する。講義の受講資格を有しない者が座席に着いた場合、その人物が個人情報DB500に登録されている人物であれば、受講者特定部212の認証処理により、受講資格のない者であることが特定される。   In the present embodiment, since face authentication is performed using image data stored in the personal information DB 500, the attendance is displayed as “no applicable person” like the attendee of seat number 3 shown in FIG. The person means that a face image that can be face-authenticated by the video camera 100 has not been photographed, or that the person is not registered in the personal information DB 500. If a person who does not have the qualification to attend the lecture arrives at the seat and the person is a person registered in the personal information DB 500, it may be a person who does not have the qualification according to the authentication process of the student identification unit 212. Identified.

上記の例では、全体情報表示画面から受講者を選択して情報提示画面へ移行する例を示したが、端末装置300と受講者との位置関係に応じて、自動的に受講者が選択されて情報提示画面を表示するように構成してもよい。例えば、端末装置300をタブレット型端末等の持ち運びが容易な機器とする。そして、講師(端末装置300の操作者)が演壇(教壇)にいるときには教室全体の情報を示す画面を表示する。一方、講師が端末装置300を持ちながら教室内を歩き回るときは、講師の位置および向きに応じて、講師が向いている方向の受講者の情報が端末装置300に表示されるように切り替え制御する。講師の位置および向きは、例えば、ビデオカメラ100により撮影された講師の画像に基づいて特定される。講師は、受講者の近くを歩くので、受講者を撮影するためのビデオカメラ100により講師も撮影されることになる。したがって、講師を撮影するためのビデオカメラ100を特に用意する必要はない。   In the above example, the student is selected from the entire information display screen and the information display screen is displayed. However, the student is automatically selected according to the positional relationship between the terminal device 300 and the student. The information presentation screen may be displayed. For example, the terminal device 300 is a portable device such as a tablet terminal. When the lecturer (operator of the terminal device 300) is on the podium (lecture), a screen showing information on the entire classroom is displayed. On the other hand, when the instructor walks around the classroom while holding the terminal device 300, the switching control is performed so that information on the student in the direction the instructor is facing is displayed on the terminal device 300 according to the position and orientation of the instructor. . The position and orientation of the lecturer are specified based on, for example, an image of the lecturer taken by the video camera 100. Since the instructor walks near the student, the instructor is also photographed by the video camera 100 for photographing the student. Therefore, it is not necessary to prepare the video camera 100 for photographing the lecturer.

図9は、ビデオカメラ100の配置の例を示す図である。図9に示す例では、受講者は、教室に配置された数台のテーブルの各々に数名ずつ着席している。また、教室の一方の側に講師30が立っている。図9に示す例では、ビデオカメラ100として、2台の広域撮影用カメラ100a(第1取得手段)と、1台の拡大撮影用カメラ100b(第2取得手段)とが設けられている。2台の広域撮影用カメラ100aの一つは、教室の一方(講師30のいる方)から教室内を撮影するように配置されている。他の一つは、教室の反対側から教室内を撮影するように配置されている。このように配置することで、一つの広域撮影用カメラ100aから見て受講者の顔が他の受講者やテーブルの陰になっている場合でも、他の広域撮影用カメラ100aによってその受講者の顔の画像が取得される。   FIG. 9 is a diagram illustrating an example of the arrangement of the video camera 100. In the example shown in FIG. 9, several students are seated on each of several tables arranged in the classroom. In addition, a lecturer 30 stands on one side of the classroom. In the example shown in FIG. 9, as the video camera 100, two wide-area shooting cameras 100 a (first acquisition means) and one enlarged shooting camera 100 b (second acquisition means) are provided. One of the two wide area photographing cameras 100a is arranged so as to photograph the inside of the classroom from one side of the classroom (the person with the lecturer 30). The other is arranged so that the inside of the classroom is photographed from the opposite side of the classroom. By arranging in this way, even if the student's face is behind other students or a table when viewed from one wide area shooting camera 100a, the other wide area shooting camera 100a allows the student's face. A face image is acquired.

拡大撮影用カメラ100bは、拡大率が可変であり、撮影方向を変更可能な可動式の架台に設置されている。拡大率および撮影方向は、例えば、外部装置からの制御信号により制御される。また、人感センサ等を用い、講師30を自動追尾したり、受講者を順に捉えるように自動制御してもよい。図示の例では、1台の拡大撮影用カメラ100bが示されているが、複数台の拡大撮影用カメラ100bを設けてもよい。また、拡大撮影用カメラ100bを移動可能な架台に設置して、異なる位置から講師30および受講者を撮影できるようにしてもよい。この場合、拡大撮影用カメラ100bの移動は、例えば、外部からの制御信号により制御してもよいし、決まった軌道上を適当な時間をかけて自律的に移動する構成としてもよい。このような構成とすることで、講師30や特定の受講者が撮影できない状態になることを減少させることができる。   The enlargement photographing camera 100b has a variable enlargement ratio and is installed on a movable frame that can change the photographing direction. For example, the enlargement ratio and the shooting direction are controlled by a control signal from an external device. In addition, a human sensor or the like may be used to automatically track the instructor 30 or to automatically control the trainees in order. In the example shown in the figure, one enlargement camera 100b is shown, but a plurality of enlargement cameras 100b may be provided. Further, the enlargement photographing camera 100b may be installed on a movable base so that the lecturer 30 and the student can be photographed from different positions. In this case, the movement of the magnifying camera 100b may be controlled by, for example, an external control signal, or may be configured to move autonomously over a predetermined trajectory over an appropriate time. By setting it as such a structure, it can reduce that the lecturer 30 or a specific student becomes a state which cannot be image | photographed.

情報処理装置200の動作検出部230は、検出した動作のうち、講師の動作を特定する。講師は受講者と異なり、受講者の近くを歩き回る等の特殊な動作をするので、そのような特殊な動作に基づいて講師と受講者とを識別してもよい。また、動作検出部230は、特定した講師の動作に基づいて、教室における講師の位置と向きを特定する。すなわち、本構成において、動作検出部230は、講師の情報を取得する講師情報取得手段として機能する。教室内の位置情報は、例えば学習管理サーバ400に登録しておき、座席の情報等と共に学習管理サーバ400から取得すればよい。講師の位置と向きが特定されると、座席の情報から、講師に近い位置(予め定められた一定の範囲内)で講師が向いている方向の座席が特定されるので、情報処理装置200は、特定された座席に着席している受講者の情報を端末装置300へ送る。端末装置300は、受信した受講者の情報に基づき、情報提示画面を生成して表示する。   The motion detection unit 230 of the information processing device 200 identifies the motion of the lecturer among the detected motions. Unlike the student, the instructor performs a special operation such as walking around the student, so the instructor and the student may be identified based on such a special operation. Further, the motion detection unit 230 identifies the position and orientation of the lecturer in the classroom based on the identified behavior of the lecturer. That is, in this configuration, the motion detection unit 230 functions as a lecturer information acquisition unit that acquires information on a lecturer. The location information in the classroom may be registered in the learning management server 400, for example, and acquired from the learning management server 400 together with seat information and the like. When the position and orientation of the instructor are specified, the seat in the direction facing the instructor is specified from the seat information at a position close to the instructor (within a predetermined range). The information of the student who is seated in the specified seat is sent to the terminal device 300. The terminal device 300 generates and displays an information presentation screen based on the received student information.

また、講師が演壇を降りて受講者の近くにいるときであっても、端末装置300において特定の操作が行われることにより、表示装置304に表示される画面を情報提示画面から全体情報表示画面に切り替える。例えば、端末装置300の入力装置305が表示装置304と組み合わされたタッチパネルである場合、情報提示画面の適当な位置に画面切り替え用のボタン・オブジェクトを表示させておき、講師がこのボタンオブジェクトにタッチすることにより画面が切り替わるようにしてもよい。   Further, even when the instructor gets off the podium and is near the student, the screen displayed on the display device 304 is changed from the information presentation screen to the entire information display screen by performing a specific operation in the terminal device 300. Switch to. For example, when the input device 305 of the terminal device 300 is a touch panel combined with the display device 304, a button object for screen switching is displayed at an appropriate position on the information presentation screen, and the instructor touches this button object. By doing so, the screen may be switched.

本実施形態の端末装置300による表示出力の他の例を説明する。図7に示したような全体情報表示画面において、受講者や受講者のグループに対する情報処理装置200の評価結果を表示しても良い。例えば、動画において特定された受講者の画像が活発に動いている場合、活性度が高いと評価し、端末装置300の表示装置304に、活性度の度合いを視覚的に表現した表示を行う。   Another example of display output by the terminal device 300 of the present embodiment will be described. On the overall information display screen as shown in FIG. 7, the evaluation result of the information processing apparatus 200 for the student or the group of students may be displayed. For example, when the image of the student identified in the moving image is actively moving, it is evaluated that the activity level is high, and the display device 304 of the terminal device 300 displays the activity level visually.

図10は、全体情報表示画面の例を示す図である。図10に示す例では、図7に示した例とは異なり、図9に示したように受講者が数名ずつのグループを構成しており、例えば参加型の授業等のように、グループごとに議論や活動が行われるものとする。図示の例において、受講者は、4つのグループ(グループA〜D)に分けられており、各グループは、表示装置304に表示された画面において太線を描画することにより、視認できるように表現されている。   FIG. 10 is a diagram illustrating an example of the entire information display screen. In the example shown in FIG. 10, unlike the example shown in FIG. 7, there are several groups of students as shown in FIG. 9. Discussions and activities shall be conducted. In the illustrated example, the students are divided into four groups (groups A to D), and each group is expressed so as to be visually recognized by drawing a bold line on the screen displayed on the display device 304. ing.

図示の例において、受講者の活性度は、活性度の低い方から順に、値「1」から値「5」の5段階の数値で評価されるものとする。各受講者の活性度の評価値は、表示装置304に表示された画面において、各受講者の上に重ねて表示されている。また、各グループの活性度の評価値は、グループに属する受講者の評価値の合計値としており、グループ名に添えて表示されている。図示の例では、グループAの活性度の評価値は「18」、グループBの活性度の評価値は「15」、グループCの活性度の評価値は「14」、グループDの活性度の評価値は「15」となっている。なお、図示の例では、受講者やグループの活性度を評価値(数値)で表したが、活性度の段階を表す色を予め設定しておき、図10に示す各受講者の画像に、評価された受講者の活性度に対応する色のマークを表示したり、グループを表す枠線を、評価されたグループの活性度に対応する色で表示したりしてもよい。   In the illustrated example, it is assumed that the activity level of the student is evaluated by numerical values in five stages from value “1” to value “5” in order from the lowest activity level. The evaluation value of the activity level of each student is displayed on the screen displayed on the display device 304 so as to be superimposed on each student. The evaluation value of the activity level of each group is the total value of the evaluation values of the students belonging to the group, and is displayed along with the group name. In the illustrated example, the activity evaluation value of group A is “18”, the activity evaluation value of group B is “15”, the activity evaluation value of group C is “14”, and the activity value of group D is The evaluation value is “15”. In the example shown in the figure, the activity level of the students and the group is expressed by an evaluation value (numerical value). However, a color indicating the level of activity level is set in advance, and each student image shown in FIG. You may display the mark of the color corresponding to the activity level of the evaluated student, and you may display the frame line showing a group by the color corresponding to the activity level of the evaluated group.

講師は、端末装置300の表示装置304に表示された、図10のように構成された画面を参照することにより、各受講者や各グループの活性度を定量的に認識することができる。そして、活性度の高いグループに注目してどのような議論や活動が行われているかを観察したり、活性度の低いグループのところへ行って活性度が高まるようにアドバイスを行ったりすることができる。   The instructor can quantitatively recognize the activity of each student or each group by referring to the screen configured as shown in FIG. 10 displayed on the display device 304 of the terminal device 300. It is also possible to observe what kind of discussions and activities are being conducted by paying attention to the group with high activity, or to go to the group with low activity and give advice to increase the activity. it can.

図10に示した例では、受講者をテーブルごとにグループ分けしたが、テーブルのような基準となる物がない場合、各受講者の動作に基づいてグループ分けを行ってもよい。例えば、同じグループの受講者は、動作が同期したり連動したりすることが多いと考えられる。そこで、情報処理装置200の動作検出部230がビデオカメラ100により取得した動画を解析する際に、人体に対応する領域のうち、同期して動いていたり連動して動いている領域をまとめてグループを設定してもよい。このようにグループ分けを行った場合、実際のグループとは異なる誤ったグループ分けを行ってしまうこともあり得る。そのような場合、端末装置300の操作者が、表示装置304の画面上に描画されているグループ分けの太線を修正し、正しいグループ分けを行うようにしてもよい。このような操作が行われた場合、端末装置300から情報処理装置200へ、修正されたグループ分けの情報が送られる。情報処理装置200では、この修正情報を受信すると、動作検出部230が、取得した修正情報に基づいてグループ領域を特定し直す。そして、反応評価部250が、修正されたグループ分けに基づいてグループの活性度を評価し、出力部260により端末装置300へ送信する。   In the example shown in FIG. 10, the students are grouped for each table. However, when there is no standard item such as a table, the grouping may be performed based on the actions of each student. For example, it is considered that the students in the same group often synchronize or synchronize their operations. Therefore, when the motion detection unit 230 of the information processing apparatus 200 analyzes the moving image acquired by the video camera 100, a group of areas corresponding to the human body that are moving synchronously or moving in synchronization is grouped. May be set. When grouping is performed in this way, erroneous grouping different from the actual group may be performed. In such a case, the operator of the terminal device 300 may correct the grouping thick line drawn on the screen of the display device 304 to perform correct grouping. When such an operation is performed, the corrected grouping information is sent from the terminal device 300 to the information processing device 200. In the information processing apparatus 200, when the correction information is received, the operation detection unit 230 re-specifies the group area based on the acquired correction information. Then, the reaction evaluation unit 250 evaluates the group activity based on the corrected grouping, and transmits the group activity to the terminal device 300 by the output unit 260.

なお、上記の実施形態では、座席の位置(受講者の位置)の情報を含む教室の全体情報を表示する全体情報表示画面と、講義情報を含む受講者の情報を表示する情報提示画面とを、端末装置300の表示装置304に切り替えて表示する例について説明した。しかしながら、端末装置300の表示装置304に表示する画面は、上記の例に限定されない。例えば、第3の画面として、全体情報表示画面に各受講者の講義情報を重畳して表示し、各受講者の位置の情報と講義情報とを同時に表現する画面を構成してもよい。   In the above embodiment, the overall information display screen for displaying the entire classroom information including information on the seat position (the position of the student), and the information presentation screen for displaying the student information including the lecture information are provided. The example of switching to the display device 304 of the terminal device 300 and displaying it has been described. However, the screen displayed on the display device 304 of the terminal device 300 is not limited to the above example. For example, the third screen may be configured to display the lecture information of each student superimposed on the overall information display screen, and simultaneously display the position information of each student and the lecture information.

<他の構成例等>
以上、本実施形態による非言語情報評価システム10について説明したが、本実施形態の具体的構成は上記のものに限定されない。例えば、上記の構成では、ビデオカメラ100で取得した動画を情報処理装置200が処理し、得られた評価結果を出力手段としての端末装置300が表示出力するとした。これに対し、受講者を認証し、受講者の情報を端末装置300に表示させる処理においては、動画ではなく静止画を用いてもよい。また、情報処理装置200と端末装置300とを分けず、情報処理装置200が出力手段を兼ねる構成としてもよい。例えば、情報処理装置200自身が液晶ディスプレイ等の表示装置を備える構成とし、評価結果の表示出力を行うようにしてもよい。また、上記の実施形態では、情報処理装置200が、ビデオカメラ100により取得された画像を処理して受講者を特定し、特定した受講者の講義情報を取得し、受講者(およびグループ)の状態を評価することとした。すなわち、上記の実施形態において、情報処理装置200は、受講者を特定する特定手段、受講者ごとの講義情報を取得する情報取得手段、および、受講者の状態を評価する評価手段として機能する。これに対し、各機能を別個の情報処理装置により実現してもよい。また、上記の実施形態では、ビデオカメラ100で撮影することにより受講者の画像を取得したが、別途用意された画像データを情報処理装置200が解析し、評価しても良い。例えば、別途撮影し、磁気ディスク装置等の記憶装置に蓄積された画像データを読み込んで評価しても良い。また、上記の実施形態では、教室内の全体の情報を表示した全体情報表示画面において、単に座席に受講者がいるか否かのみを表示したが(図7の丸印「○」参照)、座席ごとの受講者を特定し得る程度の情報(例えば、氏名、学籍番号など)を表示するようにしてもよい。
<Other configuration examples>
The non-linguistic information evaluation system 10 according to the present embodiment has been described above, but the specific configuration of the present embodiment is not limited to the above. For example, in the above configuration, the information processing apparatus 200 processes a moving image acquired by the video camera 100, and the terminal apparatus 300 as an output unit displays and outputs the obtained evaluation result. In contrast, in the process of authenticating the student and displaying the student information on the terminal device 300, a still image may be used instead of a moving image. Further, the information processing apparatus 200 and the terminal apparatus 300 may be separated from each other, and the information processing apparatus 200 may also serve as an output unit. For example, the information processing apparatus 200 itself may be configured to include a display device such as a liquid crystal display, and display the evaluation result. In the above embodiment, the information processing apparatus 200 processes the image acquired by the video camera 100 to identify the student, acquires the lecture information of the identified student, and acquires the student (and group). We decided to evaluate the condition. That is, in the above-described embodiment, the information processing apparatus 200 functions as a specifying unit that specifies a student, an information acquisition unit that acquires lecture information for each student, and an evaluation unit that evaluates the state of the student. On the other hand, each function may be realized by a separate information processing apparatus. In the above embodiment, the student's image is acquired by shooting with the video camera 100, but the information processing apparatus 200 may analyze and evaluate separately prepared image data. For example, the image data separately taken and stored in a storage device such as a magnetic disk device may be read and evaluated. In the above embodiment, the entire information display screen displaying the entire information in the classroom only displays whether or not there are students in the seat (see the circle “◯” in FIG. 7). Information (for example, name, student ID number, etc.) that can identify each student may be displayed.

10…非言語情報評価システム、20…ネットワーク、100…ビデオカメラ、200…情報処理装置、201…CPU、202…RAM、203…ROM、204…外部記憶装置、205…ネットワーク・インターフェイス、210…動画データ取得部、211…顔検出部、212…受講者特定部、213…学習情報取得部、220…領域識別部、230…動作検出部、240…非言語情報抽出部、250…反応評価部、260…出力部、300…端末装置、301…CPU、302…RAM、303…ROM、304…表示装置、305…入力装置、306…ネットワーク・インターフェイス、310…処理結果取得部、320…表示画像生成部、330…表示制御部、340…操作受け付け部 DESCRIPTION OF SYMBOLS 10 ... Non-language information evaluation system, 20 ... Network, 100 ... Video camera, 200 ... Information processing apparatus, 201 ... CPU, 202 ... RAM, 203 ... ROM, 204 ... External storage device, 205 ... Network interface, 210 ... Movie Data acquisition unit, 211 ... face detection unit, 212 ... student identification unit, 213 ... learning information acquisition unit, 220 ... region identification unit, 230 ... motion detection unit, 240 ... non-linguistic information extraction unit, 250 ... reaction evaluation unit, 260 ... output unit, 300 ... terminal device, 301 ... CPU, 302 ... RAM, 303 ... ROM, 304 ... display device, 305 ... input device, 306 ... network interface, 310 ... processing result acquisition unit, 320 ... display image generation Unit, 330 ... display control unit, 340 ... operation receiving unit

Claims (18)

講義における受講者の画像を取得する画像取得手段と、
前記画像取得手段により取得された画像に基づいて受講者を特定する特定手段と、
前記特定手段により特定された受講者の前記講義に関する情報を取得する情報取得手段と、
前記講義が行われる部屋における受講者の位置の情報を表示する第1の画面、および、前記特定手段により特定された受講者に関して前記情報取得手段により取得された講義の情報を含む当該受講者の情報を表示する第2の画面を表示する表示手段と、
前記表示手段に前記第1の画面と前記第2の画面との表示の切り替えを実行させる操作が行われる操作手段と、
を備えることを特徴とする、情報処理システム。
Image acquisition means for acquiring images of students in a lecture;
Identifying means for identifying a student based on the image obtained by the image obtaining means;
Information acquisition means for acquiring information on the lecture of the student specified by the specification means;
A first screen that displays information on the position of the student in the room where the lecture is held, and the information on the student including the information on the lecture acquired by the information acquisition unit regarding the student specified by the specifying unit; Display means for displaying a second screen for displaying information;
An operation means for performing an operation for causing the display means to switch display between the first screen and the second screen;
An information processing system comprising:
前記表示手段は、前記受講者の位置の情報と前記受講者の情報とをともに表示する第3の画面をさらに表示可能であり、
前記操作手段は、前記第1の画面および前記第2の画面と前記第3の画面との表示の切り替えを実行させる操作がさらに行われることを特徴とする、請求項1に記載の情報処理システム。
The display means can further display a third screen that displays both the location information of the student and the information of the student,
2. The information processing system according to claim 1, wherein the operation unit further performs an operation of switching display between the first screen and the second screen and the third screen. 3. .
前記講義における講師に関して当該講義が行われる部屋における位置を含む情報を取得する講師情報取得手段をさらに備え、
前記表示手段は、前記講師情報取得手段により取得された前記講師の位置の情報に応じて、前記第1の画面と前記第2の画面とを切り替えて表示することを特徴とする、請求項1または請求項2に記載の情報処理システム。
A lecturer information acquisition means for acquiring information including a position in a room where the lecture is held with respect to the lecturer in the lecture,
The said display means switches and displays the said 1st screen and the said 2nd screen according to the information of the position of the said lecturer acquired by the said lecturer information acquisition means, The display means characterized by the above-mentioned. Or the information processing system of Claim 2.
前記表示手段は、前記講師情報取得手段により取得された前記講師の位置の情報に基づき、講師が演壇の位置にいる場合に、前記第1の画面を表示し、講師が受講者から一定の範囲にいる場合に、当該範囲内の受講者の情報が表示された前記第2の画面を表示することを特徴とする、請求項3に記載の情報処理システム。   The display means displays the first screen when the instructor is at the podium position based on the instructor position information acquired by the instructor information acquiring means, and the instructor is within a certain range from the students. 4. The information processing system according to claim 3, wherein the second screen on which the information of students within the range is displayed is displayed when the user is in the area. 前記講義における講師に関して当該講義が行われる部屋における位置を含む情報を取得する講師情報取得手段をさらに備え、
前記表示手段は、前記講師情報取得手段により取得された前記講師の位置の情報に基づき、講師が演壇の位置にいる場合に、前記第1の画面または前記第3の画面を表示することを特徴とする、請求項2に記載の情報処理システム。
A lecturer information acquisition means for acquiring information including a position in a room where the lecture is held with respect to the lecturer in the lecture,
The display means displays the first screen or the third screen when the instructor is at the podium position based on the instructor position information acquired by the instructor information acquisition means. The information processing system according to claim 2.
前記講師情報取得手段は、講師の向きの情報をさらに取得し、
前記表示手段は、前記講師情報取得手段により取得された前記講師の位置の情報および向きの情報に応じて、表示対象の受講者を切り替えて前記第2の画面を表示することを特徴とする、請求項3に記載の情報処理システム。
The lecturer information acquisition means further acquires information on the direction of the lecturer,
The display means displays the second screen by switching the display target students according to the position information and orientation information of the lecturer acquired by the lecturer information acquisition means. The information processing system according to claim 3.
前記表示手段は、前記講師情報取得手段により取得された前記講師の位置の情報および向きの情報に応じて、講師が向いている方向に位置する受講者に関して、位置の情報および講義に関する情報を含む当該受講者の情報が表示された前記第2の画面を表示することを特徴とする、請求項6に記載の情報処理システム。   The display means includes position information and information about a lecture regarding a student who is located in a direction in which the lecturer is facing, according to the position information and orientation information of the lecturer acquired by the lecturer information acquisition means. The information processing system according to claim 6, wherein the second screen on which the student information is displayed is displayed. 前記画像取得手段は、前記講義における講師の画像をさらに取得し、
前記講師情報取得手段は、前記画像取得手段により取得された画像を解析して、前記講師の情報を取得することを特徴とする、請求項3または請求項6に記載の情報処理システム。
The image acquisition means further acquires an image of a lecturer in the lecture,
The information processing system according to claim 3, wherein the lecturer information acquisition unit analyzes the image acquired by the image acquisition unit and acquires the information of the lecturer.
前記特定手段は、少なくとも講義中の予め定められた時間において、受講者を特定する処理を繰り返し実行することを特徴とする、請求項1または請求項2に記載の情報処理システム。   The information processing system according to claim 1, wherein the specifying unit repeatedly executes a process of specifying a student at least at a predetermined time during a lecture. 前記特定手段は、一度特定した受講者に対しても、受講者を特定する処理を繰り返し実行することを特徴とする、請求項9に記載の情報処理システム。   The information processing system according to claim 9, wherein the specifying unit repeatedly executes a process of specifying a student even for a student who has been specified once. 講義における受講者を特定する情報および当該受講者の当該講義に関する情報、並びに、当該講義が行われる部屋における講師の位置の情報を取得する情報取得手段と、
前記講義が行われる部屋における受講者の位置の情報を表示する第1の画面、および、前記情報取得手段により取得された情報に基づいて受講者を特定する情報および当該受講者の当該講義に関する情報を表示する第2の画面を表示する表示手段と、を備え、
前記表示手段は、前記情報取得手段により取得された前記講師の位置の情報に応じて、前記第1の画面と前記第2の画面とを切り替えて表示することを特徴とする、情報処理装置。
An information acquisition means for acquiring information identifying a student in the lecture, information on the lecture of the student, and information on the position of the lecturer in the room where the lecture is held;
A first screen that displays information on the position of the student in the room where the lecture is held, information that identifies the student based on the information acquired by the information acquisition means, and information related to the lecture of the student Display means for displaying a second screen for displaying
The information processing apparatus, wherein the display means switches between the first screen and the second screen according to the position information of the lecturer acquired by the information acquisition means.
前記表示手段は、前記受講者の位置の情報と前記受講者の情報とをともに表示する第3の画面をさらに表示可能であり、前記第1の画面、前記第2の画面および当該第3の画面を切り替えて表示することを特徴とする、請求項11に記載の情報処理装置。   The display means can further display a third screen that displays both the position information of the student and the information of the student, and includes the first screen, the second screen, and the third screen. The information processing apparatus according to claim 11, wherein the display is switched and displayed. 前記情報取得手段が取得する情報には、前記講師の向きの情報をさらに含み、
前記表示手段は、前記情報取得手段により取得された前記講師の位置の情報および向きの情報に応じて、表示対象の受講者を切り替えて前記第2の画面を表示することを特徴とする、請求項11または請求項12に記載の情報処理装置。
The information acquired by the information acquisition means further includes information on the orientation of the lecturer,
The display means displays the second screen by switching the students to be displayed according to the position information and orientation information of the lecturer acquired by the information acquisition means. Item 13. The information processing device according to item 11 or claim 12.
前記表示手段は、前記情報取得手段により取得された前記講師の位置の情報および向きの情報に応じて、講師が向いている方向に位置する受講者に関して、位置の情報および講義に関する情報を含む当該受講者の情報が表示された前記第2の画面を表示することを特徴とする、請求項13に記載の情報処理装置。   The display means includes position information and lecture information regarding a student who is located in a direction in which the lecturer is facing, according to the position information and orientation information of the lecturer acquired by the information acquisition means. The information processing apparatus according to claim 13, wherein the second screen on which student information is displayed is displayed. コンピュータを、
講義における受講者を特定する情報および当該受講者の当該講義に関する情報、並びに、当該講義が行われる部屋における講師の位置の情報を取得する情報取得手段と、
前記講義が行われる部屋における受講者の位置の情報を表示する第1の画面、および、前記情報取得手段により取得された情報に基づいて受講者を特定する情報および当該受講者の当該講義に関する情報を表示する第2の画面を、当該情報取得手段により取得された前記講師の位置の情報に応じて切り替えて、表示装置に表示させる表示制御手段として、
機能させることを特徴とする、プログラム。
Computer
An information acquisition means for acquiring information identifying a student in the lecture, information on the lecture of the student, and information on the position of the lecturer in the room where the lecture is held;
A first screen that displays information on the position of the student in the room where the lecture is held, information that identifies the student based on the information acquired by the information acquisition means, and information related to the lecture of the student As a display control means for switching the second screen for displaying the information according to the position information of the lecturer acquired by the information acquisition means and displaying the information on the display device,
A program characterized by functioning.
前記表示制御手段の機能として、前記受講者の位置の情報と前記受講者の情報とをともに表示する第3の画面をさらに表示可能とし、前記第1の画面、前記第2の画面および当該第3の画面を表示装置に切り替えて表示する機能を前記コンピュータに実現させることを特徴とする、請求項15に記載のプログラム。   As a function of the display control means, it is possible to further display a third screen that displays both the position information of the student and the information of the student, the first screen, the second screen, and the first screen. The program according to claim 15, wherein the computer realizes a function of switching and displaying the screen of 3 on a display device. 前記情報取得手段において取得する情報には、前記講師の向きの情報をさらに含み、
前記表示制御手段の機能として、前記情報取得手段により取得された前記講師の位置の情報および向きの情報に応じて、前記表示装置に前記第2の画面における表示対象の受講者を切り替える機能を、前記コンピュータに実現させることを特徴とする、請求項15または請求項16に記載のプログラム。
The information acquired by the information acquisition means further includes information on the orientation of the lecturer,
As a function of the display control means, according to the position information and orientation information of the lecturer acquired by the information acquisition means, a function of switching the display target students on the second screen to the display device, The program according to claim 15 or 16, wherein the program is implemented by the computer.
前記表示制御手段の機能として、前記情報取得手段により取得された前記講師の位置の情報および向きの情報に応じて、講師が向いている方向に位置する受講者に関して、位置の情報および講義に関する情報を含む当該受講者の情報が表示された前記第2の画面を表示する機能を前記コンピュータに実現させることを特徴とする、請求項17に記載のプログラム。   As a function of the display control means, the position information and the lecture information regarding the student who is located in the direction the lecturer is facing, according to the position information and orientation information of the lecturer acquired by the information acquisition means. The program according to claim 17, wherein the computer is caused to realize a function of displaying the second screen on which the information of the student including the information is displayed.
JP2016197555A 2016-10-05 2016-10-05 Information processing systems, information processing equipment and programs Expired - Fee Related JP6819194B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016197555A JP6819194B2 (en) 2016-10-05 2016-10-05 Information processing systems, information processing equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016197555A JP6819194B2 (en) 2016-10-05 2016-10-05 Information processing systems, information processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2018060375A true JP2018060375A (en) 2018-04-12
JP6819194B2 JP6819194B2 (en) 2021-01-27

Family

ID=61910036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016197555A Expired - Fee Related JP6819194B2 (en) 2016-10-05 2016-10-05 Information processing systems, information processing equipment and programs

Country Status (1)

Country Link
JP (1) JP6819194B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112347914A (en) * 2020-11-05 2021-02-09 中国平安人寿保险股份有限公司 Teaching management method and device, terminal equipment and storage medium
JP2021018316A (en) * 2019-07-19 2021-02-15 株式会社フォーサイト Learning system, learning class providing method and program
JP2022109025A (en) * 2021-01-14 2022-07-27 Necパーソナルコンピュータ株式会社 On-line lesson system, on-line lesson method, and program
JP7492294B2 (en) 2019-10-18 2024-05-29 株式会社フォーサイト Learning system, learning lecture delivery method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250830A (en) * 2007-03-30 2008-10-16 Toshiba Corp Attendance checking system and attendance checking method
JP2011248785A (en) * 2010-05-28 2011-12-08 Multi Solution Co Ltd Attendance registration system
JP2013011925A (en) * 2011-06-28 2013-01-17 Digital Sensation Co Ltd Information processor, method, program, and school operation supporting system
US20160189563A1 (en) * 2014-12-27 2016-06-30 Moshe FRIED Educational system with real time behavior tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250830A (en) * 2007-03-30 2008-10-16 Toshiba Corp Attendance checking system and attendance checking method
JP2011248785A (en) * 2010-05-28 2011-12-08 Multi Solution Co Ltd Attendance registration system
JP2013011925A (en) * 2011-06-28 2013-01-17 Digital Sensation Co Ltd Information processor, method, program, and school operation supporting system
US20160189563A1 (en) * 2014-12-27 2016-06-30 Moshe FRIED Educational system with real time behavior tracking

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"LSBを用いた授業支援システムの提案と開発", 情報処理学会研究報告2011(平成23)年度, JPN6020034970, 15 April 2012 (2012-04-15), JP, pages 1 - 11, ISSN: 0004398635 *
"知能メディアの教育応用", 人口知能学会誌, vol. 第17巻 第4号, JPN6020034972, 1 July 2002 (2002-07-01), JP, pages 458 - 464, ISSN: 0004398636 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021018316A (en) * 2019-07-19 2021-02-15 株式会社フォーサイト Learning system, learning class providing method and program
JP7492294B2 (en) 2019-10-18 2024-05-29 株式会社フォーサイト Learning system, learning lecture delivery method, and program
CN112347914A (en) * 2020-11-05 2021-02-09 中国平安人寿保险股份有限公司 Teaching management method and device, terminal equipment and storage medium
JP2022109025A (en) * 2021-01-14 2022-07-27 Necパーソナルコンピュータ株式会社 On-line lesson system, on-line lesson method, and program
JP7266622B2 (en) 2021-01-14 2023-04-28 Necパーソナルコンピュータ株式会社 Online class system, online class method and program

Also Published As

Publication number Publication date
JP6819194B2 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
Varona et al. Hands-free vision-based interface for computer accessibility
JP6859640B2 (en) Information processing equipment, evaluation systems and programs
WO2022120255A1 (en) Virtual information board for collaborative information sharing
CN106462242A (en) User interface control using gaze tracking
CN110674664A (en) Visual attention recognition method and system, storage medium and processor
JP6819194B2 (en) Information processing systems, information processing equipment and programs
Chakraborty et al. A human-robot interaction system calculating visual focus of human’s attention level
CN109685007B (en) Eye habit early warning method, user equipment, storage medium and device
Nguyen et al. Online feedback system for public speakers
JP4704174B2 (en) Status identification device, program, and method
CN110968239B (en) Control method, device and equipment for display object and storage medium
Lakshmiprabha et al. [Poster] An augmented and virtual reality system for training autistic children
Frank et al. Engagement detection in meetings
KR102515987B1 (en) Apparatus and method for detecting learners&#39; participation in an untact online class
CN112866808A (en) Video processing method and device, electronic equipment and storage medium
Chukoskie et al. Quantifying gaze behavior during real-world interactions using automated object, face, and fixation detection
WO2023041940A1 (en) Gaze-based behavioural monitoring system
JP6859641B2 (en) Evaluation system, information processing equipment and programs
JP6855737B2 (en) Information processing equipment, evaluation systems and programs
CN110957021A (en) Logic thinking ability training method and system for autism patient
WO2022070747A1 (en) Assist system, assist method, and assist program
Martınez-Ruiz et al. Eliciting user-defined zenithal gestures for privacy preferences
JP2018049480A (en) Information processing apparatus, evaluation system, and program
CN115019570A (en) Intelligent teaching system
CN113554046A (en) Image processing method and system, storage medium and computing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R150 Certificate of patent or registration of utility model

Ref document number: 6819194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees