JP2021173935A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2021173935A
JP2021173935A JP2020079581A JP2020079581A JP2021173935A JP 2021173935 A JP2021173935 A JP 2021173935A JP 2020079581 A JP2020079581 A JP 2020079581A JP 2020079581 A JP2020079581 A JP 2020079581A JP 2021173935 A JP2021173935 A JP 2021173935A
Authority
JP
Japan
Prior art keywords
information processing
activity
student
unit
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020079581A
Other languages
Japanese (ja)
Inventor
航 納谷
Wataru Naya
航一 平井
Koichi Hirai
浩樹 浅木森
Hiroki Asakimori
駿 吉見
Shun Yoshimi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020079581A priority Critical patent/JP2021173935A/en
Publication of JP2021173935A publication Critical patent/JP2021173935A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an information processing system that can detect the activity of participants for each of a plurality of groups.SOLUTION: An information processing system is an information processing system comprising an information processing apparatus 1 and a terminal 2 communicably connected with the information processing apparatus, and comprises an activity detection unit that detects the activity of participants for each of a plurality of groups based on at least either one of images of the participants belonging to the groups or voices uttered by the participants.SELECTED DRAWING: Figure 2

Description

本願は、情報処理システム、情報処理方法及びプログラムに関する。 The present application relates to information processing systems, information processing methods and programs.

従来、教室で授業を受講する学生等の受講者の挙手を検出し、受講者の活性度を検出する情報処理システムが知られている(例えば、特許文献1参照)。 Conventionally, there is known an information processing system that detects the raising hand of a student such as a student who takes a lesson in a classroom and detects the activity of the student (see, for example, Patent Document 1).

また、カメラで撮影した受講者の画像に基づき、受講者の習熟度を判定する情報処理システムが開示されている(例えば、特許文献2参照)。 Further, an information processing system for determining a student's proficiency level based on a student's image taken by a camera is disclosed (see, for example, Patent Document 2).

しかしながら従来の情報処理システムでは、受講者が複数のグループを構成する場合に、複数のグループごとで受講者の活性度を検出できない場合がある。 However, in a conventional information processing system, when a student constitutes a plurality of groups, the activity level of the student may not be detected for each of the plurality of groups.

本発明は、複数のグループごとで受講者の活性度を検出することを課題とする。 An object of the present invention is to detect the activity of a student in each of a plurality of groups.

本発明の一態様に係る情報処理システムは、情報処理装置と、前記情報処理装置に通信可能に接続された端末と、を備える情報処理システムであって、グループに属する受講者の画像、又は前記受講者が発する音声の少なくとも一方に基づき、複数のグループごとで前記受講者の活性度を検出する活性度検出部を備える。 The information processing system according to one aspect of the present invention is an information processing system including an information processing device and a terminal communicably connected to the information processing device, and is an image of a student belonging to a group or the above-mentioned. An activity detection unit for detecting the activity of the student in each of a plurality of groups based on at least one of the voices emitted by the student is provided.

本発明によれば、複数のグループごとで受講者の活性度を検出できる。 According to the present invention, the activity of students can be detected in each of a plurality of groups.

第1実施形態に係る授業支援システムの構成例の図である。It is a figure of the configuration example of the lesson support system which concerns on 1st Embodiment. 第1実施形態に係る授業支援システムの配置例の図である。It is a figure of the arrangement example of the lesson support system which concerns on 1st Embodiment. 実施形態に係るウェブサーバのハードウェア構成例のブロック図である。It is a block diagram of the hardware configuration example of the web server which concerns on embodiment. 実施形態に係るスマートフォンのハードウェア構成例のブロック図である。It is a block diagram of the hardware configuration example of the smartphone which concerns on embodiment. 実施形態に係る全天球カメラのハードウェア構成例のブロック図である。It is a block diagram of the hardware configuration example of the spherical camera which concerns on embodiment. 第1実施形態に係る授業支援システムの機能構成例のブロック図である。It is a block diagram of the functional configuration example of the lesson support system which concerns on 1st Embodiment. スマートフォンの表示画面例を示す図であり、(a)はUI画面の図、(b)は活性度の検出結果画面の図である。It is a figure which shows the display screen example of a smartphone, (a) is a figure of a UI screen, (b) is a figure of the activity detection result screen. 第1実施形態に係る授業支援システムの動作例の図である。It is a figure of the operation example of the lesson support system which concerns on 1st Embodiment. 第2実施形態に係る授業支援システムの構成例の図である。It is a figure of the configuration example of the lesson support system which concerns on 2nd Embodiment. 第2実施形態に係る授業支援システムの機能構成例のブロック図である。It is a block diagram of the functional configuration example of the lesson support system which concerns on 2nd Embodiment. 第3実施形態に係る授業支援システムの機能構成例のブロック図である。It is a block diagram of the functional configuration example of the lesson support system which concerns on 3rd Embodiment.

以下、図面を参照して発明を実施するための形態について説明する。各図面において、同一の構成部分には同一符号を付し、重複した説明を適宜省略する。また以下に示す実施形態は、本発明の技術思想を具体化するための情報処理システムを例示するものであって、本発明を以下に示す実施形態に限定するものではない。 Hereinafter, modes for carrying out the invention will be described with reference to the drawings. In each drawing, the same components are designated by the same reference numerals, and duplicate description will be omitted as appropriate. Further, the embodiments shown below exemplify an information processing system for embodying the technical idea of the present invention, and the present invention is not limited to the embodiments shown below.

実施形態に係る情報処理システムは、情報処理装置と、情報処理装置に通信可能に接続された端末とを備え、グループに属する受講者の画像、又は受講者が発する音声の少なくとも一方に基づき、複数のグループごとで受講者の活性度を検出する。 The information processing system according to the embodiment includes an information processing device and a terminal communicatively connected to the information processing device, and is based on at least one of an image of a student belonging to a group or a voice emitted by the student. Detect the activity of students in each group.

ここで活性度とは、受講者の活性化の度合いを示す指標をいう。例えば、活発に議論が行われて受講者の挙手数や受講者による音声の発声数が多くなるほど、活性度は高くなる。またグループとは、1以上の受講者により構成される集団をいう。さらに受講者とは、説明を受ける者をいう。授業又は講義であれば教師や大学教授等が行う説明を受ける学生が受講者に該当し、セミナーであれば講師が行う説明を受けるセミナー参加者が受講者に該当する。商品説明では商品説明者が行う説明を受ける顧客等が受講者に該当し、会議であればプレゼンテータの説明を受ける者が受講者に該当する。 Here, the activity level is an index showing the degree of activity of the student. For example, the higher the number of hands raised by the students and the number of voices uttered by the students, the higher the activity. A group is a group composed of one or more students. Furthermore, a student is a person who receives an explanation. In the case of a class or lecture, the student who receives the explanation given by the teacher or university professor corresponds to the student, and in the case of the seminar, the seminar participant who receives the explanation given by the lecturer corresponds to the student. In the product description, the customer who receives the explanation given by the product explainer corresponds to the student, and in the case of a meeting, the person who receives the explanation of the presenter corresponds to the student.

以下では、教師が学校の教室で学生(受講者の一例)に対して行う授業を支援する授業支援システムを情報処理システムの一例として、実施形態を説明する。実施形態では、学生が構成する複数のグループごとで学生の活性度を検出し、教師が備える端末に活性度の検出結果を表示する。これにより教師は端末を介して複数のグループごとでの学生の活性度を認識できる。 In the following, an embodiment will be described using a lesson support system that supports a lesson that a teacher gives to a student (an example of a student) in a school classroom as an example of an information processing system. In the embodiment, the activity of the student is detected for each of a plurality of groups composed of the students, and the detection result of the activity is displayed on the terminal provided by the teacher. This allows the teacher to recognize the student activity in multiple groups via the terminal.

[第1実施形態]
まず、第1実施形態に係る授業支援システムについて説明する。
[First Embodiment]
First, the lesson support system according to the first embodiment will be described.

<授業支援システム100の構成例>
図1は、本実施形態に係る授業支援システム100の構成の一例を示す図である。図1に示すように、授業支援システム100は、ウェブサーバ1と、スマートフォン2と、3つの全天球カメラ3a,3b,3cとを備えている。これらは、それぞれ無線による通信の手段又は有線による通信の手段を備え、LAN(Local Area Network)やインターネット等のネットワークNを介して相互に通信可能に接続されている。
<Structure example of class support system 100>
FIG. 1 is a diagram showing an example of the configuration of the lesson support system 100 according to the present embodiment. As shown in FIG. 1, the lesson support system 100 includes a web server 1, a smartphone 2, and three spherical cameras 3a, 3b, and 3c. Each of these is provided with a means of wireless communication or a means of wired communication, and is connected to each other so as to be able to communicate with each other via a network N such as a LAN (Local Area Network) or the Internet.

ウェブサーバ1は、HTTP(Hypertext Transfer Protocol)に従って、クライアントソフトウェアであるウェブブラウザに対し、HTML(HyperText Markup Language)や画像等のオブジェクトの表示を提供するサービスを行うサーバコンピュータであり、情報処理装置の一例である。 The web server 1 is a server computer that provides a service for displaying objects such as HTML (HyperText Markup Language) and images to a web browser, which is client software, in accordance with HTTP (Hypertext Transfer Protocol). This is an example.

但し、情報処理装置はウェブサーバに限定されるものではなく、ネットワークを介して通信可能であればPC(Personal Computer)等であってもよい。但し、情報処理装置としてウェブサーバを用いると、HTML(HyperText Markup Language)や画像等のオブジェクトを、ネットワークNに接続されている複数の端末の画面に並行して表示させることができるため、好適である。 However, the information processing device is not limited to the web server, and may be a PC (Personal Computer) or the like as long as it can communicate via the network. However, using a web server as an information processing device is preferable because objects such as HTML (HyperText Markup Language) and images can be displayed in parallel on the screens of a plurality of terminals connected to the network N. be.

情報処理装置の台数は1台に限定されるものではなく、複数の情報処理装置が授業支援システム100に接続されてもよい。また後述する情報処理装置の機能は、1台の情報処理装置による処理で実現してもよいし、複数の情報処理装置による分散処理で実現してもよい。 The number of information processing devices is not limited to one, and a plurality of information processing devices may be connected to the lesson support system 100. Further, the function of the information processing device described later may be realized by processing by one information processing device, or may be realized by distributed processing by a plurality of information processing devices.

スマートフォン2は、ウェブサーバ1に通信可能に接続された端末である。スマートフォン2には活性度の検出結果を表示する表示部としての画面が設けられている。教師は、授業中にスマートフォン2の画面を視認可能な状態でスマートフォン2を保持しながら授業を行うことができる。 The smartphone 2 is a terminal that is communicably connected to the web server 1. The smartphone 2 is provided with a screen as a display unit for displaying the activity detection result. The teacher can give a lesson while holding the smartphone 2 in a state where the screen of the smartphone 2 can be visually recognized during the lesson.

但し、端末はスマートフォンに限定されるものではなく、タブレットやPC(Personal Computer)、携帯電話等であってもよい。また端末の台数は1台に限定されるものではなく、複数の端末が授業支援システム100に接続されてもよい。なお本実施形態では授業支援システムであるので教師が端末を利用するが、これに限定されるものではなく、説明を行う者が端末を利用できる。 However, the terminal is not limited to a smartphone, and may be a tablet, a PC (Personal Computer), a mobile phone, or the like. Further, the number of terminals is not limited to one, and a plurality of terminals may be connected to the lesson support system 100. In this embodiment, since it is a lesson support system, the teacher uses the terminal, but the present invention is not limited to this, and the person who gives the explanation can use the terminal.

全天球カメラ3a,3b,3cは、学生の画像を複数のグループごとで撮影する撮影部であり、上下左右全方位の360度の視野で静止画像又はストリーミング動画像等の画像を撮影できる。 The spherical cameras 3a, 3b, and 3c are photographing units that capture images of students in groups of a plurality of groups, and can capture images such as still images or streaming moving images in a 360-degree field of view in all directions of up, down, left, and right.

本実施形態では、授業を受講する学生は3つのグループに区分けされており、全天球カメラ3a,3b,3cは3つのグループのそれぞれに1台ずつ設けられている。全天球カメラ3a,3b,3cはそれぞれ各グループに属する1人以上の学生を撮影できる。 In this embodiment, the students who take the lesson are divided into three groups, and one spherical camera 3a, 3b, and 3c is provided for each of the three groups. The spherical cameras 3a, 3b, and 3c can photograph one or more students belonging to each group.

撮影部の台数は3台に限定されるものではなく、増減があってもよい。また撮影部は全天球カメラに限定されるものではなく、複数のグループごとで学生の画像を撮影できればよい。但し全天球カメラを用いると、グループに属する学生の画像を広い視野で撮影でき、撮影部に対する学生の位置が制限されたり、1つのグループで複数のカメラが必要になったりすることを回避できるため好適である。なお、以降では説明の便宜のため、全天球カメラ3a,3b,3cを特に区別しないときは全天球カメラ3と表記する。 The number of shooting units is not limited to three, and may be increased or decreased. In addition, the photographing unit is not limited to the spherical camera, and it is sufficient that the images of the students can be photographed by a plurality of groups. However, if a spherical camera is used, images of students belonging to a group can be taken in a wide field of view, and it is possible to avoid limiting the position of students with respect to the shooting section and requiring multiple cameras in one group. Therefore, it is suitable. In the following, for convenience of explanation, the spherical cameras 3a, 3b, and 3c will be referred to as the spherical camera 3 when not particularly distinguished.

授業支援システム100には、図1に示す構成以外に、通信機能を備える他の構成が接続されてもよい。このような他の構成には、PJ(Projector:プロジェクタ)、IWB(Interactive White Board:相互通信が可能な電子式の黒板機能を有する白板)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、自動車(Connected Car)、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、デジタルカメラ、ウェアラブルPCまたはデスクトップPC等が挙げられる。 In addition to the configuration shown in FIG. 1, another configuration having a communication function may be connected to the lesson support system 100. Other configurations such as this include PJs (Projectors), IWBs (Interactive White Boards), output devices such as digital signage, and HUDs (Head Up Display). Devices, industrial machines, imaging devices, sound collectors, medical devices, network home appliances, automobiles (Connected Cars), notebook PCs (Personal Computers), mobile phones, smartphones, tablet terminals, game machines, PDA (Personal Digital Assistant), digital Examples include a camera, a wearable PC, a desktop PC, and the like.

<授業支援システム100の配置例>
次に、授業支援システム100の配置について説明する。図2は、授業支援システム100の配置の一例を示す図である。図2は、教室10に授業支援システム100を配置し、授業支援システム100を使用して教師20が学生30に対して授業を行う様子を示している。
<Example of placement of class support system 100>
Next, the arrangement of the lesson support system 100 will be described. FIG. 2 is a diagram showing an example of the arrangement of the lesson support system 100. FIG. 2 shows a state in which a lesson support system 100 is arranged in a classroom 10 and a teacher 20 gives a lesson to a student 30 using the lesson support system 100.

ウェブサーバ1は、教室10の外に配置されている。但し、教室10内にウェブサーバ1を配置してもよい。また図2では教室10の外側であって教室10の近傍にウェブサーバ1が配置されているが、教室10からより離れた遠隔地にウェブサーバ1が設置されてもよい。 The web server 1 is located outside the classroom 10. However, the web server 1 may be arranged in the classroom 10. Further, in FIG. 2, the web server 1 is arranged outside the classroom 10 and in the vicinity of the classroom 10, but the web server 1 may be installed in a remote place farther from the classroom 10.

教師20は、スマートフォン2の画面を視認可能にスマートフォン2を保持している。但し、必ずしもスマートフォン2を保持する必要はなく、教師20はスマートフォン2の画面を視認可能な状態で、机の上等にスマートフォン2を載置してもよい。 The teacher 20 holds the smartphone 2 so that the screen of the smartphone 2 can be visually recognized. However, it is not always necessary to hold the smartphone 2, and the teacher 20 may place the smartphone 2 on a desk or the like while the screen of the smartphone 2 can be visually recognized.

教室10内には、机4a,4b,4c(以下、区別しない場合は机4と表記する)が設置されている。これらの机4のそれぞれの周囲に、複数の学生30が着座している。図2の例では、1つの机の周囲に6人の学生30が着座し、6人の学生で1つのグループを構成している。つまり机4aの周囲に着座する6人の学生でグループ5aを構成し、机4bの周囲に着座する6人の学生でグループ5bを構成し、机4cの周囲に着座する6人の学生でグループ5cを構成している。 Desks 4a, 4b, and 4c (hereinafter referred to as desks 4 when not distinguished) are installed in the classroom 10. A plurality of students 30 are seated around each of these desks 4. In the example of FIG. 2, six students 30 are seated around one desk, and six students form one group. That is, 6 students sitting around the desk 4a form a group 5a, 6 students sitting around the desk 4b form a group 5b, and 6 students sitting around the desk 4c form a group. It constitutes 5c.

グループを構成する学生の人数は、6人に限定されるものではなく増減があってもよい。またグループを構成する人数はグループごとで同じであっても異なっていてもよいし、グループの数も3つに限定されず増減があってもよい。さらに教室10内で机4が配置される位置に特に制限はなく、机4a,4b,4cのそれぞれの位置が移動により変更されてもよい。 The number of students in the group is not limited to 6 and may increase or decrease. The number of people forming a group may be the same or different for each group, and the number of groups is not limited to three and may increase or decrease. Further, the position where the desk 4 is arranged in the classroom 10 is not particularly limited, and the positions of the desks 4a, 4b, and 4c may be changed by movement.

机4aの上には、全天球カメラ3aがグループ5aを構成する6人の学生を撮影可能に設置されている。同様に、机4bの上には、全天球カメラ3bがグループ5bを構成する6人の学生を撮影可能に設置され、机4cの上には、全天球カメラ3cがグループ5cを構成する6人の学生を撮影可能に設置されている。 On the desk 4a, a spherical camera 3a is installed so as to be able to photograph six students forming the group 5a. Similarly, on the desk 4b, the spherical camera 3b is installed so as to be able to photograph the six students forming the group 5b, and on the desk 4c, the spherical camera 3c constitutes the group 5c. It is set up so that 6 students can be photographed.

全天球カメラ3a,3b,3cによる撮影画像はウェブサーバ1に送信され、ウェブサーバ1による処理でグループ5a,5b,5cのそれぞれの活性度が検出されるようになっている。全天球カメラ3による撮影は、6人の学生のそれぞれの少なくとも体の一部が撮影されるようになっていればよい。また机4上での全天球カメラ3の位置は移動により変更されてもよい。但し、活性度を検出するためには、6人の学生全ての顔が画像内に含まれるような机4上の位置に全天球カメラ3を設置し、また全天球カメラ3の光学的な撮影倍率を設定することが好ましい。本実施形態では、後述するように学生の挙手数を活性度として検出するため、全天球カメラ3は学生の腕の状態が判別できるように構成され、配置されている。 The images captured by the spherical cameras 3a, 3b, and 3c are transmitted to the web server 1, and the activity levels of the groups 5a, 5b, and 5c are detected by the processing by the web server 1. For shooting with the spherical camera 3, it is sufficient that at least a part of the body of each of the six students is shot. Further, the position of the spherical camera 3 on the desk 4 may be changed by moving. However, in order to detect the activity, the omnidirectional camera 3 is installed at a position on the desk 4 so that the faces of all six students are included in the image, and the omnidirectional camera 3 is optically used. It is preferable to set an appropriate shooting magnification. In the present embodiment, since the number of raised hands of the student is detected as the activity level as described later, the spherical camera 3 is configured and arranged so that the state of the student's arm can be determined.

また全天球カメラ3はマイクを内蔵しているため、集音した周囲の音のデータをウェブサーバ1に送信できる。ウェブサーバ1は受信した音のデータに含まれる学生30が発した音声データに基づき、学生30による発声の回数や発声した音量(声の大きさ)の総和等を活性度として検出することもできる。 Further, since the spherical camera 3 has a built-in microphone, it is possible to transmit the collected ambient sound data to the web server 1. The web server 1 can also detect the number of utterances by the student 30 and the total volume (loudness of voice) uttered by the student 30 as the activity level based on the voice data uttered by the student 30 included in the received sound data. ..

全天球カメラ3はグループごとに設けられているため、授業支援システム100はグループに属する学生の画像と学生の発した音声データをグループごとに取得し、取得した画像と音声データに基づいて、学生の活性度をグループごとで検出できる。換言すると、授業支援システム100は、グループに属する学生の画像又は学生が発する音声の少なくとも一方に基づき、学生の活性度をグループごとで検出できる。 Since the spherical camera 3 is provided for each group, the lesson support system 100 acquires images of students belonging to the group and audio data emitted by the students for each group, and based on the acquired images and audio data, Student activity can be detected in groups. In other words, the lesson support system 100 can detect the activity of the students for each group based on at least one of the images of the students belonging to the group and the voices emitted by the students.

<ウェブサーバ1のハードウェア構成例>
次にウェブサーバ1のハードウェア構成について説明する。図3は、ウェブサーバ1のハードウェア構成の一例を示すブロック図である。
<Hardware configuration example of Web server 1>
Next, the hardware configuration of the web server 1 will be described. FIG. 3 is a block diagram showing an example of the hardware configuration of the web server 1.

図3に示すように、ウェブサーバ1は、コンピュータによって構築されており、CPU(Central Processing Unit)501と、ROM(Read Only Memory)502と、RAM(Random Access Memory)503と、HD(Hard Disdk)504と、HDD(Hard Disk Drive)コントローラ505と、ディスプレイ506と、外部機器接続I/F(Interface)508とを備えている。またネットワークI/F509と、データバス510と、キーボード511と、ポインティングデバイス512と、DVD−RW(Digital Versatile Disk Rewritable)ドライブ514と、メディアI/F516とを備えている。 As shown in FIG. 3, the web server 1 is constructed by a computer, and has a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, and an HD (Hard Disdk). ) 504, an HDD (Hard Disk Drive) controller 505, a display 506, and an external device connection I / F (Interface) 508. It also includes a network I / F 509, a data bus 510, a keyboard 511, a pointing device 512, a DVD-RW (Digital Versatile Disk Rewritable) drive 514, and a media I / F 516.

これらのうち、CPU501は、ウェブサーバ1全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。 Of these, the CPU 501 controls the operation of the entire web server 1. The ROM 502 stores a program used to drive the CPU 501 such as an IPL. The RAM 503 is used as a work area of the CPU 501. The HD504 stores various data such as programs.

HDDコントローラ505は、CPU501の制御に従ってHD504に対する各種データの読み出し又は書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。 The HDD controller 505 controls reading or writing of various data to the HD 504 according to the control of the CPU 501. The display 506 displays various information such as cursors, menus, windows, characters, or images. The external device connection I / F 508 is an interface for connecting various external devices. The external device in this case is, for example, a USB (Universal Serial Bus) memory, a printer, or the like.

ネットワークI/F509は、ネットワークNを利用してデータ通信をするためのインターフェースである。バスライン510は、図3に示すCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The network I / F 509 is an interface for data communication using the network N. The bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501 shown in FIG.

また、キーボード511は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。 Further, the keyboard 511 is a kind of input means including a plurality of keys for inputting characters, numerical values, various instructions and the like. The pointing device 512 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like.

DVD−RWドライブ514は、着脱可能な記録媒体の一例としてのDVD−RW513に対する各種データの読み出し又は書き込みを制御する。なお、DVD−RWに限らず、DVD−R等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。 The DVD-RW drive 514 controls reading or writing of various data to the DVD-RW 513 as an example of the removable recording medium. In addition, it is not limited to DVD-RW, and may be DVD-R or the like. The media I / F 516 controls reading or writing (storage) of data to a recording medium 515 such as a flash memory.

<スマートフォン2のハードウェア構成例>
次にスマートフォン2のハードウェア構成について説明する。図4は、スマートフォン2のハードウェア構成の一例を示すブロック図である。
<Hardware configuration example of smartphone 2>
Next, the hardware configuration of the smartphone 2 will be described. FIG. 4 is a block diagram showing an example of the hardware configuration of the smartphone 2.

図4に示すように、スマートフォン2は、CPU401と、ROM402と、RAM403と、EEPROM404と、CMOSセンサ405と、撮像素子I/F406と、加速度・方位センサ407と、メディアI/F409と、GPS受信部411とを備えている。 As shown in FIG. 4, the smartphone 2 receives CPU 401, ROM 402, RAM 403, EEPROM 404, CMOS sensor 405, image sensor I / F 406, acceleration / orientation sensor 407, media I / F 409, and GPS reception. It is provided with a unit 411.

これらのうち、CPU401は、スマートフォン2全体の動作を制御する。ROM402は、CPU401やIPL等のCPU401の駆動に用いられるプログラムを記憶する。RAM403は、CPU401のワークエリアとして使用される。EEPROM404は、CPU401の制御にしたがって、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。 Of these, the CPU 401 controls the operation of the entire smartphone 2. The ROM 402 stores a program used to drive the CPU 401 such as the CPU 401 and the IPL. The RAM 403 is used as a work area for the CPU 401. The EEPROM 404 reads or writes various data such as a smartphone program under the control of the CPU 401.

CMOS(Complementary Metal Oxide Semiconductor)センサ405は、CPU401の制御に従って被写体(主に自画像)を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、CMOSセンサではなく、CCD(Charge Coupled Device)センサ等の撮像手段であってもよい。撮像素子I/F406は、CMOSセンサ405の駆動を制御する回路である。加速度・方位センサ407は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F409は、フラッシュメモリ等の記録メディア408に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部411は、GPS衛星からGPS信号を受信する。 The CMOS (Complementary Metal Oxide Semiconductor) sensor 405 is a kind of built-in imaging means for acquiring image data by imaging a subject (mainly a self-portrait) under the control of the CPU 401. Instead of a CMOS sensor, it may be an imaging means such as a CCD (Charge Coupled Device) sensor. The image sensor I / F 406 is a circuit that controls the drive of the CMOS sensor 405. The acceleration / orientation sensor 407 is a variety of sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor that detect the geomagnetism. The media I / F 409 controls reading or writing (storage) of data to a recording medium 408 such as a flash memory. The GPS receiving unit 411 receives GPS signals from GPS satellites.

また、スマートフォン2は、遠距離通信回路412と、CMOSセンサ413と、撮像素子I/F414と、マイク415と、スピーカ416と、音入出力I/F417と、ディスプレイ418と、外部機器接続I/F419と、近距離通信回路420と、近距離通信回路420のアンテナ420aと、タッチパネル421とを備えている。 Further, the smartphone 2 includes a long-distance communication circuit 412, a CMOS sensor 413, an image sensor I / F 414, a microphone 415, a speaker 416, a sound input / output I / F 417, a display 418, and an external device connection I /. It includes an F419, a short-range communication circuit 420, an antenna 420a of the short-range communication circuit 420, and a touch panel 421.

これらのうち、遠距離通信回路412は、ネットワークNを介して、他の機器と通信する回路である。CMOSセンサ413は、CPU401の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。 Of these, the telecommunications circuit 412 is a circuit that communicates with other devices via the network N. The CMOS sensor 413 is a kind of built-in imaging means for capturing an image of a subject and obtaining image data under the control of the CPU 401.

撮像素子I/F414は、CMOSセンサ413の駆動を制御する回路である。マイク415は、音を電気信号に変える内蔵型の回路である。スピーカ416は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F417は、CPU401の制御に従ってマイク415及びスピーカ416との間で音信号の入出力を処理する回路である。 The image sensor I / F 414 is a circuit that controls the drive of the CMOS sensor 413. The microphone 415 is a built-in circuit that converts sound into an electric signal. The speaker 416 is a built-in circuit that converts an electric signal into physical vibration to produce sounds such as music and voice. The sound input / output I / F 417 is a circuit that processes sound signal input / output between the microphone 415 and the speaker 416 under the control of the CPU 401.

ディスプレイ418は、被写体の画像や各種アイコン等を表示する液晶や有機EL(Electro Luminescence)などの表示手段の一種である。外部機器接続I/F419は、各種の外部機器を接続するためのインターフェースである。近距離通信回路420は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。タッチパネル421は、利用者がディスプレイ418を押下することで、スマートフォン2を操作する入力手段の一種である。 The display 418 is a kind of display means such as a liquid crystal display or an organic EL (Electro Luminescence) for displaying an image of a subject, various icons, and the like. The external device connection I / F419 is an interface for connecting various external devices. The short-range communication circuit 420 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark). The touch panel 421 is a kind of input means for operating the smartphone 2 by the user pressing the display 418.

<全天球カメラ3のハードウェア構成例>
次に全天球カメラ3のハードウェア構成について説明する。図5は、全天球カメラ3のハードウェア構成の一例を示すブロック図である。
<Hardware configuration example of spherical camera 3>
Next, the hardware configuration of the spherical camera 3 will be described. FIG. 5 is a block diagram showing an example of the hardware configuration of the spherical camera 3.

なお以下では、全天球カメラ3は、2つの撮像素子を使用した全天球(全方位)カメラとするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮影専用のカメラである必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に全天球カメラ3と同じ機能を有するようにしてもよい。 In the following, the omnidirectional camera 3 is an omnidirectional (omnidirectional) camera using two image pickup elements, but the number of image pickup elements may be two or more. In addition, it does not necessarily have to be a camera dedicated to omnidirectional shooting, and by attaching a retrofitted omnidirectional imaging unit to a normal digital camera, smartphone, etc., it has substantially the same function as the omnidirectional camera 3. You may.

図5に示すように、全天球カメラ3は、撮像ユニット601と、画像処理ユニット604と、撮像制御ユニット605と、マイク608と、音処理ユニット609と、CPU611と、ROM612とを備えている。またSRAM(Static Random Access Memory)613と、DRAM(Dynamic Random Access Memory)614と、操作部615と、外部機器接続I/F616と、遠距離通信回路617と、アンテナ617aと、加速度・方位センサ618と、ジャイロセンサ619と、加速度センサ620と、Micro USB用の凹状の端子621とを含んで構成されている。 As shown in FIG. 5, the spherical camera 3 includes an image pickup unit 601, an image processing unit 604, an image pickup control unit 605, a microphone 608, a sound processing unit 609, a CPU 611, and a ROM 612. .. In addition, SRAM (Static Random Access Memory) 613, DRAM (Dynamic Random Access Memory) 614, operation unit 615, external device connection I / F 616, long-distance communication circuit 617, antenna 617a, and acceleration / orientation sensor 618. A gyro sensor 619, an acceleration sensor 620, and a concave terminal 621 for Micro USB are included.

これらのうち、撮像ユニット601は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)602a,602bと、各広角レンズに対応させて設けられている2つの撮像素子603a,603bとを備えている。 Of these, the image sensor 601 is a wide-angle lens (so-called fisheye lens) 602a, 602b each having an angle of view of 180 ° or more for forming a hemispherical image, and two provided corresponding to each wide-angle lens. It includes image pickup elements 603a and 603b.

撮像素子603a,603bは、魚眼レンズ602a,602bによる光学像を電気信号の画像データに変換して出力するCMOSセンサやCCDセンサ等の画像センサと、この画像センサの水平又は垂直同期信号や画素クロック等を生成するタイミング生成回路と、この撮像素子の動作に必要な種々のコマンドやパラメータ等が設定されるレジスタ群等を備えている。 The image pickup elements 603a and 603b include an image sensor such as a CMOS sensor or a CCD sensor that converts an optical image obtained by the fisheye lenses 602a and 602b into image data of an electric signal and outputs the image, and a horizontal or vertical synchronization signal or pixel clock of the image sensor. It is provided with a timing generation circuit for generating the image sensor and a group of registers in which various commands and parameters necessary for the operation of the image sensor are set.

撮像ユニット601の撮像素子603a,603bは、それぞれ画像処理ユニット604とパラレルI/Fバスで接続されている。一方、撮像ユニット601の撮像素子603a,603bは、撮像制御ユニット605とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット604、撮像制御ユニット605及び音処理ユニット609は、バス610を介してCPU611と接続されている。さらに、バス610には、ROM612、SRAM613、DRAM614、操作部615、外部機器接続I/F(Interface)616、遠距離通信回路617、及び加速度・方位センサ618等も接続されている。 The image sensors 603a and 603b of the image pickup unit 601 are connected to the image processing unit 604 by a parallel I / F bus, respectively. On the other hand, the image pickup elements 603a and 603b of the image pickup unit 601 are connected to the image pickup control unit 605 by a serial I / F bus (I2C bus or the like). The image processing unit 604, the image pickup control unit 605, and the sound processing unit 609 are connected to the CPU 611 via the bus 610. Further, ROM 612, SRAM 613, DRAM 614, an operation unit 615, an external device connection I / F (Interface) 616, a telecommunications circuit 617, an acceleration / direction sensor 618, and the like are also connected to the bus 610.

画像処理ユニット604は、撮像素子603a,603bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、正距円筒射影画像のデータを作成する。 The image processing unit 604 takes in the image data output from the image pickup elements 603a and 603b through the parallel I / F bus, performs predetermined processing on each image data, and then synthesizes these image data. , Create data for a regular distance cylindrical projected image.

撮像制御ユニット605は、一般に撮像制御ユニット605をマスタデバイス、撮像素子603a,603bをスレーブデバイスとして、I2Cバスを利用して、撮像素子603a,603bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU611から受け取る。また、撮像制御ユニット605は、同じくI2Cバスを利用して、撮像素子603a,603bのレジスタ群のステータスデータ等を取り込み、CPU611に送る。 The image pickup control unit 605 generally uses the image pickup control unit 605 as a master device and the image pickup elements 603a and 603b as slave devices, and sets commands and the like in the register group of the image pickup elements 603a and 603b by using the I2C bus. Necessary commands and the like are received from the CPU 611. Further, the image pickup control unit 605 also uses the I2C bus to take in the status data and the like of the register group of the image pickup elements 603a and 603b and send them to the CPU 611.

また、撮像制御ユニット605は、操作部615のシャッターボタンが押下されたタイミングで、撮像素子603a,603bに画像データの出力を指示する。全天球カメラ3によっては、ディスプレイ(例えば、スマートフォンのディスプレイ)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子603a,603bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 Further, the image pickup control unit 605 instructs the image pickup devices 603a and 603b to output image data at the timing when the shutter button of the operation unit 615 is pressed. Some spherical cameras 3 may have a preview display function on a display (for example, a display of a smartphone) or a function corresponding to a moving image display. In this case, the image data is continuously output from the image sensors 603a and 603b at a predetermined frame rate (frames / minute).

また、撮像制御ユニット605は、後述するように、CPU611と協働して撮像素子603a,603bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、全天球カメラ3にはディスプレイが設けられていないが、表示手段を設けてもよい。 Further, as will be described later, the image pickup control unit 605 also functions as a synchronization control means for synchronizing the output timings of the image data of the image pickup elements 603a and 603b in cooperation with the CPU 611. In the present embodiment, the spherical camera 3 is not provided with a display, but a display means may be provided.

マイク608は、音を音(信号)データに変換する。音処理ユニット609は、マイク608から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 The microphone 608 converts sound into sound (signal) data. The sound processing unit 609 takes in the sound data output from the microphone 608 through the I / F bus, and performs predetermined processing on the sound data.

CPU611は、全天球カメラ3の全体の動作を制御すると共に必要な処理を実行する。ROM612は、CPU611のための種々のプログラムを記憶している。SRAM613及びDRAM614はワークメモリであり、CPU611で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM614は、画像処理ユニット604での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。 The CPU 611 controls the overall operation of the spherical camera 3 and executes necessary processing. The ROM 612 stores various programs for the CPU 611. The SRAM 613 and the DRAM 614 are work memories, and store programs executed by the CPU 611, data in the middle of processing, and the like. In particular, the DRAM 614 stores image data during processing by the image processing unit 604 and data of the processed equirectangular projection image.

操作部615は、シャッターボタン615aなどの操作ボタンの総称である。ユーザは操作部615を操作することで、種々の撮影モードや撮影条件などを入力する。なお、このユーザは、授業支援システム100を管理する管理者、又は授業支援システム100を使用する教師又は学生等の使用車である。 The operation unit 615 is a general term for operation buttons such as the shutter button 615a. By operating the operation unit 615, the user inputs various shooting modes, shooting conditions, and the like. This user is a vehicle used by an administrator who manages the lesson support system 100, or a teacher or student who uses the lesson support system 100.

外部機器接続I/F616は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USBメモリやPC等である。DRAM614に記憶された正距円筒射影画像のデータは、このネットワークI/F616を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F616を介してスマートフォン等の外部端末(装置)に送信されたりする。 The external device connection I / F 616 is an interface for connecting various external devices. The external device in this case is, for example, a USB memory, a PC, or the like. The equirectangular projection image data stored in the DRAM 614 is recorded on an external medium via the network I / F 616, or an external terminal (device) such as a smartphone via the network I / F 616 as needed. It is sent to.

遠距離通信回路617は、全天球カメラ3に設けられたアンテナ617aを介して、Wi−Fi、NFC(Near Field Communication)やBluetooth(登録商標)等の近距離無線通信技術によって、スマートフォン等の外部端末(装置)と通信を行う。この遠距離通信回路617によっても、正距円筒射影画像のデータをスマートフォン等の外部端末(装置)に送信することができる。 The long-range communication circuit 617 uses short-range wireless communication technology such as Wi-Fi, NFC (Near Field Communication) and Bluetooth (registered trademark) via an antenna 617a provided on the spherical camera 3 to provide a smartphone or the like. Communicate with an external terminal (device). The long-distance communication circuit 617 can also transmit the equirectangular projection image data to an external terminal (device) such as a smartphone.

加速度・方位センサ618は、地球の磁気から全天球カメラ3の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。 The acceleration / direction sensor 618 calculates the direction of the spherical camera 3 from the magnetism of the earth and outputs the direction information. This orientation information is an example of related information (metadata) along with Exif, and is used for image processing such as image correction of a captured image. The related information also includes each data of the shooting date and time of the image and the data capacity of the image data.

また、加速度・方位センサ618は、全天球カメラ3の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。 The acceleration / direction sensor 618 is a sensor that detects changes in angles (Roll angle, Pitch angle, Yaw angle) that accompany the movement of the spherical camera 3. The change in angle is an example of related information (metadata) along with Exif, and is used for image processing such as image correction of a captured image.

更に、加速度・方位センサ618は、3軸方向の加速度を検出するセンサである。全天球カメラ3は、加速度・方位センサ618が検出した加速度に基づいて、自装置(全天球カメラ3)の姿勢(重力方向に対する角度)を算出する。全天球カメラ3に、加速度・方位センサ618が設けられることによって、画像補正の精度が向上する。 Further, the acceleration / direction sensor 618 is a sensor that detects acceleration in the three axial directions. The omnidirectional camera 3 calculates the posture (angle with respect to the direction of gravity) of its own device (omnidirectional camera 3) based on the acceleration detected by the acceleration / direction sensor 618. By providing the omnidirectional camera 3 with an acceleration / orientation sensor 618, the accuracy of image correction is improved.

<授業支援システム100の機能構成例>
次に授業支援システム100の機能構成について説明する。図6は授業支援システム100の機能構成の一例を示すブロック図である。
<Example of functional configuration of class support system 100>
Next, the functional configuration of the lesson support system 100 will be described. FIG. 6 is a block diagram showing an example of the functional configuration of the lesson support system 100.

(ウェブサーバ1)
図6に示すように、授業支援システム100におけるウェブサーバ1は、送受信部11と、推論部12と、活性度検出部13と、活性度データ格納部14と、管理部15とを備えている。これらのうち、送受信部11の機能は図3のネットワークI/F509等により実現され、活性度データ格納部14の機能は図3のHD504等により実現され、推論部12及び活性度検出部13の機能は図3のCPU501が所定のプログラムを実行すること等により実現される。
(Web server 1)
As shown in FIG. 6, the web server 1 in the lesson support system 100 includes a transmission / reception unit 11, an inference unit 12, an activity detection unit 13, an activity data storage unit 14, and a management unit 15. .. Of these, the function of the transmission / reception unit 11 is realized by the network I / F 509 or the like in FIG. 3, the function of the activity data storage unit 14 is realized by the HD 504 or the like in FIG. 3, and the inference unit 12 and the activity detection unit 13 are realized. The function is realized by the CPU 501 of FIG. 3 executing a predetermined program or the like.

送受信部11は、スマートフォン2及び全天球カメラ3との間で信号及びデータの送受を行う。具体的には、授業を開始する際に教師20がスマートフォン2を操作して全天球カメラ3による撮影開始の指示を行うと、送受信部11は、スマートフォン2からこの撮影開始の指示信号(開始指示)を受け付ける。また送受信部11はスマートフォン2から受け付けた撮影開始の指示信号に応答して、全天球カメラ3に撮影開始の指示信号を送信する。 The transmission / reception unit 11 transmits / receives signals and data to / from the smartphone 2 and the spherical camera 3. Specifically, when the teacher 20 operates the smartphone 2 to instruct the start of shooting by the spherical camera 3 at the start of the lesson, the transmission / reception unit 11 sends the instruction signal (start) of the start of shooting from the smartphone 2. Instructions) are accepted. Further, the transmission / reception unit 11 transmits a shooting start instruction signal to the spherical camera 3 in response to the shooting start instruction signal received from the smartphone 2.

また送受信部11は、授業を終了する際に教師20がスマートフォン2を操作して全天球カメラ3による撮影終了の指示を行うと、送受信部11は、スマートフォン2から撮影終了の指示信号(終了指示)を受け付ける。また送受信部11はスマートフォン2から受け付けた撮影終了の指示信号に応答して、全天球カメラ3に撮影終了の指示信号を出力することができる。 Further, when the teacher 20 operates the smartphone 2 to instruct the end of shooting by the spherical camera 3 at the end of the lesson, the transmission / reception unit 11 receives an instruction signal (end) from the smartphone 2 to end shooting. Instructions) are accepted. Further, the transmission / reception unit 11 can output a shooting end instruction signal to the spherical camera 3 in response to the shooting end instruction signal received from the smartphone 2.

さらに送受信部11はスマートフォン2からの授業情報の要求に対応した所定の授業情報をスマートフォン2に送信する。送受信部11は、上記のもの以外にも各種の信号及びデータを送受できる。 Further, the transmission / reception unit 11 transmits predetermined lesson information corresponding to the request for lesson information from the smartphone 2 to the smartphone 2. The transmission / reception unit 11 can transmit / receive various signals and data other than those described above.

推論部12は、送受信部11を介して全天球カメラ3が撮影した画像を受信し、予め取得された学習データに基づいて撮影画像内での学生が挙手しているか否かの挙手状態を分類する。学習データは、予め取得された大量の学生の撮影画像に潜むパターンを機械学習させたデータである。 The inference unit 12 receives the image captured by the spherical camera 3 via the transmission / reception unit 11, and determines whether or not the student has raised his / her hand in the captured image based on the learning data acquired in advance. Classify. The learning data is data obtained by machine learning patterns hidden in a large number of images taken by students acquired in advance.

ここで、機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり、コンピュータがデータ識別等の判断に必要なアルゴリズムを、事前に取り込まれる学習データから自律的に生成し、新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、さらにこれらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。 Here, machine learning is a technique for making a computer acquire learning ability like a human being, and the computer autonomously generates an algorithm necessary for judgment such as data identification from learning data taken in advance. , Refers to a technology that applies this to new data to make predictions. The learning method for machine learning may be any of supervised learning, unsupervised learning, semi-teacher learning, intensive learning, and deep learning, and may be a learning method that combines these learning methods. It doesn't matter what learning method you use.

推論部12は、受信した画像内の人物(学生)の切り出しを行い、学習データに基づき画像内に含まれる複数の学生の挙手又は非挙手の状態を推論で分類し、分類結果を活性度検出部13に出力する。 The inference unit 12 cuts out a person (student) in the received image, classifies the states of raising or not raising hands of a plurality of students included in the image by inference based on the learning data, and detects the activity of the classification result. Output to unit 13.

活性度検出部13は、推論部12による分類結果から取得される学生の挙手数(挙手している学生の数)を活性度として検出する。推論部12は全天球カメラ3による画像に基づくグループごとでの分類結果を活性度検出部13に出力し、活性度検出部13は全天球カメラ3a,3b,3cを識別する端末番号に紐づけて挙手数をカウントすることで、グループごとでの挙手数を検出する。 The activity detection unit 13 detects the number of raised hands of students (the number of students raising hands) obtained from the classification result by the inference unit 12 as the activity level. The inference unit 12 outputs the classification result for each group based on the image taken by the spherical camera 3 to the activity detection unit 13, and the activity detection unit 13 is used as a terminal number for identifying the spherical cameras 3a, 3b, 3c. By counting the number of hands raised in association with each other, the number of hands raised in each group is detected.

学生の挙手数は時系列に変化するため、推論部12は全天球カメラ3による学生のストリーミング動画像からグループごとでの分類を時系列に行い、活性度検出部13は活性度としての学生の挙手数を時系列に検出する。なお、ここでの「時系列」は、推論部12による分類と活性度検出部13による検出が全天球カメラ3のフレームごとに行われることを意味する。例えば全天球カメラ3のフレームレートが30fps(flames oer second)であれば、1秒間に30個の挙手数情報が得られる。但し、フレームごとの処理に限定されるものではなく、推論部12による分類と活性度検出部13による検出は、全天球カメラ3の所定のフレーム数ごとに行われてもよい。 Since the number of hands raised by students changes in chronological order, the reasoning unit 12 classifies the students by group from the streaming moving images of the students by the spherical camera 3 in chronological order, and the activity detection unit 13 classifies the students as activity. The number of hands raised is detected in chronological order. The "time series" here means that the classification by the inference unit 12 and the detection by the activity detection unit 13 are performed for each frame of the spherical camera 3. For example, if the frame rate of the spherical camera 3 is 30 fps (flames oer second), information on the number of raised hands of 30 can be obtained per second. However, the processing is not limited to each frame, and the classification by the inference unit 12 and the detection by the activity detection unit 13 may be performed for each predetermined number of frames of the spherical camera 3.

活性度検出部13は、検出したグループごとでの挙手数の情報と、挙手数の情報を検出した時刻を示すタイムスタンプと、撮影した全天球カメラを示す端末番号とを対応づけて活性度データ格納部14に出力して格納させる。 The activity detection unit 13 associates the information on the number of hands raised for each detected group with the time stamp indicating the time when the information on the number of hands raised is detected and the terminal number indicating the spherical camera in which the image was taken. It is output to the data storage unit 14 and stored.

ここで、以下の表1は、ウェブサーバ1の活性度データ格納部14に格納されるデータの一例を示している。 Here, Table 1 below shows an example of the data stored in the activity data storage unit 14 of the web server 1.

Figure 2021173935
表1の最も左側の列はタイムスタンプを示している。タイムスタンプは、授業を行っている最中のものであり、表1では2020年4月20日10時00分01秒から2020年4月20日10時05分15秒までのタイムスタンプが示されている。但し、タイムスタンプの単位は、時刻が分かるものであれば何でもよく、UNIX(登録商標)時間等であってもよい。
Figure 2021173935
The leftmost column in Table 1 shows the time stamps. The time stamps are during the class, and Table 1 shows the time stamps from 10:00:01 on April 20, 2020 to 10:05:15 on April 20, 2020. Has been done. However, the unit of the time stamp may be any unit as long as the time can be known, and may be UNIX (registered trademark) time or the like.

表1の真ん中の列は、全天球カメラ3の端末番号を示している。例えば「1」は全天球カメラ3aを表し、「2」は全天球カメラ3bを表している。なお、全天球カメラ3aはグループ5aのためのものであり、全天球カメラ3bはグループ5bのためのものである。最も右側の列は、挙手数を表している。 The middle column of Table 1 shows the terminal numbers of the spherical camera 3. For example, "1" represents the spherical camera 3a, and "2" represents the spherical camera 3b. The spherical camera 3a is for the group 5a, and the spherical camera 3b is for the group 5b. The rightmost column shows the number of hands raised.

表1の例では、2020年4月20日10時00分01秒では、全天球カメラ3aによる撮影画像では挙手数が「0」であり、2020年4月20日10時00分02秒では、全天球カメラ3bによる撮影画像では挙手数が「3」であることを示している。 In the example of Table 1, at 10:00:01 on April 20, 2020, the number of hands raised is "0" in the image taken by the spherical camera 3a, and 10:00:02 on April 20, 2020. Then, the image taken by the spherical camera 3b shows that the number of hands raised is "3".

また、活性度検出部13は、スマートフォン2からの要求に応答して、活性度データ格納部14に格納された挙手数の情報、タイムスタンプ及び端末番号を用いて、活性度の検出結果を表示する表示画面を生成し、生成した表示画面をスマートフォン2に送信できる。なお、この表示画面については、図7を用いて次述する。 In addition, the activity detection unit 13 displays the activity detection result using the information on the number of hands raised, the time stamp, and the terminal number stored in the activity data storage unit 14 in response to the request from the smartphone 2. The display screen to be displayed can be generated, and the generated display screen can be transmitted to the smartphone 2. The display screen will be described below with reference to FIG. 7.

管理部15は、教師20又は授業支援システム100の管理者により登録された授業情報を管理する。この授業情報は、授業の開始・終了時刻、開催する教室の場所、授業を行う対象の学生(学年、クラス、人数等)、教室に設置された全天球カメラ3の台数等の授業に関する情報であり、授業を行う教師20に対応付けられた情報である。管理部15は、スマートフォン2からの要求に応答して、教師20に対応した授業情報を、送受信部11を介してスマートフォン2に送信する。 The management unit 15 manages the lesson information registered by the teacher 20 or the manager of the lesson support system 100. This lesson information is information about the lesson such as the start / end time of the lesson, the location of the classroom to be held, the students (grade, class, number of people, etc.) to be given the lesson, and the number of all-sky cameras 3 installed in the lesson. This is information associated with the teacher 20 who conducts the lesson. In response to the request from the smartphone 2, the management unit 15 transmits the lesson information corresponding to the teacher 20 to the smartphone 2 via the transmission / reception unit 11.

(スマートフォン2)
図6に示すように、スマートフォン2は、操作部21と、送受信部22と、表示部23とを備えている。これらのうち、操作部21の機能は図4のタッチパネル421等により実現され、送受信部22の機能は図4の遠距離通信回路412又は近距離通信回路420等により実現される。また表示部23の機能はディスプレイ418等により実現される。
(Smartphone 2)
As shown in FIG. 6, the smartphone 2 includes an operation unit 21, a transmission / reception unit 22, and a display unit 23. Of these, the function of the operation unit 21 is realized by the touch panel 421 or the like of FIG. 4, and the function of the transmission / reception unit 22 is realized by the long-distance communication circuit 412 or the short-range communication circuit 420 of FIG. Further, the function of the display unit 23 is realized by the display 418 or the like.

スマートフォン2には授業支援のためのアプリケーションソフトウェア(以下、授業支援アプリという)が予めインストールされている。教師20は、授業を開始する際に、操作部21を介して授業支援アプリを起動することで、全天球カメラ3による撮影の開始を指示する。送受信部22はこの指示に応答して撮影開始の指示信号をウェブサーバ1に送信する。 Application software for class support (hereinafter referred to as a class support application) is pre-installed on the smartphone 2. When the teacher 20 starts the lesson, the teacher 20 instructs the start of shooting by the spherical camera 3 by activating the lesson support application via the operation unit 21. In response to this instruction, the transmission / reception unit 22 transmits an instruction signal for starting shooting to the web server 1.

操作部21は、スマートフォン2及びスマートフォン2にインストールされた各種アプリケーションソフトウェアに対する各種操作を受け付ける。送受信部22は、ウェブサーバ1との間で信号及びデータの送受を行う。 The operation unit 21 receives various operations on the smartphone 2 and various application software installed on the smartphone 2. The transmission / reception unit 22 sends / receives signals and data to / from the web server 1.

表示部23は、ウェブサーバ1から送信されるグループごとの学生の挙手数情報をスマートフォン2のディスプレイ418の画面に表示する。表示部23は、例えば挙手数の時間推移を示すグラフを表示する。教師はこのようなグラフを視認することで、どのグループの学生が活性化し、どのグループの学生が活性化していないかを認識することができる。 The display unit 23 displays the student hand-raising information for each group transmitted from the web server 1 on the screen of the display 418 of the smartphone 2. The display unit 23 displays, for example, a graph showing the time transition of the number of hands raised. By visually recognizing such a graph, the teacher can recognize which group of students is activated and which group of students is not activated.

(全天球カメラ3)
図6に示すように、全天球カメラ3は、送受信部31と、端末番号格納部32と、撮影部33と、集音部34とを備えている。送受信部31の機能は図5の遠距離通信回路617等により実現され、端末番号格納部32の機能はROM612等により実現される。また撮影部33の機能は図5の撮像ユニット601等により実現され、集音部34の機能はマイク608等により実現される。
(Spherical camera 3)
As shown in FIG. 6, the spherical camera 3 includes a transmission / reception unit 31, a terminal number storage unit 32, a photographing unit 33, and a sound collecting unit 34. The function of the transmission / reception unit 31 is realized by the long-distance communication circuit 617 or the like shown in FIG. 5, and the function of the terminal number storage unit 32 is realized by the ROM 612 or the like. Further, the function of the photographing unit 33 is realized by the image pickup unit 601 or the like shown in FIG. 5, and the function of the sound collecting unit 34 is realized by the microphone 608 or the like.

全天球カメラ3は、撮影開始時に送受信部31を介して、ウェブサーバ1から撮影開始の指示信号を受け付け、この指示信号に応答して撮影を開始する。また撮影した動画像を、送受信部31を介してウェブサーバ1に送信する。撮影終了時にはウェブサーバ1から撮影終了の指示信号を受け付け、この指示信号に応答して撮影を終了する。 The omnidirectional camera 3 receives a shooting start instruction signal from the web server 1 via the transmission / reception unit 31 at the start of shooting, and starts shooting in response to the instruction signal. Further, the captured moving image is transmitted to the web server 1 via the transmission / reception unit 31. At the end of shooting, the web server 1 receives an instruction signal for the end of shooting, and the shooting ends in response to this instruction signal.

送受信部31は、ウェブサーバ1との間で信号及びデータの送受を行う。端末番号格納部32は、全天球カメラ3a,3b,3cを識別するための端末番号を格納している。全天球カメラ3は、撮影画像とともに端末番号格納部32に格納された自身の端末番号を、送受信部31を介してウェブサーバ1に送信することができる。 The transmission / reception unit 31 sends / receives signals and data to / from the web server 1. The terminal number storage unit 32 stores the terminal number for identifying the spherical cameras 3a, 3b, and 3c. The spherical camera 3 can transmit its own terminal number stored in the terminal number storage unit 32 together with the captured image to the web server 1 via the transmission / reception unit 31.

ウェブサーバ1からの撮影開始の指示信号に応答して、撮影部33は360度の全方位画像を撮影し、集音部34は音声の集音を行う。撮影部33による撮影画像と、集音部34による音声データは、送受信部31を介してウェブサーバ1に送信される。 In response to the instruction signal for starting shooting from the web server 1, the shooting unit 33 captures a 360-degree omnidirectional image, and the sound collecting unit 34 collects sound. The captured image by the photographing unit 33 and the audio data by the sound collecting unit 34 are transmitted to the web server 1 via the transmitting / receiving unit 31.

<表示画面例>
図7は、スマートフォン2の表示部23が表示する表示画面の一例を示す図である。(a)はUI(User Interface)画面230aを示す図、(b)は活性度の検出結果画面230bを示す図である。
<Display screen example>
FIG. 7 is a diagram showing an example of a display screen displayed by the display unit 23 of the smartphone 2. (A) is a diagram showing a UI (User Interface) screen 230a, and (b) is a diagram showing an activity detection result screen 230b.

UI画面230aでは、撮影開始を指示するための撮影開始ボタン231、撮影終了を指示するための撮影終了ボタン232、及び活性度の検出結果を閲覧するための結果閲覧ボタン233が表示されている。教師20はこれらのボタンに対してタッチ操作等を行うことができる。 On the UI screen 230a, a shooting start button 231 for instructing the start of shooting, a shooting end button 232 for instructing the end of shooting, and a result viewing button 233 for viewing the detection result of the activity are displayed. The teacher 20 can perform a touch operation or the like on these buttons.

図7(a)において、教師20が撮影開始ボタン231に操作を行うと、全天球カメラ3は撮影を開始し、撮影終了ボタン232に操作を行うと、全天球カメラ3は撮影を終了する。また教師20が結果閲覧ボタン233に操作を行うと、活性度検出部13による活性度の検出結果が表示される。 In FIG. 7A, when the teacher 20 operates the shooting start button 231, the spherical camera 3 starts shooting, and when the teacher 20 operates the shooting end button 232, the spherical camera 3 ends shooting. do. When the teacher 20 operates the result viewing button 233, the activity detection result by the activity detection unit 13 is displayed.

教師20が結果閲覧ボタン233に対して操作を行うと、図7(b)の検出結果画面230bがスマートフォン2の画面に表示される。 When the teacher 20 operates the result viewing button 233, the detection result screen 230b of FIG. 7B is displayed on the screen of the smartphone 2.

グラフ234は、活性度としてのグループごとでの学生の挙手数累計の時間推移を示している。実線のグラフはグループ5aに属する学生の挙手数累計の時間推移、破線のグラフはグループ5bに属する学生の挙手数累計の時間推移、一点鎖線のグラフはグループ5cに属する学生の挙手数累計の時間推移をそれぞれ示している。グラフ234の横軸は時間を表しており、時間の経過とともに各グラフは右側に延伸する。 Graph 234 shows the time transition of the cumulative number of hands raised by students for each group as the activity level. The solid line graph is the time transition of the cumulative number of hands raised by the students belonging to group 5a, the broken line graph is the time transition of the cumulative number of hands raised by the students belonging to group 5b, and the alternate long and short dash line graph is the time transition of the cumulative number of hands raised by the students belonging to group 5c. The transition is shown respectively. The horizontal axis of the graph 234 represents time, and each graph extends to the right with the passage of time.

また表235は、タイムスタンプごとの各グループでの挙手数を示している。時間の経過に応じて表示が更新され、挙手があったグループの該グループにおける挙手数が表示される。 Table 235 shows the number of hands raised in each group for each time stamp. The display is updated with the passage of time, and the number of hands raised in the group in which the hands were raised is displayed.

教師20は手元にあるスマートフォン2の画面でグラフ234及び表235を視認することで、グループごとの挙手数を把握でき、どのグループが活性化し、どのグループが活性化していないかを容易に認識できる。 By visually recognizing the graph 234 and the table 235 on the screen of the smartphone 2 at hand, the teacher 20 can grasp the number of hands raised for each group, and can easily recognize which group is activated and which group is not activated. ..

なお図7の例は、活性度の表示方法の一例であり、目的や嗜好に応じて表示方法を適宜変形可能である。 The example of FIG. 7 is an example of the activity display method, and the display method can be appropriately modified according to the purpose and preference.

<授業支援システム100の動作例>
次に、授業支援システム100の動作について説明する。図8は、授業支援システム100の動作の一例を示すシーケンスチャートである。
<Operation example of class support system 100>
Next, the operation of the lesson support system 100 will be described. FIG. 8 is a sequence chart showing an example of the operation of the lesson support system 100.

まず、ステップ81において、教師20はスマートフォン2を用いて授業支援システム100の利用を開始する操作を行う。このシステム利用操作は、スマートフォン2にインストールされた授業支援アプリを起動させる操作に対応する。 First, in step 81, the teacher 20 uses the smartphone 2 to perform an operation to start using the lesson support system 100. This system use operation corresponds to the operation of activating the lesson support application installed on the smartphone 2.

続いて、ステップS82において、スマートフォン2はシステム利用開始操作に応答して教師20の識別情報等の教師20に対応づいた授業情報の送信をウェブサーバ1要求する。 Subsequently, in step S82, the smartphone 2 requests the web server 1 to transmit the lesson information corresponding to the teacher 20 such as the identification information of the teacher 20 in response to the system use start operation.

続いて、ステップS83において、ウェブサーバ1は要求に応答して教師20に対応する授業情報をスマートフォン2に送信する。 Subsequently, in step S83, the web server 1 responds to the request and transmits the lesson information corresponding to the teacher 20 to the smartphone 2.

続いて、ステップS84において、スマートフォン2は、受信した授業情報に応答してUI画面230a(図7参照)を表示する。教師20に対応づいた授業情報が複数ある場合には、一旦複数の授業の一覧を表示し、教師20が所望の授業を一覧から選択した後にUI画面230aが表示される。 Subsequently, in step S84, the smartphone 2 displays the UI screen 230a (see FIG. 7) in response to the received lesson information. When there is a plurality of lesson information corresponding to the teacher 20, a list of a plurality of lessons is displayed once, and the UI screen 230a is displayed after the teacher 20 selects a desired lesson from the list.

続いて、ステップS85において、教師20はスマートフォン2の撮影開始ボタン231(図7参照)に対して、タッチ操作等の操作を行う。 Subsequently, in step S85, the teacher 20 performs an operation such as a touch operation on the shooting start button 231 (see FIG. 7) of the smartphone 2.

続いて、ステップS86において、スマートフォン2は操作に応答してウェブサーバ1に対して撮影開始の指示信号を出力して、撮影開始を指示する。 Subsequently, in step S86, the smartphone 2 outputs a shooting start instruction signal to the web server 1 in response to the operation to instruct the web server 1 to start shooting.

続いて、ステップS87において、ウェブサーバ1は、指示信号に応答して、授業で使用される全ての全天球カメラ3に対して撮影開始を指示する。 Subsequently, in step S87, the web server 1 instructs all the spherical cameras 3 used in the class to start shooting in response to the instruction signal.

続いて、ステップS88において、全天球カメラ3のそれぞれは、グループに属する学生の静止画像又はストリーミング動画像を撮影する。 Subsequently, in step S88, each of the spherical cameras 3 captures a still image or a streaming moving image of the students belonging to the group.

続いて、ステップS89において、全天球カメラ3のそれぞれは、撮影した画像をウェブサーバ1に送信する。 Subsequently, in step S89, each of the spherical cameras 3 transmits the captured image to the web server 1.

続いて、ステップS90において、ウェブサーバ1は、受信した画像から人物(学生)を切り出す処理を行う。 Subsequently, in step S90, the web server 1 performs a process of cutting out a person (student) from the received image.

続いて、ステップS91において、ウェブサーバ1は、切り出した学生ごとで、該学生が挙手しているか否かを分類する。 Subsequently, in step S91, the web server 1 classifies whether or not the student raises his / her hand for each student that has been cut out.

続いて、ステップS92において、ウェブサーバ1は、グループごとで学生の挙手数を検出する。 Subsequently, in step S92, the web server 1 detects the number of raised hands of the students for each group.

続いて、ステップS93において、ウェブサーバ1は、検出した挙手数の情報、タイムスタンプ及び端末番号を対応づけて格納する。 Subsequently, in step S93, the web server 1 stores the detected number of hands raised information, the time stamp, and the terminal number in association with each other.

上記のステップS88〜S93の動作が撮影を終了するまで繰り返される。繰り返しにおけるLoop周期は、例えば全天球カメラ3のフレームレートであるが、これに限定されるものではなく、フレームレートの倍数の周期等を適宜選択することができる。 The above operations of steps S88 to S93 are repeated until the shooting is completed. The Loop period in the repetition is, for example, the frame rate of the spherical camera 3, but the period is not limited to this, and a period that is a multiple of the frame rate or the like can be appropriately selected.

続いて、ステップS94において、教師20は、スマートフォン2の結果閲覧ボタン233(図7参照)に対してタッチ操作等の操作を行う。このステップS94のタイミングは、教師20が活性度の検出結果の閲覧を望む任意のタイミングである。 Subsequently, in step S94, the teacher 20 performs an operation such as a touch operation on the result viewing button 233 (see FIG. 7) of the smartphone 2. The timing of this step S94 is an arbitrary timing at which the teacher 20 desires to view the detection result of the activity.

続いて、ステップS95において、スマートフォン2は、結果閲覧操作に応答して活性度の検出結果の送信をウェブサーバ1に要求する。 Subsequently, in step S95, the smartphone 2 requests the web server 1 to transmit the activity detection result in response to the result viewing operation.

続いて、ステップS96において、ウェブサーバ1は、要求に応答して活性度の検出結果を表示する検出結果画面230b(図7参照)を生成する。この際に、ウェブサーバ1は、格納されている該当授業の最新の活性度の検出結果を用いて検出結果画面230bを生成する。また授業中の場合はポーリングして最新の活性度の検出結果を取得し、所定の周期で検出結果画面230bを生成(更新)する。 Subsequently, in step S96, the web server 1 generates a detection result screen 230b (see FIG. 7) that displays the activity detection result in response to the request. At this time, the web server 1 generates the detection result screen 230b using the latest detection result of the activity of the corresponding lesson stored. Also, during class, polling is performed to acquire the latest activity detection result, and the detection result screen 230b is generated (updated) at a predetermined cycle.

続いて、ステップS97において、ウェブサーバ1は、生成した検出結果画面230bをスマートフォン2に送信する。 Subsequently, in step S97, the web server 1 transmits the generated detection result screen 230b to the smartphone 2.

続いて、ステップS98において、スマートフォン2は、受信した検出結果画面230bをスマートフォン2のディスプレイ418(図4参照)に表示する。教師20は、表示された検出結果画面230bを視認して、所望のタイミングでグループごとの学生の活性度を認識することができる。 Subsequently, in step S98, the smartphone 2 displays the received detection result screen 230b on the display 418 (see FIG. 4) of the smartphone 2. The teacher 20 can visually recognize the displayed detection result screen 230b and recognize the activity level of the students for each group at a desired timing.

続いて、ステップS99において、教師20は、撮影終了ボタン232に対して、タッチ操作等の操作を行う。このステップS99のタイミングは、教師20が授業の終了を望む任意のタイミングである。 Subsequently, in step S99, the teacher 20 performs an operation such as a touch operation on the shooting end button 232. The timing of this step S99 is an arbitrary timing in which the teacher 20 desires the end of the lesson.

続いて、ステップS100において、スマートフォン2は操作に応答してウェブサーバ1に対して撮影終了の指示信号を出力して、撮影終了を指示する。 Subsequently, in step S100, the smartphone 2 outputs a shooting end instruction signal to the web server 1 in response to the operation to instruct the shooting end.

続いて、ステップS101において、ウェブサーバ1は、指示信号に応答して、授業で使用される全ての全天球カメラ3に対して撮影終了を指示する。 Subsequently, in step S101, the web server 1 instructs all the spherical cameras 3 used in the class to end the shooting in response to the instruction signal.

続いて、ステップS102において、全天球カメラ3は撮影を終了する。 Subsequently, in step S102, the spherical camera 3 ends the shooting.

なお図8では、検出結果の閲覧に係るステップS94〜S98の後に、撮影終了に係るステップS99〜S102が行われる流れを示したが、ステップS94〜S98が行われる前にステップS99〜S102が行われてもよい。 Note that FIG. 8 shows a flow in which steps S99 to S102 related to the end of shooting are performed after steps S94 to S98 related to viewing the detection result, but steps S99 to S102 are performed before steps S94 to S98 are performed. You may be broken.

このようにして、授業支援システム100は、グループごとで学生の活性度を検出し、教師20が備えるスマートフォン2の画面に表示することができる。 In this way, the lesson support system 100 can detect the activity of the students for each group and display them on the screen of the smartphone 2 provided by the teacher 20.

<授業支援システム100の作用効果>
次に、授業支援システム100の作用効果を説明する。
<Effects of class support system 100>
Next, the operation and effect of the lesson support system 100 will be described.

従来、授業における学生等の受講者の活性度として受講者の挙手数を教師が認識する場合、教師は自身が指名した受講者の活性度しか認識できず、また活性度を記録として残すことが困難だった。 Conventionally, when a teacher recognizes the number of hands raised by a student as the activity of a student such as a student in a class, the teacher can only recognize the activity of the student nominated by himself and keeps a record of the activity. It was difficult.

受講者の挙手を検出して受講者の活性度を検出する情報処理システムや、カメラで撮影した受講者の画像に基づき、受講者の習熟度を判定する情報処理システムが開示されているが、これらの情報処理システムでは、受講者が構成する複数のグループごとで受講者の活性度を検出することが困難な場合があった。 An information processing system that detects the student's raised hand and detects the student's activity level, and an information processing system that determines the student's proficiency level based on the student's image taken by the camera are disclosed. In these information processing systems, it may be difficult to detect the activity level of a student in each of a plurality of groups composed of the student.

本実施形態では、グループに属する受講者の画像に基づき、複数のグループごとで受講者の活性度を検出する。具体的には、複数のグループごとに全天球カメラ3(撮影部)を設け、受講者の画像を複数のグループごとで撮影する。撮影した画像内での受講者の挙手状態を予め取得された学習データに基づいて分類し、分類結果から取得される受講者の挙手数を活性度として検出する。このようにすることで、複数のグループごとで受講者の活性度を検出することができる。 In the present embodiment, the activity of the students is detected for each of a plurality of groups based on the images of the students belonging to the groups. Specifically, an omnidirectional camera 3 (shooting unit) is provided for each of the plurality of groups, and images of the students are photographed for each of the plurality of groups. The student's hand-raised state in the captured image is classified based on the learning data acquired in advance, and the number of student's hand-raised hands acquired from the classification result is detected as the activity. By doing so, it is possible to detect the activity of the students in each of a plurality of groups.

挙手を検出するための撮影装置や検出装置を受講者の一人一人に設けないため、システムが複雑化したり、高価になったりすることを回避できる。また挙手を検出するための加速度センサ等のセンサを身体の一部に装着する必要がないため、受講者は煩わしさを感じることなく、授業を受講することができる。 Since no photographing device or detection device for detecting the raised hand is provided for each student, it is possible to avoid complicating the system and making the system expensive. In addition, since it is not necessary to attach a sensor such as an acceleration sensor for detecting the raised hand to a part of the body, the student can take the lesson without feeling any trouble.

また本実施形態では、活性度の検出結果を表示する表示部がスマートフォン2に設けられているため、教師20はスマートフォン2の表示部を視認することで、グループごとでの学生の活性度を認識することができる。なお、本実施形態では、表示部がスマートフォン2に設けられている例を示したが、これに限定されるものではない。例えば、教師20が視認可能な位置にディスプレイ等の表示装置を設け、表示装置が活性度の検出結果を表示する表示部を備えてもよい。 Further, in the present embodiment, since the smartphone 2 is provided with a display unit for displaying the activity detection result, the teacher 20 recognizes the student activity in each group by visually recognizing the display unit of the smartphone 2. can do. In the present embodiment, an example in which the display unit is provided on the smartphone 2 is shown, but the present invention is not limited to this. For example, a display device such as a display may be provided at a position where the teacher 20 can see, and the display device may include a display unit for displaying the detection result of the activity.

また本実施形態では、情報処理装置としてウェブサーバを用いるため、HTML(HyperText Markup Language)や画像等のオブジェクトを、ネットワークNに接続されている複数の端末の画面に並行して表示させることができ、教師だけでなく他の多くの者にも、授業におけるグループごとでの学生の活性度を視認させることができる。 Further, in the present embodiment, since the web server is used as the information processing device, objects such as HTML (HyperText Markup Language) and images can be displayed in parallel on the screens of a plurality of terminals connected to the network N. , Not only teachers but also many others can see the activity of students in each group in class.

また本実施形態では、撮影部33は360度の全方位画像を撮影するため、グループに属する学生の画像を広い視野で撮影でき、撮影部に対する学生の位置が制限されたり、1つのグループで複数のカメラが必要になったりすることを回避することができる。 Further, in the present embodiment, since the photographing unit 33 captures an omnidirectional image of 360 degrees, it is possible to capture an image of the students belonging to the group in a wide field of view, the position of the student with respect to the photographing unit is restricted, and a plurality of students in one group. You can avoid the need for a camera.

また本実施形態では、撮影した画像内での受講者の挙手状態を予め取得された学習データに基づいて分類するため、受講者の挙手数を高い信頼性で検出し、活性度を高精度に検出できる。 Further, in the present embodiment, since the student's hand raising state in the captured image is classified based on the learning data acquired in advance, the number of student's hand raising is detected with high reliability and the activity is highly accurate. Can be detected.

また本実施形態では、グループごとでの学生の挙手数の時間推移を検出し、スマートフォン2の画面に表示するため、教師20はその都度の学生の活性度だけでなく、活性度の時間推移も併せて認識することができる。 Further, in the present embodiment, since the time transition of the number of hands raised by the students in each group is detected and displayed on the screen of the smartphone 2, the teacher 20 not only shows the activity level of the student each time, but also the time transition of the activity level. It can also be recognized.

なお本実施形態では、全天球カメラ3による撮影画像に基づき、受講者の活性度を検出する例を示したが、全天球カメラ3の集音部34を用いて受講者が発する音声を集音し、集音した音声に基づき、グループごとで受講者の活性度を検出できる。受講者の挙手数と音声の両方を用いて活性度を検出すると、情報量が多くなるため、より高い信頼性で活性度を検出可能になる。 In the present embodiment, an example of detecting the activity of the student based on the image taken by the spherical camera 3 is shown, but the sound emitted by the student is transmitted by using the sound collecting unit 34 of the spherical camera 3. Sound is collected, and the activity level of the students can be detected for each group based on the collected voice. If the activity is detected using both the number of hands raised by the student and the voice, the amount of information increases, so that the activity can be detected with higher reliability.

[第2実施形態]
次に、第2実施形態に係る授業支援システム100aについて説明する。本実施形態では、グループ毎に設けられたノートPCで推論による分類と活性度の検出を行うことで、ウェブサーバに受講者の画像を送信しなくてよくし、これによりセキュリティや個人情報保護の観点でより好適な授業支援システムを提供する。
[Second Embodiment]
Next, the lesson support system 100a according to the second embodiment will be described. In the present embodiment, by performing classification by inference and detection of activity with a notebook PC provided for each group, it is not necessary to send the image of the student to the web server, thereby providing security and personal information protection. Provide a more suitable lesson support system from the viewpoint.

<授業支援システム100aの構成例>
図9は、授業支援システム100aの構成の一例を示す図である。図9に示すように、授業支援システム100aは、3つのノートPC6a,6b,6cを備えている。ノートPC6a,6b,6cは、それぞれ無線による通信の手段又は有線による通信の手段を備え、LAN(Local Area Network)やインターネット等のネットワークNを介して、ウェブサーバ1、スマートフォン2及び全天球カメラ3と、相互に通信可能に接続されている。
<Structure example of class support system 100a>
FIG. 9 is a diagram showing an example of the configuration of the lesson support system 100a. As shown in FIG. 9, the lesson support system 100a includes three notebook PCs 6a, 6b, and 6c. The notebook PCs 6a, 6b, and 6c are provided with wireless communication means or wired communication means, respectively, and are used as a web server 1, a smartphone 2, and a spherical camera via a network N such as a LAN (Local Area Network) or the Internet. It is connected to 3 so that it can communicate with each other.

ノートPC6a,6b,6cはグループごとに設けられた複数の情報処理装置の一例である。授業支援システム100aは、3つのグループ5a,5b,5cに合わせて3台のノートPC6a,6b,6cを備えている。但し、これに限定されるものではなく、グループの数の増減に応じてノートPCの台数も増減可能である。 The notebook PCs 6a, 6b, and 6c are examples of a plurality of information processing devices provided for each group. The lesson support system 100a is provided with three notebook PCs 6a, 6b, 6c in accordance with the three groups 5a, 5b, 5c. However, the number of notebook PCs is not limited to this, and the number of notebook PCs can be increased or decreased according to the increase or decrease in the number of groups.

ノートPC6aは、グループ5aに属する学生が着座する机4a上に設置され、ノートPC6bは、グループ5bに属する学生が着座する机4b上に設置され、ノートPC6cは、グループ5ac属する学生が着座する机4c上に設置される。 The notebook PC 6a is installed on the desk 4a on which the students belonging to the group 5a are seated, the notebook PC 6b is installed on the desk 4b on which the students belonging to the group 5b are seated, and the notebook PC 6c is the desk on which the students belonging to the group 5ac are seated. It is installed on 4c.

ノートPC6a,6b,6cはそれぞれコンピュータで構築され、図3に示したハードウェア構成を備えることができる。また以下では、ノートPC6a,6b,6cを特に区別しない場合にはノートPC6と表記し、ノートPC6a,6b,6cのそれぞれが備える構成についても同様とする。 The notebook PCs 6a, 6b, and 6c are each constructed by a computer and can have the hardware configuration shown in FIG. Further, in the following, when the notebook PCs 6a, 6b and 6c are not particularly distinguished, they are referred to as the notebook PC6, and the same applies to the configurations provided by each of the notebook PCs 6a, 6b and 6c.

<授業支援システム100aの機能構成例>
次に、授業支援システム100aの機能構成について説明する。図10は授業支援システム100aの機能構成の一例を示すブロック図である。
<Example of functional configuration of class support system 100a>
Next, the functional configuration of the lesson support system 100a will be described. FIG. 10 is a block diagram showing an example of the functional configuration of the lesson support system 100a.

図10に示すように、ノートPC6は、送受信部61と、推論部62と、活性度検出部63と、端末番号格納部64とを備えている。これらのうち、送受信部61の機能は図3のネットワークI/F509等により実現され、推論部62及び活性度検出部63の機能は図3のCPU501が所定のプログラムを実行すること等により実現される。また端末番号格納部64の機能は図3のHD504等により実現される。 As shown in FIG. 10, the notebook PC 6 includes a transmission / reception unit 61, an inference unit 62, an activity detection unit 63, and a terminal number storage unit 64. Of these, the functions of the transmission / reception unit 61 are realized by the network I / F 509 and the like in FIG. 3, and the functions of the inference unit 62 and the activity detection unit 63 are realized by the CPU 501 in FIG. 3 executing a predetermined program or the like. NS. Further, the function of the terminal number storage unit 64 is realized by the HD504 or the like shown in FIG.

送受信部61は、ウェブサーバ1及び全天球カメラ3との間で信号及びデータの送受を行う。具体的には、全天球カメラ3による撮影画像を受信し、撮影画像に基づく活性度の検出結果と、全天球カメラ3を識別する端末番号をウェブサーバ1に送信することができる。 The transmission / reception unit 61 transmits / receives signals and data to / from the web server 1 and the spherical camera 3. Specifically, it is possible to receive the captured image by the spherical camera 3 and transmit the detection result of the activity based on the captured image and the terminal number for identifying the spherical camera 3 to the web server 1.

推論部62の機能は図6における推論部12の機能と同様であり、活性度検出部63の機能は図6における活性度検出部13の機能と同様である。 The function of the inference unit 62 is the same as the function of the inference unit 12 in FIG. 6, and the function of the activity detection unit 63 is the same as the function of the activity detection unit 13 in FIG.

具体的には、ノートPC6aの推論部62aは、全天球カメラ3aによる撮影画像に対して挙手状態を分類し、ノートPC6bの推論部62bは、全天球カメラ3bによる撮影画像に対して挙手状態を分類し、ノートPC6cの推論部62cは、全天球カメラ3cによる撮影画像に対して挙手状態を分類する。 Specifically, the inference unit 62a of the notebook PC 6a classifies the raised hand state with respect to the image captured by the spherical camera 3a, and the inference unit 62b of the notebook PC 6b raises the hand with respect to the image captured by the spherical camera 3b. The state is classified, and the reasoning unit 62c of the notebook PC 6c classifies the raised hand state with respect to the image captured by the spherical camera 3c.

またノートPC6aの活性度検出部63aは、推論部62aによる分類結果から活性度を検出し、ノートPC6bの活性度検出部63bは、推論部62bによる分類結果から活性度を検出し、ノートPC6cの活性度検出部63cは、推論部62cによる分類結果から活性度を検出する。 Further, the activity detection unit 63a of the notebook PC 6a detects the activity from the classification result by the inference unit 62a, and the activity detection unit 63b of the notebook PC 6b detects the activity from the classification result by the inference unit 62b, and the notebook PC 6c The activity detection unit 63c detects the activity from the classification result by the inference unit 62c.

このように推論部と活性度検出部の機能をノートPC6が備えるため、ウェブサーバ1は推論部と活性度検出部の機能を備えなくてもよい。またウェブサーバ1は推論部の機能を備えなくてもよいため、全天球カメラ3による撮影画像を受信しなくてもよい。 Since the notebook PC 6 has the functions of the inference unit and the activity detection unit in this way, the web server 1 does not have to have the functions of the inference unit and the activity detection unit. Further, since the web server 1 does not have to have the function of the inference unit, it is not necessary to receive the image captured by the spherical camera 3.

端末番号格納部64の機能は、図6における端末番号格納部32の機能と同様である。そのため、全天球カメラ3は端末番号格納部の機能を備えなくてもよい。 The function of the terminal number storage unit 64 is the same as the function of the terminal number storage unit 32 in FIG. Therefore, the spherical camera 3 does not have to have the function of the terminal number storage unit.

<授業支援システム100aによる作用効果>
第1実施形態に示した授業支援システム100は、全天球カメラによる撮影画像をウェブサーバ1に送信して、ウェブサーバ1により推論による分類と活性度の検出が行われる。ウェブサーバ1はネットワークNに接続されたPC等の全ての端末のブラウザに画像を提供できるため、学生等の受講者が含まれる画像がこれらの端末に提供される場合があり、セキュリティや個人情報保護の観点で好ましくない場合がある。
<Effects of class support system 100a>
The class support system 100 shown in the first embodiment transmits an image captured by the spherical camera to the web server 1, and the web server 1 performs classification by inference and detection of activity. Since the web server 1 can provide images to the browsers of all terminals such as PCs connected to the network N, images including students such as students may be provided to these terminals, and security and personal information may be provided. It may not be preferable from the viewpoint of protection.

またウェブサーバ1のみで推論による分類と活性度の検出の処理を行うと、受講者の数やグループの数が多い場合等に処理負荷が大きくなり、処理時間が増大する場合がある。 Further, if the processing of classification by inference and detection of activity is performed only by the web server 1, the processing load may increase when the number of students or the number of groups is large, and the processing time may increase.

本実施形態では、グループ毎に設けられたノートPC6で推論による分類と活性度の検出を行うため、ウェブサーバ1に受講者の画像を送信しなくてよい。これにより、セキュリティや個人情報保護の観点でより好適な授業支援システムを提供することができる。また複数のノートPC6で処理を分散させて実行できるため、受講者の数やグループの数が多い場合等にも処理負荷を低減し、処理時間を短縮することができる。 In the present embodiment, since the notebook PC 6 provided for each group performs the classification by inference and the detection of the activity, it is not necessary to transmit the image of the student to the web server 1. This makes it possible to provide a lesson support system that is more suitable from the viewpoint of security and personal information protection. Further, since the processing can be distributed and executed by a plurality of notebook PCs 6, the processing load can be reduced and the processing time can be shortened even when the number of students or the number of groups is large.

なお本実施形態では、グループごとに1台ずつのノートPC6を設ける例を示したが、これに限定されるものではなく、グループごとに2台以上のノートPCが設けられてもよいし、2つのグループにおける受講者の撮影画像を1台のノートPCで処理する等して、グループ数より少ない数のノートPCが設けられてもよい。またノートPCに代えてノートPC以外の情報処理装置を設けてもよい。 In the present embodiment, an example in which one notebook PC 6 is provided for each group is shown, but the present invention is not limited to this, and two or more notebook PCs may be provided for each group. A number of notebook PCs smaller than the number of groups may be provided by processing the images taken by the students in one group with one notebook PC. Further, an information processing device other than the notebook PC may be provided instead of the notebook PC.

またウェブサーバ1に代えて、デスクトップPC等の情報処理装置を備え、このデスクトップPCを親機とし、ノートPC6を子機として、推論による分類や活性度の検出等の処理を分散させてもよい。このような構成によっても処理負荷の低減及び処理時間の短縮を図ることができる。 Further, instead of the web server 1, an information processing device such as a desktop PC may be provided, and the desktop PC may be used as a master unit and the notebook PC 6 may be used as a slave unit to distribute processing such as classification by inference and detection of activity. .. With such a configuration, the processing load can be reduced and the processing time can be shortened.

なお上述した以外の効果は、第1実施形態で説明したものと同様である。 The effects other than those described above are the same as those described in the first embodiment.

[第3実施形態]
次に、第3実施形態に係る授業支援システム100bについて説明する。
[Third Embodiment]
Next, the lesson support system 100b according to the third embodiment will be described.

本実施形態では、受講者の個人認証を行うことで、挙手を行った受講者を特定し、グループだけでなく受講者ごとの活性度を検出する。教師はグループだけでなく受講者ごとの活性度を認識可能になる。 In the present embodiment, the individual authentication of the student is performed to identify the student who raised his / her hand and detect the activity of each student as well as the group. Teachers will be able to recognize the activity of each student as well as the group.

授業支援システム100bの構成は、第1実施形態に係る授業支援システム100及び第2実施形態に係る授業支援システム100aの何れの構成も適用できる。本実施形態では、授業支援システム100と同様の構成でウェブサーバが認証機能を備える場合を、一例として説明する。 As the configuration of the lesson support system 100b, any configuration of the lesson support system 100 according to the first embodiment and the lesson support system 100a according to the second embodiment can be applied. In the present embodiment, a case where the web server has an authentication function in the same configuration as the lesson support system 100 will be described as an example.

<授業支援システム100bの機能構成例>
図11は、授業支援システム100bの機能構成の一例を説明するブロック図である。図11に示すように、授業支援システム100bにおけるウェブサーバ1bは、認証情報格納部16と、認証部17とを備えている。これらのうち、認証情報格納部16の機能は、図3のHD504等により実現され、認証部17の機能は、図3のCPU501が所定のプログラムを実行すること等により実現される。
<Example of functional configuration of class support system 100b>
FIG. 11 is a block diagram illustrating an example of the functional configuration of the lesson support system 100b. As shown in FIG. 11, the web server 1b in the lesson support system 100b includes an authentication information storage unit 16 and an authentication unit 17. Of these, the function of the authentication information storage unit 16 is realized by the HD504 or the like shown in FIG. 3, and the function of the authentication unit 17 is realized by the CPU 501 of FIG. 3 executing a predetermined program or the like.

認証情報格納部16は、授業支援システム100bを利用した授業を受講する学生を認証するための認証情報を予め格納している。この認証情報は、例えば顔認証を行うための学生ごとの顔画像である。但し、全天球カメラ3による撮影画像を用いて認証できればよいため、顔以外の身体の情報を認証情報格納部16に格納させ、認証に用いてもよい。また音声による活性度の検出を行う場合は、声紋等を用いた認証を行うために学生の声の情報を認証情報格納部16に格納させ、声紋認証に用いることもできる。 The authentication information storage unit 16 stores in advance authentication information for authenticating a student who takes a lesson using the lesson support system 100b. This authentication information is, for example, a face image for each student for performing face recognition. However, since it is sufficient that the image taken by the spherical camera 3 can be used for authentication, information on the body other than the face may be stored in the authentication information storage unit 16 and used for authentication. Further, when the activity level is detected by voice, the student's voice information can be stored in the authentication information storage unit 16 in order to perform the authentication using the voiceprint or the like, and can be used for the voiceprint authentication.

認証部17は、送受信部11を介して全天球カメラ3による撮影画像を入力し、画像内での人物の顔画像を切り出す。そして切り出した顔画像と認証情報格納部16に格納された顔画像とを照合して認証処理を実行する。認証結果は、個人識別情報等として活性度検出部13に出力され、活性度検出部13は、個人識別情報を対応づけて、活性度としての挙手数(挙手回数)を検出することにより、認証部17で認証した学生ごとの活性度を検出することができる。これにより学生ごとの活性度を検出し、スマートフォン2の表示部23に表示させて教師に視認させることができる。 The authentication unit 17 inputs an image captured by the spherical camera 3 via the transmission / reception unit 11 and cuts out a face image of a person in the image. Then, the cut out face image and the face image stored in the authentication information storage unit 16 are collated to execute the authentication process. The authentication result is output to the activity detection unit 13 as personal identification information or the like, and the activity detection unit 13 authenticates by associating the personal identification information and detecting the number of hands raised (number of hands raised) as the activity. It is possible to detect the activity level of each student certified by the part 17. As a result, the activity level of each student can be detected and displayed on the display unit 23 of the smartphone 2 so that the teacher can visually recognize it.

このようにして、本実施形態では、受講者の個人認証を行うことで、挙手を行った受講者を特定し、グループだけでなく受講者ごとの活性度も検出できる。教師はグループだけでなく受講者ごとの活性度も認識可能になる。 In this way, in the present embodiment, by performing personal authentication of the student, the student who raised his / her hand can be identified, and the activity of each student as well as the group can be detected. Teachers will be able to recognize the activity of each student as well as the group.

なお上述した以外の効果は、第1実施形態で説明したものと同様である。 The effects other than those described above are the same as those described in the first embodiment.

以上、実施形態を説明したが、本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。 Although the embodiments have been described above, the present invention is not limited to the above-described embodiments specifically disclosed, and various modifications and changes can be made without departing from the scope of claims. ..

例えば上述した実施形態では、情報処理システムの一例として授業支援システムを示したが、支援対象は授業に限定されるものではない。各種セミナーや商品説明会、各種のプレゼンテーション等にも本実施形態に係る情報処理システムを適用可能である。 For example, in the above-described embodiment, the lesson support system is shown as an example of the information processing system, but the support target is not limited to the lesson. The information processing system according to this embodiment can be applied to various seminars, product briefings, various presentations, and the like.

また本実施形態では、授業支援システム100が全天球カメラ3を備える例を示したが、授業支援システム100は全天球カメラ3を備えず、受講者の画像又は音声の少なくとも一方を、外部装置から受信する構成にすることもできる。 Further, in the present embodiment, an example in which the lesson support system 100 is provided with the spherical camera 3 is shown, but the lesson support system 100 is not provided with the spherical camera 3, and at least one of the image or the sound of the student is externally provided. It can also be configured to receive from the device.

また活性度データ格納部14、認証情報格納部16及び端末番号格納部32等の格納部が授業支援システム100の外部に設けられ、授業支援システム100はこれらが格納する情報を受信する構成にしてもよい。 Further, storage units such as the activity data storage unit 14, the authentication information storage unit 16, and the terminal number storage unit 32 are provided outside the lesson support system 100, and the lesson support system 100 is configured to receive the information stored by these. May be good.

なお、上記で用いた序数、数量等の数字は、全て本発明の技術を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。また、構成要素間の接続関係は、本発明の技術を具体的に説明するために例示するものであり、本発明の機能を実現する接続関係はこれに限定されない。 The numbers such as the ordinal number and the quantity used above are all exemplified for the purpose of concretely explaining the technique of the present invention, and the present invention is not limited to the exemplified numbers. Further, the connection relationship between the constituent elements is exemplified for concretely explaining the technique of the present invention, and the connection relationship for realizing the function of the present invention is not limited to this.

また、機能ブロック図におけるブロックの分割は一例であり、複数のブロックを一つのブロックとして実現する、一つのブロックを複数に分割する、及び/又は、一部の機能を他のブロックに移してもよい。また、類似する機能を有する複数のブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。 Further, the division of blocks in the functional block diagram is an example, and even if a plurality of blocks are realized as one block, one block is divided into a plurality of blocks, and / or some functions are transferred to another block. good. In addition, a single piece of hardware or software may process the functions of a plurality of blocks having similar functions in parallel or in a time division manner.

また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Further, each function of the embodiment described above can be realized by one or a plurality of processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

また、実施形態は情報処理方法も含む。例えば情報処理方法は、情報処理装置と、前記情報処理装置に通信可能に接続された端末と、を備える情報処理システムによる情報処理方法であって、グループに属する受講者の画像、又は前記受講者が発する音声の少なくとも一方に基づき、複数のグループごとで前記受講者の活性度を検出する工程を行う。このような情報処理方法により、上述した授業支援システムと同様の効果を得ることができる。 The embodiment also includes an information processing method. For example, the information processing method is an information processing method by an information processing system including an information processing device and a terminal communicably connected to the information processing device, and is an image of a student belonging to a group or the student. A step of detecting the activity of the student is performed in each of a plurality of groups based on at least one of the voices emitted by the student. By such an information processing method, the same effect as the above-mentioned lesson support system can be obtained.

また、実施形態はプログラムも含む。例えばプログラムは、情報処理装置と、前記情報処理装置に通信可能に接続された端末と、を備える情報処理システムで実行されるプログラムであって、グループに属する受講者の画像、又は前記受講者が発する音声の少なくとも一方に基づき、複数のグループごとで前記受講者の活性度を検出する処理をコンピュータに実行させる。このようなプログラムにより、上述した授業支援システムと同様の効果を得ることができる。 The embodiment also includes a program. For example, the program is a program executed by an information processing system including an information processing device and a terminal communicatively connected to the information processing device, and an image of a student belonging to a group or the student A computer is made to execute a process of detecting the activity of the student in each of a plurality of groups based on at least one of the emitted voices. With such a program, the same effect as the above-mentioned lesson support system can be obtained.

1 ウェブサーバ(情報処理装置の一例)
2 スマートフォン(端末の一例)
3 全天球カメラ
4 机
5 グループ
6 ノートPC(複数の情報処理装置の一例)
10 教室
11 送受信部
12 推論部
13 活性度検出部
14 活性度データ格納部
15 管理部
16 認証情報格納部
17 認証部
21 操作部
22 送受信部
23 表示部
31 送受信部
32 端末番号格納部
33 撮影部
34 集音部
61 送受信部
62 推論部
63 活性度検出部
64 端末番号格納部
100 授業支援システム(情報処理システムの一例)
230a UI画面
230b 検出結果画面
234 グラフ
235 表
608 マイク
N ネットワーク
1 Web server (an example of information processing device)
2 Smartphone (example of terminal)
3 Spherical camera 4 Desk 5 Group 6 Notebook PC (example of multiple information processing devices)
10 Classroom 11 Transmission / reception unit 12 Reasoning unit 13 Activity detection unit 14 Activity data storage unit 15 Management unit 16 Authentication information storage unit 17 Authentication unit 21 Operation unit 22 Transmission / reception unit 23 Display unit 31 Transmission / reception unit 32 Terminal number storage unit 33 Imaging unit 34 Sound collecting unit 61 Transmission / reception unit 62 Inference unit 63 Activity detection unit 64 Terminal number storage unit 100 Class support system (example of information processing system)
230a UI screen 230b Detection result screen 234 Graph 235 Table 608 Microphone N network

特開2005−346016号公報Japanese Unexamined Patent Publication No. 2005-346016 特開2017−102153号公報JP-A-2017-102153

Claims (13)

情報処理装置と、前記情報処理装置に通信可能に接続された端末と、を備える情報処理システムであって、
グループに属する受講者の画像、又は前記受講者が発する音声の少なくとも一方に基づき、複数のグループごとで前記受講者の活性度を検出する活性度検出部を備える
情報処理システム。
An information processing system including an information processing device and a terminal communicatively connected to the information processing device.
An information processing system including an activity detection unit that detects the activity of the student in each of a plurality of groups based on at least one of the image of the student belonging to the group or the voice emitted by the student.
前記活性度の検出結果を表示する表示部を備える
請求項1に記載の情報処理システム。
The information processing system according to claim 1, further comprising a display unit that displays the detection result of the activity.
前記情報処理装置はウェブサーバであり、
前記活性度検出部は、前記ウェブサーバに設けられている
請求項1、又は2に記載の情報処理システム。
The information processing device is a web server.
The information processing system according to claim 1 or 2, wherein the activity detection unit is provided in the web server.
前記受講者の画像を複数のグループごとで撮影する撮影部を備える
請求項1乃至3の何れか1項に記載の情報処理システム。
The information processing system according to any one of claims 1 to 3, further comprising a photographing unit that captures images of the students in groups of a plurality of groups.
前記撮影部は360度の全方位画像を撮影する
請求項4に記載の情報処理システム。
The information processing system according to claim 4, wherein the photographing unit captures a 360-degree omnidirectional image.
前記画像内における前記受講者の挙手状態を、予め取得された学習データに基づいて分類する推論部を備え、
前記活性度検出部は、前記推論部による分類結果から取得される前記受講者の挙手数を前記活性度として検出する
請求項4、又は5に記載の情報処理システム。
It is provided with an inference unit that classifies the raised hand state of the student in the image based on the learning data acquired in advance.
The information processing system according to claim 4 or 5, wherein the activity detection unit detects the number of hands raised by the student obtained from the classification result by the inference unit as the activity.
前記受講者が発する音声を複数のグループごとで集音する集音部を備える
請求項1乃至6の何れか1項に記載の情報処理システム。
The information processing system according to any one of claims 1 to 6, further comprising a sound collecting unit that collects sounds emitted by the students in groups of a plurality of groups.
前記情報処理システムは、複数の情報処理装置を備え、
前記活性度検出部は、前記複数の情報処理装置のそれぞれに設けられている
請求項1乃至7の何れか1項に記載の情報処理システム。
The information processing system includes a plurality of information processing devices.
The information processing system according to any one of claims 1 to 7, wherein the activity detection unit is provided in each of the plurality of information processing devices.
前記受講者を認証する認証部を備え、
前記活性度検出部は、前記認証部で認証した前記受講者ごとの前記活性度を検出する
請求項1乃至8の何れか1項に記載の情報処理システム。
Equipped with an authentication unit that authenticates the students
The information processing system according to any one of claims 1 to 8, wherein the activity detection unit detects the activity for each student authenticated by the authentication unit.
前記活性度検出部は、前記活性度の時間推移を検出する
請求項1乃至9の何れか1項に記載の情報処理システム。
The information processing system according to any one of claims 1 to 9, wherein the activity detection unit detects a time transition of the activity.
前記活性度検出部は、開始指示に応答して前記活性度の検出を開始し、終了指示に応答して前記活性度の検出を終了する
請求項1乃至10の何れか1項に記載の情報処理システム。
The information according to any one of claims 1 to 10, wherein the activity detection unit starts detection of the activity in response to a start instruction and ends detection of the activity in response to an end instruction. Processing system.
情報処理装置と、前記情報処理装置に通信可能に接続された端末と、を備える情報処理システムによる情報処理方法であって、
グループに属する受講者の画像、又は前記受講者が発する音声の少なくとも一方に基づき、複数のグループごとで前記受講者の活性度を検出する工程を行う
情報処理方法。
An information processing method using an information processing system including an information processing device and a terminal communicatively connected to the information processing device.
An information processing method that performs a step of detecting the activity of the student in each of a plurality of groups based on at least one of the image of the student belonging to the group or the voice emitted by the student.
情報処理装置と、前記情報処理装置に通信可能に接続された端末と、を備える情報処理システムで実行されるプログラムであって、
グループに属する受講者の画像、又は前記受講者が発する音声の少なくとも一方に基づき、複数のグループごとで前記受講者の活性度を検出する
処理をコンピュータに実行させるプログラム。
A program executed by an information processing system including an information processing device and a terminal communicatively connected to the information processing device.
A program that causes a computer to execute a process of detecting the activity of a student in each of a plurality of groups based on at least one of an image of a student belonging to the group or a voice emitted by the student.
JP2020079581A 2020-04-28 2020-04-28 Information processing system, information processing method, and program Pending JP2021173935A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020079581A JP2021173935A (en) 2020-04-28 2020-04-28 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020079581A JP2021173935A (en) 2020-04-28 2020-04-28 Information processing system, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021173935A true JP2021173935A (en) 2021-11-01

Family

ID=78281738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020079581A Pending JP2021173935A (en) 2020-04-28 2020-04-28 Information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2021173935A (en)

Similar Documents

Publication Publication Date Title
CN109600678B (en) Information display method, device and system, server, terminal and storage medium
KR20170012979A (en) Electronic device and method for sharing image content
Woodill Unique affordances of mobile learning
US11950030B2 (en) Electronic apparatus and method of controlling the same, and recording medium
WO2012008553A1 (en) Robot system
JP2021173935A (en) Information processing system, information processing method, and program
JP2023130822A (en) Apparatus system, imaging apparatus, and display method
JP2023131635A (en) Display system, display method, imaging apparatus, and program
US20220078332A1 (en) Information processing apparatus, information processing system, information processing method, and non-transitory recording medium
JP7384231B2 (en) Information processing device, information processing system, medical support method and program
CN110795639A (en) Method, device, electronic equipment and medium for receiving information
EP4294019A1 (en) Display terminal, communication system, display method, and communication method
US20230421866A1 (en) Server apparatus of distribution system
US20230238018A1 (en) Information processing apparatus, information processing system, information processing method, and non-transitory recording medium
US11317293B2 (en) Methods for authenticating a user of an electronic device
US20230308764A1 (en) Display terminal, communication system, method for displaying, method for communicating, and recording medium
US20230326001A1 (en) Display terminal, display method, and recording medium
US20230113867A1 (en) Media distribution system, communication system, distribution control apparatus, and distribution control method
JP7238579B2 (en) Terminal device, attendance management system, attendance management method, and program
JP6368881B1 (en) Display control system, terminal device, computer program, and display control method
JP2023184430A (en) Display terminal, communication system, display method, communication method, and program
JP2023137823A (en) Equipment system, information processing method, information processing system, program, and imaging device
JP2024033277A (en) Communication system, information processing system, video reproduction method, and program
JP2023140923A (en) Display terminal, information processing system, communication system, display method, information processing method, communication method, and program
JP2024008632A (en) Information processing system, display method, program, and recording information creation system