WO2022131178A1 - ウェブ会議システム - Google Patents

ウェブ会議システム Download PDF

Info

Publication number
WO2022131178A1
WO2022131178A1 PCT/JP2021/045706 JP2021045706W WO2022131178A1 WO 2022131178 A1 WO2022131178 A1 WO 2022131178A1 JP 2021045706 W JP2021045706 W JP 2021045706W WO 2022131178 A1 WO2022131178 A1 WO 2022131178A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
viewer
presenter
display
satisfaction
Prior art date
Application number
PCT/JP2021/045706
Other languages
English (en)
French (fr)
Inventor
信行 松川
勝 川▲崎▼
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020207795A external-priority patent/JP2022094736A/ja
Priority claimed from JP2020212442A external-priority patent/JP2022098825A/ja
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2022131178A1 publication Critical patent/WO2022131178A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Definitions

  • This disclosure relates to a web conferencing system.
  • the so-called web conference is known as a conference held by multiple people. Unlike a face-to-face conference, a web conference is held by participants from a remote location via a terminal and a network. In a web conference, it is more difficult to grasp the reactions and facial expressions of other participants than in a face-to-face conference. On the other hand, for example, by detecting the gestures of the participants in the web conference, counting the speech request level, and displaying the raised hand mark when the count exceeds a certain level, it is possible to easily grasp the participants with high speech requests. (For example, see Patent Document 1).
  • Patent Document 1 it is difficult to grasp the concentration level of the participants, and it is difficult to respond flexibly according to the concentration level of the participants.
  • the present disclosure has been made in view of the above, and an object of the present disclosure is to provide a web conferencing system in which participants can respond flexibly according to the atmosphere in a web conferencing.
  • the web conferencing system is capable of communicating information with each other via a network, includes a plurality of participant terminals used by participants participating in the web conference, and is provided for each of the participant terminals.
  • a display unit that can display the contents of the conference, a line-of-sight information acquisition unit that acquires the line-of-sight information of the participants, and a target area are set in the display unit at a predetermined timing, and the target area is set in the display unit, and the target area is set based on the acquired line-of-sight information.
  • a determination unit that determines whether or not the line of sight of the participant matches the target area on the display unit, a concentration degree calculation unit that calculates the concentration degree of the participant based on the determination result, and the participant's above.
  • a display control unit for displaying the degree of concentration on at least one display unit is provided.
  • the web conferencing system can communicate information with each other via a network, includes a plurality of participant terminals used by participants participating in the web conference, and acquires reference information regarding the participation status of the participants.
  • a reference information acquisition unit includes a score calculation unit that calculates a score according to the participation state of the participant based on the acquired reference information, and a satisfaction level of the participant based on the calculated score. It includes a satisfaction calculation unit for calculation and a display control unit for displaying the calculated satisfaction on the display unit.
  • participants can respond flexibly to the atmosphere in a web conference.
  • FIG. 1 is a diagram schematically showing an example of a web conferencing system according to the present embodiment.
  • FIG. 2 is a block diagram showing an example of a web conferencing system.
  • FIG. 3 is a diagram showing an example of the calibration process.
  • FIG. 4 is a diagram showing an example of a case where the display of the display unit changes.
  • FIG. 5 is a diagram showing another example when the display of the display unit changes.
  • FIG. 6 is a diagram showing another example in which a predetermined timing occurs.
  • FIG. 7 is a diagram showing another example of the timing at which a predetermined keyword is detected.
  • FIG. 8 is a diagram schematically showing an example of the degree of concentration stored in the storage unit.
  • FIG. 9 is a diagram showing an example of the degree of concentration displayed on the display unit.
  • FIG. 1 is a diagram schematically showing an example of a web conferencing system according to the present embodiment.
  • FIG. 2 is a block diagram showing an example of a web conferencing system.
  • FIG. 10 is a flowchart showing an example of the operation flow of the web conferencing system according to the present embodiment.
  • FIG. 11 is a diagram schematically showing another example of the web conferencing system according to the present embodiment.
  • FIG. 12 is a block diagram showing another example of a web conferencing system.
  • FIG. 13 is a diagram schematically showing an example of a score calculated by the score calculation unit.
  • FIG. 14 is a diagram showing an example of the correspondence between the keyword and the content of the meeting.
  • FIG. 15 is a diagram schematically showing an example of satisfaction stored in the storage unit.
  • FIG. 16 is a diagram showing an example of satisfaction displayed on the display unit.
  • FIG. 17 is a flowchart showing an example of the operation flow of the web conferencing system according to the present embodiment.
  • FIG. 1 is a diagram schematically showing an example of the web conferencing system 100 according to the present embodiment.
  • FIG. 2 is a block diagram showing an example of the web conferencing system 100.
  • the web conferencing system 100 includes a viewer terminal 10 and a presenter terminal 20.
  • the viewer terminal 10 and the presenter terminal 20 are participant terminals that can communicate information with each other via the network NW and are used by participants participating in the web conference.
  • a case where there is a presenter who announces a predetermined conference content and a viewer who watches the presenter's presentation content as participants of the web conference will be described as an example.
  • the viewer terminal 10 is a terminal used by the viewer of the web conference.
  • the presenter terminal 20 is a terminal used by the presenter of the web conference.
  • the web conference is held in such a manner that the content of the remarks made by the presenter is transmitted from the presenter terminal 20 to the viewer terminal 10 and the content of the remarks received by the viewer terminal 10 is viewed by the viewer.
  • the viewer terminal 10 has an input unit 11, a display unit 12, a communication unit 13, a storage unit 14, and a control unit 15.
  • the input unit 11, the display unit 12, the communication unit 13, the storage unit 14, and the control unit 15 are connected via, for example, a bus line or the like.
  • Examples of the viewer terminal 10 include information terminals such as mobile phones, smartphones, tablets, notebook personal computers, and desktop personal computers.
  • the input unit 11 can perform a predetermined input operation for inputting information.
  • the input unit 11 outputs an instruction signal to the control unit 15 in response to the input operation.
  • an input device such as a touch panel is used.
  • a button, a lever, a dial, a switch, or another input device may be used in addition to the touch panel or in place of the touch panel.
  • the input unit 11 outputs an instruction signal corresponding to a predetermined input operation.
  • the display unit 12 displays various information including characters and images.
  • the display unit 12 has a display panel such as a liquid crystal panel.
  • the display unit 12 is provided for each viewer terminal 10.
  • the display unit 12 can display information such as the contents of the web conference.
  • the operation of the display unit 12 is performed by a display control unit (not shown).
  • the communication unit 13 communicates information with an external device such as the presenter terminal 20 via the network NW by wire or wirelessly.
  • the storage unit 14 has storage such as a hard disk drive and a solid state drive. An external storage medium such as a removable disk may be used as the storage unit 14.
  • the storage unit 14 stores the operating system of the viewer terminal 10, various programs and data for controlling the operations of the input unit 11, the display unit 12, and the communication unit 13.
  • the control unit 15 controls each unit of the input unit 11, the display unit 12, and the communication unit 13. Further, the control unit 15 performs calculations, processing, and the like according to the instruction signal from the input unit 11.
  • the control unit 15 has a processing device such as a CPU (Central Processing Unit) and a storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • control unit 15 includes a line-of-sight information acquisition unit 16, a determination unit 17, a concentration ratio calculation unit 18, and a communication control unit 19.
  • the line-of-sight information acquisition unit 16 acquires the line-of-sight information of the viewer.
  • the line-of-sight information acquisition unit 16 can acquire the line-of-sight information of the viewer by performing image analysis based on, for example, an image of the viewer's eyes taken by the camera C1.
  • the line-of-sight information acquisition unit 16 detects the line of sight based on, for example, the position of the pupil of the viewer and the position of the corneal reflex image, or detects the line of sight based on the position of the inner corner of the viewer's eye and the position of the iris.
  • the line of sight of the viewer can be detected by various methods such as.
  • the line-of-sight information acquisition unit 16 can acquire line-of-sight information at predetermined periods, for example, at intervals of the frame synchronization signal output from the camera C1.
  • the determination unit 17 sets a target area on the display unit 12 at a predetermined timing, and determines whether or not the line of sight of the viewer on the display unit 12 matches the target area based on the acquired line-of-sight information.
  • the determination unit 17 can set a target area at a position where a predetermined image is displayed on the display unit 12, for example.
  • the determination unit 17 determines whether or not the viewer's line of sight exists in the target area during the period in which the target area is set.
  • the determination unit 34 may have a predetermined period, for example, the same period as the period of the frame synchronization signal output from the camera C1.
  • the predetermined timing is, for example, a timing at which the display of the display unit 12 changes, another viewer acquired by a voice input unit such as a microphone M1 of another viewer terminal 10 or a microphone M2 of the presenter terminal 20 described later. Or at least one of the timing when a predetermined keyword is detected from the voice of the presenter and the timing when a certain period has passed since the voice of another viewer or the presenter is no longer output from the voice output unit such as the speaker S1. including.
  • the timing when a keyword indicating switching of topics such as "by the way” and “the story changes” is detected, the timing when a reverse conjunction such as "where" and "but” is detected, and the announcement.
  • the timing at which the word contained in the material of the person and the word contained in the voice of the presenter match, the timing at regular intervals, and the degree of movement of the viewer when the viewer is photographed by the camera C1 are predetermined values. The timing when it became lower than that, etc. can be mentioned.
  • the concentration degree calculation unit 18 calculates the concentration degree of the viewer based on the determination result of the determination unit 17.
  • the concentration degree calculation unit 18 may calculate the characteristics of the line-of-sight information for each viewer terminal 10, that is, for each viewer, and calculate the concentration degree based on the determination result of the determination unit 17 and the calculation result of the characteristic information. ..
  • the characteristics of the line-of-sight information for each viewer can be, for example, immediately after the start of the web conference.
  • the concentration degree calculation unit 18 can calculate the concentration degree based on the ratio of the number of times determined by the determination unit 17, for example, to the number of times the line of sight is determined to exist in the target region.
  • the communication control unit 19 accesses the network NW via the communication unit 13 and transmits / receives information to / from the presenter terminal 20.
  • the communication control unit 19 causes the communication unit 13 to receive at least one of video and audio including the content of the presenter's remarks from, for example, the presenter terminal 20.
  • the communication control unit 19 causes the communication unit 13 to transmit each information such as the line-of-sight information, the determination result of the determination unit, the characteristics of the viewer, and the degree of concentration to the presenter terminal 20.
  • the presenter terminal 20 has an input unit 21, a display unit 22, a communication unit 23, a storage unit 24, and a control unit 25.
  • the input unit 21, the display unit 22, the communication unit 23, the storage unit 24, and the control unit 25 are connected via, for example, a bus line or the like.
  • Examples of the presenter terminal 20 include information terminals such as mobile phones, smartphones, tablets, notebook personal computers, and desktop personal computers, as in the case of the viewer terminal 10.
  • the input unit 21 can perform a predetermined input operation for inputting information.
  • the input unit 21 outputs an instruction signal to the control unit 25 in response to the input operation.
  • an input device such as a touch panel is used.
  • a button, a lever, a dial, a switch, or another input device may be used in addition to the touch panel or in place of the touch panel.
  • the input unit 21 outputs an instruction signal corresponding to a predetermined input operation.
  • the display unit 22 displays various information including characters and images.
  • the display unit 22 has a display panel such as a liquid crystal panel.
  • the display unit 22 can display information including video.
  • the communication unit 23 communicates information with an external device such as a viewer terminal 10 via a network NW by wire or wirelessly.
  • the communication unit 23 receives each information such as the line-of-sight information transmitted from the viewer terminal 10, the determination result of the determination unit, the characteristics of the viewer, and the degree of concentration.
  • the storage unit 24 has storage such as a hard disk drive and a solid state drive. An external storage medium such as a removable disk may be used as the storage unit 24.
  • the storage unit 24 stores the operating system of the presenter terminal 20, various programs and data for controlling the operations of the input unit 21, the display unit 22, and the communication unit 23.
  • the control unit 25 controls each unit of the input unit 21, the display unit 22, and the communication unit 23. Further, the control unit 25 performs calculations, processing, and the like according to the instruction signal from the input unit 21.
  • the control unit 25 has a processing device such as a CPU and a storage device such as RAM and ROM.
  • the control unit 25 includes a concentration ratio acquisition unit 26, a display control unit 27, and a communication control unit 28.
  • the concentration level acquisition unit 26 acquires the concentration level transmitted from the viewer terminal 10 and received by the communication unit 23.
  • the display control unit 27 can display, for example, the image of the presenter taken by the camera C2 and the image of the viewer taken by the camera C1 on the display unit 22.
  • the display control unit 27 displays the acquired concentration ratio on the display unit 22.
  • the display control unit 27 can display the image in a state of being associated with the image of the viewer, for example, by superimposing the degree of concentration on the image of the viewer.
  • the communication control unit 28 accesses the network NW via the communication unit 23 and transmits / receives information to / from the viewer terminal 10.
  • the communication control unit 28 acquires at least one of the video and audio including the presentation content of the presenter and causes the communication unit 23 to transmit the video and audio to the viewer terminal 10.
  • the communication control unit 28 can acquire the image of the presenter who has taken the presenter by, for example, the camera C2.
  • the communication control unit 28 can acquire, for example, the voice of the presenter input to the microphone M2.
  • the presenter announces a predetermined content on the presenter terminal 20, the presentation content is acquired by shooting and recording with the camera C2 and the microphone M2, and the acquired presentation content is transmitted from the communication unit 23 to the viewer terminal 10.
  • the viewer views the presentation content on the viewer terminal 10 will be described as an example.
  • the presenter announces a predetermined content using the presenter terminal 20
  • the announcement content is acquired by shooting and recording with the camera C2 and the microphone M2, and the acquired announcement content is transmitted from the communication unit 23 to the viewer terminal 10. ..
  • the presenter is made to perform calibration in order to calculate the characteristics of the viewer on the viewer terminal 10.
  • FIG. 3 is a diagram showing an example of the calibration process.
  • the presenter starts the presentation so that the targets T1 to T4 are sequentially displayed in the screen sharing area 12m of the display unit 12 of the viewer terminal 10.
  • the targets T1 to T4 can be displayed in a shape, characters, patterns, etc. that can be visually recognized by the viewer.
  • a circular target is taken as an example, but the present invention is not limited to this, and other display modes may be used.
  • the presenter may make a statement to guide the viewer to look at the target, such as "Please look at the target". Further, the character information that guides the viewer to see the target may be displayed in the screen sharing area 12m.
  • the determination unit 17 sets the target area AR corresponding to each position of the targets T1 to T4 during the period when the targets T1 to T4 are displayed.
  • the line-of-sight information acquisition unit 16 acquires the line-of-sight information of the viewer.
  • the determination unit 17 determines whether or not the viewer's line of sight is in the target area AR.
  • the time from when the first target T1 is displayed until it is determined that the line of sight of the viewer exists in the target area AR corresponding to the target T1 may differ depending on the viewer.
  • the time from the switching of the display until it is determined that the line of sight of the viewer exists in the target area AR corresponding to the target T2 may differ depending on the viewer. ..
  • the reaction time from the start of display or the change of the display content to the reaction of the viewer includes individual differences.
  • the individual difference in reaction time is reflected when the degree of concentration is calculated from the line-of-sight information of the viewer in the subsequent viewing period.
  • the concentration ratio calculation unit 18 calculates the ratio between the number of times determined by the determination unit 17 and the number of times the line of sight is determined to exist in the target region, the reaction time is relatively slow for the viewer. Compared to a viewer whose reaction time is relatively fast, the degree of concentration can be the same even if the ratio is low. In this way, by reflecting the characteristics of each viewer, the degree of concentration can be calculated accurately.
  • the line-of-sight information acquisition unit 16 detects whether or not a preset predetermined timing (trigger) has occurred.
  • the predetermined timing include the timing at which the display of the display unit 12 changes.
  • FIG. 4 is a diagram showing an example of a case where the display of the display unit 12 changes. As shown on the upper side of FIG. 4, a page 12a indicating "Material 1" is displayed in the screen sharing area 12m of the display unit 12. From this state, as shown in the lower part of FIG. 4, when the display of the screen sharing area 12m is switched to the page 12b indicating "Material 2", the determination unit 17 may determine that a predetermined timing has occurred. can. In this case, the determination unit 17 sets the target area AR1 at the upper part of the page 12b.
  • FIG. 5 is a diagram showing another example when the display of the display unit 12 changes.
  • an instruction index such as a pointer displayed on the display unit 12 moves.
  • the pointer 12p which is an instruction index
  • the determination unit 17 can determine that a predetermined timing has occurred. In this case, the determination unit 17 sets the target area AR2 in and around the movement destination of the pointer 12p in the display unit 12.
  • the predetermined timing includes, for example, the timing at which a predetermined keyword is detected among the voices input by the presenter via the microphone M2.
  • the presenter may make a statement via the microphone M2 to instruct the viewer where to look, such as "Please look at the position of XX". From this statement, it is possible to determine the degree of concentration of the viewer by detecting whether or not the viewer is looking at the position as instructed by the presenter.
  • the keyword of the content that guides the presenter to see a specific position on the display unit 12 is stored in the storage unit 14 in advance.
  • keywords include words indicating directions or positions such as up / down / left / right, center, and edges, and words indicating display targets such as sentences, drawings, and photographs.
  • the determination unit 17 can determine that the trigger has occurred when the presenter's remark content and the keyword stored in the storage unit 14 are compared and a matching word is detected.
  • FIG. 6 is a diagram showing another example in which a predetermined timing occurs.
  • the presenter makes a statement saying, for example, "Please see the drawing on the lower left".
  • the sound of the presenter is output from the speaker S1 of the viewer terminal 10.
  • the determination unit 17 can detect the words “lower left” and “drawing” based on the statement that the presenter guides to see the lower left screen, and can determine that the trigger has occurred.
  • the determination unit 17 sets the target area AR3 in the area corresponding to the “lower left” and “drawing” based on the detected keyword.
  • drawings F1, F2, and F3 are shown.
  • drawing F1 is arranged at the upper left of page 12d.
  • the drawing F2 is arranged in the center of page 12d (slightly from the right).
  • the drawing F3 is arranged at the lower left of page 12d.
  • sentences are displayed in the upper right and lower right of page 12d. Therefore, the determination unit 17 can set the target area AR3 in the area including the lower left drawing F3.
  • the presenter makes a statement to the effect that "the screen is shared” via the microphone M2.
  • the screen sharing area is displayed on the display unit 12. Therefore, the degree of concentration of the viewer can be obtained by detecting whether or not the viewer is viewing the screen sharing area by the presenter's remark "Share the screen".
  • a keyword indicating that the presenter shares the screen is stored in the storage unit 14 in advance.
  • keywords include words such as screen and sharing.
  • the determination unit 17 can determine that the trigger has occurred when the presenter's remark content and the keyword stored in the storage unit 14 are compared and a matching word is detected.
  • FIG. 7 is a diagram showing another example of the timing at which a predetermined keyword is detected.
  • the screen 12e indicating the presenter and the screen 12f indicating another viewer are displayed side by side on the display unit 12 of the viewer. Will be done. From this state, it is assumed that the presenter makes a statement to share the screen.
  • the audio of the presenter is output from the speaker S1 of the viewer terminal 10.
  • the determination unit 17 can detect the words "screen” and "share” and determine that the trigger has occurred.
  • the presenter's screen is enlarged and the screen sharing area 12 m is displayed as shown in the lower part of FIG. 7.
  • the determination unit 17 can set the target area AR4 in the screen sharing area 12m based on the detected keyword. In the example shown in FIG. 7, the page 12g is shown in the screen sharing area 12m.
  • the determination unit 17 can set the target area AR4 in the page 12g displayed in the screen sharing area 12m.
  • the mode is not limited to the above-mentioned keyword as a trigger.
  • the trigger may be that the screen 12e indicating the presenter has moved to the screen sharing area 12m.
  • the determination unit 17 can set the target area in the whole or a part of the screen sharing area 12m.
  • the viewer terminal 10 can have a stereo speaker or a stereo headphone and a processing unit capable of sound field localization.
  • the viewer's line of sight is guided by allowing the presenter's voice to be heard from the position of the screen 12e (screen sharing area 12 m after movement) indicating the presenter on the display unit 12 of the viewer terminal 10. It can be activated.
  • the determination unit 17 moves the object.
  • the determination unit 17 can set the target area in the area corresponding to the object to be moved.
  • the object is not limited to the screen 12e showing the presenter, and may be another display object (arbitrary image).
  • the image of the presenter is displayed near the upper left of "Material 2" (near the target area AR1 in FIG. 4).
  • the area including the image of the presenter and the upper part of the page 12b is set as the target area AR1.
  • only the image of the presenter may be set in the target area AR1.
  • an arbitrary image may be displayed instead of the image of the presenter, and the area including the image may be set as the target area AR1.
  • the image of the presenter is displayed near the pointer 12p, and the area including the pointer 12p and the image of the presenter is set in the target area AR2.
  • the image of the presenter may move as the pointer 12p moves downward, and the area including the pointer 12p and the image of the presenter may be set in the target area AR2. ..
  • the pointer 12p does not have to move downward and the presenter's image does not have to move downward at the same time.
  • the pointer 12p may not be displayed and only the image of the presenter may be displayed, and the area including the image of the presenter may be set in the target area AR2.
  • an arbitrary image may be displayed instead of the image of the presenter, and the area including the image may be set in the target area AR2.
  • the movement of the pointer 12p, the image of the presenter, or any image may be used as a trigger.
  • the trigger can be generated at a timing when a certain period of time has elapsed since the audio of another viewer or presenter is no longer output from the audio output unit such as the speaker S1.
  • the concentrated viewer may try to perform an operation for confirming whether or not an abnormality has occurred in the viewer terminal 10, for example.
  • the line of sight is moved to the upper, lower, left, and right sides of the display unit 12 in order to see the toolbar or the like displayed on the display unit 12. Therefore, the determination unit 17 can determine that the trigger has occurred when a certain period of time has elapsed after the audio of another viewer or presenter is no longer output from the audio output unit such as the speaker S1.
  • the determination unit 17 can set a target area in an area along the upper, lower, left, and right sides of the display unit 12, for example.
  • the line-of-sight information acquisition unit 16 acquires the line-of-sight information of the viewer.
  • the determination unit 17 determines whether or not the line of sight of the viewer matches the target area.
  • the concentration ratio calculation unit 18 can calculate the concentration ratio based on the characteristics of each viewer and the determination result.
  • the concentration calculation unit 18 has, for example, two stages of low (0) and high (1), or low (0), slightly low (1), normal (2), and slightly high (3). ), High (4), etc., the degree of concentration can be calculated.
  • the communication control unit 19 causes the communication unit 13 to transmit the reference information and the concentration level information from the communication unit 13 to the presenter terminal 20 in real time, for example.
  • the communication unit 23 receives the above-mentioned information transmitted from the viewer terminal 10.
  • the concentration level acquisition unit 26 acquires the concentration level transmitted from each viewer terminal 10 and received by the communication unit 23.
  • the concentration level acquisition unit 26 stores the acquired concentration level in the storage unit 24 in association with the viewer.
  • FIG. 8 is a diagram schematically showing an example of the degree of concentration stored in the storage unit 24. As shown in FIG. 8, in the storage unit 24, for example, viewers 1 to 5, determination results 1 to determination results 5, characteristics 1 to characteristics 5 for each viewer, and a degree of concentration (slightly low, normal). , Slightly high, high, slightly high) are memorized correspondingly.
  • the display control unit 27 displays the acquired concentration ratio on the display unit 22.
  • FIG. 9 is a diagram showing an example of the degree of concentration displayed on the display unit 22.
  • the display control unit 27 displays the presenter display screen 22a that displays the image of the presenter's presentation taken by the camera C2, and the viewing that displays the image of the viewer taken by the camera C1.
  • the person display screen 22b is displayed on the display unit 22.
  • the display control unit 27 can display the concentration level stored in the storage unit 24, for example, by superimposing it on the viewer display screen 22b.
  • the display control unit 27 can display the concentration degree by various display modes such as a numerical value indicating the magnitude of the concentration degree, an icon, and an indicator.
  • the face icon 22c is displayed as the degree of concentration.
  • the display example of the degree of concentration is not limited to this, and may be another display mode such as a numerical value or an indicator.
  • the presenter can see the degree of concentration displayed on the display unit 22 and reflect it in the content of the presentation, the method of presentation, etc. so that the degree of concentration is improved.
  • FIG. 10 is a flowchart showing an example of the operation flow of the web conferencing system 100 according to the present embodiment.
  • a flowchart is described in a state where the processing on the viewer terminal 10 and the processing on the presenter terminal 20 are separated.
  • the announcement content is acquired by shooting and recording with the camera C2 and the microphone M2, and the acquired announcement content is transmitted from the communication unit 23 to the viewer terminal 10. (Step S101).
  • the viewer terminal 10 receives and outputs the presentation content transmitted from the presenter terminal 20 (step S102).
  • the viewer views the output content of the announcement.
  • the concentration ratio calculation unit 18 performs a calibration process for calculating the characteristics of each viewer when the output of the presentation content is started (step S103).
  • the determination unit 17 detects whether or not a predetermined predetermined timing (trigger) set in advance has occurred (step S104). When the determination unit 17 does not detect the trigger (No in step S104), the determination unit 17 repeats the process of step S104.
  • the determination unit 17 sets the target area on the display unit 12 (step S105).
  • the line-of-sight information acquisition unit 16 acquires the line-of-sight information of the viewer (step S106).
  • the determination unit 17 determines whether or not the viewer's line of sight matches the target region based on the line-of-sight information (step S107).
  • the concentration degree calculation unit 18 calculates the concentration degree based on the determination result and the characteristics of each viewer (step S108).
  • the communication control unit 19 transmits the calculated concentration ratio from the communication unit 13 to the presenter terminal 20 (step S109).
  • control unit 15 determines whether or not the presenter's presentation has been completed (step S110). When it is determined that the presenter's presentation is completed (Yes in step S110), the process is terminated. If it is determined that the presenter's presentation has not been completed (No in step S110), the processes after step S106 are repeated.
  • the concentration level transmitted in step S109 is received by the communication unit 23, and the received concentration level is acquired by the concentration level acquisition unit 26 (step S111).
  • the concentration degree acquisition unit 26 stores the acquired concentration degree in the storage unit 24.
  • the display control unit 27 displays the degree of concentration stored in the storage unit 24 on the display unit 22 (step S112).
  • step S113 determines whether or not the presenter's presentation has been completed. When it is determined that the presenter's presentation is completed (Yes in step S113), the process is terminated. If it is determined that the presenter's presentation has not been completed (No in step S113), the processes after step S111 are repeated.
  • the web conferencing system 100 can communicate information with each other via the network NW, and is provided for each of the viewer terminal 10 and the presenter terminal 20 to display the contents of the web conferencing.
  • a target area is set in the display unit 12 at a predetermined timing, the line-of-sight information acquisition unit 16 for acquiring the line-of-sight information of the viewer, and the viewer in the display unit 12 based on the acquired line-of-sight information.
  • the determination unit 17 that determines whether or not the line of sight matches the target area, the concentration calculation unit 18 that calculates the concentration of the viewer based on the determination result, and the display unit 22 display the concentration of the viewer.
  • a display control unit 27 is provided.
  • the concentration of the viewer is calculated based on whether or not the line of sight of the viewer matches the target area, and the calculated concentration is displayed on the display unit 22.
  • the presenter can grasp the concentration degree of the viewer by looking at the display unit 22. Therefore, the presenter can easily grasp the atmosphere of the web conference. As a result, for example, the presenter can flexibly proceed with the web conference according to the atmosphere. In this way, the participants can respond flexibly to the web conference according to the atmosphere.
  • the display unit 12 can display a predetermined image, and the determination unit 17 sets a target area at a position where the predetermined image is displayed.
  • the degree of concentration of the viewer can be appropriately obtained based on whether or not the predetermined image displayed on the display unit 12 is being viewed.
  • the predetermined timings are the timing when the display of the display unit 12 changes, the timing when the predetermined keyword is detected from the voice of the participant acquired by the voice input unit, and the voice output. Includes at least one of the timings when a certain period of time has passed since the participant's voice was no longer output from the department.
  • the degree of concentration can be appropriately obtained by setting the timing at which the viewer's line of sight is determined.
  • the concentration calculation unit 18 calculates the characteristics of the line-of-sight information for each participant terminal, and calculates the concentration based on the determination result and the characteristics. In this configuration, the degree of concentration can be appropriately calculated by reflecting the characteristics of the viewer.
  • the concentration calculation unit 18 calculates the characteristics at the start of the web conference. In this configuration, by calculating the characteristics at the start of the web conference, the characteristics will be reflected in the concentration level in the subsequent web conferences.
  • the technical scope of the present disclosure is not limited to the above embodiment, and changes can be made as appropriate without departing from the spirit of the present disclosure.
  • the configuration may be such that the concentration of presenters can be calculated.
  • the control unit 25 of the presenter terminal 20 is provided with the same configuration as the line-of-sight information acquisition unit 16, the determination unit 17, and the concentration degree calculation unit 18, and the control unit 25 calculates the concentration degree of the presenter. ..
  • the display control unit 27 can display the calculated concentration ratio of the presenters as an icon 22d or the like on the presenter display screen 22a of the display unit 22 of the presenter terminal 20, as shown in FIG. 9, for example.
  • the calculated concentration ratio of the presenters may be transmitted to the viewer terminal 10 and displayed on the display unit 12 of the viewer terminal 10.
  • the concentration level of the viewer is displayed on the display unit 22 of the presenter terminal 20
  • the present invention is not limited to this.
  • the degree of concentration of the viewer may be displayed on the display unit 12 of the viewer terminal 10. With this configuration, the viewer can watch the presentation contents of the presenter while grasping his / her concentration level.
  • the configuration in which the line-of-sight information acquisition unit 16, the determination unit 17, and the concentration ratio calculation unit 18 are provided in the viewer terminal 10 has been described as an example, but the present invention is not limited to this.
  • the web conferencing system 100 is configured to include, in addition to the viewer terminal 10 and the presenter terminal 20, a server device (not shown) capable of communicating with the viewer terminal 10 and the presenter terminal 20 via the network NW.
  • the server device may be provided with at least one of a determination unit 17 and a concentration calculation unit 18.
  • the communication units 13 and 23 receive the determination result determined by the server device, and the concentration ratio can be calculated based on the received determination result.
  • the viewer terminal 10 and the presenter terminal 20 can receive the concentration degree calculated by the server device and display the received concentration degree on the display units 12 and 22.
  • the concentration calculation unit 18 calculates a score in a part of the usage period (for example, viewing period, presentation period) of the terminal (viewer terminal 10, participant terminal 20), and the concentration ratio is based on the score. May be calculated.
  • FIG. 11 is a diagram schematically showing another example of the web conferencing system 200 according to the present embodiment.
  • FIG. 12 is a block diagram showing another example of the web conferencing system 200.
  • the web conferencing system 200 includes a viewer terminal 110 and a presenter terminal 120.
  • the viewer terminal 110 and the presenter terminal 120 are participant terminals that can communicate information with each other via the network NW and are used by participants participating in the web conference.
  • a case where there is a presenter who announces a predetermined conference content and a viewer who watches the presenter's presentation content as participants of the web conference will be described as an example.
  • the viewer terminal 110 is a terminal used by the viewer of the web conference.
  • the presenter terminal 120 is a terminal used by the presenter of the web conference.
  • the web conference is held in such a manner that the content of the remarks made by the presenter is transmitted from the presenter terminal 120 to the viewer terminal 110, and the content of the remarks received by the viewer terminal 110 is viewed by the viewer.
  • the viewer terminal 110 has an input unit 111, a display unit 112, a communication unit 113, a storage unit 114, and a control unit 115.
  • the input unit 111, the display unit 112, the communication unit 113, the storage unit 114, and the control unit 115 are connected via, for example, a bus line or the like.
  • Examples of the viewer terminal 110 include information terminals such as mobile phones, smartphones, tablets, notebook personal computers, and desktop personal computers.
  • the input unit 111 can perform a predetermined input operation for inputting information.
  • the input unit 111 outputs an instruction signal to the control unit 115 in response to the input operation.
  • an input device such as a touch panel is used.
  • a button, a lever, a dial, a switch, or another input device may be used in addition to the touch panel or in place of the touch panel.
  • the input unit 111 outputs an instruction signal corresponding to a predetermined input operation.
  • the display unit 112 displays various information including characters and images.
  • the display unit 112 has a display panel such as a liquid crystal panel.
  • the display unit 112 can display information including video.
  • the communication unit 113 communicates information with an external device such as the presenter terminal 120 via the network NW by wire or wirelessly.
  • the storage unit 114 has storage such as a hard disk drive and a solid state drive. An external storage medium such as a removable disk may be used as the storage unit 114.
  • the storage unit 114 stores the operating system of the viewer terminal 110, various programs and data for controlling the operations of the input unit 111, the display unit 112, and the communication unit 113.
  • the control unit 115 controls each unit of the input unit 111, the display unit 112, and the communication unit 113. Further, the control unit 115 performs calculations, processes, and the like according to the instruction signal from the input unit 111.
  • the control unit 115 has a processing device such as a CPU (Central Processing Unit) and a storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • control unit 115 includes a reference information acquisition unit 116, a score calculation unit 117, a satisfaction calculation unit 118, and a communication control unit 119.
  • the reference information acquisition unit 116 acquires reference information regarding the participation state of the viewer using the viewer terminal 110, that is, the viewing state.
  • the reference information includes information such as a viewer's video, a viewer's voice, and a viewer's biological information.
  • the reference information acquisition unit 116 can acquire, for example, a viewer's image taken by the camera C11. Further, the reference information acquisition unit 116 can acquire the viewer's voice input to the microphone M11, for example. Further, the reference information acquisition unit 116 may be configured to acquire the biological information of the viewer detected by, for example, a biological information sensor (not shown), or is detected from the image of the viewer based on a known technique. It may be configured to acquire biological information.
  • the score calculation unit 117 calculates a score according to the viewing state of the viewer based on the acquired reference information.
  • the viewing state of the viewer includes a plurality of items indicating the state of the viewer viewing the web conference.
  • the plurality of items include, for example, the number of times the viewer nods, the number of times the viewer bends his / her head, the number of times the eyes are turned away from the presenter, the number of times the eyes are aligned with the camera C11, and the number of times the eyes are distracted from the material displayed on the display unit 112.
  • the score calculation unit 117 calculates the score for each item included in the viewing state.
  • the score calculation unit 117 determines whether or not the viewing state of the viewer corresponds to the above-mentioned plurality of items based on the reference information.
  • the score calculation unit 117 records the score of the item. For example, when the score calculation unit 117 determines that the viewer nods, the score calculation unit 117 counts the score corresponding to the item of "the number of times the viewer nods" for one time.
  • the score calculation unit 117 accumulates and calculates the score during the viewing period during which the viewer views the web conference. For example, the score calculation unit 117 accumulates the score (number of nods) by 1 (times) each time the viewer is detected to nod during the viewing period.
  • Satisfaction calculation unit 118 calculates the satisfaction of the viewer based on the calculated score.
  • the satisfaction level calculation unit 118 may weight the score calculated for each of a plurality of items according to the content of the web conference.
  • the satisfaction calculation unit 118 can extract keywords based on the voices of at least one participant of the presenter and the viewer, and determine the content of the web conference based on the extracted keywords.
  • the satisfaction calculation unit 118 calculates the satisfaction based on the cumulative result of accumulating the scores.
  • the communication control unit 119 accesses the network NW via the communication unit 113, and transmits / receives information to / from the presenter terminal 120.
  • the communication control unit 119 causes the communication unit 113 to receive at least one of the video and audio including the content of the presenter's remark from the presenter terminal 120, for example.
  • the communication control unit 119 causes the communication unit 113 to transmit each information such as reference information, score, viewer characteristics, satisfaction, etc. to the presenter terminal 120.
  • the presenter terminal 120 has an input unit 121, a display unit 122, a communication unit 123, a storage unit 124, and a control unit 125.
  • the input unit 121, the display unit 122, the communication unit 123, the storage unit 124, and the control unit 125 are connected via, for example, a bus line or the like.
  • Examples of the presenter terminal 120 include information terminals such as mobile phones, smartphones, tablets, notebook personal computers, and desktop personal computers, as in the case of the viewer terminal 110.
  • the input unit 121 can perform a predetermined input operation for inputting information.
  • the input unit 121 outputs an instruction signal to the control unit 125 in response to the input operation.
  • an input device such as a touch panel is used.
  • a button, a lever, a dial, a switch, or another input device may be used in addition to the touch panel or in place of the touch panel.
  • the input unit 121 outputs an instruction signal corresponding to a predetermined input operation.
  • the display unit 122 displays various information including characters and images.
  • the display unit 122 has a display panel such as a liquid crystal panel.
  • the display unit 122 can display information including video.
  • the communication unit 123 communicates information with an external device such as a viewer terminal 110 via a network NW by wire or wirelessly.
  • the communication unit 123 receives each information such as reference information, a score, a characteristic of a viewer, and a degree of satisfaction transmitted from the viewer terminal 110.
  • the storage unit 124 has storage such as a hard disk drive and a solid state drive. An external storage medium such as a removable disk may be used as the storage unit 124.
  • the storage unit 124 stores the operating system of the presenter terminal 120, various programs and data for controlling the operations of the input unit 121, the display unit 122, and the communication unit 123.
  • the control unit 125 controls each unit of the input unit 121, the display unit 122, and the communication unit 123. Further, the control unit 125 performs calculations, processing, and the like according to the instruction signal from the input unit 121.
  • the control unit 125 has a processing device such as a CPU and a storage device such as RAM and ROM.
  • the control unit 125 includes a satisfaction acquisition unit 126, a display control unit 127, and a communication control unit 128.
  • Satisfaction acquisition unit 126 acquires the satisfaction level transmitted from the viewer terminal 110 and received by the communication unit 123.
  • the display control unit 127 can display, for example, the image of the presenter taken by the camera C12 and the image of the viewer taken by the camera C11 on the display unit 122.
  • the display control unit 127 displays the acquired satisfaction level on the display unit 122.
  • the display control unit 22 can display the image in a state of being associated with the image of the viewer, for example, by superimposing the satisfaction level on the image of the viewer.
  • the communication control unit 128 accesses the network NW via the communication unit 123 and transmits / receives information to / from the viewer terminal 110.
  • the communication control unit 128 acquires at least one of the video and audio including the presentation content of the presenter and causes the communication unit 123 to transmit the video and audio to the viewer terminal 110.
  • the communication control unit 128 can acquire the image of the presenter who has taken the presenter by, for example, the camera C12.
  • the communication control unit 128 can acquire, for example, the voice of the presenter input to the microphone M12.
  • the presenter announces a predetermined content on the presenter terminal 120, the presentation content is acquired by shooting and recording with the camera C12 and the microphone M12, and the acquired presentation content is transmitted from the communication unit 123 to the viewer terminal 110.
  • the viewer views the presentation content on the viewer terminal 110 will be described as an example.
  • the reference information acquisition unit 116 acquires the captured and recorded contents as reference information.
  • the score calculation unit 117 calculates the score based on the acquired reference information.
  • the score calculation unit 117 stores the calculated score in the storage unit 114.
  • FIG. 13 is a diagram schematically showing an example of a score calculated by the score calculation unit 117.
  • FIG. 13 collectively shows the scores of a plurality of viewers (for example, viewers 1 to 5) calculated by different viewer terminals 110. As shown in FIG. 13, in each viewer terminal 110, the score calculation unit 117 accumulates and calculates the score in the viewing period for each preset item. As a result, the score for each viewer is calculated.
  • the score calculation unit 117 calculates the score for each meeting.
  • FIG. 13 shows scores S1, S2, S3 for different conferences t1, t2, t3.
  • the score S1 of the conference t1 is a score calculated in real time.
  • the scores S2 and S3 for the conferences t2 and t3 are the scores calculated in the past conferences.
  • the control unit 115 may detect the characteristics of the viewer based on the score calculated in the past conference. Such characteristics include, for example, the ease of score growth corresponding to a specific item, compatibility with the presenter, the relationship between the length of the meeting time and the score, and the like.
  • Satisfaction calculation unit 118 calculates the satisfaction of the viewer based on the calculated score.
  • the satisfaction level calculation unit 118 can weight the score calculated for each item according to the content of the web conference.
  • the satisfaction calculation unit 118 can extract a keyword based on the voice of the presenter and determine the content of the web conference based on the extracted keyword.
  • FIG. 14 is a diagram showing an example of the correspondence between the keyword and the content of the meeting. As shown in FIG. 14, a data table in which keywords and meeting contents are associated with each other can be stored in the storage unit 114 in advance.
  • the satisfaction calculation unit 118 extracts words by analyzing the voice of the presenter, for example, and the extracted words are stored as a data table.
  • Keywords word 1, word 2, word 3, word 4, . It is determined whether or not it matches with.
  • the satisfaction calculation unit 118 determines that they match, the satisfaction calculation unit 118 determines that the conference content (content 1, content 2, content 3, content 4, 7) Associated with the stored keyword is the content of the web conference. ..
  • Satisfaction calculation unit 118 determines the content of the web conference, and then sets the weighting of the score according to the content. For example, if the content of the meeting is a regular meeting such as morning assembly, lunch, progress report, etc., the content spoken by the presenter is easy for the viewer to hear, the viewer is paying attention to the presenter, and the viewer is content. It is important that you understand the above. Therefore, the satisfaction calculation unit 118 weights the scores of the items related to these contents so as to have high importance. For example, if the voice spoken by the presenter is clear and easy for the viewer to hear, the scores of items such as the words spoken by the presenter and the time interval between words, the voice volume when the presenter speaks, etc. are more reflected. Weighting is performed so as to.
  • weighting is performed so that the score of the item such as the number of times the presenter is distracted from the presenter is more reflected.
  • the higher the number of times the line of sight is distracted the lower the score will be reflected.
  • the fact that the viewer understands the content is weighted so that the scores of items such as the number of times the viewer nods and the number of times the viewer bends his head are more reflected.
  • the higher the number of times the viewer nods, the higher the score, and the more times the viewer bends his head the lower the score.
  • the satisfaction calculation unit 118 weights the scores of the items related to these contents so as to have high importance. For example, when the viewer is paying attention to the material, weighting is performed so that the score of the item such as the number of times the line of sight is distracted from the material displayed on the display unit 112 is more reflected.
  • weighting is performed so that the scores of items such as the range of voice inflection spoken by the presenter are more reflected.
  • the score of items such as the number of smiles of the presenter is weighted so as to be reflected more. The same applies to the fact that the viewer understands the content and that the presenter speaks clearly.
  • the satisfaction calculation unit 118 weights the scores of the items related to these contents so as to have high importance. For example, if there is no gap between conversations between participants, weighting is performed so that the scores of items such as the number of remarks and the time when no words are spoken (silent time) are more reflected. However, for this item, the higher the number of remarks, the higher the score, and the longer the non-speaking time (silent time), the lower the score. Also, if the participants are not bored, weight them so that the scores of the number of times they bring their hands to the mouth and the number of blinks are reflected more.
  • the satisfaction calculation unit 118 is based on the scores of a plurality of weighted items, for example, two stages of dissatisfaction (0) and satisfaction (1), or dissatisfaction (0), slightly dissatisfied (1), and normal (2). ), Satisfaction (3), Satisfaction (4), etc., the satisfaction level can be calculated. In different meeting contents, even if the scores calculated by the score calculation unit 117 are the same, it can be calculated as the satisfaction level according to the meeting contents as a result of weighting.
  • the communication control unit 119 causes the communication unit 113 to transmit the reference information and the satisfaction level information from the communication unit 113 to the presenter terminal 120 in real time, for example.
  • the communication unit 123 receives each of the above information transmitted from the viewer terminal 110.
  • the satisfaction level acquisition unit 126 acquires the satisfaction level transmitted from each viewer terminal 110 and received by the communication unit 123.
  • the satisfaction level acquisition unit 126 stores the acquired satisfaction level in the storage unit 124 in association with the viewer.
  • FIG. 15 is a diagram schematically showing an example of satisfaction stored in the storage unit 124. As shown in FIG. 15, for example, the viewers 1 to 5 and the satisfaction level (slightly dissatisfied, normal, slightly satisfied, satisfied, slightly satisfied) are stored in the storage unit 124 in correspondence with each other.
  • the display control unit 127 displays the acquired satisfaction level on the display unit 122.
  • FIG. 16 is a diagram showing an example of satisfaction displayed on the display unit 122.
  • the display control unit 127 displays the presenter display screen 122a that displays the image of the presenter's presentation taken by the camera C12, and the viewing that displays the image of the viewer taken by the camera C11.
  • the person display screen 122b is displayed on the display unit 122.
  • the display control unit 127 can display the satisfaction level stored in the storage unit 124 by superimposing it on the viewer display screen 122b, for example. In this case, the display control unit 127 can display the satisfaction level by various display modes such as a numerical value indicating the magnitude of the satisfaction level, an icon, and an indicator.
  • FIG. 16 is a diagram showing an example of satisfaction displayed on the display unit 122.
  • the display control unit 127 displays the presenter display screen 122a that displays the image of the presenter's presentation taken by the camera C12, and the viewing that displays the image of the viewer taken
  • the face icon 122c is displayed as the satisfaction level.
  • the satisfaction level is not limited to this, and may be another display mode such as a numerical value or an indicator.
  • the presenter can see the satisfaction level displayed on the display unit 122 and reflect it in the content of the presentation, the method of presentation, etc. so that the satisfaction level is improved.
  • FIG. 17 is a flowchart showing an example of the operation flow of the web conferencing system 200 according to the present embodiment.
  • a flowchart is described in a state where the processing on the viewer terminal 110 and the processing on the presenter terminal 120 are separated.
  • the announcement content is acquired by shooting and recording with the camera C12 and the microphone M12, and the acquired announcement content is transmitted from the communication unit 123 to the viewer terminal 110. (Step S201).
  • the viewer terminal 110 receives and outputs the presentation content transmitted from the presenter terminal 120 (step S202).
  • the viewer views the output content of the announcement.
  • the reference information acquisition unit 116 acquires the state of the viewer photographed and recorded by the camera C11 and the microphone M11 as reference information (step S203).
  • the score calculation unit 117 calculates the score based on the acquired reference information (step S204).
  • the satisfaction calculation unit 118 calculates the satisfaction of the viewer based on the calculated score (step S205).
  • the communication control unit 119 transmits the calculated satisfaction level from the communication unit 113 to the presenter terminal 120 (step S206).
  • step S207 determines whether or not the presenter's presentation has been completed. When it is determined that the presenter's presentation is completed (Yes in step S207), the process is terminated. If it is determined that the presenter's presentation has not been completed (No in step S207), the processes after step S203 are repeated.
  • the presenter terminal 120 receives the satisfaction level transmitted in step S206 in the communication unit 123.
  • the satisfaction acquisition unit 126 acquires the received satisfaction (step S208).
  • the satisfaction acquisition unit 126 stores the acquired satisfaction in the storage unit 124.
  • the display control unit 127 displays the satisfaction level stored in the storage unit 124 on the display unit 122 (step S209).
  • step S210 determines whether or not the presenter's presentation has been completed. When it is determined that the presenter's presentation is completed (Yes in step S210), the process is terminated. If it is determined that the presenter's presentation has not been completed (No in step S210), the processes after step S208 are repeated.
  • the web conferencing system 200 can communicate information with each other via the network NW, and the viewer terminal 110 and the presenter terminal 20 used by the participants participating in the web conference are used.
  • a reference information acquisition unit 116 that acquires reference information regarding the viewing state of the viewer who is a participant
  • a score calculation unit 117 that calculates a score according to the viewing state of the viewer based on the acquired reference information.
  • It includes a satisfaction calculation unit 118 that calculates the satisfaction of the viewer based on the calculated score, and a display control unit 127 that displays the calculated satisfaction on the display unit 122.
  • a score according to the viewing state of the viewer is calculated based on the reference information
  • the satisfaction level of the viewer is calculated based on the score
  • the calculated satisfaction level is displayed in the display unit. Since it is displayed on the display unit 122, the presenter can grasp the satisfaction level of the viewer by looking at the display unit 122. Therefore, the presenter can easily grasp the atmosphere of the web conference. As a result, for example, the presenter can flexibly proceed with the web conference according to the atmosphere. In this way, the participants can respond flexibly to the web conference according to the atmosphere.
  • the viewing state includes a plurality of items indicating the state of the viewer, and the score calculation unit 117 calculates the score for each of the plurality of items.
  • the satisfaction calculation unit 118 calculates the satisfaction
  • the score calculated for each of a plurality of items is weighted according to the content of the web conference.
  • the satisfaction calculation unit 118 extracts a keyword based on the voice of the presenter, and determines the content of the web conference based on the extracted keyword.
  • the content of the web conference can be automatically determined, so that it is possible to save the trouble of inputting separately.
  • the score calculation unit 117 accumulates and calculates the score during the viewing period in which the viewer watches the web conference, and the satisfaction calculation unit 118 calculates the accumulated score. Calculate satisfaction based on this. With this configuration, satisfaction can be obtained throughout the viewing period of the web conference.
  • the technical scope of the present disclosure is not limited to the above embodiment, and changes can be made as appropriate without departing from the spirit of the present disclosure.
  • the configuration may be such that the satisfaction level of the presenter can be calculated.
  • the control unit 125 of the presenter terminal 120 is provided with the same configuration as the reference information acquisition unit 116, the score calculation unit 117, and the satisfaction calculation unit 118, and the control unit 125 calculates the presenter's satisfaction. To.
  • the display control unit 127 can display the calculated satisfaction level of the presenter as an icon 122d or the like on the presenter display screen 122a of the display unit 122 of the presenter terminal 120, for example, as shown in FIG.
  • the calculated satisfaction level of the presenter may be transmitted to the viewer terminal 110 and displayed on the display unit 112 of the viewer terminal 110.
  • the satisfaction level of the viewer is displayed on the display unit 122 of the presenter terminal 120
  • the present invention is not limited to this.
  • the satisfaction level of the viewer may be displayed on the display unit 112 of the viewer terminal 110. With this configuration, the viewer can watch the presentation contents of the presenter while grasping his / her satisfaction level.
  • the configuration in which the reference information acquisition unit 116, the score calculation unit 117, and the satisfaction calculation unit 118 are provided in the viewer terminal 110 has been described as an example, but the present invention is not limited to this.
  • the web conferencing system 200 is configured to include, in addition to the viewer terminal 110 and the presenter terminal 120, a server device (not shown) capable of communicating with the viewer terminal 110 and the presenter terminal 120 via the network NW.
  • the server device may be provided with at least one of a score calculation unit 117 and a satisfaction calculation unit 118.
  • the communication units 113 and 23 receive the score calculated by the server device, and the satisfaction level can be calculated based on the received score.
  • the viewer terminal 110 and the presenter terminal 120 receive the satisfaction level calculated by the server device, and the display control unit can display the received satisfaction level on the display units 112 and 22.
  • the satisfaction calculation unit 118 calculates a score in a part of the usage period (for example, viewing period, presentation period) of the terminal (viewer terminal 110, participant terminal 20), and the satisfaction level is based on the score. May be calculated.
  • the video captured by the camera C11 of the viewer terminal 110 may not be transmitted to the other viewer terminal 110 or the presenter terminal 120.
  • the viewer terminal 110 based on the reference information acquired by the viewer terminal 110, the viewer terminal 110 has at least a score calculation unit 117 and a satisfaction calculation unit 118, and only the calculated score and satisfaction are stored in the other viewer terminals. It may be displayed on the display unit 112 of the 110 or the display unit 122 of the presenter terminal 120.
  • the web conferencing system according to the present disclosure can be used, for example, in a processing device such as a computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

ウェブ会議システムは、ネットワークを介して互いに情報を通信可能であり、ウェブ会議に参加する参加者が使用する複数の参加者端末を備え、参加者端末ごとに設けられ、ウェブ会議の内容を表示可能な表示部と、参加者の視線情報を取得する視線情報取得部と、所定のタイミングで表示部に目標領域を設定し、取得された視線情報に基づいて表示部における参加者の視線が目標領域に合致するか否かを判定する判定部と、判定結果に基づいて参加者の集中度を算出する集中度算出部と、参加者の集中度を少なくとも1つの表示部に表示させる表示制御部とを備える。

Description

ウェブ会議システム
 本開示は、ウェブ会議システムに関する。
 複数人で行う会議として、いわゆるウェブ会議が知られている。ウェブ会議は、対面型の会議とは異なり、参加者同士が離れた場所から端末及びネットワークを介して行うものである。ウェブ会議では、対面型の会議に比べて、他の参加者の反応や表情を把握することが難しい。これに対して、例えば、ウェブ会議の参加者のしぐさを検出して発言要求レベルをカウントし、一定以上カウントされたら挙手マークを表示することで、発言要求の高い参加者を容易に把握することが可能な技術が提案されている(例えば、特許文献1参照)。
特許第5613102号公報
 しかしながら、特許文献1に記載の技術では、参加者の集中度を把握することが難しく、参加者の集中度に応じて臨機応変に対応することが困難である。
 本開示は、上記に鑑みてなされたものであり、ウェブ会議において参加者が雰囲気に応じて臨機応変に対応することが可能なウェブ会議システムを提供することを目的とする。
 本開示に係るウェブ会議システムは、ネットワークを介して互いに情報を通信可能であり、ウェブ会議に参加する参加者が使用する複数の参加者端末を備え、前記参加者端末ごとに設けられ、前記ウェブ会議の内容を表示可能な表示部と、前記参加者の視線情報を取得する視線情報取得部と、所定のタイミングで前記表示部に目標領域を設定し、取得された前記視線情報に基づいて前記表示部における前記参加者の視線が前記目標領域に合致するか否かを判定する判定部と、判定結果に基づいて前記参加者の集中度を算出する集中度算出部と、前記参加者の前記集中度を少なくとも1つの前記表示部に表示させる表示制御部とを備える。
 本開示に係るウェブ会議システムは、ネットワークを介して互いに情報を通信可能であり、ウェブ会議に参加する参加者が使用する複数の参加者端末を備え、前記参加者の参加状態に関する参照情報を取得する参照情報取得部と、取得された前記参照情報に基づいて前記参加者の前記参加状態に応じたスコアを算出するスコア算出部と、算出された前記スコアに基づいて前記参加者の満足度を算出する満足度算出部と、算出された前記満足度を表示部に表示する表示制御部とを備える。
 本開示によれば、ウェブ会議において参加者が雰囲気に応じて臨機応変に対応することが可能となる。
図1は、本実施形態に係るウェブ会議システムの一例を模式的示す図である。 図2は、ウェブ会議システムの一例を示すブロック図である。 図3は、キャリブレーション処理の一例を示す図である。 図4は、表示部の表示が変化する場合の一例を示す図である。 図5は、表示部の表示が変化する場合の他の例を示す図である。 図6は、所定のタイミングが発生する他の例を示す図である。 図7は、所定のキーワードが検出されるタイミングの他の例を示す図である。 図8は、記憶部に記憶される集中度の一例を模式的に示す図である。 図9は、表示部に表示される集中度の一例を示す図である。 図10は、本実施形態に係るウェブ会議システムの動作の流れの一例を示すフローチャートである。 図11は、本実施形態に係るウェブ会議システムの他の例を模式的示す図である。 図12は、ウェブ会議システムの他の例を示すブロック図である。 図13は、スコア算出部によって算出されたスコアの一例を模式的に示す図である。 図14は、キーワードと会議内容との対応関係の一例を示す図である。 図15は、記憶部に記憶される満足度の一例を模式的に示す図である。 図16は、表示部に表示される満足度の一例を示す図である。 図17は、本実施形態に係るウェブ会議システムの動作の流れの一例を示すフローチャートである。
 以下、本開示に係るウェブ会議システムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
 図1は、本実施形態に係るウェブ会議システム100の一例を模式的示す図である。図2は、ウェブ会議システム100の一例を示すブロック図である。図1及び図2に示すように、本実施形態において、ウェブ会議システム100は、視聴者端末10と、発表者端末20とを備える。視聴者端末10及び発表者端末20は、ネットワークNWを介して互いに情報を通信可能であり、ウェブ会議に参加する参加者が使用する参加者端末である。本実施形態では、ウェブ会議の参加者として、所定の会議内容を発表する発表者と、発表者の発表内容を視聴する視聴者とが存在する場合を例に挙げて説明する。
 視聴者端末10は、ウェブ会議の視聴者が使用する端末である。発表者端末20は、ウェブ会議の発表者が使用する端末である。本実施形態では、発表者の発言内容を発表者端末20から視聴者端末10に送信し、視聴者端末10で受信した発言内容を視聴者が視聴する態様でウェブ会議が行われる。
 視聴者端末10は、入力部11と、表示部12と、通信部13と、記憶部14と、制御部15とを有する。入力部11、表示部12、通信部13、記憶部14及び制御部15は、例えばバスライン等を介して接続されている。視聴者端末10としては、例えば携帯電話、スマートフォン、タブレット、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ等の情報端末が挙げられる。
 入力部11は、情報を入力するための所定の入力操作が可能である。入力部11は、入力操作に応じて、制御部15に対する指示信号を出力する。入力部11としては、例えばタッチパネル等の入力装置が用いられる。なお、入力部11として、タッチパネルに加えて又はタッチパネルに代えて、ボタン、レバー、ダイヤル、スイッチ又は他の入力装置が用いられてもよい。入力部11は、所定の入力操作に応じた指示信号を出力する。
 表示部12は、文字及び画像を含む各種情報を表示する。表示部12は、液晶パネル等の表示パネルを有する。表示部12は、視聴者端末10ごとに設けられる。表示部12は、ウェブ会議の内容等の情報を表示可能である。表示部12の動作は、不図示の表示制御部により行われる。
 通信部13は、有線又は無線によりネットワークNWを介して発表者端末20等の外部機器との間で情報の通信を行う。
 記憶部14は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部14として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部14は、視聴者端末10のオペレーティングシステムや、入力部11、表示部12及び通信部13の動作を制御するための各種プログラム及びデータ等を記憶する。
 制御部15は、入力部11、表示部12及び通信部13の各部の制御を行う。また、制御部15は、入力部11による指示信号に応じた演算、処理等を行う。制御部15は、CPU(Central Processing Unit)等の処理装置や、RAM(Random Access Memory)、ROM(Read Only Memory)等の記憶装置を有している。
 制御部15は、図2に示すように、視線情報取得部16と、判定部17と、集中度算出部18と、通信制御部19とを有する。
 視線情報取得部16は、視聴者の視線情報を取得する。視線情報取得部16は、例えばカメラC1で撮影される視聴者の眼の映像に基づいて画像解析を行うことで、視聴者の視線情報を取得可能である。視線情報取得部16は、例えば視聴者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出すること、又は視聴者の目頭の位置と虹彩の位置とに基づいて視線を検出すること等、各種の手法により視聴者の視線を検出することができる。視線情報取得部16は、所定期間ごと、例えばカメラC1から出力されるフレーム同期信号の周期ごとに視線情報を取得することができる。
 判定部17は、所定のタイミングで表示部12に目標領域を設定し、取得された視線情報に基づいて表示部12における視聴者の視線が目標領域に合致するか否かを判定する。判定部17は、表示部12において例えば所定の画像が表示される位置に目標領域を設定することができる。判定部17は、目標領域が設定される期間に、視聴者の視線が目標領域に存在するか否かをそれぞれ判定する。判定部34は、所定期間ごと、例えばカメラC1から出力されるフレーム同期信号の周期と同一の周期とすることができる。
 所定のタイミングとしては、例えば、表示部12の表示が変化するタイミング、他の視聴者端末10のマイクM1又は後述する発表者端末20のマイクM2等の音声入力部により取得される他の視聴者又は発表者の音声から所定のキーワードが検出されるタイミング、及びスピーカS1等の音声出力部から他の視聴者又は発表者の音声が出力されなくなってから一定期間が経過したタイミング、の少なくとも1つを含む。また、所定のタイミングとしては、「ところで」「話は変わりますが」等の話題の切り替えを示すキーワードが検出されたタイミング、「ところが」「しかし」などの逆接の接続詞が検出されたタイミング、発表者の資料に含まれるワードと発表者の音声に含まれるワードが一致したタイミング、一定時間ごとのタイミング、視聴者をカメラC1で撮影している場合には当該視聴者の動きの程度が所定値よりも低くなったタイミング、等が挙げられる。
 集中度算出部18は、判定部17の判定結果に基づいて、視聴者の集中度を算出する。集中度算出部18は、視聴者端末10ごと、つまり視聴者ごとの視線情報の特性を算出し、判定部17の判定結果と特性情報の算出結果とに基づいて集中度を算出してもよい。視聴者ごとの視線情報の特性については、例えばウェブ会議が開始された直後等に行うことができる。集中度算出部18は、例えば判定部17において判定された回数と、視線が目標領域に存在すると判定された回数との割合に基づいて、集中度を算出することができる。
 通信制御部19は、通信部13を介してネットワークNWにアクセスし、発表者端末20との間で情報の送受信を行う。通信制御部19は、例えば発表者端末20から発表者の発言内容を含む映像及び音声の少なくとも一方を通信部13に受信させる。通信制御部19は、視線情報、判定部の判定結果、視聴者の特性、集中度等の各情報を通信部13から発表者端末20に送信させる。
 発表者端末20は、入力部21と、表示部22と、通信部23と、記憶部24と、制御部25とを有する。入力部21、表示部22、通信部23、記憶部24及び制御部25は、例えばバスライン等を介して接続されている。発表者端末20としては、視聴者端末10と同様、例えば携帯電話、スマートフォン、タブレット、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ等の情報端末が挙げられる。
 入力部21は、情報を入力するための所定の入力操作が可能である。入力部21は、入力操作に応じて、制御部25に対する指示信号を出力する。入力部21としては、例えばタッチパネル等の入力装置が用いられる。なお、入力部21として、タッチパネルに加えて又はタッチパネルに代えて、ボタン、レバー、ダイヤル、スイッチ又は他の入力装置が用いられてもよい。入力部21は、所定の入力操作に応じた指示信号を出力する。
 表示部22は、文字及び画像を含む各種情報を表示する。表示部22は、液晶パネル等の表示パネルを有する。表示部22は、映像を含む情報を表示可能である。
 通信部23は、有線又は無線によりネットワークNWを介して視聴者端末10等の外部機器との間で情報の通信を行う。通信部23は、視聴者端末10から送信された視線情報、判定部の判定結果、視聴者の特性、集中度等の各情報を受信する。
 記憶部24は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部24として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部24は、発表者端末20のオペレーティングシステムや、入力部21、表示部22及び通信部23の動作を制御するための各種プログラム及びデータ等を記憶する。
 制御部25は、入力部21、表示部22及び通信部23の各部の制御を行う。また、制御部25は、入力部21による指示信号に応じた演算、処理等を行う。制御部25は、CPU等の処理装置や、RAM、ROM等の記憶装置を有している。制御部25は、集中度取得部26と、表示制御部27と、通信制御部28とを有する。
 集中度取得部26は、視聴者端末10から送信され、通信部23で受信された集中度を取得する。
 表示制御部27は、例えばカメラC2で撮影された発表者の映像及びカメラC1で撮影された視聴者の映像を表示部22に表示することができる。表示制御部27は、取得した集中度を表示部22に表示する。この場合、表示制御部27は、例えば集中度を視聴者の映像に重畳させる等、視聴者の映像と対応付けた状態で表示することができる。
 通信制御部28は、通信部23を介してネットワークNWにアクセスし、視聴者端末10との間で情報の送受信を行う。通信制御部28は、発表者の発表内容を含む映像及び音声の少なくとも一方を取得して通信部23から視聴者端末10に送信させる。通信制御部28は、例えばカメラC2により発表者を撮影した発表者の映像を取得することができる。通信制御部28は、例えばマイクM2に入力された発表者の音声を取得することができる。
 次に、上記のように構成されたウェブ会議システム100の動作の一例を説明する。以下、発表者端末20において発表者が所定の内容を発表し、発表内容をカメラC2及びマイクM2で撮影及び録音により取得し、取得した発表内容を通信部23から視聴者端末10に送信し、視聴者が視聴者端末10において発表内容を視聴する場合を例に挙げて説明する。
 発表者が発表者端末20を用いて所定の内容を発表する場合、発表内容をカメラC2及びマイクM2で撮影及び録音により取得し、取得した発表内容を通信部23から視聴者端末10に送信する。発表者は、発表開始の際、視聴者端末10において視聴者の特性を算出させるため、キャリブレーションを行わせるようにする。
 図3は、キャリブレーション処理の一例を示す図である。図3に示すように、発表者は、視聴者端末10の表示部12の画面共有領域12mにターゲットT1からT4が順に表示されるように発表を開始する。ターゲットT1~T4は、視聴者に視認可能な形状、文字、模様等の表示態様とすることができる。ここでは円形のターゲットを例に挙げているが、これに限定されず、他の表示態様であってもよい。このとき、発表者は、「ターゲットを見てください」というように視聴者にターゲットを見るように案内する旨の発言を行うようにしてもよい。また、視聴者にターゲットを見るように案内する文字情報を画面共有領域12mに表示させるようにしてもよい。
 判定部17は、ターゲットT1からT4が表示される期間、当該ターゲットT1からT4のそれぞれ位置に対応する目標領域ARを設定する。視線情報取得部16は、視聴者の視線情報を取得する。判定部17は、視聴者の視線が目標領域ARに存在するか否かを判定する。
 例えば、最初のターゲットT1が表示されてから視聴者の視線がターゲットT1に対応する目標領域ARに存在すると判定されるまでの時間は、視聴者によって異なる場合がある。同様に、ターゲットT1からターゲットT2に表示が切り替わる場合、表示が切り替わってから視聴者の視線がターゲットT2に対応する目標領域ARに存在すると判定されるまでの時間は、視聴者によって異なる場合がある。このように、表示開始又は表示内容の変更から、視聴者が反応するまでの反応時間には、個人差が含まれる。
 本実施形態では、このような反応時間の個人差を発表開始直後に行うことで、以降の視聴期間において、視聴者の視線情報から集中度を算出する場合に、反応時間の個人差を反映させることができる。例えば、集中度算出部18は、判定部17において判定された回数と、視線が目標領域に存在すると判定された回数との割合を算出した場合、反応時間が相対的に遅い視聴者については、反応時間が相対的に速い視聴者に比べて、当該割合が低くても同程度の集中度とすることができる。このように、視聴者ごとの特性を反映させることで、集中度を精度よく算出できる。
 キャリブレーション処理の後、視線情報取得部16は、予め設定された所定のタイミング(トリガー)が発生したか否かを検出する。所定のタイミングとしては、例えば、表示部12の表示が変化するタイミングが挙げられる。図4は、表示部12の表示が変化する場合の一例を示す図である。図4の上側に示すように、表示部12の画面共有領域12mには、「資料1」を示すページ12aが表示されている。この状態から、図4の下側に示すように、画面共有領域12mの表示が、「資料2」を示すページ12bに切り替わる場合、判定部17は、所定のタイミングが発生したと判定することができる。この場合、判定部17は、ページ12bの上部に目標領域AR1を設定する。
 図5は、表示部12の表示が変化する場合の他の例を示す図である。表示部12の表示が変化するタイミングの他の例として、表示部12に表示されるポインタ等の指示指標が移動した場合が挙げられる。図5の上側に示すように、表示部12の画面共有領域12mには、指示指標であるポインタ12pが資料を示すページ12cの上部に配置されている。この状態から、図5の下側に示すように、ポインタ12pがページ12cの下部に移動した場合、判定部17は、所定のタイミングが発生したと判定することができる。この場合、判定部17は、表示部12のうちポインタ12pの移動先及びその周囲に目標領域AR2を設定する。
 所定のタイミングとしては、上記の他に、例えば発表者がマイクM2を介して入力した音声のうち、所定のキーワードが検出されるタイミングが挙げられる。例えば、発表者は、マイクM2を介して「○○の位置を見てください」というように、視聴者にどこを見てほしいかを指示する旨の発言を行う場合がある。この発言により、視聴者が発表者の指示通りの位置を見ているかどうかを検出することで、視聴者の集中の度合いを求めることができる。
 具体的には、発表者が表示部12における特定の位置を見るように案内する内容のキーワードを、予め記憶部14に記憶させておく。このようなキーワードとしては、例えば上下左右、真ん中、端等の方向又は位置を示すワード、文章、図面、写真等、表示対象を示すワード等が挙げられる。判定部17は、発表者の発言内容と記憶部14に記憶されたキーワードとを対比して、一致するワードを検出した場合に、トリガーが発生したと判定することができる。
 図6は、所定のタイミングが発生する他の例を示す図である。図6に示すように、発表者は、例えば「左下の図面を見てください」という旨の発言を行ったとする。この場合、発表者の音声は、視聴者端末10のスピーカS1から出力される。図6に示す例では、左下の画面を見るように発表者が案内する発言に基づいて、判定部17は、「左下」「図面」というワードを検出し、トリガーが発生したと判定できる。この場合、判定部17は、検出したキーワードに基づいて、「左下」「図面」に対応する領域に目標領域AR3を設定する。図6に示す例では、図面F1、F2、F3が示されている。このうち、図面F1はページ12dの左上に配置されている。図面F2は、ページ12dの真ん中(やや右より)に配置されている。図面F3は、ページ12dの左下に配置されている。また、ページ12dの右上、右下は、文章が表示されている。このため、判定部17は、左下の図面F3を含む領域に目標領域AR3を設定することができる。
 所定のキーワードが検出されるタイミングの他の例として、発表者がマイクM2を介して「画面を共有します」という旨の発言を行う場合が挙げられる。画面が共有される場合、画面共有領域が表示部12に表示される。したがって、発表者の「画面を共有します」の発言により、視聴者が画面共有領域を見ているかどうかを検出することで、視聴者の集中の度合いを求めることができる。
 具体的には、発表者が画面を共有する旨を示すキーワードを、予め記憶部14に記憶させておく。このようなキーワードとしては、例えば画面、共有等のワードが挙げられる。判定部17は、発表者の発言内容と記憶部14に記憶されたキーワードとを対比して、一致するワードを検出した場合に、トリガーが発生したと判定することができる。
 図7は、所定のキーワードが検出されるタイミングの他の例を示す図である。図7の上側に示すように、画面が共有されていない場合、視聴者の表示部12には、例えば発表者を示す画面12eと、他の視聴者を示す画面12fとが並んだ状態で表示される。この状態から、発表者が画面を共有する旨の発言を行ったとする。
 この場合、発表者の音声は、視聴者端末10のスピーカS1から出力される。発表者の「画面を共有します」という発言から、判定部17は、「画面」「共有」というワードを検出し、トリガーが発生したと判定できる。発表者によって画面を共有する旨の操作が行われた場合、図7の下側に示すように、発表者の画面が拡大され、画面共有領域12mが表示される。判定部17は、検出したキーワードに基づいて、画面共有領域12mに目標領域AR4を設定することができる。図7に示す例では、画面共有領域12mにページ12gが示されている。判定部17は、画面共有領域12mに表示されるページ12g内に目標領域AR4を設定することができる。
 また、図7の上側に示すように表示部12において発表者を示す画面12eと他の視聴者を示す画面12fとが並んだ状態から、図7の下側に示すように発表者を示す画面12eを画面共有領域12mに移動させる場合、上記のキーワードをトリガーとする態様に限定されない。例えば、発表者を示す画面12eが画面共有領域12mに移動したことをトリガーとしてもよい。この場合、判定部17は、画面共有領域12mの全体又は一部に目標領域を設定することができる。なお、この構成では、例えば視聴者端末10が、ステレオスピーカー又はステレオヘッドフォンと、音場定位が可能な処理部とを有する構成とすることができる。この場合、視聴者端末10の表示部12上のうち発表者を示す画面12e(移動後は画面共有領域12m)の位置から発表者の音声が聞こえるようにすることで、視聴者の視線誘導を活発化させることができる。このように、表示部12の一部に画面12e等の対象物が表示された状態から、当該対象物が表示部12の他の場所に移動した場合、判定部17は、この対象物の移動をトリガーとすることができる。この場合、判定部17は、移動先の対象物に対応する領域に目標領域を設定することができる。対象物は、発表者を示す画面12eに限定されず、他の表示物(任意の画像)であってもよい。
 例えば、図4の下側において、「資料2」を示すページ12bに切り替わる場合、発表者の画像を「資料2」の左上付近(図4の目標領域AR1の近く)に表示する。同時に、発表者の画像とページ12bの上部を含む領域を目標領域AR1に設定する。このとき、発表者の画像のみを目標領域AR1に設定してもよい。また、発表者の画像ではなく任意の画像を表示し、その画像を含む領域を目標領域AR1に設定してもよい。
 また、例えば、図5の上側において、ポインタ12pの近くに発表者の画像を表示すると共に、ポインタ12pと発表者の画像を含む領域を目標領域AR2に設定する。この状態から、図5の下側において、ポインタ12pが下へ移動するにつれて発表者の画像も移動すると共に、ポインタ12pと発表者の画像を含む領域を目標領域AR2に設定するようにしてもよい。このとき、ポインタ12pが下へ移動するのと、発表者の画像が下へ移動するのは同時でなくてもよい。あるいは、ポインタ12pは表示せず、発表者の画像のみを表示するようにして、発表者の画像を含む領域を目標領域AR2に設定してもよい。また、発表者の画像ではなく任意の画像を表示し、その画像を含む領域を目標領域AR2に設定してもよい。さらに、ポインタ12p、発表者の画像、任意の画像のいずれかの移動をもって、トリガーとしてもよい。
 上記した例の他、トリガーの発生として、例えばスピーカS1等の音声出力部から他の視聴者又は発表者の音声が出力されなくなってから一定期間が経過したタイミングとすることができる。音声が出力されなくなってから一定期間が経過した場合、集中している視聴者は、例えば視聴者端末10に異常が生じたか否かを確認する操作を行おうとする場合がある。この場合、例えば表示部12に表示されるツールバー等を見ようとして、表示部12の上下左右の辺側に視線を移動させる。したがって、判定部17は、スピーカS1等の音声出力部から他の視聴者又は発表者の音声が出力されなくなってから一定期間が経過した場合に、トリガーが発生したと判定することができる。この場合、判定部17は、例えば表示部12の上下左右の辺に沿った領域に目標領域を設定することができる。
 判定部17により目標領域が設定された場合、視線情報取得部16は、視聴者の視線情報を取得する。判定部17は、視聴者の視線が目標領域に合致するか否かを判定する。集中度算出部18は、視聴者ごとの特性と、判定結果とに基づいて、集中度を算出することができる。集中度算出部18は、例えば集中度が、低い(0)及び高い(1)の2段階、又は集中度が、低い(0)、やや低い(1)、普通(2)、やや高い(3)、高い(4)等の段階の値として、集中度を算出することができる。
 通信制御部19は、参照情報及び集中度の情報を、例えばリアルタイムで通信部13から発表者端末20に送信させる。
 発表者端末20において、通信部23は、視聴者端末10から送信された上記各情報を受信する。集中度取得部26は、それぞれの視聴者端末10から送信され、通信部23で受信された集中度を取得する。集中度取得部26は、取得した集中度を視聴者と対応付けて記憶部24に記憶させる。図8は、記憶部24に記憶される集中度の一例を模式的に示す図である。図8に示すように、記憶部24には、例えば視聴者1~視聴者5と、判定結果1~判定結果5と、視聴者ごとの特性1~特性5と、集中度(やや低い、普通、やや高い、高い、やや高い)とが対応して記憶される。
 表示制御部27は、取得した集中度を表示部22に表示する。図9は、表示部22に表示される集中度の一例を示す図である。図9に示すように、表示制御部27は、発表者の発表内容をカメラC2で撮影した映像を表示する発表者表示画面22aと、視聴者の様子をカメラC1で撮影した映像を表示する視聴者表示画面22bとを表示部22に表示する。表示制御部27は、記憶部24に記憶された集中度を、例えば視聴者表示画面22bに重畳して表示することができる。この場合、表示制御部27は、集中度の大きさを示す数値、アイコン、インジケータ等の各種の表示態様により集中度を表示することができる。図9では、顔のアイコン22cが集中度として表示されている。この例では、アイコン22cの表情について、表情に笑顔の度合いが強く含まれるほど集中度が高く、怒った顔の度合いが強く含まれるほど集中度が低いことを示している。なお、集中度の表示例としては、これに限定されず、数値又はインジケータ等の他の表示態様であってもよい。
 発表者は、表示部22に表示される集中度を見て、集中度が向上するように発表の内容や発表の仕方等に反映させることができる。
 図10は、本実施形態に係るウェブ会議システム100の動作の流れの一例を示すフローチャートである。図10では、視聴者端末10での処理と、発表者端末20での処理とを分けた状態でフローチャートを記載している。発表者が発表者端末20を用いて所定の内容を発表する場合、発表内容をカメラC2及びマイクM2で撮影及び録音により取得し、取得した発表内容を通信部23から視聴者端末10に送信する(ステップS101)。
 視聴者端末10では、発表者端末20から送信された発表内容を受信して出力する(ステップS102)。視聴者は、出力された発表内容を視聴する。視聴者端末10において、集中度算出部18は、発表内容の出力が開始された場合、視聴者ごとの特性を算出するキャリブレーション処理を行う(ステップS103)。キャリブレーション処理の後、判定部17は、予め設定された所定のタイミング(トリガー)が発生したか否かを検出する(ステップS104)。判定部17は、トリガーを検出しない場合(ステップS104のNo)、ステップS104の処理を繰り返し行う。ステップS104においてトリガーを検出した場合(ステップS104のYes)、判定部17は、表示部12に目標領域を設定する(ステップS105)。目標領域が設定された場合、視線情報取得部16は、視聴者の視線情報を取得する(ステップS106)。判定部17は、視線情報に基づいて、視聴者の視線が目標領域に合致するか否かを判定する(ステップS107)。集中度算出部18は、当該判定結果と、視聴者ごとの特性とに基づいて、集中度を算出する(ステップS108)。通信制御部19は、算出された集中度を通信部13から発表者端末20に送信する(ステップS109)。
 その後、視聴者端末10では、制御部15において、発表者の発表が終了したか否かの判定を行う(ステップS110)。発表者の発表が終了したと判定された場合(ステップS110のYes)、処理を終了する。また、発表者の発表が終了していないと判定された場合(ステップS110のNo)、ステップS106以降の処理を繰り返し行う。
 発表者端末20では、ステップS109で送信される集中度を通信部23において受信し、受信された集中度を集中度取得部26において取得する(ステップS111)。集中度取得部26は、取得した集中度を記憶部24に記憶させる。表示制御部27は、記憶部24に記憶された集中度を表示部22に表示する(ステップS112)。
 その後、発表者端末20では、制御部25において、発表者の発表が終了したか否かの判定を行う(ステップS113)。発表者の発表が終了したと判定された場合(ステップS113のYes)、処理を終了する。また、発表者の発表が終了していないと判定された場合(ステップS113のNo)、ステップS111以降の処理を繰り返し行う。
 以上のように、本実施形態に係るウェブ会議システム100は、ネットワークNWを介して互いに情報を通信可能であり、視聴者端末10及び発表者端末20ごとに設けられ、ウェブ会議の内容を表示可能な表示部12と、視聴者の視線情報を取得する視線情報取得部16と、所定のタイミングで表示部12に目標領域を設定し、取得された視線情報に基づいて表示部12における視聴者の視線が目標領域に合致するか否かを判定する判定部17と、判定結果に基づいて視聴者の集中度を算出する集中度算出部18と、視聴者の集中度を表示部22に表示させる表示制御部27とを備える。
 本実施形態によれば、ウェブ会議において、視聴者の視線が目標領域に合致するか否かに基づいて視聴者の集中度が算出され、算出された集中度が表示部22に表示されるため、発表者は表示部22を見ることで視聴者の集中度を把握することができる。したがって、発表者がウェブ会議の雰囲気を容易に把握することができる。この結果、例えば発表者が雰囲気に応じてウェブ会議を臨機応変に進行することが可能となる。このように、参加者が雰囲気に応じてウェブ会議に臨機応変に対応することが可能となる。
 本実施形態に係るウェブ会議システム100において、表示部12は、所定の画像を表示可能であり、判定部17は、所定の画像が表示される位置に目標領域を設定する。この構成では、表示部12に表示される所定の画像を見ているか否かに基づいて視聴者の集中度を適切に求めることができる。
 本実施形態に係るウェブ会議システム100において、所定のタイミングは、表示部12の表示が変化するタイミング、音声入力部により取得される参加者の音声から所定のキーワードが検出されるタイミング、及び音声出力部から参加者の音声が出力されなくなってから一定期間が経過したタイミングの少なくとも1つを含む。この構成では、視聴者の視線を判定開始するタイミングを設定することで、集中度を適切に求めることができる。
 本実施形態に係るウェブ会議システム100において、集中度算出部18は、参加者端末ごとの視線情報の特性を算出し、判定結果と特性とに基づいて、集中度を算出する。この構成では、視聴者の特性を反映させることで集中度を適切に算出できる。
 本実施形態に係るウェブ会議システム100において、集中度算出部18は、ウェブ会議の開始時に特性の算出を行う。この構成では、ウェブ会議の開始時に特性の算出を行うことで、以降のウェブ会議において特性が集中度に反映されることになる。
 本開示の技術範囲は上記実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記した実施形態では、参加者のうち視聴者の集中度を算出する場合を例に挙げて説明したが、これに限定されない。例えば、発表者の集中度を算出可能な構成であってもよい。この場合、発表者端末20の制御部25には、視線情報取得部16、判定部17及び集中度算出部18と同様の構成が設けられ、制御部25において発表者の集中度が算出される。表示制御部27は、算出された発表者の集中度を、例えば図9に示すように、発表者端末20の表示部22の発表者表示画面22aにアイコン22d等として表示することができる。なお、算出された発表者の集中度が視聴者端末10に送信され、視聴者端末10の表示部12に表示される構成であってもよい。
 また、上記実施形態では、視聴者の集中度が発表者端末20の表示部22に表示される場合を例に挙げて説明したが、これに限定されない。例えば、視聴者の集中度が視聴者端末10の表示部12に表示される構成であってもよい。この構成により、視聴者が自身の集中度を把握しながら発表者の発表内容を視聴することができる。
 また、上記実施形態では、視線情報取得部16、判定部17及び集中度算出部18が視聴者端末10に設けられる構成を例に挙げて説明したが、これに限定されない。例えば、ウェブ会議システム100が、視聴者端末10及び発表者端末20に加えて、ネットワークNWを介して視聴者端末10及び発表者端末20と通信可能な不図示のサーバ装置を備える構成である場合、当該サーバ装置に判定部17及び集中度算出部18の少なくとも一方が設けられる構成であってもよい。この場合、視聴者端末10及び発表者端末20では、サーバ装置で判定された判定結果を通信部13、23が受信し、受信した判定結果に基づいて集中度を算出することができる。また、視聴者端末10及び発表者端末20では、サーバ装置で算出された集中度を受信し、受信した集中度を表示部12、22に表示することができる。
 また、上記実施形態では、集中度算出部18がスコアの累積結果に基づいて集中度を算出する構成を例に挙げて説明したが、これに限定されない。集中度算出部18は、例えば端末(視聴者端末10、参加者端末20)の使用期間(例えば、視聴期間、発表期間)のうちの一部におけるスコアを算出し、当該スコアに基づいて集中度を算出してもよい。
 図11は、本実施形態に係るウェブ会議システム200の他の例を模式的示す図である。図12は、ウェブ会議システム200の他の例を示すブロック図である。図11及び図12に示すように、本実施形態において、ウェブ会議システム200は、視聴者端末110と、発表者端末120とを備える。視聴者端末110及び発表者端末120は、ネットワークNWを介して互いに情報を通信可能であり、ウェブ会議に参加する参加者が使用する参加者端末である。本実施形態では、ウェブ会議の参加者として、所定の会議内容を発表する発表者と、発表者の発表内容を視聴する視聴者とが存在する場合を例に挙げて説明する。
 視聴者端末110は、ウェブ会議の視聴者が使用する端末である。発表者端末120は、ウェブ会議の発表者が使用する端末である。本実施形態では、発表者の発言内容を発表者端末120から視聴者端末110に送信し、視聴者端末110で受信した発言内容を視聴者が視聴する態様でウェブ会議が行われる。
 視聴者端末110は、入力部111と、表示部112と、通信部113と、記憶部114と、制御部115とを有する。入力部111、表示部112、通信部113、記憶部114及び制御部115は、例えばバスライン等を介して接続されている。視聴者端末110としては、例えば携帯電話、スマートフォン、タブレット、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ等の情報端末が挙げられる。
 入力部111は、情報を入力するための所定の入力操作が可能である。入力部111は、入力操作に応じて、制御部115に対する指示信号を出力する。入力部111としては、例えばタッチパネル等の入力装置が用いられる。なお、入力部111として、タッチパネルに加えて又はタッチパネルに代えて、ボタン、レバー、ダイヤル、スイッチ又は他の入力装置が用いられてもよい。入力部111は、所定の入力操作に応じた指示信号を出力する。
 表示部112は、文字及び画像を含む各種情報を表示する。表示部112は、液晶パネル等の表示パネルを有する。表示部112は、映像を含む情報を表示可能である。
 通信部113は、有線又は無線によりネットワークNWを介して発表者端末120等の外部機器との間で情報の通信を行う。
 記憶部114は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部114として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部114は、視聴者端末110のオペレーティングシステムや、入力部111、表示部112及び通信部113の動作を制御するための各種プログラム及びデータ等を記憶する。
 制御部115は、入力部111、表示部112及び通信部113の各部の制御を行う。また、制御部115は、入力部111による指示信号に応じた演算、処理等を行う。制御部115は、CPU(Central Processing Unit)等の処理装置や、RAM(Random Access Memory)、ROM(Read Only Memory)等の記憶装置を有している。
 制御部115は、図12に示すように、参照情報取得部116と、スコア算出部117と、満足度算出部118と、通信制御部119とを有する。
 参照情報取得部116は、視聴者端末110を使用する視聴者の参加状態、つまり視聴状態に関する参照情報を取得する。参照情報としては、視聴者の映像、視聴者の音声、視聴者の生体情報等の情報を含む。参照情報取得部116は、例えばカメラC11で撮影した視聴者の映像を取得することができる。また、参照情報取得部116は、例えばマイクM11に入力された視聴者の音声を取得することができる。また、参照情報取得部116は、例えば不図示の生体情報センサ等により検出される視聴者の生体情報を取得する構成であってもよいし、公知の技術に基づいて視聴者の映像から検出される生体情報を取得する構成であってもよい。
 スコア算出部117は、取得された参照情報に基づいて、視聴者の視聴状態に応じたスコアを算出する。視聴者の視聴状態は、ウェブ会議に視聴する視聴者の状態を示す複数の項目を含む。複数の項目としては、例えば、例えば、視聴者がうなずく回数、首をかしげる回数、発表者から目線をそらせる回数、カメラC11に目線を合わせる回数、表示部112に表示される資料から目線をそらす回数、笑顔の回数、口に手をもっていく回数、瞬きの回数、発言の回数、発表者が話す音声抑揚の範囲、発表者が話す単語と単語の時間的間隔、発表者が話す際の声音量、言葉を発しない時間(無音声時間)等が挙げられる。
 スコア算出部117は、視聴状態に含まれる項目ごとにスコアを算出する。スコア算出部117は、視聴者の視聴状態が上記した複数の項目に該当するか否かを参照情報に基づいて判定する。スコア算出部117は、視聴状態が複数の項目に該当する場合、当該項目のスコアを計上する。例えば、スコア算出部117は、視聴者がうなずいたと判定した場合、「視聴者がうなずく回数」についての項目に対応するスコアを1回分カウントする。スコア算出部117は、視聴者がウェブ会議に視聴する視聴期間においてスコアを累積して算出する。例えば、スコア算出部117は、視聴期間において視聴者がうなずいたことが検出されるごとに、スコア(うなずく回数)を1(回)ずつ累積させる。
 満足度算出部118は、算出されたスコアに基づいて視聴者の満足度を算出する。満足度算出部118は、満足度を算出する際、複数の項目ごとに算出されるスコアについてウェブ会議の内容に応じて重みづけを行ってもよい。この場合、満足度算出部118は、発表者及び視聴者の少なくとも一方の参加者の音声に基づいてキーワードを抽出し、抽出した前記キーワードに基づいてウェブ会議の内容を判定することができる。満足度算出部118は、スコアを累積した累積結果に基づいて満足度を算出する。
 通信制御部119は、通信部113を介してネットワークNWにアクセスし、発表者端末120との間で情報の送受信を行う。通信制御部119は、例えば発表者端末120から発表者の発言内容を含む映像及び音声の少なくとも一方を通信部113に受信させる。通信制御部119は、参照情報、スコア、視聴者の特性、満足度等の各情報を通信部113から発表者端末120に送信させる。
 発表者端末120は、入力部121と、表示部122と、通信部123と、記憶部124と、制御部125とを有する。入力部121、表示部122、通信部123、記憶部124及び制御部125は、例えばバスライン等を介して接続されている。発表者端末120としては、視聴者端末110と同様、例えば携帯電話、スマートフォン、タブレット、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ等の情報端末が挙げられる。
 入力部121は、情報を入力するための所定の入力操作が可能である。入力部121は、入力操作に応じて、制御部125に対する指示信号を出力する。入力部121としては、例えばタッチパネル等の入力装置が用いられる。なお、入力部121として、タッチパネルに加えて又はタッチパネルに代えて、ボタン、レバー、ダイヤル、スイッチ又は他の入力装置が用いられてもよい。入力部121は、所定の入力操作に応じた指示信号を出力する。
 表示部122は、文字及び画像を含む各種情報を表示する。表示部122は、液晶パネル等の表示パネルを有する。表示部122は、映像を含む情報を表示可能である。
 通信部123は、有線又は無線によりネットワークNWを介して視聴者端末110等の外部機器との間で情報の通信を行う。通信部123は、視聴者端末110から送信された参照情報、スコア、視聴者の特性、満足度等の各情報を受信する。
 記憶部124は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部124として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部124は、発表者端末120のオペレーティングシステムや、入力部121、表示部122及び通信部123の動作を制御するための各種プログラム及びデータ等を記憶する。
 制御部125は、入力部121、表示部122及び通信部123の各部の制御を行う。また、制御部125は、入力部121による指示信号に応じた演算、処理等を行う。制御部125は、CPU等の処理装置や、RAM、ROM等の記憶装置を有している。制御部125は、満足度取得部126と、表示制御部127と、通信制御部128とを有する。
 満足度取得部126は、視聴者端末110から送信され、通信部123で受信された満足度を取得する。
 表示制御部127は、例えばカメラC12で撮影された発表者の映像及びカメラC11で撮影された視聴者の映像を表示部122に表示することができる。表示制御部127は、取得した満足度を表示部122に表示する。この場合、表示制御部22は、例えば満足度を視聴者の映像に重畳させる等、視聴者の映像と対応付けた状態で表示することができる。
 通信制御部128は、通信部123を介してネットワークNWにアクセスし、視聴者端末110との間で情報の送受信を行う。通信制御部128は、発表者の発表内容を含む映像及び音声の少なくとも一方を取得して通信部123から視聴者端末110に送信させる。通信制御部128は、例えばカメラC12により発表者を撮影した発表者の映像を取得することができる。通信制御部128は、例えばマイクM12に入力された発表者の音声を取得することができる。
 次に、上記のように構成されたウェブ会議システム200の動作の一例を説明する。以下、発表者端末120において発表者が所定の内容を発表し、発表内容をカメラC12及びマイクM12で撮影及び録音により取得し、取得した発表内容を通信部123から視聴者端末110に送信し、視聴者が視聴者端末110において発表内容を視聴する場合を例に挙げて説明する。
 視聴者端末110では、視聴者が発表内容を視聴する様子がカメラC11及びマイクM11により撮影及び録音される。参照情報取得部116は、撮影及び録音された内容を参照情報として取得する。
 スコア算出部117は、取得された参照情報に基づいてスコアを算出する。スコア算出部117は、算出したスコアを記憶部114に記憶させる。図13は、スコア算出部117によって算出されたスコアの一例を模式的に示す図である。図13では、異なる視聴者端末110で算出された複数の視聴者(例えば、視聴者1~視聴者5)のスコアをまとめて示している。図13に示すように、各視聴者端末110において、スコア算出部117は、予め設定された項目ごとに、視聴期間におけるスコアを累積して算出する。これにより、視聴者ごとのスコアが算出される。スコア算出部117は、会議ごとにスコアを算出する。図13では、異なる会議t1、t2、t3についてのスコアS1、S2、S3が示されている。例えば会議t1のスコアS1は、リアルタイムで算出されたスコアである。また、会議t2、t3についてのスコアS2、S3は、過去の会議において算出されたスコアである。制御部115は、過去の会議において算出されたスコアに基づいて、視聴者の特性を検出してもよい。このような特性としては、例えば特定の項目に対応するスコアの伸びやすさ、発表者との相性、会議時間の長さとスコアとの関連性、等の事項が挙げられる。
 満足度算出部118は、算出されたスコアに基づいて視聴者の満足度を算出する。満足度算出部118は、満足度を算出する際、項目ごとに算出されるスコアについてウェブ会議の内容に応じて重みづけを行うことができる。この場合、満足度算出部118は、発表者の音声に基づいてキーワードを抽出し、抽出した前記キーワードに基づいてウェブ会議の内容を判定することができる。図14は、キーワードと会議内容との対応関係の一例を示す図である。図14に示すように、キーワードと会議内容とを対応付けたデータテーブルを記憶部114に予め記憶させておくことができる。満足度算出部118は、例えば発表者の音声を解析することによりワードを抽出し、抽出したワードがデータテーブルとして記憶されるキーワード(ワード1、ワード2、ワード3、ワード4、・・・)と一致するか否かを判定する。満足度算出部118は、一致すると判定した場合、当該記憶されるキーワードに対応付けられた会議内容(内容1、内容2、内容3、内容4、・・・)をウェブ会議の内容と判定する。
 満足度算出部118は、ウェブ会議の内容を判定した後、内容に応じてスコアの重みづけを設定する。例えば、会議の内容が朝礼、昼礼、進捗報告等の定例会議である場合、発表者が話す内容が視聴者にとって聞き取りやすいこと、視聴者が発表者に注目していること、視聴者が内容を理解できていること、等の事項が重要となる。このため、満足度算出部118は、これらの内容に関する項目のスコアに対して重要度が高くなるように重みづけを行う。例えば、発表者が話す音声が明瞭であり視聴者にとって聞き取りやすいことについては、発表者が話す単語と単語の時間的間隔、発表者が話す際の声音量、等の項目のスコアがより反映されるように重みづけを行う。また、視聴者が発表者に注目していることについては、発表者から目線をそらせる回数等の項目のスコアがより反映されるように重みづけを行う。ただし、当該項目については、目線をそらせる回数が多いほどスコアが低くなるように反映させるようにする。また、視聴者が内容を理解できていることについては、視聴者がうなずく回数、首をかしげる回数等の項目のスコアがより反映されるように重みづけを行う。ただし、当該項目については、視聴者がうなずく回数が多いほどスコアが高くなるように反映させ、首をかしげる回数が多いほどスコアが低くなるように反映させるようにする。
 また、会議の内容が、例えば勉強会やセミナー等の講義形式である場合、視聴者が理解しやすい環境を作ることが重要となる。具体的には、視聴者が資料を注目していること、視聴者が内容を理解していること、発表者が明瞭に話していること、発表者の音声の抑揚が適切であること、発表者が笑顔で話していること、等の事項が重要となる。このため、満足度算出部118は、これらの内容に関する項目のスコアに対して重要度が高くなるように重みづけを行う。例えば、視聴者が資料を注目していることについては、表示部112に表示される資料から目線をそらす回数等の項目のスコアがより反映されるように重みづけを行う。また、発表者の音声の抑揚が適切であることについては、発表者が話す音声抑揚の範囲等の項目のスコアがより反映されるように重みづけを行う。また、発表者が笑顔で話していることについては、発表者の笑顔の回数等の項目のスコアがより反映されるように重みづけを行う。なお、視聴者が内容を理解していること、及び発表者が明瞭に話していることについては、上記同様である。
 また、会議の内容が、例えばアイデアを抽出するアイデア会議等のように発表者及び視聴者を含めた参加者同士が互いに活発に発言し合うような会議の場合、参加者同士の会話と会話の間が開いていないこと、参加者が退屈していないこと、等の事項が重要となる。このため、満足度算出部118は、これらの内容に関する項目のスコアに対して重要度が高くなるように重みづけを行う。例えば、参加者同士の会話と会話の間が開いていないことについては、発言の回数、言葉を発しない時間(無音声時間)等の項目のスコアがより反映されるように重みづけを行う。ただし、当該項目については、発言の回数が多いほどスコアが高くなるように反映させ、言葉を発しない時間(無音声時間)が長いほどスコアが低くなるように反映させるようにする。また、参加者が退屈していないことについては、口に手をもっていく回数、瞬きの回数のスコアがより反映されるように重みづけを行う。
 満足度算出部118は、重みづけを行った複数の項目のスコアに基づいて、例えば不満(0)及び満足(1)の2段階、又は不満(0)、やや不満(1)、普通(2)、やや満足(3)、満足(4)等の段階の値として、満足度を算出することができる。異なる会議内容では、スコア算出部117で算出されるスコアが同一であっても、重みづけの結果、会議内容に沿った満足度として算出することができる。
 通信制御部119は、参照情報及び満足度の情報を、例えばリアルタイムで通信部113から発表者端末120に送信させる。
 発表者端末120において、通信部123は、視聴者端末110から送信された上記各情報を受信する。満足度取得部126は、それぞれの視聴者端末110から送信され、通信部123で受信された満足度を取得する。満足度取得部126は、取得した満足度を視聴者と対応付けて記憶部124に記憶させる。図15は、記憶部124に記憶される満足度の一例を模式的に示す図である。図15に示すように、記憶部124には、例えば視聴者1~視聴者5と、満足度(やや不満、普通、やや満足、満足、やや満足)とが対応して記憶される。
 表示制御部127は、取得した満足度を表示部122に表示する。図16は、表示部122に表示される満足度の一例を示す図である。図16に示すように、表示制御部127は、発表者の発表内容をカメラC12で撮影した映像を表示する発表者表示画面122aと、視聴者の様子をカメラC11で撮影した映像を表示する視聴者表示画面122bとを表示部122に表示する。表示制御部127は、記憶部124に記憶された満足度を、例えば視聴者表示画面122bに重畳して表示することができる。この場合、表示制御部127は、満足度の大きさを示す数値、アイコン、インジケータ等の各種の表示態様により満足度を表示することができる。図16では、顔のアイコン122cが満足度として表示されている。この例では、アイコン122cの表情について、表情に笑顔の度合いが強く含まれるほど満足度が高く、怒った顔の度合いが強く含まれるほど満足度が低いことを示している。なお、満足度の表示例としては、これに限定されず、数値又はインジケータ等の他の表示態様であってもよい。
 発表者は、表示部122に表示される満足度を見て、満足度が向上するように発表の内容や発表の仕方等に反映させることができる。
 図17は、本実施形態に係るウェブ会議システム200の動作の流れの一例を示すフローチャートである。図17では、視聴者端末110での処理と、発表者端末120での処理とを分けた状態でフローチャートを記載している。発表者が発表者端末120を用いて所定の内容を発表する場合、発表内容をカメラC12及びマイクM12で撮影及び録音により取得し、取得した発表内容を通信部123から視聴者端末110に送信する(ステップS201)。
 視聴者端末110では、発表者端末120から送信された発表内容を受信して出力する(ステップS202)。視聴者は、出力された発表内容を視聴する。視聴者端末110において、参照情報取得部116は、カメラC11及びマイクM11により撮影及び録音される視聴者の様子を参照情報として取得する(ステップS203)。スコア算出部117は、取得された参照情報に基づいてスコアを算出する(ステップS204)。満足度算出部118は、算出されたスコアに基づいて視聴者の満足度を算出する(ステップS205)。通信制御部119は、算出された満足度を通信部113から発表者端末120に送信する(ステップS206)。
 その後、視聴者端末110では、制御部115において、発表者の発表が終了したか否かの判定を行う(ステップS207)。発表者の発表が終了したと判定された場合(ステップS207のYes)、処理を終了する。また、発表者の発表が終了していないと判定された場合(ステップS207のNo)、ステップS203以降の処理を繰り返し行う。
 発表者端末120では、ステップS206において送信される満足度を通信部123において受信する。満足度取得部126は、受信された満足度を取得する(ステップS208)。満足度取得部126は、取得した満足度を記憶部124に記憶させる。表示制御部127は、記憶部124に記憶された満足度を表示部122に表示する(ステップS209)。
 その後、発表者端末120では、制御部125において、発表者の発表が終了したか否かの判定を行う(ステップS210)。発表者の発表が終了したと判定された場合(ステップS210のYes)、処理を終了する。また、発表者の発表が終了していないと判定された場合(ステップS210のNo)、ステップS208以降の処理を繰り返し行う。
 以上のように、本実施形態に係るウェブ会議システム200は、ネットワークNWを介して互いに情報を通信可能であり、ウェブ会議に参加する参加者が使用する視聴者端末110及び発表者用端末20を備え、参加者である視聴者の視聴状態に関する参照情報を取得する参照情報取得部116と、取得された参照情報に基づいて視聴者の視聴状態に応じたスコアを算出するスコア算出部117と、算出されたスコアに基づいて視聴者の満足度を算出する満足度算出部118と、算出された満足度を表示部122に表示する表示制御部127とを備える。
 本実施形態によれば、ウェブ会議において、参照情報に基づいて視聴者の視聴状態に応じたスコアが算出され、スコアに基づいて視聴者の満足度が算出され、算出された満足度が表示部122に表示されるため、発表者は表示部122を見ることで視聴者の満足度を把握することができる。したがって、発表者がウェブ会議の雰囲気を容易に把握することができる。この結果、例えば発表者が雰囲気に応じてウェブ会議を臨機応変に進行することが可能となる。このように、参加者が雰囲気に応じてウェブ会議に臨機応変に対応することが可能となる。
 本実施形態に係るウェブ会議システム200において、視聴状態は、視聴者の状態を示す複数の項目を含み、スコア算出部117は、複数の項目ごとにスコアを算出する。この構成では、視聴者の視聴状態をより高精度に求めることができる。
 本実施形態に係るウェブ会議システム200において、満足度算出部118は、満足度を算出する際、複数の項目ごとに算出されるスコアについてウェブ会議の内容に応じて重みづけを行う。この構成では、ウェブ会議の内容に応じた適切な満足度を算出することができる。
 本実施形態に係るウェブ会議システム200において、満足度算出部118は、発表者の音声に基づいてキーワードを抽出し、抽出したキーワードに基づいてウェブ会議の内容を判定する。この構成では、ウェブ会議の内容を自動的に判定することができるため、別途入力する等の手間を省くことができる。
 本実施形態に係るウェブ会議システム200において、スコア算出部117は、視聴者がウェブ会議に視聴する視聴期間においてスコアを累積して算出し、満足度算出部118は、スコアを累積した累積結果に基づいて満足度を算出する。この構成では、ウェブ会議の視聴期間の全体に亘る満足度を得ることができる。
 本開示の技術範囲は上記実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記した実施形態では、参加者のうち視聴者の満足度を算出する場合を例に挙げて説明したが、これに限定されない。例えば、発表者の満足度を算出可能な構成であってもよい。この場合、発表者端末120の制御部125には、参照情報取得部116、スコア算出部117及び満足度算出部118と同様の構成が設けられ、制御部125において発表者の満足度が算出される。表示制御部127は、算出された発表者の満足度を、例えば図16に示すように、発表者端末120の表示部122の発表者表示画面122aにアイコン122d等として表示することができる。なお、算出された発表者の満足度が視聴者端末110に送信され、視聴者端末110の表示部112に表示される構成であってもよい。
 また、上記実施形態では、視聴者の満足度が発表者端末120の表示部122に表示される場合を例に挙げて説明したが、これに限定されない。例えば、視聴者の満足度が視聴者端末110の表示部112に表示される構成であってもよい。この構成により、視聴者が自身の満足度を把握しながら発表者の発表内容を視聴することができる。
 また、上記実施形態では、参照情報取得部116、スコア算出部117及び満足度算出部118が視聴者端末110に設けられる構成を例に挙げて説明したが、これに限定されない。例えば、ウェブ会議システム200が、視聴者端末110及び発表者端末120に加えて、ネットワークNWを介して視聴者端末110及び発表者端末120と通信可能な不図示のサーバ装置を備える構成である場合、当該サーバ装置にスコア算出部117及び満足度算出部118の少なくとも一方が設けられる構成であってもよい。この場合、視聴者端末110及び発表者端末120では、サーバ装置で算出されたスコアを通信部113、23が受信し、受信したスコアに基づいて満足度を算出することができる。また、視聴者端末110及び発表者端末120では、サーバ装置で算出された満足度を受信し、受信した満足度を表示制御部が表示部112、22に表示することができる。
 また、上記実施形態では、満足度算出部118がスコアの累積結果に基づいて満足度を算出する構成を例に挙げて説明したが、これに限定されない。満足度算出部118は、例えば端末(視聴者端末110、参加者端末20)の使用期間(例えば、視聴期間、発表期間)のうちの一部におけるスコアを算出し、当該スコアに基づいて満足度を算出してもよい。
 また、ウェブ会議の種別や視聴者の操作によっては、視聴者端末110のカメラC11で撮影した映像を他の視聴者端末110や発表者端末120に送信しない場合が想定される。この場合、視聴者端末110で取得した参照情報に基づいて、少なくとも視聴者端末110にスコア算出部117、満足度算出部118を有する構成として、算出したスコア、満足度のみを他の視聴者端末110の表示部112や発表者端末120の表示部122に表示させるようにしてもよい。
 本開示に係るウェブ会議システムは、例えばコンピュータ等の処理装置等に利用することができる。
 C1,C2…カメラ、M1,M2…マイク、S1…スピーカ、T1,T2…ターゲット、AR,AR1,AR2,AR3,AR4…目標領域、NW…ネットワーク、10…視聴者端末、11,21…入力部、12,22…表示部、12a,12b,12c,12d,12g…ページ、12e,12f…画面、12m…画面共有領域、12p…ポインタ、13,23…通信部、14,24…記憶部、15,25…制御部、16…視線情報取得部、17,34…判定部、18…集中度算出部、19,28…通信制御部、20…発表者端末、22a…発表者表示画面、22b…視聴者表示画面、22c,22d…アイコン、26…集中度取得部、27…表示制御部、100…ウェブ会議システム
 C11,C12…カメラ、M11,M12…マイク、NW…ネットワーク、110…視聴者端末、111,121…入力部、112,122…表示部、113,123…通信部、114,124…記憶部、115,125…制御部、116…参照情報取得部、117…スコア算出部、118…満足度算出部、119,128…通信制御部、120…発表者端末、122a…発表者表示画面、122b…視聴者表示画面、122c、122d…アイコン、126…満足度取得部、127…表示制御部、200…ウェブ会議システム

Claims (10)

  1.  ネットワークを介して互いに情報を通信可能であり、ウェブ会議に参加する参加者が使用する複数の参加者端末を備え、
     前記参加者端末ごとに設けられ、前記ウェブ会議の内容を表示可能な表示部と、
     前記参加者の視線情報を取得する視線情報取得部と、
     所定のタイミングで前記表示部に目標領域を設定し、取得された前記視線情報に基づいて前記表示部における前記参加者の視線が前記目標領域に合致するか否かを判定する判定部と、
     判定結果に基づいて前記参加者の集中度を算出する集中度算出部と、
     前記参加者の前記集中度を少なくとも1つの前記表示部に表示させる表示制御部と
     を備えるウェブ会議システム。
  2.  前記表示部は、所定の画像を表示可能であり、
     前記判定部は、前記所定の画像が表示される位置に前記目標領域を設定する
     請求項1に記載のウェブ会議システム。
  3.  前記所定のタイミングは、前記表示部の表示が変化するタイミング、音声入力部により取得される前記参加者の音声から所定のキーワードが検出されるタイミング、及び音声出力部から前記参加者の音声が出力されなくなってから一定期間が経過したタイミングの少なくとも1つを含む
     請求項1又は請求項2に記載のウェブ会議システム。
  4.  前記集中度算出部は、前記参加者端末ごとの前記視線情報の特性を算出し、前記判定結果と前記特性とに基づいて、前記集中度を算出する
     請求項1から請求項3のいずれか一項に記載のウェブ会議ステム。
  5.  前記集中度算出部は、前記ウェブ会議の開始時に前記特性の算出を行う
     請求項4に記載のウェブ会議システム。
  6.  ネットワークを介して互いに情報を通信可能であり、ウェブ会議に参加する参加者が使用する複数の参加者端末を備え、
     前記参加者の参加状態に関する参照情報を取得する参照情報取得部と、
     取得された前記参照情報に基づいて前記参加者の前記参加状態に応じたスコアを算出するスコア算出部と、
     算出された前記スコアに基づいて前記参加者の満足度を算出する満足度算出部と、
     算出された前記満足度を表示部に表示する表示制御部と
     を備えるウェブ会議システム。
  7.  前記参加状態は、複数の項目を含み、
     前記スコア算出部は、前記複数の項目ごとに前記スコアを算出する
     請求項6に記載のウェブ会議システム。
  8.  前記満足度算出部は、前記満足度を算出する際、前記複数の項目ごとに算出される前記スコアについて前記ウェブ会議の内容に応じて重みづけを行う
     請求項7に記載のウェブ会議システム。
  9.  前記満足度算出部は、前記参加者が発する音声に基づいてキーワードを抽出し、抽出した前記キーワードに基づいて前記ウェブ会議の内容を判定する
     請求項8に記載のウェブ会議システム。
  10.  前記スコア算出部は、前記参加者が前記ウェブ会議に参加する参加期間において前記スコアを累積して算出し、
     前記満足度算出部は、前記スコアを累積した累積結果に基づいて前記満足度を算出する
     請求項6から請求項9のいずれか一項に記載のウェブ会議システム。
PCT/JP2021/045706 2020-12-15 2021-12-10 ウェブ会議システム WO2022131178A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020207795A JP2022094736A (ja) 2020-12-15 2020-12-15 ウェブ会議システム
JP2020-207795 2020-12-15
JP2020212442A JP2022098825A (ja) 2020-12-22 2020-12-22 ウェブ会議システム
JP2020-212442 2020-12-22

Publications (1)

Publication Number Publication Date
WO2022131178A1 true WO2022131178A1 (ja) 2022-06-23

Family

ID=82057819

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/045706 WO2022131178A1 (ja) 2020-12-15 2021-12-10 ウェブ会議システム

Country Status (1)

Country Link
WO (1) WO2022131178A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008306586A (ja) * 2007-06-08 2008-12-18 Tokyo Denki Univ 情況推定方法、情況推定プログラム及びネットワークシステム
JP2017142867A (ja) * 2017-05-29 2017-08-17 株式会社ニコン 電子機器
JP2019046385A (ja) * 2017-09-06 2019-03-22 東京エレクトロンデバイス株式会社 状況推論システム及び状況推論方法
WO2020016969A1 (ja) * 2018-07-18 2020-01-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
WO2020116181A1 (ja) * 2018-12-03 2020-06-11 パナソニックIpマネジメント株式会社 集中度計測装置及び集中度計測方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008306586A (ja) * 2007-06-08 2008-12-18 Tokyo Denki Univ 情況推定方法、情況推定プログラム及びネットワークシステム
JP2017142867A (ja) * 2017-05-29 2017-08-17 株式会社ニコン 電子機器
JP2019046385A (ja) * 2017-09-06 2019-03-22 東京エレクトロンデバイス株式会社 状況推論システム及び状況推論方法
WO2020016969A1 (ja) * 2018-07-18 2020-01-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
WO2020116181A1 (ja) * 2018-12-03 2020-06-11 パナソニックIpマネジメント株式会社 集中度計測装置及び集中度計測方法

Similar Documents

Publication Publication Date Title
WO2018018482A1 (zh) 播放音效的方法及装置
TW202145131A (zh) 視訊處理方法及裝置、電子設備和電腦可讀儲存介質
WO2016178329A1 (ja) 情報処理システム、制御方法、および記憶媒体
JP2018124604A (ja) 接客支援システム、接客支援装置及び接客支援方法
US20170208022A1 (en) Chat system
US11528449B2 (en) System and methods to determine readiness in video collaboration
WO2018061173A1 (ja) Tv会議システム、tv会議方法、およびプログラム
CN112151041A (zh) 基于录音机程序的录音方法、装置、设备及存储介质
WO2022131178A1 (ja) ウェブ会議システム
JP2007030050A (ja) ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法
CN111835617B (zh) 用户头像调整方法、装置及电子设备
US20240171418A1 (en) Information processing device and information processing method
US10600412B2 (en) Communication system
JP2022094736A (ja) ウェブ会議システム
JP2022098825A (ja) ウェブ会議システム
US20210174823A1 (en) System for and Method of Converting Spoken Words and Audio Cues into Spatially Accurate Caption Text for Augmented Reality Glasses
EP3288035B1 (en) Personal audio analytics and behavior modification feedback
JP6251800B1 (ja) 授業システム及び授業支援方法
JP7150114B1 (ja) コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム
JP7231301B2 (ja) オンライン会議サポートシステムおよびオンライン会議サポートプログラム
US11928253B2 (en) Virtual space control system, method for controlling the same, and control program
JP2019071515A (ja) 通信装置、通信システムおよびプログラム
JP2011223092A (ja) 発言機会均等化方法、発言機会均等化装置及び発言機会均等化プログラム
JP6867543B1 (ja) 情報処理装置、情報処理方法及びプログラム
US20240113905A1 (en) Audio transcription for electronic conferencing

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21906540

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21906540

Country of ref document: EP

Kind code of ref document: A1