JP2018201153A - Information processing system - Google Patents

Information processing system Download PDF

Info

Publication number
JP2018201153A
JP2018201153A JP2017105622A JP2017105622A JP2018201153A JP 2018201153 A JP2018201153 A JP 2018201153A JP 2017105622 A JP2017105622 A JP 2017105622A JP 2017105622 A JP2017105622 A JP 2017105622A JP 2018201153 A JP2018201153 A JP 2018201153A
Authority
JP
Japan
Prior art keywords
information
question
minutes
answer
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017105622A
Other languages
Japanese (ja)
Inventor
陽 大橋
Hiromi Ohashi
陽 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2017105622A priority Critical patent/JP2018201153A/en
Priority to US15/989,417 priority patent/US10573316B2/en
Publication of JP2018201153A publication Critical patent/JP2018201153A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing system that can divide the content of the minutes into the details of representations and the details of inquiries to prevent the content of the minutes from becoming redundant.SOLUTION: An information processing system 1 comprises at least one acquisition device 2 and an image forming apparatus 3. The acquisition device 2 acquires agenda information indicating the details of a conference along the time series from a plurality of participants in the conference. The image forming apparatus 3 specifies, from the agenda information, the details of inquiries indicating the details of questions and answers between questioners and a presenter from among the plurality of participants. The image forming apparatus 3 generates minutes information indicating the content of the minutes on the basis of the details of the inquiries.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システムに関する。   The present invention relates to an information processing system.

特許文献1に記載の議事録作成システムは、議事録作成装置と、複数の情報端末とを備える。各情報端末は、会議の参加者の各々に使用される。情報端末は、会議の資料を表示する。議事録作成装置は、会議中の発話内容を文字情報に変換する。議事録作成装置は、文字情報と資料情報とを関連付けて議事録を作成する。資料の情報は、会議の資料を示す。資料の情報は、情報端末から取得する。   The minutes creation system described in Patent Literature 1 includes a minutes creation device and a plurality of information terminals. Each information terminal is used for each participant of the conference. The information terminal displays the conference material. The minutes creation device converts the utterance content during the meeting into text information. The minutes creation device creates minutes by associating character information with material information. The material information indicates the material of the meeting. Information on the material is obtained from the information terminal.

特開2013−109106号公報JP2013-109106A

しかしながら、特許文献1に記載の議事録作成システムでは、例えば、議事録の内容に発表内容と質疑内容とが混在する。発表内容は、資料に関する発表者の説明を示す。質疑内容は、発表者の説明に関する質問者の質問と、発表者の質問に対応する回答とを含む。発表者の説明の多くは、資料に記載されている。したがって、発表内容を含む議事録の内容は、冗長になるおそれがある。   However, in the minutes creation system described in Patent Document 1, for example, the contents of the minutes are mixed with the contents of the announcement and the contents of the questions. The contents of the presentation indicate the presenter's explanation regarding the material. The question contents include a questioner's question regarding the presenter's explanation and an answer corresponding to the presenter's question. Many of the presenters' explanations can be found in the material. Therefore, the contents of the minutes including the announcement contents may be redundant.

本発明は上記課題に鑑みてなされたものであり、その目的は、議事録の内容を発表内容と質疑内容とに分けて、議事録の内容が冗長になることを抑制することができる情報処理システムを提供することにある。   The present invention has been made in view of the above problems, and its purpose is to divide the contents of the minutes into announcement contents and question contents, and to prevent the contents of the minutes from becoming redundant. To provide a system.

本発明の情報処理システムは、少なくとも1つの取得装置と、端末装置とを備える。前記取得装置は、会議に参加する複数の参加者から前記会議の内容を示す議事情報を時系列に沿って取得する。前記端末装置は、前記複数の参加者のうち質問者と発表者との質疑応答の内容を示す質疑内容を前記議事情報から特定する。前記端末装置は、前記質疑内容に基づいて、議事録の内容を示す議事録情報を生成する。   The information processing system of the present invention includes at least one acquisition device and a terminal device. The said acquisition apparatus acquires the agenda information which shows the content of the said meeting from the some participant who participates in a meeting along a time series. The said terminal device specifies the question content which shows the content of the question and answer of a questioner and a presenter among these participants from the said agenda information. The terminal device generates minutes information indicating the contents of the minutes based on the question contents.

本発明の情報処理システムによれば、議事録の内容を発表内容と質疑内容とに分けて、議事録の内容が冗長になることを抑制することができる。   According to the information processing system of the present invention, it is possible to divide the contents of the minutes into announcement contents and question contents, and to prevent the contents of the minutes from becoming redundant.

本発明の実施形態に係る情報処理システムを示すブロック図である。It is a block diagram which shows the information processing system which concerns on embodiment of this invention. 本発明の実施形態に係る取得装置を示す斜視図である。It is a perspective view which shows the acquisition apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る画像形成装置の構成を示す図である。1 is a diagram illustrating a configuration of an image forming apparatus according to an embodiment of the present invention. (a)は、用紙に形成された第1議事録の一例を示す図であり、(b)は、用紙に形成された第2議事録の一例を示す図である。(A) is a figure which shows an example of the 1st minutes formed on the paper, (b) is a figure which shows an example of the 2nd minutes formed on the paper. 本発明の実施形態に係る制御部による議事録情報の生成処理を示すフローチャートである。It is a flowchart which shows the production | generation process of the minutes information by the control part which concerns on embodiment of this invention.

以下、図面を参照して本発明の実施形態を説明する。ただし、本発明は以下の実施形態に限定されない。なお、図中、同一又は相当部分については、同一の参照符号を付して説明を繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the following embodiments. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.

図1を参照して、本発明の実施形態に係る情報処理システム1について説明する。図1は、本実施形態に係る情報処理システム1を示すブロック図である。本実施形態において、情報処理システム1は、議事録を作成する。議事録の内容は、会議の内容を示す。   An information processing system 1 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing an information processing system 1 according to this embodiment. In the present embodiment, the information processing system 1 creates a minutes. The contents of the minutes indicate the contents of the meeting.

ここで、会議は、例えば、複数の参加者が参加して意思決定をするものである。また、本発明において、会議は、講演、又は講義であってもよい。講演は、題目にしたがって話が進められるものである。講義は、学問の方法及び成果について話が進められるものである。   Here, for example, a conference is a decision in which a plurality of participants participate to make a decision. In the present invention, the conference may be a lecture or a lecture. The lecture will proceed according to the subject. The lecture will be about the academic methods and results.

複数の参加者は、例えば、発表者と質問者とを含む。発表者は、例えば、資料を用いて発表内容を説明する。また、発表者は、質問者の質問に対して回答する。質問者は、発表内容の説明に対して質問する。   The plurality of participants include, for example, a presenter and a questioner. For example, the presenter explains the contents of the presentation using materials. The presenter answers the questioner's question. The questioner asks questions about the contents of the presentation.

図1に示すように、情報処理システム1は、複数の取得装置2と、画像形成装置3と、発表者用端末7とを備える。情報処理システム1において、複数の取得装置2と、画像形成装置3と、発表者用端末7とは、通信ネットワークLを介して接続される。通信ネットワークLは、例えば、インターネット回線、又は専用回線である。   As shown in FIG. 1, the information processing system 1 includes a plurality of acquisition devices 2, an image forming device 3, and a presenter terminal 7. In the information processing system 1, the plurality of acquisition devices 2, the image forming device 3, and the presenter terminal 7 are connected via a communication network L. The communication network L is, for example, an Internet line or a dedicated line.

発表者用端末7は、例えば、ノートパソコンである。発表者用端末7は、複数の資料を記憶する。複数の資料は、会議において、発表者が発表内容を説明する際に用いられる。資料は、例えば、スライドを示す画像である。スライドは、資料画像、文字画像、及びARマーカーを含む。ARマーカーは、資料を他の資料と区別するためのマーカーである。   The presenter terminal 7 is, for example, a notebook personal computer. The presenter terminal 7 stores a plurality of materials. The plurality of materials are used when the presenter explains the contents of the presentation at the meeting. The material is, for example, an image showing a slide. The slide includes a material image, a character image, and an AR marker. The AR marker is a marker for distinguishing materials from other materials.

発表者用端末7は、例えば、表示部を有する。発表者用端末7は、会議において、表示部に複数の資料を順に表示させる。この結果、複数の参加者は、表示部を介して資料を確認することができる。なお、発表者用端末7は、例えば、プロジェクターを介して会場の壁面に複数の資料を順に表示させてもよい。また、発表者用端末7は、例えば、複数の参加者の各々が有するノートパソコンのディスプレーに複数の資料を順に表示させてもよい。   The presenter terminal 7 includes, for example, a display unit. The presenter terminal 7 causes the display unit to display a plurality of materials in order in the meeting. As a result, the plurality of participants can confirm the material via the display unit. The presenter terminal 7 may sequentially display a plurality of materials on the wall surface of the venue via a projector, for example. In addition, the presenter terminal 7 may sequentially display a plurality of materials on a display of a notebook computer included in each of a plurality of participants, for example.

発表者用端末7は、例えば会議が終了した後に、資料情報を画像形成装置3に出力する。資料情報は、複数の資料の各々を会議の時系列に関連付けた情報である。具体的には、資料情報は、複数の資料と、使用情報とを含む。使用情報は、各資料が会議で用いられたタイミングを時系列に沿って示す。なお、発表者用端末7は、例えば会議が開始されるよりも前に、資料情報を画像形成装置3に出力してもよい。この場合に、資料情報は、複数の資料の各々を会議の予定される時系列に関連付けた情報である。   The presenter terminal 7 outputs the material information to the image forming apparatus 3 after the conference is finished, for example. The material information is information in which each of a plurality of materials is associated with a conference time series. Specifically, the material information includes a plurality of materials and usage information. The usage information indicates the timing at which each material was used in the meeting in chronological order. The presenter terminal 7 may output the material information to the image forming apparatus 3 before the meeting is started, for example. In this case, the material information is information in which each of a plurality of materials is associated with a time series scheduled for the meeting.

複数の取得装置2は、複数の参加者から議事情報を取得する。議事情報は、会議の内容を時系列に沿って示す。複数の取得装置2の各々は、複数の参加者の各々に所持される。本実施形態において、議事情報は、音声情報と、議事画像情報とを含む。音声情報は、参加者の発声内容と発声音量とを示す。議事画像情報は、参加者の視界に入る環境を示す画像を示す。取得装置2の各々は、議事情報を画像形成装置3に出力する。   The plurality of acquisition devices 2 acquire agenda information from a plurality of participants. The agenda information indicates the content of the meeting in chronological order. Each of the plurality of acquisition devices 2 is possessed by each of a plurality of participants. In the present embodiment, the agenda information includes audio information and agenda image information. The audio information indicates the participant's utterance content and utterance volume. The agenda image information indicates an image indicating an environment that enters the view of the participant. Each of the acquisition devices 2 outputs agenda information to the image forming device 3.

取得装置2は、録音部21と、撮像部22とを有する。録音部21は、参加者の音声を録音する。録音部21は、参加者の音声を議事情報として画像形成装置3に出力する。撮像部22は、議事画像を撮像する。典型的には、議事画像は、動画である。撮像部22は、議事画像を議事情報として画像形成装置3に出力する。   The acquisition device 2 includes a recording unit 21 and an imaging unit 22. The recording unit 21 records the participant's voice. The recording unit 21 outputs the participant's voice to the image forming apparatus 3 as agenda information. The imaging unit 22 captures an agenda image. Typically, the agenda image is a moving image. The imaging unit 22 outputs the agenda image to the image forming apparatus 3 as agenda information.

画像形成装置3は、本発明の端末装置の一例である。画像形成装置3は、入力部31と、画像形成部32と、制御部4とを有する。画像形成部32は、画像データに基づいて記録媒体に画像を形成する。本実施形態において、画像形成部32は、議事録情報に基づいて記録媒体に議事録を作成する。議事録情報は、議事録の内容を示す。   The image forming apparatus 3 is an example of a terminal device of the present invention. The image forming apparatus 3 includes an input unit 31, an image forming unit 32, and a control unit 4. The image forming unit 32 forms an image on a recording medium based on the image data. In the present embodiment, the image forming unit 32 creates a minutes on a recording medium based on the minutes information. The minutes information indicates the contents of the minutes.

入力部31は、操作信号を制御部4に出力する。操作信号は、画像形成装置3を操作する操作者の操作に対応する。操作者の操作は、例えば、画像形成装置3の各種設定を含む。   The input unit 31 outputs an operation signal to the control unit 4. The operation signal corresponds to an operation of an operator who operates the image forming apparatus 3. The operation of the operator includes various settings of the image forming apparatus 3, for example.

制御部4は、例えば、プロセッサーと、記憶部とを含む。プロセッサーは、例えば、CPU(Central Processing Unit)である。記憶部は、例えば、半導体メモリー及びHDD(Hard Disk Drive)を含む。プロセッサーは、コンピュータープログラムに基づいて、入力部31と、画像形成部32とを制御する。コンピュータープログラムは、記憶部に予め記憶される。   The control unit 4 includes, for example, a processor and a storage unit. The processor is, for example, a CPU (Central Processing Unit). The storage unit includes, for example, a semiconductor memory and an HDD (Hard Disk Drive). The processor controls the input unit 31 and the image forming unit 32 based on a computer program. The computer program is stored in advance in the storage unit.

記憶部は、取得装置2から入力された議事情報を記憶する。記憶部は、参加者に関連付けて議事情報を記憶する。詳しくは、記憶部は、取得装置2の識別番号と、参加者の個人名と、参加者の分類とを予め記憶する。識別番号は、取得装置2の各々に附される番号である。識別番号は、取得装置2の個体を認識するために用いられる。参加者の個人名は、識別番号に関連付けて記憶される。換言すると、参加者と取得装置2とが関連付けて記憶される。参加者の分類は、識別番号に関連付けて記憶される。参加者の分類は、参加者が第1参加者であるか否かを示す。第1参加者は、発表者を含む。また、第1参加者は、発表者を除く参加者のうち予め設定された参加者を更に含む。参加者の分類は、第1参加者が発表者であるか否かを更に示す。記憶部は、識別番号に関連付けて議事情報を記憶する。この結果、議事情報の各々は、参加者の各々に関連付けて記憶部に記憶される。   The storage unit stores the agenda information input from the acquisition device 2. The storage unit stores the agenda information in association with the participant. Specifically, the storage unit stores in advance the identification number of the acquisition device 2, the participant's personal name, and the participant's classification. The identification number is a number assigned to each acquisition device 2. The identification number is used for recognizing the individual of the acquisition device 2. The participant's personal name is stored in association with the identification number. In other words, the participant and the acquisition device 2 are stored in association with each other. The classification of the participant is stored in association with the identification number. The classification of the participant indicates whether or not the participant is the first participant. The first participant includes a presenter. The first participant further includes a preset participant among the participants excluding the presenter. The participant classification further indicates whether the first participant is a presenter. The storage unit stores the agenda information in association with the identification number. As a result, each piece of agenda information is stored in the storage unit in association with each participant.

また、記憶部は、発表者用端末7から入力された資料情報を記憶する。記憶部は、発表者が使用した取得装置2の識別番号に関連づけて資料情報を記憶する。   Further, the storage unit stores the material information input from the presenter terminal 7. The storage unit stores the material information in association with the identification number of the acquisition device 2 used by the presenter.

制御部4は、議事情報及び資料情報に基づいて、議事録情報を生成する。制御部4のプロセッサーは、コンピュータープログラムに基づいて、検索部41、生成部42、及び特定部43として機能する。検索部41、生成部42、及び特定部43の詳細は、図4(a)、及び図4(b)を参照して後述する。   The control unit 4 generates minutes information based on the minutes information and material information. The processor of the control unit 4 functions as a search unit 41, a generation unit 42, and a specification unit 43 based on a computer program. Details of the search unit 41, the generation unit 42, and the specification unit 43 will be described later with reference to FIGS. 4 (a) and 4 (b).

次に、図1及び図2を参照して取得装置2の構成について更に説明する。図2は、取得装置2を示す斜視図である。図2に示すように、取得装置2は、録音部21と、撮像部22とに加えて、本体部23を更に有する。本実施形態において、取得装置2は、ヘッドマウントディスプレーである。   Next, the configuration of the acquisition device 2 will be further described with reference to FIGS. 1 and 2. FIG. 2 is a perspective view showing the acquisition device 2. As illustrated in FIG. 2, the acquisition device 2 further includes a main body 23 in addition to the recording unit 21 and the imaging unit 22. In the present embodiment, the acquisition device 2 is a head mounted display.

本体部23は、U字状に形成される。本体部23は、参加者の頭部に装着される。本体部23は、録音部21と撮像部22とを支持する。録音部21は、例えば、フレーム部とマイクとから構成される。フレーム部は、本体部23から延びる。マイクは、フレーム部の先端部に配される。マイクは、本体部23が参加者の頭部に装着された際に、参加者の口の近傍に位置する。この結果、録音部21は、参加者の音声を録音することができる。   The main body 23 is formed in a U shape. The main body 23 is attached to the participant's head. The main body unit 23 supports the recording unit 21 and the imaging unit 22. The recording unit 21 includes, for example, a frame unit and a microphone. The frame portion extends from the main body portion 23. The microphone is arranged at the tip of the frame part. The microphone is located in the vicinity of the participant's mouth when the main body 23 is attached to the participant's head. As a result, the recording unit 21 can record the participant's voice.

撮像部22は、フレーム部と撮像素子とから構成される。フレーム部は、本体部23から延びる。撮像素子は、フレーム部の先端部に配される。撮像素子は、例えば、CCD(Charge Coupled Device)イメージセンサーである。撮像素子は、本体部23が参加者の頭部に装着された際に、参加者の目の近傍に位置する。この結果、撮像部22は、議事画像を撮像することができる。なお、取得装置2は、例えば、参加者の胸元に装着されるピンマイクと、ピンマイクに並設された撮像素子とを備えてもよい。   The imaging unit 22 includes a frame unit and an imaging element. The frame portion extends from the main body portion 23. The image sensor is disposed at the tip of the frame portion. The imaging element is, for example, a CCD (Charge Coupled Device) image sensor. The image sensor is located in the vicinity of the participant's eyes when the main body 23 is mounted on the participant's head. As a result, the imaging unit 22 can capture an agenda image. Note that the acquisition device 2 may include, for example, a pin microphone attached to the chest of the participant and an image sensor arranged in parallel with the pin microphone.

次に、図1及び図3を参照して、画像形成装置3の構成について、更に説明する。図3は、画像形成装置3の構成を示す図である。図3に示すように、画像形成装置3は、複合機である。複合機は、例えば、プリンター機能を有する。また、複合機は、例えば、コピー機能及びファクシミリ機能のうち少なくとも1つの機能を有する。   Next, the configuration of the image forming apparatus 3 will be further described with reference to FIGS. 1 and 3. FIG. 3 is a diagram illustrating a configuration of the image forming apparatus 3. As shown in FIG. 3, the image forming apparatus 3 is a multi-function machine. The multifunction device has, for example, a printer function. The multifunction machine has at least one of a copy function and a facsimile function, for example.

画像形成装置3は、入力部31と、画像形成部32と、制御部4とに加えて、給紙部33と、定着部34と、排出トレイ35とを更に有する。画像形成装置3は、給紙部33から給紙される用紙Sに画像を形成する。用紙Sは、本発明の記録媒体の一例である。用紙Sは、例えば、普通紙、コピー紙、再生紙、薄紙、厚紙、光沢紙、又はOHP(Overhead Projector)用紙である。   In addition to the input unit 31, the image forming unit 32, and the control unit 4, the image forming apparatus 3 further includes a paper feed unit 33, a fixing unit 34, and a discharge tray 35. The image forming apparatus 3 forms an image on the paper S fed from the paper feed unit 33. The paper S is an example of the recording medium of the present invention. The paper S is, for example, plain paper, copy paper, recycled paper, thin paper, thick paper, glossy paper, or OHP (Overhead Projector) paper.

画像形成部32は、像担持体32aと、帯電部32bと、露光部32cと、現像部32dと、転写部32eとを有する。画像形成部32は、用紙Sにトナー画像を形成する。定着部34は、用紙Sにトナー画像を定着させる。トナー画像が定着された用紙Sは、排出トレイ35に排出される。   The image forming unit 32 includes an image carrier 32a, a charging unit 32b, an exposure unit 32c, a developing unit 32d, and a transfer unit 32e. The image forming unit 32 forms a toner image on the paper S. The fixing unit 34 fixes the toner image on the paper S. The sheet S on which the toner image is fixed is discharged to the discharge tray 35.

入力部31は、例えば、ディスプレーを含む。ディスプレーは、各種の画面を表示する。また、入力部31は、タッチパネル機能を有する。   The input unit 31 includes, for example, a display. The display displays various screens. The input unit 31 has a touch panel function.

次に、図1、図4(a)及び図4(b)を参照して、制御部4について更に説明する。まず、図4(a)及び図4(b)を参照して、本実施形態に係る議事録について説明する。議事録は、第1議事録A1と、第2議事録A2とに分けて形成される。図4(a)は、用紙Sに形成された第1議事録A1の一例を示す図である。図4(b)は、用紙Sに形成された第2議事録A2の一例を示す図である。第1議事録A1は、発表者の発表内容を示す。第2議事録A2は、発表者と質問者との質疑内容を示す。   Next, the control unit 4 will be further described with reference to FIGS. 1, 4A, and 4B. First, with reference to FIG. 4A and FIG. 4B, the minutes according to the present embodiment will be described. The minutes are formed by dividing the first minutes A1 and the second minutes A2. FIG. 4A is a diagram showing an example of the first minutes A1 formed on the paper S. FIG. FIG. 4B is a diagram illustrating an example of the second minutes A2 formed on the paper S. The first minutes A1 shows the presentation contents of the presenter. The second minutes A2 shows the contents of questions between the presenter and the questioner.

図4(a)に示すように、第1議事録A1は、用紙Sに形成される。第1議事録A1は、複数のスライドGと、複数のスライドGの各々に対応する説明Dとを含む。説明Dは、スライドGに対応する発表者の説明内容を示す。説明Dは、対応するスライドGの直下に位置する。第1議事録A1は、例えば、会議の時系列に対応するように、スライドG及び説明Dを順に並べて形成される。   As shown in FIG. 4A, the first minutes A1 are formed on the paper S. The first minutes A1 includes a plurality of slides G and a description D corresponding to each of the plurality of slides G. The explanation D shows the explanation content of the presenter corresponding to the slide G. The description D is located immediately below the corresponding slide G. The first minutes A1 are formed, for example, by arranging the slide G and the description D in order so as to correspond to the time series of the meeting.

説明Dは、説明D1と説明D2とを含む。説明D2は、強調部分であり、説明D1よりも強調されるように太字で形成される。なお、説明D2は、例えば、説明D1と色が異なってもよい。また、説明D2には、下線が附されてもよい。   The description D includes a description D1 and a description D2. The explanation D2 is an emphasis portion, and is formed in bold so as to be emphasized more than the explanation D1. The description D2 may be different in color from the description D1, for example. The description D2 may be underlined.

図4(b)に示すように、第2議事録A2は、用紙Sに形成される。第2議事録A2は、複数のスライドGと、質問Nと、質問Nの回答Mとを含む。質問Nは、質問者の質問内容を示す。回答Mは、質問Nに対応する発表者の回答内容を示す。第2議事録A2は、例えば、会議の時系列に対応するように、スライドG、質問N及び回答Mを順に並べて形成される。質問Nは、対応するスライドGの直下に位置する。回答Mは、対応する質問Nの直下に位置する。   As shown in FIG. 4B, the second minutes A2 are formed on the paper S. The second minutes A2 includes a plurality of slides G, a question N, and an answer M of the question N. The question N indicates the question content of the questioner. The answer M indicates the answer content of the presenter corresponding to the question N. For example, the second minutes A2 are formed by sequentially arranging the slide G, the question N, and the answer M so as to correspond to the time series of the meeting. The question N is located immediately below the corresponding slide G. The answer M is located immediately below the corresponding question N.

質問Nは、質問N1と質問N2とを含む。回答Mは、回答M1と回答M2とを含む。質問N2及び回答M2は、強調部分であり、質問N1及び回答M1よりも強調されるように太字で形成される。なお、質問N2及び回答M2は、例えば、質問N1及び回答M1と色が異なってもよい。また、質問N2及び回答M2には、下線が附されてもよい。   The question N includes a question N1 and a question N2. The answer M includes an answer M1 and an answer M2. The question N2 and the answer M2 are emphasized portions, and are formed in bold so as to be emphasized more than the question N1 and the answer M1. The question N2 and the answer M2 may be different in color from the question N1 and the answer M1, for example. The question N2 and the answer M2 may be underlined.

続いて、図1、図4(a)及び図4(b)を参照して、制御部4について説明する。図1を参照して説明した制御部4は、議事情報と資料情報とに基づいて、議事録情報を生成する。また、制御部4は、議事録情報に基づいて用紙Sに第1議事録A1の内容を示す画像を形成するように、画像形成部32を制御する。また、制御部4は、議事録情報に基づいて用紙Sに第2議事録A2の内容を示す画像を形成するように、画像形成部32を制御する。   Next, the control unit 4 will be described with reference to FIGS. 1, 4A, and 4B. The control unit 4 described with reference to FIG. 1 generates minutes information based on the minutes information and the material information. Further, the control unit 4 controls the image forming unit 32 so as to form an image indicating the contents of the first minutes A1 on the paper S based on the minutes information. Further, the control unit 4 controls the image forming unit 32 so that an image indicating the content of the second minutes A2 is formed on the paper S based on the minutes information.

生成部42は、議事情報に基づいて、文字情報を生成する。詳しくは、生成部42は、複数の参加者の各々の音声に基づいて、文字情報を生成する。生成部42は、例えば、音声認識を用いることによって、音声から文字情報を生成する。文字情報は、複数の文字列を示す。生成部42は、複数の文字列を、会議の時系列に沿って並べて記憶部に記憶させる。   The generation unit 42 generates character information based on the agenda information. Specifically, the generation unit 42 generates character information based on the voices of the plurality of participants. The generation unit 42 generates character information from voice by using voice recognition, for example. The character information indicates a plurality of character strings. The generation unit 42 arranges a plurality of character strings in a time series of the meeting and stores them in the storage unit.

検索部41は、議事情報に基づいて、議事情報から質疑内容を検索する。本実施形態において、検索部41は、複数の文字列から質疑内容を示す文字列を検索する。検索部41は、質疑内容を検索して、複数の文字列を、質疑内容を示す文字列と発表内容を示す文字列とに分類する。詳しくは、検索部41は、複数の文字列のうち質疑期間に発声された文字列を、質疑内容を示す文字列として特定する。質疑期間は、会議の時系列において、質疑開始タイミングから質疑終了タイミングまでの間の期間である。また、本実施形態において、検索部41は、複数の文字列のうち質疑期間に発声された文字列を除く文字列を、発表内容を示す文字列として特定する。   The search unit 41 searches the contents of questions from the agenda information based on the agenda information. In this embodiment, the search part 41 searches the character string which shows the question content from several character strings. The search unit 41 searches the question content and classifies the plurality of character strings into a character string indicating the question content and a character string indicating the announcement content. Specifically, the search unit 41 identifies a character string uttered during the question period among a plurality of character strings as a character string indicating the contents of the question. The question period is a period from the question start timing to the question end timing in the time series of the meeting. Moreover, in this embodiment, the search part 41 specifies the character string except the character string uttered during the question period among several character strings as a character string which shows the content of presentation.

検索部41は、文字情報に基づいて、質疑開始タイミングを特定する。質疑開始タイミングは、発表者以外の参加者が発声を開始したタイミングである。詳しくは、検索部41は、複数の文字列に基づいて、発表者以外の音声を示す文字列を質問Nとして特定する。検索部41は、会議の時系列において、質問Nが発声されたタイミングを質疑開始タイミングとして特定する。   The search unit 41 specifies the question start timing based on the character information. The question start timing is the timing when participants other than the presenter start speaking. Specifically, the search unit 41 specifies, as the question N, a character string indicating a voice other than the presenter based on a plurality of character strings. The search unit 41 identifies the timing at which the question N is uttered as the question start timing in the time series of the meeting.

検索部41は、議事情報と文字情報とに基づいて、質疑終了タイミングを特定する。検索部41は、例えば、複数の文字列に基づいて、質問Nの後に、複数の文字列が特定の文字列を含むか否かを判定する。検索部41は、特定の文字列の時系列上の位置によって、質疑終了タイミングを特定する。質疑終了タイミングは、特定の文字列に対応する発声を終えたタイミングである。特定の文字列は、予め設定される。典型的には、特定の文字列は、例えば、「分かりました」及び「ありがとうございます」である。   The search unit 41 identifies the question end timing based on the agenda information and the character information. For example, the search unit 41 determines whether the plurality of character strings include a specific character string after the question N based on the plurality of character strings. The search unit 41 specifies the question end timing based on the position of the specific character string on the time series. The question end timing is the timing when the utterance corresponding to the specific character string is finished. The specific character string is set in advance. Typically, the specific character string is, for example, “OK” and “Thank you”.

また、検索部41は、質疑開始タイミングの後に、発表者の音声を示す文字列が連続する期間を特定する。検索部41は、会議の時系列において、発表者の音声を示す文字列が連続する期間が第1閾値を超える場合に、発表者の連続する文字列を質疑終了を示す文字列と特定する。この場合に、質疑終了タイミングは、発表者の連続する文字列が第1閾値を超えたタイミングである。また、検索部41は、資料情報に基づいて、スライドが切り替えられるタイミングを質疑終了タイミングとして特定する。   Moreover, the search part 41 specifies the period when the character string which shows a speech of a presenter continues after a question start timing. The search unit 41 identifies the continuous character string of the presenter as the character string indicating the end of the question when the period of continuous character strings indicating the speech of the presenter exceeds the first threshold in the time series of the meeting. In this case, the question and answer end timing is a timing when the continuous character string of the presenter exceeds the first threshold. In addition, the search unit 41 identifies the timing at which the slide is switched as the question and answer end timing based on the material information.

また、検索部41は、例えば、議事情報のうち発表者の議事画像に基づいて、質疑終了タイミングを特定する。詳しくは、検索部41は、質疑開始タイミングの後に、発表者の議事画像に示される参加者を質問者として特定する。検索部41は、例えば、顔認識を用いることによって、議事画像に参加者が示されるか否かを判定する。検索部41は、質問者を特定した後に、発表者の議事画像から質問者がフレームアウトした期間を計測する。検索部41は、計測した期間が所定の期間を超えたタイミングを質疑終了タイミングとして特定する。   Moreover, the search part 41 specifies a question end timing based on the presenter's agenda image among agenda information, for example. In detail, the search part 41 specifies the participant shown by the presenter's agenda image as a questioner after a question start timing. The search unit 41 determines whether or not a participant is shown in the agenda image by using, for example, face recognition. After specifying the questioner, the search unit 41 measures the period during which the questioner has framed out of the presenter's agenda image. The search unit 41 identifies the timing at which the measured period exceeds a predetermined period as the question and answer end timing.

検索部41は、質疑期間の文字列を質疑内容を示す文字列として特定する。検索部41は、質疑内容を示す文字列において、発表者の音声を示す文字列を回答Mとして特定する。検索部41は、回答Mと特定した文字列に回答Mであることを示すタグを付加する。タグは、回答Mに対応するスライドGを更に示す。   The search part 41 specifies the character string of a question period as a character string which shows the question content. The search part 41 specifies the character string which shows a speaker's voice in the character string which shows the question contents as the reply M. The search unit 41 adds a tag indicating the answer M to the character string identified as the answer M. The tag further indicates a slide G corresponding to the answer M.

また、検索部41は、質疑内容を示す文字列において、発表者以外の音声を示す文字列を質問Nとして特定する。検索部41は、質問Nとして特定した文字列に質問Nであることを示すタグを付加する。タグは、質問Nに対応するスライドGを更に示す。   Moreover, the search part 41 specifies the character string which shows audio | voices other than a presenter as the question N in the character string which shows the question content. The search unit 41 adds a tag indicating the question N to the character string identified as the question N. The tag further indicates a slide G corresponding to the question N.

検索部41は、質疑期間を除く発表者の音声を示す文字列を説明Dとして特定する。検索部41は、説明Dとして特定した文字列に説明Dであることを示すタグを付加する。タグは、説明Dの時系列上での位置に対応するスライドGを更に示す。なお、検索部41は、第1閾値に基づいて質疑終了タイミングを特定した場合に、第1閾値を超えて連続する文字列を回答Mであるとともに説明Dでもあると特定する。検索部41は、回答Mであるとともに説明Dでもあると特定した文字列に回答M及び説明Dであることを示すタグを付加する。タグは、連続する文字列に対応するスライドGを更に示す。   The search part 41 specifies the character string which shows the audio | voice of the presenter except a question period as the description D. FIG. The search unit 41 adds a tag indicating the description D to the character string specified as the description D. The tag further indicates the slide G corresponding to the position on the time series of the description D. Note that when the query end timing is specified based on the first threshold, the search unit 41 specifies that the character string that continues beyond the first threshold is the answer M and the description D. The search unit 41 adds a tag indicating that it is the answer M and the explanation D to the character string identified as the answer M and the explanation D. The tag further indicates a slide G corresponding to a continuous character string.

生成部42は、資料情報と説明Dであることを示すタグが付加された文字列とに基づいて、第1議事録A1の内容を示す議事録情報を生成する。詳しくは、生成部42は、記憶領域において、複数のスライドGの各々を時系列に沿って並べ替える。また、生成部42は、記憶領域において、タグが示すスライドGの直下に説明Dを配置する。なお、スライドGの直下に配置される説明Dは、発表者の発声のタイミングに基づいて、複数段に分けて配置されてもよい。具体的には、生成部42は、所定の期間を超えて発表者の発声が無い場合に、記憶領域において、説明Dを複数段に分けて配置する。   The generation unit 42 generates minutes information indicating the contents of the first minutes A1 based on the material information and the character string to which the tag indicating the description D is added. Specifically, the generation unit 42 rearranges each of the plurality of slides G in time series in the storage area. Further, the generation unit 42 arranges the description D immediately below the slide G indicated by the tag in the storage area. The explanation D arranged immediately below the slide G may be arranged in a plurality of stages based on the timing of the speaker's utterance. Specifically, the generation unit 42 arranges the explanation D in a plurality of stages in the storage area when there is no speech from the presenter beyond a predetermined period.

生成部42は、資料情報と質問Nであることを示すタグが付加された文字列と回答Mであることを示すタグが付加された文字列とに基づいて、第2議事録A2の内容を示す議事録情報を生成する。詳しくは、生成部42は、記憶領域において、複数のスライドGの各々を時系列に沿って並べ替える。生成部42は、記憶領域において、タグが示すスライドGの直下に質問N及び回答Mを配置する。具体的には、質問Nは、スライドGの直下に配置され、回答Mは、質問Nの直下に配置される。   Based on the document information, the character string to which the tag indicating the question N is added, and the character string to which the tag indicating the answer M is added, the generation unit 42 determines the contents of the second minutes A2. The minutes information shown is generated. Specifically, the generation unit 42 rearranges each of the plurality of slides G in time series in the storage area. The generation unit 42 arranges the question N and the answer M immediately below the slide G indicated by the tag in the storage area. Specifically, the question N is disposed immediately below the slide G, and the answer M is disposed immediately below the question N.

特定部43は、議事録において強調される強調部分を特定する。本実施形態において、強調部分は、説明D、質問N及び回答Mの一部である。強調部分は、用紙Sに太字で形成される。   The specifying unit 43 specifies an emphasized portion emphasized in the minutes. In the present embodiment, the highlighted portion is a part of the explanation D, the question N, and the answer M. The emphasized portion is formed in bold on the paper S.

特定部43は、発表者を除く複数の参加者の各々によって撮像された議事画像が特定の画像を示す期間を特定する。特定の画像は、会議で用いられる資料のスライドを示す画像である。本実施形態において、スライドを示す画像は、ARマーカーを含むか否かによって特定される。特定部43は、発表者を除く複数の参加者の各々によって撮像された議事画像について、特定の画像を示す期間を特定する。   The specifying unit 43 specifies a period in which the agenda image captured by each of the plurality of participants excluding the presenter shows a specific image. The specific image is an image showing a slide of the material used in the meeting. In the present embodiment, an image showing a slide is specified by whether or not an AR marker is included. The identification unit 43 identifies a period indicating a specific image for the agenda image captured by each of a plurality of participants excluding the presenter.

特定部43は、発表者を除く複数の参加者の各々の議事画像について特定の画像を示す期間を特定した後に、会議の時系列において、特定の画像を示す期間が重複する議事画像の数を算出する。この結果、会議の時系列において、同じタイミングで同じスライドが視界に入る参加者の数が特定される。特定部43は、特定した議事画像の数が予め設定された数よりも多い場合に、重複する期間の音声を示す文字列を強調部分として特定する。   The specifying unit 43 specifies the number of the agenda images in which the periods indicating the specific images overlap in the time series of the meeting after specifying the period indicating the specific images for each agenda image of the plurality of participants excluding the presenter. calculate. As a result, in the time series of the meeting, the number of participants who enter the field of view with the same slide at the same timing is specified. When the number of identified agenda images is larger than a preset number, the identifying unit 43 identifies a character string indicating a voice in an overlapping period as an emphasized portion.

特定部43は、強調部分が太字で形成されるように議事録情報を編集する。なお、特定部43は、ARマーカーに換えて、例えば、画像認識を用いることによって、スライドを示す画像を特定してもよい。   The identification unit 43 edits the minutes information so that the emphasized part is formed in bold. The specifying unit 43 may specify an image indicating a slide by using, for example, image recognition instead of the AR marker.

本実施形態の情報処理システム1では、議事情報と資料情報とに基づいて、会議の発表内容を示す第1議事録A1と、会議の質疑内容を示す第2議事録A2とを作成し得る。したがって、説明Dの多くがスライドGに記載されている場合に、第2議事録A2を議事録として作成することによって、議事録の内容が冗長になることを抑制することができる。   In the information processing system 1 of the present embodiment, the first minutes A1 indicating the contents of the conference announcement and the second minutes A2 indicating the contents of the question and answer of the meeting can be created based on the minutes information and the material information. Therefore, when most of the explanation D is described in the slide G, it is possible to prevent the contents of the minutes from becoming redundant by creating the second minutes A2 as the minutes.

次に、図5を参照して、制御部4による議事録情報の生成処理について説明する。図5は、制御部4による議事録情報の生成処理を示すフローチャートである。制御部4は、議事情報及び資料情報が入力された後に、例えば、議事録情報の生成を指示する操作信号が入力されると、議事録情報の生成処理を行う。   Next, with reference to FIG. 5, the process of generating minutes information by the control unit 4 will be described. FIG. 5 is a flowchart showing a process for generating minutes information by the control unit 4. For example, when the operation signal instructing generation of the minutes information is input after the minutes information and the material information are input, the control unit 4 performs the process of generating the minutes information.

図5に示すように、制御部4は、操作信号が入力された後に、ステップS10において、議事情報に基づいて、文字情報を生成する。制御部4は、文字情報を生成した後に、ステップS20において、質疑応答の開始タイミングを検索する。制御部4は、開始タイミングを検索した後に、ステップS30において、質疑応答の終了タイミングを検索する。   As shown in FIG. 5, after the operation signal is input, the control unit 4 generates character information based on the agenda information in step S10. After generating the character information, the control unit 4 searches for a question and answer start timing in step S20. After searching for the start timing, the control unit 4 searches for a question and answer end timing in step S30.

制御部4は、終了タイミングを検索した後に、ステップS40において、開始タイミングと終了タイミングとに基づいて、質疑内容を示す文字列と発表内容を示す文字列とを特定する。制御部4は、文字列を特定した後に、ステップS50において、特定した文字列と資料情報とに基づいて、第1議事録A1の内容を示す議事録情報と第2議事録A2の内容を示す議事録情報とを生成する。制御部4は、議事録情報を生成した後に、議事録情報の生成処理を終了する。   After searching for the end timing, the control unit 4 specifies a character string indicating the question content and a character string indicating the announcement content based on the start timing and the end timing in step S40. After specifying the character string, the control unit 4 indicates the minutes information indicating the contents of the first minutes A1 and the contents of the second minutes A2 based on the specified character strings and the material information in step S50. Minutes information is generated. After generating the minutes information, the control unit 4 ends the minutes information generation process.

以上、図1から図5を参照して、本発明の実施形態に係る情報処理システム1について説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。   The information processing system 1 according to the embodiment of the present invention has been described above with reference to FIGS. However, the present invention is not limited to the above-described embodiment, and can be implemented in various modes without departing from the gist thereof.

例えば、本発明の実施形態では、議事録情報に基づいて、議事録の内容を示す画像が用紙Sに形成されたが、本発明はこれに限定されない。議事録は、少なくとも参加者が確認できればよい。例えば、参加者が有するパーソナルコンピューターに画像形成装置3から議事録情報が出力され、作業者は、パーソナルコンピューターが有するモニターを介して議事録を確認してもよい。なお、議事録情報は、例えば、メール、又は記録メディアを介して、画像形成装置3からパーソナルコンピューターに出力される。   For example, in the embodiment of the present invention, an image indicating the contents of the minutes is formed on the paper S based on the minutes information, but the present invention is not limited to this. The minutes should be confirmed by at least the participants. For example, the minutes information is output from the image forming apparatus 3 to the personal computer owned by the participant, and the worker may check the minutes via the monitor of the personal computer. The minutes information is output from the image forming apparatus 3 to a personal computer via e-mail or a recording medium, for example.

また、本発明の実施形態では、議事情報及び資料情報に基づいて、端末装置の一例である画像形成装置3によって議事録情報が生成されたが、本発明はこれに限定されない。端末装置は、議事情報及び資料情報に基づいて、議事録情報を生成できればよい。端末装置は、例えば、パーソナルコンピューターであってもよい。この場合に、端末装置から画像形成装置に議事録情報が出力され、画像形成装置によって用紙に議事録を示す画像が形成され得る。   In the embodiment of the present invention, the minutes information is generated by the image forming apparatus 3 which is an example of the terminal device based on the minutes information and the material information. However, the present invention is not limited to this. The terminal device only needs to be able to generate the minutes information based on the agenda information and the material information. The terminal device may be a personal computer, for example. In this case, the minutes information is output from the terminal device to the image forming apparatus, and an image indicating the minutes can be formed on the sheet by the image forming apparatus.

また、本発明の実施形態では、取得装置2と画像形成装置3と発表者用端末7とが通信ネットワークLを介して接続されたが、本発明はこれに限定されない。取得装置2は、画像形成装置3に議事情報を出力できればよく、発表者用端末7は、画像形成装置3に資料情報を出力できればよい。例えば、議事情報及び資料情報は、取得装置2及び発表者用端末7から記録メディアを介して画像形成装置3に出力される。   In the embodiment of the present invention, the acquisition device 2, the image forming device 3, and the presenter terminal 7 are connected via the communication network L, but the present invention is not limited to this. The acquisition device 2 only needs to be able to output agenda information to the image forming device 3, and the presenter terminal 7 only needs to be able to output material information to the image forming device 3. For example, the agenda information and the material information are output from the acquisition device 2 and the presenter terminal 7 to the image forming device 3 via a recording medium.

なお、図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の厚み、長さ等は、図面作成の都合上から実際とは異なる。また、上記の実施形態で示す各構成要素の形状等は一例であって、特に限定されるものではなく、本発明の効果から実質的に逸脱しない範囲で種々の変更が可能である。   In order to facilitate understanding, the drawings schematically show each component mainly, and the thickness, length, etc. of each component shown in the drawings are different from the actual for convenience of drawing. . Moreover, the shape of each component shown by said embodiment is an example, Comprising: It does not specifically limit, A various change is possible in the range which does not deviate substantially from the effect of this invention.

本発明は、会議の内容を示す議事情報に基づいて議事録を作成し得る情報処理システムに関するものであり、ユーザーの利便性を向上させるために有用である。   The present invention relates to an information processing system that can create minutes based on agenda information indicating the contents of a conference, and is useful for improving user convenience.

1 情報処理システム
2 取得装置
3 画像形成装置
4 制御部
41 検索部
42 生成部
DESCRIPTION OF SYMBOLS 1 Information processing system 2 Acquisition apparatus 3 Image forming apparatus 4 Control part 41 Search part 42 Generation part

Claims (8)

会議に参加する複数の参加者から会議の内容を示す議事情報を時系列に沿って取得する少なくとも1つの取得装置と、
前記複数の参加者のうち質問者と発表者との質疑応答の内容を示す質疑内容を前記議事情報から特定する端末装置と
を備え、
前記端末装置は、前記質疑内容に基づいて、議事録の内容を示す議事録情報を生成する、情報処理システム。
At least one acquisition device that acquires agenda information indicating the contents of the conference from a plurality of participants participating in the conference in time series;
A terminal device for identifying, from the agenda information, a question and answer content indicating a question and answer content of the questioner and the presenter among the plurality of participants,
The said terminal device is information processing system which produces | generates the minutes information which shows the content of the minutes based on the said question content.
前記端末装置は、
前記議事情報に基づいて、文字情報を生成する生成部と、
前記議事情報及び前記文字情報に基づいて、前記質疑内容を検索する検索部と
を有する、請求項1に記載の情報処理システム。
The terminal device
A generating unit for generating character information based on the agenda information;
The information processing system according to claim 1, further comprising: a search unit that searches for the contents of the question based on the agenda information and the character information.
前記取得装置は、前記参加者の音声を録音する録音部と、前記参加者の視界に入る環境を撮像した画像を示す議事画像を撮像する撮像部とを有し、
前記検索部は、前記質問者が発話したタイミングを前記質疑応答の開始タイミングとして特定する、請求項2に記載の情報処理システム。
The acquisition device includes a recording unit that records the voice of the participant, and an imaging unit that captures an agenda image indicating an image of an environment that enters the view of the participant,
The information processing system according to claim 2, wherein the search unit specifies a timing when the questioner speaks as a start timing of the question and answer.
前記文字情報は、時系列に沿って並ぶ複数の文字列を示し、
前記検索部は、前記複数の文字列のうちから、前記質疑応答の終了を示す特定の文字列を検索して、前記質疑応答の終了タイミングを特定する、請求項3に記載の情報処理システム。
The character information indicates a plurality of character strings arranged in time series,
The information processing system according to claim 3, wherein the search unit searches a specific character string indicating the end of the question and answer from the plurality of character strings, and specifies the end timing of the question and answer.
前記検索部は、前記発表者が連続して音声を発する期間が第1閾値を超えるタイミングを前記質疑応答の終了タイミングとして特定する、請求項3又は請求項4に記載の情報処理システム。   5. The information processing system according to claim 3, wherein the search unit specifies a timing at which a period during which the presenter continuously utters exceeds a first threshold as an end timing of the question-and-answer session. 前記検索部は、前記発表者によって前記会議で用いられた資料が他の資料に切り換えられたタイミングを前記質疑応答の終了タイミングとして特定する、請求項3から請求項5のいずれか1項に記載の情報処理システム。   6. The search unit according to claim 3, wherein the search unit specifies a timing at which a material used in the conference by the presenter is switched to another material as an end timing of the question and answer. Information processing system. 前記検索部は、前記発表者の前記議事画像から前記質問者がフレームアウトした期間が第2閾値を超えたタイミングを前記質疑応答の終了タイミングとして特定する、請求項3から請求項6のいずれか1項に記載の情報処理システム。   7. The search unit according to claim 3, wherein the search unit specifies a timing at which a period when the questioner has framed out of the agenda image of the presenter exceeds a second threshold as an end timing of the question and answer session. The information processing system according to item 1. 前記端末装置は、画像形成装置であり、
前記画像形成装置は、前記議事録情報に基づいて、記録媒体に前記議事録の内容を示す画像を形成する、請求項1から請求項7のいずれか1項に記載の情報処理システム。
The terminal device is an image forming device,
The information processing system according to any one of claims 1 to 7, wherein the image forming apparatus forms an image indicating a content of the minutes on a recording medium based on the minutes information.
JP2017105622A 2017-05-29 2017-05-29 Information processing system Pending JP2018201153A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017105622A JP2018201153A (en) 2017-05-29 2017-05-29 Information processing system
US15/989,417 US10573316B2 (en) 2017-05-29 2018-05-25 Information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017105622A JP2018201153A (en) 2017-05-29 2017-05-29 Information processing system

Publications (1)

Publication Number Publication Date
JP2018201153A true JP2018201153A (en) 2018-12-20

Family

ID=64667366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017105622A Pending JP2018201153A (en) 2017-05-29 2017-05-29 Information processing system

Country Status (1)

Country Link
JP (1) JP2018201153A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277037A (en) * 2008-05-15 2009-11-26 Konica Minolta Business Technologies Inc Data processing apparatus, speech conversion method, and speech conversion program
JP2010226384A (en) * 2009-03-23 2010-10-07 Fuji Xerox Co Ltd Image processing system, and program
JP2011066794A (en) * 2009-09-18 2011-03-31 Sharp Corp Meeting management device, and meeting management method
JP2011217098A (en) * 2010-03-31 2011-10-27 Ns Solutions Corp Information processing system, conference management device, information processing method, method for controlling conference management device, and program
JP2014179010A (en) * 2013-03-15 2014-09-25 Ricoh Co Ltd Minutes creation support device, minutes creation support method, and program
JP2014220619A (en) * 2013-05-07 2014-11-20 キヤノン株式会社 Conference information recording system, information processing unit, control method and computer program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277037A (en) * 2008-05-15 2009-11-26 Konica Minolta Business Technologies Inc Data processing apparatus, speech conversion method, and speech conversion program
JP2010226384A (en) * 2009-03-23 2010-10-07 Fuji Xerox Co Ltd Image processing system, and program
JP2011066794A (en) * 2009-09-18 2011-03-31 Sharp Corp Meeting management device, and meeting management method
JP2011217098A (en) * 2010-03-31 2011-10-27 Ns Solutions Corp Information processing system, conference management device, information processing method, method for controlling conference management device, and program
JP2014179010A (en) * 2013-03-15 2014-09-25 Ricoh Co Ltd Minutes creation support device, minutes creation support method, and program
JP2014220619A (en) * 2013-05-07 2014-11-20 キヤノン株式会社 Conference information recording system, information processing unit, control method and computer program

Similar Documents

Publication Publication Date Title
US10757148B2 (en) Conducting electronic meetings over computer networks using interactive whiteboard appliances and mobile devices
JP5201050B2 (en) Conference support device, conference support method, conference system, conference support program
JP6304941B2 (en) CONFERENCE INFORMATION RECORDING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM
JP2017112545A (en) Conference support system
US20230267327A1 (en) Systems and methods for recognizing user information
JP7427408B2 (en) Information processing device, information processing method, and information processing program
JP2020154093A (en) Education support system, method, and program
JP2021082871A (en) Speech control system, speech control method, image processing apparatus, speech control apparatus, and program
Visser et al. A model for incremental grounding in spoken dialogue systems
US10573316B2 (en) Information processing system
JP2018201153A (en) Information processing system
JP6794925B2 (en) Information processing system
TWI528336B (en) Speech skills of audio and video automatic assessment and training system
US11677575B1 (en) Adaptive audio-visual backdrops and virtual coach for immersive video conference spaces
JP2010134681A (en) Lecture material preparation support system, lecture material preparation support method and lecture material preparation support program
JP2023000937A (en) Pseudo-interview system, pseudo-interview method, pseudo-interview apparatus, and program
JP2017033376A (en) Information processing device, information processing method, and control program
JP6561927B2 (en) Information processing apparatus and image forming apparatus
US20230069287A1 (en) Server device, conference assistance system, conference assistance method, and non-transitory computer readable storage medium
US20230026929A1 (en) Information processing apparatus, information processing method, and program
JP2012242732A (en) Training support device, training support device method, and training support device program
US20190156498A1 (en) Information processing device, meeting assist system, meeting assist method, and image forming apparatus
JP2019078924A (en) Utterance contents evaluation system and utterance contents evaluation program
US20230100755A1 (en) Information processing apparatus and method and non-transitory computer readable medium
JP2017068592A (en) Robot, robot control device, robot control method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201104