JP6859667B2 - 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法 - Google Patents

情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法 Download PDF

Info

Publication number
JP6859667B2
JP6859667B2 JP2016219661A JP2016219661A JP6859667B2 JP 6859667 B2 JP6859667 B2 JP 6859667B2 JP 2016219661 A JP2016219661 A JP 2016219661A JP 2016219661 A JP2016219661 A JP 2016219661A JP 6859667 B2 JP6859667 B2 JP 6859667B2
Authority
JP
Japan
Prior art keywords
information
conference
voice data
data
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016219661A
Other languages
English (en)
Other versions
JP2018077707A (ja
Inventor
宗毅 諸山
宗毅 諸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016219661A priority Critical patent/JP6859667B2/ja
Priority to US15/802,564 priority patent/US10558795B2/en
Publication of JP2018077707A publication Critical patent/JP2018077707A/ja
Priority to US16/784,327 priority patent/US11017073B2/en
Application granted granted Critical
Publication of JP6859667B2 publication Critical patent/JP6859667B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/44Program or device authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00129Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a display device, e.g. CRT or LCD monitor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、情報処理装置、情報処理プログラム及び言語処理方法に関する。
近年では、会議や講義、授業等に参加する複数の参加者間で情報を共有する手段として、板書した情報を画像データとして表示するインタラクティブホワイトボード(以下、IWBと呼ぶ)が普及しつつある。この電子黒板では、例えば表示された画像データを保存することができる。
例えば会議等において、上述した電子黒板を使用した場合、電子黒板に表示された画像データを議事録の一種として保存することが考えられる。この場合、電子黒板では、手書きで入力された文字等が、画像データとして保存される。そのため、保存された画像データには、例えば走り書きのように入力された文字等も含まれる場合があり、識字が困難な文字が存在する可能性がある。
開示の技術は、手書き入力された文字の識字を支援することを目的としている。
開示の技術は、描画装置と少なくとも1以上の端末装置とネットワークを介して通信可能な情報処理装置であって、前記描画装置から、該描画装置の利用者のユーザ情報と該描画装置で収集された音声データと、描画装置に対する操作に対応したストローク情報を含む描画データと、前記端末装置それぞれから、該端末装置の利用者のユーザ情報と前記端末装置で収集された音声データを受信する会議情報収集部と、受信した前記描画装置で収集された音声データと、受信した前記端末装置で収集された音声データとの内から、前記描画データを取得した時刻を含む所定時間において収集された時刻に近い音声データに対応する前記ユーザ情報を特定する会議情報分析部と、特定された前記ユーザ情報に対応する音声データを前記音声データに基づく第一のテキストデータへの変換要求を言語処理装置に対して行い、前記言語処理装置から前記第一のテキストデータを取得する変換要求部と、を有し、前記会議情報分析部は、前記ストローク情報と、前記第一のテキストデータと、に基づき、前記ストローク情報が示す内容を第二のテキストデータに変換する情報処理装置である。


手書き入力された文字の識字を支援できる。
情報処理システムの概要を説明する図である。 言語処理装置のハードウェア構成の一例を示す図である。 電子黒板のハードウェア構成の一例を示す図である。 端末装置のハードウェア構成の一例を示す図である。 第一の実施形態の情報処理システムの有する各装置の機能を説明する図である。 第一の実施形態の会議支援サーバの会議管理情報データベースの一例を示す図である。 第一の実施形態の会議情報データベースの一例を示す図である。 会議情報の収集の仕方を説明する図である。 画面描画データの収集の仕方を説明する図である。 画面描画データ取得部の処理を説明するフローチャートである。 画面描画データにより描画される画像の例を示す図である。 会議情報分析部の機能を説明する図である。 会議情報分析部の処理を説明する第一のフローチャートである。 会議情報分析部の処理を説明する第二のフローチャートである。 発話者特定部の処理を説明する図である。 ストローク情報と単語との照合を説明する図である。 電子黒板にテキストデータが表示された例を示す図である。
以下に図面を参照して実施形態について説明する。図1は、情報処理システムの概要を説明する図である。
本実施形態の情報処理システム100は、会議支援サービスを提供する企業により機能が実装された会議支援サーバ200と、言語処理サービスを提供する企業により機能が実装された言語処理装置300とを有する。
本実施形態の情報処理システム100において、言語処理装置300は、会議支援サーバ200から、会議情報に含まれる音声データの変換要求を受け付けると、会議支援サーバ200から音声データを取得し、テキストデータに変換する。
図1では、会議支援サーバ200は、例えば、オフィスで行われた会議の会議情報を蓄積する。本実施形態の会議情報は、会議を識別する会議IDと、会議の参加者毎の音声データと、後述する電子黒板に描画された文字や画像の描画データとが対応付けられた情報である。会議情報の詳細は後述する。
オフィスでの会議は、例えば、電子黒板400と、会議の参加者であるユーザAの端末装置500−1、ユーザBの端末装置500−2、ユーザCの端末装置500−3、ユーザDの端末装置500−4と、を用いて行われる。
電子黒板400は、ディスプレイに対して手書き入力を行うことが可能であり、入力された文字や画像を描画データとして記憶する描画装置である。この会議では、例えば会議の進行役であるユーザXが、電子黒板400を用いて会議の進行に応じた事項を電子黒板400に記述する。
電子黒板400は、記述された内容を示す画面描画データを、電子黒板400を識別する端末ID及び会議IDと対応付けて、会議情報の一部として会議支援サーバ200へ送信する。
また、端末装置500−1、500−2、500−3、500−4のそれぞれは、音声入力装置(集音装置)であるマイクを有している。各端末装置500は、マイクから入力された音声データを記憶し、各端末装置を識別する端末IDと対応付けて、会議情報の一部として会議支援サーバ200へ送信する。言い換えれば、本実施形態において、各端末装置500は、各端末装置500を利用する参加者毎の音声データを端末ID及び会議IDと対応付けて会議支援サーバ200へ送信する。
本実施形態では、このようにして、1つの会議における会議情報が会議IDと対応付けられた会議支援サーバ200に蓄積される。
尚、端末装置500−1、500−2、500−3、500−4のそれぞれを区別しない場合には、端末装置500と呼ぶ。
本実施形態の会議支援サーバ200は、例えば、電子黒板400から、画面描画データに含まれる文字のテキストの表示要求を受けると、言語処理装置300に対し、音声データとテキストデータへの変換要求とを送信する。尚、このとき、音声データは端末IDが対応付けられた状態で言語処理装置300へ送信される。
言語処理装置300は、音声データをテキストデータ(第一のテキストデータ)へ変換し、会議支援サーバ200へ送信する。
会議支援サーバ200は、言語処理装置300からテキストデータを取得すると、このテキストデータと、会議情報として蓄積された音声データと、を用いて、画面描画データに含まれる文字をテキストデータ(第二のテキストデータ)に変換する。
以上のよう、本実施形態では、蓄積された会議情報と、言語処理装置300の機能と、を用いて、電子黒板400から取得した画面描画データにより描画される文字を、テキストデータへ変換する。よって、本実施形態によれば、例えば画面描画データを電子黒板400に表示された際に、表示された画像において識字が困難であった場合でも、テキストデータを表示させることで、識字を支援することができる。
尚、図1では、会議に用いられる端末装置500を4台としているが、これに限定されない。会議に用いられる端末装置500の台数は任意であって良い。さらに、図1では、会議を行う団体の一例を企業としているが、これに限定されない。会議を行う団体は、教員機関であっても良いし、学生のグループ等であっても良い。つまり、団体とは、複数人のグループであれば良く、会議とは、複数人で議論をすることであれば良い。
また、会議支援サーバ200機能と言語処理装置300とは別々の装置でなくてもよく、会議支援サーバ200が有する機能と、言語処理装置300が有する機能とを、一台の情報処理装置により実現してもよい。あるいは、一の企業が有するシステムとして、会議支援サービス及び言語処理サービスを提供する一台以上の情報処理装置により実現してもよい。従って、本実施形態では、各団体の電子黒板400と、端末装置500と、会議支援サーバ200と、により、会議支援システムを構成しても良い。さらに、各団体における会議では、電子黒板400の代わりに、一般的に端末装置500が用いられても良い。つまり、会議支援システムは、端末装置500と、会議支援サーバ200と、により形成されても良い。さらに、端末装置500を音声入力装置としても良い。
少なくとも、端末装置500は録音機能を有していればよく、例えば、時計型やメガネ型の装置であってもよい。但し、端末装置500自体に情報処理システム100とネットワークを介して通信する機能が無い場合には、会議室で利用される各端末装置500により録音された音声データを取得して情報処理システム100に送信する、ハブとなる中継装置が必要になる。つまり、端末装置500は、録音した音声データが入力される音声入力装置と、情報処理システム100にネットワークを介して音声データを送信する音声出力装置と、を有するが、音声入力装置と音声出力装置は、音声データの送受ができるように構成されていれば、一つのデバイスで構成されていても複数のデバイスで構成されていてもよい。
さらに、本実施形態の情報処理システム100には、電子黒板400が含まれていても良い。
以下に、本実施形態の情報処理システム100の有する各装置について説明する。図2は、言語処理装置のハードウェア構成の一例を示す図である。
本実施形態の言語処理装置300は、一般の情報処理装置であり、それぞれバスBで相互に接続されている入力装置31、出力装置32、ドライブ装置33、補助記憶装置34、メモリ装置35、演算処理装置36及びインターフェース装置37を有する。
入力装置31は、例えばマウスやキーボードであり、各種の情報を入力するために用いられる。出力装置32は、例えばディスプレイ等であり、各種信号の表示(出力)に用いられる。インターフェース装置37は、モデム,LANカード等を含み、ネットワークに接続する為に用いられる。
言語処理プログラムは、言語処理装置300を制御する各種プログラムの少なくとも一部である。言語処理プログラムは例えば記録媒体38の配布やネットワークからのダウンロードなどによって提供される。言語処理プログラムを記録した記録媒体38は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
また、言語処理プログラムを記録した記録媒体38がドライブ装置33にセットされると、言語処理プログラムは記録媒体38からドライブ装置33を介して補助記憶装置34にインストールされる。ネットワークからダウンロードされた通信プログラムは、インターフェース装置37を介して補助記憶装置34にインストールされる。
補助記憶装置34は、インストールされた言語処理プログラムを格納すると共に、必要なファイル、データ等を格納する。メモリ装置35は、コンピュータの起動時に補助記憶装置34から言語処理プログラムを読み出して格納する。そして、演算処理装置36はメモリ装置35に格納された各プログラムに従って、後述するような各種処理を実現している。
本実施形態の会議支援サーバ200は、一般のコンピュータであり、そのハードウェア構成は、言語処理装置300と同様であるから、説明を省略する。
次に、図3を参照して、本実施形態の電子黒板400のハードウェア構成を説明する。図3は、電子黒板のハードウェア構成の一例を示す図である。
本実施形態に係る電子黒板400は、入力装置41と、表示装置42と、外部I/F43と、通信I/F44と、ROM45(Read Only Memory)とを有する。また、本実施形態に係る電子黒板400は、RAM(Random Access Memory)46と、CPU(Central Processing Unit)47と、HDD(Hard Disk Drive)48と、集音装置49とを有する。これらの各ハードウェアは、それぞれがバスB1で接続されている。
入力装置41は、タッチパネル等であり、ユーザによる各種操作(例えば、音声テキスト変換(日本語)や音声テキスト変換(英語)等の機能の選択操作)を入力するのに用いられる。表示装置42は、ディスプレイ等であり、各種情報(例えば、音声テキスト変換(日本語)による変換結果を示すテキスト等)を表示する。
外部I/F43は、外部装置とのインターフェースである。外部装置には、記録媒体43a等がある。これにより、電子黒板400は、外部I/F43を介して、記録媒体43a等の読み取りや書き込みを行うことができる。なお、記録媒体43aには、例えば、USBメモリやCD、DVD、SDメモリカード等がある。
通信I/F44は、電子黒板400をネットワークN1等に接続するためのインターフェースである。これにより、電子黒板400は、通信I/F44を介して、他の装置(と通信を行うことができる。
HDD48は、プログラムやデータを格納している不揮発性の記憶装置である。HDD48に格納されるプログラムやデータには、電子黒板400全体を制御する基本ソフトウェアであるOS(Operating System)、OS上において各種機能を提供するアプリケーションプログラム等がある。
また、HDD48は、格納しているプログラムやデータを所定のファイルシステム及び/又はDB(データベース)により管理している。なお、電子黒板400は、HDD48に代えて、記録媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)を有していても良い。
ROM45は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリである。ROM45には、電子黒板400の起動時に実行されるBIOS(Basic Input/Output System)、OS設定、及びネットワーク設定等のプログラムやデータが格納されている。RAM46は、プログラムやデータを一時保持する揮発性の半導体メモリである。
CPU47は、ROM45やHDD48等の記憶装置からプログラムやデータをRAM46上に読み出し、処理を実行することで、電子黒板400全体の制御や機能を実現する演算装置である。
集音装置49は、例えばマイクロフォン(マイク)等であり、電子黒板400の周囲の音を集音する。
本実施形態に係る電子黒板400は、図3に示すハードウェア構成を有することにより、後述するような各種処理を実現できる。
次に、図4を参照して本実施形態の端末装置500のハードウェア構成について説明する。図4は、端末装置のハードウェア構成の一例を示す図である。
本実施形態の端末装置500は、一般の情報処理装置であり、それぞれバスB2で相互に接続されている入力装置51、出力装置52、ドライブ装置53、補助記憶装置54、メモリ装置55、演算処理装置56、インターフェース装置57及び集音装置58を有する。
入力装置51は、例えばマウスやキーボードであり、各種の情報を入力するために用いられる。出力装置52は、例えばディスプレイ等であり、各種信号の表示(出力)に用いられる。インターフェース装置57は、モデム,LANカード等を含み、ネットワークに接続する為に用いられる。
集音装置58は、例えばマイクロフォン(マイク)等であり、端末装置500の周囲の音を集音する。
情報処理プログラムは、端末装置500を制御する各種プログラムの少なくとも一部である。情報処理プログラムは例えば記録媒体59の配布やネットワークからのダウンロードなどによって提供される。情報処理プログラムを記録した記録媒体59は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
また、情報処理プログラムを記録した記録媒体59がドライブ装置53にセットされると、情報処理プログラムは記録媒体59からドライブ装置53を介して補助記憶装置54にインストールされる。ネットワークからダウンロードされた通信プログラムは、インターフェース装置57を介して補助記憶装置54にインストールされる。
補助記憶装置54は、インストールされた情報処理プログラムを格納すると共に、必要なファイル、データ等を格納する。メモリ装置55は、コンピュータの起動時に補助記憶装置54から言語処理プログラムを読み出して格納する。
そして、演算処理装置56はメモリ装置55に格納された各プログラムに従って、後述するような各種処理を実現している。
次に、図5を参照して、情報処理システム100の有する各装置の機能について説明する。図5は、第一の実施形態の情報処理システムの有する各装置の機能を説明する図である。はじめに、会議支援サーバ200の機能について説明する。
本実施形態の会議支援サーバ200は、会議管理情報データベース210、会議情報データベース220、会議登録部230、会議管理部240、会議情報収集部250、会議情報分析部260、変換要求部270を有する。
会議管理情報データベース210は、ユーザにより開催される会議を管理するための会議管理情報が格納される。会議情報データベース220は、会議毎の会議情報が格納される。各データベースの詳細は後述する。
会議登録部230は、開催される会議に応じた新規登録の要求をユーザから受け付けると、新たに会議IDを発行し、その会議を管理する会議管理情報を、会議管理情報データベース210へ登録する。
会議管理部240は、開催される会議及び開催される会議を管理する。具体的には、会議管理部240は、例えば会議管理情報データベース210に会議管理情報が格納されている会議の開催要求に合わせて、会議情報収集部250に会議情報の収集を開始させたりする。
会議情報収集部250は、会議に参加する装置(電子黒板400や端末装置500など)により入力された会議情報を収集する。会議情報の収集の詳細は後述する。
会議情報分析部260は、会議情報に含まれる画面描画データによって描画される画像に含まれる文字を、テキストデータに変換する。会議情報分析部260の詳細は後述する。
変換要求部270は、言語処理装置300に対して、会議情報に含まれる音声データのテキストデータへの変換要求を行う。
本実施形態の変換要求部270は、例えば会議情報分析部260から、音声データの変換指示を受けて、会議情報データベース220に格納された音声データの変換要求を言語処理装置300へ送信しても良い。
また、本実施形態の変換要求部270は、例えば会議情報収集部250が会議情報として音声データを取得すると、取得した音声データ及び取得元の装置を識別する端末IDを変換要求と共に言語処理装置300へ送信しても良い。
次に、言語処理装置300について説明する。
本実施形態の言語処理装置300は、音声変換部310を有する。本実施形態の言語処理装置300は、例えば人工知能を有している。本実施形態の音声変換部310は、各辞書データベースを参照し、音声データをテキスト(文字)データへ変換(翻訳)する。本実施形態の音声変換部310は、音声データからテキストデータへの変換を行う度に、入力と出力の関係を学習し、変換の精度を高めて行く機能を有しているものとした。
次に、本実施形態の電子黒板400と端末装置500について説明する。本実施形態の電子黒板400は、会議支援処理部410、表示制御部420、制御部430、操作制御部440、音声データ取得部450、画面描画データ取得部460を有する。
会議支援処理部410は、会議を支援するための各種の処理を行う。具体的には、例えば、会議支援サーバ200にアクセスし、会議管理情報データベース210に登録されている会議リストを取得し、取得した会議リストから何れの会議に参加するかをユーザに指定させるための入力画面を表示制御部420に表示させる。また、会議支援処理部410は、電子黒板400の画面に対して手入力された内容の画像データを会議支援サーバ200へ送信したりする。
表示制御部420は、電子黒板400における画面表示を制御する。制御部430は、電子黒板400の全体的な動作を制御する。操作制御部440は、電子黒板400の有する操作部材に対する操作を受け付ける。音声データ取得部450は、電子黒板400に備え付けられた集音装置49が収集する音声データを取得し、保持する。
画面描画データ取得部460は、電子黒板400の有するタッチパネルに対して手書き入力された情報を取得し、画面描画データとする。
本実施形態では、タッチパネルに対し、ユーザの指やポインティングデバイス等が接触してから非接触となるまでの軌跡を1ストロークとする。1ストロークは、複数の点により表される。本実施形態の画面描画データ取得部460は、ストロークを示す複数の点の座標情報を、ストローク毎にストローク情報として保持する。
電子黒板400に入力される文字や画像は、複数のストロークにより描かれる。よって本実施形態では、画面描画データとして、文字や画像を示す複数のストローク毎のストローク情報を取得する。また、本実施形態では、画面描画データとして、ストローク情報を取得した時刻を示す情報も含むものとする。本実施形態の画面描画データの取得の詳細は後述する。
本実施形態の端末装置500は、表示制御部510と、操作制御部520、音声データ取得部530とを有する。表示制御部510は、端末装置500の表示部における表示を制御する。操作制御部520は、端末装置500に対して行われた操作と対応する処理を行う。音声データ取得部530は、端末装置500が有する集音装置58が収集した音声データを取得し、保持する。
次に、本実施形態の会議支援サーバ200と、言語処理装置300と、が有する各データベースについて説明する。
図6は、会議管理情報データベースの一例を示す図である。
本実施形態の会議管理情報データベース210は、情報の項目として、会議IDを入力する項目と、会議名を入力する項目と、その会議IDの会議に参加した電子黒板400や端末装置500の端末IDを入力する項目とを有し、これらは対応付けられている。以下の説明では、会議管理情報データベース210において、項目「会議ID」の値と、項目「会議名」の値と、項目「端末ID」の値とを含む情報を、会議管理情報と呼ぶ。
項目「会議ID」の値は、ユーザからの登録要求に応じて登録された会議を識別するための識別子を示す。項目「会議名」の値は、会議の名称を示す。項目「会議ID」と項目「会議名」の値は、例えば会議の進行役となる参加者の端末装置500により、会議が開催されるより前に入力されて良い。
項目「端末ID」の値は、項目「会議ID」の値により特定される会議に参加している参加者が利用している端末装置500の端末IDを示す。
端末IDは、端末装置500からインターネット等を利用して会議支援サーバ200にアクセスし、登録された会議のうち未開催の会議の会議リストから、ユーザが参加する会議を選択し参加を指示する操作をすることで、会議支援サーバ200により登録される。
より詳細には、ユーザによる参加を指示する操作に応じて、端末装置500が端末IDと共に会議の参加要求を会議支援サーバ200に送信する。会議支援サーバ200は、会議登録部230により、会議管理情報データベース210に、選択された会議の会議IDに対応付けて参加要求と共に送信された端末IDを登録する。
図6の例では、会議ID「001」の会議の会議名は「マーケット戦略」であり、この会議には、端末ID「01」、「02」、「03」、「05」の端末装置500の利用者が参加していることがわかる。つまり、本実施形態では、端末IDは、端末装置500を使用しながら会議に参加している利用者を特定する情報となる。
図7は、会議情報データベースの一例を示す図である。本実施形態の会議情報データベース220は、情報の項目として、会議ID、端末ID、音声データ、画面描画データを含み、項目「会議ID」と、その他の項目とが対応付けられている。以下の説明では、会議情報データベースにおいて、項目「会議ID」の値と、その他の項目の値とを含む情報を会議情報と呼ぶ。
項目「音声データ」の値は、項目「端末ID」の値が特定する端末装置500の集音装置58等により取得された音声データを示す。尚、音声データには、音声を取得した時刻を示す時刻情報も含まれるものとした。
項目「画面描画データ」の値は、例えば、ユーザの入力操作に応じて操作制御部440が表示画面に対し描画処理を行ったタイミングで電子黒板400から送信された、電子黒板400に描画された内容を記憶した画像データを示す。本実施形態の画面描画データには、電子黒板400において情報が描画された時刻を示す時刻情報が含まれるものとした。
図7の例では、会議ID「002」と、会議ID「002」の会議において、端末ID「01」の端末装置500が取得した音声データ1、端末ID「02」の端末装置500が取得した音声データ2、端末ID「03」の端末装置500が取得した音声データ3、端末ID「04」の端末装置500が取得した音声データ4とが対応付けられている。
また、図7の例では、会議ID「002」と、会議ID「002」の会議において、端末ID「05」の電子黒板400が取得した音声データ5と、電子黒板400が取得した画面描画データ1、2、3が対応付けられている。
この会議情報によれば、会議ID「002」の会議において、端末ID「01」〜「05」の端末装置500の利用者が発言した内容と、そのとき電子黒板400に描画されていた内容と、がわかる。
次に、図8を参照して本実施形態の会議支援サーバ200の会議情報収集部250による会議情報の収集について説明する。図8は、会議情報の収集の仕方を説明する図である。
図8では、ユーザA、B、C、D、Xが会議に参加しており、ユーザAは端末ID「01」の端末装置500−1を利用し、ユーザBは端末ID「02」の端末装置500−2を利用し、ユーザCは端末ID「03」の端末装置500−3を利用し、ユーザDは端末ID「04」の端末装置500−4を利用している。また、図8の例では、ユーザXが会議の進行役を担っており、電子黒板400を利用している。
ここで、本実施形態では、各参加者が利用する装置の端末IDが、各ユーザのユーザIDと同義の情報として扱われていても良い。この場合には、各ユーザは、会議に参加する前に、各ユーザが利用する装置において、参加する予定の会議の会議IDと、自身の利用する装置の端末IDとを入力しても良い。
各ユーザが利用する端末装置500、電子黒板400は、入力された会議IDを会議支援サーバ200へ送信する。会議支援サーバ200は、送信された情報に基づき、会議IDと、各参加者が利用する装置の端末IDとを対応付けた会議管理情報を生成し、会議管理情報データベース210に格納する。
本実施形態では、この手順により、会議支援サーバ200において、各ユーザの音声データ等を含む会議情報を収集する準備が完了したことになる。
本実施形態では、音声データは、会議の各参加者が利用している端末装置500の端末IDと対応付けられて会議支援サーバ200に送信される。
例えば、端末装置500−1を利用しているユーザAの発話は、端末装置500−1の集音装置58によって音声データとして収集され、端末装置500−1の端末IDと対応付けられて会議支援サーバ200に送信される。
また、例えば、端末装置500−3を利用しているユーザCの発話は、端末装置500−3の集音装置58によって音声データとして収集され、端末装置500−3の端末IDと対応付けられて会議支援サーバ200に送信される。言い換えれば、端末装置500−3の集音装置58によって収集された音声データは、端末装置500−3のユーザのユーザ情報(端末ID)と対応付けられて会議支援サーバ200へ送信される。
また、本実施形態では、会議の進行役を担っているユーザが電子黒板400の利用者となる。図8の例では、電子黒板400の端末IDは、「05」であり、電子黒板400の利用者は、ユーザXである。よって、ユーザXの発話は、電子黒板400の集音装置49によって、音声データとして収集され、端末ID「05」と対応付けられて会議支援サーバ200へ送信される。言い換えれば、電子黒板400の集音装置49によって収集された音声データは、電子黒板400のユーザのユーザ情報と対応付けられて会議支援サーバ200へ送信される。
また、電子黒板400では、ユーザX等によってディスプレイに手書き入力された文字や画像を、画面描画データとして記憶し、電子黒板400の端末IDと対応付けて会議支援サーバ200へ送信する。
会議支援サーバ200では、端末装置500や電子黒板400から送信される音声データや、電子黒板400から送信される画面描画データに、各データと対応付いた端末IDと子も付いた会議IDを付与し、会議情報として会議情報データベース220へ格納する。
ここで、図9を参照して本実施形態の画面描画データの収集について説明する。図9は、画面描画データの収集の仕方を説明する図である。
図9の例では、画像G1と対応する画面描画データ1と、画像G2と対応する画面描画データ2と、画像G3と対応する画面描画データ3と、を取得する場合を示している。
本実施形態では、人が文字や文章を入力する場合には、一画書き終わったら、すぐに次の一画(1ストローク)を書くため、一画と一画の間の時間が短くなる、という点に着目している。
上記の点に着目し、本実施形態の画面描画データ取得部460では、ユーザの指又はポインタデバイス等が電子黒板400のタッチパネルから離れた時から、次のストロークの入力が開始されるまでの時間が、所定期間以上となったとき、ストロークの入力が完了されたものと判定する。
言い換えれば、画面描画データ取得部460は、電子黒板400のタッチパネルに対する接触が検知され、その接触が検知されなくなってから、次に接触が検知されるまでの時間が、所定時間以上となった場合に、文字の入力が完了されたものと判定する。
そして、画面描画データ取得部460は、タッチパネルに対する接触を検出してから、ストロークの入力が完了したものと判定されるまでに入力されたストローク情報を、画面描画データとして、取得する。
例えば、図9の例では、時刻T11において、電子黒板400のタッチパネルに対する接触が検知され、時刻T12までの間、タッチパネルに対する接触が検知されなくなってから、次の接触が検知されるまでの時間は所定期間未満である。そして、時刻T12において、タッチパネルに対する接触が検知されなくなってから、次の接触が検知されるまでの時間が所定期間以上となった。
この場合、電子黒板400のユーザは、時刻T11から時刻T12までの期間N1の間に、ユーザが1つのかたまりと考えている情報について、手書き入力を行ったと言える。
よって、本実施形態の画面描画データ取得部460は、期間N1において入力されたストローク情報と、情報の入力が開始された時刻T11とを対応付けて、画面描画データ1とし、会議支援サーバ200へ送信する。
次に、電子黒板400では、時刻T13において、再度タッチパネルに対する接触が検知され、時刻T14において、タッチパネルに対する接触が検知されなくなってから、次の接触が検知されるまでの時間が所定期間以上となった。
よって、画面描画データ取得部460は、時刻T13から時刻T14までの期間N2において入力されたストローク情報を取得する。そして、画面描画データ取得部460は、画面描画データ1として取得したストローク情報と、期間N2において取得したストローク情報とを、時刻T13と対応付けて、画面描画データ2とし、会議支援サーバ200へ送信する。
このように、本実施形態では、1つ前の画面描画データ1として取得されたストローク情報を、新たに取得されたストローク情報と共に画面描画データ2として保持する。よって、本実施形態によれば、画面描画データ2を電子黒板400に表示させれば、時刻T14においてタッチパネル上に描画された画像G2を描画することができる。
次に、電子黒板400では、時刻T15において、再度タッチパネルに対する接触が検知され、時刻T16において、タッチパネルに対する接触が検知されなくなってから、次の接触が検知されるまでの時間が所定期間以上となった。
よって、画面描画データ取得部460は、時刻T15から時刻T16までの期間N3において入力されたストローク情報と、画面描画データ2として取得したストローク情報と、時刻T15を、画面描画データ3として取得し、会議支援サーバ200へ送信する。
よって、本実施形態によれば、画面描画データ3を電子黒板400に表示させれば、時刻T16おいてタッチパネル上に描画された画像G3を描画することができる。
以下に、図10を参照して本実施形態の画面描画データ取得部460による処理を説明する。図10は、画面描画データ取得部の処理を説明するフローチャートである。
本実施形態の画面描画データ取得部460は、手書き入力を受け付けたか否かを判定する(ステップS1001)。言い換えれば、画面描画データ取得部460は、電子黒板400のタッチパネルに対する接触を検知したか否かを判定する。
ステップS1001において、手書き入力を受け付けない場合、画面描画データ取得部460は、受け付けるまで待機する。
ステップS1001において、手書き入力を受け付けると、画面描画データ取得部460は、ストローク情報の取得を開始する(ステップS1002)。
続いて、画面描画データ取得部460は、ストローク情報が入力されていない時間が、所定期間以上となったか否かを判定する(ステップS1003)。言い換えれば、画面描画データ取得部460は、タッチパネルに対して接触がなくなってから所定期間以上が経過したか否かを判定している。
ステップS1003において、所定期間以上でない場合、画面描画データ取得部460
は、ストローク情報の取得を継続する。
ステップS1003において、所定期間以上である場合、画面描画データ取得部460は、取得したストローク情報を、直前に取得した画面描画データに含まれるストローク情報と、ステップS1002でストローク情報の取得を開始した時刻とを対応付けて画面描画データとする(ステップS1004)。
続いて、画面描画データ取得部460は、画面描画データを会議支援サーバ200へ送信する(ステップS1005)。このとき、画面描画データ取得部460は、画面描画データと共に、会議IDと端末IDとを会議支援サーバ200へ送信する。
続いて、画面描画データ取得部460は、電子黒板400の電源オフの指示を受け付けたか否かを判定する(ステップS1006)。ステップS1006において、電源オフの指示を受け付けていない場合、画面描画データ取得部460は、ステップS1001へ戻る。
ステップS1006において、電源オフの指示を受け付けると、画面描画データ取得部460は、と処理を終了する。
図11は、画面描画データにより描画される画像の例を示す図である。図11(A)は、画面描画データ1により描画される画像G1を示す。図11(B)は、画面描画データ2により描画される画像G2を示す。図11(C)は、画面描画データ3により描画される画像G3を示す。
画像G1では、期間N1において取得されたストローク情報が示す画像111が表示されている。画像G2では、画像111に加え、期間N2において取得されたストローク情報が示す画像112が表示されている。画像G3では、画像111、112に加え、期間N3において取得されたストローク情報が示す画像113が表示されている。
このように、本実施形態では、電子黒板400に、1つのかたまりとしての情報が書き込まれる毎に、画面描画データとして保存することができる。よって、本実施形態によれば、例えば文章の途中の画像や、文字を書いている途中の画像等、情報としての価値が高いとは言い難い画像データが保存されることを抑制できる。
尚、所定期間は、例えば会議に参加するユーザの板書の速度等に応じて、任意に設定されて良い。
本実施形態では、以上のようにして、会議ID毎の画面描画データが収集される。
次に、図12を参照して、本実施形態の会議情報分析部260について説明する。図12は、会議情報分析部の機能を説明する図である。
本実施形態の会議情報分析部260は、発話者特定部261、音声データ抽出部262、変換指示部263、テキスト取得部264、分析対象特定部265、単語抽出部266、単語選択部267、ストローク情報照合部268、テキストデータ生成部269、出力部271を有する。
本実施形態の会議情報分析部260は、会議情報に含まれる画面描画データに含まれる文字を、画面描画データが取得された時刻の前後に収集された音声データに基づき、テキストデータへ変換する。
会議等では、議事進行役のユーザXは、他の参加者の発言の内容や、議題、議論の要点等を電子黒板400に書き留めて、会議の参加者との情報共有を試みることが想定される。そのため、電子黒板400に書き留められた文章(文字)は、電子黒板400に対して書き込みを開始した時刻の前後において、発言された内容と近い内容となることが想定される。
本実施形態では、この点に着目し、画面描画データに含まれる時刻の前後の音声データをテキストデータに変換し、このテキストデータと、画面描画データに含まれるストローク情報とを照合しながら、ストローク情報によって示される文字をテキストデータに変換する。
発話者特定部261は、会議IDが示す会議の会議情報に含まれる音声データに基づき、画面描画データに含まれる時刻の前後における発話者を特定する。
音声データ抽出部262は、会議IDが示す会議の会議情報から、発話者特定部261が特定した発話者の、画面描画データに含まれる時刻の前後における音声データを抽出する。
変換指示部263は、音声データ抽出部262により抽出された音声データを、テキストデータへの変換指示と共に、変換要求部270へ渡す。変換要求部270は、音声データと変換要求を言語処理装置300へ送信し、言語処理装置300から、テキストデータを受信する。
テキスト取得部264は、変換要求部270が受信したテキストデータを取得する。
分析対象特定部265は、テキスト取得部264が取得したテキストデータのうち、分析の対象となるテキストデータを特定する。テキストデータの特定の仕方の詳細は後述する。
単語抽出部266は、分析対象として特定されたテキストデータから、単語を抽出する。ここで、単語抽出部266は、例えば、テキストデータに対して形態素解析等を行い、形態素の列に分割し、この形態素を単語として抽出しても良い。形態素とは、言語で意味を持つ最小の単位を示す。
単語選択部267は、単語抽出部266により抽出された単語から、ストローク情報と照合される単語を選択する。
ストローク情報照合部268は、選択された単語に含まれる文字の形状と、画面描画データに含まれるストローク情報によって示される形状とを照合し、手書き入力された文字と、テキストデータから抽出された文字とが同じ文字であるか否かを判定する。
テキストデータ生成部269は、ストローク情報照合部268による照合により、ストローク情報と各文字が一致すると判定された単語を含むテキストデータを生成する。
出力部271は、テキストデータ生成部269が生成したテキストデータを電子黒板400へ出力する。
以下に、図13及び図14を参照して、本実施形態の会議情報分析部260の処理について説明する。
図13は、会議情報分析部の処理を説明する第一のフローチャートである。
本実施形態の会議情報分析部260は、画面描画データのテキストデータへの変換指示を受けると、会議情報データベース220から、画面描画データを取得する(ステップS1301)。
このとき、会議情報分析部260は、例えば会議情報収集部250により、画面描画データと会議IDと端末IDとが会議情報データベース220に格納されたとき、変換指示を受けたものとしても良い。また、会議情報分析部260は、例えば会議IDの指定を受けたとき、変換指示を受けたものとしても良い。その場合、会議情報分析部260は、会議情報データベース220に格納された会議情報から、指定された会議IDと対応する画面描画データを取得しても良い。
続いて、会議情報分析部260は、発話者特定部261により、画面描画データから、時刻を示す情報を抽出する(ステップS1302)。
続いて、会議情報分析部260は、発話者特定部261により、会議情報に含まれる音声データから、画面描画データから抽出された時刻を中心とした所定時間の音声データを取得し、所定時間内の発話者を特定する(ステップS1303)。発話者特定部261の処理の詳細は後述する。尚、本実施形態では、所定時間は、画面描画データから抽出された時刻を中心とした所定時間としたが、これに限定されない。画面描画データから抽出された時刻は、所定時間に含まれていれば良く、所定時間の中心でなくても良い。
続いて、会議情報分析部260は、音声データ抽出部262により、特定された発話者の音声データのうち、所定時間における音声データを抽出し、変換指示部263により、抽出した音声データと、テキストデータへの変換指示を変換要求部270へ渡す(ステップS1304)。
続いて、会議情報分析部260は、テキスト取得部264により、変換要求部270が言語処理装置300から受信したテキストデータ(第一のテキストデータ)を取得する(ステップS1305)。
続いて、会議情報分析部260は、テキストデータとストローク情報とを照合して、画面描画データ内の文字をテキストデータ(第二のテキストデータ)に変換する(ステップS1306)。ステップS1306の処理の詳細は後述する。
続いて、会議情報分析部260は、出力部271により、テキストデータを電子黒板400へ出力する(ステップS1307)。
次に、図14を参照して、図13のステップS1306の処理について説明する。図14は、会議情報分析部の処理を説明する第二のフローチャートである。
会議情報分析部260は、分析対象特定部265により、ステップ1305で取得したテキストデータにおいて、ステップS1302で抽出した時刻情報が示す時刻と最も近い時刻に収集された音声データに基づくテキストデータを特定する(ステップS1401)。
続いて、会議情報分析部260は、単語抽出部266により、特定したテキストデータに対して、形態素解析等を行い、形態素を単語として抽出し、単語選択部267により、抽出された単語のうち、最初の単語を選択する(ステップS1402)。
続いて、会議情報分析部260は、ストローク情報照合部268により、ステップS1301で取得した画面描画データに含まれるストローク情報を参照する(ステップS1403)。次に、ストローク情報照合部268は、ストローク情報と、選択された単語とを照合し、選択された単語が示す文字列が、ストローク情報の一部と一致するか否かを判定する(ステップS1404)。
具体的には、ストローク情報照合部268は、ストローク情報を公知の手書き文字認識技術等によりテキスト化し、テキスト化した結果の文字列と、選択された単語とを照合し、一致しているか否かを判定しても良い。また、ストローク情報照合部268は、ストローク情報により描かれるストロークの形状と、抽出された単語が示す文字列とを比較し、類似度が所定の値以上となった場合に、両者が一致していると判定しても良い。
ステップS1404において、両者が一致していないと判定された場合、会議情報分析部260は、後述するステップS1406へ進む。
ステップS1404において、両者が一致していると判定された場合、会議情報分析部260は、テキストデータ生成部269は、選択した単語を取得して保持する(ステップS1405)。
続いて、会議情報分析部260は、抽出した全ての単語について処理をしたか否かを判定する(ステップS1406)。
ステップS1406において全ての単語について処理していない場合、会議情報分析
部260は、ストローク情報照合部268は、ストローク情報において、次の照合位置を決定する(ステップS1407)。
具体的には、例えばステップS1404において照合したストローク情報が単語と一致すると判定された場合、ストローク情報照合部268は、ストローク情報が示すストロークのうち、照合済みのストロークの次のストロークを次の照合位置に決定する。また、ステップS1404において照合したストローク情報が単語と一致すると判定された場合、ストローク情報照合部268は、ストローク情報のうち、前回照合したストロークと同じストロークを次の照合位置に決定する。
続いて、会議情報分析部260は、単語選択部267により、単語抽出部266が抽出した単語のうち、次の単語を選択し(ステップS1408)、ステップS1403へ戻る。
ステップS1406において、全ての単語について処理した場合、テキストデータ生成部269は、画面描画データに含まれるストローク情報全てについて照合したか否かを判定する(ステップS1409)。
ステップS1409において、ストローク情報全てについて照合していない場合、会議情報分析部260は、分析対象特定部265により、画面描画データから抽出した時刻情報が示す時刻から次に近い時刻に収集された音声データと対応するテキストデータを特定し(ステップS1410)、ステップS1402へ戻る。
ステップS1409において、ストローク情報全てについて照合した場合、会議情報分析部260は、テキストデータ生成部269により、保持している単語をつなげて、テキストデータを生成し(ステップS1411)、処理を終了する。
本実施形態の
以下に、図15乃至図17を参照し、会議情報分析部260の処理を具体的に説明する。はじめに、図15を参照して、会議情報分析部260の発話者特定部261の処理を説明する。
図15は、発話者特定部の処理を説明する図である。
本実施形態の発話者特定部261は、画面描画データに含まれる時刻情報が示す時刻において、最も音量が大きい音声データを収集した端末装置500のユーザを、その時刻の発話者に特定する。
図15の例では、ある時刻において、端末装置500−1から収集された音声データと、端末装置500−3から収集された音声データが存在したとする。この場合、端末装置500−1において収集された音声データの音量の方が、端末装置500−3において収集された音声データの音量よりも大きい。
よって、発話者特定部261は、この時刻において、最も音量が大きい音声データを収集した端末装置500−1のユーザを、この時刻における発話者に特定する。
また、本実施形態の端末装置500では、例えば端末装置500が収集した複数のユーザの音声データのうち、最も音量が大きい音声データを端末装置500のユーザの音声データとする。
次に、図16を参照して、会議情報分析部260によるストローク情報と単語との照合について説明する。図16は、ストローク情報と単語との照合を説明する図である。
図16の例では、画像G2と対応する画面描画データ2に含まれるストローク情報をテキストデータに変換する場合の例を示している。
この場合、会議情報分析部260は発話者特定部261により、画面描画データ2から、時刻T13を示す時刻情報を抽出し、音声データ抽出部262により、時刻T13を中心とした所定時間Kの間に収集された音声データを抽出する。
ここで、所定時間Kは、予め会議支援サーバ200の管理者等により設定されていても良い。
図16の例では、所定時間Kにおいて抽出された音声データは、音声データSp1〜Sp4とした(図9参照)。音声データSp1は、電子黒板400により、時刻T1において収集されたデータのうち、最も音量が大きい音声データである。最も音量が大きい音声データは、電子黒板400と一番近い位置にいる参加者の発話である可能性が高い。よって、本実施形態では、音声データSp1の発話者はユーザXとされる。
音声データSp2は、時刻T2において収集されたデータのうち、最も音量が大きい音声データである。端末装置500−2により、時刻T2において収集されたデータのうち、最も音量が大きい音声データである。よって音声データSp2の発話者は、端末装置500−2と一番近い位置にいるユーザBとされる。
同様に、音声データSp3は、時刻T3において収集されたデータのうち、最も音量が大きい音声データであり、音声データSp3の発話者は、電子黒板400と一番近い位置にいるユーザXとされる。音声データSp4は、時刻T4において収集されたデータのうち、最も音量が大きい音声データであり、音声データSp4の発話者は、端末装置500−1と一番近い位置にいるユーザAとされる。
続いて、音声データSp1〜Sp4は、テキストデータへの変換要求と共に言語処理装置300へ送信される。
会議情報分析部260は、言語処理装置300によりテキストデータを取得する。図16の例では、音声データSp1をテキストへ変換した結果が、テキストデータTx1であり、音声データSp2をテキストへ変換した結果が、テキストデータTx2である。また、音声データSp3をテキストへ変換した結果が、テキストデータTx3であり、音声データSp4をテキストへ変換した結果が、テキストデータTx4である。
図16の例では、画面描画データ2から取得した時刻T13と最も近い時刻に収集された音声データと対応するテキストデータとして、テキストデータTx3を特定する。
テキストデータTx3からは、「サイド」という単語161、「タイムライン」という単語162、「時間」という単語163、「表示」という単語164、「画面ログ」という単語165、「保存」という単語166等の単語が抽出される。
よって、会議情報分析部260は、画面描画データ2におけるストローク情報により描画された画像112と、「サイド」とを照合する。
このとき、単語161は3文字の文字列である。よって、会議情報分析部260では、画像112において、例えば手書き文字認識により、ストローク情報が示す最初の3文字を判別し、単語161と、ストローク情報が示す3文字とが一致するか否かを判定する。
両者が一致する場合、会議情報分析部260は、単語161である「サイド」を、画像112として描画されている文字列に含まれるものとして、保持する。
本実施形態の会議情報分析部260は、以上のようにして、単語162以降についても同様の処理を行う。
図16の例では、単語161〜166が全て画像112を示すストローク情報に含まれることがわかる。よって、テキストデータ生成部269は、単語161〜166に基づき、テキストデータ170を生成する。
尚、このとき、テキストデータ生成部269は、例えばテキストデータTx3を参照して、テキストデータ170を生成しても良い。具体的には、例えば、テキストデータTx3では、単語161の「サイド」と単語162の「タイムライン」の間には、「に」という文字がある。よって、テキストデータ生成部269は、単語161の「サイド」と単語162の「タイムライン」の間に「に」を挿入すればよい。
生成されたテキストデータ170は、図16に示す画像G2Aのように、画像112の近傍に表示されても良い。このとき、テキストデータ170は、例えば、画像111、112よりも輝度を下げた状態で表示されても良い。
図17は、電子黒板にテキストデータが表示された例を示す図である。本実施形態の電子黒板400では、例えば、電子黒板400を利用しているユーザXにより、テキストデータ170が確定されると、画像G2−1に示すように、画像112をテキストデータ170に置き換えても良い。
尚、電子黒板400では、タッチパネルに画像G2を表示しておき、テキストデータ170が生成されると、画像G2−1を表示させても良い。
また、本実施形態では、テキストデータ170に対して、手書きで文字を上書することで、テキストデータ170の内容を修正したり、変更したりできる。また、本実施形態では、画像G2−1上に、テキストデータ170を修正したり変更するためのソフトウェアキーボード等を表示させても良い。
また、本実施形態では、例えばテキストデータ170が表示された画像G2−1に対して、テキストデータ170を確定させるための操作部品等を表示させても良い。そして、電子黒板400は、この操作部品が操作されると、テキストデータ170を画面描画データ2と対応付けて会議支援サーバ200へ送信しても良い。会議支援サーバ200は、画面描画データ2と対応付けられたテキストデータを会議情報に含め、会議情報データベース220に格納しても良い。
以上のように、本実施形態によれば、電子黒板400に対して手書き入力された文字の識字を支援できる。
本発明は、具体的に開示された実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
100 情報処理システム
200 会議支援サーバ
210 会議管理情報データベース
220 会議情報データベース
250 会議情報収集部
260 会議情報分析部
270 変換要求部
300 言語処理装置
310 音声変換部
400 電子黒板
500 端末装置
特開2015−041373号公報

Claims (8)

  1. 描画装置と少なくとも1以上の端末装置とネットワークを介して通信可能な情報処理装置であって、
    前記描画装置から、該描画装置の利用者のユーザ情報と該描画装置で収集された音声データと、描画装置に対する操作に対応したストローク情報を含む描画データと、前記端末装置それぞれから、該端末装置の利用者のユーザ情報と前記端末装置で収集された音声データを受信する会議情報収集部と、
    受信した前記描画装置で収集された音声データと、受信した前記端末装置で収集された音声データとの内から、前記描画データを取得した時刻を含む所定時間において収集された時刻に近い音声データに対応する前記ユーザ情報を特定する会議情報分析部と、
    特定された前記ユーザ情報に対応する音声データを前記音声データに基づく第一のテキストデータへの変換要求を言語処理装置に対して行い、前記言語処理装置から前記第一のテキストデータを取得する変換要求部と、を有し、
    前記会議情報分析部は、
    前記ストローク情報と、前記第一のテキストデータと、に基づき、前記ストローク情報が示す内容を第二のテキストデータに変換する、情報処理装置。
  2. 前記会議情報分析部は、
    前記第一のテキストデータのうち、前記描画データを取得した時刻と、収集された時刻が近い音声データに基づくテキストデータから順に、前記ストローク情報が示すストロークと照合する、請求項1記載の情報処理装置。
  3. 前記会議情報分析部は、
    前記第一のテキストデータに含まれる単語を抽出し、
    抽出された単語と、前記ストローク情報が示すストロークの一部と、を照合し、
    前記単語と前記ストロークの一部が同じ文字列を示すと判定された単語を用いて、前記第二のテキストデータを生成する、請求項2記載の情報処理装置。
  4. 前記所定時間において収集された前記音声データは、前記端末装置が収集した複数の利用者の音声データのうち、最も音量が大きい音声データである請求項1乃至3の何れか一項に記載の情報処理装置。
  5. 前記ストローク情報は、
    前記描画装置の入力装置に対する接触が検知されてから、前記入力装置に対する接触が検知されなくなったあと、所定期間が経過するまでの間における、前記入力装置に対する操作の軌跡を示す座標情報である、請求項1乃至4の何れか一項に記載の情報処理装置。
  6. 描画装置と少なくとも1以上の端末装置とネットワークを介して通信可能な情報処理装置に、
    前記描画装置から、該描画装置の利用者のユーザ情報と該描画装置で収集された音声データと、描画装置に対する操作に対応したストローク情報を含む描画データと、前記端末装置それぞれから、該端末装置の利用者のユーザ情報と前記端末装置で収集された音声データを受信する会議情報収集処理と、
    受信した前記描画装置で収集された音声データと、受信した前記端末装置で収集された音声データとの内から、前記描画データを取得した時刻を含む所定時間において収集された時刻に近い音声データに対応する前記ユーザ情報を特定する会議情報分析処理と、
    特定された前記ユーザ情報に対応する音声データを前記音声データに基づく第一のテキストデータへの変換要求を言語処理装置に対して行い、前記言語処理装置から前記第一のテキストデータを取得する変換要求処理と、を実行させ、
    前記会議情報分析処理において、
    前記ストローク情報と、前記第一のテキストデータと、に基づき、前記ストローク情報が示す内容を第二のテキストデータに変換する処理を、前記情報処理装置に実行させる、情報処理プログラム。
  7. 描画装置と少なくとも1以上の端末装置とネットワークを介して通信可能な情報処理装置を含む情報処理システムであって、
    前記描画装置から、該描画装置の利用者のユーザ情報と該描画装置で収集された音声データと、描画装置に対する操作に対応したストローク情報を含む描画データと、前記端末装置それぞれから、該端末装置の利用者のユーザ情報と前記端末装置で収集された音声データを受信する会議情報収集部と、
    受信した前記描画装置で収集された音声データと、受信した前記端末装置で収集された音声データとの内から、前記描画データを取得した時刻を含む所定時間において収集された時刻に近い音声データに対応する前記ユーザ情報を特定する会議情報分析部と、
    特定された前記ユーザ情報に対応する音声データを前記音声データに基づく第一のテキストデータへの変換要求を言語処理装置に対して行い、前記言語処理装置から前記第一のテキストデータを取得する変換要求部と、を有し、
    前記会議情報分析部は、
    前記ストローク情報と、前記第一のテキストデータと、に基づき、前記ストローク情報が示す内容を第二のテキストデータに変換する、情報処理システム。
  8. 描画装置と少なくとも1以上の端末装置とネットワークを介して通信可能な情報処理装置とを含む情報処理システムによる情報処理方法であって、前記情報処理システムが、
    前記描画装置から、該描画装置の利用者のユーザ情報と該描画装置で収集された音声データと、描画装置に対する操作に対応したストローク情報を含む描画データと、前記端末装置それぞれから、該端末装置の利用者のユーザ情報と前記端末装置で収集された音声データを受信する会議情報収集手順と、
    受信した前記描画装置で収集された音声データと、受信した前記端末装置で収集された音声データとの内から、前記描画データを取得した時刻を含む所定時間において収集された時刻に近い音声データに対応する前記ユーザ情報を特定する会議情報分析手順と、
    特定された前記ユーザ情報に対応する音声データを前記音声データに基づく第一のテキストデータへの変換要求を言語処理装置に対して行い、前記言語処理装置から前記第一のテキストデータを取得する変換要求手順と、を有し、
    前記会議情報分析手順において、
    前記ストローク情報と、前記第一のテキストデータと、に基づき、前記ストローク情報が示す内容を第二のテキストデータに変換する、情報処理方法。
JP2016219661A 2016-11-10 2016-11-10 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法 Active JP6859667B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016219661A JP6859667B2 (ja) 2016-11-10 2016-11-10 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法
US15/802,564 US10558795B2 (en) 2016-11-10 2017-11-03 Information processing apparatus, information processing system, and method of processing information
US16/784,327 US11017073B2 (en) 2016-11-10 2020-02-07 Information processing apparatus, information processing system, and method of processing information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016219661A JP6859667B2 (ja) 2016-11-10 2016-11-10 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2018077707A JP2018077707A (ja) 2018-05-17
JP6859667B2 true JP6859667B2 (ja) 2021-04-14

Family

ID=62064695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016219661A Active JP6859667B2 (ja) 2016-11-10 2016-11-10 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法

Country Status (2)

Country Link
US (2) US10558795B2 (ja)
JP (1) JP6859667B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6859667B2 (ja) * 2016-11-10 2021-04-14 株式会社リコー 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法
CN115050393A (zh) * 2022-06-23 2022-09-13 安徽听见科技有限公司 获取回听音频的方法、装置、设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6404856B1 (en) * 1998-04-10 2002-06-11 Fuji Xerox Co., Ltd. System for recording, annotating and indexing audio data
JP2002259908A (ja) * 2000-12-28 2002-09-13 Brother Ind Ltd 筆記データ処理システム、筆記データ処理サーバ及び筆記データ処理装置
JP4407494B2 (ja) * 2004-11-26 2010-02-03 株式会社日立製作所 デジタルペンを用いた速記文字反訳作業支援システム
JP2008084110A (ja) 2006-09-28 2008-04-10 Toshiba Corp 情報表示装置、情報表示方法及び情報表示プログラム
JP2008219142A (ja) * 2007-02-28 2008-09-18 Toshiba Corp 会議録表示装置及び方法
TWI399970B (zh) * 2007-10-12 2013-06-21 Inventec Appliances Corp 行動通訊裝置即時互動方法
US8446297B2 (en) * 2008-04-03 2013-05-21 Livescribe, Inc. Grouping variable media inputs to reflect a user session
JP2012108631A (ja) * 2010-11-16 2012-06-07 Hitachi Solutions Ltd 議事録作成システム、作成装置及び作成方法
JP2012150761A (ja) * 2011-01-21 2012-08-09 Fujitsu Ltd 情報処理装置および情報処理プログラム
JP2014067148A (ja) * 2012-09-25 2014-04-17 Toshiba Corp 手書き文書処理装置、方法およびプログラム
KR102102663B1 (ko) * 2012-10-05 2020-04-22 삼성전자주식회사 휴대단말기의 사용 방법 및 장치
US20140361983A1 (en) * 2013-06-09 2014-12-11 Apple Inc. Real-time stroke-order and stroke-direction independent handwriting recognition
US20140363082A1 (en) * 2013-06-09 2014-12-11 Apple Inc. Integrating stroke-distribution information into spatial feature extraction for automatic handwriting recognition
JP6252037B2 (ja) 2013-08-23 2017-12-27 株式会社リコー 情報共有システム、情報共有方法、接続装置および情報共有プログラム
US9335838B2 (en) * 2013-10-24 2016-05-10 Livescribe Inc. Tagging of written notes captured by a smart pen
US10528249B2 (en) * 2014-05-23 2020-01-07 Samsung Electronics Co., Ltd. Method and device for reproducing partial handwritten content
JP6859667B2 (ja) * 2016-11-10 2021-04-14 株式会社リコー 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法

Also Published As

Publication number Publication date
US10558795B2 (en) 2020-02-11
JP2018077707A (ja) 2018-05-17
US20180129800A1 (en) 2018-05-10
US20200175150A1 (en) 2020-06-04
US11017073B2 (en) 2021-05-25

Similar Documents

Publication Publication Date Title
JP7063348B2 (ja) 記録されたメディアからの提案された文書編集の、人工知能を用いた生成
JP7063347B2 (ja) 記録されたメディアからの提案を含むための、既存のコンテンツ提案の人工知能を用いた更新
CN108133707B (zh) 一种内容分享方法及系统
CN110517689B (zh) 一种语音数据处理方法、装置及存储介质
JP2019046468A (ja) インターフェイススマートインタラクティブ制御方法、装置、システム及びプログラム
US11397565B2 (en) Automated generation of software applications using analysis of submitted content items
EP3596592B1 (en) Information processing system, information processing program and information processing method
CN105706038A (zh) 具有自动内容分类的两步内容选择
JP6859667B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法
JP7020170B2 (ja) 非常に大きな画像集合における近似重複画像をクラスタ化するためのシステム及び方法、複数の画像をクラスタ化するための方法及びシステム、プログラム、複数の内容項目をクラスタ化するための方法
CN111223487B (zh) 一种信息处理方法及电子设备
CN106372231A (zh) 一种搜索方法及装置
CN109064787A (zh) 一种点读设备
CN109561212A (zh) 一种发布信息的合并方法、装置、设备和存储介质
US20130227382A1 (en) Method and system for extracting requirements from narratives
CN110992960A (zh) 控制方法、装置、电子设备和存储介质
US11367048B2 (en) Automated creation of digital affinity diagrams
БАРКОВСЬКА Performance study of the text analysis module in the proposed model of automatic speaker’s speech annotation
CN112542163B (zh) 智能语音交互方法、设备及存储介质
CN113889081A (zh) 语音识别方法、介质、装置和计算设备
JP6772734B2 (ja) 言語処理システム、言語処理装置、言語処理プログラム及び言語処理方法
WO2021062757A1 (zh) 同声传译方法、装置、服务器和存储介质
EP4231633A1 (en) Interaction method for terminal, and electronic whiteboard and non-transitory computer-readable storage medium
KR102030742B1 (ko) 아이디어 선정 지원 시스템 및 방법
JP7183316B2 (ja) 音声記録検索方法、コンピュータ装置およびコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200525

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210128

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210128

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210208

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210309

R151 Written notification of patent or utility model registration

Ref document number: 6859667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151