JP7069631B2 - 情報処理装置及び情報処理プログラム - Google Patents

情報処理装置及び情報処理プログラム Download PDF

Info

Publication number
JP7069631B2
JP7069631B2 JP2017200107A JP2017200107A JP7069631B2 JP 7069631 B2 JP7069631 B2 JP 7069631B2 JP 2017200107 A JP2017200107 A JP 2017200107A JP 2017200107 A JP2017200107 A JP 2017200107A JP 7069631 B2 JP7069631 B2 JP 7069631B2
Authority
JP
Japan
Prior art keywords
sticky note
voice
recognition result
module
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017200107A
Other languages
English (en)
Other versions
JP2019074898A (ja
Inventor
徹 久野
和典 堀切
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2017200107A priority Critical patent/JP7069631B2/ja
Priority to CN201810709087.8A priority patent/CN109685049A/zh
Priority to US16/153,840 priority patent/US11030473B2/en
Publication of JP2019074898A publication Critical patent/JP2019074898A/ja
Application granted granted Critical
Publication of JP7069631B2 publication Critical patent/JP7069631B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Description

本発明は、情報処理装置及び情報処理プログラムに関する。
特許文献1には、電子化を意識せずにペン及び手書きの付箋を利用する場合と同等の手軽さで、カードや台紙に記入したキーワード等の情報を電子化することを課題とし、小型内蔵カメラ、メモリ、イメージプロセッサ、通信ユニットを備えた入力デバイスと、入力デバイスによってどの紙のどの位置に情報が記入されたか等の情報を識別するための情報が埋め込まれ、無線タグが取り付けられている用紙(カード及び台紙)を用い、机上でブレインストーミングやKJ法を行い、記入されたペン情報、用紙情報及び無線タグの位置情報はサーバーに送信され、サーバーは、ペン情報、用紙情報、タグの位置情報を組み合わせ、それぞれの用紙に記載された文字情報、用紙上の文字情報の位置情報、用紙の位置情報を算出し格納し、格納手段内の情報は、情報処理装置によって電子化された情報として閲覧できることが開示されている。
特開2008-123265号公報
電子付箋システムにおける付箋の作成において、手書き文字が書き込まれる場合がある。そして、その手書き文字を認識して、テキスト情報が書き込まれた付箋が作成される。しかし、手書き文字認識では誤認識することがある。一方、付箋を作成する場合、その作成者によって書きながら説明が行われる場合がある。また、付箋に対して操作が行われた場合は、その操作者によって、説明が行われる。そして、音声に対しては音声認識を行うことができる。
本発明は、付箋に手書きされた文字を単独で認識する場合に比べて、文字認識の認識結果の正解率を向上させることができる情報処理装置及び情報処理プログラムを提供することを目的としている。
かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。なお、以下の「請求項」とあるのは、出願当初の請求項である。
請求項1の発明は、台紙に貼り付けることができる付箋の作成にあたって手書きされた文字を認識する文字認識手段と、音声を認識する音声認識手段と、前記音声認識手段の認識結果を用いて、前記文字認識手段による認識結果を修正する修正手段を有する情報処理装置である。
請求項2の発明は、前記音声認識手段は、前記付箋にかかわる音声を認識する、請求項1に記載の情報処理装置である。
請求項3の発明は、前記音声認識手段は、前記付箋について前記文字認識手段の対象となっている文字が手書きされている間における音声を認識対象とする、請求項2に記載の情報処理装置である。
請求項4の発明は、前記音声認識手段は、前記付箋を作成している操作者の音声を認識対象とする、請求項3に記載の情報処理装置である。
請求項5の発明は、前記音声認識手段は、前記付箋が操作されている間における音声を認識対象とする、請求項2に記載の情報処理装置である。
請求項6の発明は、前記音声認識手段は、前記付箋がファシリテーター又は該付箋の作成者によって操作されている間における音声を認識対象とする、請求項5に記載の情報処理装置である。
請求項7の発明は、前記音声認識手段の認識結果を前記付箋のメタ情報として付加する付加手段をさらに有する請求項1に記載の情報処理装置である。
請求項8の発明は、前記付加手段は、前記付箋に手書きされた図形を前記メタ情報として付加する、請求項7に記載の情報処理装置である。
請求項9の発明は、前記付加手段は、前記文字認識手段によって認識できなかった手書き部分を前記図形とする、請求項8に記載の情報処理装置である。
請求項10の発明は、コンピュータを、台紙に貼り付けることができる付箋の作成にあたって手書きされた文字を認識する文字認識手段と、音声を認識する音声認識手段と、前記音声認識手段の認識結果を用いて、前記文字認識手段による認識結果を修正する修正手段として機能させるための情報処理プログラムである。
請求項1の情報処理装置によれば、付箋に手書きされた文字を単独で認識する場合に比べて、文字認識の認識結果の正解率を向上させることができる。
請求項2の情報処理装置によれば、付箋にかかわる音声の認識結果を修正に用いることができる。
請求項3の情報処理装置によれば、付箋について文字が手書きされている間における音声の認識結果を修正に用いることができる。
請求項4の情報処理装置によれば、付箋を作成している操作者の音声の認識結果を修正に用いることができる。
請求項5の情報処理装置によれば、付箋が操作されている間における音声の認識結果を修正に用いることができる。
請求項6の情報処理装置によれば、付箋がファシリテーター又はその付箋の作成者によって操作されている間における音声の認識結果を修正に用いることができる。
請求項7の情報処理装置によれば、音声認識の認識結果を付箋のメタ情報として付加することができる。
請求項8の情報処理装置によれば、付箋に手書きされた図形について、メタ情報を付加することができる。
請求項9の情報処理装置によれば、文字認識できなかった手書き部分を図形とすることができる。
請求項10の情報処理プログラムによれば、付箋に手書きされた文字を単独で認識する場合に比べて、文字認識の認識結果の正解率を向上させることができる。
本実施の形態の構成例についての概念的なモジュール構成図である。 本実施の形態を利用した付箋システムの構成例を示す説明図である。 本実施の形態が使用される会議室等における、電子付箋端末、共有画面用端末の使用例を示す説明図である。 手書認識結果テーブルのデータ構造例を示す説明図である。 音声認識結果テーブルのデータ構造例を示す説明図である。 付箋情報テーブルのデータ構造例を示す説明図である。 本実施の形態による処理例を示すフローチャートである。 本実施の形態による処理例を示す説明図である。 本実施の形態による処理例を示す説明図である。 本実施の形態による処理例を示すフローチャートである。 本実施の形態による処理例を示す説明図である。 本実施の形態による処理例を示すフローチャートである。 本実施の形態による処理例を示すフローチャートである。 本実施の形態による処理例を示すフローチャートである。 本実施の形態を実現するコンピュータのハードウェア構成例を示すブロック図である。
以下、図面に基づき本発明を実現するにあたっての好適な一実施の形態の例を説明する。
図1は、本実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するという意味である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係、ログイン等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態にしたがって、又はそれまでの状況・状態にしたがって定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(もちろんのことながら、全ての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。また、「A、B、C」等のように事物を列挙した場合は、断りがない限り例示列挙であり、その1つのみを選んでいる場合(例えば、Aのみ)を含む。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスク、RAM(Random Access Memory)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unit)内のレジスタ等を含んでいてもよい。
本実施の形態である付箋生成装置100は、会合において用いられる台紙と付箋(電子付箋、電子カード等ともいわれる)に関する処理を行うものであって、図1の例に示すように、付箋生成開始検知モジュール105、付箋情報受付モジュール110、文字認識モジュール130、音声認識モジュール135、対応付モジュール140、文字認識結果修正モジュール145、付箋生成モジュール150、付箋操作検知モジュール155を有している。なお、会合は、複数人が集まって話し合うことであればよく、例えば、会議、ワークショップ、アイデア抽出会、検討会、相談、議論、集会、ミーティング等を含む。本実施の形態は、電子的な付箋と台紙を利用した電子付箋システム(電子白板等ともいわれる)にかかるものである。
図2の例に示すように、付箋生成装置100を有している共有画面用端末200と電子付箋端末250は、具体的には、付箋を用いて、ファシリテーター(一般的には1人)と複数人の参加者によって行われる会合で利用される。参加者は参加者用端末としての電子付箋端末250を用いて、アイデア等が記載された付箋を作成する。また、ファシリテーターも、共有画面用端末200を用いて、アイデア等が記載された付箋を作成してもよい。
一般的に、図3の例に示すように、電子付箋端末250として、各参加者が所持する電子付箋端末250A、電子付箋端末250B等(以下、代表して電子付箋端末250という)のように複数ある。そして、共有画面用端末200は、電子付箋端末250から付箋を受け取って、台紙(又は背景)上にその付箋を貼り付ける。ファシリテーターは共有画面用端末200の表示装置である共有画面を用いて、その台紙上で、付箋の位置を決定又は変更したり、付箋をまとめたり(第1の付箋と第2の付箋を関連付けること、グループ形成等ともいわれる)、自らも付箋情報の作成等を行って、その会合を進行させる。なお、本実施の形態において、参加者には、ファシリテーターを含む。
付箋生成開始検知モジュール105は、付箋情報受付モジュール110と接続されている。付箋生成開始検知モジュール105は、共有画面用端末200又は電子付箋端末250上で、付箋の生成が行われることを検知する。例えば、付箋の生成用ボタンが押下されたことを検知すればよい。
付箋情報受付モジュール110は、テキストデータ受付モジュール115、手書情報受付モジュール120、音声情報受付モジュール125を有しており、付箋生成開始検知モジュール105と接続されている。付箋情報受付モジュール110は、付箋に書き込まれる情報(データ)を受け付ける。ここで付箋に書き込まれる情報として、テキストデータ、手書きデータがある。そして、音声データは、手書きデータの認識の補助データ又は付箋のメタデータとして受け付ける。
テキストデータ受付モジュール115は、付箋生成モジュール150と接続されている。テキストデータ受付モジュール115は、付箋の内容となるテキストデータを受け付ける。例えば、キーボード(ディスプレイ上に表示する仮想キーボードを含む)、マウス等を用いて、参加者が打ち込んだテキストデータを受け付ける。
手書情報受付モジュール120は、文字認識モジュール130と接続されている。手書情報受付モジュール120は、付箋の内容となる手書きデータを受け付ける。例えば、指、ペン等を用いて、タッチパネル上に書き込まれた手書きデータを受け付ける。ここでの手書きデータは、指、ペン等の動きを示しているデータであって、ストロークデータである。ここでのストロークデータは、指、ペン等でのストロークの始点の位置座標、終点の位置座標、書き込まれた日時(年、月、日、時、分、秒、秒以下、又はこれらの組み合わせであってもよい)情報を含んでいる。そして、文字認識モジュール130で文字認識の対象となり、付箋内に書き込まれるテキストデータ又は図形データとなる。
なお、手書情報受付モジュール120が手書きデータの受け付けを開始する契機は、付箋生成開始検知モジュール105が付箋の生成が行われることを検知したときである。
音声情報受付モジュール125は、音声認識モジュール135、付箋操作検知モジュール155と接続されている。音声情報受付モジュール125は、音声データを受け付ける。例えば、電子付箋端末250に備え付けられているマイク255、共有画面用端末200に備え付けられているマイク205の他に、手書き用のペンに備え付けられているマイク、ユーザーの衣服等に備え付けられているウェアラブルコンピュータ内のマイク等によって受け付けられた音声のデジタルデータであってもよい。ここでの音声データには、その音声を受け付けた日時情報を含んでいてもよい。そして、音声認識モジュール135での音声認識対象となる。
なお、音声情報受付モジュール125が音声データの受け付けを開始する契機は、付箋生成開始検知モジュール105が付箋の生成が行われたことを検知したとき、又は、付箋操作検知モジュール155が付箋への操作が行われたことを検知したときである。
文字認識モジュール130は、付箋情報受付モジュール110の手書情報受付モジュール120、対応付モジュール140と接続されている。文字認識モジュール130は、台紙に貼り付けることができる付箋の作成にあたって手書きされた文字を認識する。また、その認識結果についての確信度を算出してもよい。ここでの確信度とは、その認識結果が正解である確率を示すものであり、高い値であるほどその認識結果の信頼性が高くなる。文字認識モジュール130は、例えば、既に知られている文字認識技術を用いればよい。具体的には、オンライン手書き文字認識を用いるようにしてもよい。
文字認識モジュール130は、文字認識処理の結果として、例えば、手書認識結果テーブル400を生成する。図4は、手書認識結果テーブル400のデータ構造例を示す説明図である。手書認識結果テーブル400は、付箋ID欄405、開始日時欄410、終了日時欄415、手書元データ欄420、ユーザーID欄425、認識結果1欄430、確信度1欄435、認識結果2欄440、確信度2欄445を有している。付箋ID欄405は、本実施の形態において、付箋を一意に識別するための情報(付箋ID:IDentification)を記憶している。ここでの付箋は、手書きが行われた付箋である。開始日時欄410は、手書きが開始された日時(年、月、日、時、分、秒、秒以下、又はこれらの組み合わせであってもよい)を記憶している。終了日時欄415は、手書きが終了した日時を記憶している。手書元データ欄420は、手書きの元データ(前述のストロークデータ)を記憶している。ユーザーID欄425は、本実施の形態において、その手書きをしているユーザーを一意に識別するための情報(ユーザーID)を記憶している。認識結果1欄430は、文字認識モジュール130による認識結果1(確信度が1位の認識結果)を記憶している。確信度1欄435は、その認識結果1の確信度1を記憶している。認識結果2欄440は、文字認識モジュール130による認識結果2(確信度が2位の認識結果)を記憶している。確信度2欄445は、その認識結果2の確信度2を記憶している。その他に、確信度が3位以下の認識結果、確信度を記憶していてもよい。
音声認識モジュール135は、付箋情報受付モジュール110の音声情報受付モジュール125、対応付モジュール140と接続されている。音声認識モジュール135は、音声を認識する。音声認識モジュール135は、例えば、既に知られている音声認識技術を用いればよい。
また、音声認識モジュール135は、付箋にかかわる音声を認識するようにしてもよい。
例えば、音声認識モジュール135は、付箋について文字認識モジュール130の対象となっている文字が手書きされている間における音声を認識対象とするようにしてもよい。
また、例えば、音声認識モジュール135は、付箋を作成している操作者の音声を認識対象とするようにしてもよい。ここでの認識対象の音声は、付箋を作成している電子付箋端末250、その近辺(前述のウェアラブルコンピュータを含む)、又は電子付箋端末250を扱うペン等に備え付けられているマイクが受け付けた音声である。なお、共有画面上で付箋が作成される場合は、ファシリテーターの音声を認識対象とすることになり、その場合の認識対象である音声は、共有画面、その近辺、又は共有画面を扱うペン等に備え付けられているマイクが受け付けた音声となる。
また、例えば、音声認識モジュール135は、付箋が操作されている間における音声を認識対象とするようにしてもよい。
音声認識モジュール135は、付箋がファシリテーター又はその付箋の作成者によって操作されている間における音声を認識対象とするようにしてもよい。
音声認識モジュール135は、音声認識処理の結果として、例えば、音声認識結果テーブル500を生成する。図5は、音声認識結果テーブル500のデータ構造例を示す説明図である。音声認識結果テーブル500は、付箋ID欄505、開始日時欄510、終了日時欄515、音声元データ欄520、ユーザーID欄525、認識結果1欄530、確信度1欄535、認識結果2欄540、確信度2欄545を有している。付箋ID欄505は、付箋IDを記憶している。ここでの付箋は、付箋作成時又は付箋の説明時に、音声が発生された付箋である。開始日時欄510は、音声の録音が開始された日時を記憶している。なお、音声の発生によって録音が開始されるものであってもよい。終了日時欄515は、音声の録音が終了した日時を記憶している。音声元データ欄520は、音声の元データを記憶している。ユーザーID欄525は、その音声を発声したユーザーのユーザーIDを記憶している。認識結果1欄530は、音声認識モジュール135による認識結果1を記憶している。確信度1欄535は、その認識結果1の確信度1を記憶している。認識結果2欄540は、音声認識モジュール135による認識結果2を記憶している。確信度2欄545は、その認識結果2の確信度2を記憶している。
対応付モジュール140は、文字認識モジュール130、音声認識モジュール135、文字認識結果修正モジュール145と接続されている。対応付モジュール140は、文字認識モジュール130による文字認識結果と音声認識モジュール135による音声認識結果とを対応付ける。例えば、手書きデータの書き込まれた日時、音声を受け付けた日時にしたがって、文字認識結果と音声認識結果とを対応付けるようにしてもよい。また、付箋に対する操作が行われた場合に、音声情報受付モジュール125が受け付けた音声と、その付箋内の文字認識結果とを対応付けるようにしてもよい。
文字認識結果修正モジュール145は、対応付モジュール140、付箋生成モジュール150と接続されている。文字認識結果修正モジュール145は、音声認識モジュール135の認識結果を用いて、文字認識モジュール130による認識結果を修正する。修正方法については、図13、図14の例を用いて後述する。
付箋生成モジュール150は、付箋情報受付モジュール110のテキストデータ受付モジュール115、文字認識結果修正モジュール145と接続されている。付箋生成モジュール150は、テキストデータ受付モジュール115によって受け付けられたテキストデータを内容とする付箋、又は、文字認識結果修正モジュール145によって修正された文字の認識結果を内容とする付箋を生成する。
また、付箋生成モジュール150は、音声認識モジュール135の認識結果を付箋のメタ情報として付加するようにしてもよい。
また、付箋生成モジュール150は、付箋に手書きされた図形を、メタ情報として付加するようにしてもよい。この場合、文字認識モジュール130によって認識できなかった手書き部分を図形としてもよい。
付箋生成モジュール150は、付箋の生成結果として、例えば、付箋情報テーブル600を生成する。図6は、付箋情報テーブル600のデータ構造例を示す説明図である。付箋情報テーブル600は、付箋ID602、台紙ID欄604、貼付位置欄606、サイズ欄608、作成日時欄610、作成者欄612、貼付日時欄614、色欄616、枠線形状欄618、枠線色欄620、枠線太さ欄622、所属グループ欄624、内容種別欄626、内容欄628、手書元データ欄630、作成時音声認識結果データ欄632、開始日時欄634、終了日時欄636、説明時音声認識結果データ欄638、開始日時欄640、終了日時欄642を有している。付箋ID欄602は、付箋IDを記憶している。台紙ID欄604は、本実施の形態において、台紙を一意に識別するための情報(台紙ID)を記憶している。つまり、台紙IDは、その付箋IDの付箋が貼り付けられる台紙を示している。貼付位置欄606は、その付箋が貼り付けられる位置を記憶している。つまり、台紙上の貼り付け位置を記憶している。例えば、台紙のXY座標系における座標である。サイズ欄608は、その付箋のサイズを記憶している。例えば、表示する付箋が矩形である場合は、幅と高さを記憶している。作成日時欄610は、その付箋が作成された日時を記憶している。作成者欄612は、その付箋の作成者(ユーザーID)を記憶している。又は、その付箋が作成された情報処理装置(電子付箋端末250又は共有画面用端末200の機器ID)を記憶してもよい。貼付日時欄614は、その付箋が台紙に貼り付けられた日時を記憶している。色欄616は、その付箋の表示色を記憶している。枠線形状欄618は、その付箋の表示における枠線の形状(実線、点線、破線、波線、二重線等)を記憶している。枠線色欄620は、その付箋の表示における枠線の色を記憶している。枠線太さ欄622は、その付箋の表示における枠線の太さを記憶している。所属グループ欄624は、その付箋が所属しているグループに関する情報を記憶している。例えば、その付箋がグループに属しているか否かを示す情報を記憶していてもよいし、グループに属している場合は、グループIDやそのグループに属している他の付箋ID等を記憶していてもよい。内容種別欄626は、その付箋に記載された内容の種別、具体的には、「テキスト」、「手書文字認識結果」、「図形」、「画像」等を示す情報を記憶している。内容欄628は、その付箋に書き込まれている内容を記憶している。例えば、内容種別欄626が「テキスト」、「手書文字認識結果」である場合は、テキストデータであり、「図形」である場合は、ストロークデータであり、「画像」である場合は、画像データ(電子カメラ等で撮影した画像データ)である。手書元データ欄630は、内容種別欄626が「手書文字認識結果」である場合に、手書きの元データを記憶している。付箋を表示する場合は、手書文字認識結果であるテキストデータを表示してもよいし、手書き文字そのものを表示してもよい。作成時音声認識結果データ欄632は、その付箋の作成時における音声の認識結果データを記憶している。開始日時欄634は、作成時音声認識結果データ欄632の音声の録音が開始された日時を記憶している。終了日時欄636は、作成時音声認識結果データ欄632の音声の録音が終了した日時を記憶している。説明時音声認識結果データ欄638は、その付箋の説明時における音声の認識結果データを記憶している。開始日時欄640は、説明時音声認識結果データ欄638の音声の録音が開始された日時を記憶している。終了日時欄642は、説明時音声認識結果データ欄638の音声の録音が終了した日時を記憶している。
付箋操作検知モジュール155は、付箋情報受付モジュール110の音声情報受付モジュール125と接続されている。付箋操作検知モジュール155は、共有画面用端末200又は電子付箋端末250上で、付箋への操作が行われることを検知する。例えば、付箋が選択された操作、付箋を拡大表示する操作(その付箋を説明するための操作)等を検知すればよい。
図2は、本実施の形態を利用した付箋システムの構成例を示す説明図である。
共有画面用端末200(共有画面用端末200A、共有画面用端末200B)は、付箋生成装置100(付箋生成装置100X、付箋生成装置100Y)を有しており、マイク205(マイク205A、マイク205B)が接続されている。
電子付箋端末250(電子付箋端末250A~電子付箋端末250E)は、付箋生成装置100(付箋生成装置100A~付箋生成装置100E)を有しており、マイク255(マイク255A~マイク255E)が接続されている。
マイク205、マイク255は、それぞれ共有画面用端末200、電子付箋端末250に内蔵されていてもよい。
共有画面用端末200は、一般的に大画面の表示装置を備えており、ファシリテーターによって操作される。この表示装置は、参加者全員が見ることができるものである。各電子付箋端末250は、会合における参加者によって操作され、一般的には、各参加者が1台ずつ所持している。例えば、電子付箋端末250として、タブレット型端末等が使用される。
図2の例では、会議室280Aには、共有画面用端末200A、電子付箋端末250A、電子付箋端末250B、電子付箋端末250Cが設置されており、会合が行われる。共有画面用端末200A、電子付箋端末250A、電子付箋端末250B、電子付箋端末250Cは、通信回線298を介してそれぞれ接続されている。通信回線298は、無線、有線、これらの組み合わせであってもよく、例えば、通信インフラとしてのインターネット、イントラネット等であってもよい。
また、会議室280Bには、共有画面用端末200B、電子付箋端末250D、電子付箋端末250Eが設置されており、会合が行われる。共有画面用端末200B、電子付箋端末250D、電子付箋端末250Eは、通信回線298を介してそれぞれ接続されている。
そして、台紙・付箋等情報記憶装置294、会議室280A内の機器、会議室280B内の機器は、通信回線299を介してそれぞれ接続されている。また、台紙・付箋等情報記憶装置294による機能は、クラウドサービスとして実現してもよい。
台紙・付箋等情報記憶装置294は、付箋に関する情報を記憶している。各共有画面用端末200は、台紙・付箋等情報記憶装置294を用いて処理を行う。この場合、台紙・付箋等情報記憶装置294内の付箋に関する情報を複数の共有画面用端末200で共有してもよい。つまり、共有画面用端末200Aが管理している台紙と付箋に関する情報を、共有画面用端末200Bが利用できるようにしてもよい。特に、1つのプロジェクト内で複数の会合(例えば、会議室280A、会議室280Bでの会合)がかかわっている場合、同じタスクに対応する付箋を他の会合における台紙に貼り付けるようにしてもよい。これによって、一方の会合において、他方の会合における同じタスクの状況を把握することができるようになる。
例えば、参加者は、電子付箋端末250を用いて、付箋を生成する。その場合、付箋に手書き文字が記載される。手書きは、キーボード等を用いた場合に比べて、図形を描きやすいこと、文字の大きさを変更する等をして文章にメリハリを付けることができる。つまり、作成者の意図を反映しやすく、1枚の付箋内の情報量を多くしやすい。
しかし、手書き文字のままでは、次工程への情報受け渡しや検索ができないなど、制約がある。そこで、その手書き文字を文字認識することが行われる。手書き文字に対する文字認識技術として、(1)文字形状の認識、(2)ストロークデータの認識がある。ただし、文字認識の正確さは完全ではなく、特に図形が混在すると精度が落ちる。
一方、付箋に手書きで書き込みをしながら、他の参加者に対して解説を行う場合がある。また、その後で、その付箋を説明をする場合がある。したがって、本実施の形態は、その解説、説明等での音声を認識して、手書き文字の認識結果を修正することによって、手書き文字の認識結果の精度を向上させるようにしている。
図3は、本実施の形態が使用される会議室等における、電子付箋端末250、共有画面用端末200の使用例を示す説明図である。
図3(a)の例に示すように、会議室等内に、参加者311、312、ファシリテーター321が集まっている。参加者311は電子付箋端末250Aを利用し、参加者312は電子付箋端末250Bを利用する。一般的に、端末装置(電子付箋端末250A等)は参加者1人に1個付与されており、図3(c)の例に示す電子付箋端末250のように、ノート程度の大きさ(例えば、A4、B5、7~10インチ等)のタブレット型の端末であり、指又はペン等を用いて操作されるものである。参加者によって、テキストデータ、手書きの文字、図形等が記載された付箋情報が作成される。なお、端末装置は、タブレット型の端末に限られず、キーボード、マウス等を備えたPC(ノートPCを含む)等であってもよい。
図3(a)の例に示す共有画面用端末200xは、プロジェクターであって、台紙及び付箋を表示する。また、共有画面用端末200yは、電子白板であって、ファシリテーター321の指又はペン等の動きを検知して、子台紙又は付箋を台紙(表)に貼り付けること、子台紙又は付箋の移動、子台紙又は付箋の関連付け(グループ化)を行うこと等の操作を受け付けるものである。例えば、共有画面用端末200yにペンが備えられており、そのペンが予め定められたペン置きから離れたこと(ファシリテーター321が操作するためにペンを持ち上げたこと)、そしてペンの先端の位置(ペン先端が共有画面用端末200yに触れたこと等)を検知することによって、台紙、子台紙、付箋に対する操作を受け付ける。例えば、ペン置きにセンサー(ペンの重力でスイッチがオンオフとなるセンサー等)を設け、複数のペン(黒色のペン、赤色のペン、青色のペン等)のうち、どのペンが用いられているかを検知すればよい。また、共有画面用端末200yの表示画面全体がタッチセンサーであり、表示画面に触れられた位置、圧力を検知すればよい。本例では、ペンのオンオフはペン置きによって制御するが、必ずしもペン置きがある必要はない。ペン側で直接オンオフを制御できるようにしても構わない。色の変更に関してもペン置きを必要とせずに、表示画面上の一部分にカラーパレットを用意しておき、目的の色をペン(又は、それに類するもの)がタッチすることで色を変更したり、ペンに色を変える指示をするための機能(ボタンやスライダ等)が備わっていたりしても構わない。
また、共有画面用端末200は、図3(b)の例に示すような電子ボードであってもよい。電子ボードは、一般的に大画面の表示装置(少なくとも、電子付箋端末250の表示装置よりも大きい)を有しており、その表示装置はタッチパネルであり、表示画面に触れられた位置、圧力を検知する。例えば、画面として、80インチ等の大きさを備えたものであってもよい。
図7は、本実施の形態による処理例を示すフローチャートである。
ステップS702では、付箋生成開始検知モジュール105は、付箋生成開始を検知する。例えば、付箋生成開始ボタンの押下を検知する。図8(a)の例に示すように、付箋記載画面800に対して、ユーザーがペン850を用いて手書きを行う。例えば、文字、図形が手書きされる。そして、その手書きしているときに、ユーザーは、音声を発声する。この音声は、説明用の音声(説明しながら付箋を作成する場合)、又は、独り言の音声であってもよい。ステップS704、S706の処理と、ステップS708、S710の処理は、並行して行われる。
ステップS704では、手書情報受付モジュール120は、手書情報を受け付ける。
ステップS706では、文字認識モジュール130は、文字認識を行う。
ステップS708では、音声情報受付モジュール125は、音声情報を受け付ける。
ステップS710では、音声認識モジュール135は、音声認識を行う。
ステップS712では、対応付モジュール140は、文字認識結果と音声認識結果を対応付ける。図9の例を用いて説明する。図9は、付箋が生成される過程を示している。
ユーザーによって、音声950の発声が行われながら、手書文字910が生成される。
付箋作成開始時912の後に、記入開始時914があり、手書文字910が生成され、記入終了時916があり、付箋作成終了時920に付箋が生成される。手書情報取得期間918は、記入開始時914から記入終了時916までである。対応付音声情報取得期間952は、付箋作成開始時912から付箋作成終了時920までである。対応付音声情報取得期間952には、少なくとも、手書情報取得期間918を含むようにすればよい。
手書文字910の認識結果、音声950の認識結果には、それぞれ日時情報が付加されているので(手書認識結果テーブル400の開始日時欄410と終了日時欄415、音声認識結果テーブル500の開始日時欄510と終了日時欄515)、その日時情報が一致するように、手書文字910と音声950の認識結果を対応付ける。なお、ここでの「一致」として、日時情報で厳密に対応付けるようにしてもよいが、一般的には、手書文字910が書かれている時点と、音声950が発生されている時点とがずれる場合もあるので、手書文字910の認識結果の日時に対して、予め定められた範囲の期間内における音声950の認識結果を対応付けるようにしてもよい。
ステップS714では、文字認識結果修正モジュール145は、音声認識結果を用いて文字認識結果を修正する。例えば、文字認識結果として「0(数字のゼロ)」、「O(英字のオー)」は、ほとんど区別がつかない。つまり、確信度が低くなる、又は、両者の確信度の差分が小さくなる。しかし、音声では「オーケー」と発音されているので、「O(英字のオー)」と音声認識される。この音声認識結果を用いて、文字認識結果を「O(英字のオー)」に確定する。具体的には、後述する図13又は図14の例に示すような修正処理を行う。
ステップS716では、付箋生成モジュール150は、音声認識結果をメタ情報として付与する。ここでの「メタ情報の付与」は、具体的には、図6の例で示した付箋情報テーブル600の作成時音声認識結果データ欄632に音声認識結果を記憶させることである。
ステップS718では、付箋生成モジュール150は、付箋を生成する。
この処理が終了した後の付箋記載画面800の表示例として、図8(b)のようになる。つまり、文字認識提示領域820にステップS714の処理結果を表示する。。
付箋記載画面800には、文字認識提示領域820、図形提示領域825を表示する。文字認識提示領域820には、ステップS714での処理結果である「おいうえOK」と表示し、図形提示領域825には、文字認識することができなかった図形を表示する。具体的には、文字認識の確信度が予め定められた閾値よりも低いストロークデータであって、音声認識結果を用いても修正できなかった場合のストロークデータである。なお、手書きされた位置と同じ場所になるように、文字認識結果を表示する。
図10は、本実施の形態による処理例を示すフローチャートである。
ステップS1002では、付箋操作検知モジュール155は、付箋に対する操作を検知する。例えば、付箋の選択操作、拡大表示操作等を検知する。
ステップS1004では、音声情報受付モジュール125は、音声情報を受け付ける。
ステップS1006では、音声認識モジュール135は、音声認識を行う。
ステップS1008では、対応付モジュール140は、文字認識結果と音声認識結果を対応付ける。なお、ここでの対応付けは、手書きが発生しているわけではないので、対象としている付箋における文字認識結果と音声認識結果(ステップS1006での音声認識結果)を対応付けるだけである。ただし、付箋内の文字をそのまま読み上げることが多いので、文字認識結果内の順番と音声認識結果内の順番を対応付ける。図11の例は、付箋が説明される場合の過程を示している。
付箋操作1110として、操作開始時1112の後に操作終了時1120がある。そこで、対象となる音声1150の期間は、操作開始時1112から操作終了時1120までの対応付音声情報取得期間1152である。
ステップS1010では、文字認識結果修正モジュール145は、音声認識結果を用いて文字認識結果を修正する。例えば、後述する図14の例に示すような修正処理を行う。
ステップS1012では、付箋生成モジュール150は、音声認識結果をメタ情報として付与する。
ステップS1014では、付箋生成モジュール150は、付箋を修正する。
図12は、本実施の形態による処理例を示すフローチャートである。図10の例に示した処理(付箋の説明時における音声を用いた処理)における音声を取得するマイクの制御処理例を示すものである。
ステップS1202では、共有画面用端末200で操作された付箋の付箋IDを抽出する。
ステップS1204では、その共有画面用端末200のマイク205をONにする。つまり、共有画面用端末200のファシリテーターが、その付箋を説明する場合に対応するためである。
ステップS1206では、その付箋IDの付箋を作成したユーザーを抽出する。
ステップS1208では、そのユーザーが利用している電子付箋端末250のマイク255をONにする。つまり、付箋の作成者が、その付箋を説明する場合に対応するためである。
付箋の作成者が説明することが定められている会合では、ステップS1204の処理を省略してもよい。ファシリテーターが説明することが定められている会合では、ステップS1206、S1208の処理を省略してもよい。会合の最初に、誰が付箋を説明するかについての規則を設定するようにし、その設定にしたがって、図12の例に示す処理(ステップS1204の処理を省略、又は、ステップS1206、S1208の処理を省略)を行うようにしてもよい。
図13は、本実施の形態による処理例を示すフローチャートである。音声認識結果を用いて文字認識結果を修正する処理例を示すものである。図7の例に示した処理で行われる。
ステップS1302では、「手書き文字の認識結果1の確信度1<閾値A」であるか否かを判断し、「手書き文字の認識結果1の確信度1<閾値A」の場合はステップS1304へ進み、それ以外の場合は処理を終了する(ステップS1399)。なお、確信度1と確信度2との差分が予め定められた値未満である場合は、ステップS1308へ進み、それ以外の場合はステップS1312へ進むようにしてもよい。
ステップS1304では、手書きが行われた日時に対応する日時の音声の認識結果を抽出する。
ステップS1306では、「その音声の認識結果1の確信度1<閾値B」であるか否かを判断し、「その音声の認識結果1の確信度1<閾値B」の場合はステップS1308へ進み、それ以外の場合はステップS1312へ進む。なお、閾値Aと閾値Bとは、同じ値であってもよいし、異なる値であってもよい。
ステップS1308では、ユーザーに修正を促す。つまり、文字認識結果、音声認識結果の両方が不正解の確率が高いからである。なお、修正候補として、文字認識結果又は音声認識結果を選択可能に表示してもよい。
ステップS1310では、ユーザーの修正操作にしたがって、手書き文字の認識結果を修正する。
ステップS1312では、手書き文字の認識結果を音声の認識結果に修正する。つまり、文字認識結果よりも音声認識結果の方が信頼できる場合であるからである。
図14は、本実施の形態による処理例を示すフローチャートである。音声認識結果を用いて文字認識結果を修正する処理例を示すものである。図7、図10の例に示した処理で行われる。
ステップS1402では、「手書き文字の認識結果1の確信度1<閾値A」であるか否かを判断し、「手書き文字の認識結果1の確信度1<閾値A」の場合はステップS1404へ進み、それ以外の場合は処理を終了する(ステップS1499)。
ステップS1404では、対象としている手書き文字の前後の文字認識結果を抽出する。
ステップS1406では、音声認識結果内に、抽出した文字の組み合わせはあるか否かを判断し、ある場合はステップS1408へ進み、それ以外の場合は処理を終了する(ステップS1499)。
ステップS1408では、手書き文字の認識結果を音声の認識結果に修正する。
例えば、対象としている手書き文字の認識結果が「X」(「X」の確信度が閾値A未満)であり、その前の文字が「A」であり、その後の文字が「B」である場合、「A」「任意の1文字」「B」の文字列(正規表現で記載した場合は「A?B」)が、音声認識結果内にあるかを検索すればよい。
そして、ある場合は、ステップS1408で、手書き文字の認識結果である「X」を、音声認識結果内の「A」と「B」に囲まれた文字に修正する。
なお、前後の文字を1文字としたが、複数文字であってもよい。また、修正対象である文字を1文字としたが、複数文字であってもよい。また、形態素解析等の文法処理を行って修正を行うようにしてもよい。
なお、本実施の形態としてのプログラムが実行されるコンピュータのハードウェア構成は、図15に例示するように、一般的なコンピュータであり、具体的にはパーソナルコンピュータ、サーバーとなり得るコンピュータ等である。つまり、具体例として、処理部(演算部)としてCPU1501を用い、記憶装置としてRAM1502、ROM1503、HD1504を用いている。HD1504として、例えばハードディスク、SSD(Solid State Drive)を用いてもよい。付箋生成開始検知モジュール105、付箋情報受付モジュール110、文字認識モジュール130、音声認識モジュール135、対応付モジュール140、文字認識結果修正モジュール145、付箋生成モジュール150、付箋操作検知モジュール155等のプログラムを実行するCPU1501と、そのプログラムやデータを記憶するRAM1502と、本コンピュータを起動するためのプログラム等が格納されているROM1503と、文字認識モジュール130による認識結果、音声認識モジュール135による認識結果、手書認識結果テーブル400、音声認識結果テーブル500、付箋情報テーブル600等を記憶している補助記憶装置(フラッシュ・メモリ等であってもよい)であるHD1504と、キーボード、マウス、タッチスクリーン、マイク、カメラ(視線検知カメラ等を含む)等に対する利用者の操作(動作、音声、視線等を含む)に基づいてデータを受け付ける受付装置1506と、CRT、液晶ディスプレイ、スピーカー等の出力装置1505と、ネットワークインタフェースカード等の通信ネットワークと接続するための通信回線インタフェース1507、そして、それらをつないでデータのやりとりをするためのバス1508により構成されている。これらのコンピュータが複数台互いにネットワークによって接続されていてもよい。
前述の実施の形態のうち、コンピュータ・プログラムによるものについては、本ハードウェア構成のシステムにソフトウェアであるコンピュータ・プログラムを読み込ませ、ソフトウェアとハードウェア資源とが協働して、前述の実施の形態が実現される。
なお、図15に示すハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図15に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続している形態でもよく、さらに図15に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、特に、パーソナルコンピュータの他、携帯情報通信機器(携帯電話、スマートフォン、モバイル機器、ウェアラブルコンピュータ等を含む)、情報家電、ロボット、複写機、ファックス、スキャナ、プリンタ、複合機(スキャナ、プリンタ、複写機、ファックス等のいずれか2つ以上の機能を有している画像処理装置)などに組み込まれていてもよい。
また、前述の実施の形態の説明内での比較処理において、「以上」、「以下」、「より大きい」、「より小さい(未満)」としたものは、その組み合わせに矛盾が生じない限り、それぞれ「より大きい」、「より小さい(未満)」、「以上」、「以下」としてもよい。
なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通等のために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD-R、DVD-RW、DVD-RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD-ROM)、CDレコーダブル(CD-R)、CDリライタブル(CD-RW)等、ブルーレイ・ディスク(Blu-ray(登録商標) Disc)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digital)メモリーカード等が含まれる。
そして、前記のプログラムの全体又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、又は無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分若しくは全部であってもよく、又は別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して記録されていてもよい。また、圧縮や暗号化等、復元可能であればどのような態様で記録されていてもよい。
100…付箋生成装置
105…付箋生成開始検知モジュール
110…付箋情報受付モジュール
115…テキストデータ受付モジュール
120…手書情報受付モジュール
125…音声情報受付モジュール
130…文字認識モジュール
135…音声認識モジュール
140…対応付モジュール
145…文字認識結果修正モジュール
150…付箋生成モジュール
155…付箋操作検知モジュール
200…共有画面用端末
205、255…マイク
250…電子付箋端末
280…会議室
294…台紙・付箋等情報記憶装置
298、299…通信回線

Claims (10)

  1. 台紙に貼り付けることができる付箋の作成にあたって手書きされた文字を認識する文字認識手段と、
    共有画面用端末で操作された付箋の識別子に基づき、当該識別子の付箋を作成したユーザーが利用している電子付箋端末のマイクによって取得された音声を認識する音声認識手段と、
    前記音声認識手段の認識結果を用いて、前記文字認識手段による認識結果を修正する修正手段
    を有する情報処理装置。
  2. 前記音声認識手段は、前記付箋にかかわる音声を認識する、
    請求項1に記載の情報処理装置。
  3. 前記音声認識手段は、前記付箋について前記文字認識手段の対象となっている文字が手書きされている間における音声を認識対象とする、
    請求項2に記載の情報処理装置。
  4. 前記音声認識手段は、前記付箋を作成している操作者の音声を認識対象とする、
    請求項3に記載の情報処理装置。
  5. 前記音声認識手段は、前記付箋が操作されている間における音声を認識対象とする、
    請求項2に記載の情報処理装置。
  6. 前記音声認識手段は、前記付箋がファシリテーター又は該付箋の作成者によって操作されている間における音声を認識対象とする、
    請求項5に記載の情報処理装置。
  7. 前記音声認識手段の認識結果を前記付箋のメタ情報として付加する付加手段
    をさらに有する請求項1に記載の情報処理装置。
  8. 前記付加手段は、前記付箋に手書きされた図形を前記メタ情報として付加する、
    請求項7に記載の情報処理装置。
  9. 前記付加手段は、前記文字認識手段によって認識できなかった手書き部分を前記図形とする、
    請求項8に記載の情報処理装置。
  10. コンピュータを、
    台紙に貼り付けることができる付箋の作成にあたって手書きされた文字を認識する文字認識手段と、
    共有画面用端末で操作された付箋の識別子に基づき、当該識別子の付箋を作成したユーザーが利用している電子付箋端末のマイクによって取得された音声を認識する音声認識手段と、
    前記音声認識手段の認識結果を用いて、前記文字認識手段による認識結果を修正する修正手段
    として機能させるための情報処理プログラム。
JP2017200107A 2017-10-16 2017-10-16 情報処理装置及び情報処理プログラム Active JP7069631B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017200107A JP7069631B2 (ja) 2017-10-16 2017-10-16 情報処理装置及び情報処理プログラム
CN201810709087.8A CN109685049A (zh) 2017-10-16 2018-07-02 信息处理装置
US16/153,840 US11030473B2 (en) 2017-10-16 2018-10-08 Information processing apparatus and non-transitory computer readable medium storing information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017200107A JP7069631B2 (ja) 2017-10-16 2017-10-16 情報処理装置及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2019074898A JP2019074898A (ja) 2019-05-16
JP7069631B2 true JP7069631B2 (ja) 2022-05-18

Family

ID=66097511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017200107A Active JP7069631B2 (ja) 2017-10-16 2017-10-16 情報処理装置及び情報処理プログラム

Country Status (3)

Country Link
US (1) US11030473B2 (ja)
JP (1) JP7069631B2 (ja)
CN (1) CN109685049A (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306044A (ja) 1999-04-21 2000-11-02 Canon Inc 画像認識装置及びその制御方法及びコンピュータ読み取り可能な記憶媒体
JP2002259908A (ja) 2000-12-28 2002-09-13 Brother Ind Ltd 筆記データ処理システム、筆記データ処理サーバ及び筆記データ処理装置
JP2004046388A (ja) 2002-07-10 2004-02-12 Hitachi Ltd 情報処理システムおよび文字修正方法
JP2005258577A (ja) 2004-03-09 2005-09-22 Olympus Corp 文字入力装置、文字入力方法、文字入力プログラム及び記録媒体
JP2007048177A (ja) 2005-08-12 2007-02-22 Canon Inc 情報処理方法及び情報処理装置
JP2015090607A (ja) 2013-11-06 2015-05-11 キヤノン株式会社 電子付箋会議端末およびその制御方法、電子付箋会議端末プログラム、並びに記憶媒体
JP2017091328A (ja) 2015-11-13 2017-05-25 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR950005533B1 (ko) * 1993-02-26 1995-05-25 주식회사금성사 온라인 문자인식 시스템
JPH0896071A (ja) * 1994-09-26 1996-04-12 Hitachi Software Eng Co Ltd ファクシミリ受信システム
US6567548B2 (en) * 1999-01-29 2003-05-20 International Business Machines Corporation Handwriting recognition system and method using compound characters for improved recognition accuracy
US7149689B2 (en) * 2003-01-30 2006-12-12 Hewlett-Packard Development Company, Lp. Two-engine speech recognition
US20040186813A1 (en) * 2003-02-26 2004-09-23 Tedesco Daniel E. Image analysis method and apparatus in a network that is structured with multiple layers and differentially weighted neurons
US7213766B2 (en) * 2003-11-17 2007-05-08 Dpd Patent Trust Ltd Multi-interface compact personal token apparatus and methods of use
JP2005173811A (ja) * 2003-12-09 2005-06-30 Fuji Xerox Co Ltd データ管理システムおよびその方法
JP4150923B2 (ja) * 2003-12-09 2008-09-17 富士ゼロックス株式会社 データ出力システムおよびその方法
JP4753842B2 (ja) 2006-11-13 2011-08-24 株式会社日立製作所 アイデア抽出支援システム及び方法
US8793756B2 (en) * 2006-12-20 2014-07-29 Dst Technologies, Inc. Secure processing of secure information in a non-secure environment
CN101315666A (zh) * 2008-07-11 2008-12-03 中国科学院软件研究所 一种基于语音的多通道手写中文纠错方法
KR20100010396A (ko) * 2008-07-22 2010-02-01 조근우 터치스크린상의 문자입력장치 및 필기인식시스템
JP5489118B2 (ja) * 2010-01-28 2014-05-14 健治 吉田 入出力装置、情報入出力システム
US9652452B2 (en) * 2012-01-06 2017-05-16 Yactraq Online Inc. Method and system for constructing a language model
CA2873240C (en) * 2012-05-16 2020-11-17 Xtreme Interactions Inc. System, device and method for processing interlaced multimodal user input
JP2014241005A (ja) * 2013-06-11 2014-12-25 株式会社東芝 表示制御装置、表示制御方法、及び表示制御プログラム
US20150213393A1 (en) * 2014-01-27 2015-07-30 Xerox Corporation Methods and systems for presenting task information to crowdworkers
US9710769B2 (en) * 2014-04-01 2017-07-18 Conduent Business Services, Llc Methods and systems for crowdsourcing a task
US10073673B2 (en) * 2014-07-14 2018-09-11 Samsung Electronics Co., Ltd. Method and system for robust tagging of named entities in the presence of source or translation errors
CN107078917B (zh) * 2014-12-17 2021-03-19 惠普发展公司,有限责任合伙企业 托管电话会议
CN105988567B (zh) * 2015-02-12 2023-03-28 北京三星通信技术研究有限公司 手写信息的识别方法和装置
US20160342911A1 (en) * 2015-05-19 2016-11-24 24/7 Customer, Inc. Method and system for effecting customer value based customer interaction management
CN107220228B (zh) * 2017-06-13 2019-08-16 深圳市鹰硕技术有限公司 一种教学录播数据修正装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306044A (ja) 1999-04-21 2000-11-02 Canon Inc 画像認識装置及びその制御方法及びコンピュータ読み取り可能な記憶媒体
JP2002259908A (ja) 2000-12-28 2002-09-13 Brother Ind Ltd 筆記データ処理システム、筆記データ処理サーバ及び筆記データ処理装置
JP2004046388A (ja) 2002-07-10 2004-02-12 Hitachi Ltd 情報処理システムおよび文字修正方法
JP2005258577A (ja) 2004-03-09 2005-09-22 Olympus Corp 文字入力装置、文字入力方法、文字入力プログラム及び記録媒体
JP2007048177A (ja) 2005-08-12 2007-02-22 Canon Inc 情報処理方法及び情報処理装置
JP2015090607A (ja) 2013-11-06 2015-05-11 キヤノン株式会社 電子付箋会議端末およびその制御方法、電子付箋会議端末プログラム、並びに記憶媒体
JP2017091328A (ja) 2015-11-13 2017-05-25 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Also Published As

Publication number Publication date
US11030473B2 (en) 2021-06-08
US20190114503A1 (en) 2019-04-18
JP2019074898A (ja) 2019-05-16
CN109685049A (zh) 2019-04-26

Similar Documents

Publication Publication Date Title
US20180246569A1 (en) Information processing apparatus and method and non-transitory computer readable medium
US20140351718A1 (en) Information processing device, information processing method, and computer-readable medium
US9298335B2 (en) Information processing device, information processing method, and computer-readable medium
US10176158B2 (en) Information processing apparatus
US20170132189A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US9940512B2 (en) Digital image processing apparatus and system and control method thereof
US20200089332A1 (en) Information processing apparatus and non-transitory computer readable medium
JP6759552B2 (ja) 情報処理装置及び情報処理プログラム
CN109491570B (zh) 速记方法、移动终端及存储介质
US20170269821A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
KR101477642B1 (ko) 오프라인 노트를 이용한 전자책 서비스 방법
JP7069631B2 (ja) 情報処理装置及び情報処理プログラム
JP7027757B2 (ja) 情報処理装置及び情報処理プログラム
CN110537164A (zh) 用于内容创建应用的增强的上墨能力
US10768802B1 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
JP7139608B2 (ja) 情報処理装置及び情報処理プログラム
US20190095637A1 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
JP6780392B2 (ja) 情報処理装置及び情報処理プログラム
US20200272289A1 (en) Information processing apparatus and non-transitory computer readable medium
JP6880955B2 (ja) 情報処理装置及び情報処理プログラム
US10802675B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
US11256399B2 (en) Information processing apparatus and non-transitory computer readable medium
JP6586857B2 (ja) 情報処理装置及び情報処理プログラム
JP6907610B2 (ja) 情報処理装置及び情報処理プログラム
JP6384222B2 (ja) 情報処理装置及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220418

R150 Certificate of patent or registration of utility model

Ref document number: 7069631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150