JP2018142059A - 情報処理装置及び情報処理プログラム - Google Patents

情報処理装置及び情報処理プログラム Download PDF

Info

Publication number
JP2018142059A
JP2018142059A JP2017034490A JP2017034490A JP2018142059A JP 2018142059 A JP2018142059 A JP 2018142059A JP 2017034490 A JP2017034490 A JP 2017034490A JP 2017034490 A JP2017034490 A JP 2017034490A JP 2018142059 A JP2018142059 A JP 2018142059A
Authority
JP
Japan
Prior art keywords
document
annotation
module
sight
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017034490A
Other languages
English (en)
Other versions
JP6828508B2 (ja
Inventor
貴将 荒川
Takamasa Arakawa
貴将 荒川
家豪 戴
Chi-Hao Dai
家豪 戴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017034490A priority Critical patent/JP6828508B2/ja
Priority to US15/688,248 priority patent/US20180246569A1/en
Publication of JP2018142059A publication Critical patent/JP2018142059A/ja
Application granted granted Critical
Publication of JP6828508B2 publication Critical patent/JP6828508B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】文書内の添付位置を利用者が明示的に指示することなしに注釈を生成することができる情報処理装置を提供する。
【解決手段】情報処理装置の対応付け手段は、文書を閲覧している利用者の該文書内の視線の位置と該視線の位置での音声を対応付け、生成手段は、前記音声を内容とし、該音声に対応する前記視線の位置に添付する注釈を生成する。
【選択図】図1

Description

本発明は、情報処理装置及び情報処理プログラムに関する。
特許文献1には、電子マニュアル等の電子ページの原型をそのまま残しつつ、各利用者に対応した個別の付箋情報、及び、利用者に全員に示すための共有の付箋情報を電子ページ上に表示することが可能な電子付箋装置、電子付箋貼付方法及び電子付箋プログラムが記録された記録媒体を提供することを課題とし、サーバー側に設けられた利用者登録情報記憶手段と、オリジナル電子ページ記憶手段と、サーバーやクライアント側から入力された利用者情報に基づいて利用者を確認する確認手段と、利用者別の付箋情報を記憶する個別付箋情報記憶手段と、利用者全員が共有すべき付箋情報を記憶する共有付箋情報記憶手段とをサーバー側に設け前記利用者に対応し、前記電子ページに対応する共有付箋情報と前記個別付箋情報を示す電子付箋ウインドウを前記電子ページの表示画面上の所定の位置に重ねて表示することが開示されている。
特許文献2には、本人あるいは第3者が作成した文章に対し、特定の文章の位置に対応したコメントを音声で記録し、さらに再生することを課題とし、文章を表す文字のコード列を記憶した文章記憶手段と、前記文章記憶手段に記憶された特定の文章を指定する指定手段と、マイクから入力される音声を符号化して指定された文章と対応付けて記憶するコメント記憶手段と、前記文章記憶手段に記憶された文章と対応付けて、前記コメント記憶手段から読み出した音声符号化データを再生するコメント再生手段とを備えたことが開示されている。
特許文献3には、発光素子と複数の受光素子とを有し眼球の水平位置を検出する水平位置検出手段と、発光素子と複数の受光素子とを有し前記眼球の垂直位置を検出する垂直位置検出手段と、前記水平位置検出手段の発光素子と前記垂直位置検出手段の発光素子を交互に駆動する駆動手段とを備えたことが開示されている。
特許文献4には、操作対象となる情報群であって情報操作者の発話により特定される表示情報を含む前記情報群を視覚的に表示するための映像表示手段と、前記映像表示手段における情報操作者の発話時の注視位置を推定する視点解析手段と、前記映像表示手段の表示位置を特定する前記情報操作者の発話及び前記映像表示手段の表示情報を特定する発話を認識する音声認識手段と、前記視点解析手段の解析により推定した情報操作者の発話時の注視位置と、前記音声認識手段により認識した発話内容とに基づいて、情報操作者の指示内容を判断するとともに、前記音声認識手段の認識した発話内容に対応する表示情報の候補が複数抽出された場合には、現在表示されている情報を含む表示情報を記憶する表示情報データベースに記憶され且つ現在表示されている表示情報であって注視位置に近い表示情報を情報操作者の指示内容であると判断し、前記視点解析手段の推定した注視位置に対応する発話内容の候補が複数抽出された場合には注視位置の表示情報に整合する発話内容を情報操作者の発話内容であると判断し、前記指示内容と前記発話内容との整合の検証をして実行する操作を判断する指示内容推論手段と、前記指示内容推論手段により判断された情報操作者の指示内容の操作を実行する指示操作実行手段と、を備えたことが開示されている。
特開2002−108897号公報 特開2010−140506号公報 特開平01−160527号公報 特許第3689285号公報
文書に注釈を付加することが行われている。この注釈の作成方法として、利用者がキーボードを用いて生成することが行われている。また、キーボード利用の煩雑さを解消するために、特許文献に記載の技術では、音声の注釈を生成することも行われている。しかし、文書内のどこの位置に注釈を添付するかについては、利用者が指示する必要がある。
本発明は、文書内の添付位置を利用者が明示的に指示することなしに注釈を生成することができる情報処理装置及び情報処理プログラムを提供することを目的としている。
かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
請求項1の発明は、文書を閲覧している利用者の該文書内の視線の位置と該視線の位置での音声を対応付ける対応付け手段と、前記音声を内容とし、該音声に対応する前記視線の位置に添付する注釈を生成する生成手段を有する情報処理装置である。
請求項2の発明は、前記生成手段は、前記視線の位置にあるオブジェクトに対して、前記音声を内容とする注釈を添付する、請求項1に記載の情報処理装置である。
請求項3の発明は、前記生成手段は、前記音声の認識結果を内容として含む注釈を生成する、請求項2に記載の情報処理装置である。
請求項4の発明は、前記生成手段は、前記認識結果内に予め定められた単語が含まれる場合は、該単語を変更する、請求項3に記載の情報処理装置である。
請求項5の発明は、前記生成手段は、前記視線の位置の時系列的変化が判別できる注釈を生成する、請求項1から4のいずれか1項に記載の情報処理装置である。
請求項6の発明は、前記生成手段は、前記視線の位置以外の箇所に、非注目箇所であることを意味する注釈を生成する、請求項1に記載の情報処理装置である。
請求項7の発明は、前記生成手段は、前記視線の位置以外の箇所にあるオブジェクトに対して、前記注釈を添付する、請求項6に記載の情報処理装置である。
請求項8の発明は、コンピュータを、文書を閲覧している利用者の該文書内の視線の位置と該視線の位置での音声を対応付ける対応付け手段と、前記音声を内容とし、該音声に対応する前記視線の位置に添付する注釈を生成する生成手段として機能させるための情報処理プログラムである。
請求項1の情報処理装置によれば、文書内の添付位置を利用者が明示的に指示することなしに注釈を生成することができる。
請求項2の情報処理装置によれば、単に視線の位置に注釈を添付する場合は空白領域に対して注釈を添付してしまうことがある場合に比べて、注釈対象を明確にすることができる。
請求項3の情報処理装置によれば、音声の認識結果を含む注釈を生成することができる。
請求項4の情報処理装置によれば、認識結果内の予め定められた単語を変更することができる。
請求項5の情報処理装置によれば、視線の位置の時系列的変化が判別できる注釈を生成することができる。
請求項6の情報処理装置によれば、視線の位置以外の箇所に、非注目箇所であることを意味する注釈を生成することができる。
請求項7の情報処理装置によれば、単に視線の位置以外の箇所に注釈を添付する技術では空白領域に対して注釈を添付することがある場合に比べて、注釈対象を明確にすることができる。
請求項8の情報処理プログラムによれば、文書内の添付位置を利用者が明示的に指示することなしに注釈を生成することができる。
本実施の形態(アノテーション生成処理装置)の構成例についての概念的なモジュール構成図である。 本実施の形態(文書出力装置)の構成例についての概念的なモジュール構成図である。 本実施の形態を利用したシステム構成例を示す説明図である。 本実施の形態による処理例を示すフローチャートである。 視線情報テーブルのデータ構造例を示す説明図である。 つぶやき情報テーブルのデータ構造例を示す説明図である。 アノテーション情報テーブルのデータ構造例を示す説明図である。 文書内オブジェクト表示位置情報テーブルのデータ構造例を示す説明図である。 本実施の形態による処理例を示すフローチャートである。 本実施の形態による処理例を示す説明図である。 アノテーション情報テーブルのデータ構造例を示す説明図である。 本実施の形態による処理例を示す説明図である。 本実施の形態を実現するコンピュータのハードウェア構成例を示すブロック図である。
以下、図面に基づき本発明を実現するにあたっての好適な一実施の形態の例を説明する。
図1は、本実施の形態(アノテーション生成処理装置100)の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するという意味である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態にしたがって、又はそれまでの状況・状態にしたがって定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(もちろんのことながら、全ての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。また、「A、B、C」等のように事物を列挙した場合は、断りがない限り例示列挙であり、その1つのみを選んでいる場合(例えば、Aのみ)を含む。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスク、RAM(Random Access Memory)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unit)内のレジスタ等を含んでいてもよい。
本実施の形態であるアノテーション生成処理装置100は、文書に注釈を添付するものであって、図1の例に示すように、マイク105、音声録音モジュール110、視線検知モジュール115、注目箇所捕捉モジュール120、文書内注目位置・音声対応付モジュール130、非注目箇所捕捉モジュール140、アノテーション生成モジュール150、アノテーション記憶モジュール160、文書記憶モジュール170、文書表示モジュール180、表示装置185を有している。なお、「注釈」とは、アノテーションとも言われており、文書に付加される情報であり、付箋、アンダーライン、注等の形式によって文書上に注釈が付加されていることが表示される。特に、文書に対して、視点と音声によるアノテーション付けに関する技術である。また、文書(電子文書、ファイル等とも言われる)とは、テキストデータ、数値データ、図形データ、画像データ、動画データ、音声データ等、又はこれらの組み合わせであり、記憶、編集及び検索等の対象となり、システム又は利用者間で個別の単位として交換できるものをいい、これらに類似するものを含む。具体的には、文書作成プログラムによって作成された文書、画像読取装置(スキャナ等)で読み込まれた画像、Webページ等を含む。
一般的に、文書にアノテーションを添付する際、「そのアノテーションを付与する箇所の指定」と「そのアノテーション内のコメントのテキスト入力」が必要となるが、ユーザーに労力を課することになる。
アノテーション生成処理装置100は、例えば、文書を閲覧している利用者(以下、ユーザーともいう)の視線(視点を含む)を、ヘッドマウントディスプレイ等のデバイスで捕捉し、ユーザーが文書に対して喋った指摘内容を、そのときの文書の注目箇所と紐付けて、アノテーションとして保存する。
マイク105は、音声録音モジュール110と接続されている。マイク105は、文書を閲覧しているユーザーの音声を受け付け、デジタルである音声情報に変換し、その音声情報を音声録音モジュール110に渡す。例えば、PCマイク(PCに内蔵されているマイク)等であってもよい。
音声録音モジュール110は、マイク105、文書内注目位置・音声対応付モジュール130と接続されている。音声録音モジュール110は、音声情報をハードディスク等の記憶手段に記憶させる。その際に、音声が発生した日時(年、月、日、時、分、秒、秒以下、又はこれらの組み合わせであってもよい)とともに記憶させるようにしてもよい。音声を注釈として記録することによって、文書に対する直感的な感想をありのままに記録できるようになる。
視線検知モジュール115は、注目箇所捕捉モジュール120と接続されている。視線検知モジュール115は、カメラ、ヘッドマウントディスプレイ等によって、文書を閲覧しているユーザーの視線を検知する。既に知られている視線検知技術を用いればよい。例えば、基準点を目頭、動点を虹彩にして位置関係を使って視線の位置を検出してもよい。ここでの位置とは、表示装置185によって表示されている文書上での位置である。例えば、文書上でのXY座標等によって表される。
注目箇所捕捉モジュール120は、視線検知モジュール115、文書内注目位置・音声対応付モジュール130、非注目箇所捕捉モジュール140と接続されている。注目箇所捕捉モジュール120は、表示装置185に表示されている文書上での視線位置をハードディスク等の記憶手段に記憶させる。その際に、視線位置を日時とともに記憶させるようにしてもよい。ユーザーが注目している箇所を特定する方法については、前述の特許文献3、特許文献4等に記載された技術を利用してもよい。
文書内注目位置・音声対応付モジュール130は、音声録音モジュール110、注目箇所捕捉モジュール120、アノテーション生成モジュール150と接続されている。文書内注目位置・音声対応付モジュール130は、文書を閲覧しているユーザーのその文書内の視線の位置とその視線の位置での音声を対応付ける。具体的には、日時が同じである視線の位置と音声を対応付ければよい。ただし、ここでの「日時が同じ」には、完全一致の場合の他に、予め定められた差異以内である場合も含む。原則として、文書上の対応箇所を見ながら音声を発しているが、その対応箇所とは違う箇所を見ながら音声を発する場合もあるからである。例えば、音声発声の最初においては、その日時における視線の位置を対応付けるが、その後の予め定められた期間は、視線の位置が動いたとしても、音声発声の最初において対応付けられた日時における視線の位置を、対応付けるようにしてもよい。例えば、文書のタイトルを見ながら音声発声が開始され、その後に著作者名等の位置に視線が移ったとしても、予め定められた期間分の、続いている音声をタイトルの位置に対応付けるようにしてもよい。また、視線の位置が、文書内のオブジェクト上にない場合(例えば、空白の領域内に視線の位置がある場合)は、その予め定められた期間を延長するようにしてもよい。例えば、文書のタイトルを見ながら音声発声が開始され、その後に空白領域の位置に視線が移ったとしても、予め定められた期間を越えていたとしても、次のオブジェクトに視線が移っていない場合は、続いている音声をタイトルの位置に対応付けるようにしてもよい。この場合、次のオブジェクトに視線が移ったことが検知された時点で、最初の音声の対応付けは終了し、次のオブジェクトと次の音声との対応付けが開始されることになる。
非注目箇所捕捉モジュール140は、注目箇所捕捉モジュール120、アノテーション生成モジュール150と接続されている。非注目箇所捕捉モジュール140は、文書の閲覧が終了した時点で、非注目箇所を抽出する。ここで「文書の閲覧が終了した時点」とは、例えば、ユーザーによって閲覧が終了したことを明示的に示す操作が行われたことを検知したとき、文書を閉じる等の操作を検知したとき等が該当する。また「非注目箇所」とは、文書上で、視線の位置がない領域の他、視線の位置の滞在期間が予め定められた期間よりも短い領域を含めてもよい。
アノテーション生成モジュール150は、文書内注目位置・音声対応付モジュール130、非注目箇所捕捉モジュール140、アノテーション記憶モジュール160と接続されている。アノテーション生成モジュール150は、文書内注目位置・音声対応付モジュール130によって対応付けされた音声を内容とし、その音声に対応する視線の位置に添付する注釈を生成する。文書に音声を注釈として付与することによって、文書の原本を残しつつ、メモ、コメント等を記録できるようになる。そして、注釈付きの文書を閲覧した場合、ユーザーが発した音声と、ユーザーの注目箇所(文書内の位置)を紐付けているので、文書内におけるユーザーの注目箇所と、そこに対するユーザーの指摘や感想がわかるようになる。
また、アノテーション生成モジュール150は、視線の位置にあるオブジェクトに対して、音声を内容とする注釈を添付するようにしてもよい。ここで「オブジェクト」とは、文書の構成物であって、例えば、文字列(1字以上の文字列)、表、図形、写真等が該当する。文字列として、タイトル、章、節等を含めてもよい。また、オブジェクトは、タブ等によって構成物を区別する構造化文書を用いて抽出してもよいし、表示装置185に表示されている文書(特に、スキャナ等によって読み込まれた文書画像)の構造を認識して抽出してもよい。
また、アノテーション生成モジュール150は、音声の認識結果を内容として含む注釈を生成するようにしてもよい。その場合、アノテーション生成モジュール150内に音声認識モジュールを設置している。音声認識モジュールは、既に知られている音声認識技術を用いればよい。音声の認識結果を内容とすることによって、音が出せない環境でも内容を確認できるようになる。そして、複数の注釈に対してテキストで検索可能となる。
そして、アノテーション生成モジュール150は、音声認識による認識結果内に予め定められた単語が含まれる場合は、その単語を変更するようにしてもよい。ここで「変更」には、削除を含む。例えば、ユーザーが発した音声から、予め定められたキーワードが含まれる部分を除外して注釈にするようにしてもよい。キーワードによって、機密度の高い情報や、不適切な内容を制限できるようになる。また、ユーザーが発した音声を、別の表現や言い回しに変換して注釈にするようにしてもよい。キーワードによって、機密度の高い情報や、不適切な内容を制限でき、注釈を用いたコミュニケーションを円滑にすることができる。
また、アノテーション生成モジュール150は、視線の位置の時系列的変化が判別できる注釈を生成するようにしてもよい。つまり、ユーザーが注目している箇所の時系列的な変化を、ユーザーが発した音声と同期して記録する。これによって、文書の特定箇所に対して、「ここが〜」「この部分が〜」といった、対面に近い自然な説明が可能となる。特に図やグラフに対して注釈を添付する効率が上がり、コミュニケーションも円滑化される。この注釈の表示例については、図12を用いて後述する。
また、アノテーション生成モジュール150は、視線の位置以外の箇所に、非注目箇所であることを意味する注釈を生成するようにしてもよい。つまり、ユーザーがあまり注目していなかった箇所を、文書に注釈として記録している。これによって、ユーザーが確認していない箇所、すなわち、校閲が不十分な箇所がわかるようになる。非注目箇所として、具体的には、視線の位置が全くない領域の他に、予め定められた期間以内で視線があった領域は、非注目箇所として抽出してもよい。
そして、アノテーション生成モジュール150は、視線の位置以外の箇所にあるオブジェクトに対して、注釈を添付するようにしてもよい。
アノテーション記憶モジュール160は、アノテーション生成モジュール150と接続されている。アノテーション記憶モジュール160は、アノテーション生成モジュール150によって生成された注釈を、表示装置185に表示されている文書に対応付けて記憶する。
文書記憶モジュール170は、文書表示モジュール180と接続されている。文書記憶モジュール170は、表示装置185に表示される可能性がある文書を記憶している。
文書表示モジュール180は、文書記憶モジュール170、表示装置185と接続されている。文書表示モジュール180は、文書記憶モジュール170に記憶された文書を、表示装置185に表示させるように制御する。
表示装置185は、文書表示モジュール180と接続されている。表示装置185は、文書表示モジュール180の制御にしたがって、液晶ディスプレイ等に文書を表示する。ユーザーは、液晶ディスプレイ等に表示された文書を見る。
図2は、本実施の形態(文書出力装置200)の構成例についての概念的なモジュール構成図である。文書出力装置200は、アノテーション生成処理装置100によって生成された注釈が添付された文書を表示するものである。いわゆるビューワーとしての機能を有している。
文書出力装置200は、アノテーション記憶モジュール160、文書記憶モジュール170、文書出力モジュール210、音声出力モジュール230、スピーカー235、文書表示モジュール180、表示装置185を有している。
アノテーション記憶モジュール160は、文書出力モジュール210と接続されている。アノテーション記憶モジュール160は、アノテーション生成処理装置100のアノテーション記憶モジュール160と同等のものであり、注釈を文書に対応付けて記憶している。
文書記憶モジュール170は、文書出力モジュール210と接続されている。文書記憶モジュール170は、アノテーション生成処理装置100の文書記憶モジュール170と同等のものであり、表示装置185に表示される可能性がある文書を記憶している。
文書出力モジュール210は、アノテーション出力モジュール220を有しており、アノテーション記憶モジュール160、文書記憶モジュール170、音声出力モジュール230、文書表示モジュール180と接続されている。文書出力モジュール210は、注釈が添付された文書を表示する。
アノテーション出力モジュール220は、例えば、ユーザーの操作(例えば、文書内の注釈を選択する操作等)にしたがって、注釈の内容を出力する。
音声出力モジュール230は、文書出力モジュール210、スピーカー235と接続されている。音声出力モジュール230は、注釈内の音声を、スピーカー235に出力させるように制御する。
スピーカー235は、音声出力モジュール230と接続されている。スピーカー235は、音声出力モジュール230の制御によって音声を出力する。
文書表示モジュール180は、文書出力モジュール210、表示装置185と接続されている。文書表示モジュール180は、アノテーション生成処理装置100の文書表示モジュール180と同等のものであり、文書記憶モジュール170に記憶された文書を、表示装置185に表示させるように制御する。
表示装置185は、文書表示モジュール180と接続されている。表示装置185は、アノテーション生成処理装置100の文書表示モジュール180と同等のものであり、文書表示モジュール180の制御にしたがって、液晶ディスプレイ等に文書を表示する。ユーザーは、液晶ディスプレイ等に表示された注釈が添付された文書を見る。
図3は、本実施の形態を利用したシステム構成例を示す説明図である。
アノテーション生成処理装置100A、文書出力装置200A、ユーザー端末300、文書管理装置350、文書管理装置360、ユーザー端末380は、通信回線390を介してそれぞれ接続されている。通信回線390は、無線、有線、これらの組み合わせであってもよく、例えば、通信インフラとしてのインターネット、イントラネット等であってもよい。また、アノテーション生成処理装置100A、文書出力装置200A、文書管理装置350、文書管理装置360による機能は、クラウドサービスとして実現してもよい。
例えば、部下が作成した文書を、上司が添削するという状況で用いられる。上司の操作に応じて、アノテーション生成処理装置100Aでは、部下が作成した文書にアノテーションが添付される。部下の操作に応じて、アノテーション生成処理装置100Bでは、その文書(アノテーションが添付された文書)が表示され、上司によって添付されたアノテーションが確認される。
もちろんのことながら、1つのユーザー端末300内に、アノテーション生成処理装置100B、文書出力装置200Bがあってもよい。1人のユーザーが、アノテーションを生成することと、アノテーションを確認することがあるからである。
文書管理装置360は、アノテーション記憶モジュール160、文書記憶モジュール170を有しており、複数人のユーザーの文書、アノテーションを管理している。アノテーション生成処理装置100A、文書出力装置200A、ユーザー端末300は、文書管理装置360を利用するようにしてもよい。その場合、アノテーション生成処理装置100A、文書出力装置200A、ユーザー端末300は、アノテーション記憶モジュール160、文書記憶モジュール170を有していなくてもよい。アノテーション生成処理装置100A、文書出力装置200A、ユーザー端末300は、文書管理装置360内のアノテーション記憶モジュール160、文書記憶モジュール170を用いて、アノテーションの生成、アノテーションが添付されている文書の表示を行う。
文書管理装置350は、非注目箇所捕捉モジュール140、アノテーション生成モジュール150、アノテーション記憶モジュール160、文書記憶モジュール170、文書出力モジュール210を有している。
ユーザー端末380は、マイク105、音声録音モジュール110、視線検知モジュール115、注目箇所捕捉モジュール120、文書内注目位置・音声対応付モジュール130、文書表示モジュール180、表示装置185、音声出力モジュール230、スピーカー235を有している。ユーザー端末380は、ユーザーインターフェースの機能だけを有しており、アノテーションの生成等は文書管理装置350に処理させるようにしてもよい。
図4は、本実施の形態による処理例を示すフローチャートである。
ステップS402では、文書表示モジュール180は、ユーザーの操作にしたがって、文書の閲覧処理を開始する。
ステップS404では、音声録音モジュール110は、ユーザーが行った、文書のある箇所に対しての指摘や感想等のつぶやきを検知する。もちろんのことながら、ここでの「つぶやき」とは、文書を閲覧しているユーザーの音声である。例えば、ユーザーが、文書のある箇所に対して、「ここは間違っている」、「わかりづらい」等の指摘や感想をつぶやく。この音声はマイク105により入力される。
ステップS406では、注目箇所捕捉モジュール120は、そのつぶやきが発生した時の視線位置を検知する。例えば、視線情報テーブル500を生成する。図5は、視線情報テーブル500のデータ構造例を示す説明図である。視線情報テーブル500は、日時欄505、視線位置欄510を有している。日時欄505は、視線を検知した日時を記憶している。視線位置欄510は、その日時における視線位置を記憶している。音声の発声を検知したことを契機として、視線の検知を行っている。また、文書の閲覧が開始された後は、常に視線の位置を検知するようにしてもよい。そして、音声発声の日時と視線検知の日時とのマッチングをとるようにしてもよい。
ステップS408では、アノテーション生成モジュール150は、文書内のユーザーが注目している箇所に、ユーザーがつぶやいた音声情報を、アノテーションとして付与する。つまり、ユーザーのつぶやきが発生した時点で、文書内におけるそのときのユーザーの注目箇所に、ユーザーがつぶやいた音声情報を、アノテーションとしてその文書に付与する。ユーザーの注目箇所はヘッドマウントディスプレイのようなデバイスでユーザーの目の動きなどから捕捉し、マイク105で録音した音声情報をそのときの注目箇所(又は、文書内のオブジェクト)と紐付ければよい。
より具体的には、例えば、文書内注目位置・音声対応付モジュール130は、音声と視線の位置とを対応付け、つぶやき情報テーブル600を生成する。図6は、つぶやき情報テーブル600のデータ構造例を示す説明図である。つぶやき情報テーブル600は、つぶやきID欄605、開始日時欄610、開始日時視線位置欄615、終了日時欄620、終了日時視線位置欄625、音声情報欄630を有している。つぶやきID欄605は、本実施の形態において、つぶやき(音声)を一意に識別するための情報(つぶやきID:IDentification)を記憶している。開始日時欄610は、そのつぶやきが開始された日時を記憶している。開始日時視線位置欄615は、その開始日時における視線の位置を記憶している。終了日時欄620は、そのつぶやきが終了した日時を記憶している。終了日時視線位置欄625は、その終了日時における視線の位置を記憶している。音声情報欄630は、そのつぶやきの音声情報(つぶやきの内容)を記憶している。また、その音声情報の音声認識結果(テキスト)を記憶していてもよい。
そして、アノテーション生成モジュール150は、例えば、アノテーション情報テーブル700を生成する。アノテーション情報テーブル700は、アノテーション記憶モジュール160に記憶される。図7は、アノテーション情報テーブル700のデータ構造例を示す説明図である。アノテーション情報テーブル700は、アノテーションID欄705、アノテーション種類欄710、文書内貼付位置欄715、対象オブジェクト位置欄720、内容欄725を有している。アノテーションID欄705は、本実施の形態において、アノテーションを一意に識別するための情報(アノテーションID)を記憶している。アノテーション種類欄710は、そのアノテーションの種類を記憶している。アノテーション種類欄710内には、「注目箇所アノテーション」を示す情報、又は「非注目箇所アノテーション」のいずれかが記憶される。また、アノテーション種類欄710は、音声情報そのもの、音声認識結果であることを区別するためのラベル(識別符号)を記憶してもよいし、そのアノテーションは、添削の指摘事項であること、感想であること等を区別するためのラベルを記憶してもよい。指摘事項、感想等の区別は、ユーザーの操作によって行われてもよいし、音声認識結果を用いて指摘事項、感想等の種類を区別するようにしてもよい。例えば、指摘事項、感想等で用いられる予め定められた単語を検知した場合は、その種類であるとしてもよい。文書内貼付位置欄715は、文書内における、そのアノテーションの貼付位置を記憶している。対象オブジェクト位置欄720は、そのアノテーションが添付されている対象オブジェクトの位置を記憶している。対象オブジェクトは、つぶやきが発声されたときの視線の位置に最も近いオブジェクトである。なお、オブジェクトの位置については、文書内オブジェクト表示位置情報テーブル800のオブジェクト表示位置欄815を用いればよい。内容欄725は、アノテーションの内容を記憶している。つまり、音声情報欄630と同等の情報を記憶している。
なお、文書記憶モジュール170には、文書そのものの他に、文書内オブジェクト表示位置情報テーブル800を記憶していてもよい。図8は、文書内オブジェクト表示位置情報テーブル800のデータ構造例を示す説明図である。文書内オブジェクト表示位置情報テーブル800は、文書ID欄805、オブジェクト欄810、オブジェクト表示位置欄815を有している。文書ID欄805は、本実施の形態において、文書を一意に識別するための情報(文書ID)を記憶している。オブジェクト欄810は、その文書内にあるオブジェクトを記憶している。オブジェクト表示位置欄815は、その文書内におけるオブジェクトの表示位置を記憶している。このオブジェクト表示位置欄815内の値を用いて、視線の位置とオブジェクト間の距離を算出すればよい。
図9は、本実施の形態による処理例を示すフローチャートである。非注目箇所を示すアノテーションの生成処理例を示すものである。
ステップS902では、ユーザーの操作にしたがって、文書の閲覧処理を開始する。
ステップS904では、ユーザーが注目した箇所を足し合わせていく。
ステップS906では、ユーザーの操作にしたがって、文書の閲覧処理を終了する。例えば、「文書を閉じる」等の操作が該当する。
なお、ステップS906までの処理において、図4の例に示したフローチャートによる処理が行われていてもよい。
ステップS908では、文書の全体の領域から、ユーザーがこれまで注目した箇所を差し引き、非注目箇所のアノテーションとして付与する。前述したように、視線の位置が全くない領域の他に、予め定められた期間以内で視線があった領域を含めてもよい。さらに、非注目箇所として、オブジェクトがある領域だけを対象としてもよい。つまり、空白領域は非注目箇所とはしない処理を行う。
図10は、本実施の形態(文書出力装置200)による処理例を示す説明図である。音声認識結果と音声情報そのものをアノテーションの内容とした例である。そして、オブジェクトに対して非注目箇所のアノテーションが添付されている例である。
画面1000には、文書表示領域1010、サムネイル文書表示領域1090を表示する。サムネイル文書表示領域1090には、サムネイル文書1092、サムネイル文書1094、サムネイル文書1096、サムネイル文書1098等を表示する。これらのサムネイル文書が選択されて、左側の文書表示領域1010に文書1020を表示する。
文書表示領域1010には、文書1020を表示する。
文書1020では、対象領域1036に対してアノテーション1030が添付されており、対象領域1046に対してアノテーション1040が添付されており、対象領域1054に対してアノテーション1050が添付されていることを示している。
アノテーション1030は、メッセージ領域1032、音声出力ボタン1034を有している。アノテーション1040は、メッセージ領域1042、音声出力ボタン1044を有している。アノテーション1050は、メッセージ領域1052を有している。
アノテーション1030、アノテーション1040は、図4の例に示すフローチャートによって生成されたアノテーションである。
アノテーション1050は、図9の例に示すフローチャートによって生成されたアノテーションである。
つまり、対象領域1036を見ているときの音声がアノテーション1030内の音声出力ボタン1034の選択によって再生され、その音声認識結果(「日付が間違っているよ」)がアノテーション1030内のメッセージ領域1032に表示されている。対象領域1046を見ているときの音声がアノテーション1040内の音声出力ボタン1044の選択によって再生され、その音声認識結果(「○○がわかりにくい。△△がいいんじゃない?」)がアノテーション1040内のメッセージ領域1042に表示されている。
そして、対象領域1054は、非注目箇所であり、それを示すアノテーション1050が添付されている。アノテーション1050内には、非注目箇所であることを示すメッセージ領域1052(「この部分は未確認です」)がある。
図7の例に示したアノテーション情報テーブル700は、時系列情報を含めるために、例えば、アノテーション情報テーブル1100のようにしてもよい。図11は、アノテーション情報テーブル1100のデータ構造例を示す説明図である。アノテーション情報テーブル1100は、アノテーションID欄1105、アノテーション種類欄1110、時系列情報数欄1115、対象オブジェクト位置欄1120、内容欄1125を有している。アノテーションID欄1105は、アノテーションIDを記憶している。アノテーション情報テーブル700のアノテーションID欄705と同等である。アノテーション種類欄1110は、アノテーションの種類を記憶している。アノテーション情報テーブル700のアノテーション種類欄710と同等である。時系列情報数欄1115は、時系列情報数を記憶している。時系列情報数欄1115内の数だけ、対象オブジェクト位置欄1120と内容欄1125の組が対象オブジェクト位置欄1120以降に続くことになる。なお、時系列順(古いものから順)に並んでいる。対象オブジェクト位置欄1120は、対象オブジェクトの位置を記憶している。アノテーション情報テーブル700の対象オブジェクト位置欄720と同等である。内容欄1125は、内容を記憶している。アノテーション情報テーブル700の内容欄725と同等である。
これによって、1つのオブジェクト(例えば、図、表、グラフ等)に対して、視線を移しながら複数のつぶやきがある場合、1つのアノテーションで時系列のつぶやきを表示することができるようになる。具体的には、図12の例を用いて説明する。
図12は、本実施の形態(文書出力装置200)による処理例を示す説明図である。1つのアノテーションで時系列の複数のつぶやきを表示している例である。
画面1200には、文書表示領域1210、サムネイル文書表示領域1290を表示する。サムネイル文書表示領域1290には、サムネイル文書1292、サムネイル文書1294、サムネイル文書1296、サムネイル文書1298を表示する。これらのサムネイル文書が選択されて、左側の文書表示領域1210に文書1220を表示する。
文書表示領域1210には、文書1220を表示する。
文書1220では、右上のグラフ(オブジェクトの一例)に対して、アノテーション1230を表示している。アノテーション1230は、メッセージ領域1232、音声出力ボタン1234を有している。
閲覧している文書1220に対してユーザーが発した音声情報と、そのとき注目していた箇所の時系列的な変化とを同期して表示している。音声出力ボタン1234がクリックされたことを検知すると、実際のつぶやきの音声を出力し、そのときに注目していた箇所(例えば、点線の楕円で囲った赤い部分である対象領域1242、対象領域1244、対象領域1246)を動的に表示する。ここで「動的に表示」とは、具体的には、音声の発声に合わせて、時系列順に表示することである。したがって、「ここがもっと○○で、」と音声出力している間は、対象領域1242と、その対象領域1242とアノテーション1230を結ぶ図形(吹き出し図形)を表示し、「ここは△△で」と音声出力している間は、対象領域1244と、その対象領域1244とアノテーション1230を結ぶ吹き出し図形を表示し、「ここは□□」と音声出力している間は、対象領域1246と、その対象領域1246とアノテーション1230を結ぶ吹き出し図形を表示する。
また、音声出力が終了した後は、対象領域1242、対象領域1244、対象領域1246を表示したままにし、それぞれの吹き出し図形内に順番を示す符号(例えば、「A」、「B」、「C」等)を表示するようにしてもよい。そして、音声認識結果内に、その順番を示す符号を含ませるようにしてもよい。例えば、かっこ内に順番を示す符号を入れて、「ここ(A)がもっと○○で、ここ(B)は△△で、ここ(C)は□□」のように表示する。音声発声の日時と視線の位置の日時を用いて、順番を示す符号、対象領域1242等の対象領域の表示順序を決定すればよい。
なお、本実施の形態(アノテーション生成処理装置100、文書出力装置200、ユーザー端末300、文書管理装置350、文書管理装置360、ユーザー端末380)としてのプログラムが実行されるコンピュータのハードウェア構成は、図13に例示するように、一般的なコンピュータであり、具体的にはパーソナルコンピュータ、サーバーとなり得るコンピュータ等である。つまり、具体例として、処理部(演算部)としてCPU1301を用い、記憶装置としてRAM1302、ROM1303、HD1304を用いている。HD1304として、例えばハードディスク、SSD(Solid State Drive)を用いてもよい。音声録音モジュール110、注目箇所捕捉モジュール120、文書内注目位置・音声対応付モジュール130、非注目箇所捕捉モジュール140、アノテーション生成モジュール150、文書表示モジュール180、文書出力モジュール210、アノテーション出力モジュール220、音声出力モジュール230等のプログラムを実行するCPU1301と、そのプログラムやデータを記憶するRAM1302と、本コンピュータを起動するためのプログラム等が格納されているROM1303と、アノテーション記憶モジュール160、文書記憶モジュール170としての機能を有する補助記憶装置(フラッシュ・メモリ等であってもよい)であるHD1304と、キーボード、マウス、タッチスクリーン、マイク105、視線検知モジュール115等に対するユーザーの操作(動作、音声、視線等を含む)に基づいてデータを受け付ける受付装置1306と、CRT、液晶ディスプレイ等の表示装置185、スピーカー235等の出力装置1305と、ネットワークインタフェースカード等の通信ネットワークと接続するための通信回線インタフェース1307、そして、それらをつないでデータのやりとりをするためのバス1308により構成されている。これらのコンピュータが複数台互いにネットワークによって接続されていてもよい。
前述の実施の形態のうち、コンピュータ・プログラムによるものについては、本ハードウェア構成のシステムにソフトウェアであるコンピュータ・プログラムを読み込ませ、ソフトウェアとハードウェア資源とが協働して、前述の実施の形態が実現される。
なお、図13に示すハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図13に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続している形態でもよく、さらに図13に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、特に、パーソナルコンピュータの他、携帯情報通信機器(携帯電話、スマートフォン、モバイル機器、ウェアラブルコンピュータ等を含む)、情報家電、ロボット、複写機、ファックス、スキャナ、プリンタ、複合機(スキャナ、プリンタ、複写機、ファックス等のいずれか2つ以上の機能を有している画像処理装置)などに組み込まれていてもよい。
なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通等のために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray(登録商標) Disc)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digital)メモリーカード等が含まれる。
そして、前記のプログラムの全体又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、又は無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分若しくは全部であってもよく、又は別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して記録されていてもよい。また、圧縮や暗号化等、復元可能であればどのような態様で記録されていてもよい。
100…アノテーション生成処理装置
105…マイク
110…音声録音モジュール
115…視線検知モジュール
120…注目箇所捕捉モジュール
130…文書内注目位置・音声対応付モジュール
140…非注目箇所捕捉モジュール
150…アノテーション生成モジュール
160…アノテーション記憶モジュール
170…文書記憶モジュール
180…文書表示モジュール
185…表示装置
200…文書出力装置
210…文書出力モジュール
220…アノテーション出力モジュール
230…音声出力モジュール
235…スピーカー
300…ユーザー端末
350…文書管理装置
360…文書管理装置
380…ユーザー端末
390…通信回線

Claims (8)

  1. 文書を閲覧している利用者の該文書内の視線の位置と該視線の位置での音声を対応付ける対応付け手段と、
    前記音声を内容とし、該音声に対応する前記視線の位置に添付する注釈を生成する生成手段
    を有する情報処理装置。
  2. 前記生成手段は、前記視線の位置にあるオブジェクトに対して、前記音声を内容とする注釈を添付する、
    請求項1に記載の情報処理装置。
  3. 前記生成手段は、前記音声の認識結果を内容として含む注釈を生成する、
    請求項2に記載の情報処理装置。
  4. 前記生成手段は、前記認識結果内に予め定められた単語が含まれる場合は、該単語を変更する、
    請求項3に記載の情報処理装置。
  5. 前記生成手段は、前記視線の位置の時系列的変化が判別できる注釈を生成する、
    請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記生成手段は、前記視線の位置以外の箇所に、非注目箇所であることを意味する注釈を生成する、
    請求項1に記載の情報処理装置。
  7. 前記生成手段は、前記視線の位置以外の箇所にあるオブジェクトに対して、前記注釈を添付する、
    請求項6に記載の情報処理装置。
  8. コンピュータを、
    文書を閲覧している利用者の該文書内の視線の位置と該視線の位置での音声を対応付ける対応付け手段と、
    前記音声を内容とし、該音声に対応する前記視線の位置に添付する注釈を生成する生成手段
    として機能させるための情報処理プログラム。
JP2017034490A 2017-02-27 2017-02-27 情報処理装置及び情報処理プログラム Active JP6828508B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017034490A JP6828508B2 (ja) 2017-02-27 2017-02-27 情報処理装置及び情報処理プログラム
US15/688,248 US20180246569A1 (en) 2017-02-27 2017-08-28 Information processing apparatus and method and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017034490A JP6828508B2 (ja) 2017-02-27 2017-02-27 情報処理装置及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2018142059A true JP2018142059A (ja) 2018-09-13
JP6828508B2 JP6828508B2 (ja) 2021-02-10

Family

ID=63246773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017034490A Active JP6828508B2 (ja) 2017-02-27 2017-02-27 情報処理装置及び情報処理プログラム

Country Status (2)

Country Link
US (1) US20180246569A1 (ja)
JP (1) JP6828508B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020052442A (ja) * 2018-09-21 2020-04-02 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2020149689A (ja) * 2019-03-15 2020-09-17 株式会社リコー 記録されたメディアからの提案された文書編集の、人工知能を用いた生成
JP2020149688A (ja) * 2019-03-15 2020-09-17 株式会社リコー 記録されたメディアからの提案を含むための、既存のコンテンツ提案の人工知能を用いた更新
US11120342B2 (en) 2015-11-10 2021-09-14 Ricoh Company, Ltd. Electronic meeting intelligence
US11263384B2 (en) 2019-03-15 2022-03-01 Ricoh Company, Ltd. Generating document edit requests for electronic documents managed by a third-party document management service using artificial intelligence
US11307735B2 (en) 2016-10-11 2022-04-19 Ricoh Company, Ltd. Creating agendas for electronic meetings using artificial intelligence
US11392754B2 (en) 2019-03-15 2022-07-19 Ricoh Company, Ltd. Artificial intelligence assisted review of physical documents
US11573993B2 (en) 2019-03-15 2023-02-07 Ricoh Company, Ltd. Generating a meeting review document that includes links to the one or more documents reviewed
US11645630B2 (en) 2017-10-09 2023-05-09 Ricoh Company, Ltd. Person detection, person identification and meeting start for interactive whiteboard appliances
US20230177258A1 (en) * 2021-12-02 2023-06-08 At&T Intellectual Property I, L.P. Shared annotation of media sub-content
US11720741B2 (en) 2019-03-15 2023-08-08 Ricoh Company, Ltd. Artificial intelligence assisted review of electronic documents

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10860985B2 (en) 2016-10-11 2020-12-08 Ricoh Company, Ltd. Post-meeting processing using artificial intelligence
US11062271B2 (en) 2017-10-09 2021-07-13 Ricoh Company, Ltd. Interactive whiteboard appliances with learning capabilities
US10956875B2 (en) 2017-10-09 2021-03-23 Ricoh Company, Ltd. Attendance tracking, presentation files, meeting services and agenda extraction for interactive whiteboard appliances
EP4130941A1 (en) 2018-05-04 2023-02-08 Google LLC Hot-word free adaptation of automated assistant function(s)
KR102661487B1 (ko) 2018-05-04 2024-04-26 구글 엘엘씨 검출된 제스처 및 시선에 기초하여 자동화된 어시스턴트 기능 호출
CN112236739B (zh) * 2018-05-04 2024-05-17 谷歌有限责任公司 基于检测到的嘴运动和/或凝视的适配自动助理
JP2021005157A (ja) * 2019-06-25 2021-01-14 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法
JP2022032777A (ja) * 2020-08-14 2022-02-25 富士フイルムビジネスイノベーション株式会社 情報処理装置、文書管理システムおよびプログラム
CN112528012B (zh) * 2020-11-27 2023-08-29 北京百度网讯科技有限公司 生成文档记录的方法、装置、电子设备、及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030033294A1 (en) * 2001-04-13 2003-02-13 Walker Jay S. Method and apparatus for marketing supplemental information
US6608615B1 (en) * 2000-09-19 2003-08-19 Intel Corporation Passive gaze-driven browsing
JP2004259198A (ja) * 2003-02-27 2004-09-16 Japan Research Institute Ltd 情報管理装置、情報管理システム、及びプログラム
JP2004261300A (ja) * 2003-02-28 2004-09-24 Konica Minolta Holdings Inc 医用画像処理装置及び異常陰影候補の検出結果の表示方法
JP2009049949A (ja) * 2007-08-23 2009-03-05 Yahoo Japan Corp ストリーミング情報の再生制御方法
JP2011092249A (ja) * 2009-10-27 2011-05-12 Aloka Co Ltd 超音波診断装置
JP2016181245A (ja) * 2015-03-24 2016-10-13 富士ゼロックス株式会社 注視注釈方法及びコンピューティングデバイス

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999895A (en) * 1995-07-24 1999-12-07 Forest; Donald K. Sound operated menu method and apparatus
US20030033161A1 (en) * 2001-04-24 2003-02-13 Walker Jay S. Method and apparatus for generating and marketing supplemental information
US8232962B2 (en) * 2004-06-21 2012-07-31 Trading Technologies International, Inc. System and method for display management based on user attention inputs
US8117102B1 (en) * 2004-09-27 2012-02-14 Trading Technologies International, Inc. System and method for assisted awareness
US8443279B1 (en) * 2004-10-13 2013-05-14 Stryker Corporation Voice-responsive annotation of video generated by an endoscopic camera
US7396129B2 (en) * 2004-11-22 2008-07-08 Carestream Health, Inc. Diagnostic system having gaze tracking
US7438414B2 (en) * 2005-07-28 2008-10-21 Outland Research, Llc Gaze discriminating electronic control apparatus, system, method and computer program product
US20150070262A1 (en) * 2005-09-21 2015-03-12 Richard Ross Peters Contextual annotations of a message based on user eye-tracking data
WO2007056373A2 (en) * 2005-11-04 2007-05-18 Eyetracking, Inc. Characterizing dynamic regions of digital media data
US7429108B2 (en) * 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
US9250703B2 (en) * 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
KR101596890B1 (ko) * 2009-07-29 2016-03-07 삼성전자주식회사 사용자의 시선 정보를 이용한 디지털 오브젝트 탐색 장치 및 방법
WO2013033842A1 (en) * 2011-09-07 2013-03-14 Tandemlaunch Technologies Inc. System and method for using eye gaze information to enhance interactions
US9672788B2 (en) * 2011-10-21 2017-06-06 New York University Reducing visual crowding, increasing attention and improving visual span
USH2282H1 (en) * 2011-11-23 2013-09-03 The United States Of America, As Represented By The Secretary Of The Navy Automatic eye tracking control
AU2013201418B2 (en) * 2012-04-23 2014-09-11 The Boeing Company Aircrew training system
US9423870B2 (en) * 2012-05-08 2016-08-23 Google Inc. Input determination method
GB2504492A (en) * 2012-07-30 2014-02-05 John Haddon Gaze detection and physical input for cursor symbol
US10503359B2 (en) * 2012-11-15 2019-12-10 Quantum Interface, Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
JP5981371B2 (ja) * 2013-03-18 2016-08-31 Kddi株式会社 姿勢によって拡張現実感の表示を制御する情報端末、システム、プログラム及び方法
US9971492B2 (en) * 2014-06-04 2018-05-15 Quantum Interface, Llc Dynamic environment for object and attribute display and interaction
US9606622B1 (en) * 2014-06-26 2017-03-28 Audible, Inc. Gaze-based modification to content presentation
US10599214B2 (en) * 2014-10-21 2020-03-24 Tobii Ab Systems and methods for gaze input based dismissal of information on a display
US10222867B2 (en) * 2015-05-12 2019-03-05 Lenovo (Singapore) Pte. Ltd. Continued presentation of area of focus while content loads
US10089827B2 (en) * 2015-12-11 2018-10-02 Igt Canada Solutions Ulc Enhanced electronic gaming machine with gaze-based popup messaging

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6608615B1 (en) * 2000-09-19 2003-08-19 Intel Corporation Passive gaze-driven browsing
US20030033294A1 (en) * 2001-04-13 2003-02-13 Walker Jay S. Method and apparatus for marketing supplemental information
JP2004259198A (ja) * 2003-02-27 2004-09-16 Japan Research Institute Ltd 情報管理装置、情報管理システム、及びプログラム
JP2004261300A (ja) * 2003-02-28 2004-09-24 Konica Minolta Holdings Inc 医用画像処理装置及び異常陰影候補の検出結果の表示方法
JP2009049949A (ja) * 2007-08-23 2009-03-05 Yahoo Japan Corp ストリーミング情報の再生制御方法
JP2011092249A (ja) * 2009-10-27 2011-05-12 Aloka Co Ltd 超音波診断装置
JP2016181245A (ja) * 2015-03-24 2016-10-13 富士ゼロックス株式会社 注視注釈方法及びコンピューティングデバイス

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
雫 泰裕: "複合現実感を用いた展示物に関する関心の共有", 電子情報通信学会技術研究報告 VOL.114 NO.239 IEICE TECHNICAL REPORT, vol. 第114巻, JPN6020031029, 2 October 2014 (2014-10-02), JP, pages 107 - 112, ISSN: 0004333556 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983637B2 (en) 2015-11-10 2024-05-14 Ricoh Company, Ltd. Electronic meeting intelligence
US11120342B2 (en) 2015-11-10 2021-09-14 Ricoh Company, Ltd. Electronic meeting intelligence
US11307735B2 (en) 2016-10-11 2022-04-19 Ricoh Company, Ltd. Creating agendas for electronic meetings using artificial intelligence
US11645630B2 (en) 2017-10-09 2023-05-09 Ricoh Company, Ltd. Person detection, person identification and meeting start for interactive whiteboard appliances
JP7135653B2 (ja) 2018-09-21 2022-09-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP2020052442A (ja) * 2018-09-21 2020-04-02 富士ゼロックス株式会社 情報処理装置及びプログラム
JP7063348B2 (ja) 2019-03-15 2022-05-09 株式会社リコー 記録されたメディアからの提案された文書編集の、人工知能を用いた生成
US11270060B2 (en) 2019-03-15 2022-03-08 Ricoh Company, Ltd. Generating suggested document edits from recorded media using artificial intelligence
US11263384B2 (en) 2019-03-15 2022-03-01 Ricoh Company, Ltd. Generating document edit requests for electronic documents managed by a third-party document management service using artificial intelligence
JP7063347B2 (ja) 2019-03-15 2022-05-09 株式会社リコー 記録されたメディアからの提案を含むための、既存のコンテンツ提案の人工知能を用いた更新
US11392754B2 (en) 2019-03-15 2022-07-19 Ricoh Company, Ltd. Artificial intelligence assisted review of physical documents
US11080466B2 (en) 2019-03-15 2021-08-03 Ricoh Company, Ltd. Updating existing content suggestion to include suggestions from recorded media using artificial intelligence
US11573993B2 (en) 2019-03-15 2023-02-07 Ricoh Company, Ltd. Generating a meeting review document that includes links to the one or more documents reviewed
JP2020149688A (ja) * 2019-03-15 2020-09-17 株式会社リコー 記録されたメディアからの提案を含むための、既存のコンテンツ提案の人工知能を用いた更新
US11720741B2 (en) 2019-03-15 2023-08-08 Ricoh Company, Ltd. Artificial intelligence assisted review of electronic documents
JP2020149689A (ja) * 2019-03-15 2020-09-17 株式会社リコー 記録されたメディアからの提案された文書編集の、人工知能を用いた生成
US20230177258A1 (en) * 2021-12-02 2023-06-08 At&T Intellectual Property I, L.P. Shared annotation of media sub-content

Also Published As

Publication number Publication date
JP6828508B2 (ja) 2021-02-10
US20180246569A1 (en) 2018-08-30

Similar Documents

Publication Publication Date Title
JP6828508B2 (ja) 情報処理装置及び情報処理プログラム
US10074402B2 (en) Recording and providing for display images of events associated with power equipment
US9304657B2 (en) Audio tagging
US20080079693A1 (en) Apparatus for displaying presentation information
US20200126583A1 (en) Discovering highlights in transcribed source material for rapid multimedia production
US8930308B1 (en) Methods and systems of associating metadata with media
CN105704538A (zh) 一种音视频字幕生成方法及系统
KR20070118038A (ko) 정보처리 장치 및 정보처리 방법과 컴퓨터·프로그램
US20130332804A1 (en) Methods and devices for data entry
JP2019148681A (ja) テキスト修正装置、テキスト修正方法およびテキスト修正プログラム
CN111885416B (zh) 一种音视频的修正方法、装置、介质及计算设备
JP2015106340A (ja) 情報処理装置及び情報処理プログラム
CN111885313A (zh) 一种音视频的修正方法、装置、介质及计算设备
US20130094697A1 (en) Capturing, annotating, and sharing multimedia tips
US20200403816A1 (en) Utilizing volume-based speaker attribution to associate meeting attendees with digital meeting content
US11119727B1 (en) Digital tutorial generation system
US20160335500A1 (en) Method of and system for generating metadata
US11411902B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
JP5910222B2 (ja) 情報処理装置及び情報処理プログラム
JP7230803B2 (ja) 情報処理装置および情報処理方法
JP6756211B2 (ja) 通信端末、音声変換方法、及びプログラム
JP6759720B2 (ja) 情報処理装置及び情報処理プログラム
US11165737B2 (en) Information processing apparatus for conversion between abbreviated name and formal name
CN113923479A (zh) 音视频剪辑方法和装置
US20200335004A1 (en) Systems and methods for facilitating creating of customizable tutorials for instruments specific to a particular facility

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210104

R150 Certificate of patent or registration of utility model

Ref document number: 6828508

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350