JP2015207258A - 情報出力装置、情報出力方法及びプログラム、情報提供装置、情報提供方法及びプログラム - Google Patents
情報出力装置、情報出力方法及びプログラム、情報提供装置、情報提供方法及びプログラム Download PDFInfo
- Publication number
- JP2015207258A JP2015207258A JP2014089305A JP2014089305A JP2015207258A JP 2015207258 A JP2015207258 A JP 2015207258A JP 2014089305 A JP2014089305 A JP 2014089305A JP 2014089305 A JP2014089305 A JP 2014089305A JP 2015207258 A JP2015207258 A JP 2015207258A
- Authority
- JP
- Japan
- Prior art keywords
- information
- document
- viewer
- content
- related information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 文書などの情報を再確認する際に、一つの文書情報に対して同じ関連情報のコンテンツしか用意されていないため、文書情報に対する閲覧者の状態に応じた関連情報のコンテンツを提供することができなかった。【解決手段】 表示対象の情報に対する閲覧者の既読状態を取得する第一取得手段と、前記情報に関連付けられた複数の関連情報から、前記閲覧者の前記情報に対する既読状態に応じた関連情報を取得する第二取得手段と、前記情報の表示とともに、前記第二取得手段で取得した関連情報を出力する出力手段と、を有することにより、閲覧時の文書等の表示対象の情報に対する閲覧者の既読状態に応じて関連情報のコンテンツを選択して提供することができる。【選択図】 図10
Description
本発明は、情報の閲覧者に好適な関連情報を出力する情報出力装置、情報出力方法及びプログラム、情報提供装置、情報提供方法及びプログラムに関する。
カメラで撮像した現実空間の画像が表示される画面において、コンピュータグラフィックスによる拡張情報(関連情報)を画像に重ね合わせて表示する拡張現実感技術が普及している。拡張現実感技術では、撮像画像の画像特徴量を用いて、現実空間の物体の撮像画像に対応づけられた、拡張現実感を与える関連情報(以下、ARコンテンツとも記載する)を検索する。検索された関連情報を、撮像した画像に重畳表示することができる。
予め、紙ドキュメントの撮像画像の画像特徴量や、紙ドキュメントに印刷したマーカの画像特徴量に対してARコンテンツを対応付けて格納しておく。そして、撮像機能を持った端末で紙ドキュメントを撮像することで、紙ドキュメントの撮像画像の画像特徴量を認識して、画像特徴量に対応付けられたARコンテンツを、表示された紙ドキュメントの画像に重畳表示するという利用形態の普及が進んでいる。例えば、特許文献1では携帯端末を通して紙媒体に印刷された特定の原オブジェクトを、撮像した画像又は映像の表示に代えて対応する代替オブジェクトを表示している。
また音声コンテンツの再生方法として、特許文献2で示されているような、重要部分につけられたインデックスを基にコンテンツの再生位置を変更するといったものも存在する。
特許文献1では、紙ドキュメントの撮像画像に1つだけ関連付けたARコンテンツが常に表示される。閲覧者がその紙ドキュメントについて既に説明を受けたに、常に同じARコンテンツが表示されると、冗長となり関連情報として適さないことがあるという課題が存在する。表示時間の長いARコンテンツを閲覧する場合は、閲覧効率の低下につながる。
コンテンツから重要な部分を抽出する技術として、特許文献2では会議の発言記録に対して重要部分にインデックスを付けることによって、会議中に注目した発言を抽出して再生している。しかし、特許文献2のように、インデックスを付けた発言記録を再生するだけでは、会議に参加していない人間にとっては聞く必要のある会議内容が再生されない可能性がある。
従って、従来技術では文書等の表示対象の情報を閲覧する時に、閲覧者の文書等の情報に対する既読状態に適合していないARコンテンツを提供してしまっているという課題が存在している。
本発明は、この課題を鑑みてなされたものであり、表示対象の情報を閲覧する閲覧者の、表示対象の情報に対する既読状態に基づいて、複数の関連情報のうち、閲覧者に適した関連情報を表示又は再生する情報出力装置を提供することを目的とする。また、その方法、及びプログラムを提供することを目的とする。
上記の問題を解決するための情報出力装置は以下の構成を備える。すなわち、表示対象の情報に対する閲覧者の既読状態を取得する第一取得手段と、前記情報に関連付けられた複数の関連情報から、前記閲覧者の前記情報に対する既読状態に応じた関連情報を取得する第二取得手段と、前記情報の表示とともに、前記第二取得手段で取得した関連情報を出力する出力手段と、を備える。
本発明によれば、情報出力装置において情報を閲覧する閲覧者の情報に対する既読状態に基づいて、複数の関連情報のうち、閲覧者に適した関連情報を出力することができる。
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。
(第1の実施形態)
図1は本発明の情報表示装置と情報提供装置の第1の実施形態に係るAR端末101とサーバ111の概略構成の一例を示す模式図である。
図1は本発明の情報表示装置と情報提供装置の第1の実施形態に係るAR端末101とサーバ111の概略構成の一例を示す模式図である。
本実施形態に係るAR端末101とサーバ111は、通信部105および通信部113を介して、インターネットやイントラネット経由で接続することができる。AR端末101は、さらに現実空間の撮像機能を備えた撮像部109及び、撮像した映像にARコンテンツを重畳表示する表示部104等を備えている。AR端末101は、例えばタブレット端末、携帯電話端末、デジタルカメラ等である。即ち、AR端末101は撮像機能、音声再生機能と画像の表示機能を備えた情報出力装置である。
CPU(Central Processing Unit)102は、記憶部106に格納されている制御プログラムを実行することにより、AR端末101の制御を行う。記憶部106は、AR端末101が実行するプログラムや入出力データ、各種情報を格納する。これらのデータ及びプログラムを格納する記憶媒体としては、ハードディスク、CD−ROM、DVD−ROM、フラッシュメモリ等を用いることができる。
AR端末101がプログラムを実行することにより、後述するフローチャートに示す各処理を実行する。RAM107は、各構成要素からの各種データを一時記憶する。また、プログラムを展開し、AR端末101によって実行する。ROM108は処理プログラム等の制御プログラムや各種データを記憶する。撮像部109は、光学装置および撮像素子等によって構成され、CPU102からの指示に応じて、被写体の撮像を行う。
入力部103は、操作ボタン、タッチパネル等で構成され、ユーザからの指示を受け付ける。表示部104は、液晶パネル等で構成され、本実施形態の表示処理の対象となるデータを表示する。本実施形態では、表示処理の対象は文書情報のデータ、撮像された画像情報の画像データ、又はARコンテンツの画像データである。ARコンテンツが音声情報である場合は、音声データは非図示の再生部によって再生される。また、画像データを表示する表示機能及び音声データを再生する再生機能を有する出力部(非図示)として設けることもできる。これら全ての構成要素はBUS110で接続されている。
サーバ111は、AR端末101に提供するARコンテンツを管理・処理するものである。CPU112は、記憶部114に格納されている制御プログラムを実行することにより、サーバ111の制御を行う。記憶部114は、本実施形態の処理対象となるデータを保持している。例えば、ARコンテンツの識別を行うための識別情報やARコンテンツのデータを保持している。記憶部114としては、ハードディスク、フラッシュメモリ等を用いることができる。サーバ111がプログラムを実行することにより、後述するフローチャートに示す各処理を実行する。ROM116は、処理プログラム等の制御プログラムや各種データを記憶する。RAM115は、各構成要素からの各種データを一時記憶する。また、プログラムを展開し、サーバ111によって実行する。フラッシュメモリ、HDDなどを用いることができる。
なお、本実施形態では後述するフローチャートの各ステップに対応する処理を、CPU102およびCPU112を用いてソフトウェアで実現するが、その処理の一部又は全部を電子回路などのハードウェアで実現するようにしても良い。
図2は、本実施形態における機能ブロックを示した構成図である。図2のAR端末201とサーバ204は図1のAR端末101とサーバ111と対応する。AR端末201の撮像部202は現実空間にある紙文書等の物体を撮像し、撮像した撮像結果(静止画又は動画を含む画像情報)をサーバ204に送信する。
サーバ204では、受信した撮像結果に基づいて、次に説明する処理を行って、AR端末201にARコンテンツを提供する。まず、撮像結果の紙文書等の画像情報を認識部205で解析し、紙文書であれば、文書の識別情報を認識する。その識別情報は、例えば紙ドキュメントに印刷された画像を識別するための画像特徴量、または、紙ドキュメントに印刷されるマーカである。認識部205の識別結果を基に、認識された文書に関連付けられた文書関連情報としてのコンテンツをコンテンツ取得部206で取得する。文書関連情報としてのコンテンツが複数ある場合、コンテンツ取得部206はすべてのコンテンツを取得してもよい。複数のコンテンツから閲覧者に適したコンテンツだけを取得してもよい。ここでは、コンテンツは、画像、映像又は音声データの何れか又はその組み合わせである。コンテンツの詳細及びコンテンツの取得方法については、次に説明する。
なお、本実施形態では認識部205及びコンテンツ取得部206はサーバ204側に設けているが、認識部205及びコンテンツ取得部206のいずれか又は両方をAR端末201側に設けることができる。
コンテンツ取得部206で取得されたコンテンツは、コンテンツ決定部209に送られる。ここでは、出力するコンテンツの選択を行う。本実施形態ではコンテンツ決定部209はサーバ204側に設けているが、AR端末201側に設けることができる。
コンテンツ決定部209によって選択されたコンテンツはAR端末201に送信される。AR端末201の受信したコンテンツを閲覧者へ提供する提供方法はコンテンツの種類によって異なる。選択されたコンテンツは画像データであれば、AR端末201は、サーバ204から受信したARコンテンツをコンテンツ出力部203が表示する、又は表示されている文書等の表示対象の上に重畳して表示する。出力部203の替わりに、又は出力部203と連携して表示部104が表示する、又は表示部104に表示されている文書等の表示対象の上に重畳して表示することもできる。選択されたコンテンツが音声データであれば、コンテンツ再生部203によって音声情報を再生する。
AR端末201とサーバ204の動作をフローチャートと併せて説明する。
まず、閲覧者が最初に文書の説明を受ける際に、説明を受ける文書と関連付けた関連情報としてのコンテンツのコンテンツ作成方法について図3〜図6を用いて説明する。本実施形態における文書は、例えば銀行の金融サービスを説明するための販促用のカタログやパンフレット等の説明資料である。説明資料の閲覧者(以下、閲覧者と記載する)は銀行のカウンターにおいてユーザとして説明資料を閲覧しながら、銀行側の説明者(以下、説明者と記載する)から説明資料について説明を受ける。以降、銀行側の担当者の説明したことを補足説明資料として作成された場合に、その補足説明資料を関連情報のコンテンツ(以下、コンテンツと記載する)として説明する。
図3は、閲覧者301が最初に説明者302から文書303の説明を受ける際の模式図である。ここでは、閲覧者301が初めて文書303を受け取り、文書303について説明を受ける人物である。この際、説明場所に備え付けられたカメラ等の撮像装置、もしくはマイクなどの集音装置によって、閲覧者301に、どの文書が説明されたか、もしくはどの文書のどの部分が説明されたかが記録される。記録された映像や音声のデータはサーバ111の記憶部114に保存され、ARコンテンツとして又はARコンテンツを作成するためのデータとして利用可能である。
ここで、この文書303の説明を受けるべき人物として関係者304も存在しているが、何らかの理由によりこの場に立ち会っていないものとする。このため、閲覧者301と関係者304の間で文書303に対する理解度合いに差が生じているので、作成された同一のARコンテンツは閲覧者301と関係者304にとって有用性は異なるという課題が発生している。
この課題を解決するための方法について説明する。まず、閲覧者が文書の説明をどれぐらい受けているかを判定する処理について説明したフローチャートが図4である。ステップS401において、文書が会話の場に置かれたかどうかを検出する。これは例えば、固定カメラで会話の場を撮像しておき、撮像された映像と予め用意しておいた文書とのテンプレートマッチングを行うといった方法で検出を行う。もしくは予め用意しておいた文書をクエリにして撮像された画像内を検索し、文書が発見できるかを確認するといった方法で検出を行う。
ステップS401で、文書が検出された場合には検出された文書の座標を記録し、ステップS402に進む。ここでは、文書についての説明が始まったかどうかの判定を行う。ここで例えば映像データを用いる場合には、検出された文書領域を説明者302が一定時間以上指したかによって説明が始まったかどうかを判定する。より具体的には、文書の座標からどの文書領域を他のオブジェクト(例えば、指や指し棒など)が一定時間隠したかによって判定する。例えば、文書領域の画像から、該文書領域又はその近傍が何らかのオブジェクトによって隠されたかを認識する。隠されたと認識された場合に、該文書領域又はその近傍が隠された時間を計測して、一定時間以上を超えた場合に、該文書領域又は文書の説明が始まったと判定する。
また音声データを用いる場合には、予め文書、もしくは文書の各部分毎にキーワードを設定しておく。会話時はマイクで内容を録音し、録音した音声情報のコンテンツから設定したキーワードを一定回数以上発話したことを検出したら、当該キーワード設定箇所を説明し始めたと判定する。
これらの方法により文書の説明が開始されたと判断されると、次にステップS403に進み、説明が最後まで完了したかを判断する。これはステップS402と同様に、他のオブジェクトが一定時間隠したか、設定したキーワードを一定回数以上発話したことを検出したかといったことで判定する。無論、この判断を行う時間・回数などの閾値はステップS402よりも長い、もしくは多いものになっている。なお、このステップS402、S403は画像、音声の一方を用いてもよいし、双方を合わせて処理を行ってもよい。
説明が最後まで完了したと判定されるとステップS405に進み、文書、もしくは文書の特定部分の説明を完了したことの判定結果が関係記録部208によってサーバ111の記憶部114に記録される。
文書のどこを説明したかまで記録する場合には、隠れた部分のうち一番閲覧者301に近い部分を説明したと判断し記録する。この処理が行われる場面の模式図が図5である。ここで、閲覧者501は説明者502から文書503の説明を受けているものとする。この際、説明者502は文書503の任意の部分を自らの手504で指し示しながら説明を行っているため、文書503は手504で一部分が隠れる。そこで、その隠れた部分のうち一番閲覧者501に近い部分、図5では手504の伸びている指の先にある画像505を説明していると判定し、記録する。
図4のフローチャートに戻る。ステップS403で説明が最後まで終わらなかった、つまり途中で終了してしまった場合には、ステップS406に進む。ステップS406での判定の閾値(時間・回数)は、ステップS403で設定されている、説明が最後まで完了したかどうかを判断する閾値と、ステップS402で設定されている、説明が始まったかどうかを判定する閾値の間にある値を設定する。
ステップS406では、ステップS405と同様に文書、もしくは文書の特定部分を説明したことが関係記録部208によってサーバ111の記憶部114に記録されるが、完了ではなく途中までで終わったことの判定結果が記録される。
もし、ステップS401で文書が検出されない、またはステップS402で文書の説明がされなかったと判定された場合には、ステップS404に進む。ここでは、説明者302による説明が終わったかどうかを判定する。説明が終わったかどうかの判定は、固定カメラの画像に文書303もしくは閲覧者301と説明者302が一定時間以上映らない、マイクから閲覧者301と説明者302に音声が一定時間以上検出されないことによって行う。この処理もステップS402ならびにステップS403同様、画像もしくは音声の一方のみを用いてもよいし、双方を合わせて処理してもよい。説明が終わった場合にはステップS407に進み、閲覧者301には文書303の説明が行われていないことの判定結果をサーバ111の記憶部114に記録する。ステップS404において、説明が終わっていないと判定された場合には、ステップS401に戻り再度文書の検出を行う。
この処理を行うことにより、閲覧者301の文書303に関する説明を受けた状態としては全部説明されている(既読)、途中まで説明されている(途中)、説明されていない(未読)という3つの状態が存在することになる。この3つの状態は、閲覧者301にとって、文書303に関する説明を受けた程度でもある。本実施形態では、この3つの状態のいずれを閲覧者301の文書303に対する既読状態と呼ぶ。即ち、閲覧者301の既読状態は、さらに既読、途中、未読のいずれの状態に分けられる。なお、図4で説明した処理は一例であって、他の方法によって、閲覧者の既読状態に合わせた関連情報を作成してもよい。
閲覧者301は銀行から販促用のカタログやパンフレット等の説明資料を持ち帰って、後に再確認のためにAR端末を用いて説明資料の文書303の情報を閲覧する。また、閲覧者301は銀行から持ち帰った説明資料を初めてその資料を閲覧する閲覧者304に見せて、閲覧させることもできる。
ここでは、説明資料の文書303は紙に印刷された文書であるが、記憶媒体に記憶された電子データ又はWEBからダウンロードした電子データの説明資料であってもよい。ここで、その説明資料の関連情報としてのコンテンツは複数用意されている場合と1つしかない場合がありうる。コンテンツは複数用意されている場合は、閲覧者301又は閲覧者304の既読状態に応じて、閲覧者301又は閲覧者304が文書303を閲覧する際に、表示・再生されるコンテンツが選択される。
閲覧者301又は閲覧者304の文書303に対する既読状態に応じたコンテンツの例について図6に示す表601を用いて説明する。なお、この表601では説明を簡単にするため、前述の、説明されているという状態を「既読」、説明されていないという状態を「未読」、途中まで説明されているという状態を「途中」とそれぞれ表記している。
ここでいうコンテンツは、実際に文書303に関する説明を行う際に撮像装置もしくは集音装置によって記録された画像や音声のデータから作成してもよいし、別途に用意された画像や音声のデータであってもよい。
コンテンツ候補が1つしかなければ元々用意されているコンテンツを表示・再生する。ここではこのコンテンツをデフォルトコンテンツと呼ぶことにする。このデフォルトコンテンツは図4で説明した3つの状態に対応したコンテンツの中で、既読に対応したコンテンツは未読に対応したコンテンツと同じであるので、閲覧者の状態が既読である場合は、デフォルトコンテンツを表示・再生する。
また、コンテンツ候補が複数あるならば(未読に対応したコンテンツは既読に対応したコンテンツと異なる)、閲覧者の状態(既読)に合わせて、図4のS405で文書を説明したと記録された場合の既読コンテンツを表示・再生する。
同様に、コンテンツ候補がデフォルトコンテンツの1つしかなければ、閲覧者の状態が未読である場合でも、デフォルトコンテンツを表示・再生する。
コンテンツ候補が複数あれば、図4のS407で文書を説明していないと判断された場合の未読用のコンテンツを選択して表示・再生する。更に、閲覧者の状態が途中である場合、図4のS406で説明が途中で終わったと判断された場合の途中用のコンテンツを表示・再生する。
ここで、既読用のコンテンツは文書303について少なくとも一度説明を受けた人物が視聴対象である。従って、詳細な説明内容を一から振り返る必要はない。この場合は、例えば説明時の内容をサマライズしたもの等が既読用のコンテンツとなる。一方、未読用のコンテンツは文書303について一度も説明を受けていない人物が視聴対象となる。よって、文書の内容を詳細に説明するもの等が未読用のコンテンツとなる。
また、デフォルトコンテンツは作成者側がどのような場合でも再生されるものとして1つだけ用意したものである。よって、その内容は作成者側が自由に決められるものであるが、未読用のコンテンツと同じ内容のコンテンツが望ましい。なお、コンテンツの作成者は、文書303の説明者と同じであることが望ましい。本実施形態では、文書303の説明者及びコンテンツの作成者は、顧客に資料を説明する銀行などの説明者である。
さらに途中用のコンテンツは図4のS406で途中まで説明を受けていたと判断された人間が視聴対象となる。これは、文書303について、一部の説明を受けた(既読)が、残りの説明は受けていない(未読)であるとみなすことができる。よって、既読部分に対してはその部分に対応する既読用コンテンツと、未読部分に対してはその部分に対応する未読用コンテンツを合わせて、表示・再生するコンテンツとして作成することができる。また既読部分と未読部分のコンテンツを合わせるのではなく、途中用のコンテンツを別途用意しておいてもよい。
なお、デフォルトコンテンツはコンテンツ候補が複数ある際、その候補の1つとして作られるものとする。そして、閲覧者が既読・未読・途中用のコンテンツの表示・再生を希望しなかった場合にはこのデフォルトコンテンツが表示・再生されるものとする。ただし、作成者の判断によりデフォルトコンテンツが既読・未読・途中用のコンテンツのいずれかと一致していてもよいものとする。また、コンテンツの作成者は文書303の説明者302であってもよいし、説明者302と異なる第三者であってもよい。
以上は、ある文書に関する説明用のコンテンツを、閲覧者の説明を受けた程度に応じて作成する一例について説明したが、具体的なコンテンツ作成方法は本実施形態に限らない。
次に閲覧者301が説明を受けた文書303を、説明を受けていない関係者304と共に閲覧する場面について説明する。
図7は説明を受けた既読閲覧者701と説明を受けていない未読閲覧者702がそれぞれAR端末を用いて文書を閲覧する際の模式図である。ここで既読閲覧者701は図3の閲覧者301と、未読閲覧者702は図3の関係者304と、文書703は図3の文書303とそれぞれ同一であり、既読閲覧者701は文書703の説明を少なくとも一度以上受けているものとする。また未読閲覧者702は文書703の説明を受けていないものとする。更に、既読閲覧者701と未読閲覧者702はAR端末704を用いて文書703の閲覧を行う。ここで、AR端末704はタブレット端末、携帯電話端末、デジタルカメラ等であり、図2のAR端末201と同じである。サーバ705は図2のサーバ204と同じである。
この処理は、図2で説明した構成を用いて行われる。すなわち、AR端末704が撮像した紙文書の画像又は映像データをサーバ705に送り、サーバ705が文書の内容を特定・識別する特定情報を認識する。その特定情報を基にサーバ705で特定された文書に関連付けられた文書関連情報としてのコンテンツが選択され、このコンテンツがAR端末704に送られ表示・再生される。また、サーバ705は図2のサーバ204と同様である。
ここで、既読閲覧者701にとっては文書内容の再確認を行うことになるが、未読閲覧者702にとっては文書の内容をはじめて聞くことになる。既読閲覧者701にとって、図6に示すところの既読状態となり、用意されているコンテンツに応じて既読用コンテンツ706があれば、既読用コンテンツ706が表示・再生される。一方、未読閲覧者702にとって、図6に示すところの未読状態となる。説明を受けていないという未読状態の選択が優先されることとなる。つまり、未読用コンテンツ707が用意されているのであれば、未読用コンテンツ707が表示・再生される。
ここで表示・再生されるコンテンツは、例えば単純な写真、ビデオや音声データであってもよいし、AR端末のディスプレイに表示された文書に重畳し説明用の画像(ARコンテンツ)であってもよい。ARコンテンツがディスプレイに表示された文書に重畳して表示・再生される場合は、文書の内容を合わせて確認できるので、文書内容の把握がより簡単にできる。なお重畳を行う際の表示位置合わせは、認識部205を用いて表示位置を認識して行うこととする。
また、閲覧者の状態に応じた表示・再生内容(コンテンツ)を作成するために、表示・再生コンテンツを内容ごとに細分化して用意しておいてもよい。例えば図8に示すように、コンテンツが文書303の内容によってパートごとに分けられてパートA801、パートB802、パートC803・・・と用意されている。これらに対し、例えば閲覧者が既読の場合にはパートA801のみ、未読の場合にはパートA801〜パートC803すべてを、途中の場合にはパートA801とパートC803だけを、それぞれの状態に基づいて表示・再生するということができる。またこれらのパートは別々のコンテンツとして用意されていてもよいし、一つのコンテンツのうちの再生位置の違いとして実現されていてもよい。例えば再生時間10分のビデオがコンテンツとして用意されている場合、パートAは0分〜3分、パートBは3分〜7分、パートCは7分〜10分という形になる。
これらの文書303の関連情報としてのコンテンツの管理はサーバ705内で行われる。具体的な例としては、図9に示すような管理テーブルを用いる方法が挙げられる。ここでは、人物と閲覧状態を対応付けるテーブル901と、閲覧状態と表示・再生されるコンテンツを対応付けるテーブル901が用意されている。本実施形態では、この管理テーブルは、サーバ111の記憶部114に保持されている。文書303について説明を行った後に説明者側が作成してサーバに保管する。ただし、この構成に限定する必要はない。例えば、文書303の関連情報とともに、管理テーブルをAR端末704に全てダウンロードして記憶部106に保持してもよい。
コンテンツの表示・再生要求時には、以下のような処理が行われる。まず特定された人物Aが特定された文書の関連情報の表示・再生を要求すると、テーブル901が参照され人物Aの閲覧状態が既読であることが分かる。次にテーブル902を参照し、既読の人物に対する表示・再生コンテンツがαであることが分かる。この結果サーバは表示・再生するコンテンツを決定することができる。なお、図8を用いて説明したコンテンツ作成方法に合わせれば、このコンテンツαがパートAということになる。ただし、図6の表601で示すところのコンテンツが単数しか用意されていない状態のときは、テーブル902の再生コンテンツα、β、γは全てデフォルトコンテンツとなる。また、この管理テーブルを参照し表示・再生するコンテンツを決定する処理は、図2のコンテンツ決定部209で行われる。
上記の要求を満たすための処理を行うフローチャートが図10である。まず、ステップS1001においてAR端末704の閲覧者は、AR端末704に表示された文書703を閲覧する。本実施形態では、AR端末704に表示された文書703は電子データを利用して表示されたものであってもよいし、又は撮像部202が紙に印刷された文書703を撮像し、撮像データである画像又は映像を用いて表示されたものであってもよい。
この際、AR端末704の閲覧者が誰であるかを識別し、閲覧者が閲覧している文書703が何であるかを認識する。閲覧者を識別する具体的な方法としては、AR端末704が備えているカメラ等の撮像部109を用いて閲覧者の顔や指紋、虹彩といった生体情報を撮像して、生体情報をサーバ705に送って、サーバ705が認証(識別)を行う。また、AR端末704の入力部103に入力された識別IDをサーバ705に送って、サーバ705が認証(識別)を行う。また、前述した認証処理をAR端末704が行って、認証した結果をサーバ705に送ってもよい。閲覧者の認証(識別)は非図示の認証部もしくは識別部が行う。
また、文書を認識する際に、文書の電子データは不明な場合、例えば紙などの媒体に印刷された文書を撮像して認識をする場合の認識方法は図4のステップS401で説明した方法と同様の方法である。また、文書703の一部を閲覧していることを認識したい場合は、図4のステップS405で説明した方法と同様の方法である。
この処理が終わるとステップS1002に進み、閲覧者を識別する情報と閲覧文書を認証する情報が通信部105とサーバ111の通信部113を通してサーバ111に送られる。ここでは、通信部105は、AR端末704の送信部又は受信部であり、通信部113はサーバの送信部又は受信部である。そして。閲覧者の識別情報及び文書の認識結果を基に、テーブル901を参照して、閲覧者の状態(既読状態)に応じた関連情報が特定されて、記憶部114からRAM115に読み込まれる。ここで読み込まれる関連情報は、図4のステップS405、ステップS406およびステップS407においてサーバ111の記憶部114に記録されたものである。これによって、文書に対する閲覧者の既読状態に応じた文書の関連情報が取得されることになる。なお、ここでは、取得する関連情報を特定して取得するための専用の取得部を設けても良い。
ここでは、閲覧者の認証部もしくは識別部が閲覧者の認証を行って、テーブル901を参照して、閲覧者の状態(既読状態)を特定しているので、閲覧者の認証部もしくは識別部は、閲覧者の状態(既読状態)を識別していることになる。
次にステップS1003に進み、文書に予め関連付けられた関連情報、つまり説明用のコンテンツをサーバ111の記憶部114からRAM115に読み込む。またこのタイミングでは、選択する可能性のある全てのコンテンツを読み込んでおく。選択する可能性のあるコンテンツとは、図6の表601で示されるところの、コンテンツ候補が複数ある際の全候補もしくはコンテンツ候補が単数である際のデフォルトコンテンツのことである。また、次に説明した処理によって、予め選択したコンテンツを記憶部114からRAM115に読み込んでもよい。
サーバ111の記憶部114からRAM115にコンテンツを読み込むために、AR端末704からサーバ111へコンテンツを特定するためのデータとコンテンツの取得要求を送信する。
選択する可能性のある全てのコンテンツを読み込んだ状態でステップS1004ではコンテンツを選択できる状態かどうかの判定を行う。具体的には、ステップS1001で取得した閲覧者識別情報とステップS1003で読み込まれたコンテンツから判断を行う。例えば、ステップS1001で識別した閲覧者は既読閲覧者701のみであり、ステップS1003で再生コンテンツが複数存在する場合、コンテンツ決定部209は表601における既読用コンテンツを表示・再生するコンテンツとして決定する。
一方、ステップS1001で識別した閲覧者は未読閲覧者702であり、ステップS1003で表示・再生コンテンツが複数存在する場合、コンテンツ決定部209は表601における未読用コンテンツの表示・再生を選択する。なお、既読閲覧者701と未読閲覧者702が同時に閲覧している場合でも、未読閲覧者702の閲覧が優先される時も、同様に未読用コンテンツの表示・再生を選択する。
また、ステップS1001で閲覧者に未読閲覧者702が存在しても、ステップS1003で表示・再生できるコンテンツがデフォルトコンテンツ(単数)しかない場合には、コンテンツ決定部209は表601におけるデフォルトコンテンツの出力を行うと判断する。
既読閲覧者701と未読閲覧者702が同時に閲覧する場合は、事前に決めた優先順位に従って表示・再生するコンテンツを決定してもよい。閲覧時に優先される閲覧者を決定してもよい。
この処理により、選択できる表示・再生コンテンツ候補が複数あると判断された場合にはステップS1005に移る。ステップS1005では、実際に表示・再生コンテンツの選択を行う。これは、既読閲覧者701もしくは未読閲覧者702がAR端末101の備えている入力部103に閲覧者特定情報等を入力することによって判断される。
ここでデフォルトコンテンツ以外のコンテンツにすることが選択されると、ステップS1006に遷移する。ステップS1006では、コンテンツ決定部209が英津乱射のそれぞれの既読状態に応じたコンテンツを選択する。その後サーバ111から通信部113を介してAR端末101の通信部105へとコンテンツを送信する。そして、コンテンツ再生部203が選択されたコンテンツを表示・再生する。選択されたコンテンツは画像や映像コンテンツであれば、コンテンツ再生部203が表示部104に画像や映像コンテンツを表示する。選択されたコンテンツは音声コンテンツであれば、コンテンツ再生部203が音声コンテンツを再生する。
また、ステップS1004で選択の候補となるコンテンツがデフォルトコンテンツしかない、もしくはステップS1005でデフォルトコンテンツ以外のコンテンツを選択しない場合にはステップS1007に遷移し、デフォルトコンテンツが表示部104に表示・再生される。
表示した後はステップS1008に移り、まだ閲覧したい文書がある場合にはステップS1001に戻り、閲覧したい文書がない場合には一連の処理を終了させる。
なお、本実施形態のステップS1004〜ステップS1006の処理、即ちコンテンツを選択する処理は、ステップS1003の文書関連情報の読み込みの前に行ってもよい。即ち、サーバ111において、AR端末101で表示・再生するコンテンツを選択してから、選択されたコンテンツを読み込ませることもできる。このようにすることによって、読み込ませるデータ量が少なくても済むメリットがある。このことは、以下の実施形態についても、同様である。
本実施形態によれば、文書を閲覧する際の閲覧者の既読状態に応じて、AR端末101を用いた文書内容の再確認なのか、閲覧する文書の全部もしくは文書の一部について初めて理解するかによって、表示・再生するコンテンツの内容を選択することができる。これにより、文書を閲覧する人物に対して適切なコンテンツを提供することが可能となる。
本実施形態では、AR端末704を用いて文書を閲覧する場合について説明したが、これに限る必要はない。文書の閲覧に代わって、AR端末704を用いて物体の映像を観賞する場合や、実際の物体を撮像して観測する場合でも同様に本実施形態を適用できる。なお、以下の実施形態についても、同様なことが言える。
(第2の実施形態)
本実施形態では、主に同一の文書の再確認を既に少なくとも1回行っている際に、再度再確認を行う場合について着目し、2回目以降の再確認に対して適切なコンテンツを提供する。
本実施形態では、主に同一の文書の再確認を既に少なくとも1回行っている際に、再度再確認を行う場合について着目し、2回目以降の再確認に対して適切なコンテンツを提供する。
なお、以下の第2の実施形態の説明では、第1の実施形態と同様の内容については説明を省略し、第1の実施形態の内容と異なる部分について説明を行う。
図2のサーバ204にある差分認識部210は閲覧者が文書情報に対して行った書き込みを認識する。
図11は過去に1回以上再確認を行った文書1101を示すものである。この文書1101には、過去の再確認の際に閲覧者が重点的に再確認したい、より詳しく知りたい、もしくは重要であると感じて記入した目印1102が書き込まれている。なお、図11では目印1102は楕円形として記されているが、元の文書との変化とその変化が起きた位置情報が認識できればその形態は問わない。
第2の実施形態では、閲覧者がAR端末704を通して閲覧する文書703は、紙などの媒体に印刷された文書であれば、目印1102は閲覧者が媒体に書き込んだものである。文書703は、電子データであれば、目印1102は文書編集ソフトを用いて挿入した図形である。
第2の実施形態の処理も図10を用いて説明する。図10のステップS1001では、差分認識部210が目印1102を差分として検出し、記録する。これは例えば、AR端末201の撮像部202を用いて文書1101を撮像し、サーバ204内の認識部205によってその撮像画像に対して特徴点抽出や背景差分画像作成などの処理を行うことによって実行される。なお、あまりにも多くの目印が記入され、元の文書が認識できない可能性もある。この場合には、類似度が一定以上である文書全てを候補として表示部104に表示し、閲覧者に正しい文書を選ばせるという形式を取ってもよい。
また、目印がある場合にはどの目印について再確認を行うかの選択を行う必要がある。例えば、図12の文書1201のように目印となるものが書き込み1202、楕円印1203、円印1204の3つある場合を考える。この場合には、AR端末504を通して文書1201を見ることにより、各目印に対応する位置に選択ボタン1205、1206、1207がAR端末704の画面上に表示される。そして、この選択ボタンをタッチすることにより再確認したいものを選ぶことができる。なお、選択の仕方は再確認を希望する各選択候補の区別がつけば問題がない。例えば、タッチの変わりに視線入力や音声入力などを用いてもよい。また、選択数に制限はなく、一つのみの選択でも複数選択してもよい。
この際の処理の流れを示したものが図13である。まずステップS1301でAR端末201の撮像部202によって文書画像の撮像を行う。次にステップS1302で、撮像された画像はサーバ204に送られ、認識部205によって文書の種類及び目印の有無とその位置が取得される。認識部205はさらに取得された文書画像における書き込み位置から目印に対応する特定の文書情報を特定する。なお、認識部205がAR端末704に設けられた場合は、撮像された画像はサーバ204に送信する必要はない。
認識部205の特定した文書情報を基に、ステップS1303では図12に示すような選択ボタン1205〜1207がコンテンツ再生部203によってAR端末201の画面上の対応する位置に表示される。次に閲覧者が再確認を希望するボタンをタッチすると、ステップS1304においてタッチされたボタンが認識され、その結果がサーバに送られる。この結果に応じて表示・再生されるコンテンツが変化する。なお、この図13のフローにおけるステップS1302の処理は必ずしもサーバ204で行う必要はなく、AR端末704に同様の機能を有した記憶部を持たせて行ってもよい。
次に、図10のステップS1003で読み込まれるコンテンツの内訳は図14に示す表1401のようになる。基本的な考えは実施形態1で示した表601と同じである。具体的には以下のとおりになる。まず用意されているコンテンツが1つしかない場合に表示・再生されるコンテンツはデフォルトコンテンツである。コンテンツが複数ある場合に、そして書き込み箇所に対応した書き込み箇所説明用コンテンツは含まれている場合、目印1102が書き込まれている文書1101を閲覧し、重点的に再確認したい時に、書き込み箇所説明用コンテンツは表示・再生される。
その後、図10のステップS1004では図10のステップS1001で検出した目印1102の情報を、コンテンツを選択できる状態かの判断に用いる。具体的には、ステップS1001で目印1102が検出され、かつステップS1003で再生コンテンツが複数存在していることを読み込んでいると、コンテンツ決定部209は閲覧者に特定の部分の詳しい説明の要求があると認識できる。
そして、特定部分の詳細な説明を行うことができる書き込み箇所説明用コンテンツの表示・再生を選択できる。なお、実施形態1と同じく、ステップS1001で目印1102が検出されていてもステップS1003で再生コンテンツが単数しかない場合には、コンテンツ決定部209はデフォルトコンテンツしか表示・再生できないと判断できる。
また、図12の文書1201のように目印となる書き込みが複数ある場合には、図13で示した処理によって選択された目印それぞれに対してこの判断が行われる。以上の処理により、再生対象コンテンツが複数ある、かつステップS1005で再生コンテンツとして書き込み箇所説明用コンテンツが選択されると、ステップS1006では目印1102をつけた部分の詳細な説明を行うコンテンツが表示・再生される。
本実施形態によれば、同じ文書内容の再確認を行う際に閲覧者は既読者用のコンテンツを選択できるだけではなく、文書に書き込みなどの目印が記入されている場合には、目印に対応した再生するコンテンツを選択することができる。これにより、同じ文書に対して複数回閲覧する人物に対して適切なコンテンツを提供することが可能となる。
(第3の実施形態)
本実施形態では、主に複数の文書について再確認する場合について着目し、閲覧者が文書間の関連性を考慮しなくとも適切に再確認を行えるようにコンテンツを提供する。
本実施形態では、主に複数の文書について再確認する場合について着目し、閲覧者が文書間の関連性を考慮しなくとも適切に再確認を行えるようにコンテンツを提供する。
第1および第2の実施形態では、閲覧者に最初に説明した文書は複数あっても、互いに関係のない独立した文書として扱っていた。第3の実施形態では、閲覧者に最初に説明した複数の文書の中に、一定の関係を持つ文書同士を関連付けてコンテンツを作成し、コンテンツを提供する装置および方法について説明する。
なお、以下の第3の実施形態の説明では、第1および第2の実施形態と同様の内容については説明を省略し、第1および第2の実施形態の内容と異なる部分について説明を行う。
図2のサーバ204にある関係判定部207及び関係記録部208について説明する。関係判定部207は閲覧者が複数の文書を再確認する場合において、一つの文書ともう一つの文書が関係するかを判定する。関係記録部208は、関係あると判定された複数の文書に対する閲覧者の状態、複数の文書に関連付けられた関連情報や閲覧順序等を記録する。
図15は、図3と同じく文書の説明を受ける際の模式図である。ただしここでは、閲覧者1501が説明者1502から文書1503と文書1504という、2つの文書を関連付けて説明されているとする。この際、説明場所に備え付けられたカメラ等の撮像装置、もしくはマイクなどの集音装置によって記録されるデータから、閲覧者1501にどの文書が、もしくはどの文書のどの部分が説明されたか、複数の文書が関連付けられて説明されたかを検出する。
この処理のうち、複数の文書が関連付けられて説明されたかの判断について説明したフローチャートが図16である。まずステップS1601において、複数の文書が会話の場に置かれたかどうかを検出する。これはステップS401と同じく、固定カメラで会話の場を撮像しておき、撮像された画像と予め用意しておいた文書とのテンプレートマッチングを行うといった方法で検出を行う。もしくは予め用意しておいた文書をクエリにして撮像された画像内を検索し、文書が発見できるかを確認するといった方法で検出を行う。
複数の文書が検出された場合には検出された座標を記録し、ステップS1602に進む。ここでは、複数文書を関連付けて説明が行われたかどうかの判定を関係判定部207により行う。本実施形態の判定方法では、まず、それぞれの文書について説明が行われたかを判定する。次に、それぞれの文書について説明されたと判定した場合、一つの文書についての説明ともう一つの文書についての説明との時間間隔が一定時間以下であるかを判定する。一定時間以下であれば、それらの文書を関連付けて説明したと判定する。
ある文書について説明が行われたかの判定方法の例として、例えば画像データを用いる場合には、文書の領域を隠した場合、つまり文書の一部を指や棒等で一定時間以上に指していたと認識できた場合、その文書について説明したと判定する。文書の領域が隠されたことの認識方法は、第1の実施形態(図4のステップS402又はステップS403)と同じであるため、その説明を省略する。
また音声データを用いる場合には、予め文書、もしくは文書の各部分毎にキーワードを設定しておく。会話時はマイクで内容を録音し、一定時間間隔未満で複数文書の設定したキーワードを一定回数以上検出したら、関連して説明したと判断する。
これらの方法により文書の説明を行ったと判断されると、ステップS1604に進み、文書、もしくは文書の特定の部分を関連付けて説明したことが関係記録部208によってサーバ111の記憶部114に記録される。
またこの際、文書を説明した順番も記録しておく。これは画像を用いた場合には文書を最初に隠した順番、音声を用いた場合には最初にキーワードを発話した順番で判断する。文書のどこを説明したかまで記録する場合には、隠れた部分のうち一番閲覧者1501に近い部分を説明したと判断し、記録する。これは、複数の文書を関連付けて説明した場合、後に説明された文書は、先に説明された文書の内容を前提にして説明されることが多いためである。今回の場合は、文書1503、文書1504の順で説明されたと仮定しておく。なお、このステップS1602、S1604は画像、音声の一方を用いてもよいし、双方を合わせて処理を行ってもよい。
もし、ステップS1601で文書が複数検出されない、またはステップS1602で複数の文書を関連付けて説明されなかったと判断された場合には、ステップS1603に進む。ここでは、説明者1502による説明が終わったかどうかを判断する。終わっていない場合には、ステップS1601に戻り再度文書の検出を行う。
説明が終わった場合にはステップS1605に進み、閲覧者1501には文書1503と文書1504を関連付けて説明されていないとサーバ111の記憶部114に記録する。ここで説明が終わったかどうかの判断は、固定カメラの画像に文書1503と文書1504、もしくは閲覧者1501と説明者1502が一定時間以上映らない、マイクから閲覧者1501と説明者1502に音声が一定時間以上検出されないことによって行う。この処理もステップS1602ならびにステップS1604同様、画像もしくは音声の一方のみを用いてもよいし、双方を合わせて処理してもよい。
再確認を行う際には、図10のステップS1002での処理と同様に文書1503と文書1504を関連付けて説明されているという情報がRAM115に読み込まれる。ここで読み込まれる情報は、ステップS1604及びステップS1605においてサーバ111の記憶部114に記録されたものである。
次に図10のステップS1003では、ステップS1002において読み込まれた情報を元に、文書1503と文書1504に予め関連付けられた情報、つまり説明、再確認用のコンテンツをサーバ111の記憶部114からRAM115読み込む。
ここで読み込まれるコンテンツの内訳を示したものが図17の表1701である。複数文書を関連付けて説明する場合に表示・再生される、関連文書説明用逐次再生コンテンツと文書1503、文書1504それぞれを説明する単独文書説明用コンテンツが読み込まれる。
ここで関連文書説明用逐次再生コンテンツとは、関連する複数の文書についての内容を説明された順に再生するために、複数の単独文書説明用コンテンツを一つのコンテンツ(関連情報)にまとめたものである。例えば本実施形態では、文書1503に関連付けられたコンテンツが表示・再生された後、文書1504に関連付けられたコンテンツが表示・再生される。また、文書1503、文書1504それぞれの文書に関連付けられたコンテンツは、先に述べた単独文書説明用コンテンツでもよいし、別途逐次再生用に用意されたコンテンツでもよい。また、未読・既読・途中といった閲覧者の状態を考慮して逐次表示・再生用のコンテンツを表示・再生内容として用意する。
例えば、閲覧者が文書1503と文書1504の既読者であれば、文書1503と文書1504のそれぞれに関連付けられた既読者用コンテンツが逐次表示・再生される。
図10のステップS1004では、ステップS1002において複数文書が関連付けられて説明されたという情報が読み込まれたかどうかで、コンテンツを選択できるかどうかの判断を行う。複数文書が関連付けられて説明されたという場合、コンテンツ決定部209はコンテンツを選択できる状態であると判断し、ステップS1005に移る。
図10のステップS1005では、実際に表示・再生するコンテンツを選択する。第3実施例では逐次表示・再生するものにするかどうかの選択を行う。逐次表示・再生コンテンツを選択した場合は、ステップS1006に移る。そして、文書1503、文書1504どちらを閲覧している場合にも、文書1503の説明用コンテンツ、文書1504の説明用コンテンツの順にコンテンツが表示・再生される。逐次表示・再生コンテンツを選択しなかった場合には、ステップS1007に移り現在閲覧している文書の説明コンテンツのみ、つまり単独文書用コンテンツが表示・再生される。
本実施形態によれば、AR端末101を用いた文書内容の再確認、理解を行う際に、複数の文書が関連付けられて説明されているという情報がある場合には、複数の文書それぞれに関連するコンテンツの表示・再生を選択することができる。これにより、同時に複数文書を閲覧する場合にも、閲覧する人物が説明を受けた順番に対して適切なコンテンツを提供することが可能となる。
(その他の実施形態)
上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介して情報提示システム又は情報提示装置に供給することが可能である。また、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介して情報提示システム又は情報提示装置に供給することが可能である。また、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 AR端末
104 表示部
106 記憶部
109 撮像部
203 コンテンツ出力部
204 サーバ
206 コンテンツ取得部
209 コンテンツ決定部
104 表示部
106 記憶部
109 撮像部
203 コンテンツ出力部
204 サーバ
206 コンテンツ取得部
209 コンテンツ決定部
Claims (23)
- 表示対象の情報に対する閲覧者の既読状態を取得する第一取得手段と、
前記情報に関連付けられた複数の関連情報から、前記閲覧者の前記情報に対する前記既読状態に応じた関連情報を取得する第二取得手段と、
前記情報の表示とともに、前記第二取得手段で取得した関連情報を出力する出力手段と、
を有することを特徴とする情報出力装置。 - 表示対象の情報に対する閲覧者の既読状態を取得する第一取得手段と、
前記情報に関連付けられた複数の関連情報を取得する第二取得手段と、
前記情報の表示とともに、前記複数の関連情報のうち、前記閲覧者の前記情報に対する前記既読状態に応じた関連情報を出力する出力手段と、
を有することを特徴とする情報出力装置。 - 前記閲覧者の前記情報に対する前記既読状態は、前記閲覧者が前記情報について、説明を受けた状態と、途中までの説明を受けた状態と、説明を受けなかった状態のいずれかであることを特徴とする請求項1乃至2のいずれか1項に記載の情報出力装置。
- 前記関連情報に画像情報を含む場合は、前記出力手段は表示された前記情報に重畳して前記画像情報を表示することを特徴とする請求項1乃至2のいずれか1項に記載の情報出力装置。
- 前記関連情報に音声情報を含む場合は、前記出力手段は表示された前記情報に関連した前記音声情報を再生することを特徴とする請求項1乃至2のいずれか1項に記載の情報出力装置。
- 前記第二取得手段は、前記閲覧者の識別情報と表示対象の前記情報の特定情報と前記関連情報の取得要求を情報提供装置に送信して、前記関連情報を前記情報提供装置から受信することを特徴とする請求項1乃至2のいずれか1項に記載の情報出力装置。
- 表示対象の前記情報は、文書情報であることを特徴とする請求項1乃至6のいずれか1項に記載の情報出力装置。
- 前記文書は説明資料であって、前記関連情報は前記説明資料の補足説明資料であることを特徴とする請求項7に記載の情報出力装置。
- 前記文書情報を表示する表示手段をさらに有し、前記文書情報について説明を受けた後に、前記閲覧者は前記表示手段に表示された前記文書情報を閲覧する際に、前記出力手段は前記関連情報を出力することを特徴とする請求項7又は8に記載の情報出力装置。
- 前記文書情報への書き込みを認識する認識手段をさらに有し、前記書き込みによって前記文書情報の一部が特定された場合、前記取得手段は、前記特定された文書情報の一部に関連付けられた前記関連情報を取得することを特徴とする請求項7に記載の情報出力装置。
- 前記表示対象を撮像する撮像手段をさらに有し、前記表示対象の前記情報は前記撮像手段が前記表示対象を撮像した画像情報であることを特徴とする請求項1に記載の情報出力装置。
- 前記文書が複数ある場合、複数ある前記文書の関係を判定する関係判定手段をさらに有し、関係あると判定された場合、複数ある前記文書のそれぞれに対する前記閲覧者の既読状態に基づいて、前記文書のそれぞれに関連付けられた関連情報を一つの関連情報として取得することを特徴とする請求項7に記載の情報出力装置。
- 複数ある前記文書のそれぞれに対する前記閲覧者の既読状態が異なる場合、前記閲覧者の異なる既読状態に基づいて、前記文書のそれぞれに関連付けられた関連情報を一つの関連情報として取得することを特徴とする請求項12に記載の情報出力装置。
- 前記関係判定手段は、複数ある前記文書について、前記閲覧者が説明を受けた時に、一つの前記文書についての説明ともう一つの前記文書についての説明との時間間隔が一定時間以下であれば、前記一つの前記文書と前記もう一つの前記文書とが関係あると判定することを特徴とする請求項12に記載の情報出力装置。
- 情報の閲覧者の前記情報に対する既読状態と、前記情報に関連付けて前記既読状態に対応する複数の関連情報を保持する保持手段と、
前記閲覧者の識別情報と前記情報の特定情報と、前記情報に対する関連情報の取得要求とを受信する受信手段と、
前記識別情報と前記特定情報と前記取得要求とに基づいて、前記保持手段に保持されている前記複数の関連情報のうち、前記情報を閲覧する前記閲覧者の既読状態に応じた関連情報を取得する取得手段と、
前記取得手段で取得した前記関連情報を送信する送信手段と、
を有することを特徴とする情報提供装置。 - 前記情報は文書情報である場合、前記保持手段は、前記文書情報における書き込みによって特定された前記文書情報の一部に関連付けられた関連情報を保持することを特徴とする請求項15記載の情報提供装置。
- 前記保持手段は、関連する複数の前記文書のそれぞれに関連付けられた関連情報を一つの関連情報として保持することを特徴とする請求項15記載の情報提供装置。
- 表示対象の情報に対する閲覧者の既読状態を取得する第一取得工程と、
前記情報に関連付けられた複数の関連情報から、前記閲覧者の前記情報に対する既読状態に応じた関連情報を取得する第二取得工程と、
前記情報の表示とともに、前記第二取得工程で取得した関連情報を、出力する出力工程と、
を有することを特徴とする情報出力方法。 - 表示対象の情報に対する閲覧者の既読状態を取得する第一取得工程と、
前記情報に関連付けられた複数の関連情報を取得する第二取得工程と、
前記情報の表示とともに、前記複数の関連情報のうち、前記閲覧者の前記情報に対する既読状態に応じた関連情報を出力する出力工程と、
を有することを特徴とする情報出力方法。 - 情報の閲覧者の前記情報に対する既読状態によって異なる、前記情報に関連付けられた複数の関連情報を保持する保持工程と、
特定の情報の閲覧者の前記情報に対する既読状態の識別情報と、特定の情報に対する関連情報の取得要求とを受信する受信工程と、
前記識別情報と前記取得要求とに基づいて、前記保持手段に保持されている前記複数の関連情報のうち、前記特定された情報を閲覧する前記閲覧者の既読状態に応じた関連情報を取得する取得工程と、
取得した前記関連情報を送信する送信工程と、
を有することを特徴とする情報提供方法。 - コンピュータに
表示対象の情報に対する閲覧者の既読状態を取得する第一取得手順と、
前記情報に関連付けられた複数の関連情報から、前記閲覧者の前記情報に対する既読状態に応じた関連情報を取得する第二取得手順と、
前記情報の表示とともに、前記第二取得手順で取得した関連情報を、出力する出力手順と、
を実行させるためのプログラム。 - コンピュータに
表示対象の情報に対する閲覧者の既読状態を取得する第一取得手順と、
前記情報に関連付けられた複数の関連情報を取得する第二取得手順と、
前記複数の関連情報のうち、前記閲覧者の前記情報に対する既読状態に応じた関連情報を出力する出力手順と、
を実行させるためのプログラム。 - コンピュータに
情報の閲覧者の前記情報に対する既読状態によって異なる、前記情報に関連付けられた複数の関連情報を保持する保持手順と、
特定の情報の閲覧者の前記情報に対する既読状態の識別情報と、特定の情報に対する関連情報の取得要求とを受信する受信手順と、
前記識別情報と前記取得要求とに基づいて、前記保持手段に保持されている前記複数の関連情報のうち、前記特定された情報を閲覧する前記閲覧者の既読状態に応じた関連情報を取得する取得手順と、
取得した前記関連情報を送信する送信手順と、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014089305A JP2015207258A (ja) | 2014-04-23 | 2014-04-23 | 情報出力装置、情報出力方法及びプログラム、情報提供装置、情報提供方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014089305A JP2015207258A (ja) | 2014-04-23 | 2014-04-23 | 情報出力装置、情報出力方法及びプログラム、情報提供装置、情報提供方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015207258A true JP2015207258A (ja) | 2015-11-19 |
Family
ID=54603992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014089305A Pending JP2015207258A (ja) | 2014-04-23 | 2014-04-23 | 情報出力装置、情報出力方法及びプログラム、情報提供装置、情報提供方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015207258A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018156478A (ja) * | 2017-03-17 | 2018-10-04 | ラスパンダス株式会社 | コンピュータプログラム |
WO2020183826A1 (ja) * | 2019-03-08 | 2020-09-17 | 株式会社Nttドコモ | 関連情報出力装置 |
JP2022110057A (ja) * | 2018-06-21 | 2022-07-28 | グーグル エルエルシー | ビジュアルサーチのためのデジタル補足関連付けおよび検索 |
US12032633B2 (en) | 2018-06-21 | 2024-07-09 | Google Llc | Digital supplement association and retrieval for visual search |
-
2014
- 2014-04-23 JP JP2014089305A patent/JP2015207258A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018156478A (ja) * | 2017-03-17 | 2018-10-04 | ラスパンダス株式会社 | コンピュータプログラム |
JP2022110057A (ja) * | 2018-06-21 | 2022-07-28 | グーグル エルエルシー | ビジュアルサーチのためのデジタル補足関連付けおよび検索 |
US12032633B2 (en) | 2018-06-21 | 2024-07-09 | Google Llc | Digital supplement association and retrieval for visual search |
WO2020183826A1 (ja) * | 2019-03-08 | 2020-09-17 | 株式会社Nttドコモ | 関連情報出力装置 |
JPWO2020183826A1 (ja) * | 2019-03-08 | 2020-09-17 | ||
JP7157871B2 (ja) | 2019-03-08 | 2022-10-20 | 株式会社Nttドコモ | 関連情報出力装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9058375B2 (en) | Systems and methods for adding descriptive metadata to digital content | |
CN101753823B (zh) | 自动标记图像的装置及其方法 | |
US8249434B2 (en) | Contents playing method and apparatus with play starting position control | |
US9449646B2 (en) | Methods and systems for media file management | |
US11941048B2 (en) | Tagging an image with audio-related metadata | |
JP2015207258A (ja) | 情報出力装置、情報出力方法及びプログラム、情報提供装置、情報提供方法及びプログラム | |
JP2007047959A (ja) | 情報編集表示装置、情報編集表示方法、サーバ、情報処理システムおよび情報編集表示プログラム | |
US20160066054A1 (en) | Methods, systems, and media for providing media guidance | |
EP2711853B1 (en) | Methods and systems for media file management | |
JP5320913B2 (ja) | 撮像装置およびキーワード作成プログラム | |
JP2012178028A (ja) | アルバム作成装置、アルバム作成装置の制御方法、及びプログラム | |
JP4723901B2 (ja) | テレビジョン表示装置 | |
CN104978389B (zh) | 方法、系统、服务器和客户端 | |
US20140078331A1 (en) | Method and system for associating sound data with an image | |
JP4015018B2 (ja) | 記録装置、記録方法及び記録プログラム | |
CN107239496A (zh) | 多媒体信息检索方法和多媒体信息检索装置 | |
JP2005191892A (ja) | 情報取得装置及びこれを用いたマルチメディア情報作成システム | |
JP4876736B2 (ja) | ドキュメントカメラ装置 | |
KR102079483B1 (ko) | 지문들을 변환하여 비인가된 미디어 콘텐츠 아이템들을 검출하기 위한 방법들, 시스템들 및 매체들 | |
KR20140077287A (ko) | 녹음 파일 제어 단말 장치 및 방법 | |
JP7288491B2 (ja) | 情報処理装置、及び制御方法 | |
JP2017073607A (ja) | コンテンツ再生システム、方法、コンピュータプログラム | |
JP2016015621A (ja) | コンテンツ再生装置、コンテンツ再生のためのプログラム、コンテンツ再生方法、およびコンテンツ再生システム | |
JP2006185187A (ja) | 情報処理装置、情報処理方法及びプログラム | |
TW200939215A (en) | Image accessing device and accessing method thereof |