JP7196393B2 - 情報提示装置、情報提示システム、情報提示方法およびプログラム - Google Patents

情報提示装置、情報提示システム、情報提示方法およびプログラム Download PDF

Info

Publication number
JP7196393B2
JP7196393B2 JP2017232043A JP2017232043A JP7196393B2 JP 7196393 B2 JP7196393 B2 JP 7196393B2 JP 2017232043 A JP2017232043 A JP 2017232043A JP 2017232043 A JP2017232043 A JP 2017232043A JP 7196393 B2 JP7196393 B2 JP 7196393B2
Authority
JP
Japan
Prior art keywords
search
unit
information presentation
display
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017232043A
Other languages
English (en)
Other versions
JP2019101751A (ja
Inventor
俊之 古田
克己 金崎
聖彦 篠宮
嘉偉 勇
亮 古谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017232043A priority Critical patent/JP7196393B2/ja
Priority to US16/162,581 priority patent/US20190171734A1/en
Publication of JP2019101751A publication Critical patent/JP2019101751A/ja
Application granted granted Critical
Publication of JP7196393B2 publication Critical patent/JP7196393B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報提示装置、情報提示システム、情報提示方法およびプログラムに関する。
昨今、会議では、プロジェクタや大型ディスプレイに資料等を投影しつつ、ホワイトボードに書き込みをしながら議論をするといったスタイルが一般的である。このような会議の場において、投影されている内容、および、話されている内容を基に情報検索を行い、その結果を会議参加者に自動的に提示することによって、会議進行の手助けを行なうようなシステムが既に開示されている。
このような、会議進行の効率化を図るシステムとして、AI(Artificial Intelligence:人工知能)が、会議における発話やその場の状態を読み取り、キーワードおよびレコメンド情報を壁およびテーブル等に表示するシステムが開示されている(非特許文献1)。
しかしながら、現状のAI技術のレベルにおいては、発話の内容および画像の認識によるテキスト化、キーワード抽出、および当該キーワードに基づく情報検索等については、ある程度の実用的なレベルにあるものの、テキスト化された発話の内容等から、どのようなことが話題になっており、どのような情報を検索したいか、そのためにはどのような検索条件とすればよいかについては、全く実用的なレベルとなっていないという問題がある。例えば、発話内容が「そういえば議事録の効率化をどこかで見たことがある」と「そういえば議事録で効率化をどこかで見たことがある」とでは、まるで、発話の意図が異なり、実際の検索条件にすると、例えば、前者は「議事録」および「効率化」でインターネット検索が妥当であるが、後者の場合は「効率化」で社内の文書管理システム上の議事録からの検索が妥当である。しかし、現状のAI技術では、話題の抽出はまだ実用的なレベルではないので、ほとんどが前者の検索条件での検索になってしまう。
また、例えば、発話内容等に地名が含まれていた場合、地名は有力なキーワードであり、単語が地名かどうかの判定も現在のAI技術で判別可能である。しかし、地名といっても、その場所自体が話題になっているか、地名と同一のスポーツチームまたは食べ物等が話題になっているかによって、検索条件を地名だけでなく、例えば「サッカー」または「ラーメン」等のジャンルを表すキーワードを追加等の工夫をすることが必要となる。人であれば会議の文脈から何が話題になっているかを理解することは可能であり、かつ、単純なキーワード検索では所望の検索結果が得られないことを知っているので、上述のようなキーワードの追加という工夫ができるが、現状のAI技術ではそこまでの動作は困難である。
また、会議に関連する情報と言っても、参加者の誰もが知らないような新規な情報が必要な場合もあれば、参加者の誰もが知っているはずの情報が必要な場合もあれば(周知・確認等を行う場合)、専門用語の意味等参加者によって必要性が異なる場合等もあり、このどれが必要とされているかはそのときどきで様々であり、会議中に時々刻々変わることもある。参加者は、会議の流れ等からどの情報(社内の文書、または外部の専門サイト等)が有用かは把握可能であるが、これを会議の画面または発話内容等から自動的に類推することは、現在のAI技術では技術的に困難である。会議の参加者の意図とずれた情報提示は役に立たないばかりか、会議の効率化を損なうことにもなる等、逆効果にもなりかねないといった問題もあった。
本発明は、上述の問題点に鑑みてなされたものであって、会議の参加者が期待する検索結果により近いものを提示することができる情報提示装置、情報提示システム、情報提示方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、会議における情報から抽出されるキーワードについて、複数の検索条件に基づいて、該各検索条件が示す検索対象からの検索を指令する検索部と、前記検索部による検索により得られた前記各検索条件に対応するそれぞれの検索結果を、弁別可能な形式で表示部に提示する情報提示部と、を備え、前記情報提示部は、前記各検索結果を、該各検索結果の関連度を示すスコアと共に、前記表示部に表示させ、前記検索対象が複数の場合、それぞれの検索結果を前記スコアで比較することができることを特徴とする。

本発明によれば、会議の参加者が期待する検索結果により近いものを提示することができる。
図1は、実施形態に係る情報提示システムの全体構成の一例を示す図である。 図2は、実施形態に係る情報提示システムを利用した会議の様子の一例を示す図である。 図3は、実施形態に係る情報提示装置のハードウェア構成の一例を示す図である。 図4は、実施形態に係る情報提示システムの機能ブロックの構成の一例を示す図である。 図5は、実施形態に係る情報提示装置において複数の検索条件に対応するアイコンを表示した状態の一例を示す図である。 図6は、複数の検索条件にそれぞれ対応するアイコンの一例を示した図である。 図7は、実施形態に係る情報提示システムの情報提示処理の流れの一例を示すシーケンス図である。 図8は、実施形態に係る情報提示装置において、複数の検索条件に対応するアイコンに対して検索結果であるスコアを表示させた状態の一例を示す図である。 図9は、実施形態に係る情報提示装置において、複数の検索条件に対応するアイコンのいずれかをタッチした場合に表示される検索結果の一例を示す図である。
以下に、図1~図9を参照しながら、本発明に係る情報提示装置、情報提示システム、情報提示方法およびプログラムの実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。
(情報提示システムの全体構成)
図1は、実施形態に係る情報提示システムの全体構成の一例を示す図である。図1を参照しながら、本実施形態に係る情報提示システム1の全体構成の一例について説明する。
図1に示すように、本実施形態に係る情報提示システム1は、情報提示装置10と、PC(Personal Computer)20と、プロジェクタ25と、クラウド30と、文書管理システム40と、を含み、互いに通信可能となるようにネットワーク2に接続されている。ネットワーク2は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、専用回線、またはインターネット等のネットワークである。ネットワーク2は、例えば、TCP(Transmission Control Protocol)/IP(Internet Protocol)等の通信プロトコルでデータ通信が行われる。なお、ネットワーク2には、有線ネットワークおよび無線ネットワークが混在しているものとしてもよい。
情報提示装置10は、会議に有用と思われる情報を検索して表示する装置であり、例えば、IWB(Interactive Whiteboard)と称される電子黒板である。以下、情報提示装置10は、IWBであるものとして説明する。情報提示装置10には、カメラ511が接続されている。カメラ511は、例えば、プロジェクタ25が投影した投影画像を撮像する撮像装置である。
PC20は、例えば、情報提示装置10に表示させる画像を送信する情報処理装置である。
プロジェクタ25は、ネットワーク2経由で外部装置(例えば、PC20)から受信したデータをスクリーン等の被投影面に投影する画像投影装置である。なお、プロジェクタ25は、ネットワーク2に接続されているものとしているが、これに限定されるものではなく、例えば、PC20に接続されているものとし、PC20から受信したデータ(例えば、PC20で表示されている画像データ)を投影するものとしてもよい。
クラウド30は、情報提示装置10からの利用要求により、情報提示装置10を使用するユーザ(会議の参加者)が所望する機能(クラウドサービス)を、ネットワーク2を通じて提供するコンピュータ資源の集合体である。
文書管理システム40は、例えば、会議を行う参加者の会社内で作成された様々な文書をデータベース化して管理するシステムである。
なお、図1に示す情報提示システム1の構成は一例であり、これに限定されるものではない。例えば、PC20から画像を情報提示装置10に送信して表示させる必要がない場合、情報提示システム1にPC20は含まれてないものとしてもよい。また、プロジェクタ25による投影画像を撮像する必要がない場合は、情報提示システム1にプロジェクタ25およびカメラ511は含まれていないくてもよい。
図2は、実施形態に係る情報提示システムを利用した会議の様子の一例を示す図である。
図2では、ある会議の場において本実施形態に係る情報提示システム1が利用された状態が示されている。情報提示装置10はIWBであり、図2では、会議の参加者の1人である参加者50aが電子ペン(スタイラス)を用いて情報提示装置10のタッチパネルディスプレイに会議の内容を書き込んでいる状態が示されている。また、会議の参加者の1人である参加者50bが操作するPC20から、会議で共有すべき画像が、情報提示装置10に送信されてタッチパネルディスプレイに表示される。また、会議室の机の上にはプロジェクタ25が設置されており、プロジェクタ25は、図2の手前側にあるスクリーンに画像を投影する。また、会議室の机の上にはカメラ511が設置されており、カメラ511は、例えば、プロジェクタ25が投影した投影画像を撮像する。なお、図2に示す例では、カメラ511は、プロジェクタ25が投影した投影画像を撮像しているものとしているが、これに限定されるものではなく、例えば、手書きのホワイトボード面を撮像するものとしてもよい。
(情報提示装置のハードウェア構成)
図3は、実施形態に係る情報提示装置のハードウェア構成の一例を示す図である。図3を参照しながら、本実施形態に係る情報提示装置10のハードウェア構成の一例について説明する。
図3に示すように、本実施形態に係る情報提示装置10は、CPU(Central Processing Unit)501と、メモリ502と、記憶装置503と、タッチパネルディスプレイ504と、マイク505と、スピーカ506と、外部機器I/F507と、ネットワークI/F508と、を備えている。
CPU501は、情報提示装置10全体の動作を制御する集積回路である。なお、CPU501は、単体の集積回路であるものの他、例えば、SoC(System on Chip)に含まれるCPUであってもよい。
メモリ502は、CPU501のワークエリアとして使用される揮発性のRAM(Random Access Memory)等の記憶装置である。
記憶装置503は、情報提示装置10の処理を実行するための各種プログラム、画像データおよび音声データ、それらから得られたキーワード、ならびにキーワードに基づく検索結果等の各種データを記憶する不揮発性の補助記憶装置である。記憶装置503は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)またはSSD(Solid State Drive)等である。
タッチパネルディスプレイ504は、画像データ等を表示デバイスに表示する機能、および、ユーザの電子ペン(スタイラス)がタッチパネルに触れた座標をCPU501に送信するタッチ検出機能を備えたタッチ検出機能付き表示デバイスである。タッチパネルディスプレイ504は、後述する図5に示すように、例えば、電子ペンでパネル表面をなぞった軌跡を表示させることによって筆記が可能な電子黒板としての機能を有する。また、タッチパネルディスプレイ504の表示デバイスは、例えば、LCD(Liquid Crystal Display:液晶ディスプレイ)、または有機EL(Organic Electro-Luminescence)ディスプレイ等によって構成される。
マイク505は、会議に参加している参加者の音声を入力する集音装置である。マイク505は、例えば、図2において、ディスプレイ(タッチパネルディスプレイ504)の上側等に設置され、情報提示装置10に対向する参加者が発する音声を入力する。
スピーカ506は、CPU501の制御に従って、音声を出力する装置である。スピーカ506は、例えば、図2において、ディスプレイ(タッチパネルディスプレイ504)の下側等に設置されており、例えば、遠隔地との相手拠点を交えた会議を行う場合において受信された当該相手拠点の音声データを音声として出力する。
外部機器I/F507は、外部機器を接続するためのインターフェースである。外部機器I/F507は、例えば、USB(Universal Serial Bus)インターフェース、またはRS(Recommended Standard)-232Cインターフェース等である。図3に示すように、外部機器I/F507には、カメラ511が接続されている。カメラ511は、レンズ、および光を電荷に変換して被写体の画像(映像)をデジタル化する固体撮像素子を含む撮像装置である。カメラ511は、例えば、プロジェクタ25が投影した投影画像を撮像する。固体撮像素子としては、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)等が用いられる。なお、カメラ511は、図1等で説明したように、単体の撮像装置であることの他、例えば、図1に示すPC20に内蔵されたカメラであってもよい。この場合、内蔵されたカメラにより撮像された画像データは、PC20およびネットワーク2を介し情報提示装置10に送信される。
ネットワークI/F508は、インターネット等のネットワーク(図1に示すネットワーク2)を利用して、外部とのデータを通信するためのインターフェースである。ネットワークI/F508は、例えば、NIC(Network Interface Card)等である。ネットワークI/F508が対応する規格としては、有線LAN(Local Area Network)の場合、例えば、10Base-T、100Base-TX、または1000Base-T等が挙げられ、無線LANの場合、例えば、802.11a/b/g/n等が挙げられる。
なお、情報提示装置10のハードウェア構成は、図3に示す構成に限定されるものではない。例えば、情報提示装置10は、情報提示装置10を制御するためのファームウェア等を記憶した不揮発性の記憶装置であるROM(Read Only Memory)等を備えるものとしてもよい。また、図3に示すように、メモリ502、記憶装置503、タッチパネルディスプレイ504、マイク505、スピーカ506、外部機器I/F507およびネットワークI/F508は、CPU501に接続されている態様で示しているが、このような構成に限定されるものではなく、例えば、上述の各構成部品が、アドレスバスおよびデータバス等のバスによって互いに通信可能となるように接続される構成としてもよい。
また、図3では、情報提示装置10は、マイク505およびスピーカ506を本体に内蔵する構成を示したが、これらの少なくともいずれかが別体として構成されているものとしてもよい。例えば、スピーカ506が内蔵されているものではなく別体の外部機器である場合、上述の外部機器I/F507を介して、情報提示装置10に接続されるものとしてもよい。
(情報提示システムの機能ブロック構成)
図4は、実施形態に係る情報提示システムの機能ブロックの構成の一例を示す図である。図4を参照しながら、本実施形態に係る情報提示システム1の機能ブロックの構成の一例について説明する。
図4に示すように、本実施形態に係る情報提示装置10は、画像取得部101と、音声取得部102と、検索部103と、情報提示部104と、記憶部105と、ネットワーク通信部106と、外部通信部107と、音声出力制御部108と、音声出力部109と、音声入力部110と、表示制御部111と、表示部112と、入力部113と、を有する。
画像取得部101は、カメラ511により撮像されたプロジェクタ25による投影画像の画像データ、および表示部112(すなわち、タッチパネルディスプレイ504)に表示されている画像データを取得する機能部である。また、画像取得部101は、PC20に保存された画像データ等を取得するものとしてもよい。画像取得部101は、例えば、定期的または断続的に画像データを取得するものとすればよい。画像取得部101は、取得した画像データを、画像認識に基づくテキスト化のため、ネットワーク通信部106およびネットワーク2を介して、クラウド30へ送信する。画像取得部101は、例えば、図3に示すCPU501により実行されるプログラムによって実現される。なお、プロジェクタ25が投影する画像データをプロジェクタ25から直接取得できる場合は、画像取得部101は、カメラ511ではなく、プロジェクタ25から直接、投影画像の画像データを取得するものとしてもよい。
音声取得部102は、マイク505により集音(入力)された音声の音声データを取得する機能部である。音声取得部102は、例えば、定期的または断続的に、または、音声を検出している期間に音声データを取得するものとすればよい。音声取得部102は、取得した音声データを、音声認識に基づくテキスト化のため、ネットワーク通信部106およびネットワーク2を介して、クラウド30へ送信する。音声取得部102は、例えば、図3に示すCPU501により実行されるプログラムによって実現される。
検索部103は、クラウド30によって、画像データおよび音声データに対する画像認識および音声認識によりテキスト化されたテキストから抽出されたキーワードについて、予め設定された複数の検索条件に基づいて検索を指令する機能部である。検索部103は、複数の検索条件に基づいて、クラウド30または文書管理システム40等に対してキーワード検索を指令する検索指令を、キーワードおよび検索条件と共に送信する。なお、検索部103自身が、検索条件に基づいてキーワード検索を行うものとしてもよい。検索部103は、例えば、図3に示すCPU501により実行されるプログラムによって実行される。
情報提示部104は、検索部103から送信された検索条件に基づく検索結果をクラウド30から受信して、表示制御部111に対して表示部112に当該検索結果を表示(提示)させる機能部である。情報提示部104は、例えば、図3に示すCPU501により実行されるプログラムによって実行される。なお、情報提示部104が、表示制御部111に対して、何らかの情報を表示部112に表示させることを、単に、情報提示部104が、情報を表示部112に表示させる、のように表現する場合がある。
記憶部105は、情報提示装置10の処理を実行するための各種プログラム、画像データおよび音声データ、それらから得られたキーワード、ならびにキーワードに基づく検索結果等の各種データを記憶する機能部である。記憶部105は、図3に示す記憶装置503によって実現される。
ネットワーク通信部106は、ネットワーク2を介して、クラウド30、PC20、および文書管理システム40その他の外部機器または外部システムと、データ通信を行う機能部である。ネットワーク通信部106は、図3に示すネットワークI/F508によって実現される。
外部通信部107は、外部機器とデータ通信を行う機能部である。外部通信部107は、図3に示す外部機器I/F507によって実現される。
音声出力制御部108は、音声出力部109に各種音声を出力させる制御を行う機能部である。音声出力制御部108は、例えば、図3に示すCPU501がプログラムを実行することによって実現される。
音声出力部109は、音声出力制御部108の制御に従って、各種音声を出力する機能部である。音声出力部109は、図3に示すスピーカ506によって実現される。
音声入力部110は、音声を入力する機能部である。音声入力部110は、図3に示すマイク505によって実現される。
表示制御部111は、表示部112に、各種画像および映像、ならびに、電子ペンによりなぞられた筆記内容等を表示させる制御を行う機能部である。表示制御部111は、例えば、図3に示すCPU501がプログラムを実行することによって実現される。
表示部112は、表示制御部111の制御に従って、各種画像および映像、ならびに、電子ペンによりなぞられた筆記内容等を表示する機能部である。表示部112は、図3に示すタッチパネルディスプレイ504における表示デバイスに表示する機能によって実現される。
入力部113は、ユーザ(例えば、会議の参加者)の電子ペン(スタイラス)による筆記入力を受け付ける機能部である。入力部113は、図3に示すタッチパネルディスプレイ504におけるタッチ検出機能によって実現される。
なお、図4に示す情報提示装置10の画像取得部101、音声取得部102、検索部103、情報提示部104、記憶部105、ネットワーク通信部106、外部通信部107、音声出力制御部108、音声出力部109、音声入力部110、表示制御部111、表示部112および入力部113は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図4に示す情報提示装置10で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図4に示す情報提示装置10で1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
また、図4では、情報提示装置10が有する主要な機能部が示されているものであり、情報提示装置10が有する機能は、これらに限定されるものではない。
また、図4に示す情報提示装置10の各機能部は、PC20に備えられるものとしてもよい。この場合、PC20が「情報提示装置」として機能する。
図4に示すように、クラウド30は、画像認識部301(認識部の一例)と、音声認識部302(認識部の一例)と、キーワード抽出部303(抽出部)と、外部検索部304と、を有する。
画像認識部301は、情報提示装置10からネットワーク2を介して受信した画像データに対して画像認識を行い、当該画像データに含まれるテキスト(文字)を抽出(テキスト化)する機能部である。画像認識の方式としては、公知のOCR(Optical Character Recognition:光学文字認識)の方式を用いるものとすればよい。画像認識部301は、クラウド30が包含するコンピュータ資源によって実現される。
音声認識部302は、情報提示装置10からネットワーク2を介して受信した音声データに対して音声認識を行い、当該音声データからテキスト(文字)を抽出(テキスト化)する機能部である。音声認識の方式としては、例えば、公知の隠れマルコフモデルを用いた方式等を用いるものとすればよい。音声認識部302は、クラウド30が包含するコンピュータ資源によって実現される。
キーワード抽出部303は、画像認識部301および音声認識部302によりテキスト化されたテキストから、キーワードを抽出する機能部である。テキストからキーワードを抽出する方法としては、例えば、形態素解析により品詞に分解して助詞等を除いた単語を抽出等の方法が挙げられる。キーワード抽出部303は、クラウド30が包含するコンピュータ資源によって実現される。
外部検索部304は、情報提示装置10の検索部103から検索条件を検索指令と共に、ネットワーク2を介して受信した場合、当該検索条件に基づいて、キーワードの検索を行う機能部である。ここで、外部検索部304によるキーワードの検索は、単なるキーワード検索ではなく、予め指定された検索条件に基づくキーワード検索である。ここで、検索条件としては、例えば、検索対象となるソース(ウェブまたは文書管理システム40等)、使用する検索エンジン、ジャンル、検索対象となる情報の更新日、および、検索対象となるキーワードに付加する別のキーワード(例えば、「セキュリティ」、「政治」、「世界遺産」等)等、様々な条件を予め指定しておくことができる。
なお、図4に示すクラウド30の画像認識部301、音声認識部302、キーワード抽出部303および外部検索部304は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図4に示すクラウド30で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図4に示すクラウド30で1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
また、画像認識部301、音声認識部302、キーワード抽出部303および外部検索部304は、クラウド30により実現される機能としてまとめて記載されているが、すべての機能部が特定のコンピュータ資源により実現されることに限定するものではない。また、画像認識部301、音声認識部302、キーワード抽出部303および外部検索部304は、クラウド30により実現されることに限定されるものではなく、情報提示装置10または他のサーバ装置によって実現されるものとしてもよい。
(検索条件および検索結果の表示態様の概要)
図5は、実施形態に係る情報提示装置において複数の検索条件に対応するアイコンを表示した状態の一例を示す図である。図6は、複数の検索条件にそれぞれ対応するアイコンの一例を示した図である。図5および図6を参照しながら、情報提示装置10における検索条件および検索結果の表示態様の概要について説明する。
図5は、タッチパネルディスプレイ504(表示部112)に表示された内容の一例を示している。タッチパネルディスプレイ504の左側には、ユーザ(例えば、会議の参加者)が電子ペンによって、会議での話題に関する内容が書き込まれている。このように、タッチパネルディスプレイ504に書き込まれた内容の画像データからキーワードが抽出され、検索部103によって、複数の検索条件に基づくキーワード検索が指令される。
そして、情報提示部104は、上述の複数の検索条件に基づく検索結果を受信すると、図5の右側に示すように、各検索条件の検索結果に対応したアイコンをタッチパネルディスプレイ504(表示部112)に表示させる。すなわち、アイコンの表示によって、複数の検索条件に基づく検索結果を弁別可能な形式で提示している。図5に示す例では、人の図柄を含むアイコン601、602の2つのアイコンが表示されており、これは、検索条件が2つであり、それぞれの検索条件によって2つの検索結果が得られたことを示している。
なお、上述では、情報提示部104が検索結果を受信した場合に、タッチパネルディスプレイ504(表示部112)に、当該検索結果に対応するアイコンを表示させるものとしているが、これに限定されるものではない。例えば、キーワードに対する検索条件が予め指定され、当該検索条件の個数が定まっている場合、情報提示部104は、当該検索条件に対応するアイコンを弁別可能にタッチパネルディスプレイ504に表示させるものとしてもよい。この場合、情報提示部104は、当該検索条件に対する検索結果を受信した場合には、表示させているアイコンを、検索結果を受信したことを示す態様(例えば、後述する図8に示すスコアの表示)に表示を変更するものとすればよい。
また、タッチパネルディスプレイ504に表示される各検索結果に対応するアイコンは、図5に示すように、情報提示装置10が電子黒板としての機能を阻害しないように、隅の方に表示させることが望ましい。例えば、図5に示すように、会議での話題に関する内容が書き込まれている表示領域以外の表示領域に、各検索結果に対応するアイコンを表示させる等の方法が考えられる。
図6では、各検索条件に対応したアイコンの例を示している。図5に示すような、人の顔を示すだけのアイコンでは、検索条件が想起しづらいことがあるので、例えば、会議の最初に予めタッチパネルディスプレイ504に、図6に示すように、検索条件の少なくとも一部(図6の例では、検索先(ウェブ、議事録、文書管理システム40等))を表示させたアイコンのように、検索条件を端的に表すアイコンを表示させてもよい。これによって、あたかもアイコンで示された人物が会議に参加しているような感覚で用いることが可能となると共に、当該検索結果がどのような検索条件で得られたものかを把握することができる。例えば、図6において、「Web検索」および「Web検索2」のアイコンは、ウェブに対するキーワード検索を行う検索条件を示しており、それぞれ検索の方法(例えば、異なるサーチエンジンを用いる等)が異なることを示している。また、「文書管理システム検索」のアイコンは、検索対象がウェブではなく、会議を行う参加者の会社内で管理されている文書管理システム40に対してキーワード検索を行う検索条件を示している。
(情報提示システムの情報提示処理の流れ)
図7は、実施形態に係る情報提示システムの情報提示処理の流れの一例を示すシーケンス図である。図8は、実施形態に係る情報提示装置において、複数の検索条件に対応するアイコンに対して検索結果であるスコアを表示させた状態の一例を示す図である。図9は、実施形態に係る情報提示装置において、複数の検索条件に対応するアイコンのいずれかをタッチした場合に表示される検索結果の一例を示す図である。図7~図9を参照しながら、本実施形態に係る情報提示システム1の情報提示処理の流れの一例を説明する。
<ステップS11>
情報提示装置10の画像取得部101は、カメラ511により撮像されたプロジェクタ25による投影画像の画像データ、表示部112(タッチパネルディスプレイ504)が表示している画像データ、または、PC20に保存された画像データ等を取得する。画像取得部101は、例えば、定期的または断続的に画像データを取得するものとすればよい。
<ステップS12>
情報提示装置10の音声取得部102は、マイク505により集音(入力)された会議の参加者の音声の音声データを取得する。音声取得部102は、例えば、定期的または断続的に、または、音声を検出している期間に音声データを取得するものとすればよい。
<ステップS13>
画像取得部101は、取得した画像データを、画像認識に基づくテキスト化のため、ネットワーク通信部106およびネットワーク2を介して、クラウド30へ送信する。
<ステップS14>
音声取得部102は、取得した音声データを、音声認識に基づくテキスト化のため、ネットワーク通信部106およびネットワーク2を介して、クラウド30へ送信する。
<ステップS15>
クラウド30の画像認識部301は、情報提示装置10からネットワーク2を介して受信した画像データに対して画像認識を行い、当該画像データに含まれるテキスト(文字)を抽出(テキスト化)する。
<ステップS16>
クラウド30の音声認識部302は、情報提示装置10からネットワーク2を介して受信した音声データに対して音声認識を行い、当該音声データからテキスト(文字)を抽出(テキスト化)する。
<ステップS17>
画像認識部301は、画像認識により抽出したテキストを、キーワード抽出部303へ送る。なお、画像認識部301とキーワード抽出部303とが、別のコンピュータ資源、または、別のクラウドサービスで実現される場合、画像認識部301は、一旦、抽出したテキストを情報提示装置10に送信し、情報提示装置10は、受信したテキストを、別のコンピュータ資源またはクラウドサービスで実現されるキーワード抽出部303へ送信するものとすればよい。
<ステップS18>
音声認識部302は、音声認識により抽出したテキストを、キーワード抽出部303へ送る。なお、音声認識部302とキーワード抽出部303とが、別のコンピュータ資源、または、別のクラウドサービスで実現される場合、音声認識部302は、一旦、抽出したテキストを情報提示装置10に送信し、情報提示装置10は、受信したテキストを、別のコンピュータ資源またはクラウドサービスで実現されるキーワード抽出部303へ送信するものとすればよい。
<ステップS19>
クラウド30のキーワード抽出部303は、画像認識部301および音声認識部302により抽出(テキスト化)されたテキストから、キーワードを抽出する。テキストからキーワードを抽出する方法は、上述した通りである。
<ステップS20>
キーワード抽出部303は、抽出したキーワードを、ネットワーク2を介して、情報提示装置10へ送信する。
<ステップS21>
情報提示装置10の検索部103は、ネットワーク通信部106を介して、キーワードを受信すると、当該キーワードについて、複数の検索条件に基づくキーワード検索を指令する。
<ステップS22>
検索部103は、複数の検索条件に基づいて、クラウド30または文書管理システム40等に対してキーワード検索を指令する検索指令を、キーワードおよび検索条件と共に送信する。図7の例では、検索部103は、複数の検索条件に基づいて、クラウド30の外部検索部304に対してキーワード検索を指令する検索指令を、キーワードおよび複数の検索条件と共に、ネットワーク通信部106およびネットワーク2を介して、クラウド30へ送信するものとする。
<ステップS23>
クラウド30の外部検索部304は、ネットワーク2を介して、検索指令、キーワードおよび複数の検索条件を受信すると、当該複数の検索条件それぞれに基づいて、キーワードの検索を行う。
<ステップS24>
外部検索部304は、複数の検索条件に基づくキーワード検索の各検索結果を、ネットワーク2を介して、情報提示装置10へ送信する。ここで、外部検索部304による検索結果には、検索されたキーワードに関連する情報の他、検索された情報の件数、または、キーワードと検索された情報との関連度等を示すスコア等を含む。
<ステップS25>
情報提示装置10の情報提示部104は、ネットワーク通信部106を介して、複数の検索結果を受信すると、当該各検索結果を表示部112に表示させる。
具体的には、例えば、情報提示部104は、各検索結果(および、その基となる各検索条件)に対応するアイコンを表示部112に表示させる。図8に示す例では、情報提示部104は、各検索結果(各検索条件)に対応するアイコンとして、アイコン601、602を表示部112に表示させている。さらに、情報提示部104は、当該アイコン601、602の近傍に、検索結果に含まれるスコアとしてそれぞれスコア601a、602aを表示させている。このように、検索結果の重要度または関連度を示すスコアを一緒に表示させることによって、各検索条件に基づく検索結果の重要度および関連度を比較することができる。
<ステップS26>
さらに、会議の参加者等であるユーザ50は、入力部113(タッチパネルディスプレイ504)を介して、表示部112に表示された検索結果を示す複数のアイコンのうち、いずれかを選択操作(タッチ操作)を行う。
例えば、ユーザ50が、会議内容と関連する情報を必要としていると感じた場合において、会議の流れから察するに、社内の文書管理システム40からの情報が適切だと判断した場合は、検索対象となるソースが文書管理システム40であるアイコンをタッチ操作すればよい。また、ユーザ50が、ウェブの情報よりも社内の文書管理システム40の情報の方が適切だと感じても、文書管理システム40に対応するアイコンのスコアが低い場合、当該スコアよりも高いウェブに対応するアイコンをタッチ操作して、詳細な結果を見るものとしてもよい。
<ステップS27>
入力部113は、ユーザ50による選択操作の情報(選択情報)を、情報提示部104へ送る。
<ステップS28>
情報提示部104は、各検索結果を示す複数のアイコンのうち、受け取った選択情報が示すアイコンに係る検索結果の詳細を表示させる。
具体的には、図9に示すように、ユーザ50によってアイコン602がタッチ操作された場合、情報提示部104は、アイコン602に対応する検索結果に含まれるキーワードに関連する具体的な情報として、検索結果表示部612を表示させる。図9に示す例では、アイコン602に対応する検索結果に含まれる具体的な情報(検索結果表示部612)として、3つの情報(検索結果表示部612a~612c)が表示されており、かつ、それぞれの情報の近傍には、対応するスコア(スコア622a~622c)が表示されている。すなわち、図8に示すアイコン602の近傍に表示されたスコア602aは、図9に示す検索結果表示部612a~612cに対するスコアのうち、最大のスコアであるスコア622aと一致させている。
以上のように、ステップS11~S28の流れを一例とし、情報提示システム1の情報提示処理が実行される。
以上のように、本実施形態に係る情報提示システム1では、会議における電子黒板の画像または参加者の発話による音声からキーワードを抽出し、当該キーワードについて、予め設定された複数の検索条件に基づいて検索を行うものとしている。そして、当該複数の検索条件に基づく各検索結果を、弁別可能な形式(例えば、各検索結果に対応したアイコンの表示)で提示するものとしている。このように、複数の検索条件によって会議に係るキーワードを検索するので、期待される検索結果を得られる可能性が高まる。
また、弁別可能な形式で提示された各検索結果を選択可能とし、選択された検索結果について詳細な情報を表示させるものとしている。これによって、その時々の会議の状況に応じて最適または好適な検索結果の内容を確認することができ、会議の進捗の効率化が図れる。
また、弁別可能な形式で提示された各検索結果に付随して当該検索結果の重要度または関連度等を示す情報を表示させるものとしている。これによって、各検索条件に基づく検索結果の重要度および関連度を比較することができる。
また、画像取得部101および音声取得部102は、定期的または断続的に、それぞれ画像データおよび音声データを取得して、キーワードを抽出するものとしている。これによって、会議中に最適または好適な関連情報を得ることができる。
また、各検索結果を表示部112に表示させる際に、会議での話題に関する内容が書き込まれている表示領域以外の表示領域に当該各検索結果を表示させるものとしている。これによって、情報提示装置10による会議内容の表示機能を阻害しないようにすることができる。
また、各検索結果を弁別可能な形式で表示部112に表示させる際に、当該検索結果に対応する検索条件の少なくとも一部も付随して表示させるものとしている。これによって、検索結果がどのような検索条件で得られたものかを把握することができる。
なお、上述の実施形態において、情報提示装置10の各機能部の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、上述の実施形態に係る情報提示装置10で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM(Compact Disc Read Only Memory)、メモリカード、フレキシブルディスク(FD)、CD-R(Compact Disk-Recordable)、またはDVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、上述の実施形態に係る情報提示装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の実施形態に係る情報提示装置10で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、上述の実施形態の情報提示装置10で実行されるプログラムは、上述した各機能部のうち少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPUが上述の記憶装置(例えば、記憶装置503)からプログラムを読み出して実行することにより、上述の各機能部が主記憶装置(例えば、メモリ502)上にロードされて生成されるようになっている。
1 情報提示システム
2 ネットワーク
10 情報提示装置
20 PC
25 プロジェクタ
30 クラウド
40 文書管理システム
50 ユーザ
50a、50b 参加者
101 画像取得部
102 音声取得部
103 検索部
104 情報提示部
105 記憶部
106 ネットワーク通信部
107 外部通信部
108 音声出力制御部
109 音声出力部
110 音声入力部
111 表示制御部
112 表示部
113 入力部
301 画像認識部
302 音声認識部
303 キーワード抽出部
304 外部検索部
501 CPU
502 メモリ
503 記憶装置
504 タッチパネルディスプレイ
505 マイク
506 スピーカ
507 外部機器I/F
508 ネットワークI/F
511 カメラ
512 プロジェクタ
601 アイコン
601a スコア
602 アイコン
602a スコア
612、612a~612c 検索結果表示部
622a~622c スコア
"近未来オフィスにおける協創的コミュニケーション"、平成27年11月9日、[平成29年11月13日検索]、インターネット〈URL:https://www.unisys.co.jp/news/nr_151109_common_sense.html〉

Claims (10)

  1. 会議における情報から抽出されるキーワードについて、複数の検索条件に基づいて、該各検索条件が示す検索対象からの検索を指令する検索部と、
    前記検索部による検索により得られた前記各検索条件に対応するそれぞれの検索結果を、弁別可能な形式で表示部に提示する情報提示部と、を備え、
    前記情報提示部は、前記各検索結果を、該各検索結果の関連度を示すスコアと共に、前記表示部に表示させ、
    前記検索対象が複数の場合、それぞれの検索結果を前記スコアで比較することができる情報提示装置。
  2. 前記表示部に表示された画像の画像データを定期的または断続的に取得する画像取得部と、
    前記会議において生じる音声の音声データを定期的または断続的に取得する音声取得部と、
    をさらに備え、
    前記検索部は、前記画像取得部により取得された前記画像データ、または、前記音声取得部により取得された前記音声データから抽出された前記キーワードについて、前記複数の検索条件に基づいて検索を指令する請求項1に記載の情報提示装置。
  3. 前記情報提示部に表示された前記各検索結果は、入力部に対する選択操作により選択可能であり、
    前記情報提示部は、前記各検索結果のうち、選択された前記検索結果の詳細な情報を前記表示部に表示させる請求項1または2に記載の情報提示装置。
  4. 前記情報提示部は、前記複数の検索対象のそれぞれに前記スコアの最大の数値を表示させるとともに、
    前記検索対象の検索結果を一覧表示するときは、検索結果毎に前記スコアを表示する請求項1~3に記載の情報提示装置。
  5. 前記情報提示部は、前記各検索結果を、該各検索結果に対応する前記検索条件の少なくとも一部と共に、前記表示部に表示させる請求項1~4のいずれか一項に記載の情報提示装置。
  6. 前記情報提示部は、前記各検索結果を、前記表示部において前記会議の内容が表示された表示領域以外の表示領域に表示させる請求項1~5のいずれか一項に記載の情報提示装置。
  7. 請求項1~6のいずれか一項に記載された情報提示装置と、
    前記会議における情報からテキストを認識して抽出する認識部と、
    前記認識部により認識された前記テキストから前記キーワードを抽出する抽出部と、
    を有する情報提示システム。
  8. 前記検索部からの検索の指令に基づいて、前記キーワードについて、前記各検索条件で示される前記検索対象から検索を実行する外部検索部を、さらに有する請求項7に記載の情報提示システム。
  9. 会議における情報から抽出されるキーワードについて、複数の検索条件に基づいて、該各検索条件が示す検索対象からの検索を指令する検索ステップと、
    検索により得られた前記各検索条件に対応するそれぞれの検索結果を、弁別可能な形式で表示部に提示する情報提示ステップと、
    を有し、
    前記情報提示ステップは、前記各検索結果を、該検索結果の関連度を示すスコアと共に、該表示部に表示させ、
    前記検索対象が複数の場合、それぞれの検索結果を前記スコアで比較することができる情報提示方法。
  10. コンピュータに、
    会議における情報から抽出されるキーワードについて、複数の検索条件に基づいて、該各検索条件が示す検索対象からの検索を指令する検索ステップと、
    検索により得られた前記各検索条件に対応するそれぞれの検索結果を、弁別可能な形式で表示部に提示する情報提示ステップと、
    を実行させ、
    前記情報提示ステップは、前記各検索結果を、該検索結果の関連度を示すスコアと共に、該表示部に表示させ、
    前記検索対象が複数の場合、それぞれの検索結果を前記スコアで比較することができるためのプログラム。
JP2017232043A 2017-12-01 2017-12-01 情報提示装置、情報提示システム、情報提示方法およびプログラム Active JP7196393B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017232043A JP7196393B2 (ja) 2017-12-01 2017-12-01 情報提示装置、情報提示システム、情報提示方法およびプログラム
US16/162,581 US20190171734A1 (en) 2017-12-01 2018-10-17 Information presentation device, information presentation system, and information presentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017232043A JP7196393B2 (ja) 2017-12-01 2017-12-01 情報提示装置、情報提示システム、情報提示方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019101751A JP2019101751A (ja) 2019-06-24
JP7196393B2 true JP7196393B2 (ja) 2022-12-27

Family

ID=66658028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017232043A Active JP7196393B2 (ja) 2017-12-01 2017-12-01 情報提示装置、情報提示システム、情報提示方法およびプログラム

Country Status (2)

Country Link
US (1) US20190171734A1 (ja)
JP (1) JP7196393B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10868684B2 (en) * 2018-11-02 2020-12-15 Microsoft Technology Licensing, Llc Proactive suggestion for sharing of meeting content
JP7400408B2 (ja) 2019-11-28 2023-12-19 株式会社リコー 検索根拠可視化システム、プログラム、および方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015611A (ja) 2006-07-03 2008-01-24 Zoo Corp 情報検索支援プログラム、情報検索支援装置
US20130018863A1 (en) 2011-07-14 2013-01-17 Nuance Communications, Inc. Methods and apparatus for identifying and providing information sought by a user
US20130054248A1 (en) 2011-08-23 2013-02-28 Ricoh Company, Ltd. Projector, projection system, and retrieved information displaying method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080306899A1 (en) * 2007-06-07 2008-12-11 Gregory Michelle L Methods, apparatus, and computer-readable media for analyzing conversational-type data
US8316027B2 (en) * 2010-03-12 2012-11-20 Creston Electronics Inc. Searching two or more media sources for media
US10296160B2 (en) * 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US10242112B2 (en) * 2015-07-15 2019-03-26 Google Llc Search result filters from resource content
US10691473B2 (en) * 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015611A (ja) 2006-07-03 2008-01-24 Zoo Corp 情報検索支援プログラム、情報検索支援装置
US20130018863A1 (en) 2011-07-14 2013-01-17 Nuance Communications, Inc. Methods and apparatus for identifying and providing information sought by a user
US20130054248A1 (en) 2011-08-23 2013-02-28 Ricoh Company, Ltd. Projector, projection system, and retrieved information displaying method
JP2013046151A (ja) 2011-08-23 2013-03-04 Ricoh Co Ltd プロジェクタ、投影システム及び情報検索表示方法

Also Published As

Publication number Publication date
JP2019101751A (ja) 2019-06-24
US20190171734A1 (en) 2019-06-06

Similar Documents

Publication Publication Date Title
JP5791605B2 (ja) メタデータのタグ付けシステム、イメージ検索方法、デバイス及びそれに適用されるジェスチャーのタグ付け方法
US8649776B2 (en) Systems and methods to provide personal information assistance
JP5556911B2 (ja) コンテンツ表現を作成する、方法、プログラム、及びシステム
WO2018141144A1 (zh) 一种文本和语音信息的处理方法以及终端
US11281707B2 (en) System, summarization apparatus, summarization system, and method of controlling summarization apparatus, for acquiring summary information
US20170206243A1 (en) Control apparatus, control method and computer program
WO2020186701A1 (zh) 用户位置的查找方法、装置、设备及介质
WO2019109663A1 (zh) 一种跨语言搜索方法和装置、一种用于跨语言搜索的装置
JP7196393B2 (ja) 情報提示装置、情報提示システム、情報提示方法およびプログラム
JP5611155B2 (ja) コンテンツに対するタグ付けプログラム、サーバ及び端末
JP2011164681A (ja) 文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体
JP5729844B1 (ja) コンテンツの評価装置、システム、サーバ装置及び端末装置
US20160247522A1 (en) Method and system for providing access to auxiliary information
JP2008048204A (ja) 情報処理装置、情報処理システム及び情報処理プログラム
CN111542817A (zh) 信息处理装置、视频检索方法、生成方法及程序
JP2017021672A (ja) 検索装置
JP2016063477A (ja) 会議システム、情報処理方法、及びプログラム
EP4329292A1 (en) Information processing device, information processing method, terminal device, and display method
US20160048489A1 (en) Information processing device, data input assistance method, and program
JP6641732B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014153990A (ja) 情報処理装置、情報処理方法およびプログラム
JP7196610B2 (ja) 意見評価システム、情報処理システム、意見評価方法およびプログラム
JP2011257932A (ja) コンテンツ再生装置、コンテンツ再生装置の制御方法、制御プログラム、及び記録媒体
US20230117886A1 (en) Information processing apparatus and control method
US20230069287A1 (en) Server device, conference assistance system, conference assistance method, and non-transitory computer readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200916

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221128

R151 Written notification of patent or utility model registration

Ref document number: 7196393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151