JP2013046151A - プロジェクタ、投影システム及び情報検索表示方法 - Google Patents

プロジェクタ、投影システム及び情報検索表示方法 Download PDF

Info

Publication number
JP2013046151A
JP2013046151A JP2011181565A JP2011181565A JP2013046151A JP 2013046151 A JP2013046151 A JP 2013046151A JP 2011181565 A JP2011181565 A JP 2011181565A JP 2011181565 A JP2011181565 A JP 2011181565A JP 2013046151 A JP2013046151 A JP 2013046151A
Authority
JP
Japan
Prior art keywords
image
user
search
projector
search result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011181565A
Other languages
English (en)
Inventor
Satoru Ono
覚 大野
Yoshiyuki Toda
善幸 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011181565A priority Critical patent/JP2013046151A/ja
Priority to US13/559,965 priority patent/US8880407B2/en
Publication of JP2013046151A publication Critical patent/JP2013046151A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Facsimiles In General (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Projection Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】表示中の画像から特定された部分に関連する検索結果を、状況に応じた位置に表示できるプロジェクタ、投影システム及び情報検索表示方法を提供することを課題とする。
【解決手段】プロジェクタ11であって、画像を投影して表示する手段41と、使用者に検索対象を指定させる手段44〜46と、使用者に検索結果の表示領域を前記画像上で指定させる手段44〜46と、検索対象の検索を行ったサーバから検索結果画像を受信し、検索結果画像を検索結果の表示領域に合成して表示する手段43とを有することにより上記課題を解決する。
【選択図】図3

Description

本発明は、プロジェクタ、投影システム及び情報検索表示方法に関する。
会議等において、説明用の資料の画像をスクリーンに映し出しながら、説明者が説明することは従来から行われている。近年、会議等においては、コンピュータにプロジェクタを接続し、コンピュータが出力する説明用の資料の画像をプロジェクタに表示させることが行われている。
また、説明者が説明の途中で説明用の資料の画像中で強調したい文字等に、レーザーポインタ等を用いて、下線またはハッチング等を付して強調表示する技術は従来から知られている。一般的に、説明者が説明用の資料の画像中で強調表示する部分は重要な意味を示している場合が多い。しかしながら、説明を聞く者の中には、強調表示される部分の意味がわからない者がいる場合があった。
このような問題点を解決するための情報提供装置として、発表用データを表示するために出力する表示手段と、出力された発表用データの部分を特定する指示を受け付ける特定指示受付手段と、特定指示により特定された特定部分に関連する関連情報を検索する関連情報検索手段と、特定部分に関連する関連情報を抽出可能な送信用データに発表用データを変換する変換手段と、送信用データを送信する送信手段と、を備えた情報提供装置は従来から知られている(例えば特許文献1参照)。
しかしながら、上記した情報提供装置は、出力された発表用データの部分を特定する指示を受け付け、指示により特定された部分に関連する関連情報を検索することについて記載されているが、検索された関連情報をどのように表示するのか明らかでない。
例えば関連情報の表示位置を予め設定しておくのでは発表用データの作成者にとって手間である。また、関連情報の表示位置を固定に設定したのでは発表に必要な部分が関連情報によって隠れてしまう可能性がある。さらに、発表用データから余白を自動検知して関連情報の表示位置を設定したのでは余白が十分に無い場合に関連情報の表示が不十分になる可能性がある。このように、関連情報の表示位置は予め設定しておいたとしても、固定に設定しておいたとしても、余白を自動検知して設定したとしても、上記のような問題が生じてしまうという問題があった。
本発明は、上記の点に鑑みなされたもので、表示中の画像から特定された部分に関連する検索結果を、状況に応じた位置に表示可能なプロジェクタ、投影システム及び情報検索表示方法を提供することを目的とする。
上記課題を解決するため、本発明は、画像を投影して表示する手段と、使用者に検索対象を指定させる手段と、使用者に検索結果の表示領域を前記画像上で指定させる手段と、使用者に指定された前記検索対象の検索を行ったサーバから検索結果画像を受信し、前記検索結果画像を前記検索結果の表示領域に合成して表示する手段とを有することを特徴とすることを特徴とする。
なお、本発明の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。
本発明によれば、表示中の画像から特定された部分に関連する検索結果を、状況に応じた位置に表示可能なプロジェクタ、投影システム及び情報検索表示方法を提供できる。
本実施形態に係る投影システムの一例の構成図である。 本実施形態に係るプロジェクタの一例のハードウェア構成図である。 本実施形態に係るプロジェクタの一例の機能構成図である。 PCの一例のハードウェア構成図である。 本実施形態に係る文書サーバの一例の機能構成図である。 スクリーンに投影される画像の一例のイメージ図である。 スクリーンに投影される画像の一例のイメージ図である。 スクリーンに投影される画像の一例のイメージ図である。 スクリーンに投影される画像の一例のイメージ図である。 プロジェクタの処理手順の一例を示すフローチャートである。 文書サーバの処理手順の一例を示すフローチャートである。 結果表示領域のサイズ対して適切な情報量で構成される検索結果画像の一例のイメージ図である。 検索結果画像を生成する処理手順の一例を示すフローチャート(1/2)である。 検索結果画像を生成する処理手順の一例を示すフローチャート(2/2)である。 本実施形態に係るプロジェクタの他の例のハードウェア構成図である。 本実施形態に係るプロジェクタの他の例の機能構成図である。 本実施形態に係る文書サーバの他の例の機能構成図である。 スクリーンに投影される画像の他の例のイメージ図である。 プロジェクタの処理手順の他の例を示すフローチャートである。 文書サーバの処理手順の他の例を示すフローチャートである。 本実施形態に係るプロジェクタの他の例の機能構成図である。 本実施形態に係る文書サーバの他の例の機能構成図である。 スクリーンに投影される画像の他の例のイメージ図である。 プロジェクタの処理手順の他の例を示すフローチャートである。 文書サーバの処理手順の他の例を示すフローチャートである。 本実施形態に係る文書サーバの他の例の機能構成図である。 スクリーンに投影される画像の他の例のイメージ図である。 プロジェクタの処理手順の他の例を示すフローチャートである。 文書サーバの処理手順の他の例を示すフローチャートである。
以下、本発明の実施の形態について、詳細に説明する。
図1は、本実施形態に係る投影システムの一例の構成図である。投影システム1は文書サーバ10、プロジェクタ11A及び11B、ネットワーク12及び13を有する構成である。なお、プロジェクタ11A及び11Bの何れでもよい場合は単にプロジェクタ11と呼ぶ。図1の投影システム1は文書サーバ10が一台、プロジェクタ11が二台の例を表している。
文書サーバ10はインターネット等のネットワーク12と接続されている。また、文書サーバ10はLANやWAN等のネットワーク13と接続されている。ネットワーク13は有線/無線の何れで接続されていてもよい。文書サーバ10はネットワーク13を介してプロジェクタ11と接続されている。文書サーバ10は会議等で使用される発表資料の画像のファイルが保存されている。プロジェクタ11は文書サーバ10から発表資料の画像のファイルを取得してスクリーン上に投影する。
なお、会議等で使用される発表資料の画像のファイルは一例であって、プロジェッタ11によってスクリーンに投影可能な如何なる画像のファイルであってもよい。また、図1の投影システム1は文書サーバ10とプロジェッタ11とが別の構成となっているが一体の構成としてもよい。
図2は本実施形態に係るプロジェクタの一例のハードウェア構成図である。プロジェクタ11は、バス20で相互に接続されているRAM21、CPU22、フラッシュメモリ23、通信I/F24、EEPROM25、操作部26、カメラ制御部27、映像入力部28、映像出力部29、ランプ30を有する構成である。
RAM21、CPU22、フラッシュメモリ23、EEPROM25、操作部26、映像入力部28、映像出力部29、ランプ30は、基本的な投影機能を実現する部分の一例である。通信I/F24は文書サーバ10との連携に利用される。また、カメラ制御部27はカメラ31と接続されている。
カメラ制御部27はカメラ31の制御を行う。カメラ31はカメラ制御部27の制御によりスクリーンに投影された発表資料の画像、発表者等を撮影する。カメラ31によって撮影された映像はカメラ制御部27を介して例えばRAM21に記憶される。カメラ31によって撮影された映像は、後述のように、発表者のジェスチャを認識するために利用される。カメラ31はプロジェクタ11に内蔵されていてもよい。
操作部26は発表者等からの操作を受け付ける。通信I/F24は例えばLANカードである。通信I/F24はネットワーク13に接続するために用いられる。映像入力部28は映像の入力を受け付ける。映像出力部29は映像の出力を行う。映像出力部29は例えば液晶プロジェクタの場合、液晶表示装置である。ランプ30は光を発する。ランプ30の発する光は映像出力部29を透過し、レンズ(図示せず)を介してスクリーンに投影される。スクリーンには映像出力部29に表示された画像が拡大されて表示される。
フラッシュメモリ23、EEPROM25はプログラム、必要なファイル、データ等を格納する。RAM21はプロジェクタ11の起動時にフラッシュメモリ23、EEPROM25からプログラムを読み出して格納する。CPU22はRAM21に格納されたプログラムに従って各種機能を実現する。
図3は本実施形態に係るプロジェクタの一例の機能構成図である。プロジェクタ11は映像出力機能部41、ネットワーク制御機能部42、画像合成機能部43、座標検出機能部44、ジェスチャ認識機能部45、カメラ制御機能部46を有する構成である。図3のプロジェクタ11は本実施形態に直接関係しない機能部(ランプ制御機能部、電力制御機能部、操作パネル制御機能部、データ記憶制御機能部など)を省略している。
映像出力機能部41は映像出力部29を制御して映像の出力を行わせる。ネットワーク制御機能部42は通信I/F24を制御して文書サーバ10との連携を行う。画像合成機能部43は文書サーバ10から送られてきた後述の検索結果画像を発表資料の画像に合成する。
座標検出機能部44は、発表資料の画像がスクリーンに投影されているときに、発表者が行った後述のようなジェスチャにより、発表者によって指定された発表資料の画像上の位置(座標)を検出する。ジェスチャ認識機能部45はカメラ31が撮影した映像から発表者のジェスチャを認識する。カメラ制御機能部46はカメラ31を制御してスクリーンに投影されている発表資料の画像、発表者等を撮影する。
なお、撮影した映像を解析し、発表者がレーザーポインタ等でスクリーンを指示した位置を検出する技術は特許文献1等に記載されるように周知である。例えばジェスチャ認識機能部45はカメラ31が撮影した映像から発表者がレーザーポインタ等でスクリーンを指示した位置の軌跡(例えば円など)に基づき、発表者のジェスチャを認識できる。
また、例えばジェスチャ認識機能部45はカメラ31が撮影した映像から発表者の体の動き(例えば手を回すなど)に基づき、発表者のジェスチャを認識できる。プロジェクタ11は発表者のジェスチャを認識することにより、ジェスチャと対応付けられた発表者からの指示を受け付ける。
図4はPCの一例のハードウェア構成図である。文書サーバ10は、例えば図4に示すようなハードウェア構成のPC50により実現される。PC50はバス59で相互に接続されている入力装置51、出力装置52、記録媒体読取装置53、補助記憶装置54、主記憶装置55、CPU56及び通信I/F57を有する構成である。
入力装置51はキーボードやマウス等である。入力装置51は各種信号を入力するために用いられる。出力装置52はディスプレイ装置等である。出力装置52は各種ウインドウやデータ等を表示するために用いられる。通信I/F57は、モデム、LANカード等である。通信I/F57はネットワーク12、13に接続するために用いられる。
文書サーバ10を実現するプログラムは、例えば記録媒体58の配布やネットワーク12、13等からのダウンロードなどによって提供される。
記録媒体58はCD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
プログラムを記録した記録媒体58が記録媒体読取装置53にセットされると、プログラムは記録媒体58から記録媒体読取装置53を介して補助記憶装置54にインストールされる。ネットワーク12、13等からダウンロードされたプログラムは通信I/F57を介して補助記憶装置54にインストールされる。
補助記憶装置54はプログラム、必要なファイル、データ等を格納する。主記憶装置55はプログラムの起動時に補助記憶装置54からプログラムを読み出して格納する。CPU56は主記憶装置55に格納されたプログラムに従って各種機能を実現する。
図5は本実施形態に係る文書サーバの一例の機能構成図である。文書サーバ10は文書管理機能部61、ネットワーク制御機能部62、画像生成機能部63、単語抽出機能部64、関連情報検索機能部65を有する構成である。文書管理機能部61は会議等で使用される発表資料の画像のファイルを管理する。
ネットワーク制御機能部62は通信I/F57を制御してプロジェクタ11との連携を行う。ネットワーク制御機能部62はプロジェクタ11から特定位置情報や結果表示領域情報を受信する。特定位置情報は発表者によって指定された位置(座標)を表す。結果表示領域情報は発表者によって指定された結果表示領域のサイズを表す。
単語抽出機能部64は、文書管理機能部61が管理している発表資料の画像のファイルとプロジェクタ11から受信した特定位置情報とに基づき、後述のようにキーワードとなる単語を抽出する。関連情報検索機能部65はキーワードとなる単語によりWebや指定データベース等から関連情報を検索する。画像生成機能部63は検索した関連情報(検索結果)をプロジェクタ11から送られてきた結果表示領域のサイズに収まるように検索結果画像を生成する。検索結果画像はプロジェクタ11に送信される。
図6〜図9はスクリーンに投影される画像の一例のイメージ図である。図6の画像71はプロジェクタ11が文書サーバ10から取得した発表資料の画像をスクリーン上に投影した様子を表している。
図7の画像72は発表者74が行ったジェスチャにより、スクリーン上に投影されている発表資料の画像の一部として「クラウド」という単語の表示位置73が検出され、選択された検索対象としてハイライト表示されている。
図8の画像75は発表者74が行ったジェスチャにより、検索結果画像を表示したい結果表示領域76の位置及びサイズが指定され、表示されている。結果表示領域76は例えば検索結果画面をポップアップ表示したい位置及びサイズを表している。
図8の画像75が表示されたあと、文書サーバ10は発表資料の画像のファイルとプロジェクタ11から受信した特定位置情報とに基づき、後述のようにキーワードとなる単語を抽出する。また、文書サーバ10は、キーワードとなる単語によりWebや指定データベース等から関連情報を検索する。文書サーバ10はプロジェクタ11から受信した結果表示領域情報に基づき、適切な情報量の検索結果画像を生成する。
ここで、適切な情報量とは、例えば結果表示領域のサイズが小さい場合、単語の概要の説明文等であり、結果表示領域のサイズが大きい場合、単語の詳細な説明文、単語に関する写真、動画等である。なお、文書サーバ10は検索結果画像の生成時、発表資料の画像のフォント設定(フォント色、サイズ、明朝体やゴシック体などの書式など)や背景色などに応じて、発表の聴衆者にとって、より見やすい形式で検索結果画像を生成するようにしてもよい。生成された検索結果画像はプロジェクタ11に転送される。
プロジェクタ11は文書サーバ10から転送された検索結果画像78を、図9に示すように、発表資料の画像77の発表者が指定した結果表示領域に合成し、スクリーン上に投影する。なお、プロジェクタ11は発表者74が行ったジェスチャにより、検索結果画像78の表示位置を移動することもできる。
図10はプロジェクタの処理手順の一例を示すフローチャートである。ステップS1において、ジェスチャ認識機能部45はカメラ31が撮影した映像を監視する。ステップS2において、ジェスチャ認識機能部45はカメラ31が撮影した映像から発表者の特定のジェスチャを認識する。
ステップS3において、キーワード指定のジェスチャであると認識すると、座標検出機能部44は、ジェスチャにより発表者によって指定された発表資料の画像上の位置(選択範囲)を検出する。ステップS4に進み、画像合成機能部43は選択範囲をハイライト表示するように発表資料の画像を合成する。
ステップS5において、結果表示領域指定のジェスチャであると認識すると、ステップS6に進み、ジェスチャ認識機能部45は、すでにキーワード指定されているか否かを判定する。すでにキーワード指定されていれば、ネットワーク制御機能部42はステップS7に進み、発表者によって指定された発表資料の画像上の位置(選択範囲)を特定位置情報として送信すると共に、発表者によって指定された結果表示領域のサイズを結果表示領域情報として文書サーバ10に送信する。
ステップS8において、ネットワーク制御機能部42は文書サーバ10から検索結果画像を受信する。ステップS9において、画像合成機能部43は文書サーバ10から送られてきた検索結果画像を発表資料の画像の結果表示領域に合成する。映像出力機能部41は検索結果画像を合成した発表資料の画像の表示を行う。
ステップS6において、キーワード指定されていなければ、ネットワーク制御機能部42はステップS7〜S9の処理を行わない。また、文書サーバ10は特定位置情報が示す発表資料の画像上の位置(選択範囲)からキーワードとなる単語を検出できなければ、検索する対象が不明なため、関連情報の検索を行わない。
また、ステップS10において、検索結果画像の表示位置移動のジェスチャであると認識すると、画像合成機能部43はステップS11に進み、文書サーバ10から送られてきた検索結果画像を発表資料の画像に再合成することで、検索結果画像の表示位置を発表者が指定した場所に移動させる。なお、ステップS10において、検索結果画像の表示位置移動のジェスチャであると認識しなければ、画像合成機能部43はステップS11の処理を行わない。
図10のフローチャートに示すように、プロジェクタ11はカメラ31が撮影した映像から発表者のジェスチャを認識し、ジェスチャと対応付けられた発表者からのキーワード指定、結果表示領域指定、検索結果画像の表示位置移動などの指示を受け付けることができる。
図11は文書サーバの処理手順の一例を示すフローチャートである。ステップS21において、ネットワーク制御機能部62はプロジェクタ11から特定位置情報及び結果表示領域情報を受信する。ステップS22において、単語抽出機能部64は、文書管理機能部61が管理している発表資料(発表中文書)の画像のファイルとプロジェクタ11から受信した特定位置情報とに基づき、キーワードとなる単語を抽出する。
ステップS23において、関連情報検索機能部65はキーワードとなる単語により関連情報を検索する。検索はWebや指定データベースなどを対象とする。具体的な検索方法や検索先の決定方法などは本実施形態の特徴でないため、説明を省略する。
ステップS24において、関連情報検索機能部65は検索した関連情報(検索結果)を受信する。ステップS25において、画像生成機能部63は検索結果をプロジェクタ11から送られてきた結果表示領域のサイズに収まるように適切な情報量に加工した検索結果画像を生成する。なお、ステップS25の処理の詳細は、後述する。ステップS26において、ネットワーク制御機能部62は、生成した検索結果画像をプロジェクタ11に送信する。
図11のフローチャートに示すように、文書サーバ10は文書管理機能部61が管理している発表資料(発表中文書)の画像のファイルとプロジェクタ11から受信した発表者によって指定された位置とに基づき、発表者がスクリーン上で選択した単語を抽出することができる。結果、文書サーバ10は発表者がスクリーン上で選択した単語をキーワードとして検索した関連情報から検索結果画像を生成して、プロジェクタ11に送信することができる。
図12は、結果表示領域のサイズ対して適切な情報量で構成される検索結果画像の一例のイメージ図である。図12(A)は結果表示領域のサイズが小さい場合の検索結果画像である。図12(A)に示すように、結果表示領域のサイズが小さい場合の検索結果画像は例えば文字(説明文)によるキーワードの概要を表示する。
図12(B)及び図12(C)は結果表示領域のサイズが大きい場合の検索結果画像である。結果表示領域のサイズが大きい場合の検索結果画像は例えば図12(B)に示すような文字(説明文)によるキーワードの詳細や、図12(C)に示すようなキーワードに関する写真、映像などを表示する。
検索結果画像に文字を表示する場合は、指定データベース内の各情報に、概要や詳細説明といったカテゴリを予め設定しておいてもよい。また、概要や詳細説明といったカテゴリの設定が無くとも、検索結果画像に文字を表示する場合は、指定データベース内の各情報を、文節の区切りや文字数で切ってもよい。
画像生成機能部63は、検索結果をプロジェクタ11から送られてきた結果表示領域のサイズに収まるように適切な情報量に加工した検索結果画像を図13及び図14に示す手順で生成する。
図13及び図14は、検索結果画像を生成する処理手順の一例を示すフローチャートである。図13及び図14が示す処理は図11のステップS25の処理に対応する。
ステップS31では画像生成機能部63がフォント設定の設定値を参照する。ここで言うフォント設定とは、例えば検索結果画像の文字に反映させるフォント色、サイズ、明朝体やゴシック体などの書式である。フォント設定の設定値は自動又は手動の何れかに設定できる。
フォント設定の設定値に「自動」が設定されていると、画像生成機能部63はステップS32において、検索結果画像を表示するスライドやページである発表資料の画像(発表用データ)のフォント設定や背景色、並びに、結果表示領域のサイズ、関連情報に基づいてフォント設定を自動で決定する。例えば画像生成機能部63はフォントのサイズや書式を発表資料の画像と統一する。また、例えば関連情報の情報量が多い場合、画像生成機能部63はフォントのサイズを1つ小さくする。なお、自動で決定する内容は発表者などが細かく設定できるようにしてもよい。
フォント設定の設定値に「手動」が設定されていると、画像生成機能部63はステップS33に進み、発表者などが事前に登録しておいたフォント設定を補助記憶装置54などの不揮発性の記憶装置から読み込む。なお、フォント設定は事前に複数登録できるようにしてもよい。
ステップS34において、画像生成機能部63は検索結果画像の構成設定の設定値を参照する。ここで言う検索結果画像の構成設定とは、例えば検索結果画像を文字で構成するのか、写真で構成するのか、文字と写真とで構成するのか、等の設定である。検索結果画像の構成設定の設定値は自動又は手動の何れかに設定できる。なお、検索結果画像の構成は文字、写真に限定するものではなく、映像、音声の再生ボタン、Webページへのリンクなどで構成してもよい。本実施の形態では一例として文字、写真で構成される検索結果画像を示している。
検索結果画像の構成設定の設定値に「自動」が設定されていると、画像生成機能部63はステップS35において、検索結果に写真があるかを判定する。画像生成機能部63は検索結果に写真が無ければステップS36に進み、検索結果画像の構成設定を文字による構成に決定する。
画像生成機能部63は検索結果に写真が有ればステップS37に進み、検索結果に文字が有るかを判定する。画像生成機能部63は検索結果に文字が無ければステップS38に進み、検索結果画像の構成設定を写真による構成に決定する。画像生成機能部63は検索結果に文字が有ればステップS39に進み、検索結果画像の構成設定を文字及び写真による構成に決定する。
検索結果画像の構成設定の設定値に「手動」が設定されていると、画像生成機能部63はステップS40において、発表者などが事前に登録しておいた検索結果画像の構成設定を補助記憶装置54などの不揮発性の記憶装置から読み込む。なお、検索結果画像の構成設定は事前に複数登録できるようにしてもよい。
ステップS36、S38〜S40に続いてステップS41に進み、画像生成機能部63は決定もしくは読み込んだ検索結果画像の構成設定を確認する。決定もしくは読み込んだ検索結果画像の構成設定が文字、写真などの単一の情報で構成される場合、画像生成機能部63は結果表示領域全体に文字、写真などの単一の情報を配置する。
決定もしくは読み込んだ検索結果画像の構成設定が文字及び写真などの複数の情報で構成される場合、画像生成機能部63はステップS42に進み、結果表示領域における文字及び写真などの複数の情報のレイアウト(配置場所、サイズ)を決定して配置する。
結果表示領域における文字及び写真などの複数の情報のレイアウトの決定方法は、例えばサイズの場合、情報の数(例えば文字と写真であれば2つ)によって等分割する、写真を配置する場所のサイズと文字を配置する場所のサイズを2:1に分割する、などが考えられる。また、例えば配置場所の場合、結果表示領域における文字及び写真などの複数の情報のレイアウトの決定方法は、左に文字、右に写真を配置する、上部に写真、下部に文字を配置する、などが考えられる。なお、結果表示領域における文字及び写真などの複数の情報のレイアウトの決定方法は発表者などが細かく設定できるようにしてもよい。
ステップS43に進み、画像生成機能部63は決定もしくは読み込んだ検索結果画像の構成設定に文字があるかを判定する。決定もしくは読み込んだ検索結果画像の構成設定に文字があれば、画像生成機能部63はステップS44に進み、ステップS32で決定又はステップS33で読み込んだフォント設定と、ステップS42で決定した結果表示領域における文字及び写真などの複数の情報のレイアウトにより、文字数(総文字数や1行あたりの文字数)、行数、行間等を決定する。
ステップS45に進み、画像生成機能部63は決定した文字数などに収まるように検索結果の文字を調整する。ここで言う調整とは、例えば検索結果の文字の文字数がステップS44で決定した総文字数より多い場合、収まるだけの文節で区切ったり、文節の途中であっても文字数で区切ったりする処理である。なお、調整の内容は発表者などが設定できるようにしてもよい。また、ステップS43において、決定もしくは読み込んだ検索結果画像の構成設定に文字が無ければ、画像生成機能部63はステップS44、S45の処理を行わない。
ステップS46に進み、画像生成機能部63は決定もしくは読み込んだ検索結果画像の構成設定に写真があるかを判定する。決定もしくは読み込んだ検索結果画像の構成設定に写真があれば、画像生成機能部63はステップS47に進み、決定した結果表示領域における写真のレイアウトにより、写真を拡大縮小する。なお、決定もしくは読み込んだ検索結果画像の構成設定に写真がなければ、画像生成機能部63はステップS47の処理を行わない。
そして、ステップS48に進み、画像生成機能部63はステップS31〜S47の結果に基づき、検索結果画像を生成する。なお、本実施形態では検索結果画像と表現しているがスクロールできるようにしたり、ページ送りできるようにしたりしてもよく、静止画像に限定するものではない。
以上、本実施形態に係る投影システム1によれば、発表者のジェスチャにより発表資料の画像から検索対象とする単語をキーワードとして指定し、その単語をキーワードとして検索した結果を、発表資料の画像上の発表者が指定した結果表示領域に合成して表示することができる。
実施例1は発表者がジェスチャをすることにより発表資料の画像から検索対象とする単語をキーワードとして指定するものである。実施例2は発表者の音声で検索対象とする単語をキーワードとして指定するものである。なお、実施例2は一部を除いて実施例1と同様である。そこで、実施例1と同一部分については適宜説明を省略する。
投影システム1の構成は図1と同様であるため、説明を省略する。図15は本実施形態に係るプロジェクタの他の例のハードウェア構成図である。図15のプロジェクタ11は図2のハードウェア構成に加えて、音声入力部101と音声出力部102とを有する構成である。
音声入力部101は発表者の発言(声)を音声データとして収集する。音声入力部101は例えばマイクである。音声入力部101は、プロジェクタ11に内蔵されていてもよいし、プロジェクタ11に外付けされていてもよい。音声出力部102は音声データを出力する。音声出力部102は例えばスピーカである。音声出力部102はプロジェクタ11に内蔵されていてもよいし、プロジェクタ11に外付けされていてもよい。
図16は、本実施形態に係るプロジェクタの他の例の機能構成図である。図16のプロジェクタ11は図3の機能構成に加えて、音声出力機能部111と音声入力機能部112とを有する構成である。音声出力機能部111は音声出力部102を制御して音声データの出力を行わせる。音声入力機能部112は音声入力部101を制御して発表者の発言を音声データとして収集させる。
文書サーバ10のハードウェア構成は図4と同様であるため、説明を省略する。図17は本実施形態に係る文書サーバの他の例の機能構成図である。図17の文書サーバ10は図5の機能構成に加えて、音声認識機能部121を有する構成である。音声認識機能部121は音声データをテキストデータに変換する。
ネットワーク制御機能部62はプロジェクタ11から音声データや結果表示領域情報を受信する。音声データは、プロジェクタ11で収集された発表者の発言を録音したものである。音声認識機能部121はネットワーク制御機能部62がプロジェクタ11から受信した音声データをテキストデータに変換する。
関連情報検索機能部65は、音声認識機能部121が音声データから変換したテキストデータをキーワードとしてWebや指定データベース等から関連情報を検索する。画像生成機能部63は検索した関連情報(検索結果)をプロジェクタ11から送られてきた結果表示領域のサイズに収まるように検索結果画像を生成する。検索結果画像はプロジェクタ11に送信される。
図18はスクリーンに投影される画像の他の例のイメージ図である。まず、プロジェクタ11は文書サーバ10から取得した発表資料の画像71を図6に示すようにスクリーン上に投影する。その後、発表者は「音声によるキーワード入力開始」を示すジェスチャを行ったあと、図18に示すように、検索対象としたいキーワードとして「クラウド」と発言する。検索対象としたいキーワードの発言後、発表者は「音声によるキーワード入力終了」を示すジェスチャを行う。なお、発表者74はジェスチャにより、検索結果画像を表示したい結果表示領域76の位置及びサイズを指定する。
発表者が「音声によるキーワード入力開始」を示すジェスチャを行ってから「音声によるキーワード入力終了」を示すジェスチャを行うまでの間、音声入力部101は発表者の発言の音声データを収集する。収集された発表者の発言の音声データはプロジェクタ11から文書サーバ10に送信される。
音声認識機能部121はプロジェクタ11から受信した音声データをテキストデータに変換する。関連情報検索機能部65は音声認識機能部121が音声データから変換したテキストデータをキーワードとして抽出する。キーワードを抽出したあとの処理は実施例1と同様であるため、説明を省略する。
図19はプロジェクタの処理手順の他の例を示すフローチャートである。なお、図19のフローチャートでは図10のフローチャートに示した結果表示領域指定のジェスチャであると認識したときの処理(S5〜S9)と検索結果画像の表示位置移動のジェスチャであると認識したときの処理(S10〜S11)とを省略している。
ステップS51において、ジェスチャ認識機能部45はカメラ31が撮影した映像を監視する。ステップS52において、ジェスチャ認識機能部45はカメラ31が撮影した映像から発表者の特定のジェスチャを認識する。
ステップS53において、音声によるキーワード入力開始のジェスチャであると認識すると、音声入力機能部112はステップS54に進み、音声入力部101を制御して発表者の発言の音声入力を開始する。
ステップS55において、音声によるキーワード入力終了のジェスチャであると認識すると、音声入力機能部112はステップS56に進み、すでに音声入力が開始されているか否かを判定する。既に音声入力が開始されていれば、音声入力機能部112はステップS57に進み、音声入力部101を制御して発表者の発言の音声入力を終了する。
ステップS58に進み、ネットワーク制御機能部42は音声によるキーワード入力開始を示すジェスチャを行ってから音声によるキーワード入力終了を示すジェスチャを行うまでの間、収集した発表者の発言の音声データを文書サーバ10に転送する。
ステップS56において、すでに音声入力が開始されていなければ、音声入力機能部112はステップS57の処理を行わない。また、ステップS56において、すでに音声入力が開始されていなければ、ネットワーク制御機能部42はステップS58の処理を行わない。なお、ステップS55において、音声によるキーワード入力終了のジェスチャであると認識しなければ、ステップS56〜S58の処理は行われない。
図19のフローチャートに示すように、プロジェクタ11はカメラ31が撮影した映像から発表者のジェスチャを認識し、ジェスチャと対応付けられた発表者からの音声によるキーワード入力開始、音声によるキーワード入力終了、結果表示領域指定、検索結果画像の表示位置移動などの指示を受け付けることができる。
図20は文書サーバの処理手順の他の例を示すフローチャートである。ステップS61において、ネットワーク制御機能部62はプロジェクタ11が収集した発表者の発言の音声データを受信する。ステップS62において、音声認識機能部121はプロジェクタ11から受信した音声データを音声認識によりテキストデータに変換し、キーワードとして抽出する。なお、キーワードを抽出したあとのステップS63〜S66の処理は図11のステップS23〜S26と同様であるため、説明を省略する。
図20のフローチャートに示すように、文書サーバ10はプロジェクタ11から受信した発表者の発言の音声データを音声認識することで、発表者が発言したキーワードを抽出することができる。結果、文書サーバ10は発表者が発言したキーワードにより検索した関連情報から検索結果画像を生成して、プロジェクタ11に送信することができる。
以上、本実施形態に係る投影システム1によれば、発表者の音声で検索対象とする単語をキーワードとして指定し、その単語をキーワードとして検索した結果を、発表資料の画像上の発表者が指定した結果表示領域に合成して表示することができる。
実施例2は発表者の発言を録音した音声データの音声認識を文書サーバ10で行うものである。実施例3は発表者の発言を録音した音声データの音声認識をプロジェクタ11で行うものである。実施例3ではプロジェクタ11から文書サーバ10に送信するデータがデータサイズの大きい音声データからデータサイズの小さいテキストデータへと変化するため、レスポンスの向上が期待できる。また、音声によるキーワード入力開始及び音声によるキーワード入力終了を音声で指示できるため、音声によるキーワード入力開始及び音声によるキーワード入力終了のジェスチャを覚えなくてもよい。なお、実施例3は一部を除いて実施例1又は2と同様である。そこで、実施例1又は2と同一部分については適宜説明を省略する。
投影システム1の構成は図1と同様であるため、説明を省略する。また、プロジェクタ11のハードウェア構成は図15と同様であるため、説明を省略する。図21は、本実施形態に係るプロジェクタの他の例の機能構成図である。図21のプロジェクタ11は図16の機能構成に加えて、音声認識機能部201を有する構成である。音声認識機能部201は、音声入力機能部112が音声入力部101を制御して収集した発表者の発言の音声データをテキストデータに変換する。
文書サーバ10のハードウェア構成は図4と同様であるため、説明を省略する。図22は本実施形態に係る文書サーバの他の例の機能構成図である。図22の文書サーバ10は図17の文書サーバ10の機能構成から単語抽出機能部64及び音声認識機能部121を削除した構成である。
ネットワーク制御機能部62はプロジェクタ11からキーワードや結果表示領域情報を受信する。キーワードは、発表者の発言の音声データを音声認識により変換したテキストデータである。関連情報検索機能部65は、プロジェクタ11から受信したキーワードでWebや指定データベース等から関連情報を検索する。画像生成機能部63は検索した関連情報(検索結果)をプロジェクタ11から送られてきた結果表示領域のサイズに収まるように検索結果画像を生成する。検索結果画像はプロジェクタ11に送信される。
図23はスクリーンに投影される画像の他の例のイメージ図である。まず、プロジェクタ11は、文書サーバ10から取得した発表資料の画像211を図23に示すようにスクリーン上に投影する。
発表者は「音声によるキーワード入力開始」を示す文言の一例として「情報検索」を発言した後、検索したいキーワードの一例として「クラウド」を発言する。その後、発表者は「音声によるキーワード入力終了」を示す文言の一例としての「検索開始」を発言している。なお、発表者74はジェスチャにより、検索結果画像を表示したい結果表示領域の位置及びサイズを指定する。
発表者の発言は、常時、プロジェクタ11へ入力されている。音声認識機能部201は発表者の発言の音声データをテキストデータに変換する。ネットワーク制御機能部42は変換されたテキストデータから「音声によるキーワード入力開始」を示す文言及び「音声によるキーワード入力終了」を示す文言を検知する。
ネットワーク制御機能部42は「音声によるキーワード入力開始」を示す文言を検知してから「音声によるキーワード入力終了」を示す文言を検知するまでの間、変換されたテキストデータをキーワードとして文書サーバ10に送信する。関連情報検索機能部65はプロジェクタ11から受信したキーワードを抽出する。キーワードを抽出したあとの処理は実施例1又は2と同様であり、説明を省略する。
図24はプロジェクタの処理手順の他の例を示すフローチャートである。なお、図24のフローチャートでは図10のフローチャートに示した結果表示領域指定のジェスチャであると認識したときの処理(S5〜S9)と検索結果画像の表示位置移動のジェスチャであると認識したときの処理(S10〜S11)とを省略している。
ステップS71において、音声認識機能部201は発表者の発言の音声データを音声認識によりテキストデータに変換する。ステップS72において、ネットワーク制御機能部42は「音声によるキーワード入力開始」を示す文言を検知すると、ステップS73の処理に進み、ステップS74で「音声によるキーワード入力終了」を示す文言を検知するまでテキストデータをキーワードとして記憶する。
ステップS74で「音声によるキーワード入力終了」を示す文言を検知すると、ネットワーク制御機能部42はステップS75に進み、ステップS73で記憶したキーワードを文書サーバ10に転送する。
図24のフローチャートに示すように、プロジェクタ11は発表者の発言を録音した音声データから音声によるキーワード入力開始、音声によるキーワード入力終了などの指示を受け付けることができる。
図25は、文書サーバの処理手順の他の例を示すフローチャートである。ステップS81において、ネットワーク制御機能部62はプロジェクタ11からキーワードのテキストデータを受信する。なお、キーワードを受信したあとのステップS82〜S85の処理は図20のステップS63〜S66と同様であるため、説明を省略する。
図25のフローチャートに示すように、文書サーバ10はキーワードをプロジェクタ11から受信できる。結果、文書サーバ10は発表者が発言したキーワードにより検索した関連情報から検索結果画像を生成して、プロジェクタ11に送信することができる。
以上、本実施形態に係る投影システム1によれば、発表者の音声で検索対象とする単語をキーワードとして指定し、その単語をキーワードとして検索した結果を、発表資料の画像上の発表者が指定した結果表示領域に合成して表示することができる。
実施例1は発表者がジェスチャをすることにより発表資料の画像から検索対象とする単語をキーワードとして指定するものである。実施例2及び3は発表者の音声で検索対象とする単語をキーワードとして指定するものである。
実施例4は発表者が発表の際に使用している物をカメラ31で撮影して検索対象とする単語をキーワードあるいはパターン画像として指定するものである。なお、実施例4は一部を除いて実施例1〜3と同様である。そこで、実施例1〜3と同一部分については適宜説明を省略する。
投影システム1の構成は図1と同様であるため、説明を省略する。また、プロジェクタ11のハードウェア構成は図2と同様であるため、説明を省略する。さらに、プロジェクタ11の機能構成は図3と同様であるため、説明を省略する。
文書サーバ10のハードウェア構成は図4と同様であるため、説明を省略する。図26は本実施形態に係る文書サーバの他の例の機能構成図である。図26の文書サーバ10は図5の機能構成に加えて、画像認識機能部221を有し、図5の単語抽出機能部64に替えて単語・パターン画像抽出機能部222を有する構成である。画像認識機能部221は写真データをテキストデータあるいはパターンデータに変換する。
ネットワーク制御機能部62はプロジェクタ11から写真データや結果表示領域情報を受信する。写真データは、発表者が発表の際に使用している物をプロジェクタ11のカメラ31で撮影したものである。画像認識機能部221はネットワーク制御機能部62がプロジェクタ11から受信した写真データをテキストデータあるいはパターンデータに変換する。単語・パターン画像抽出機能部222は画像認識機能部221が写真データから変換したテキストデータあるいはパターンデータをキーワードあるいはパターン画像として抽出する。
関連情報検索機能部65は、画像認識機能部221が写真データから変換したテキストデータあるいはパターンデータを、キーワードあるいはパターン画像としてWebや指定データベース等から関連情報を検索する。画像生成機能部63は検索した関連情報(検索結果)をプロジェクタ11から送られてきた結果表示領域のサイズに収まるように検索結果画像を生成する。検索結果画像はプロジェクタ11に送信される。
図27はスクリーンに投影される画像の他の例のイメージ図である。まず、プロジェクタ11は、文書サーバ10から取得した発表資料の画像231を図27に示すようにスクリーン上に投影する。その後、発表者は「写真によるキーワードあるいはパターン画像入力開始」を示すジェスチャを行ったあと、検索対象としたいキーワードあるいはパターン画像として、発表者が発表で使用している小惑星探査機の模型232をカメラ31に撮影させる。撮影された小惑星探査機の模型232の写真データはプロジェクタ11から文書サーバ10に送信される。なお、プロジェクタ11が行う撮影は、写真(静止画像)に限るものではなく、映像(動画像)であってもよい。
画像認識機能部221はプロジェクタ11から受信した写真データをテキストデータあるいはパターンデータに変換する。単語・パターン画像抽出機能部222は画像認識機能部221が写真データから変換したテキストデータあるいはパターンデータをキーワードあるいはパターン画像として抽出する。キーワードあるいはパターン画像を抽出したあとの処理は実施例1と同様であるため、説明を省略する。
図28はプロジェクタの処理手順の他の例を示すフローチャートである。なお、図28のフローチャートでは図10のフローチャートに示した結果表示領域指定のジェスチャであると認識したときの処理(S5〜S9)と検索結果画像の表示位置移動のジェスチャであると認識したときの処理(S10〜S11)とを省略している。
ステップS91において、ジェスチャ認識機能部45はカメラ31が撮影した映像を監視する。ステップS92において、ジェスチャ認識機能部45はカメラ31が撮影した映像から発表者の特定のジェスチャを認識する。ステップS93において、カメラ制御機能部46は写真によるキーワードあるいはパターン画像入力のジェスチャであると認識するとステップS94に進み、指定時間待つ。カメラ制御機能部46は、ステップS95に進み、カメラ31を制御して発表者が発表で使用している小惑星探査機の模型232を撮影する。ステップS96に進み、ネットワーク制御機能部42は撮影した小惑星探査機の模型232の写真データを文書サーバ10に転送する。ステップS93において、写真によるキーワードあるいはパターン画像入力のジェスチャであると認識しなければ、ステップS94〜S96の処理は行われない。
図28のフローチャートに示すように、プロジェクタ11はカメラ31が撮影した映像から発表者のジェスチャを認識し、ジェスチャと対応付けられた発表者からの写真によるキーワードあるいはパターン画像入力、結果表示領域指定、検索結果画像の表示位置移動などの指示を受け付けることができる。
図29は文書サーバの処理手順の他の例を示すフローチャートである。ステップS101において、ネットワーク制御機能部62はプロジェクタ11が撮影した小惑星探査機の模型232の写真データを受信する。ステップS102において、画像認識機能部221はプロジェクタ11から受信した写真データを画像認識によりテキストデータあるいはパターンデータに変換する。
単語・パターン画像抽出機能部222は画像認識機能部221が写真データから変換したテキストデータあるいはパターンデータをキーワードあるいはパターン画像として抽出する。写真データを画像認識によりテキストデータあるいはパターンデータに変換する処理は既存の技術を利用できる。なお、キーワードあるいはパターン画像を抽出したあとのステップS103〜S106の処理は、図11のステップS23〜S26と同様であるため、説明を省略する。
図29のフローチャートに示すように、文書サーバ10はプロジェクタ11から受信した写真データを画像認識することにより、撮影した写真データからキーワードあるいはパターン画像を抽出することができる。結果として、文書サーバ10は写真データから抽出したキーワードあるいはパターン画像により検索した関連情報から検索結果画像を生成して、プロジェクタ11に送信することができる。
以上、本実施形態に係る投影システム1によれば、発表者が発表の際に使用している物の写真データで検索対象とする単語をキーワードあるいはパターン画像として指定し、その単語をキーワードあるいはパターン画像として検索した結果を、発表資料の画像上の発表者が指定した結果表示領域に合成して表示することができる。
以上、本実施の形態によれば、結果表示領域のサイズを指定でき、さらに、結果表示領域のサイズに収まるように適切な情報量に加工した検索結果画像を生成できる。これにより本実施の形態によれば、結果表示領域を例えば説明が終わって表示不要な図面の上などに配置できる。
また、本実施の形態によれば、結果表示領域のサイズが小さい場合に単語の概要、結果表示領域のサイズが大きい場合に単語の詳細な説明文、単語に関する写真、動画等から検索結果画像を生成できる。このように、発表者は発表中の状況(進行状況や発表の聴衆者の理解度など)に応じた検索結果画像をスクリーン上に表示できる。結果として、発表者はスムーズかつ効率の良い発表を実現できる。
本発明は、具体的に開示された実施例に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。なお、特許請求の範囲に記載した画像を投影して表示する手段は例えば映像出力機能部41に相当する。
使用者に検索対象を指定させる手段、及び、使用者に検索結果の表示領域を画像上で指定させる手段は例えば座標検出機能部44、ジェスチャ認識機能部45、カメラ制御機能部46に相当する。
使用者に指定された検索対象の検索を行ったサーバから検索結果画像を受信し、検索結果画像を検索結果の表示領域に合成して表示する手段は例えば画像合成機能部43に相当する。
1 投影システム
10 文書サーバ
11、11A、11B プロジェクタ
12、13 ネットワーク
20 バス
21 RAM
22 CPU
23 フラッシュメモリ
24 通信I/F
25 EEPROM
26 操作部
27 カメラ制御部
28 映像入力部
29 映像出力部
30 ランプ
31 カメラ
41 映像出力機能部
42 ネットワーク制御機能部
43 画像合成機能部
44 座標検出機能部
45 ジェスチャ認識機能部
46 カメラ制御機能部
50 PC
51 入力装置
52 出力装置
53 記録媒体読取装置
54 補助記憶装置
55 主記憶装置
56 CPU
57 通信I/F
58 記録媒体
59 バス
61 文書管理機能部
62 ネットワーク制御機能部
63 画像生成機能部
64 単語抽出機能部
65 関連情報検索機能部
71、72、75、77、131、211、231 画像
73 表示位置
74 発表者
76 結果表示領域
78 検索結果画像
101 音声入力部
102 音声出力部
111 音声出力機能部
112 音声入力機能部
121、201 音声認識機能部
221 画像認識機能部
222 単語・パターン画像抽出機能部
232 小惑星探査機の模型
特開2010−219928号公報

Claims (11)

  1. 画像を投影して表示する手段と、
    使用者に検索対象を指定させる手段と、
    使用者に検索結果の表示領域を前記画像上で指定させる手段と、
    使用者に指定された前記検索対象の検索を行ったサーバから検索結果画像を受信し、前記検索結果画像を前記検索結果の表示領域に合成して表示する手段と
    を有することを特徴とするプロジェクタ。
  2. 前記使用者に検索対象を指定させる手段は、
    撮影手段によって撮影された映像から使用者の前記画像上の位置の指定による検索対象指定のジェスチャを認識する手段と、
    使用者によって指定された前記画像上の位置を検出する手段と、
    前記検索対象を、使用者によって指定された前記画像上の位置で前記サーバに送信する手段と
    を有することを特徴とする請求項1のプロジェクタ。
  3. 前記使用者に検索対象を指定させる手段は、
    撮影手段によって撮影された映像から使用者の音声による検索対象指定のジェスチャを認識する手段と、
    使用者によって音声で指定された前記検索対象を音声データで前記サーバに送信する手段と
    を有することを特徴とする請求項1のプロジェクタ。
  4. 前記使用者に検索対象を指定させる手段は、
    音声入力手段によって録音された音声を音声認識して音声データからテキストデータに変換する手段と、
    変換されたテキストデータから使用者の音声による検索対象の指定を認識する手段と、
    前記テキストデータから使用者によって指定された前記検索対象をテキストデータで前記サーバに送信する手段と
    を有することを特徴とする請求項1のプロジェクタ。
  5. 前記使用者に検索対象を指定させる手段は、
    撮影手段によって撮影された映像から写真による検索対象指定のジェスチャを認識する手段と、
    写真で指定された前記検索対象を写真データで前記サーバに送信する手段と
    を有することを特徴とする請求項1のプロジェクタ。
  6. プロジェクタと、該プロジェクタに接続されたサーバとを有する投影システムであって、
    前記プロジェクタは、
    画像を投影して表示する手段と、
    使用者に検索対象を指定させる手段と、
    使用者に検索結果の表示領域を前記画像上で指定させる手段と、
    使用者に指定された前記検索対象の検索を行った前記サーバから検索結果画像を受信し、前記検索結果画像を前記検索結果の表示領域に合成して表示する手段と
    を有し、
    前記サーバは、
    使用者に指定された前記検索対象及び前記検索結果の表示領域を、前記プロジェクタから通知される手段と、
    使用者に指定された前記検索対象の検索を行う手段と、
    前記検索結果の表示領域のサイズに収まるように検索結果を調整して検索結果画像を生成する手段と、
    前記検索結果画像を前記プロジェクタに送信する手段と
    を有する
    ことを特徴とする投影システム。
  7. 前記使用者に検索対象を指定させる手段は、
    撮影手段によって撮影された映像から使用者の前記画像上の位置の指定による検索対象指定のジェスチャを認識する手段と、
    使用者によって指定された前記画像上の位置を検出する手段と、
    前記検索対象を、使用者によって指定された前記画像上の位置で前記サーバに送信する手段と
    を有することを特徴とする請求項6の投影システム。
  8. 前記使用者に検索対象を指定させる手段は、
    撮影手段によって撮影された映像から使用者の音声による検索対象指定のジェスチャを認識する手段と、
    使用者によって音声で指定された前記検索対象を音声データで前記サーバに送信する手段と
    を有することを特徴とする請求項6の投影システム。
  9. 前記使用者に検索対象を指定させる手段は、
    音声入力手段によって録音された音声を音声認識して音声データからテキストデータに変換する手段と、
    変換されたテキストデータから使用者の音声による検索対象の指定を認識する手段と、
    前記テキストデータから使用者によって指定された前記検索対象をテキストデータで前記サーバに送信する手段と
    を有することを特徴とする請求項6の投影システム。
  10. 前記使用者に検索対象を指定させる手段は、
    撮影手段によって撮影された映像から写真による検索対象指定のジェスチャを認識する手段と、
    写真で指定された前記検索対象を写真データで前記サーバに送信する手段と
    を有することを特徴とする請求項6の投影システム。
  11. プロジェクタによって実行される情報検索表示方法であって、
    画像を投影して表示するステップと、
    使用者に検索対象を指定させるステップと、
    使用者に検索結果の表示領域を前記画像上で指定させるステップと、
    使用者に指定された前記検索対象の検索を行ったサーバから検索結果画像を受信し、前記検索結果画像を前記検索結果の表示領域に合成して表示するステップと
    を有することを特徴とする情報検索表示方法。
JP2011181565A 2011-08-23 2011-08-23 プロジェクタ、投影システム及び情報検索表示方法 Pending JP2013046151A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011181565A JP2013046151A (ja) 2011-08-23 2011-08-23 プロジェクタ、投影システム及び情報検索表示方法
US13/559,965 US8880407B2 (en) 2011-08-23 2012-07-27 Projector, projection system, and retrieved information displaying method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011181565A JP2013046151A (ja) 2011-08-23 2011-08-23 プロジェクタ、投影システム及び情報検索表示方法

Publications (1)

Publication Number Publication Date
JP2013046151A true JP2013046151A (ja) 2013-03-04

Family

ID=47744893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011181565A Pending JP2013046151A (ja) 2011-08-23 2011-08-23 プロジェクタ、投影システム及び情報検索表示方法

Country Status (2)

Country Link
US (1) US8880407B2 (ja)
JP (1) JP2013046151A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871173A (zh) * 2017-12-01 2019-06-11 富士施乐株式会社 信息处理装置、信息处理系统
JP2019101751A (ja) * 2017-12-01 2019-06-24 株式会社リコー 情報提示装置、情報提示システム、情報提示方法およびプログラム
JP7440256B2 (ja) 2018-12-28 2024-02-28 コニカ ミノルタ ビジネス ソリューションズ ユー.エス.エー., インコーポレイテッド 拡張現実の文書処理

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9704486B2 (en) * 2012-12-11 2017-07-11 Amazon Technologies, Inc. Speech recognition power management
JP2014153663A (ja) * 2013-02-13 2014-08-25 Sony Corp 音声認識装置、および音声認識方法、並びにプログラム
CN104267922B (zh) * 2014-09-16 2019-05-31 联想(北京)有限公司 一种信息处理方法及电子设备
JP6561656B2 (ja) 2015-07-29 2019-08-21 株式会社リコー 端末およびマルチキャスト・アドレス配布サーバ
CN106940641B (zh) * 2016-01-05 2021-10-22 阿里巴巴集团控股有限公司 通知消息的处理方法和装置
JP6691895B2 (ja) * 2017-08-10 2020-05-13 シャープ株式会社 ネットワークシステム、情報処理方法、およびサーバ
JP7180463B2 (ja) 2019-03-12 2022-11-30 株式会社リコー 画像形成装置
US11978252B2 (en) * 2020-10-13 2024-05-07 Ricoh Company, Ltd. Communication system, display apparatus, and display control method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0685983A (ja) * 1992-09-07 1994-03-25 Sharp Corp 音声電子黒板
JP2001160062A (ja) * 1999-12-03 2001-06-12 Mitsubishi Electric Corp 画像データ検索装置
JP2006079156A (ja) * 2004-09-07 2006-03-23 Seiko Epson Corp 表示制御システム、機器管理装置、表示機器、機器管理プログラムおよび表示制御プログラム、並びに表示制御方法
JP2008217660A (ja) * 2007-03-07 2008-09-18 Matsushita Electric Ind Co Ltd 検索方法、および装置
JP2009157460A (ja) * 2007-12-25 2009-07-16 Hitachi Ltd 情報提示装置及び方法
JP2010139686A (ja) * 2008-12-11 2010-06-24 Seiko Epson Corp プロジェクター、プログラムおよび情報記憶媒体
JP2010219928A (ja) * 2009-03-17 2010-09-30 Konica Minolta Business Technologies Inc 情報提供装置、情報提供方法および情報提供プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10060587A1 (de) * 2000-12-06 2002-06-13 Philips Corp Intellectual Pty Verfahren und System zur automatischen Aktionssteuerrung bei Vorträgen
TWI341956B (en) * 2007-05-30 2011-05-11 Delta Electronics Inc Projection apparatus with function of speech indication and control method thereof for use in the apparatus
JP5254906B2 (ja) * 2009-08-27 2013-08-07 京セラ株式会社 電子機器
US8928579B2 (en) * 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
JP5771981B2 (ja) * 2010-03-15 2015-09-02 株式会社リコー 描画画像共有装置、データ処理方法、プログラムおよび記録媒体
US20120260176A1 (en) * 2011-04-08 2012-10-11 Google Inc. Gesture-activated input using audio recognition

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0685983A (ja) * 1992-09-07 1994-03-25 Sharp Corp 音声電子黒板
JP2001160062A (ja) * 1999-12-03 2001-06-12 Mitsubishi Electric Corp 画像データ検索装置
JP2006079156A (ja) * 2004-09-07 2006-03-23 Seiko Epson Corp 表示制御システム、機器管理装置、表示機器、機器管理プログラムおよび表示制御プログラム、並びに表示制御方法
JP2008217660A (ja) * 2007-03-07 2008-09-18 Matsushita Electric Ind Co Ltd 検索方法、および装置
JP2009157460A (ja) * 2007-12-25 2009-07-16 Hitachi Ltd 情報提示装置及び方法
JP2010139686A (ja) * 2008-12-11 2010-06-24 Seiko Epson Corp プロジェクター、プログラムおよび情報記憶媒体
JP2010219928A (ja) * 2009-03-17 2010-09-30 Konica Minolta Business Technologies Inc 情報提供装置、情報提供方法および情報提供プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871173A (zh) * 2017-12-01 2019-06-11 富士施乐株式会社 信息处理装置、信息处理系统
JP2019101751A (ja) * 2017-12-01 2019-06-24 株式会社リコー 情報提示装置、情報提示システム、情報提示方法およびプログラム
JP2019101739A (ja) * 2017-12-01 2019-06-24 富士ゼロックス株式会社 情報処理装置、情報処理システムおよびプログラム
JP7006198B2 (ja) 2017-12-01 2022-01-24 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システムおよびプログラム
JP7196393B2 (ja) 2017-12-01 2022-12-27 株式会社リコー 情報提示装置、情報提示システム、情報提示方法およびプログラム
JP7440256B2 (ja) 2018-12-28 2024-02-28 コニカ ミノルタ ビジネス ソリューションズ ユー.エス.エー., インコーポレイテッド 拡張現実の文書処理

Also Published As

Publication number Publication date
US8880407B2 (en) 2014-11-04
US20130054248A1 (en) 2013-02-28

Similar Documents

Publication Publication Date Title
JP2013046151A (ja) プロジェクタ、投影システム及び情報検索表示方法
WO2021109678A1 (zh) 视频生成方法、装置、电子设备及存储介质
US8164644B2 (en) Method and apparatus for generating media signal by using state information
US9454280B2 (en) Display device providing feedback based on image classification
US20150269236A1 (en) Systems and methods for adding descriptive metadata to digital content
US10642463B2 (en) Interactive management system for performing arts productions
JP6095381B2 (ja) データ処理装置、データ処理方法及びプログラム
US9317750B2 (en) Imaging device
CN111813301B (zh) 内容播放方法、装置、电子设备及可读存储介质
JP4018678B2 (ja) データ管理方法および装置
JP2009267783A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2008217660A (ja) 検索方法、および装置
KR102462685B1 (ko) 웹툰 제작 보조 장치
JP2020009011A (ja) フォトブック作製システム及びサーバ装置
TWI684964B (zh) 知識點標記生成系統及其方法
KR101843135B1 (ko) 영상 처리 방법, 장치 및 컴퓨터 프로그램
JP5554110B2 (ja) 文書処理方法および文書処理システム
JP6988607B2 (ja) フォトブック作製システム及びサーバ装置
JP5340059B2 (ja) 文字情報提示制御装置及びプログラム
JP2002190009A (ja) 電子アルバム装置および電子アルバムプログラムを記録したコンピュータ読取可能な記録媒体
US10714146B2 (en) Recording device, recording method, reproducing device, reproducing method, and recording/reproducing device
JP5218687B2 (ja) 画像変換装置、画像提供システム、撮影編集装置、画像変換方法、画像変換プログラム、および該プログラムを記録した記録媒体
TW201218755A (en) Video processing apparatus, video processing method, storage media and computer program product
JP2008005359A (ja) ドキュメントカメラ装置
JP2008017050A (ja) 会議システム及び会議方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160308