JP2004120698A - Information processing terminal and method, and program - Google Patents
Information processing terminal and method, and program Download PDFInfo
- Publication number
- JP2004120698A JP2004120698A JP2002284975A JP2002284975A JP2004120698A JP 2004120698 A JP2004120698 A JP 2004120698A JP 2002284975 A JP2002284975 A JP 2002284975A JP 2002284975 A JP2002284975 A JP 2002284975A JP 2004120698 A JP2004120698 A JP 2004120698A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- imaging
- processing
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、情報処理端末および方法、並びにプログラムに関し、特に、投影する最適な画像のデータを、容易に、かつ迅速に取得できるようにする情報処理端末および方法、並びにプログラムに関する。
【0002】
【従来の技術】
近年、会議などの場において利用されるプロジェクタに、外部の機器との通信機能を付加し、プロジェクタに接続されたパーソナルコンピュータを操作することで、パーソナルコンピュータに用意したデータを用いて容易にプレゼンテーションを行うことができるものが存在する(特許文献1)。
【0003】
また、プロジェクタ自体に、パーソナルコンピュータと同様にWindows(登録商標)などのOS(Operating System)を搭載し、例えば、プロジェクタを直接操作して、予め用意しておいたデータによりプレゼンテーションを行うことができるものも存在する(非特許文献1)。
【0004】
【特許文献1】
特開2002−218420号公報(第5頁、図3)
【非特許文献1】
「広がるWindows(R)CE OSの世界 Windows(R)CE内蔵ネットワークプロジェクタ ソニーVPL−FX50」、[online]、2001年5月9日版、[2002年7月3日検索]、インターネット、URL<http://www.wince.ne.jp/snap/ceSnapView.asp?PID=218>
【0005】
【発明が解決しようとする課題】
しかしながら、上述した非特許文献に記載されている装置などは、プロジェクタの機能と、パーソナルコンピュータの機能を組み合わせたものにとどまり、プロジェクタの機能は、単に、パーソナルコンピュータにより処理された内容を出力する出力デバイスとしての機能を有するにすぎない。
【0006】
従って、ユーザは、プロジェクタにより投影される画像のデータを選択し、その投影タイミングを指示する必要がある。
【0007】
本発明はこのような状況に鑑みてなされたものであり、ユーザからの入力によらずに、投影する最適な画像のデータを、容易に、かつ迅速に取得できるようにするとともに、プロジェクタの機能の新たな利用形態を提供できるようにするものである。
【0008】
【課題を解決するための手段】
本発明の情報処理端末は、被写体を撮像する撮像処理手段と、撮像処理手段による撮像結果に基づいて、所定のデータを取得する取得処理手段と、取得処理手段により取得されたデータにより表される画像を投影する第1の投影処理手段とを備えることを特徴とする。
【0009】
受像面の形状を取得するための所定の図形画像を投影する第2の投影処理手段をさらに備えるようにすることができる。この場合、撮像処理手段は、第2の投影処理手段により図形画像が投影された受像面を撮像し、第1の投影処理手段は、撮像処理手段による撮像結果に基づいて取得された、受像面の形状に応じて補正された画像を投影する。
【0010】
受像面までの距離を測定する測定処理手段をさらに備えるようにすることができる。この場合、第1の投影処理手段は、測定処理手段により測定された受像面までの距離が所定の距離内にある場合に画像を投影する。
【0011】
受像面に所定の図形画像を投影する第2の投影処理手段をさらに備えるようにすることができる。この場合、撮像処理手段は、第2の投影処理手段により図形画像が投影された受像面を撮像し、測定処理手段は、撮像処理手段による撮像結果における、図形画像の大きさに基づいて受像面までの距離を測定する。
【0012】
受像面に対して光を出射する出射処理手段をさらに備えるようにすることができる。この場合、測定処理手段は、出射処理手段により出射された光の反射波に基づいて、受像面までの距離を測定する。
【0013】
撮像処理手段による撮像結果に基づいて、所定の識別情報を取得する識別情報取得処理手段をさらに備えるようにすることができる。この場合、取得処理手段は、識別情報取得処理手段により取得された識別情報に対応するデータを取得する。
【0014】
所定の入力装置を表わす画像を投影する第2の投影処理手段と、第2の投影処理手段により投影された入力装置の画像に対するユーザの入力を検出する検出処理手段とをさらに備えるようにすることができる。この場合、取得処理手段は、検出処理手段により検出された、ユーザの入力に基づいてデータを取得し、投影手段は、取得した入力データに基づく画像を入力装置を表す画像以外の領域に表示する。
【0015】
撮像処理手段による撮像が行われる撮像部と、第1の投影処理手段による投影が行われる投影部は、筺体の同一平面に形成されているようにすることができる。
【0016】
本発明の情報処理端末の情報処理方法は、被写体を撮像する撮像処理ステップと、撮像処理ステップの処理による撮像結果に基づいて、所定のデータを取得する取得処理ステップと、取得処理ステップの処理により取得されたデータにより表される画像を投影する投影処理ステップとを含むことを特徴とする。
【0017】
本発明のプログラムは、被写体の撮像を制御する撮像制御処理ステップと、撮像制御処理ステップの処理による撮像結果に基づいて、所定のデータを取得する取得処理ステップと、取得処理ステップの処理により取得されたデータにより表される画像の投影を制御する投影制御処理ステップとを含むことを特徴とする。
【0018】
本発明の情報処理端末および方法、並びにプログラムにおいては、被写体が撮像され、撮像結果に基づいて、所定のデータが取得される。また、取得されたデータにより表される画像が投影される。
【0019】
【発明の実施の形態】
図1乃至図5は、本発明を適用した情報処理端末1の構成例を示す斜視図である。
【0020】
筺体11は、その前後方向が、左右方向に比べて若干長めのほぼ直方体の形状を有している。ここで、筺体11の前方向とは、投影部23および撮像部24が設けられる面11bが形成されている方向(図1の左方向)をいい、筺体11の後方向とは、面11bの対面である面11e(図4)が形成されている方向(図1の右方向)をいう。
【0021】
また、筺体11は、ユーザが片手で把持可能な大きさのものとされている。従って、ユーザは、情報処理端末1を利用するとき、面11eが自分自身に対向するように、例えば、右手で筺体11全体を把持して利用する。
【0022】
筺体11の上面11aには、その中央より若干前方寄りの位置にLCD(Liquid Crystal Display)21が設けられ、中央より若干後方寄りの位置にテンキーや各種の操作を行うとき操作される操作キー22が設けられている。LCD21には、適宜、各種のメニューやアイコンが表示されるため、ユーザは、それらの表示に従って、操作キー22により各種の操作を行う。また、LCD21には、投影部23から投影される画像と同じ画像を表示させることもできる。
【0023】
テンキーからは、例えば、同一のキーを連続して押下することで、選択される文字が順次切り替わり、決定を指示したときに選択されている文字が入力されるような、一般的な携帯電話機などにおいて採用されている方式により文字が入力される。当然、操作キー22の位置に、キーピッチの狭いキーボードが設けられるようにしてもよい。
【0024】
片手で筺体11を把持したとき、ユーザの親指が操作キー22の近傍に位置するため、ユーザは、一般的な携帯電話機を操作するような感覚で、操作キー22を操作して文字などを片手で入力することができる。
【0025】
なお、LCD21には、タッチパッド72(図6)が重畳されており、ユーザは、LCD21を直接押下することによっても操作することができる。
【0026】
筺体11の面11bには、選択されたデータの画像を受像面に投影する投影部23が設けられている。投影部23には、レンズが配設されており、筺体11の内部に設けられている光源から出射された光がLCD(投影用LCD77(図6))とレンズを介して筺体11の外部に出射される。従って、面11bに対向して所定の距離だけ離間して設けられている受像面には、投影用LCD77に表示されている画像に対応する像が投影される。
【0027】
投影部23の直左方には、撮像部24が設けられている。撮像部24にも同様にレンズが配設されており、その内部にCCD(Charge Coupled Device)71(図6)などの撮像素子が設けられている。
【0028】
後述するように、情報処理端末1においては、撮像部24による撮像結果に応じて各種のデータが読み出され、読み出されたデータにより表わされる画像(データに対応する画像)が投影部23から投影される。なお、投影された画像に表示されるポインタは、タッチパッド72を操作して移動させることもできる。
【0029】
筺体11の左側面11cには、その中央付近に、各種の機器が接続されるインタフェースが設けられている。例えば、筺体11の前方から後方に、映像信号が入力される映像入力端子25、音声信号が入力される音声入力端子26、各種のドライブやキーボードなどが接続されるIEEE(Institute of Electrical and Electronics Engineers)1394ポート27、USB(Universal Serial Bus)ポート28および29が設けられている。
【0030】
また、左側面11cの前方に形成されている軸部13Aにより、図2に一点鎖線で示される軸αを中心として、所定の範囲で回動自在な位置決め部材13の一端が軸止され、同様に、図3に示される、右側面11dの前方に形成されている軸部13Bにより、位置決め部材13の他方の一端が軸止される。
【0031】
位置決め部材13は、軸部13Aを中心として、左側面11cとほぼ同一平面内において回動する部材13−1と、軸部13Bを中心として、右側面11dとほぼ同一平面内において回動する部材13−3と、部材13−1および13−3とそれぞれ直角に交わり、部材13−1と13−3を結ぶように形成される部材13−2から構成されている。部材13−1乃至13−3は、連動して回動される。
【0032】
この位置決め部材13により、筺体11の前方の高さが調節され、投影部23の投影軸の角度が位置決めされる。すなわち、投影軸の角度が位置決めされているとき、位置決め部材13の部材13−2と、筺体11の底面11f(図5)に装着されるバッテリパック14の後方底面の一辺により情報処理端末1全体が支持される。
【0033】
例えば、図2に示されるように、ほぼ垂直下方向に位置決め部材13が固定されているとき、投影軸と水平軸との角度が最大となり、投影部23からの光により、より上方が照射可能となる。投影軸と水平軸との最大角度は、位置決め部材13の部材13−1および13−3の長さにより適宜変更可能である。
【0034】
一方、ほぼ垂直下方向を基準として、位置決め部材13が白抜き矢印A1方向に回動されるにつれ、投影軸と水平軸との角度が徐々に小さくなり、バッテリパック14の表面に部材13−2の一端が接するとき最小となる。
【0035】
同様に、ほぼ垂直下方向を基準として、位置決め部材13が白抜き矢印A2方向に回動されるにつれ、投影軸と水平軸との角度が徐々に小さくなり、投影軸と水平軸が平行になったとき、すなわち、バッテリパック14の表面が、情報処理端末1が載置されている平面と当接する状態になったとき(部材13−2により情報処理端末1が支持されなくなったとき)、位置決め部材13による位置決めが解除される。
【0036】
さらに、位置決め部材13は、位置決めが解除された位置から白抜き矢印A3で示される方向に、筺体11の上面11aに部材13−2の一端が接する位置まで回動自在とされる。
【0037】
従って、ユーザは、位置決め部材13の位置を調節し、受像面までの距離に応じて、最適な高さの位置に画像を投影することができる。
【0038】
図3に示されるように、筺体11の右側面11dには、ユーザが上方から右手で筺体11を把持したときに、その甲を固定するように、固定ベルト12が設けられている。この固定ベルト12により、情報処理端末1の落下が抑制される。
【0039】
図4は、情報処理端末1の背面側の斜視図であり、面11bの対面である面11eには、メモリカードスロット30が形成されている。メモリカードスロット30に挿入されたメモリカードにより、所定の画像データなどが情報処理端末1に提供され、例えば、対応する画像が投影部23から投影される。
【0040】
図5は、情報処理端末1の底面側の斜視図であり、筺体11の底面前方(図5の右側)に形成される面11gと、底面後方(図5の左側)に広範囲にわたって形成されている面11fにより、バッテリパック14の高さに相当する段差が形成されている。白抜き矢印に示されるようにしてバッテリパック14が面11fに装着されたとき、バッテリパック14の表面(図5に表されているバッテリパック14の面)と面11gにより1つの平面が形成される。
【0041】
なお、筺体11の面11fには、端子31Aおよび31Bが配設されており、これらの端子31Aおよび31Bを介して、バッテリパック14から筺体11に電源が供給される。
【0042】
図6は、図1の情報処理端末1の内部構成の例を示すブロック図である。
【0043】
CPU(Central Processing Unit)51は、例えば、インテル(Intel)社製のペンティアム(登録商標)(Pentium(登録商標))プロセッサ等で構成され、ホストバス52に接続されている。ホストバス52には、さらに、ブリッジ53(いわゆる、ノースブリッジ)が接続されており、ブリッジ53は、AGP(Accelerated Graphics Port)50を有し、PCI(Peripheral Component Interconnect/Interface)バス56に接続されている。
【0044】
ブリッジ53は、例えば、インテル社製のAGP Host Bridge Controllerである440BXなどで構成されており、CPU51およびRAM(Random Access Memory)54(いわゆる、メインメモリ)等のデータの伝送などを制御する。さらに、ブリッジ53は、AGP50を介して、ビデオコントローラ57とのデータの伝送を制御する。なお、このブリッジ53とブリッジ(いわゆる、サウスブリッジ(PCI−ISA Bridge))58とで、いわゆるチップセットが構成されている。
【0045】
ブリッジ53は、さらに、キャッシュメモリ55とも接続されている。キャッシュメモリ55は、RAM54に比較して、より高速に書き込みまたは読み出しの動作を実行できるメモリで構成され、CPU51が使用するプログラムまたはデータをキャッシュする(一時的に記憶する)。
【0046】
なお、CPU51は、その内部に1次的な(キャッシュメモリ55に比較して、より高速に動作できるメモリで、CPU51自身が制御する)キャッシュメモリを有する。
【0047】
RAM54は、例えば、DRAM(Dynamic RAM)で構成され、CPU51が実行するプログラム、またはCPU51の動作に必要なデータを記憶する。具体的には、例えば、RAM54は、起動が完了した時点において、HDD66からロードされた、電子メールプログラム54A、オートパイロットプログラム54B、表示制御プログラム54C、OS(Operating System)54D、その他のアプリケーションプログラム54E1乃至54Enを記憶する。
【0048】
電子メールプログラム54Aは、ネットワークなどを介して、いわゆるeメールを授受するプログラムである。
【0049】
オートパイロットプログラム54Bは、予め設定された複数の処理(またはプログラム)などを、予め設定された順序で順次起動して、処理するプログラムである。
【0050】
表示制御プログラム54Cは、投影部23から投影される画像を制御するプログラムである。その詳細な機能構成については後述する。
【0051】
OS54Dは、例えば、マイクロソフト社のウィンドウズ(登録商標)(Windows(登録商標))2000、またはアップルコンピュータ社のいわゆるマックOS(商標)等に代表される、コンピュータの基本的な動作を制御するプログラムである。
【0052】
ビデオコントローラ57は、AGP50を介してブリッジ53に接続されており、AGP50およびブリッジ53を介してCPU51から供給されるデータ(イメージデータまたはテキストデータなど)を受信して、受信したデータに対応するイメージデータを生成するか、または受信したデータをそのまま、内蔵するビデオメモリに記憶する。
【0053】
ビデオコントローラ57は、筐体11の上面11aに設けられているLCD21の表示と、筐体11の内部に形成されている投影用LCD77の表示を制御する。
【0054】
例えば、投影用LCD77は、3枚のモノクロのLCDから構成され、それぞれのLCDにより、図示せぬ光源から出射され、ダイクロミラーでRGBの3色の光に分割されて導かれてきた光を透過する。3枚のLCDを透過した光は、ダイクロイックプリズムで1つの光に合成され、レンズを透過し、投影部24から筐体11の外部に出射される。
【0055】
LCD21と投影用LCD77には、同時に同一の画像が表示されるようにしてもよいし、それぞれ異なる画像が表示されるようにしてもよい。
【0056】
なお、投影用LCD77に表示された画像を投影するための光源からの光の一部を、LCD21のバックライトとして利用できるようにしてもよい。これにより、連続駆動時間を延長することができる。
【0057】
メモリカードインターフェース65は、PCIバス56に接続され、メモリカードスロット30(図4)に装着されたメモリカードから供給されたデータを、CPU51またはRAM54に供給するとともに、適宜、CPU51から供給された、データをメモリカードに出力する。
【0058】
また、PCIバス56にはブリッジ58(いわゆる、サウスブリッジ)も接続されている。ブリッジ58は、例えば、インテル社製のPIIX4Eなどで構成されており、IDE(Integrated Drive Electronics)コントローラ/コンフィギュレーションレジスタ59、タイマ回路60、IDEインターフェース61、およびUSB(Universal Serial Bus)インターフェース62等を内蔵している。
【0059】
ブリッジ58は、IDEバス63に接続されるデバイス、またはISA/EIO(Industry Standard Architecture / Extended Input Output)バス64、若しくは、I/Oインターフェース67を介して接続されるデバイスの制御等、各種のI/O(Input / Output)を制御する。
【0060】
IDEコントローラ/コンフィギュレーションレジスタ59は、いわゆるプライマリIDEコントローラとセカンダリIDEコントローラとの2つのIDEコントローラ、およびコンフィギュレーションレジスタ(configuration register)等から構成されている(いずれも図示せず)。
【0061】
プライマリIDEコントローラには、IDEバス63を介して、HDD66が接続されている。また、セカンダリIDEコントローラには、他のIDEバスに、図示しないCD−ROMドライブまたはHDDなどの、いわゆるIDEデバイスが装着されたとき、その装着されたIDEデバイスが電気的に接続される。
【0062】
なお、HDD66は、電子メールプログラム66A、オートパイロットプログラム66B、表示制御プログラム66C、OS66D、その他の複数のアプリケーションプログラム66E1乃至66En等を記録する。HDD66に記録されている電子メールプログラム66A、オートパイロットプログラム66B、表示制御プログラム66C、OS66D、および、アプリケーションプログラム66E1乃至66En等は、例えば、起動(ブートアップ)処理の過程で、RAM54に順次供給され、ロードされる。
【0063】
USBインターフェース62は、USBポート28または29を介して接続されているデバイスにデータを送信すると共に、デバイスからデータを受信する。
【0064】
タイマ回路60は、現在時刻を示すデータをPCIバス56を介して、CPU51に供給する。
【0065】
ISA/EIOバス64には、さらに、I/Oインターフェース67が接続されている。このI/Oインターフェース67は、エンベディットコントローラから構成され、その内部において、ROM68、RAM69、およびCPU70が相互に接続されている。
【0066】
ROM68は、IEEE1394インターフェースプログラム68A、タッチパッド入力監視プログラム68B、キー入力監視プログラム68C、および、ウェイクアッププログラム68D等を予め記憶している。
【0067】
IEEE1394インターフェースプログラム68Aは、IEEE1394ポート27を介して、IEEE1394で規定される規格に準拠するデータ(パケットに格納されているデータ)を送信するとともに受信する。タッチパッド入力監視プログラム68Bは、LCD21に重畳して設けられているタッチパッド71からの入力を監視するプログラムである。
【0068】
キー入力監視プログラム68Cは、操作キー22、または、その他のキースイッチからの入力を監視するプログラムである。ウェイクアッププログラム68Dは、ブリッジ58のタイマ回路60から供給される現在時刻を示すデータに基づいて、予め設定された時刻になったかどうかをチェックし、設定された時刻になったとき、所定の処理(またはプログラム)等を起動するために、情報処理端末1を構成する各チップの電源を管理するプログラムである。
【0069】
ROM68には、さらにBIOS(Basic Input/Output System(基本入出力システム))68Eが書き込まれている。BIOS68Eは、OSまたはアプリケーションプログラムと周辺機器(操作キー22、CCD71、タッチパッド72、IR出射/受光部73、位置検出部74、またはHDD66等)との間で、データの受け渡し(入出力)を制御する。
【0070】
RAM69は、タッチパッド入力ステイタス、キー入力ステイタス、若しくは設定時刻用の各レジスタ、またはIEEE1394I/Fレジスタ等を、レジスタ69A乃至69Fとして有している。
【0071】
I/Oインターフェース67に接続されるCCD71は、撮像部24の内部方向にレンズを介して設けられており、所定のタイミングにおいて被写体を撮像する。撮像により得られた画像データは、I/Oインターフェース67に出力され、適宜、CPU51等に供給される。
【0072】
IR(Infrared)出射/受光部73は、例えば、面11bの投影部23が形成されている孔部、または、撮像部24が形成されている孔部に設けられ、所定のタイミングで赤外線を出射し、その反射光を受光する。後述するように、例えば、出射された赤外線の反射波が受光されたタイミングから、受像面までの距離が検出される。
【0073】
位置検出部74は、例えば、GPS(Global Positioning System)モジュール、電子コンパス、ジャイロセンサなどより構成され、情報処理端末1の現在位置、情報処理端末1の正面が向いている方角、情報処理端末1の姿勢位置(角度)などを検出する。
【0074】
電源制御回路75は、端子31Aおよび31B(図5)を介してバッテリパック14に接続されており、各ブロックに必要な電源を供給するとともに、バッテリパック14または周辺装置のセカンドバッテリの充電のための制御を行う。
【0075】
また、I/Oインターフェース67は、IEEE1394ポート27を介して接続されている機器とのデータの送受信の制御や、IEEE802.11aまたは802.11bなどのいわゆる無線LAN(Local Area Network)モジュールや有線のLANコネクタなどのよりなるネットワークインタフェース76、およびネットワークを介して接続されている機器とのメッセージまたはファイルデータなどのデータの送受信を制御する。
【0076】
なお、情報処理端末1には、USBポート28または29、或いは、IEEE1394ポート27を介してドライブ101が適宜接続される。ドライブ101は、装着される磁気ディスク102、光ディスク103、光磁気ディスク104、または半導体メモリ105に記録されているデータを読み出し、読み出したデータをRAM54やHDD66に供給する。
【0077】
図7は、情報処理端末1の機能構成例を示すブロック図である。
【0078】
図7に示される各構成は、表示制御プログラム66CがRAM54に展開されて実現される。
【0079】
撮像画像取得プログラム121は、撮像部24(CCD71)による撮像結果の画像データを取得し、それを識別情報取得プログラム122または投影画像生成プログラム124に出力する。
【0080】
識別情報取得プログラム122は、撮像画像取得プログラム121から供給されてきた画像データを解析し、識別情報を取得する。例えば、識別情報取得プログラム122は、CCD71により撮像されたバーコードの画像データが供給されてきたとき、そのバーコードを識別情報として読み取る。また、識別情報取得プログラム122は、CCD71により撮像された所定の人物の顔の画像データが供給されてきたとき、その画像データから人物を特定し、その人物を表す情報を取得する。識別情報取得プログラム122により取得された識別情報は、ソースデータ取得プログラム123に出力される。
【0081】
ソースデータ取得プログラム123は、投影部24から投影される画像のデータ(ソースデータ)を取得し、それを投影画像生成プログラム124に出力する。例えば、HDD66に記憶されている所定の画像データを投影するとき、ソースデータ取得プログラム123は、その画像データをソースデータとしてHDD66から読み出し、ネットワークを介して取得された画像データを投影するとき、その画像データをソースデータとして取得する。また、ソースデータ取得プログラム123は、識別情報取得プログラム122から供給されてきた識別情報に対応するデータを取得し、取得したデータを投影画像生成プログラム124に出力する。
【0082】
投影画像生成プログラム124は、投影部23から投影される画像を生成し、生成した画像を投影用LCD77に表示させる。例えば、投影画像生成プログラム124は、撮像画像取得プログラム121から供給されてきた画像データや、ソースデータ取得プログラム123から供給されてきた画像データに基づいて投影される画像を生成し、投影用LCD77に表示させる。なお、投影画像生成プログラム124により生成される画像には、情報処理端末1と受像面との位置関係に応じて、適宜、補正などが施される。
【0083】
ナビゲーション制御プログラム125は、位置検出部74を制御し、情報処理端末1の現在位置、情報処理端末1の方角、情報処理端末1の姿勢位置などを検出し、検出結果に基づいて取得されたナビゲーション画像を投影画像生成プログラム124に出力する。
【0084】
IR検出プログラム126は、IR出射/受光部73を制御し、例えば、赤外線の反射波が受光されたタイミングを表す情報を投影画像生成プログラム124に出力する。例えば、投影画像生成プログラム124により受像面までの距離が算出され、筐体11から受像面までの距離が所定の範囲内である場合、画像の投影が行われ、一方、筐体11から受像面までの距離が所定の範囲より離間している場合、画像の投影が制限される。
【0085】
また、撮像部24のオートフォーカス機能を用いて、投影面に投影されている画像を撮像し、投影されている画像のフォーカスの程度を識別して、投影部23のピントの自動調整が行われるようにしてもよい。
【0086】
次に、以上のような構成を有する情報処理端末1の動作について説明する。
【0087】
始めに、図8のフローチャートを参照して、ソースデータに対応する画像を受像面の正面から投影する情報処理端末1の処理について説明する。
【0088】
ステップS1において、ソースデータ取得プログラム123は、ソースデータを取得し、それを投影画像生成プログラム124に出力する。例えば、操作キー22が操作され、文字が入力された場合、ソースデータ取得プログラム123により、ユーザの入力に対応するテキストデータがソースデータとして取得され、投影画像生成プログラム124に出力される。また、所定の画像を再生することがユーザにより指示されたとき、指示された画像を再生するためのデータが、HDD66から、またはネットワークインタフェース76を介して取得され、投影画像生成プログラム124に出力される。
【0089】
ステップS2において、投影画像生成プログラム124は、ソースデータ取得プログラム123から供給されてきたデータに対応する画像を投影用LCD77に表示させ、画像を受像面に投影する。すなわち、光源からの光が投影用LCD77およびレンズを透過して投影部23から筐体11の外部に出射され、投影用LCD77に表示されている画像に対応する像が受像面に表示される。
【0090】
図9は、受像面に投影される画像の例を示す図である。
【0091】
例えば、水平面151に載置されている情報処理端末1が、受像面152の正面にあり(受像面の法線軸と、情報処理端末1の投影軸が同一平面内にあり)、ユーザ141Hにより「こんにちわ」の文字が操作キー22から入力されたとき、その入力に応じたテキストデータが取得され、「こんにちわ」の投影画像152Aが受像面152に表示される。なお、実際には、投影画像152Aの上下方向が、位置決め部材13により位置決めされた投影軸の角度に応じて補正されている。
【0092】
このように、画像を受像面に投影することにより、情報処理端末1自体にLCDなどの大きな表示デバイスを用意する必要がなくなり、端末の小型化が可能となる。
【0093】
すなわち、より効率的に各種の作業を行うためには、LCDなどよりなる大きな表示デバイスが必要となり、端末全体の小型化が表示デバイスの大きさに制限されてしまうが、このように、画像を投影することにより、表示デバイスの大きさに制限されることなく、小型化を実現することが可能となる。
【0094】
以上においては、情報処理端末1が受像面152の正面に配置される場合について説明したが、例えば、図10に示されるように、情報処理端末1の投影軸βと、受像面152の法線軸γに角度がある場合(両方の軸が垂直平面内にない場合)、投影画像152Aは、その角度に応じて歪んだものとなり、画像の補正が必要となる。例えば、画像の補正を行わずに長方形の画像を投影した場合、図10の投影画像152Aのように、投影部23から離れるに従って、徐々に拡大されて受像面152に投影される。
【0095】
次に、図11のフローチャートを参照して、受像面との位置関係に応じて画像を補正し、画像を投影する情報処理端末1の処理について説明する。
【0096】
ステップS11において、投影画像生成プログラム124は、受像面との位置関係に関する情報を取得する。具体的には、投影画像生成プログラム124は、ソースデータ取得プログラム123から供給されるデータに基づいて、格子状の図形画像(正方形の画像が複数配置された画像)を受像面に投影する。
【0097】
また、投影画像生成プログラム124は、撮像部24により撮像された受像面の画像データが撮像画像取得プログラム121から供給されてきたとき、その画像データに基づいて、受像面に投影された格子の歪みを取得し、受像面と筐体11との位置関係、すなわち、受像面の法線軸と投影軸の角度を取得する。
【0098】
例えば、図12に示されるような格子状の画像152Bを受像面152に投影し、画像152Bを撮像部24により撮像することで、格子の歪みの程度が情報処理端末1により取得され、それに基づいて、投影軸βと受像面の法線軸γの角度が取得される。
【0099】
図12の例においては、情報処理端末1の投影軸βと受像面152の法線軸γが共に垂直平面内にはなく、それらの軸の間に所定の角度が生じている。また、情報処理端末1のUSBポート27には、USBケーブル162を介してキーボード161が接続されている。
【0100】
なお、情報処理端末1と受像面152との位置関係を取得するために投影される画像は、格子状の画像に限られるものではなく、単なる円形の画像、長方形の画像、或いは、正方形の画像など、各種の図形の画像が投影されるようにしてもよい。例えば、円形の画像を投影し、受像面に投影された円形の歪みの程度を撮像部24による撮像結果から取得することにより、情報処理端末1と受像面152との位置関係が取得される。
【0101】
図11の説明に戻り、ステップS12において、ソースデータ取得プログラム123によりソースデータが取得され、取得されたソースデータが投影画像生成プログラム124に出力される。
【0102】
投影画像生成プログラム124は、ステップS13において、ステップS11で取得した受像面との位置関係に関する情報に基づいて、ソースデータ取得プログラム123から供給されてきたデータに対応する画像を補正する。
【0103】
例えば、図12に示されるように、受像面152の法線軸に対して左側に情報処理端末1があり、格子状の画像152Bが投影される場合、その右側の部分に(投影部23から離れる部分に)、より大きな補正量が与えられ、受像面152の正面に対向するユーザ141Hが、正方形が配置されてなる画像152Bを確認できるように画像が補正される。また、反対に、受像面152の法線軸に対して右側に情報処理端末1がある場合、投影される画像152Bの左側の部分に、より大きな補正量が与えられ、受像面152に対向するユーザ141Hが、正方形が配置されてなる画像152Bを確認できるように画像が補正される。
【0104】
なお、画像152Bの上下方向は、位置決め部材13により位置決めされた投影軸の角度に応じて補正される。
【0105】
投影する画像を、受像面との位置関係に応じて補正した後、ステップS14において、投影画像生成プログラム124は、投影用LCD77に補正後の画像を表示し、ソースデータに対応する画像を投影する。
【0106】
これにより、例えば、図13に示されるように、受像面152の正面に情報処理端末1が設置されていない場合であっても、ユーザ141Hがキーボード161を操作して入力した「こんにちわ」の文字に対応する投影画像152Cが、歪んで投影されることが抑制される。
【0107】
このように、図形画像が投影された受像面を撮像し、その撮像結果に基づいて決定された補正量により自動的に補正が施されるようにしたため、ユーザは、情報処理端末1の位置を移動させた場合であっても、操作キー22などを自ら操作して補正する手間を省くことができる。筐体11の大きさが比較的小さく、ユーザが自由に持ち運ぶことが可能な情報処理端末1においては、この効果は顕著なものとなる。当然、ユーザによる手動操作により補正量が決定されるようにしてもよい。
【0108】
次に、受像面が平面でない場合の情報処理端末1の処理について、図14のフローチャートを参照して説明する。
【0109】
ステップS21において、投影画像生成プログラム124は、受像面の形状に関する情報を取得する。例えば、上述した場合と同様に、投影画像生成プログラム124は、ソースデータ取得プログラム123から供給されてきたデータに基づいて、受像面とされるオブジェクトに格子状の図形画像を投影し、撮像画像取得プログラム121から供給されてくる、格子状の画像が投影されたオブジェクトの撮像結果に基づいて、受像面の形状に関する情報を取得する。
【0110】
また、オブジェクトの様々な位置に向けて赤外線が出射され、その反射波が受光されたタイミングに基づいてオブジェクトの形状が取得されるようにしてもよい。
【0111】
さらに、筐体11の同一平面に複数の撮像部が設けられている場合、それぞれの撮像部による視差に基づいて、オブジェクトの形状が取得されるようにしてもよい。
【0112】
ステップS22乃至S24の処理は、図11のステップS12乃至S14の処理と同様である。すなわち、ステップS22において、ソースデータ取得プログラム123によりオブジェクトに投影する画像のデータが取得され、取得されたデータに対応する画像に対して、ステップS23において、オブジェクトの形状に応じた補正が施される。そして、ステップS24において、補正が施された画像が、受像面を有するオブジェクトに対して投影される。
【0113】
例えば、図15に示される円柱状のオブジェクト171に画像を投影する場合、始めに、図に示されるように、格子状の画像171Aがオブジェクト171に投影され、画像171Aが投影されているオブジェクト171が撮像部24により撮像される。そして、撮像結果の画像中における格子の密度に基づいて、投影画像生成プログラム124によりオブジェクト171の形状が取得され、その形状に関わらず、平面に投影されたものと同じ画像がオブジェクト171に投影されるように、画像が補正される。
【0114】
以上の処理により、例えば、図16に示されるように、円形画像171Bがオブジェクト171の側面に投影される。仮に、投影する円形画像に対して補正が施されない場合、円柱のオブジェクト171の側面に投影された円形画像171Bは、縦軸方向に較べて、横軸方向が伸びた状態の楕円としてユーザにより確認されることになる。
【0115】
同様に、受像面としてのオブジェクトの形状に応じて画像を補正し、補正後の画像データを投影することにより、例えば、図17に示されるように、立方体の上に四角錐が載置されたようなオブジェクト181に対しても、投影する画像により、色や模様を付加することができる。この場合においても、オブジェクト181に対して格子状の画像が投影され、格子状の画像が投影されたオブジェクト181が撮像され、撮像結果に基づいて、オブジェクト181の形状が取得される。
【0116】
このように、図形画像が投影された受像面(オブジェクト)の撮像結果に基づいて補正を施すことにより、様々な受像面に対して画像を投影することができる。
【0117】
次に、図18のフローチャートを参照して、受像面までの距離に応じて、画像の投影を制御する情報処理端末1の処理について説明する。
【0118】
ステップS31において、投影画像生成プログラム124は、受像面までの距離に関する情報を取得する。例えば、IR出射/受光部73により、面11bの所定の位置から出射された赤外線が受像面により反射され、反射波の受光タイミングを表す情報がIR検出プログラム126から通知されてきたとき、投影画像生成プログラム124は、通知されてきた情報に基づいて、受像面までの距離を表す情報を取得する。
【0119】
また、投影部23から、例えば、正方形や円形の所定の図形画像を受像面に投影し、図形画像が投影された受像面の撮像画像に基づいて、受像面までの距離が取得されるようにしてもよい。
【0120】
この場合、投影画像生成プログラム124は、ソースデータ取得プログラム123から供給されるデータに対応する図形画像を受像面に投影し、撮像画像取得プログラム121から供給される撮像結果の画像における、図形画像の大きさ(面積)に基づいて、受像面までの距離を取得する。すなわち、受像面までの距離が近いほど、より大きな図形画像が撮像される。
【0121】
ステップS32において、投影画像生成プログラム124は、筐体11から受像面までの距離が所定の範囲内にあるか否かを判定し、所定の距離以上離間していると判定した場合、ステップS31に戻り、それ以降の処理を繰り返し実行する。一方、ステップS32において、投影画像生成プログラム124は、受像面までの距離が所定の範囲内にあると判定した場合、ステップS33に進み、それ以降、画像の撮像を開始する。
【0122】
すなわち、ソースデータ取得プログラム123によりステップS33で取得されたソースデータに対応する画像が、ステップS34において、所定の距離の範囲内にある受像面に投影される。
【0123】
以上の処理により、受像面までの距離が比較的近い場合(所定の範囲内にある場合)にのみ投影が行われるため、受像面に投影される画像は、光源からの十分な光により表されたものとなり、高コントラストの画像が得られる。また、ユーザの目では認識することができないような画像が投影されることを制限することができ、バッテリの浪費を抑制することができる。
【0124】
以上においては、撮像結果に基づいて取得された受像面の状況、換言すれば、情報処理端末1が載置されている状況に応じて投影が制御される場合について説明したが、次に、撮像結果の画像から取得された情報に対応する画像を投影する情報処理端末1の動作について説明する。
【0125】
始めに、図19のフローチャートを参照して、撮像結果から取得された識別情報に対応する画像を投影する情報処理端末1の処理について説明する。
【0126】
ステップS41において、撮像画像取得プログラム121は、例えば、ユーザからの指示に応じて撮像し、撮像結果の画像を識別情報取得プログラム122に出力する。
【0127】
識別情報取得プログラム122は、ステップS42において、撮像結果の画像から、投影するそれぞれのデータを識別する識別情報を取得し、取得した識別情報をソースデータ取得プログラム123に出力する。
【0128】
ソースデータ取得プログラム123は、ステップS43において、供給されてきた識別情報に対応するデータを、HDD66から、または、ネットワークを介して取得し、取得したデータをソースデータとして投影画像生成プログラム124に出力する。
【0129】
投影画像生成プログラム124は、ステップS44において、ソースデータ取得プログラム123から供給されてきたデータに対応する画像を投影する。
【0130】
以上の処理により、例えば、図20に示されるように、博物館において、壁面191に化石標本192が展示され、その近傍にバーコード193が用意されている場合、ユーザ141Hは、識別情報としてのバーコード193により取得される画像を投影させるべく、始めに、筐体11の面11b(撮像部24)をバーコード193に向け、撮影する(図19のステップS41)。
【0131】
情報処理端末1においては、撮像結果の画像から取得されたバーコード193に対応するデータが読み出され(ステップS42,S43)、画像が投影される(ステップS44)。
【0132】
従って、ユーザ141Hが、筐体11の面11bをバーコード193に向けて撮影した後に、続けて化石標本192に向けた場合、図20に示される化石標本192に重畳して、例えば、図21に示される画像192Aが投影される。
【0133】
すなわち、この場合、バーコード193に対応するデータとして、図20に示される骨格のみの恐竜(化石)を、肉付けされた恐竜として化石標本192に投影するための画像データが、例えば、HDD66から、或いは、無線LANなどを介して博物館のデータベースから取得されている。
【0134】
なお、バーコード193に基づいて取得されたデータに対応する画像のうち、実際に投影される画像をユーザ自身が選択できるようにしてもよい。例えば、LCD21に時間軸が表示され、所定の時刻(年代)をユーザが指定することにより、指定された年代の恐竜の画像が投影されるようにしてもよい。この指定は、例えば、LCD21に重畳して配設されているタッチパッド72により検出される。
【0135】
化石を肉付けされたものにする画像192A以外にも、撮像結果の画像から取得された識別情報に対応する、様々な画像を投影させることができる。
【0136】
例えば、壁面に展示されている絵画の近傍に識別情報が表示されており、その識別情報が撮像されることに応じて、絵画の作者などの説明が投影されるようにしてもよいし、店舗において、それぞれの商品の包装にプリントされているバーコードが撮像されることに応じて、商品の説明が投影されるようにしてもよい。
【0137】
また、取得される識別情報は、バーコードに限定されるものではなく、例えば、2次元コード、或いは所定の桁の数字列などとすることができる。
【0138】
なお、図11を参照して説明した、受像面との位置関係に応じた補正処理や、図14を参照して説明した、受像面の形状に応じた補正処理、或いは、図18を参照して説明した、受像面との距離に応じた投影の制御処理なども、識別情報に対応する画像を投影する上述した処理においても適宜実行されている。後述する各種の処理においても同様である。
【0139】
次に、図22のフローチャートを参照して、人物の顔を撮像し、その人物に関する情報を投影する情報処理端末1の処理について説明する。
【0140】
すなわち、この処理においては、撮像結果に基づいて取得された人物の顔が識別情報に相当する。
【0141】
ステップS51において、撮像画像取得プログラム121は、ユーザからの指示に応じて撮像部24を制御して撮像する。従って、ユーザにより筐体11の面11bが人物の顔に向けられている場合、撮像部24により人物の顔が撮像される。撮像結果の画像は、識別情報取得プログラム122に出力される。
【0142】
ステップS52において、識別情報取得プログラム122は、供給されてきた画像データを解析し、人物の顔を構成する各部の特徴データから、被写体としての人物を識別する。
【0143】
ソースデータ取得プログラム123は、ステップS53において、識別情報取得プログラム122により識別された人物に対応するデータを、HDD66から、または、ネットワークを介して取得し、取得したデータをソースデータとして投影画像生成プログラム124に出力する。
【0144】
投影画像生成プログラム124は、ステップS54において、ソースデータ取得プログラム123から供給されてきたデータに対応する画像を投影する。
【0145】
以上の処理により、例えば、図23に示されるように、ユーザ141Hが情報処理端末1により人物201の顔を撮像し、続けて、情報処理端末1の面11bを人物201の胴体に向けた場合、撮像結果の画像に基づいて人物201が識別され、人物201に対応するデータとして取得された情報(図23の例においては、人物201の名字(ヤマダ))が胴体に投影される。
【0146】
以上のように、様々な情報を撮像結果の画像から識別情報として取得させ、それに対応するデータを投影することができる。すなわち、撮像部24による撮像機能を利用することにより、ユーザは、投影する画像のデータを自ら選択することなく、容易に、かつ迅速に、その状況に応じた最適な画像を投影することができる。
【0147】
次に、投影した画像に対してユーザにより行われた操作を、撮像結果の画像に基づいて検出し、検出された操作を、投影する画像に反映させる情報処理端末1の動作について説明する。
【0148】
図24のフローチャートは、受像面に投影されたキーボードの画像に対するユーザの操作を撮像画像に基づいて検出し、その検出結果を、投影する画像に反映する情報処理端末1の処理を示している。
【0149】
ステップS61において、投影画像生成プログラム124は、ソースデータ取得プログラム123から供給されてきたデータに基づいて、入力装置としてのキーボードの画像を受像面に投影する。
【0150】
図25は、情報処理端末1により投影された、キーボードの画像の例を示す図であり、例えば、面11bが天板211(受像面)に向けられた状態で、天井などに形成された部材により支持固定された情報処理端末1から、受像面としての天板211にキーボード画像221が投影される。
【0151】
また、キーボード画像221の上方には表示領域222が形成されており、ここに、キーボード画像221に対する操作に対応する文字が表示される。この表示領域222、および、そこに表示される文字等も、情報処理端末1により投影されている画像である。
【0152】
ステップS62において、投影画像生成プログラム124は、撮像画像取得プログラム121により撮像され、供給されてきた画像データに基づいて、キーボード画像221に対するユーザの入力(ユーザの指の動き)を検出し、ステップS63に進み、文字の入力が検出されたか否かを判定する。
【0153】
すなわち、キーボード画像221を投影した後、キーボード画像221を含む天板211の状況が連続して撮像部24により撮像されている。
【0154】
投影画像生成プログラム124は、ステップS63において、入力が検出されていないと判定した場合、ステップS62に戻り、一方、ユーザの指が所定の文字の領域に移動され、入力が検出されたと判定した場合、ステップS64に進み、ソースデータ取得プログラム123を制御し、ユーザにより入力された文字を投影するための画像データを取得する。
【0155】
ユーザの入力に対応する画像のデータを取得したとき、ステップS65において、投影画像生成プログラム124は、取得したデータに対応する画像を天板211の表示領域222に投影する。
【0156】
以上のような処理が繰り返し実行され、表示領域222には、ユーザがキーボード画像221を操作して入力した文字が投影される。図25においては、「GOOD」の文字が投影されており、撮像結果の画像に基づいて、ユーザがキーボード画像221のうちの「G」の領域、「O」の領域、「O」の領域、および「D」の領域を連続して操作したことが検出された場合の例とされている。
【0157】
これにより、例えば、天板211の上や下、或いは近傍などにいずれの装置が置かれていない場合であっても、文章の作成などのパーソナルコンピュータを利用した各種の作業を行うことができる。
【0158】
例えば、ユーザは、キーボード画像221を操作してインターネットを行うこともできし、電子メールの文章を作成し、それを送信することもできる。キーボード画像221の操作によりインターネットが行われる場合、アクセスが指示されたサイトの画面のデータが、ネットワークインタフェース76を介して取得され、表示領域222に、取得されたデータに対応するサイトの画面が投影される。また、キーボード画像221の操作により電子メールが行われる場合、作成された文章が、ネットワークインタフェース76を介して、送信先として指定されたメールサーバに送信される。
【0159】
なお、ユーザの体の一部などが、投影部23からの投影を遮光することを抑制するように、情報処理端末1は、ユーザの正面であって、かつ、斜め上方の位置に設置されていることが好ましい。これにより、ユーザの体により投影が遮光され、受像面に画像が投影されなくなるのを抑制できるとともに、ユーザが、投影したキーボード画像のうちのどの部分を操作したのかを、撮像結果に基づいてより確実に検出させることができる。
【0160】
また、ユーザによる入力をより確実に検出できるように、天板211(キーボード画像221の所定の文字の領域)を押下することに応じて発光するLED(Light Emitting Diode)が設けられた機器を、キーボード画像221を操作するユーザに装着させるようにしてもよい。
【0161】
図26は、ユーザ141Hの指先近傍を拡大して示す図である。
【0162】
発光装置231は、リング状のものとして形成され、ユーザ141Hがキーボード画像221を押下する位置(手のひら方向の位置)には、スイッチ233が配設され、スイッチ233の反対側の位置(手の甲方向の位置)には、スイッチ233が押下されることに応じて発光されるLED232が配設されている。
【0163】
従って、ユーザが、キーボード画像221のうちの所定の文字領域を押下した場合、スイッチ233がオンとなり、LED232が発光される。情報処理端末1においては、撮像結果の画像中における、LED232が発光された位置に基づいて、ユーザにより操作された文字領域が検出される。
【0164】
これにより、撮像結果の画像に基づいて、キーボード画像221のうち、ユーザにより押下された文字領域をより確実に検出させることが可能となる。
【0165】
以上においては、表示デバイスとしてキーボードの画像が投影されるとしたが、マウスなどの各種の表示デバイスが投影されるようにしてもよい。例えば、マウスが投影されている場合、撮像結果に基づいて、マウス画像に触れているユーザの手の動きが検出され、検出された動きに応じて、マウスの画像と、ポインタの画像の投影が制御される。
【0166】
また、壁面などに各種のボタンの画像が投影されている場合において、撮像して得られた画像から、操作されたボタンが検出され、ユーザにより操作されたボタンに対応する画像がボタンの近傍に投影されるようにしてもよい。
【0167】
例えば、デパートの各フロアの案内板が壁面に投影されている場合において、撮像部24による撮像結果の画像から、ユーザが1階のフロアの案内情報を要求していることが検出されたとき、それに応じて読み出された1階のフロアの詳細な案内を表す画像が壁面に投影される。
【0168】
このように、投影部23による投影と、撮像部24による撮像を組み合わせることにより、装置の設置位置の制約を受けることなく、各種の情報を利用者に提供することができる。また、提供される情報は、広範囲にわたって拡大して表示することが可能である。
【0169】
例えば、ユーザの入力を検出し、入力に応じた情報を提示するものとして、例えば、大画面のLCDとタッチパネルを組み合わせることによっても実現することが可能であるが、それと比較して、上述したようにして情報処理端末1により各種の情報を提示することの方が、設置位置の問題という点だけでなく、コストの点でも優れているといえる。
【0170】
また、ユーザは、情報処理端末1を、目的地までの道順を案内するナビゲーション端末として利用することもできる。
【0171】
次に、図27のフローチャートを参照して、目的地までの道順を案内する案内画像を投影する情報処理端末1の処理について説明する。
【0172】
ステップS81において、ナビゲーション制御プログラム125は、目的地の情報を取得する。例えば、ナビゲーション制御プログラム125は、LCD21に表示される入力画面に対してユーザにより入力された目的地の情報を取得する。また、投影された地図上において、ユーザが指などで指定した目的地が、撮像結果に基づいて検出され、目的地の情報として取得されるようにしてもよい。
【0173】
ステップS82において、ナビゲーション制御プログラム125は、位置検出部74のGPSにより現在位置の情報を取得し、ステップS83に進み、電子コンパスにより、筐体11の正面(面11b)が向けられている方角の情報を取得する。
【0174】
また、ナビゲーション制御プログラム125は、ステップS84において、位置検出部74のジャイロセンサからの出力に基づいて、筐体11の姿勢位置の情報を取得する。
【0175】
ステップS85において、ナビゲーション制御プログラム125は、ユーザにより入力された目的地の情報と、現在位置の情報から、目的地までのルートを検索し、筐体11の面11bが向けられている方角と、筐体11の姿勢位置に応じて、投影する案内画像のデータを取得する。
【0176】
ナビゲーション制御プログラム125により取得された案内画像のデータは、投影画像生成プログラム124に供給され、ステップS86において、対応する画像が投影される。
【0177】
以上の処理により、例えば、図28に示されるように、街中を歩いているユーザ141Hは、目的地までの案内を表す案内画像241Aを建物の壁面241に投影することができる。このようにLCD21により表示した場合に較べて大きな案内が表示されるため、道順を確実に確認させることができる。
【0178】
図28の例においては、案内画像241Aには、壁面241に対向しているユーザ141Hに対して、右に進むことを案内する白抜き矢印の画像が表示されており、ユーザ141Hは、この案内に従って、自分の右手方向(白抜き矢印A1で示される方向)に移動する。当然、現在位置の近傍の地図が投影され、目的地までの道順が示されるようにしてもよい。
【0179】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。
【0180】
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0181】
この記録媒体は、図6に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク102(フレキシブルディスクを含む)、光ディスク103(CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク104(MD(登録商標)(Mini−Disk)を含む)、もしくは半導体メモリ105などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMやHDD66などで構成される。
【0182】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0183】
【発明の効果】
本発明によれば、端末の小型化とともに、大画面表示を実現することが可能となる。
【0184】
また、本発明によれば、ユーザからの入力によらずに、投影する最適な画像のデータを、容易に、かつ迅速に取得することができる。
【図面の簡単な説明】
【図1】本発明を適用した情報処理端末の左側面の構成例を示す斜視図である。
【図2】位置決め部材の回動を説明する図である。
【図3】本発明を適用した情報処理端末の右側面の構成例を示す斜視図である。
【図4】本発明を適用した情報処理端末の背面の構成例を示す斜視図である。
【図5】本発明を適用した情報処理端末の底面の構成例を示す斜視図である。
【図6】情報処理端末の内部構成の例を示すブロック図である。
【図7】図6の表示制御プログラムの機能構成例を示すブロック図である。
【図8】受像面の正面から投影する情報処理端末の処理を説明するフローチャートである。
【図9】図8の処理により投影される画像の例を示す図である。
【図10】受像面に対して斜め方向から投影される画像の例を示す図である。
【図11】受像面に対して斜め方向から投影する情報処理端末の処理を説明するフローチャートである。
【図12】図11の処理により投影される画像の例を示す図である。
【図13】図11の処理により投影される他の画像の例を示す図である。
【図14】オブジェクトに対して投影する情報処理端末の処理を説明するフローチャートである。
【図15】図14の処理により投影される画像の例を示す図である。
【図16】図14の処理により投影される他の画像の例を示す図である。
【図17】図14の処理により投影されるさらに他の画像の例を示す図である。
【図18】受像面までの距離に応じて投影を制御する情報処理端末の処理を説明するフローチャートである。
【図19】識別情報に応じて取得されたデータの画像を投影する情報処理端末の処理を説明するフローチャートである。
【図20】図19の処理により画像が投影される前のユーザの操作を示す図である。
【図21】図19の処理により、図20の受像面に対して投影された画像の例を示す図である。
【図22】識別情報に応じて取得されたデータの画像を投影する情報処理端末の他の処理を説明するフローチャートである。
【図23】図22の処理により投影される画像の例を示す図である。
【図24】投影した画像に対するユーザの入力に応じて投影を制御する情報処理端末の処理を説明するフローチャートである。
【図25】図24の処理により投影される画像の例を示す図である。
【図26】図25の詳細を示す図である。
【図27】目的地までの方向を案内する案内画像を投影する情報処理端末の処理を説明するフローチャートである。
【図28】図27の処理により投影される画像の例を示す図である。
【符号の説明】
1 情報処理端末, 21 LCD, 22 操作キー, 23 投影部, 24 撮像部, 54C 表示制御プログラム, 102 磁気ディスク, 103 光ディスク, 104 光磁気ディスク, 105 半導体メモリ, 121 撮像画像取得プログラム, 122 識別情報取得プログラム, 123 ソースデータ取得プログラム, 124 撮影画像生成プログラム, 125 ナビゲーション制御プログラム, 126 IR検出プログラム[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information processing terminal, a method, and a program, and more particularly, to an information processing terminal, a method, and a program that enable easy and quick acquisition of optimal image data to be projected.
[0002]
[Prior art]
In recent years, by adding a communication function with external devices to a projector used in a place such as a conference and operating a personal computer connected to the projector, a presentation can be easily made using data prepared in the personal computer. There is something that can be done (Patent Document 1).
[0003]
In addition, the projector itself is equipped with an OS (Operating System) such as Windows (registered trademark) in the same manner as a personal computer, and for example, it is possible to directly operate the projector and give a presentation using data prepared in advance. Some exist (Non-Patent Document 1).
[0004]
[Patent Document 1]
JP-A-2002-218420 (page 5, FIG. 3)
[Non-patent document 1]
"Expanding World of Windows (R) CE OS: Sony VPL-FX50 Network Projector with Built-in Windows (R) CE", [online], May 9, 2001 Edition, [Search July 3, 2002], Internet, URL < http: // www. wince. ne. jp / snap / ceSnapView. asp? PID = 218>
[0005]
[Problems to be solved by the invention]
However, the devices and the like described in the above-mentioned non-patent literature only combine the function of the projector and the function of the personal computer, and the function of the projector is simply an output that outputs the content processed by the personal computer. It only has a function as a device.
[0006]
Therefore, the user needs to select the data of the image projected by the projector and instruct the projection timing.
[0007]
The present invention has been made in view of such a situation, and enables easy and quick acquisition of optimal image data to be projected without depending on input from a user. To provide a new usage form of
[0008]
[Means for Solving the Problems]
The information processing terminal of the present invention is represented by an imaging processing unit that captures an image of a subject, an acquisition processing unit that acquires predetermined data based on an imaging result of the imaging processing unit, and data acquired by the acquisition processing unit. And first projection processing means for projecting an image.
[0009]
The image processing apparatus may further include second projection processing means for projecting a predetermined graphic image for acquiring the shape of the image receiving surface. In this case, the imaging processing means captures the image receiving surface on which the graphic image is projected by the second projection processing means, and the first projection processing means captures the image receiving surface obtained based on the imaging result by the imaging processing means. Project an image corrected in accordance with the shape of.
[0010]
Measurement processing means for measuring the distance to the image receiving surface may be further provided. In this case, the first projection processing unit projects the image when the distance to the image receiving surface measured by the measurement processing unit is within a predetermined distance.
[0011]
The image processing apparatus may further include second projection processing means for projecting a predetermined graphic image on the image receiving surface. In this case, the imaging processing unit captures the image receiving surface on which the graphic image is projected by the second projection processing unit, and the measurement processing unit determines the image receiving surface based on the size of the graphic image in the imaging result by the imaging processing unit. Measure the distance to
[0012]
An emission processing unit that emits light to the image receiving surface may be further provided. In this case, the measurement processing unit measures the distance to the image receiving surface based on the reflected wave of the light emitted by the emission processing unit.
[0013]
The information processing apparatus may further include identification information acquisition processing means for acquiring predetermined identification information based on a result of imaging by the imaging processing means. In this case, the acquisition processing unit acquires data corresponding to the identification information acquired by the identification information acquisition processing unit.
[0014]
Second projection processing means for projecting an image representing a predetermined input device, and detection processing means for detecting a user input to the image of the input device projected by the second projection processing means are further provided. Can be. In this case, the acquisition processing unit acquires data based on a user input detected by the detection processing unit, and the projection unit displays an image based on the acquired input data in an area other than the image representing the input device. .
[0015]
The imaging unit that performs imaging by the imaging processing unit and the projection unit that performs projection by the first projection processing unit may be formed on the same plane of the housing.
[0016]
An information processing method of an information processing terminal according to the present invention includes: an imaging processing step of imaging a subject; an acquisition processing step of acquiring predetermined data based on an imaging result obtained by the processing of the imaging processing step; And a projection processing step of projecting an image represented by the acquired data.
[0017]
The program of the present invention is obtained by an imaging control processing step of controlling imaging of a subject, an obtaining processing step of obtaining predetermined data based on an imaging result of the imaging control processing step, and an obtaining processing step of obtaining predetermined data. And a projection control processing step of controlling projection of an image represented by the data.
[0018]
In the information processing terminal, the method, and the program of the present invention, a subject is imaged, and predetermined data is obtained based on the imaging result. Further, an image represented by the acquired data is projected.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
1 to 5 are perspective views showing a configuration example of an
[0020]
The
[0021]
The
[0022]
An LCD (Liquid Crystal Display) 21 is provided on the
[0023]
From a numeric keypad, for example, a general mobile phone, in which, by successively pressing the same key, the selected character is sequentially switched, and the selected character is input when instructing determination, etc. Characters are input according to the method adopted in. Of course, a keyboard having a narrow key pitch may be provided at the position of the
[0024]
When the user grips the
[0025]
Note that a touch pad 72 (FIG. 6) is superimposed on the
[0026]
A
[0027]
An
[0028]
As will be described later, in the
[0029]
On the
[0030]
Further, one end of a positioning
[0031]
The positioning
[0032]
The height of the front of the
[0033]
For example, as shown in FIG. 2, when the positioning
[0034]
On the other hand, as the positioning
[0035]
Similarly, the angle between the projection axis and the horizontal axis gradually decreases as the positioning
[0036]
Further, the positioning
[0037]
Therefore, the user can adjust the position of the positioning
[0038]
As shown in FIG. 3, a fixing
[0039]
FIG. 4 is a perspective view of the back side of the
[0040]
FIG. 5 is a perspective view of the bottom surface side of the
[0041]
[0042]
FIG. 6 is a block diagram illustrating an example of the internal configuration of the
[0043]
The CPU (Central Processing Unit) 51 includes, for example, a Pentium (registered trademark) processor manufactured by Intel Corporation, and is connected to the host bus 52. A bridge 53 (a so-called north bridge) is further connected to the host bus 52. The bridge 53 has an AGP (Accelerated Graphics Port) 50 and is connected to a PCI (Peripheral Component Interconnect / Interface)
[0044]
The bridge 53 includes, for example, 440BX, which is an AGP Host Bridge Controller manufactured by Intel Corporation, and controls transmission of data such as a CPU 51 and a RAM (Random Access Memory) 54 (so-called main memory). Further, the bridge 53 controls data transmission with the
[0045]
The bridge 53 is further connected to a cache memory 55. The cache memory 55 is configured by a memory that can execute a write or read operation at a higher speed than the
[0046]
The CPU 51 has a primary cache memory (a memory that can operate at a higher speed than the cache memory 55 and is controlled by the CPU 51 itself).
[0047]
The
[0048]
The
[0049]
The autopilot program 54B is a program that sequentially activates and executes a plurality of preset processes (or programs) in a preset order.
[0050]
The
[0051]
The OS 54D is a program for controlling basic operations of a computer represented by, for example, Windows (registered trademark) 2000 of Microsoft Corporation or so-called Mac OS (trademark) of Apple Computer Corporation. is there.
[0052]
The
[0053]
The
[0054]
For example, the projection LCD 77 is composed of three monochrome LCDs. Each LCD transmits light that is emitted from a light source (not shown), is divided into three colors of RGB light by a dichroic mirror, and is guided. I do. The lights transmitted through the three LCDs are combined into one light by a dichroic prism, transmitted through a lens, and emitted from the
[0055]
The same image may be displayed on the
[0056]
A part of the light from the light source for projecting the image displayed on the projection LCD 77 may be used as the backlight of the
[0057]
The memory card interface 65 is connected to the
[0058]
A bridge 58 (so-called south bridge) is also connected to the
[0059]
The
[0060]
The IDE controller / configuration register 59 includes two IDE controllers, a so-called primary IDE controller and a secondary IDE controller, a configuration register (configuration register), and the like (neither is shown).
[0061]
The HDD 66 is connected to the primary IDE controller via the
[0062]
The HDD 66 records an e-mail program 66A, an autopilot program 66B, a display control program 66C, an OS 66D, and a plurality of other application programs 66E1 to 66En. The e-mail program 66A, the auto-pilot program 66B, the display control program 66C, the OS 66D, and the application programs 66E1 to 66En recorded on the HDD 66 are sequentially supplied to the
[0063]
The
[0064]
The
[0065]
The I / O interface 67 is further connected to the ISA / EIO bus 64. The I / O interface 67 is composed of an embedded controller, in which a ROM 68, a RAM 69, and a
[0066]
The ROM 68 stores an IEEE 1394 interface program 68A, a touch pad input monitoring program 68B, a key input monitoring program 68C, a wake-up program 68D, and the like in advance.
[0067]
The IEEE 1394 interface program 68A transmits and receives data (data stored in a packet) conforming to the standard defined by IEEE 1394 through the IEEE 1394
[0068]
The key input monitoring program 68C is a program for monitoring inputs from the
[0069]
In the ROM 68, a BIOS (Basic Input / Output System (basic input / output system)) 68E is further written. The
[0070]
The RAM 69 includes registers for touchpad input status, key input status, or set time, IEEE 1394 I / F registers, and the like as registers 69A to 69F.
[0071]
The
[0072]
The IR (Infrared) emitting / receiving unit 73 is provided, for example, in a hole of the
[0073]
The position detecting unit 74 includes, for example, a GPS (Global Positioning System) module, an electronic compass, a gyro sensor, and the like, the current position of the
[0074]
The power supply control circuit 75 is connected to the
[0075]
The I / O interface 67 controls transmission and reception of data to and from a device connected via the IEEE 1394
[0076]
The
[0077]
FIG. 7 is a block diagram illustrating a functional configuration example of the
[0078]
Each configuration shown in FIG. 7 is realized by the display control program 66C being expanded in the
[0079]
The captured
[0080]
The identification
[0081]
The source
[0082]
The projection
[0083]
The
[0084]
The
[0085]
Further, the image projected on the projection surface is captured using the autofocus function of the
[0086]
Next, the operation of the
[0087]
First, a process of the
[0088]
In step S1, the source
[0089]
In step S2, the projection
[0090]
FIG. 9 is a diagram illustrating an example of an image projected on an image receiving surface.
[0091]
For example, the
[0092]
In this way, by projecting the image on the image receiving surface, it is not necessary to prepare a large display device such as an LCD in the
[0093]
That is, in order to perform various operations more efficiently, a large display device such as an LCD is required, and miniaturization of the entire terminal is limited by the size of the display device. By projecting, the size can be reduced without being limited by the size of the display device.
[0094]
The case where the
[0095]
Next, the processing of the
[0096]
In step S11, the projection
[0097]
When the image data of the image receiving surface captured by the
[0098]
For example, the degree of lattice distortion is acquired by the
[0099]
In the example of FIG. 12, the projection axis β of the
[0100]
Note that the image projected to acquire the positional relationship between the
[0101]
Returning to the description of FIG. 11, in step S12, source data is acquired by the source
[0102]
In step S13, the projection
[0103]
For example, as shown in FIG. 12, when the
[0104]
The vertical direction of the
[0105]
After correcting the image to be projected in accordance with the positional relationship with the image receiving surface, in step S14, the projection
[0106]
Thus, for example, as shown in FIG. 13, even when the
[0107]
As described above, since the image receiving surface on which the graphic image is projected is captured, and the correction is automatically performed based on the correction amount determined based on the image capturing result, the user can change the position of the
[0108]
Next, the processing of the
[0109]
In step S21, the projection
[0110]
Further, infrared rays may be emitted toward various positions of the object, and the shape of the object may be acquired based on the timing at which the reflected wave is received.
[0111]
Further, when a plurality of imaging units are provided on the same plane of the
[0112]
The processing in steps S22 to S24 is the same as the processing in steps S12 to S14 in FIG. That is, in step S22, data of an image to be projected on the object is acquired by the source
[0113]
For example, when an image is projected on the
[0114]
By the above processing, for example, a
[0115]
Similarly, by correcting the image according to the shape of the object as the image receiving surface and projecting the corrected image data, for example, as shown in FIG. 17, a square pyramid was placed on a cube. The color and pattern can be added to such an
[0116]
As described above, by performing the correction based on the imaging result of the image receiving surface (object) on which the graphic image is projected, the image can be projected on various image receiving surfaces.
[0117]
Next, the processing of the
[0118]
In step S31, the projection
[0119]
Further, the
[0120]
In this case, the projection
[0121]
In step S32, the projection
[0122]
That is, an image corresponding to the source data acquired in step S33 by the source
[0123]
By the above processing, the projection is performed only when the distance to the image receiving surface is relatively short (when the distance is within a predetermined range). Therefore, the image projected on the image receiving surface is represented by sufficient light from the light source. And a high-contrast image is obtained. In addition, it is possible to limit the projection of an image that cannot be recognized by the user's eyes, and it is possible to suppress battery consumption.
[0124]
In the above, the case where the projection is controlled in accordance with the situation of the image receiving surface acquired based on the imaging result, in other words, the situation in which the
[0125]
First, a process of the
[0126]
In step S41, the captured
[0127]
In step S42, the identification
[0128]
In step S43, the source
[0129]
In step S44, the projection
[0130]
According to the above processing, for example, as shown in FIG. 20, when a
[0131]
In the
[0132]
Therefore, when the
[0133]
That is, in this case, as data corresponding to the
[0134]
Note that the user may be able to select an image to be actually projected from among images corresponding to data acquired based on the
[0135]
In addition to the
[0136]
For example, identification information is displayed in the vicinity of a painting displayed on a wall surface, and an explanation of the creator of the painting or the like may be projected in response to the identification information being captured, or a store. In, the description of the product may be projected in response to the image of the barcode printed on the packaging of each product.
[0137]
Further, the obtained identification information is not limited to a barcode, but may be, for example, a two-dimensional code or a numeric string of a predetermined digit.
[0138]
It should be noted that the correction process according to the positional relationship with the image receiving surface described with reference to FIG. 11, the correction process according to the shape of the image receiving surface described with reference to FIG. 14, or FIG. The control processing of projection according to the distance from the image receiving surface described above is also appropriately executed in the above-described processing of projecting an image corresponding to identification information. The same applies to various processes described below.
[0139]
Next, the processing of the
[0140]
That is, in this process, the face of the person acquired based on the imaging result corresponds to the identification information.
[0141]
In step S51, the captured
[0142]
In step S52, the identification
[0143]
In step S53, the source
[0144]
In step S54, the projection
[0145]
By the above processing, for example, as shown in FIG. 23, when the
[0146]
As described above, various types of information can be obtained as identification information from an image of a captured result, and data corresponding thereto can be projected. That is, by using the imaging function of the
[0147]
Next, an operation of the
[0148]
The flowchart of FIG. 24 illustrates a process of the
[0149]
In step S61, the projection
[0150]
FIG. 25 is a diagram illustrating an example of a keyboard image projected by the
[0151]
Further, a
[0152]
In step S62, the projection
[0153]
That is, after projecting the
[0154]
When the projection
[0155]
When the data of the image corresponding to the user's input is acquired, the projection
[0156]
The above processing is repeatedly executed, and the characters input by the user operating the
[0157]
Thus, for example, even when no device is placed above, below, or near the
[0158]
For example, the user can operate the
[0159]
Note that the
[0160]
In order to more reliably detect an input by the user, a device provided with an LED (Light Emitting Diode) that emits light when the top plate 211 (a predetermined character area of the keyboard image 221) is pressed is provided. The user who operates the
[0161]
FIG. 26 is an enlarged view showing the vicinity of the fingertip of the
[0162]
The
[0163]
Therefore, when the user presses a predetermined character area in the
[0164]
This makes it possible to more reliably detect the character area pressed by the user in the
[0165]
In the above description, a keyboard image is projected as a display device, but various display devices such as a mouse may be projected. For example, when the mouse is projected, the movement of the user's hand touching the mouse image is detected based on the imaging result, and the mouse image and the pointer image are projected according to the detected movement. Controlled.
[0166]
When images of various buttons are projected on a wall or the like, an operated button is detected from an image obtained by imaging, and an image corresponding to the button operated by the user is located near the button. It may be projected.
[0167]
For example, when the guide plate of each floor of the department store is projected on the wall surface, when it is detected from the image of the imaging result by the
[0168]
Thus, by combining the projection by the
[0169]
For example, it is also possible to detect a user's input and present information according to the input, for example, by combining a large-screen LCD and a touch panel. It can be said that presenting various types of information using the
[0170]
Further, the user can use the
[0171]
Next, a process of the
[0172]
In step S81, the
[0173]
In step S82, the
[0174]
In step S84, the
[0175]
In step S85, the
[0176]
The data of the guide image acquired by the
[0177]
By the above processing, for example, as shown in FIG. 28, the
[0178]
In the example of FIG. 28, the
[0179]
The series of processes described above can be executed by hardware, but can also be executed by software.
[0180]
When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer built into dedicated hardware or installing various programs. It is installed in a possible, for example, a general-purpose personal computer from a network or a recording medium.
[0181]
As shown in FIG. 6, the recording medium is provided separately from the main body of the apparatus, and is distributed to provide the user with the program. The program stores a magnetic disk 102 (including a flexible disk) and an optical disk 103 (including a flexible disk). Package media including a CD-ROM (compact disk-only memory), a DVD (including a digital versatile disk), a magneto-optical disk 104 (including an MD (registered trademark) (mini-disk)), or a
[0182]
In this specification, the steps of describing a program recorded on a recording medium include, in addition to processing performed in chronological order according to the described order, not only chronological processing but also parallel or individual processing. This includes the processing to be executed.
[0183]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to implement | achieve a large screen display with a miniaturization of a terminal.
[0184]
Further, according to the present invention, it is possible to easily and quickly acquire the data of the optimal image to be projected without depending on the input from the user.
[Brief description of the drawings]
FIG. 1 is a perspective view illustrating a configuration example of a left side surface of an information processing terminal to which the present invention has been applied.
FIG. 2 is a diagram illustrating rotation of a positioning member.
FIG. 3 is a perspective view illustrating a configuration example of a right side surface of an information processing terminal to which the present invention has been applied.
FIG. 4 is a perspective view illustrating a configuration example of a back surface of an information processing terminal to which the present invention has been applied.
FIG. 5 is a perspective view showing a configuration example of a bottom surface of the information processing terminal to which the present invention is applied.
FIG. 6 is a block diagram illustrating an example of an internal configuration of the information processing terminal.
FIG. 7 is a block diagram illustrating a functional configuration example of a display control program of FIG. 6;
FIG. 8 is a flowchart illustrating processing of the information processing terminal that projects from the front of the image receiving surface.
FIG. 9 is a diagram illustrating an example of an image projected by the processing of FIG. 8;
FIG. 10 is a diagram illustrating an example of an image projected from an oblique direction with respect to an image receiving surface.
FIG. 11 is a flowchart illustrating a process performed by the information processing terminal that projects the image on the image receiving surface in an oblique direction.
FIG. 12 is a diagram illustrating an example of an image projected by the process of FIG. 11;
FIG. 13 is a diagram illustrating an example of another image projected by the processing of FIG. 11;
FIG. 14 is a flowchart illustrating a process of the information processing terminal that projects an object.
FIG. 15 is a diagram illustrating an example of an image projected by the processing of FIG. 14;
FIG. 16 is a diagram illustrating an example of another image projected by the processing of FIG. 14;
FIG. 17 is a diagram showing an example of still another image projected by the processing of FIG. 14;
FIG. 18 is a flowchart illustrating processing of an information processing terminal that controls projection according to a distance to an image receiving surface.
FIG. 19 is a flowchart illustrating processing of an information processing terminal that projects an image of data acquired according to identification information.
20 is a diagram illustrating a user operation before an image is projected by the processing in FIG. 19;
21 is a diagram illustrating an example of an image projected on the image receiving surface of FIG. 20 by the processing of FIG. 19;
FIG. 22 is a flowchart illustrating another process of the information processing terminal that projects an image of data acquired according to identification information.
FIG. 23 is a diagram illustrating an example of an image projected by the processing of FIG. 22;
FIG. 24 is a flowchart illustrating a process of the information processing terminal that controls projection according to a user's input to a projected image.
FIG. 25 is a diagram illustrating an example of an image projected by the processing of FIG. 24;
FIG. 26 is a diagram showing details of FIG. 25.
FIG. 27 is a flowchart illustrating a process of the information processing terminal that projects a guide image for guiding a direction to a destination.
FIG. 28 is a diagram illustrating an example of an image projected by the processing in FIG. 27;
[Explanation of symbols]
Claims (10)
前記撮像処理手段による撮像結果に基づいて、所定のデータを取得する取得処理手段と、
前記取得処理手段により取得された前記データにより表される画像を投影する第1の投影処理手段と
を備えることを特徴とする情報処理端末。Imaging processing means for imaging a subject;
An acquisition processing unit configured to acquire predetermined data based on an imaging result obtained by the imaging processing unit;
An information processing terminal, comprising: first projection processing means for projecting an image represented by the data acquired by the acquisition processing means.
前記撮像処理手段は、前記第2の投影処理手段により前記図形画像が投影された前記受像面を撮像し、
前記第1の投影処理手段は、前記撮像処理手段による撮像結果に基づいて取得された、前記受像面の形状に応じて補正された前記データにより表される画像を投影する
ことを特徴とする請求項1に記載の情報処理端末。A second projection processing unit that projects a predetermined graphic image for acquiring a shape of the image receiving surface;
The imaging processing unit captures the image receiving surface on which the graphic image is projected by the second projection processing unit,
The first projection processing unit projects an image represented by the data acquired based on an imaging result of the imaging processing unit and corrected according to a shape of the image receiving surface. Item 2. The information processing terminal according to item 1.
前記第1の投影処理手段は、前記測定処理手段により測定された前記受像面までの距離が所定の距離内にある場合に前記データにより表される画像を投影する
ことを特徴とする請求項1に記載の情報処理端末。Further comprising a measurement processing means for measuring the distance to the image receiving surface,
2. The image processing apparatus according to claim 1, wherein the first projection processing unit projects an image represented by the data when a distance to the image receiving surface measured by the measurement processing unit is within a predetermined distance. An information processing terminal according to claim 1.
前記撮像処理手段は、前記第2の投影処理手段により前記図形画像が投影された前記受像面を撮像し、
前記測定処理手段は、前記撮像処理手段による撮像結果における、前記図形画像の大きさに基づいて前記受像面までの距離を測定する
ことを特徴とする請求項3に記載の情報処理端末。A second projection processing unit configured to project a predetermined graphic image onto the image receiving surface;
The imaging processing unit captures the image receiving surface on which the graphic image is projected by the second projection processing unit,
The information processing terminal according to claim 3, wherein the measurement processing unit measures a distance to the image receiving surface based on a size of the graphic image in an imaging result obtained by the imaging processing unit.
前記測定処理手段は、前記出射処理手段により出射された前記光の反射波に基づいて、前記受像面までの距離を測定する
ことを特徴とする請求項3に記載の情報処理端末。An emission processing unit that emits light to the image receiving surface;
The information processing terminal according to claim 3, wherein the measurement processing unit measures a distance to the image receiving surface based on a reflected wave of the light emitted by the emission processing unit.
前記取得処理手段は、前記識別情報取得処理手段により取得された前記識別情報に対応するデータを取得する
ことを特徴とする請求項1に記載の情報処理端末。An identification information acquisition processing unit for acquiring predetermined identification information based on an imaging result by the imaging processing unit,
The information processing terminal according to claim 1, wherein the acquisition processing unit acquires data corresponding to the identification information acquired by the identification information acquisition processing unit.
前記第2の投影処理手段により投影された前記入力装置の画像に対するユーザの入力を検出する検出処理手段と
をさらに備え、
前記取得処理手段は、前記検出処理手段により検出された、前記ユーザの入力に基づいてデータを取得し、
前記投影手段は、取得した入力データに基づく画像を前記入力装置を表す画像以外の領域に表示する
ことを特徴とする請求項1に記載の情報処理端末。Second projection processing means for projecting an image representing a predetermined input device;
Detection processing means for detecting a user input to the image of the input device projected by the second projection processing means,
The acquisition processing means acquires data based on the input of the user, detected by the detection processing means,
The information processing terminal according to claim 1, wherein the projection unit displays an image based on the acquired input data in an area other than an image representing the input device.
ことを特徴とする請求項1に記載の情報処理端末。2. The information according to claim 1, wherein the imaging unit that performs imaging by the imaging processing unit and the projection unit that performs projection by the first projection processing unit are formed on the same plane of the housing. 3. Processing terminal.
前記撮像処理ステップの処理による撮像結果に基づいて、所定のデータを取得する取得処理ステップと、
前記取得処理ステップの処理により取得された前記データにより表される画像を投影する投影処理ステップと
を含むことを特徴とする情報処理方法。An imaging processing step of imaging a subject;
An acquisition processing step of acquiring predetermined data based on an imaging result obtained by the processing of the imaging processing step;
A projection processing step of projecting an image represented by the data acquired by the processing of the acquisition processing step.
前記撮像制御処理ステップの処理による撮像結果に基づいて、所定のデータを取得する取得処理ステップと、
前記取得処理ステップの処理により取得された前記データにより表される画像の投影を制御する投影制御処理ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラム。An imaging control processing step of controlling imaging of a subject;
An acquisition processing step of acquiring predetermined data based on an imaging result by the processing of the imaging control processing step;
And a projection control processing step of controlling projection of an image represented by the data acquired by the processing of the acquisition processing step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002284975A JP2004120698A (en) | 2002-09-30 | 2002-09-30 | Information processing terminal and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002284975A JP2004120698A (en) | 2002-09-30 | 2002-09-30 | Information processing terminal and method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004120698A true JP2004120698A (en) | 2004-04-15 |
Family
ID=32278391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002284975A Withdrawn JP2004120698A (en) | 2002-09-30 | 2002-09-30 | Information processing terminal and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004120698A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006243201A (en) * | 2005-03-02 | 2006-09-14 | Sanyo Electric Co Ltd | Projection type image display apparatus |
JP2009008905A (en) * | 2007-06-28 | 2009-01-15 | Ricoh Co Ltd | Information display apparatus and information display system |
JP2010074328A (en) * | 2008-09-17 | 2010-04-02 | Nikon Corp | Electronic device |
WO2011149092A1 (en) * | 2010-05-27 | 2011-12-01 | 京セラ株式会社 | Cellular phone device and image projector unit |
JP2011248688A (en) * | 2010-05-27 | 2011-12-08 | Kyocera Corp | Portable electronic equipment and image projection unit |
JP2011250206A (en) * | 2010-05-27 | 2011-12-08 | Kyocera Corp | Portable electronic apparatus and image projection unit |
JP2011248150A (en) * | 2010-05-27 | 2011-12-08 | Kyocera Corp | Portable electronic device and image projection unit |
JP2011248149A (en) * | 2010-05-27 | 2011-12-08 | Kyocera Corp | Portable electronic device and image projection unit |
KR20170027149A (en) * | 2015-09-01 | 2017-03-09 | 삼성중공업 주식회사 | Apparatus for projecting drawing image |
WO2019150531A1 (en) * | 2018-02-01 | 2019-08-08 | マクセル株式会社 | Image display device and image display method |
-
2002
- 2002-09-30 JP JP2002284975A patent/JP2004120698A/en not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006243201A (en) * | 2005-03-02 | 2006-09-14 | Sanyo Electric Co Ltd | Projection type image display apparatus |
JP2009008905A (en) * | 2007-06-28 | 2009-01-15 | Ricoh Co Ltd | Information display apparatus and information display system |
JP2010074328A (en) * | 2008-09-17 | 2010-04-02 | Nikon Corp | Electronic device |
WO2011149092A1 (en) * | 2010-05-27 | 2011-12-01 | 京セラ株式会社 | Cellular phone device and image projector unit |
JP2011248688A (en) * | 2010-05-27 | 2011-12-08 | Kyocera Corp | Portable electronic equipment and image projection unit |
JP2011250206A (en) * | 2010-05-27 | 2011-12-08 | Kyocera Corp | Portable electronic apparatus and image projection unit |
JP2011248150A (en) * | 2010-05-27 | 2011-12-08 | Kyocera Corp | Portable electronic device and image projection unit |
JP2011248149A (en) * | 2010-05-27 | 2011-12-08 | Kyocera Corp | Portable electronic device and image projection unit |
US9010942B2 (en) | 2010-05-27 | 2015-04-21 | Kyocera Corporation | Mobile electronic device and image projection unit |
KR20170027149A (en) * | 2015-09-01 | 2017-03-09 | 삼성중공업 주식회사 | Apparatus for projecting drawing image |
KR101724441B1 (en) * | 2015-09-01 | 2017-04-07 | 삼성중공업(주) | Apparatus for projecting drawing image |
WO2019150531A1 (en) * | 2018-02-01 | 2019-08-08 | マクセル株式会社 | Image display device and image display method |
JPWO2019150531A1 (en) * | 2018-02-01 | 2021-02-18 | マクセル株式会社 | Image display device and image display method |
JP7150755B2 (en) | 2018-02-01 | 2022-10-11 | マクセル株式会社 | Image display device and image display method |
JP7410246B2 (en) | 2018-02-01 | 2024-01-09 | マクセル株式会社 | Information processing terminal and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20050162384A1 (en) | Pointing device, method for displaying point image, and program therefor | |
CN102681958B (en) | Use physical gesture transmission data | |
US7173605B2 (en) | Method and apparatus for providing projected user interface for computing device | |
US8190993B2 (en) | Menu selection using a rotating dial and button | |
US20120032982A1 (en) | Manipulation of Graphical Objects | |
JP4664665B2 (en) | Digital platform device | |
EP1710665A1 (en) | Mobile communication terminal | |
US8094242B2 (en) | Object management apparatus, mobile terminal, and object management method | |
JP2006323823A (en) | Sound-based virtual keyboard, device and method | |
JPH10143640A (en) | Portable computer, information management system using it and strepscropic map creating method using it | |
JP4710734B2 (en) | Pointing device, pointing position detection method, and program | |
TW200302432A (en) | Passive optical mouse using CMOS image sensor with optical dual mode capability | |
CN110059686B (en) | Character recognition method, device, equipment and readable storage medium | |
US20090066654A1 (en) | Multi orientation user interface and electronic device with same | |
JP2004120698A (en) | Information processing terminal and method, and program | |
US11671710B2 (en) | Foldable electronic device having rotatable camera and method for capturing images thereby | |
US20140292636A1 (en) | Head-Worn Infrared-Based Mobile User-Interface | |
WO2011158401A1 (en) | Input device, evaluation method, and evaluation program | |
JP2005284657A (en) | Personal digital assistant | |
JP2000259338A (en) | Input system, display system, presentation system and information storage medium | |
JP2008276219A (en) | Digital platform device | |
US20150194133A1 (en) | Portable electronic device with projecting function and projecting method thereof | |
WO2014123224A1 (en) | Electronic controller, control method, and control program | |
TWI780816B (en) | Electronic device and operation method | |
JP2022050943A (en) | Target direction acquisition device, control system, method for directing surveying device to direction of target, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060110 |