JP2004120698A - Information processing terminal and method, and program - Google Patents

Information processing terminal and method, and program Download PDF

Info

Publication number
JP2004120698A
JP2004120698A JP2002284975A JP2002284975A JP2004120698A JP 2004120698 A JP2004120698 A JP 2004120698A JP 2002284975 A JP2002284975 A JP 2002284975A JP 2002284975 A JP2002284975 A JP 2002284975A JP 2004120698 A JP2004120698 A JP 2004120698A
Authority
JP
Japan
Prior art keywords
image
projection
imaging
processing
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002284975A
Other languages
Japanese (ja)
Inventor
Ryoji Amamiya
雨宮 亮治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002284975A priority Critical patent/JP2004120698A/en
Publication of JP2004120698A publication Critical patent/JP2004120698A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily and speedily acquire data of an optimal image to be projected. <P>SOLUTION: Based upon an image picked up in response to an instruction of a user, contents of a bar code 193 are read, and data corresponding to the bar code 193 are acquired by an information processing terminal 1. When the data corresponding to the bar code 193 are acquired, an image represented by the data is projected by the information processing terminal 1. After the user picks up an image of the bar code 193, when a surface of the information processing terminal 1 whereon a projection part is provided is turned toward a fossil sample 192, at a position of the fossil sample 192, an image of dinosaur whose body and substance are given is projected. The invention may be applied to an information processing terminal such as a personal computer provided with a projector function. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、情報処理端末および方法、並びにプログラムに関し、特に、投影する最適な画像のデータを、容易に、かつ迅速に取得できるようにする情報処理端末および方法、並びにプログラムに関する。
【0002】
【従来の技術】
近年、会議などの場において利用されるプロジェクタに、外部の機器との通信機能を付加し、プロジェクタに接続されたパーソナルコンピュータを操作することで、パーソナルコンピュータに用意したデータを用いて容易にプレゼンテーションを行うことができるものが存在する(特許文献1)。
【0003】
また、プロジェクタ自体に、パーソナルコンピュータと同様にWindows(登録商標)などのOS(Operating System)を搭載し、例えば、プロジェクタを直接操作して、予め用意しておいたデータによりプレゼンテーションを行うことができるものも存在する(非特許文献1)。
【0004】
【特許文献1】
特開2002−218420号公報(第5頁、図3)
【非特許文献1】
「広がるWindows(R)CE OSの世界 Windows(R)CE内蔵ネットワークプロジェクタ ソニーVPL−FX50」、[online]、2001年5月9日版、[2002年7月3日検索]、インターネット、URL<http://www.wince.ne.jp/snap/ceSnapView.asp?PID=218>
【0005】
【発明が解決しようとする課題】
しかしながら、上述した非特許文献に記載されている装置などは、プロジェクタの機能と、パーソナルコンピュータの機能を組み合わせたものにとどまり、プロジェクタの機能は、単に、パーソナルコンピュータにより処理された内容を出力する出力デバイスとしての機能を有するにすぎない。
【0006】
従って、ユーザは、プロジェクタにより投影される画像のデータを選択し、その投影タイミングを指示する必要がある。
【0007】
本発明はこのような状況に鑑みてなされたものであり、ユーザからの入力によらずに、投影する最適な画像のデータを、容易に、かつ迅速に取得できるようにするとともに、プロジェクタの機能の新たな利用形態を提供できるようにするものである。
【0008】
【課題を解決するための手段】
本発明の情報処理端末は、被写体を撮像する撮像処理手段と、撮像処理手段による撮像結果に基づいて、所定のデータを取得する取得処理手段と、取得処理手段により取得されたデータにより表される画像を投影する第1の投影処理手段とを備えることを特徴とする。
【0009】
受像面の形状を取得するための所定の図形画像を投影する第2の投影処理手段をさらに備えるようにすることができる。この場合、撮像処理手段は、第2の投影処理手段により図形画像が投影された受像面を撮像し、第1の投影処理手段は、撮像処理手段による撮像結果に基づいて取得された、受像面の形状に応じて補正された画像を投影する。
【0010】
受像面までの距離を測定する測定処理手段をさらに備えるようにすることができる。この場合、第1の投影処理手段は、測定処理手段により測定された受像面までの距離が所定の距離内にある場合に画像を投影する。
【0011】
受像面に所定の図形画像を投影する第2の投影処理手段をさらに備えるようにすることができる。この場合、撮像処理手段は、第2の投影処理手段により図形画像が投影された受像面を撮像し、測定処理手段は、撮像処理手段による撮像結果における、図形画像の大きさに基づいて受像面までの距離を測定する。
【0012】
受像面に対して光を出射する出射処理手段をさらに備えるようにすることができる。この場合、測定処理手段は、出射処理手段により出射された光の反射波に基づいて、受像面までの距離を測定する。
【0013】
撮像処理手段による撮像結果に基づいて、所定の識別情報を取得する識別情報取得処理手段をさらに備えるようにすることができる。この場合、取得処理手段は、識別情報取得処理手段により取得された識別情報に対応するデータを取得する。
【0014】
所定の入力装置を表わす画像を投影する第2の投影処理手段と、第2の投影処理手段により投影された入力装置の画像に対するユーザの入力を検出する検出処理手段とをさらに備えるようにすることができる。この場合、取得処理手段は、検出処理手段により検出された、ユーザの入力に基づいてデータを取得し、投影手段は、取得した入力データに基づく画像を入力装置を表す画像以外の領域に表示する。
【0015】
撮像処理手段による撮像が行われる撮像部と、第1の投影処理手段による投影が行われる投影部は、筺体の同一平面に形成されているようにすることができる。
【0016】
本発明の情報処理端末の情報処理方法は、被写体を撮像する撮像処理ステップと、撮像処理ステップの処理による撮像結果に基づいて、所定のデータを取得する取得処理ステップと、取得処理ステップの処理により取得されたデータにより表される画像を投影する投影処理ステップとを含むことを特徴とする。
【0017】
本発明のプログラムは、被写体の撮像を制御する撮像制御処理ステップと、撮像制御処理ステップの処理による撮像結果に基づいて、所定のデータを取得する取得処理ステップと、取得処理ステップの処理により取得されたデータにより表される画像の投影を制御する投影制御処理ステップとを含むことを特徴とする。
【0018】
本発明の情報処理端末および方法、並びにプログラムにおいては、被写体が撮像され、撮像結果に基づいて、所定のデータが取得される。また、取得されたデータにより表される画像が投影される。
【0019】
【発明の実施の形態】
図1乃至図5は、本発明を適用した情報処理端末1の構成例を示す斜視図である。
【0020】
筺体11は、その前後方向が、左右方向に比べて若干長めのほぼ直方体の形状を有している。ここで、筺体11の前方向とは、投影部23および撮像部24が設けられる面11bが形成されている方向(図1の左方向)をいい、筺体11の後方向とは、面11bの対面である面11e(図4)が形成されている方向(図1の右方向)をいう。
【0021】
また、筺体11は、ユーザが片手で把持可能な大きさのものとされている。従って、ユーザは、情報処理端末1を利用するとき、面11eが自分自身に対向するように、例えば、右手で筺体11全体を把持して利用する。
【0022】
筺体11の上面11aには、その中央より若干前方寄りの位置にLCD(Liquid Crystal Display)21が設けられ、中央より若干後方寄りの位置にテンキーや各種の操作を行うとき操作される操作キー22が設けられている。LCD21には、適宜、各種のメニューやアイコンが表示されるため、ユーザは、それらの表示に従って、操作キー22により各種の操作を行う。また、LCD21には、投影部23から投影される画像と同じ画像を表示させることもできる。
【0023】
テンキーからは、例えば、同一のキーを連続して押下することで、選択される文字が順次切り替わり、決定を指示したときに選択されている文字が入力されるような、一般的な携帯電話機などにおいて採用されている方式により文字が入力される。当然、操作キー22の位置に、キーピッチの狭いキーボードが設けられるようにしてもよい。
【0024】
片手で筺体11を把持したとき、ユーザの親指が操作キー22の近傍に位置するため、ユーザは、一般的な携帯電話機を操作するような感覚で、操作キー22を操作して文字などを片手で入力することができる。
【0025】
なお、LCD21には、タッチパッド72(図6)が重畳されており、ユーザは、LCD21を直接押下することによっても操作することができる。
【0026】
筺体11の面11bには、選択されたデータの画像を受像面に投影する投影部23が設けられている。投影部23には、レンズが配設されており、筺体11の内部に設けられている光源から出射された光がLCD(投影用LCD77(図6))とレンズを介して筺体11の外部に出射される。従って、面11bに対向して所定の距離だけ離間して設けられている受像面には、投影用LCD77に表示されている画像に対応する像が投影される。
【0027】
投影部23の直左方には、撮像部24が設けられている。撮像部24にも同様にレンズが配設されており、その内部にCCD(Charge Coupled Device)71(図6)などの撮像素子が設けられている。
【0028】
後述するように、情報処理端末1においては、撮像部24による撮像結果に応じて各種のデータが読み出され、読み出されたデータにより表わされる画像(データに対応する画像)が投影部23から投影される。なお、投影された画像に表示されるポインタは、タッチパッド72を操作して移動させることもできる。
【0029】
筺体11の左側面11cには、その中央付近に、各種の機器が接続されるインタフェースが設けられている。例えば、筺体11の前方から後方に、映像信号が入力される映像入力端子25、音声信号が入力される音声入力端子26、各種のドライブやキーボードなどが接続されるIEEE(Institute of Electrical and Electronics Engineers)1394ポート27、USB(Universal Serial Bus)ポート28および29が設けられている。
【0030】
また、左側面11cの前方に形成されている軸部13Aにより、図2に一点鎖線で示される軸αを中心として、所定の範囲で回動自在な位置決め部材13の一端が軸止され、同様に、図3に示される、右側面11dの前方に形成されている軸部13Bにより、位置決め部材13の他方の一端が軸止される。
【0031】
位置決め部材13は、軸部13Aを中心として、左側面11cとほぼ同一平面内において回動する部材13−1と、軸部13Bを中心として、右側面11dとほぼ同一平面内において回動する部材13−3と、部材13−1および13−3とそれぞれ直角に交わり、部材13−1と13−3を結ぶように形成される部材13−2から構成されている。部材13−1乃至13−3は、連動して回動される。
【0032】
この位置決め部材13により、筺体11の前方の高さが調節され、投影部23の投影軸の角度が位置決めされる。すなわち、投影軸の角度が位置決めされているとき、位置決め部材13の部材13−2と、筺体11の底面11f(図5)に装着されるバッテリパック14の後方底面の一辺により情報処理端末1全体が支持される。
【0033】
例えば、図2に示されるように、ほぼ垂直下方向に位置決め部材13が固定されているとき、投影軸と水平軸との角度が最大となり、投影部23からの光により、より上方が照射可能となる。投影軸と水平軸との最大角度は、位置決め部材13の部材13−1および13−3の長さにより適宜変更可能である。
【0034】
一方、ほぼ垂直下方向を基準として、位置決め部材13が白抜き矢印A1方向に回動されるにつれ、投影軸と水平軸との角度が徐々に小さくなり、バッテリパック14の表面に部材13−2の一端が接するとき最小となる。
【0035】
同様に、ほぼ垂直下方向を基準として、位置決め部材13が白抜き矢印A2方向に回動されるにつれ、投影軸と水平軸との角度が徐々に小さくなり、投影軸と水平軸が平行になったとき、すなわち、バッテリパック14の表面が、情報処理端末1が載置されている平面と当接する状態になったとき(部材13−2により情報処理端末1が支持されなくなったとき)、位置決め部材13による位置決めが解除される。
【0036】
さらに、位置決め部材13は、位置決めが解除された位置から白抜き矢印A3で示される方向に、筺体11の上面11aに部材13−2の一端が接する位置まで回動自在とされる。
【0037】
従って、ユーザは、位置決め部材13の位置を調節し、受像面までの距離に応じて、最適な高さの位置に画像を投影することができる。
【0038】
図3に示されるように、筺体11の右側面11dには、ユーザが上方から右手で筺体11を把持したときに、その甲を固定するように、固定ベルト12が設けられている。この固定ベルト12により、情報処理端末1の落下が抑制される。
【0039】
図4は、情報処理端末1の背面側の斜視図であり、面11bの対面である面11eには、メモリカードスロット30が形成されている。メモリカードスロット30に挿入されたメモリカードにより、所定の画像データなどが情報処理端末1に提供され、例えば、対応する画像が投影部23から投影される。
【0040】
図5は、情報処理端末1の底面側の斜視図であり、筺体11の底面前方(図5の右側)に形成される面11gと、底面後方(図5の左側)に広範囲にわたって形成されている面11fにより、バッテリパック14の高さに相当する段差が形成されている。白抜き矢印に示されるようにしてバッテリパック14が面11fに装着されたとき、バッテリパック14の表面(図5に表されているバッテリパック14の面)と面11gにより1つの平面が形成される。
【0041】
なお、筺体11の面11fには、端子31Aおよび31Bが配設されており、これらの端子31Aおよび31Bを介して、バッテリパック14から筺体11に電源が供給される。
【0042】
図6は、図1の情報処理端末1の内部構成の例を示すブロック図である。
【0043】
CPU(Central Processing Unit)51は、例えば、インテル(Intel)社製のペンティアム(登録商標)(Pentium(登録商標))プロセッサ等で構成され、ホストバス52に接続されている。ホストバス52には、さらに、ブリッジ53(いわゆる、ノースブリッジ)が接続されており、ブリッジ53は、AGP(Accelerated Graphics Port)50を有し、PCI(Peripheral Component Interconnect/Interface)バス56に接続されている。
【0044】
ブリッジ53は、例えば、インテル社製のAGP Host Bridge Controllerである440BXなどで構成されており、CPU51およびRAM(Random Access Memory)54(いわゆる、メインメモリ)等のデータの伝送などを制御する。さらに、ブリッジ53は、AGP50を介して、ビデオコントローラ57とのデータの伝送を制御する。なお、このブリッジ53とブリッジ(いわゆる、サウスブリッジ(PCI−ISA Bridge))58とで、いわゆるチップセットが構成されている。
【0045】
ブリッジ53は、さらに、キャッシュメモリ55とも接続されている。キャッシュメモリ55は、RAM54に比較して、より高速に書き込みまたは読み出しの動作を実行できるメモリで構成され、CPU51が使用するプログラムまたはデータをキャッシュする(一時的に記憶する)。
【0046】
なお、CPU51は、その内部に1次的な(キャッシュメモリ55に比較して、より高速に動作できるメモリで、CPU51自身が制御する)キャッシュメモリを有する。
【0047】
RAM54は、例えば、DRAM(Dynamic RAM)で構成され、CPU51が実行するプログラム、またはCPU51の動作に必要なデータを記憶する。具体的には、例えば、RAM54は、起動が完了した時点において、HDD66からロードされた、電子メールプログラム54A、オートパイロットプログラム54B、表示制御プログラム54C、OS(Operating System)54D、その他のアプリケーションプログラム54E1乃至54Enを記憶する。
【0048】
電子メールプログラム54Aは、ネットワークなどを介して、いわゆるeメールを授受するプログラムである。
【0049】
オートパイロットプログラム54Bは、予め設定された複数の処理(またはプログラム)などを、予め設定された順序で順次起動して、処理するプログラムである。
【0050】
表示制御プログラム54Cは、投影部23から投影される画像を制御するプログラムである。その詳細な機能構成については後述する。
【0051】
OS54Dは、例えば、マイクロソフト社のウィンドウズ(登録商標)(Windows(登録商標))2000、またはアップルコンピュータ社のいわゆるマックOS(商標)等に代表される、コンピュータの基本的な動作を制御するプログラムである。
【0052】
ビデオコントローラ57は、AGP50を介してブリッジ53に接続されており、AGP50およびブリッジ53を介してCPU51から供給されるデータ(イメージデータまたはテキストデータなど)を受信して、受信したデータに対応するイメージデータを生成するか、または受信したデータをそのまま、内蔵するビデオメモリに記憶する。
【0053】
ビデオコントローラ57は、筐体11の上面11aに設けられているLCD21の表示と、筐体11の内部に形成されている投影用LCD77の表示を制御する。
【0054】
例えば、投影用LCD77は、3枚のモノクロのLCDから構成され、それぞれのLCDにより、図示せぬ光源から出射され、ダイクロミラーでRGBの3色の光に分割されて導かれてきた光を透過する。3枚のLCDを透過した光は、ダイクロイックプリズムで1つの光に合成され、レンズを透過し、投影部24から筐体11の外部に出射される。
【0055】
LCD21と投影用LCD77には、同時に同一の画像が表示されるようにしてもよいし、それぞれ異なる画像が表示されるようにしてもよい。
【0056】
なお、投影用LCD77に表示された画像を投影するための光源からの光の一部を、LCD21のバックライトとして利用できるようにしてもよい。これにより、連続駆動時間を延長することができる。
【0057】
メモリカードインターフェース65は、PCIバス56に接続され、メモリカードスロット30(図4)に装着されたメモリカードから供給されたデータを、CPU51またはRAM54に供給するとともに、適宜、CPU51から供給された、データをメモリカードに出力する。
【0058】
また、PCIバス56にはブリッジ58(いわゆる、サウスブリッジ)も接続されている。ブリッジ58は、例えば、インテル社製のPIIX4Eなどで構成されており、IDE(Integrated Drive Electronics)コントローラ/コンフィギュレーションレジスタ59、タイマ回路60、IDEインターフェース61、およびUSB(Universal Serial Bus)インターフェース62等を内蔵している。
【0059】
ブリッジ58は、IDEバス63に接続されるデバイス、またはISA/EIO(Industry Standard Architecture / Extended Input Output)バス64、若しくは、I/Oインターフェース67を介して接続されるデバイスの制御等、各種のI/O(Input / Output)を制御する。
【0060】
IDEコントローラ/コンフィギュレーションレジスタ59は、いわゆるプライマリIDEコントローラとセカンダリIDEコントローラとの2つのIDEコントローラ、およびコンフィギュレーションレジスタ(configuration register)等から構成されている(いずれも図示せず)。
【0061】
プライマリIDEコントローラには、IDEバス63を介して、HDD66が接続されている。また、セカンダリIDEコントローラには、他のIDEバスに、図示しないCD−ROMドライブまたはHDDなどの、いわゆるIDEデバイスが装着されたとき、その装着されたIDEデバイスが電気的に接続される。
【0062】
なお、HDD66は、電子メールプログラム66A、オートパイロットプログラム66B、表示制御プログラム66C、OS66D、その他の複数のアプリケーションプログラム66E1乃至66En等を記録する。HDD66に記録されている電子メールプログラム66A、オートパイロットプログラム66B、表示制御プログラム66C、OS66D、および、アプリケーションプログラム66E1乃至66En等は、例えば、起動(ブートアップ)処理の過程で、RAM54に順次供給され、ロードされる。
【0063】
USBインターフェース62は、USBポート28または29を介して接続されているデバイスにデータを送信すると共に、デバイスからデータを受信する。
【0064】
タイマ回路60は、現在時刻を示すデータをPCIバス56を介して、CPU51に供給する。
【0065】
ISA/EIOバス64には、さらに、I/Oインターフェース67が接続されている。このI/Oインターフェース67は、エンベディットコントローラから構成され、その内部において、ROM68、RAM69、およびCPU70が相互に接続されている。
【0066】
ROM68は、IEEE1394インターフェースプログラム68A、タッチパッド入力監視プログラム68B、キー入力監視プログラム68C、および、ウェイクアッププログラム68D等を予め記憶している。
【0067】
IEEE1394インターフェースプログラム68Aは、IEEE1394ポート27を介して、IEEE1394で規定される規格に準拠するデータ(パケットに格納されているデータ)を送信するとともに受信する。タッチパッド入力監視プログラム68Bは、LCD21に重畳して設けられているタッチパッド71からの入力を監視するプログラムである。
【0068】
キー入力監視プログラム68Cは、操作キー22、または、その他のキースイッチからの入力を監視するプログラムである。ウェイクアッププログラム68Dは、ブリッジ58のタイマ回路60から供給される現在時刻を示すデータに基づいて、予め設定された時刻になったかどうかをチェックし、設定された時刻になったとき、所定の処理(またはプログラム)等を起動するために、情報処理端末1を構成する各チップの電源を管理するプログラムである。
【0069】
ROM68には、さらにBIOS(Basic Input/Output System(基本入出力システム))68Eが書き込まれている。BIOS68Eは、OSまたはアプリケーションプログラムと周辺機器(操作キー22、CCD71、タッチパッド72、IR出射/受光部73、位置検出部74、またはHDD66等)との間で、データの受け渡し(入出力)を制御する。
【0070】
RAM69は、タッチパッド入力ステイタス、キー入力ステイタス、若しくは設定時刻用の各レジスタ、またはIEEE1394I/Fレジスタ等を、レジスタ69A乃至69Fとして有している。
【0071】
I/Oインターフェース67に接続されるCCD71は、撮像部24の内部方向にレンズを介して設けられており、所定のタイミングにおいて被写体を撮像する。撮像により得られた画像データは、I/Oインターフェース67に出力され、適宜、CPU51等に供給される。
【0072】
IR(Infrared)出射/受光部73は、例えば、面11bの投影部23が形成されている孔部、または、撮像部24が形成されている孔部に設けられ、所定のタイミングで赤外線を出射し、その反射光を受光する。後述するように、例えば、出射された赤外線の反射波が受光されたタイミングから、受像面までの距離が検出される。
【0073】
位置検出部74は、例えば、GPS(Global Positioning System)モジュール、電子コンパス、ジャイロセンサなどより構成され、情報処理端末1の現在位置、情報処理端末1の正面が向いている方角、情報処理端末1の姿勢位置(角度)などを検出する。
【0074】
電源制御回路75は、端子31Aおよび31B(図5)を介してバッテリパック14に接続されており、各ブロックに必要な電源を供給するとともに、バッテリパック14または周辺装置のセカンドバッテリの充電のための制御を行う。
【0075】
また、I/Oインターフェース67は、IEEE1394ポート27を介して接続されている機器とのデータの送受信の制御や、IEEE802.11aまたは802.11bなどのいわゆる無線LAN(Local Area Network)モジュールや有線のLANコネクタなどのよりなるネットワークインタフェース76、およびネットワークを介して接続されている機器とのメッセージまたはファイルデータなどのデータの送受信を制御する。
【0076】
なお、情報処理端末1には、USBポート28または29、或いは、IEEE1394ポート27を介してドライブ101が適宜接続される。ドライブ101は、装着される磁気ディスク102、光ディスク103、光磁気ディスク104、または半導体メモリ105に記録されているデータを読み出し、読み出したデータをRAM54やHDD66に供給する。
【0077】
図7は、情報処理端末1の機能構成例を示すブロック図である。
【0078】
図7に示される各構成は、表示制御プログラム66CがRAM54に展開されて実現される。
【0079】
撮像画像取得プログラム121は、撮像部24(CCD71)による撮像結果の画像データを取得し、それを識別情報取得プログラム122または投影画像生成プログラム124に出力する。
【0080】
識別情報取得プログラム122は、撮像画像取得プログラム121から供給されてきた画像データを解析し、識別情報を取得する。例えば、識別情報取得プログラム122は、CCD71により撮像されたバーコードの画像データが供給されてきたとき、そのバーコードを識別情報として読み取る。また、識別情報取得プログラム122は、CCD71により撮像された所定の人物の顔の画像データが供給されてきたとき、その画像データから人物を特定し、その人物を表す情報を取得する。識別情報取得プログラム122により取得された識別情報は、ソースデータ取得プログラム123に出力される。
【0081】
ソースデータ取得プログラム123は、投影部24から投影される画像のデータ(ソースデータ)を取得し、それを投影画像生成プログラム124に出力する。例えば、HDD66に記憶されている所定の画像データを投影するとき、ソースデータ取得プログラム123は、その画像データをソースデータとしてHDD66から読み出し、ネットワークを介して取得された画像データを投影するとき、その画像データをソースデータとして取得する。また、ソースデータ取得プログラム123は、識別情報取得プログラム122から供給されてきた識別情報に対応するデータを取得し、取得したデータを投影画像生成プログラム124に出力する。
【0082】
投影画像生成プログラム124は、投影部23から投影される画像を生成し、生成した画像を投影用LCD77に表示させる。例えば、投影画像生成プログラム124は、撮像画像取得プログラム121から供給されてきた画像データや、ソースデータ取得プログラム123から供給されてきた画像データに基づいて投影される画像を生成し、投影用LCD77に表示させる。なお、投影画像生成プログラム124により生成される画像には、情報処理端末1と受像面との位置関係に応じて、適宜、補正などが施される。
【0083】
ナビゲーション制御プログラム125は、位置検出部74を制御し、情報処理端末1の現在位置、情報処理端末1の方角、情報処理端末1の姿勢位置などを検出し、検出結果に基づいて取得されたナビゲーション画像を投影画像生成プログラム124に出力する。
【0084】
IR検出プログラム126は、IR出射/受光部73を制御し、例えば、赤外線の反射波が受光されたタイミングを表す情報を投影画像生成プログラム124に出力する。例えば、投影画像生成プログラム124により受像面までの距離が算出され、筐体11から受像面までの距離が所定の範囲内である場合、画像の投影が行われ、一方、筐体11から受像面までの距離が所定の範囲より離間している場合、画像の投影が制限される。
【0085】
また、撮像部24のオートフォーカス機能を用いて、投影面に投影されている画像を撮像し、投影されている画像のフォーカスの程度を識別して、投影部23のピントの自動調整が行われるようにしてもよい。
【0086】
次に、以上のような構成を有する情報処理端末1の動作について説明する。
【0087】
始めに、図8のフローチャートを参照して、ソースデータに対応する画像を受像面の正面から投影する情報処理端末1の処理について説明する。
【0088】
ステップS1において、ソースデータ取得プログラム123は、ソースデータを取得し、それを投影画像生成プログラム124に出力する。例えば、操作キー22が操作され、文字が入力された場合、ソースデータ取得プログラム123により、ユーザの入力に対応するテキストデータがソースデータとして取得され、投影画像生成プログラム124に出力される。また、所定の画像を再生することがユーザにより指示されたとき、指示された画像を再生するためのデータが、HDD66から、またはネットワークインタフェース76を介して取得され、投影画像生成プログラム124に出力される。
【0089】
ステップS2において、投影画像生成プログラム124は、ソースデータ取得プログラム123から供給されてきたデータに対応する画像を投影用LCD77に表示させ、画像を受像面に投影する。すなわち、光源からの光が投影用LCD77およびレンズを透過して投影部23から筐体11の外部に出射され、投影用LCD77に表示されている画像に対応する像が受像面に表示される。
【0090】
図9は、受像面に投影される画像の例を示す図である。
【0091】
例えば、水平面151に載置されている情報処理端末1が、受像面152の正面にあり(受像面の法線軸と、情報処理端末1の投影軸が同一平面内にあり)、ユーザ141Hにより「こんにちわ」の文字が操作キー22から入力されたとき、その入力に応じたテキストデータが取得され、「こんにちわ」の投影画像152Aが受像面152に表示される。なお、実際には、投影画像152Aの上下方向が、位置決め部材13により位置決めされた投影軸の角度に応じて補正されている。
【0092】
このように、画像を受像面に投影することにより、情報処理端末1自体にLCDなどの大きな表示デバイスを用意する必要がなくなり、端末の小型化が可能となる。
【0093】
すなわち、より効率的に各種の作業を行うためには、LCDなどよりなる大きな表示デバイスが必要となり、端末全体の小型化が表示デバイスの大きさに制限されてしまうが、このように、画像を投影することにより、表示デバイスの大きさに制限されることなく、小型化を実現することが可能となる。
【0094】
以上においては、情報処理端末1が受像面152の正面に配置される場合について説明したが、例えば、図10に示されるように、情報処理端末1の投影軸βと、受像面152の法線軸γに角度がある場合(両方の軸が垂直平面内にない場合)、投影画像152Aは、その角度に応じて歪んだものとなり、画像の補正が必要となる。例えば、画像の補正を行わずに長方形の画像を投影した場合、図10の投影画像152Aのように、投影部23から離れるに従って、徐々に拡大されて受像面152に投影される。
【0095】
次に、図11のフローチャートを参照して、受像面との位置関係に応じて画像を補正し、画像を投影する情報処理端末1の処理について説明する。
【0096】
ステップS11において、投影画像生成プログラム124は、受像面との位置関係に関する情報を取得する。具体的には、投影画像生成プログラム124は、ソースデータ取得プログラム123から供給されるデータに基づいて、格子状の図形画像(正方形の画像が複数配置された画像)を受像面に投影する。
【0097】
また、投影画像生成プログラム124は、撮像部24により撮像された受像面の画像データが撮像画像取得プログラム121から供給されてきたとき、その画像データに基づいて、受像面に投影された格子の歪みを取得し、受像面と筐体11との位置関係、すなわち、受像面の法線軸と投影軸の角度を取得する。
【0098】
例えば、図12に示されるような格子状の画像152Bを受像面152に投影し、画像152Bを撮像部24により撮像することで、格子の歪みの程度が情報処理端末1により取得され、それに基づいて、投影軸βと受像面の法線軸γの角度が取得される。
【0099】
図12の例においては、情報処理端末1の投影軸βと受像面152の法線軸γが共に垂直平面内にはなく、それらの軸の間に所定の角度が生じている。また、情報処理端末1のUSBポート27には、USBケーブル162を介してキーボード161が接続されている。
【0100】
なお、情報処理端末1と受像面152との位置関係を取得するために投影される画像は、格子状の画像に限られるものではなく、単なる円形の画像、長方形の画像、或いは、正方形の画像など、各種の図形の画像が投影されるようにしてもよい。例えば、円形の画像を投影し、受像面に投影された円形の歪みの程度を撮像部24による撮像結果から取得することにより、情報処理端末1と受像面152との位置関係が取得される。
【0101】
図11の説明に戻り、ステップS12において、ソースデータ取得プログラム123によりソースデータが取得され、取得されたソースデータが投影画像生成プログラム124に出力される。
【0102】
投影画像生成プログラム124は、ステップS13において、ステップS11で取得した受像面との位置関係に関する情報に基づいて、ソースデータ取得プログラム123から供給されてきたデータに対応する画像を補正する。
【0103】
例えば、図12に示されるように、受像面152の法線軸に対して左側に情報処理端末1があり、格子状の画像152Bが投影される場合、その右側の部分に(投影部23から離れる部分に)、より大きな補正量が与えられ、受像面152の正面に対向するユーザ141Hが、正方形が配置されてなる画像152Bを確認できるように画像が補正される。また、反対に、受像面152の法線軸に対して右側に情報処理端末1がある場合、投影される画像152Bの左側の部分に、より大きな補正量が与えられ、受像面152に対向するユーザ141Hが、正方形が配置されてなる画像152Bを確認できるように画像が補正される。
【0104】
なお、画像152Bの上下方向は、位置決め部材13により位置決めされた投影軸の角度に応じて補正される。
【0105】
投影する画像を、受像面との位置関係に応じて補正した後、ステップS14において、投影画像生成プログラム124は、投影用LCD77に補正後の画像を表示し、ソースデータに対応する画像を投影する。
【0106】
これにより、例えば、図13に示されるように、受像面152の正面に情報処理端末1が設置されていない場合であっても、ユーザ141Hがキーボード161を操作して入力した「こんにちわ」の文字に対応する投影画像152Cが、歪んで投影されることが抑制される。
【0107】
このように、図形画像が投影された受像面を撮像し、その撮像結果に基づいて決定された補正量により自動的に補正が施されるようにしたため、ユーザは、情報処理端末1の位置を移動させた場合であっても、操作キー22などを自ら操作して補正する手間を省くことができる。筐体11の大きさが比較的小さく、ユーザが自由に持ち運ぶことが可能な情報処理端末1においては、この効果は顕著なものとなる。当然、ユーザによる手動操作により補正量が決定されるようにしてもよい。
【0108】
次に、受像面が平面でない場合の情報処理端末1の処理について、図14のフローチャートを参照して説明する。
【0109】
ステップS21において、投影画像生成プログラム124は、受像面の形状に関する情報を取得する。例えば、上述した場合と同様に、投影画像生成プログラム124は、ソースデータ取得プログラム123から供給されてきたデータに基づいて、受像面とされるオブジェクトに格子状の図形画像を投影し、撮像画像取得プログラム121から供給されてくる、格子状の画像が投影されたオブジェクトの撮像結果に基づいて、受像面の形状に関する情報を取得する。
【0110】
また、オブジェクトの様々な位置に向けて赤外線が出射され、その反射波が受光されたタイミングに基づいてオブジェクトの形状が取得されるようにしてもよい。
【0111】
さらに、筐体11の同一平面に複数の撮像部が設けられている場合、それぞれの撮像部による視差に基づいて、オブジェクトの形状が取得されるようにしてもよい。
【0112】
ステップS22乃至S24の処理は、図11のステップS12乃至S14の処理と同様である。すなわち、ステップS22において、ソースデータ取得プログラム123によりオブジェクトに投影する画像のデータが取得され、取得されたデータに対応する画像に対して、ステップS23において、オブジェクトの形状に応じた補正が施される。そして、ステップS24において、補正が施された画像が、受像面を有するオブジェクトに対して投影される。
【0113】
例えば、図15に示される円柱状のオブジェクト171に画像を投影する場合、始めに、図に示されるように、格子状の画像171Aがオブジェクト171に投影され、画像171Aが投影されているオブジェクト171が撮像部24により撮像される。そして、撮像結果の画像中における格子の密度に基づいて、投影画像生成プログラム124によりオブジェクト171の形状が取得され、その形状に関わらず、平面に投影されたものと同じ画像がオブジェクト171に投影されるように、画像が補正される。
【0114】
以上の処理により、例えば、図16に示されるように、円形画像171Bがオブジェクト171の側面に投影される。仮に、投影する円形画像に対して補正が施されない場合、円柱のオブジェクト171の側面に投影された円形画像171Bは、縦軸方向に較べて、横軸方向が伸びた状態の楕円としてユーザにより確認されることになる。
【0115】
同様に、受像面としてのオブジェクトの形状に応じて画像を補正し、補正後の画像データを投影することにより、例えば、図17に示されるように、立方体の上に四角錐が載置されたようなオブジェクト181に対しても、投影する画像により、色や模様を付加することができる。この場合においても、オブジェクト181に対して格子状の画像が投影され、格子状の画像が投影されたオブジェクト181が撮像され、撮像結果に基づいて、オブジェクト181の形状が取得される。
【0116】
このように、図形画像が投影された受像面(オブジェクト)の撮像結果に基づいて補正を施すことにより、様々な受像面に対して画像を投影することができる。
【0117】
次に、図18のフローチャートを参照して、受像面までの距離に応じて、画像の投影を制御する情報処理端末1の処理について説明する。
【0118】
ステップS31において、投影画像生成プログラム124は、受像面までの距離に関する情報を取得する。例えば、IR出射/受光部73により、面11bの所定の位置から出射された赤外線が受像面により反射され、反射波の受光タイミングを表す情報がIR検出プログラム126から通知されてきたとき、投影画像生成プログラム124は、通知されてきた情報に基づいて、受像面までの距離を表す情報を取得する。
【0119】
また、投影部23から、例えば、正方形や円形の所定の図形画像を受像面に投影し、図形画像が投影された受像面の撮像画像に基づいて、受像面までの距離が取得されるようにしてもよい。
【0120】
この場合、投影画像生成プログラム124は、ソースデータ取得プログラム123から供給されるデータに対応する図形画像を受像面に投影し、撮像画像取得プログラム121から供給される撮像結果の画像における、図形画像の大きさ(面積)に基づいて、受像面までの距離を取得する。すなわち、受像面までの距離が近いほど、より大きな図形画像が撮像される。
【0121】
ステップS32において、投影画像生成プログラム124は、筐体11から受像面までの距離が所定の範囲内にあるか否かを判定し、所定の距離以上離間していると判定した場合、ステップS31に戻り、それ以降の処理を繰り返し実行する。一方、ステップS32において、投影画像生成プログラム124は、受像面までの距離が所定の範囲内にあると判定した場合、ステップS33に進み、それ以降、画像の撮像を開始する。
【0122】
すなわち、ソースデータ取得プログラム123によりステップS33で取得されたソースデータに対応する画像が、ステップS34において、所定の距離の範囲内にある受像面に投影される。
【0123】
以上の処理により、受像面までの距離が比較的近い場合(所定の範囲内にある場合)にのみ投影が行われるため、受像面に投影される画像は、光源からの十分な光により表されたものとなり、高コントラストの画像が得られる。また、ユーザの目では認識することができないような画像が投影されることを制限することができ、バッテリの浪費を抑制することができる。
【0124】
以上においては、撮像結果に基づいて取得された受像面の状況、換言すれば、情報処理端末1が載置されている状況に応じて投影が制御される場合について説明したが、次に、撮像結果の画像から取得された情報に対応する画像を投影する情報処理端末1の動作について説明する。
【0125】
始めに、図19のフローチャートを参照して、撮像結果から取得された識別情報に対応する画像を投影する情報処理端末1の処理について説明する。
【0126】
ステップS41において、撮像画像取得プログラム121は、例えば、ユーザからの指示に応じて撮像し、撮像結果の画像を識別情報取得プログラム122に出力する。
【0127】
識別情報取得プログラム122は、ステップS42において、撮像結果の画像から、投影するそれぞれのデータを識別する識別情報を取得し、取得した識別情報をソースデータ取得プログラム123に出力する。
【0128】
ソースデータ取得プログラム123は、ステップS43において、供給されてきた識別情報に対応するデータを、HDD66から、または、ネットワークを介して取得し、取得したデータをソースデータとして投影画像生成プログラム124に出力する。
【0129】
投影画像生成プログラム124は、ステップS44において、ソースデータ取得プログラム123から供給されてきたデータに対応する画像を投影する。
【0130】
以上の処理により、例えば、図20に示されるように、博物館において、壁面191に化石標本192が展示され、その近傍にバーコード193が用意されている場合、ユーザ141Hは、識別情報としてのバーコード193により取得される画像を投影させるべく、始めに、筐体11の面11b(撮像部24)をバーコード193に向け、撮影する(図19のステップS41)。
【0131】
情報処理端末1においては、撮像結果の画像から取得されたバーコード193に対応するデータが読み出され(ステップS42,S43)、画像が投影される(ステップS44)。
【0132】
従って、ユーザ141Hが、筐体11の面11bをバーコード193に向けて撮影した後に、続けて化石標本192に向けた場合、図20に示される化石標本192に重畳して、例えば、図21に示される画像192Aが投影される。
【0133】
すなわち、この場合、バーコード193に対応するデータとして、図20に示される骨格のみの恐竜(化石)を、肉付けされた恐竜として化石標本192に投影するための画像データが、例えば、HDD66から、或いは、無線LANなどを介して博物館のデータベースから取得されている。
【0134】
なお、バーコード193に基づいて取得されたデータに対応する画像のうち、実際に投影される画像をユーザ自身が選択できるようにしてもよい。例えば、LCD21に時間軸が表示され、所定の時刻(年代)をユーザが指定することにより、指定された年代の恐竜の画像が投影されるようにしてもよい。この指定は、例えば、LCD21に重畳して配設されているタッチパッド72により検出される。
【0135】
化石を肉付けされたものにする画像192A以外にも、撮像結果の画像から取得された識別情報に対応する、様々な画像を投影させることができる。
【0136】
例えば、壁面に展示されている絵画の近傍に識別情報が表示されており、その識別情報が撮像されることに応じて、絵画の作者などの説明が投影されるようにしてもよいし、店舗において、それぞれの商品の包装にプリントされているバーコードが撮像されることに応じて、商品の説明が投影されるようにしてもよい。
【0137】
また、取得される識別情報は、バーコードに限定されるものではなく、例えば、2次元コード、或いは所定の桁の数字列などとすることができる。
【0138】
なお、図11を参照して説明した、受像面との位置関係に応じた補正処理や、図14を参照して説明した、受像面の形状に応じた補正処理、或いは、図18を参照して説明した、受像面との距離に応じた投影の制御処理なども、識別情報に対応する画像を投影する上述した処理においても適宜実行されている。後述する各種の処理においても同様である。
【0139】
次に、図22のフローチャートを参照して、人物の顔を撮像し、その人物に関する情報を投影する情報処理端末1の処理について説明する。
【0140】
すなわち、この処理においては、撮像結果に基づいて取得された人物の顔が識別情報に相当する。
【0141】
ステップS51において、撮像画像取得プログラム121は、ユーザからの指示に応じて撮像部24を制御して撮像する。従って、ユーザにより筐体11の面11bが人物の顔に向けられている場合、撮像部24により人物の顔が撮像される。撮像結果の画像は、識別情報取得プログラム122に出力される。
【0142】
ステップS52において、識別情報取得プログラム122は、供給されてきた画像データを解析し、人物の顔を構成する各部の特徴データから、被写体としての人物を識別する。
【0143】
ソースデータ取得プログラム123は、ステップS53において、識別情報取得プログラム122により識別された人物に対応するデータを、HDD66から、または、ネットワークを介して取得し、取得したデータをソースデータとして投影画像生成プログラム124に出力する。
【0144】
投影画像生成プログラム124は、ステップS54において、ソースデータ取得プログラム123から供給されてきたデータに対応する画像を投影する。
【0145】
以上の処理により、例えば、図23に示されるように、ユーザ141Hが情報処理端末1により人物201の顔を撮像し、続けて、情報処理端末1の面11bを人物201の胴体に向けた場合、撮像結果の画像に基づいて人物201が識別され、人物201に対応するデータとして取得された情報(図23の例においては、人物201の名字(ヤマダ))が胴体に投影される。
【0146】
以上のように、様々な情報を撮像結果の画像から識別情報として取得させ、それに対応するデータを投影することができる。すなわち、撮像部24による撮像機能を利用することにより、ユーザは、投影する画像のデータを自ら選択することなく、容易に、かつ迅速に、その状況に応じた最適な画像を投影することができる。
【0147】
次に、投影した画像に対してユーザにより行われた操作を、撮像結果の画像に基づいて検出し、検出された操作を、投影する画像に反映させる情報処理端末1の動作について説明する。
【0148】
図24のフローチャートは、受像面に投影されたキーボードの画像に対するユーザの操作を撮像画像に基づいて検出し、その検出結果を、投影する画像に反映する情報処理端末1の処理を示している。
【0149】
ステップS61において、投影画像生成プログラム124は、ソースデータ取得プログラム123から供給されてきたデータに基づいて、入力装置としてのキーボードの画像を受像面に投影する。
【0150】
図25は、情報処理端末1により投影された、キーボードの画像の例を示す図であり、例えば、面11bが天板211(受像面)に向けられた状態で、天井などに形成された部材により支持固定された情報処理端末1から、受像面としての天板211にキーボード画像221が投影される。
【0151】
また、キーボード画像221の上方には表示領域222が形成されており、ここに、キーボード画像221に対する操作に対応する文字が表示される。この表示領域222、および、そこに表示される文字等も、情報処理端末1により投影されている画像である。
【0152】
ステップS62において、投影画像生成プログラム124は、撮像画像取得プログラム121により撮像され、供給されてきた画像データに基づいて、キーボード画像221に対するユーザの入力(ユーザの指の動き)を検出し、ステップS63に進み、文字の入力が検出されたか否かを判定する。
【0153】
すなわち、キーボード画像221を投影した後、キーボード画像221を含む天板211の状況が連続して撮像部24により撮像されている。
【0154】
投影画像生成プログラム124は、ステップS63において、入力が検出されていないと判定した場合、ステップS62に戻り、一方、ユーザの指が所定の文字の領域に移動され、入力が検出されたと判定した場合、ステップS64に進み、ソースデータ取得プログラム123を制御し、ユーザにより入力された文字を投影するための画像データを取得する。
【0155】
ユーザの入力に対応する画像のデータを取得したとき、ステップS65において、投影画像生成プログラム124は、取得したデータに対応する画像を天板211の表示領域222に投影する。
【0156】
以上のような処理が繰り返し実行され、表示領域222には、ユーザがキーボード画像221を操作して入力した文字が投影される。図25においては、「GOOD」の文字が投影されており、撮像結果の画像に基づいて、ユーザがキーボード画像221のうちの「G」の領域、「O」の領域、「O」の領域、および「D」の領域を連続して操作したことが検出された場合の例とされている。
【0157】
これにより、例えば、天板211の上や下、或いは近傍などにいずれの装置が置かれていない場合であっても、文章の作成などのパーソナルコンピュータを利用した各種の作業を行うことができる。
【0158】
例えば、ユーザは、キーボード画像221を操作してインターネットを行うこともできし、電子メールの文章を作成し、それを送信することもできる。キーボード画像221の操作によりインターネットが行われる場合、アクセスが指示されたサイトの画面のデータが、ネットワークインタフェース76を介して取得され、表示領域222に、取得されたデータに対応するサイトの画面が投影される。また、キーボード画像221の操作により電子メールが行われる場合、作成された文章が、ネットワークインタフェース76を介して、送信先として指定されたメールサーバに送信される。
【0159】
なお、ユーザの体の一部などが、投影部23からの投影を遮光することを抑制するように、情報処理端末1は、ユーザの正面であって、かつ、斜め上方の位置に設置されていることが好ましい。これにより、ユーザの体により投影が遮光され、受像面に画像が投影されなくなるのを抑制できるとともに、ユーザが、投影したキーボード画像のうちのどの部分を操作したのかを、撮像結果に基づいてより確実に検出させることができる。
【0160】
また、ユーザによる入力をより確実に検出できるように、天板211(キーボード画像221の所定の文字の領域)を押下することに応じて発光するLED(Light Emitting Diode)が設けられた機器を、キーボード画像221を操作するユーザに装着させるようにしてもよい。
【0161】
図26は、ユーザ141Hの指先近傍を拡大して示す図である。
【0162】
発光装置231は、リング状のものとして形成され、ユーザ141Hがキーボード画像221を押下する位置(手のひら方向の位置)には、スイッチ233が配設され、スイッチ233の反対側の位置(手の甲方向の位置)には、スイッチ233が押下されることに応じて発光されるLED232が配設されている。
【0163】
従って、ユーザが、キーボード画像221のうちの所定の文字領域を押下した場合、スイッチ233がオンとなり、LED232が発光される。情報処理端末1においては、撮像結果の画像中における、LED232が発光された位置に基づいて、ユーザにより操作された文字領域が検出される。
【0164】
これにより、撮像結果の画像に基づいて、キーボード画像221のうち、ユーザにより押下された文字領域をより確実に検出させることが可能となる。
【0165】
以上においては、表示デバイスとしてキーボードの画像が投影されるとしたが、マウスなどの各種の表示デバイスが投影されるようにしてもよい。例えば、マウスが投影されている場合、撮像結果に基づいて、マウス画像に触れているユーザの手の動きが検出され、検出された動きに応じて、マウスの画像と、ポインタの画像の投影が制御される。
【0166】
また、壁面などに各種のボタンの画像が投影されている場合において、撮像して得られた画像から、操作されたボタンが検出され、ユーザにより操作されたボタンに対応する画像がボタンの近傍に投影されるようにしてもよい。
【0167】
例えば、デパートの各フロアの案内板が壁面に投影されている場合において、撮像部24による撮像結果の画像から、ユーザが1階のフロアの案内情報を要求していることが検出されたとき、それに応じて読み出された1階のフロアの詳細な案内を表す画像が壁面に投影される。
【0168】
このように、投影部23による投影と、撮像部24による撮像を組み合わせることにより、装置の設置位置の制約を受けることなく、各種の情報を利用者に提供することができる。また、提供される情報は、広範囲にわたって拡大して表示することが可能である。
【0169】
例えば、ユーザの入力を検出し、入力に応じた情報を提示するものとして、例えば、大画面のLCDとタッチパネルを組み合わせることによっても実現することが可能であるが、それと比較して、上述したようにして情報処理端末1により各種の情報を提示することの方が、設置位置の問題という点だけでなく、コストの点でも優れているといえる。
【0170】
また、ユーザは、情報処理端末1を、目的地までの道順を案内するナビゲーション端末として利用することもできる。
【0171】
次に、図27のフローチャートを参照して、目的地までの道順を案内する案内画像を投影する情報処理端末1の処理について説明する。
【0172】
ステップS81において、ナビゲーション制御プログラム125は、目的地の情報を取得する。例えば、ナビゲーション制御プログラム125は、LCD21に表示される入力画面に対してユーザにより入力された目的地の情報を取得する。また、投影された地図上において、ユーザが指などで指定した目的地が、撮像結果に基づいて検出され、目的地の情報として取得されるようにしてもよい。
【0173】
ステップS82において、ナビゲーション制御プログラム125は、位置検出部74のGPSにより現在位置の情報を取得し、ステップS83に進み、電子コンパスにより、筐体11の正面(面11b)が向けられている方角の情報を取得する。
【0174】
また、ナビゲーション制御プログラム125は、ステップS84において、位置検出部74のジャイロセンサからの出力に基づいて、筐体11の姿勢位置の情報を取得する。
【0175】
ステップS85において、ナビゲーション制御プログラム125は、ユーザにより入力された目的地の情報と、現在位置の情報から、目的地までのルートを検索し、筐体11の面11bが向けられている方角と、筐体11の姿勢位置に応じて、投影する案内画像のデータを取得する。
【0176】
ナビゲーション制御プログラム125により取得された案内画像のデータは、投影画像生成プログラム124に供給され、ステップS86において、対応する画像が投影される。
【0177】
以上の処理により、例えば、図28に示されるように、街中を歩いているユーザ141Hは、目的地までの案内を表す案内画像241Aを建物の壁面241に投影することができる。このようにLCD21により表示した場合に較べて大きな案内が表示されるため、道順を確実に確認させることができる。
【0178】
図28の例においては、案内画像241Aには、壁面241に対向しているユーザ141Hに対して、右に進むことを案内する白抜き矢印の画像が表示されており、ユーザ141Hは、この案内に従って、自分の右手方向(白抜き矢印A1で示される方向)に移動する。当然、現在位置の近傍の地図が投影され、目的地までの道順が示されるようにしてもよい。
【0179】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。
【0180】
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0181】
この記録媒体は、図6に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク102(フレキシブルディスクを含む)、光ディスク103(CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク104(MD(登録商標)(Mini−Disk)を含む)、もしくは半導体メモリ105などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMやHDD66などで構成される。
【0182】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0183】
【発明の効果】
本発明によれば、端末の小型化とともに、大画面表示を実現することが可能となる。
【0184】
また、本発明によれば、ユーザからの入力によらずに、投影する最適な画像のデータを、容易に、かつ迅速に取得することができる。
【図面の簡単な説明】
【図1】本発明を適用した情報処理端末の左側面の構成例を示す斜視図である。
【図2】位置決め部材の回動を説明する図である。
【図3】本発明を適用した情報処理端末の右側面の構成例を示す斜視図である。
【図4】本発明を適用した情報処理端末の背面の構成例を示す斜視図である。
【図5】本発明を適用した情報処理端末の底面の構成例を示す斜視図である。
【図6】情報処理端末の内部構成の例を示すブロック図である。
【図7】図6の表示制御プログラムの機能構成例を示すブロック図である。
【図8】受像面の正面から投影する情報処理端末の処理を説明するフローチャートである。
【図9】図8の処理により投影される画像の例を示す図である。
【図10】受像面に対して斜め方向から投影される画像の例を示す図である。
【図11】受像面に対して斜め方向から投影する情報処理端末の処理を説明するフローチャートである。
【図12】図11の処理により投影される画像の例を示す図である。
【図13】図11の処理により投影される他の画像の例を示す図である。
【図14】オブジェクトに対して投影する情報処理端末の処理を説明するフローチャートである。
【図15】図14の処理により投影される画像の例を示す図である。
【図16】図14の処理により投影される他の画像の例を示す図である。
【図17】図14の処理により投影されるさらに他の画像の例を示す図である。
【図18】受像面までの距離に応じて投影を制御する情報処理端末の処理を説明するフローチャートである。
【図19】識別情報に応じて取得されたデータの画像を投影する情報処理端末の処理を説明するフローチャートである。
【図20】図19の処理により画像が投影される前のユーザの操作を示す図である。
【図21】図19の処理により、図20の受像面に対して投影された画像の例を示す図である。
【図22】識別情報に応じて取得されたデータの画像を投影する情報処理端末の他の処理を説明するフローチャートである。
【図23】図22の処理により投影される画像の例を示す図である。
【図24】投影した画像に対するユーザの入力に応じて投影を制御する情報処理端末の処理を説明するフローチャートである。
【図25】図24の処理により投影される画像の例を示す図である。
【図26】図25の詳細を示す図である。
【図27】目的地までの方向を案内する案内画像を投影する情報処理端末の処理を説明するフローチャートである。
【図28】図27の処理により投影される画像の例を示す図である。
【符号の説明】
1 情報処理端末, 21 LCD, 22 操作キー, 23 投影部, 24 撮像部, 54C 表示制御プログラム, 102 磁気ディスク, 103 光ディスク, 104 光磁気ディスク, 105 半導体メモリ, 121 撮像画像取得プログラム, 122 識別情報取得プログラム, 123 ソースデータ取得プログラム, 124 撮影画像生成プログラム, 125 ナビゲーション制御プログラム, 126 IR検出プログラム
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information processing terminal, a method, and a program, and more particularly, to an information processing terminal, a method, and a program that enable easy and quick acquisition of optimal image data to be projected.
[0002]
[Prior art]
In recent years, by adding a communication function with external devices to a projector used in a place such as a conference and operating a personal computer connected to the projector, a presentation can be easily made using data prepared in the personal computer. There is something that can be done (Patent Document 1).
[0003]
In addition, the projector itself is equipped with an OS (Operating System) such as Windows (registered trademark) in the same manner as a personal computer, and for example, it is possible to directly operate the projector and give a presentation using data prepared in advance. Some exist (Non-Patent Document 1).
[0004]
[Patent Document 1]
JP-A-2002-218420 (page 5, FIG. 3)
[Non-patent document 1]
"Expanding World of Windows (R) CE OS: Sony VPL-FX50 Network Projector with Built-in Windows (R) CE", [online], May 9, 2001 Edition, [Search July 3, 2002], Internet, URL < http: // www. wince. ne. jp / snap / ceSnapView. asp? PID = 218>
[0005]
[Problems to be solved by the invention]
However, the devices and the like described in the above-mentioned non-patent literature only combine the function of the projector and the function of the personal computer, and the function of the projector is simply an output that outputs the content processed by the personal computer. It only has a function as a device.
[0006]
Therefore, the user needs to select the data of the image projected by the projector and instruct the projection timing.
[0007]
The present invention has been made in view of such a situation, and enables easy and quick acquisition of optimal image data to be projected without depending on input from a user. To provide a new usage form of
[0008]
[Means for Solving the Problems]
The information processing terminal of the present invention is represented by an imaging processing unit that captures an image of a subject, an acquisition processing unit that acquires predetermined data based on an imaging result of the imaging processing unit, and data acquired by the acquisition processing unit. And first projection processing means for projecting an image.
[0009]
The image processing apparatus may further include second projection processing means for projecting a predetermined graphic image for acquiring the shape of the image receiving surface. In this case, the imaging processing means captures the image receiving surface on which the graphic image is projected by the second projection processing means, and the first projection processing means captures the image receiving surface obtained based on the imaging result by the imaging processing means. Project an image corrected in accordance with the shape of.
[0010]
Measurement processing means for measuring the distance to the image receiving surface may be further provided. In this case, the first projection processing unit projects the image when the distance to the image receiving surface measured by the measurement processing unit is within a predetermined distance.
[0011]
The image processing apparatus may further include second projection processing means for projecting a predetermined graphic image on the image receiving surface. In this case, the imaging processing unit captures the image receiving surface on which the graphic image is projected by the second projection processing unit, and the measurement processing unit determines the image receiving surface based on the size of the graphic image in the imaging result by the imaging processing unit. Measure the distance to
[0012]
An emission processing unit that emits light to the image receiving surface may be further provided. In this case, the measurement processing unit measures the distance to the image receiving surface based on the reflected wave of the light emitted by the emission processing unit.
[0013]
The information processing apparatus may further include identification information acquisition processing means for acquiring predetermined identification information based on a result of imaging by the imaging processing means. In this case, the acquisition processing unit acquires data corresponding to the identification information acquired by the identification information acquisition processing unit.
[0014]
Second projection processing means for projecting an image representing a predetermined input device, and detection processing means for detecting a user input to the image of the input device projected by the second projection processing means are further provided. Can be. In this case, the acquisition processing unit acquires data based on a user input detected by the detection processing unit, and the projection unit displays an image based on the acquired input data in an area other than the image representing the input device. .
[0015]
The imaging unit that performs imaging by the imaging processing unit and the projection unit that performs projection by the first projection processing unit may be formed on the same plane of the housing.
[0016]
An information processing method of an information processing terminal according to the present invention includes: an imaging processing step of imaging a subject; an acquisition processing step of acquiring predetermined data based on an imaging result obtained by the processing of the imaging processing step; And a projection processing step of projecting an image represented by the acquired data.
[0017]
The program of the present invention is obtained by an imaging control processing step of controlling imaging of a subject, an obtaining processing step of obtaining predetermined data based on an imaging result of the imaging control processing step, and an obtaining processing step of obtaining predetermined data. And a projection control processing step of controlling projection of an image represented by the data.
[0018]
In the information processing terminal, the method, and the program of the present invention, a subject is imaged, and predetermined data is obtained based on the imaging result. Further, an image represented by the acquired data is projected.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
1 to 5 are perspective views showing a configuration example of an information processing terminal 1 to which the present invention has been applied.
[0020]
The housing 11 has a substantially rectangular parallelepiped shape in which the front-rear direction is slightly longer than the left-right direction. Here, the front direction of the housing 11 refers to the direction in which the surface 11b on which the projection unit 23 and the imaging unit 24 are provided (left direction in FIG. 1), and the rear direction of the housing 11 corresponds to the surface 11b. It refers to the direction (the right direction in FIG. 1) in which the facing surface 11e (FIG. 4) is formed.
[0021]
The housing 11 is sized so that the user can hold it with one hand. Therefore, when using the information processing terminal 1, the user holds the entire housing 11 with the right hand, for example, so that the surface 11e faces the user.
[0022]
An LCD (Liquid Crystal Display) 21 is provided on the upper surface 11a of the housing 11 at a position slightly forward from the center thereof, and numeric keys and operation keys 22 operated when performing various operations are provided at positions slightly backward from the center. Is provided. Since various menus and icons are appropriately displayed on the LCD 21, the user performs various operations with the operation keys 22 according to the display. Further, the same image as the image projected from the projection unit 23 can be displayed on the LCD 21.
[0023]
From a numeric keypad, for example, a general mobile phone, in which, by successively pressing the same key, the selected character is sequentially switched, and the selected character is input when instructing determination, etc. Characters are input according to the method adopted in. Of course, a keyboard having a narrow key pitch may be provided at the position of the operation key 22.
[0024]
When the user grips the housing 11 with one hand, the user's thumb is located near the operation key 22, so that the user operates the operation key 22 to operate a single-handed character as if operating a general mobile phone. Can be entered.
[0025]
Note that a touch pad 72 (FIG. 6) is superimposed on the LCD 21, and the user can also operate the LCD 21 by directly pressing the LCD 21.
[0026]
A projection unit 23 that projects an image of the selected data on an image receiving surface is provided on a surface 11 b of the housing 11. The projection unit 23 is provided with a lens, and the light emitted from the light source provided inside the housing 11 is transmitted to the outside of the housing 11 through the LCD (the projection LCD 77 (FIG. 6)) and the lens. Is emitted. Therefore, an image corresponding to the image displayed on the projection LCD 77 is projected on the image receiving surface provided at a predetermined distance away from the surface 11b.
[0027]
An imaging unit 24 is provided immediately to the left of the projection unit 23. Similarly, a lens is provided in the imaging unit 24, and an imaging element such as a CCD (Charge Coupled Device) 71 (FIG. 6) is provided therein.
[0028]
As will be described later, in the information processing terminal 1, various data are read in accordance with the imaging result of the imaging unit 24, and an image (an image corresponding to the data) represented by the read data is transmitted from the projection unit 23. Projected. The pointer displayed on the projected image can be moved by operating the touch pad 72.
[0029]
On the left side surface 11c of the housing 11, an interface for connecting various devices is provided near the center thereof. For example, from the front to the rear of the housing 11, a video input terminal 25 to which a video signal is input, an audio input terminal 26 to which an audio signal is input, an IEEE (Institute of Electrical and Electronics Engineers) to which various drives and keyboards are connected. ) Port 27, and USB (Universal Serial Bus) ports 28 and 29 are provided.
[0030]
Further, one end of a positioning member 13 that is rotatable within a predetermined range around an axis α indicated by a dashed line in FIG. 2 is fixed by a shaft portion 13A formed in front of the left side surface 11c. Meanwhile, the other end of the positioning member 13 is axially fixed by a shaft portion 13B formed in front of the right side surface 11d shown in FIG.
[0031]
The positioning member 13 is a member 13-1 that rotates in the same plane as the left side surface 11c about the shaft portion 13A, and a member that rotates in the same plane as the right side surface 11d about the shaft portion 13B. 13-3 and a member 13-2 which crosses the members 13-1 and 13-3 at right angles and is formed to connect the members 13-1 and 13-3. The members 13-1 to 13-3 are rotated in conjunction with each other.
[0032]
The height of the front of the housing 11 is adjusted by the positioning member 13, and the angle of the projection axis of the projection unit 23 is determined. That is, when the angle of the projection axis is positioned, the entire information processing terminal 1 is formed by the member 13-2 of the positioning member 13 and one side of the rear bottom surface of the battery pack 14 mounted on the bottom surface 11f (FIG. 5) of the housing 11. Is supported.
[0033]
For example, as shown in FIG. 2, when the positioning member 13 is fixed substantially vertically downward, the angle between the projection axis and the horizontal axis becomes maximum, and the light from the projection unit 23 can irradiate the upper part. It becomes. The maximum angle between the projection axis and the horizontal axis can be appropriately changed according to the length of the members 13-1 and 13-3 of the positioning member 13.
[0034]
On the other hand, as the positioning member 13 is rotated in the outline arrow A1 direction with respect to the substantially vertical downward direction, the angle between the projection axis and the horizontal axis gradually decreases, and the member 13-2 Becomes minimum when one end of the contact is made.
[0035]
Similarly, the angle between the projection axis and the horizontal axis gradually decreases as the positioning member 13 is rotated in the direction indicated by the outline arrow A2 on the basis of the substantially vertical downward direction, and the projection axis and the horizontal axis become parallel. When the surface of the battery pack 14 comes into contact with the plane on which the information processing terminal 1 is placed (when the information processing terminal 1 is no longer supported by the member 13-2), the positioning is performed. The positioning by the member 13 is released.
[0036]
Further, the positioning member 13 is rotatable in a direction indicated by a white arrow A3 from the position where the positioning is released to a position where one end of the member 13-2 is in contact with the upper surface 11a of the housing 11.
[0037]
Therefore, the user can adjust the position of the positioning member 13 and project an image at a position at an optimum height according to the distance to the image receiving surface.
[0038]
As shown in FIG. 3, a fixing belt 12 is provided on the right side surface 11 d of the housing 11 so as to fix the upper of the housing 11 when the user grips the housing 11 from above with the right hand. The fixed belt 12 prevents the information processing terminal 1 from falling.
[0039]
FIG. 4 is a perspective view of the back side of the information processing terminal 1, and a memory card slot 30 is formed on a surface 11e opposite to the surface 11b. Predetermined image data and the like are provided to the information processing terminal 1 by the memory card inserted into the memory card slot 30, and, for example, a corresponding image is projected from the projection unit 23.
[0040]
FIG. 5 is a perspective view of the bottom surface side of the information processing terminal 1. The surface 11 g is formed in front of the bottom surface of the housing 11 (right side in FIG. 5), and is formed in a wide range behind the bottom surface (left side in FIG. 5). The surface 11f forms a step corresponding to the height of the battery pack 14. When the battery pack 14 is mounted on the surface 11f as indicated by the outline arrow, one surface is formed by the surface of the battery pack 14 (the surface of the battery pack 14 shown in FIG. 5) and the surface 11g. You.
[0041]
Terminals 31A and 31B are provided on the surface 11f of the housing 11, and power is supplied from the battery pack 14 to the housing 11 via these terminals 31A and 31B.
[0042]
FIG. 6 is a block diagram illustrating an example of the internal configuration of the information processing terminal 1 in FIG.
[0043]
The CPU (Central Processing Unit) 51 includes, for example, a Pentium (registered trademark) processor manufactured by Intel Corporation, and is connected to the host bus 52. A bridge 53 (a so-called north bridge) is further connected to the host bus 52. The bridge 53 has an AGP (Accelerated Graphics Port) 50 and is connected to a PCI (Peripheral Component Interconnect / Interface) bus 56. ing.
[0044]
The bridge 53 includes, for example, 440BX, which is an AGP Host Bridge Controller manufactured by Intel Corporation, and controls transmission of data such as a CPU 51 and a RAM (Random Access Memory) 54 (so-called main memory). Further, the bridge 53 controls data transmission with the video controller 57 via the AGP 50. The bridge 53 and the bridge (so-called south bridge (PCI-ISA Bridge)) 58 constitute a so-called chipset.
[0045]
The bridge 53 is further connected to a cache memory 55. The cache memory 55 is configured by a memory that can execute a write or read operation at a higher speed than the RAM 54, and caches (temporarily stores) a program or data used by the CPU 51.
[0046]
The CPU 51 has a primary cache memory (a memory that can operate at a higher speed than the cache memory 55 and is controlled by the CPU 51 itself).
[0047]
The RAM 54 is composed of, for example, a DRAM (Dynamic RAM), and stores a program executed by the CPU 51 or data necessary for the operation of the CPU 51. Specifically, for example, the RAM 54 stores the e-mail program 54A, the auto-pilot program 54B, the display control program 54C, the OS (Operating System) 54D, and other application programs 54E1 loaded from the HDD 66 at the time of completion of the startup. To 54En.
[0048]
The e-mail program 54A is a program for sending and receiving so-called e-mails via a network or the like.
[0049]
The autopilot program 54B is a program that sequentially activates and executes a plurality of preset processes (or programs) in a preset order.
[0050]
The display control program 54C is a program for controlling an image projected from the projection unit 23. The detailed functional configuration will be described later.
[0051]
The OS 54D is a program for controlling basic operations of a computer represented by, for example, Windows (registered trademark) 2000 of Microsoft Corporation or so-called Mac OS (trademark) of Apple Computer Corporation. is there.
[0052]
The video controller 57 is connected to the bridge 53 via the AGP 50, receives data (eg, image data or text data) supplied from the CPU 51 via the AGP 50 and the bridge 53, and outputs an image corresponding to the received data. The data is generated or the received data is stored as it is in a built-in video memory.
[0053]
The video controller 57 controls display on the LCD 21 provided on the upper surface 11 a of the housing 11 and display on the projection LCD 77 formed inside the housing 11.
[0054]
For example, the projection LCD 77 is composed of three monochrome LCDs. Each LCD transmits light that is emitted from a light source (not shown), is divided into three colors of RGB light by a dichroic mirror, and is guided. I do. The lights transmitted through the three LCDs are combined into one light by a dichroic prism, transmitted through a lens, and emitted from the projection unit 24 to the outside of the housing 11.
[0055]
The same image may be displayed on the LCD 21 and the projection LCD 77 at the same time, or different images may be displayed.
[0056]
A part of the light from the light source for projecting the image displayed on the projection LCD 77 may be used as the backlight of the LCD 21. Thereby, the continuous driving time can be extended.
[0057]
The memory card interface 65 is connected to the PCI bus 56, and supplies data supplied from the memory card mounted on the memory card slot 30 (FIG. 4) to the CPU 51 or the RAM 54, and, when necessary, supplied from the CPU 51. Output data to memory card.
[0058]
A bridge 58 (so-called south bridge) is also connected to the PCI bus 56. The bridge 58 is made of, for example, PIIX4E manufactured by Intel Corporation, and includes an IDE (Integrated Drive Electronics) controller / configuration register 59, a timer circuit 60, an IDE interface 61, a USB (Universal Serial Bus) interface 62, and the like. Built-in.
[0059]
The bridge 58 is used to control various devices such as a device connected to the IDE bus 63 or an ISA / EIO (Industry Standard Architecture / Extended Input Output) bus 64 or a device connected via the I / O interface 67. / O (Input / Output).
[0060]
The IDE controller / configuration register 59 includes two IDE controllers, a so-called primary IDE controller and a secondary IDE controller, a configuration register (configuration register), and the like (neither is shown).
[0061]
The HDD 66 is connected to the primary IDE controller via the IDE bus 63. When a so-called IDE device such as a CD-ROM drive or HDD (not shown) is mounted on another IDE bus, the mounted IDE device is electrically connected to the secondary IDE controller.
[0062]
The HDD 66 records an e-mail program 66A, an autopilot program 66B, a display control program 66C, an OS 66D, and a plurality of other application programs 66E1 to 66En. The e-mail program 66A, the auto-pilot program 66B, the display control program 66C, the OS 66D, and the application programs 66E1 to 66En recorded on the HDD 66 are sequentially supplied to the RAM 54, for example, in the course of startup (boot-up) processing. , Will be loaded.
[0063]
The USB interface 62 transmits data to a device connected via the USB port 28 or 29 and receives data from the device.
[0064]
The timer circuit 60 supplies data indicating the current time to the CPU 51 via the PCI bus 56.
[0065]
The I / O interface 67 is further connected to the ISA / EIO bus 64. The I / O interface 67 is composed of an embedded controller, in which a ROM 68, a RAM 69, and a CPU 70 are mutually connected.
[0066]
The ROM 68 stores an IEEE 1394 interface program 68A, a touch pad input monitoring program 68B, a key input monitoring program 68C, a wake-up program 68D, and the like in advance.
[0067]
The IEEE 1394 interface program 68A transmits and receives data (data stored in a packet) conforming to the standard defined by IEEE 1394 through the IEEE 1394 port 27. The touch pad input monitoring program 68B is a program for monitoring an input from the touch pad 71 provided to be superimposed on the LCD 21.
[0068]
The key input monitoring program 68C is a program for monitoring inputs from the operation keys 22 or other key switches. The wake-up program 68D checks whether or not a preset time has been reached based on the data indicating the current time supplied from the timer circuit 60 of the bridge 58. When the preset time has come, a predetermined process is performed. (Or a program) is a program that manages the power supply of each chip constituting the information processing terminal 1 in order to activate the information processing terminal 1.
[0069]
In the ROM 68, a BIOS (Basic Input / Output System (basic input / output system)) 68E is further written. The BIOS 68E exchanges data (input / output) between the OS or application programs and peripheral devices (the operation keys 22, the CCD 71, the touch pad 72, the IR emitting / receiving unit 73, the position detecting unit 74, the HDD 66, etc.). Control.
[0070]
The RAM 69 includes registers for touchpad input status, key input status, or set time, IEEE 1394 I / F registers, and the like as registers 69A to 69F.
[0071]
The CCD 71 connected to the I / O interface 67 is provided via a lens in a direction inside the imaging unit 24, and captures an image of a subject at a predetermined timing. The image data obtained by the imaging is output to the I / O interface 67 and supplied to the CPU 51 and the like as appropriate.
[0072]
The IR (Infrared) emitting / receiving unit 73 is provided, for example, in a hole of the surface 11b where the projection unit 23 is formed or in a hole where the imaging unit 24 is formed, and emits infrared light at a predetermined timing. And receives the reflected light. As will be described later, for example, the distance to the image receiving surface is detected from the timing at which the emitted infrared reflected wave is received.
[0073]
The position detecting unit 74 includes, for example, a GPS (Global Positioning System) module, an electronic compass, a gyro sensor, and the like, the current position of the information processing terminal 1, the direction in which the front of the information processing terminal 1 is facing, the information processing terminal 1 The posture position (angle) of the camera is detected.
[0074]
The power supply control circuit 75 is connected to the battery pack 14 via the terminals 31A and 31B (FIG. 5), supplies necessary power to each block, and charges the battery pack 14 or a second battery of a peripheral device. Control.
[0075]
The I / O interface 67 controls transmission and reception of data to and from a device connected via the IEEE 1394 port 27, a so-called wireless LAN (Local Area Network) module such as IEEE 802.11a or 802.11b, or a wired LAN. It controls transmission and reception of data, such as messages or file data, with a network interface 76 such as a LAN connector and a device connected via a network.
[0076]
The drive 101 is appropriately connected to the information processing terminal 1 via a USB port 28 or 29 or an IEEE 1394 port 27. The drive 101 reads data recorded on the magnetic disk 102, the optical disk 103, the magneto-optical disk 104, or the semiconductor memory 105 to be mounted, and supplies the read data to the RAM 54 or the HDD 66.
[0077]
FIG. 7 is a block diagram illustrating a functional configuration example of the information processing terminal 1.
[0078]
Each configuration shown in FIG. 7 is realized by the display control program 66C being expanded in the RAM 54.
[0079]
The captured image acquisition program 121 acquires image data of a result of imaging by the imaging unit 24 (CCD 71), and outputs it to the identification information acquisition program 122 or the projection image generation program 124.
[0080]
The identification information acquisition program 122 analyzes the image data supplied from the captured image acquisition program 121 and acquires identification information. For example, when image data of a barcode captured by the CCD 71 is supplied, the identification information acquisition program 122 reads the barcode as identification information. Further, when image data of a predetermined person's face imaged by the CCD 71 is supplied, the identification information acquisition program 122 identifies a person from the image data and acquires information representing the person. The identification information acquired by the identification information acquisition program 122 is output to the source data acquisition program 123.
[0081]
The source data acquisition program 123 acquires data (source data) of an image projected from the projection unit 24 and outputs it to the projection image generation program 124. For example, when projecting predetermined image data stored in the HDD 66, the source data acquisition program 123 reads the image data from the HDD 66 as source data, and projects the image data acquired via the network. Get image data as source data. Further, the source data acquisition program 123 acquires data corresponding to the identification information supplied from the identification information acquisition program 122, and outputs the acquired data to the projection image generation program 124.
[0082]
The projection image generation program 124 generates an image projected from the projection unit 23, and causes the projection LCD 77 to display the generated image. For example, the projection image generation program 124 generates an image to be projected based on the image data supplied from the captured image acquisition program 121 and the image data supplied from the source data acquisition program 123, and outputs the image to the projection LCD 77. Display. Note that the image generated by the projection image generation program 124 is appropriately corrected according to the positional relationship between the information processing terminal 1 and the image receiving surface.
[0083]
The navigation control program 125 controls the position detection unit 74 to detect the current position of the information processing terminal 1, the direction of the information processing terminal 1, the attitude position of the information processing terminal 1, and the like, and the navigation acquired based on the detection result. The image is output to the projection image generation program 124.
[0084]
The IR detection program 126 controls the IR emission / light reception unit 73 and outputs, for example, information indicating the timing at which the reflected wave of infrared rays is received to the projection image generation program 124. For example, the distance from the housing 11 to the image receiving surface is calculated by the projection image generation program 124, and the image is projected when the distance from the housing 11 to the image receiving surface is within a predetermined range. If the distance to the camera is more than a predetermined range, the projection of the image is limited.
[0085]
Further, the image projected on the projection surface is captured using the autofocus function of the imaging unit 24, the degree of focus of the projected image is identified, and the focus of the projection unit 23 is automatically adjusted. You may do so.
[0086]
Next, the operation of the information processing terminal 1 having the above configuration will be described.
[0087]
First, a process of the information processing terminal 1 for projecting an image corresponding to source data from the front of the image receiving surface will be described with reference to a flowchart of FIG.
[0088]
In step S1, the source data acquisition program 123 acquires source data and outputs it to the projection image generation program 124. For example, when the operation key 22 is operated and a character is input, the source data obtaining program 123 obtains text data corresponding to the user's input as source data and outputs it to the projection image generating program 124. When the user instructs to reproduce a predetermined image, data for reproducing the designated image is obtained from the HDD 66 or via the network interface 76 and output to the projection image generation program 124. You.
[0089]
In step S2, the projection image generation program 124 causes the projection LCD 77 to display an image corresponding to the data supplied from the source data acquisition program 123, and projects the image on the image receiving surface. That is, light from the light source passes through the projection LCD 77 and the lens and is emitted from the projection unit 23 to the outside of the housing 11, and an image corresponding to the image displayed on the projection LCD 77 is displayed on the image receiving surface.
[0090]
FIG. 9 is a diagram illustrating an example of an image projected on an image receiving surface.
[0091]
For example, the information processing terminal 1 placed on the horizontal surface 151 is in front of the image receiving surface 152 (the normal axis of the image receiving surface and the projection axis of the information processing terminal 1 are in the same plane), and the user 141H responds “ When the character "Hello" is input from the operation keys 22, text data corresponding to the input is obtained, and a projection image 152A of "Hello" is displayed on the image receiving surface 152. Note that, in practice, the vertical direction of the projection image 152A is corrected according to the angle of the projection axis positioned by the positioning member 13.
[0092]
In this way, by projecting the image on the image receiving surface, it is not necessary to prepare a large display device such as an LCD in the information processing terminal 1 itself, and the terminal can be reduced in size.
[0093]
That is, in order to perform various operations more efficiently, a large display device such as an LCD is required, and miniaturization of the entire terminal is limited by the size of the display device. By projecting, the size can be reduced without being limited by the size of the display device.
[0094]
The case where the information processing terminal 1 is disposed in front of the image receiving surface 152 has been described above. For example, as illustrated in FIG. 10, the projection axis β of the information processing terminal 1 and the normal axis of the image receiving surface 152 If γ has an angle (both axes are not in the vertical plane), projected image 152A will be distorted according to that angle, and image correction will be required. For example, when a rectangular image is projected without performing image correction, the image is gradually enlarged and projected on the image receiving surface 152 as the distance from the projection unit 23 increases, as in a projected image 152A in FIG.
[0095]
Next, the processing of the information processing terminal 1 that corrects an image according to the positional relationship with the image receiving surface and projects the image will be described with reference to the flowchart of FIG.
[0096]
In step S11, the projection image generation program 124 acquires information on the positional relationship with the image receiving surface. Specifically, the projection image generation program 124 projects a grid-like graphic image (an image in which a plurality of square images are arranged) on an image receiving surface based on data supplied from the source data acquisition program 123.
[0097]
When the image data of the image receiving surface captured by the image capturing unit 24 is supplied from the captured image obtaining program 121, the projection image generating program 124 generates a distortion of the grid projected on the image receiving surface based on the image data. And the positional relationship between the image receiving surface and the housing 11, that is, the angle between the normal axis and the projection axis of the image receiving surface is obtained.
[0098]
For example, the degree of lattice distortion is acquired by the information processing terminal 1 by projecting a lattice-like image 152B as shown in FIG. Thus, the angle between the projection axis β and the normal axis γ of the image receiving surface is obtained.
[0099]
In the example of FIG. 12, the projection axis β of the information processing terminal 1 and the normal axis γ of the image receiving surface 152 are not in the vertical plane, and a predetermined angle is generated between these axes. A keyboard 161 is connected to the USB port 27 of the information processing terminal 1 via a USB cable 162.
[0100]
Note that the image projected to acquire the positional relationship between the information processing terminal 1 and the image receiving surface 152 is not limited to a lattice-shaped image, but is simply a circular image, a rectangular image, or a square image. For example, images of various figures may be projected. For example, the positional relationship between the information processing terminal 1 and the image receiving surface 152 is obtained by projecting a circular image and acquiring the degree of the circular distortion projected on the image receiving surface from the imaging result of the image capturing unit 24.
[0101]
Returning to the description of FIG. 11, in step S12, source data is acquired by the source data acquisition program 123, and the acquired source data is output to the projection image generation program 124.
[0102]
In step S13, the projection image generation program 124 corrects the image corresponding to the data supplied from the source data acquisition program 123, based on the information on the positional relationship with the image receiving surface acquired in step S11.
[0103]
For example, as shown in FIG. 12, when the information processing terminal 1 is on the left side with respect to the normal axis of the image receiving surface 152, and the grid-shaped image 152 </ b> B is projected, (A portion), a larger correction amount is given, and the image is corrected such that the user 141H facing the front of the image receiving surface 152 can check the image 152B in which the squares are arranged. On the other hand, when the information processing terminal 1 is on the right side with respect to the normal axis of the image receiving surface 152, a larger correction amount is given to the left side of the projected image 152B, and the user facing the image receiving surface 152 The image is corrected so that 141H can confirm the image 152B in which the squares are arranged.
[0104]
The vertical direction of the image 152B is corrected according to the angle of the projection axis positioned by the positioning member 13.
[0105]
After correcting the image to be projected in accordance with the positional relationship with the image receiving surface, in step S14, the projection image generation program 124 displays the corrected image on the projection LCD 77, and projects the image corresponding to the source data. .
[0106]
Thus, for example, as shown in FIG. 13, even when the information processing terminal 1 is not installed in front of the image receiving surface 152, the character “Hello” input by the user 141H operating the keyboard 161 is input. Is suppressed from being distorted and projected.
[0107]
As described above, since the image receiving surface on which the graphic image is projected is captured, and the correction is automatically performed based on the correction amount determined based on the image capturing result, the user can change the position of the information processing terminal 1. Even in the case of moving, it is possible to save the trouble of operating the operation keys 22 and the like by themselves to perform correction. In the information processing terminal 1 in which the size of the housing 11 is relatively small and the user can carry it freely, this effect is remarkable. Naturally, the correction amount may be determined by a manual operation by the user.
[0108]
Next, the processing of the information processing terminal 1 when the image receiving surface is not flat will be described with reference to the flowchart in FIG.
[0109]
In step S21, the projection image generation program 124 acquires information on the shape of the image receiving surface. For example, as in the case described above, the projection image generation program 124 projects a grid-like graphic image on an object serving as an image receiving surface based on the data supplied from the source data acquisition program 123, and acquires the captured image. Information on the shape of the image receiving surface is acquired based on the imaging result of the object on which the lattice image is projected, supplied from the program 121.
[0110]
Further, infrared rays may be emitted toward various positions of the object, and the shape of the object may be acquired based on the timing at which the reflected wave is received.
[0111]
Further, when a plurality of imaging units are provided on the same plane of the housing 11, the shape of the object may be acquired based on the parallax of each imaging unit.
[0112]
The processing in steps S22 to S24 is the same as the processing in steps S12 to S14 in FIG. That is, in step S22, data of an image to be projected on the object is acquired by the source data acquisition program 123, and an image corresponding to the acquired data is corrected in step S23 according to the shape of the object. . Then, in step S24, the corrected image is projected on the object having the image receiving surface.
[0113]
For example, when an image is projected on the columnar object 171 shown in FIG. 15, first, as shown in the figure, a grid image 171A is projected on the object 171 and the object 171 on which the image 171A is projected is shown. Is imaged by the imaging unit 24. Then, the shape of the object 171 is acquired by the projection image generation program 124 based on the density of the grid in the image of the imaging result, and the same image as that projected on the plane is projected on the object 171 regardless of the shape. Thus, the image is corrected.
[0114]
By the above processing, for example, a circular image 171B is projected on the side surface of the object 171 as shown in FIG. If the circular image to be projected is not corrected, the circular image 171B projected on the side surface of the cylindrical object 171 is confirmed by the user as an ellipse whose horizontal axis is longer than the vertical axis. Will be done.
[0115]
Similarly, by correcting the image according to the shape of the object as the image receiving surface and projecting the corrected image data, for example, as shown in FIG. 17, a square pyramid was placed on a cube. The color and pattern can be added to such an object 181 depending on the image to be projected. Also in this case, a lattice image is projected on the object 181, the object 181 on which the lattice image is projected is captured, and the shape of the object 181 is acquired based on the captured result.
[0116]
As described above, by performing the correction based on the imaging result of the image receiving surface (object) on which the graphic image is projected, the image can be projected on various image receiving surfaces.
[0117]
Next, the processing of the information processing terminal 1 that controls the projection of an image according to the distance to the image receiving surface will be described with reference to the flowchart in FIG.
[0118]
In step S31, the projection image generation program 124 acquires information on the distance to the image receiving surface. For example, when the infrared light emitted from a predetermined position on the surface 11b is reflected by the image receiving surface by the IR emitting / receiving unit 73 and information indicating the light receiving timing of the reflected wave is notified from the IR detection program 126, the projected image The generation program 124 acquires information indicating the distance to the image receiving surface based on the notified information.
[0119]
Further, the projection unit 23 projects, for example, a predetermined figure image of a square or a circle on an image receiving surface, and obtains a distance to the image receiving surface based on a captured image of the image receiving surface on which the figure image is projected. You may.
[0120]
In this case, the projection image generation program 124 projects the graphic image corresponding to the data supplied from the source data acquisition program 123 on the image receiving surface, and generates a graphic image of the graphic image in the image of the imaging result supplied from the captured image acquisition program 121. The distance to the image receiving surface is obtained based on the size (area). That is, as the distance to the image receiving surface is shorter, a larger graphic image is captured.
[0121]
In step S32, the projection image generation program 124 determines whether or not the distance from the housing 11 to the image receiving surface is within a predetermined range. If it is determined that the distance is equal to or more than the predetermined distance, the process proceeds to step S31. Return and repeat the subsequent processing. On the other hand, in step S32, when the projection image generation program 124 determines that the distance to the image receiving surface is within the predetermined range, the process proceeds to step S33, and thereafter, starts capturing an image.
[0122]
That is, an image corresponding to the source data acquired in step S33 by the source data acquisition program 123 is projected on an image receiving surface within a predetermined distance range in step S34.
[0123]
By the above processing, the projection is performed only when the distance to the image receiving surface is relatively short (when the distance is within a predetermined range). Therefore, the image projected on the image receiving surface is represented by sufficient light from the light source. And a high-contrast image is obtained. In addition, it is possible to limit the projection of an image that cannot be recognized by the user's eyes, and it is possible to suppress battery consumption.
[0124]
In the above, the case where the projection is controlled in accordance with the situation of the image receiving surface acquired based on the imaging result, in other words, the situation in which the information processing terminal 1 is mounted has been described. The operation of the information processing terminal 1 that projects an image corresponding to the information acquired from the resulting image will be described.
[0125]
First, a process of the information processing terminal 1 that projects an image corresponding to identification information acquired from an imaging result will be described with reference to a flowchart of FIG.
[0126]
In step S41, the captured image acquisition program 121 captures an image according to, for example, an instruction from a user, and outputs an image of the captured result to the identification information acquisition program 122.
[0127]
In step S42, the identification information acquisition program 122 acquires, from the image of the imaging result, identification information for identifying each data to be projected, and outputs the acquired identification information to the source data acquisition program 123.
[0128]
In step S43, the source data acquisition program 123 acquires data corresponding to the supplied identification information from the HDD 66 or via a network, and outputs the acquired data to the projection image generation program 124 as source data. .
[0129]
In step S44, the projection image generation program 124 projects an image corresponding to the data supplied from the source data acquisition program 123.
[0130]
According to the above processing, for example, as shown in FIG. 20, when a fossil specimen 192 is displayed on a wall surface 191 and a barcode 193 is prepared in the vicinity thereof in the museum, the user 141H First, in order to project an image acquired by the code 193, the surface 11b (imaging unit 24) of the housing 11 is aimed at the barcode 193 and photographed (step S41 in FIG. 19).
[0131]
In the information processing terminal 1, data corresponding to the barcode 193 obtained from the image of the imaging result is read (steps S42 and S43), and the image is projected (step S44).
[0132]
Therefore, when the user 141H shoots the surface 11b of the housing 11 toward the barcode 193 and subsequently faces the fossil specimen 192, the user 141H overlaps the fossil specimen 192 shown in FIG. Are projected.
[0133]
That is, in this case, as data corresponding to the bar code 193, image data for projecting the skeleton-only dinosaur (fossil) shown in FIG. Alternatively, it is obtained from a museum database via a wireless LAN or the like.
[0134]
Note that the user may be able to select an image to be actually projected from among images corresponding to data acquired based on the barcode 193. For example, a time axis may be displayed on the LCD 21 and a user may specify a predetermined time (age) so that an image of a dinosaur of the specified age is projected. This designation is detected by, for example, the touch pad 72 provided so as to overlap the LCD 21.
[0135]
In addition to the image 192A in which the fossils are fleshed out, various images corresponding to the identification information acquired from the image of the imaging result can be projected.
[0136]
For example, identification information is displayed in the vicinity of a painting displayed on a wall surface, and an explanation of the creator of the painting or the like may be projected in response to the identification information being captured, or a store. In, the description of the product may be projected in response to the image of the barcode printed on the packaging of each product.
[0137]
Further, the obtained identification information is not limited to a barcode, but may be, for example, a two-dimensional code or a numeric string of a predetermined digit.
[0138]
It should be noted that the correction process according to the positional relationship with the image receiving surface described with reference to FIG. 11, the correction process according to the shape of the image receiving surface described with reference to FIG. 14, or FIG. The control processing of projection according to the distance from the image receiving surface described above is also appropriately executed in the above-described processing of projecting an image corresponding to identification information. The same applies to various processes described below.
[0139]
Next, the processing of the information processing terminal 1 that images a person's face and projects information about the person will be described with reference to the flowchart in FIG.
[0140]
That is, in this process, the face of the person acquired based on the imaging result corresponds to the identification information.
[0141]
In step S51, the captured image acquisition program 121 controls the imaging unit 24 according to an instruction from a user to capture an image. Therefore, when the surface 11b of the housing 11 is turned to the face of the person by the user, the image of the person's face is imaged by the imaging unit 24. The captured image is output to the identification information acquisition program 122.
[0142]
In step S52, the identification information acquisition program 122 analyzes the supplied image data, and identifies the person as the subject from the feature data of each part constituting the person's face.
[0143]
In step S53, the source data acquisition program 123 acquires data corresponding to the person identified by the identification information acquisition program 122 from the HDD 66 or via a network, and uses the acquired data as source data as a projection image generation program. 124.
[0144]
In step S54, the projection image generation program 124 projects an image corresponding to the data supplied from the source data acquisition program 123.
[0145]
By the above processing, for example, as shown in FIG. 23, when the user 141H captures the face of the person 201 with the information processing terminal 1, and subsequently turns the surface 11b of the information processing terminal 1 toward the body of the person 201 Then, the person 201 is identified based on the image of the imaging result, and the information acquired as data corresponding to the person 201 (in the example of FIG. 23, the surname (Yamada) of the person 201) is projected on the body.
[0146]
As described above, various types of information can be obtained as identification information from an image of a captured result, and data corresponding thereto can be projected. That is, by using the imaging function of the imaging unit 24, the user can easily and quickly project an optimal image according to the situation without selecting data of the image to be projected by himself. .
[0147]
Next, an operation of the information processing terminal 1 that detects an operation performed by the user on the projected image based on the image of the imaging result and reflects the detected operation on the image to be projected will be described.
[0148]
The flowchart of FIG. 24 illustrates a process of the information processing terminal 1 that detects a user operation on an image of the keyboard projected on the image receiving surface based on the captured image, and reflects the detection result on the image to be projected.
[0149]
In step S61, the projection image generation program 124 projects an image of a keyboard as an input device on an image receiving surface based on data supplied from the source data acquisition program 123.
[0150]
FIG. 25 is a diagram illustrating an example of a keyboard image projected by the information processing terminal 1. For example, a member formed on a ceiling or the like in a state where the surface 11 b is directed to the top plate 211 (image receiving surface). The keyboard image 221 is projected from the information processing terminal 1 supported and fixed on the top plate 211 as an image receiving surface.
[0151]
Further, a display area 222 is formed above the keyboard image 221, and characters corresponding to an operation on the keyboard image 221 are displayed here. The display area 222 and the characters and the like displayed thereon are also images projected by the information processing terminal 1.
[0152]
In step S62, the projection image generation program 124 detects a user input (the movement of the user's finger) to the keyboard image 221 based on the image data captured and supplied by the captured image acquisition program 121, and then proceeds to step S63. To determine whether a character input has been detected.
[0153]
That is, after projecting the keyboard image 221, the state of the top board 211 including the keyboard image 221 is continuously imaged by the imaging unit 24.
[0154]
When the projection image generation program 124 determines in step S63 that an input has not been detected, the process returns to step S62. On the other hand, when it is determined that the user's finger has been moved to a predetermined character area and the input has been detected. In step S64, the source data acquisition program 123 is controlled to acquire image data for projecting a character input by the user.
[0155]
When the data of the image corresponding to the user's input is acquired, the projection image generation program 124 projects the image corresponding to the acquired data on the display area 222 of the top board 211 in step S65.
[0156]
The above processing is repeatedly executed, and the characters input by the user operating the keyboard image 221 are projected on the display area 222. In FIG. 25, the character “GOOD” is projected, and based on the image of the imaging result, the user can select “G” area, “O” area, “O” area, And the case where it is detected that the regions “D” are continuously operated.
[0157]
Thus, for example, even when no device is placed above, below, or near the top board 211, various operations using a personal computer, such as creation of sentences, can be performed.
[0158]
For example, the user can operate the keyboard image 221 to go to the Internet, create a text of an e-mail, and send it. When the Internet is performed by operating the keyboard image 221, screen data of the site to which access is instructed is acquired via the network interface 76, and the screen of the site corresponding to the acquired data is projected on the display area 222. Is done. When an e-mail is performed by operating the keyboard image 221, the created text is transmitted to the mail server designated as the transmission destination via the network interface 76.
[0159]
Note that the information processing terminal 1 is installed at a position in front of the user and obliquely above so as to prevent a part of the user's body from blocking the projection from the projection unit 23. Is preferred. With this, it is possible to prevent the projection from being blocked by the user's body and prevent the image from being projected on the image receiving surface, and to determine which part of the projected keyboard image the user has operated based on the imaging result. It can be detected reliably.
[0160]
In order to more reliably detect an input by the user, a device provided with an LED (Light Emitting Diode) that emits light when the top plate 211 (a predetermined character area of the keyboard image 221) is pressed is provided. The user who operates the keyboard image 221 may be attached.
[0161]
FIG. 26 is an enlarged view showing the vicinity of the fingertip of the user 141H.
[0162]
The light emitting device 231 is formed in a ring shape, and a switch 233 is provided at a position where the user 141H presses the keyboard image 221 (a position in the palm direction), and a position opposite to the switch 233 (a position in the back of the hand). (Position), an LED 232 that emits light when the switch 233 is pressed is disposed.
[0163]
Therefore, when the user presses a predetermined character area in the keyboard image 221, the switch 233 is turned on, and the LED 232 emits light. In the information processing terminal 1, the character area operated by the user is detected based on the position where the LED 232 is emitted in the image of the captured result.
[0164]
This makes it possible to more reliably detect the character area pressed by the user in the keyboard image 221 based on the image of the imaging result.
[0165]
In the above description, a keyboard image is projected as a display device, but various display devices such as a mouse may be projected. For example, when the mouse is projected, the movement of the user's hand touching the mouse image is detected based on the imaging result, and the mouse image and the pointer image are projected according to the detected movement. Controlled.
[0166]
When images of various buttons are projected on a wall or the like, an operated button is detected from an image obtained by imaging, and an image corresponding to the button operated by the user is located near the button. It may be projected.
[0167]
For example, when the guide plate of each floor of the department store is projected on the wall surface, when it is detected from the image of the imaging result by the imaging unit 24 that the user has requested the guidance information of the first floor, In response, an image representing the detailed guidance of the first floor read out is projected on the wall surface.
[0168]
Thus, by combining the projection by the projection unit 23 and the imaging by the imaging unit 24, various information can be provided to the user without being restricted by the installation position of the apparatus. The provided information can be enlarged and displayed over a wide range.
[0169]
For example, it is also possible to detect a user's input and present information according to the input, for example, by combining a large-screen LCD and a touch panel. It can be said that presenting various types of information using the information processing terminal 1 is superior not only in terms of the installation position but also in terms of cost.
[0170]
Further, the user can use the information processing terminal 1 as a navigation terminal for guiding a route to a destination.
[0171]
Next, a process of the information processing terminal 1 that projects a guidance image for guiding a route to a destination will be described with reference to a flowchart of FIG.
[0172]
In step S81, the navigation control program 125 acquires destination information. For example, the navigation control program 125 acquires destination information input by the user on an input screen displayed on the LCD 21. Further, on the projected map, a destination specified by the user with a finger or the like may be detected based on the imaging result and acquired as information on the destination.
[0173]
In step S82, the navigation control program 125 acquires information on the current position by the GPS of the position detection unit 74, and proceeds to step S83, where the electronic compass is used to determine the direction in which the front (surface 11b) of the housing 11 is turned. Get information.
[0174]
In step S84, the navigation control program 125 acquires information on the posture position of the housing 11 based on the output from the gyro sensor of the position detection unit 74.
[0175]
In step S85, the navigation control program 125 searches for a route to the destination from the information on the destination input by the user and the information on the current position, and finds the direction in which the surface 11b of the housing 11 is turned, The data of the guide image to be projected is acquired according to the posture position of the housing 11.
[0176]
The data of the guide image acquired by the navigation control program 125 is supplied to the projection image generation program 124, and the corresponding image is projected in step S86.
[0177]
By the above processing, for example, as shown in FIG. 28, the user 141H walking in the city can project the guidance image 241A representing the guidance to the destination on the wall surface 241 of the building. As described above, guidance that is larger than that displayed on the LCD 21 is displayed, so that the route can be confirmed without fail.
[0178]
In the example of FIG. 28, the guide image 241A displays an image of a white arrow that guides the user 141H facing the wall surface 241 to go to the right, and the user 141H In the right hand direction (the direction indicated by the white arrow A1). Naturally, a map in the vicinity of the current position may be projected to indicate the route to the destination.
[0179]
The series of processes described above can be executed by hardware, but can also be executed by software.
[0180]
When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer built into dedicated hardware or installing various programs. It is installed in a possible, for example, a general-purpose personal computer from a network or a recording medium.
[0181]
As shown in FIG. 6, the recording medium is provided separately from the main body of the apparatus, and is distributed to provide the user with the program. The program stores a magnetic disk 102 (including a flexible disk) and an optical disk 103 (including a flexible disk). Package media including a CD-ROM (compact disk-only memory), a DVD (including a digital versatile disk), a magneto-optical disk 104 (including an MD (registered trademark) (mini-disk)), or a semiconductor memory 105 And a ROM or HDD 66 in which a program is recorded, which is provided to the user in a state where the program is incorporated in the apparatus main body in advance.
[0182]
In this specification, the steps of describing a program recorded on a recording medium include, in addition to processing performed in chronological order according to the described order, not only chronological processing but also parallel or individual processing. This includes the processing to be executed.
[0183]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to implement | achieve a large screen display with a miniaturization of a terminal.
[0184]
Further, according to the present invention, it is possible to easily and quickly acquire the data of the optimal image to be projected without depending on the input from the user.
[Brief description of the drawings]
FIG. 1 is a perspective view illustrating a configuration example of a left side surface of an information processing terminal to which the present invention has been applied.
FIG. 2 is a diagram illustrating rotation of a positioning member.
FIG. 3 is a perspective view illustrating a configuration example of a right side surface of an information processing terminal to which the present invention has been applied.
FIG. 4 is a perspective view illustrating a configuration example of a back surface of an information processing terminal to which the present invention has been applied.
FIG. 5 is a perspective view showing a configuration example of a bottom surface of the information processing terminal to which the present invention is applied.
FIG. 6 is a block diagram illustrating an example of an internal configuration of the information processing terminal.
FIG. 7 is a block diagram illustrating a functional configuration example of a display control program of FIG. 6;
FIG. 8 is a flowchart illustrating processing of the information processing terminal that projects from the front of the image receiving surface.
FIG. 9 is a diagram illustrating an example of an image projected by the processing of FIG. 8;
FIG. 10 is a diagram illustrating an example of an image projected from an oblique direction with respect to an image receiving surface.
FIG. 11 is a flowchart illustrating a process performed by the information processing terminal that projects the image on the image receiving surface in an oblique direction.
FIG. 12 is a diagram illustrating an example of an image projected by the process of FIG. 11;
FIG. 13 is a diagram illustrating an example of another image projected by the processing of FIG. 11;
FIG. 14 is a flowchart illustrating a process of the information processing terminal that projects an object.
FIG. 15 is a diagram illustrating an example of an image projected by the processing of FIG. 14;
FIG. 16 is a diagram illustrating an example of another image projected by the processing of FIG. 14;
FIG. 17 is a diagram showing an example of still another image projected by the processing of FIG. 14;
FIG. 18 is a flowchart illustrating processing of an information processing terminal that controls projection according to a distance to an image receiving surface.
FIG. 19 is a flowchart illustrating processing of an information processing terminal that projects an image of data acquired according to identification information.
20 is a diagram illustrating a user operation before an image is projected by the processing in FIG. 19;
21 is a diagram illustrating an example of an image projected on the image receiving surface of FIG. 20 by the processing of FIG. 19;
FIG. 22 is a flowchart illustrating another process of the information processing terminal that projects an image of data acquired according to identification information.
FIG. 23 is a diagram illustrating an example of an image projected by the processing of FIG. 22;
FIG. 24 is a flowchart illustrating a process of the information processing terminal that controls projection according to a user's input to a projected image.
FIG. 25 is a diagram illustrating an example of an image projected by the processing of FIG. 24;
FIG. 26 is a diagram showing details of FIG. 25.
FIG. 27 is a flowchart illustrating a process of the information processing terminal that projects a guide image for guiding a direction to a destination.
FIG. 28 is a diagram illustrating an example of an image projected by the processing in FIG. 27;
[Explanation of symbols]
Reference Signs List 1 information processing terminal, 21 LCD, 22 operation keys, 23 projection unit, 24 imaging unit, 54C display control program, 102 magnetic disk, 103 optical disk, 104 magneto-optical disk, 105 semiconductor memory, 121 captured image acquisition program, 122 identification information Acquisition program, 123 source data acquisition program, 124 photographed image generation program, 125 navigation control program, 126 IR detection program

Claims (10)

被写体を撮像する撮像処理手段と、
前記撮像処理手段による撮像結果に基づいて、所定のデータを取得する取得処理手段と、
前記取得処理手段により取得された前記データにより表される画像を投影する第1の投影処理手段と
を備えることを特徴とする情報処理端末。
Imaging processing means for imaging a subject;
An acquisition processing unit configured to acquire predetermined data based on an imaging result obtained by the imaging processing unit;
An information processing terminal, comprising: first projection processing means for projecting an image represented by the data acquired by the acquisition processing means.
受像面の形状を取得するための所定の図形画像を投影する第2の投影処理手段をさらに備え、
前記撮像処理手段は、前記第2の投影処理手段により前記図形画像が投影された前記受像面を撮像し、
前記第1の投影処理手段は、前記撮像処理手段による撮像結果に基づいて取得された、前記受像面の形状に応じて補正された前記データにより表される画像を投影する
ことを特徴とする請求項1に記載の情報処理端末。
A second projection processing unit that projects a predetermined graphic image for acquiring a shape of the image receiving surface;
The imaging processing unit captures the image receiving surface on which the graphic image is projected by the second projection processing unit,
The first projection processing unit projects an image represented by the data acquired based on an imaging result of the imaging processing unit and corrected according to a shape of the image receiving surface. Item 2. The information processing terminal according to item 1.
受像面までの距離を測定する測定処理手段をさらに備え、
前記第1の投影処理手段は、前記測定処理手段により測定された前記受像面までの距離が所定の距離内にある場合に前記データにより表される画像を投影する
ことを特徴とする請求項1に記載の情報処理端末。
Further comprising a measurement processing means for measuring the distance to the image receiving surface,
2. The image processing apparatus according to claim 1, wherein the first projection processing unit projects an image represented by the data when a distance to the image receiving surface measured by the measurement processing unit is within a predetermined distance. An information processing terminal according to claim 1.
前記受像面に所定の図形画像を投影する第2の投影処理手段をさらに備え、
前記撮像処理手段は、前記第2の投影処理手段により前記図形画像が投影された前記受像面を撮像し、
前記測定処理手段は、前記撮像処理手段による撮像結果における、前記図形画像の大きさに基づいて前記受像面までの距離を測定する
ことを特徴とする請求項3に記載の情報処理端末。
A second projection processing unit configured to project a predetermined graphic image onto the image receiving surface;
The imaging processing unit captures the image receiving surface on which the graphic image is projected by the second projection processing unit,
The information processing terminal according to claim 3, wherein the measurement processing unit measures a distance to the image receiving surface based on a size of the graphic image in an imaging result obtained by the imaging processing unit.
前記受像面に対して光を出射する出射処理手段をさらに備え、
前記測定処理手段は、前記出射処理手段により出射された前記光の反射波に基づいて、前記受像面までの距離を測定する
ことを特徴とする請求項3に記載の情報処理端末。
An emission processing unit that emits light to the image receiving surface;
The information processing terminal according to claim 3, wherein the measurement processing unit measures a distance to the image receiving surface based on a reflected wave of the light emitted by the emission processing unit.
前記撮像処理手段による撮像結果に基づいて、所定の識別情報を取得する識別情報取得処理手段をさらに備え、
前記取得処理手段は、前記識別情報取得処理手段により取得された前記識別情報に対応するデータを取得する
ことを特徴とする請求項1に記載の情報処理端末。
An identification information acquisition processing unit for acquiring predetermined identification information based on an imaging result by the imaging processing unit,
The information processing terminal according to claim 1, wherein the acquisition processing unit acquires data corresponding to the identification information acquired by the identification information acquisition processing unit.
所定の入力装置を表わす画像を投影する第2の投影処理手段と、
前記第2の投影処理手段により投影された前記入力装置の画像に対するユーザの入力を検出する検出処理手段と
をさらに備え、
前記取得処理手段は、前記検出処理手段により検出された、前記ユーザの入力に基づいてデータを取得し、
前記投影手段は、取得した入力データに基づく画像を前記入力装置を表す画像以外の領域に表示する
ことを特徴とする請求項1に記載の情報処理端末。
Second projection processing means for projecting an image representing a predetermined input device;
Detection processing means for detecting a user input to the image of the input device projected by the second projection processing means,
The acquisition processing means acquires data based on the input of the user, detected by the detection processing means,
The information processing terminal according to claim 1, wherein the projection unit displays an image based on the acquired input data in an area other than an image representing the input device.
前記撮像処理手段による撮像が行われる撮像部と、前記第1の投影処理手段による投影が行われる投影部は、筺体の同一平面に形成されている
ことを特徴とする請求項1に記載の情報処理端末。
2. The information according to claim 1, wherein the imaging unit that performs imaging by the imaging processing unit and the projection unit that performs projection by the first projection processing unit are formed on the same plane of the housing. 3. Processing terminal.
被写体を撮像する撮像処理ステップと、
前記撮像処理ステップの処理による撮像結果に基づいて、所定のデータを取得する取得処理ステップと、
前記取得処理ステップの処理により取得された前記データにより表される画像を投影する投影処理ステップと
を含むことを特徴とする情報処理方法。
An imaging processing step of imaging a subject;
An acquisition processing step of acquiring predetermined data based on an imaging result obtained by the processing of the imaging processing step;
A projection processing step of projecting an image represented by the data acquired by the processing of the acquisition processing step.
被写体の撮像を制御する撮像制御処理ステップと、
前記撮像制御処理ステップの処理による撮像結果に基づいて、所定のデータを取得する取得処理ステップと、
前記取得処理ステップの処理により取得された前記データにより表される画像の投影を制御する投影制御処理ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラム。
An imaging control processing step of controlling imaging of a subject;
An acquisition processing step of acquiring predetermined data based on an imaging result by the processing of the imaging control processing step;
And a projection control processing step of controlling projection of an image represented by the data acquired by the processing of the acquisition processing step.
JP2002284975A 2002-09-30 2002-09-30 Information processing terminal and method, and program Withdrawn JP2004120698A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002284975A JP2004120698A (en) 2002-09-30 2002-09-30 Information processing terminal and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002284975A JP2004120698A (en) 2002-09-30 2002-09-30 Information processing terminal and method, and program

Publications (1)

Publication Number Publication Date
JP2004120698A true JP2004120698A (en) 2004-04-15

Family

ID=32278391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002284975A Withdrawn JP2004120698A (en) 2002-09-30 2002-09-30 Information processing terminal and method, and program

Country Status (1)

Country Link
JP (1) JP2004120698A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006243201A (en) * 2005-03-02 2006-09-14 Sanyo Electric Co Ltd Projection type image display apparatus
JP2009008905A (en) * 2007-06-28 2009-01-15 Ricoh Co Ltd Information display apparatus and information display system
JP2010074328A (en) * 2008-09-17 2010-04-02 Nikon Corp Electronic device
WO2011149092A1 (en) * 2010-05-27 2011-12-01 京セラ株式会社 Cellular phone device and image projector unit
JP2011248688A (en) * 2010-05-27 2011-12-08 Kyocera Corp Portable electronic equipment and image projection unit
JP2011250206A (en) * 2010-05-27 2011-12-08 Kyocera Corp Portable electronic apparatus and image projection unit
JP2011248150A (en) * 2010-05-27 2011-12-08 Kyocera Corp Portable electronic device and image projection unit
JP2011248149A (en) * 2010-05-27 2011-12-08 Kyocera Corp Portable electronic device and image projection unit
KR20170027149A (en) * 2015-09-01 2017-03-09 삼성중공업 주식회사 Apparatus for projecting drawing image
WO2019150531A1 (en) * 2018-02-01 2019-08-08 マクセル株式会社 Image display device and image display method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006243201A (en) * 2005-03-02 2006-09-14 Sanyo Electric Co Ltd Projection type image display apparatus
JP2009008905A (en) * 2007-06-28 2009-01-15 Ricoh Co Ltd Information display apparatus and information display system
JP2010074328A (en) * 2008-09-17 2010-04-02 Nikon Corp Electronic device
WO2011149092A1 (en) * 2010-05-27 2011-12-01 京セラ株式会社 Cellular phone device and image projector unit
JP2011248688A (en) * 2010-05-27 2011-12-08 Kyocera Corp Portable electronic equipment and image projection unit
JP2011250206A (en) * 2010-05-27 2011-12-08 Kyocera Corp Portable electronic apparatus and image projection unit
JP2011248150A (en) * 2010-05-27 2011-12-08 Kyocera Corp Portable electronic device and image projection unit
JP2011248149A (en) * 2010-05-27 2011-12-08 Kyocera Corp Portable electronic device and image projection unit
US9010942B2 (en) 2010-05-27 2015-04-21 Kyocera Corporation Mobile electronic device and image projection unit
KR20170027149A (en) * 2015-09-01 2017-03-09 삼성중공업 주식회사 Apparatus for projecting drawing image
KR101724441B1 (en) * 2015-09-01 2017-04-07 삼성중공업(주) Apparatus for projecting drawing image
WO2019150531A1 (en) * 2018-02-01 2019-08-08 マクセル株式会社 Image display device and image display method
JPWO2019150531A1 (en) * 2018-02-01 2021-02-18 マクセル株式会社 Image display device and image display method
JP7150755B2 (en) 2018-02-01 2022-10-11 マクセル株式会社 Image display device and image display method
JP7410246B2 (en) 2018-02-01 2024-01-09 マクセル株式会社 Information processing terminal and image processing method

Similar Documents

Publication Publication Date Title
US20050162384A1 (en) Pointing device, method for displaying point image, and program therefor
CN102681958B (en) Use physical gesture transmission data
US7173605B2 (en) Method and apparatus for providing projected user interface for computing device
US8190993B2 (en) Menu selection using a rotating dial and button
US20120032982A1 (en) Manipulation of Graphical Objects
JP4664665B2 (en) Digital platform device
EP1710665A1 (en) Mobile communication terminal
US8094242B2 (en) Object management apparatus, mobile terminal, and object management method
JP2006323823A (en) Sound-based virtual keyboard, device and method
JPH10143640A (en) Portable computer, information management system using it and strepscropic map creating method using it
JP4710734B2 (en) Pointing device, pointing position detection method, and program
TW200302432A (en) Passive optical mouse using CMOS image sensor with optical dual mode capability
CN110059686B (en) Character recognition method, device, equipment and readable storage medium
US20090066654A1 (en) Multi orientation user interface and electronic device with same
JP2004120698A (en) Information processing terminal and method, and program
US11671710B2 (en) Foldable electronic device having rotatable camera and method for capturing images thereby
US20140292636A1 (en) Head-Worn Infrared-Based Mobile User-Interface
WO2011158401A1 (en) Input device, evaluation method, and evaluation program
JP2005284657A (en) Personal digital assistant
JP2000259338A (en) Input system, display system, presentation system and information storage medium
JP2008276219A (en) Digital platform device
US20150194133A1 (en) Portable electronic device with projecting function and projecting method thereof
WO2014123224A1 (en) Electronic controller, control method, and control program
TWI780816B (en) Electronic device and operation method
JP2022050943A (en) Target direction acquisition device, control system, method for directing surveying device to direction of target, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110