JP2013073386A - Image projecting apparatus - Google Patents

Image projecting apparatus Download PDF

Info

Publication number
JP2013073386A
JP2013073386A JP2011211375A JP2011211375A JP2013073386A JP 2013073386 A JP2013073386 A JP 2013073386A JP 2011211375 A JP2011211375 A JP 2011211375A JP 2011211375 A JP2011211375 A JP 2011211375A JP 2013073386 A JP2013073386 A JP 2013073386A
Authority
JP
Japan
Prior art keywords
information
image
projection
distance
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011211375A
Other languages
Japanese (ja)
Inventor
Katsuyuki Shibata
克幸 柴田
Ken Yoshino
研 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011211375A priority Critical patent/JP2013073386A/en
Publication of JP2013073386A publication Critical patent/JP2013073386A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To directly give a user additional information by an expanding real technique more realistic, without limiting, for example, a place where the apparatus is used.SOLUTION: The image projector comprises: a GPS antenna 121 and a GPS receiver 118 that obtain information about the current position where the apparatus 100 is present; a WAN interface 102 and a WAN antenna 101 that transmit a request signal for an image (object information) based on the obtained current position information and receive an image signal corresponding to the transmitted request signal; and projection systems (103 to 107) that form an optical system corresponding to the received image signal and project it to outside.

Description

本発明は、照明の機能を有する画像投影装置に関する。   The present invention relates to an image projection apparatus having a lighting function.

従来、患者と医療従事者間の円滑なコミュニケーションを実現するべく、AR(拡張現実)システムを用い、患者の身動きに追随して体内情報を患者体表に投影するような技術が考えられている。(例えば、特許文献1)   Conventionally, in order to realize smooth communication between a patient and a medical staff, a technique has been considered that uses an AR (Augmented Reality) system to project in-vivo information onto the patient's body surface following the movement of the patient. . (For example, Patent Document 1)

特開2007−151686号公報JP 2007-151686 A

上記した特許文献の技術は、撮影した赤外線画像中から予め定められた形状のサーマルマーカの位置及び姿勢を検出することで投影対象としての患者体表位置を推測することで、体内情報の3DCGモデルを患者体表に投影するものとしている。そのため、撮像と投影に適した位置範囲内にカメラ及びプロジェクタを固定設置した上で、患者の予め定められた位置に、定められた向きのサーマルマーカを装着してもらう、など、きわめて限定された環境下でのみ、実現することが可能となる。   The technique of the above-mentioned patent document is a 3DCG model of in-vivo information by estimating the position of a patient body surface as a projection target by detecting the position and orientation of a thermal marker having a predetermined shape from a captured infrared image. Is projected onto the patient's surface. For this reason, the camera and projector are fixedly installed within a range suitable for imaging and projection, and a thermal marker with a predetermined orientation is attached to a predetermined position of the patient. It can be realized only under the environment.

これとは別に、近時普及しているスマートホンを用い、AR技術によりカメラによって目の前の景色を画面に映し出した上に、その場所や対象物、例えば建物や看板などに関連する付加情報(文字、画像、音声)を重ねて表示あるいは再生する、「セカイカメラ(登録商標)」と呼称されるソフトウェアが知られている。この種の拡張現実ソフトウェアでは、当該ソフトウェアをインストールしたスマートホンの画面上に拡張現実の情報を表示するものとしている。   Aside from this, using smartphones that have recently become popular, and using AR technology to display the scene in front of the screen with a camera, additional information related to the location and object, such as buildings and signs, etc. Software called “Sekai Camera (registered trademark)” that displays or reproduces (characters, images, sounds) in a superimposed manner is known. In this type of augmented reality software, augmented reality information is displayed on the screen of a smartphone on which the software is installed.

したがって当該ソフトウェアを利用するユーザは、「付加情報」が重ねて表示された「画面内の現実」を見た上で、目視できる実際の景色である「本来の現実」を見比べることで、「付加情報」が指し示す対象物を人眼でも認識するようになる。このように「拡張現実」という名称にも拘わらず、現実感に乏しい情報しか与えることができないという不具合がある。   Therefore, the user who uses the software looks at the “real reality in the screen” on which the “additional information” is displayed and compares it with the “real reality” that is the actual scenery that can be seen. The object pointed to by “information” is recognized by the human eye. In this way, despite the name “augmented reality”, there is a problem that only information with poor reality can be given.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、使用する場所等を限定せず、より現実感に富んだ拡張現実技術による付加情報をユーザに直接与えることが可能な画像投影装置を提供することにある。   The present invention has been made in view of the above-described circumstances, and the object of the present invention is to directly provide additional information to augmented reality technology to a user without limiting the place of use or the like. An object of the present invention is to provide an image projection apparatus capable of performing the above.

本発明の一態様は、光像を対象物に投影する投影装置であって、上記対象物が存在する位置に関連した位置関連情報を取得する位置情報取得手段と、上記位置情報取得手段で取得した上記位置関連情報に基づいた対象物情報を取得する対象物情報取得手段と、上記対象物情報取得手段で取得した上記対象物情報に応じた光像を形成して外部に投射する投影手段とを具備したことを特徴とする。   One aspect of the present invention is a projection apparatus that projects a light image onto an object, the position information acquiring unit acquiring position related information related to the position where the object exists, and the position information acquiring unit. Object information acquisition means for acquiring object information based on the position-related information, and projection means for forming an optical image corresponding to the object information acquired by the object information acquisition means and projecting it to the outside It is characterized by comprising.

本発明によれば、使用する場所等を限定せず、より現実感に富んだ拡張現実技術による付加情報をユーザに直接与えることが可能となる。   According to the present invention, it is possible to directly give additional information to the user by using augmented reality technology that is more realistic without limiting the place of use.

本発明の一実施形態に係る懐中電灯型プロジェクタ装置の機能回路構成を示すブロック図。The block diagram which shows the function circuit structure of the flashlight type projector apparatus which concerns on one Embodiment of this invention. 同実施形態に係る基本的な投影動作の処理内容を示すフローチャート。6 is a flowchart showing processing details of a basic projection operation according to the embodiment. 同実施形態に係る第1の使用例を説明する図。The figure explaining the 1st usage example which concerns on the same embodiment. 同実施形態に係る第2の使用例を説明する図。The figure explaining the 2nd usage example which concerns on the same embodiment. 同実施形態に係る第3の使用例を説明する図。The figure explaining the 3rd usage example which concerns on the same embodiment. 同実施形態に係る第4の使用例を説明する図。The figure explaining the 4th usage example which concerns on the same embodiment. 同実施形態に係る第5の使用例を説明する図。The figure explaining the 5th usage example which concerns on the embodiment.

以下、本発明をDLP(Digital Light Processing)(登録商標)方式を採用した懐中電灯型プロジェクタに適用した場合の一実施形態について図面を参照して説明する。   Hereinafter, an embodiment in which the present invention is applied to a flashlight projector adopting a DLP (Digital Light Processing) (registered trademark) system will be described with reference to the drawings.

図1は、本実施形態に係る懐中電灯型プロジェクタ100の主として電子回路の機能構成を説明する図である。同図中、WAN(Wide Area Network:広域情報通信網)アンテナ101を介してWANインタフェース(I/F)102が、ここでは図示しない情報サーバから情報データ(対象物情報)を受信する。   FIG. 1 is a diagram for explaining a functional configuration of mainly an electronic circuit of the flashlight projector 100 according to the present embodiment. In the figure, a WAN interface (I / F) 102 receives information data (object information) from an information server (not shown) via a WAN (Wide Area Network) antenna 101.

WANインタフェース102は、例えばIEEE802.16e規格に則ったモバイルWiMAX(Worldwide interoperability for Microwave Access)に準拠したインタフェース回路であり、後述するCPU113の制御の下に上記WANアンテナ101を介して無線データの送受を制御する。   The WAN interface 102 is an interface circuit compliant with, for example, mobile WiMAX (World wide interoperability for Microwave Access) conforming to the IEEE 802.16e standard, and transmits and receives wireless data through the WAN antenna 101 under the control of the CPU 113 described later. Control.

ここでは、情報データが画像(情報画像)である場合についてまず説明する。   Here, a case where the information data is an image (information image) will be described first.

受信した情報データ(情報画像データ)は、システムバスSBを介して投影画像駆動部103に送られる。この投影画像駆動部103は、送られてきた画像データに応じて、所定のフォーマットに従ったフレームレート、例えば60[フレーム/秒]と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、マイクロミラー素子104を表示駆動する。   The received information data (information image data) is sent to the projection image driving unit 103 via the system bus SB. The projection image driving unit 103 multiplies a frame rate according to a predetermined format, for example, 60 [frames / second], the number of color component divisions, and the number of display gradations according to the transmitted image data. The micromirror element 104 is driven to display by faster time-division driving.

このマイクロミラー素子14は、アレイ状に配列された複数、例えばWXGA(横1280画素×縦768画素)分の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することで、その反射光により光像を形成する。   The micromirror element 14 performs a display operation by individually turning on / off each inclination angle of a plurality of micromirrors arranged in an array, for example, WXGA (horizontal 1280 pixels × vertical 768 pixels) at high speed. Then, an optical image is formed by the reflected light.

一方で、光源部105から時分割でR,G,Bの原色光が循環的に出射される。この光源部105からの原色光が、ミラー106で全反射して上記マイクロミラー素子104に照射される。   On the other hand, R, G, B primary color lights are emitted cyclically from the light source unit 105 in a time-sharing manner. The primary color light from the light source unit 105 is totally reflected by the mirror 106 and applied to the micromirror element 104.

そして、マイクロミラー素子104での反射光で光像が形成され、形成された光像が投影レンズ部107を介して外部に投射して表示される。   Then, an optical image is formed by the reflected light from the micromirror element 104, and the formed optical image is projected to the outside via the projection lens unit 107 and displayed.

上記投影レンズ部107は、内部のレンズ光学系中に、フォーカス位置を移動するためのフォーカスレンズ及びズーム(投影)画角を可変するためのズームレンズを含む。   The projection lens unit 107 includes a focus lens for moving a focus position and a zoom lens for changing a zoom (projection) angle of view in an internal lens optical system.

また、上記投影レンズ部107と隣接するようにして撮影レンズ部108を配設する。この撮影レンズ部108に入光する外部の光像は、固体撮像素子であるCMOSイメージセンサ109上に結像される。   The photographing lens unit 108 is disposed so as to be adjacent to the projection lens unit 107. An external optical image that enters the photographing lens unit 108 is formed on a CMOS image sensor 109 that is a solid-state imaging device.

撮影レンズ部108は、例えば上記投影レンズ部107の最大ズーム画角に合わせ、双方のパララックスを考慮して若干大きい撮影画角を有し、光軸方向に移動するフォーカスレンズを含んだレンズ群から構成されるものとする。   The taking lens unit 108 includes, for example, a lens group that includes a focus lens that moves in the optical axis direction and has a slightly larger taking field angle in consideration of both parallaxes in accordance with the maximum zoom field angle of the projection lens unit 107. It shall consist of

CMOSイメージセンサ109での結像により得られる画像信号は、A/D変換器110でデジタル化された後、撮影制御部111に送られる。   An image signal obtained by imaging with the CMOS image sensor 109 is digitized by the A / D converter 110 and then sent to the imaging control unit 111.

この撮影制御部111は、例えばコントラスト方式のAF(自動合焦)機能によりモータ(M)112を駆動し、上記撮影レンズ部108内のフォーカスレンズの位置を合焦位置に移動させる。このAF動作により得られたフォーカスレンズの位置により、撮影対象となる被写体像までの距離を取得できる。   The photographing control unit 111 drives the motor (M) 112 by, for example, a contrast AF (automatic focusing) function, and moves the position of the focus lens in the photographing lens unit 108 to the in-focus position. The distance to the subject image to be imaged can be acquired from the position of the focus lens obtained by this AF operation.

また撮影制御部111は、上記CMOSイメージセンサ109を走査駆動して撮影動作を実行させ、撮影により得た画像データの輪郭抽出等の画像処理を実施することで、後述するように画像の投影に適した領域を抽出する。   In addition, the imaging control unit 111 scans the CMOS image sensor 109 to execute an imaging operation, and performs image processing such as contour extraction of image data obtained by imaging, thereby projecting an image as described later. Extract suitable areas.

上記各回路の動作すべてをCPU113が制御する。このCPU113は、メインメモリ114及びプログラムメモリ115と直接接続される。メインメモリ114は、例えばSRAMで構成され、CPU113のワークメモリとして機能する。プログラムメモリ115は、電気的書換可能な不揮発性メモリ、例えばフラッシュROMで構成され、CPU113が実行する動作プログラムや各種定型データ等を記憶する。   The CPU 113 controls all the operations of the above circuits. The CPU 113 is directly connected to the main memory 114 and the program memory 115. The main memory 114 is configured by an SRAM, for example, and functions as a work memory for the CPU 113. The program memory 115 is composed of an electrically rewritable nonvolatile memory such as a flash ROM, and stores an operation program executed by the CPU 113, various fixed data, and the like.

CPU113は、上記プログラムメモリ115に記憶されている動作プログラムや定型データ等を読出し、メインメモリ114に展開して記憶させた上で、当該プログラムを実行することにより、この懐中電灯型プロジェクタ100を統括して制御する。   The CPU 113 controls the flashlight projector 100 by reading out the operation program, standard data, and the like stored in the program memory 115, developing and storing them in the main memory 114, and executing the program. And control.

上記CPU113は、キー操作部116からのキー操作信号に応じて各種投影動作を実行する。
このキー操作部116は、この懐中電灯型プロジェクタ100の電源をオン/オフする電源キー、及び後述する照明モードとARモードとを切換えるモードキーを備える。キー操作部116は、それらのキー操作に基づく信号をキー操作部116へ出力する。
The CPU 113 executes various projection operations in response to key operation signals from the key operation unit 116.
The key operation unit 116 includes a power key for turning on / off the power of the flashlight projector 100 and a mode key for switching between an illumination mode and an AR mode, which will be described later. The key operation unit 116 outputs signals based on those key operations to the key operation unit 116.

上記CPU113はさらに、上記システムバスSBを介してモータ(M)117、GPS(Global Positioning System:全地球測位システム)レシーバ118、3軸加速度センサ119、及び地磁気センサ120と接続される。
モータ117は、上記投影レンズ部107のフォーカスレンズ及びズームレンズの位置を移動させる。
The CPU 113 is further connected to a motor (M) 117, a GPS (Global Positioning System) receiver 118, a triaxial acceleration sensor 119, and a geomagnetic sensor 120 via the system bus SB.
The motor 117 moves the positions of the focus lens and zoom lens of the projection lens unit 107.

GPSレシーバ118は、GPSアンテナ121を介して、図示しないGPS衛星からの到来電波を受信し、それらを解析することで3次元空間内における現在位置、すなわち緯度、経度、及び高度の情報と、正確な現在時刻情報とを算出する。   The GPS receiver 118 receives incoming radio waves from GPS satellites (not shown) via the GPS antenna 121 and analyzes them to accurately detect the current position in the three-dimensional space, that is, latitude, longitude, and altitude information. Current time information is calculated.

3軸加速度センサ119は、互いに直交する3軸方向の各加速度を検知する。CPU113は、3軸加速度センサ119の検知出力に含まれている重力加速度から、現在の懐中電灯型プロジェクタ100の姿勢角度、具体的には上記投影レンズ部107の投影光軸及び撮影レンズ部108の撮影光軸の仰角/俯角と、上記投影光軸及び撮影光軸が直交する面に対してどの程度回転しているかを示す回転角とを算出して、この懐中電灯型プロジェクタ100を所持するユーザに対して天地方向が正しい画像の投影を行なうことができる。   The triaxial acceleration sensor 119 detects each acceleration in the triaxial directions orthogonal to each other. The CPU 113 determines the current posture angle of the flashlight projector 100, specifically the projection optical axis of the projection lens unit 107 and the photographing lens unit 108, from the gravitational acceleration included in the detection output of the three-axis acceleration sensor 119. A user who possesses the flashlight projector 100 by calculating an elevation angle / an depression angle of the photographing optical axis and a rotation angle indicating how much the projection optical axis and the photographing optical axis are rotated with respect to a plane orthogonal to each other. In contrast, it is possible to project an image with the correct top and bottom direction.

地磁気センサ120は、例えば円柱形状の零磁歪アモルファス合金ワイヤなどの高透磁率合金磁性体で顕著となる磁気インピーダンス効果をCMOS電子回路で実現した、高感度マイクロ磁気センサで構成され、所謂、電子コンパスとして機能する。   The geomagnetic sensor 120 is composed of a high-sensitivity micromagnetic sensor that realizes a magnetic impedance effect, which is prominent in a high-permeability alloy magnetic material such as a cylindrical zero-magnetostrictive amorphous alloy wire, with a CMOS electronic circuit. Function as.

次に上記実施形態の動作について説明する。
なお以下に示す動作は、上述した如くCPU113がプログラムメモリ115から読出した動作プログラムや定型データ等をメインメモリ114に展開した上で実行するものである。プログラムメモリ115に記憶される動作プログラム等は、この懐中電灯型プロジェクタ100の工場出荷時にプログラムメモリ115に記憶されていたもののみならず、ユーザがこの懐中電灯型プロジェクタ100を購入後にWANアンテナ101及びWANインタフェース102を介してダウンロードしたバージョンアップ用のプログラム等によりインストールした内容を含む。
Next, the operation of the above embodiment will be described.
The operation shown below is executed after the CPU 113 expands the operation program read from the program memory 115 and the standard data in the main memory 114 as described above. The operation program and the like stored in the program memory 115 are not only those stored in the program memory 115 when the flashlight projector 100 is shipped from the factory, but also after the user purchases the flashlight projector 100 and the WAN antenna 101 and It includes contents installed by a version upgrade program downloaded via the WAN interface 102.

また本動作では、この懐中電灯型プロジェクタ100と無線WAN技術により接続可能なサーバ装置として、現在位置を含む必要な各種情報を添付して情報画像を要求することで、これに応答して随時適切な対象物情報としての情報画像を選択して送り返してくるような情報サーバへの接続環境が予め設定されているものとする。   Also, in this operation, as a server device that can be connected to the flashlight projector 100 by wireless WAN technology, an information image is requested by attaching necessary various information including the current position. It is assumed that a connection environment to an information server that selects and sends back an information image as target object information is set in advance.

図2は、キー操作部116の電源キーにより電源をオンした後に実行させる、照明モード及びAR(拡張現実)モードでの基本的な投影動作の処理内容を示すフローチャートである。その処理当初において、CPU113はキー操作部116のモードキーが照明モードの位置に操作されているか否かを判断する(ステップS101)。   FIG. 2 is a flowchart showing the processing contents of basic projection operations in the illumination mode and AR (augmented reality) mode, which are executed after the power is turned on by the power key of the key operation unit 116. At the beginning of the process, the CPU 113 determines whether or not the mode key of the key operation unit 116 has been operated to the position of the illumination mode (step S101).

ここで照明モードの位置に操作されていると判断した場合、CPU113は投影画像駆動部103によりマイクロミラー素子104で表示させる、D/A変換器15からのR,G,Bの各原色光に対応した画像として、表示期間中、常に全画素共にオン(投影レンズ部107への反射方向)となる画像を表示させることで、結果としてR,G,Bの各色画像共に全画素がフル階調となって、その混色により全面白色となる画像を投影させる(ステップS102)。   If it is determined that the illumination mode has been operated, the CPU 113 displays the R, G, and B primary color lights from the D / A converter 15 displayed on the micromirror element 104 by the projection image driving unit 103. As a corresponding image, an image in which all the pixels are always on (reflection direction to the projection lens unit 107) is displayed during the display period. As a result, all the R, G, and B color images are all in full gradation. Thus, an image that is entirely white due to the mixed color is projected (step S102).

このとき併せてCPU113は、モータ117により、投影レンズ部107のズームレンズを最も投影画角が狭くなる位置に移動させると共に、同投影レンズ部107のフォーカスレンズを合焦位置が無限遠となる位置に移動させることで、できうる限り光束がシャープなスポット光としての照射光を実現する。   At the same time, the CPU 113 causes the motor 117 to move the zoom lens of the projection lens unit 107 to a position where the projection angle of view is the narrowest, and the focus lens of the projection lens unit 107 is a position where the in-focus position is at infinity. By moving to, it is possible to realize irradiation light as spot light having as sharp a luminous flux as possible.

その後にCPU113は、キー操作部116からの入力によりモードキーが操作されて照明モードが解除されたか否かを判断する(ステップS103)。   Thereafter, the CPU 113 determines whether or not the illumination mode has been canceled by operating the mode key by an input from the key operation unit 116 (step S103).

ここでモードキーは操作されておらず、照明モードは解除されていないと判断した場合、CPU113は再び上記ステップS102からの処理に戻り、上述した照明モードでの動作を繰返し継続する。   If it is determined that the mode key has not been operated and the illumination mode has not been released, the CPU 113 returns to the process from step S102 again and repeats the operation in the illumination mode described above.

また上記ステップS101でキー操作部116のモードキーが照明モードの位置にはないと判断した場合、及び上記ステップS103でモードキーが操作されて照明モードが解除されたと判断した場合、CPU113はあらためてARモードでの動作を開始するべく、まずGPSレシーバ118から現在位置の情報を取得する(ステップS104)。   If it is determined in step S101 that the mode key of the key operation unit 116 is not in the position of the illumination mode, or if it is determined in step S103 that the mode key has been operated and the illumination mode has been canceled, the CPU 113 re-enters AR. In order to start the operation in the mode, first, information on the current position is acquired from the GPS receiver 118 (step S104).

次いでCPU113は、電子コンパスを構成する地磁気センサ120から投影レンズ部107の投影光軸及び撮影レンズ部108の撮影光軸が向かっている方向の方位情報を取得する(ステップS105)。   Next, the CPU 113 acquires azimuth information in the direction in which the projection optical axis of the projection lens unit 107 and the imaging optical axis of the imaging lens unit 108 are directed from the geomagnetic sensor 120 constituting the electronic compass (step S105).

さらにCPU113は、3軸加速度センサ119の検知出力により投影レンズ部107の投影光軸及び撮影レンズ部108の撮影光軸が水平方向となす角度から仰角または俯角の角度情報を懐中電灯型プロジェクタ100の姿勢を表す情報として取得する(ステップS106)。   Further, the CPU 113 obtains the angle information of the elevation angle or the depression angle from the angle between the projection optical axis of the projection lens unit 107 and the imaging optical axis of the imaging lens unit 108 in the horizontal direction based on the detection output of the triaxial acceleration sensor 119 of the flashlight projector 100. Obtained as information representing the posture (step S106).

CPU113は、これら取得した各情報により、懐中電灯型プロジェクタ100が存在している3次元空間中の位置と、投影レンズ部107の投影光軸及び撮影レンズ部108の撮影光軸が向いている方位、及び姿勢(上下方向の角度)を把握できる。   Based on these pieces of acquired information, the CPU 113 determines the position in the three-dimensional space where the flashlight projector 100 exists, the direction in which the projection optical axis of the projection lens unit 107 and the imaging optical axis of the imaging lens unit 108 are directed. And posture (vertical angle).

次いでCPU113は、撮影制御部111により撮影範囲のほぼ全面に対するAF処理(多数点測距)を含む撮影処理を実行し(ステップS107)、AF処理により合焦した状態でモータ112が駆動している撮影レンズ部108内のフォーカスレンズの位置から、例えば撮影範囲の中心位置までの距離情報を取得する(ステップS108)。   Next, the CPU 113 executes shooting processing including AF processing (multi-point distance measurement) for almost the entire shooting range by the shooting control unit 111 (step S107), and the motor 112 is driven in a focused state by the AF processing. For example, distance information from the position of the focus lens in the photographing lens unit 108 to the center position of the photographing range is acquired (step S108).

CPU113は、上述した情報サーバに対し、上記取得した現在位置、方位姿勢、現在時刻、及び被写体までの距離などを付加した上で、懐中電灯型プロジェクタ100の端末ID情報と共に情報画像のデータを送り返すべく、WANインタフェース102、WANアンテナ101を介して要求を送信する(ステップS109)。   The CPU 113 adds the acquired current position, orientation, current time, distance to the subject, and the like to the information server described above, and returns information image data together with the terminal ID information of the flashlight projector 100. Therefore, a request is transmitted via the WAN interface 102 and the WAN antenna 101 (step S109).

これに対して当該情報サーバから情報画像のデータが送られてきた時点でCPU113はそれを受信する(ステップS110)。このときCPU113は、直前のステップS107で撮影して得た被写体の画像に対して輪郭抽出等の画像処理を実行し、撮影範囲の中心を含んで所定の距離範囲内にある、画像を投影することが可能と判断できる領域を抽出する(ステップS111)。   On the other hand, when information image data is sent from the information server, the CPU 113 receives it (step S110). At this time, the CPU 113 performs image processing such as contour extraction on the image of the subject obtained in the previous step S107, and projects an image within a predetermined distance range including the center of the shooting range. An area that can be determined to be available is extracted (step S111).

次いでCPU113は、この抽出した範囲に合わせて上記ステップS110で受信した情報画像のデータを適宜拡大または縮小と変形とを組み合わせて最適化する(ステップS112)。CPU113は、その最適化した画像データに基づく各原色の画像をマイクロミラー素子104で表示させ、同時に光源部105により各原色光を順次発光させることで、情報画像に基づくカラーの光像を形成して投影レンズ部107により投影させる(ステップS113)。   Next, the CPU 113 optimizes the data of the information image received in step S110 according to the extracted range by appropriately combining expansion or reduction and deformation (step S112). The CPU 113 displays an image of each primary color based on the optimized image data on the micromirror element 104 and simultaneously emits each primary color light by the light source unit 105, thereby forming a color light image based on the information image. Then, projection is performed by the projection lens unit 107 (step S113).

このときCPU113は、直前のステップS108で取得した被写体までの距離値に基づいてモータ117により投影レンズ部107のフォーカスレンズの位置を移動させ、投影画像が合焦状態となるように制御する。   At this time, the CPU 113 moves the position of the focus lens of the projection lens unit 107 by the motor 117 based on the distance value to the subject acquired in the immediately preceding step S108, and controls the projection image to be in focus.

こうして一連の投影処理を実行した時点でCPU113は、キー操作部116からの入力によりモードキーが操作されてARモードが解除されたか否かを判断する(ステップS114)。   When a series of projection processes are executed in this way, the CPU 113 determines whether or not the AR mode has been canceled by operating the mode key in response to an input from the key operation unit 116 (step S114).

ここでモードキーは操作されておらず、ARモードは解除されていないと判断した場合、CPU113は再び上記ステップS104からの処理に戻り、上述したARモードでの動作を繰返し継続する。   If it is determined that the mode key has not been operated and the AR mode has not been released, the CPU 113 returns to the process from step S104 again and repeats the above-described operation in the AR mode.

また上記ステップS114でモードキーが操作され、ARモードが解除されたと判断した場合にCPU113は、再び上記ステップS102からの照明モードでの動作に移行する。   If it is determined in step S114 that the mode key has been operated and the AR mode has been canceled, the CPU 113 shifts again to the operation in the illumination mode from step S102.

以上が本実施形態の基本的な処理の流れである。
次に上記したARモードでの具体的な使用例について説明する。
図3は、第1の使用例を示す。同図では、懐中電灯型プロジェクタ100により地面を照らしており、進行方向の地面に情報画像I11〜I13を投影している状態を例示する。このとき図示しない情報サーバから与えられる情報画像のデータとしては、例えば進行方向の先にあるランドマークや各種施設、例えば最寄りの鉄道駅名とその駅までの距離やその駅に対応する時刻表、次に来る電車の時刻、又は各種施設のイベント情報などが考えられる。
The above is the basic processing flow of this embodiment.
Next, a specific use example in the above-described AR mode will be described.
FIG. 3 shows a first usage example. In the drawing, the ground is illuminated by the flashlight projector 100 and information images I11 to I13 are projected onto the ground in the traveling direction. Information image data provided from an information server (not shown) includes, for example, landmarks and various facilities ahead of the traveling direction, such as the name of the nearest railway station and the distance to the station, the timetable corresponding to the station, The time of a train coming to or event information of various facilities can be considered.

図4は、第2の使用例を示す。同図では、ユーザUSが所持する懐中電灯型プロジェクタ100により地面を照らしており、進行方向の地面に情報画像I21〜I23を投影している状態を例示する。このとき図示しない情報サーバから与えられる情報画像のデータとしては、例えば進行方向の先にある店舗H21やビルディングB22に関する案内情報などが考えられる。   FIG. 4 shows a second usage example. In the figure, the ground is illuminated by the flashlight projector 100 possessed by the user US, and the information images I21 to I23 are projected onto the ground in the traveling direction. At this time, as information image data given from an information server (not shown), for example, guidance information related to the store H21 or the building B22 ahead in the traveling direction can be considered.

このように懐中電灯型プロジェクタ100はGPSアンテナ121を介して3次元空間内における現在位置情報と、正確な現在時刻情報とを算出し、それを図示しない情報サーバに送信するので、現在位置及び現在時刻に対応した情報画像(対象物情報)をユーザUSに提供できる。   As described above, the flashlight projector 100 calculates the current position information in the three-dimensional space and the accurate current time information via the GPS antenna 121 and transmits them to an information server (not shown). An information image (object information) corresponding to the time can be provided to the user US.

図5は、第3の使用例を示す。同図では、ユーザUSが所持する懐中電灯型プロジェクタ100によりビルディングB31の壁面を照らしており、照らしている場所に位置するビルディングB31が飲食雑居ビルであったとして、そのビル内の飲食店に関するポップアップ広告や、店舗の割引クーポンなどの情報画像I31〜I33を投影している状態を例示する。   FIG. 5 shows a third usage example. In the same figure, the flashlight projector 100 possessed by the user US illuminates the wall surface of the building B31, and it is assumed that the building B31 located at the illuminating place is a restaurant building. The state which projects information images I31-I33, such as an advertisement and a discount coupon of a store, is illustrated.

懐中電灯型プロジェクタ100は、撮影制御部111によってユーザUSが照らしている対象物からユーザUSまでの距離情報を取得し、この距離情報とGPSアンテナ121により得られたユーザUSの現在位置情報とを図示しない情報サーバに送信する。従って、ユーザUSが照らしている例えばビルディングB31等の対象物の位置情報を、ユーザUSの上記現在位置情報に上記距離情報を付加することで得ることができるので、ビルディングB31を正確に特定して当該ビルディングB31の情報画像(対象物情報)をユーザUSに提供できる。   The flashlight projector 100 acquires distance information from the object illuminated by the user US to the user US by the shooting control unit 111, and uses this distance information and the current position information of the user US obtained by the GPS antenna 121. It transmits to the information server which is not illustrated. Therefore, since the position information of the object such as the building B31 illuminated by the user US can be obtained by adding the distance information to the current position information of the user US, the building B31 is accurately identified. An information image (object information) of the building B31 can be provided to the user US.

図6は、第4の使用例を示す。同図では、ユーザUSが所持する懐中電灯型プロジェクタ100によりテントT41の内壁面を照らしており、照らしている方向の先にある、天候や時間の関係で実際には視認することができない山々や風景などの情報画像I41,I42を投影している状態を例示する。情報画像I41,I42としては、それら風景の画像そのもの、及び解説文等の文字情報を含んでいても良い。   FIG. 6 shows a fourth usage example. In the figure, the flashlight type projector 100 possessed by the user US illuminates the inner wall surface of the tent T41, and there are mountains or the like that are beyond the illuminating direction and are not actually visible due to the weather or time. The state where information images I41 and I42 such as landscape are projected is illustrated. The information images I41 and I42 may include such landscape images themselves and text information such as commentary.

図7は、第5の使用例を示す。同図では、ユーザUSが所持する懐中電灯型プロジェクタ100によりテントT51の天頂方向の内壁面を照らしており、照らしている方向の先にある、その時の位置情報と時刻情報とに基づいて天気及び大気の状態が良好であれば見ることができる筈の星空の情報画像I51を投影している状態を例示する。情報画像I51としては、本来はどのように大気の状態が良い場合でも肉眼では視認しにくい等級の低い星の画像や、あるいは星座を表すための補助線や文字情報等を含む画像を含んでいても良い。   FIG. 7 shows a fifth usage example. In the same figure, the flashlight projector 100 possessed by the user US illuminates the inner wall surface in the zenith direction of the tent T51, and the weather and the time information based on the current position information and time information ahead of the illuminating direction. An example of a state in which an information image I51 of a starfish sky that can be seen if the atmospheric state is good is projected. The information image I51 includes an image of a low-grade star that is difficult to see with the naked eye, regardless of how the atmospheric condition is originally good, or an image that includes auxiliary lines or character information for representing a constellation. Also good.

上記実施形態では、情報サーバより情報データとして情報画像データを直接受信する例で説明したが、情報サーバより情報データとして対象物情報を受信して、投影する画像自体は、懐中電灯型プロジェクタ100内のCPU113で形成するようにしても良い。すなわち、情報サーバから受信する対象物情報は、画像データに限定されない。   In the above-described embodiment, the example in which the information image data is directly received as the information data from the information server has been described. However, the object image is received as the information data from the information server, and the projected image itself is stored in the flashlight projector 100. Alternatively, the CPU 113 may be used. That is, the object information received from the information server is not limited to image data.

また、上記実施形態では、情報サーバより情報データとして対象物情報を取得する例で説明したが、懐中電灯型プロジェクタ100に簡易なデータベースを持たせるようにして位置関連情報に基づいた対象物情報を取得するようにしてもよい。データベースはメモリーカード等の媒体内に記憶させるようにして随時最新のものに更新できるようにすることが好ましい。   In the above embodiment, the object information is acquired as information data from the information server. However, the flashlight projector 100 has a simple database so that the object information based on the position related information is obtained. You may make it acquire. The database is preferably stored in a medium such as a memory card so that it can be updated to the latest one at any time.

上記実施形態では、撮影制御部111のAF(自動合焦)機能により対象物までの距離を取得する例で説明したが、別途距離センサ(例えば、レーザ測距装置等)を設け、対象物までの距離を取得するようにしても良い。   In the above embodiment, the example in which the distance to the object is acquired by the AF (automatic focusing) function of the imaging control unit 111 has been described. However, a distance sensor (for example, a laser distance measuring device) is provided separately to the object. The distance may be acquired.

以上詳述した如く本実施形態によれば、使用する場所等を限定せず、より現実感に富んだ拡張現実技術による付加情報をユーザに直接与えることが可能となる。   As described above in detail, according to the present embodiment, it is possible to directly give additional information to the user by using augmented reality technology that is more realistic without limiting the place of use.

また上記実施形態では、現在位置と投影レンズ部が現在向いている方向とを検出することで、投影する情報画像をより適切なものが選定できるようにしており、ユーザに不必要な情報を与える虞を大幅に減少できる。   Further, in the above-described embodiment, by detecting the current position and the direction in which the projection lens unit is currently facing, a more appropriate information image can be selected, and unnecessary information is given to the user. The fear can be greatly reduced.

さらに上記実施形態では、3軸加速度センサによりその時点の懐中電灯型プロジェクタの姿勢角度を検出することにより、投影レンズ部が向いている天地方向や該投影光軸に沿った回転角から、適切な投影内容を選定できると共に、ユーザに対して見やすい角度で情報画像を投影させることができる。   Furthermore, in the above-described embodiment, by detecting the attitude angle of the flashlight projector at that time by the three-axis acceleration sensor, an appropriate angle can be determined from the vertical direction toward which the projection lens unit faces and the rotation angle along the projection optical axis. The projection content can be selected and the information image can be projected at an angle that is easy to see for the user.

加えて上記実施形態では、AF機能を有するカメラ等の距離取得機能を内蔵するものとして、投影対象面(対象物)までの距離を取得し、その距離値に応じて投影画像を正確に合焦させると共に、投影対象の正確な位置の算出にも加味するものとしたので、投影する対象物のより正確な位置情報が取得できる。   In addition, in the embodiment described above, a distance acquisition function such as a camera having an AF function is incorporated, and the distance to the projection target surface (object) is acquired, and the projection image is accurately focused according to the distance value. In addition, since the calculation of the accurate position of the projection target is taken into account, more accurate position information of the object to be projected can be acquired.

なお上記実施形態では説明しなかったが、上記投影対象までの距離に連動して上記投影レンズ部107のズームレンズ位置を制御することにより、投影画角を可変設定するものとしても良い。   Although not described in the above embodiment, the projection angle of view may be variably set by controlling the zoom lens position of the projection lens unit 107 in conjunction with the distance to the projection target.

これは例えば、投影距離が投影レンズ部107の最短合焦距離である場合に投影画角を最大に、投影距離が10[m]を超えて無限遠に至る範囲内にある場合には投影画角を最小に、またそれらの間での投影距離では段階的に変化するように投影画角をステップ状に変化させるものである。   For example, when the projection distance is the shortest focusing distance of the projection lens unit 107, the projection angle of view is maximized, and when the projection distance exceeds 10 [m] and reaches infinity, the projected image is displayed. The projection angle of view is changed stepwise so that the angle is minimized and the projection distance between them changes stepwise.

このように距離に応じて投影画角を変化させることで、光源部105から出射される光量を有効に利用し、明るく、且つユーザにとっても見易い情報画像を投影させることが可能となる。   In this way, by changing the projection angle of view according to the distance, it is possible to effectively use the amount of light emitted from the light source unit 105, and to project a bright and easy-to-view information image.

また、AF機能を有するカメラ等の多点測距機能を内蔵していることから、多点を測距し、投影レンズ部の光軸方向に対して投影対象面がどの程度傾いているかを検知(算出)して、その傾き角度に基づいて投影画像を台形補正するような構成でもよい。このような構成にすれば、投影対象面に対して傾けた状態で情報画像を投影したとしても、ユーザにとって見易い情報画像を投影させることが可能となる。   In addition, since it has a built-in multi-point distance measurement function such as a camera with an AF function, it can measure multiple points and detect how much the projection target surface is tilted with respect to the optical axis direction of the projection lens unit. A configuration in which (calculation) and trapezoidal correction of the projection image based on the tilt angle may be employed. With such a configuration, it is possible to project an information image that is easy for the user to see even if the information image is projected while being tilted with respect to the projection target surface.

さらに上記実施形態では、キー操作部116のモードキーの操作により、全面白色の画像を投影させる照明モードと、情報画像を投影させるARモードとを切替可能としたため、情報の必要の有無に応じてユーザが懐中電灯型プロジェクタ100の使用方法を簡易に切替られる。   Furthermore, in the above-described embodiment, it is possible to switch between the illumination mode for projecting a white image and the AR mode for projecting the information image by operating the mode key of the key operation unit 116. The user can easily switch the method of using the flashlight projector 100.

なお上記実施形態は、本発明をDLP(登録商標)方式を採用した懐中電灯型プロジェクタに適用した場合について説明したが、本発明は投影方式や装置等を限定するものではなく、例えばレーザ走査方式の投影部を組込んだスマートホンや携帯電話端末等の装置にも同様に適用可能となる。   In the above embodiment, the case where the present invention is applied to a flashlight projector adopting the DLP (registered trademark) system has been described. However, the present invention does not limit the projection system, the apparatus, and the like. The present invention can be similarly applied to devices such as a smart phone and a mobile phone terminal incorporating the above projection unit.

また上記実施形態では、情報サーバに対し、現在位置、方位姿勢、現在時刻及び被写体までの距離などを付加してWANインタフェース102、WANアンテナ101を介して要求を送信しているが、加えて撮影制御部111により識別子、例えばバーコード、二次元コード等を読込ませ、読込んだ情報を情報サーバに対して送信するような構成でもよい。   In the above embodiment, the request is transmitted to the information server via the WAN interface 102 and the WAN antenna 101 with the current position, orientation, current time, distance to the subject, and the like added. The controller 111 may read an identifier, such as a barcode or a two-dimensional code, and transmit the read information to the information server.

この場合、バーコード等の画像をそのまま送信してもよいし、デコードされた情報を送るようにしてもよい。このような構成にすれば、例えば倉庫等で在庫管理等に利用されているPDA(Personal Digital Assistant)のような使い方もできる。   In this case, an image such as a barcode may be transmitted as it is, or decoded information may be transmitted. With this configuration, for example, a PDA (Personal Digital Assistant) used for inventory management or the like in a warehouse or the like can be used.

従来のPDAではバーコード等を読み取ってそのバーコードから読取れる情報のみを提供していた。また、PDAに搭載されている表示画面を確認することで荷物や商品等の対象物の情報を得ていた。しかし、本実施形態を用いれば位置情報等も利用するので、荷物が種別毎に1箇所に配置されておらず、製造日や出荷日などが異なる同一種別の荷物が色々な棚にばらばらに配置されていたとしても、情報サーバに製造日や出荷日毎に荷物の位置情報が登録されてさえいれば、照らした荷物の位置情報及びバーコード等の情報から当該荷物の情報を正確に得ることができるだけでなく、さらに対象物にそのまま画像情報として対象物の情報を投影することができ、表示画面をいちいち確認する(視線を移動させる)必要が無いので、集荷作業の効率を向上させることができる。   Conventional PDAs read only a barcode and provide only information that can be read from the barcode. In addition, information on objects such as luggage and products is obtained by confirming a display screen mounted on the PDA. However, since location information is also used if this embodiment is used, packages are not arranged at one location for each type, but packages of the same type with different manufacturing dates, shipping dates, etc. are arranged in various shelves Even if the package information is registered in the information server for each date of manufacture or shipment, the information on the package can be obtained accurately from the illuminated package position information and barcode information. Not only can the information of the object be directly projected onto the object as image information, and there is no need to check the display screen (moving the line of sight) one by one, so the efficiency of the collection work can be improved. .

上記実施形態では、投影装置として、携帯型(懐中電灯型プロジェクタ)の例で説明したが、イベント用等で例えば周囲のビル壁面に情報を投影するようなより大きな投影装置にも応用することができる。   In the above-described embodiment, the example of the portable type (flashlight type projector) has been described as the projection apparatus. However, the present invention can be applied to a larger projection apparatus that projects information on a surrounding building wall surface, for example, for an event. it can.

その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if several constituent requirements are deleted from all the constituent requirements shown in the embodiment, if an effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
請求項1記載の発明は、光像を対象物に投影する投影装置であって、上記対象物が存在する位置に関連した位置関連情報を取得する位置情報取得手段と、上記位置情報取得手段で取得した上記位置関連情報に基づいた対象物情報を取得する対象物情報取得手段と、上記対象物情報取得手段で取得した上記対象物情報に応じた光像を形成して外部に投射する投影手段とを具備したことを特徴とする。
Hereinafter, the invention described in the scope of claims of the present application will be appended.
The invention described in claim 1 is a projection device that projects a light image onto an object, and includes position information acquisition means for acquiring position related information related to a position where the object exists, and the position information acquisition means. Object information acquisition means for acquiring object information based on the acquired position-related information, and projection means for forming an optical image corresponding to the object information acquired by the object information acquisition means and projecting it to the outside It was characterized by comprising.

請求項2記載の発明は、上記請求項1記載の発明において、上記位置情報取得手段で取得した上記位置関連情報に基づいた上記対象物情報を要求する信号を送信する送信手段と、上記送信手段で送信した要求信号に対応して送られてくる対象物情報信号を受信する受信手段とをさらに備え、上記対象物情報取得手段は、上記受信手段で取得した上記対象物情報信号によって上記対象物情報を取得することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, a transmission unit that transmits a signal requesting the object information based on the position related information acquired by the position information acquisition unit, and the transmission unit Receiving means for receiving the object information signal transmitted in response to the request signal transmitted in step, wherein the object information acquiring means uses the object information signal acquired by the receiving means to receive the object information signal. It is characterized by acquiring information.

請求項3記載の発明は、上記請求項1または2記載の発明において、上記投影手段が投影する方向を撮影する撮影手段をさらに具備し、上記対象物情報取得手段は、上記位置関連情報とともに、上記撮影手段により撮影された情報に基づいて上記対象物情報を取得することを特徴とする。   The invention according to claim 3 further comprises photographing means for photographing the direction projected by the projecting means in the invention according to claim 1 or 2, wherein the object information acquiring means includes the position related information, The object information is obtained based on information photographed by the photographing means.

請求項4記載の発明は、上記請求項1乃至3の何れか記載の発明において、上記位置情報取得手段は、装置が存在する3次元空間中の位置及び上記投影手段が画像を投射する方向を上記位置関連情報として取得することを特徴とする。   According to a fourth aspect of the present invention, in the invention according to any one of the first to third aspects, the position information acquisition means determines a position in a three-dimensional space where the apparatus exists and a direction in which the projection means projects an image. It is acquired as the position related information.

請求項5記載の発明は、上記請求項1乃至4の何れか記載の発明において、上記位置情報取得手段は、装置の姿勢角度を上記位置関連情報として取得することを特徴とする。   According to a fifth aspect of the present invention, in the invention according to any one of the first to fourth aspects, the position information acquiring unit acquires an attitude angle of the apparatus as the position related information.

請求項6記載の発明は、上記請求項5記載の発明において、上記投影手段は、上記位置情報取得手段で取得した装置の姿勢角度に基づいて投影する光像の向き制御することを特徴とする。   The invention described in claim 6 is the invention described in claim 5, wherein the projection means controls the direction of the optical image to be projected based on the attitude angle of the apparatus acquired by the position information acquisition means. .

請求項7記載の発明は、上記請求項1乃至6の何れか記載の発明において、上記投影手段が画像を投影する方向の対象物までの距離を取得する距離取得手段をさらに具備し、上記位置情報取得手段は、上記距離取得手段により取得された距離情報を上記位置関連情報として取得することを特徴とする。   The invention according to claim 7 is the invention according to any one of claims 1 to 6, further comprising distance acquisition means for acquiring a distance to an object in a direction in which the projection means projects an image, The information acquisition means acquires the distance information acquired by the distance acquisition means as the position related information.

請求項8記載の発明は、上記請求項7記載の発明において、上記距離取得手段により取得された距離情報に応じて上記投影手段で投影する画像の画角を変更する投影制御手段をさらに具備したことを特徴とする。   The invention described in claim 8 is the invention described in claim 7, further comprising projection control means for changing the angle of view of the image projected by the projection means according to the distance information acquired by the distance acquisition means. It is characterized by that.

請求項9記載の発明は、上記請求項7または8記載の発明において、上記距離取得手段により取得された複数点までの距離によって算出された上記投影対象面の傾き角度に基づいて台形補正を施した上で光像を形成して外部に投射することを特徴とする。   According to a ninth aspect of the invention, in the seventh or eighth aspect of the invention, trapezoidal correction is performed based on the tilt angle of the projection target surface calculated from the distances to a plurality of points acquired by the distance acquisition means. Then, an optical image is formed and projected to the outside.

請求項10記載の発明は、上記請求項1乃至9の何れか記載の発明において、上記投影手段を用いて全面白色の画像を投影させる照明モードと、上記対象物情報取得手段で取得した対象物情報に応じた光像を投影する情報投影モードとを切換えるモード制御手段をさらに具備したことを特徴とする。   The invention according to claim 10 is the invention according to any one of claims 1 to 9, wherein the projection mode is used to project an entirely white image, and the object acquired by the object information acquisition unit. It further comprises mode control means for switching between information projection modes for projecting light images according to information.

100…懐中電灯型プロジェクタ、101…WANアンテナ、102…WANインタフェース(I/F)、103…投影画像駆動部、104…マイクロミラー素子、105…光源部、106…ミラー、107…投影レンズ部、108…撮影レンズ部、109…CMOSイメージセンサ、110…A/D変換器、111…撮影制御部、112…モータ(M)、113…CPU、114…メインメモリ、115…プログラムメモリ、116…キー操作部、117…モータ(M)、118…GPSレシーバ、119…3軸加速度センサ、120…地磁気センサ、121…GPSアンテナ、B21,B31…ビルディング、H21…店舗、I11〜I13,I21〜I23,I31〜I33,I41,I42,T51…情報画像、SB…システムバス、T41,T51…テント、US…ユーザ。   DESCRIPTION OF SYMBOLS 100 ... Flashlight type projector, 101 ... WAN antenna, 102 ... WAN interface (I / F), 103 ... Projection image drive part, 104 ... Micromirror element, 105 ... Light source part, 106 ... Mirror, 107 ... Projection lens part, DESCRIPTION OF SYMBOLS 108 ... Shooting lens part, 109 ... CMOS image sensor, 110 ... A / D converter, 111 ... Shooting control part, 112 ... Motor (M), 113 ... CPU, 114 ... Main memory, 115 ... Program memory, 116 ... Key Operation unit, 117 ... motor (M), 118 ... GPS receiver, 119 ... 3-axis acceleration sensor, 120 ... geomagnetic sensor, 121 ... GPS antenna, B21, B31 ... building, H21 ... store, I11-I13, I21-I23, I31 to I33, I41, I42, T51 ... Information image, SB ... System bus T41, T51 ... tent, US ... user.

Claims (10)

光像を対象物に投影する投影装置であって、
上記対象物が存在する位置に関連した位置関連情報を取得する位置情報取得手段と、
上記位置情報取得手段で取得した上記位置関連情報に基づいた対象物情報を取得する対象物情報取得手段と、
上記対象物情報取得手段で取得した上記対象物情報に応じた光像を形成して外部に投射する投影手段と
を具備したことを特徴とする画像投影装置。
A projection device that projects a light image onto an object,
Position information acquisition means for acquiring position related information related to the position where the object exists;
Object information acquisition means for acquiring object information based on the position related information acquired by the position information acquisition means;
An image projecting apparatus comprising: a projecting unit that forms an optical image according to the object information acquired by the object information acquiring unit and projects the light image to the outside.
上記位置情報取得手段で取得した上記位置関連情報に基づいた上記対象物情報を要求する信号を送信する送信手段と、
上記送信手段で送信した要求信号に対応して送られてくる対象物情報信号を受信する受信手段と
をさらに備え、
上記対象物情報取得手段は、上記受信手段で取得した上記対象物情報信号によって上記対象物情報を取得することを特徴とする請求項1記載の画像投影装置。
Transmitting means for transmitting a signal requesting the object information based on the position related information acquired by the position information acquiring means;
Receiving means for receiving the object information signal transmitted in response to the request signal transmitted by the transmitting means;
The image projection apparatus according to claim 1, wherein the object information acquisition unit acquires the object information based on the object information signal acquired by the reception unit.
上記投影手段が投影する方向を撮影する撮影手段をさらに具備し、
上記対象物情報取得手段は、上記位置関連情報とともに、上記撮影手段により撮影された情報に基づいて上記対象物情報を取得することを特徴とする請求項1または2記載の画像投影装置。
And further comprising a photographing means for photographing the direction projected by the projection means,
The image projection apparatus according to claim 1, wherein the object information acquisition unit acquires the object information based on information captured by the imaging unit together with the position related information.
上記位置情報取得手段は、装置が存在する3次元空間中の位置及び上記投影手段が画像を投射する方向を上記位置関連情報として取得することを特徴とする請求項1乃至3の何れか記載の画像投影装置。   The position information acquisition unit acquires the position in a three-dimensional space where the apparatus exists and the direction in which the projection unit projects an image as the position related information. Image projection device. 上記位置情報取得手段は、装置の姿勢角度を上記位置関連情報として取得することを特徴とする請求項1乃至4の何れか記載の画像投影装置。   The image projection apparatus according to claim 1, wherein the position information acquisition unit acquires an attitude angle of the apparatus as the position related information. 上記投影手段は、上記位置情報取得手段で取得した装置の姿勢角度に基づいて投影する光像の向き制御することを特徴とする請求項5記載の画像投影装置。   6. The image projection apparatus according to claim 5, wherein the projection unit controls the direction of the optical image to be projected based on the attitude angle of the apparatus acquired by the position information acquisition unit. 上記投影手段が画像を投影する方向の対象物までの距離を取得する距離取得手段をさらに具備し、
上記位置情報取得手段は、上記距離取得手段により取得された距離情報を上記位置関連情報として取得することを特徴とする請求項1乃至6の何れか記載の画像投影装置。
The projection means further comprises distance acquisition means for acquiring a distance to the object in the direction in which the image is projected,
The image projection apparatus according to claim 1, wherein the position information acquisition unit acquires the distance information acquired by the distance acquisition unit as the position related information.
上記距離取得手段により取得された距離情報に応じて上記投影手段で投影する画像の画角を変更する投影制御手段をさらに具備したことを特徴とする請求項7記載の画像投影装置。   8. The image projection apparatus according to claim 7, further comprising a projection control unit that changes an angle of view of an image projected by the projection unit according to the distance information acquired by the distance acquisition unit. 上記距離取得手段により取得された複数点までの距離によって算出された上記投影対象面の傾き角度に基づいて台形補正を施した上で光像を形成して外部に投射することを特徴とする請求項7または8記載の画像投影装置。   The optical image is formed and projected to the outside after performing keystone correction based on the tilt angle of the projection target surface calculated by the distance to a plurality of points acquired by the distance acquisition means. Item 9. The image projection device according to Item 7 or 8. 上記投影手段を用いて全面白色の画像を投影させる照明モードと、上記対象物情報取得手段で取得した対象物情報に応じた光像を投影する情報投影モードとを切換えるモード制御手段をさらに具備したことを特徴とする請求項1乃至9の何れか記載の画像投影装置。   It further comprises mode control means for switching between an illumination mode for projecting a white image on the whole surface using the projection means and an information projection mode for projecting a light image corresponding to the object information acquired by the object information acquisition means. The image projection apparatus according to claim 1, wherein the image projection apparatus is an image projection apparatus.
JP2011211375A 2011-09-27 2011-09-27 Image projecting apparatus Pending JP2013073386A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011211375A JP2013073386A (en) 2011-09-27 2011-09-27 Image projecting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011211375A JP2013073386A (en) 2011-09-27 2011-09-27 Image projecting apparatus

Publications (1)

Publication Number Publication Date
JP2013073386A true JP2013073386A (en) 2013-04-22

Family

ID=48477847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011211375A Pending JP2013073386A (en) 2011-09-27 2011-09-27 Image projecting apparatus

Country Status (1)

Country Link
JP (1) JP2013073386A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016066863A (en) * 2014-09-24 2016-04-28 ソフトバンク株式会社 Image providing system and program
WO2016125542A1 (en) * 2015-02-06 2016-08-11 シャープ株式会社 Projection control device, control program, and control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11308607A (en) * 1998-04-17 1999-11-05 Hitachi Ltd Display device
JP2004208089A (en) * 2002-12-26 2004-07-22 Casio Comput Co Ltd Projector, imaging device, and program for trapezoid correction
JP2009008905A (en) * 2007-06-28 2009-01-15 Ricoh Co Ltd Information display apparatus and information display system
JP2009180857A (en) * 2008-01-30 2009-08-13 Seiko Epson Corp Projector and portable apparatus with the same
JP2010230925A (en) * 2009-03-26 2010-10-14 Tamura Seisakusho Co Ltd Projection system, projection method, projection program, and projection vector operation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11308607A (en) * 1998-04-17 1999-11-05 Hitachi Ltd Display device
JP2004208089A (en) * 2002-12-26 2004-07-22 Casio Comput Co Ltd Projector, imaging device, and program for trapezoid correction
JP2009008905A (en) * 2007-06-28 2009-01-15 Ricoh Co Ltd Information display apparatus and information display system
JP2009180857A (en) * 2008-01-30 2009-08-13 Seiko Epson Corp Projector and portable apparatus with the same
JP2010230925A (en) * 2009-03-26 2010-10-14 Tamura Seisakusho Co Ltd Projection system, projection method, projection program, and projection vector operation device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016066863A (en) * 2014-09-24 2016-04-28 ソフトバンク株式会社 Image providing system and program
WO2016125542A1 (en) * 2015-02-06 2016-08-11 シャープ株式会社 Projection control device, control program, and control method
JPWO2016125542A1 (en) * 2015-02-06 2017-10-12 シャープ株式会社 Projection control apparatus, control program, and control method

Similar Documents

Publication Publication Date Title
RU2406232C2 (en) Method and device for locating moving object through communication using light from visible spectrum
CN105684532B (en) Location-based service providing system and method using smart device
JP5607759B2 (en) Image identification using trajectory-based location determination
CN102647449B (en) Based on the intelligent photographic method of cloud service, device and mobile terminal
JP4142460B2 (en) Motion detection device
CN108540542B (en) Mobile augmented reality system and display method
US20130253824A1 (en) Object guiding method, mobile viewing system and augmented reality system
CN111256701A (en) Equipment positioning method and system
US9374159B2 (en) Reception display apparatus, information transmission apparatus, optical wireless communication system, reception display integrated circuit, information transmission integrated circuit, reception display program, information transmission program, and optical wireless communication method
JP7043681B2 (en) Guidance method for autonomously movable devices using optical communication devices
US20190253635A1 (en) Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program and recording medium
CN103763470A (en) Portable scene shooting device
JP2016122277A (en) Content providing server, content display terminal, content providing system, content providing method, and content display program
WO2019189768A1 (en) Communication method, communication device, transmitter, and program
US11953919B2 (en) Device, method, and medium for vehicle position and communication rate
JP2013073386A (en) Image projecting apparatus
CN105783906A (en) Indoor positioning system
JP2012189467A (en) Positioning device, pace per step data correction method and program
CN110574365B (en) Image generation device and image generation method
KR102506263B1 (en) Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map
KR101195134B1 (en) Numerical map system offering omnidirectional incline image and offering method thereof
JP7478995B2 (en) Mobile terminal, navigation method, and computer program
JP5670092B2 (en) Topographic display system, portable terminal, topographic display method and program
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
CN112292876B (en) Apparatus, method and computer program for facilitating tuning of an antenna

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150715

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150804