JP5646918B2 - Portable electronic device and method of using portable electronic device - Google Patents

Portable electronic device and method of using portable electronic device Download PDF

Info

Publication number
JP5646918B2
JP5646918B2 JP2010191459A JP2010191459A JP5646918B2 JP 5646918 B2 JP5646918 B2 JP 5646918B2 JP 2010191459 A JP2010191459 A JP 2010191459A JP 2010191459 A JP2010191459 A JP 2010191459A JP 5646918 B2 JP5646918 B2 JP 5646918B2
Authority
JP
Japan
Prior art keywords
image
map
electronic device
unit
portable electronic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010191459A
Other languages
Japanese (ja)
Other versions
JP2012049927A (en
Inventor
上野 泰弘
泰弘 上野
茂輝 田辺
茂輝 田辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010191459A priority Critical patent/JP5646918B2/en
Priority to PCT/JP2011/068796 priority patent/WO2012026406A1/en
Priority to US13/819,649 priority patent/US9552657B2/en
Publication of JP2012049927A publication Critical patent/JP2012049927A/en
Application granted granted Critical
Publication of JP5646918B2 publication Critical patent/JP5646918B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像を表示する機能を備える携帯電子機器及び携帯電子機器の使用方法に関する。   The present invention relates to a portable electronic device having a function of displaying an image and a method of using the portable electronic device.

従来、壁面やスクリーンに画像を投影する装置としては、いわゆるプロジェクタがある。このプロジェクタは、商用電源から電力が供給され、所定位置に固定した状態で使用される、いわゆる据え置き型の装置が主流である。この据え置き型のプロジェクタは、固定した状態で、一定箇所の壁面やスクリーンに画像を投影させる。   Conventionally, as a device for projecting an image on a wall surface or a screen, there is a so-called projector. This projector is mainly a so-called stationary apparatus that is supplied with power from a commercial power source and is used in a fixed state. This stationary projector projects an image on a fixed wall or screen in a fixed state.

これに対して、近年、プロジェクタとして、小型で持ち運びが容易な携帯型のプロジェクタが提案されている。例えば、特許文献1には、上キャビネットと、下キャビネットと、上キャビネット及び下キャビネットを互いに回動可能に接続するヒンジ部とを備え、レンズと光源とを有するプロジェクタが搭載されたプロジェクタ機能付携帯端末が記載されている。また、携帯電子機器としては、ディスプレイ等の表示部に画像を表示させる携帯電子機器もある。   In contrast, in recent years, portable projectors that are small and easy to carry have been proposed. For example, Patent Document 1 includes a projector-equipped mobile phone that includes an upper cabinet, a lower cabinet, and a hinge portion that rotatably connects the upper cabinet and the lower cabinet to each other, and is equipped with a projector having a lens and a light source. The terminal is listed. Moreover, as a portable electronic device, there is a portable electronic device that displays an image on a display unit such as a display.

特開2007−96542号公報JP 2007-96542 A

ここで、携帯電子機器では、地図を表示させる場合がある。しかしながら、携帯電子機器の表示部に単に地図を表示させるだけでは、地図を十分に活用することができない。   Here, in a portable electronic device, a map may be displayed. However, the map cannot be fully utilized simply by displaying the map on the display unit of the portable electronic device.

本発明は、簡単により有効性の高い地図画像を適切に表示させることができる携帯電子機器及び携帯電子機器の使用方法を提供することを目的とする。   An object of this invention is to provide the portable electronic device which can display a map image with high effectiveness simply more appropriately, and the usage method of a portable electronic device.

上述した課題を解決し、目的を達成するために、本発明に係る携帯電子機器は、筐体と、撮影により地図画像を取得する撮影部と、前記撮影部で取得した地図画像に含まれる情報に基づいて、前記地図画像に対応する特定画像の情報を取得する処理部と、前記筐体に設けられて、投影領域内に前記特定画像を投影する画像投影部と、含むことを特徴とする。   In order to solve the above-described problems and achieve the object, a portable electronic device according to the present invention includes a housing, a photographing unit that obtains a map image by photographing, and information included in the map image obtained by the photographing unit. And a processing unit that acquires information of a specific image corresponding to the map image, and an image projection unit that is provided in the housing and projects the specific image in a projection region. .

ここで、前記処理部は、前記特定画像として、前記地図画像に足しあわせ可能な画像を取得し、前記特定画像を前記画像投影部から投影させることが好ましい。   Here, it is preferable that the processing unit obtains an image that can be added to the map image as the specific image, and causes the image projection unit to project the specific image.

また、前記筐体に設けられて、画像を表示する表示部をさらに有し、前記処理部は、前記特定画像として、前記地図画像に足しあわせ可能な画像を取得し、前記特定画像と、前記撮影部で撮影した地図画像とを足しあわせて、前記表示部に表示させることが好ましい。   In addition, the housing further includes a display unit that displays an image, and the processing unit acquires an image that can be added to the map image as the specific image, and the specific image, It is preferable that the map image captured by the imaging unit is added and displayed on the display unit.

また、前記特定画像は、前記地図画像と基準となる地図のデータとを基に、前記地図画像の位置情報と前記基準となる地図のデータの位置情報とを対応付け、前記基準となる地図のデータに含まれる情報を前記地図画像の座標に対応付けて作成した画像を含むことが好ましい。   The specific image associates the position information of the map image and the position information of the reference map data based on the map image and the reference map data, and It is preferable to include an image created by associating information included in the data with the coordinates of the map image.

また、前記特定画像は、前記基準となる地図のデータ上の座標を、前記地図画像の座標に対応付けて変換することにより得られた画像を含むことが好ましい。   Moreover, it is preferable that the specific image includes an image obtained by converting the coordinates on the reference map data in association with the coordinates of the map image.

また、自身の位置情報を取得する位置情報取得部をさらに有し、前記処理部は、前記地図情報と前記位置情報取得部で取得した自身の位置情報とに基づいて、前記地図画像と比較する前記基準となる地図のデータの範囲を決定することが好ましい。   Moreover, it has a position information acquisition part which acquires own position information, and the said process part compares with the said map image based on the said map information and the own position information acquired by the said position information acquisition part. It is preferable to determine a range of map data serving as the reference.

また、前記処理部は、前記地図画像を解析して、地図画像に含まれる各要素から絶対位置を特定し、特定した絶対位置から対応する特定画像を取得することが好ましい。   Moreover, it is preferable that the said process part analyzes the said map image, specifies an absolute position from each element contained in a map image, and acquires the specific image corresponding from the specified absolute position.

また、他の通信機器と通信する通信部をさらに有し、前記処理部は、前記地図画像を前記通信部から他の通信機器に出力し、前記他の通信機器から、特定画像を取得することが好ましい。   The communication unit further includes a communication unit that communicates with another communication device, and the processing unit outputs the map image from the communication unit to another communication device, and acquires a specific image from the other communication device. Is preferred.

また、他の通信機器と通信する通信部をさらに有し、前記処理部は、前記地図画像を解析して、地図画像に含まれる各要素の絶対位置を特定し、特定した絶対位置の情報を前記通信部から他の通信機器に出力し、前記他の通信機器から、特定画像を取得することが好ましい。   The communication unit further includes a communication unit that communicates with another communication device, the processing unit analyzes the map image, specifies an absolute position of each element included in the map image, and stores information on the specified absolute position. It is preferable that the communication unit outputs the image to another communication device and acquires a specific image from the other communication device.

上述した課題を解決し、目的を達成するために、本発明は、上記のいずれかに記載の携帯電子機器の使用方法であって、前記撮影部の撮影領域内に配置された地図を撮影することにより地図画像を得て、当該地図画像に基づいて、前記地図画像に対応する特定画像の情報を取得して、前記取得した特定画像を画像投影部により投影することを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a method of using the portable electronic device according to any one of the above, and captures a map arranged in a capturing area of the capturing unit. Thus, a map image is obtained, information on a specific image corresponding to the map image is acquired based on the map image, and the acquired specific image is projected by an image projection unit.

ここで、前記撮影領域内に前記地図を配置して、前記画像投影部により前記特定画像を投影する際に、前記地図の位置を前記撮影部により確認して、前記地図と前記特定画像とが足しあわされるように投影位置を補正しながら、前記特定画像を投影することが好ましい。   Here, when the map is arranged in the shooting area and the specific image is projected by the image projection unit, the position of the map is confirmed by the shooting unit, and the map and the specific image are It is preferable to project the specific image while correcting the projection position so as to be added.

上述した課題を解決し、目的を達成するために、本発明に係る携帯電子機器は、筐体と、撮影により地図画像を取得する撮影部と、前記撮影部で取得した地図画像に含まれる情報に基づいて、前記地図画像に対応する特定画像の情報を取得する処理部と、前記地図画像及び前記特定画像を表示する表示部と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, a portable electronic device according to the present invention includes a housing, a photographing unit that obtains a map image by photographing, and information included in the map image obtained by the photographing unit. And a display unit that displays information on the specific image corresponding to the map image and a display unit that displays the map image and the specific image.

ここで、前記表示部は、前記地図画像と、前記特定画像とを足しあわせて表示することが好ましい。   Here, it is preferable that the display unit displays the map image and the specific image together.

本発明の携帯電子機器及び携帯電子機器の使用方法は、簡単により有効性の高い地図画像を適切に表示させることができるという効果を奏する。   INDUSTRIAL APPLICABILITY The portable electronic device and the method of using the portable electronic device according to the present invention have an effect that a map image with higher effectiveness can be appropriately displayed.

図1は、実施形態に係る携帯電子機器を備える通信システムの概略構成を示す模式図である。FIG. 1 is a schematic diagram illustrating a schematic configuration of a communication system including the portable electronic device according to the embodiment. 図2は、実施形態に係る携帯電子機器の一実施形態の概略構成を示す正面図である。FIG. 2 is a front view illustrating a schematic configuration of one embodiment of the portable electronic device according to the embodiment. 図3は、図2に示す携帯電子機器の側面図である。FIG. 3 is a side view of the portable electronic device shown in FIG. 図4は、図2、図3に示す携帯電子機器の機能の概略構成を示すブロック図である。FIG. 4 is a block diagram illustrating a schematic configuration of functions of the portable electronic device illustrated in FIGS. 2 and 3. 図5は、図2に示す携帯電子機器のプロジェクタで画像を表示させている状態を示す説明図である。FIG. 5 is an explanatory diagram showing a state in which an image is displayed by the projector of the portable electronic device shown in FIG. 図6は、地図の一例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of a map. 図7は、地図上に投影する画像の一例を示す模式図である。FIG. 7 is a schematic diagram illustrating an example of an image projected on a map. 図8は、携帯電子機器のプロジェクタで画像を表示させている状態の一例を示す説明図である。FIG. 8 is an explanatory diagram illustrating an example of a state in which an image is displayed by the projector of the portable electronic device. 図9は、携帯電子機器の動作の一例を説明するためのフロー図である。FIG. 9 is a flowchart for explaining an example of the operation of the mobile electronic device. 図10は、携帯電子機器の動作を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining the operation of the portable electronic device. 図11は、携帯電子機器の動作を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining the operation of the mobile electronic device. 図12は、携帯電子機器の動作を説明するための説明図である。FIG. 12 is an explanatory diagram for explaining the operation of the mobile electronic device. 図13は、携帯電子機器の動作を説明するための説明図である。FIG. 13 is an explanatory diagram for explaining the operation of the mobile electronic device. 図14は、携帯電子機器の動作を説明するための説明図である。FIG. 14 is an explanatory diagram for explaining the operation of the mobile electronic device. 図15は、携帯電子機器の動作を説明するための説明図である。FIG. 15 is an explanatory diagram for explaining the operation of the mobile electronic device. 図16は、携帯電子機器の動作を説明するための説明図である。FIG. 16 is an explanatory diagram for explaining the operation of the mobile electronic device. 図17は、携帯電子機器の動作を説明するための説明図である。FIG. 17 is an explanatory diagram for explaining the operation of the mobile electronic device. 図18は、携帯電子機器の動作の他の例を説明するための説明図である。FIG. 18 is an explanatory diagram for explaining another example of the operation of the mobile electronic device. 図19は、携帯電子機器の動作の他の例を説明するための説明図である。FIG. 19 is an explanatory diagram for explaining another example of the operation of the mobile electronic device. 図20は、携帯電子機器の動作の他の例を説明するための説明図である。FIG. 20 is an explanatory diagram for explaining another example of the operation of the mobile electronic device. 図21は、携帯電子機器の動作の他の例を説明するための説明図である。FIG. 21 is an explanatory diagram for explaining another example of the operation of the mobile electronic device. 図22は、ディスプレイに表示される画面の一例を説明するための説明図である。FIG. 22 is an explanatory diagram for explaining an example of a screen displayed on the display. 図23は、ディスプレイに表示される画面の他の例を説明するための説明図である。FIG. 23 is an explanatory diagram for explaining another example of a screen displayed on the display.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、携帯電子機器の一例として携帯電話機を取り上げるが、本発明の適用対象は携帯電話機に限定されるものではなく、例えば、PHS(Personal Handy-phone System)、PDA、ポータブルナビゲーション装置、ノートパソコン、ゲーム機等に対しても本発明は適用できる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a cellular phone is taken as an example of a portable electronic device, but the application target of the present invention is not limited to a cellular phone. For example, a PHS (Personal Handy-phone System), a PDA, a portable navigation device, a notebook The present invention can also be applied to personal computers, game machines, and the like.

図1は、実施形態に係る携帯電子機器を備える通信システムの概略構成を示す模式図である。図1に示す通信システム1は、サーバ2と、インターネット通信網3と、データベース4と、サーバ5と、無線通信装置6と、GPS衛星7と、携帯電子機器10とを有する。なお、通信システム1を構成する各部の数は、特に限定されず、各部ともに複数の装置を備えていてもよい。例えば、携帯電子機器10は、1つのサーバ2に対して複数設けられていてもよい。   FIG. 1 is a schematic diagram illustrating a schematic configuration of a communication system including the portable electronic device according to the embodiment. A communication system 1 shown in FIG. 1 includes a server 2, an Internet communication network 3, a database 4, a server 5, a wireless communication device 6, a GPS satellite 7, and a portable electronic device 10. In addition, the number of each part which comprises the communication system 1 is not specifically limited, Each part may be provided with the some apparatus. For example, a plurality of portable electronic devices 10 may be provided for one server 2.

サーバ2は、各通信装置を特定する情報(電話番号、アドレス)等の種々のデータを有し、通信網を介して携帯電子機器10と通信し、種々の情報を供給する。なお、サーバ2と携帯電子機器10は、基地局、中継局で形成され、無線で通信波を送受信する通信網により、通信を行う。また、通信網は、サーバ2と携帯電子機器10との間で通信を行うことができれば、種々の通信方法を用いることができる。例えば、衛星回線を利用して通信を行ってもよい。   The server 2 has various data such as information (telephone number and address) specifying each communication device, and communicates with the portable electronic device 10 via the communication network to supply various information. The server 2 and the portable electronic device 10 are formed by a base station and a relay station, and communicate via a communication network that transmits and receives communication waves wirelessly. In addition, the communication network can use various communication methods as long as communication can be performed between the server 2 and the portable electronic device 10. For example, communication may be performed using a satellite line.

また、サーバ2は、携帯電子機器10から情報を受信し、その情報に基づいて、インターネット通信網3を介して、他の通信装置に情報を通信する、情報の中継も行う。つまり、サーバ2は、各通信装置から送られてくる情報を集約して記憶し、集約した情報を必要に応じて通信装置に供給(提供)する。なお、サーバ2は、集約した情報を加工(処理)して通信装置に供給することもできる。   The server 2 also receives information from the portable electronic device 10 and relays information based on the information to communicate information to other communication devices via the Internet communication network 3. That is, the server 2 collects and stores information sent from each communication device, and supplies (provides) the collected information to the communication device as necessary. The server 2 can also process (process) the collected information and supply it to the communication device.

インターネット通信網(以下「インターネット」ともいう。)3は、交換機や、有線・無線の通信回線で構成されている。インターネット通信網3は、有線、無線の通信回線を用いて通信装置と他の通信装置との間での情報通信を行う。具体的には、インターネット3は、サーバ2とサーバ5との間での情報通信や、サーバ2とデータベース4との間での情報通信を行う。   The Internet communication network (hereinafter also referred to as “Internet”) 3 includes an exchange and a wired / wireless communication line. The Internet communication network 3 performs information communication between a communication device and another communication device using a wired or wireless communication line. Specifically, the Internet 3 performs information communication between the server 2 and the server 5 and information communication between the server 2 and the database 4.

データベース4は、記憶装置であり、地図情報、画像加工情報等、携帯電子機器10での処理に必要な種々のデータを記憶している。データベース4は、インターネット3を介して、記憶している各種情報をサーバ2またはサーバ5に供給する。   The database 4 is a storage device and stores various data necessary for processing in the portable electronic device 10 such as map information and image processing information. The database 4 supplies various stored information to the server 2 or the server 5 via the Internet 3.

サーバ5は、無線通信装置6を介して携帯電子機器10と通信し、種々の情報を受信し、供給する。なお、サーバ5は、携帯電子機器10との通信方法が異なるのみで、他の構成は、基本的にサーバ2と同様である。   The server 5 communicates with the portable electronic device 10 via the wireless communication device 6 to receive and supply various information. Note that the server 5 differs only in the communication method with the portable electronic device 10, and other configurations are basically the same as those of the server 2.

無線通信装置6は、携帯電子機器10と直接無線通信を行う通信機器である。無線通信装置6としては、例えば、近距離無線通信技術を用いて、他の通信装置と通信を行う通信部を用いることができる。なお、近距離無線通信技術としては、赤外線通信(IrDA(登録商標)、IrMC(登録商標)、IrSimple(登録商標))や、可視光通信や、Bluetooth(登録商標)や、磁界通信(RFID、Radio Frequency Identification)技術を用いることができる。   The wireless communication device 6 is a communication device that performs direct wireless communication with the portable electronic device 10. As the wireless communication device 6, for example, a communication unit that communicates with another communication device using a short-range wireless communication technology can be used. As short-range wireless communication technologies, infrared communication (IrDA (registered trademark), IrMC (registered trademark), IrSimple (registered trademark)), visible light communication, Bluetooth (registered trademark), magnetic field communication (RFID, Radio Frequency Identification) technology can be used.

GPS衛星7は、GPS(Global Positioning System、全地球測位システム)の通信機能を備える通信装置(通信端末、通信機器)に、該通信機器の位置情報を送信(提供)する衛星である。なお、図1でGPS衛星7を1つのみ示したが、GPS衛星7は、通信装置の位置を特定するために必要な数(主として3つ、4つ)が配置されている。複数のGPS衛星7は、それぞれ携帯電子機器10に位置情報を送信する。   The GPS satellite 7 is a satellite that transmits (provides) position information of the communication device to a communication device (communication terminal, communication device) having a GPS (Global Positioning System) communication function. Although only one GPS satellite 7 is shown in FIG. 1, the GPS satellites 7 are arranged in a number (mainly three or four) necessary for specifying the position of the communication device. Each of the plurality of GPS satellites 7 transmits position information to the mobile electronic device 10.

携帯電子機器10は、画像を撮影する機能及び画像を表示する機能を備える携帯通信機器である。携帯電子機器10は、撮影対象である地図9の画像を取得し、取得した地図9の画像に基づいて処理を行い、生成した画像を表示させる。なお、表示方法としては、表示部に表示させる方法と、画像を投影する方法がある。以下、携帯電子機器10について、詳細に説明する。   The portable electronic device 10 is a portable communication device having a function of capturing an image and a function of displaying an image. The portable electronic device 10 acquires an image of the map 9 that is a photographing target, performs processing based on the acquired image of the map 9, and displays the generated image. As a display method, there are a method of displaying on a display unit and a method of projecting an image. Hereinafter, the portable electronic device 10 will be described in detail.

図2は、実施形態に係る携帯電子機器の一実施形態の概略構成を示す正面図であり、図3は、図2に示す携帯電子機器の側面図である。図2、図3に示す携帯電子機器10は、無線通信機能と、出力手段と、音声取得手段と、撮像手段とを有する携帯電話機である。携帯電子機器10は、筺体10Cが複数の筐体で構成される。具体的には、筺体10Cは、第1筺体10CAと第2筺体10CBとで開閉可能に構成される。すなわち、携帯電子機器10は、折り畳み式の筐体を有する。なお、携帯電子機器10の筐体は、このような構造に限定されるものではない。例えば、携帯電子機器10の筐体は、両方の筐体を重ね合わせた状態から一方の筐体と他方の筐体とを互いにスライドできるようにしたスライド式の筐体であってもよいし、重ね合わせ方向に沿う軸線を中心に、一方の筐体を回転させるようにした回転式や、2軸ヒンジを介して両方の筐体を連結したものでもよい。   FIG. 2 is a front view showing a schematic configuration of one embodiment of the portable electronic device according to the embodiment, and FIG. 3 is a side view of the portable electronic device shown in FIG. A portable electronic device 10 shown in FIGS. 2 and 3 is a mobile phone having a wireless communication function, an output unit, a voice acquisition unit, and an imaging unit. The portable electronic device 10 includes a housing 10C that includes a plurality of housings. Specifically, the housing 10C is configured to be openable and closable by a first housing 10CA and a second housing 10CB. That is, the portable electronic device 10 has a foldable housing. In addition, the housing | casing of the portable electronic device 10 is not limited to such a structure. For example, the housing of the mobile electronic device 10 may be a sliding housing that allows one housing and the other housing to slide from each other in a state in which both housings are overlapped, It may be a rotary type in which one casing is rotated around an axis along the overlapping direction, or both casings are connected via a biaxial hinge.

第1筺体10CAと第2筺体10CBとは、連結部であるヒンジ機構18で連結されている。ヒンジ機構18で第1筺体10CAと第2筺体10CBとを連結することにより、第1筺体10CA及び第2筺体10CBは、ヒンジ機構18を中心としてともに回動して、互いに遠ざかる方向及び互いに接近する方向(図3の矢印Rで示す方向)に回動できるように構成される。第1筺体10CAと第2筺体10CBとが互いに遠ざかる方向に回動すると携帯電子機器10が開き、第1筺体10CAと第2筺体10CBとが互いに接近する方向に回動すると携帯電子機器10が閉じて、折り畳まれた状態となる(図3の点線で示す状態)。   1st housing 10CA and 2nd housing 10CB are connected by the hinge mechanism 18 which is a connection part. By connecting the first housing 10CA and the second housing 10CB with the hinge mechanism 18, the first housing 10CA and the second housing 10CB rotate together around the hinge mechanism 18 and move away from each other and approach each other. It is comprised so that it can rotate to a direction (direction shown by arrow R of FIG. 3). When the first housing 10CA and the second housing 10CB rotate in a direction away from each other, the portable electronic device 10 opens, and when the first housing 10CA and the second housing 10CB rotate in a direction approaching each other, the portable electronic device 10 closes. Thus, it is in a folded state (a state indicated by a dotted line in FIG. 3).

第1筺体10CAには、表示部として、図2に示すディスプレイ12が設けられる。ディスプレイ12は、携帯電子機器10が受信を待機している状態のときに待ち受け画像を表示したり、携帯電子機器10の操作を補助するために用いられるメニュー画像を表示したりする。また、第1筺体10CAには、携帯電子機器10の通話時に音声を出力する出力手段であるレシーバ16が設けられる。   The first casing 10CA is provided with a display 12 shown in FIG. 2 as a display unit. The display 12 displays a standby image when the portable electronic device 10 is waiting for reception, or displays a menu image used to assist the operation of the portable electronic device 10. In addition, the first housing 10CA is provided with a receiver 16 that is an output unit that outputs sound during a call of the mobile electronic device 10.

第2筺体10CBには、通話相手の電話番号や、メール作成時等に文字を入力するための操作キー13Aが複数設けられ、また、ディスプレイ12に表示されるメニューの選択及び決定や画面のスクロール等を容易に実行するための方向キー及び決定キー(方向及び決定キー)13Bが設けられる。操作キー13A及び方向キー及び決定キー13Bは、携帯電子機器10の操作部13を構成する。また、第2筺体10CBには、携帯電子機器10の通話時に音声を受け取る音声取得手段であるマイク15が設けられる。操作部13は、図3に示す、第2筺体10CBの操作面10PCに設けられる。操作面10PCとは反対側の面が、携帯電子機器10の背面10PBである。   The second chassis 10CB is provided with a plurality of operation keys 13A for inputting characters at the time of creating a mail, for example, the telephone number of the other party, and selecting and determining menus displayed on the display 12 and scrolling the screen. For example, a direction key and a determination key (direction and determination key) 13B are provided for easily executing the above processing. The operation key 13 </ b> A, the direction key, and the determination key 13 </ b> B constitute the operation unit 13 of the mobile electronic device 10. In addition, the second casing 10CB is provided with a microphone 15 that is a voice acquisition unit that receives voice during a call of the portable electronic device 10. The operation unit 13 is provided on the operation surface 10PC of the second casing 10CB shown in FIG. The surface opposite to the operation surface 10PC is the back surface 10PB of the portable electronic device 10.

第2筺体10CBの内部には、アンテナが設けられている。アンテナは、無線通信に用いる送受信アンテナであり、携帯電子機器10と基地局との間で通話や電子メール等に係る電波(電磁波)の送受信に用いられる。また、第2筺体10CBには、マイク15が設けられる。マイク15は、図3に示す、携帯電子機器10の操作面10PC側に配置される。   An antenna is provided inside the second housing 10CB. The antenna is a transmission / reception antenna used for wireless communication, and is used for transmission / reception of radio waves (electromagnetic waves) related to calls, electronic mails, and the like between the portable electronic device 10 and a base station. The second casing 10CB is provided with a microphone 15. The microphone 15 is disposed on the operation surface 10PC side of the portable electronic device 10 shown in FIG.

第1筺体10CAのヒンジ機構18とは反対側には、画像投影部であるプロジェクタ34、及び、画像が投影される面の画像を撮影(取得)するカメラ40が設けられる。なお、プロジェクタ34の光出射部、カメラ40の撮影窓は、第1筺体10CAの外部に露出している。このような構成により、プロジェクタ34によって画像を投影対象物に投影することができる。また、カメラ40により画像を投影する領域の画像との距離を取得することで、プロジェクタ34が投影する画像の焦点を自動的に合わせたりすることができる。なお、カメラ40により画像を投影する領域の画像を取得することで、投影する画像の大きさ、焦点距離を調整することもできる。   On the side opposite to the hinge mechanism 18 of the first casing 10CA, a projector 34 that is an image projection unit and a camera 40 that captures (acquires) an image of a surface on which the image is projected are provided. Note that the light emitting portion of the projector 34 and the photographing window of the camera 40 are exposed to the outside of the first housing 10CA. With such a configuration, the projector 34 can project an image onto the projection target. Further, by acquiring the distance from the image of the area where the image is projected by the camera 40, the image projected by the projector 34 can be automatically focused. Note that the size and focal length of the image to be projected can be adjusted by acquiring an image of the area where the image is projected by the camera 40.

図4は、図2、図3に示す携帯電子機器の機能の概略構成を示すブロック図である。図4に示すように、携帯電子機器10は、処理部22と、記憶部24と、外部記憶部25と、送受信部26と、操作部13と、音声処理部30と、表示部32と、プロジェクタ34と、近距離通信部36と、カメラ40と、を有する。処理部22は、携帯電子機器10の全体的な動作を統括的に制御する機能を有する。すなわち、処理部22は、携帯電子機器10の各種の処理が、操作部13の操作や携帯電子機器10の記憶部24に記憶されるソフトウェアに応じて適切な手順で実行されるように、送受信部26や、音声処理部30や、表示部32、近距離通信部36、位置情報取得部42等の動作を制御する。   FIG. 4 is a block diagram illustrating a schematic configuration of functions of the portable electronic device illustrated in FIGS. 2 and 3. As shown in FIG. 4, the mobile electronic device 10 includes a processing unit 22, a storage unit 24, an external storage unit 25, a transmission / reception unit 26, an operation unit 13, an audio processing unit 30, a display unit 32, A projector 34, a short-range communication unit 36, and a camera 40 are included. The processing unit 22 has a function of comprehensively controlling the overall operation of the mobile electronic device 10. In other words, the processing unit 22 transmits and receives various processes of the mobile electronic device 10 so as to be executed in an appropriate procedure according to the operation of the operation unit 13 and the software stored in the storage unit 24 of the mobile electronic device 10. The operations of the unit 26, the voice processing unit 30, the display unit 32, the short-range communication unit 36, the position information acquisition unit 42, and the like are controlled.

携帯電子機器10の各種の処理としては、例えば、回線交換網を介して行われる音声通話、電子メールの作成及び送受信、インターネットのWeb(World Wide Web)サイトの閲覧等がある。また、送受信部26、音声処理部30、表示部32等の動作としては、例えば、送受信部26による信号の送受信、音声処理部30による音声の入出力、表示部32による画像の表示等がある。   Various processes of the portable electronic device 10 include, for example, a voice call performed via a circuit switching network, creation and transmission / reception of an electronic mail, browsing of an Internet Web (World Wide Web) site, and the like. Examples of operations of the transmission / reception unit 26, the audio processing unit 30, and the display unit 32 include transmission / reception of signals by the transmission / reception unit 26, input / output of audio by the audio processing unit 30, display of images by the display unit 32, and the like. .

処理部22は、記憶部24に記憶されているプログラム(例えば、オペレーティングシステムプログラム、アプリケーションプログラム等)に基づいて処理を実行する。処理部22は、例えば、マイクロプロセッサユニット(MPU:Micro Processing Unit)で構成され、ソフトウェアで指示された手順にしたがって上述した携帯電子機器10の各種の処理を実行する。すなわち、処理部22は、記憶部24に記憶されるオペレーティングシステムプログラムやアプリケーションプログラム等から命令コードを順次読み込んで処理を実行する。   The processing unit 22 executes processing based on a program (for example, an operating system program, application program, etc.) stored in the storage unit 24. The processing unit 22 is configured by, for example, a microprocessor unit (MPU: Micro Processing Unit), and executes various processes of the above-described portable electronic device 10 according to procedures instructed by software. That is, the processing unit 22 sequentially reads instruction codes from an operating system program, application program, or the like stored in the storage unit 24 and executes processing.

処理部22は、複数のアプリケーションプログラムを実行する機能を有する。処理部22が実行するアプリケーションプログラムとしては、例えば、プロジェクタ34やカメラ40の駆動を制御するアプリケーションプログラムや、各種の画像ファイル(画像情報)を記憶部24から読み出してデコードするアプリケーションプログラム、及びデコードして得られる画像を表示部32に表示させたりプロジェクタ34に投影させたりするアプリケーションプログラム等の複数のアプリケーションプログラムがある。   The processing unit 22 has a function of executing a plurality of application programs. Examples of application programs executed by the processing unit 22 include an application program that controls driving of the projector 34 and the camera 40, an application program that reads and decodes various image files (image information) from the storage unit 24, and decoding. There are a plurality of application programs such as an application program for displaying the image obtained in this way on the display unit 32 or projecting it on the projector 34.

本実施形態において、処理部22は、プロジェクタ34の動作を制御するプロジェクタ制御部22a、カメラ40の動作を制御するカメラ制御部22b、カメラ40で取得した画像や、操作部13からの入力に基づいて投影領域の条件を判定する条件判定部22c、投影面に対する筺体10Cの姿勢、位置を演算して算出する姿勢・位置演算部22d、表示部32に表示させる画像や、プロジェクタ34に表示させる画像を加工し、生成する画像処理部22e、を有する。プロジェクタ制御部22a、カメラ制御部22b、条件判定部22c、姿勢・位置演算部22d、画像処理部22eがそれぞれ有する機能は、処理部22及び記憶部24で構成されるハードウェア資源が、処理部22の制御部が割り当てるタスクを実行することにより実現される。ここで、タスクとは、アプリケーションソフトウェアが行っている処理全体、又は同じアプリケーションソフトウェアが行っている処理のうち、同時に実行できない処理単位である。   In the present embodiment, the processing unit 22 is based on a projector control unit 22 a that controls the operation of the projector 34, a camera control unit 22 b that controls the operation of the camera 40, an image acquired by the camera 40, and an input from the operation unit 13. A condition determination unit 22c that determines the conditions of the projection region, an attitude / position calculation unit 22d that calculates and calculates the posture and position of the housing 10C with respect to the projection plane, an image displayed on the display unit 32, and an image displayed on the projector 34 An image processing unit 22e for processing and generating the image. The projector control unit 22a, the camera control unit 22b, the condition determination unit 22c, the posture / position calculation unit 22d, and the image processing unit 22e each have a hardware resource constituted by the processing unit 22 and the storage unit 24. This is realized by executing a task assigned by 22 control units. Here, a task is a processing unit that cannot be executed at the same time among the entire processing performed by the application software or the processing performed by the same application software.

記憶部24には、処理部22での処理に利用されるソフトウェアやデータが記憶されており、上述した、プロジェクタ34やカメラ40の駆動を制御するアプリケーションプログラムを作動させるタスクや、画像処理用プログラムを作動させるタスクが記憶されている。また、記憶部24には、これらのタスク以外にも、例えば、通信、ダウンロードされた音声データ、あるいは記憶部24に対する制御に処理部22が用いるソフトウェア、通信相手の電話番号やメールアドレス等が記述されて管理するアドレス帳、発信音や着信音等の音声ファイル、ソフトウェアの処理過程で用いられる一時的なデータ等が記憶されている。   The storage unit 24 stores software and data used for processing in the processing unit 22, and includes a task for operating the application program for controlling the driving of the projector 34 and the camera 40, and an image processing program. The task for operating is stored. In addition to these tasks, for example, communication, downloaded voice data, software used by the processing unit 22 to control the storage unit 24, the telephone number or mail address of the communication partner, etc. are described in the storage unit 24. The address book to be managed, voice files such as dial tone and ring tone, temporary data used in the process of software, and the like are stored.

なお、ソフトウェアの処理過程で用いられるコンピュータプログラムや一時的なデータは、処理部22によって記憶部24に割り当てられた作業領域へ一時的に記憶される。記憶部24は、例えば、不揮発性の記憶デバイス(ROM:Read Only Memory等の不揮発性半導体メモリ、ハードディスク装置等)や、読み書き可能な記憶デバイス(例えば、SRAM:Static Random Access Memory、DRAM:Dynamic Random Access Memory)等で構成される。   Note that computer programs and temporary data used in the software processing process are temporarily stored in the work area assigned to the storage unit 24 by the processing unit 22. The storage unit 24 includes, for example, a nonvolatile storage device (nonvolatile semiconductor memory such as ROM: Read Only Memory, a hard disk device, etc.), and a readable / writable storage device (for example, SRAM: Static Random Access Memory, DRAM: Dynamic Random Access Memory).

外部記憶部25は、外部メモリと、接続端子で構成され、外部メモリが筺体10Cに対して着脱可能な記憶装置である。外部メモリには、記憶部24と同様に各種ソフトウェアやデータが記憶されている。外部記憶部25は、接続端子を介して外部メモリと処理部22とを接続させることで、記憶部24と同様に、外部メモリに対して、情報の書き込み、読み取りを行う。なお、外部記憶部25は、外部メモリが着脱可能であるため、処理部22に接続する外部メモリを交換することができる。なお、外部メモリとしては、SDカード(登録商標)、メモリースティック(登録商標)、スマートメディア、USBメモリ等の各種記憶媒体を用いることができる。   The external storage unit 25 is a storage device that includes an external memory and connection terminals, and the external memory is detachable from the housing 10C. Various software and data are stored in the external memory in the same manner as the storage unit 24. The external storage unit 25 connects the external memory and the processing unit 22 via a connection terminal, and writes and reads information to and from the external memory, similarly to the storage unit 24. In addition, since the external memory is detachable from the external storage unit 25, the external memory connected to the processing unit 22 can be exchanged. As the external memory, various storage media such as an SD card (registered trademark), a memory stick (registered trademark), smart media, and a USB memory can be used.

送受信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA(Code Division Multiple Access)方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。操作部13は、例えば、電源キー、通話キー、数字キー、文字キー、方向キー、決定キー、発信キー等、各種の機能が割り当てられた操作キー13Aと、方向キー及び決定キー13Bとで構成される。そして、これらのキーがユーザの操作により入力されると、その操作内容に対応する信号を発生させる。発生した信号は、ユーザの指示として処理部22へ入力される。   The transmission / reception unit 26 has an antenna 26a, establishes a radio signal line by a CDMA (Code Division Multiple Access) method or the like with the base station via a channel assigned by the base station, and makes a telephone call with the base station. Perform communication and information communication. The operation unit 13 includes, for example, an operation key 13A to which various functions such as a power key, a call key, a numeric key, a character key, a direction key, a determination key, and a call key are assigned, and a direction key and a determination key 13B. Is done. When these keys are input by a user operation, a signal corresponding to the operation content is generated. The generated signal is input to the processing unit 22 as a user instruction.

音声処理部30は、マイク15に入力される音声信号やレシーバ16やスピーカ17から出力される音声信号の処理を実行する。すなわち、音声処理部30は、マイク15から入力される音声を増幅し、AD変換(Analog Digital変換)を実行した後、さらに符号化等の信号処理を施して、ディジタルの音声データに変換して処理部22へ出力する。また、処理部22から送られる音声データに対して復号化、DA変換(Digital Analog変換)、増幅等の処理を施してアナログの音声信号に変換してから、レシーバ16やスピーカ17へ出力する。ここで、スピーカ17は、携帯電子機器10の筺体10C内に配置されており、着信音やメールの送信音等を出力する。   The audio processing unit 30 executes processing of an audio signal input to the microphone 15 and an audio signal output from the receiver 16 and the speaker 17. That is, the sound processing unit 30 amplifies the sound input from the microphone 15 and executes AD conversion (Analog Digital conversion), and then performs signal processing such as encoding to convert the sound into digital sound data. Output to the processing unit 22. Further, the audio data sent from the processing unit 22 is subjected to processing such as decoding, DA conversion (Digital Analog conversion), and amplification to convert it into an analog audio signal, which is then output to the receiver 16 and the speaker 17. Here, the speaker 17 is disposed in the housing 10C of the portable electronic device 10, and outputs a ringtone, a mail transmission sound, and the like.

表示部32は、上述したディスプレイ12を有しており、処理部22から供給される映像データに応じた映像や画像データに応じた画像を表示パネルに表示させる。ディスプレイ12は、例えば、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどで構成された表示パネルで構成される。なお、表示部32は、ディスプレイ12に加え、サブディスプレイを有していてもよい。   The display unit 32 includes the display 12 described above, and displays a video corresponding to the video data supplied from the processing unit 22 and an image corresponding to the image data on the display panel. The display 12 is configured by a display panel configured by, for example, a liquid crystal display (LCD) or an organic EL (Organic Electro-Luminescence) panel. The display unit 32 may include a sub display in addition to the display 12.

プロジェクタ34は、光源と、画像データに基づいて前記光源から射出された光を投影するか否かを切り換える光学系とで構成されている。本実施形態において、プロジェクタ34は、光源である可視光照射装置(可視光照射手段)31と、光学系である描画装置35と、焦点調整装置39とを含んで構成される。可視光照射装置31は、可視光のレーザー光を照射する。可視光領域の光は、短波長側が360nm以上400nm以下、長波長側が760nm以上830nm以下の光であり、本実施形態において、可視光照射装置31は、R(Red)、G(Green)、B(Blue)の3色の光を照射する。   The projector 34 includes a light source and an optical system that switches whether to project the light emitted from the light source based on image data. In the present embodiment, the projector 34 includes a visible light irradiation device (visible light irradiation means) 31 that is a light source, a drawing device 35 that is an optical system, and a focus adjustment device 39. The visible light irradiation device 31 emits visible laser light. The light in the visible light region is light of 360 nm to 400 nm on the short wavelength side and light of 760 nm to 830 nm on the long wavelength side. In this embodiment, the visible light irradiation device 31 includes R (Red), G (Green), B Irradiate light of three colors (Blue).

描画装置35は、可視光照射装置31から照射される3色の光を合成するとともに、画像投影対象に照射する。描画装置35は、光源から射出された光を透過させるか否かを切り換える切り換え素子、及び当該切り換え素子を通過した光をラスター走査させるミラーを含んで構成される。そして、描画装置35は、ミラーによって可視光照射装置31から射出されたレーザー光の角度を変えて、画像投影対象にレーザー光を走査させることで、画像投影対象に画像を投影させる。   The drawing device 35 combines the three colors of light emitted from the visible light irradiation device 31 and irradiates the image projection target. The drawing device 35 includes a switching element that switches whether to transmit light emitted from the light source, and a mirror that performs raster scanning of the light that has passed through the switching element. The drawing device 35 changes the angle of the laser light emitted from the visible light irradiation device 31 by the mirror and causes the image projection target to scan the laser light, thereby projecting the image onto the image projection target.

前記ミラーとしては、例えば、MEMS(Micro Electro Mechanical System)ミラーが用いられる。MEMSミラーは、圧電素子を利用してミラーを駆動して、可視光照射装置31から照射される可視光を走査し、可視画像や不可視画像を生成する。この場合は、ミラーによって光源から照射された光の角度を変えて、画像投影対象の全面に光源から照射された光を走査させることで、画像投影対象に可視画像や不可視画像を投影させることができる。このように、プロジェクタ34は、スキャン方式のプロジェクタである。なお、プロジェクタ34の構成は、上述したレーザーを光源とするものに限定されるものではない。例えば、プロジェクタ34は、ハロゲンライトや、LED光源、LD光源を光源とし、LCD(Liquid Crystal Display)や、DMD(Digital Micro-mirror Device)を光学系に備える構成のプロジェクタを用いてもよい。   As the mirror, for example, a MEMS (Micro Electro Mechanical System) mirror is used. A MEMS mirror drives a mirror using a piezoelectric element, scans the visible light irradiated from the visible light irradiation apparatus 31, and produces | generates a visible image and an invisible image. In this case, by changing the angle of the light emitted from the light source by the mirror and scanning the light emitted from the light source over the entire surface of the image projection target, a visible image or an invisible image can be projected onto the image projection target. it can. Thus, the projector 34 is a scan-type projector. Note that the configuration of the projector 34 is not limited to that using the laser described above as a light source. For example, the projector 34 may be a projector having a configuration in which a halogen light, an LED light source, or an LD light source is used as a light source, and an LCD (Liquid Crystal Display) or DMD (Digital Micro-mirror Device) is provided in the optical system.

焦点調整装置39は、プロジェクタ制御部22aからの指令により、描画装置35から投影される可視画像が画像投影対象上で結像させる機能(焦点調整機能)を有する。焦点調整装置39は、例えば、可動するレンズ等で構成される焦点調整機構を備えており、レンズを動かすことで前記焦点調整機能を実現する。また、焦点調整装置39は、プロジェクタ34が投影する画像のデータに対して画像処理部22eによって所定の画像処理を施すことにより、前記焦点調整機能を実現するものであってもよい。さらに、焦点調整装置39は、焦点調整機能及び画像処理によって前記焦点調整機能を実現するものであってもよい。   The focus adjustment device 39 has a function (focus adjustment function) for forming a visible image projected from the drawing device 35 on an image projection target in accordance with a command from the projector control unit 22a. The focus adjustment device 39 includes a focus adjustment mechanism including, for example, a movable lens, and realizes the focus adjustment function by moving the lens. Further, the focus adjustment device 39 may realize the focus adjustment function by performing predetermined image processing on the image data projected by the projector 34 by the image processing unit 22e. Further, the focus adjustment device 39 may realize the focus adjustment function by a focus adjustment function and image processing.

上述したように、携帯電子機器10のプロジェクタ34は、画像を投影する画像投影部であり、画像投影面が携帯電子機器10の筺体10Cの外部に露出している。携帯電子機器10は、プロジェクタ34から画像を投影することで、図5に示すように、プロジェクタ34の画像投影面と対向する位置の画像投影対象(例えば、壁面やスクリーン等)のうち、所定の領域(投影領域)PAに画像を投影させることができる。なお、プロジェクタ34は、処理部22により動作が制御され、処理部22から送られる種々の映像、例えば静止画や動画等を投影し、投影領域PAに表示させる。また、図5に示す例は、例えば、地図案内表示等の地図100が表示されている領域を投影領域PAとした場合である。   As described above, the projector 34 of the portable electronic device 10 is an image projection unit that projects an image, and the image projection surface is exposed to the outside of the housing 10 </ b> C of the portable electronic device 10. The portable electronic device 10 projects an image from the projector 34, and as shown in FIG. 5, a predetermined number of image projection targets (for example, a wall surface or a screen) at a position facing the image projection surface of the projector 34 are predetermined. An image can be projected onto the area (projection area) PA. The operation of the projector 34 is controlled by the processing unit 22, and various images sent from the processing unit 22, such as still images and moving images, are projected and displayed on the projection area PA. Further, the example shown in FIG. 5 is a case where, for example, the area where the map 100 such as the map guidance display is displayed is the projection area PA.

次に、近距離通信部36は、近距離無線通信技術を用いて、他の通信装置と通信を行う通信部である。なお、近距離無線通信技術としては、赤外線通信(IrDA(登録商標)、IrMC(登録商標)、IrSimple(登録商標))や、可視光通信や、Bluetooth(登録商標)や、磁界通信(RFID、Radio Frequency Identification)技術を用いることができる。例えば、近距離通信部36は、磁界通信を用いる場合、自身を特定するICタグと、他の通信装置が有するICタグを読み取る読取部とを有する。   Next, the short-range communication unit 36 is a communication unit that communicates with other communication devices using a short-range wireless communication technology. As short-range wireless communication technologies, infrared communication (IrDA (registered trademark), IrMC (registered trademark), IrSimple (registered trademark)), visible light communication, Bluetooth (registered trademark), magnetic field communication (RFID, Radio Frequency Identification) technology can be used. For example, when using the magnetic field communication, the short-range communication unit 36 includes an IC tag that identifies itself and a reading unit that reads an IC tag included in another communication device.

また、位置情報取得部42は、GPS衛星7から発信されるGPS信号を受信する通信部である。また、位置情報取得部42は、受信したGPS信号から携帯電子機器10の緯度経度を算出し、算出した緯度経度の情報を処理部22に送る。   The position information acquisition unit 42 is a communication unit that receives a GPS signal transmitted from the GPS satellite 7. Further, the position information acquisition unit 42 calculates the latitude and longitude of the mobile electronic device 10 from the received GPS signal, and sends the calculated latitude and longitude information to the processing unit 22.

カメラ40は、上述したようにプロジェクタ34の光射出部の近くに設けられ、投影領域を含む領域の画像を取得する撮像機構である。つまり、カメラ40は、プロジェクタ34が光を射出する方向の画像を取得する。なお、カメラ40は、プロジェクタ34により投射される画像の投射画角よりも広い画角で画像を撮影する撮影機構であり、プロジェクタ34により画像が投影される投影領域よりも広い領域の画像を撮影することができる。携帯電子機器10は、基本的に以上のような構成である。   As described above, the camera 40 is an imaging mechanism that is provided near the light emitting unit of the projector 34 and acquires an image of an area including a projection area. That is, the camera 40 acquires an image in the direction in which the projector 34 emits light. The camera 40 is a shooting mechanism that takes an image with a wider angle of view than the projection angle of the image projected by the projector 34, and takes an image of an area wider than the projection area onto which the image is projected by the projector 34. can do. The portable electronic device 10 is basically configured as described above.

次に、図6から図8を用いて、携帯電子機器の動作を説明する。図6は、地図の一例を示す模式図である。図7は、地図上に投影する画像の一例を示す模式図である。図8は、図5に示す携帯電子機器のプロジェクタで画像を表示させている状態の一例を示す説明図である。   Next, the operation of the portable electronic device will be described with reference to FIGS. FIG. 6 is a schematic diagram illustrating an example of a map. FIG. 7 is a schematic diagram illustrating an example of an image projected on a map. FIG. 8 is an explanatory diagram showing an example of a state in which an image is displayed by the projector of the portable electronic device shown in FIG.

まず、携帯電子機器10は、カメラ40により、図6に示す地図100を撮影し、取得する。携帯電子機器10は、地図100の画像を取得したら、地図100の画像を解析し、撮影した地図100がどの領域を示す地図であるかを特定する。その後、携帯電子機器10は、地図100が示す領域を特定したら、その地図100に対応する特定画像を取得する。例えば、図7に示す特定画像102は、地図100の所定の位置を目的地であることを示す指標104が表示された画像である。   First, the mobile electronic device 10 captures and acquires the map 100 shown in FIG. When the mobile electronic device 10 acquires the image of the map 100, the mobile electronic device 10 analyzes the image of the map 100 and identifies which area the captured map 100 represents. Then, if the portable electronic device 10 specifies the area | region which the map 100 shows, the specific image corresponding to the map 100 will be acquired. For example, the specific image 102 shown in FIG. 7 is an image on which an index 104 indicating that a predetermined position on the map 100 is a destination is displayed.

携帯電子機器10は、図8に示すように、特定画像102を取得したら、取得した特定画像102をプロジェクタ34により、地図100に重ねて投影させる。これにより、地図100の上に、目的地の指標104を表示させることができる。   As illustrated in FIG. 8, when the portable electronic device 10 acquires the specific image 102, the acquired specific image 102 is projected onto the map 100 by the projector 34. Thereby, the destination index 104 can be displayed on the map 100.

以下、図9から図17を用いて携帯電子機器の動作を説明する。ここで、図9は、携帯電子機器の動作の一例を示すフロー図である。また、図10から図17は、それぞれ携帯電子機器の動作を説明するための説明図である。なお、図9に示す動作は、プロジェクタ34またはカメラ40が起動されたら常に行うようにしても、図9に示す動作を行うモードの実行指示が入力されたら実行するようにしてもよい。なお、図9に示す動作は、記憶部24に記憶されたアプリケーションを実行することで処理しても、外部記憶部25に記憶されたアプリケーションを実行して処理してもよい。つまり、図9に示す動作を実行させるプログラムは、いずれの領域に記憶されていてもよい。またプログラムは、外部からダウンロードして取得することができ、外部記憶部25から読み取ることで取得することもできる。また、携帯電子機器10は、一部の処理情報をサーバ2またはサーバ5に送り、サーバ2またはサーバ5で処理を行うようにしてもよい。   Hereinafter, the operation of the portable electronic device will be described with reference to FIGS. Here, FIG. 9 is a flowchart showing an example of the operation of the portable electronic device. FIGS. 10 to 17 are explanatory diagrams for explaining the operation of the portable electronic device. The operation illustrated in FIG. 9 may be performed whenever the projector 34 or the camera 40 is activated, or may be performed when an execution instruction for a mode for performing the operation illustrated in FIG. 9 is input. 9 may be processed by executing an application stored in the storage unit 24, or may be processed by executing an application stored in the external storage unit 25. That is, the program for executing the operation shown in FIG. 9 may be stored in any area. The program can be acquired by downloading from the outside, and can also be acquired by reading from the external storage unit 25. Further, the mobile electronic device 10 may send part of the processing information to the server 2 or the server 5 so that the server 2 or the server 5 performs the processing.

まず、携帯電子機器10の処理部22は、ステップS12として、地図画像を撮影する。つまり、処理部22は、カメラ40により、案内表示板等の地図を含む画像を撮影する。なお、撮影領域の調整はユーザが行っても、自動で行ってもよい。処理部22は、ステップS12で地図画像を撮影したら、ステップS14として、画像の解析処理、つまり、ステップS12で取得した地図画像の解析を行う。具体的には、撮影した地図画像から、地図上の道路の形状や、区画の形状を抽出する。処理部22は、ステップS14で画像の解析を行ったら、ステップS16として、解析した地図画像に対してモデル化処理を行う。   First, the process part 22 of the portable electronic device 10 image | photographs a map image as step S12. That is, the processing unit 22 captures an image including a map such as a guidance display board with the camera 40. Note that the adjustment of the shooting area may be performed by the user or automatically. When the processing unit 22 captures the map image in step S12, in step S14, the processing unit 22 performs image analysis processing, that is, analyzes the map image acquired in step S12. Specifically, the shape of the road and the shape of the section on the map are extracted from the captured map image. After analyzing the image in step S14, the processing unit 22 performs a modeling process on the analyzed map image in step S16.

具体的には、処理部22は、ステップS12で、図6に示すような地図100の画像を撮影し取得したら、ステップS14で地図100の画像を解析、例えば2値化処理を行うことで、図10の画像110に示すように、地図100の画像から道111を抽出することができる。なお、この時、処理部22は、図11に示すカラーヒストグラムのうち、道111の色に対応する色の範囲114の色を黒、それ以外の色を白として2値化する。さらに、2値化した画像データから、道に相当する領域を抽出することで、画像110のように、道111を抽出することができる。その後、処理部22は図10の画像112に示すように、画像110の道111を細線化して道113とする。次に、処理部22は、画像112に示すように、細線化した道113から特徴点を抽出する。具体的には、図12の画像120に示すように、道122と道122との接続点や、道122の端点を特徴点124として抽出する。   Specifically, when the processing unit 22 captures and acquires an image of the map 100 as shown in FIG. 6 in step S12, the processing unit 22 analyzes the image of the map 100 in step S14, for example, performs binarization processing. A road 111 can be extracted from the image of the map 100 as shown in an image 110 of FIG. At this time, the processing unit 22 binarizes the color histogram shown in FIG. 11 with the color of the color range 114 corresponding to the color of the road 111 being black and the other colors being white. Further, by extracting an area corresponding to the road from the binarized image data, the road 111 can be extracted like the image 110. Thereafter, as shown in an image 112 in FIG. 10, the processing unit 22 thins the road 111 of the image 110 into a road 113. Next, the processing unit 22 extracts feature points from the thinned road 113 as shown in the image 112. Specifically, as shown in an image 120 in FIG. 12, a connection point between the road 122 and the road 122 and an end point of the road 122 are extracted as feature points 124.

処理部22は、画像120に示すように、画像を解析して特徴点を抽出したら、ステップS16としてモデル化を行う。具体的には、処理部22は、画像126に示すように、画像120で抽出した特徴点124のモデル化を行う。つまり、特徴点128ごとに分岐の数を算出する。なお、特徴点128の丸の中に示す数字は分岐点の数である。その後、処理部22は、画像130に示すように特徴点128にそれぞれインデックス(識別番号)132を割り振る。その後、処理部22は、図13に示すように各特徴点をリスト化する。なお、リストの項目としては、インデックス(Index)、分岐数、当該インデックスと接続するインデックス、インデックスの座標(画像内での相対座標)がある。なお、処理部22は、図10及び図11に画像で示した処理を画像データに対する演算処理で行う。   When the processing unit 22 analyzes the image and extracts feature points as shown in the image 120, the processing unit 22 performs modeling as step S16. Specifically, the processing unit 22 models the feature points 124 extracted from the image 120 as shown in an image 126. That is, the number of branches is calculated for each feature point 128. The numbers shown in the circles of the feature points 128 are the number of branch points. Thereafter, the processing unit 22 assigns an index (identification number) 132 to each feature point 128 as shown in the image 130. Thereafter, the processing unit 22 lists each feature point as shown in FIG. The list items include an index (Index), the number of branches, an index connected to the index, and index coordinates (relative coordinates in the image). Note that the processing unit 22 performs the processing shown by the images in FIGS. 10 and 11 by calculation processing on the image data.

次に、処理部22は、ステップS18としてエリアデータの抽出を行う。つまり、地図画像が示す地図に対応するエリア(領域)のデータの抽出を行う。なお、本実施形態の処理部22は、位置情報取得部42によりGPS衛星7から携帯電子機器10の位置情報を取得し、取得した位置情報に基づいて、地図に対応するエリアの絞込みを行う。つまり、取得した位置情報を中心としたエリアを抽出する。また、処理部22は、抽出したエリアに対応する地図のデータ(エリアデータ)を抽出する。また、エリアデータは、送受信部26を介して、または近距離通信部36を介して、サーバ2,5と通信を行うことで、データベース4から取得しても、自身の記憶部24、外部記憶部25に記憶されている地図のデータから抽出してもよい。   Next, the process part 22 extracts area data as step S18. That is, data of an area (region) corresponding to the map indicated by the map image is extracted. Note that the processing unit 22 of the present embodiment acquires the position information of the mobile electronic device 10 from the GPS satellite 7 by the position information acquisition unit 42, and narrows down the area corresponding to the map based on the acquired position information. That is, an area centered on the acquired position information is extracted. Further, the processing unit 22 extracts map data (area data) corresponding to the extracted area. In addition, even if the area data is acquired from the database 4 by communicating with the servers 2 and 5 through the transmission / reception unit 26 or the short-range communication unit 36, the storage unit 24 and the external storage itself are provided. You may extract from the map data memorize | stored in the part 25. FIG.

処理部22は、ステップS18でエリアデータを抽出したら、ステップS20として、エリアデータに対してモデル化処理を行う。つまり、処理部22は、抽出したエリアに対応する地図データをモデル化する。具体的には、処理部22は、地図データの道を細線化する。なお、地図データは、取得時点で細線化したデータとしてもよい。その後、処理部22は、図14の画像140に示すように、道142から特徴点144を抽出し、特徴点144ごとに分岐の数を算出する。なお、特徴点144の丸の中に示す数字も、分岐点の数である。その後、処理部22は、画像145に示すように特徴点144にそれぞれインデックス(識別番号)146を割り振る。その後、処理部22は、図15に示すように各特徴点をリスト化する。なお、リストの項目としては、インデックス(Index)、分岐数、当該インデックスと接続するインデックス、インデックスの座標がある。なお、エリアデータから抽出した特徴点には、座標として、緯度、経度が対応付けられている。   After extracting the area data in step S18, the processing unit 22 performs a modeling process on the area data in step S20. That is, the processing unit 22 models the map data corresponding to the extracted area. Specifically, the processing unit 22 thins the path of the map data. The map data may be data thinned at the time of acquisition. Thereafter, as illustrated in an image 140 in FIG. 14, the processing unit 22 extracts feature points 144 from the road 142 and calculates the number of branches for each feature point 144. The numbers shown in the circles of the feature points 144 are also the number of branch points. Thereafter, the processing unit 22 assigns an index (identification number) 146 to each feature point 144 as shown in the image 145. Thereafter, the processing unit 22 lists each feature point as shown in FIG. The list items include an index, the number of branches, an index connected to the index, and index coordinates. Note that latitude and longitude are associated with the feature points extracted from the area data as coordinates.

処理部22は、ステップS20でモデル化処理を行ったら、ステップS22として、データ照合処理を行う。つまり、処理部22は、ステップS16でモデル化した地図の画像のデータと、ステップS20でモデル化したエリアデータとを照合し、地図の画像がエリアデータ内のどの位置を示す地図であるかを特定する。具体的には、処理部22は、図13に示す地図画像の各特徴点のリストと、図15に示すエリアデータの各特徴点のリストとの比較を行い、各特徴点の相対関係が一致する特徴点を検出する。つまり、地図の画像と、エリアデータとの間で、モデル化した道の形状が一致する領域を検出する。ここで、本実施形態では、両者のインデックスが1から9の特徴点がそれぞれ対応している。   After performing the modeling process in step S20, the processing unit 22 performs a data matching process as step S22. That is, the processing unit 22 collates the map image data modeled in step S16 with the area data modeled in step S20, and determines which position in the area data the map image represents. Identify. Specifically, the processing unit 22 compares the list of feature points of the map image shown in FIG. 13 with the list of feature points of the area data shown in FIG. The feature point to be detected is detected. That is, an area where the modeled road shape matches between the map image and the area data is detected. Here, in the present embodiment, the feature points having the indexes of 1 to 9 correspond to each other.

処理部22は、ステップS22でデータ照合処理を行ったら、ステップS24として、座標変換テーブルを作成する。具体的には、処理部22は、地図の画像の座標とエリアデータの座標とを対応付けて、エリアデータの座標を地図の画像の座標に変換する変換規則を算出する。具体的には、処理部22は、図16に示すように、地図の画像のインデックスとエリアデータのインデックスとを対応付け、同一特徴点を示すインデックスの地図の画像の座標とエリアデータの座標とを対応付けたリストを作成する。なお、図16に示すリストでは、枠150で囲われたデータで地図の画像の座標とエリアデータの座標とが対応付けられたデータとなる。処理部22は、枠150で囲われたデータに基づいて、座標変換テーブルを作成する。   After performing the data matching process in step S22, the processing unit 22 creates a coordinate conversion table as step S24. Specifically, the processing unit 22 associates the coordinates of the map image with the coordinates of the area data, and calculates a conversion rule for converting the coordinates of the area data into the coordinates of the map image. Specifically, as shown in FIG. 16, the processing unit 22 associates the map image index with the area data index, and the coordinates of the map image of the index indicating the same feature point and the coordinates of the area data Create a list that associates. The list shown in FIG. 16 is data in which the coordinates of the map image and the coordinates of the area data are associated with the data surrounded by the frame 150. The processing unit 22 creates a coordinate conversion table based on the data surrounded by the frame 150.

処理部22は、ステップS24で座標変換テーブルを作成したら、ステップS26として、加工処理を行う。つまり、処理部22は、作成した変換テーブルに基づいて、エリアデータを加工する処理を行う。具体的には、処理部22は、図17のリストに示すように、エリアデータに記憶されている所定の対象の座標を地図の画像の座標に変換する。ここで、図17に示すリストでは、エリアデータに含まれている目的地A、ランドマークA、ランドマークBを地図の画像に表示させる場合の表示位置の座標を算出している。つまり、枠152に示すように、エリアデータの座標を、地図の画像の座標に変換している。   After creating the coordinate conversion table in step S24, the processing unit 22 performs processing as step S26. That is, the processing unit 22 performs processing for processing the area data based on the created conversion table. Specifically, as shown in the list of FIG. 17, the processing unit 22 converts the coordinates of a predetermined target stored in the area data into the coordinates of the map image. Here, in the list shown in FIG. 17, the coordinates of the display position when the destination A, the landmark A, and the landmark B included in the area data are displayed on the map image are calculated. That is, as indicated by a frame 152, the coordinates of the area data are converted into the coordinates of the map image.

処理部22は、ステップS26で加工処理を行ったら、ステップS28として、地図に投影するか、つまり、プロジェクタ34により撮影対象の地図上に画像を投影するかを判定する。処理部22は、ステップS28で、地図に投影させない(ステップS28でNo)と判定したら、ステップS34に進む。また、処理部22は、ステップS28で地図に投影する(ステップS28でYes)と判定したら、ステップS30として投影画像を作成する。つまり、処理部22は、投影画像として、ステップS26で加工処理を行い、生成した画像に基づいて、地図に重ねて表示させる画像(つまり、地図に足し合わせて表示可能な画像)を作成する。処理部22は、ステップS30で投影画像を作成したら、ステップS32として、プロジェクタ34により作成した画像を投影する。なお、処理部22は、画像を投影する領域をカメラ40により撮影して、地図の所定位置に投影画像が重なるように画像を投影する。   After performing the processing in step S26, the processing unit 22 determines in step S28 whether to project the image on the map, that is, whether to project an image on the map to be imaged by the projector 34. If the processing unit 22 determines in step S28 that the image is not projected on the map (No in step S28), the processing unit 22 proceeds to step S34. If it is determined in step S28 that the image is projected on the map (Yes in step S28), the processing unit 22 creates a projection image in step S30. In other words, the processing unit 22 performs the processing process in step S26 as a projection image, and creates an image to be displayed on the map (that is, an image that can be added to the map) based on the generated image. After creating the projection image in step S30, the processing unit 22 projects the image created by the projector 34 in step S32. The processing unit 22 captures an image projection area with the camera 40 and projects the image so that the projection image overlaps a predetermined position on the map.

処理部22は、ステップS28でNoと判定したら、または、ステップS32の処理を行ったら、ステップS34として、画像を表示するか、つまり、画像を表示部32に表示させるかを判定する。処理部22は、ステップS34で、画像を表示させない(ステップS34でNo)と判定したら、処理を終了する。また、処理部22は、ステップS34で画像を表示させる(ステップS34でYes)と判定したら、ステップS36として合成画像を作成する。つまり、処理部22は、合成画像として、ステップS26で加工処理を行い、生成した画像に基づいて、ステップS12で撮影した地図の画像に、所定の加工した画像を重ねた画像を作成する。処理部22は、ステップS36で合成画像を作成したら、ステップS38として、表示部32に作成した合成画像を投影する。処理部22は、ステップS38で画像を表示させたら、処理を終了する。   If it is determined No in step S28 or if the process of step S32 is performed, the processing unit 22 determines whether to display an image, that is, to display the image on the display unit 32, as step S34. If it is determined in step S34 that the image is not displayed (No in step S34), the processing unit 22 ends the process. If it is determined that the image is to be displayed in step S34 (Yes in step S34), the processing unit 22 creates a composite image in step S36. That is, the processing unit 22 performs a processing process in step S26 as a composite image, and creates an image in which a predetermined processed image is superimposed on the map image captured in step S12 based on the generated image. After creating the composite image in step S36, the processing unit 22 projects the created composite image on the display unit 32 in step S38. When the processing unit 22 displays an image in step S38, the processing ends.

通信システム1及び携帯電子機器10は、以上のようにして、カメラ40で取得した地図画像を解析し、解析した地図画像と、予め保存されている基準(例えば緯度経度が対応付けられた)となる地図のデータとを比較する。さらに、通信システム1及び携帯電子機器10は、カメラ40で取得した地図画像の位置を特定し、かつ、カメラ40で取得した地図画像の各部と基準となる地図のデータの各部との対応関係を算出する。これにより、カメラ40で取得した地図の画像に対する加工画像を容易に作成することができる。また、カメラ40で取得した地図の画像に対応して、基準となる地図のデータを加工することができるため、カメラ40で取得した地図の画像の表示規則(縮尺、抽象化の程度)に対応した加工画像を作成することができる。これにより、カメラ40で取得した地図の画像に加工画像を重ねた場合に、見やすく、理解しやすい画像とすることができる。   The communication system 1 and the mobile electronic device 10 analyze the map image acquired by the camera 40 as described above, and the analyzed map image and a prestored reference (for example, latitude and longitude are associated). Compare the map data. Further, the communication system 1 and the portable electronic device 10 specify the position of the map image acquired by the camera 40, and the correspondence between each part of the map image acquired by the camera 40 and each part of the reference map data. calculate. Thereby, the processed image with respect to the image of the map acquired with the camera 40 can be produced easily. In addition, since the map data serving as the reference can be processed in correspondence with the map image acquired by the camera 40, it corresponds to the display rules (scale, degree of abstraction) of the map image acquired by the camera 40. Processed images can be created. Thus, when the processed image is superimposed on the map image acquired by the camera 40, the image can be easily viewed and understood.

通信システム1及び携帯電子機器10は、例えば、上述したように目的地をカメラ40で取得した地図の画像上に表示させたい場合も、適切な位置に目的地を示す指標を表示させることができる。また、通信システム1及び携帯電子機器10は、プロジェクタにより画像を取得した地図に対して画像を投影することで、大きな表示の地図に対して、また、実際に目視で確認している地図に対して、目的地の情報を表示させることができる。さらに、通信システム1及び携帯電子機器10は、取得した地図に加工した画像を重ねた画像を表示部32に表示させることで、地図を撮影した場所から離れた位置でも地図と目的地を確認することができる。また、この場合も一度確認している地図(撮影した地図の画像)を用いた画像で目的地や現在位置を確認することができる。このため、ユーザは、地図を簡単に理解することができる。   For example, the communication system 1 and the mobile electronic device 10 can display an index indicating the destination at an appropriate position even when the destination is to be displayed on the map image acquired by the camera 40 as described above. . In addition, the communication system 1 and the portable electronic device 10 project an image on a map acquired by a projector, thereby displaying a large display map or a map actually confirmed visually. Destination information can be displayed. Furthermore, the communication system 1 and the mobile electronic device 10 display the image obtained by superimposing the processed image on the acquired map on the display unit 32, thereby confirming the map and the destination even at a position away from the place where the map is taken. be able to. Also in this case, the destination and the current position can be confirmed with an image using a map that has been confirmed once (image of the photographed map). For this reason, the user can easily understand the map.

ここで、上記実施形態では、画像処理、演算処理を携帯電子機器10で行ったが、本発明はこれに限定されない。例えば、一部の画像処理、演算処理をサーバ2またはサーバ5で行うようにしてもよい。この場合、携帯電子機器10は、画像データや、演算処理に必要なデータをサーバ2またはサーバ5に送り、処理を行った結果をサーバ2またはサーバ5から受け取るようにしてもよい。つまり、携帯電子機器10は、上述した図9の処理のうち、ステップS14からステップS26、ステップS30、ステップS36の処理の一部または全部をサーバ2またはサーバ5で行うようにしてもよい。例えば、携帯電子機器10は、撮影した画像をサーバ2またはサーバ5に送り、サーバ2またはサーバ5から画像データを受信し、その受信した画像を表示、または投影してもよい。また、携帯電子機器10は、撮影した画像のモデル化処理を行った後、モデル化した画像データをサーバ2またはサーバ5に送り、加工処理を行った画像データを受信するようにしてもよい。さらに、携帯電子機器10は、位置情報をサーバ2またはサーバ5に送り、サーバ2またはサーバ5からモデル化したエリアデータを受信するようにしてもよい。   Here, in the said embodiment, although the image process and the calculation process were performed with the portable electronic device 10, this invention is not limited to this. For example, some image processing and calculation processing may be performed by the server 2 or the server 5. In this case, the mobile electronic device 10 may send image data or data necessary for arithmetic processing to the server 2 or the server 5 and receive a result of the processing from the server 2 or the server 5. That is, the mobile electronic device 10 may perform part or all of the processing from step S14 to step S26, step S30, and step S36 in the server 2 or the server 5 in the processing of FIG. 9 described above. For example, the mobile electronic device 10 may send a captured image to the server 2 or the server 5, receive image data from the server 2 or the server 5, and display or project the received image. In addition, the portable electronic device 10 may perform modeling processing of a captured image, and then send the modeled image data to the server 2 or the server 5 and receive the processed image data. Further, the mobile electronic device 10 may send the position information to the server 2 or 5 and receive the modeled area data from the server 2 or 5.

また、上記実施形態では、GPS衛星7との通信により取得した情報に基づいて位置情報を取得したが、本発明はこれに限定されない。例えば、基地局との通信で取得する情報に基づいて位置情報を取得してもよい。基地局との通信によって位置情報を取得することでも、対象の範囲を一定範囲に絞ることができる。また、このように基地局との通信を用いることで、GPS衛星を用いなくとも、地図を特定することができ、目的地の位置を的確に把握することができる。また、通信システム1は、位置情報を取得して、地図の対象範囲を限定することが好ましいが、本発明はこれに限定されず、エリアデータを抽出せずに、基準となる地図のデータと地図の画像とを比較し、地図の画像が示す領域を特定するようにしてもよい。また、通信システム1は、ユーザが文字入力等により指示した情報に基づいて、エリアデータを抽出するようにしてもよい。   Moreover, in the said embodiment, although positional information was acquired based on the information acquired by communication with the GPS satellite 7, this invention is not limited to this. For example, position information may be acquired based on information acquired through communication with a base station. The target range can also be narrowed down to a certain range by acquiring position information through communication with the base station. Further, by using communication with the base station in this way, a map can be specified without using a GPS satellite, and the location of the destination can be accurately grasped. The communication system 1 preferably acquires position information and limits the target range of the map. However, the present invention is not limited to this, and without extracting area data, the reference map data and The area indicated by the map image may be specified by comparing with the map image. Further, the communication system 1 may extract the area data based on information instructed by the user by character input or the like.

また、カメラ40で取得した地図の画像と、エリアデータとの比較方法、また、カメラ40で取得した地図の画像の特定方法は、上記実施形態に限定されない。以下、図18から図21を用いて、エリアデータとの比較方法、また、カメラ40で取得した地図の画像の特定方法の他の例を説明する。ここで、図18から図21は、それぞれ、携帯電子機器の動作の他の例を説明するための説明図である。なお、図18から図21に示す例も、地図の画像として、図6に示す地図100を撮影した場合の例である。   Further, the method for comparing the map image acquired by the camera 40 and the area data, and the method for specifying the map image acquired by the camera 40 are not limited to the above embodiment. Hereinafter, another example of a method for comparing with area data and a method for specifying a map image acquired by the camera 40 will be described with reference to FIGS. Here, FIGS. 18 to 21 are explanatory diagrams for explaining another example of the operation of the portable electronic device. Note that the examples shown in FIGS. 18 to 21 are also examples when the map 100 shown in FIG. 6 is taken as the map image.

まず、携帯電子機器10は、撮影した地図の画像を解析して、図18の画像200に示すように、道204を抽出する。その後、携帯電子機器10は、画像200から起点202となる点を抽出し、その起点202を基準として、道204のベクトル情報を抽出する。なお、ベクトル情報としては、各ベクトルの起点となる座標、角度、長さ、幅、また、連結している他のベクトルの情報を抽出する。携帯電子機器10は、さらに、抽出した道204のベクトル情報に対して、インデックス206を対応付ける。携帯電子機器10は、抽出したベクトル情報を、インデックス206ごとに整理し、図19に示すように、リスト化する。   First, the mobile electronic device 10 analyzes a photographed map image and extracts a road 204 as shown in an image 200 in FIG. Thereafter, the mobile electronic device 10 extracts a point that becomes the starting point 202 from the image 200, and extracts vector information of the road 204 with reference to the starting point 202. As vector information, coordinates, angles, lengths, widths, and information of other connected vectors as starting points of the vectors are extracted. The portable electronic device 10 further associates an index 206 with the extracted vector information of the road 204. The portable electronic device 10 organizes the extracted vector information for each index 206 and forms a list as shown in FIG.

また、携帯電子機器10は、基準となる地図のデータから一定の領域を抜き出したエリアデータを抽出する。その後、携帯電子機器10は、抽出したエリアデータも、図20に示すように道210をベクトルとして、抽出する。その後、携帯電子機器10は、図18に示す地図の画像から抽出したベクトル情報と、図20に示すエリアデータのベクトル情報とを比較する。これにより、携帯電子機器10は、図21に示すように、エリアデータの道210から、地図の画像に含まれる領域212を抽出し、特定することができる。   Further, the mobile electronic device 10 extracts area data obtained by extracting a certain area from the reference map data. Thereafter, the portable electronic device 10 also extracts the extracted area data using the road 210 as a vector as shown in FIG. Thereafter, the mobile electronic device 10 compares the vector information extracted from the map image shown in FIG. 18 with the vector information of the area data shown in FIG. Thereby, the portable electronic device 10 can extract and specify the area 212 included in the map image from the area data path 210 as shown in FIG.

また、エリアデータとの比較方法、また、カメラ40で取得した地図の画像の特定方法としては、道で区画されるブロックの形状を抽出し、そのブロックの形状を比較し、地図の画像の位置を特定するようにすることもできる。また、地図の画像に含まれる文字(ビル名、駅名、地名、道路名)を抽出し、その名称に基づいて地図の画像の位置を特定するようにしてもよい。また、上述した各種方法を組み合わせてもよい。   In addition, as a comparison method with area data and a method for specifying a map image acquired by the camera 40, the shape of a block divided by a road is extracted, the shape of the block is compared, and the position of the map image Can also be specified. Further, characters (building name, station name, place name, road name) included in the map image may be extracted, and the position of the map image may be specified based on the name. Moreover, you may combine the various methods mentioned above.

また、通信システム1及び携帯電子機器10は、地図の画像を特定した後に行う加工処理としては、種々の加工を行うことができる。つまり、地図の画像に重畳して表示させる画像としては、種々の画像を作成することができる。例えば、目的地を表示する画像や、経路を示す画像等種々の画像を作成することができる。   Further, the communication system 1 and the portable electronic device 10 can perform various processes as the processing performed after the map image is specified. That is, various images can be created as images to be displayed superimposed on the map image. For example, various images such as an image displaying a destination and an image showing a route can be created.

また、目的地を表示させる場合は、図22に示すテキスト230や、図23に示すテキスト232のように、メールに含まれる文字列に基づいて目的地を抽出してもよい。エリアデータは、座標に加え、住所のデータを備えることもできるため、住所を用いることでも、地図の画像上における目的地の位置を特定することができ、表示させることができる。   When the destination is displayed, the destination may be extracted based on a character string included in the mail, such as text 230 shown in FIG. 22 or text 232 shown in FIG. Since the area data can include address data in addition to the coordinates, the location of the destination on the map image can be specified and displayed by using the address.

また、撮影対象の地図としては、駅等に設定されている案内表示の地図(看板に表示された地図)や、ガイドブック等の本に印刷された地図を用いることができる。なお、本に印刷された地図を用いる場合は、撮影画像を解析して、地図が表示されている頁に記載されている電話番号や、住所の情報を取得し、エリアデータを特定したり、特定画像として表示させる目的地を特定したりしてもよい。   In addition, as a map to be photographed, a map for guidance display set on a station or the like (a map displayed on a signboard) or a map printed on a book such as a guidebook can be used. In addition, when using the map printed on the book, the photographed image is analyzed, the telephone number or address information described on the page on which the map is displayed is acquired, the area data is specified, A destination to be displayed as a specific image may be specified.

以上のように、本発明に係る携帯電子機器及び携帯電子機器の使用方法は、ディスプレイのような画像を表示させる装置、または、プロジェクタのような画像を投影できる装置を備え、かつ、画像を撮影する装置を備えるものに有用である。   As described above, the portable electronic device and the method of using the portable electronic device according to the present invention include a device that displays an image such as a display, or a device that can project an image such as a projector, and takes an image. It is useful for those equipped with a device to perform.

10 携帯電子機器
10C 筐体
12 ディスプレイ
13 操作部
13A 操作キー
13B 方向キー及び決定キー
22 処理部
22a プロジェクタ制御部
22b カメラ制御部
22c 条件判定部
22d 姿勢・位置演算部
22e 画像処理部
24 記憶部
25 外部記憶部
30 音声処理部
31 可視光照射装置
32 表示部
34 プロジェクタ
36 近距離通信部
40 カメラ
DESCRIPTION OF SYMBOLS 10 Portable electronic device 10C Housing | casing 12 Display 13 Operation part 13A Operation key 13B Direction key and determination key 22 Processing part 22a Projector control part 22b Camera control part 22c Condition determination part 22d Posture / position calculation part 22e Image processing part 24 Storage part 25 External storage unit 30 Audio processing unit 31 Visible light irradiation device 32 Display unit 34 Projector 36 Short-range communication unit 40 Camera

Claims (11)

筐体と、
撮影により地図画像を取得する撮影部と、
前記撮影部で取得した地図画像に含まれる情報に基づいて、前記地図画像に対応する特定画像の情報を取得する処理部と、
前記筐体に設けられて、投影領域内に前記特定画像を投影する画像投影部と、
を含むことを特徴とする携帯電子機器。
A housing,
A shooting unit for acquiring a map image by shooting;
A processing unit that acquires information of a specific image corresponding to the map image based on information included in the map image acquired by the photographing unit;
An image projection unit provided in the housing for projecting the specific image in a projection region;
A portable electronic device comprising:
前記処理部は、前記特定画像として、前記地図画像に足しあわせ可能な画像を取得し、前記特定画像を前記画像投影部から投影させることを特徴とする請求項1に記載の携帯電子機器。   The portable electronic device according to claim 1, wherein the processing unit acquires an image that can be added to the map image as the specific image, and causes the specific image to be projected from the image projection unit. 前記筐体に設けられて、画像を表示する表示部をさらに有し、
前記処理部は、前記特定画像として、前記地図画像に足しあわせ可能な画像を取得し、前記特定画像と、前記撮影部で撮影した地図画像とを足しあわせて、前記表示部に表示させることを特徴とする請求項1または2に記載の携帯電子機器。
A display unit provided on the housing for displaying an image;
The processing unit obtains an image that can be added to the map image as the specific image, and adds the specific image and the map image captured by the imaging unit to display on the display unit. The portable electronic device according to claim 1 or 2, characterized in that
前記特定画像は、前記地図画像と基準となる地図のデータとを基に、前記地図画像の位置情報と前記基準となる地図のデータの位置情報とを対応付け、前記基準となる地図のデータに含まれる情報を前記地図画像の座標に対応付けて作成した画像を含むことを特徴とする請求項1から3のいずれか1項に記載の携帯電子機器。   The specific image associates the position information of the map image with the position information of the reference map data based on the map image and the reference map data, and the reference map data The portable electronic device according to any one of claims 1 to 3, further comprising an image created by associating the contained information with the coordinates of the map image. 前記特定画像は、前記基準となる地図のデータ上の座標を、前記地図画像の座標に対応付けて変換することにより得られた画像を含むことを特徴とする請求項4に記載の携帯電子機器。   5. The portable electronic device according to claim 4, wherein the specific image includes an image obtained by converting the coordinates on the reference map data in association with the coordinates of the map image. . 自身の位置情報を取得する位置情報取得部をさらに有し、
前記処理部は、前記地図情報と前記位置情報取得部で取得した自身の位置情報とに基づいて、前記地図画像と比較する前記基準となる地図のデータの範囲を決定することを特徴とする請求項4または5に記載の携帯電子機器。
It further has a position information acquisition unit that acquires its own position information,
The processing unit determines a range of reference map data to be compared with the map image based on the map information and the position information acquired by the position information acquisition unit. Item 6. The portable electronic device according to Item 4 or 5.
前記処理部は、前記地図画像を解析して、地図画像に含まれる各要素から絶対位置を特定し、特定した絶対位置から対応する特定画像を取得することを特徴とする請求項1から6のいずれか1項に記載の携帯電子機器。   7. The processing unit according to claim 1, wherein the processing unit analyzes the map image, specifies an absolute position from each element included in the map image, and acquires a corresponding specific image from the specified absolute position. The portable electronic device according to any one of the above. 他の通信機器と通信する通信部をさらに有し、
前記処理部は、前記地図画像を前記通信部から他の通信機器に出力し、前記他の通信機器から、特定画像を取得することを特徴とする請求項1から6のいずれか1項に記載の携帯電子機器。
A communication unit that communicates with other communication devices;
The said processing part outputs the said map image from the said communication part to another communication apparatus, and acquires a specific image from the said other communication apparatus, The any one of Claim 1 to 6 characterized by the above-mentioned. Portable electronic devices.
他の通信機器と通信する通信部をさらに有し、
前記処理部は、前記地図画像を解析して、地図画像に含まれる各要素の絶対位置を特定し、特定した絶対位置の情報を前記通信部から他の通信機器に出力し、前記他の通信機器から、特定画像を取得することを特徴とする請求項1から6のいずれか1項に記載の携帯電子機器。
A communication unit that communicates with other communication devices;
The processing unit analyzes the map image, specifies an absolute position of each element included in the map image, outputs information on the specified absolute position from the communication unit to another communication device, and outputs the other communication The mobile electronic device according to claim 1, wherein a specific image is acquired from the device.
請求項1から9のいずれか1項に記載の携帯電子機器の使用方法であって、
前記撮影部の撮影領域内に配置された地図を撮影することにより地図画像を得て、
当該地図画像に基づいて、前記地図画像に対応する特定画像の情報を取得して、
前記取得した特定画像を画像投影部により投影することを特徴とする携帯電子機器の使用方法。
A method of using the portable electronic device according to any one of claims 1 to 9,
Obtain a map image by shooting a map placed in the shooting area of the shooting unit,
Based on the map image, obtain information of a specific image corresponding to the map image,
A method of using a portable electronic device, wherein the acquired specific image is projected by an image projection unit.
前記撮影領域内に前記地図を配置して、
前記画像投影部により前記特定画像を投影する際に、前記地図の位置を前記撮影部により確認して、前記地図と前記特定画像とが足しあわされるように投影位置を補正しながら、前記特定画像を投影することを特徴とする請求項10に記載の携帯電子機器の使用方法。
Place the map in the shooting area,
When projecting the specific image by the image projection unit, the position of the map is confirmed by the photographing unit, and the specific image is corrected while correcting the projection position so that the map and the specific image are added together. The method of using a portable electronic device according to claim 10, wherein:
JP2010191459A 2010-08-27 2010-08-27 Portable electronic device and method of using portable electronic device Active JP5646918B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010191459A JP5646918B2 (en) 2010-08-27 2010-08-27 Portable electronic device and method of using portable electronic device
PCT/JP2011/068796 WO2012026406A1 (en) 2010-08-27 2011-08-19 Handheld electronic device and method for using handheld electronic device
US13/819,649 US9552657B2 (en) 2010-08-27 2011-08-19 Mobile electronic device and control method of mobile electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010191459A JP5646918B2 (en) 2010-08-27 2010-08-27 Portable electronic device and method of using portable electronic device

Publications (2)

Publication Number Publication Date
JP2012049927A JP2012049927A (en) 2012-03-08
JP5646918B2 true JP5646918B2 (en) 2014-12-24

Family

ID=45904262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010191459A Active JP5646918B2 (en) 2010-08-27 2010-08-27 Portable electronic device and method of using portable electronic device

Country Status (1)

Country Link
JP (1) JP5646918B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227374A (en) * 2004-02-10 2005-08-25 Casio Comput Co Ltd Map data creating device and map data creating method
JP2010117291A (en) * 2008-11-14 2010-05-27 Pioneer Electronic Corp Navigation device

Also Published As

Publication number Publication date
JP2012049927A (en) 2012-03-08

Similar Documents

Publication Publication Date Title
WO2012026406A1 (en) Handheld electronic device and method for using handheld electronic device
US8942769B2 (en) Mobile electronic device
US8807757B2 (en) Mobile electronic device having a partial image projector
JP5259010B2 (en) Portable electronic device and projection system
US9097966B2 (en) Mobile electronic device for projecting an image
KR102180962B1 (en) Display system, display terminal, display method and computer readable recording medium having program thereof
US9170472B2 (en) Portable photographing device
US20120019441A1 (en) Mobile electronic device
JP5615651B2 (en) Electronic equipment and projection system
CN112149659B (en) Positioning method and device, electronic equipment and storage medium
JP5595834B2 (en) Portable electronic device and method of using portable electronic device
JP2023182745A (en) Road guidance system and portable information terminal used for the same
JP5650468B2 (en) Portable electronic device and method of using portable electronic device
JP5646918B2 (en) Portable electronic device and method of using portable electronic device
JP2015080067A (en) Image processing device, image processing method, and image processing program
JP2011248149A (en) Portable electronic device and image projection unit
KR20110012523A (en) Method for providing augmented reality by user selection information, server and portable terminal therefor
JP5623238B2 (en) Electronic device, display control method, and display control program
JP5583479B2 (en) Portable electronic device and image projection unit
JP5606888B2 (en) Portable electronic devices
JP2012113255A (en) Mobile electronic device
JP5606901B2 (en) Portable electronic devices
JP2009164761A (en) Portable terminal
JP2016034138A (en) Image display device and program
JP2015184777A (en) augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141106

R150 Certificate of patent or registration of utility model

Ref document number: 5646918

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150