JP2014222230A - Portable terminal device - Google Patents

Portable terminal device Download PDF

Info

Publication number
JP2014222230A
JP2014222230A JP2014125941A JP2014125941A JP2014222230A JP 2014222230 A JP2014222230 A JP 2014222230A JP 2014125941 A JP2014125941 A JP 2014125941A JP 2014125941 A JP2014125941 A JP 2014125941A JP 2014222230 A JP2014222230 A JP 2014222230A
Authority
JP
Japan
Prior art keywords
display
unit
cpu
target position
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014125941A
Other languages
Japanese (ja)
Other versions
JP5856237B2 (en
Inventor
美那子 谷
Minako Tani
美那子 谷
建 吉原
Ken Yoshihara
建 吉原
友菜 目▲崎▼
Yuna Mezaki
友菜 目▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2014125941A priority Critical patent/JP5856237B2/en
Publication of JP2014222230A publication Critical patent/JP2014222230A/en
Application granted granted Critical
Publication of JP5856237B2 publication Critical patent/JP5856237B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a portable terminal device that can display a route to a target position in an easily understandable way.SOLUTION: A terminal device includes a display section through which a scene on the front side can be seen from the rear side, a display control section that controls the display section, a storage section that stores a target position, a position acquisition section that acquires the current position, and a comparison section that compares the target position with the current position, where the display control section displays information indicating the target position on the display section according to a result of the comparison by the comparison section.

Description

本発明は、携帯電話機やPDA(Personal Digital Assistant)等の携帯端末装置に関するものである。     The present invention relates to a mobile terminal device such as a mobile phone or a PDA (Personal Digital Assistant).

従来、現在位置から目的位置までの経路を地図上に表示するナビゲーション機能が設けられた携帯端末装置が知られている。この種の携帯端末装置では、現在位置からランドマークまでの経路が示された地図が表示されると共に、ユーザが向いている方向が地図上に示される。(たとえば、特許文献1)   Conventionally, a portable terminal device provided with a navigation function for displaying a route from a current position to a target position on a map is known. In this type of portable terminal device, a map showing the route from the current position to the landmark is displayed, and the direction in which the user is facing is shown on the map. (For example, Patent Document 1)

特開2010−145385号公報JP 2010-145385 A

しかし、上記従来技術では、地図は2次元で表わされており、地図上にはユーザの頭上から見た道や建物などの配置が示されている。これに対し、ユーザは、水平な方向を見ていることが多い。この場合、ユーザが見ている方向と地図が表示している方向とが異なっていると、ユーザは、自身が見ている風景と地図の表示とを見比べながら、これらの相対関係を理解しなければならない。このため、ユーザは、自身の位置および方向を把握しなければならず、経路が示す方向をすぐに判断することが困難である。   However, in the above prior art, the map is represented in two dimensions, and the map shows the arrangement of roads and buildings as seen from the user's head. On the other hand, the user often looks at the horizontal direction. In this case, if the direction in which the user is viewing is different from the direction in which the map is displayed, the user must understand the relative relationship between the landscape that he / she is viewing and the map display. I must. For this reason, the user must grasp his / her position and direction, and it is difficult to immediately determine the direction indicated by the route.

本発明は、かかる課題に鑑みて為されたものであり、目的位置までの経路を分かり易く表示することができる端末装置を提供することを目的とする。   The present invention has been made in view of such a problem, and an object of the present invention is to provide a terminal device that can easily display a route to a target position.

本発明の主たる態様に係る端末装置は、表面側の風景を裏面側から見通し可能な表示部と、前記表示部を制御する表示制御部と、目的位置を記憶する記憶部と、現在位置を取得する位置取得部と、前記目的位置と前記現在位置とを比較する比較部とを備え、前記表示制御部は、前記比較部の比較結果に応じて、前記目的位置を示す情報を前記表示部に表示させる。   The terminal device according to the main aspect of the present invention acquires a display unit that can view a front side landscape from the back side, a display control unit that controls the display unit, a storage unit that stores a target position, and a current position A position acquisition unit that compares the target position with the current position, and the display control unit displays information indicating the target position on the display unit according to a comparison result of the comparison unit. Display.

以上のとおり、本発明によれば、目的位置までの経路を分かり易く表示することができる携帯端末装置を提供することができる。   As described above, according to the present invention, it is possible to provide a mobile terminal device capable of displaying the route to the target position in an easy-to-understand manner.

本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態に記載されたものに何ら制限されるものではない。   The effects and significance of the present invention will become more apparent from the following description of embodiments. However, the embodiment described below is merely an example when the present invention is implemented, and the present invention is not limited to what is described in the following embodiment.

実施の形態に係る携帯端末装置の全体を示す斜視図である。It is a perspective view which shows the whole portable terminal device which concerns on embodiment. 実施の形態に係る携帯端末装置を示す断面図である。It is sectional drawing which shows the portable terminal device which concerns on embodiment. 実施の形態に係る携帯端末装置の動作を説明するための斜視図である。It is a perspective view for demonstrating operation | movement of the portable terminal device which concerns on embodiment. 実施の形態に係る携帯端末装置の回路を示すブロック図である。It is a block diagram which shows the circuit of the portable terminal device which concerns on embodiment. 実施の形態に係るポイント情報データベースである。It is a point information database concerning an embodiment. 実施の形態に係るポイント情報を設定する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which sets the point information which concerns on embodiment. 実施の形態に係るポイント情報を設定している状態を示す図である。It is a figure which shows the state which has set the point information which concerns on embodiment. 実施の形態に係るポイント情報を表示する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which displays the point information which concerns on embodiment. 実施の形態に係るポイント情報を表示する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which displays the point information which concerns on embodiment. 実施の形態に係るポイント情報を表示する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which displays the point information which concerns on embodiment. 実施の形態に係る進行方向の矢印を表示している状態を示す図である。It is a figure which shows the state which is displaying the arrow of the advancing direction which concerns on embodiment. 実施の形態に係る進行方向の矢印を表示している状態を示す図である。It is a figure which shows the state which is displaying the arrow of the advancing direction which concerns on embodiment. 実施の形態に係る進行方向の矢印を表示している状態を示す図である。It is a figure which shows the state which is displaying the arrow of the advancing direction which concerns on embodiment. 実施の形態に係るポイントマークを表示している状態を示す図である。It is a figure which shows the state which is displaying the point mark which concerns on embodiment. 実施の形態に係る進行方向の矢印を表示している状態を示す図である。It is a figure which shows the state which is displaying the arrow of the advancing direction which concerns on embodiment.

以下、図を参照して、本実施の形態に係る携帯端末装置1について説明する。   Hereinafter, the mobile terminal device 1 according to the present embodiment will be described with reference to the drawings.

<携帯端末装置1の構成>
図1(a)は、第1ユニット10を第2ユニット20に重ねた状態を示す、携帯端末装置1を見た斜視図である。図1(b)は、第1ユニット10と第2ユニット20とを並べた状態を示す、携帯端末装置1を見た斜視図である。図2(a)は、図1(a)のA−A’線における断面図である。図2(b)は、図1(a)のB−B’線における断面図である。
<Configuration of mobile terminal device 1>
FIG. 1A is a perspective view of the mobile terminal device 1 showing a state in which the first unit 10 is overlaid on the second unit 20. FIG. 1B is a perspective view of the mobile terminal device 1 showing a state in which the first unit 10 and the second unit 20 are arranged. FIG. 2A is a cross-sectional view taken along the line AA ′ in FIG. FIG. 2B is a cross-sectional view taken along line BB ′ in FIG.

携帯端末装置1は、携帯電話機、PDA、携帯ゲーム機など近距離無線通信機能を有する、持ち運び可能なコンピュータである。携帯端末装置1は、第1ユニット10および第2ユニット20を備える。   The mobile terminal device 1 is a portable computer having a short-range wireless communication function such as a mobile phone, a PDA, or a mobile game machine. The mobile terminal device 1 includes a first unit 10 and a second unit 20.

第1ユニット10は、第2ユニット20の上に重ねられ、第2ユニット20に対してスライド可能である。第1ユニット10は、第1底部11を備える。   The first unit 10 is overlaid on the second unit 20 and is slidable with respect to the second unit 20. The first unit 10 includes a first bottom portion 11.

第1底部11は、長方形状であり、ポリカーボネートやアクリルなどの透明樹脂により射出成型で形成される。第1底部11には、2つの底貫通孔11aが互いに間隔を隔てて設けられる。底貫通孔11aは、細長く、第1ユニット10がスライドする方向に延びる。底貫通孔11aには、スライド部12が嵌められている。   The first bottom portion 11 has a rectangular shape and is formed by injection molding with a transparent resin such as polycarbonate or acrylic. The first bottom portion 11 is provided with two bottom through holes 11a spaced from each other. The bottom through-hole 11a is elongated and extends in the direction in which the first unit 10 slides. The slide portion 12 is fitted in the bottom through hole 11a.

スライド部12は、細長い部材の本体部分を有する。本体部分は、底貫通孔11aに嵌められ、後述する第2蓋部27より上方に配置される。スライド部12は、本体部分の中間部に挿入孔12aを有し、本体部分の端部に係止部12bを有する。係止部12bは、底貫通孔11aおよび後述するガイド孔27aを通り、第2蓋部27の中に突き出る。係止部12bには、貫通孔12cが形成されている。貫通孔12cは、本体部分の上面から係止部12bの側面へ貫いて、第1ユニット10と第2ユニット20の中とを連結している。2つのスライド部12の間で第1底部11の上に、第1表示部13が配置されている。   The slide portion 12 has a main body portion of an elongated member. The main body portion is fitted in the bottom through hole 11a and is disposed above the second lid portion 27 described later. The slide part 12 has an insertion hole 12a in the middle part of the main body part, and has a locking part 12b at the end part of the main body part. The locking portion 12b protrudes into the second lid portion 27 through the bottom through hole 11a and a guide hole 27a described later. A through hole 12c is formed in the locking portion 12b. The through hole 12c penetrates from the upper surface of the main body portion to the side surface of the locking portion 12b, and connects the first unit 10 and the second unit 20 inside. A first display portion 13 is disposed on the first bottom portion 11 between the two slide portions 12.

第1表示部13は、長方形の平板形状であって、たとえば、透明な液晶表示器により構成される。液晶表示器は、液晶パネルを含み、液晶パネルの背後にバックライトが配されていない。液晶パネルは、表示モードがノーマリーホワイトである。液晶パネルは、2枚の透明板(図示せず)の間に透明液晶(図示せず)および透明電極(図示せず)が挟まれ
て構成される。第1表示部13の端に電極13aが設けられ、第1表示部13の上に第1入力部14が重ねられている。
The 1st display part 13 is a rectangular flat plate shape, Comprising: For example, it is comprised by the transparent liquid crystal display. The liquid crystal display includes a liquid crystal panel, and no backlight is arranged behind the liquid crystal panel. The liquid crystal panel has a normally white display mode. The liquid crystal panel is configured by sandwiching a transparent liquid crystal (not shown) and a transparent electrode (not shown) between two transparent plates (not shown). An electrode 13 a is provided at the end of the first display unit 13, and the first input unit 14 is overlaid on the first display unit 13.

電極13aは、透明な液晶表示器と配線15とを接続する。配線15には、フレキシブル基板が用いられる。配線15は、係止部12bの貫通孔12cを通り、第2蓋部27の中へ抜ける。   The electrode 13 a connects the transparent liquid crystal display and the wiring 15. A flexible substrate is used for the wiring 15. The wiring 15 passes through the through hole 12c of the locking portion 12b and goes into the second lid portion 27.

第1入力部14には、ユーザによる接触の存在および位置を検出するタッチセンサなどが用いられる。タッチセンサは、透明な長方形状のシートであり、マトリクス状に2つの透明電極(図示せず)が組み込まれている。第1入力部14の配線は、第1表示部13の配線15と同様に、係止部12bの貫通孔12cを通り、第2蓋部27の中に導かれる。   The first input unit 14 is a touch sensor that detects the presence and position of contact by the user. The touch sensor is a transparent rectangular sheet, and two transparent electrodes (not shown) are incorporated in a matrix. Similar to the wiring 15 of the first display unit 13, the wiring of the first input unit 14 passes through the through hole 12 c of the locking unit 12 b and is guided into the second lid 27.

第1蓋部16は、第1入力部14を覆うように、第1底部11の上に載せられる。第1蓋部16は、ポリカーボネートやアクリルなどの透明樹脂を材料として射出成型により形成される。第1蓋部16には、第1表示面16bが形成され、第1表示面16bは、第1表示部13または第2表示部25に重なる範囲に位置する。また、第1蓋部16には、2つの蓋貫通孔16aが設けられる。蓋貫通孔16aは、底貫通孔11aの上に設けられ、蓋貫通孔16aに被覆部17が嵌められる。   The first lid portion 16 is placed on the first bottom portion 11 so as to cover the first input portion 14. The first lid portion 16 is formed by injection molding using a transparent resin such as polycarbonate or acrylic. A first display surface 16 b is formed on the first lid portion 16, and the first display surface 16 b is located in a range overlapping the first display portion 13 or the second display portion 25. The first lid portion 16 is provided with two lid through holes 16a. The lid through-hole 16a is provided on the bottom through-hole 11a, and the covering portion 17 is fitted into the lid through-hole 16a.

被覆部17は、不透明な樹脂を材料として射出成型により形成される。被覆部17は、底貫通孔11aの中に納まるスライド部12を覆う。被覆部17にはネジ孔17aが設けられている。ネジ孔17aとスライド部12の挿入孔12aとにビス18が嵌られることにより、スライド部12および被覆部17が縦方向に接続される。   The covering portion 17 is formed by injection molding using an opaque resin as a material. The covering portion 17 covers the slide portion 12 that fits in the bottom through hole 11a. The cover portion 17 is provided with a screw hole 17a. When the screw 18 is fitted into the screw hole 17a and the insertion hole 12a of the slide portion 12, the slide portion 12 and the covering portion 17 are connected in the vertical direction.

スライド部12および被覆部17が接続されることにより、第1蓋部16と第1底部11とが固定され、第1ユニット10が組み立てられる。   By connecting the slide part 12 and the covering part 17, the first lid part 16 and the first bottom part 11 are fixed, and the first unit 10 is assembled.

第2ユニット20は、第2底部21を備える。第2底部21は、長方形状であり、第1蓋部16とほぼ同じ大きさである。第2底部21の中には支持部21aが設けられる。支持部21aは、細長い突条部であって、第1ユニット10がスライドする方向に延びる。支持部21aの上に、受部26が配置されている。   The second unit 20 includes a second bottom portion 21. The second bottom portion 21 has a rectangular shape and is approximately the same size as the first lid portion 16. A support portion 21 a is provided in the second bottom portion 21. The support portion 21a is an elongated ridge portion, and extends in the direction in which the first unit 10 slides. The receiving part 26 is arrange | positioned on the support part 21a.

受部26は、底板および側板を有し、第1ユニット10がスライドする方向に延びる。受部26は、ガイド孔27aの下に配置され、ガイド孔27aから突き出た係止部12bに添えられる。   The receiving part 26 has a bottom plate and a side plate and extends in a direction in which the first unit 10 slides. The receiving portion 26 is disposed under the guide hole 27a and attached to the locking portion 12b protruding from the guide hole 27a.

電池22は、第2底部21の中に配置され、電池22の上に基板23が重ねられている。基板23の表面にはコネクタ23aと、CPUやメモリなどの電子部品(図示せず)とが配される。コネクタ23aおよび電子部品の間が配線(図示せず)で接続される。また、電池22の横にコネクタ22aが設けられている。コネクタ22aには、基板23および電池22が接続されるとともに、第1表示部13の配線15および第1入力部14の配線が接続される。基板23の上に、第2表示部25が積み重ねられる。   The battery 22 is disposed in the second bottom portion 21, and the substrate 23 is overlaid on the battery 22. On the surface of the substrate 23, a connector 23a and electronic components (not shown) such as a CPU and a memory are arranged. The connector 23a and the electronic component are connected by wiring (not shown). A connector 22 a is provided beside the battery 22. The connector 22 a is connected to the substrate 23 and the battery 22, and is connected to the wiring 15 of the first display unit 13 and the wiring of the first input unit 14. The second display unit 25 is stacked on the substrate 23.

第2表示部25は、たとえば、透明でない液晶表示器で構成される。液晶表示器は、液晶パネル25aと、液晶パネル25aを照明するための照明部とを有する。液晶パネル25aは、2枚の透明板(図示せず)の間に透明液晶(図示せず)および透明電極(図示せず)が挟まれて構成される。照明部は、導光板25bおよび発光部25cを含む。導光板25bは、発光部25cからの光を第2表示部25に導くように、発光部25cの横で、かつ液晶パネル25aの下に配置される。液晶パネル25aの上に、第2入力部24が積み重ねられる。   The 2nd display part 25 is comprised with the liquid crystal display which is not transparent, for example. The liquid crystal display includes a liquid crystal panel 25a and an illumination unit for illuminating the liquid crystal panel 25a. The liquid crystal panel 25a is configured by sandwiching a transparent liquid crystal (not shown) and a transparent electrode (not shown) between two transparent plates (not shown). The illumination unit includes a light guide plate 25b and a light emitting unit 25c. The light guide plate 25b is disposed beside the light emitting unit 25c and below the liquid crystal panel 25a so as to guide light from the light emitting unit 25c to the second display unit 25. The second input unit 24 is stacked on the liquid crystal panel 25a.

第2入力部24は、たとえば、タッチセンサが用いられる。タッチセンサは、透明な長方形状のシートである。タッチセンサには、マトリクス状に2つの透明電極(図示せず)が組み込まれ、透明電極に配線(図示せず)が接続される。   For example, a touch sensor is used as the second input unit 24. The touch sensor is a transparent rectangular sheet. In the touch sensor, two transparent electrodes (not shown) are incorporated in a matrix, and wiring (not shown) is connected to the transparent electrodes.

発光部25c、液晶パネル25aおよび第2入力部24にはそれぞれ配線(図示せず)が配され、これらの配線は基板23に接続される。   Wirings (not shown) are arranged on the light emitting unit 25 c, the liquid crystal panel 25 a and the second input unit 24, respectively, and these wirings are connected to the substrate 23.

第2蓋部27は、第2底部21に連結されて、第2ユニット20を形成する。第2蓋部27の中央には、透明な表示窓が形成されている。表示窓は、第2表示面27bであって、第2表示部25に平行に設けられ、第2表示部に重なる範囲に位置する。また、第2蓋部27には、2つのガイド孔27aが互いに間隔を隔てて設けられる。ガイド孔27aを通る係止部12bが、ガイド孔27aを囲む第2蓋部27の縁に係止されることにより、第1ユニット10と第2ユニット20が連結される。   The second lid portion 27 is connected to the second bottom portion 21 to form the second unit 20. A transparent display window is formed in the center of the second lid portion 27. The display window is the second display surface 27b, is provided in parallel with the second display unit 25, and is located in a range overlapping the second display unit. The second lid portion 27 is provided with two guide holes 27a spaced apart from each other. The first unit 10 and the second unit 20 are connected by the locking portion 12b passing through the guide hole 27a being locked to the edge of the second lid portion 27 surrounding the guide hole 27a.

<携帯端末装置1の動作>
図3(a)は、第1ユニット10および第2ユニット20が重ねられた時の配線15を示す斜視図である。図3(b)は、第1ユニット10および第2ユニット20が並べられた時の配線15を示す斜視図である。なお、図3(a)および図3(b)において、配線15の様子がわかりやすいように、第1蓋部16などの一部の部品が実線で表わされている。
<Operation of the mobile terminal device 1>
FIG. 3A is a perspective view showing the wiring 15 when the first unit 10 and the second unit 20 are overlapped. FIG. 3B is a perspective view showing the wiring 15 when the first unit 10 and the second unit 20 are arranged. 3A and 3B, some parts such as the first lid portion 16 are represented by solid lines so that the state of the wiring 15 can be easily understood.

図1(a)のように、携帯端末装置1が畳まれ、第1ユニット10が第2ユニット20に重なった状態では、第1表示面16bが外部に現れ、第2表示面27bが第1ユニット10の下に隠れる。以下、この携帯端末装置1の状態を閉状態といい、表示形態を第1形態という。   As shown in FIG. 1A, when the mobile terminal device 1 is folded and the first unit 10 overlaps the second unit 20, the first display surface 16b appears outside and the second display surface 27b is the first. Hidden under unit 10. Hereinafter, the state of the mobile terminal device 1 is referred to as a closed state, and the display form is referred to as a first form.

第1形態では、図3(a)に示すように、スライド部12の係止部12bが、ガイド孔27aの一方端、即ち、基板23のコネクタ23aの近傍に位置する。配線15は、係止部12bの貫通孔12cから受部26に沿って延び、途中で折れ曲がり、受部26に沿いながら貫通孔12cの方に戻り、コネクタ23aに接続される。   In the first mode, as shown in FIG. 3A, the locking portion 12b of the slide portion 12 is positioned at one end of the guide hole 27a, that is, in the vicinity of the connector 23a of the substrate 23. The wiring 15 extends along the receiving portion 26 from the through hole 12c of the locking portion 12b, bends in the middle, returns to the through hole 12c along the receiving portion 26, and is connected to the connector 23a.

一方、図1(b)に示すように、携帯端末装置1が広げられ、第1ユニット10が第2ユニット20の側方に引き出されると、第1表示面16bおよび第2表示面27bの両方が外部に現れる。このとき、第1ユニット10の端部が第2表示面27bの端部にわずかに重なり、第1表示面16bと第2表示面27bが隙間のない状態で横に並ぶ。以下。この携帯端末装置1の状態を開状態といい、表示形態を第2形態という。   On the other hand, as shown in FIG. 1B, when the mobile terminal device 1 is unfolded and the first unit 10 is pulled out to the side of the second unit 20, both the first display surface 16b and the second display surface 27b are used. Appears outside. At this time, the end of the first unit 10 slightly overlaps the end of the second display surface 27b, and the first display surface 16b and the second display surface 27b are arranged side by side with no gap. Less than. The state of the mobile terminal device 1 is referred to as an open state, and the display form is referred to as a second form.

第2形態では、図3(b)に示すように、スライド部12の係止部12bがガイド孔27aの一方端から他方端へ移動し、ガイド孔27aが開口する。係止部12bが基板23のコネクタ23aの位置から遠ざかり、配線15は、係止部12bの貫通孔12cから基板23のコネクタ23aへ直線状に延びる。     In the second mode, as shown in FIG. 3B, the locking portion 12b of the slide portion 12 moves from one end of the guide hole 27a to the other end, and the guide hole 27a opens. The locking portion 12b moves away from the position of the connector 23a on the board 23, and the wiring 15 extends linearly from the through hole 12c of the locking portion 12b to the connector 23a on the board 23.

なお、第1形態と第2形態とに切り替わることで、第2ユニット20は、第1形態における第1ユニット10に重なる第1位置と、第2形態における第1ユニット10の横に並ぶ第2位置とを、移動する。   In addition, by switching to the first form and the second form, the second unit 20 has a first position that overlaps the first unit 10 in the first form and a second line that is arranged beside the first unit 10 in the second form. Move the position.

<携帯端末装置1の回路>
図4は、携帯端末装置1の回路のブロック図を示す。
<Circuit of the mobile terminal device 1>
FIG. 4 is a block diagram of a circuit of the mobile terminal device 1.

本実施の形態の携帯端末装置1は、上述した各構成要素の他、CPU100、メモリ101、通信モジュール102、開閉センサ103、測位部104、方位センサ105、加速度センサ106およびクロック107を備えている。   The mobile terminal device 1 according to the present embodiment includes a CPU 100, a memory 101, a communication module 102, an open / close sensor 103, a positioning unit 104, an orientation sensor 105, an acceleration sensor 106, and a clock 107 in addition to the above-described components. .

第1表示部13および第2表示部25は、CPU100から映像信号を受ける。これら映像信号に基づいて各表示部13、25の透明電極に電圧が加えられることで、液晶の配向が変化し、液晶を通過する光が変調される。これにより、各表示部13、25は、アイコンやキーボードなどの図、写真、文字、絵およびウインドウなどの画像を表示する。第1表示部13により表示された画像は、透明な第1入力部14を介して第1蓋部16の第1表示面16bに映し出される。第2表示部25により表示された画像は、透明な第2入力部24を介して第2蓋部27の第2表示面27bに映し出される。ただし、第1形態において、第1表示部13が透明な状態であれば、第2表示部25により表示された画像は、透明な第1表示部13を介して第1表示面16bに映し出される。このため、第1表示面16bには、第1表示部13による画像または第2表示部25による画像が表示される。   The first display unit 13 and the second display unit 25 receive video signals from the CPU 100. By applying a voltage to the transparent electrodes of the display units 13 and 25 based on these video signals, the alignment of the liquid crystal changes, and the light passing through the liquid crystal is modulated. Thereby, each display part 13 and 25 displays images, such as illustrations, such as an icon and a keyboard, a photograph, a character, a picture, and a window. The image displayed by the first display unit 13 is displayed on the first display surface 16 b of the first lid unit 16 via the transparent first input unit 14. The image displayed by the second display unit 25 is displayed on the second display surface 27 b of the second lid 27 via the transparent second input unit 24. However, in the first embodiment, if the first display unit 13 is in a transparent state, the image displayed by the second display unit 25 is displayed on the first display surface 16b via the transparent first display unit 13. . For this reason, the image by the 1st display part 13 or the image by the 2nd display part 25 is displayed on the 1st display surface 16b.

また、第1表示部13では、電圧が加えられていない表示領域において、透過率が最大となり、光が透過する。ここで、第1表示部13を挟む第1蓋部16、第1入力部14および第1底部が透明であるため、第1表示部13において光が透過する表示領域は、透明または半透明になっており、第1表示部13の背後にある風景を見通し可能なシースルー状態になる。   Moreover, in the 1st display part 13, in the display area where the voltage is not applied, the transmittance | permeability becomes the maximum and light permeate | transmits. Here, since the first lid portion 16, the first input portion 14, and the first bottom portion sandwiching the first display portion 13 are transparent, the display area through which light is transmitted in the first display portion 13 is transparent or translucent. Thus, a see-through state in which the scenery behind the first display unit 13 can be seen is obtained.

第2表示部25の発光部25cには、CPU100からの制御信号により、電池22からの電力が供給される。これにより、発光部25cが発光する。発光した光は、導光板25bの側面から導光板25bに入射し、導光板25bの内部で反射しながら、光の一部が導光板25bの表面から液晶パネル25a側に出る。これにより、導光板25bの全体から光が均一に発せられ、液晶パネル25aへ光が照射される。これにより、第2表示面27bに表示される画像が視認可能になる。なお、第1表示部13には発光部25cが設けられていないが、第1表示部13の液晶パネル25aは、第1形態では外光により照らされて、第2形態では第2表示部25からの光により照らされる。これにより、第1表示面16bに表示される画像が視認可能にある。   Power from the battery 22 is supplied to the light emitting unit 25 c of the second display unit 25 by a control signal from the CPU 100. Thereby, the light emission part 25c light-emits. The emitted light enters the light guide plate 25b from the side surface of the light guide plate 25b, and a part of the light exits from the surface of the light guide plate 25b to the liquid crystal panel 25a side while being reflected inside the light guide plate 25b. Thereby, light is uniformly emitted from the entire light guide plate 25b, and the liquid crystal panel 25a is irradiated with light. Thereby, the image displayed on the 2nd display surface 27b becomes visible. In addition, although the light emission part 25c is not provided in the 1st display part 13, the liquid crystal panel 25a of the 1st display part 13 is illuminated by external light in the 1st form, and the 2nd display part 25 in the 2nd form. Illuminated by light from. Thereby, the image displayed on the 1st display surface 16b can be visually recognized.

第1入力部14は、透明電極間の静電容量の変化を検出する。これによって、ユーザの指などが第1表示面16bにおいて触れた位置において静電容量が変化すると、第1入力部14は、ユーザの接触位置に応じた信号をCPU100に出力する。これにより、ユーザが第1表示面16bに対して示した位置を検出できる。なお、第2形態においては、第1表示部13により表示される画像が第1表示面16bに映し出されるため、第1入力部14は、第1表示部13の画像に対して示された位置を検出する。第1形態において、第1表示面16bに第1表示部13による画像が表示されている場合には、第1入力部14は、第1表示部13による画像に対して示された位置を検出する。一方、第1形態において、第1表示部13が透明であって、第1表示面16bに第2表示部25による画像が表示されている場合には、第1入力部14は、第2表示部25による画像に対して示された位置を検出する。   The first input unit 14 detects a change in capacitance between the transparent electrodes. As a result, when the capacitance changes at a position where the user's finger or the like touches the first display surface 16b, the first input unit 14 outputs a signal corresponding to the contact position of the user to the CPU 100. Thereby, the position which the user showed with respect to the 1st display surface 16b is detectable. In the second form, since the image displayed by the first display unit 13 is displayed on the first display surface 16b, the first input unit 14 is positioned at the position indicated with respect to the image of the first display unit 13. Is detected. In the first form, when the image by the first display unit 13 is displayed on the first display surface 16b, the first input unit 14 detects the position indicated with respect to the image by the first display unit 13. To do. On the other hand, in the first form, when the first display unit 13 is transparent and the image by the second display unit 25 is displayed on the first display surface 16b, the first input unit 14 displays the second display. The position indicated with respect to the image by the unit 25 is detected.

第2入力部24は、第1入力部14と同様に、ユーザの指などが第2表示面27bにおいて触れた位置に応じた信号をCPU100に出力する。これにより、ユーザが第2表示面27bに対して示した位置を検出できる。なお、第1形態および第2形態のどちらにおいても、第2表示面27bには第2表示部25により表示される画像が映し出されるため、第2入力部24は、第2表示部25の画像に対して示された位置を検出する。   Similar to the first input unit 14, the second input unit 24 outputs a signal corresponding to a position touched by the user's finger or the like on the second display surface 27 b to the CPU 100. Thereby, the position which the user showed with respect to the 2nd display surface 27b is detectable. In both the first form and the second form, since the image displayed by the second display unit 25 is displayed on the second display surface 27b, the second input unit 24 displays the image of the second display unit 25. Detect the position indicated for.

電池22は、CPU100からの制御信号を受けて、制御信号に応じて電力をCPU100や各表示部13、25および各入力部14、24などに供給する。   The battery 22 receives a control signal from the CPU 100 and supplies power to the CPU 100, the display units 13 and 25, the input units 14 and 24, and the like according to the control signal.

メモリ101は、ROMおよびRAMを含む記憶部である。メモリ101には、CPU100に制御機能を付与するための制御プログラムが記憶されている。また、メモリ101には、テキスト情報、画像情報および音響情報が所定のファイル形式で記憶されている。さらに、メモリ101には、各表示面16b、27bに表示されているアイコンなどの画像と、アイコンなどが表示されている位置とが対応付けられて記憶されている。また、メモリ101には、図5に示すポイント情報データベースが記憶されている。ポイント情報データベースには、ポイント位置の経度および緯度、ポイント位置を設定した日時、およびポイント位置におけるコメントが含まれる。   The memory 101 is a storage unit including a ROM and a RAM. The memory 101 stores a control program for giving a control function to the CPU 100. The memory 101 stores text information, image information, and sound information in a predetermined file format. Furthermore, the memory 101 stores images such as icons displayed on the display surfaces 16b and 27b in association with positions where icons are displayed. The memory 101 stores a point information database shown in FIG. The point information database includes the longitude and latitude of the point position, the date and time when the point position was set, and a comment at the point position.

通信モジュール102は、CPU100からの音声信号や映像信号、テキスト信号などを無線信号に変換し、アンテナを介して基地局へ送信する。また、通信モジュール102は、受信した無線信号を音声信号や映像信号、テキスト信号などに変換してCPU100へ出力する。   The communication module 102 converts an audio signal, a video signal, a text signal, and the like from the CPU 100 into a radio signal and transmits it to the base station via the antenna. Further, the communication module 102 converts the received wireless signal into an audio signal, a video signal, a text signal, and the like and outputs the converted signal to the CPU 100.

開閉センサ103は第1形態において磁石に近接する位置に配置され、磁石は係止部12bの近傍に配置される。開閉センサ103は、配線により基板23に接続され、基板23のCPU100との間で信号を送受信する。第1形態において磁石が開閉センサ103の近傍に存在する場合、開閉センサ103は、磁石の磁界を検出し、閉である旨の検出信号をCPU100に出力する。反対に、第2形態において磁石が開閉センサ103から離れている場合、開閉センサ103は、磁石の磁界を検出せず、閉である旨の検出信号をCPU100に出力しない。   The open / close sensor 103 is disposed at a position close to the magnet in the first embodiment, and the magnet is disposed in the vicinity of the locking portion 12b. The open / close sensor 103 is connected to the substrate 23 by wiring and transmits / receives a signal to / from the CPU 100 of the substrate 23. When the magnet is present in the vicinity of the open / close sensor 103 in the first embodiment, the open / close sensor 103 detects the magnetic field of the magnet and outputs a detection signal to the CPU 100 indicating that the magnet is closed. On the other hand, when the magnet is separated from the open / close sensor 103 in the second embodiment, the open / close sensor 103 does not detect the magnetic field of the magnet and does not output a detection signal indicating that the magnet is closed to the CPU 100.

測位部104は、GPS衛星からの信号などを受け取り、この信号から位置を求め、位置に応じた信号をCPU100へ出力する。   The positioning unit 104 receives a signal from a GPS satellite, obtains a position from this signal, and outputs a signal corresponding to the position to the CPU 100.

加速度センサ106は、図1(a)のZ軸方向に生じる重力加速度を検出し、重力加速度により第1表示部13の傾きを検出するための傾き検出部である。加速度センサ106は、第1表示部13の背面が水平であって鉛直方向の上側を向いている場合に、重力加速度が+1Gになり、また、第1表示部13の背面が水平であって鉛直方向の下側を向いている場合に、重力加速度が−1Gになるように、配置される。加速度センサ106は、検出した加速度に応じた加速度信号をCPU100へ出力する。ここでは、Z軸方向は、第1表示面16bの法線方向を示す。また、第1表示部13は正面および背面を有し、第1表示部13の正面は第1表示面16bに面する。よって、第1表示部13の背面が鉛直方向の下側を向くと、第1表示面16bは、鉛直方向の上側を向く。このとき、ユーザが、第1表示面16bと向かい合い、第1表示面16bおよび第1表示部13を通して、第1表示部13の背後にある風景、つまりユーザの足元にある地面を見る。   The acceleration sensor 106 is an inclination detection unit for detecting the gravitational acceleration generated in the Z-axis direction in FIG. 1A and detecting the inclination of the first display unit 13 based on the gravitational acceleration. The acceleration sensor 106 has a gravitational acceleration of + 1G when the back surface of the first display unit 13 is horizontal and faces upward in the vertical direction, and the back surface of the first display unit 13 is horizontal and vertical. When facing downward in the direction, it is arranged so that the gravitational acceleration is -1G. The acceleration sensor 106 outputs an acceleration signal corresponding to the detected acceleration to the CPU 100. Here, the Z-axis direction indicates the normal direction of the first display surface 16b. The first display unit 13 has a front surface and a back surface, and the front surface of the first display unit 13 faces the first display surface 16b. Therefore, when the back surface of the first display unit 13 faces the lower side in the vertical direction, the first display surface 16b faces the upper side in the vertical direction. At this time, the user faces the first display surface 16b and views the landscape behind the first display unit 13, that is, the ground at the user's feet, through the first display surface 16b and the first display unit 13.

方位センサ105は方位検出部であって、検出した方位に応じた信号をCPU100へ出力する。方位センサ105には地磁気センサやジャイロセンサなどが用いられる。方位センサ105は、第1方位センサおよび第2方位センサを含む。第1方位センサは、第1表示部13が立てられた状態で、第1表示部13の背面が向いている方位(以下、「背面方位」と言う。)を検出する。なお、背面方位は、図1(a)の−Z軸方向の方位を示す。また、第2方位センサは、第1表示部13が寝かされた状態で、第1表示部13の第1端部が向いている方位(以下、「端部方位」と言う。)を検出する。なお、第1表示部13は、第1端部および第2端部を含む。第1端部および第2端部は、第1ユニット10が第2ユニット20に対してスライドする方向と直交する。携帯端末装置1を第2形態にした状態で、第1端部は、第2端部に比べて第2ユニット20から遠い側に位置する。端部
方位は、図1(a)の+X軸方向の方位を示す。
The direction sensor 105 is an direction detection unit, and outputs a signal corresponding to the detected direction to the CPU 100. As the direction sensor 105, a geomagnetic sensor, a gyro sensor, or the like is used. The direction sensor 105 includes a first direction sensor and a second direction sensor. The first azimuth sensor detects the azimuth (hereinafter referred to as “back azimuth”) in which the back surface of the first display unit 13 is facing in a state where the first display unit 13 is standing. The back orientation indicates the orientation in the −Z-axis direction of FIG. The second orientation sensor detects the orientation (hereinafter referred to as “end portion orientation”) in which the first end of the first display unit 13 faces in the state where the first display unit 13 is laid down. To do. The first display unit 13 includes a first end and a second end. The first end and the second end are orthogonal to the direction in which the first unit 10 slides with respect to the second unit 20. In a state where the mobile terminal device 1 is in the second form, the first end portion is located on the side farther from the second unit 20 than the second end portion. The edge direction indicates the direction in the + X-axis direction of FIG.

クロック107は、日時を計測し、日時情報をCPU100へ出力する。   The clock 107 measures the date and time and outputs date and time information to the CPU 100.

CPU100は、表示部を制御する表示制御部として、各表示部13、25により画像を表示させたり、第1表示部13をシースルー状態に設定したり、第2表示部25の照明を点灯したりする。   As a display control unit that controls the display unit, the CPU 100 displays an image on each of the display units 13 and 25, sets the first display unit 13 in a see-through state, or lights the second display unit 25. To do.

すなわち、CPU100は、メモリ101から読み出したり、通信モジュール102を経由して受信したりして、テキスト情報および画像情報を取得する。CPU100は、これらの情報を映像信号として第1表示部13および第2表示部25のそれぞれに出力し、各表示面16b、27bに画像を表示させる。たとえば、CPU100は、進行方向を示す矢印、目的位置を示すポイントマークPM、および目的位置で設定された日付やコメントなどのポイント情報を目的位置を示す情報として第1表示部13により第1表示面16bに表示させる。   That is, the CPU 100 acquires text information and image information by reading from the memory 101 or receiving via the communication module 102. The CPU 100 outputs the information as a video signal to each of the first display unit 13 and the second display unit 25, and displays an image on each of the display surfaces 16b and 27b. For example, the CPU 100 uses the first display unit 13 to display point information such as an arrow indicating the traveling direction, a point mark PM indicating the target position, and point information such as a date and a comment set at the target position as information indicating the target position. 16b.

また、CPU100は、電池22から第1表示部13に供給される電力を調整する制御信号を出力することにより、透明電極に加えられる電圧を制御し、第1表示部13の透過率を変化させる。これにより、CPU100は、第1表示面16bにおいて画像が表示されている表示領域以外の表示領域をシースルー状態に設定する。   Further, the CPU 100 outputs a control signal for adjusting the power supplied from the battery 22 to the first display unit 13, thereby controlling the voltage applied to the transparent electrode and changing the transmittance of the first display unit 13. . Accordingly, the CPU 100 sets the display area other than the display area where the image is displayed on the first display surface 16b to the see-through state.

さらに、CPU100は、画像を第2表示部25に表示させる際に、電池22から発光部25cに電力を供給させ、発光部25cを発光させる。   Furthermore, when displaying an image on the second display unit 25, the CPU 100 supplies power from the battery 22 to the light emitting unit 25c, and causes the light emitting unit 25c to emit light.

CPU100は、位置取得部として、測位部104から位置に応じた信号を受け取り、携帯端末装置1の現在位置を求める。位置としては、緯度および経度など、地球上の地点を表わす座標である。   As a position acquisition unit, the CPU 100 receives a signal corresponding to the position from the positioning unit 104 and obtains the current position of the mobile terminal device 1. The position is a coordinate representing a point on the earth, such as latitude and longitude.

CPU100は、方向取得部であって、後述するように、現在位置から目的位置への方向および現在位置から目的位置への進行方向を求める。   The CPU 100 is a direction acquisition unit, and calculates a direction from the current position to the target position and a traveling direction from the current position to the target position, as will be described later.

CPU100は、判断部として、加速度センサ106からの加速度信号を受け、第1表示部13の背面が下を向いているかを判断する。なお、第1表示部13の背面の向きの判断において重力加速度−1Gから許容範囲:αGを設けることができる。このため、重力加速度が所定閾値:(−1+α)G以下であれば、第1表示部13の背面が下を向いていると判断部は判断する。   As a determination unit, the CPU 100 receives an acceleration signal from the acceleration sensor 106 and determines whether the back surface of the first display unit 13 is facing down. In the determination of the orientation of the back surface of the first display unit 13, an allowable range: αG can be provided from gravity acceleration −1G. For this reason, if the gravitational acceleration is equal to or less than the predetermined threshold value: (−1 + α) G, the determination unit determines that the back surface of the first display unit 13 is facing downward.

CPU100は、登録部であって、位置取得部からの位置、クロック107からの日時、第2入力部24からの情報などをポイント情報データベースに登録する。   The CPU 100 is a registration unit, and registers the position from the position acquisition unit, the date and time from the clock 107, information from the second input unit 24, and the like in the point information database.

CPU100は、現在位置およびポイント位置など含む要求を通信モジュール102を介して地図サーバなどに送信する。CPU100は、この要求に応じて地図サーバから配信された地図情報を通信モジュール102を介して受信し、地図を第2表示部25に表示させる。なお、地図情報は、地図の画像を表示するための情報、および地図上の座標と地球上の座標とを対応させる情報を含む。地図の画像を表示するための情報は、地図の画像情報であってもよいし、地図を構成するデータであってもよい。地図を構成するデータの場合、地図を表示するための専用プログラムが携帯端末装置1に予めインストールされており、専用プログラムが地図を構成するデータを地図の画像情報に変換することで、地図が表示部によって表示される。また、地図は、現在位置およびポイント位置を含む範囲の画像である。   The CPU 100 transmits a request including the current position and the point position to the map server or the like via the communication module 102. In response to this request, the CPU 100 receives the map information distributed from the map server via the communication module 102 and causes the second display unit 25 to display the map. The map information includes information for displaying a map image, and information for associating the coordinates on the map with the coordinates on the earth. The information for displaying the map image may be map image information or data constituting the map. In the case of data constituting a map, a dedicated program for displaying the map is installed in the mobile terminal device 1 in advance, and the map is displayed by the dedicated program converting the data constituting the map into map image information. Displayed by part. The map is an image of a range including the current position and the point position.

<携帯端末装置1の機能>
図6は、ポイント情報を設定する処理手順を示すフローチャートである。図7は、ポイント情報を設定している状態を示す。
<Functions of the mobile terminal device 1>
FIG. 6 is a flowchart showing a processing procedure for setting point information. FIG. 7 shows a state in which point information is set.

CPU100は、第1表示面16bまたは第2表示面27bに操作メニューを表示する。ユーザは、操作メニューの中からポイント情報設定のアイコンの位置をタッチすると、ポイント情報を設定するための機能が選択されて、この制御プログラムが起動する。   The CPU 100 displays an operation menu on the first display surface 16b or the second display surface 27b. When the user touches the position of the icon for setting point information from the operation menu, a function for setting point information is selected and this control program is activated.

まず、CPU100は、携帯端末装置1が第2形態であるか否かを判断する(S101)。ここで、開閉センサ103からの閉である旨の検出信号が入力されていれば、CPU100は、携帯端末装置1が閉状態であって、この表示形態が第1形態を採り、第2形態でないと判断する(S101:NO)。そして、CPU100は、メモリ101から所定のメッセージ情報を読み取り、「携帯端末装置1を開いてください。」などのメッセージを第1表示面16bに表示する(S102)。メッセージにより、携帯端末装置1が第2形態を採るように、ユーザに促される。   First, the CPU 100 determines whether or not the mobile terminal device 1 is in the second form (S101). Here, if the detection signal indicating that the opening / closing sensor 103 is closed is input, the CPU 100 indicates that the mobile terminal device 1 is in the closed state, and the display form adopts the first form, not the second form. (S101: NO). Then, the CPU 100 reads predetermined message information from the memory 101, and displays a message such as “Please open the mobile terminal device 1” on the first display surface 16b (S102). The message prompts the user to take the mobile terminal device 1 in the second form.

一方、開閉センサ103からの検出信号が入力されていなければ、CPU100は、携帯端末装置1が開状態であって、この表示形態が第2形態であると判断する(S101:YES)。そして、CPU100は、第1表示部13を透明にして、第1表示面16bをシースルー状態に設定する(S103)。これにより、第2形態の携帯端末装置1では、第1ユニット10の下に何も重なっていないため、第1表示面16bから背後の風景を見ることができる状態になる。   On the other hand, if the detection signal from the open / close sensor 103 is not input, the CPU 100 determines that the mobile terminal device 1 is in the open state and the display form is the second form (S101: YES). And CPU100 makes the 1st display part 13 transparent and sets the 1st display surface 16b to a see-through state (S103). Thereby, in the portable terminal device 1 of the 2nd form, since nothing overlaps under the 1st unit 10, it will be in the state which can see the scenery of the back from the 1st display surface 16b.

CPU100は、加速度センサ106から重力加速度を取得する(S104)。CPU100は、重力加速度と予め定められた閾値:(−1+α)Gとを比較して、比較結果から第1表示部13の背面が下を向いているか否かを判断する(S105)。すなわち、重力加速度が所定の閾値より大きければ、CPU100は、第1表示部13の背面が下向きでないと判断する(S105:NO)。この場合、CPU100は、メモリ101から所定のメッセージ情報を読み出し、「表示部を下に向けてください。」などのメッセージを第1表示面16bに表示する(S106)。これにより、ユーザに第1表示部13の背面を下に向けるように促す。   The CPU 100 acquires gravitational acceleration from the acceleration sensor 106 (S104). The CPU 100 compares the gravitational acceleration with a predetermined threshold value: (−1 + α) G, and determines whether or not the back surface of the first display unit 13 faces downward from the comparison result (S105). That is, if the gravitational acceleration is greater than the predetermined threshold, the CPU 100 determines that the back surface of the first display unit 13 is not facing downward (S105: NO). In this case, the CPU 100 reads predetermined message information from the memory 101, and displays a message such as “Please turn the display unit downward” on the first display surface 16b (S106). This prompts the user to turn the back of the first display unit 13 downward.

一方、重力加速度が所定の閾値以下であれば、CPU100は、第1表示部13の背面が下向きであると判断する(S105:YES)。この場合、第1表示部13の背面を下に向けたユーザは、シースルー状態の第1表示面16bを通して、地面を見ながら、ポイントを設定する位置を探すことができる。ポイント位置が決まれば、ユーザは、第1表示面16bの中央をポイントの設定位置に合わせて、第1表示面16bの中央をタッチして、ポイント位置を入力する。これにより、CPU100は、入力部から位置信号を受けて、位置入力があったと判断する(S107:YES)。   On the other hand, if the gravitational acceleration is equal to or less than the predetermined threshold, the CPU 100 determines that the back surface of the first display unit 13 is facing downward (S105: YES). In this case, the user with the back surface of the first display unit 13 facing down can look for the position where the point is set while looking at the ground through the first display surface 16b in the see-through state. If the point position is determined, the user aligns the center of the first display surface 16b with the point setting position, touches the center of the first display surface 16b, and inputs the point position. Thereby, CPU100 receives a position signal from an input part, and judges that there was position input (S107: YES).

ポイント位置が設定されると、CPU100は、位置:緯度および軽度、たとえば、緯度35度63分、経度139度88分を測位部104から取得して、位置をポイント位置として図5に示すポイント情報データベースに格納する。また、CPU100は、日時、たとえば、2010年8月2日をクロック107から取得して、日時をポイント位置に対応させてポイント情報データベースに格納する(S108)。なお、日時は、携帯端末装置1内のクロック107からの日時データに代えて、携帯端末装置1に接続されるネットワークからの日時データであってもよい。   When the point position is set, the CPU 100 acquires the position: latitude and light, for example, latitude 35 degrees 63 minutes, longitude 139 degrees 88 minutes from the positioning unit 104, and uses the position as the point position to indicate the point information shown in FIG. Store in the database. Further, the CPU 100 acquires the date and time, for example, August 2, 2010 from the clock 107, and stores the date and time in the point information database in association with the point position (S108). The date and time may be date and time data from a network connected to the mobile terminal device 1 instead of the date and time data from the clock 107 in the mobile terminal device 1.

図7に示すように、CPU100は、第1表示面16bにコメント欄を表示し、第1表
示面16bの中央にピンの形をしたポイントマークPMを表示する(S109)。また、CPU100は、第2表示面27bにソフトウェアのキーボードをコメント入力用として表示する(S110)。ここで、ユーザは、第2表示面27bのキーボード位置をタッチしながら、文字を入力する。文字入力に伴い、CPU100は、入力部から文字を受け、文字をコメント欄に表示する。また、入力された文字が確定されると、CPU100は、文字をポイント情報データベースのコメントに格納する(S110)。これにより、ポイント情報データベースに、緯度、経度、日時およびコメントが対応付けられて、ポイント情報として入力される。
As shown in FIG. 7, the CPU 100 displays a comment field on the first display surface 16b, and displays a point mark PM in the shape of a pin at the center of the first display surface 16b (S109). Further, the CPU 100 displays a software keyboard for inputting comments on the second display surface 27b (S110). Here, the user inputs characters while touching the keyboard position on the second display surface 27b. As the character is input, CPU 100 receives the character from the input unit and displays the character in the comment field. When the input character is confirmed, the CPU 100 stores the character in the comment of the point information database (S110). Thereby, the latitude, longitude, date, and comment are associated with the point information database and input as point information.

図8〜図10は、ポイントマークPMにより登録した地点へユーザを案内するための表示に係る処理手順を示すフローチャートである。図11および図12は、第1表示面16bを通して水平方向を見たときに、ポイント位置の方向を示す進行方向の矢印DAを第1表示面16bに表示した状態を示す。図13は、第1表示面16bを通して真下を見たときに、進行方向の矢印DAを第1表示面16bに表示した状態を示す。図14は、第1表示面16bを通して真下を見たときに、ポイント位置を示すポイントマークPMを第1表示面16bに表示した状態を示す。   FIG. 8 to FIG. 10 are flowcharts showing a processing procedure related to display for guiding the user to a point registered by the point mark PM. FIG. 11 and FIG. 12 show a state in which an arrow DA of the traveling direction indicating the direction of the point position is displayed on the first display surface 16b when viewed in the horizontal direction through the first display surface 16b. FIG. 13 shows a state in which an arrow DA in the traveling direction is displayed on the first display surface 16b when viewed directly below through the first display surface 16b. FIG. 14 shows a state in which a point mark PM indicating a point position is displayed on the first display surface 16b when viewed directly below through the first display surface 16b.

CPU100は、1表示領域16bまたは第2表示面27bに操作メニューを表示する。ユーザは、操作メニューの中からポイント表示のアイコンの位置をタッチすると、ポイントマークPMにより登録した地点へユーザを案内するための機能が選択されて、この制御プログラムが起動する。   The CPU 100 displays an operation menu on the one display area 16b or the second display surface 27b. When the user touches the position of the point display icon from the operation menu, a function for guiding the user to the registered location by the point mark PM is selected, and this control program is activated.

CPU100は、携帯端末装置1が第2形態であるか否かを判断する(S201)。CPU100は、開閉センサ103から検出信号を受けていれば、携帯端末装置1が第2形態でないと判断する(S201:NO)。そして、CPU100は、メモリ101から所定のメッセージ情報を読み出し、携帯端末装置1を第1形態から第2形態に変えるようにユーザに対して促すメッセージを第2表示面27bに表示する(S202)。   CPU100 judges whether portable terminal device 1 is the 2nd form (S201). CPU100 will judge that the portable terminal device 1 is not a 2nd form, if the detection signal is received from the opening-and-closing sensor 103 (S201: NO). Then, the CPU 100 reads predetermined message information from the memory 101, and displays a message prompting the user to change the portable terminal device 1 from the first form to the second form on the second display surface 27b (S202).

CPU100は、開閉センサ103から検出信号が受けていなければ、携帯端末装置1が第2形態であると判断する(S201:YES)。第2形態では第1ユニット10に何も重なっていないため、第1ユニット10を通して背後の景色が見えるように、CPU100は、第1表示部13を透明にして、第1表示面16bをシースルー状態に設定する(S203)。   If no detection signal is received from the open / close sensor 103, the CPU 100 determines that the mobile terminal device 1 is in the second form (S201: YES). In the second form, nothing overlaps with the first unit 10, so the CPU 100 makes the first display unit 13 transparent and the first display surface 16 b in a see-through state so that the background behind the first unit 10 can be seen. (S203).

CPU100は、測位部104から現在位置の緯度および経度を取得する(S204)。そして、CPU100は、現在位置の緯度および経度と、ポイント情報データベースのポイント位置の緯度および経度とを比較部として比較し、現在位置から一定範囲内にあるポイント位置を検索する(S205)。なお、一定範囲は、予め定められた範囲であってもよいし、ユーザが任意に設定した表示領域であってもよい。   The CPU 100 acquires the latitude and longitude of the current position from the positioning unit 104 (S204). Then, the CPU 100 compares the latitude and longitude of the current position with the latitude and longitude of the point position in the point information database as a comparison unit, and searches for a point position within a certain range from the current position (S205). The fixed range may be a predetermined range or a display area arbitrarily set by the user.

検索の結果、現在位置から一定範囲内にあるポイント位置がなければ、CPU100は、現在位置のポイント位置が無いと判断する(S206:NO)。このため、CPU100は、メモリ101から所定のメッセージを読み出し、「周囲にポイント位置がありません。」などのメッセージを第1表示面16bに表示する。   If there is no point position within a certain range from the current position as a result of the search, the CPU 100 determines that there is no point position at the current position (S206: NO). For this reason, the CPU 100 reads a predetermined message from the memory 101 and displays a message such as “There is no point position around” on the first display surface 16b.

一方、現在位置から一定範囲内にあるポイント位置があれば、CPU100は、現在位置の周囲にポイント位置があると判断し、(S206:YES)検索されたポイント位置を目的位置に設定する。ここで、複数のポイント位置が検索された場合、複数のポイント位置から1つ選択して、このポイント位置を目的位置に設定する。たとえば、CPU100が、現在位置から最も近いポイント位置を求めて、このポイント位置を目的位置とする
こともできる。また、検索された複数のポイント位置が地図やリストなどの形式で各表示面16b、27bに表示されて、ユーザがこの中から目的位置を選択することもできる。
On the other hand, if there is a point position within a certain range from the current position, the CPU 100 determines that there is a point position around the current position (S206: YES), and sets the searched point position as the target position. Here, when a plurality of point positions are searched, one is selected from the plurality of point positions, and this point position is set as a target position. For example, the CPU 100 may obtain a point position closest to the current position and set this point position as the target position. In addition, a plurality of searched point positions are displayed on the display surfaces 16b and 27b in the form of a map or a list, and the user can select a target position from these.

CPU100は、現在位置および目的位置を地図サーバに送信して、これに応じた地図情報を地図サーバから受信する。CPU100は、地図情報に含まれる地図上の座標と地球上の座標とを対応させる情報を基に、現在位置および目的位置の緯度・経度を地図上の座標に変換させる。そして、図14に示すように、CPU100は、地図、現在位置を示す現在地マーク、目的位置を示す目的地マークを第2表示面27bに表示する(S208)。なお、地図上に、現在地マークが▲で示され、目的地マークが●で示される。   The CPU 100 transmits the current position and the target position to the map server, and receives map information corresponding thereto from the map server. The CPU 100 converts the latitude / longitude of the current position and the target position into coordinates on the map based on information that associates the coordinates on the map and the coordinates on the earth included in the map information. Then, as shown in FIG. 14, the CPU 100 displays a map, a current position mark indicating the current position, and a destination mark indicating the target position on the second display surface 27b (S208). On the map, the current location mark is indicated by ▲ and the destination mark is indicated by ●.

CPU100は、現在位置と目的位置とを比較して、現在位置が目的位置であるか否かを判断する(S209)。ここで、現在位置と目的位置とが異なれば、CPU100は、現在位置が目的位置でないと判断する(S209:NO)。現在位置から目的位置へユーザを導くために、進行方向を示す。   The CPU 100 compares the current position with the target position and determines whether or not the current position is the target position (S209). Here, if the current position is different from the target position, the CPU 100 determines that the current position is not the target position (S209: NO). In order to guide the user from the current position to the target position, the traveling direction is indicated.

まず、CPU100は、加速度センサ106から重力加速度を得る(S210)。CPU100は、重力加速度と所定の閾値:(−1+α)Gとを比較して、第1表示部13の背面が下を向いているか否かを判断する(S211)。ここで、重力加速度が所定の閾値より大きければ、CPU100は、第1表示部13の背面が下向きでないと判断する(S211:NO)。   First, the CPU 100 obtains gravitational acceleration from the acceleration sensor 106 (S210). The CPU 100 compares the gravitational acceleration with a predetermined threshold: (−1 + α) G, and determines whether or not the back surface of the first display unit 13 is facing down (S211). If the gravitational acceleration is greater than the predetermined threshold value, the CPU 100 determines that the back surface of the first display unit 13 is not facing downward (S211: NO).

このとき、ユーザは、第1ユニット10を立てて第1表示面16bを立てて水平方向に向け、シースルー状態の第1表示部13を通してユーザの前方にある風景を見ている。そこで、ユーザの見ている方向を求めるため、CPU100は、第1方位センサから方位を受け、背面方位を得る(S212)。また、CPU100は、現在位置および目的位置に基づき、現在位置から目的位置への方向を算出する(S213)。ここで、CPU100は、図11〜図12で示す第2表示面27bの地図上に、背面方位を実線の矢印SLで表わし、目的位置への方向を破線BLで表わす。地図上において、ユーザは、矢印SLから自身が見ている方向を把握でき、また、矢印BLから目的位置の方向を把握できる。   At this time, the user stands up with the first unit 10 and stands up with the first display surface 16b in the horizontal direction, and sees the scenery in front of the user through the first display unit 13 in the see-through state. Therefore, in order to obtain the direction the user is looking at, the CPU 100 receives the orientation from the first orientation sensor and obtains the back orientation (S212). Further, the CPU 100 calculates a direction from the current position to the target position based on the current position and the target position (S213). Here, on the map of the second display surface 27b shown in FIG. 11 to FIG. 12, the CPU 100 represents the back orientation by a solid arrow SL, and represents the direction to the target position by a broken line BL. On the map, the user can grasp the direction he / she is looking from the arrow SL, and can grasp the direction of the target position from the arrow BL.

しかし、この地図上の表示はユーザが実際に見ている風景とことなるため、ユーザはこの表示から即座に進行方向を理解することは難しい。このため、シースルー状態の第1表示面16bに目的位置の方向を示せば、ユーザは、第1表示面16bを通して見える実際の風景に基づき、進行方向を容易に理解することができる。   However, since the display on the map is different from the scenery that the user actually sees, it is difficult for the user to immediately understand the traveling direction from this display. For this reason, if the direction of the target position is shown on the first display surface 16b in the see-through state, the user can easily understand the traveling direction based on the actual scenery seen through the first display surface 16b.

そこで、CPU100は、背面方位および目的位置への方向から演算することで、目的位置への方向と背面方位との位置関係を求める。たとえば、図11に示すように、目的位置への方向の矢印BLが背面方位の矢印SLに対して右側に位置していれば、進行方向はユーザが見ている方向に対して右手になるので、CPU100は、右を向く進行方向の矢印DAを第1表示面16bに表示する。一方、先の演算結果により目的位置への方向の矢印BLが背面方位の矢印SLに対して左側に位置していれば、進行方向はユーザが見ている方向に対して左手になるので、CPU100は、左を向く進行方向の矢印DAを第1表示面16bに表示する(S214)。なお、上記演算では、背面方位および目的位置への方向をそれぞれベクトルで表わして、これらの外積および内積を求める。この外積および内積から背面方位および目的位置への方向の位置関係が得られる。   Therefore, the CPU 100 calculates the positional relationship between the direction to the target position and the back direction by calculating from the back direction and the direction to the target position. For example, as shown in FIG. 11, if the arrow BL in the direction to the target position is located on the right side with respect to the arrow SL in the back direction, the traveling direction becomes the right hand relative to the direction the user is looking at. The CPU 100 displays the arrow DA of the traveling direction facing right on the first display surface 16b. On the other hand, if the arrow BL in the direction toward the target position is located on the left side with respect to the arrow SL in the back direction according to the previous calculation result, the traveling direction becomes the left hand with respect to the direction the user is looking at. Displays on the first display surface 16b an arrow DA in the traveling direction facing left (S214). In the above calculation, the back direction and the direction to the target position are represented by vectors, and the outer product and inner product thereof are obtained. A positional relationship in the direction from the outer product and the inner product to the back direction and the target position is obtained.

このとき、ユーザが見ている方向が目的位置への方向と異なるため、CPUは、背面方位が目的位置への方向に一致しないと判断する(S215:NO)。このとき、図11に示すように、ユーザは、第1表示面16bを通して実際の風景を眺めながら、進行方向の矢印DAを見ることで、周囲の状況と進行方向とを一体的に見て取れ、ユーザは進行方向
が簡単にわかる。よって、ユーザは、進行方向の矢印DAに従って、現在位置を中心に第1表示面16bの向きを右側に変えていく。ここで、CPUは、S212〜S215までの処理を繰り返す。そして、図12に示すように、背面方位が目的位置への方向に一致すると(S215:YES)、CPU100は、第1表示面16bには上側を向く進行方向の矢印DAを表示する。ユーザは、進行方向の矢印DAから、前方に進むべきことがわかる。
At this time, since the direction in which the user is looking is different from the direction toward the target position, the CPU determines that the back surface orientation does not match the direction toward the target position (S215: NO). At this time, as shown in FIG. 11, the user can see the surrounding situation and the traveling direction integrally by looking at the arrow DA of the traveling direction while viewing the actual scenery through the first display surface 16b. Easily understands the direction of travel. Therefore, the user changes the direction of the first display surface 16b to the right side around the current position according to the arrow DA of the traveling direction. Here, the CPU repeats the processes from S212 to S215. Then, as shown in FIG. 12, when the back orientation coincides with the direction toward the target position (S215: YES), the CPU 100 displays the arrow DA of the traveling direction facing upward on the first display surface 16b. The user knows that the user should move forward from the arrow DA in the direction of travel.

ユーザは進行方向の矢印DAに従い目的位置に向かって移動するため、CPU100は、測位部104から現在位置を得る(S216)。そして、再び、CPU100は、現在位置が目的位置に一致するかを判断する(S209)。   Since the user moves toward the target position according to the arrow DA in the traveling direction, the CPU 100 obtains the current position from the positioning unit 104 (S216). Then, the CPU 100 again determines whether the current position matches the target position (S209).

ユーザが目的位置に近くに来ると、ユーザは、第1表示部13を寝かせて、第1表示部13の背面を下に向けて、第1表示面16bを通して地面を見ながら目的位置を探す。再び、CPU100は、重力加速度を取得する(S210)。この場合、重力加速度が所定の閾値以下となるため、CPU100は、第1表示部13の背面が下向きであると判断する(S211:YES)。図13に示すように、ユーザは、第1表示面16bを通して自身の足元を見ている。この場合、地図の表示方向と第1表示面16bに映す風景の方向とが一致している。つまり、地図もユーザが第1表示面16bに映る風景も、鉛直方向の上側から下側を見て、水平面に対して平行な面を表わしている。よって、第1表示部13を立てた状態では、背面方位がユーザの進む方向であったが、表1表示部13を寝かせた状態では、端部方位がユーザの進む方向になる。そこで、CPUは、第2方位センサから端部方位を取得し(S217)、図13に示すように、第2表示面27bの地図上に、端部方位を実線の矢印SLで表わす。また、CPU100は、現在位置および目的位置に基づき、現在位置から目的位置への方向を算出しS218)、目的位置への方向を破線BLで
表わす。そして、CPUは、地図における端部方位と目的位置への方向との位置関係を維持したまま、端部方位を第1表示面16bの上向きに合わせると、目的位置への方向がそのまま進行方向を示す。このため、CPU100は、目的位置への方向に合わせて進行方向の矢印DAを第1表示面16bに表示する(S219)。
When the user comes close to the target position, the user lays down the first display unit 13 and looks for the target position while looking at the ground through the first display surface 16b with the back surface of the first display unit 13 facing down. Again, the CPU 100 acquires the gravitational acceleration (S210). In this case, since the gravitational acceleration is equal to or less than the predetermined threshold value, the CPU 100 determines that the back surface of the first display unit 13 is facing downward (S211: YES). As shown in FIG. 13, the user looks at his / her feet through the first display surface 16b. In this case, the display direction of the map matches the direction of the landscape projected on the first display surface 16b. That is, both the map and the landscape reflected on the first display surface 16b by the user represent a plane parallel to the horizontal plane when viewed from the upper side to the lower side in the vertical direction. Therefore, in the state where the first display unit 13 is erected, the back direction is the direction in which the user proceeds. However, in the state where the table 1 display unit 13 is laid down, the end direction is the direction in which the user proceeds. Therefore, the CPU obtains the edge direction from the second direction sensor (S217), and represents the edge direction on the map of the second display surface 27b with a solid arrow SL as shown in FIG. Further, the CPU 100 calculates the direction from the current position to the target position based on the current position and the target position (S218), and the direction to the target position is indicated by a broken line BL. Then, while maintaining the positional relationship between the edge direction on the map and the direction to the target position, the CPU aligns the edge direction with the first display surface 16b upward, and the direction to the target position remains the same as the traveling direction. Show. For this reason, the CPU 100 displays an arrow DA in the traveling direction on the first display surface 16b in accordance with the direction to the target position (S219).

再び、ユーザが進行方向の矢印DAに従って移動すると、CPU100は、測位部104から現在位置を取得して(S216)、現在位置が目的位置に一致するか否かを判断する(S209)。ここで、図14に示すように、現在位置が目的位置に一致すると、第1表示部13の背面が下を向いているかを確認するために、再び、CPU100は、加速度センサ106から重力加速度を得て(S220)、第1表示部13の傾きを判断する(S221)。ここで、重力加速度が所定閾値より大きければ、CPU100は、第1表示部13の背面が下向きでないと判断する(S221:NO)。CPU100は、第1表示部13bを下に向けることをユーザに促すメッセージを第1表示面16bに表示する(S222)。   When the user moves again according to the arrow DA in the traveling direction, the CPU 100 acquires the current position from the positioning unit 104 (S216), and determines whether the current position matches the target position (S209). Here, as shown in FIG. 14, when the current position matches the target position, the CPU 100 again determines the gravitational acceleration from the acceleration sensor 106 in order to confirm whether the back surface of the first display unit 13 faces downward. Obtaining (S220), the inclination of the first display unit 13 is determined (S221). If the gravitational acceleration is greater than the predetermined threshold value, the CPU 100 determines that the back surface of the first display unit 13 is not facing downward (S221: NO). The CPU 100 displays a message prompting the user to turn the first display unit 13b downward on the first display surface 16b (S222).

一方、重力加速度が所定閾値以下であればCPU100は、第1表示部13の背面が下向きであると判断する(S221:YES)。CPU100は、第1表示面16bの中央にポイントマークPMを表示する(S223)。また、CPU100は、ポイント情報データベースからポイント位置が目的位置にあるポイント情報の日時およびコメントを読み出し、日時およびコメントを第1表示面16bに表示する(S220)。これにより、第1表示面16bに目的位置を示す情報が表示され、ユーザは、以前に登録したポイント位置および日時と、その時に入力したコメントを見ることができる。   On the other hand, if the gravitational acceleration is equal to or smaller than the predetermined threshold, the CPU 100 determines that the back surface of the first display unit 13 is facing downward (S221: YES). The CPU 100 displays the point mark PM at the center of the first display surface 16b (S223). Further, the CPU 100 reads out the date and comment of the point information whose point position is the target position from the point information database, and displays the date and comment on the first display surface 16b (S220). As a result, information indicating the target position is displayed on the first display surface 16b, and the user can see the point position and date and time registered previously and the comment input at that time.

以上、本実施形態によれば、シースルー状態に設定された第1表示面16bに進行方向の矢印DAが表示される。これにより、ユーザは、第1表示面16bを通して実際の風景を見ながら、進行方向の矢印DAを見て、進行方向の矢印DAに従って目的位置に簡単に
向かうことができる。すなわち、ユーザは、地図上に表示されている自身が見ている方向を、自身が実際に見ている方向に対応させてから、地図上の目的位置への方向を実際の目的位置への方向を求める必要がない。
As described above, according to the present embodiment, the traveling direction arrow DA is displayed on the first display surface 16b set in the see-through state. Thereby, the user can easily go to the target position according to the arrow DA in the traveling direction while viewing the arrow DA in the traveling direction while viewing the actual scenery through the first display surface 16b. That is, the user associates the direction displayed on the map with which he / she is viewing with the direction he / she actually sees, and then changes the direction to the target position on the map to the actual target position. There is no need to ask.

また、本実施形態によれば、ポイント位置が設定されると、第1表示面16bにピンの形をしたポイントマークPMが表示される。このため、ユーザは、第1表示面16bを通して見える足元にまるでピンを刺したかのような印象で、ユーザは、自身が立っている位置をポイント位置に設定することができる。   Further, according to the present embodiment, when the point position is set, the point mark PM in the shape of a pin is displayed on the first display surface 16b. For this reason, the user can set the position at which the user stands as the point position with the impression that the user has stabbed a pin at the foot visible through the first display surface 16b.

<その他の実施形態>
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態によって何ら制限されるものではなく、また、本発明の実施の形態も、上記以外に種々の変更が可能である。
<Other embodiments>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications other than those described above can be made to the embodiments of the present invention. .

上記実施形態では、CPU100は、測位部104からの信号から携帯端末装置1の位置を取得した。これに対し、CPU100は、通信圏内にある基地局から通信モジュール102を介して位置に関する信号を受け取り、この信号から位置を求めることもできる。   In the embodiment described above, the CPU 100 acquires the position of the mobile terminal device 1 from the signal from the positioning unit 104. On the other hand, the CPU 100 can also receive a position-related signal from a base station in the communication area via the communication module 102 and obtain the position from this signal.

上記実施形態によれば、目的位置をユーザが予め登録したポイント位置から設定したが、目的位置を地図情報に含まれるランドマークなどに設定することもできる。この場合、地図情報は、地図の画像情報に加えて、地図に含まれるランドマークの名称および位置などの情報を含む。CPU100は、現在位置とランドマークの位置とを比較して、ランドマークの位置を目的位置に設定する。   According to the embodiment, the target position is set from the point position registered in advance by the user. However, the target position can be set to a landmark included in the map information. In this case, the map information includes information such as the names and positions of landmarks included in the map, in addition to the map image information. The CPU 100 compares the current position with the landmark position and sets the landmark position as the target position.

この他の目的位置として、ユーザが地図上において指示した位置を設定することもできる。たとえば、ユーザは、地図が表示された第2表示面27bをタッチすると、第2入力部24はこの位置を検知する。そして、CPU100は、第2表示面27bにおけるタッチ位置を地図上の位置に変換し、さらに、地図情報を基に地図上の位置から地球上における位置(緯度・経度)に変換して、目的位置を設定する。   As another target position, a position designated by the user on the map can be set. For example, when the user touches the second display surface 27b on which the map is displayed, the second input unit 24 detects this position. Then, the CPU 100 converts the touch position on the second display surface 27b to a position on the map, and further converts the position on the map from the position on the map to the position (latitude / longitude) on the earth based on the map information. Set.

また、上記実施形態によれば、第2表示面27bの地図上に現在位置を示す現在地マーク▲および目的位置を示す目的地マーク●を表わしたが、これらに加えて、図15に示すように、現在位置から目的位置までの経路を表示することもできる。この場合、地図情報は、地図の画像情報、座標対応情報および道情報を含む。CPU100は、道情報を参照し、現在位置と目的位置との間の道を検索する。複数の道が検索された場合、CPU100は、各道の距離を算出して、最短距離の道を経路に設定して、経路を地図上に表示する。また、経路の中に曲がる部分があれば、現在位置と現在位置に最も近い最初の曲がり角とを結ぶ方向が始めの目的位置への方向になる。このため、CPU100は、端部方位と始めの目的位置への方向とから進行方向を求めて、進行方向の矢印DAを第1表示面16bに表示する。図15では、端部方位と目的位置への方向とが正反対であるため、下向きの進行方向の矢印DAが第1表示面16bに表示される。ユーザは、進行方向の矢印DAにより目的位置が自身の後ろ側にあることがわかる。そして、ユーザが進行方向の矢印DAに沿って進み、最初の曲がり角に達すると、最初の曲がり角と次の曲がり角とをつなぐ方向を次の目的位置への方向として、上記と同様に、進行方向の矢印DAを表示する。これを繰り返して、ユーザを目的位置まで導く。   Further, according to the above embodiment, the current position mark ▲ indicating the current position and the destination mark ● indicating the destination position are represented on the map of the second display surface 27b. In addition to these, as shown in FIG. The route from the current position to the target position can also be displayed. In this case, the map information includes map image information, coordinate correspondence information, and road information. The CPU 100 refers to the road information and searches for a road between the current position and the target position. When a plurality of roads are searched, the CPU 100 calculates the distance of each road, sets the road with the shortest distance as the route, and displays the route on the map. Also, if there is a bent portion in the route, the direction connecting the current position and the first turning angle closest to the current position is the direction to the first target position. Therefore, the CPU 100 obtains the traveling direction from the edge direction and the direction to the first target position, and displays the traveling direction arrow DA on the first display surface 16b. In FIG. 15, since the edge direction and the direction to the target position are opposite to each other, an arrow DA indicating a downward traveling direction is displayed on the first display surface 16b. The user knows that the target position is behind the user by the arrow DA in the traveling direction. Then, when the user proceeds along the traveling direction arrow DA and reaches the first turning corner, the direction connecting the first turning corner and the next turning corner is set as the direction to the next target position, and the traveling direction The arrow DA is displayed. This is repeated to guide the user to the target position.

さらに、上記実施形態によれば、地図上に背面方位、端部方位および目的位置への方向を表示したが、これらを表示しなくてもよい。   Furthermore, according to the said embodiment, although the back direction, the edge part direction, and the direction to the target position were displayed on the map, these do not need to be displayed.

また、上記実施形態によれば、現在位置が目的位置と一致した場合に、第1表示部13
の背面が下向きであれば、第1表示面16bに目的位置を示す情報として、ポイントマークPMやポイント情報が表示された。これに対して、第1表示部13の背面が下向きでなくても、現在位置が目的位置と一致した際に、第1表示面16bに目的位置を示す情報を表示することもできる。
Further, according to the above embodiment, when the current position matches the target position, the first display unit 13
If the back surface of the screen is facing downward, the point mark PM and the point information are displayed on the first display surface 16b as information indicating the target position. On the other hand, even if the back surface of the first display unit 13 is not downward, when the current position matches the target position, information indicating the target position can be displayed on the first display surface 16b.

この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の表示領域内において、適宜、種々の変更が可能である。   In addition, the embodiment of the present invention can be variously modified as appropriate within the display area of the technical idea shown in the claims.

1 … 携帯端末装置
10 … 第1ユニット
13 … 第1表示部
14 … 第1入力部
20 … 第2ユニット
24 … 第2入力部
25 … 第2表示部
100 … CPU
101 … メモリ
104 … 測位部
105 … 方位センサ
106 … 加速度センサ
DESCRIPTION OF SYMBOLS 1 ... Portable terminal device 10 ... 1st unit 13 ... 1st display part 14 ... 1st input part 20 ... 2nd unit 24 ... 2nd input part 25 ... 2nd display part 100 ... CPU
DESCRIPTION OF SYMBOLS 101 ... Memory 104 ... Positioning part 105 ... Direction sensor 106 ... Acceleration sensor

Claims (4)

表面側の風景を裏面側から見通し可能な表示部と、
前記表示部を制御する表示制御部と、
目的位置を記憶する記憶部と、
現在位置を取得する位置取得部と、
前記目的位置と前記現在位置とを比較する比較部とを備え、
前記表示制御部は、前記比較部の比較結果に応じて、前記目的位置を示す情報を前記表示部に表示させる、端末装置。
A display unit that allows the front side landscape to be seen from the back side;
A display control unit for controlling the display unit;
A storage unit for storing a target position;
A position acquisition unit for acquiring the current position;
A comparison unit for comparing the target position and the current position;
The said display control part is a terminal device which displays the information which shows the said target position on the said display part according to the comparison result of the said comparison part.
請求項1に記載の端末装置において、
前記現在位置から前記目的位置への方向を求める方向取得部とをさらに備え、
前記表示制御部は、前記方向取得部により求められた前記方向に基づいて、前記目的位置を示す情報として前記目的位置への向きを示す画像を前記表示部に表示させる、端末装置。
The terminal device according to claim 1,
A direction acquisition unit for obtaining a direction from the current position to the target position;
The said display control part is a terminal device which displays the image which shows the direction to the said target position on the said display part as information which shows the said target position based on the said direction calculated | required by the said direction acquisition part.
請求項1または2に記載の端末装置において、
特定の位置を設定する位置設定部を有し、
前記表示制御部は、前記特定の位置を前記表示部に表示させる、端末装置。
In the terminal device according to claim 1 or 2,
It has a position setting part that sets a specific position,
The said display control part is a terminal device which displays the said specific position on the said display part.
請求項3に記載の端末装置において、
前記特定の位置に紐付けて文字を入力するための文字入力部と、
入力した文字をデータベースに格納させる文字格納部と、を有し、
前記表示制御部は、前記データベースに格納された文字を前記特定の位置とともに前記表示部に表示させる、端末装置。
The terminal device according to claim 3,
A character input unit for inputting characters in association with the specific position;
A character storage unit for storing input characters in a database;
The said display control part is a terminal device which displays the character stored in the said database on the said display part with the said specific position.
JP2014125941A 2014-06-19 2014-06-19 Mobile terminal device Expired - Fee Related JP5856237B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014125941A JP5856237B2 (en) 2014-06-19 2014-06-19 Mobile terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014125941A JP5856237B2 (en) 2014-06-19 2014-06-19 Mobile terminal device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010229684A Division JP5567446B2 (en) 2010-10-12 2010-10-12 Mobile terminal device

Publications (2)

Publication Number Publication Date
JP2014222230A true JP2014222230A (en) 2014-11-27
JP5856237B2 JP5856237B2 (en) 2016-02-09

Family

ID=52121805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014125941A Expired - Fee Related JP5856237B2 (en) 2014-06-19 2014-06-19 Mobile terminal device

Country Status (1)

Country Link
JP (1) JP5856237B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05313573A (en) * 1992-05-08 1993-11-26 Pioneer Electron Corp Navigation device
JPH0894378A (en) * 1994-09-22 1996-04-12 Aisin Aw Co Ltd Navigation system
JPH09330609A (en) * 1995-12-05 1997-12-22 Matsushita Electric Ind Co Ltd Back-light device and color display device
JP2000253113A (en) * 1999-02-26 2000-09-14 Hitachi Ltd Information communication terminal equipment
JP2004101197A (en) * 2002-09-04 2004-04-02 Sony Corp Mobile type positional information transmitting device and navigation method
JP2006153630A (en) * 2004-11-29 2006-06-15 Olympus Corp Information terminal device and information display system
WO2008044309A1 (en) * 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05313573A (en) * 1992-05-08 1993-11-26 Pioneer Electron Corp Navigation device
JPH0894378A (en) * 1994-09-22 1996-04-12 Aisin Aw Co Ltd Navigation system
JPH09330609A (en) * 1995-12-05 1997-12-22 Matsushita Electric Ind Co Ltd Back-light device and color display device
JP2000253113A (en) * 1999-02-26 2000-09-14 Hitachi Ltd Information communication terminal equipment
JP2004101197A (en) * 2002-09-04 2004-04-02 Sony Corp Mobile type positional information transmitting device and navigation method
JP2006153630A (en) * 2004-11-29 2006-06-15 Olympus Corp Information terminal device and information display system
WO2008044309A1 (en) * 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method

Also Published As

Publication number Publication date
JP5856237B2 (en) 2016-02-09

Similar Documents

Publication Publication Date Title
JP5567446B2 (en) Mobile terminal device
KR101817452B1 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
EP2672459B1 (en) Apparatus and method for providing augmented reality information using three dimension map
US8634871B2 (en) Mobile electronic device
KR101667715B1 (en) Method for providing route guide using augmented reality and mobile terminal using this method
KR20200087260A (en) Method for indicating marker point location, electronic device, and computer readable storage medium
KR102627612B1 (en) Method for displaying nerby information using augmented reality and electonic device therof
US20140015794A1 (en) Electronic device, control method, and control program
TW201418866A (en) Display input device
KR20100055716A (en) Method for controlling map and mobile terminal using the same
CN103471580A (en) Method for providing navigation information, mobile terminal, and server
KR20120070786A (en) Electronic device and control method for electronic device
CN106687905A (en) Tactile sensation control system and tactile sensation control method
CN112732858A (en) Path planning method and device, computer equipment and storage medium
JP4464780B2 (en) Guidance information display device
Schmalstieg et al. Augmented reality as a medium for cartography
JP5856237B2 (en) Mobile terminal device
JP5620779B2 (en) Mobile terminal device
CN111754564B (en) Video display method, device, equipment and storage medium
US20120281102A1 (en) Portable terminal, activity history depiction method, and activity history depiction system
CN116954597A (en) Form page generation method and device, electronic equipment, storage medium and product
CN116258810A (en) Rendering method, device, equipment and storage medium of pavement elements
JP5606091B2 (en) Portable electronic devices
KR101685983B1 (en) Mobile terminal and method for controlling the same
KR101899465B1 (en) Apparatus for providing traveling information using position information

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151210

R150 Certificate of patent or registration of utility model

Ref document number: 5856237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees