JP2008092326A - Portable terminal, information display method and program - Google Patents

Portable terminal, information display method and program Download PDF

Info

Publication number
JP2008092326A
JP2008092326A JP2006271633A JP2006271633A JP2008092326A JP 2008092326 A JP2008092326 A JP 2008092326A JP 2006271633 A JP2006271633 A JP 2006271633A JP 2006271633 A JP2006271633 A JP 2006271633A JP 2008092326 A JP2008092326 A JP 2008092326A
Authority
JP
Japan
Prior art keywords
information
image
document
display
specific range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006271633A
Other languages
Japanese (ja)
Other versions
JP4725473B2 (en
Inventor
Takashi Sonoda
隆志 園田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2006271633A priority Critical patent/JP4725473B2/en
Publication of JP2008092326A publication Critical patent/JP2008092326A/en
Application granted granted Critical
Publication of JP4725473B2 publication Critical patent/JP4725473B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve operability in displaying information associated with a specific range among pieces of information associated with each position on a document. <P>SOLUTION: This portable terminal has: an image analysis part 11 which analyzes a photographed image of a document to extract an identification code and a position code embedded in the document; an identification information acquisition part 12 which decodes the identification code to acquire identification information; a positional information acquisition part 13 which decodes the position code to acquire positional information; a range information generation part 14 which corrects the positional information to generate range information indicating a range of an image to be displayed; a selection information acquisition part 15 which acquires selection information indicating selection content of classification of related images relevant to the document; a communication control part 17 which transmits the identification information, the range information and the selection information to receive a display image which is an image in the specific range of the related image and a display control part 16 which performs control so as to display the display image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、携帯端末装置、情報表示方法、及びプログラムに関する。   The present invention relates to a mobile terminal device, an information display method, and a program.

第1の画像情報を有する基体からコード化された埋め込みデータをキャプチャし、このコード化された埋め込みデータを復号化して、位置合わせ情報を展開し、この位置合わせ情報に基づいて第1の情報と位置合わせされた第2の情報をディスプレイする方法が、知られている(例えば、特許文献1参照)。   Capturing the embedded data encoded from the substrate having the first image information, decoding the encoded embedded data, developing the alignment information, and the first information based on the alignment information A method of displaying the aligned second information is known (for example, see Patent Document 1).

この特許文献1は、この方法を実現する第1のシステムとして、以下の構成を開示する。即ち、埋め込みデータを上に有する基体は、半透明のミラーの下に位置決めされる。基体からの画像は画像キャプチャデバイスによってキャプチャされる。画像キャプチャデバイスはキャプチャ画像をデコーダへ送り、デコーダは画像を復号化し、キャプチャ画像からコードを決定する。デコーダはコードを画像ジェネレータへ送る。画像ジェネレータはコードを処理し、これらのコードに基づいて画像情報を生成/検索し、この画像情報を半透明ミラーへ送る。半透明のミラーを見下ろすオブザーバは、基体からの画像上にオーバーレイされる、画像ジェネレータによって生成された画像を見る。   This patent document 1 discloses the following configuration as a first system for realizing this method. That is, the substrate having embedded data thereon is positioned under the semitransparent mirror. An image from the substrate is captured by an image capture device. The image capture device sends the captured image to a decoder, which decodes the image and determines a code from the captured image. The decoder sends the code to the image generator. The image generator processes the codes, generates / retrieves image information based on these codes, and sends this image information to the translucent mirror. An observer looking down at the translucent mirror sees the image generated by the image generator overlaid on the image from the substrate.

また、この方法を実現する第2のシステムとして、以下の構成を開示する。即ち、基体からの画像は、半透明のミラーから投影表面へ反射される。基体からの画像は、画像キャプチャデバイスによってもキャプチャされる。画像キャプチャデバイスは、この画像をデコーダへ転送し、デコーダは、画像を処理して、位置合わせ情報を復号化し、更なる情報を生成すべきか否かを判定する。その判定に基づいて、デコーダは信号を画像ジェネレータへパスして、画像ジェネレータが画像を生成するように仕向ける。画像ジェネレータが投影表面へ投影される画像を生成する。投影表面をビューするオブザーバは、画像ジェネレータによって生成された画像にオーバーレイされる基体からの画像を見る。   Moreover, the following structure is disclosed as a second system for realizing this method. That is, the image from the substrate is reflected from the translucent mirror to the projection surface. Images from the substrate are also captured by an image capture device. The image capture device forwards this image to the decoder, which processes the image to decode the alignment information and determine whether further information should be generated. Based on the determination, the decoder passes the signal to the image generator and directs the image generator to generate an image. An image generator generates an image that is projected onto the projection surface. An observer viewing the projection surface sees the image from the substrate overlaid on the image generated by the image generator.

特開2001−312733号公報(図8、9)JP 2001-31733 A (FIGS. 8 and 9)

ここで、従来、文書の各位置に関連付けられた情報のうち、特定の範囲に関連付けられた情報を表示する場合に、文書を動かすことなくその特定の範囲を指定することはできなかった。従って、そのような情報を表示する際の操作性が良くないという課題があった。   Here, conventionally, when displaying information associated with a specific range among information associated with each position of the document, the specific range cannot be designated without moving the document. Accordingly, there is a problem that the operability when displaying such information is not good.

本発明は、以上のような背景の下でなされたものであって、その目的は、文書上の各位置に関連付けられた情報のうち、特定の範囲に関連付けられた情報を表示する際の操作性を良くすることにある。   The present invention has been made under the background as described above, and the object thereof is an operation for displaying information associated with a specific range among information associated with each position on a document. It is to improve sex.

請求項1に記載の発明は、
被写体を撮像する撮像手段と、
画像を表示する表示手段と、
各位置に位置情報が埋め込まれた文書上の特定の箇所を前記撮像手段で撮像することにより得られた画像の中から、当該特定の箇所における当該位置情報を取得する取得手段と、
前記文書上の各位置に関連付けられた情報のうち、前記取得手段により取得された前記位置情報を用いて決定される特定の範囲に関連付けられた情報を前記表示手段が表示するよう制御する制御手段と
を備えたことを特徴とする携帯端末装置である。
請求項2に記載の発明は、
前記取得手段により取得された前記位置情報と、前記撮像手段と前記表示手段の位置関係に関する情報とを用いて、前記特定の範囲を決定する決定手段を更に備えたことを特徴とする請求項1記載の携帯端末装置である。
請求項3に記載の発明は、
前記制御手段は、前記特定の範囲に関連付けられた情報を、前記文書の当該特定の範囲内の部分の画像に重ねて前記表示手段が表示するよう制御することを特徴とする請求項1記載の携帯端末装置である。
請求項4に記載の発明は、
前記制御手段は、前記特定の範囲に関連付けられた情報のうち、ユーザにより選択された分類に属する情報を前記表示手段が表示するよう制御することを特徴とする請求項1記載の携帯端末装置である。
請求項5に記載の発明は、
各位置に位置情報が埋め込まれた文書上の特定の箇所を撮像するステップと、
撮像することにより得られた画像の中から前記特定の箇所における前記位置情報を取得するステップと、
取得された前記位置情報を用いて前記文書上の特定の範囲を決定するステップと、
前記文書上の各位置に関連付けられた情報のうち、前記特定の範囲に関連付けられた情報を表示するステップと
を含むことを特徴とする情報表示方法である。
請求項6に記載の発明は、
コンピュータに、
各位置に位置情報が埋め込まれた文書上の特定の箇所を撮像手段で撮像することにより得られた画像の中から、当該特定の箇所における当該位置情報を取得する機能と、
前記文書上の各位置に関連付けられた情報のうち、取得された前記位置情報を用いて決定される特定の範囲に関連付けられた情報を表示手段に表示する機能と
を実現させるためのプログラムである。
請求項7に記載の発明は、
取得された前記位置情報と、前記撮像手段と前記表示手段の位置関係に関する情報とを用いて、前記特定の範囲を決定する機能を前記コンピュータに更に実現させるための請求項6記載のプログラムである。
請求項8に記載の発明は、
前記表示する機能では、前記特定の範囲に関連付けられた情報を、前記文書の当該特定の範囲内の部分の画像に重ねて表示することを特徴とする請求項6記載のプログラムである。
請求項9に記載の発明は、
前記表示する機能では、前記特定の範囲内に関連付けられた情報のうち、ユーザにより選択された分類に属する情報を表示することを特徴とする請求項6記載のプログラムである。
The invention described in claim 1
Imaging means for imaging a subject;
Display means for displaying an image;
An acquisition means for acquiring the position information at the specific location from the image obtained by imaging the specific location on the document in which the position information is embedded at each position by the imaging means;
Control means for controlling the display means to display information associated with a specific range determined using the position information acquired by the acquisition means among information associated with each position on the document And a portable terminal device.
The invention described in claim 2
2. The apparatus according to claim 1, further comprising a determination unit that determines the specific range using the position information acquired by the acquisition unit and information related to a positional relationship between the imaging unit and the display unit. It is a portable terminal device of description.
The invention described in claim 3
2. The control unit according to claim 1, wherein the control unit controls the display unit to display the information associated with the specific range so as to be superimposed on an image of a portion within the specific range of the document. It is a portable terminal device.
The invention according to claim 4
2. The mobile terminal device according to claim 1, wherein the control unit controls the display unit to display information belonging to a classification selected by a user among information associated with the specific range. is there.
The invention described in claim 5
Imaging a specific location on the document with location information embedded at each location;
Obtaining the position information at the specific location from the image obtained by imaging;
Determining a specific range on the document using the acquired position information;
A method of displaying information associated with the specific range among information associated with each position on the document.
The invention described in claim 6
On the computer,
A function of acquiring the position information at the specific location from the image obtained by imaging the specific location on the document in which the location information is embedded at each position,
A program for realizing a function of displaying, on a display unit, information associated with a specific range determined using the acquired position information among information associated with each position on the document. .
The invention described in claim 7
The program according to claim 6, further causing the computer to realize a function of determining the specific range using the acquired position information and information regarding a positional relationship between the imaging unit and the display unit. .
The invention according to claim 8 provides:
The program according to claim 6, wherein the display function displays information associated with the specific range so as to be superimposed on an image of a portion of the document within the specific range.
The invention according to claim 9 is:
The program according to claim 6, wherein the display function displays information belonging to a classification selected by a user among information associated with the specific range.

請求項1の発明は、文書の各位置に関連付けられた情報のうち、特定の範囲に関連付けられた情報を表示する場合に、文書を動かすことなくその特定の範囲を指定することができるので、本構成を有していない場合に比較して、そのような情報を表示する際の操作性が良くなるという効果を有する。
請求項2の発明は、文書上の特定の箇所を撮像した際の特定の範囲を携帯端末装置の構造に応じて決定できるようになるという効果を有する。
請求項3の発明は、文書の特定の範囲内の部分の画像も重ねて表示できるので、表示された情報を元の文書との関連で把握できるようになるという効果を有する。
請求項4の発明は、複数種類の情報のうちユーザが希望する情報を表示できるようになるという効果を有する。
請求項5の発明は、文書の各位置に関連付けられた情報のうち、特定の範囲に関連付けられた情報を表示する場合に、撮像する箇所に関わらずその特定の範囲を決定することができるので、本構成を有していない場合に比較して、適切な範囲における情報を表示できるようになるという効果を有する。
請求項6の発明は、文書の各位置に関連付けられた情報のうち、特定の範囲に関連付けられた情報を表示する場合に、撮像する箇所に関わらずその特定の範囲を決定することができるので、本構成を有していない場合に比較して、適切な範囲における情報を表示できるようになるという効果を有する。
請求項7の発明は、文書上の特定の箇所を撮像した際の特定の範囲を携帯端末装置の構造に応じて決定できるようになるという効果を有する。
請求項8の発明は、文書の特定の範囲内の部分の画像も重ねて表示できるので、表示された情報を元の文書との関連で把握できるようになるという効果を有する。
請求項9の発明は、複数種類の情報のうちユーザが希望する情報を表示できるようになるという効果を有する。
In the invention of claim 1, when displaying information associated with a specific range among information associated with each position of the document, the specific range can be designated without moving the document. Compared to the case where this configuration is not provided, the operability when displaying such information is improved.
The invention of claim 2 has an effect that a specific range when a specific portion on a document is imaged can be determined according to the structure of the mobile terminal device.
According to the third aspect of the present invention, since an image of a part within a specific range of the document can be displayed in an overlapping manner, the displayed information can be grasped in relation to the original document.
The invention of claim 4 has an effect that information desired by the user among a plurality of types of information can be displayed.
According to the fifth aspect of the present invention, when displaying information associated with a specific range among information associated with each position of the document, the specific range can be determined regardless of the location to be imaged. As compared with the case where the present configuration is not provided, there is an effect that information in an appropriate range can be displayed.
According to the sixth aspect of the present invention, when displaying information associated with a specific range among information associated with each position of the document, the specific range can be determined regardless of the location to be imaged. As compared with the case where the present configuration is not provided, there is an effect that information in an appropriate range can be displayed.
The invention of claim 7 has an effect that a specific range when a specific part on a document is imaged can be determined according to the structure of the mobile terminal device.
According to the eighth aspect of the present invention, since an image of a part within a specific range of the document can be displayed in an overlapping manner, the displayed information can be grasped in relation to the original document.
The invention of claim 9 has an effect that information desired by the user among a plurality of types of information can be displayed.

以下、添付図面を参照して、本発明を実施するための最良の形態(以下、「実施の形態」という)について詳細に説明する。
図1は、本実施の形態が適用されるコンピュータシステムの構成を示している。
図示するように、このコンピュータシステムは、携帯電話10と、サーバ20とが、基地局80及びネットワーク90を介して接続されている。
The best mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be described below in detail with reference to the accompanying drawings.
FIG. 1 shows the configuration of a computer system to which this embodiment is applied.
As shown in the figure, in this computer system, a mobile phone 10 and a server 20 are connected via a base station 80 and a network 90.

携帯電話10は、一般的な携帯電話であり、一般ユーザが所持する。但し、本実施の形態において、携帯電話10は、撮像機能を備えた所謂「カメラ付き携帯電話」であるものとする。また、音声により通信する機能の他に、サーバ20との間でデータ通信を行うための機能を有するものとする。
サーバ20は、パーソナルコンピュータやワークステーション、その他のコンピュータにて実現され、携帯電話10向けのサービスを提供する企業等の管理センター等に設置される。
基地局80は、携帯電話10をネットワーク90に接続させるための装置である。
ネットワーク90は、サーバ20と基地局80との間に存在するネットワークである。尚、ネットワーク90は、携帯電話10用のパケット通信網と、インターネットとを含むが、図ではこれらを区別せずに示している。
The mobile phone 10 is a general mobile phone and is owned by a general user. However, in the present embodiment, the mobile phone 10 is a so-called “mobile phone with camera” having an imaging function. In addition to the function of communicating by voice, it is assumed that a function for performing data communication with the server 20 is provided.
The server 20 is realized by a personal computer, a workstation, or another computer, and is installed in a management center or the like of a company that provides a service for the mobile phone 10.
The base station 80 is a device for connecting the mobile phone 10 to the network 90.
The network 90 is a network that exists between the server 20 and the base station 80. The network 90 includes a packet communication network for the mobile phone 10 and the Internet, but these are shown without distinction in the figure.

次に、図1に示した携帯電話10及びサーバ20のハードウェア構成について、図2を参照して説明する。
図2(a)は、携帯電話10のハードウェア構成の例を模式的に示した図である。
図示するように、携帯電話10は、演算手段であるCPU(Central Processing Unit:中央処理装置)10aと、記憶手段であるメモリ10bと、LCD(Liquid Crystal Display)等のディスプレイを含む表示機構10cと、操作キー等の入力デバイス10dと、マイクロフォン等の音声入力機構10eと、スピーカ等の音声出力機構10fとを備える。また、被写体を撮像するカメラを含む撮像機構10gを備える。更に、基地局80を介して無線通信を行うための無線回路10h及びアンテナ10iを備える。ここで、無線回路には、図示しないが、無線で送受信されるデジタルデータの信号処理を行なうベースバンドLSIが含まれるものとする。
Next, the hardware configuration of the mobile phone 10 and the server 20 shown in FIG. 1 will be described with reference to FIG.
FIG. 2A is a diagram schematically illustrating an example of the hardware configuration of the mobile phone 10.
As shown in the figure, the mobile phone 10 includes a CPU (Central Processing Unit) 10a as a computing means, a memory 10b as a storage means, and a display mechanism 10c including a display such as an LCD (Liquid Crystal Display). And an input device 10d such as operation keys, a sound input mechanism 10e such as a microphone, and a sound output mechanism 10f such as a speaker. In addition, an imaging mechanism 10g including a camera for imaging a subject is provided. Furthermore, a radio circuit 10h and an antenna 10i for performing radio communication via the base station 80 are provided. Here, it is assumed that the wireless circuit includes a baseband LSI that performs signal processing of digital data transmitted and received wirelessly, although not shown.

また、図2(b)は、サーバ20のハードウェア構成の例を模式的に示した図である。
図示するように、サーバ20は、演算手段であるCPU20aと、記憶手段であるメインメモリ20b及び磁気ディスク装置(HDD:Hard Disk Drive)20cとを備える。ここで、CPU20aは、OS(Operating System)やアプリケーション等の各種ソフトウェアを実行し、上述した各機能を実現する。また、メインメモリ20bは、各種ソフトウェアやその実行に用いるデータ等を記憶する記憶領域であり、磁気ディスク装置20cは、各種ソフトウェアに対する入力データや各種ソフトウェアからの出力データ等を記憶する記憶領域である。
更に、サーバ20は、外部との通信を行うための通信I/F20dと、ビデオメモリやディスプレイ等からなる表示機構20eと、キーボードやマウス等の入力デバイス20fとを備える。
FIG. 2B is a diagram schematically illustrating an example of the hardware configuration of the server 20.
As shown in the figure, the server 20 includes a CPU 20a that is a computing means, a main memory 20b that is a storage means, and a magnetic disk device (HDD: Hard Disk Drive) 20c. Here, the CPU 20a executes various types of software such as an OS (Operating System) and applications, and realizes the above-described functions. The main memory 20b is a storage area for storing various software and data used for execution thereof, and the magnetic disk device 20c is a storage area for storing input data for various software, output data from various software, and the like. .
Further, the server 20 includes a communication I / F 20d for performing communication with the outside, a display mechanism 20e including a video memory and a display, and an input device 20f such as a keyboard and a mouse.

ところで、本実施の形態では、まず、携帯電話10のカメラを用いて文書上の特定の箇所を撮影する。そして、その特定の箇所に応じて決定された特定の範囲に関連する情報をサーバ20から取得し、携帯電話10のディスプレイに表示する。
ここで、撮影対象の文書は、紙等の媒体に画像が形成されたものであるが、関連する情報を特定できるようにその文書の識別情報を表すコード画像が埋め込まれている。また、撮影箇所を認識できるように、文書上の各位置を特定する位置情報を表すコード画像も埋め込まれている。
By the way, in this embodiment, first, a specific portion on a document is photographed using the camera of the mobile phone 10. And the information relevant to the specific range determined according to the specific location is acquired from the server 20 and displayed on the display of the mobile phone 10.
Here, the document to be photographed is an image formed on a medium such as paper, but a code image representing identification information of the document is embedded so that related information can be specified. Also, a code image representing position information for specifying each position on the document is embedded so that the photographing location can be recognized.

そこで、このコード画像について説明しておく。
図3は、コード画像の元となるコードパターンについて説明するための図である。
まず、コードパターンを構成するビットパターンについて説明する。
図3(a)に、ビットパターンの配置の一例を示す。
ビットパターンとは、情報埋め込みの最小単位である。ここでは、図3(a)に示すように、9箇所の中から選択した2箇所にビットを配置する。図では、黒の四角が、ビットが配置された位置を示し、斜線の四角が、ビットが配置されていない位置を示している。9箇所の中から2箇所を選択する組み合わせは、36(=)通りある。従って、このような配置方法により、36通り(約5.2ビット)の情報を表現することができる。
Therefore, this code image will be described.
FIG. 3 is a diagram for explaining the code pattern that is the basis of the code image.
First, the bit pattern constituting the code pattern will be described.
FIG. 3A shows an example of bit pattern arrangement.
A bit pattern is the minimum unit of information embedding. Here, as shown in FIG. 3A, bits are arranged at two locations selected from nine locations. In the figure, black squares indicate positions where bits are arranged, and hatched squares indicate positions where bits are not arranged. There are 36 (= 9 C 2 ) combinations for selecting 2 locations out of 9 locations. Therefore, 36 kinds (about 5.2 bits) of information can be expressed by such an arrangement method.

ところで、図3(a)に示した最小の四角は、600dpiにおける2ドット×2ドットの大きさを有している。600dpiにおける1ドットの大きさは0.0423mmなので、この最小の四角の一辺は、84.6μm(=0.0423mm×2)である。コードパターンを構成するドットは、大きくなればなるほど目に付きやすくなるため、できるだけ小さいほうが好ましい。ところが、あまり小さくすると、プリンタで印刷できなくなってしまう。そこで、ドットの大きさとして、50μmより大きく100μmより小さい上記の値を採用している。これにより、プリンタで印刷可能な最適な大きさのドットを形成することができる。つまり、84.6μm×84.6μmが、プリンタで安定的に形成可能な最小の大きさなのである。
尚、ドットをこのような大きさにすることで、1つのビットパターンの一辺は、約0.5mm(=0.0423mm×2×6)となる。
By the way, the minimum square shown in FIG. 3A has a size of 2 dots × 2 dots at 600 dpi. Since the size of one dot at 600 dpi is 0.0423 mm, one side of this minimum square is 84.6 μm (= 0.0423 mm × 2). The larger the dots that make up the code pattern, the more likely it is to be noticeable. However, if it is too small, printing with a printer becomes impossible. Therefore, the above value is adopted as the dot size, which is larger than 50 μm and smaller than 100 μm. Thereby, it is possible to form dots of an optimum size that can be printed by the printer. That is, 84.6 μm × 84.6 μm is the minimum size that can be stably formed by the printer.
In addition, by setting the dot to such a size, one side of one bit pattern becomes about 0.5 mm (= 0.0423 mm × 2 × 6).

また、このようなビットパターンから構成されるコードパターンについて説明する。
図3(b)に、コードパターンの配置の一例を示す。
ここで、図3(b)に示した最小の四角が、図3(a)に示したビットパターンに相当する。尚、図3(a)では、1つのビットパターンで36通りの情報を表現できるものとして説明したが、このコードパターンにおいて、1つのビットパターンは、同期符号を除き、32通り(5ビット)の情報を表現するものとする。
A code pattern composed of such bit patterns will be described.
FIG. 3B shows an example of the arrangement of code patterns.
Here, the minimum square shown in FIG. 3B corresponds to the bit pattern shown in FIG. In FIG. 3A, it has been described that 36 kinds of information can be expressed by one bit pattern. However, in this code pattern, one bit pattern has 32 kinds (5 bits) except for a synchronous code. It shall represent information.

そして、識別情報を符号化した識別符号は、16(=4×4)個のビットパターンを使用して埋め込まれる。また、X方向の位置情報を符号化したX位置符号と、Y方向の位置情報を符号化したY位置符号とは、それぞれ、4個のビットパターンを使用して埋め込まれる。更に、左上角部に、コードパターンの位置と回転を検出するための同期符号が、1つのビットパターンを使用して埋め込まれる。
尚、1つのコードパターンの大きさは、ビットパターンの5個分の幅に等しいため、約2.5mmとなる。本実施の形態では、このように生成したコードパターンを画像化したコード画像を、用紙全面に配置する。
The identification code obtained by encoding the identification information is embedded using 16 (= 4 × 4) bit patterns. Also, the X position code obtained by encoding the position information in the X direction and the Y position code obtained by encoding the position information in the Y direction are each embedded using four bit patterns. Further, a synchronization code for detecting the position and rotation of the code pattern is embedded in the upper left corner using one bit pattern.
Note that the size of one code pattern is approximately 2.5 mm because it is equal to the width of five bit patterns. In the present embodiment, a code image obtained by imaging the code pattern generated in this way is arranged on the entire sheet surface.

尚、識別情報及び位置情報の具体的な符号化方法については、ここでは述べなかったが、次のような方法で符号化を行う。
まず、識別情報の符号化には、ブロック符号化方式のRS(リードソロモン)符号が使用される。図3で説明した通り、本実施の形態では、5ビットの情報を表現できるビットパターンを用いて情報を埋め込む。従って、情報の誤りも5ビット単位で発生するため、ブロック符号化方式で符号化効率が良いRS符号を使用している。但し、符号化方式はRS符号に限定するものでなく、その他の符号化方式、例えば、BCH符号等を使用することもできる。
また、位置情報の符号化には、擬似乱数系列の一種であるM系列符号が使用される。ここで、M系列とは、K段の線形シフトレジスタで発生できる最大周期の系列であり、2−1の系列長をもつ。このM系列から取り出した任意の連続したKビットは、同じM系列中の他の位置に現れない性質を持つ。そこで、この性質を利用して位置情報を符号化する。
Although a specific encoding method of identification information and position information has not been described here, encoding is performed by the following method.
First, an RS (Reed-Solomon) code of a block coding method is used for encoding identification information. As described with reference to FIG. 3, in the present embodiment, information is embedded using a bit pattern that can represent 5-bit information. Accordingly, since an information error also occurs in units of 5 bits, an RS code having good coding efficiency is used in the block coding method. However, the encoding method is not limited to the RS code, and other encoding methods such as a BCH code can also be used.
In addition, an M-sequence code, which is a kind of pseudo-random sequence, is used for encoding position information. Here, the M sequence is a sequence of the maximum period that can be generated by a K-stage linear shift register, and has a sequence length of 2 K −1. Arbitrary consecutive K bits extracted from the M sequence have a property that they do not appear at other positions in the same M sequence. Therefore, the position information is encoded using this property.

次に、本実施の形態における概要動作について説明する。
図4は、本実施の形態の概要動作を説明するための図である。
本実施の形態では、まず、ユーザが、携帯電話10を用いて文書を撮影し、画像を得る(A)。これにより、携帯電話10は、撮影した画像に埋め込まれた識別符号及び位置符号を復号し、識別情報及び位置情報を得る(B)。また、このとき、携帯電話10は、撮影した画像に関連する画像(以下、「関連画像」という)の分類を選択するための画面を表示し、ユーザが、画面上で分類を選択する(C)。
Next, the outline | summary operation | movement in this Embodiment is demonstrated.
FIG. 4 is a diagram for explaining the outline operation of the present embodiment.
In the present embodiment, first, a user uses a mobile phone 10 to photograph a document and obtain an image (A). Thereby, the mobile phone 10 decodes the identification code and the position code embedded in the photographed image to obtain identification information and position information (B). At this time, the mobile phone 10 displays a screen for selecting a classification of an image related to the photographed image (hereinafter referred to as “related image”), and the user selects the classification on the screen (C ).

すると、情報はサーバ20に送信される。ここで、サーバ20には、撮影対象となった文書の電子データである文書画像と、この文書画像に関連する関連画像とが記憶されている。そこで、サーバ20は、受信した情報に従い、文書画像と関連画像とをデータベースから検索する(D)。そして、検索された画像から携帯電話10のディスプレイに対応する範囲の画像を切り出し、これを表示画像とする(E)。例えば、文書のある箇所を真上から撮影したとすると、そのときにディスプレイの真下に存在する範囲の画像を切り出して表示画像とする。   Then, the information is transmitted to the server 20. Here, the server 20 stores a document image that is electronic data of a document to be photographed and a related image related to the document image. Therefore, the server 20 searches the database for document images and related images according to the received information (D). Then, an image in a range corresponding to the display of the mobile phone 10 is cut out from the searched image, and this is used as a display image (E). For example, if a certain part of a document is photographed from directly above, an image in a range existing immediately below the display is cut out to be a display image.

そして、サーバ20は、携帯電話10にこの表示画像を送信し、携帯電話10では、この表示画像がディスプレイに表示される(F)。
尚、このAからFまでの処理は、携帯電話10の移動に応じて繰り返される(G)。即ち、携帯電話10が文書上を移動する間、一定の時間間隔で文書を撮影するよう自動制御される。或いは、携帯電話10を移動させながらユーザが撮影の指示を行うことによって撮影するようにしてもよい。
Then, the server 20 transmits the display image to the mobile phone 10, and the mobile phone 10 displays the display image on the display (F).
The processes from A to F are repeated according to the movement of the mobile phone 10 (G). That is, while the mobile phone 10 moves on the document, it is automatically controlled so that the document is photographed at a constant time interval. Or you may make it image | photograph by a user giving an instruction | indication of imaging | photography, moving the mobile telephone 10. FIG.

このような概略動作により、携帯電話10のディスプレイには、図5に示すような画像が表示される。尚、ここでは、撮影対象の文書として地図を例示する。
図5(a)は、撮影対象となっている地図の上に関連画像を合成して表示した例を示したものである。元の地図に関連画像を付加して表示することから、以下では、このような表示形態を「付加型」と称する。尚、図4は、元の文書の電子データである文書画像とその文書画像に関連する関連画像とを合わせて表示画像としているので、この「付加型」について説明したものである。
一方、図5(b)は、撮影対象となっている地図は表示せず、関連画像のみを表示した例を示したものである。あたかも撮影対象となっている地図を透視してその裏に隠れている関連画像を表示しているように感じられることから、以下では、このような表示形態を「透視型」と称する。
With such a schematic operation, an image as shown in FIG. 5 is displayed on the display of the mobile phone 10. Here, a map is illustrated as a document to be imaged.
FIG. 5A shows an example in which related images are synthesized and displayed on a map to be photographed. Since a related image is added and displayed on the original map, such a display form is hereinafter referred to as “additional type”. FIG. 4 illustrates the “additional type” because the document image which is electronic data of the original document and the related image related to the document image are combined into a display image.
On the other hand, FIG. 5B shows an example in which only a related image is displayed without displaying a map to be photographed. In the following, such a display form is referred to as a “perspective type” because it feels as if the map being photographed is seen through and a related image hidden behind the map is displayed.

次に、本実施の形態における携帯電話10の機能構成について説明する。
図6は、携帯電話10の機能構成を示したブロック図である。
図示するように、携帯電話10は、画像解析部11と、識別情報取得部12と、位置情報取得部13と、範囲情報生成部14と、選択情報取得部15と、表示制御部16と、通信制御部17とを備える。
Next, the functional configuration of the mobile phone 10 in the present embodiment will be described.
FIG. 6 is a block diagram showing a functional configuration of the mobile phone 10.
As shown in the figure, the mobile phone 10 includes an image analysis unit 11, an identification information acquisition unit 12, a position information acquisition unit 13, a range information generation unit 14, a selection information acquisition unit 15, a display control unit 16, And a communication control unit 17.

画像解析部11は、撮像機構10gが撮影した画像を取得し、その画像を解析して識別符号及び位置符号を取り出す。
識別情報取得部12は、画像解析部11が取り出した識別符号を復号して識別情報を取得する。
位置情報取得部13は、画像解析部11が取り出した位置符号を復号して位置情報を取得する。
範囲情報生成部14は、位置情報取得部13が取得した位置情報を、表示機構10cと撮像機構10gの位置関係に基づいて補正し、撮影時に表示機構10cに対応していた範囲を示す範囲情報を生成する。
選択情報取得部15は、同じ文書画像に対して複数の分類に属する関連画像が存在する場合において、ユーザによる分類の選択に関する情報(以下、「選択情報」という)を取得する。
表示制御部16は、表示機構10cが関連画像等を表示する際の制御を行う。
通信制御部17は、無線回路10hがアンテナ10i、基地局80、ネットワーク90を介してサーバ20と通信する際の制御を行う。
The image analysis unit 11 acquires an image captured by the imaging mechanism 10g, analyzes the image, and extracts an identification code and a position code.
The identification information acquisition unit 12 decodes the identification code extracted by the image analysis unit 11 and acquires the identification information.
The position information acquisition unit 13 decodes the position code extracted by the image analysis unit 11 and acquires position information.
The range information generation unit 14 corrects the position information acquired by the position information acquisition unit 13 based on the positional relationship between the display mechanism 10c and the imaging mechanism 10g, and indicates the range information corresponding to the display mechanism 10c at the time of shooting. Is generated.
The selection information acquisition unit 15 acquires information (hereinafter referred to as “selection information”) related to selection of a classification by the user when related images belonging to a plurality of classifications exist for the same document image.
The display control unit 16 performs control when the display mechanism 10c displays a related image or the like.
The communication control unit 17 performs control when the wireless circuit 10h communicates with the server 20 via the antenna 10i, the base station 80, and the network 90.

尚、これらの機能は、ソフトウェアとハードウェア資源とが協働することにより実現される。即ち、CPU10aが、画像解析部11、識別情報取得部12、位置情報取得部13、範囲情報生成部14、選択情報取得部15、表示制御部16、通信制御部17の各機能を実現するプログラムを、メモリ10bから読み込むことにより、これらの機能を実現する。   These functions are realized by cooperation between software and hardware resources. That is, the program in which the CPU 10a realizes the functions of the image analysis unit 11, the identification information acquisition unit 12, the position information acquisition unit 13, the range information generation unit 14, the selection information acquisition unit 15, the display control unit 16, and the communication control unit 17. Are realized from the memory 10b.

次に、本実施の形態におけるサーバ20の機能構成について説明する。
図7は、サーバ20の機能構成を示したブロック図である。
図示するように、サーバ20は、通信制御部21と、検索部22と、抽出部23と、データベース24とを備える。
通信制御部21は、通信I/F20dが基地局80及びネットワーク90を介して携帯電話10と通信する際の制御を行う。
検索部22は、通信制御部21が受信した情報に基づいてデータベース24を検索し、検索結果を通信制御部21に返却する。
抽出部23は、検索部22による検索結果から特定の範囲を抽出する。
データベース24は、文書画像と関連画像とを、文書の識別情報と、関連画像に関する分類とに基づいて検索可能なように記憶している。
Next, the functional configuration of the server 20 in the present embodiment will be described.
FIG. 7 is a block diagram showing a functional configuration of the server 20.
As illustrated, the server 20 includes a communication control unit 21, a search unit 22, an extraction unit 23, and a database 24.
The communication control unit 21 performs control when the communication I / F 20 d communicates with the mobile phone 10 via the base station 80 and the network 90.
The search unit 22 searches the database 24 based on the information received by the communication control unit 21 and returns the search result to the communication control unit 21.
The extraction unit 23 extracts a specific range from the search result obtained by the search unit 22.
The database 24 stores document images and related images so that they can be searched based on document identification information and classifications related to related images.

尚、これらの機能は、ソフトウェアとハードウェア資源とが協働することにより実現される。即ち、CPU20aが、通信制御部21、検索部22、抽出部23の各機能を実現するプログラムを、例えば磁気ディスク装置20cからメインメモリ20bに読み込むことにより、これらの機能を実現する。
また、データベース24は、例えば磁気ディスク装置20cを用いて実現することができる。
These functions are realized by cooperation between software and hardware resources. That is, the CPU 20a realizes these functions by reading a program that realizes the functions of the communication control unit 21, the search unit 22, and the extraction unit 23 from, for example, the magnetic disk device 20c into the main memory 20b.
The database 24 can be realized by using, for example, the magnetic disk device 20c.

以下、このデータベース24の内容について具体的に説明する。尚、ここでも、文書として地図を例示する。
まず、データベース24においては、地図を一意に識別する識別情報である地図IDごとに、地図画像及び関連画像が記憶されている。図7では、地図ID「1001」、「1002」、…について、地図画像及び関連画像を例示している。
ここで、地図画像とは、撮影対象となっている地図を予め電子化した電子データである。
また、関連画像とは、この地図画像に含まれるのと全く同じ地域に関する他の情報を電子化した電子データである。
Hereinafter, the contents of the database 24 will be specifically described. Here, too, a map is illustrated as a document.
First, in the database 24, a map image and a related image are stored for each map ID that is identification information for uniquely identifying a map. 7 exemplifies map images and related images for map IDs “1001”, “1002”,...
Here, the map image is electronic data obtained by digitizing a map to be photographed in advance.
The related image is electronic data obtained by digitizing other information related to the same region as that included in the map image.

この関連画像としては、例えば、図7のデータベース24内の左側に示すように、バス路線図、電車路線図、一般道路図、高速道路図等の画像がある。
ところで、これらの関連画像は、地図画像に関連する他の情報を予め画像データとして作成し記憶するものであるが、関連画像の記憶方法は必ずしもこれには限られない。
即ち、図7のデータベース24内の右側に示すような記憶方法も考えられる。ここでは、地図画像に関連する他の情報を、画像データとしてではなく、座標値と施設名の対応情報として記憶している。この場合は、座標値で示される位置に対応する施設があることを示す画像データを必要に応じて作成することで、関連画像が動的に得られることになる。
Examples of the related image include images such as a bus route map, a train route map, a general road map, and an expressway map as shown on the left side in the database 24 of FIG.
By the way, these related images are for creating and storing other information related to the map image in advance as image data, but the storage method of the related images is not necessarily limited to this.
That is, a storage method as shown on the right side in the database 24 of FIG. Here, other information related to the map image is stored not as image data but as correspondence information between coordinate values and facility names. In this case, a related image is dynamically obtained by creating image data indicating that there is a facility corresponding to the position indicated by the coordinate value, as necessary.

次に、本実施の形態の動作について詳細に説明する。
図8は、本実施の形態における携帯電話10とサーバ20の動作を示したシーケンス図である。
携帯電話10では、まず、撮像機構10gが撮影した画像を、画像解析部11が取得する(ステップ101)。そして、この取得した画像を解析する(ステップ102)。
Next, the operation of the present embodiment will be described in detail.
FIG. 8 is a sequence diagram showing operations of the mobile phone 10 and the server 20 in the present embodiment.
In the mobile phone 10, first, the image analysis unit 11 acquires an image captured by the imaging mechanism 10g (step 101). Then, the acquired image is analyzed (step 102).

ここで、画像解析部11が行う処理には、次のようなものがある。
まず、取得した画像において、文書の画像(例えば、地図自体の画像)と、コード画像とを切り分ける処理がある。例えば、文書を印刷するのに用いていない色でコード画像を印刷しておけば、この色を検出することで切り分けを行うことは可能である。
或いは、撮像機構10gにおけるイメージセンサとして、赤外光用のセンサを設けることも考えられる。この場合、文書は可視トナーで印刷し、コード画像は赤外領域に吸収波長を持つ不可視トナーで印刷する。そして、赤外LEDにより赤外光を照射し、その反射光を赤外光用のイメージセンサで受光することにより、文書の画像とコード画像を切り分けることができる。
Here, the processing performed by the image analysis unit 11 includes the following.
First, in the acquired image, there is a process of separating a document image (for example, an image of the map itself) and a code image. For example, if a code image is printed in a color that is not used to print a document, it is possible to perform separation by detecting this color.
Alternatively, an infrared sensor may be provided as an image sensor in the imaging mechanism 10g. In this case, the document is printed with visible toner, and the code image is printed with invisible toner having an absorption wavelength in the infrared region. Then, by irradiating the infrared light with the infrared LED and receiving the reflected light with the image sensor for infrared light, the image of the document and the code image can be separated.

次に、切り分けられたコード画像に含まれるノイズを除去するための処理がある。ここで、ノイズとしては、CMOS感度のばらつきや電子回路により発生するノイズ等がある。ノイズを除去するために如何なる処理を行うかは、撮像機構10gの特性に応じて決定すべきである。例えば、ぼかし処理やアンシャープマスキング等の先鋭化処理を適用することができる。   Next, there is a process for removing noise included in the cut code image. Here, the noise includes variations in CMOS sensitivity, noise generated by an electronic circuit, and the like. What processing is performed to remove noise should be determined according to the characteristics of the imaging mechanism 10g. For example, sharpening processing such as blurring processing or unsharp masking can be applied.

その次に行う処理としては、画像からドットパターン(ドット画像の位置)を検出する処理がある。例えば、2値化処理によりドットパターン部と背景部とを切り分け、2値化された個々の画像位置からドットパターンを検出することができる。2値化画像にノイズ成分が多数含まれる場合は、例えば、2値化画像の面積や形状によりドットパターンの判定を行うフィルタ処理を組み合わせる必要がある。
また、検出したドットパターンを2次元配列上のデジタルデータに変換する。例えば、2次元配列上で、ドットがある位置を「1」、ドットがない位置を「0」というように変換する。
The next process is a process of detecting a dot pattern (position of a dot image) from an image. For example, the dot pattern portion and the background portion are separated by binarization processing, and the dot pattern can be detected from each binarized image position. When a binarized image contains a lot of noise components, for example, it is necessary to combine a filter process for determining a dot pattern based on the area and shape of the binarized image.
The detected dot pattern is converted into digital data on a two-dimensional array. For example, on a two-dimensional array, a position where there is a dot is converted to “1”, and a position where there is no dot is converted to “0”.

次いで、デジタルデータから、図3(a)に示した2つのドットの組み合わせからなるビットパターンを検出する処理がある。例えば、ビットパターンに対応するブロックの境界位置を2次元配列上で動かし、ブロック内に含まれるドットの数が2つになるような境界位置を検出することにより、ビットパターンを検出することができる。
このようにしてビットパターンが検出されると、ビットパターンの種類を参照することにより、同期符号を検出する。そして、同期符号からの位置関係に基づいて、識別符号及び位置符号を検出する。
Next, there is processing for detecting a bit pattern composed of a combination of two dots shown in FIG. 3A from digital data. For example, the bit pattern can be detected by moving the boundary position of the block corresponding to the bit pattern on the two-dimensional array and detecting the boundary position so that the number of dots included in the block is two. .
When the bit pattern is detected in this way, the synchronization code is detected by referring to the type of the bit pattern. And an identification code and a position code are detected based on the positional relationship from a synchronous code.

その後、識別情報取得部12は、識別符号を復号して識別情報を取得し、通信制御部17に受け渡す(ステップ103)。尚、識別情報は、識別符号に対してRS復号処理を施すことで得られる。
また、位置情報取得部13は、位置符号を復号して位置情報を取得し、範囲情報生成部14に受け渡す(ステップ104)。尚、位置情報は、読み出した部分系列の位置を、画像生成時に使用したM系列と比較することで得られる。
次に、範囲情報生成部14は、ステップ104で取得した位置情報と、表示機構10cと撮像機構10gの位置関係に関する情報とに基づいて、携帯電話10のディスプレイに表示すべき画像の範囲を求め、通信制御部17に受け渡す(ステップ105)。尚、表示機構10cと撮像機構10gの位置関係に関する情報は、メモリ10bに記憶されているものとする。
Thereafter, the identification information acquisition unit 12 acquires the identification information by decoding the identification code, and passes it to the communication control unit 17 (step 103). The identification information is obtained by performing RS decoding processing on the identification code.
In addition, the position information acquisition unit 13 decodes the position code to acquire the position information, and transfers it to the range information generation unit 14 (step 104). The position information can be obtained by comparing the position of the read partial series with the M series used at the time of image generation.
Next, the range information generation unit 14 obtains a range of an image to be displayed on the display of the mobile phone 10 based on the position information acquired in step 104 and information on the positional relationship between the display mechanism 10c and the imaging mechanism 10g. The data is transferred to the communication control unit 17 (step 105). It is assumed that information regarding the positional relationship between the display mechanism 10c and the imaging mechanism 10g is stored in the memory 10b.

ここで、携帯電話10のディスプレイに表示すべき画像の範囲の求め方について具体的に説明する。
図9(a)に、携帯電話10を水平にして上部から見た状態を示している。
図示するように、例えば、カメラ18のレンズの中心点を原点Oとし、ディスプレイ19の横枠に平行な方向にX軸をとり、縦枠に平行な方向にY軸をとる。そして、ディスプレイ19の左上角の点をA、右上角の点をB、左下角の点をC、右下角の点をDとする。
一方、携帯電話10で文書を撮影する際には、文書上に次のように座標を設定する。
即ち、携帯電話10のカメラ18による撮影範囲38の中心点を原点O’とし、撮影範囲38の横枠に平行な方向にX軸をとり、縦枠に平行な方向にY軸をとる。そして、この文書上の座標において、携帯電話10における点A、B、C、Dにそれぞれ対応する点A’、B’、C’、D’を求める。そして、これらの点A’、B’、C’、D’で囲まれた範囲を表示範囲39とする。
Here, how to obtain the range of the image to be displayed on the display of the mobile phone 10 will be specifically described.
FIG. 9A shows a state in which the mobile phone 10 is viewed horizontally from the top.
As shown in the figure, for example, the center point of the lens of the camera 18 is the origin O, the X axis is taken in the direction parallel to the horizontal frame of the display 19, and the Y axis is taken in the direction parallel to the vertical frame. A point at the upper left corner of the display 19 is A, a point at the upper right corner is B, a point at the lower left corner is C, and a point at the lower right corner is D.
On the other hand, when shooting a document with the mobile phone 10, coordinates are set on the document as follows.
That is, the center point of the shooting range 38 by the camera 18 of the mobile phone 10 is set as the origin O ′, the X axis is taken in the direction parallel to the horizontal frame of the shooting range 38, and the Y axis is taken in the direction parallel to the vertical frame. Then, points A ′, B ′, C ′, and D ′ corresponding to the points A, B, C, and D on the mobile phone 10 are obtained at the coordinates on the document. A range surrounded by these points A ′, B ′, C ′, and D ′ is set as a display range 39.

再び図8に戻って本実施の形態の動作の説明を続ける。
識別情報取得部12により識別情報が取得され、範囲情報生成部14により範囲情報が生成されると、選択情報取得部15が、表示制御部16に対し、関連画像に関する分類を選択するための選択肢を表示するよう指示する。すると、表示制御部16による制御の下、表示機構10cが、関連画像に関する分類を選択するための選択肢を表示する(ステップ106)。
そこで、ユーザが、関連画像に関する特定の分類を選択すると、選択情報取得部15は、その選択内容を示す選択情報を取得し、通信制御部17に受け渡す(ステップ107)。尚、このとき、ユーザは、携帯電話10で画像を表示する際の表示形態も指定する。そして、選択情報取得部15は、この表示形態の指定も選択情報に含めて通信制御部17に受け渡す。
これにより、通信制御部17は、無線回路10hを制御し、アンテナ10i、基地局80、ネットワーク90を介して、識別情報、範囲情報、選択情報をサーバ20に送信する(ステップ108)。
Returning to FIG. 8 again, the description of the operation of the present embodiment will be continued.
When the identification information is acquired by the identification information acquisition unit 12 and the range information is generated by the range information generation unit 14, the selection information acquisition unit 15 selects an option for the display control unit 16 to select a classification related to the related image. Is displayed. Then, under the control of the display control unit 16, the display mechanism 10c displays options for selecting a classification related to the related image (step 106).
Therefore, when the user selects a specific classification related to the related image, the selection information acquisition unit 15 acquires selection information indicating the selection content and passes it to the communication control unit 17 (step 107). At this time, the user also designates a display form when displaying an image on the mobile phone 10. Then, the selection information acquisition unit 15 includes the designation of the display form in the selection information and transfers it to the communication control unit 17.
Thereby, the communication control unit 17 controls the radio circuit 10h, and transmits identification information, range information, and selection information to the server 20 via the antenna 10i, the base station 80, and the network 90 (step 108).

これにより、サーバ20では、通信I/F20dが、識別情報、範囲情報、選択情報を受信し、通信制御部21を介してこれらの情報を検索部22に渡す(ステップ201)。
次に、検索部22は、識別情報及び選択情報をキーにデータベース24を検索し、関連画像を検索する(ステップ202)。即ち、識別情報に対応し、かつ、選択情報が示す分類に属する関連画像を特定する。例えば、ユーザが携帯電話10を用いて地図ID「1001」の地図を撮影し、表示したい関連画像として「バス路線図」を選択したとすると、地図ID「1001」に対応付けられたバス路線図の画像を特定する。また、ユーザが携帯電話10を用いて地図ID「1002」の地図を撮影し、表示したい関連画像として「施設名」を選択したとすれば、地図ID「1002」に対応付けられた施設の画像(「C銀行本店」、「△△デパート」等の場所を示した画像)を特定する。
Thereby, in the server 20, the communication I / F 20d receives the identification information, the range information, and the selection information, and passes these pieces of information to the search unit 22 via the communication control unit 21 (step 201).
Next, the search unit 22 searches the database 24 using the identification information and selection information as keys, and searches for related images (step 202). That is, the related image corresponding to the identification information and belonging to the classification indicated by the selection information is specified. For example, if the user takes a map with the map ID “1001” using the mobile phone 10 and selects “bus route map” as the related image to be displayed, the bus route map associated with the map ID “1001”. Identify the images. Further, if the user takes a map with the map ID “1002” using the mobile phone 10 and selects “facility name” as the related image to be displayed, the facility image associated with the map ID “1002” is displayed. (Images showing locations such as “C bank head office”, “△△ department store”) are identified.

次いで、検索部22は、表示形態が「透視型」であるか「付加型」であるかを判定する(ステップ203)。
ここで、表示形態が「透視型」であると判定された場合は、検索された関連画像をそのまま抽出部23に受け渡す。尚、このとき、抽出部23には、通信制御部21から渡された範囲情報も渡される。
一方、表示形態が「付加型」であると判定された場合は、識別情報をキーに再びデータベース24を検索し、地図画像を検索する(ステップ204)。そして、ステップ202で検索した関連画像とこの地図画像とを合成し、この合成画像を抽出部23に受け渡す(ステップ205)。尚、このとき、抽出部23には、通信制御部21から渡された範囲情報も渡される。
Next, the search unit 22 determines whether the display form is “perspective type” or “additional type” (step 203).
Here, when it is determined that the display form is “perspective type”, the retrieved related image is directly transferred to the extraction unit 23. At this time, the range information passed from the communication control unit 21 is also passed to the extraction unit 23.
On the other hand, when it is determined that the display form is “additional type”, the database 24 is searched again using the identification information as a key, and a map image is searched (step 204). Then, the related image retrieved in step 202 is synthesized with this map image, and this synthesized image is delivered to the extraction unit 23 (step 205). At this time, the range information passed from the communication control unit 21 is also passed to the extraction unit 23.

すると、抽出部23は、検索部22から渡された画像から、範囲情報が示す範囲を切り出す(ステップ206)。そして、抽出部23は、これを携帯電話10に表示すべき表示画像として検索部22に返却し、検索部22は、この表示画像を通信制御部21に受け渡す。その後、通信制御部21が、通信I/F20dを介して表示画像を携帯電話10に送信する(ステップ207)。   Then, the extraction unit 23 cuts out the range indicated by the range information from the image passed from the search unit 22 (step 206). Then, the extraction unit 23 returns this to the search unit 22 as a display image to be displayed on the mobile phone 10, and the search unit 22 delivers this display image to the communication control unit 21. Thereafter, the communication control unit 21 transmits the display image to the mobile phone 10 via the communication I / F 20d (step 207).

これにより、携帯電話10では、アンテナ10i、無線回路10hを介して、通信制御部17が表示画像を取得する(ステップ109)。そして、表示画像は表示制御部16に渡され、表示制御部16による制御の下、表示機構10cが、表示画像を表示する(ステップ110)。   Thereby, in the mobile phone 10, the communication control unit 17 acquires a display image via the antenna 10i and the radio circuit 10h (step 109). Then, the display image is transferred to the display control unit 16, and the display mechanism 10c displays the display image under the control of the display control unit 16 (step 110).

以上、本実施の形態について述べてきた。
尚、本実施の形態では、文書から取得した位置情報に基づいて、表示すべき画像の範囲を示す範囲情報を生成する処理を、携帯電話10内の範囲情報生成部14で行う構成とした。しかしながら、範囲情報の生成は、サーバ20にて行うことも可能である。その場合、携帯電話10は、識別情報と、位置情報と、選択情報と、自身の機種を特定する情報とをサーバ20に送る。ここで、サーバ20の磁気ディスク装置20cには、携帯電話10の機種と、その構造に関する情報(特に、表示機構10cと撮像機構10gの位置関係)との対応関係が記憶されているものとする。これにより、サーバ20は、情報を送信した携帯電話10の構造に関する情報を取得し、この情報と位置情報とに基づき、切り出すべき画像の範囲を特定する。
The embodiment has been described above.
In the present embodiment, the range information generation unit 14 in the mobile phone 10 performs processing for generating range information indicating the range of an image to be displayed based on position information acquired from a document. However, the generation of the range information can be performed by the server 20. In that case, the mobile phone 10 sends identification information, position information, selection information, and information for specifying its own model to the server 20. Here, it is assumed that the magnetic disk device 20c of the server 20 stores a correspondence relationship between the model of the mobile phone 10 and information on the structure thereof (particularly, the positional relationship between the display mechanism 10c and the imaging mechanism 10g). . Thereby, the server 20 acquires information related to the structure of the mobile phone 10 that transmitted the information, and specifies the range of the image to be cut out based on this information and the position information.

また、本実施の形態では、文書画像と関連画像を合成した後に、合成画像から特定の範囲を切り出して表示画像を生成するようにしたが、必ずしもこのような順序で処理を行う必要はない。即ち、文書画像から特定の範囲を切り出すと共に、関連画像からも同じ範囲を切り出し、これらを合成して表示画像を生成するようにしてもよい。   In the present embodiment, after a document image and a related image are combined, a specific range is cut out from the combined image to generate a display image. However, the processing need not necessarily be performed in this order. That is, a specific range may be cut out from the document image, the same range may be cut out from the related image, and these may be combined to generate a display image.

ここで、本実施の形態に到った背景について簡単に説明しておく。
昨今、多くの携帯電話にはカメラが付属しており、このカメラは、写真の撮影だけでなく、バーコードやQRコード等の入力装置として利用されることも多くなっている。例えば、地図上にQRコードが印刷してあり、このコードを入力することで地図上の施設等の情報を入手することも可能となっている。
しかしながら、これらのコードは、地図上のある一地点の情報を表現しているに過ぎない。つまり、地図の特性を活かした2次元の情報は表現できていない。2次元の情報としては、例えば、2地点間を結ぶバス経路等があるが、このような情報は表現できていない。
そこで、本実施の形態では、連続的な情報の埋め込みが可能なコードを利用することで、連続的な2次元情報を表現することができるようにしたのである。
Here, the background to the present embodiment will be briefly described.
Nowadays, many mobile phones are provided with a camera, and this camera is often used not only as a photographer but also as an input device such as a barcode or a QR code. For example, a QR code is printed on a map, and it is also possible to obtain information on facilities on the map by inputting this code.
However, these codes only represent information at a certain point on the map. That is, two-dimensional information utilizing the characteristics of the map cannot be expressed. As the two-dimensional information, for example, there is a bus route that connects two points, but such information cannot be expressed.
Therefore, in this embodiment, continuous two-dimensional information can be expressed by using a code that can embed continuous information.

ところで、本実施の形態では、文書として地図を例示し、関連画像として、地図上に表示すると有効なバス路線図や施設名を例示した。しかしながら、本実施の形態は、他の文書に対しても応用可能である。
例えば、文書を、ある言語で書かれたテキスト文書とし、関連画像を、そのテキスト文書を他の言語に翻訳した結果とすることも可能である。
また、文書を図面とし、関連画像をその図面に対するコメントとすることも考えられる。
By the way, in this Embodiment, the map was illustrated as a document and the bus route map and facility name which were effective when displayed on a map as a related image were illustrated. However, this embodiment can be applied to other documents.
For example, the document may be a text document written in a certain language, and the related image may be a result of translating the text document into another language.
It is also conceivable that a document is a drawing and a related image is a comment on the drawing.

また、本実施の形態では、文書を撮影可能で、画像を表示可能で、かつ、文書上で簡単に移動できるデバイスとして、カメラ付き携帯電話を想定したが、同じように撮像機能と表示機能とを有するものであれば、如何なる携帯端末装置を利用してもよい。
更に、本実施の形態では、文書画像及び関連画像を企業等のサーバから取得する構成としたが、このような構成には限らない。例えば、サーバと同様の機能を、携帯電話と同じく一般ユーザが有するパーソナルコンピュータにて実現してもよい。或いは、携帯端末装置の記憶容量が許すのであれば、携帯端末装置が文書画像及び関連画像を記憶するようにしてもよい。
In this embodiment, a camera-equipped mobile phone is assumed as a device that can shoot a document, display an image, and can be easily moved on the document. Any portable terminal device may be used as long as it has the following.
Furthermore, in this embodiment, the document image and the related image are acquired from a server such as a company. However, the present invention is not limited to this configuration. For example, the same function as that of the server may be realized by a personal computer that a general user has as in the case of the mobile phone. Alternatively, if the storage capacity of the mobile terminal device permits, the mobile terminal device may store the document image and the related image.

尚、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。   The program for realizing the present embodiment can be provided not only by communication means but also by storing it in a recording medium such as a CD-ROM.

本発明の実施の形態が適用されるコンピュータシステムの構成を示した図である。It is the figure which showed the structure of the computer system with which embodiment of this invention is applied. 本発明の実施の形態における携帯電話及びサーバのハードウェア構成を示した図である。It is the figure which showed the hardware constitutions of the mobile telephone and server in embodiment of this invention. 本発明の実施の形態で使用するコードパターンを説明するための図である。It is a figure for demonstrating the code pattern used by embodiment of this invention. 本発明の実施の形態における概略動作を説明するための図である。It is a figure for demonstrating schematic operation | movement in embodiment of this invention. 本発明の実施の形態において携帯電話に表示される画像の例を示した図である。It is the figure which showed the example of the image displayed on a mobile telephone in embodiment of this invention. 本発明の実施の形態における携帯電話の機能構成を示したブロック図である。It is the block diagram which showed the function structure of the mobile telephone in embodiment of this invention. 本発明の実施の形態におけるサーバの機能構成を示したブロック図である。It is the block diagram which showed the function structure of the server in embodiment of this invention. 本発明の実施の形態における携帯電話及びサーバの動作を示したシーケンス図である。It is the sequence diagram which showed the operation | movement of the mobile telephone and server in embodiment of this invention. 本発明の実施の形態における範囲情報の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of the range information in embodiment of this invention.

符号の説明Explanation of symbols

10…携帯電話、20…サーバ、80…基地局、90…ネットワーク 10 ... mobile phone, 20 ... server, 80 ... base station, 90 ... network

Claims (9)

被写体を撮像する撮像手段と、
画像を表示する表示手段と、
各位置に位置情報が埋め込まれた文書上の特定の箇所を前記撮像手段で撮像することにより得られた画像の中から、当該特定の箇所における当該位置情報を取得する取得手段と、
前記文書上の各位置に関連付けられた情報のうち、前記取得手段により取得された前記位置情報を用いて決定される特定の範囲に関連付けられた情報を前記表示手段が表示するよう制御する制御手段と
を備えたことを特徴とする携帯端末装置。
Imaging means for imaging a subject;
Display means for displaying an image;
An acquisition means for acquiring the position information at the specific location from the image obtained by imaging the specific location on the document in which the position information is embedded at each position by the imaging means;
Control means for controlling the display means to display information associated with a specific range determined using the position information acquired by the acquisition means among information associated with each position on the document And a portable terminal device.
前記取得手段により取得された前記位置情報と、前記撮像手段と前記表示手段の位置関係に関する情報とを用いて、前記特定の範囲を決定する決定手段を更に備えたことを特徴とする請求項1記載の携帯端末装置。   2. The apparatus according to claim 1, further comprising a determination unit that determines the specific range using the position information acquired by the acquisition unit and information related to a positional relationship between the imaging unit and the display unit. The portable terminal device described. 前記制御手段は、前記特定の範囲に関連付けられた情報を、前記文書の当該特定の範囲内の部分の画像に重ねて前記表示手段が表示するよう制御することを特徴とする請求項1記載の携帯端末装置。   2. The control unit according to claim 1, wherein the control unit controls the display unit to display the information associated with the specific range so as to be superimposed on an image of a portion within the specific range of the document. Mobile terminal device. 前記制御手段は、前記特定の範囲に関連付けられた情報のうち、ユーザにより選択された分類に属する情報を前記表示手段が表示するよう制御することを特徴とする請求項1記載の携帯端末装置。   2. The portable terminal device according to claim 1, wherein the control unit controls the display unit to display information belonging to a classification selected by a user among information associated with the specific range. 各位置に位置情報が埋め込まれた文書上の特定の箇所を撮像するステップと、
撮像することにより得られた画像の中から前記特定の箇所における前記位置情報を取得するステップと、
取得された前記位置情報を用いて前記文書上の特定の範囲を決定するステップと、
前記文書上の各位置に関連付けられた情報のうち、前記特定の範囲に関連付けられた情報を表示するステップと
を含むことを特徴とする情報表示方法。
Imaging a specific location on the document with location information embedded at each location;
Obtaining the position information at the specific location from the image obtained by imaging;
Determining a specific range on the document using the acquired position information;
And displaying information associated with the specific range among information associated with each position on the document.
コンピュータに、
各位置に位置情報が埋め込まれた文書上の特定の箇所を撮像手段で撮像することにより得られた画像の中から、当該特定の箇所における当該位置情報を取得する機能と、
前記文書上の各位置に関連付けられた情報のうち、取得された前記位置情報を用いて決定される特定の範囲に関連付けられた情報を表示手段に表示する機能と
を実現させるためのプログラム。
On the computer,
A function of acquiring the position information at the specific location from the image obtained by imaging the specific location on the document in which the location information is embedded at each position,
A program for realizing a function of displaying, on a display unit, information associated with a specific range determined using the acquired position information among information associated with each position on the document.
取得された前記位置情報と、前記撮像手段と前記表示手段の位置関係に関する情報とを用いて、前記特定の範囲を決定する機能を前記コンピュータに更に実現させるための請求項6記載のプログラム。   The program according to claim 6, further causing the computer to realize a function of determining the specific range by using the acquired position information and information on a positional relationship between the imaging unit and the display unit. 前記表示する機能では、前記特定の範囲に関連付けられた情報を、前記文書の当該特定の範囲内の部分の画像に重ねて表示することを特徴とする請求項6記載のプログラム。   7. The program according to claim 6, wherein in the display function, information associated with the specific range is displayed so as to be superimposed on an image of a portion within the specific range of the document. 前記表示する機能では、前記特定の範囲内に関連付けられた情報のうち、ユーザにより選択された分類に属する情報を表示することを特徴とする請求項6記載のプログラム。   The program according to claim 6, wherein the display function displays information belonging to a category selected by a user among information associated with the specific range.
JP2006271633A 2006-10-03 2006-10-03 Portable terminal device, information display method, and program Expired - Fee Related JP4725473B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006271633A JP4725473B2 (en) 2006-10-03 2006-10-03 Portable terminal device, information display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006271633A JP4725473B2 (en) 2006-10-03 2006-10-03 Portable terminal device, information display method, and program

Publications (2)

Publication Number Publication Date
JP2008092326A true JP2008092326A (en) 2008-04-17
JP4725473B2 JP4725473B2 (en) 2011-07-13

Family

ID=39375981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006271633A Expired - Fee Related JP4725473B2 (en) 2006-10-03 2006-10-03 Portable terminal device, information display method, and program

Country Status (1)

Country Link
JP (1) JP4725473B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012227719A (en) * 2011-04-19 2012-11-15 Fuji Xerox Co Ltd Image processing apparatus, image processing system, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004179783A (en) * 2002-11-25 2004-06-24 Nippon Telegr & Teleph Corp <Ntt> Mobile client apparatus, mobile client support system, id interpreting method, and id interpreting program
JP2006091390A (en) * 2004-09-24 2006-04-06 Mitsubishi Electric Corp Information display system and method, program and information display terminal device for making computer perform information display method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004179783A (en) * 2002-11-25 2004-06-24 Nippon Telegr & Teleph Corp <Ntt> Mobile client apparatus, mobile client support system, id interpreting method, and id interpreting program
JP2006091390A (en) * 2004-09-24 2006-04-06 Mitsubishi Electric Corp Information display system and method, program and information display terminal device for making computer perform information display method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012227719A (en) * 2011-04-19 2012-11-15 Fuji Xerox Co Ltd Image processing apparatus, image processing system, and program
KR101612060B1 (en) * 2011-04-19 2016-04-12 후지제롯쿠스 가부시끼가이샤 Image processing apparatus, image processing system, and recording medium
CN107333024A (en) * 2011-04-19 2017-11-07 富士施乐株式会社 Portable data assistance, image processing method and computer-readable recording medium

Also Published As

Publication number Publication date
JP4725473B2 (en) 2011-07-13

Similar Documents

Publication Publication Date Title
US8521217B2 (en) Content sharing methods and systems
US20170118374A1 (en) Information processing system, terminal device and method of processing data
JP2006270418A (en) Image processor, and processing method
JP2007034625A (en) Information display device
AU2011250828B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP2013255014A (en) Image processing system, imaging apparatus and server apparatus
JP2007133550A (en) Information management system, and information management method
US20070285696A1 (en) Image generating apparatus, image processing apparatus, recording medium and computer readable recording medium
JP2008077538A (en) Print information management device, image formation apparatus, print information management system and program
JP4323453B2 (en) Information acquisition method and information acquisition program
JP4725473B2 (en) Portable terminal device, information display method, and program
US10997410B2 (en) Information processing device and information processing system
JP2008117190A (en) Processor and program
JP2009182823A (en) Image processor and program
JP7272100B2 (en) Information processing device, information processing system, method, and program
JP2007304890A (en) Reading method of two-dimensional code, and electronic document generation device
US8534542B2 (en) Making an ordered element list
JP5098267B2 (en) WRITING INFORMATION PROCESSING DEVICE, WRITING INFORMATION PROCESSING METHOD, AND PROGRAM
JP2006041624A (en) Print control apparatus and method thereof
JP2006020144A (en) Document processing system
JP4692265B2 (en) Printing instruction apparatus, printing apparatus, printing system, and program
JP4962233B2 (en) Image generation apparatus, document management system, document management program
JP4765894B2 (en) Image generating apparatus, information reading apparatus, and recording medium
KR101625751B1 (en) AR marker having boundary code, and system, and method for providing augmented reality using the same
JP2007318341A (en) Device for calculating position on printed matter, system for calculation position on printed matter, method for calculating position on printed matter, and printed matter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110328

R150 Certificate of patent or registration of utility model

Ref document number: 4725473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees