JP2012015657A - Communication device, communication method and communication program - Google Patents

Communication device, communication method and communication program Download PDF

Info

Publication number
JP2012015657A
JP2012015657A JP2010148238A JP2010148238A JP2012015657A JP 2012015657 A JP2012015657 A JP 2012015657A JP 2010148238 A JP2010148238 A JP 2010148238A JP 2010148238 A JP2010148238 A JP 2010148238A JP 2012015657 A JP2012015657 A JP 2012015657A
Authority
JP
Japan
Prior art keywords
unit
communication
logo
image
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010148238A
Other languages
Japanese (ja)
Inventor
Kazuhiko Shibata
和彦 柴田
Katsuaki Akama
勝明 赤間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010148238A priority Critical patent/JP2012015657A/en
Publication of JP2012015657A publication Critical patent/JP2012015657A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method with which user can easily perform communication based on image data.SOLUTION: A communication device comprises a storage unit, a pattern extraction unit, an identifier acquisition unit, and a communication unit. The storage unit stores an image pattern in correlation with identification information which identifies a communication destination. The pattern extraction unit extracts an image pattern from picked-up image data. The identifier acquisition unit refers to the storage unit and acquires identification information correlated with the image pattern extracted by the pattern extraction unit. The communication unit starts communication with a communication destination identified by the identification information acquired by the identifier acquisition unit.

Description

本発明は、通信装置がその通信先の装置に発信する方法に関する。   The present invention relates to a method in which a communication device transmits to a communication destination device.

近年、携帯電話端末の多機能化が進み、例えば、デジタルカメラや名刺リーダなどを備えた端末も普及してきている。このような携帯電話端末のユーザは、名刺リーダを用いて名刺から電話番号や氏名などのデータを取得することにより、名刺に記載されている情報を携帯電話端末に記憶させることができる。この場合、ユーザは、名刺リーダを介して携帯電話端末に記憶させたデータを用いて電話をかけることもできるため、簡便に取引先等に電話をかけることなどができる。   In recent years, mobile phone terminals have become more and more multifunctional, and for example, terminals equipped with a digital camera, a business card reader, and the like have become popular. A user of such a mobile phone terminal can store information described on the business card in the mobile phone terminal by acquiring data such as a phone number and a name from the business card using a business card reader. In this case, since the user can make a call using the data stored in the mobile phone terminal via the business card reader, the user can easily make a call to a business partner or the like.

名刺は、電話番号などの文字情報だけでなく、会社のロゴタイプ(ロゴ)や社章などの画像も含んでいる場合がある。会社のロゴや社章は、その会社を識別するときに有用な情報である。そこで、ロゴや写真などのグラフィック識別子を、電話番号と関連付けることができるユーザインタフェースが知られている。このインタフェースが組み込まれた携帯電話端末のユーザは、携帯電話端末に記憶されている図形をスクロールして、電話をかける相手の人などに関連するグラフィック識別子を見つけてから送出ボタンを押す。すると、携帯電話端末は、選択されたグラフィック識別子と関連付けられた特定の電話番号に発信する。   A business card may include not only text information such as a phone number but also an image such as a company logotype (logo) and a company emblem. A company logo or corporate emblem is useful information for identifying the company. Therefore, user interfaces that can associate graphic identifiers such as logos and photographs with telephone numbers are known. A user of a cellular phone terminal incorporating this interface scrolls the graphic stored in the cellular phone terminal, finds a graphic identifier related to the person who is making a call, and presses the send button. Then, the mobile phone terminal makes a call to a specific telephone number associated with the selected graphic identifier.

特開平10−285263号公報JP 10-285263 A

背景技術で述べたインタフェースが組み込まれた携帯電話端末のユーザは、携帯電話端末に記憶されたグラフィック識別子の一覧の中から、通信先の電話番号と関連付けられたグラフィック識別子を選択することにより、通信先に発信することができる。換言すると、この携帯電話端末のユーザは、通信先の会社等を識別するロゴを目視していても、携帯電話端末に記憶されている一覧の中からグラフィック識別子を検索しないと、通信先に発信することはできない。従って、例えば、ユーザが通信先の会社の前にいる場合や電話をかけようとしている会社のカタログなどを見ている場合であっても、ユーザは、目視しているロゴの情報を用いて発信することができないため、ユーザの利便性が十分であるとはいえない。   A user of a mobile phone terminal in which the interface described in the background art is incorporated allows communication by selecting a graphic identifier associated with a communication destination telephone number from a list of graphic identifiers stored in the mobile phone terminal. You can make a call first. In other words, even if the user of the mobile phone terminal does not search for a graphic identifier from the list stored in the mobile phone terminal even if he / she looks at a logo identifying the company or the like of the communication destination, I can't do it. Therefore, for example, even when the user is in front of the communication company or when looking at the catalog of the company that is trying to make a call, the user makes a call using information on the logo that is being viewed. It cannot be said that user convenience is sufficient.

背景技術では、例として、携帯電話端末から通信先に電話をかける場合について述べたが、電話に限らず、電子メールの送信などの通信においても、同様に利便性が向上されることが望ましい。また、通信装置が携帯電話端末である場合に限らず、コンピュータ、固定電話、ファクシミリなどの場合でも、ユーザの利便性の向上が望まれる。   In the background art, as an example, the case where a call is made from a mobile phone terminal to a communication destination has been described. Further, not only when the communication device is a mobile phone terminal but also in the case of a computer, a fixed phone, a facsimile, etc., it is desired to improve the convenience of the user.

本発明では、画像データに基づいて、ユーザが簡便に通信することが可能な方法を提供することを目的とする。   An object of the present invention is to provide a method by which a user can easily communicate based on image data.

ある実施形態に係る通信装置は、記憶部、パターン抽出部、識別子取得部、および、通信部を備える。記憶部は、通信先を識別する識別情報と対応付けて、画像パターンを記憶する。パターン抽出部は、撮像された画像データから前記画像パターンを抽出する。識別子取得部は、前記記憶部を参照し、前記パターン抽出部において抽出された前記画像パターンに対応付けられた識別情報を取得する。通信部は、前記識別子取得部において取得された前記識別情報により識別される通信先との通信を開始する。   A communication apparatus according to an embodiment includes a storage unit, a pattern extraction unit, an identifier acquisition unit, and a communication unit. The storage unit stores the image pattern in association with identification information for identifying the communication destination. The pattern extraction unit extracts the image pattern from the captured image data. The identifier acquisition unit refers to the storage unit and acquires identification information associated with the image pattern extracted by the pattern extraction unit. The communication unit starts communication with the communication destination identified by the identification information acquired by the identifier acquisition unit.

ユーザは、画像データに基づいて簡便に通信することができる。   The user can simply communicate based on the image data.

通信装置のハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of a communication apparatus. 制御部の構成の例を示す図である。It is a figure which shows the example of a structure of a control part. ロゴを含む名刺の例を示す図である。It is a figure which shows the example of the business card containing a logo. ロゴ電話帳の例を示す図である。It is a figure which shows the example of a logo telephone book. ロゴ電話帳が作成されるときに行われる動作の例を説明するフローチャートである。It is a flowchart explaining the example of the operation | movement performed when a logo telephone directory is produced. 登録数リストの例を示す図である。It is a figure which shows the example of a registration number list | wrist. ユーザが撮像した写真の例を示す図である。It is a figure which shows the example of the photograph which the user imaged. タッチパネルに表示されている画像データから画像パターンを抽出する方法の例を説明する図である。It is a figure explaining the example of the method of extracting an image pattern from the image data currently displayed on the touch panel. タッチパネルに表示されている画像データから画像パターンを抽出する方法の例を説明する図である。It is a figure explaining the example of the method of extracting an image pattern from the image data currently displayed on the touch panel. 位置データテーブルの例を示す図である。It is a figure which shows the example of a position data table. 画像データ中に表示領域の輪郭が表示された例を示す図である。It is a figure which shows the example by which the outline of the display area was displayed in image data. 通信部によって生成されたリストの例を示す図である。It is a figure which shows the example of the list produced | generated by the communication part. 選択画面の例を示す図である。It is a figure which shows the example of a selection screen. 識別領域テーブルの例を示す。An example of an identification area table is shown. 第1の実施形態に係る通信装置でロゴの選択による発信が行われるときの動作の例を説明するフローチャートである。It is a flowchart explaining the example of operation | movement when the transmission by the selection of a logo is performed by the communication apparatus which concerns on 1st Embodiment. 第2の実施形態に係る通信装置でロゴの選択による発信が行われるときの動作の例を説明するフローチャートである。It is a flowchart explaining the example of operation | movement when the transmission by selection of a logo is performed by the communication apparatus which concerns on 2nd Embodiment. 選択画面の例を示す図である。It is a figure which shows the example of a selection screen.

以下の説明では、通信装置がタッチパネルを備える携帯電話端末である場合を例として述べるが、通信装置は携帯電話端末に限られず任意の通信装置とすることができる。また、通信装置は、タッチパネルを備えている機器には限られず、表示デバイスとポインティングデバイスを備えた任意の機器とすることができる。   In the following description, a case where the communication device is a mobile phone terminal provided with a touch panel will be described as an example. Further, the communication device is not limited to a device including a touch panel, and can be any device including a display device and a pointing device.

実施形態に係る通信装置は、通信先を特定する電話番号などの情報と対応付けて画像パターンを記憶している。以下の説明では、通信先を特定する情報と対応付けて通信装置に記憶されている画像を「画像パターン」と記載することがある。通信装置は、タッチパネルに表示されている画像データ中に画像パターンが含まれているかを検索し、画像パターンを抽出する。さらに、通信装置は、抽出された画像パターンが表示されている位置を特定する。画像パターンが表示されている位置へユーザが接触すると、通信装置は、接触が検出された位置に表示されている画像パターンに対応付けられている通信先との通信を開始する。このため、実施形態にかかる通信装置のユーザは、通信先と対応付けられた画像パターンが表示されている位置を選択することにより、通信先に発信することができる。従って、本実施形態によると、例えば、通信先の会社のロゴが写っている画像をタッチパネルに表示した状態で通信先の会社のロゴの表示されている位置に接触することにより、ユーザは、通信先の会社に電話をかけることができる。   The communication apparatus according to the embodiment stores an image pattern in association with information such as a telephone number that specifies a communication destination. In the following description, an image stored in a communication device in association with information for specifying a communication destination may be referred to as an “image pattern”. The communication apparatus searches for image patterns included in the image data displayed on the touch panel, and extracts the image patterns. Furthermore, the communication device specifies a position where the extracted image pattern is displayed. When the user contacts the position where the image pattern is displayed, the communication device starts communication with the communication destination associated with the image pattern displayed at the position where the contact is detected. For this reason, the user of the communication apparatus according to the embodiment can transmit to the communication destination by selecting a position where the image pattern associated with the communication destination is displayed. Therefore, according to the present embodiment, for example, the user can communicate by touching the position where the logo of the communication destination company is displayed in the state where the image of the communication company logo is displayed on the touch panel. You can call the other company.

<装置構成>
図1は、通信装置10のハードウェア構成の例を示す図である。通信装置10は、アンテナ11、無線通信部12、表示部13、マイク14、スピーカ15、音声入出力部16、入力部17、位置入力部18、カメラ19、記憶部20、および、プロセッサ30を備える。また、通信装置10は、オプションとして所在地取得部35を備えることもできる。また、記憶部20は、Read Only Memory(ROM)とRandom Access Memory(RAM)23を備え、ROMにプログラム記憶部21とデータ記憶部22を備える。
<Device configuration>
FIG. 1 is a diagram illustrating an example of a hardware configuration of the communication device 10. The communication device 10 includes an antenna 11, a wireless communication unit 12, a display unit 13, a microphone 14, a speaker 15, a voice input / output unit 16, an input unit 17, a position input unit 18, a camera 19, a storage unit 20, and a processor 30. Prepare. Moreover, the communication apparatus 10 can also be provided with the location acquisition part 35 as an option. The storage unit 20 includes a read only memory (ROM) and a random access memory (RAM) 23, and the ROM includes a program storage unit 21 and a data storage unit 22.

無線通信部12は、アンテナ11を介して基地局との間でデータを送受信する。表示部13は、液晶ディスプレイなどのディスプレイや、タッチパネルなどである。表示部13は、記憶部20に記憶されている画像データや文字データなどを画面に表示することができ、また、カメラ19や無線通信部12を介して取得されたデータを画面に表示することもできる。ここで、カメラ19を介して取得された画像データには、カメラ19で撮像された画像データと、カメラ19での撮像対象をユーザに示すために表示される画像データが含まれる。   The wireless communication unit 12 transmits / receives data to / from the base station via the antenna 11. The display unit 13 is a display such as a liquid crystal display or a touch panel. The display unit 13 can display image data, character data, and the like stored in the storage unit 20 on the screen, and can display data acquired via the camera 19 and the wireless communication unit 12 on the screen. You can also. Here, the image data acquired via the camera 19 includes image data captured by the camera 19 and image data displayed to indicate to the user the imaging target of the camera 19.

音声入出力部16は、マイク14からの音声の入力と、スピーカ15への音声データの出力を制御する。入力部17は、ユーザからの通信装置10へのデータの入力を受け付ける。入力部17は、例えば、キー、ボタンなどの任意の入力デバイスとすることができる。位置入力部18は、タッチパネルなどの任意のポインティングデバイスであり、ユーザからの表示部13が備える画面上の位置を特定する情報の入力を受け付ける。すなわち、ユーザは、位置入力部18により、表示部13の画面の位置を入力することができる。ここで、タッチパネルが搭載されている通信装置10では、タッチパネルは、位置入力部18と表示部13のいずれにも含まれる。なお、タッチパネルを搭載している通信装置10の場合、位置入力部18が取得した情報で特定される位置は、ユーザによる接触が検出された位置などである。カメラ19は、デジタルカメラなどの任意のカメラである。   The voice input / output unit 16 controls voice input from the microphone 14 and voice data output to the speaker 15. The input unit 17 receives an input of data from the user to the communication device 10. The input unit 17 can be an arbitrary input device such as a key or a button, for example. The position input unit 18 is an arbitrary pointing device such as a touch panel, and receives input of information specifying a position on the screen of the display unit 13 from the user. That is, the user can input the position of the screen of the display unit 13 through the position input unit 18. Here, in the communication device 10 on which the touch panel is mounted, the touch panel is included in both the position input unit 18 and the display unit 13. In the case of the communication device 10 equipped with a touch panel, the position specified by the information acquired by the position input unit 18 is a position where a contact by the user is detected. The camera 19 is an arbitrary camera such as a digital camera.

プログラム記憶部21は、プロセッサ30での処理に用いられるプログラムを格納する。データ記憶部22は、通信装置10で使用されるデータやデータベースを格納する。RAM23も、プロセッサ30の処理に使用されるデータを格納する。例えば、実施形態に係る携帯電話端末では、ロゴ電話帳24、登録数リスト25、位置データテーブル26などが格納される。また、RAM23は、プロセッサ30の処理のためなどに用いられることもある。なお、ロゴ電話帳24、登録数リスト25、および、位置データテーブル26については、後述する。   The program storage unit 21 stores a program used for processing by the processor 30. The data storage unit 22 stores data and a database used in the communication device 10. The RAM 23 also stores data used for processing by the processor 30. For example, in the mobile phone terminal according to the embodiment, a logo phone book 24, a registered number list 25, a position data table 26, and the like are stored. The RAM 23 may be used for processing of the processor 30. The logo phone book 24, the registered number list 25, and the position data table 26 will be described later.

所在地取得部35は、例えば、Global Positioning System(GPS)、Assisted GPSなどの任意の方式で位置情報を算出することができる。後述するように、所在地取得部35を備えた通信装置10では、画像パターンに対応付けられた通信先が複数検出されたときに、通信装置10の位置情報に基づいて、ユーザに提示される通信先の優先順位が決定されることがある。   The location acquisition unit 35 can calculate the position information by an arbitrary method such as Global Positioning System (GPS) or Assisted GPS, for example. As will be described later, in the communication device 10 including the location acquisition unit 35, when a plurality of communication destinations associated with the image pattern are detected, communication presented to the user based on the position information of the communication device 10 Prior priorities may be determined.

図2は、制御部40の構成の例を示す図である。プロセッサ30は、プログラム記憶部21に格納されているプログラムを実行することにより、制御部40として動作する。制御部40は、例えば、無線制御部41、呼制御部42、カメラ制御部43、名刺リーダ部44、ロゴ電話帳管理部45、表示制御部46、入力制御部47、および、ロゴ発信部50を備える。ロゴ発信部50は、パターン抽出部51、位置データ取得部52、識別子取得部53、通信部54、および、通信先通知部55を備える。   FIG. 2 is a diagram illustrating an example of the configuration of the control unit 40. The processor 30 operates as the control unit 40 by executing a program stored in the program storage unit 21. The control unit 40 includes, for example, a wireless control unit 41, a call control unit 42, a camera control unit 43, a business card reader unit 44, a logo phone book management unit 45, a display control unit 46, an input control unit 47, and a logo transmission unit 50. Is provided. The logo transmission unit 50 includes a pattern extraction unit 51, a position data acquisition unit 52, an identifier acquisition unit 53, a communication unit 54, and a communication destination notification unit 55.

無線制御部41は、携帯電話端末と基地局の間の無線通信を制御する。呼制御部42は、携帯電話端末で行われる音声通信を制御する。カメラ制御部43は、カメラ19の設定に用いられるパラメータ等に合わせてカメラ19を調整する。さらに、カメラ制御部43は、カメラ19の撮像対象の画像を、名刺リーダ部44や表示制御部46に出力する。カメラ制御部43は、カメラ19で撮像された画像データを表示制御部46に出力することができ、さらに、記憶部20に保存することもできる。   The wireless control unit 41 controls wireless communication between the mobile phone terminal and the base station. The call control unit 42 controls voice communication performed at the mobile phone terminal. The camera control unit 43 adjusts the camera 19 according to parameters and the like used for setting the camera 19. Further, the camera control unit 43 outputs an image to be captured by the camera 19 to the business card reader unit 44 and the display control unit 46. The camera control unit 43 can output the image data captured by the camera 19 to the display control unit 46 and can also store the image data in the storage unit 20.

名刺リーダ部44は、カメラ制御部43から入力された画像データについて例えば、Optical Character Recognition(OCR)などにより文字認識する。名刺リーダ部44は、文字として認識された情報に基づいて氏名や電話番号などの名刺の記載内容を取得し、ロゴ電話帳管理部45に出力する。また、名刺リーダ部44は、カメラ制御部43から入力された画像データのうち、文字認識に失敗した情報を画像データの形でロゴ電話帳管理部45に出力する。   The business card reader unit 44 performs character recognition on the image data input from the camera control unit 43 by, for example, optical character recognition (OCR). The business card reader unit 44 acquires description contents of a business card such as a name and a telephone number based on the information recognized as characters, and outputs it to the logo phonebook management unit 45. Further, the business card reader unit 44 outputs, to the logo phonebook management unit 45, information in which character recognition has failed among the image data input from the camera control unit 43 in the form of image data.

ロゴ電話帳管理部45は、名刺リーダ部44から入力された情報をロゴ電話帳24に記録する。このとき、ロゴ電話帳管理部45は、名刺リーダ部44から入力された画像データも記録する。なお、ロゴ電話帳24に登録されているロゴなどの画像データは、画像パターンとして用いられる。さらに、ロゴ電話帳管理部45は、名刺リーダ部44から所在地情報が入力されると、その情報で特定される地点の緯度と経度を求める。ロゴ電話帳管理部45の動作については、後で詳しく説明する。   The logo phone book management unit 45 records the information input from the business card reader unit 44 in the logo phone book 24. At this time, the logo phonebook management unit 45 also records the image data input from the business card reader unit 44. Note that image data such as a logo registered in the logo telephone directory 24 is used as an image pattern. Further, when the location information is input from the business card reader unit 44, the logo phonebook management unit 45 obtains the latitude and longitude of the point specified by the information. The operation of the logo telephone directory management unit 45 will be described in detail later.

表示制御部46は、画像データや文字データを表示部13に出力し、表示部13はそのデータを画面に表示する。さらに、表示制御部46は、ロゴ発信部50などの通知に従って、線、図形、文字などを画面に表示するためのデータを、表示部13に出力する。例えば、表示制御部46は、パターン抽出部51により抽出された画像パターンの周囲にユーザが視認することができる表示を表示するためのデータを、表示部13に出力する。入力制御部47は、入力部17および位置入力部18を介して入力されたデータを特定して、適宜、ロゴ発信部50に入力データを通知する。また、入力制御部47は、入力部17や位置入力部18で入力されたデータを表示制御部46に通知する。例えば、ディスプレイに表示されている文字列の一部が入力部17により選択された場合、表示制御部46は、入力制御部47の通知に従って、選択された文字列を強調表示するように表示部13に指示する。   The display control unit 46 outputs image data and character data to the display unit 13, and the display unit 13 displays the data on the screen. Furthermore, the display control unit 46 outputs data for displaying lines, graphics, characters, and the like on the screen to the display unit 13 in accordance with the notification from the logo transmission unit 50 and the like. For example, the display control unit 46 outputs data for displaying a display that the user can visually recognize around the image pattern extracted by the pattern extraction unit 51 to the display unit 13. The input control unit 47 specifies data input via the input unit 17 and the position input unit 18 and notifies the logo transmission unit 50 of the input data as appropriate. Further, the input control unit 47 notifies the display control unit 46 of data input by the input unit 17 and the position input unit 18. For example, when a part of the character string displayed on the display is selected by the input unit 17, the display control unit 46 highlights the selected character string in accordance with the notification from the input control unit 47. 13 is instructed.

ロゴ発信部50は、ロゴ電話帳24を用いた通信を制御する。パターン抽出部51は、ロゴ電話帳24から画像パターンを読み込む。さらに、パターン抽出部51は、表示部13の画面に表示されているデータに画像パターンが含まれているかを確認する。表示部13の画面に画像パターンが表示されている場合、パターン抽出部51は、画像パターンを抽出する。画像パターンの抽出方法については後述する。   The logo transmitter 50 controls communication using the logo phone book 24. The pattern extraction unit 51 reads an image pattern from the logo phone book 24. Further, the pattern extraction unit 51 confirms whether an image pattern is included in the data displayed on the screen of the display unit 13. When the image pattern is displayed on the screen of the display unit 13, the pattern extraction unit 51 extracts the image pattern. An image pattern extraction method will be described later.

位置データ取得部52は、抽出された画像パターンが表示されている領域の表示部13の画面上での位置を取得する。例えば、位置データ取得部52は、表示部13の画面の左上の隅を原点としたXY座標を用いて、ある画像パターンが表示されている領域の位置を取得する。以下の説明では、画面中の画像パターンが表示されている領域を「表示領域」、表示領域の位置を特定する情報を「位置データ」と記載することがある。   The position data acquisition unit 52 acquires the position on the screen of the display unit 13 in the area where the extracted image pattern is displayed. For example, the position data acquisition unit 52 acquires the position of an area where a certain image pattern is displayed using XY coordinates with the upper left corner of the screen of the display unit 13 as the origin. In the following description, an area on the screen where an image pattern is displayed may be referred to as “display area”, and information for specifying the position of the display area may be referred to as “position data”.

識別子取得部53は、位置入力部18からの入力が検出された位置が表示領域に含まれているかを判定する。まず、識別子取得部53は、位置入力部18からの入力が検出された位置を位置データ取得部52が用いるXY座標と同じ座標で表したときの座標を取得する。さらに、取得した座標を位置データと比較することにより、入力が検出された位置の座標が表示領域に含まれているかを判定する。入力が検出された位置が表示領域に含まれている場合、識別子取得部53は、位置データテーブル26を用いて、入力が検出された位置に表示されている画像パターンを識別する識別子を取得する。なお、理解を助けるために、以下の説明では、入力が検出された位置に表示されている画像パターンのことを、ユーザにより選択された画像パターン、もしくは、選択された画像パターンなどと記載することがある。識別子取得部53は、ユーザにより選択された画像パターンを識別する識別子を、通信部54に通知する。   The identifier acquisition unit 53 determines whether the position where the input from the position input unit 18 is detected is included in the display area. First, the identifier acquisition unit 53 acquires coordinates when the position where the input from the position input unit 18 is detected is represented by the same coordinates as the XY coordinates used by the position data acquisition unit 52. Furthermore, by comparing the acquired coordinates with the position data, it is determined whether the coordinates of the position where the input is detected are included in the display area. When the position where the input is detected is included in the display area, the identifier acquisition unit 53 uses the position data table 26 to acquire an identifier for identifying the image pattern displayed at the position where the input is detected. . In order to help understanding, in the following description, the image pattern displayed at the position where the input is detected is described as the image pattern selected by the user or the selected image pattern. There is. The identifier acquisition unit 53 notifies the communication unit 54 of an identifier for identifying the image pattern selected by the user.

通信部54は、識別子取得部53から通知された識別子に対応付けられた通信先が1つの場合は、特定された通信先との間の通信を開始する。一方、通信部54は、通知された識別子に対応付けられた通信先が複数ある場合、それらの通信先を通信先通知部55に通知する。通信先通知部55は、ユーザが通信部54から通知された通信先を選択するための表示を表示部13の画面に表示し、ユーザの選択結果を通信部54に通知する。通信部54は、通信先通知部55から通知された通信先との間の通信を開始する。なお、通信先通知部55の動作は、後で詳しく述べる。   When there is one communication destination associated with the identifier notified from the identifier acquisition unit 53, the communication unit 54 starts communication with the specified communication destination. On the other hand, when there are a plurality of communication destinations associated with the notified identifier, the communication unit 54 notifies the communication destination notification unit 55 of the communication destinations. The communication destination notification unit 55 displays a display for selecting the communication destination notified by the user from the communication unit 54 on the screen of the display unit 13 and notifies the communication unit 54 of the selection result of the user. The communication unit 54 starts communication with the communication destination notified from the communication destination notification unit 55. The operation of the communication destination notification unit 55 will be described in detail later.

<第1の実施形態>
以下、第1の実施形態について説明する。第1の実施形態で用いられる通信装置10は所在地取得部35を備えていなくても良い。また、第1の実施形態では、所在地情報が含まれていないロゴ電話帳24を用いることもできる。第1の実施形態で用いられる通信装置10はタッチパネルを備え、表示部13と位置入力部18はタッチパネルにより実現されているものとする。ここでは、第1の実施形態にかかる携帯電話端末のユーザによって撮像された写真がタッチパネルに表示されており、写真中のロゴを選択することにより、ユーザが予め選択されたロゴに対応付けて登録されている連絡先に電話をかける場合を例として述べる。
<First Embodiment>
The first embodiment will be described below. The communication device 10 used in the first embodiment may not include the location acquisition unit 35. In the first embodiment, a logo telephone directory 24 that does not include location information can also be used. The communication device 10 used in the first embodiment includes a touch panel, and the display unit 13 and the position input unit 18 are realized by a touch panel. Here, a photograph taken by the user of the mobile phone terminal according to the first embodiment is displayed on the touch panel, and by selecting a logo in the photograph, the user registers in association with the logo selected in advance. An example will be described in which a call is made to a contact address.

まず、図3(a)に示す名刺を読み込む場合を例として、通信装置10に画像パターンを電話番号等と対応付けて記憶する方法の例を説明する。ここでは、画像パターンは名刺に印刷されているロゴであるものとする。   First, as an example of reading a business card shown in FIG. 3A, an example of a method of storing an image pattern in association with a telephone number or the like in the communication device 10 will be described. Here, it is assumed that the image pattern is a logo printed on a business card.

(1)名刺リーダ部44が起動された状態で、ユーザが、図3(a)に示す名刺をカメラ19で撮像する。カメラ制御部43は、名刺の画像を名刺リーダ部44に出力する。名刺リーダ部44は、入力された画像データの文字認識をする。文字認識により、図3(a)に示した名刺に記載されている氏名、所在地情報、電話番号、Fax番号、メールアドレスが認識されたとする。ここで、所在地情報は、例えば、郵便番号や住所など、所在地を表す任意の情報でよい。   (1) With the business card reader unit 44 activated, the user images the business card shown in FIG. The camera control unit 43 outputs the business card image to the business card reader unit 44. The business card reader unit 44 performs character recognition of the input image data. Assume that the name, location information, telephone number, fax number, and mail address described on the business card shown in FIG. Here, the location information may be any information representing the location, for example, a zip code or an address.

(2)名刺リーダ部44は、文字認識に失敗したデータを画像データとして抽出する。例えば、図3(a)に示す名刺の文字認識をしたとき、名刺リーダ部44は、図3(b)の破線で示す部分の文字認識に失敗する。そこで、名刺リーダ部44は、図3(b)の破線で示す部分を画像データとして抽出する。なお、以下の説明では、名刺リーダ部44は、画像パターンとなる画像データを、その画像データに接する長方形の形で抽出するものとする。   (2) The business card reader unit 44 extracts data that has failed in character recognition as image data. For example, when the character recognition of the business card shown in FIG. 3A is performed, the business card reader unit 44 fails to recognize the character indicated by the broken line in FIG. Therefore, the business card reader unit 44 extracts a portion indicated by a broken line in FIG. 3B as image data. In the following description, it is assumed that the business card reader unit 44 extracts image data serving as an image pattern in the form of a rectangle in contact with the image data.

(3)名刺リーダ部44は、抽出した画像データと手順(1)で取得した氏名などのデータを、ロゴ電話帳管理部45に出力する。ロゴ電話帳管理部45は、入力された情報をロゴ電話帳24に記録する。図4にロゴ電話帳24の例を示す。図4に示すロゴ電話帳24では、抽出された画像データは、ロゴの欄に記録され、名刺に記載されている所在地情報、電話番号などと対応付けて記録される。また、記録された画像データの各々には、その画像データを特定する識別子(ロゴID)が付され、ロゴと対応付けて登録される。図3(a)に示した名刺についての記録は、5番目のデータのとおりである。   (3) The business card reader unit 44 outputs the extracted image data and data such as the name acquired in the procedure (1) to the logo phonebook management unit 45. The logo phone book management unit 45 records the input information in the logo phone book 24. FIG. 4 shows an example of the logo phone book 24. In the logo phonebook 24 shown in FIG. 4, the extracted image data is recorded in the logo field, and is recorded in association with the location information, telephone number, etc. described on the business card. Each recorded image data is given an identifier (logo ID) for specifying the image data and registered in association with the logo. The record for the business card shown in FIG. 3A is as shown in the fifth data.

(4)ロゴ電話帳管理部45は、所在地情報が取得できた場合には、得られた所在地の緯度と経度を求めて、ロゴ電話帳24に記録する。例えば、ロゴ電話帳管理部45は、図3に示した名刺の所在地5から、所在地5が北緯35.581度、東経139.64度であることを求め、ロゴ電話帳24に記録する。   (4) When the location information can be acquired, the logo phone book management unit 45 obtains the latitude and longitude of the obtained location and records them in the logo phone book 24. For example, from the business card location 5 shown in FIG. 3, the logo phone book management unit 45 calculates that the location 5 is 35.581 degrees north latitude and 139.64 degrees east longitude, and records it in the logo phone book 24.

なお、図4は、ロゴ電話帳24の例であり、記録されるデータは実装に応じて変更されることがある。例えば、ロゴ電話帳24は、ロゴ、ロゴID、電話番号、氏名のみを含むこともできる。さらに、ロゴ電話帳24に含まれている項目の一部をオプションとすることもできる。所在地情報がオプションである場合、所在地が記載されていない名刺などでは、図4に示すロゴ電話帳24の4番目の登録のように、所在地とその緯度と経度の項目は記録されず、手順(4)も省略される。また、手順(1)〜(4)も、動作の一例であり、実装に応じて変更される場合がある。例えば、ロゴ電話帳管理部45は緯度と経度を求めた後で氏名などのデータとまとめてロゴ電話帳24に登録することもできる。   FIG. 4 is an example of the logo phone book 24, and the data to be recorded may be changed depending on the implementation. For example, the logo phone book 24 may include only a logo, a logo ID, a phone number, and a name. Furthermore, some of the items included in the logo telephone directory 24 can be made optional. If the location information is optional, the location and its latitude and longitude items are not recorded in the business card etc. where the location is not described, as in the fourth registration in the logo phonebook 24 shown in FIG. 4) is also omitted. The procedures (1) to (4) are also examples of operations and may be changed depending on the implementation. For example, the logo phone book management unit 45 can obtain the latitude and longitude and register them in the logo phone book 24 together with data such as name.

図5は、ロゴ電話帳24が作成されるときに行われる動作の例を説明するフローチャートである。カメラ19で名刺が撮像されると、カメラ制御部43は、撮像されたデータを名刺リーダ部44に出力する(ステップS1)。名刺リーダ部44は、カメラ制御部43から入力された画像データの文字認識をし、画像(ロゴ)を抽出する(ステップS2)。文字認識で電話番号の認識に成功すると、名刺リーダ部44は、取得した電話番号と抽出したロゴをロゴ電話帳管理部45に出力する。ロゴ電話帳管理部45は、名刺リーダ部44から入力された電話番号と画像データを対応付けてロゴ電話帳24に登録する(ステップS3)。   FIG. 5 is a flowchart for explaining an example of operations performed when the logo telephone directory 24 is created. When the business card is captured by the camera 19, the camera control unit 43 outputs the captured data to the business card reader unit 44 (step S1). The business card reader unit 44 performs character recognition of the image data input from the camera control unit 43 and extracts an image (logo) (step S2). When the phone number is successfully recognized by the character recognition, the business card reader unit 44 outputs the acquired phone number and the extracted logo to the logo phone book management unit 45. The logo phone book management unit 45 associates the telephone number input from the business card reader unit 44 with the image data and registers it in the logo phone book 24 (step S3).

ロゴ電話帳管理部45は、ステップS3で登録したロゴが抽出された名刺から住所などの所在地を示す情報が取得できたかを、名刺リーダ部44に問い合わせる(ステップS4)。ステップS2で所在地情報が取得されている場合、名刺リーダ部44は、ロゴ電話帳管理部45に所在地情報を通知する。ロゴ電話帳管理部45は、名刺リーダ部44から通知された所在地情報を、ステップS3で登録されたロゴと対応付けてロゴ電話帳24に登録する(ステップS5)。さらにロゴ電話帳管理部45は、名刺に記載されている所在地の緯度と経度を求め、ステップS3で登録されたロゴと対応付けてロゴ電話帳24に登録する(ステップS6)。   The logo phonebook management unit 45 inquires of the business card reader unit 44 whether information indicating a location such as an address has been acquired from the business card from which the logo registered in step S3 has been extracted (step S4). When the location information is acquired in step S2, the business card reader unit 44 notifies the logo phone book management unit 45 of the location information. The logo phone book management unit 45 registers the location information notified from the business card reader unit 44 in the logo phone book 24 in association with the logo registered in step S3 (step S5). Further, the logo phone book management unit 45 obtains the latitude and longitude of the location described on the business card and registers them in the logo phone book 24 in association with the logo registered in step S3 (step S6).

一方、ステップS2で所在地情報が取得されていない場合、名刺リーダ部44は、所在地情報が取得されていないことをロゴ電話帳管理部45に通知し、ロゴ電話帳管理部45は、ステップS1で撮像された名刺に対する処理を終了する。   On the other hand, if the location information has not been acquired in step S2, the business card reader unit 44 notifies the logo phonebook management unit 45 that the location information has not been acquired. The process for the imaged business card is terminated.

ロゴ電話帳管理部45は、1枚の名刺に対する処理が終わるごとに、登録数リスト25を更新する。図6は、登録数リスト25の例を示す図である。登録数リスト25は、ロゴ電話帳24に登録されているロゴの各々について、ロゴに対応付けて登録されている通信先の件数を表す。図6の例では、個々のロゴを識別するロゴIDに対応付けて、各々のロゴに対応付けて登録されている通信先の件数が記録されている。なお、図6は、登録数リスト25の例であり、登録数リスト25にロゴの画像などの情報を含めるなど、実装に応じて任意に変更することができる。   The logo phone book management unit 45 updates the registered number list 25 every time processing for one business card is completed. FIG. 6 is a diagram illustrating an example of the registration number list 25. The registered number list 25 represents the number of communication destinations registered in association with the logo for each of the logos registered in the logo phone book 24. In the example of FIG. 6, the number of communication destinations registered in association with each logo is recorded in association with the logo ID for identifying each logo. FIG. 6 shows an example of the registration number list 25. The registration number list 25 can be arbitrarily changed according to the implementation, such as including information such as a logo image.

次に、ユーザが、撮像した写真に写っているロゴを選択して、選択されたロゴに対応付けられた通信先に電話をかける方法の例を説明する。以下の説明では、ロゴ電話帳24に登録されているロゴ等を選択して通信先を決定する通信方法を、「画像選択通信」と記載することがある。   Next, an example of a method in which the user selects a logo shown in a photographed image and places a call to a communication destination associated with the selected logo will be described. In the following description, a communication method for determining a communication destination by selecting a logo or the like registered in the logo telephone directory 24 may be referred to as “image selection communication”.

図7は、ユーザが撮像した写真の例を示す図である。図7の写真には、M株式会社とQ株式会社のロゴが写っている。図7の写真をカメラ19で撮像してタッチパネルに表示した後で、ユーザが、入力部17からの入力により、画像選択通信を発信方法に指定したとする。すると、パターン抽出部51は、タッチパネルに表示されている画像データから画像パターンを抽出する。   FIG. 7 is a diagram illustrating an example of a photograph taken by the user. The photograph of FIG. 7 includes the logos of M Corporation and Q Corporation. Assume that the user designates image selection communication as the transmission method by inputting from the input unit 17 after the photograph of FIG. 7 is captured by the camera 19 and displayed on the touch panel. Then, the pattern extraction part 51 extracts an image pattern from the image data displayed on the touch panel.

図8は、タッチパネルに表示されている画像データから画像パターンを抽出する方法の例を説明する図である。ここでは、タッチパネル上での座標は、図8(a)に示すようにタッチパネルの画面の左上の隅を原点としたXY座標を用いて表されるものとする。パターン抽出部51は、表示領域と同じ大きさで同じ形の領域を画像データから選択して、画像パターンと比較する。なお、画像パターンと比較される画像データ中の領域は「比較領域」と記載されることがある。また、画像パターンに含まれる画素と比較領域60に含まれる画素を比較する場合などでは、画素の座標は、画像パターンの左上隅を原点として図8(b)に示すように、横軸のi軸と縦軸のj軸を用いて表現されるものとする。   FIG. 8 is a diagram illustrating an example of a method for extracting an image pattern from image data displayed on the touch panel. Here, the coordinates on the touch panel are expressed using XY coordinates with the upper left corner of the screen of the touch panel as the origin as shown in FIG. The pattern extraction unit 51 selects an area having the same size and the same shape as the display area from the image data, and compares it with the image pattern. An area in the image data to be compared with the image pattern may be described as a “comparison area”. Further, when comparing the pixels included in the image pattern with the pixels included in the comparison area 60, the coordinates of the pixel are i on the horizontal axis as shown in FIG. 8B with the upper left corner of the image pattern as the origin. It is expressed using the axis and the j-axis of the vertical axis.

パターン抽出部51は、ロゴ電話帳24に登録されている画像(ロゴ)の1つを画像パターンとし、その画像パターンが画像データに含まれているかを確認する。ロゴ電話帳24に複数のロゴが登録されている場合、パターン抽出部51は、第1のロゴが含まれているかを確認した後、第2のロゴについて同様に確認することにより、ロゴ電話帳24に登録されている全てのロゴについて、画像データに含まれているかを確認する。ロゴが画像データに含まれているかを確認するために、パターン抽出部51は、タッチパネルに表示されている画像データを走査し、画像データの一部を画像パターンと比較する。   The pattern extraction unit 51 uses one of the images (logos) registered in the logo phone book 24 as an image pattern, and checks whether the image pattern is included in the image data. When a plurality of logos are registered in the logo phone book 24, the pattern extraction unit 51 confirms whether or not the first logo is included, and then confirms the second logo in the same manner. It is confirmed whether all logos registered in 24 are included in the image data. In order to confirm whether the logo is included in the image data, the pattern extraction unit 51 scans the image data displayed on the touch panel and compares a part of the image data with the image pattern.

ここで、画像データの走査方法の例について説明する。ここでは、タッチパネルの画面はX軸方向にGピクセル、Y軸方向にHピクセルであるものとする。また、画像パターンの大きさは、i軸方向にKピクセルでj軸方向にLピクセルであるものとする。   Here, an example of the image data scanning method will be described. Here, the touch panel screen is assumed to have G pixels in the X-axis direction and H pixels in the Y-axis direction. The size of the image pattern is assumed to be K pixels in the i-axis direction and L pixels in the j-axis direction.

パターン抽出部51は、まず、図8(a)に示すように、比較領域60の原点をタッチパネルの画面の原点と一致させた場合について、比較領域60と画像パターンの一致度の大きさを示す評価関数の値を求める。この処理により、パターン抽出部51は、比較領域60のXY座標が(0,0)の場合の評価関数の値を取得する。パターン抽出部51は、得られた評価関数の値を、比較領域60の原点のXY座標の値と対応付けて、RAM23などに記憶する。評価関数の算出方法の具体例については後述する。次に、パターン抽出部51は、比較領域60の原点のXY座標を(1,0)に変更して、比較領域60と画像パターンの評価関数の値を求め、記憶する。同様に、パターン抽出部51は、比較領域60の原点の座標が(G−K,0)となるまで、比較領域60の原点のX座標を1ずつ増加させながら、比較領域60と画像パターンの評価関数の算出を行い、得られた値を適宜、記憶する。   First, as shown in FIG. 8A, the pattern extraction unit 51 indicates the degree of coincidence between the comparison area 60 and the image pattern when the origin of the comparison area 60 is matched with the origin of the screen of the touch panel. Find the value of the evaluation function. By this processing, the pattern extraction unit 51 acquires the value of the evaluation function when the XY coordinates of the comparison area 60 are (0, 0). The pattern extraction unit 51 stores the obtained evaluation function value in the RAM 23 or the like in association with the XY coordinate value of the origin of the comparison region 60. A specific example of the evaluation function calculation method will be described later. Next, the pattern extraction unit 51 changes the XY coordinate of the origin of the comparison area 60 to (1, 0), and obtains and stores the evaluation function values of the comparison area 60 and the image pattern. Similarly, the pattern extraction unit 51 increments the X coordinate of the origin of the comparison area 60 by 1 until the coordinate of the origin of the comparison area 60 becomes (G−K, 0), and the comparison area 60 and the image pattern. The evaluation function is calculated, and the obtained value is stored as appropriate.

比較領域60の原点のXY座標が(G−K,0)の場合の処理が終わると、パターン抽出部51は、比較領域60の原点のY座標が1の場合について、Y座標が0の場合と同様に処理する。すなわち、X座標の値が0の場合からG−Kになるまで、比較領域60の原点のX座標を1ずつ増加させながら、比較領域60と画像パターンの評価関数の算出を行い、得られた値を適宜、記憶する。さらに、パターン抽出部51は、比較領域60のY座標の値を1ずつ増大させて、比較領域60の原点のY座標の値が0や1の場合と同様の処理を繰り返す。比較領域60の原点の値が(G−K,H−L)となるまで計算が繰り返される。すなわち、比較領域60の原点のXY座標を(0,0)から(G−K,H−L)まで1ピクセルずつずらしたときの比較領域60の各々について、画像パターンと比較領域60との一致度を示す評価関数の値が求められる。また、得られた評価関数の値は、適宜、RAM23などに記憶される。   When the processing when the XY coordinate of the origin of the comparison area 60 is (G−K, 0) is completed, the pattern extraction unit 51 performs the process when the Y coordinate of the comparison area 60 is 1 and the Y coordinate is 0. Process in the same way. That is, the evaluation function of the comparison area 60 and the image pattern was calculated while increasing the X coordinate of the origin of the comparison area 60 by 1 from the case where the value of the X coordinate is 0 to GG. Store the value as appropriate. Furthermore, the pattern extraction unit 51 increments the Y coordinate value of the comparison area 60 by 1 and repeats the same processing as when the Y coordinate value of the origin of the comparison area 60 is 0 or 1. The calculation is repeated until the value of the origin of the comparison area 60 becomes (G−K, H−L). That is, the image pattern matches the comparison area 60 for each of the comparison areas 60 when the XY coordinates of the origin of the comparison area 60 are shifted by 1 pixel from (0, 0) to (GK, HL). A value of the evaluation function indicating the degree is obtained. Further, the value of the obtained evaluation function is appropriately stored in the RAM 23 or the like.

以上の処理により、パターン抽出部51は、タッチパネル上の全ての画素が1つ以上の比較領域60での評価関数の算出のために画像パターンと比較されるように、画像データを走査する。なお、ここで述べた走査方法は一例であり、走査方法は、実装に応じて任意に変更されることがある。例えば、パターン抽出部51は、X座標が0の場合についてY座標を変化させながら走査した後で、X座標の値を増やして走査を繰り返すこともできる。さらに、パターン抽出部51が評価関数の値を記憶するタイミングや、格納する場所なども任意に変更される場合がある。   With the above processing, the pattern extraction unit 51 scans the image data so that all pixels on the touch panel are compared with the image pattern in order to calculate the evaluation function in one or more comparison regions 60. Note that the scanning method described here is an example, and the scanning method may be arbitrarily changed depending on the implementation. For example, the pattern extraction unit 51 can repeat scanning by increasing the value of the X coordinate after scanning while changing the Y coordinate when the X coordinate is 0. Furthermore, the timing at which the pattern extraction unit 51 stores the value of the evaluation function, the storage location, and the like may be arbitrarily changed.

パターン抽出部51は、得られた評価関数の値を比較することにより、画像パターンと同じ画像が表示されている位置を抽出する。次に、評価関数の計算方法と比較方法の例について説明する。パターン抽出部51は、例えば、Sum of Absolute Difference(SAD)やSum of Squared Difference(SSD)などの任意の評価関数を用いることができる。SADを用いて処理する場合、パターン抽出部51は、画像パターンの中の第1の画素の輝度を比較領域60の中に含まれている第2の画素の輝度と比較した差分を算出し、得られた差分の総和を求める。前述のように画像パターンが横方向にKピクセルで縦方向にLピクセルの大きさであるとすると、ある比較領域60についての評価関数の値は、次式に基づいて求められる。   The pattern extraction unit 51 extracts a position where the same image as the image pattern is displayed by comparing the obtained evaluation function values. Next, examples of evaluation function calculation methods and comparison methods will be described. The pattern extraction unit 51 can use an arbitrary evaluation function such as Sum of Absolute Difference (SAD) or Sum of Squared Difference (SSD). When processing using SAD, the pattern extraction unit 51 calculates a difference in which the luminance of the first pixel in the image pattern is compared with the luminance of the second pixel included in the comparison region 60, The sum of the obtained differences is obtained. As described above, assuming that the image pattern has a size of K pixels in the horizontal direction and L pixels in the vertical direction, the value of the evaluation function for a certain comparison region 60 is obtained based on the following equation.

式中のVp(i,j)は、画像パターンの左上隅の画素の座標を(0,0)としたときに画像パターン中の(i,j)の座標に位置する画素の輝度である。また、Vg(i,j)は、比較領域60の左上隅の画素の座標を(0,0)としたときに比較領域60の(i,j)の座標に位置する画素の輝度である。従って、ここでは、評価関数の値が小さいほど、画像パターンと比較領域60に表示されている画像の一致度が高いことになる。パターン抽出部51は、比較領域60の各々について得られた評価関数の値を比較して、評価関数の最小値を求める。さらに、パターン抽出部51は、評価関数が最小値となるときの比較領域60の位置を、比較領域60の原点のXY座標を用いて特定する。 Vp (i, j) in the equation is the luminance of the pixel located at the coordinate (i, j) in the image pattern when the coordinate of the pixel at the upper left corner of the image pattern is (0,0). Vg (i, j) is the luminance of the pixel located at the coordinates (i, j) of the comparison region 60 when the coordinates of the upper left corner pixel of the comparison region 60 are (0,0). Therefore, here, the smaller the value of the evaluation function, the higher the degree of matching between the image pattern and the image displayed in the comparison area 60. The pattern extraction unit 51 compares the evaluation function values obtained for each of the comparison regions 60 to obtain the minimum value of the evaluation function. Further, the pattern extraction unit 51 specifies the position of the comparison region 60 when the evaluation function becomes the minimum value by using the XY coordinates of the origin of the comparison region 60.

パターン抽出部51は、画像データを走査して得られた評価関数の最小値を、予め記憶している閾値と比較する。評価関数の最小値が閾値よりも小さい場合、パターン抽出部51は、評価関数が最小値となった比較領域60について、その比較領域60で表示されているデータが画像パターンと一致していると判定する。この場合、画像パターンと一致していると判定された比較領域60は、画像データ中の表示領域である。例えば、Q株式会社のロゴが画像パターンに用いられて図7の写真が走査されると、図9(a)の点線で囲まれた表示領域70が抽出される。表示領域70を抽出すると、パターン抽出部51は、表示領域70に表示されている画像パターンを識別する識別子を、位置データ取得部52に通知する。例えば、図9(a)の表示領域70の場合、画像パターンがQ株式会社のロゴであるので、パターン抽出部51は、「ロゴ4」の表示領域70を抽出したことを位置データ取得部52に通知する。   The pattern extraction unit 51 compares the minimum value of the evaluation function obtained by scanning the image data with a threshold value stored in advance. When the minimum value of the evaluation function is smaller than the threshold value, the pattern extraction unit 51 determines that the data displayed in the comparison area 60 matches the image pattern for the comparison area 60 in which the evaluation function is the minimum value. judge. In this case, the comparison area 60 determined to match the image pattern is a display area in the image data. For example, when the photograph of FIG. 7 is scanned using the logo of Q Corporation as an image pattern, a display area 70 surrounded by a dotted line in FIG. 9A is extracted. When the display area 70 is extracted, the pattern extraction unit 51 notifies the position data acquisition unit 52 of an identifier for identifying the image pattern displayed in the display area 70. For example, in the case of the display area 70 in FIG. 9A, the image pattern is a logo of Q Corporation, so the pattern extraction unit 51 indicates that the display area 70 of “Logo 4” has been extracted. Notify

表示領域70が抽出されると、位置データ取得部52は、表示領域70の位置をタッチパネルの左上隅を基準としたXY座標を用いて表す。図9(b)は、図9(a)の四角形(80)で囲まれた部分を拡大した図である。例えば、位置データ取得部52は、図9(b)に示すように、表示領域70の左上隅71と右下隅72のXY座標を求めることができる。なお、位置データ取得部52は、表示領域70の左上隅71と右下隅72の座標を求める際に、適宜、パターン抽出部51や表示制御部46などにアクセスすることもできる。位置データ取得部52は、左上隅71と右下隅72のXY座標を、表示領域70に表示されているロゴを識別するロゴIDと対応付けて位置データテーブル26に記録する。図9(b)の例では、図10のAに示すように、表示領域70の左上隅71の座標(x1,y1)と右下隅72の座標(x2,y2)が、ロゴ4の識別子と対応づけて記録される。   When the display area 70 is extracted, the position data acquisition unit 52 represents the position of the display area 70 using XY coordinates with reference to the upper left corner of the touch panel. FIG. 9B is an enlarged view of a portion surrounded by the rectangle (80) in FIG. For example, the position data acquisition unit 52 can obtain the XY coordinates of the upper left corner 71 and the lower right corner 72 of the display area 70 as shown in FIG. The position data acquisition unit 52 can also access the pattern extraction unit 51, the display control unit 46, and the like as appropriate when obtaining the coordinates of the upper left corner 71 and the lower right corner 72 of the display area 70. The position data acquisition unit 52 records the XY coordinates of the upper left corner 71 and the lower right corner 72 in the position data table 26 in association with the logo ID that identifies the logo displayed in the display area 70. In the example of FIG. 9B, as shown in A of FIG. 10, the coordinates (x1, y1) of the upper left corner 71 and the coordinates (x2, y2) of the lower right corner 72 of the display area 70 are the identifier of the logo 4 and Correspondingly recorded.

次に、パターン抽出部51がロゴ3の識別子が付されたN株式会社のロゴに対応する画像パターンについて走査したとする。走査の方法や評価関数の計算方法は、前述のとおりである。ここで、走査で得られた評価関数の最小値は閾値よりも大きくなったとする。この場合、パターン抽出部51は、画像パターンが画像データに含まれていないと判定して、処理対象の画像パターンについての処理を終了する。   Next, it is assumed that the pattern extraction unit 51 scans an image pattern corresponding to a logo of N Corporation with the logo 3 identifier. The scanning method and the evaluation function calculation method are as described above. Here, it is assumed that the minimum value of the evaluation function obtained by scanning is larger than the threshold value. In this case, the pattern extraction unit 51 determines that the image pattern is not included in the image data, and ends the process for the image pattern to be processed.

パターン抽出部51は、ロゴ電話帳24に登録されている各々のロゴを画像パターンとして用いて画像データを走査する。また、位置データ取得部52は、パターン抽出部51からの通知に応じて表示領域70の位置を特定し、ロゴ識別子と共に位置データテーブル26に記録する。図10は、図7に示した写真に基づいて生成された位置データテーブル26の例である。図10の例では、Q株式会社のロゴについての情報がA、M株式会社のロゴについての情報がBに記録されている。   The pattern extraction unit 51 scans image data using each logo registered in the logo telephone directory 24 as an image pattern. Further, the position data acquisition unit 52 specifies the position of the display area 70 in response to the notification from the pattern extraction unit 51 and records it in the position data table 26 together with the logo identifier. FIG. 10 is an example of the position data table 26 generated based on the photograph shown in FIG. In the example of FIG. 10, information about the logo of Q Corporation is recorded in A, and information about the logo of M Corporation is recorded in B.

位置データテーブル26の生成が終わると、位置データ取得部52は、識別子取得部53と表示制御部46に、位置データテーブル26を生成したことを通知する。通知を受けると、表示制御部46は、位置データテーブル26に含まれている座標を参照して、表示領域70の輪郭を、タッチパネルの画面に表示するように表示部13に指示する。表示部13が表示領域70の輪郭を表示することにより、ユーザは表示領域70の位置を認識しやすくなる。例えば、表示制御部46は、表示領域70の輪郭を青い線で表示するように表示部13に指示することができる。表示領域70の輪郭が表示されると、ユーザは、表示領域70に表示されているロゴ画像が表示されている位置を入力することにより、そのロゴ画像に対応付けられた通信先に通信できることを認識できる。例えば、ユーザは、表示領域70の輪郭を視認することにより、表示領域70に表示されているロゴ画像が表示されている位置に指で接触することにより、そのロゴ画像に対応付けられた通信先に通信できることを認識する。   When the generation of the position data table 26 is finished, the position data acquisition unit 52 notifies the identifier acquisition unit 53 and the display control unit 46 that the position data table 26 has been generated. Upon receiving the notification, the display control unit 46 refers to the coordinates included in the position data table 26 and instructs the display unit 13 to display the outline of the display area 70 on the screen of the touch panel. When the display unit 13 displays the outline of the display area 70, the user can easily recognize the position of the display area 70. For example, the display control unit 46 can instruct the display unit 13 to display the outline of the display region 70 with a blue line. When the outline of the display area 70 is displayed, the user can communicate with the communication destination associated with the logo image by inputting the position where the logo image displayed in the display area 70 is displayed. Can be recognized. For example, the user visually recognizes the outline of the display area 70 and touches the position where the logo image displayed in the display area 70 is displayed with a finger, so that the communication destination associated with the logo image is displayed. Recognize that you can communicate.

図11は、画像データ中に表示領域70の輪郭が表示された例を示す図である。図11の例は、表示制御部46により、表示領域70aと表示領域70bの輪郭が表示された場合を示している。   FIG. 11 is a diagram illustrating an example in which the outline of the display area 70 is displayed in the image data. The example of FIG. 11 illustrates a case where the display control unit 46 displays the outlines of the display area 70a and the display area 70b.

位置データ取得部52からの通知を受け取ると、識別子取得部53は、入力制御部47に、画面への接触が検出された位置の座標を通知するように要求する。接触が検出された座標が通知されると、識別子取得部53は、位置データテーブル26を参照し、通知された座標が表示領域70に含まれているかを判定する。入力座標が表示領域70に含まれている場合、識別子取得部53は、さらに、位置データテーブル26に基づいて、表示領域70に表示されているロゴを識別する識別子を特定する。   When the notification from the position data acquisition unit 52 is received, the identifier acquisition unit 53 requests the input control unit 47 to notify the coordinates of the position where contact with the screen is detected. When the coordinates at which contact is detected are notified, the identifier acquisition unit 53 refers to the position data table 26 and determines whether the notified coordinates are included in the display area 70. When the input coordinates are included in the display area 70, the identifier acquisition unit 53 further specifies an identifier for identifying the logo displayed in the display area 70 based on the position data table 26.

例えば、図10に示す位置データテーブル26が用いられる場合、識別子取得部53は、各々の表示領域70に含まれる座標を以下のように特定する。
領域Aに含まれる座標:x1≦x≦x2かつy1≦y≦y2
領域Bに含まれる座標:x3≦x≦x4かつy3≦y≦y4
For example, when the position data table 26 shown in FIG. 10 is used, the identifier acquisition unit 53 specifies the coordinates included in each display area 70 as follows.
Coordinates included in region A: x1 ≦ x ≦ x2 and y1 ≦ y ≦ y2
Coordinates included in region B: x3 ≦ x ≦ x4 and y3 ≦ y ≦ y4

図11において、ユーザが指で触れている位置は、タッチパネルの(x5,y5)であるとする。すると、識別子取得部53は、x1≦x5≦x2であり、さらに、y1≦y5≦y2であると判定することにより、ユーザが表示領域70aに接触していると判定する。さらに、識別子取得部53は、位置データテーブル26を参照することにより、表示領域70aにはロゴ4で識別されるロゴが表示されていることも認識する。識別子取得部53は、取得したロゴIDを通信部54に通知する。   In FIG. 11, it is assumed that the position where the user touches with a finger is (x5, y5) on the touch panel. Then, the identifier acquisition unit 53 determines that the user is in contact with the display area 70a by determining that x1 ≦ x5 ≦ x2 and further y1 ≦ y5 ≦ y2. Furthermore, the identifier acquisition unit 53 also recognizes that the logo identified by the logo 4 is displayed in the display area 70 a by referring to the position data table 26. The identifier acquisition unit 53 notifies the communication unit 54 of the acquired logo ID.

一方、表示領域70への接触ではないと判定した場合や表示領域70の識別子が特定できない場合、識別子取得部53は、通知された座標を廃棄し、入力制御部47からの新たな座標の通知を待つ。   On the other hand, when it is determined that the display area 70 is not touched or the identifier of the display area 70 cannot be specified, the identifier acquisition unit 53 discards the notified coordinates and notifies the input control unit 47 of new coordinates. Wait for.

通信部54は、ロゴIDを受け取ると、登録数リスト25を参照する。通知されたロゴIDに対応付けて登録されている電話番号の数が1つの場合、通信部54は、ロゴ電話帳24を参照して、そのロゴIDに対応付けられた電話番号への発信を呼制御部42に要求する。例えば、識別子取得部53からロゴ4が通知された場合、図6に示す登録数リスト25では、ロゴ4に対応付けられた電話番号の登録数は1つである。そこで、通信部54は、図4に示すロゴ電話帳24を参照することによりロゴ4の識別子が付されたロゴに電話番号5が対応付けられていることを認識すると、電話番号5に向けて発信するように、呼制御部42に要求する。   Upon receiving the logo ID, the communication unit 54 refers to the registered number list 25. When the number of telephone numbers registered in association with the notified logo ID is one, the communication unit 54 refers to the logo telephone book 24 and makes a call to the telephone number associated with the logo ID. Request to the call control unit 42. For example, when the logo 4 is notified from the identifier acquisition unit 53, the number of registered telephone numbers associated with the logo 4 is one in the registration number list 25 shown in FIG. Therefore, when the communication unit 54 recognizes that the telephone number 5 is associated with the logo with the identifier of the logo 4 by referring to the logo telephone directory 24 shown in FIG. The call control unit 42 is requested to make a call.

一方、図6では、ロゴ1に対しては3つの電話番号が対応付けられている。従って、通信部54に通知された識別子がロゴ1である場合は、通信部54は、ロゴIDから通信先を一意に特定することはできない。このように、通知されたロゴIDから通信先を一意に特定できない場合、通信部54は、通知されたロゴIDに対応する通信先をロゴ電話帳24で検索してリストを生成する。   On the other hand, in FIG. 6, three telephone numbers are associated with the logo 1. Therefore, when the identifier notified to the communication unit 54 is the logo 1, the communication unit 54 cannot uniquely identify the communication destination from the logo ID. As described above, when the communication destination cannot be uniquely identified from the notified logo ID, the communication unit 54 searches the logo telephone directory 24 for a communication destination corresponding to the notified logo ID and generates a list.

図12は、通信部54によって生成されたリストの例を示す図である。通信部54は、生成したリストを通信先通知部55に出力する。通信先通知部55は、通信先を選択するための選択画面を表示部13の画面に表示する。   FIG. 12 is a diagram illustrating an example of a list generated by the communication unit 54. The communication unit 54 outputs the generated list to the communication destination notification unit 55. The communication destination notification unit 55 displays a selection screen for selecting a communication destination on the screen of the display unit 13.

図13は、図12に示した検索結果に基づいて表示される選択画面の例を示す図である。図13の例では、ロゴ1に対応付けられた電話番号と氏名を、通信先ごとに示しているが、各々の通信先を特定するために選択画面で表示される情報の種類や情報の数は、実装に応じて任意に変更されることがある。通信先通知部55は、入力されたリストに含まれている通信先の数と同数の識別領域90(90a〜90c)を表示部13の画面上に生成する。通信先通知部55は、識別領域90の各々に、識別情報を1つずつ表示する。また、通信先通知部55は、識別領域90の位置を特定する情報を、表示されている電話番号などの識別情報と対応付けた識別領域テーブルを保持している。図14に識別領域テーブルの例を示す。   FIG. 13 is a diagram showing an example of a selection screen displayed based on the search result shown in FIG. In the example of FIG. 13, the telephone number and name associated with the logo 1 are shown for each communication destination, but the type of information and the number of information displayed on the selection screen to identify each communication destination May be arbitrarily changed according to the implementation. The communication destination notification unit 55 generates the same number of identification regions 90 (90a to 90c) on the screen of the display unit 13 as the number of communication destinations included in the input list. The communication destination notification unit 55 displays identification information one by one in each identification area 90. Further, the communication destination notification unit 55 holds an identification area table in which information specifying the position of the identification area 90 is associated with identification information such as a displayed telephone number. FIG. 14 shows an example of the identification area table.

通信先通知部55は、選択画面を表示すると、入力制御部47に携帯電話端末の画面への接触が検出された位置の座標を通知するように要求する。接触が検出された座標が通知されると、通信先通知部55は、通知された座標と識別領域テーブルを比較した結果に基づいて、選択された電話番号を認識する。通知された座標等に基づいて選択された電話番号を認識するための処理は、識別子取得部53の動作で説明した方法と同様である。通信先通知部55は、ユーザにより選択された電話番号を通信部54に通知する。通信部54は、通知された電話番号に発信することを呼制御部42に要求する。呼制御部42等の処理により、選択された電話番号への発信が行われる。   When the communication destination notification unit 55 displays the selection screen, the communication destination notification unit 55 requests the input control unit 47 to notify the coordinates of the position where contact with the screen of the mobile phone terminal is detected. When the coordinates at which contact is detected are notified, the communication destination notification unit 55 recognizes the selected telephone number based on the result of comparing the notified coordinates with the identification area table. The process for recognizing the telephone number selected based on the notified coordinates or the like is the same as the method described in the operation of the identifier acquisition unit 53. The communication destination notification unit 55 notifies the communication unit 54 of the telephone number selected by the user. The communication unit 54 requests the call control unit 42 to make a call to the notified telephone number. A call to the selected telephone number is performed by processing of the call control unit 42 and the like.

図15は、第1の実施形態に係る通信装置でロゴの選択による発信が行われるときの動作の例を説明するフローチャートである。図15のフローチャートのうち、ステップS11〜S13、S15、S16はパターン抽出部51の処理で、ステップS14は位置データ取得部52の処理である。ステップS17は表示制御部46、ステップS18は識別子取得部53、ステップS19〜S21、S23は通信部54、ステップS22は通信先通知部55により行われる。また、図15のフローチャートでは、処理対象のロゴを特定するために変数nが用いられる。Nは、ロゴ電話帳24に登録されているロゴの総数を表す定数であるものとする。   FIG. 15 is a flowchart illustrating an example of an operation when transmission is performed by selecting a logo in the communication device according to the first embodiment. In the flowchart of FIG. 15, steps S <b> 11 to S <b> 13, S <b> 15, and S <b> 16 are processes of the pattern extraction unit 51, and step S <b> 14 is a process of the position data acquisition unit 52. Step S17 is performed by the display control unit 46, step S18 is performed by the identifier acquisition unit 53, steps S19 to S21 and S23 are performed by the communication unit 54, and step S22 is performed by the communication destination notification unit 55. In the flowchart of FIG. 15, the variable n is used to specify the logo to be processed. N is a constant representing the total number of logos registered in the logo phone book 24.

パターン抽出部51は、ユーザにより画像選択通信が選択されると、変数nを1に設定する(ステップS11)。パターン抽出部51は、ロゴ電話帳24のn番目に記録されているロゴの画像を取得し、画像パターンとして用いる(ステップS12)。パターン抽出部51は、表示部13の画面に表示されている表示データに、取得した画像パターンが含まれるかを調べる(ステップS13)。表示データに画像パターンが含まれている場合、位置データ取得部52は、位置をタッチパネルの画面の左上隅を基準とした座標を用いて画像パターンが表示されている位置を表現し、得られた座標を位置データテーブル26に記録する(ステップS14)。n番目のロゴについての画像データの走査が終わると、パターン抽出部51は、nの値をNと比較し、nがN以下の場合はnを1だけインクリメントした後にステップS12に戻る(ステップS15、S16)。ロゴ電話帳24に記録されている全てのロゴ画像を用いて画像データの走査が行われるまでステップS12〜S16の処理が繰り返される。ステップS15でnがN以上である場合、ロゴ電話帳24に含まれている全てのロゴについて画像データに含まれているかの確認が行われている。そこで、表示制御部46は、位置データテーブル26で特定される表示領域70の輪郭をユーザが視認できるように表示する(ステップS17)。   The pattern extraction unit 51 sets the variable n to 1 when the image selection communication is selected by the user (step S11). The pattern extraction unit 51 acquires an image of the logo recorded in the nth in the logo telephone directory 24 and uses it as an image pattern (step S12). The pattern extraction unit 51 checks whether or not the acquired image pattern is included in the display data displayed on the screen of the display unit 13 (step S13). When the display pattern includes an image pattern, the position data acquisition unit 52 represents the position where the image pattern is displayed using coordinates based on the upper left corner of the screen of the touch panel. The coordinates are recorded in the position data table 26 (step S14). When the scanning of the image data for the nth logo is completed, the pattern extraction unit 51 compares the value of n with N. If n is less than or equal to N, the pattern extraction unit 51 increments n by 1 and then returns to step S12 (step S15). , S16). Steps S12 to S16 are repeated until image data is scanned using all logo images recorded in the logo phone book 24. If n is greater than or equal to N in step S15, it is confirmed whether all logos included in the logo phone book 24 are included in the image data. Therefore, the display control unit 46 displays the outline of the display area 70 specified by the position data table 26 so that the user can visually recognize it (step S17).

識別子取得部53は、ユーザにより選択されたロゴを識別する識別子を取得する(ステップS18)。ロゴが選択されると、通信部54は、選択されたロゴに対応付けられた電話番号をロゴ電話帳24から検索し、検索により1つの電話番号が得られると、得られた電話番号を表示部13の画面に表示させる(ステップS19、S20)。検索により複数の電話番号が得られた場合、通信部54は得られた番号を通信先通知部55に通知する。通信先通知部55は、通知された電話番号を表示部13の画面に表示させ、ユーザによって選択された電話番号を通信部54に通知する(ステップS20〜S22)。通信部54は、選択された電話番号に発信する(ステップS23)。また、ステップS21において1つの番号しか表示されていない場合、通信部54は表示されている電話番号に発信する(ステップS21、S23)。ステップS23の発信の後で通信先が応答すると、ユーザは、通信先と通話する。   The identifier acquisition unit 53 acquires an identifier for identifying the logo selected by the user (step S18). When the logo is selected, the communication unit 54 searches the telephone number associated with the selected logo from the logo phone book 24, and when one telephone number is obtained by the search, the obtained telephone number is displayed. It is displayed on the screen of the unit 13 (steps S19 and S20). When a plurality of telephone numbers are obtained by the search, the communication unit 54 notifies the communication destination notification unit 55 of the obtained numbers. The communication destination notification unit 55 displays the notified telephone number on the screen of the display unit 13, and notifies the communication unit 54 of the telephone number selected by the user (steps S20 to S22). The communication unit 54 calls the selected telephone number (step S23). If only one number is displayed in step S21, the communication unit 54 calls the displayed telephone number (steps S21 and S23). When the communication destination responds after the transmission in step S23, the user talks with the communication destination.

なお、図15に示す動作は、一例であり、実装に応じて変更することができる。例えば、携帯電話端末は、1つのロゴに対応付けて登録された電話番号が2つ以上あった場合にステップS20が行われるように変更されることがある。   The operation illustrated in FIG. 15 is an example, and can be changed according to the implementation. For example, the mobile phone terminal may be changed so that step S20 is performed when there are two or more telephone numbers registered in association with one logo.

以上述べたように、本実施形態によると、ユーザがカメラ19で撮像した画像データに通信先のロゴ画像が含まれていると、ユーザは、ロゴ画像が表示されている位置を特定する情報を入力することにより、通信先に電話をかけることができる。従って、ユーザが通信先の会社の前にいる場合、ユーザは目視しているロゴ画像をカメラ19で撮像し、タッチパネルの画面のロゴ画像が表示されている位置に接触することにより、簡単に電話をかけることができる。つまり、ユーザが建物やカタログに付されているロゴを撮像できる環境では、本実施形態にかかる移動端末装置のユーザは、通信先に対応付けられた画像データや電話番号などを検索せずに簡便に通信先に発信することができる。   As described above, according to the present embodiment, when the image data captured by the user with the camera 19 includes the logo image of the communication destination, the user specifies information for specifying the position where the logo image is displayed. By inputting, it is possible to make a call to a communication destination. Therefore, when the user is in front of the communication company, the user picks up the logo image he is viewing with the camera 19 and touches the position where the logo image on the touch panel screen is displayed, so that the user can easily make a call. Can be applied. That is, in an environment in which the user can capture a logo attached to a building or a catalog, the user of the mobile terminal device according to the present embodiment can easily perform without searching for image data or a telephone number associated with a communication destination. You can make a call to the other party.

以上の例では、通信先に電話をかける場合について述べたが、ユーザは、タッチパネルの画面のうちの通信先のロゴが表示された位置に接触することにより、例えば、Faxやメールを送ることもできる。この場合、通信部54は、ユーザにより選択された通信手段に応じて、ロゴ電話帳24からFax番号もしくはメールアドレスを取得する。   In the above example, the case of making a call to the communication destination has been described. However, the user may send a fax or an e-mail, for example, by touching the position where the logo of the communication destination is displayed on the touch panel screen. it can. In this case, the communication unit 54 acquires a fax number or mail address from the logo telephone directory 24 according to the communication means selected by the user.

<第2の実施形態>
第2の実施形態に係る通信装置10は、所在地取得部35を備えており、ユーザの所在地の情報と通信先の所在地の情報を用いて、選択候補となる通信先の表示の順序を変更することができる。第2の実施形態でもタッチパネルを備えた携帯電話端末を例として説明する。また、以下の説明では、携帯電話端末などの通信装置10が位置する地点のことを「装置所在地」と記載することがある。
<Second Embodiment>
The communication device 10 according to the second embodiment includes a location acquisition unit 35, and changes the display order of communication destinations as selection candidates using the location information of the user and the location information of the communication destination. be able to. In the second embodiment, a mobile phone terminal provided with a touch panel will be described as an example. In the following description, a point where the communication device 10 such as a mobile phone terminal is located may be referred to as “device location”.

図16は、第2の実施形態に係る通信装置でロゴの選択による発信が行われるときの動作の例を説明するフローチャートである。図16のステップS31〜S39は、図15を参照しながら説明したステップS11〜S19と同様である。すなわち、第2の実施形態でも、ロゴ電話帳24の生成から、ユーザの接触が検出された表示領域70に表示されているロゴ画像を用いたロゴ電話帳24の検索までの手順は第1の実施形態と同様である。   FIG. 16 is a flowchart for explaining an example of an operation when transmission is performed by selecting a logo in the communication device according to the second embodiment. Steps S31 to S39 in FIG. 16 are the same as steps S11 to S19 described with reference to FIG. That is, also in the second embodiment, the procedure from the generation of the logo phone book 24 to the search of the logo phone book 24 using the logo image displayed in the display area 70 where the user contact is detected is the first procedure. This is the same as the embodiment.

通信部54は、ユーザの接触が検出された表示領域70に表示されているロゴ画像を用いてロゴ電話帳24を検索した結果、複数の電話番号が得られているかを確認する(ステップS40)。ここでは、ステップS38においてM株式会社のロゴが選択され、図12に示す3つの電話番号が検索されたとする。このように、複数の電話番号が取得されると、通信部54は、通信先通知部55に得られた電話番号を通知する。通信先通知部55は、所在地取得部35に、装置所在地を特定する情報を要求する。例えば、通信先通知部55は、所在地取得部35に、装置所在地の緯度と経度を要求する。所在地取得部35は、GPS測位により、装置所在地の緯度と経度を取得する(ステップS41)。所在地取得部35は取得した情報を通信先通知部55に通知する。   The communication unit 54 checks whether or not a plurality of telephone numbers are obtained as a result of searching the logo phone book 24 using the logo image displayed in the display area 70 where the user's contact is detected (step S40). . Here, it is assumed that the logo of M Corporation is selected in step S38, and three telephone numbers shown in FIG. 12 are searched. As described above, when a plurality of telephone numbers are acquired, the communication unit 54 notifies the communication destination notification unit 55 of the obtained telephone number. The communication destination notification unit 55 requests the location acquisition unit 35 for information specifying the device location. For example, the communication destination notification unit 55 requests the location acquisition unit 35 for the latitude and longitude of the device location. The location acquisition unit 35 acquires the latitude and longitude of the device location by GPS positioning (step S41). The location acquisition unit 35 notifies the communication destination notification unit 55 of the acquired information.

通信先通知部55は、各々の電話番号に対応付けられた所在地の緯度および経度と、装置所在地の緯度および経度との差を求める。さらに、通信先通知部55は、装置所在地から近い所在地に対応付けられた電話番号から順に表示部13の画面に表示することを、表示制御部46に要求する。例えば、装置所在地は北緯35.575度、東経139.65度であるとする。検索された3つの電話番号に対応付けられた所在地の緯度と経度は、図12に示したとおりである。すると、緯度と経度の差は、以下のようになる。
所在地1との差:緯度差 0.111度、 経度差 0.08度
所在地2との差:緯度差 0.006度、 経度差 −0.01度
所在地6との差:緯度差 −0.873度、 経度差 −4.15度
The communication destination notification unit 55 obtains the difference between the latitude and longitude of the location associated with each telephone number and the latitude and longitude of the device location. Further, the communication destination notifying unit 55 requests the display control unit 46 to display the screens of the display unit 13 in order from the telephone number associated with the location close to the device location. For example, assume that the device location is 35.575 degrees north latitude and 139.65 degrees east longitude. The latitude and longitude of the location associated with the searched three telephone numbers are as shown in FIG. Then, the difference between latitude and longitude is as follows.
Difference from location 1: latitude difference 0.111 degrees, longitude difference 0.08 degrees Difference from location 2: latitude difference 0.006 degrees, longitude difference -0.01 degrees Difference from location 6: latitude difference -0. 873 degrees, longitude difference -4.15 degrees

従って、緯度差と経度差の絶対値の和は、所在地2で最も小さく、所在地6で最も大きくなる。従って、通信先通知部55は、所在地1、2、6のうち、所在地2が装置所在地に最も近く、所在地6が装置所在地から最も遠いと判断する。そこで、通信先通知部55は、図17に示すように電話番号を画面に表示することを入力制御部47に要求し、ユーザからの入力を待つ(ステップS42)。また、通信先通知部55は、第1の実施例と同様に、識別領域91に表示されている電話番号と対応付けた識別領域テーブルを保持している。選択された電話番号の認識方法や選択された通信先への通信方法など、ステップS43、S45、S46の処理は第1の実施形態で述べたステップS22〜S24と同様である。   Therefore, the sum of the absolute values of the latitude difference and the longitude difference is the smallest at location 2 and the largest at location 6. Accordingly, the communication destination notification unit 55 determines that, of the locations 1, 2, and 6, location 2 is the closest to the device location and location 6 is the farthest from the device location. Therefore, the communication destination notification unit 55 requests the input control unit 47 to display the telephone number on the screen as shown in FIG. 17, and waits for an input from the user (step S42). Further, the communication destination notification unit 55 holds an identification area table associated with the telephone number displayed in the identification area 91 as in the first embodiment. The processes in steps S43, S45, and S46, such as the method for recognizing the selected telephone number and the method for communicating with the selected communication destination, are the same as steps S22 to S24 described in the first embodiment.

一方、ユーザの接触が検出された表示領域70に表示されているロゴ画像に対応付けて記録されている電話番号が1つである場合、通信部54は、得られた電話番号を表示部13に出力し、表示部13はそのデータを画面に表示する(ステップS44)。その後、通信部54は、通信部54は、選択された通信先への発信する(ステップS45)。なお、通信部54の動作は、ステップS44で電話番号を表示部13に出力した後、ユーザが入力部17などを介して発信を選択したことを確認してから、発信するように変形されることもある。   On the other hand, when there is one telephone number recorded in association with the logo image displayed in the display area 70 where the user's contact is detected, the communication unit 54 displays the obtained telephone number on the display unit 13. The display unit 13 displays the data on the screen (step S44). Thereafter, the communication unit 54 makes a call to the selected communication destination (step S45). Note that the operation of the communication unit 54 is modified to make a call after confirming that the user has selected a call via the input unit 17 or the like after outputting the telephone number to the display unit 13 in step S44. Sometimes.

なお、図16を参照しながら説明した動作は一例であって、実装に応じて変形される場合がある。例えば、通信先通知部55は、装置所在地と検索された電話番号に対応付けられた所在地との緯度と経度の差から、装置所在地と通信部54から通知された電話番号に対応付けられた所在地との間の距離を求めることもできる。この場合、通信先通知部55は、得られた距離の長さを用いて、通信部54から通知された電話番号を画面に表示する順序を決定する。   Note that the operation described with reference to FIG. 16 is an example, and may be modified depending on the implementation. For example, the communication destination notification unit 55 determines the location associated with the device location and the telephone number notified from the communication unit 54 from the difference between the latitude and longitude between the device location and the location associated with the searched telephone number. The distance between can also be obtained. In this case, the communication destination notification unit 55 determines the order in which the telephone numbers notified from the communication unit 54 are displayed on the screen using the obtained distance length.

以上述べたように、第2の実施形態でも第1の実施形態と同様に、表示部13の画面に表示されているロゴを選択することにより、ユーザは通信先に電話をかけることができる。さらに、ユーザが選択したロゴに複数の電話番号が登録されている場合、ユーザが選択したロゴに対応付けられた電話番号は、装置所在地から近い位置と対応付けられた電話番号から順に表示される。従って、ユーザは、複数の電話番号に対応付けられた所在地を確認しないでも最も近い通信先を選択して通信することができる。   As described above, in the second embodiment, as in the first embodiment, by selecting the logo displayed on the screen of the display unit 13, the user can make a call to the communication destination. Further, when a plurality of telephone numbers are registered in the logo selected by the user, the telephone numbers associated with the logo selected by the user are displayed in order from the telephone number associated with the position near the device location. . Therefore, the user can select and communicate with the nearest communication destination without confirming the locations associated with the plurality of telephone numbers.

<その他>
なお、本発明は上記の実施形態に限られるものではなく、様々に変形可能である。以下にその例をいくつか述べる。
<Others>
The present invention is not limited to the above-described embodiment, and can be variously modified. Some examples are described below.

パターン抽出部51は、カメラ19から撮像された画像データに限らず、表示部13の画面に表示される任意の画像データについて画像パターンが含まれているかを確認することができる。例えば、通信装置10が予め記憶部20に記憶している画像データがタッチパネルに表示された場合にも、パターン抽出部51は、第1の実施形態と同様の動作により、タッチパネルに表示されている画像データから画像パターンを抽出することができる。また、カメラ19で風景などが撮像される前にも、撮像対象がタッチパネルなどの表示部13の画面に表示されることがある。この場合、パターン抽出部51は、撮像対象として画面に表示された画像からも、同様に、画像パターンを抽出することができる。   The pattern extraction unit 51 can confirm whether an image pattern is included for arbitrary image data displayed on the screen of the display unit 13 as well as the image data captured by the camera 19. For example, even when the image data stored in the storage unit 20 in advance by the communication device 10 is displayed on the touch panel, the pattern extraction unit 51 is displayed on the touch panel by the same operation as in the first embodiment. An image pattern can be extracted from the image data. In addition, even before a landscape or the like is imaged by the camera 19, an imaging target may be displayed on the screen of the display unit 13 such as a touch panel. In this case, the pattern extraction unit 51 can similarly extract an image pattern from an image displayed on the screen as an imaging target.

図8および図9を参照しながら説明した方法は、タッチパネルに表示されている画像データからの画像パターンの抽出の例であり、パターン抽出部51の動作は実装に応じて変更することができる。例えば、ロゴ電話帳24に登録されている画像パターンとタッチパネルなどの表示部13に含まれているロゴの大きさが異なる場合に対応するために、パターン抽出部51は、画像パターンの大きさを拡大もしくは縮小することができるように変形できる。この場合、画像パターンの大きさに合わせて比較領域60や表示領域70も大きさが変動する。さらに、パターン抽出部51は、適宜、画像パターンと比較領域60を比較するときに、画像パターンを回転させることができるような変形を加えることもできる。   The method described with reference to FIGS. 8 and 9 is an example of extracting an image pattern from image data displayed on the touch panel, and the operation of the pattern extraction unit 51 can be changed according to the implementation. For example, in order to cope with the case where the image pattern registered in the logo phone book 24 and the logo included in the display unit 13 such as the touch panel are different, the pattern extraction unit 51 sets the size of the image pattern. It can be deformed so that it can be enlarged or reduced. In this case, the size of the comparison area 60 and the display area 70 also varies according to the size of the image pattern. Furthermore, the pattern extraction unit 51 can appropriately add a modification that can rotate the image pattern when comparing the image pattern with the comparison region 60.

また、パターン抽出部51は、例えば、表示部13の画面に表示されている画像や画像パターンを白黒2値に変換した上で、画像データのうちで画像パターンが含まれている可能性の高い領域を予め特定してから表示領域70を求めることもできる。この場合、パターン抽出部51は、画像パターンが含まれている可能性が高いと特定された領域についてだけ画像パターンとの比較を行うため、パターン抽出部51の処理負担が軽減される。   In addition, the pattern extraction unit 51 converts an image or an image pattern displayed on the screen of the display unit 13 into a binary binary image, and the image pattern is likely to be included in the image data. The display area 70 can be obtained after the area is specified in advance. In this case, since the pattern extraction unit 51 performs comparison with the image pattern only for the region identified as having a high possibility of including the image pattern, the processing load on the pattern extraction unit 51 is reduced.

その他にも、パターン抽出部51は、画像パターンが画像データに含まれているかを確認するために有用な任意の画像処理技術を用いることができるように変形される場合がある。   In addition, the pattern extraction unit 51 may be modified so that any image processing technique useful for confirming whether the image pattern is included in the image data can be used.

さらに、ロゴ電話帳24の生成に際して、携帯電話端末は、例えば、基地局などの他の装置に住所情報を送信して緯度と経度の計算結果を受信することもできる。この場合、ロゴ電話帳管理部45は緯度や経度の計算を行わないため、携帯電話端末の処理負担が軽減される。   Furthermore, when generating the logo phone book 24, the mobile phone terminal can also send the address information to another device such as a base station and receive the calculation result of latitude and longitude. In this case, the logo telephone directory management unit 45 does not calculate latitude and longitude, so the processing load on the mobile phone terminal is reduced.

なお、タッチパネルを備えていない通信装置10の場合でも、任意の表示デバイスと、マウスやペンタブレットなど任意のポインティングデバイスを備える通信装置10で、実施形態に示した通信ができる。この場合、ユーザは、ポインティングデバイスを用いて画面上の位置を入力する。   Even in the case of the communication apparatus 10 that does not include a touch panel, the communication described in the embodiment can be performed by the communication apparatus 10 that includes an arbitrary display device and an arbitrary pointing device such as a mouse or a pen tablet. In this case, the user inputs a position on the screen using a pointing device.

以上の説明では、ロゴ電話帳24の作成方法の例として、名刺リーダ部44が名刺を読み込んでロゴ電話帳24を生成する場合について述べたが、ロゴ電話帳管理部45は名刺リーダ部44の他に入力制御部47やカメラ制御部43から情報を受けとってロゴ電話帳24に登録することもできる。この場合、ユーザは、写真などの名刺以外のものに記録されている画像をロゴ電話帳管理部45に登録することもできる。また、これまでの説明では、画像パターンがロゴである場合を例として説明したが、画像パターンはロゴに限られず、例えば、風景や人間の顔写真であっても良い。また、画像パターンの形状も、実装に応じて変更されることがあり、画像パターンの形状に応じて比較領域60、表示領域70の形状や位置データテーブル26に登録されるデータの内容も変更されることがある。例えば、画像パターンの形状が円形である場合、比較領域60や表示領域70の形状も円形となる。さらに、位置データテーブル26には、表示領域70の中心の座標と表示領域70の半径が記録される。   In the above description, the case where the business card reader unit 44 reads the business card and generates the logo phone book 24 is described as an example of the creation method of the logo phone book 24. In addition, information from the input control unit 47 or the camera control unit 43 can be received and registered in the logo telephone directory 24. In this case, the user can also register an image recorded on something other than a business card such as a photo in the logo phonebook management unit 45. In the above description, the case where the image pattern is a logo has been described as an example. However, the image pattern is not limited to a logo, and may be, for example, a landscape or a human face photo. Further, the shape of the image pattern may be changed according to the mounting, and the shape of the comparison area 60 and the display area 70 and the contents of the data registered in the position data table 26 are also changed according to the shape of the image pattern. Sometimes. For example, when the shape of the image pattern is a circle, the shape of the comparison region 60 and the display region 70 is also a circle. Further, the coordinates of the center of the display area 70 and the radius of the display area 70 are recorded in the position data table 26.

10 通信装置
11 アンテナ
12 無線通信部
13 表示部
14 マイク
15 スピーカ
16 音声入出力部
17 入力部
18 位置入力部
19 カメラ
20 記憶部
21 プログラム記憶部
22 データ記憶部
23 RAM
24 ロゴ電話帳
25 登録数リスト
26 位置データテーブル
30 プロセッサ
40 制御部
41 無線制御部
42 呼制御部
43 カメラ制御部
44 名刺リーダ部
45 ロゴ電話帳管理部
46 表示制御部
47 入力制御部
50 ロゴ発信部
51 パターン抽出部
52 位置データ取得部
53 識別子取得部
54 通信部
55 通信先通知部
60 比較領域
70 表示領域
90、91 識別領域
DESCRIPTION OF SYMBOLS 10 Communication apparatus 11 Antenna 12 Wireless communication part 13 Display part 14 Microphone 15 Speaker 16 Voice input / output part 17 Input part 18 Position input part 19 Camera 20 Storage part 21 Program storage part 22 Data storage part 23 RAM
24 logo phone book 25 registration number list 26 position data table 30 processor 40 control unit 41 wireless control unit 42 call control unit 43 camera control unit 44 business card reader unit 45 logo phone book management unit 46 display control unit 47 input control unit 50 logo transmission Unit 51 pattern extraction unit 52 position data acquisition unit 53 identifier acquisition unit 54 communication unit 55 communication destination notification unit 60 comparison area 70 display area 90, 91 identification area

Claims (3)

通信先を識別する識別情報と対応付けて、画像パターンを記憶する記憶部と、
撮像された画像データから前記画像パターンを抽出するパターン抽出部と、
前記記憶部を参照し、前記パターン抽出部において抽出された前記画像パターンに対応付けられた識別情報を取得する識別子取得部と、
前記識別子取得部において取得された前記識別情報により識別される通信先との通信を開始する通信部
を備えることを特徴とする通信装置。
A storage unit for storing an image pattern in association with identification information for identifying a communication destination;
A pattern extraction unit for extracting the image pattern from the captured image data;
An identifier acquisition unit that refers to the storage unit and acquires identification information associated with the image pattern extracted by the pattern extraction unit;
A communication device comprising: a communication unit that starts communication with a communication destination identified by the identification information acquired by the identifier acquisition unit.
通信装置により実行される通信方法であって、
前記通信装置が、
通信先を識別する識別情報と対応付けて画像パターンを記憶する記憶部を参照し、撮像された画像データから前記画像パターンを抽出し、
前記記憶部から、抽出された前記画像パターンに対応付けられた識別情報を取得し、
取得された前記識別情報により識別される通信先との通信を開始する
ことを特徴とする通信方法。
A communication method executed by a communication device,
The communication device is
Referring to a storage unit that stores an image pattern in association with identification information for identifying a communication destination, and extracting the image pattern from the captured image data;
Obtaining identification information associated with the extracted image pattern from the storage unit;
Communication with the communication destination identified by the acquired said identification information is started. The communication method characterized by the above-mentioned.
コンピュータに、
通信先を識別する識別情報と対応付けて画像パターンを記憶する記憶部を参照し、撮像された画像データから前記画像パターンを抽出するパターン抽出ステップと、
前記記憶部から、前記パターン抽出ステップにおいて抽出された前記画像パターンに対応付けられた識別情報を取得する識別子取得ステップと、
前記識別子取得ステップにおいて取得された前記識別情報により識別される通信先との通信を開始する通信ステップと、
を実行させることを特徴とする通信プログラム。
On the computer,
A pattern extracting step of referring to a storage unit that stores an image pattern in association with identification information for identifying a communication destination, and extracting the image pattern from captured image data;
An identifier acquisition step of acquiring identification information associated with the image pattern extracted in the pattern extraction step from the storage unit;
A communication step of starting communication with a communication destination identified by the identification information acquired in the identifier acquisition step;
A communication program characterized in that
JP2010148238A 2010-06-29 2010-06-29 Communication device, communication method and communication program Pending JP2012015657A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010148238A JP2012015657A (en) 2010-06-29 2010-06-29 Communication device, communication method and communication program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010148238A JP2012015657A (en) 2010-06-29 2010-06-29 Communication device, communication method and communication program

Publications (1)

Publication Number Publication Date
JP2012015657A true JP2012015657A (en) 2012-01-19

Family

ID=45601601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010148238A Pending JP2012015657A (en) 2010-06-29 2010-06-29 Communication device, communication method and communication program

Country Status (1)

Country Link
JP (1) JP2012015657A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013192859A (en) * 2012-03-22 2013-09-30 Tanita Corp Biological information measurement system, biological information measurement device and biological information measurement method
JP2014026408A (en) * 2012-07-26 2014-02-06 Casio Comput Co Ltd Information processing device and program
JP2015175665A (en) * 2014-03-13 2015-10-05 株式会社タニタ Exhalation component measuring system, exhalation component measuring device, exhalation component measuring method, and program
US9536140B2 (en) 2012-07-24 2017-01-03 Casio Computer Co., Ltd Information processing apparatus and computer readable medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036212A (en) * 2001-07-23 2003-02-07 Funai Electric Co Ltd Personal digital assistant with camera function
JP2006165821A (en) * 2004-12-03 2006-06-22 Nikon Corp Portable telephone
JP2011166311A (en) * 2010-02-05 2011-08-25 Fujitsu Ltd Portable terminal device, and telephone book retrieval method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036212A (en) * 2001-07-23 2003-02-07 Funai Electric Co Ltd Personal digital assistant with camera function
JP2006165821A (en) * 2004-12-03 2006-06-22 Nikon Corp Portable telephone
JP2011166311A (en) * 2010-02-05 2011-08-25 Fujitsu Ltd Portable terminal device, and telephone book retrieval method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013192859A (en) * 2012-03-22 2013-09-30 Tanita Corp Biological information measurement system, biological information measurement device and biological information measurement method
US9536140B2 (en) 2012-07-24 2017-01-03 Casio Computer Co., Ltd Information processing apparatus and computer readable medium
JP2014026408A (en) * 2012-07-26 2014-02-06 Casio Comput Co Ltd Information processing device and program
JP2015175665A (en) * 2014-03-13 2015-10-05 株式会社タニタ Exhalation component measuring system, exhalation component measuring device, exhalation component measuring method, and program

Similar Documents

Publication Publication Date Title
US9582937B2 (en) Method, apparatus and computer program product for displaying an indication of an object within a current field of view
JP5218989B2 (en) Communication terminal device and program
KR20110052124A (en) Method for generating and referencing panorama image and mobile terminal using the same
KR20130131919A (en) Multiple-display method using a plurality of communication terminals, machine-readable storage medium and communication terminal
KR101038222B1 (en) How to create, exchange and manage business card information using a portable information terminal
EP2369819A1 (en) Communication terminal apparatus and communication method
JP4555237B2 (en) Button telephone equipment
JP2015184778A (en) Augmented reality display system, augmented reality information generation device, augmented reality display device, server, augmented reality information generation program, augmented reality display program, and data structure of augmented reality information
JP2012015657A (en) Communication device, communication method and communication program
JP2007018166A (en) Information search device, information search system, information search method, and information search program
CN102780560A (en) Communication device, communication method and program
JP6582153B2 (en) Imaging apparatus, imaging method, and imaging program
JP6413521B2 (en) Display control method, information processing program, and information processing apparatus
JP2008236809A (en) Communication terminal and communication system
JP2002111896A (en) Image processing method, image processor, computer readable recording medium with image processing program recorded therein
KR20140130887A (en) Method for generating thumbnail image and an electronic device thereof
JP2015141234A (en) Information acquisition program, information acquisition method, and information processor
JP2013206365A (en) Image processor, image processing method and program
JP2016081313A (en) Image processing system and method of displaying virtual reality
JP2003036212A (en) Personal digital assistant with camera function
JP5423598B2 (en) Portable terminal device, schedule management method, and schedule management program
JP2005055973A (en) Personal digital assistant
US20120242863A1 (en) Communication apparatus and electronic mail creation method
KR101324809B1 (en) Mobile terminal and controlling method thereof
JP4255328B2 (en) Communication terminal device and communication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140304