JP2007166007A - Camera - Google Patents

Camera Download PDF

Info

Publication number
JP2007166007A
JP2007166007A JP2005356370A JP2005356370A JP2007166007A JP 2007166007 A JP2007166007 A JP 2007166007A JP 2005356370 A JP2005356370 A JP 2005356370A JP 2005356370 A JP2005356370 A JP 2005356370A JP 2007166007 A JP2007166007 A JP 2007166007A
Authority
JP
Japan
Prior art keywords
image data
camera
position information
information
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005356370A
Other languages
Japanese (ja)
Other versions
JP4996092B2 (en
Inventor
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2005356370A priority Critical patent/JP4996092B2/en
Publication of JP2007166007A publication Critical patent/JP2007166007A/en
Application granted granted Critical
Publication of JP4996092B2 publication Critical patent/JP4996092B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera capable of cost effectively configuring a recording system of image data for improving the searching performance for searching desired image data among a huge amount of image data acquired by photographing with a simple configuration. <P>SOLUTION: The camera is provided with: a photographing means 103; a GPS means 102 for detecting positional information of the camera; a CPU 101 for discriminating whether or not the position of the camera is a prescribed position on the basis of information associated with the positional information detected by the GPS means 102; and a recording means 105 for recording image data photographed by the photographing means 103 and the information based on the positional information in cross reference with each other. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明はカメラに関し、より詳しくはGPS機能を搭載したカメラに関する。   The present invention relates to a camera, and more particularly to a camera equipped with a GPS function.

近年、全地球測位システム即ちGPS(Global Positioning System)を利用したナビゲーションシステムが発達している。そして、このナビゲーションシステムは、例えばカーナビゲーションシステムとして車両に搭載されたり、また携帯電話等の電子機器に搭載されて利用されている。   In recent years, a navigation system using a global positioning system, that is, a GPS (Global Positioning System) has been developed. The navigation system is mounted on a vehicle, for example, as a car navigation system, or mounted on an electronic device such as a mobile phone.

ところで、このナビゲーションシステムを搭載した携帯型通信装置として、例えば特許文献1に、以下のような技術が開示されている。特許文献1に開示された携帯型通信装置は、当該携帯型通信装置にて撮影した画像データと、該画像データの撮影を行った位置に関する情報である位置情報とを対応付けし、画像記憶部内の場所別フォルダに分類して記録する。これにより、特許文献1に記載の携帯型通信装置は、撮影した画像の中から所望の画像を検索する検索性が向上した携帯型通信装置であると言える。
特開2003−298987号公報
By the way, as a portable communication device equipped with this navigation system, for example, Patent Literature 1 discloses the following technology. The portable communication device disclosed in Patent Document 1 associates image data captured by the portable communication device with location information that is information relating to a location where the image data was captured, and stores the image data in the image storage unit. Categorize and record in folders by location. Accordingly, it can be said that the portable communication device described in Patent Document 1 is a portable communication device with improved searchability for searching for a desired image from captured images.
JP 2003-298987 A

しかしながら、上記特許文献1に記載の携帯型通信装置では、GPSを利用して取得した位置情報に基づいて画像データを場所別フォルダに分類する為に、地図データベースを利用する。そして、このことに起因して、上記特許文献1に記載の携帯型通信装置は、大きなメモリを備えさせたりインターネットや基地局等に接続したりといった大掛かりとも言えるシステムを必要としている。したがって、よりシンプルなシステム構成にて、撮影した画像データの検索性を向上させることができる携帯型通信装置が望まれている。そして、そのような携帯型通信装置、例えばカメラは、地図データベースを利用することによるシステム構成上の重さに起因して、実用化が困難であった。   However, the portable communication device described in Patent Document 1 uses a map database in order to classify image data into location-specific folders based on position information acquired using GPS. For this reason, the portable communication device described in Patent Document 1 requires a system that can be said to be large-scale, such as providing a large memory or connecting to the Internet or a base station. Therefore, a portable communication device that can improve the searchability of captured image data with a simpler system configuration is desired. Such a portable communication device, for example, a camera, has been difficult to put into practical use due to the weight of the system configuration by using the map database.

すなわち、GPSによる位置情報を地図や地名情報と関連付けする作業において、検索用の地図画像のデータベースや地名情報のデータベースが膨大となること、更には世界中の地名やユーザーに対応するには、数多くの言語により表現された地名に対応させる必要性があること等が、実用化時の壁となっていた。   In other words, in the work of associating GPS position information with maps and place name information, the map image database for search and the place name information database become enormous, and there are many to deal with place names and users around the world. The necessity to correspond to place names expressed in other languages has become a barrier to practical use.

本発明は、上記の事情に鑑みてなされたもので、撮影により取得した膨大な画像データの中から、所望の画像データを検索する際の検索性を向上させるような画像データの記録システムを、シンプルな構成且つ低コストにて可能としたカメラを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an image data recording system that improves searchability when searching for desired image data from a vast amount of image data acquired by photographing. An object of the present invention is to provide a camera that has a simple configuration and can be manufactured at low cost.

上記の目的を達成するために、本発明の第1の態様によるカメラは、撮影動作を実行して画像データを取得する撮影手段と、当該カメラの位置情報を検出する位置検出手段と、上記位置検出手段により検出された位置情報に基づいて、当該カメラの位置がどの地理的領域内にあるか判定する判定手段と、上記判定手段による判定結果に基づいて、上記画像データを、その地理的領域を示す地域情報と関連付けて記録する記録手段と、を具備することを特徴とする。   In order to achieve the above object, a camera according to a first aspect of the present invention includes a photographing unit that executes a photographing operation to acquire image data, a position detecting unit that detects positional information of the camera, and the position Based on the position information detected by the detection means, a determination means for determining in which geographical area the position of the camera is, and based on the determination result by the determination means, the image data is converted into the geographical area. And recording means for recording in association with the area information indicating.

上記の目的を達成するために、本発明の第2の態様によるカメラは、撮影動作を実行して画像データを取得する撮影手段と、上記撮影手段による撮影時の当該カメラの位置情報を検出する位置検出手段と、上記撮影手段が取得した上記画像データと上記位置検出手段が検出した上記位置情報とを関連付けて記録する記録手段と、を具備するカメラにおいて、上記位置検出手段に上記位置情報の検出動作を所定時間間隔で行わせるための時計手段と、上記時計手段の出力に基づいた上記位置検出手段の動作により、所定の時間間隔で取得した当該カメラの位置情報に従って、当該カメラにおける基準となる位置である基準位置情報を決定する基準位置情報決定手段と、上記基準位置情報と、上記画像データと関連付けて記録された上記位置情報と、の差異量情報に基づく情報に従って、上記画像データを分類する分類手段と、を更に具備することを特徴とする。   In order to achieve the above object, a camera according to a second aspect of the present invention detects a position of the camera at the time of shooting by the shooting means for executing shooting operation and acquiring image data. In a camera comprising: a position detection unit; and a recording unit that records the image data acquired by the imaging unit and the position information detected by the position detection unit in association with each other, the position detection unit stores the position information. Clock means for performing detection operations at predetermined time intervals, and the operation of the position detection means based on the output of the clock means, according to the camera position information acquired at predetermined time intervals, Reference position information determination means for determining reference position information that is a position, the reference position information, and the position information recorded in association with the image data , The following information based on the difference amount information, and further comprising a, a classification means for classifying the image data.

上記の目的を達成するために、本発明の第3の態様によるカメラは、撮影動作を実行して画像データを取得する撮影手段と、当該カメラの位置の情報を検出する位置検出手段と、上記画像データの撮影枚数を判断する撮影枚数判断手段と、上記位置検出手段により検出された情報に基づく位置情報、及び上記撮影枚数判断手段により判断された上記撮影枚数に基づいて、上記画像データの分類及び記録を制御する分類記録制御手段と、を具備することを特徴とする。   In order to achieve the above object, a camera according to a third aspect of the present invention includes a photographing unit that executes a photographing operation to acquire image data, a position detecting unit that detects position information of the camera, Classification of the image data based on the number of photographed images, a position number based on the information detected by the position detecting means, and the number of photographed images determined by the number of photographed image determining means. And a classification record control means for controlling the recording.

本発明によれば、撮影により取得した膨大な画像データの中から、所望の画像データを検索する際の検索性を向上させるような画像データの記録システムを、シンプルな構成且つ低コストにて可能としたカメラを提供することができる。   According to the present invention, an image data recording system that improves searchability when searching for desired image data from a large amount of image data acquired by photographing can be realized with a simple configuration and at low cost. Can be provided.

以下、図面を参照して本発明の一実施形態に係るカメラの特徴部を説明する。
図1は、本発明の一実施形態に係るカメラの特徴部の構成を示したブロック図である。
Hereinafter, a characteristic part of a camera according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a characteristic part of a camera according to an embodiment of the present invention.

まず、同図に示すように、本実施形態に係るカメラは、制御手段101、該制御手段101に接続して設けられたスイッチ101−a、位置情報取得の為のGPS手段102、撮影動作を実行して画像データを取得する撮影手段103、所定の画像処理を行う画像処理手段104、上記画像データをはじめとする各種データを記録する為の記録手段105、時刻情報を提供する時計手段106、及び例えばLCD等からなる表示手段107を具備する。以下、各構成要素を具体的に説明していく。   First, as shown in the figure, the camera according to this embodiment includes a control unit 101, a switch 101-a provided in connection with the control unit 101, a GPS unit 102 for acquiring position information, and a shooting operation. An image capturing unit 103 that executes to acquire image data, an image processing unit 104 that performs predetermined image processing, a recording unit 105 that records various data including the image data, a clock unit 106 that provides time information, And display means 107 comprising, for example, an LCD or the like. Each component will be specifically described below.

本実施形態に係るカメラにおいては、マイクロコントローラーからなる制御手段(CPU)101が、ユーザーによるスイッチ101−aの操作を検出し、該検出の結果に基づいて後述する所定のシーケンスを実行することで、当該カメラの各構成部材を制御する。   In the camera according to the present embodiment, a control unit (CPU) 101 including a microcontroller detects an operation of the switch 101-a by a user and executes a predetermined sequence described later based on the detection result. Control each component of the camera.

まず、本実施形態に係るカメラには、衛星からの信号を受信して位置情報に変換するGPS手段102が、上記CPU101に接続されて設けられている。このGPS手段102により、画像データ撮影時の当該カメラの位置情報を取得することができる。   First, the camera according to the present embodiment is provided with GPS means 102 that receives a signal from a satellite and converts it into position information, connected to the CPU 101. With this GPS means 102, the position information of the camera at the time of image data shooting can be acquired.

そして、撮影動作を担う上記撮影手段103が取得した画像データは、上記画像処理手段104にて一般的な画像処理を施される。その後、この画像データは、上記GPS手段102が取得した位置情報と共に、記録手段105に記録される。なお、本実施形態においては、画像データと位置情報(詳細は後述)とを関連付けして記録するが、これに対応させて上記記録手段を105を二つのエリアに分け、一方に画像データのみを仮記録した後、他方に順次上記位置情報と関連付けした画像データを記録するような構成を採っても勿論よい。   The image data acquired by the photographing unit 103 responsible for the photographing operation is subjected to general image processing by the image processing unit 104. Thereafter, the image data is recorded in the recording unit 105 together with the position information acquired by the GPS unit 102. In the present embodiment, image data and position information (details will be described later) are recorded in association with each other. Correspondingly, the recording unit 105 is divided into two areas, and only image data is stored in one area. Of course, after temporary recording, it is possible to adopt a configuration in which image data associated with the position information is sequentially recorded on the other side.

なお、上記画像データは、例えばLCD等からなる上記表示手段107にて視認可能である。また、この表示手段107に表示させた画像データをユーザーが視認することで、上記記録手段105に記録された画像データの中から所望の画像データを検索することができる。   Note that the image data can be visually recognized by the display means 107 including, for example, an LCD. Further, when the user visually recognizes the image data displayed on the display unit 107, desired image data can be searched from the image data recorded on the recording unit 105.

さらに、本実施形態に係るカメラには、時刻情報を提供する機能及び時間計測を行うタイマ機能を有する時計手段106が、上記CPU101に接続されて設けられている。なお、この時計手段106による時刻情報等も、上記記録手段105に記録可能である。   Further, the camera according to the present embodiment is provided with a clock means 106 having a function of providing time information and a timer function of measuring time, connected to the CPU 101. The time information by the clock means 106 can also be recorded in the recording means 105.

以下、図2及び図3を参照して、本実施形態に係るカメラに特有の動作制御概念を説明する。   Hereinafter, an operation control concept unique to the camera according to the present embodiment will be described with reference to FIGS. 2 and 3.

まず、図2に示すように本実施形態に係るカメラでは、ユーザーの自宅の場所を示す自宅位置情報(X,Y)を設定する(設定の詳細は後述)。さらに、この自宅位置情報(X,Y)と、画像データを撮影した場所を示す位置情報(X,Y)とを比較することで、図2に示すように自宅位置を基点として、当該画像データの撮影位置までの位置変化の変化方向θ及び変化距離Dを求める。 First, as shown in FIG. 2, in the camera according to the present embodiment, home position information (X 0 , Y 0 ) indicating the user's home location is set (details of the setting will be described later). Further, by comparing the home position information (X 0 , Y 0 ) with the position information (X, Y) indicating the location where the image data was taken, the home position as shown in FIG. A change direction θ L and a change distance D L of the change in position of the image data up to the shooting position are obtained.

なお、上記自宅位置情報及び位置情報の二次元座標情報は上記GPS手段102により、それぞれ(X,Y),(X,Y)として取得済みであるので、上記変化方向θ及び変化距離Dは、計算により求めることができる。ここで、例えば変化方向θは、図2に示すように真北を0度として計算した角度である。なお、計算式としては、
θ=arctan((X−X)/(Y−Y))
である。
Since the home position information and the two-dimensional coordinate information of the position information have already been acquired as (X 0 , Y 0 ) and (X, Y) by the GPS means 102, the change direction θ L and the change distance D L can be obtained by calculation. Here, for example, the change direction θ L is an angle calculated with true north as 0 degrees as shown in FIG. As a calculation formula,
θ L = arctan ((X−X 0 ) / (Y−Y 0 ))
It is.

また、変化距離Dについては、図2から分かるように、

Figure 2007166007
As for the change distance D L, as can be seen from Figure 2,
Figure 2007166007

にて求められる。 Is required.

図3は、上記変化距離Dに基づいて画像データの分類を行う方法の概念図である。本実施形態に係るカメラにおいては、撮影により取得した画像データを、その撮影場所に基づいて分類し、上記記録手段105へ記録する(詳しくは図4に示すフローチャートを参照して後述する)。 Figure 3 is a conceptual diagram of a method for classifying the image data based on the change distance D L. In the camera according to the present embodiment, image data acquired by shooting is classified based on the shooting location and recorded in the recording means 105 (details will be described later with reference to the flowchart shown in FIG. 4).

ところで、図3に示すように、本実施形態に係るカメラでは、自宅位置からDだけ離れた位置を中心として半径ΔD以内の位置にて撮影が行われた画像データは、同一の括りとして分類される。すなわち、ここで具体的にΔDL1,ΔDL2として示したΔDは、画像データが同一の括りとして分類されるか否かの指標として働く。図3は、このように自宅位置からの距離に基づいて、ΔD言い換えれば同一の括りとして分類されるべき画像データの撮影エリアを、具体的且つ概略的に示した図である。 Meanwhile, as shown in FIG. 3, in the camera according to the present embodiment, the image data captured at a position within a radius of [Delta] D L was made around a position apart D L from home position, as the same lumping being classified. That is, here [Delta] D L shown as specific [Delta] D L1, [Delta] D L2 serves as a indication of whether the image data is classified as the same lumping. Figure 3 is thus based on the distance from home position, the shooting area of the image data to be classified as the same bundling other words [Delta] D L, illustrates specifically and schematically.

以下、図4A及び図4Cに示すフローチャートを参照して、上述したシステム構成による動作制御を説明して本実施形態に係るカメラの特徴をさらに明確にする。   Hereinafter, with reference to the flowcharts shown in FIGS. 4A and 4C, the operation control by the system configuration described above will be described to further clarify the features of the camera according to the present embodiment.

なお、図4A及び図4Cに示すフローチャートは、図1におけるCPU101が制御する動作制御のフローチャートである。同フローチャートは、本実施形態に係るカメラのメインフローチャートであり、ユーザーにより不図示のPOWER SW(電源)がONされると自動的に起動される動作制御のフローチャートである。   Note that the flowcharts shown in FIGS. 4A and 4C are flowcharts of operation control controlled by the CPU 101 in FIG. This flowchart is a main flowchart of the camera according to the present embodiment, and is a flowchart of operation control that is automatically activated when a power switch (not shown) is turned on by a user.

まず、後述する位置情報無しモードに設定されているか否かを判断する(ステップS100)。このステップS100において、位置情報無しモードに設定されていると判断した場合には、位置情報無しモードに設定時の動作制御のフローチャート(不図示)へ進む。なお、上記位置情報無しモードとは、従来より一般的に行われている(本実施形態に係るカメラに特有の動作制御では全くない)カメラの動作制御を行うモードであるので、ここでは図示及び説明は省略する。   First, it is determined whether or not it is set to a no position information mode described later (step S100). If it is determined in this step S100 that the mode without position information is set, the flow proceeds to a flowchart (not shown) of operation control when the mode is set to no position information. Note that the position information absence mode is a mode for performing camera operation control that has been generally performed in the past (not operation control peculiar to the camera according to the present embodiment). Description is omitted.

上記ステップS100において位置情報無しモードに設定されていないと判断した場合には、まず、時計手段106に、計時のリセット及び開始を行わせる(ステップS101)。その後、ユーザーによるスイッチ101−aの操作で撮影手段103による撮影を行う操作が為されたか否かを判断する(ステップS102)。ここで、該ステップS102をNOへ分岐する場合には、ユーザーによるスイッチ101−aの操作で画像データの再生を行う操作が為されたか否かを判断する(ステップS110)。該ステップS110においてもNOへ分岐する場合は、ステップS111へ分岐する。   If it is determined in step S100 that the position information absence mode is not set, first, the clock means 106 is caused to reset and start the timekeeping (step S101). Thereafter, it is determined whether or not an operation for performing photographing by the photographing unit 103 is performed by an operation of the switch 101-a by the user (step S102). Here, when the step S102 is branched to NO, it is determined whether or not an operation for reproducing the image data is performed by the operation of the switch 101-a by the user (step S110). If the process branches to NO in step S110, the process branches to step S111.

ステップS111においては、予め設定された(またはユーザーにより所望の値に設定された)所定時間を時計手段106が計時したか否か、即ち、所定時間経過したか否かを判断する(ステップS111)。このステップS111において、所定時間がまだ経過していないと判断した場合は、上記ステップS102へ戻る。一方、上記ステップS111において、所定時間が経過していると判断した場合には、GPS手段102で位置情報を取得して上記記録手段105または不図示のメモリに記録する(ステップS112)。   In step S111, it is determined whether or not the clock means 106 has counted a predetermined time set in advance (or set to a desired value by the user), that is, whether or not the predetermined time has elapsed (step S111). . If it is determined in step S111 that the predetermined time has not yet elapsed, the process returns to step S102. On the other hand, if it is determined in step S111 that the predetermined time has elapsed, the position information is acquired by the GPS means 102 and recorded in the recording means 105 or a memory (not shown) (step S112).

すなわち、撮影動作も再生動作も行わない場合には、上記ステップS102、ステップS110、及びステップS111により形成されるループにより、所定時間間隔毎にGPS手段102に位置情報を取得させる。   That is, when neither the shooting operation nor the reproduction operation is performed, the GPS unit 102 is caused to acquire position information at predetermined time intervals by the loop formed by the above steps S102, S110, and S111.

上記ステップS112における位置情報の取得及び記録の後、類似の位置情報を所定の回数以上取得したか否かを判断する(ステップS113)。このステップS113をNOへ分岐する場合は、上記ステップS101へ戻り、再び時計手段106に計時を開始させる。一方、上記ステップS113をYESへ分岐する場合は、当該カメラの現在位置は、当該カメラが保管されている場所であると判定し、該現在位置の位置情報が利用可能な位置情報であるか否かを判断する(ステップS114)。このステップS114では、具体的には、例えば類似の位置情報を取得しながらも、それら位置情報が、あらかじめ想定していた範囲外の位置を示す位置情報、言い換えれば当該カメラを購入した場所の位置情報とかけ離れた場所の位置情報、例えば旅行中における長期逗留時の逗留場所にて取得した位置情報であるか否かの判断を行えばよい。   After the acquisition and recording of the position information in step S112, it is determined whether similar position information has been acquired a predetermined number of times or more (step S113). When step S113 is branched to NO, the process returns to step S101, and the clock means 106 is started again. On the other hand, when step S113 is branched to YES, it is determined that the current position of the camera is a place where the camera is stored, and whether or not the position information of the current position is usable position information. Is determined (step S114). Specifically, in this step S114, for example, while acquiring similar position information, the position information indicates position information indicating a position outside the range assumed in advance, in other words, the position of the place where the camera is purchased. It is only necessary to determine whether or not the location information is a location information far from the information, for example, the location information acquired at the stay location during a long-term stay while traveling.

上記ステップS114をNOへ分岐する場合(即ち上記現在位置の位置情報は利用可能な位置情報でないと判断した場合)には、表示手段107に警告表示を表示させ(ステップS115)、ステップS116へ進む。このステップS116では、上記ステップS115における警告表示を確認したユーザーにより、自宅の位置情報を設定するか否かのスイッチ101−aの操作が為されたか否かを判断する。   When step S114 is branched to NO (that is, when it is determined that the current position information is not usable position information), a warning display is displayed on the display means 107 (step S115), and the process proceeds to step S116. . In step S116, it is determined whether or not the user who has confirmed the warning display in step S115 has operated the switch 101-a for setting the home position information.

このステップS116において、ユーザーが自宅の位置情報を設定するためにスイッチ101−aを操作したと判断した場合は、その時の位置情報をユーザーの自宅の位置情報として設定する(ステップS117)。その後、上記ステップS101へ戻る。一方、上記ステップS116をNOへ分岐する場合は、上記ステップS101に戻って再び時計手段106に計時を開始させる。   If it is determined in step S116 that the user has operated the switch 101-a to set home position information, the current position information is set as the user's home position information (step S117). Thereafter, the process returns to step S101. On the other hand, when step S116 is branched to NO, the process returns to step S101 and causes the clock means 106 to start measuring time again.

なお、上記ステップS114においてYESへ分岐する場合(即ち上記現在位置の位置情報は利用可能な位置情報であると判断した場合)は、これまでの一連のステップにて繰り返し取得した類似の位置情報の平均値をX,Yとして算出し、これらの値即ち(X,Y)を、ユーザーの自宅の位置情報であると設定して記録手段105に記録する(ステップS118)。その後、上記ステップS101へ戻る。 When branching to YES in step S114 (that is, when it is determined that the current position information is available position information), similar position information repeatedly acquired in a series of steps so far is used. The average value is calculated as X 0 , Y 0 , and these values, that is, (X 0 , Y 0 ) are set as the user's home location information and recorded in the recording means 105 (step S118). Thereafter, the process returns to step S101.

ところで、上記ステップS110をYESへ分岐する場合(即ちユーザーによるスイッチ101−aの操作により画像データの再生をする旨の操作が行われた場合)には、再生モードへ入る。この再生モードでは、まずユーザーによるスイッチ101−aの操作により、例えば地名等の分類を指標にして画像データを検索する(この検索時に表示手段107に表示される表示画面の一例は、図6を参照して後述する)旨の操作が行われたか否かを判断する(ステップS120)。   By the way, when step S110 is branched to YES (that is, when an operation for reproducing the image data is performed by the user operating the switch 101-a), the reproduction mode is entered. In this playback mode, first, the user operates the switch 101-a to search for image data using, for example, a place name classification as an index (an example of a display screen displayed on the display means 107 during this search is shown in FIG. It is determined whether or not an operation to be described later is performed (step S120).

上記ステップS120をYESへ分岐する場合には、ユーザーによるスイッチ101−aの操作に基づいて、所望のテーマに該当する画像データを、表示手段107に表示させる(ステップS122)。一方、上記ステップS120をNOへ分岐する場合には、最近の画像データから順次、表示手段107に表示させていく(ステップS121)。   When step S120 is branched to YES, image data corresponding to a desired theme is displayed on the display means 107 based on the operation of the switch 101-a by the user (step S122). On the other hand, when step S120 is branched to NO, the latest image data is sequentially displayed on the display means 107 (step S121).

上記ステップS121または上記ステップS122にて、表示手段107に画像データを表示させた後には、ユーザーによるスイッチ101−aの操作に対応して、順次、表示している画像データの切り替えを行っていく(ステップS123)。その後、ユーザーによるスイッチ101−aの操作を検出して、画像データの再生表示を終了させるか否かの判断をする(ステップS124)。   After the image data is displayed on the display means 107 in step S121 or step S122, the displayed image data is sequentially switched in response to the operation of the switch 101-a by the user. (Step S123). Thereafter, the operation of the switch 101-a by the user is detected, and it is determined whether or not to end the reproduction display of the image data (step S124).

上記ステップS124をNOへ分岐する場合には、上記ステップS120へ戻り、再び一連の画像データ再生のプロセスを辿る。一方、上記ステップS124をYESへ分岐する場合には、ユーザーにより不図示のPOWER SWがOFFされたか否かを判断する(ステップS125)。このステップS125で、不図示のPOWER SWがOFFされたと判断した場合は、当該カメラをシャットダウンする。一方、上記ステップS125で、不図示のPOWER SWがOFFされていないと判断した場合は、上記ステップS101へ戻る。   When step S124 is branched to NO, the process returns to step S120, and a series of image data reproduction processes are followed again. On the other hand, when step S124 is branched to YES, it is determined whether or not a power switch (not shown) is turned off by the user (step S125). If it is determined in this step S125 that a power switch (not shown) has been turned off, the camera is shut down. On the other hand, if it is determined in step S125 that the power switch (not shown) is not turned off, the process returns to step S101.

ところで、上記ステップS102をYESへ分岐する場合(即ちユーザーによるスイッチ101−aの操作により撮影を行う旨の操作が為された場合)、ユーザーによるスイッチ101−aの操作に基づいて、撮影手段103に、被写体像の撮像及び該撮像により取得した画像データのディジタル化を行わせる(ステップS130)。その後、上記ステップS130にて取得した画像データは画像処理手段104に出力され、該画像処理手段104により補正及び圧縮が施される(ステップS131)。   By the way, when step S102 is branched to YES (that is, when an operation for performing photographing is performed by the user operating the switch 101-a), the photographing unit 103 is based on the operation of the switch 101-a by the user. Then, the imaging of the subject image and digitization of the image data acquired by the imaging are performed (step S130). Thereafter, the image data acquired in step S130 is output to the image processing unit 104, and is corrected and compressed by the image processing unit 104 (step S131).

続いて、GPS手段102に当該カメラの現在位置の位置情報(X,Y)の取得を行わせ、該位置情報(X,Y)を記録手段105または不図示のメモリへ記録する(ステップS132)。その後、上記位置情報(X,Y)と上記画像データとを関連付けて記録手段105に記録する(ステップS133)。   Subsequently, the GPS unit 102 acquires position information (X, Y) of the current position of the camera, and records the position information (X, Y) in the recording unit 105 or a memory (not shown) (step S132). . Thereafter, the position information (X, Y) and the image data are associated and recorded in the recording means 105 (step S133).

つづいて、記録手段105を参照して、ユーザーの自宅の位置情報が既に設定されているか否かを判断する(ステップS134)。このステップS134で、ユーザーの自宅の位置情報がまだ設定されていないと判断した場合、上記ステップS134をNOへ分岐して、ユーザーに自宅位置情報(X,Y)を手動にて入力するよう、表示手段107に警告表示を表示する(ステップS135)。 Subsequently, referring to the recording means 105, it is determined whether or not the location information of the user's home has already been set (step S134). If it is determined in step S134 that the location information of the user's home has not yet been set, step S134 is branched to NO, and the home location information (X 0 , Y 0 ) is manually input to the user. Thus, a warning display is displayed on the display means 107 (step S135).

その後、上記ステップS135における警告表示を確認したユーザーが、スイッチ101−aまたは入力手段(不図示)を用いて、自宅位置情報(X,Y)を入力する(ステップS136)。なお、例えば都道府県別に代表的な位置情報を予め取り扱い説明書等に記載しておくことで、該記載を参照しながらユーザーが自ら手動にて、自宅の位置情報を入力するような構成が考えられる。 Thereafter, the user who has confirmed the warning display in step S135 inputs the home position information (X 0 , Y 0 ) using the switch 101-a or input means (not shown) (step S136). In addition, for example, a configuration in which representative location information for each prefecture is described in advance in an instruction manual, etc., so that the user manually inputs home location information while referring to the description. It is done.

その後、ユーザーにより、自宅位置情報(X,Y)が入力されたか否かを判断する(ステップS137)。このステップS137において、ユーザーにより、自宅位置情報(X,Y)が入力されたと判断した場合は、後述するステップS140へ進む。 Thereafter, it is determined whether or not the home position information (X 0 , Y 0 ) has been input by the user (step S137). If it is determined in step S137 that the home position information (X 0 , Y 0 ) has been input by the user, the process proceeds to step S140 described later.

一方、上記ステップS137にて、ユーザーによる自宅位置情報(X,Y)の入力が行われていないと判断した場合は、ユーザーに対して自宅位置情報(X,Y)の使用を望まないか否かの選択を行うよう表示手段107に警告表示し、その後のユーザーによるスイッチ101−aの操作に基づいて、自宅位置情報(X,Y)の利用をするか否かの判断を行う(ステップS138)。 On the other hand, if it is determined in step S137 that the home position information (X 0 , Y 0 ) has not been input by the user, the user is requested to use the home position information (X 0 , Y 0 ). Whether or not to use the home position information (X 0 , Y 0 ) is displayed on the display means 107 so as to select whether or not it is desired, and based on the subsequent operation of the switch 101-a by the user. A determination is made (step S138).

上記ステップS138において、自宅位置情報(X,Y)の利用を望まないとのスイッチ101−aの操作を検出した場合、YESへ分岐して自宅位置情報(X,Y)無しの処理を行うモード(上記位置情報無しモード)に設定する(ステップS139)。その後、上記の位置情報無しモードに設定時の動作制御のフローチャート(不図示)へ進む。 In step S138, when detecting the operation of the switch 101-a and do not wish to use the home location (X 0, Y 0), the home location branches to YES (X 0, Y 0) without It sets to the mode which performs processing (the above-mentioned position information absence mode) (step S139). Thereafter, the process proceeds to a flowchart (not shown) of operation control when the position information absence mode is set.

一方、自宅位置情報(X,Y)の使用を望むとのスイッチ101−aの操作を検出した場合、NOへ分岐して上記ステップS135へ戻る。なお、自宅位置情報(X,Y)は、基本的には、上記ステップS111乃至ステップS118の一連のステップにて自動的に設定される。 On the other hand, when the operation of the switch 101-a that it is desired to use the home position information (X 0 , Y 0 ) is detected, the process branches to NO and returns to step S135. Basically, the home position information (X 0 , Y 0 ) is automatically set in a series of steps S111 to S118.

ところで、上記ステップS134において、ユーザーの自宅位置情報(X,Y)が既に設定されていると判断した場合、及び上記ステップS137において、ユーザーにより自宅位置情報(X,Y)が入力されたと判断した場合には、ステップS140へ進む。このステップS140では、上記自宅位置情報(X,Y)と上記ステップS132にて取得した位置情報(X,Y)とを比較する(ステップS140)。具体的には、図2を参照して説明した上記変化方向θ及び変化距離Dを、上述した演算により算出する。 Incidentally, when it is determined in step S134 that the user's home position information (X 0 , Y 0 ) has already been set, and in step S137, the user inputs home position information (X 0 , Y 0 ). If it is determined that the process has been performed, the process proceeds to step S140. In step S140, the home position information (X 0 , Y 0 ) is compared with the position information (X, Y) acquired in step S132 (step S140). Specifically, the change direction θ L and the change distance D L described with reference to FIG. 2 are calculated by the above-described calculation.

つづいて、上記ステップS140にて求めた値を、それぞれ上記変化方向θ及び変化距離Dに設定する(ステップS141及びステップS142)。その後、既に撮影して取得した画像データのうち、上記ステップS141及びステップS142で求めた地域(θ,D)と類似する地域(θ,D)に対応する画像データがあるか否かを、記録手段105を参照して判断する(ステップS143)。 Subsequently, the value determined in the step S140, respectively set to the changing direction theta L and change the distance D L (step S141 and step S142). After that, whether or not there is image data corresponding to a region (θ L , D L ) similar to the region (θ L , D L ) obtained in step S141 and step S142 among the image data that has already been taken and acquired. Is determined with reference to the recording means 105 (step S143).

このステップS143をYESへ分岐する場合、当該画像データを、その類似する地域(θ,D)に対応する画像データと同一の括りとして分類して記録手段105に記録する(ステップS144)。その後、ユーザーにより不図示のPOWER SWがOFFされたか否かを判断する(ステップS145)。このステップS145で、不図示のPOWER SWがOFFされたと判断した場合は、当該カメラをシャットダウンする。一方、上記ステップS145で、不図示のPOWER SWがOFFされていないと判断した場合は、上記ステップS101へ戻る。 When this step S143 is branched to YES, the image data is classified as the same data as the image data corresponding to the similar region (θ L , D L ) and recorded in the recording means 105 (step S144). Thereafter, it is determined whether or not a power switch (not shown) is turned off by the user (step S145). If it is determined in this step S145 that the power switch (not shown) is turned off, the camera is shut down. On the other hand, if it is determined in step S145 that the POWER SW (not shown) is not turned off, the process returns to step S101.

一方、上記ステップS143をNOへ分岐する場合、上記変化方向θ及び変化距離Dを、当該画像データと対応付けする(ステップS146)。その後、新たに地域(θ,D)を設定して記録手段105に記録する(ステップS147)。そして、上記地域(θ,D)と当該画像データとを関連付けして、記録手段105に記録する(ステップS148)。その後、上記ステップS145へ進み、ユーザーにより不図示のPOWER SWがOFFされたか否かを判断する。そして、不図示のPOWER SWがOFFされたと判断した場合は当該カメラはシャットダウンし、不図示のPOWER SWがOFFされていないと判断した場合は上記ステップS101へ戻る。 On the other hand, if branched the step S143 to NO, the change direction theta L and change the distance D L, which correlated with the image data (step S146). Thereafter, a new area (θ L , D L ) is set and recorded in the recording means 105 (step S147). Then, the region (θ L , D L ) and the image data are associated with each other and recorded in the recording unit 105 (step S148). Thereafter, the process proceeds to step S145, and it is determined whether or not a power switch (not shown) is turned off by the user. If it is determined that the POWER SW (not shown) is turned off, the camera is shut down. If it is determined that the POWER SW (not shown) is not turned off, the process returns to Step S101.

なお、上記ステップS148における、上記地域(θ,D)と当該画像データとを関連付けして記録する記録形態の具体例としては、当該画像データを、上記記録手段105内における上記分類に対応するフォルダへ移動させる記録形態が挙げられる。他にも、当該画像データに、上記分類を示す分類情報をヘッダ情報として付加するという記録形態も挙げられる。また、上記画像データを特定する為の特定情報とその分類を示す分類テーブルに、上記分類した画像データの特定情報と分類を登録する構成を採っても勿論よい。 In addition, as a specific example of the recording form in which the region (θ L , D L ) and the image data are recorded in association with each other in step S148, the image data corresponds to the classification in the recording unit 105. Recording form to be moved to a folder. In addition, there is a recording form in which classification information indicating the classification is added to the image data as header information. Of course, it is possible to adopt a configuration in which the specific information for identifying the image data and the classification table indicating the classification are registered with the specific information and the classification of the classified image data.

以下、図5に示すフローチャートを参照して、本実施形態における位置情報の類似判定(図4Aに示すフローチャートの上記ステップS143)の判定手法の一例を説明する。なお、本フローチャートは、図1におけるCPU101が制御する動作制御である。   Hereinafter, with reference to the flowchart shown in FIG. 5, an example of a determination method of similarity determination of position information in the present embodiment (step S143 in the flowchart shown in FIG. 4A) will be described. This flowchart is an operation control controlled by the CPU 101 in FIG.

図5のフローチャートに示すステップS151乃至ステップS157のステップは、上記D及び上記ΔDを設定していくステップである。なお、以降の各ステップにおける、画像データの撮影されたエリアの判定は、当該画像データに関連付けられた位置情報を以ってして行う。 Step of Step S151 to Step S157 shown in the flowchart of FIG. 5 is a step to continue to set the D L and the [Delta] D L. In each of the subsequent steps, determination of the area where the image data is taken is performed using position information associated with the image data.

まず、当該画像データが、自宅から100m未満の距離(すなわちD<100m)で撮影された画像データであるか否かを判断する(ステップS151)。このステップS151にて、当該画像データが自宅から100m未満の距離(すなわちD<100m)で撮影された画像データであると判断した場合は、自宅付近にて撮影された画像データとして分類する。このような場合、該位置を中心として半径100m以内のエリア内であれば、全て同一の分類(自宅近辺)として記録手段105に記録するべく、ΔD=100mと設定する(ステップS161)。 First, it is determined whether or not the image data is image data taken at a distance of less than 100 m from the home (that is, D L <100 m) (step S151). If it is determined in step S151 that the image data is image data shot at a distance of less than 100 m from the home (ie, D L <100 m), the image data is classified as image data shot near the home. In such a case, ΔD L = 100 m is set so as to be recorded in the recording means 105 as the same classification (near home) if the area is within an area within a radius of 100 m centering on the position (step S161).

また、上記ステップS151にてD<100でないと判断した場合は、当該画像データが、自宅から2km未満の距離(すなわちD<2km)で撮影された画像データであるか否かを判断する(ステップS152)。このステップS152にて、当該画像データが自宅から2km未満の距離(すなわちD<2km)で撮影された画像データであると判断した場合は、例えば小学校等がこの範囲内に位置する。したがって、該位置から半径500m以内の変化であれば、例えば小学校内として同一の分類としたいので、ΔD=500mと設定する(ステップS162)。 If it is determined in step S151 that D L <100, it is determined whether or not the image data is image data taken at a distance of less than 2 km from the home (ie, D L <2 km). (Step S152). If it is determined in step S152 that the image data is image data taken at a distance of less than 2 km from the home (ie, D L <2 km), for example, an elementary school or the like is located within this range. Therefore, if the change is within a radius of 500 m from the position, for example, it is desired to make the same classification within the elementary school, so ΔD L = 500 m is set (step S162).

また、上記ステップS152にて、D<2kmでないと判断した場合は、当該画像データが、自宅から40km未満の距離(すなわちD<40km)で撮影された画像データであるか否かを判断する(ステップS153)。このステップS153にて、当該画像データが自宅から40km未満の距離(すなわちD<40km)で撮影された画像データであると判断した場合は、例えば自宅から40km未満の位置である、通勤の範囲が該当する。従って、該位置から半径2km(例えば飲食店等が存在すると考えられる)の範囲内で撮影された画像データ(例えばアフターファイブの飲食店での写真)は、全て同一の分類(例えば職場関係)としたいので、ΔD=2kmと設定する(ステップS163)。 If it is determined in step S152 that D L <2 km, it is determined whether or not the image data is image data taken at a distance of less than 40 km from the home (ie, D L <40 km). (Step S153). If it is determined in step S153 that the image data is image data taken at a distance less than 40 km from the home (ie, D L <40 km), for example, a commuting range that is a position less than 40 km from the home Is applicable. Therefore, image data (for example, photos taken at after-five restaurants) within a radius of 2 km from the position (for example, a restaurant is considered to exist) are all in the same classification (for example, work-related). Therefore, ΔD L = 2 km is set (step S163).

なお、上記ステップS153にて、D<40kmでないと判断した場合は、当該画像データは、旅行中に撮影された画像データであると判断する(ステップS155)。そして、当該画像データが、自宅から200km未満の距離(すなわちD<200km)で撮影された画像データであるか否かを判断する(ステップS156)。このステップS156にて、当該画像データが自宅から200km未満の距離(すなわちD<200km)で撮影された画像データであると判断した場合は、当該エリアにて撮影された画像データの数が、所定の数よりも多いか否かを判断する(ステップS164)。 If it is determined in step S153 that D L <40 km is not satisfied, it is determined that the image data is image data taken during a trip (step S155). Then, it is determined whether or not the image data is image data taken at a distance of less than 200 km from the home (that is, D L <200 km) (step S156). If it is determined in step S156 that the image data is image data shot at a distance of less than 200 km from home (ie, D L <200 km), the number of image data shot in the area is It is determined whether or not the number is larger than the predetermined number (step S164).

これは、例えば北関東の旅における旅行先にて、宇都宮で大量の画像データを撮影した後に小山に行って更に画像データの撮影を行うような場合、大量の画像データの中から所望の画像データを検索することが困難となる可能性が高くなってしまうことに対処する措置のステップである。すなわち、上記ステップS164において、当該エリアにて撮影された画像データの数が所定の数よりも多いと判断した場合には、所望画像データの検索性を向上させる為に、上記ステップS163へ進みΔD=2kmと設定して、2kmの範囲内にて撮影された画像データを同じ分類として、記録手段105に記録する。 For example, when a large amount of image data is taken at Utsunomiya and then taken to Oyama to further take image data at a travel destination in a trip in North Kanto, desired image data is selected from a large amount of image data. It is a step of measures to deal with the possibility that it will be difficult to search for. That is, if it is determined in step S164 that the number of image data photographed in the area is larger than a predetermined number, the process proceeds to step S163 in order to improve the searchability of desired image data. L = 2 km is set, and the image data captured within the range of 2 km is recorded in the recording unit 105 as the same classification.

しかしながら、上記ステップS164において、当該エリアにて撮影された画像データの数が所定数より少ないと判断した場合は、あまり細かな分類をしなくとも、所望の画像データの検索が困難になる可能性は低い為、ΔD=20kmと設定する(ステップS165)。 However, if it is determined in step S164 that the number of image data photographed in the area is smaller than the predetermined number, it may be difficult to search for desired image data without performing a fine classification. Is low, ΔD L = 20 km is set (step S165).

また、上記ステップS156にて、D<200kmでないと判断した場合は、当該画像データが、自宅から1000km未満の距離(すなわちD<1000km)で撮影された画像データであるか否かを判断する(ステップS157)。ここで、1000kmの移動は、例えば東京に住んでいる人が関西に旅行に行く程度の移動である。 If it is determined in step S156 that D L <200 km, it is determined whether the image data is image data taken at a distance of less than 1000 km from the home (that is, D L <1000 km). (Step S157). Here, the movement of 1000 km is such a movement that a person living in Tokyo, for example, travels to Kansai.

そこで、上記ステップS157にて、画像データが自宅から1000km未満の距離(すなわちD<1000km)で撮影された画像データであると判断した場合は、まず当該エリアで撮影された画像データの数が所定の数より多いか否かを判断する(ステップS166)。このステップS166にて、画像データの数が所定の数より多いと判断した場合はYESへ分岐して、分類をやや細かくして検索性を容易にする為に上記ステップS165へ進み、ΔD=20kmとし、その範囲内で撮影された画像データを同一の分類とする。 Therefore, when it is determined in step S157 that the image data is image data taken at a distance of less than 1000 km from the home (that is, D L <1000 km), the number of image data shot in the area is first determined. It is determined whether or not the number is larger than the predetermined number (step S166). If it is determined in step S166 that the number of image data is greater than the predetermined number, the process branches to YES, and the process proceeds to step S165 to make the classification slightly finer and facilitate search, and ΔD L = The image data taken within the range is set to 20 km and the same classification.

他方、上記ステップS166でNOへ分岐する場合(画像データの数が所定の数より多くない場合)は、半径100kmの変化であれば同じ旅行で撮影された画像データとして分類するべく、ΔD=100kmと設定する(ステップS167)。 On the other hand, when branching to NO in step S166 (when the number of image data is not greater than the predetermined number), if the radius is 100 km, ΔD L = to be classified as image data taken on the same trip. It is set to 100 km (step S167).

なお、具体的には、上記ステップS166における画像データの数の判断に基づいた分類によれば、画像データが所定数未満であれば例えば「京阪神」相当の括りで分類し、画像データが所定数より多ければ、例えば「京都」、「大阪」、及び「神戸」相当の括りで分類するようにすればよい。ここで、上記“所定数”は、デフォルトの値としても、ユーザーにより任意に定められる値としても、どちらでもよい。なお、上記ステップS164における“所定数”も、後述するステップS158における“所定数”の設定に関しても同様である。   Specifically, according to the classification based on the determination of the number of image data in the above step S166, if the image data is less than the predetermined number, for example, the image data is classified by a group equivalent to “Keihanshin”, and the predetermined number of image data. If there are more, for example, classification may be made in a group equivalent to “Kyoto”, “Osaka”, and “Kobe”. Here, the “predetermined number” may be either a default value or a value arbitrarily determined by the user. Note that the “predetermined number” in step S164 is the same for the “predetermined number” setting in step S158 described later.

ところで、上記ステップS157においてD=1000km以遠であると判断した場合は、海外旅行相当の移動距離である場合である。そこで、当該エリアで撮影された画像データの数に応じたΔDの切り替えを行う為に、当該エリアで撮影された画像データの数が所定数以上であるか否かを判断する(ステップS158)。このステップS158において、当該エリアで撮影された画像データの数が所定数以上であると判断した場合にはYESへ分岐して上記ステップS167へ進み、ΔD=100kmと設定する。一方、上記ステップS158をNOへ分岐する場合には、ΔD=300kmと設定する(ステップS159)。なお、上記ステップS158における画像データ数の判断ステップは、上述した上記ステップS164及び上記ステップS166における画像データ数の判断ステップと同様、所望の画像データの検索性を向上させる為のステップである。 By the way, when it is determined in step S157 that D L = 1000 km or more, the travel distance is equivalent to an overseas trip. Therefore, in order to switch the [Delta] D L corresponding to the number of image data photographed in the area, the number of image data photographed in the area is equal to or more than a predetermined number (Step S158) . If it is determined in step S158 that the number of image data shot in the area is equal to or greater than the predetermined number, the process branches to YES and proceeds to step S167, where ΔD L = 100 km is set. On the other hand, when step S158 is branched to NO, ΔD L = 300 km is set (step S159). Note that the step of determining the number of image data in step S158 is a step for improving the searchability of desired image data, similar to the step of determining the number of image data in step S164 and step S166 described above.

以上説明した上記ステップS159、ステップS161、ステップS162、ステップS163、ステップS165、及びステップS167のうち何れかのステップを経ることでΔDの値を設定した後、当該画像データにおけるΔDと、既に撮影して取得済みの画像データ(例えば前回撮影にて取得した画像データ)におけるΔDとの差の絶対値を求め、その値を|ΔD|とする(ステップS171)。 Above-described step S159, step S161, step S162, step S163, after setting the value of [Delta] D L by passing through any of the steps of the step S165, and step S167, and [Delta] D L in the image data, already the absolute value of the difference between [Delta] D L in the image data acquired in the shooting to (for example, image data obtained in the previous shot), the value | [Delta] D | a (step S171).

つづいて、上記ΔDの値が、|ΔD|>0の関係を満たしているか否かを比較する(ステップS172)。すなわち、ステップS172は、画像データにおける位置情報の類似判定を行うステップである。上記ステップS172において、|ΔD|>0であると判断した場合には、画像データにおける位置情報が非類似である旨の判定を行い(ステップS174)、その後メインのフローチャートに戻る。一方、上記ステップS172において、|ΔD|>0でないと判断した場合(即ち|ΔD|=0の場合)には、画像データにおける位置情報が類似である旨の判定を行い(ステップS174)、その後図4Aに示すメインのフローチャートのステップS143に戻る。   Subsequently, it is compared whether or not the value of ΔD satisfies the relationship | ΔD |> 0 (step S172). That is, step S172 is a step of performing similarity determination of position information in image data. If it is determined in step S172 that | ΔD |> 0, it is determined that the position information in the image data is dissimilar (step S174), and then the process returns to the main flowchart. On the other hand, when it is determined in step S172 that | ΔD |> 0 is not satisfied (that is, when | ΔD | = 0), it is determined that the position information in the image data is similar (step S174), and thereafter Returning to step S143 of the main flowchart shown in FIG. 4A.

上述した図5に示すフローチャートを参照して説明した画像データの分類方法により、当該画像データの撮影場所ごとに、しかも所望の画像データの検索を非常に容易に行うことができる地域分類にて記録手段105に記録することができる。   According to the image data classification method described with reference to the flowchart shown in FIG. 5 described above, the image data is recorded for each shooting location of the image data, and the desired image data can be searched very easily. It can be recorded in the means 105.

なお、本実施形態に係るカメラでは、上述したように、撮影により取得した画像データと上記地域(θ,D)と関連付けして、記録手段105に記録する。これにより、ユーザーが、所望の画像データを、上記記録手段105に記録された画像データの中から検索する時には、上記地域(θ,D)を検索の手がかりとすることで、検索が迅速且つ容易になる。すなわち、所望の画像データの検索性が飛躍的に向上する。そして、この効果によってユーザーが益するところは、当該カメラにおける画像データの撮影枚数が多くなるほど大きくなる。 Note that, in the camera according to the present embodiment, as described above, the image data acquired by photographing is associated with the region (θ L , D L ) and recorded in the recording unit 105. Thus, when the user searches for desired image data from the image data recorded in the recording means 105, the search can be quickly performed by using the region (θ L , D L ) as a clue. And it becomes easy. That is, the searchability of desired image data is dramatically improved. Then, the benefits to the user due to this effect increase as the number of image data captured by the camera increases.

したがって、このような非常に有益な特徴を有する本実施形態に係るカメラにて記録した画像データの中から、所望の画像データを検索する手法は容易に様々考えられる。例えば、図6に示すような検索画面を表示手段107に表示させる手法が考えられる。すなわち、上記地域(θ,D)に基づいて各地域毎に画像データを分類して表示手段107に表示させ、この表示を参照してユーザーが所望の画像データを選択していく手法である。また、本実施形態に係るカメラにて記録した画像データを、本実施形態に係るカメラに着脱可能に設けられた記録手段に記録し、該記録手段を介して他の検索再生装置にて検索及び再生することができるのは勿論である。 Therefore, various methods for easily searching for desired image data from image data recorded by the camera according to the present embodiment having such very useful features can be easily considered. For example, a method of displaying a search screen as shown in FIG. That is, the image data is classified for each area based on the area (θ L , D L ) and displayed on the display means 107, and the user selects desired image data by referring to this display. is there. In addition, the image data recorded by the camera according to the present embodiment is recorded in a recording unit that is detachably provided to the camera according to the present embodiment, and the search and reproduction device can search and record via the recording unit. Of course, it can be reproduced.

なお、図6に示すように、撮影された画像データは、所定の地域に分類して関連付けられるので、旅行等の思い出を画像データを鑑賞しながら回想したい場合には、図6に示すように表示手段107に示される例えば地名等の分類を指標にして選択することで、所望の画像データを検索することもできる。   As shown in FIG. 6, the captured image data is classified and associated with a predetermined area. Therefore, when it is desired to recollect memories of a trip or the like while viewing the image data, as shown in FIG. 6. For example, desired image data can be searched by selecting a classification such as a place name shown on the display unit 107 as an index.

以上説明したように、本実施形態によれば、撮影により取得した膨大な画像データの中から、所望の画像データを検索する際の検索性を向上させるような画像データの記録システムを、シンプルな構成且つ低コストにて可能としたカメラを提供することができる。   As described above, according to the present embodiment, a simple image data recording system that improves the searchability when searching for desired image data out of a vast amount of image data acquired by shooting. It is possible to provide a camera that is configured and made possible at low cost.

具体的には、本実施形態に係るカメラは以下に記す効果を奏する。   Specifically, the camera according to the present embodiment has the following effects.

まず、本実施形態に係るカメラでは、上述したように当該カメラの位置情報とユーザーの自宅位置情報とに基づいてデータ管理を行う技術により、シンプルな構成且つスタンドアローン型システムのカメラにより、画像データと該画像データの撮影場所を示す位置情報とを対応付けして記録することができる。したがって、膨大な数の画像データの中から所望の画像データを容易に検索することができる廉価なカメラを提供することが可能となる。   First, in the camera according to the present embodiment, as described above, the image data is acquired by the simple configuration and the stand-alone system camera by the technology for performing data management based on the position information of the camera and the home position information of the user. And position information indicating the shooting location of the image data can be recorded in association with each other. Therefore, it is possible to provide an inexpensive camera that can easily search for desired image data from an enormous number of image data.

なお、本実施形態に係るカメラは、所望の画像データの検索が容易となるような分類にて、撮影が行われた画像データを地域毎に分類管理する点も特徴の一つである。そして、撮影した画像データを、該画像データが撮影された地域の具体的な地名と関連付けすることに拘っていた為に実用化が困難であった問題点を解消した。   The camera according to the present embodiment is also characterized in that image data that has been shot is classified and managed for each region in a classification that facilitates retrieval of desired image data. Then, the problem that was difficult to put into practical use because the captured image data was associated with the specific place name of the area where the image data was captured was solved.

言い換えれば、地図情報検索等で多大なメモリを必要として、高コスト化及び装置の大型化といったようなデメリットを蒙ることなく、所望の画像データを膨大な画像データの中から容易に検索することが可能となった。すなわち、本実施形態に係るカメラでは、上述の技術により、データベースの記憶容量を小さくし且つシステムを単純化して、低価格且つ快適な検索性を可能ならしめるカメラが実現した。   In other words, a large amount of memory is required for map information search, etc., and desired image data can be easily searched from a large amount of image data without suffering disadvantages such as high cost and large equipment. It has become possible. That is, in the camera according to the present embodiment, a camera capable of reducing the storage capacity of the database and simplifying the system and enabling a low-cost and comfortable search performance is realized by the above-described technique.

以上、実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形及び応用が可能なことは勿論である。例えば、ユーザーの自宅位置情報の取得に関しては、図7に示すような手法を用いることによっても行うことができる。   The present invention has been described above based on the embodiments, but the present invention is not limited to the above-described embodiments, and various modifications and applications are possible within the scope of the gist of the present invention. . For example, the acquisition of the user's home position information can also be performed by using a technique as shown in FIG.

すなわち、同図に示すように、毎日朝昼晩における当該カメラの位置情報を取得することで、ユーザーの自宅の位置情報や職場の位置情報を判定して取得することができる。具体的には、自宅の位置情報としては、朝及び晩において検出した当該カメラの位置情報のうち最も多く検出された位置情報を自宅の位置情報と判定する。同様の考えで、昼に検出した当該カメラの位置情報のうち最も多く検出された位置情報を職場の位置情報と判定する。   That is, as shown in the figure, by acquiring the position information of the camera every day in the morning and evening, the position information of the user's home and the position information of the workplace can be determined and acquired. Specifically, as the position information of the home, the position information detected most frequently among the position information of the camera detected in the morning and evening is determined as the position information of the home. Based on the same idea, the most detected position information among the position information of the camera detected in the daytime is determined as the position information of the workplace.

そして、このような手法をフローチャート化すると、例えば図8に示すフローチャートとなる。なお、このフローチャートは、図4Cに破線で囲って示すステップS113乃至ステップS117の一連のステップの代替ステップとして使用することができる。したがって、図8に示すフローチャートは、CPU101による、ユーザーの自宅及び職場の位置情報を判定する為の動作制御を示したフローチャートであるとも言える。なお、日付け及び朝昼夜等の判断については、CPU101が時計手段106からの時刻情報の出力を参照して判断する。   Then, when such a method is converted into a flowchart, for example, a flowchart shown in FIG. 8 is obtained. Note that this flowchart can be used as an alternative step to a series of steps S113 to S117 shown by a broken line in FIG. 4C. Therefore, it can be said that the flowchart shown in FIG. 8 is a flowchart showing the operation control for determining the position information of the user's home and workplace by the CPU 101. Note that the CPU 101 determines the date and morning / day / night by referring to the output of time information from the clock means 106.

まず、定期的に検出する当該カメラの位置情報のうち、最も頻度の高い位置情報を判定し、該位置情報を位置情報PX1とする(ステップS201)。つづいて、この位置情報PX1が、主として日曜日の夜に検出されている位置情報であるか否かを判断する(ステップS202)。 First, the position information with the highest frequency is determined from the position information of the camera detected periodically, and the position information is set as position information P X1 (step S201). Then, the positional information P X1 determines whether the position information is detected primarily Sunday night (step S202).

上記ステップS202において、上記位置情報PX1が、主として日曜日の夜に検出されている位置情報であると判断した場合は、上記位置情報PX1を自宅位置情報として設定し記録手段105に記録する(ステップS203)。その後、図4Aに示すメインフローチャートのステップS101へ戻る。 If it is determined in step S202 that the position information P X1 is position information detected mainly on Sunday night, the position information P X1 is set as home position information and recorded in the recording means 105 ( Step S203). Thereafter, the process returns to step S101 of the main flowchart shown in FIG. 4A.

一方、上記ステップS202において、位置情報PX1が、主として日曜日の夜に検出されている位置情報でないと判断した場合(NOへ分岐する場合)には、平日の朝において最も多く検出された位置情報をPX2とする(ステップS204)。そして、上記位置情報PX1と上記位置情報PX2とが同一の位置情報であるか否かを判断する(ステップS205)。 On the other hand, when it is determined in step S202 that the position information PX1 is not position information detected mainly on Sunday night (when branching to NO), the position information detected most frequently on weekday mornings. It is referred to as P X2 (step S204). Then, it is determined whether or not the position information P X1 and the position information P X2 are the same position information (step S205).

上記ステップS205において、上記位置情報PX1と上記位置情報PX2とが同一の位置情報であると判断した場合には、YESへ分岐して上記ステップS203へ進む。一方、上記ステップS205において、上記位置情報PX1と上記位置情報PX2とが同一の位置情報でないと判断した場合には、平日の昼において最も多く検出された位置情報をPX2とする(ステップS206)。そして、上記位置情報PX1と上記ステップS206における位置情報PX2とが同一の位置情報であるか否かを判断する(ステップS207)。 If it is determined in step S205 that the position information P X1 and the position information P X2 are the same position information, the process branches to YES and proceeds to step S203. On the other hand, if it is determined in step S205 that the position information P X1 and the position information P X2 are not the same position information, the position information detected most frequently at noon on weekdays is set to P X2 (step S205). S206). Then, the position information P X2 in the position information P X1 and the step S206 it is determined whether the same position information (step S207).

上記ステップS207において、上記位置情報PX1と上記位置情報PX2とが同一の位置情報でないと判断した場合には、NOへ分岐して上記ステップS203へ進む。一方、上記ステップS207において、上記位置情報PX1と上記位置情報PX2とが同一の位置情報であると判断した場合には、上記位置情報PX1が職場の位置情報であると設定し記録手段105に記録する(ステップS208)。その後、図4Aに示すメインフローチャートのステップS101へ戻る。 If it is determined in step S207 that the position information P X1 and the position information P X2 are not the same position information, the process branches to NO and proceeds to step S203. On the other hand, when it is determined in the step S207 that the position information P X1 and the position information P X2 are the same position information, the position information P X1 is set as the position information of the workplace and is recorded. 105 (step S208). Thereafter, the process returns to step S101 of the main flowchart shown in FIG. 4A.

以上説明したように、図8に示すフローチャートによれば、自宅位置情報の代わりに職場の位置情報を設定する場合がある。しかしながら、この点に関しては、メインフローチャートを職場の位置情報を利用した形態に変形させることで対応できる。そして、このように自宅位置情報の代わりに、他の位置情報を用いることで、本実施形態に係るカメラの利用方法に関してさまざまなバリエーションを生み出すことができる。   As described above, according to the flowchart shown in FIG. 8, work location information may be set instead of home location information. However, this point can be dealt with by transforming the main flowchart into a form using work location information. In addition, by using other position information instead of the home position information in this way, it is possible to produce various variations regarding the method of using the camera according to the present embodiment.

なお、上述したように、図8に示すフローチャートを、図4Cに示すフローチャートのステップS113乃至ステップS117の代替として用いる場合、例えば上記ステップS112の直後に、ステップS113乃至ステップS117の動作制御を行うモードと、図8に示す動作制御を行うモードとの、ユーザーによる選択切り換えステップを設けることで、図8に示すフローチャートをメインフローチャートの対応する動作制御のステップに対して選択的に並列に挿入しても勿論よい。   As described above, when the flowchart shown in FIG. 8 is used as an alternative to steps S113 to S117 in the flowchart shown in FIG. 4C, for example, a mode in which operation control of steps S113 to S117 is performed immediately after step S112. 8 and the mode for performing the operation control shown in FIG. 8 is provided, and the flowchart shown in FIG. 8 is selectively inserted in parallel with the corresponding operation control step of the main flowchart. Of course.

さらに、上述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.

本発明の一実施形態に係るカメラの構成を示したブロック図。1 is a block diagram illustrating a configuration of a camera according to an embodiment of the present invention. 本発明の一実施形態に係るカメラの動作制御上使用する概念を示す図。The figure which shows the concept used on the operation control of the camera which concerns on one Embodiment of this invention. 変化距離Dを用いて画像データの分類を行う方法の概念図。Conceptual diagram of a method for classifying the image data by using the changed distance D L. 本発明の一実施形態に係るカメラの動作制御を示すフローチャートの第1部分。The 1st part of the flowchart which shows the operation control of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラの動作制御を示すフローチャートの第2部分。The 2nd part of the flowchart which shows the operation control of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラの動作制御を示すフローチャートの第3部分。The 3rd part of the flowchart which shows the operation control of the camera which concerns on one Embodiment of this invention. 位置情報の類似判定の一手法示すフローチャート。The flowchart which shows one method of similarity determination of positional information. 所望の画像データの検索画面の一例を概略的に示した図。The figure which showed schematically an example of the search screen of desired image data. ユーザーの自宅の位置情報の取得の為の手法を示す概念図。The conceptual diagram which shows the method for acquisition of a user's home location information. ユーザーの自宅の位置情報の取得の為の手法を示すフローチャート。The flowchart which shows the method for acquisition of a user's home location information.

符号の説明Explanation of symbols

101…制御手段、 101a…スイッチ、 101…CPU、 102…GPS手段、 103…撮影手段、 104…画像処理手段、 105…記録手段、 106…時計手段、 107…表示手段。     DESCRIPTION OF SYMBOLS 101 ... Control means, 101a ... Switch, 101 ... CPU, 102 ... GPS means, 103 ... Imaging | photography means, 104 ... Image processing means, 105 ... Recording means, 106 ... Clock means, 107 ... Display means.

Claims (9)

撮影動作を実行して画像データを取得する撮影手段と、
当該カメラの位置情報を検出する位置検出手段と、
上記位置検出手段により検出された位置情報に基づいて、当該カメラの位置の属する地理的領域範囲及び基準位置に対する検出位置方向を判定する判定手段と、
上記判定手段による判定結果に基づいて、上記画像データを、その地理的領域範囲を示す地域情報と関連付けて記録する記録手段と、
を具備することを特徴とするカメラ。
Photographing means for executing photographing operation to acquire image data;
Position detecting means for detecting position information of the camera;
Determining means for determining a detected position direction with respect to a geographical area range to which the position of the camera belongs and a reference position based on position information detected by the position detecting means;
Recording means for recording the image data in association with area information indicating the geographical area range based on a determination result by the determination means;
A camera comprising:
上記画像データに関連付けされた上記地域情報を参照して、所望の画像データを、上記記録手段に記録された画像データの中から検索する検索手段を更に具備することを特徴とする請求項1に記載のカメラ。   2. The apparatus according to claim 1, further comprising search means for searching for desired image data from the image data recorded in the recording means with reference to the area information associated with the image data. The listed camera. 上記カメラは時計手段をさらに具備し、
上記位置検出手段は、上記時計手段の出力に基づいて、上記位置情報の検出動作を行うことを特徴とする請求項1に記載のカメラ。
The camera further comprises a clock means,
The camera according to claim 1, wherein the position detection unit performs the position information detection operation based on an output of the clock unit.
上記位置検出手段は、上記撮影手段による撮影時における当該カメラの位置情報を検出することを特徴とする請求項1に記載のカメラ。   The camera according to claim 1, wherein the position detection unit detects position information of the camera at the time of shooting by the shooting unit. 撮影動作を実行して画像データを取得する撮影手段と、上記撮影手段による撮影時の当該カメラの位置情報を検出する位置検出手段と、上記撮影手段が取得した上記画像データと上記位置検出手段が検出した上記位置情報とを関連付けて記録する記録手段と、を具備するカメラにおいて、
上記位置検出手段に上記位置情報の検出動作を所定時間間隔で行わせるための時計手段と、
上記時計手段の出力に基づいた上記位置検出手段の動作により、所定の時間間隔で取得した当該カメラの位置情報に従って、当該カメラにおける基準となる位置である基準位置情報を決定する基準位置情報決定手段と、
上記基準位置情報と、上記画像データと関連付けて記録された上記位置情報と、の差異量情報に基づく情報に従って、上記画像データを分類する分類手段と、
を更に具備することを特徴とするカメラ。
An imaging unit that executes an imaging operation to acquire image data, a position detection unit that detects position information of the camera at the time of imaging by the imaging unit, the image data acquired by the imaging unit, and the position detection unit In a camera provided with a recording means for associating and recording the detected position information,
Clock means for causing the position detection means to perform the detection operation of the position information at predetermined time intervals;
Reference position information determination means for determining reference position information that is a reference position in the camera according to the position information of the camera acquired at predetermined time intervals by the operation of the position detection means based on the output of the clock means. When,
Classification means for classifying the image data according to information based on difference information between the reference position information and the position information recorded in association with the image data;
The camera further comprising:
上記分類手段は、画像データを特定する為の特定情報とその分類を示す分類テーブルに、上記分類した画像データの特定情報と分類を登録することを特徴とする請求項5に記載のカメラ。   6. The camera according to claim 5, wherein the classification means registers the specific information and the classification of the classified image data in specific information for specifying the image data and a classification table indicating the classification. 上記分類手段は、上記画像データを、上記記録手段内における上記分類に対応するフォルダへ移動させることを特徴とする請求項5に記載のカメラ。   6. The camera according to claim 5, wherein the classification unit moves the image data to a folder corresponding to the classification in the recording unit. 上記分類手段は、上記画像データに、上記分類を示す分類情報をヘッダ情報として付加することを特徴とする請求項5に記載のカメラ。   6. The camera according to claim 5, wherein the classification unit adds classification information indicating the classification as header information to the image data. 撮影動作を実行して画像データを取得する撮影手段と、
当該カメラの位置の情報を検出する位置検出手段と、
上記画像データの撮影枚数を判断する撮影枚数判断手段と、
上記位置検出手段により検出された情報に基づく位置情報、及び上記撮影枚数判断手段により判断された上記撮影枚数に基づいて、上記画像データの分類及び記録を制御する分類記録制御手段と、
を具備することを特徴とするカメラ。
Photographing means for executing photographing operation to acquire image data;
Position detecting means for detecting information of the position of the camera;
A number-of-photographs judging means for judging the number of photographed images of the image data
A classification record control means for controlling the classification and recording of the image data based on the position information based on the information detected by the position detection means and the number of shots determined by the number of shots determination means;
A camera comprising:
JP2005356370A 2005-12-09 2005-12-09 camera Expired - Fee Related JP4996092B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005356370A JP4996092B2 (en) 2005-12-09 2005-12-09 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005356370A JP4996092B2 (en) 2005-12-09 2005-12-09 camera

Publications (2)

Publication Number Publication Date
JP2007166007A true JP2007166007A (en) 2007-06-28
JP4996092B2 JP4996092B2 (en) 2012-08-08

Family

ID=38248437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005356370A Expired - Fee Related JP4996092B2 (en) 2005-12-09 2005-12-09 camera

Country Status (1)

Country Link
JP (1) JP4996092B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010283802A (en) * 2009-05-01 2010-12-16 Canon Inc Image processing apparatus, and method of managing images
JP2014120878A (en) * 2012-12-14 2014-06-30 Ricoh Co Ltd Predetermined-zone management system, predetermined-zone management method, and program
JP2020098626A (en) * 2020-02-12 2020-06-25 株式会社ゼンリンデータコム System, control method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000217057A (en) * 1998-11-18 2000-08-04 Casio Comput Co Ltd Photographed image retrieval device, electronic camera apparatus and photographed image retrieval method
JP2002062156A (en) * 2000-08-21 2002-02-28 Matsushita Electric Ind Co Ltd Point registering device
JP2005049968A (en) * 2003-07-30 2005-02-24 Seiko Epson Corp Image management device
JP2005174060A (en) * 2003-12-12 2005-06-30 Matsushita Electric Ind Co Ltd Image classification device, and image classification method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000217057A (en) * 1998-11-18 2000-08-04 Casio Comput Co Ltd Photographed image retrieval device, electronic camera apparatus and photographed image retrieval method
JP2002062156A (en) * 2000-08-21 2002-02-28 Matsushita Electric Ind Co Ltd Point registering device
JP2005049968A (en) * 2003-07-30 2005-02-24 Seiko Epson Corp Image management device
JP2005174060A (en) * 2003-12-12 2005-06-30 Matsushita Electric Ind Co Ltd Image classification device, and image classification method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010283802A (en) * 2009-05-01 2010-12-16 Canon Inc Image processing apparatus, and method of managing images
JP2014120878A (en) * 2012-12-14 2014-06-30 Ricoh Co Ltd Predetermined-zone management system, predetermined-zone management method, and program
JP2020098626A (en) * 2020-02-12 2020-06-25 株式会社ゼンリンデータコム System, control method, and program

Also Published As

Publication number Publication date
JP4996092B2 (en) 2012-08-08

Similar Documents

Publication Publication Date Title
US8938355B2 (en) Human assisted techniques for providing local maps and location-specific annotated data
KR100845892B1 (en) Method and system for mapping image objects in photo to geographic objects
US20160029170A1 (en) Inferring positions with content item matching
JP5615191B2 (en) Image management apparatus, image management apparatus control method, and program
KR100843094B1 (en) Apparatus and method for managing image file
CN104422439A (en) Navigation method, apparatus, server, navigation system and use method of system
JP2011137638A (en) Navigation system, sightseeing spot detecting device, navigation device, sightseeing spot detecting method, navigation method, sightseeing spot detecting program, and navigation program
GB2452107A (en) Displaying images of a target by selecting it on a map
JP2003315069A (en) Information center apparatus, data providing device, data collection system, data delivery system and its method
US20140324340A1 (en) Information Processing Device, Processing Method, and Medium
WO2021027215A1 (en) Positioning information creation method, vehicle-mounted terminal, server device, and positioning system
JP2010118061A (en) Method, system and computer-readable recording medium for providing service using electronic map
JP2014241165A (en) Mobile image search and indexing system and method
JP5325354B1 (en) Server, terminal device, image search method, and program
Wolfensberger et al. A mobile application for a user-generated collection of landmarks
JP4996092B2 (en) camera
JP2010129032A (en) Device and program for retrieving image
JP2014089605A (en) Image file classification system
JP6210807B2 (en) Display control device and control method of display control device
US20210334307A1 (en) Methods and systems for generating picture set from video
JP2007139748A (en) Complementary device and method for navigation map
JP2006047147A (en) Information providing system
JP2011203244A (en) Navigation system and program for the same
EP3513302B1 (en) Identifying and displaying smooth and demarked paths
Beeharee et al. Filtering location-based information using visibility

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120511

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4996092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120529

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A072

Effective date: 20121009

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees