JP2014057118A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2014057118A
JP2014057118A JP2012199064A JP2012199064A JP2014057118A JP 2014057118 A JP2014057118 A JP 2014057118A JP 2012199064 A JP2012199064 A JP 2012199064A JP 2012199064 A JP2012199064 A JP 2012199064A JP 2014057118 A JP2014057118 A JP 2014057118A
Authority
JP
Japan
Prior art keywords
image
unit
related image
captured image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012199064A
Other languages
Japanese (ja)
Other versions
JP6089515B2 (en
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012199064A priority Critical patent/JP6089515B2/en
Publication of JP2014057118A publication Critical patent/JP2014057118A/en
Application granted granted Critical
Publication of JP6089515B2 publication Critical patent/JP6089515B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image which is obtained by retrieving a network and is adjusted to environment of a self-terminal.SOLUTION: Only the number of images minus one, which are used for multi-display, are selected from a plurality of image files (step S17). A thumbnail image in response to display performance of a display section is generated from the plurality of selected image files (step S18). The thumbnail image generated with a photographed image as a center is multi-displayed (step S19). When there are eight thumbnail images, the photographed image is displayed in the center of the display section by processing in the step S19, and the eight thumbnails being the retrieved images are displayed at a periphery. Thus, a user can compare and appreciate the photographed image and the thumbnails.

Description

本発明は、検索結果として再生される画像を加工する画像加工装置、画像加工方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for processing an image reproduced as a search result.

従来より、任意の画像に付加された位置や日時を検索キーとして、その検索キーの所定の範囲に属する画像をネットワークを通じて検索する技術が存在する。
また、特許文献1に記載されているように、上記の技術を撮像装置に付加した上で、サーバー側で検索結果のサムネイル画像を生成し、これを取得する技術も提案されるに至っている。
2. Description of the Related Art Conventionally, there is a technique for searching for images belonging to a predetermined range of a search key through a network using a position or date / time added to an arbitrary image as a search key.
Further, as described in Patent Document 1, after adding the above technique to an imaging apparatus, a technique for generating a thumbnail image as a search result on the server side and acquiring the thumbnail image has been proposed.

特開2002−044506号公報JP 2002-044506 A

しかしながら、現在の撮像装置は仕様や性能によって表示の解像度が機種により異なっている。また、通信機能と撮像機能とを備えた端末という観点から観た場合、多機能な通信端末も画像検索サービスの対象となり得るが、多機能な通信端末の表示性能はその機能との関係に起因して多様である。
したがって、上記特許文献1に記載されるように、サーバー側で一意のサイズでサムネイル画像を生成しても、受信側の機器の表示性能は多様であるから、表示性能によっては見難いものとなるという問題があった。
However, the display resolution of current imaging devices differs depending on the model depending on specifications and performance. Also, from the perspective of a terminal having a communication function and an imaging function, a multi-function communication terminal can also be an object of an image search service. And diverse.
Therefore, as described in Patent Document 1, even if the thumbnail image is generated with a unique size on the server side, the display performance of the device on the reception side varies, so it is difficult to see depending on the display performance. There was a problem.

本発明は、上記問題に鑑みてなされたものであり、ネットワークを検索して得た画像について、自端末の環境に合ったものを得ることができるようにすることを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to make it possible to obtain an image obtained by searching a network that matches the environment of the terminal itself.

前記課題を解決するために本発明は、撮影画像を取得する撮影画像取得手段と、通信手段と、この通信手段を介して外部の通信ネットワークに接続し、前記撮影画像取得手段により取得された撮影画像の関連画像の検索指示を検出する指示検出手段と、この指示検出手段による検索指示の結果として、前記外部の通信ネットワークを介して関連画像を取得する関連画像取得手段と、この関連画像取得手段によって取得された関連画像を前記撮影画像と関連付けて再生できるよう加工する加工手段と、を備えることを特徴とする画像加工装置を提供する。   In order to solve the above-described problems, the present invention provides a captured image acquisition unit that acquires a captured image, a communication unit, and an image captured by the captured image acquisition unit connected to an external communication network via the communication unit. An instruction detecting unit for detecting a search instruction for a related image of the image, a related image acquiring unit for acquiring a related image via the external communication network as a result of the search instruction by the instruction detecting unit, and the related image acquiring unit An image processing apparatus comprising: processing means for processing so that the related image acquired by the method can be reproduced in association with the captured image.

また、本発明は、通信手段及び再生手段と有する装置を用いる画像処理方法であって、この通信手段を介して外部の通信ネットワークに接続し、前記予め取得した撮影画像について関連画像の検索指示を検出する指示検出ステップと、この指示検出ステップでの検索指示の結果として、前記外部の通信ネットワークを介して関連画像を取得する関連画像取得ステップと、この関連画像取得ステップにて取得された関連画像を前記撮影画像と関連付けて再生できるよう加工する加工ステップと、を含むことを特徴とする画像加工方法を提供する。   Further, the present invention is an image processing method using an apparatus having a communication unit and a reproduction unit, which is connected to an external communication network via the communication unit, and issues a related image search instruction for the previously acquired photographed image. An instruction detecting step for detecting, a related image acquiring step for acquiring a related image via the external communication network as a result of a search instruction in the instruction detecting step, and a related image acquired in the related image acquiring step And a processing step of processing the image so as to be reproduced in association with the captured image.

また、本発明は、通信手段、及び再生手段を備える装置が有するコンピュータを、この通信手段を介して外部の通信ネットワークに接続し、前記予め取得した撮影画像について関連画像の検索指示を検出する指示検出手段、この指示検出ステップにおける検索指示の結果として、前記外部の通信ネットワークを介して関連画像を取得する関連画像取得手段、この関連画像取得手段によって取得された関連画像を前記撮影画像と関連付けて再生できるよう加工する加工手段、として機能させることを特徴とするプログラムを提供する。   Further, the present invention provides an instruction for connecting a computer included in an apparatus including a communication unit and a reproduction unit to an external communication network via the communication unit, and detecting a search instruction for a related image with respect to the captured image acquired in advance. As a result of the search instruction in the instruction detection step, the detection means, the related image acquisition means for acquiring the related image via the external communication network, and the related image acquired by the related image acquisition means are associated with the captured image. Provided is a program characterized by functioning as a processing means for processing so that it can be reproduced.

本発明によれば、ネットワークを検索して得た画像について、自端末の環境に合ったものを得ることができ、よって、上記ネットワークから得た画像を自端末にて明瞭に表示することができる。   According to the present invention, it is possible to obtain an image obtained by searching a network that matches the environment of the own terminal, and thus an image obtained from the network can be clearly displayed on the own terminal. .

本発明の一実施の形態に係る画像検索システムの全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of an image search system according to an embodiment of the present invention. 同実施の形態に係る画像検索システムのイメージを説明する図である。It is a figure explaining the image of the image search system concerning the embodiment. デジタルカメラの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of a digital camera. スマートフォンの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of a smart phone. 同実施の形態の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the embodiment. 表示画面例を示す図である。It is a figure which shows the example of a display screen.

以下、本発明の実施の形態について図面を参照して説明する。
図1は、本実施の形態に係る画像検索システムの全体構成を示すブロック図である。
サービスサーバー11を含む画像検索サイト10は、インターネット500を介してスマートフォン1、及びPC(Personal Computer)3と接続される。また、デジタルカメラ2は、スマートフォン1とブルートゥース(登録商標)等の無線で接続可能である。スマートフォン1は、アプリケーションプログラムをインストールして、画像検索サイト10との連携を図る動作をする。また、デジタルカメラ2にも比較的軽いアプリケーションプログラムをインストールして、スマートフォン1、との連携を図るように動作する。
なお、デジタルカメラ2とサービスサーバー11を直接接続して、スマートフォン1を経由しなくても情報交換ができるルートも用意するようにしてもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing the overall configuration of the image search system according to the present embodiment.
An image search site 10 including a service server 11 is connected to a smartphone 1 and a PC (Personal Computer) 3 via the Internet 500. The digital camera 2 can be connected to the smartphone 1 wirelessly such as Bluetooth (registered trademark). The smartphone 1 installs an application program and operates to cooperate with the image search site 10. In addition, a relatively light application program is installed in the digital camera 2 to operate in cooperation with the smartphone 1.
It is also possible to directly connect the digital camera 2 and the service server 11 to prepare a route for exchanging information without going through the smartphone 1.

また、サービスサーバー11は、多数の画像ファイルが撮影日時、撮影位置、撮影条件等毎に整理されて記憶されたデータベースを備え、撮影日時、撮影位置、撮影条件等が同一である複数の画像ファイルを検索することが可能である。これら画像ファイルは、インターネット500上から収集したものであって、各画像ファイルにはインターネット500上における情報資源の格納位置を指し示すURL(Uniform Resource Locator)が付加されている。   Further, the service server 11 includes a database in which a large number of image files are organized and stored for each shooting date / time, shooting position, shooting condition, and the like, and a plurality of image files having the same shooting date / time, shooting position, shooting condition, and the like. It is possible to search. These image files are collected from the Internet 500, and a URL (Uniform Resource Locator) indicating the storage location of the information resource on the Internet 500 is added to each image file.

図2は、本実施の形態に係る画像検索システムのイメージを説明する図である。画像検索サイト10を介して、スマートフォン1、PC3が接続され、デジタルカメラ2とスマートフォン1は前述のように無線接続されている。これにより、デジタルカメラ2で撮影した画像の画像ファイルをスマートフォン1に送信し、これを受信したスマートフォン1が画像検索サイト10に接続して受信した画像ファイルの画像と関連する画像の画像ファイルを検索することができる。なお、画像検索サイト10としてクラウドサービスを用いることができる。   FIG. 2 is a diagram for explaining an image of the image search system according to the present embodiment. The smartphone 1 and the PC 3 are connected via the image search site 10, and the digital camera 2 and the smartphone 1 are wirelessly connected as described above. Thereby, the image file of the image photographed with the digital camera 2 is transmitted to the smartphone 1, and the image file related to the image file received by the smartphone 1 connected to the image search site 10 is retrieved. can do. A cloud service can be used as the image search site 10.

図3は、デジタルカメラ2の構成を示す概略ブロック図である。240は、表示部であり、表示デバイスであるLCDとこれを駆動する駆動回路等から構成されている。254は、表示部240の表示状態を制御する表示制御部である。256は、入力部であり、シャッターキー等の各種キーやスイッチを有して構成される。   FIG. 3 is a schematic block diagram showing the configuration of the digital camera 2. Reference numeral 240 denotes a display unit, which includes an LCD that is a display device and a drive circuit that drives the LCD. Reference numeral 254 denotes a display control unit that controls the display state of the display unit 240. An input unit 256 includes various keys such as a shutter key and switches.

250は、GPS部であり、公知のGPS(Global Positioning System)を利用して現在位置を計測する。すなわちGPS部250は、複数の測位衛星(GPS衛星)から送られてくる電波をアンテナにより受信することによって、現在位置を示す緯度、経度からなる位置データを取得し、取得した位置データを、撮影場所を示す場所情報としてCPU202に供給する。   Reference numeral 250 denotes a GPS unit that measures the current position using a known GPS (Global Positioning System). In other words, the GPS unit 250 receives radio waves transmitted from a plurality of positioning satellites (GPS satellites) with an antenna, thereby acquiring position data including latitude and longitude indicating the current position, and shooting the acquired position data. The location information indicating the location is supplied to the CPU 202.

202は、CPUであり、デジタルカメラ2全体を制御する。204はプログラムメモリであり、制御プログラム2041、アプリケーションプログラム2042、その他のプログラム2043が予め記憶されている。制御プログラム2041はデジタルカメラ全体を制御する基本的な制御プログラムであり、アプリケーションプログラム2042は、スマートフォン1との協働やサービスサーバー11と協働するためのプログラムである。258はスマートフォン1との間で、ブルートゥース(登録商標)等の無線通信デバイスを用いてリンクを行う通信I/Fである。   A CPU 202 controls the entire digital camera 2. A program memory 204 stores a control program 2041, an application program 2042, and other programs 2043 in advance. The control program 2041 is a basic control program for controlling the entire digital camera, and the application program 2042 is a program for cooperating with the smartphone 1 and the service server 11. Reference numeral 258 denotes a communication I / F that performs a link with the smartphone 1 using a wireless communication device such as Bluetooth (registered trademark).

撮像部260は、ドライバにより駆動される撮像素子、この撮像素子上に被写体を結像させるレンズ、撮像素子からの被写体の光学像に応じたアナログが入力されるユニット回路を有している。ユニット回路は、撮像素子の出力信号に含まれるノイズを相関二重サンプリングによって除去するCDS回路や、ノイズが除去された撮像信号をデジタル信号に変換するA/D変換器等から構成され、デジタルに変換した撮像信号をCPU202へ出力する。   The imaging unit 260 includes an image sensor that is driven by a driver, a lens that forms an object on the image sensor, and a unit circuit that receives analog corresponding to the optical image of the object from the image sensor. The unit circuit includes a CDS circuit that removes noise included in the output signal of the image sensor by correlated double sampling, an A / D converter that converts the image signal from which noise has been removed to a digital signal, and the like. The converted imaging signal is output to the CPU 202.

CPU202は、撮像信号をYUVデータに変換し、RECスルー・モードでは1フレーム分のデータ(画像データ)が蓄積される毎にビデオ信号に変換され、表示部240へ送ってスルー画像として画面表示する。静止画撮影モードにおいては、シャッターキー操作をトリガとして、CPU202は、スルー画撮影モードから静止画撮影モードへの切り替えを指示し、この静止画撮影モードによる撮影処理により得られ画像データは、圧縮及び符号化され、所定のフォーマットの静止画ファイルとして、外部メモリ230に記録される。   The CPU 202 converts the imaging signal into YUV data, and in the REC through mode, the video signal is converted every time one frame of data (image data) is accumulated, and is sent to the display unit 240 to display the screen as a through image. . In the still image shooting mode, using the shutter key operation as a trigger, the CPU 202 instructs to switch from the through image shooting mode to the still image shooting mode, and the image data obtained by the shooting processing in this still image shooting mode is compressed and It is encoded and recorded in the external memory 230 as a still image file of a predetermined format.

図4は、スマートフォン1の構成を示す概略ブロック図である。すなわち、340は、表示部であり、表示デバイスであるLCDとこれを駆動する駆動回路等から構成されている。354は、表示部340の表示状態を制御する表示制御部である。356は、入力部であり、各種キーやスイッチを有して構成されている。   FIG. 4 is a schematic block diagram illustrating the configuration of the smartphone 1. In other words, reference numeral 340 denotes a display unit, which includes an LCD that is a display device and a drive circuit that drives the LCD. Reference numeral 354 denotes a display control unit that controls the display state of the display unit 340. Reference numeral 356 denotes an input unit, which includes various keys and switches.

302は、CPUであり、スマートフォン1やPC3全体を制御する。304はプログラムメモリであり、制御プログラム3041及びアプリケーションプログラム3042、その他のプログラム3043が予め記憶されている。制御プログラム3041はスマートフォン1全体を制御する基本的な制御プログラムであり、アプリケーションプログラム3042は、デジタルカメラ2との協働やサービスサーバー11と協働するためのプログラムである。358は携帯型端末との間で、ブルートゥース(登録商標)のリンクを行うI/Fであり、260はWi−Fiなどでサービスサーバー11とのリンクを行うI/Fである。   Reference numeral 302 denotes a CPU that controls the entire smartphone 1 and the PC 3. A program memory 304 stores a control program 3041, an application program 3042, and other programs 3043 in advance. The control program 3041 is a basic control program for controlling the entire smartphone 1, and the application program 3042 is a program for cooperating with the digital camera 2 and cooperating with the service server 11. Reference numeral 358 denotes an I / F that makes a Bluetooth (registered trademark) link with a portable terminal, and 260 denotes an I / F that makes a link with the service server 11 using Wi-Fi or the like.

前記表示部340が有するLCDの解像度(横×縦)は、例えば320×480pxであり、この解像度等の表示部340の表示性能を示す情報は予めプログラムメモリ304に記憶されている。CPU302は、制御プログラム3041に従って処理を実行することにより、予めプログラムメモリ304に記憶されているこの表示部340の表示性能を取得することができる。したがって、CPU302は、本実施の携帯において表示手段の表示性能を取得する表示性能取得手段として機能する。   The resolution (horizontal × vertical) of the LCD included in the display unit 340 is, for example, 320 × 480 px, and information indicating the display performance of the display unit 340 such as the resolution is stored in the program memory 304 in advance. The CPU 302 can acquire the display performance of the display unit 340 stored in the program memory 304 in advance by executing processing according to the control program 3041. Therefore, the CPU 302 functions as a display performance acquisition unit that acquires the display performance of the display unit in the portable device of the present embodiment.

357は、音声処理部であり、スピーカに接続された音声復号処理部とマイクに接続された音声符号処理部とで構成されている。スピーカは音声復号処理部が復号した呼出音及び受話音声を再生する。マイクは、入力音声を検出して音声符号処理部に入力し、この入力音声信号は音声符号処理部により符号化されて、送話音声として外部に送信される。   Reference numeral 357 denotes an audio processing unit, which includes an audio decoding processing unit connected to a speaker and an audio code processing unit connected to a microphone. The speaker reproduces the ringing tone and received voice decoded by the voice decoding processing unit. The microphone detects the input voice and inputs it to the voice code processing unit, and the input voice signal is encoded by the voice code processing unit and transmitted to the outside as the transmitted voice.

なお、このスマートフォン1においても、前述したデジタルカメラ2のGPS部250、撮像部260及び外部メモリ230と同様の構成に係るGPS部350、撮像部370及び外部メモリ330が設けられている。   The smartphone 1 is also provided with a GPS unit 350, an imaging unit 370, and an external memory 330 having the same configuration as the GPS unit 250, the imaging unit 260, and the external memory 230 of the digital camera 2 described above.

次に、本実施の形態の動作について説明する。ユーザがデジタルカメラ2を携帯し、所望の場所で撮影を行うべく、被写体にレンズを向けてシャッターキーを押下する。すると、CPU202は撮像部260から出力された撮像信号を画像データに変換し、所定のフォーマット(例えば、JPEG(Joint Photographic Experts Group)方式)の静止画ファイルとして、外部メモリ230に記録する。このとき、CPU202は、EXIF(Exchangeable Image File Format)情報として、下記事項を記録する。
(1)GPS部250により取得したデジタルカメラ2自身の位置である撮影位置情報。
(2)CPU202が計時している撮影時点の日時である撮影日時情報。
(3)CPU202が撮影時に撮像部260等を制御した際に設定した絞り、ホワイトバランス、シャッター速度等の撮影条件情報。
Next, the operation of the present embodiment will be described. The user carries the digital camera 2 and directs the lens toward the subject and presses the shutter key to take a picture at a desired location. Then, the CPU 202 converts the imaging signal output from the imaging unit 260 into image data, and records the image data in the external memory 230 as a still image file in a predetermined format (for example, JPEG (Joint Photographic Experts Group) method). At this time, the CPU 202 records the following items as EXIF (Exchangeable Image File Format) information.
(1) Shooting position information that is the position of the digital camera 2 itself acquired by the GPS unit 250.
(2) Shooting date and time information that is the date and time of shooting that the CPU 202 is timing.
(3) Shooting condition information such as an aperture, white balance, and shutter speed set when the CPU 202 controls the imaging unit 260 and the like during shooting.

したがって、デジタルカメラ2の外部メモリ230には、EXIFに前記事項(1)(2)(3)が埋め込まれた画像ファイルが記録されることとなる。このような画像ファイルが外部メモリ230に記憶されているデジタルカメラ2と、スマートフォン1とが互いに無線通信可能な状態にさせると、スマートフォン1はプログラムメモリ304に記憶されているプログラムに従って、図5のフローチャートに示すように処理を実行する。   Therefore, an image file in which the items (1), (2), and (3) are embedded in EXIF is recorded in the external memory 230 of the digital camera 2. When the digital camera 2 in which such an image file is stored in the external memory 230 and the smartphone 1 are in a state in which wireless communication can be performed with each other, the smartphone 1 follows the program stored in the program memory 304 according to the program in FIG. Processing is executed as shown in the flowchart.

すなわち、スマートフォン1のCPU302は、デジタルカメラ2との通信によりその外部メモリ230に記録されている画像ファイルを読み出し、この読み出した画像ファイルを再生して、撮影画像を表示部340に表示させる(ステップS1)。次に、ユーザの入力部356での所定の操作による検索指示が検出されたか否かを判断する(ステップS2)。検索指示が検出されたならば、通信I/F360を起動し無線通信部と通信ネットワークとを介して、画像検索サイト10のサービスサーバー11に接続する(ステップS3)。前記ステップS1で表示部340に表示させた画像に埋め込まれている撮影位置情報を読み出し、これを検索キーとしてサービスサーバー11に画像の検索を依頼する(ステップS4)。   That is, the CPU 302 of the smartphone 1 reads an image file recorded in the external memory 230 through communication with the digital camera 2, reproduces the read image file, and displays a captured image on the display unit 340 (step 340). S1). Next, it is determined whether or not a search instruction by a predetermined operation at the user input unit 356 has been detected (step S2). If a search instruction is detected, the communication I / F 360 is activated and connected to the service server 11 of the image search site 10 via the wireless communication unit and the communication network (step S3). The shooting position information embedded in the image displayed on the display unit 340 in the step S1 is read out, and this is used as a search key to request the service server 11 to search for an image (step S4).

すると、サービスサーバー11は、スマートフォン1から送信されてきた撮影位置情報を受信し、受信した情報が示す撮影位置と同一の位置で撮影された画像の画像ファイルをデータベースで検索し、スマートフォン1に送信する。スマートフォン1は、サービスサーバー11から送信されてくる画像を検索結果として取得し、例えばCPU302が有するRAMのワークエリアに保存する(ステップS5)。そして、受信した画像ファイルの数に基づき、検索結果の画像数は「0」であるか否かを判断する(ステップS6)。検索結果の画像数が「0」であるならば、表示部340に、前記撮影画像とともに検索結果0であることを表示して(ステップS7)、このフローチャートに従った処理を終了する。   Then, the service server 11 receives the shooting position information transmitted from the smartphone 1, searches the database for an image file of an image shot at the same position as the shooting position indicated by the received information, and transmits the image file to the smartphone 1. To do. The smartphone 1 acquires an image transmitted from the service server 11 as a search result, and stores it in a work area of a RAM included in the CPU 302 (step S5). Then, based on the number of received image files, it is determined whether or not the number of images in the search result is “0” (step S6). If the number of images as a search result is “0”, the display unit 340 displays that the search result is 0 together with the photographed image (step S7), and the process according to this flowchart ends.

検索結果の画像数が「0」でないならば、検索結果として得られた画像に所定の表示サイズ以上、又はデータ量以上、もしくは所定の表示サイズ未満、又はデータ量未満のものが存在するか否かを判断する(ステップS8)。検索結果として得られた画像に所定の表示サイズ以上、又はデータ量以上、もしくは所定の表示サイズ未満、又はデータ量未満のものが存在する場合には、前記ステップS5でRAMに保存した画像のうち、これらに該当する画像に除外することを示す識別子を付加する等の除外処理を実行する(ステップS9)。   If the number of images in the search result is not “0”, whether or not there is an image obtained as a search result that is greater than or equal to a predetermined display size, greater than or equal to the data amount, less than the predetermined display size, or less than the data amount. Is determined (step S8). If there is an image obtained as a search result that is larger than the predetermined display size, larger than the data amount, smaller than the predetermined display size, or smaller than the data amount, among the images stored in the RAM in step S5 Exclusion processing such as adding an identifier indicating exclusion to an image corresponding to these is executed (step S9).

したがって、このステップS9での処理に、表示部340に表示することが困難な画像は予め除外されることから、検索した画像を適正に表示することができる。   Therefore, images that are difficult to display on the display unit 340 are excluded in advance in the processing in step S9, and thus the searched images can be displayed appropriately.

引き続きこの除外処理後の画像数が「0」となってしまったか否かを判断する(ステップS10)。残りの画像数が「0」となってしまった場合には、前記撮影画像とともに検索してヒットした画像数を表示部340に表示する(ステップS11)。このとき、前述したステップS7では、検索結果「0」が表示されるが、ステップS11では検索してヒットした画像数が表示される。したがって、両ステップS7、S11とも、検索された画像は表示されないが、ユーザは、ステップS7での表示により画像が検索できなかったことを知ることができ、ステップS11での表示により画像の検索はできたが、スマートフォン1の表示部340の表示性能との関係で画像を表示できないことを知ることができる。   Subsequently, it is determined whether or not the number of images after the exclusion process has become “0” (step S10). When the number of remaining images becomes “0”, the number of images searched and hit together with the captured image is displayed on the display unit 340 (step S11). At this time, in step S7 described above, the search result “0” is displayed, but in step S11, the number of images hit by the search is displayed. Therefore, in both steps S7 and S11, the searched image is not displayed, but the user can know that the image could not be searched by the display in step S7, and the image search can be performed by the display in step S11. Although it was possible, it can be known that an image cannot be displayed due to the display performance of the display unit 340 of the smartphone 1.

そこで、スマートフォン1のCPU302は、ステップS11での表示を行った場合には、ユーザによる入力部356での操作による保存指示が検出されたか否かを判断する(ステップS12)。保存指示が検出されたならば、検索結果の画像ファイルのURLをEXIFのコメントタグに記述した画像ファイルを生成する(ステップS13)。つまり、ヒットした画像を含む画像ファイルを生成し、このEXIFのコメントタグに各画像ファイルのURLを記述しておく。   Therefore, when the display in step S11 is performed, the CPU 302 of the smartphone 1 determines whether or not a storage instruction by an operation by the user with the input unit 356 is detected (step S12). If a save instruction is detected, an image file in which the URL of the search result image file is described in the EXIF comment tag is generated (step S13). That is, an image file including the hit image is generated, and the URL of each image file is described in the EXIF comment tag.

ここで、ステップS13で用いられる検索結果の画像ファイルは、前述のステップS9で当該スマートフォン1の表示部340では表示困難、不可能等の理由により除外されたものである。しかし、スマートフォン1の表示部340では表示困難、不可能等であったとしても、PC3では表示可能である。したがって、ステップS13で前記画像ファイルを生成しておけば、後日この画像ファイルを、インターネット500を介してPC3に送り、PC3で視認することができる。また、PC3からインターネット500を介して各URLにアクセスし、元画像を閲覧したり取得したりすることもできる。   Here, the search result image file used in step S13 is excluded in step S9 described above for reasons such as being difficult or impossible to display on the display unit 340 of the smartphone 1. However, even if display is difficult or impossible on the display unit 340 of the smartphone 1, it can be displayed on the PC 3. Therefore, if the image file is generated in step S13, the image file can be sent to the PC 3 via the Internet 500 at a later date and can be viewed on the PC 3. In addition, each URL can be accessed from the PC 3 via the Internet 500 to view or acquire the original image.

他方、ステップS10の判断がNOであって、除外処理後の画像数が「0」ではない場合には、更に除外処理後の画像ファイル数が複数であるか否かを判断する(ステップS14)。このステップS14での判断がNOであって、除外処理後の画像ファイル数が「1」である場合には、撮影画像と検索結果の画像とを識別可能なように、表示部340に表示する(ステップS15)。これにより、図6(a)に例示するように、スマートフォン1の表示部340には撮影された画像ファイルに基づく撮影画像Aが大きく、検索された画像ファイルに基づく関連画像aは撮影画像Aよりも小さく表示される。したがって、ユーザは、この表示形態により、除外処理後に残った画像ファイルは1枚であり、それが画像Aよりも小さく表示されている画像aであることを知ることができる。   On the other hand, if the determination in step S10 is NO and the number of images after the exclusion process is not “0”, it is further determined whether or not the number of image files after the exclusion process is plural (step S14). . If the determination in step S14 is NO and the number of image files after the exclusion process is “1”, the captured image and the search result image are displayed on the display unit 340 so that they can be identified. (Step S15). As a result, as illustrated in FIG. 6A, the captured image A based on the captured image file is larger on the display unit 340 of the smartphone 1, and the related image a based on the retrieved image file is larger than the captured image A. Is also displayed small. Therefore, the user can know from this display form that there is only one image file remaining after the exclusion process, and that the image a is displayed smaller than the image A.

しかる後に、ユーザによる入力部356での操作による保存指示が検出されたか否かを判断する(ステップS16)。保存指示が検出されたならば、後述するステップS21に移行の処理を実行する。   After that, it is determined whether or not a save instruction by an operation by the user with the input unit 356 is detected (step S16). If the save instruction is detected, the process proceeds to step S21 to be described later.

なお、ステップS15で表示形態は、図6(a)に例示したものに限らず、撮影画像Aと関連画像aとに異なる色の枠を付加する等、撮影画像Aと関連画像aとを視覚上識別することができれば、如何なる表示形態であってもよい。   Note that the display form in step S15 is not limited to that illustrated in FIG. 6A, and the captured image A and the related image a are visually displayed, for example, by adding different color frames to the captured image A and the related image a. Any display form may be used as long as it can be identified.

また、ステップS14での判断がYESであって、除外処理後の画像ファイル数が複数である場合には、これら複数の画像ファイルからマルチ表示に用いる画像数−1だけ選択する(ステップS17)。つまり、この実施の形態においてマルチ表示に用いる画像数が「9」であるならば、「9−1=8」であるから、除外処理後の画像ファイルから「8」個の画像ファイルを選択する。これにより、撮影画像を表示するための1枚分の画像表示スペースを表示部340に確保することができる。   If the determination in step S14 is YES and the number of image files after the exclusion process is plural, only the number of images used for multi-display −1 is selected from these plural image files (step S17). That is, if the number of images used for multi-display in this embodiment is “9”, “9-1 = 8”, so “8” image files are selected from the image files after the exclusion process. . Thereby, the image display space for one sheet for displaying a picked-up image can be ensured in the display part 340. FIG.

なお、除外処理後の画像ファイル数がマルチ表示に用いる画像数以下であった場合、例えばマルチ表示に用いる画像数が「9」で除外処理後の画像ファイル数が「6」であった場合には、これら「6」個の除外処理後の画像ファイルを全て選択する。   When the number of image files after exclusion processing is less than or equal to the number of images used for multi-display, for example, when the number of images used for multi-display is “9” and the number of image files after exclusion processing is “6”. Selects all of these “6” excluded image files.

次に、選択した複数の画像ファイルから表示部340の表示性能に基づいたサムネイル画像を生成する(ステップS18)。前述のように、プログラムメモリ304には予め解像度等の表示部340の表示性能を示す情報が記憶されているので、この表示性能に基づいたサムネイル画像を生成する。したがって、ネットワークを検索して得た画像について、自端末の環境に合ったものを得ることができる。   Next, a thumbnail image based on the display performance of the display unit 340 is generated from the selected plurality of image files (step S18). As described above, information indicating the display performance of the display unit 340 such as the resolution is stored in the program memory 304 in advance, and a thumbnail image based on this display performance is generated. Therefore, it is possible to obtain an image suitable for the environment of its own terminal from images obtained by searching the network.

しかる後に、撮影画像を中心に生成されたサムネイル画像をマルチ表示する(ステップS19)。したがって、サムネイル画像が8枚であったとすると、このステップS19での処理により、図6(b)に示すように、表示部340の中心部に撮影画像Aが表示され、かつ、その周囲に検索された画像である8枚のサムネイルa〜hが表示されることとななる。これにより、ユーザは、撮影画像Aとサムネイルa〜hとを見比べながら観賞することができる。   Thereafter, the thumbnail images generated centering on the photographed image are displayed in a multi display (step S19). Therefore, assuming that there are eight thumbnail images, the photographed image A is displayed at the center of the display unit 340 as shown in FIG. The eight thumbnails a to h that are the images thus displayed are displayed. As a result, the user can view and compare the captured image A and the thumbnails a to h.

なた、撮影画像Aとサムネイルa〜hとは、撮影位置が共通する画像であるから、例えば同一の観光地で撮影されたものである可能性が高い。したがって、撮影画像A及びサムネイルa〜hは、同一の観光地の風景を異なる方向に撮影した画像や、同一の観光地の建築物を異なる方向から撮影した画像の集合である可能性が高いので、これにより画像表示に対する興趣性を向上させることが可能である。   In addition, since the captured image A and the thumbnails a to h are images having the same capturing position, it is highly possible that the captured image A and the thumbnails a to h are captured at the same sightseeing spot, for example. Therefore, the photographed image A and the thumbnails a to h are highly likely to be a set of images obtained by photographing the landscape of the same tourist spot in different directions and images taken of buildings of the same tourist spot from different directions. This makes it possible to improve the interest in image display.

引き続き、ユーザによる入力部356での操作による保存指示が検出されたか否かを判断する(ステップS20)。保存指示が検出されたならば、撮影画像を主画像とし、関連画像を副画像としてMPF(Multi-Picture Format)形式の画像ファイルを生成する(ステップS21)。このとき、検索結果の画像ファイルのURLをEXIFのコメントタグに記述する。   Subsequently, it is determined whether or not a save instruction by an operation by the user with the input unit 356 has been detected (step S20). If a save instruction is detected, an image file in MPF (Multi-Picture Format) format is generated with the captured image as the main image and the related image as the sub-image (step S21). At this time, the URL of the image file of the search result is described in the EXIF comment tag.

しかる後に、この生成したMPF形式の画像ファイルを外部メモリ330に記憶させて保存して(ステップS22)、処理を終了する。したがって、外部メモリ330には、撮影画像を主画像とし、関連画像を副画像とするMPF形式の画像ファイルが記録され、後日これをPC3で再生して観賞することができる。   Thereafter, the generated MPF image file is stored in the external memory 330 and stored (step S22), and the process is terminated. Therefore, an MPF format image file in which the captured image is a main image and a related image is a sub-image is recorded in the external memory 330, which can be reproduced and viewed later on the PC 3.

(その他の実施の形態)
[1]なお、上記実施の形態においては、本画像を含めて9枚の画像をマルチ表示する場合を示したが、マルチ表示する画像の枚数は、ステップS10で除外処理された後に残存した画像の枚数に応じて決定するようにしてもよい。例えば、除外処理された後に残存した画像の枚数が多ければ多いほど、マルチ表示する画像の枚数も多くする。
このようにすれば、検索された画像、つまり撮影画像に関連する画像を限られた表示面積の中でより多くマルチ表示することができる。
(Other embodiments)
[1] In the above-described embodiment, a case where nine images including the main image are displayed in a multi-display is shown. However, the number of images to be displayed in a multi-display is the image remaining after the exclusion process in step S10. It may be determined according to the number of sheets. For example, the greater the number of images remaining after the exclusion process, the greater the number of images to be displayed in multi display.
In this way, it is possible to display a larger number of searched images, that is, images related to the captured image, in a limited display area.

また、撮影画像と関連する画像(関連画像)とは同一画面に表示する必要は無く、例えば1ページ目に撮影画像、2ページ以降に単数または、複数の関連画像、というように関連付けて再生表示するようにしても良い。   In addition, it is not necessary to display a photographed image and related images (related images) on the same screen. For example, a photographed image is displayed on the first page, and one or a plurality of related images are displayed in association with each other. You may make it do.

[2]実施の形態においては、撮影した位置を検索キーとして関連する画像を検索するようにしたが、撮影された画像の含まれる主要被写体の位置情報を取得し、この位置情報に関連情報として、画像を検索するようにしてもよい。この場合、画像認識技術を用いて、主要被写体を撮影画像から抽出し、この主要被写体を示す情報をスマートフォン1からサービスサーバー11に送る。すると、サービスサーバー11側において、送られてきた被写体の位置を検出した後、これと同一の位置の主要被写体を有する画像ファイルを検索し、サービスサーバー11側に送信する。したがって、スマートフォン1には、撮影した主要被写体と同一の位置を所在位置とする主要被写体の画像ファイルがサービスサーバー11から送られてくる。
ここで、撮影画像の主要被写体は、デジタルカメラ2のユーザが撮影目標とした興味のある被写体であるから、当該ユーザが興味のある画像を収集して表示することができる。
[2] In the embodiment, the related image is searched using the photographed position as a search key. However, the position information of the main subject included in the photographed image is acquired, and the position information is used as related information. The image may be searched. In this case, the main subject is extracted from the captured image using image recognition technology, and information indicating the main subject is sent from the smartphone 1 to the service server 11. Then, after detecting the position of the sent subject on the service server 11 side, an image file having a main subject at the same position is searched and transmitted to the service server 11 side. Therefore, the image file of the main subject having the same position as the photographed main subject is sent from the service server 11 to the smartphone 1.
Here, since the main subject of the photographed image is a subject that the user of the digital camera 2 is interested in as a photographing target, the image that the user is interested in can be collected and displayed.

[3]なお、主要被写体の位置情報を検索キーとするのではなく、主要被写体そのものを検索キーとするようにしてもよい。この場合も、画像認識技術を用いて、主要被写体を撮影画像から抽出し、この主要被写体を示す情報をスマートフォン1からサービスサーバー11に送る。すると、サービスサーバー11側において、送られてきた被写体と同一の主要被写体を有する画像ファイルを検索し、サービスサーバー11側に送信する。したがって、スマートフォン1には、撮影した主要被写体と同一被写体を主要被写体とする画像ファイルがサービスサーバー11から送られてくる。   [3] It should be noted that the main subject itself may be used as a search key instead of the position information of the main subject as a search key. In this case as well, the main subject is extracted from the captured image using image recognition technology, and information indicating the main subject is sent from the smartphone 1 to the service server 11. Then, on the service server 11 side, an image file having the same main subject as the sent subject is searched and transmitted to the service server 11 side. Therefore, an image file having the same subject as the photographed main subject as the main subject is sent from the service server 11 to the smartphone 1.

したがって、この場合にも前記[2]の場合と同様に、撮影画像の主要被写体は、デジタルカメラ2のユーザが撮影目標とした興味のある被写体であるから、当該ユーザが興味のある画像を収集して表示することができる。   Accordingly, in this case as well, as in the case of [2], the main subject of the photographed image is a subject that the user of the digital camera 2 is interested in as a photographing target. Can be displayed.

[4]また、前記[3]において、主要被写体を人物の顔とするようにしてもよい。この場合には、撮影画像の主要被写体である人物は、デジタルカメラ2のユーザが撮影目標とした興味のある人物、著名な人物、芸能人等であるから、当該ユーザが興味のある人物の画像を収集して表示することができる。   [4] In the above [3], the main subject may be a human face. In this case, since the person who is the main subject of the photographed image is a person who is interested in the user of the digital camera 2, a famous person, an entertainer, etc., an image of the person who is interested in the user is displayed. Can be collected and displayed.

[5]撮影した日時を検索キーとして画像を検索するようにしてもよい。この場合、例えばある日時に虹や竜巻が発生し、これをユーザがデジタルカメラ2で撮影した場合、同じ虹や竜巻を異なる撮影位置、撮影方向から撮影した画像が検索されてマルチ表示されることになる。したがって、同一の虹や竜巻を異なる位置、方向から撮影した複数の画像より、虹や竜巻を地理状況を含めて把握することができる。   [5] An image may be searched using the date and time of shooting as a search key. In this case, for example, when a rainbow or tornado occurs at a certain date and time and the user shoots it with the digital camera 2, images obtained by shooting the same rainbow or tornado from different shooting positions and shooting directions are searched and displayed in multiple. become. Therefore, it is possible to grasp the rainbow and tornado including the geographical situation from a plurality of images obtained by photographing the same rainbow and tornado from different positions and directions.

[6]絞り、ホワイトバランス、シャッター速度等の撮影条件を検索キーとして画像を検索するようにしてもよい。この場合、シーンは全く異なるが撮影条件が撮影画像と同一の画像が検索されてマルチ表示されることになる。したがって、撮影条件が同一であっても、シーンが異なれば撮影された画像がどのように表現されるかを学習することができ、これによりユーザの撮影テクニックの向上に寄与することができる。   [6] The image may be searched by using the shooting conditions such as aperture, white balance, shutter speed, etc. as search keys. In this case, although the scene is completely different, an image having the same shooting condition as that of the shot image is searched and displayed in multiple. Therefore, even if the shooting conditions are the same, it is possible to learn how the captured image is expressed if the scene is different, thereby contributing to improvement of the user's shooting technique.

[7]実施の形態においては、デジタルカメラ2で撮影を行って撮影画像をスマートフォン1に送信するようにしたが、スマートフォン1自体が撮像部370を有しているのでスマートフォン1で撮影を行い、サービスサーバー11での画像検索を行うようにしてもよい。このようにすれば、デジタルカメラ2を用いることなく、同様の関連画像の表示を行うことができる。   [7] In the embodiment, the digital camera 2 captures an image and transmits the captured image to the smartphone 1. However, since the smartphone 1 itself has the imaging unit 370, the smartphone 1 captures an image. You may make it perform the image search in the service server 11. FIG. In this way, similar related images can be displayed without using the digital camera 2.

[8]なお、実施の形態においては、デジタルカメラからとスマートフォン1にブルートゥース(登録商標)等の無線で撮影画像データを送信するようにしたが、通信網や無線LANを介して送信するようにしてもよい。この場合、スマートフォン1や携帯電話等の受信する側の情報機器は、撮影画像データを送信してきた他機器のユーザ(送信ユーザ)を特定するための氏名、又はメールアドレス、FaceBook、Flickr,Mixiなど、SNS(Social Networking Service)や画像共有サービス等のユーザID、ニックネーム、端末デバイスアドレス、ブログや個人ホームページ等のURLなど、送信ユーザの特定情報を取得し、又は、予め記憶しておいて、取得した送信ユーザの特定情報に基づいて、Web上のサーバーや、画像データベース、又は所定のSNSや画像共有サービスのサイトを検索して、当該送信ユーザに関連する(顔写真やアバター等の)画像を取得して、撮影画像データのコピーと、送信ユーザ関連の画像データとを対応付けて、新たな画像データファイルを生成し記録する。
又は、撮影画像データを主画像データとし、送信ユーザ画像データを副画像データとして、MPFの画像データファイルを生成して保存記録する。
[8] In the embodiment, the captured image data is transmitted from the digital camera to the smartphone 1 wirelessly such as Bluetooth (registered trademark). However, the image data is transmitted via a communication network or a wireless LAN. May be. In this case, the information device on the receiving side, such as the smartphone 1 or the mobile phone, has a name or a mail address, FaceBook, Flickr, Mixi, etc. for specifying the user (transmission user) of the other device that has transmitted the captured image data. Acquire specific information of the sending user such as user IDs, nicknames, terminal device addresses, URLs of blogs, personal homepages, etc. for SNS (Social Networking Service) and image sharing services, etc. Based on the specific information of the sending user, a server on the web, an image database, or a site of a predetermined SNS or image sharing service is searched, and an image (such as a face photo or an avatar) related to the sending user is searched. Acquire the copy of the captured image data and the image data related to the sending user, Create and record a new image data file.
Alternatively, an MPF image data file is generated, stored, and recorded using the captured image data as main image data and the transmission user image data as sub-image data.

[9]更に、[8]において、送信ユーザ関連の位置情報やユーザ特定情報だけでなく、受信ユーザ関連の位置情報やユーザ特定情報をも、取得又は予め記憶しておいて、撮影画像を主画像都市、送信ユーザ画像と、撮影場所(又は送信場所)周辺の画像、及び受信ユーザ画像、受信場所周辺の画像などを副画像として、MPFの画像データをファイルを生成したり、その画像データを符号化して保存記録できる。   [9] Furthermore, in [8], not only the location information and user identification information related to the transmitting user but also the location information and user identification information related to the receiving user are acquired or stored in advance, and the captured image is mainly stored. Using the image city, the transmission user image, the image around the shooting location (or transmission location), the reception user image, the image around the reception location, etc. as sub-images, a file of MPF image data is generated, or the image data is Encoded and stored.

[10]又は、デーンメール添付で送信されてきた画像データ、あるいは、FaceBook、Flickr,Mixiなど、SNSや画像共有サービス等の仲間や会員から送信されてきた、又は、送信する画像データに対して、サービスや種類に応じて、又はユーザがサービス毎やアドレス毎に設定した設定情報に応じて、所定形式の関連情報を抽出や取得し、それに基づいて、所定の関連画像データを検索や取得して、受信した(又は送信する)撮影画像データを主画像として、それらを追加で取得された画像データを副画像として、MPFの画像データファイルを生成したり、又は1枚の画像中に、それら複数の画像をレイアウトした画像を生成したりして、その画像を符号化して保存記録する。   [10] or image data transmitted with a Dane mail attachment, or image data transmitted or transmitted from a friend or member of an SNS or image sharing service such as FaceBook, Flickr, Mixi, etc. In accordance with the service and type, or according to the setting information set by the user for each service or each address, the related information in a predetermined format is extracted and acquired, and based on this, the predetermined related image data is searched or acquired. Then, the received (or transmitted) captured image data is used as a main image, and the additional acquired image data is used as a sub-image, or an MPF image data file is generated, or they are included in one image. An image in which a plurality of images are laid out is generated, and the image is encoded and stored and recorded.

以上、この発明の実施形態について説明したが、この発明はこれらに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下に、本願出願時の特許請求の範囲を付記する。
As mentioned above, although embodiment of this invention was described, this invention is not limited to these, The invention described in the claim and its equal range are included.
The claims appended at the time of filing this application will be appended below.

<請求項1>
撮影画像を取得する撮影画像取得手段と、
通信手段と、
この通信手段を介して外部の通信ネットワークに接続し、前記撮影画像取得手段により取得された撮影画像の関連画像の検索指示を検出する指示検出手段と、
この指示検出手段による検索指示の結果として、前記外部の通信ネットワークを介して関連画像を取得する関連画像取得手段と、
この関連画像取得手段によって取得された関連画像を前記撮影画像と関連付けて再生できるよう加工する加工手段と、
を備えることを特徴とする画像加工装置。
<Claim 1>
A captured image acquisition means for acquiring a captured image;
Communication means;
An instruction detection unit that connects to an external communication network via the communication unit and detects a search instruction for a related image of the captured image acquired by the captured image acquisition unit;
As a result of the search instruction by the instruction detection unit, a related image acquisition unit that acquires a related image via the external communication network;
Processing means for processing so that the related image acquired by the related image acquisition means can be reproduced in association with the captured image;
An image processing apparatus comprising:

<請求項2>
前記関連画像取得手段によって取得された関連画像が、出力サイズ又はデータ量が所定の範囲内にあるか否かを判断する判断手段を更に備え、
前記加工手段は、前記判断手段により肯定と判断された関連画像を前記再生手段で再生できるよう加工することを特徴とする請求項1記載の画像加工装置。
<Claim 2>
The related image acquired by the related image acquisition means further comprises a determination means for determining whether the output size or the data amount is within a predetermined range,
The image processing apparatus according to claim 1, wherein the processing unit processes the related image determined to be positive by the determination unit so that the reproduction unit can reproduce the related image.

<請求項3>
前記再生手段は表示手段を含み、
この表示手段の表示性能を取得する表示性能取得手段を更に備え、
前記加工手段は、前記表示性能取得手段によって取得された表示性能に基づいて前記関連画像を加工することを特徴とする請求項1又は2記載の画像加工装置。
<Claim 3>
The reproduction means includes display means,
It further comprises display performance acquisition means for acquiring the display performance of this display means,
The image processing apparatus according to claim 1, wherein the processing unit processes the related image based on the display performance acquired by the display performance acquisition unit.

<請求項4>
前記関連画像取得手段が前記関連画像を複数取得する場合、前記加工手段は、前記取得された複数の関連画像をマルチ表示できるように加工することを特徴とする請求項3記載の画像加工装置。
<Claim 4>
The image processing apparatus according to claim 3, wherein when the related image acquisition unit acquires a plurality of the related images, the processing unit processes the acquired plurality of related images so that they can be multi-displayed.

<請求項5>
前記関連画像取得手段が前記検索結果を複数取得する場合、前記加工手段は、前記取得された個数に応じたマルチ表示ができるように前記関連画像を加工することを特徴とする請求項3記載の画像加工装置。
<Claim 5>
4. The method according to claim 3, wherein when the related image acquisition unit acquires a plurality of the search results, the processing unit processes the related image so that multi-display according to the acquired number can be performed. Image processing device.

<請求項6>
前記加工手段は、前記撮像画像を表示レイアウトに加えた上でマルチ表示ができるように前記撮影画像と前記関連画像とを加工することを特徴とする請求項4又は5記載の画像加工装置。
<Claim 6>
The image processing apparatus according to claim 4, wherein the processing unit processes the captured image and the related image so that multi-display can be performed after adding the captured image to a display layout.

<請求項7>
前記撮影画像には撮影位置を示す撮影位置情報が関連付けられており、
前記指示検出手段は、前記撮影位置情報に基づいた前記撮影画像の関連画像の検索指示を検出することを特徴とする請求項1から6にいずれか記載の画像加工装置。
<Claim 7>
Shooting position information indicating the shooting position is associated with the shot image,
The image processing apparatus according to claim 1, wherein the instruction detection unit detects a search instruction for a related image of the photographed image based on the photographing position information.

<請求項8>
前記撮像画像に含まれる主要被写体の所在位置情報を取得する所在地情報取得手段を更に備え、
前記指示検出手段は、前記所在地情報に基づいた前記撮影画像の関連画像の検索指示を検出することを特徴とする請求項1から6にいずれか記載の画像加工装置。
<Claim 8>
Further comprising location information acquisition means for acquiring location information of the main subject included in the captured image,
The image processing apparatus according to claim 1, wherein the instruction detection unit detects a search instruction for a related image of the captured image based on the location information.

<請求項9>
前記撮影画像には撮影日時を示す撮影日時情報が関連付けられており、
前記指示検出手段は、前記撮影日時情報に基づいた前記撮影画像の関連画像の検索指示を検出することを特徴とする請求項1から6にいずれか記載の画像加工装置。
<Claim 9>
The shooting image is associated with shooting date / time information indicating the shooting date / time,
The image processing apparatus according to claim 1, wherein the instruction detection unit detects a search instruction for a related image of the captured image based on the shooting date and time information.

<請求項10>
前記撮像画像に含まれる主要被写体そのものを前記撮影画像に関連する情報とし、前記指示検出手段は、この情報に基づいた前記撮影画像の関連画像の検索指示を検出することを特徴とする請求項1から6にいずれか記載の画像加工装置。
<Claim 10>
2. The main subject itself included in the captured image is information related to the captured image, and the instruction detection unit detects a search instruction for a related image of the captured image based on the information. 7. The image processing device according to any one of items

<請求項11>
前記主要被写体は、人物の顔であることを特徴とする請求項10記載の画像加工装置。
<Claim 11>
The image processing apparatus according to claim 10, wherein the main subject is a human face.

<請求項12>
前記撮像画像には撮影条件を示す撮影条件情報が関連付けられており、
前記指示検出手段は、前記撮影条件情報に基づいた前記撮影画像の関連画像の検索指示を検出することを特徴とする請求項1から6にいずれか記載の画像加工装置。
<Claim 12>
The captured image is associated with shooting condition information indicating a shooting condition,
The image processing apparatus according to claim 1, wherein the instruction detection unit detects a search instruction for a related image of the photographed image based on the photographing condition information.

<請求項13>
前記加工手段は、主画像を前記撮像画像、副画像を前記関連画像としたファイル形式のデータに加工することを特徴とする請求項1から12にいずれか記載の撮像装置。
<Claim 13>
The imaging apparatus according to claim 1, wherein the processing unit processes data in a file format in which a main image is the captured image and a sub-image is the related image.

<請求項14>
通信手段及び再生手段と有する装置を用いる画像処理方法であって、
この通信手段を介して外部の通信ネットワークに接続し、前記予め取得した撮影画像について関連画像の検索指示を検出する指示検出ステップと、
この指示検出ステップでの検索指示の結果として、前記外部の通信ネットワークを介して関連画像を取得する関連画像取得ステップと、
この関連画像取得ステップにて取得された関連画像を前記撮影画像と関連付けて再生できるよう加工する加工ステップと、
を含むことを特徴とする画像加工方法。
<Claim 14>
An image processing method using an apparatus having a communication unit and a reproduction unit,
An instruction detection step of connecting to an external communication network via this communication means and detecting a search instruction for a related image for the captured image acquired in advance,
As a result of the search instruction in this instruction detection step, a related image acquisition step of acquiring a related image via the external communication network;
A processing step for processing the related image acquired in the related image acquisition step so that the related image can be reproduced in association with the captured image;
An image processing method comprising:

<請求項15>
通信手段、及び再生手段を備える装置が有するコンピュータを、
この通信手段を介して外部の通信ネットワークに接続し、前記予め取得した撮影画像について関連画像の検索指示を検出する指示検出手段、
この指示検出ステップにおける検索指示の結果として、前記外部の通信ネットワークを介して関連画像を取得する関連画像取得手段、
この関連画像取得手段によって取得された関連画像を前記撮影画像と関連付けて再生できるよう加工する加工手段、
として機能させることを特徴とするプログラム。
<Claim 15>
A computer included in an apparatus including a communication unit and a reproduction unit,
An instruction detection unit for connecting to an external communication network via the communication unit and detecting a search instruction for a related image for the captured image acquired in advance;
As a result of the search instruction in this instruction detection step, related image acquisition means for acquiring a related image via the external communication network,
Processing means for processing the related image acquired by the related image acquisition means so as to be reproduced in association with the captured image;
A program characterized by functioning as

1 スマートフォン
2 デジタルカメラ
3 PC
10 画像検索サイト
11 サービスサーバー
202 CPU
230 外部メモリ
240 表示部
250 GPS部
260 撮像部
302 CPU
304 プログラムメモリ
330 外部メモリ
340 表示部
350 GPS部
356 入力部
360 撮像部
360 通信I/F
500 インターネット
2041 制御プログラム
2042 アプリケーションプログラム
3041 制御プログラム
3042 アプリケーションプログラム
1 Smartphone 2 Digital camera 3 PC
10 Image Search Site 11 Service Server 202 CPU
230 External Memory 240 Display Unit 250 GPS Unit 260 Imaging Unit 302 CPU
304 Program memory 330 External memory 340 Display unit 350 GPS unit 356 Input unit 360 Imaging unit 360 Communication I / F
500 Internet 2041 Control Program 2042 Application Program 3041 Control Program 3042 Application Program

Claims (15)

撮影画像を取得する撮影画像取得手段と、
通信手段と、
この通信手段を介して外部の通信ネットワークに接続し、前記撮影画像取得手段により取得された撮影画像の関連画像の検索指示を検出する指示検出手段と、
この指示検出手段による検索指示の結果として、前記外部の通信ネットワークを介して関連画像を取得する関連画像取得手段と、
この関連画像取得手段によって取得された関連画像を前記撮影画像と関連付けて再生できるよう加工する加工手段と、
を備えることを特徴とする画像加工装置。
A captured image acquisition means for acquiring a captured image;
Communication means;
An instruction detection unit that connects to an external communication network via the communication unit and detects a search instruction for a related image of the captured image acquired by the captured image acquisition unit;
As a result of the search instruction by the instruction detection unit, a related image acquisition unit that acquires a related image via the external communication network;
Processing means for processing so that the related image acquired by the related image acquisition means can be reproduced in association with the captured image;
An image processing apparatus comprising:
前記関連画像取得手段によって取得された関連画像が、出力サイズ又はデータ量が所定の範囲内にあるか否かを判断する判断手段を更に備え、
前記加工手段は、前記判断手段により肯定と判断された関連画像を前記再生手段で再生できるよう加工することを特徴とする請求項1記載の画像加工装置。
The related image acquired by the related image acquisition means further comprises a determination means for determining whether the output size or the data amount is within a predetermined range,
The image processing apparatus according to claim 1, wherein the processing unit processes the related image determined to be positive by the determination unit so that the reproduction unit can reproduce the related image.
前記再生手段は表示手段を含み、
この表示手段の表示性能を取得する表示性能取得手段を更に備え、
前記加工手段は、前記表示性能取得手段によって取得された表示性能に基づいて前記関連画像を加工することを特徴とする請求項1又は2記載の画像加工装置。
The reproduction means includes display means,
It further comprises display performance acquisition means for acquiring the display performance of this display means,
The image processing apparatus according to claim 1, wherein the processing unit processes the related image based on the display performance acquired by the display performance acquisition unit.
前記関連画像取得手段が前記関連画像を複数取得する場合、前記加工手段は、前記取得された複数の関連画像をマルチ表示できるように加工することを特徴とする請求項3記載の画像加工装置。   The image processing apparatus according to claim 3, wherein when the related image acquisition unit acquires a plurality of the related images, the processing unit processes the acquired plurality of related images so that they can be multi-displayed. 前記関連画像取得手段が前記検索結果を複数取得する場合、前記加工手段は、前記取得された個数に応じたマルチ表示ができるように前記関連画像を加工することを特徴とする請求項3記載の画像加工装置。   4. The method according to claim 3, wherein when the related image acquisition unit acquires a plurality of the search results, the processing unit processes the related image so that multi-display according to the acquired number can be performed. Image processing device. 前記加工手段は、前記撮像画像を表示レイアウトに加えた上でマルチ表示ができるように前記撮影画像と前記関連画像とを加工することを特徴とする請求項4又は5記載の画像加工装置。   The image processing apparatus according to claim 4, wherein the processing unit processes the captured image and the related image so that multi-display can be performed after adding the captured image to a display layout. 前記撮影画像には撮影位置を示す撮影位置情報が関連付けられており、
前記指示検出手段は、前記撮影位置情報に基づいた前記撮影画像の関連画像の検索指示を検出することを特徴とする請求項1から6にいずれか記載の画像加工装置。
Shooting position information indicating the shooting position is associated with the shot image,
The image processing apparatus according to claim 1, wherein the instruction detection unit detects a search instruction for a related image of the photographed image based on the photographing position information.
前記撮像画像に含まれる主要被写体の所在位置情報を取得する所在地情報取得手段を更に備え、
前記指示検出手段は、前記所在地情報に基づいた前記撮影画像の関連画像の検索指示を検出することを特徴とする請求項1から6にいずれか記載の画像加工装置。
Further comprising location information acquisition means for acquiring location information of the main subject included in the captured image,
The image processing apparatus according to claim 1, wherein the instruction detection unit detects a search instruction for a related image of the captured image based on the location information.
前記撮影画像には撮影日時を示す撮影日時情報が関連付けられており、
前記指示検出手段は、前記撮影日時情報に基づいた前記撮影画像の関連画像の検索指示を検出することを特徴とする請求項1から6にいずれか記載の画像加工装置。
The shooting image is associated with shooting date / time information indicating the shooting date / time,
The image processing apparatus according to claim 1, wherein the instruction detection unit detects a search instruction for a related image of the captured image based on the shooting date and time information.
前記撮像画像に含まれる主要被写体そのものを前記撮影画像に関連する情報とし、前記指示検出手段は、この情報に基づいた前記撮影画像の関連画像の検索指示を検出することを特徴とする請求項1から6にいずれか記載の画像加工装置。   2. The main subject itself included in the captured image is information related to the captured image, and the instruction detection unit detects a search instruction for a related image of the captured image based on the information. 6. The image processing device according to any one of items 6 to 6. 前記主要被写体は、人物の顔であることを特徴とする請求項10記載の画像加工装置。   The image processing apparatus according to claim 10, wherein the main subject is a human face. 前記撮像画像には撮影条件を示す撮影条件情報が関連付けられており、
前記指示検出手段は、前記撮影条件情報に基づいた前記撮影画像の関連画像の検索指示を検出することを特徴とする請求項1から6にいずれか記載の画像加工装置。
The captured image is associated with shooting condition information indicating a shooting condition,
The image processing apparatus according to claim 1, wherein the instruction detection unit detects a search instruction for a related image of the photographed image based on the photographing condition information.
前記加工手段は、主画像を前記撮像画像、副画像を前記関連画像としたファイル形式のデータに加工することを特徴とする請求項1から12にいずれか記載の撮像装置。   The imaging apparatus according to claim 1, wherein the processing unit processes data in a file format in which a main image is the captured image and a sub-image is the related image. 通信手段及び再生手段と有する装置を用いる画像処理方法であって、
この通信手段を介して外部の通信ネットワークに接続し、前記予め取得した撮影画像について関連画像の検索指示を検出する指示検出ステップと、
この指示検出ステップでの検索指示の結果として、前記外部の通信ネットワークを介して関連画像を取得する関連画像取得ステップと、
この関連画像取得ステップにて取得された関連画像を前記撮影画像と関連付けて再生できるよう加工する加工ステップと、
を含むことを特徴とする画像加工方法。
An image processing method using an apparatus having a communication unit and a reproduction unit,
An instruction detection step of connecting to an external communication network via this communication means and detecting a search instruction for a related image for the captured image acquired in advance,
As a result of the search instruction in this instruction detection step, a related image acquisition step of acquiring a related image via the external communication network;
A processing step for processing the related image acquired in the related image acquisition step so that the related image can be reproduced in association with the captured image;
An image processing method comprising:
通信手段、及び再生手段を備える装置が有するコンピュータを、
この通信手段を介して外部の通信ネットワークに接続し、前記予め取得した撮影画像について関連画像の検索指示を検出する指示検出手段、
この指示検出ステップにおける検索指示の結果として、前記外部の通信ネットワークを介して関連画像を取得する関連画像取得手段、
この関連画像取得手段によって取得された関連画像を前記撮影画像と関連付けて再生できるよう加工する加工手段、
として機能させることを特徴とするプログラム。
A computer included in an apparatus including a communication unit and a reproduction unit,
An instruction detection unit for connecting to an external communication network via the communication unit and detecting a search instruction for a related image for the captured image acquired in advance;
As a result of the search instruction in this instruction detection step, related image acquisition means for acquiring a related image via the external communication network,
Processing means for processing the related image acquired by the related image acquisition means so as to be reproduced in association with the captured image;
A program characterized by functioning as
JP2012199064A 2012-09-11 2012-09-11 Image processing apparatus, image processing method, and program Expired - Fee Related JP6089515B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012199064A JP6089515B2 (en) 2012-09-11 2012-09-11 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012199064A JP6089515B2 (en) 2012-09-11 2012-09-11 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2014057118A true JP2014057118A (en) 2014-03-27
JP6089515B2 JP6089515B2 (en) 2017-03-08

Family

ID=50614102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012199064A Expired - Fee Related JP6089515B2 (en) 2012-09-11 2012-09-11 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6089515B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012814A (en) * 2014-06-27 2016-01-21 オリンパス株式会社 Display device, display system, display method and display program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092835A (en) * 1999-09-21 2001-04-06 Minolta Co Ltd Device and system for recording and reproducing picture
JP2006035611A (en) * 2004-07-27 2006-02-09 Seiko Epson Corp Printing of image
JP2008182544A (en) * 2007-01-25 2008-08-07 Sony Corp Image storage device, and image storage method
JP2009171437A (en) * 2008-01-18 2009-07-30 Olympus Imaging Corp Multi-image file creating method and multi-image file editing method
JP2010176346A (en) * 2009-01-29 2010-08-12 Sony Corp Imaging device, retrieval method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092835A (en) * 1999-09-21 2001-04-06 Minolta Co Ltd Device and system for recording and reproducing picture
JP2006035611A (en) * 2004-07-27 2006-02-09 Seiko Epson Corp Printing of image
JP2008182544A (en) * 2007-01-25 2008-08-07 Sony Corp Image storage device, and image storage method
JP2009171437A (en) * 2008-01-18 2009-07-30 Olympus Imaging Corp Multi-image file creating method and multi-image file editing method
JP2010176346A (en) * 2009-01-29 2010-08-12 Sony Corp Imaging device, retrieval method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012814A (en) * 2014-06-27 2016-01-21 オリンパス株式会社 Display device, display system, display method and display program

Also Published As

Publication number Publication date
JP6089515B2 (en) 2017-03-08

Similar Documents

Publication Publication Date Title
US7844611B2 (en) Time-shift image distribution system, time-shift image distribution method, time-shift image requesting apparatus, and image server
US8356033B2 (en) Album system, photographing device, and server
JP4341656B2 (en) Content management apparatus, web server, network system, content management method, content information management method, and program
KR100649040B1 (en) Method of managing·browsing image data
JP2015220616A (en) Electronic apparatus
JP2012247841A (en) Neighboring person specifying apparatus, neighboring person specifying method, neighboring person specifying program, and neighboring person specifying system
KR20120017172A (en) Apparatus and method for controlling power in portable terminal when a geotagging
JP2012247840A (en) Neighboring person specifying apparatus, neighboring person specifying method, neighboring person specifying program, and neighboring person specifying system
KR20050094041A (en) Adding metadata to pictures
JP2010176287A (en) Portable equipment, method for controlling portable equipment, and program for controlling portable equipment
JP2009134333A (en) Digital photograph sharing system device
JP2015018421A (en) Terminal device, contribution information transmission method, contribution information transmission program, and contribution information sharing system
JP2012253421A (en) Image display device, imaging apparatus, and image display program
JP6089515B2 (en) Image processing apparatus, image processing method, and program
JP2008085408A (en) System of adding information to photographed image
US20230179811A1 (en) Information processing apparatus, information processing method, imaging apparatus, and image transfer system
JP6844139B2 (en) Imaging device, system
JP7279416B2 (en) Intermediary terminal, communication system, input system, intermediary control method, and program
JP2014106695A (en) Information processor
JP2012199811A (en) Information terminal device, transmission method, and program
US8824854B2 (en) Method and arrangement for transferring multimedia data
JP4851395B2 (en) Imaging apparatus and image communication system
JP6977847B2 (en) Image management device, image management method and program
JP5467092B2 (en) Imaging apparatus and image designation method
KR102172588B1 (en) Moving picture album production method and system for exhibition hall spectator

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170123

R150 Certificate of patent or registration of utility model

Ref document number: 6089515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees