JP6450070B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP6450070B2
JP6450070B2 JP2013251338A JP2013251338A JP6450070B2 JP 6450070 B2 JP6450070 B2 JP 6450070B2 JP 2013251338 A JP2013251338 A JP 2013251338A JP 2013251338 A JP2013251338 A JP 2013251338A JP 6450070 B2 JP6450070 B2 JP 6450070B2
Authority
JP
Japan
Prior art keywords
image
shooting
display
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013251338A
Other languages
Japanese (ja)
Other versions
JP2015109553A (en
Inventor
久人 寛司
久人 寛司
克朗 伊奈
克朗 伊奈
直季 亀山
直季 亀山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013251338A priority Critical patent/JP6450070B2/en
Publication of JP2015109553A publication Critical patent/JP2015109553A/en
Application granted granted Critical
Publication of JP6450070B2 publication Critical patent/JP6450070B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、撮影した画像を活用するための技術に関する。   The present invention relates to a technique for utilizing captured images.

撮影した画像を活用するための技術がある。例えば、撮影した画像をSNS(Social Networking Service)に投稿し、他のユーザと共有するという技術がある。他にも、非特許文献1には、対象を撮影すると、撮影された画像から対象の名前や関連することを検索する技術が記載されている。   There is a technology for utilizing the captured image. For example, there is a technique of posting a photographed image to SNS (Social Networking Service) and sharing it with other users. In addition, Non-Patent Document 1 describes a technique for searching for the name of an object and related information from the captured image when the object is imaged.

APPBANK、“CamFind:カメラで撮った写真から画像検索ができるアプリ。”、[online]、[平成25年10月30日検索]、インターネット、<URL: http://www.appbank.net/2013/08/31/iphone-application/659436.php >APPBANK, “CamFind: An application that allows you to search for images from photos taken with a camera.”, [Online], [October 30, 2013 search], Internet, <URL: http://www.appbank.net/2013 /08/31/iphone-application/659436.php>

画像を共有する上記の技術では、例えばブラウザ等を起動してSNSにアクセスし、記憶されている画像群から投稿する画像を選択する操作を行ったり、撮影した画像が表示されている状態で画像をSNSに投稿するためのプログラムを起動してその画像を投稿する操作を行ったりする必要がある。また、非特許文献1の技術では、例えば画像を撮影する前に特定のプログラムを起動する操作を行って、そのプログラムの機能により画像を撮影する必要がある。   In the above-described technology for sharing an image, for example, a browser or the like is activated to access the SNS, and an operation for selecting an image to be posted from a stored image group is performed, or a captured image is displayed. It is necessary to start a program for posting the image to the SNS and perform an operation of posting the image. Further, in the technique of Non-Patent Document 1, it is necessary to perform an operation of starting a specific program before taking an image, and take an image using the function of the program.

このように、画像を活用するための技術が複数ある場合に、用いる技術によって異なる手順の操作を行っていては、ユーザにとって煩雑であり、その煩雑さのためにそれらの技術が利用されにくくなるといったことが起こり得る。
そこで、本発明は、画像を活用するための複数の技術を利用しやすくすることを目的とする。
As described above, when there are a plurality of techniques for utilizing images, it is cumbersome for the user to operate different procedures depending on the technique used, and these techniques are difficult to use due to the complexity. It can happen.
Therefore, an object of the present invention is to make it easy to use a plurality of techniques for utilizing images.

上記目的を達成するために、本発明は、画像を表示する表示手段と、撮影対象を含む画像を撮像する撮像素子と、前記撮像素子により撮像されている画像と、当該画像を示す画像データを用いて実行可能な複数の第1処理の各々に対応する複数の操作子とを前記表示手段に表示させる表示制御手段と、前記表示手段に表示された前記複数の操作子のうちのいずれか1つの操作子が操作された場合に、前記撮像素子により撮像されている画像を示す画像データを記憶手段に記憶させる第2処理を実行し、記憶された前記画像データを用いて当該1つの操作子に対応する前記第1処理を実行する実行手段とを備え、前記表示制御手段は、前記記憶手段に記憶されている前記画像データが示す画像のサムネイル画像に、当該画像データを用いて前記実行手段により実行された前記第1処理を表す処理画像を重ねて前記表示手段に表示させ、前記表示制御手段は、前記処理画像が示す第1処理を変更する操作を受け付ける変更操作子を前記サムネイル画像または当該サムネイル画像の元の画像に重ねて前記表示手段に表示させ、前記実行手段は、前記変更操作子への操作が行われた場合に、当該処理画像が対応付けられている画像データを用いて変更後の前記第1処理を実行する撮影装置を提供する。 In order to achieve the above object, the present invention provides display means for displaying an image, an image pickup device for picking up an image including a shooting target, an image picked up by the image pickup device, and image data indicating the image. One of the display control means for causing the display means to display a plurality of operators corresponding to each of a plurality of first processes that can be executed using the display means, and the plurality of operators displayed on the display means When one operator is operated, a second process of storing image data indicating an image captured by the image sensor in the storage unit is executed, and the one operator is used using the stored image data. and a execution means for executing the first process corresponding to the display control means, thumbnail images of the image data is image showing stored in the storage means, wherein by using the image data A processing image representing the first process executed by the line unit is superimposed on the display unit and displayed on the display unit, and the display control unit displays a change operation element that receives an operation for changing the first process indicated by the process image as the thumbnail. An image or an original image of the thumbnail image is displayed on the display unit, and the execution unit displays image data associated with the processed image when an operation is performed on the change operator. An imaging apparatus is provided that executes the first process after the change .

また、前記複数の第1処理の各々について、前記撮像素子により撮像されている画像に含まれる撮影対象との関連性の高さを3段階以上で示す関連度を判定する判定手段を備え、
前記表示制御手段は、前記判定手段により判定された結果に応じた位置または態様で前記複数の操作子を表示させてもよい。
さらに、前記判定手段は、前記撮像素子により撮像されている画像に含まれる前記撮影対象の種類に基づいて前記関連度を判定してもよい。
In addition, for each of the plurality of first processes, a determination unit that determines a degree of relevance that indicates the degree of relevance with a shooting target included in an image captured by the image sensor in three or more stages ,
The display control means may display the plurality of operators at positions or modes corresponding to the result determined by the determination means.
Furthermore, the determination unit may determine the degree of association based on a type of the shooting target included in an image captured by the image sensor.

また、自装置の位置を測定する測位手段を備え、前記判定手段は、前記測位手段により測定された位置に基づいて前記関連度を判定してもよい。
さらに、前記判定手段は、前記実行手段により過去に実行された前記第1処理の傾向に基づいて前記関連度を判定してもよい。
In addition, a positioning unit that measures the position of the device itself may be provided, and the determination unit may determine the degree of association based on the position measured by the positioning unit.
Furthermore, the determination unit may determine the degree of association based on a tendency of the first process executed in the past by the execution unit.

また、前記実行手段は、複数の前記操作子が操作された場合には、当該複数の操作子に対応する複数の第1処理を、当該操作が開始された順番または当該操作が終了した順番に応じた順番で、先の前記第1処理の実行を開始してから所定の時間が経過したときに後の前記第1処理の実行を開始してもよい。
さらに、前記撮像素子により撮像されている画像には複数の撮影対象が含まれており、前記表示制御手段は、ユーザが前記操作子を移動させる移動操作を行った場合に、当該操作子を当該移動操作に応じて移動させながら表示させ、前記実行手段は、前記移動操作が終了したときに移動させられた前記操作子と重なって表示されている前記撮影対象の輪郭を抽出して当該輪郭を含む部分を抜き出した画像を示す画像データを用いて前記第1処理を実行してもよい。
Further, when a plurality of the operators are operated, the execution means performs a plurality of first processes corresponding to the plurality of operators in the order in which the operations are started or the order in which the operations are completed. In accordance with the order, the execution of the first process may be started when a predetermined time has elapsed since the execution of the first process was started .
Further, the image captured by the imaging element includes a plurality of shooting targets, and the display control unit moves the operation element when the user performs a moving operation to move the operation element. The execution means displays the outline of the object to be imaged that is displayed so as to overlap the operation element that is moved when the movement operation is completed, and displays the outline. The first process may be executed using image data indicating an image obtained by extracting a portion to be included.

また、本発明は、画像を表示する表示手段と、撮影対象を含む画像を撮像する撮像素子とを備える撮影装置が、前記撮像素子により撮像されている画像と、当該画像を示す画像データを用いて実行可能な複数の第1処理の各々に対応する複数の操作子とを前記表示手段に表示させる表示制御ステップと、前記撮影装置が、前記表示手段に表示された前記複数の操作子のうちのいずれか1つの操作子が操作された場合に、前記撮像素子により撮像されている画像を示す画像データを記憶手段に記憶させる第2処理を実行し、記憶された前記画像データを用いて当該1つの操作子に対応する前記第1処理を実行する実行ステップとを備え、前記撮影装置が、前記表示制御ステップにおいて、前記記憶手段に記憶されている前記画像データが示す画像のサムネイル画像に、当該画像データを用いて前記実行ステップにおいて実行された前記第1処理を表す処理画像を重ねて前記表示手段に表示させ、前記撮影装置が、前記表示制御ステップにおいて、前記処理画像が示す第1処理を変更する操作を受け付ける変更操作子を前記サムネイル画像または当該サムネイル画像の元の画像に重ねて前記表示手段に表示させ、前記撮影装置が、前記実行ステップにおいて、前記変更操作子への操作が行われた場合に、当該処理画像が対応付けられている画像データを用いて変更後の前記第1処理を実行する撮影方法を提供する。 Further, according to the present invention, an imaging device including a display unit that displays an image and an imaging element that captures an image including an imaging target uses an image captured by the imaging element and image data indicating the image. A display control step for causing the display means to display a plurality of operators corresponding to each of a plurality of first processes that can be executed, and the photographing apparatus includes a plurality of operators displayed on the display means. When any one of the operating elements is operated, a second process for storing image data indicating an image captured by the image sensor in a storage unit is executed, and the stored image data is used to perform the second process. and a execution step of executing the first process corresponding to a single operator, the field of the imaging device, in the display control step, said indicating the image data stored in the storage means A processing image representing the first processing executed in the execution step using the image data is superimposed on the thumbnail image and displayed on the display means, and the photographing device performs the processing image in the display control step. A change operator that accepts an operation to change the first process indicated by is displayed on the display unit so as to be superimposed on the thumbnail image or the original image of the thumbnail image, and the photographing apparatus performs the change operator in the execution step. When the operation is performed, there is provided an imaging method for executing the first process after the change using image data associated with the processed image .

本発明によれば、画像を活用するための複数の技術を利用しやすくすることができる。   According to the present invention, it is possible to easily use a plurality of techniques for utilizing an image.

第1実施形態の情報処理システムの全体構成の一例を示す図The figure which shows an example of the whole structure of the information processing system of 1st Embodiment 撮影装置のハードウェア構成の一例を示す図The figure which shows an example of the hardware constitutions of an imaging device 撮影装置の機能構成の一例を示す図The figure which shows an example of a function structure of an imaging device 表示された複数の操作子の一例を示す図The figure which shows an example of a plurality of displayed controls 撮影後処理が実行されたあとに表示される画像の一例を示す図The figure which shows an example of the image displayed after a photography post-process is performed 撮影処理における撮影装置の動作の一例を示すフロー図Flow chart showing an example of the operation of the photographing apparatus in the photographing process 第2実施形態の撮影装置のハードウェア構成の一例を示す図The figure which shows an example of the hardware constitutions of the imaging device of 2nd Embodiment. 撮影装置の機能構成の一例を示す図The figure which shows an example of a function structure of an imaging device 第1処理関連度テーブルの一例を示す図The figure which shows an example of a 1st process relevance table 第2処理関連度テーブルの一例を示す図The figure which shows an example of a 2nd process relevance degree table 第3処理関連度テーブルの一例を示す図The figure which shows an example of a 3rd process relevance table 表示された複数の操作子の一例を示す図The figure which shows an example of a plurality of displayed controls 第3実施形態において表示される複数の操作子の一例を示す図The figure which shows an example of the several operation element displayed in 3rd Embodiment 表示された処理結果画像の一例を示す図The figure which shows an example of the displayed process result image 複数の撮影対象を含む画像の一例を示す図The figure which shows an example of the image containing several imaging | photography object 変形例の操作子の一例を示す図The figure which shows an example of the operation element of a modification

[1]第1実施形態
[1−1]全体構成
図1は、第1実施形態の情報処理システムの全体構成の一例を示す図である。この例では、撮影装置10と、SNSサーバ装置21と、関連検索サーバ装置22と、周辺検索サーバ装置23と、これらの装置が接続されているネットワーク2とを備える情報処理システム1が示されている。ネットワーク2は、インターネット及び移動体通信網等を含んで通信を行うシステムであり、自システムに接続されている装置同士のデータのやり取りを仲介する。
[1] First Embodiment [1-1] Overall Configuration FIG. 1 is a diagram illustrating an example of the overall configuration of an information processing system according to a first embodiment. In this example, an information processing system 1 including an imaging device 10, an SNS server device 21, a related search server device 22, a peripheral search server device 23, and a network 2 to which these devices are connected is shown. Yes. The network 2 is a system that performs communication including the Internet and a mobile communication network, and mediates exchange of data between devices connected to the system.

撮影装置10は、対象を撮影し、撮影した撮影対象を含む画像を示す画像データ(以下「撮影画像データ」という)を生成する装置である。撮影装置10は、例えばデジタルカメラやスマートフォンなどであり、本実施形態ではスマートフォンである。撮影装置10は、生成した撮影画像データに対して実行可能な複数の処理を実行する。これらの処理は、画像が撮影された後に行われる処理であり、以下では「撮影後処理」という。   The imaging device 10 is an apparatus that captures an object and generates image data (hereinafter referred to as “captured image data”) indicating an image including the captured object. The imaging device 10 is, for example, a digital camera or a smartphone, and is a smartphone in this embodiment. The imaging device 10 executes a plurality of processes that can be executed on the generated captured image data. These processes are performed after an image is captured, and are hereinafter referred to as “post-imaging processing”.

複数の撮影後処理とは、例えば、撮影画像データをSNSに投稿するための投稿処理、撮影対象に関する情報を検索する(これを「関連検索を行う」という)ための関連検索処理、撮影対象の所在地の周辺に関する情報を検索する(これを「周辺検索を行う」という)ための周辺検索処理などの処理である。撮影装置10は、本実施形態では、投稿、関連検索及び周辺検索といった動作そのものを行うのではなく、それらの動作を行うサーバ装置に対して撮影画像データを送信し、送信した撮影画像データを用いてそれらの動作を行うように要求する処理を撮影後処理として実行する。   The multiple post-shooting processes include, for example, a posting process for posting shot image data to the SNS, a related search process for searching for information related to a shooting target (this is referred to as “related search”), This is processing such as peripheral search processing for searching for information related to the vicinity of the location (this is referred to as “perform peripheral search”). In this embodiment, the imaging device 10 does not perform operations such as posting, related search, and surrounding search, but transmits captured image data to a server device that performs these operations, and uses the transmitted captured image data. Then, the processing that requests to perform these operations is executed as post-shooting processing.

SNSサーバ装置21は、ユーザにSNSを提供するコンピュータであり、例えば撮影装置10から送信されてきた撮影画像データをSNSに投稿する。関連検索サーバ装置22は、前述した関連検索を行うコンピュータであり、例えば撮影装置10から送信されてきた撮影画像データを用いて関連検索を行う。周辺検索サーバ装置23は、前述した周辺検索を行うコンピュータであり、例えば撮影装置10から送信されてきた撮影画像データを用いて周辺検索を行う。なお、これらのサーバ装置は、クラウドコンピューティングの形態で投稿、関連検索及び周辺検索といった動作を行ってもよい。   The SNS server device 21 is a computer that provides an SNS to a user, and posts, for example, photographed image data transmitted from the photographing device 10 to the SNS. The related search server device 22 is a computer that performs the above-described related search. For example, the related search server device 22 performs a related search using the captured image data transmitted from the image capturing device 10. The peripheral search server device 23 is a computer that performs the peripheral search described above. For example, the peripheral search server device 23 performs a peripheral search using photographed image data transmitted from the photographing device 10. These server devices may perform operations such as posting, related search, and peripheral search in the form of cloud computing.

[1−2]ハードウェア構成
図2は、撮影装置10のハードウェア構成の一例を示す図である。撮影装置10は、制御部11と、記憶部12と、通信部13と、表示部14と、操作部15と、撮像素子16とを備えるコンピュータである。制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)及びリアルタイムクロックを備え、CPUが、RAMをワークエリアとして用いてROMや記憶部12に記憶されたプログラムを実行することによって各部の動作を制御する。リアルタイムクロックは、現在の日時を算出してCPUに通知する。
[1-2] Hardware Configuration FIG. 2 is a diagram illustrating an example of a hardware configuration of the imaging apparatus 10. The imaging device 10 is a computer that includes a control unit 11, a storage unit 12, a communication unit 13, a display unit 14, an operation unit 15, and an image sensor 16. The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and a real time clock. The CPU is stored in the ROM or the storage unit 12 using the RAM as a work area. The operation of each part is controlled by executing a program. The real time clock calculates the current date and time and notifies the CPU.

記憶部12は、フラッシュメモリ等を備え、制御部11が制御に用いるデータやプログラムを記憶する他、自装置が撮影した画像の画像データを記憶する記憶手段として機能する。通信部13は、通信を行うための通信回路を備え、ネットワーク2を介したデータのやり取りを行う通信手段である。表示部14は、例えば液晶ディスプレイ等を有し、制御部11からの制御に基づいて画像を表示する表示手段である。表示部14は、制御部11の制御により、自装置を操作するための操作子を表示する。   The storage unit 12 includes a flash memory and the like, and functions as a storage unit that stores data and programs used for control by the control unit 11 and stores image data of an image captured by the own device. The communication unit 13 includes a communication circuit for performing communication, and is a communication unit that exchanges data via the network 2. The display unit 14 includes a liquid crystal display, for example, and is a display unit that displays an image based on control from the control unit 11. The display unit 14 displays an operator for operating the own device under the control of the control unit 11.

操作部15は、表示部14の液晶ディスプレイに重ねて設けられた透過型のタッチスクリーンを有し、タッチスクリーンが物体の接触または近接を検知した位置を示す位置データを制御部11に供給する。この位置データが示す位置の変化の仕方によって、タップ、ダブルタップ、ロングタップ(長押し)、ドラッグ&ドロップなどの操作が表される。制御部11は、操作子が表示されている位置に対してタップ等の操作が行われたことを示す位置データが供給されると、その操作子に応じた処理を行う。   The operation unit 15 includes a transmissive touch screen provided on the liquid crystal display of the display unit 14, and supplies position data indicating the position at which the touch screen detects contact or proximity of an object to the control unit 11. Depending on how the position indicated by the position data changes, operations such as tap, double tap, long tap (long press), and drag and drop are represented. When position data indicating that an operation such as a tap has been performed on the position where the operation element is displayed is supplied, the control unit 11 performs processing according to the operation element.

撮像素子16は、レンズを通して到達する撮影対象からの光に基づいて撮影対象を含む画像を撮像する撮像手段である。撮像素子16は、撮像している画像を示す画像データを生成して制御部11に供給する。この画像データは、撮影対象を含む画像を示す撮影画像データである。制御部11が供給された撮影画像データを表示部14に表示させることで、ユーザは撮影対象を確認しながら撮影を行う。制御部11は、画像を撮影するための操作(以下「撮影操作」という)がユーザにより行われると、表示させている画像を示す撮影画像データを記憶手段(本実施形態では記憶部12)に記憶させる。   The imaging element 16 is an imaging unit that captures an image including a shooting target based on light from the shooting target that reaches through the lens. The image sensor 16 generates image data indicating the image being captured and supplies the image data to the control unit 11. This image data is photographed image data indicating an image including a subject to be photographed. By displaying the captured image data supplied by the control unit 11 on the display unit 14, the user performs imaging while confirming the imaging target. When an operation for capturing an image (hereinafter referred to as “imaging operation”) is performed by the user, the control unit 11 stores captured image data indicating the displayed image in a storage unit (storage unit 12 in the present embodiment). Remember.

なお、制御部11は、例えば自装置がSDカード(登録商標)等の外部記憶媒体とのインターフェースを備えていれば、そのインターフェースを介して接続されるSDカード等の記憶手段に撮影画像データを記憶させてもよい。以下では、表示手段に表示されているだけで記憶手段に記憶させられる前の撮影画像データを「撮影前画像データ」といい、撮影操作が行われて記憶手段に記憶させられたあとの撮影画像データを「撮影後画像データ」という。また、どちらのデータでもよいときには単に撮影画像データという。   For example, if the own apparatus has an interface with an external storage medium such as an SD card (registered trademark), the control unit 11 stores the captured image data in a storage unit such as an SD card connected via the interface. It may be memorized. Hereinafter, the captured image data that is displayed on the display unit and is not yet stored in the storage unit is referred to as “pre-photographing image data”, and the captured image after the shooting operation is performed and stored in the storage unit. The data is called “post-shoot image data”. When either data is acceptable, it is simply referred to as photographed image data.

[1−3]機能構成
撮影装置10の制御部11が記憶部12に記憶されているプログラムを実行して各部を制御することで、以下に述べる機能が実現される。
図3は、撮影装置10の機能構成の一例を示す図である。撮影装置10は、表示制御手段101と、実行手段102と、撮像手段(撮像素子16)と、表示手段(表示部14)と、記憶手段(記憶部12)とを備える。
[1-3] Functional Configuration When the control unit 11 of the photographing apparatus 10 executes a program stored in the storage unit 12 and controls each unit, the functions described below are realized.
FIG. 3 is a diagram illustrating an example of a functional configuration of the imaging apparatus 10. The photographing apparatus 10 includes a display control unit 101, an execution unit 102, an imaging unit (imaging element 16), a display unit (display unit 14), and a storage unit (storage unit 12).

[1−3−1]表示制御手段101
表示制御手段101は、撮像素子16により撮像されている画像と複数の操作子とを表示手段(表示部14)に表示させる手段の一例である。詳細には、表示制御手段101は、撮像されている画像を示す撮影画像データに対して実行可能な複数の処理の各々に対応する複数の操作子を表示させる。ここでいう複数の処理は、上述した撮影後処理のことであり、本実施形態では、上述した投稿処理、関連検索処理及び周辺検索処理である。
[1-3-1] Display control means 101
The display control unit 101 is an example of a unit that causes the display unit (display unit 14) to display an image captured by the image sensor 16 and a plurality of controls. Specifically, the display control unit 101 displays a plurality of operators corresponding to each of a plurality of processes that can be executed on captured image data indicating a captured image. The plurality of processes referred to here are post-shooting processes described above, and in the present embodiment, the above-described post process, related search process, and peripheral search process.

図4は、表示された複数の操作子の一例を示す図である。表示制御手段101は、図4の例では、表示部14に操作子A1、A2及びA3を表示させている。操作子A1、A2及びA3は、それぞれ、投稿処理、関連検索処理及び周辺検索処理に対応付けられた操作子である。また、表示制御手段101は、建築物の撮影対象B1を含む画像C1を表示させている。画像C1は、撮像素子16により撮像されている画像である。操作子A1、A2及びA3は、画像C1に重ねられて表示されている。表示制御手段101は、図4に示すように撮像されている画像と複数の操作子とを表示させると、表示部14上で各操作子を表示させている位置(以下「操作子位置」という)を示す操作子位置データを実行手段102に供給する。   FIG. 4 is a diagram illustrating an example of a plurality of displayed controls. In the example of FIG. 4, the display control unit 101 displays the operators A1, A2, and A3 on the display unit 14. The operators A1, A2, and A3 are operators associated with the posting process, the related search process, and the peripheral search process, respectively. Moreover, the display control means 101 displays the image C1 containing the imaging | photography object B1 of a building. The image C1 is an image captured by the image sensor 16. The controls A1, A2, and A3 are displayed superimposed on the image C1. When the display control unit 101 displays the captured image and a plurality of operation elements as shown in FIG. 4, the position of each operation element displayed on the display unit 14 (hereinafter referred to as “operation element position”). Is supplied to the execution means 102.

[1−3−2]実行手段102
実行手段102は、表示手段(表示部14)に表示された操作子が操作された場合に、撮像素子16により撮像されている画像を示す撮影画像データに対してその操作子に対応する撮影後処理を実行する手段の一例である。実行手段102が撮影後処理を実行する撮影画像データは、撮影前画像データでも撮影後画像データでもよい。実行手段102は、撮影前画像データに対して撮影後処理を実行する場合には、例えばRAMに記憶されている撮影前画像データを読み出して撮影後処理を実行し、撮影後画像データに対して撮影後処理を実行する場合には、記憶部12(または外部記憶装置)に記憶された撮影後画像データを読み出して撮影後処理を実行する。
[1-3-2] Execution means 102
When the operation element displayed on the display means (display unit 14) is operated, the execution unit 102 performs post-shooting corresponding to the operation element on the captured image data indicating the image captured by the image sensor 16. It is an example of a means for executing processing. The captured image data for which the execution unit 102 executes post-shooting processing may be pre-shooting image data or post-shooting image data. When executing post-shooting processing on pre-shooting image data, the execution unit 102 reads out pre-shooting image data stored in, for example, a RAM, executes post-shooting processing, and performs post-shooting image data. When the post-shooting process is executed, the post-shooting image data stored in the storage unit 12 (or external storage device) is read and the post-shooting process is executed.

実行手段102は、撮影前画像データを記憶手段に記憶させる処理(以下「記憶処理」という)も実行する。実行手段102が記憶処理を行うことで、撮影対象を含む画像の撮影が行われる。実行手段102は、撮影操作がされた操作子がA1、A2、A3のいずれであっても、撮影操作がされたときに記憶処理を実行する。本実施形態では、操作子をタップする操作が撮影操作として行われる。実行手段102は、例えば図4に示す表示がされているときに、表示制御手段101から供給された操作子位置データが示す位置がタップされると、撮影操作がされたと判断して画像C1を示す撮影前画像データを記憶部12に記憶させる。実行手段102はこうして記憶処理を行う。   The execution unit 102 also executes processing for storing the pre-photographing image data in the storage unit (hereinafter referred to as “storage processing”). When the execution unit 102 performs the storage process, an image including the imaging target is captured. The execution unit 102 executes the storage process when the shooting operation is performed, regardless of which of the operators A1, A2, and A3 the shooting operation is performed. In the present embodiment, an operation of tapping the operation element is performed as a shooting operation. For example, when the position indicated by the operator position data supplied from the display control unit 101 is tapped when the display shown in FIG. 4 is being performed, the execution unit 102 determines that the shooting operation has been performed and displays the image C1. The pre-photographing image data shown is stored in the storage unit 12. The execution means 102 performs the storage process in this way.

実行手段102は、撮影操作がされた操作子がA1であれば、撮影画像データをSNSにおけるユーザのアカウントで投稿するように要求する要求データを図1に示すSNSサーバ装置21に送信する処理を、投稿処理として実行する。SNSサーバ装置21は、この要求データを受信すると、受信した要求データに含まれる撮影後画像データをユーザのアカウントで投稿し、投稿後のSNSのページを示すページデータを撮影装置10に送信する。実行手段102は、受信したページデータを例えば表示制御手段101に供給して表示部14に表示させる。
図5は、撮影後処理が実行されたあとに表示される画像の一例を示す図である。図5(a)では、SNSサーバ装置21から送信されてきたページデータが示すSNSのページが表示されている。このページには、画像C1が投稿されている。
The execution means 102 transmits a request data requesting to post the photographed image data with the user account in the SNS to the SNS server device 21 shown in FIG. Execute as post processing. Upon receiving this request data, the SNS server device 21 posts post-photographing image data included in the received request data with the user's account, and transmits page data indicating the post-posting SNS page to the photographing device 10. The execution unit 102 supplies the received page data to, for example, the display control unit 101 and causes the display unit 14 to display the page data.
FIG. 5 is a diagram illustrating an example of an image displayed after the post-shooting process is executed. In FIG. 5A, the SNS page indicated by the page data transmitted from the SNS server device 21 is displayed. An image C1 is posted on this page.

また、実行手段102は、撮影操作がされた操作子がA2であれば、撮影後画像データを用いて関連検索を行うように要求する要求データを図1に示す関連検索サーバ装置22に送信する処理を、関連検索処理として実行する。関連検索サーバ装置22は、この要求データを受信すると、受信した要求データに含まれる撮影画像データが示す画像に含まれる撮影対象を特定し、特定した撮影対象に関する情報を検索した結果を示す検索結果データを撮影装置10に送信する。実行手段102は、受信した検索結果データを例えば表示制御手段101に供給して表示部14に表示させる。図5(b)では、関連検索サーバ装置22から送信されてきた検索結果データが示すサグラダ・ファミリアの検索結果が表示されている。実行手段102は、操作子A3に撮影操作がされた場合も、操作子A2に撮影操作がされた場合と同様に、周辺検索処理を実行する。   Further, if the operator that has performed the shooting operation is A2, the execution unit 102 transmits request data for requesting the related search using the post-shooting image data to the related search server device 22 illustrated in FIG. The process is executed as a related search process. When the related search server device 22 receives the request data, the related search server device 22 specifies a shooting target included in the image indicated by the shooting image data included in the received request data, and a search result indicating a result of searching for information regarding the specified shooting target. Data is transmitted to the photographing apparatus 10. The execution unit 102 supplies the received search result data to, for example, the display control unit 101 and displays it on the display unit 14. In FIG. 5B, the search result of the Sagrada Familia indicated by the search result data transmitted from the related search server device 22 is displayed. The execution means 102 executes the peripheral search process even when a shooting operation is performed on the operator A3, as in the case where a shooting operation is performed on the operator A2.

[1−4]動作
撮影装置10は、以上の構成に基づき、上述した撮影後処理を含む撮影処理を行う。撮影処理における撮影装置10の動作について、図6を参照して説明する。
図6は、撮影処理における撮影装置10の動作の一例を示すフロー図である。撮影処理は、例えば、撮影処理を行うためのプログラムが起動されることを契機に開始される。撮影装置10は、まず、撮影対象を含む画像を撮像し(ステップS11)、撮像している画像及び操作子を表示する(ステップS12)。この例では、撮影装置10は、図4に示す操作子A1、A2及びA3を表示する。ステップS11は撮像素子16が行う動作であり、ステップS12は表示制御手段101及び表示部14が協働して行う動作である。
[1-4] Operation The imaging device 10 performs imaging processing including the above-described post-imaging processing based on the above configuration. The operation of the photographing apparatus 10 in the photographing process will be described with reference to FIG.
FIG. 6 is a flowchart showing an example of the operation of the imaging apparatus 10 in the imaging process. The shooting process is started, for example, when a program for performing the shooting process is started. First, the imaging device 10 captures an image including an imaging target (step S11), and displays the captured image and an operator (step S12). In this example, the photographing apparatus 10 displays the operators A1, A2, and A3 shown in FIG. Step S11 is an operation performed by the imaging device 16, and step S12 is an operation performed by the display control means 101 and the display unit 14 in cooperation.

次に、撮影装置10は、表示した操作子のいずれかに対する撮影操作を受け付けると(ステップS13)、撮影操作がされた操作子に応じた動作を行う(ステップS14)。撮影装置10は、撮影操作がされた操作子がA1である場合には(ステップS14;A1)、撮像されている画像を示す撮影画像データを記憶して(ステップS21)、上述した投稿処理を行う(ステップS22)。そして、撮影装置10は、撮影後処理の結果を表示して(ステップS15)、撮影処理を終了する。ステップS22の動作を行った場合は、撮影装置10は、例えば図5(a)に示すような撮影画像データがSNSに投稿された結果を表示する。   Next, when the photographing apparatus 10 receives a photographing operation for any of the displayed operators (step S13), the photographing apparatus 10 performs an operation according to the manipulation member on which the photographing operation has been performed (step S14). When the operator who has performed the shooting operation is A1 (step S14; A1), the shooting apparatus 10 stores the shot image data indicating the image being shot (step S21), and performs the above-described post processing. This is performed (step S22). Then, the photographing apparatus 10 displays the result of the post-shooting process (Step S15) and ends the shooting process. When the operation of step S22 is performed, the photographing apparatus 10 displays the result of posting the photographed image data as shown in FIG. 5A to the SNS, for example.

また、撮影装置10は、撮影操作がされた操作子がA2である場合には(ステップS14;A2)、撮像している画像を示す撮影画像データを記憶し(ステップS31)、上述した関連検索処理を行って(ステップS32)、ステップS15の動作を行う。ステップS32の動作を行った場合は、撮影装置10は、例えば図5(b)に示すように撮影対象に関する情報を検索した結果を表示する。また、撮影装置10は、撮影操作がされた操作子がA3である場合には(ステップS14;A3)、撮像している画像を示す撮影画像データを記憶し(ステップS41)、上述した周辺検索処理を行って(ステップS42)、ステップS15の動作を行う。ステップS13からS42までの各動作は、実行手段102が行う動作である。なお、ステップS15における処理も撮影後処理に含めて、ステップS15の動作を実行手段102が行うものとしてもよい。   In addition, when the operator who performed the shooting operation is A2 (step S14; A2), the shooting device 10 stores the shot image data indicating the image being shot (step S31), and the related search described above. Processing is performed (step S32), and the operation of step S15 is performed. When the operation of step S32 is performed, the photographing apparatus 10 displays a result of searching for information related to the photographing target, for example, as illustrated in FIG. Further, when the operator who performed the shooting operation is A3 (step S14; A3), the shooting apparatus 10 stores the shot image data indicating the image being picked up (step S41), and the peripheral search described above. Processing is performed (step S42), and the operation of step S15 is performed. Each operation from step S13 to S42 is an operation performed by the execution means 102. Note that the processing in step S15 may be included in the post-shooting processing, and the execution unit 102 may perform the operation in step S15.

[1−5]第1実施形態による効果
SNSに撮影画像データを投稿することや、撮影画像データが示す撮影対象に関する情報を検索すること、撮影対象の所在地の周辺に関する情報を検索することは、いずれも、撮影した画像を活用するための技術である。そのような技術が複数ある場合に、用いる技術によって異なる手順の操作を行っていては、ユーザにとって煩雑であり、不便である。本実施形態では、各々が撮影後処理に対応する複数の操作子を用いることで、複数の撮影後処理のいずれを実行させる場合でも、撮像している画像を表示させながら、ともに表示されている操作子に対して撮影操作を行うという手順を踏めばよい。このような本実施形態によれば、各々が撮影後処理に対応する複数の操作子を用いない場合に比べて、画像を活用するための複数の技術を利用しやすくすることができる。
[1-5] Effects According to First Embodiment Posting captured image data to the SNS, searching for information about a shooting target indicated by the shooting image data, and searching for information about the vicinity of the location of the shooting target are as follows: Both are techniques for utilizing captured images. When there are a plurality of such techniques, it is cumbersome and inconvenient for the user to perform operations with different procedures depending on the technique used. In the present embodiment, by using a plurality of operators corresponding to post-shooting processing, each of the plurality of post-shooting processings is displayed while displaying the image being picked up. What is necessary is just to follow the procedure of performing a photographing operation on the operator. According to the present embodiment as described above, it is possible to make it easier to use a plurality of techniques for utilizing an image, compared to a case where a plurality of operators corresponding to post-shooting processes are not used.

[2]第2実施形態
本発明の第2実施形態について、以下、第1実施形態と異なる点を中心に説明する。第1実施形態では、複数の操作子の大きさや表示される位置に大きな違いがなかったが、第2実施形態では、ユーザにより撮影操作が行われそうな操作子をユーザが操作しやすいように、各操作子が表示される。
[2] Second Embodiment Hereinafter, a second embodiment of the present invention will be described focusing on differences from the first embodiment. In the first embodiment, there is no significant difference in the sizes and display positions of a plurality of operation elements. In the second embodiment, the user can easily operate an operation element that is likely to be photographed by the user. Each control is displayed.

[2−1]ハードウェア構成
図7は、第2実施形態の撮影装置のハードウェア構成の一例を示す図である。図7の例では、図2に示す各部に加え、測位部17を備える撮影装置10aが示されている。測位部17は、例えばGPS(Global Positioning System)の技術を用いて自装置の位置を測定する測位手段である。測位部17は、測定した自装置の位置を示す測位データを制御部11に供給する。測位データは、本実施形態では、緯度及び経度で自装置の位置を示す。
[2-1] Hardware Configuration FIG. 7 is a diagram illustrating an example of a hardware configuration of the imaging apparatus according to the second embodiment. In the example of FIG. 7, an imaging device 10 a including a positioning unit 17 in addition to each unit illustrated in FIG. 2 is illustrated. The positioning unit 17 is a positioning unit that measures the position of its own device using, for example, GPS (Global Positioning System) technology. The positioning unit 17 supplies positioning data indicating the measured position of the own device to the control unit 11. In the present embodiment, the positioning data indicates the position of the own device by latitude and longitude.

[2−2]機能構成
図8は、撮影装置10aの機能構成の一例を示す図である。撮影装置10aは、図3に示す各手段に加え、判定手段103と、測位手段(測位部17)とを備える。
判定手段103は、複数の撮影後処理の各々について、撮像素子16により撮像されている画像に含まれる撮影対象との関連性の高さを示す関連度(以下「処理関連度」という)を判定する手段の一例である。
[2-2] Functional Configuration FIG. 8 is a diagram illustrating an example of a functional configuration of the photographing apparatus 10a. The imaging device 10a includes a determination unit 103 and a positioning unit (positioning unit 17) in addition to the units illustrated in FIG.
The determination unit 103 determines a degree of relevance (hereinafter referred to as a “process relevance degree”) that indicates the degree of relevance to the photographing target included in the image captured by the image sensor 16 for each of the plurality of post-shooting processes. It is an example of the means to do.

例えば、撮影対象として人物が撮影されたときに投稿処理が実行されることが多ければ、人物という撮影対象と投稿処理とは関連性が高いことになる。反対に、撮影対象として人物が撮影されたときに周囲検索処理がほとんど実行されないのであれば、人物という撮影対象と周囲検索処理とは関連性が低いことになる。このように、撮影対象及び撮影後処理の処理関連度が高いほど、その撮影対象を含む画像を示す画像データに対してその撮影後処理の実行される可能性が高いことが表される。判定手段103は、本実施形態では、第1、第2及び第3の判定方法のうちのいずれかまたは複数の判定方法で処理関連度を判定する。   For example, if a posting process is often executed when a person is photographed as a photographing target, the photographing target of the person and the posting process are highly related. On the other hand, if the surrounding search process is hardly executed when a person is shot as the shooting target, the relationship between the shooting target called a person and the surrounding search process is low. As described above, the higher the degree of processing relevance between the photographing target and the post-shooting process, the higher the possibility that the post-shooting process is performed on the image data indicating the image including the photographing target. In this embodiment, the determination unit 103 determines the processing relevance by any one or a plurality of determination methods among the first, second, and third determination methods.

[2−2−1]第1の判定方法
判定手段103は、撮像素子16により撮像されている画像に含まれる撮影対象の種類に基づいて処理関連度を判定する。判定手段103は、例えば、撮影対象の種類と、撮影後処理と、処理関連度とを対応付けた第1処理関連度テーブルを記憶している。
図9は、第1処理関連度テーブルの一例を示す図である。この例では、「人物」という撮影対象の種類に対して、「投稿処理」、「関連検索処理」及び「周囲検索処理」という撮影後処理と「高」、「低」及び「低」という処理関連度とがそれぞれ対応付けられている。
[2-2-1] First Determination Method The determination unit 103 determines the degree of processing relevance based on the type of shooting target included in the image captured by the image sensor 16. The determination unit 103 stores, for example, a first process relevance level table in which types of shooting targets, post-shooting processes, and process relevance levels are associated with each other.
FIG. 9 is a diagram illustrating an example of the first process relevance degree table. In this example, for the type of subject to be photographed “person”, post-photographing processing “post processing”, “related search processing”, and “surrounding search processing” and processing “high”, “low”, and “low” Relevance levels are associated with each other.

これらの処理関連度は、各撮影後処理の処理関連度の相対的な関係を表している。つまり、撮影対象が人物である場合、投稿処理との処理関連度が最も高く(つまり投稿処理の実行される可能性が最も高く)、それに比べて関連検索処理及び周囲検索処理との処理関連度が低い(つまり関連検索処理及び周囲検索処理の実行される可能性が同じ程度に低い)ことを表している。同様に、「食べ物」と「建物」という撮影対象の種類に対する各撮影後処理の処理関連度として「中」、「低」、「高」と「中」、「高」、「中」とが対応付けられている。例えば、撮影対象が食べ物であれば周囲検索処理との処理関連度が最も高く、撮影対象が建物であれば関連検索処理との処理関連度が最も高いことが表されている。   These process relevance levels represent the relative relationship of the process relevance levels of each post-shooting process. In other words, when the subject to be photographed is a person, the degree of processing relevance with the posting process is the highest (that is, the possibility that the posting process is executed is the highest). Is low (that is, the possibility that the related search process and the surrounding search process are executed is low). Similarly, the processing relevance level of each post-shooting process for the types of shooting targets “food” and “building” is “medium”, “low”, “high” and “medium”, “high”, and “medium”. It is associated. For example, the processing relevance with the surrounding search process is the highest when the shooting target is food, and the processing relevance with the related search process is highest when the shooting target is a building.

判定手段103は、撮像されている画像に対して画像認識を行い、その画像に含まれる撮影対象の種類を判断する。判定手段103は、例えば、撮影対象の輪郭を抽出して撮影対象の種類に応じたパターン画像とマッチングすることで、この判断を行う。なお、判定手段103は、他にも、撮影対象の種類を判断するための様々な周知の画像認識の技術を用いてもよい。判定手段103は、撮影対象の種類を判断すると、その種類に第1処理関連度テーブルにおいて対応付けられている撮影後処理及び処理関連度に基づき、各撮影後処理の処理関連度を判定する。判定手段103は、判定に用いた撮影後処理及び処理関連度を対応付けた判定結果データを表示制御手段101に供給する。   The determination unit 103 performs image recognition on the captured image, and determines the type of shooting target included in the image. The determination unit 103 performs this determination, for example, by extracting the contour of the photographing target and matching it with a pattern image corresponding to the type of the photographing target. In addition, the determination unit 103 may use various other well-known image recognition techniques for determining the type of imaging target. When determining the type of the imaging target, the determination unit 103 determines the processing relevance level of each post-shooting process based on the post-shooting process and the process relevance level associated with the type in the first process relevance level table. The determination unit 103 supplies the display control unit 101 with determination result data that associates the post-shooting process and the processing relevance used for the determination.

[2−2−2]第2の判定方法
判定手段103は、測位手段(測位部17)により測定された位置に基づいて処理関連度を判定する。判定手段103は、例えば、ユーザが撮影を行うと想定される位置(以下「撮影想定位置」という)と、撮影後処理と、処理関連度とを対応付けた第2処理関連度テーブルを記憶している。
図10は、第2処理関連度テーブルの一例を示す図である。この例では、「観光地」という撮影想定位置に対して、「投稿処理」、「関連検索処理」及び「周囲検索処理」という撮影後処理と「高」、「中」及び「高」という処理関連度とがそれぞれ対応付けられている。
[2-2-2] Second Determination Method The determination unit 103 determines the processing relevance based on the position measured by the positioning unit (positioning unit 17). The determination unit 103 stores, for example, a second process relevance level table in which a position where the user is assumed to perform shooting (hereinafter referred to as “imaging shooting position”), a post-shooting process, and a process relevance level are associated. ing.
FIG. 10 is a diagram illustrating an example of the second process relevance degree table. In this example, a post-shooting process called “posting process”, “related search process”, and “surrounding search process” and a process called “high”, “medium”, and “high” for an assumed shooting position of “sightseeing spot” Relevance levels are associated with each other.

これはつまり、ユーザが観光地で撮影を行う場合、撮影対象が何であれ、投稿処理及び周囲検索処理との処理関連度が同じくらい高くなり、関連検索処理との処理関連度がそれらよりは低くなることを表している。同様に、「商店街」と「移動経路」という撮影想定位置に対する各撮影後処理の処理関連度として「低」、「高」、「中」と「低」、「中」、「高」とが対応付けられている。例えば、ユーザが商店街で撮影を行う場合は、撮影対象が何であれ、関連検索処理との処理関連度が最も高くなり、ユーザが移動中に撮影を行う場合は、撮影対象が何であれ、周囲検索処理との処理関連度が最も高くなることが表されている。   This means that when a user takes a picture at a sightseeing spot, whatever the shooting target is, the degree of processing relevance with the posting process and the surrounding search process is as high as that, and the degree of processing relevance with the related search process is lower than those. Represents that. Similarly, the processing relevance of each post-shooting process for the assumed shooting positions of “Shopping Street” and “Movement Route” is “Low”, “High”, “Medium” and “Low”, “Medium”, “High”. Are associated. For example, when a user shoots in a shopping street, the relevance to the related search process is the highest regardless of the shooting target, and when the user shoots while moving, the shooting target is It shows that the degree of processing relevance with search processing is the highest.

判定手段103は、測位部17により測定された位置が各撮影想定位置に含まれるか否かを判断する。具体的には、判定手段103は、観光地、商店街、移動経路(道路や線路の敷地)の地図上の範囲を緯度及び経度の集合で表した範囲データを記憶しておき、測位部17により測定された位置がそれらの範囲のいずれかに含まれているか否かを判断する。判定手段103は、例えば、測定された位置が観光地に含まれていれば、第2実行判定テーブルにおいて観光地に対応付けられている撮影後処理及び処理関連度に基づき、各撮影後処理の処理関連度を判定し、その判定結果データを表示制御手段101に供給する。   The determination unit 103 determines whether or not the position measured by the positioning unit 17 is included in each assumed shooting position. Specifically, the determination unit 103 stores range data representing a range on a map of a sightseeing spot, a shopping street, and a movement route (a road or a track site) as a set of latitude and longitude, and the positioning unit 17 It is determined whether or not the position measured by is included in any of these ranges. For example, if the measured position is included in the sightseeing spot, the determination unit 103 determines whether each post-shooting process is based on the post-shooting process and the processing relevance associated with the sightseeing spot in the second execution determination table. The degree of processing relevance is determined, and the determination result data is supplied to the display control means 101.

[2−2−3]第3の判定方法
判定手段103は、実行手段102により過去に実行された撮影後処理の傾向に基づいて処理関連度を判定する。実行手段102は、撮影後処理を実行すると、実行した撮影後処理を判定手段103に通知する。判定手段103は、通知された撮影後処理毎に、各々の実行された回数を計数し、計数した実行回数が多いものほど処理関連度が高いことを表す第3実行判定テーブルを記憶する。
[2-2-3] Third determination method The determination unit 103 determines the degree of processing relevance based on the tendency of the post-shooting processing executed in the past by the execution unit 102. When executing the post-shooting process, the executing unit 102 notifies the determining unit 103 of the post-shooting process that has been executed. The determination unit 103 counts the number of executions for each notified post-shooting process, and stores a third execution determination table indicating that the higher the number of executions counted, the higher the degree of processing relevance.

図11は、第3処理関連度テーブルの一例を示す図である。この例では、「投稿処理」、「関連検索処理」及び「周囲検索処理」の実行回数がそれぞれ「50」、「30」及び「20」であり、「高」、「中」及び「低」という処理関連度がそれぞれ対応付けられている。判定手段103は、実行手段102により撮影後処理が実行される度に、第3実行判定テーブルの実行回数を更新して、実行回数の大小関係が変化した場合には、その変化に応じて処理関連度も変更する。   FIG. 11 is a diagram illustrating an example of the third process relevance degree table. In this example, the number of executions of “post processing”, “related search processing”, and “surrounding search processing” is “50”, “30”, and “20”, respectively, and “high”, “medium”, and “low”. Are associated with each other. The determination unit 103 updates the number of executions in the third execution determination table every time the post-shooting process is executed by the execution unit 102. If the magnitude relation of the number of executions changes, the determination unit 103 performs processing according to the change. Also change the relevance.

例えば、図11の例で周囲検索処理の実行回数が関連検索処理の実行回数よりも多くなったら、「関連検索処理」及び「周囲検索処理」の処理関連度を「低」及び「中」に変更する。なお、実行回数が同じになっているときには、両方の処理関連度を「中」にしてもよいし、「低」にしてもよい。要するに、各撮影後処理の処理関連度の相対的な大小関係が分かるようになっていればよい。判定手段103は、記憶した第3実行判定テーブルに基づいて、各撮影後処理の処理関連度を判定し、その判定結果データを表示制御手段101に供給する。   For example, in the example of FIG. 11, when the number of executions of the surrounding search process is greater than the number of executions of the related search process, the degree of process relevance of “related search process” and “ambient search process” is set to “low” and “medium”. change. When the number of executions is the same, the degree of processing relevance of both may be “medium” or “low”. In short, it is only necessary to be able to understand the relative magnitude relationship of the processing relevance level of each post-shooting process. The determination unit 103 determines the processing relevance level of each post-shooting process based on the stored third execution determination table, and supplies the determination result data to the display control unit 101.

[2−3]表示制御手段
表示制御手段101は、判定手段103により判定された結果に応じた位置及び態様で操作子を表示させる。図6に示す撮影処理において、判定手段103による判定は、ステップS12の前に行われ、ステップS12において表示制御手段101が複数の操作子を表示させるときに、判定の結果に応じてそれらの操作子を表示させる。
[2-3] Display Control Unit The display control unit 101 displays the operation element in a position and manner according to the result determined by the determination unit 103. In the photographing processing shown in FIG. 6, the determination by the determination unit 103 is performed before step S12, and when the display control unit 101 displays a plurality of controls in step S12, those operations are performed according to the determination result. Display children.

図12は、表示された複数の操作子の一例を示す図である。表示制御手段101は、図12の例では、表示部14に、食べ物の撮影対象B2を含む画像C2と、図4に示した操作子A1、A2及びA3とを表示させている。この例では、説明を簡潔にするため、撮影装置10の位置がいずれの撮影想定位置にも含まれておらず、且つ、実行回数がいずれも0回であるため、第2及び第3の判定方法では処理関連度に違いが出ないものとする。この場合、判定手段103は、第1の判定方法で判定を行い、撮影対象の種類が「食べ物」と判断して、「投稿処理」、「関連検索処理」及び「周囲検索処理」の処理関連度を「中」、「低」、「高」とそれぞれ判定する。   FIG. 12 is a diagram illustrating an example of a plurality of displayed controls. In the example of FIG. 12, the display control unit 101 causes the display unit 14 to display the image C2 including the food photographing target B2 and the operators A1, A2, and A3 illustrated in FIG. In this example, for the sake of brevity, the position of the photographing apparatus 10 is not included in any assumed photographing position, and the number of executions is zero, so the second and third determinations It is assumed that there is no difference in processing relevance between methods. In this case, the determination unit 103 performs the determination by the first determination method, determines that the type of the imaging target is “food”, and processes related to “post processing”, “related search processing”, and “surrounding search processing” The degrees are determined as “medium”, “low”, and “high”, respectively.

表示制御手段101は、判定手段103から供給される判定結果データが示す処理関連度が最も高い「周囲検索処理」に対応する操作子A3を、最も左側の位置で且つサイズを最も大きくした態様で表示させている。また、表示制御手段101は、処理関連度が次に高い「投稿処理」に対応する操作子A1を、真ん中の位置で且つ操作子A3の次に大きなサイズとした態様で表示させ、処理関連度が最も小さい「関連検索処理」に対応する操作子A2を、最も右側の位置で且つサイズを最も小さくした態様で表示させている。   The display control unit 101 is configured so that the operator A3 corresponding to the “surrounding search process” having the highest degree of processing relevance indicated by the determination result data supplied from the determination unit 103 is the leftmost position and the size is maximized. It is displayed. Further, the display control unit 101 displays the operation element A1 corresponding to the “post process” having the next highest processing relevance level in a mode in which the operation element A1 has the next largest size at the middle position and the operation element A3. The operator A2 corresponding to the “related search process” with the smallest is displayed in the rightmost position and in the form with the smallest size.

撮影装置10を左手で操作する場合、左側に近い操作子ほどユーザは操作しやすい。また、操作子のサイズが大きいほどユーザは操作しやすい。つまり、図12の例では、表示制御手段101は、処理関連度が高い操作子ほどユーザが操作しやすい位置及び態様で表示させている。これにより、判定結果に応じた位置及び態様で操作子を表示させない場合に比べて、ユーザが実行させようと思っている撮影後処理の操作子が操作しやすくなっていることが多くなり、ユーザの利便性を高めることができる。   When operating the imaging device 10 with the left hand, the operator is easier to operate as the operator is closer to the left side. Also, the larger the size of the operator, the easier the user can operate. That is, in the example of FIG. 12, the display control unit 101 displays an operation element having a higher degree of processing relevance in a position and manner that the user can easily operate. As a result, compared to the case where the operation element is not displayed in the position and manner according to the determination result, the operation element of the post-shooting process that the user wants to execute is easier to operate. Can improve convenience.

なお、第1、第2及び第3の判定方法によりそれぞれ処理関連度が判定された場合には、表示制御手段101は、例えば、判定結果データが示す処理関連度が「高」、「中」、「低」に対してそれぞれ「3」、「2」、「1」という点数を付与し、各判定方法により判定された結果に対して付与した点数の合計を、各撮影後処理の処理関連度を表す点数として比較する。この点数は、大きいほど処理関連度が高いことを表す。例えば、撮影対象の種類が「人物」、撮影想定位置が「商店街」、実行回数が図11に示す例のようになっていた場合、投稿処理の処理関連度は「高」、「低」、「高」であるから、3+1+3=7という点数で表される。同様に、関連検索処理は「低」、「高」、「中」で1+3+2=6、周囲検索処理は「低」、「中」、「低」で1+2+1=4となり、処理関連度は投稿処理が最も高く、周囲検索処理が最も低いことが表される。   When the processing relevance levels are determined by the first, second, and third determination methods, for example, the display control unit 101 indicates that the processing relevance levels indicated by the determination result data are “high” and “medium”, for example. , “3”, “2”, and “1” are assigned to “low”, respectively, and the total of the points assigned to the results determined by each determination method is related to each post-shooting process. Compare the points as degrees. The larger the score, the higher the processing relevance. For example, when the type of shooting target is “person”, the assumed shooting position is “shopping street”, and the number of executions is as shown in FIG. 11, the processing relevance of the posting process is “high” and “low”. Since it is “high”, it is represented by a score of 3 + 1 + 3 = 7. Similarly, the related search processing is 1 + 3 + 2 = 6 for “low”, “high”, and “medium”, the surrounding search processing is 1 + 2 + 1 = 4 for “low”, “medium”, and “low”, and the processing relevance is post processing. Is the highest and the surrounding search processing is the lowest.

本実施形態では、第1の判定方法や第2の判定方法が用いられることで、撮影対象の種類や撮影を行う場所によって処理関連度が異なる、すなわち実行される可能性の高い撮影後処理が異なる場合であっても、ユーザの利便性を高めることができる。また、第3の判定方法が用いられることで、ユーザがよく実行させる撮影後処理の操作子を操作しやすくして、ユーザの利便性を高めることができる。   In the present embodiment, the first determination method and the second determination method are used, so that the degree of processing relevance varies depending on the type of shooting target and the shooting location, that is, post-shooting processing that is highly likely to be executed. Even if they are different, the convenience of the user can be improved. In addition, by using the third determination method, it is possible to easily operate the post-shooting processing operation element that is often executed by the user, and to improve the convenience for the user.

なお、処理関連度の表し方は、上述したものに限らない。処理関連度は、例えば、「A」、「B」及び「C」や「Lv1」、「Lv2」及び「Lv3」など、上記とは異なる文字や文字列で表されてもよいし、最初から点数などの数値で表されてもよい。また、上記の例では3段階で処理関連度が表されたが、2段階でもよいし、4段階以上であってもよい。要するに、各撮影後処理の処理関連度を比較できるようになっていれば、どうような表し方がされていてもよい。   Note that how to express the processing relevance is not limited to that described above. The process relevance may be represented by a character or character string different from the above, such as “A”, “B” and “C”, “Lv1”, “Lv2” and “Lv3”, or from the beginning. It may be expressed by a numerical value such as a score. In the above example, the degree of processing relevance is expressed in three stages, but it may be two stages or four or more stages. In short, any representation may be used as long as the processing relevance of each post-shooting process can be compared.

また、表示制御手段101は、上記の例では、処理関連度の順番に応じた位置及び態様で操作子を表示させたが、処理関連度そのものに応じた位置及び態様で操作子を表示させてもよい。例えば、表示制御手段101は、上述した点数に応じたサイズで操作子を表示させる。具体的には、点数が7点なら幅が7×k(kは定数)ピクセルのサイズで操作子を表示させ、点数が4点なら幅が4×kピクセルのサイズで操作子を表示させるといった具合である。この場合、各撮影後処理について判定された処理関連度にどの程度の差があるかということをユーザに伝えることができる。   In the above example, the display control unit 101 displays the operation element in the position and manner according to the order of the processing relevance level, but displays the operation element in the position and manner according to the process relevance level itself. Also good. For example, the display control unit 101 displays the operation element with a size corresponding to the above-described score. Specifically, if the score is 7, the control is displayed with a size of 7 × k pixels (k is a constant), and if the score is 4, the control is displayed with a size of 4 × k pixels. Condition. In this case, the user can be informed of the difference in the degree of processing relevance determined for each post-shooting process.

[3]第3実施形態
本発明の第3実施形態について、以下、第1及び第2実施形態と異なる点を中心に説明する。第3実施形態では、記憶手段に記憶された撮影画像データが示す画像、すなわち撮影された画像の一覧が表示される際に、それらの画像を示す撮影画像データに対して実行された撮影後処理がユーザに示される。
[3] Third Embodiment Hereinafter, a third embodiment of the present invention will be described focusing on differences from the first and second embodiments. In the third embodiment, when an image indicated by the captured image data stored in the storage unit, that is, when a list of captured images is displayed, the post-shooting process executed on the captured image data indicating the images Is shown to the user.

[3−1]表示制御手段
本実施形態では、表示制御手段101が、記憶手段(例えば記憶部12)に記憶されている撮影画像データと、その撮影画像データに対して実行手段102により実行された撮影後処理を表す画像(以下「処理画像」という)とを対応付けて表示手段に表示させる。
図13は、第3実施形態において表示される複数の操作子の一例を示す図である。表示制御手段101は、図13の例では、表示部14に、図4に示す画像C1のサムネイル画像C11と、図12に示す画像C2のサムネイル画像C12とを表示させている。
[3-1] Display Control Unit In the present embodiment, the display control unit 101 is executed by the execution unit 102 on the captured image data stored in the storage unit (for example, the storage unit 12) and the captured image data. In addition, an image representing the post-shooting process (hereinafter referred to as “processed image”) is displayed in association with the display unit.
FIG. 13 is a diagram illustrating an example of a plurality of operators displayed in the third embodiment. In the example of FIG. 13, the display control unit 101 displays the thumbnail image C11 of the image C1 shown in FIG. 4 and the thumbnail image C12 of the image C2 shown in FIG.

また、表示制御手段101は、画像C1を示す撮影画像データに対して実行された撮影後処理(この例では投稿処理)を表す処理画像D1をサムネイル画像C11に重ねて表示させ、画像C2を示す撮影画像データに対して実行された撮影後処理(この例では周辺検索処理)を表す処理画像D2をサムネイル画像C12に重ねて表示させている。これにより、ユーザは、表示されたサムネイル画像C11に対応する撮影画像データに対してどの撮影後処理を実行させたかということを、処理画像が表示されない場合に比べて容易に確認することができる。   In addition, the display control unit 101 displays a processed image D1 representing post-shooting processing (post processing in this example) performed on the shot image data indicating the image C1 so as to overlap the thumbnail image C11, and shows the image C2. A processed image D2 representing post-shooting processing (periphery search processing in this example) performed on the shot image data is displayed superimposed on the thumbnail image C12. As a result, the user can easily confirm which post-shooting process has been executed for the shot image data corresponding to the displayed thumbnail image C11 as compared to the case where the processed image is not displayed.

ユーザがサムネイル画像C11または処理画像D1に対して例えばタップする操作を行うと、表示制御手段101は、サムネイル画像C11の元の画像C1と拡大した処理画像D1とを表示させる。
図14は、処理画像が拡大されて表示された様子の一例を示す図である。表示制御手段101は、図13の例では、画像C1と、表示部14の上側に拡大した処理画像D1とを表示させている。
For example, when the user performs an operation of tapping the thumbnail image C11 or the processed image D1, the display control unit 101 displays the original image C1 and the enlarged processed image D1 of the thumbnail image C11.
FIG. 14 is a diagram illustrating an example of a state in which the processed image is enlarged and displayed. In the example of FIG. 13, the display control unit 101 displays the image C <b> 1 and the processed image D <b> 1 enlarged on the upper side of the display unit 14.

また、表示制御手段101は、表示部14の下側に、実行されなかった撮影後処理に対応する操作子A21及びA31を表示させている。操作子A21及びA31は、表示部14に表示された処理画像が示す撮影後処理を変更する操作(以下「変更操作」という)を受け付けるための操作子であり、以下では「変更操作子」という。なお、表示制御手段101は、変更操作子を、処理結果画像とともに表示させるのではなく、サムネイル画像とともに表示させてもよい。変更操作子が操作されることによる撮影後処理の変更は、実行手段102によって行われる。   In addition, the display control unit 101 displays operating elements A21 and A31 corresponding to post-shooting processing that has not been executed on the lower side of the display unit 14. The operators A21 and A31 are operators for accepting an operation for changing the post-shooting process indicated by the processed image displayed on the display unit 14 (hereinafter referred to as “change operation”), and hereinafter referred to as “change operator”. . The display control unit 101 may display the change operator together with the thumbnail image instead of displaying it together with the processing result image. The post-shooting process is changed by the execution means 102 by operating the change operator.

[3−2]実行手段
実行手段102は、前述した変更操作、すなわち表示部14に表示された処理画像が示す撮影後処理を変更する操作が行われた場合に、その処理画像が対応付けられている撮影画像データに対して変更後の撮影後処理を実行する。例えば図14の例で操作子A2をタップ等する操作が変更操作として行われた場合であれば、実行手段102は、処理画像D1が表す撮影後処理が実行された図4の画像C1を示す撮影画像データに対して操作子A2に対応する関連検索処理を、変更後の撮影後処理として実行する。これにより、ユーザは、過去に撮影した画像を見返したときに改めて実行させたいと思った撮影後処理を、撮影後処理の変更を行わない場合に比べて容易に実行させることができる。
[3-2] Execution Unit The execution unit 102 associates the processing image when the above-described change operation, that is, an operation to change the post-shooting process indicated by the processing image displayed on the display unit 14 is performed. The post-shooting process after the change is executed on the captured image data. For example, if the operation of tapping the operation element A2 in the example of FIG. 14 is performed as a change operation, the execution unit 102 shows the image C1 of FIG. 4 in which the post-shooting process represented by the processed image D1 is executed. The related retrieval process corresponding to the operation element A2 is executed as the post-shooting process after the change for the shot image data. Accordingly, the user can easily execute post-shooting processing that he / she wants to execute again when he / she looks back at an image shot in the past as compared with a case where the post-shooting process is not changed.

表示制御手段101は、以上のとおり実行手段102が変更後の撮影後処理を実行すると、変更後の撮影後処理を表す画像を処理画像として表示させる。また、表示制御手段101は、図14において例えば処理画像D1に対する操作が行われると、画像C1を示す撮影画像データに対して過去に撮影後処理が実行されたときに表示させた画像(図5に示すような画像)を表示させる。表示制御手段101は、例えば、過去に撮影後処理の結果を示す画像(以下「処理結果画像」という)を表示させたときに、その処理結果画像を撮影画像データに対応付けて記憶しておき、前述の操作が行われたときに、その処理結果画像を読み出して表示させる。   As described above, when the execution unit 102 executes the post-shooting process after the change, the display control unit 101 displays an image representing the post-shooting process after the change as a processed image. In addition, for example, when an operation is performed on the processed image D1 in FIG. 14, the display control unit 101 displays an image displayed when post-shooting processing has been executed in the past on the shot image data indicating the image C1 (FIG. 5). Image) is displayed. For example, when displaying an image indicating the result of post-shooting processing (hereinafter referred to as “processing result image”) in the past, the display control unit 101 stores the processing result image in association with the shot image data. When the aforementioned operation is performed, the processing result image is read and displayed.

なお、表示制御手段101は、処理結果画像を記憶しておかなくても、処理画像の表す撮影後処理を実行手段102が改めて実行した結果を、処理結果画像として表示させてもよい。
また、表示制御手段101は、図13に示すような処理画像を表示させる場合に、各サムネイル画像を処理画像の種類に応じて並び替えて表示させてもよい。これにより、ユーザは、例えば特定の撮影後処理を実行させた撮影画像データをまとめて表示させることができる。
Note that the display control unit 101 may display a result of execution of the post-shooting processing represented by the processed image again as the processing result image without storing the processing result image.
Further, when displaying the processed image as shown in FIG. 13, the display control unit 101 may display the thumbnail images rearranged according to the type of the processed image. As a result, the user can collectively display, for example, captured image data that has been subjected to specific post-shooting processing.

[4]変形例
上述した各実施形態は、各々が本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、上述した各実施形態及び以下に示す各変形例は、必要に応じてそれぞれ組み合わせて実施してもよい。
[4] Modifications Each of the above-described embodiments is merely an example of an embodiment of the present invention, and may be modified as follows. Moreover, you may implement each embodiment mentioned above and each modification shown below, combining each as needed.

[4−1]操作子の表示方法
表示制御手段101は、実施形態では、複数の操作子を左右方向に並べて表示させたが、これに限らず、例えば、上下方向に並べて表示させてもよいし、四隅に表示させてもよい。また、表示制御手段101は、撮像されている画像のうち、操作子が重なった部分を操作子を透過するように薄く表示させてもよい。他にも、表示制御手段101は、操作子同士を重ねて表示させてもよいし、操作子のうちの一部を表示させ、表示させた操作子をスクロールさせることで残りの操作子が表示されるようにしてもよい。また、実施形態では、撮像された画像に重ねて操作子が表示されていたが、表示制御手段101は、これらを重ねずに、別々の位置に表示させてもよい。いずれの場合も、複数の操作子が表示されている状態でも、撮像されている画像に含まれている撮影対象をユーザが確認しやすいようになっていることが望ましい。
[4-1] Method of Displaying Operators In the embodiment, the display control unit 101 displays a plurality of operators arranged in the left-right direction. However, the display control unit 101 is not limited thereto, and may be displayed in an up-down direction, for example. However, they may be displayed at the four corners. In addition, the display control unit 101 may display a portion of the captured image where the operation element overlaps so as to be lightly transmitted through the operation element. In addition, the display control unit 101 may display the operators in a superimposed manner, or display a part of the operators and scroll the displayed operators to display the remaining operators. You may be made to do. In the embodiment, the operation element is displayed so as to be superimposed on the captured image. However, the display control unit 101 may display them at different positions without overlapping them. In any case, it is desirable that the user can easily check the shooting target included in the captured image even when a plurality of controls are displayed.

[4−2]撮影操作の方法
実施形態では、操作子をタップする操作が撮影操作として行われたが、撮影操作はこれに限らない。例えば、ダブルタップやロングタップ(長押し)などが撮影操作として行われてもよい。また、撮像された画像と操作子とが重ならないで表示されている場合に、操作子をドラッグして撮像された画像と重ねた状態でドロップする操作が撮影操作として行われてもよい。なお、ドラッグ&ドロップを撮影操作とする場合に、操作子をドロップする位置を表す画像を表示制御手段101が表示させて、その画像の位置で操作子をドロップさせるようにしてもよい。
[4-2] Method of Shooting Operation In the embodiment, the operation of tapping the operation element is performed as the shooting operation, but the shooting operation is not limited to this. For example, a double tap or a long tap (long press) may be performed as a shooting operation. In addition, when the captured image and the operation element are displayed without overlapping, an operation of dragging the operation element and dropping it in a state of being superimposed on the captured image may be performed as a photographing operation. Note that when drag and drop is a shooting operation, the display control unit 101 may display an image representing a position where the operation element is dropped, and the operation element may be dropped at the position of the image.

他にも、ボタンやホイールのような機械的な構造を有する操作子を操作して、表示されている複数の操作子のいずれかを選択して決定する操作が撮影操作として行われてもよい。さらに、撮影装置がマイクロフォンを備える場合に、音声で操作子を指定する操作(例えば「そうさしえー」という音声であれば、操作子Aが操作されたものとする)が撮影操作として行われてもよい。要するに、複数の操作子のうちのいずれが操作されたかということが分かるものであれば、どのような操作が撮影操作として行われてもよい。   In addition, an operation for selecting and determining one of a plurality of displayed operators by operating an operator having a mechanical structure such as a button or a wheel may be performed as a shooting operation. . Further, when the photographing apparatus is provided with a microphone, an operation for designating an operation element by voice (for example, if the voice is “Sosasei”), the operation element A is operated as a photographing operation. May be. In short, any operation may be performed as a photographing operation as long as it can be understood which of the plurality of operators has been operated.

[4−3]2以上の操作子への撮影操作
実施形態では、複数の操作子のいずれか1つに対して撮影操作が行われたが、2以上の操作子に対して撮影操作が行われてもよい。例えば、図4に示す操作子A1及びA2に対して、同時にタップ等の撮影操作が行われる、という具合である。このように複数の操作子に対して撮影操作が行われた場合には、実行手段102は、それら複数の操作子に対応する複数の撮影後処理を実行する。操作子A1及びA2に撮影操作が行われた場合であれば、実行手段102は、投稿処理及び関連検索処理の両方を実行する。
[4-3] Shooting operation for two or more operators In the embodiment, a shooting operation is performed for any one of a plurality of operators. However, a shooting operation is performed for two or more operators. It may be broken. For example, a shooting operation such as a tap is simultaneously performed on the controls A1 and A2 shown in FIG. As described above, when the shooting operation is performed on the plurality of operators, the execution unit 102 executes a plurality of post-shooting processes corresponding to the plurality of operators. If the photographing operation is performed on the operators A1 and A2, the execution unit 102 executes both the posting process and the related search process.

実行手段102は、複数の撮影後処理を実行する際に、それらの処理を並列して実行してもよいし、順番に実行してもよい。例えば、実行手段102は、それら複数の撮影後処理を、撮影操作が開始された順番または当該撮影操作が終了した順番に応じた順番で実行する。つまり、操作子A2が先で操作子A1が後に操作された場合であれば、実行手段102は、操作子A2に対応する関連検索処理を先に実行し、操作子A1に対応する投稿処理を後に実行する。実行手段102は、先の撮影後処理の実行を開始してから所定の時間(例えば30秒や1分)が経過したときに後の撮影後処理の実行を開始してもよいし、先の撮影後処理の実行が終了してから後の撮影後処理を実行してもよい。   When executing a plurality of post-shooting processes, the execution unit 102 may execute the processes in parallel or sequentially. For example, the execution unit 102 executes the plurality of post-shooting processes in the order corresponding to the order in which the shooting operations are started or the order in which the shooting operations are completed. That is, if the operator A2 is operated first and the operator A1 is operated later, the execution unit 102 first executes the related search process corresponding to the operator A2, and performs the posting process corresponding to the operator A1. Run later. The execution unit 102 may start the subsequent post-shooting process when a predetermined time (for example, 30 seconds or 1 minute) has elapsed since the start of the previous post-shooting process. The post-shooting process may be executed after the post-shooting process is finished.

本変形例によれば、ユーザは、複数の撮影後処理を実行させたい場合に、1つの操作子への撮影操作しか受け付けられない場合に比べて容易にそれらを実行させることができる。
複数の撮影後処理が並行して実行されると、それらの処理で用いられるCPUの処理能力や通信帯域が分割され、1つの撮影後処理が実行される場合に比べて、各撮影後処理の実行が終了するまでに要する時間が延びることになる。本変形例では、撮影後処理を順番に実行するため、例えばユーザが先に実行したい撮影後処理があれば、そちらを先に実行するように撮影操作を行うことで、撮影後処理を順番に実行しない場合に比べて、その撮影後処理を早く終了させることができる。
According to this modification, when the user wants to execute a plurality of post-shooting processes, the user can easily execute them as compared with a case where only a shooting operation for one operator is accepted.
When a plurality of post-shooting processes are executed in parallel, the processing capacity and communication bandwidth of the CPU used in these processes are divided, and each post-shooting process is compared with the case where one post-shooting process is executed. The time required to complete the execution will be extended. In this modification, since the post-shooting process is executed in order, for example, if there is a post-shooting process that the user wants to execute first, the post-shooting process is performed in order by performing the shooting operation so that it is executed first. The post-shooting process can be completed earlier than when not executed.

[4−4]個別の撮影対象に対する撮影後処理
実施形態では、撮像素子16により撮像されている画像の全体を示す撮影画像データに対して撮影後処理が実行されたが、撮像されている画像の一部を示す撮影画像データに対して撮影後処理が実行されてもよい。撮像されている画像の一部とは、例えば、その画像に含まれている撮影対象を切り出した画像である。この場合の撮影操作の方法と撮影後処理の実行方法とを以下に説明する。
[4-4] Post-shooting Process for Individual Shooting Target In the embodiment, the post-shooting process is performed on the shot image data indicating the entire image picked up by the image pickup device 16. Post-shooting processing may be performed on the shot image data indicating a part of the shot image data. The part of the captured image is, for example, an image obtained by cutting out a shooting target included in the image. A method of shooting operation and a method of executing post-shooting processing in this case will be described below.

図15は、複数の撮影対象を含む画像の一例を示す図である。この例では、図15(a)に示すように、撮像素子16により撮像されている画像C3が表示部14に表示されており、この画像C3には、撮影対象B3(急須)と撮影対象B4(湯飲みとコースター)という複数の撮影対象が含まれている。また、表示部14には、操作子A1、A2及びA3が表示されている。表示制御手段101は、ユーザが操作子を移動させる操作(以下「移動操作」という)を行った場合に、その操作子を移動操作に応じて移動させながら表示させる。移動操作とは、例えば、ドラッグの操作である。図15(b)には、ドラッグされた操作子A2が示されている。   FIG. 15 is a diagram illustrating an example of an image including a plurality of shooting targets. In this example, as shown in FIG. 15A, an image C3 imaged by the image sensor 16 is displayed on the display unit 14, and the image C3 includes an imaging object B3 (teapot) and an imaging object B4. A plurality of subjects to be photographed (steamers and coasters) are included. In addition, the display unit 14 displays the operators A1, A2, and A3. When the user performs an operation for moving the operation element (hereinafter referred to as “movement operation”), the display control unit 101 displays the operation element while moving the operation element in accordance with the movement operation. The movement operation is, for example, a drag operation. FIG. 15B shows the dragged operation element A2.

実行手段102は、移動操作が終了したときに移動させられた操作子と重なって表示されている撮影対象を含む画像を示す画像データに対して撮影後処理を実行する。実行手段102は、例えば、画像C3に対して画像認識を行って撮影対象B3及びB4の位置を取得する。ユーザが操作子A2をドラッグして撮影対象B3の位置まで移動させ、ドロップする(操作子A2から指を離す)操作を行うと、実行手段102は、移動操作が終了したと判断し、移動操作が終了したときの操作子A2の位置、すなわち操作子A2がドロップされた位置が、求めた撮影対象の位置に含まれているか否かを判断する。   The execution unit 102 executes post-shooting processing on image data indicating an image including a shooting target displayed overlapping the operation element moved when the moving operation is completed. For example, the execution unit 102 performs image recognition on the image C3 to acquire the positions of the shooting targets B3 and B4. When the user drags the operation element A2 to move it to the position of the object to be imaged B3 and performs a drop operation (releases the finger from the operation element A2), the execution means 102 determines that the movement operation has ended, and the movement operation It is determined whether or not the position of the operation element A2 when the operation is completed, that is, the position where the operation element A2 is dropped is included in the obtained position of the photographing target.

実行手段102は、図15(b)の例では、撮影対象B3の位置に含まれていると判断し、撮影対象B3の輪郭を抽出して画像C3からその輪郭を含む部分を抜き出した画像を示す撮影画像データ(以下「部分画像データ」という)を生成する。実行手段102は、そうして生成した部分画像データに対して、操作された操作子に対応する撮影後処理を実行する。例えば、関連検索処理や周囲検索処理が実行される場合、画像C3を示す撮影画像データが用いられると、撮影対象B4(湯飲み及びコースター)に関する情報も検索結果として得られることになるが、撮影対象B3を示す部分画像データが用いられると、より撮影対象B3(急須)に限定された情報が検索結果として得られやすい。このような本変形例によれば、移動操作に基づく撮影後処理を実行しない場合に比べて、ユーザがより得たい情報を撮影後処理によって得ることができる。   In the example of FIG. 15B, the execution unit 102 determines that the image is included in the position of the imaging target B3, extracts an outline of the imaging target B3, and extracts an image obtained by extracting a portion including the outline from the image C3. Captured image data (hereinafter referred to as “partial image data”) is generated. The execution unit 102 performs post-shooting processing corresponding to the operated operator on the partial image data generated in this way. For example, when related search processing and surrounding search processing are executed, if captured image data indicating the image C3 is used, information regarding the imaging target B4 (bathcup and coaster) is also obtained as a search result. When the partial image data indicating B3 is used, information limited to the photographing target B3 (teapot) is easily obtained as a search result. According to such a modification, information that the user wants to obtain can be obtained by the post-shooting process as compared with the case where the post-shooting process based on the moving operation is not executed.

[4−5]複数の撮影後処理に対応する操作子
実施形態では、1つの操作子が1つの撮影後処理に対応していたが、1つの操作子が複数の撮影後処理に対応していてもよい。
図16は、本変形例の操作子の一例を示す図である。図16(a)では、投稿処理及び関連検索処理に対応する操作子A4が示されている。実行手段102は、操作子A4が操作された場合、撮影画像データに対して操作子A4に対応する複数の撮影後処理、すなわち投稿処理及び関連検索処理を実行する。これにより、複数の操作子を操作するよりも簡単な操作で複数の撮影後処理を実行させることができる。
[4-5] Operators corresponding to a plurality of post-shooting processes In the embodiment, one operator corresponds to a single post-shooting process. However, one operator corresponds to a plurality of post-shooting processes. May be.
FIG. 16 is a diagram illustrating an example of an operation element according to this modification. FIG. 16A shows an operator A4 corresponding to the posting process and the related search process. When the operation element A4 is operated, the execution unit 102 performs a plurality of post-shooting processes corresponding to the operation element A4 on the captured image data, that is, a posting process and a related search process. Thereby, a plurality of post-shooting processes can be executed with a simpler operation than operating a plurality of operators.

複数の撮影後処理に対応する操作子を、複数の操作子から生成するようにしてもよい。例えば、表示制御手段101は、図16(b)に示すように操作子A1及びA2を表示させ、操作子A1がドラッグされて操作子A2に重なったときにドロップされた場合に、操作子A1及びA2に代わりに操作子A4を表示させる、といった具合である。表示制御手段101は、こうして生成した操作子を記憶しておき、次回以降も表示させるようにしてもよい。これにより、ユーザは、自分がよく実行させる複数の撮影後処理の組み合わせがある場合に、その組み合わせに対応する操作子を作っておいてその後も利用することができる。   Operators corresponding to a plurality of post-shooting processes may be generated from the plurality of operators. For example, when the display control means 101 displays the controls A1 and A2 as shown in FIG. 16B and is dropped when the control A1 is dragged and overlaps the control A2, the control A1 is displayed. And the operation element A4 is displayed instead of A2. The display control means 101 may store the operator generated in this way and display it on and after the next time. As a result, when there are a plurality of combinations of post-shooting processes that the user often performs, the user can create an operator corresponding to the combination and use it after that.

[4−6]処理関連度に応じた位置及び態様
第2実施形態において表示制御手段101が操作子を表示させる位置及び態様は、上述したものに限らない。例えば、表示制御手段101は、処理関連度が高い撮影後処理ほど操作子の色の彩度を大きくして目立ちやすくしてもよいし、処理関連度によって操作子の色や形を異ならせてもよい。また、表示制御手段101は、上述したように上下方向や四隅の近くに操作子を表示させる場合であれば、処理関連度が高い撮影後処理の操作子ほどユーザが操作しやすい位置に表示させるとよい。
[4-6] Position and Mode According to Processing Relevance The position and mode in which the display control unit 101 displays the operation element in the second embodiment are not limited to those described above. For example, the display control unit 101 may increase the saturation of the color of the operation element so that the post-shooting process having a higher degree of processing relevance may be noticeable, or may change the color or shape of the operation element depending on the degree of processing relevance. Also good. Further, if the display control unit 101 displays the controls in the vertical direction or near the four corners as described above, the post-shooting processing controls having a higher processing relevance are displayed at positions that are easier for the user to operate. Good.

例えばユーザが左手だけで撮影装置を持ちながら操作する場合であれば、処理関連度が高い撮影後処理の操作子ほど、親指が位置する左下に近い位置に表示させるという具合である。なお、ユーザが操作しやすい位置は、ユーザの持ち方や癖によって異なる場合があるので、操作しやすい位置をユーザが決められるようにしてもよい。その場合、表示制御手段101は、処理関連度が高い撮影後処理の操作子ほど、ユーザが決めた操作しやすい位置に近い位置に表示させる。また、表示制御手段101は、位置及び態様のいずれか一方だけ(つまり位置または態様)を、判定手段103により判定された結果に応じさせて、操作子を表示させてもよい。   For example, if the user operates with the left hand only while holding the photographing device, the post-photographing processing operator having a higher processing relevance is displayed at a position closer to the lower left where the thumb is located. Note that the position at which the user can easily operate may vary depending on how the user holds the bag or the bag, so that the user can determine the position at which the user can easily operate. In that case, the display control means 101 displays the post-shooting processing operator having a higher processing relevance at a position closer to the position determined by the user that is easy to operate. Further, the display control unit 101 may display the operation element by causing only one of the position and the mode (that is, the position or the mode) to be determined according to the result determined by the determination unit 103.

[4−7]撮影後処理
撮影後処理は、上述したものに限らない。例えば、撮影対象を販売している店舗の情報を検索する処理や撮影対象の購買に利用可能なクーポンの情報を検索する処理などが撮影後処理として実行されてもよい。また、撮影画像データが示す画像にエッジ抽出や色の変換などを施す画像処理が撮影後処理として実行されてもよいし、撮影画像データにタグと呼ばれる情報を付加する処理が撮影後処理として実行されてもよい。
[4-7] Post-shooting processing The post-shooting processing is not limited to that described above. For example, a process for searching for information on a store that sells a shooting target or a process for searching for information on a coupon that can be used for purchasing a shooting target may be executed as the post-shooting process. Further, image processing for performing edge extraction, color conversion, and the like on the image indicated by the captured image data may be executed as post-shooting processing, or processing for adding information called a tag to the captured image data is executed as post-shooting processing. May be.

なお、撮影後処理は、ユーザの操作を求めるものであってもよい。例えばタグを付加する処理の場合に、操作子の操作が行われた後に、付加するタグの内容を入力する操作をユーザに行わせてもよい。また、実施形態では、撮影装置は撮影画像データをSNSサーバ装置21などのサーバ装置に送信する処理を含む撮影後処理を実行したが、サーバ装置に送信する処理を含まない撮影後処理を実行してもよい。例えば、撮影装置が、サーバ装置の代わりに、関連検索や周辺検索の処理を撮影後処理として実行してもよい。   It should be noted that the post-shooting process may require a user operation. For example, in the process of adding a tag, the user may be made to perform an operation of inputting the content of the tag to be added after the operation of the operator is performed. In the embodiment, the imaging device performs post-imaging processing including processing for transmitting captured image data to a server device such as the SNS server device 21, but performs post-imaging processing that does not include processing for transmission to the server device. May be. For example, the imaging device may execute a related search process and a peripheral search process as a post-imaging process instead of the server apparatus.

[4−8]動画像の撮影
実施形態では、撮影画像データは、写真のような静止画像を示すデータであったが、これに限らず、動画像を示すデータであってもよい。その場合も、静止画像の場合と同様に、SNSへの投稿処理やタグを付加する処理が撮影後処理として実行可能である。他にも、動画像の圧縮、分割、変換など、動画像を示す画像データに対して実行可能な処理が撮影後処理として実行されてもよい。また、動画像に基づいて関連検索や周辺検索を行うサービスが提供されるようになれば、関連検索処理や周辺検索処理が動画像を示す撮影画像データに対して実行されてもよい。要するに、実行可能なものであれば、上述した撮影後処理のいずれが実行されてもよい。
[4-8] Shooting of Moving Image In the embodiment, the captured image data is data indicating a still image such as a photograph, but is not limited thereto, and may be data indicating a moving image. Also in this case, as in the case of a still image, a post process to SNS and a process for adding a tag can be executed as post-shooting processes. In addition, processing that can be performed on image data indicating a moving image, such as compression, division, and conversion of the moving image, may be performed as post-shooting processing. In addition, if a service for performing a related search or a peripheral search based on a moving image is provided, the related search process or the peripheral search process may be performed on captured image data indicating a moving image. In short, any of the post-shooting processes described above may be executed as long as it can be executed.

[4−9]記憶処理
実行手段102が実行する記憶処理は、実施形態で述べたものに限らない。例えば、実行手段102は、撮影画像データを複数の情報処理装置で同期するサービスを提供するサーバ装置に対して撮影画像データを送信する処理を記憶処理として実行してもよい。この場合、実行手段102は、サーバ装置を記憶手段として記憶処理を行うことになる。要するに、実行手段102は、撮影画像データを何らかの記憶手段に記憶させる処理を記憶処理として実行すればよい。
[4-9] Storage Processing The storage processing executed by the execution unit 102 is not limited to that described in the embodiment. For example, the execution unit 102 may execute, as a storage process, a process of transmitting captured image data to a server device that provides a service for synchronizing captured image data with a plurality of information processing apparatuses. In this case, the execution unit 102 performs storage processing using the server device as a storage unit. In short, the execution unit 102 may execute a process of storing the captured image data in some storage unit as a storage process.

[4−10]発明のカテゴリ
本発明は、撮影装置の他に、撮影装置及び撮影後処理を撮影装置と協働して行う外部装置(実施形態におけるSNSサーバ装置など)を備える情報処理システムとしても捉えられる。また、本発明は、撮影装置が実施する処理を実現するための撮影方法としても捉えられる。ここでいう処理とは、例えば、図6に示す撮影処理である。また、本発明は、撮影装置のようなコンピュータを、図3等に示す各手段として機能させるためのプログラムとしても捉えられるものである。このプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されたり、インターネット等のネットワークを介して、コンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態でも提供されたりするものであってもよい。
[4-10] Category of the Invention The present invention is an information processing system including an external device (such as an SNS server device in the embodiment) that performs the photographing device and post-photographing processing in cooperation with the photographing device in addition to the photographing device. Can also be caught. The present invention can also be understood as a photographing method for realizing processing performed by the photographing apparatus. The processing here is, for example, the photographing processing shown in FIG. The present invention can also be understood as a program for causing a computer such as a photographing apparatus to function as each unit shown in FIG. This program may be provided in the form of a recording medium such as an optical disk storing the program, or may be provided in the form of being downloaded to a computer via a network such as the Internet, and making it available for installation. You may do.

1…情報処理システム、2…ネットワーク、10…撮影装置、21…SNSサーバ装置、22…関連検索サーバ装置、23…周囲検索サーバ装置、11…制御部、12…記憶部、13…通信部、14…表示部、15…操作部、16…撮像素子、17…測位部、101…表示制御手段、102…実行手段、103…判定手段。 DESCRIPTION OF SYMBOLS 1 ... Information processing system, 2 ... Network, 10 ... Imaging device, 21 ... SNS server device, 22 ... Related search server device, 23 ... Surrounding search server device, 11 ... Control part, 12 ... Memory | storage part, 13 ... Communication part, DESCRIPTION OF SYMBOLS 14 ... Display part, 15 ... Operation part, 16 ... Image sensor, 17 ... Positioning part, 101 ... Display control means, 102 ... Execution means, 103 ... Determination means.

Claims (8)

画像を表示する表示手段と、
撮影対象を含む画像を撮像する撮像素子と、
前記撮像素子により撮像されている画像と、当該画像を示す画像データを用いて実行可能な複数の第1処理の各々に対応する複数の操作子とを前記表示手段に表示させる表示制御手段と、
前記表示手段に表示された前記複数の操作子のうちのいずれか1つの操作子が操作された場合に、前記撮像素子により撮像されている画像を示す画像データを記憶手段に記憶させる第2処理を実行し、記憶された前記画像データを用いて当該1つの操作子に対応する前記第1処理を実行する実行手段とを備え
前記表示制御手段は、前記記憶手段に記憶されている前記画像データが示す画像のサムネイル画像に、当該画像データを用いて前記実行手段により実行された前記第1処理を表す処理画像を重ねて前記表示手段に表示させ、
前記表示制御手段は、前記処理画像が示す第1処理を変更する操作を受け付ける変更操作子を前記サムネイル画像または当該サムネイル画像の元の画像に重ねて前記表示手段に表示させ、
前記実行手段は、前記変更操作子への操作が行われた場合に、当該処理画像が対応付けられている画像データを用いて変更後の前記第1処理を実行する
撮影装置。
Display means for displaying an image;
An image sensor that captures an image including an imaging target;
Display control means for causing the display means to display an image captured by the image sensor and a plurality of operators corresponding to each of a plurality of first processes executable using image data indicating the image;
A second process for storing, in a storage unit, image data indicating an image picked up by the image sensor when any one of the plurality of operators displayed on the display unit is operated; And executing means for executing the first process corresponding to the one operator using the stored image data ,
The display control unit superimposes a processing image representing the first process executed by the execution unit using the image data on a thumbnail image of the image indicated by the image data stored in the storage unit. Display on the display means,
The display control unit causes the display unit to display a change operation element that receives an operation of changing the first process indicated by the processed image on the thumbnail image or the original image of the thumbnail image,
The execution device executes the first process after change using image data associated with the processed image when an operation is performed on the change operator .
前記複数の第1処理の各々について、前記撮像素子により撮像されている画像に含まれ
る撮影対象との関連性の高さを3段階以上で示す関連度を判定する判定手段を備え、
前記表示制御手段は、前記判定手段により判定された結果に応じた位置または態様で前
記複数の操作子を表示させる
請求項1に記載の撮影装置。
For each of the plurality of first processes, a determination unit is provided that determines a degree of relevance that indicates a degree of relevance in three or more stages with respect to a photographing target included in an image captured by the image sensor,
The imaging apparatus according to claim 1, wherein the display control unit displays the plurality of operators at positions or modes corresponding to the result determined by the determination unit.
前記判定手段は、前記撮像素子により撮像されている画像に含まれる前記撮影対象の種
類に基づいて前記関連度を判定する
請求項2に記載の撮影装置。
The imaging apparatus according to claim 2, wherein the determination unit determines the relevance level based on a type of the imaging target included in an image captured by the imaging element.
自装置の位置を測定する測位手段を備え、
前記判定手段は、前記測位手段により測定された位置に基づいて前記関連度を判定する
請求項2または3に記載の撮影装置。
It has positioning means to measure the position of its own device,
The imaging device according to claim 2, wherein the determination unit determines the degree of association based on a position measured by the positioning unit.
前記判定手段は、前記実行手段により過去に実行された前記第1処理の傾向に基づいて
前記関連度を判定する
請求項2から4のいずれか1項に記載の撮影装置。
The imaging device according to any one of claims 2 to 4, wherein the determination unit determines the degree of association based on a tendency of the first process executed in the past by the execution unit.
記実行手段は、複数の前記操作子が操作された場合には、当該複数の操作子に対応す
る複数の第1処理を、当該操作が開始された順番または当該操作が終了した順番に応じた
順番で、先の前記第1処理の実行を開始してから所定の時間が経過したときに後の前記第
1処理の実行を開始する
請求項1からのいずれか1項に記載の撮影装置。
Before SL execution means, when a plurality of the operators is operated, depending on the order in which the plurality of first process corresponding to the plurality of operators, the operation starts the order or the operation is completed The imaging according to any one of claims 1 to 5 , wherein, in a predetermined order, the execution of the first process is started when a predetermined time has elapsed since the execution of the first process was started. apparatus.
記撮像素子により撮像されている画像には複数の撮影対象が含まれており、
前記表示制御手段は、ユーザが前記操作子を移動させる移動操作を行った場合に、当該
操作子を当該移動操作に応じて移動させながら表示させ、
前記実行手段は、前記移動操作が終了したときに移動させられた前記操作子と重なって
表示されている前記撮影対象の輪郭を抽出して当該輪郭を含む部分を抜き出した画像を示
す画像データを用いて前記第1処理を実行する
請求項1からのいずれか1項に記載の撮影装置。
Includes a plurality of imaging target in the image being captured by the previous SL imaging device,
When the user performs a moving operation for moving the operating element, the display control means displays the operating element while moving the operating element according to the moving operation,
The execution means extracts image data indicating an image obtained by extracting a contour of the subject to be imaged that is displayed so as to overlap with the operator moved when the moving operation is completed and extracting a portion including the contour. The imaging device according to any one of claims 1 to 6 , wherein the first process is executed using the imaging device.
画像を表示する表示手段と、撮影対象を含む画像を撮像する撮像素子とを備える撮影装置が、前記撮像素子により撮像されている画像と、当該画像を示す画像データを用いて実行可能な複数の第1処理の各々に対応する複数の操作子とを前記表示手段に表示させる表示制御ステップと、An imaging device including a display unit that displays an image and an imaging device that captures an image including an imaging target can be executed using an image captured by the imaging device and image data indicating the image. A display control step of causing the display means to display a plurality of operators corresponding to each of the first processes;
前記撮影装置が、前記表示手段に表示された前記複数の操作子のうちのいずれか1つの操作子が操作された場合に、前記撮像素子により撮像されている画像を示す画像データを記憶手段に記憶させる第2処理を実行し、記憶された前記画像データを用いて当該1つの操作子に対応する前記第1処理を実行する実行ステップとを備え、When the photographing device operates any one of the plurality of operators displayed on the display unit, image data indicating an image captured by the imaging element is stored in the storage unit. Performing a second process to be stored, and executing the first process corresponding to the one operator using the stored image data,
前記撮影装置が、前記表示制御ステップにおいて、前記記憶手段に記憶されている前記画像データが示す画像のサムネイル画像に、当該画像データを用いて前記実行ステップにおいて実行された前記第1処理を表す処理画像を重ねて前記表示手段に表示させ、Processing that represents the first process executed in the execution step by using the image data for the thumbnail image of the image indicated by the image data stored in the storage unit in the display control step in the imaging device Overlapping images to display on the display means,
前記撮影装置が、前記表示制御ステップにおいて、前記処理画像が示す第1処理を変更する操作を受け付ける変更操作子を前記サムネイル画像または当該サムネイル画像の元の画像に重ねて前記表示手段に表示させ、In the display control step, the photographing apparatus causes the display unit to display a change operation element that receives an operation to change the first process indicated by the processed image on the thumbnail image or the original image of the thumbnail image,
前記撮影装置が、前記実行ステップにおいて、前記変更操作子への操作が行われた場合に、当該処理画像が対応付けられている画像データを用いて変更後の前記第1処理を実行するWhen the operation is performed on the change operator in the execution step, the imaging apparatus executes the first process after the change using image data associated with the processed image.
撮影方法。Shooting method.
JP2013251338A 2013-12-04 2013-12-04 Imaging apparatus and imaging method Expired - Fee Related JP6450070B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013251338A JP6450070B2 (en) 2013-12-04 2013-12-04 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013251338A JP6450070B2 (en) 2013-12-04 2013-12-04 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2015109553A JP2015109553A (en) 2015-06-11
JP6450070B2 true JP6450070B2 (en) 2019-01-09

Family

ID=53439615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013251338A Expired - Fee Related JP6450070B2 (en) 2013-12-04 2013-12-04 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP6450070B2 (en)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4413285B2 (en) * 1997-06-09 2010-02-10 株式会社ニコン Electronic camera
JP2010074297A (en) * 2008-09-16 2010-04-02 Olympus Imaging Corp Digital camera, image search apparatus, image search method, and program for image search
JP5259315B2 (en) * 2008-09-16 2013-08-07 オリンパスイメージング株式会社 Image search device, digital camera, image search method, and image search program
JP5335474B2 (en) * 2009-02-20 2013-11-06 キヤノン株式会社 Image processing apparatus and image processing method
JP2010273166A (en) * 2009-05-22 2010-12-02 Olympus Imaging Corp Photographic condition control device, camera and program
JP5471124B2 (en) * 2009-07-29 2014-04-16 ソニー株式会社 Image search apparatus, image search method, and image search program
JP5402409B2 (en) * 2009-08-31 2014-01-29 ソニー株式会社 Shooting condition setting device, shooting condition setting method, and shooting condition setting program
JP5218353B2 (en) * 2009-09-14 2013-06-26 ソニー株式会社 Information processing apparatus, display method, and program
JP2011151693A (en) * 2010-01-25 2011-08-04 Panasonic Corp Image processing apparatus
JP5519376B2 (en) * 2010-04-01 2014-06-11 株式会社ザクティ Electronics
JP5719608B2 (en) * 2010-04-02 2015-05-20 オリンパスイメージング株式会社 Photography equipment
JP2012124608A (en) * 2010-12-06 2012-06-28 Olympus Imaging Corp Camera
JP5646318B2 (en) * 2010-12-28 2014-12-24 オリンパスイメージング株式会社 Imaging apparatus and imaging program

Also Published As

Publication number Publication date
JP2015109553A (en) 2015-06-11

Similar Documents

Publication Publication Date Title
KR101977703B1 (en) Method for controlling photographing in terminal and terminal thereof
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
US9639940B2 (en) Imaging apparatus and methods for generating a guide display showing a photographing technique for approximating a composition of a subject image to that of a sample image
JP2013162487A (en) Image display apparatus and imaging apparatus
CN106027841A (en) Portable information device, imaging apparatus and information acquisition system
US20140156462A1 (en) Information processing apparatus, information processing method, program, terminal apparatus, and communication apparatus
JP6196024B2 (en) Information providing system, electronic device, control method, and control program
WO2011096343A1 (en) Photographic location recommendation system, photographic location recommendation device, photographic location recommendation method, and program for photographic location recommendation
JP6210807B2 (en) Display control device and control method of display control device
JP5739239B2 (en) Imaging support system and imaging apparatus
JP6450070B2 (en) Imaging apparatus and imaging method
WO2018000299A1 (en) Method for assisting acquisition of picture by device
JP6302421B2 (en) Content search device, content search method, content storage device, and content storage method
JP6600450B2 (en) Location information specifying device, location information specifying method, and location information specifying program
JP6909022B2 (en) Programs, information terminals, information display methods and information display systems
JP5905865B2 (en) Computer processing method, program, and information processing apparatus
WO2016017224A1 (en) Information processing device, information processing method, and program
JP2018157254A (en) Image management device, image management method, and program
KR102228366B1 (en) Apparatus and method for travel information service
KR101307642B1 (en) Apparatus for taking 3D digital photograph
JP6402523B2 (en) Image editing support apparatus and program
JP6801985B2 (en) Information giving method and server device
JP2018073022A (en) Facility information transmission method, facility information transmission system, facility information transmission program, facility information transmission apparatus and composite image creation program
KR20160061629A (en) Users sphere with the center of the map location-based services
JP6312386B2 (en) Server apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181207

R150 Certificate of patent or registration of utility model

Ref document number: 6450070

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees