JP2014030092A - Information providing device, information providing method, and program of the same - Google Patents

Information providing device, information providing method, and program of the same Download PDF

Info

Publication number
JP2014030092A
JP2014030092A JP2012169391A JP2012169391A JP2014030092A JP 2014030092 A JP2014030092 A JP 2014030092A JP 2012169391 A JP2012169391 A JP 2012169391A JP 2012169391 A JP2012169391 A JP 2012169391A JP 2014030092 A JP2014030092 A JP 2014030092A
Authority
JP
Japan
Prior art keywords
image
unit
imaging
information
information providing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012169391A
Other languages
Japanese (ja)
Inventor
Kazuji Miura
和司 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2012169391A priority Critical patent/JP2014030092A/en
Publication of JP2014030092A publication Critical patent/JP2014030092A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To guide a user toward an object and to provide information suitable to imaging of the object.SOLUTION: An information providing device comprises: an imaging unit for imaging an object; an imaging position estimation unit for estimating an imaging position; an imaging direction estimation unit for estimating an imaging direction; an object information acquisition unit for acquiring object information containing the position of the object; an object direction estimation unit for estimating the direction of the object on the basis of the imaging position, the imaging direction, and the position of the object; a notification processing unit for giving notification of the direction of the object; and an image quality parameter control unit for controlling an image quality parameter on the basis of the object information.

Description

本発明は、情報提供装置、情報提供方法、及びプログラムに関する。   The present invention relates to an information providing apparatus, an information providing method, and a program.

自然風景等を撮影する場合、予め、撮影に適した場所、方向を把握しておくことが好ましい。さらに、星座等の天体写真をとる場合には、対象物の星座が見える方向等を、撮影場所、日時等に基づいて、算出する必要がある。   When photographing natural scenery or the like, it is preferable to know in advance the location and direction suitable for photographing. Furthermore, when taking a celestial photograph such as a constellation, it is necessary to calculate the direction in which the constellation of the object can be seen, based on the shooting location, date and time, and the like.

特許文献1において、地磁気センサ、GPS(Global Positioning System)、日時情報に基づいて、星座の天体運動を演算する携帯端末装置が開示されている。そして、特許文献1において開示された携帯端末装置は、地磁気センサの出力に基づいて、携帯端末装置の向きに応じた星座の名称をユーザに提示する。   Patent Document 1 discloses a portable terminal device that calculates the celestial motion of a constellation based on a geomagnetic sensor, GPS (Global Positioning System), and date / time information. And the portable terminal device indicated in patent documents 1 presents the name of the constellation according to the direction of a portable terminal device to a user based on the output of a geomagnetic sensor.

非特許文献1においては、携帯端末の向き、GPSに基づいて、携帯端末装置の向きに応じた星座、星雲等を算出するアプリケーションが開示されている。そして、非特許文献1で開示されたアプリケーションでは、算出された星座を表す画像を生成し、星座の画像と名称を表示部に表示する。   Non-Patent Document 1 discloses an application that calculates a constellation, a nebula, and the like according to the orientation of the mobile terminal device based on the orientation of the mobile terminal and GPS. And in the application disclosed by the nonpatent literature 1, the image showing the calculated constellation is produced | generated, and the image and name of a constellation are displayed on a display part.

特開2004−13066号公報JP 2004-13066 A

“スカイマップ Google PlayのAndroidアプリ”[online]、[平成24年7月9日検索]、インターネット〈URL:https://play.google.com/stote/apps/details?id=com.google.android.stardroid&hl=ja〉"Sky Map Google Play Android App" [online], [Search July 9, 2012], Internet <URL: https: // play. Google. com / sote / apps / details? id = com. Google. android. starlid & hl = ja>

なお、上記先行技術文献等の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明の観点からなされたものである。   The disclosures of the above prior art documents and the like are incorporated herein by reference. The following analysis has been made from the viewpoint of the present invention.

上述したとおり、自然風景等を撮影する場合、予め、撮影に適した場所、方向を把握しておくことが好ましい。さらに、天体写真をとる場合には、日時を考慮することが必要である。なぜなら、日時に応じて、星座等の見える方向が異なるからである。   As described above, when shooting a natural landscape or the like, it is preferable to know in advance the location and direction suitable for shooting. Furthermore, when taking astrophotography, it is necessary to consider the date and time. This is because the direction in which the constellation and the like are visible varies depending on the date and time.

さらに、対象物を撮影する際、対象物に応じて、焦点距離、明度等は異なることが好ましい。例えば、天体写真を撮影する場合、焦点距離を無限遠に設定することが好ましい。また、星座を撮影する場合には、星の光度等に応じて、明度等を変更することが好ましい。   Furthermore, when photographing an object, it is preferable that the focal length, brightness, and the like differ depending on the object. For example, when taking an astrophotography, it is preferable to set the focal length to infinity. Further, when photographing a constellation, it is preferable to change the brightness or the like according to the brightness of the star or the like.

特許文献1、及び非特許文献1で開示された技術では、対象物の撮影に適した明度等の情報は提供されない。   In the techniques disclosed in Patent Document 1 and Non-Patent Document 1, information such as brightness suitable for photographing an object is not provided.

従って、対象物の方向へ誘導し、対象物の撮影に適した情報を提供する情報提供装置、情報提供方法、及びプログラムが望まれる。   Therefore, an information providing device, an information providing method, and a program that guide information toward the object and provide information suitable for photographing the object are desired.

本発明の第1の視点によれば、対象物を撮影する撮像部と、撮影位置を推定する撮影位置推定部と、撮影方向を推定する撮影方向推定部と、対象物位置を含む対象物情報を取得する対象物情報取得部と、前記撮影位置、及び前記撮影方向、及び前記対象物位置に基づいて、対象物方向を推定する対象物方向推定部と、前記対象物方向を報知する報知処理部と、前記対象物情報に基づいて、画質パラメータを制御する画質パラメータ制御部と、を備える情報提供装置が提供される。   According to the first aspect of the present invention, an imaging unit that captures an object, an imaging position estimation unit that estimates an imaging position, an imaging direction estimation unit that estimates an imaging direction, and object information including the object position An object information acquisition unit that acquires the object direction, an object direction estimation unit that estimates the object direction based on the imaging position, the imaging direction, and the object position, and a notification process that notifies the object direction And an image quality parameter control unit that controls an image quality parameter based on the object information.

本発明の第2の視点によれば、対象物を撮影する工程と、撮影位置を推定する工程と、撮影方向を推定する工程と、対象物位置を含む対象物情報を取得する工程と、前記撮影位置、及び前記撮影方向、及び前記対象物位置に基づいて、対象物方向を推定する対象物方向推定工程と、前記対象物方向を報知する報知工程と、前記対象物情報に基づいて、画質パラメータを制御する工程と、を含む情報提供方法が提供される。   According to a second aspect of the present invention, a step of photographing a target, a step of estimating a photographing position, a step of estimating a photographing direction, a step of acquiring target information including a target position, An object direction estimating step for estimating the object direction based on the shooting position, the shooting direction, and the object position, a notifying step for notifying the object direction, and an image quality based on the object information. And providing a method of providing information.

本発明の第3の視点によれば、情報提供装置を制御するコンピュータに実行させるプログラムであって、対象物を撮影する処理と、撮影位置を推定する処理と、撮影方向を推定する処理と、対象物位置を含む対象物情報を取得する処理と、前記撮影位置、及び前記撮影方向、及び前記対象物位置に基づいて、対象物方向を推定する対象物方向推定処理と、前記対象物方向を報知する報知処理と、前記対象物情報に基づいて、画質パラメータを制御する処理と、を実行するプログラムが提供される。なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non−transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。   According to a third aspect of the present invention, there is provided a program to be executed by a computer that controls the information providing apparatus, the process of shooting an object, the process of estimating a shooting position, and the process of estimating a shooting direction; A process for acquiring object information including an object position, an object direction estimating process for estimating an object direction based on the imaging position, the imaging direction, and the object position, and the object direction. A program is provided that performs a notification process for notification and a process for controlling an image quality parameter based on the object information. This program can be recorded on a computer-readable storage medium. The storage medium can be non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like. The present invention can also be embodied as a computer program product.

本発明の各視点によれば、対象物の方向へ誘導し、対象物の撮影に適した情報を提供する情報提供装置、情報提供方法、及びプログラムが提供される。   According to each viewpoint of the present invention, an information providing apparatus, an information providing method, and a program for guiding information in the direction of an object and providing information suitable for photographing the object are provided.

一実施形態を説明するための図である。It is a figure for demonstrating one Embodiment. 第1の実施形態に係る情報提供装置1の全体構成の一例を示す平面図である。It is a top view which shows an example of the whole structure of the information provision apparatus 1 which concerns on 1st Embodiment. 第1の実施形態に係る情報提供装置1の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the information provision apparatus 1 which concerns on 1st Embodiment. 対象物方向の一例を示す図である。It is a figure which shows an example of a target object direction. 対象物方向と報知画像の一例を示す図である。It is a figure which shows an example of a target object direction and an alerting | reporting image. 報知画像の一例を示す図である。It is a figure which shows an example of a alerting | reporting image. 加算枚数と星の光度の関係の一例を示す図である。It is a figure which shows an example of the relationship between the number of addition and the luminous intensity of a star. 対象物方向の報知処理に関する動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement regarding the alerting | reporting process of a target object direction. 撮影画像の補正に関する動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement regarding correction | amendment of a picked-up image. 撮影画像と加算画像の一例を示す図である。It is a figure which shows an example of a picked-up image and an addition image.

初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。   First, an outline of an embodiment will be described with reference to FIG. Note that the reference numerals of the drawings attached to the outline are attached to the respective elements for convenience as an example for facilitating understanding, and the description of the outline is not intended to be any limitation.

上述のとおり、自然風景等を撮影する場合、予め、撮影に適した場所、方向を把握しておくことが好ましい。さらに、対象物に応じて、画質パラメータは異なる。そのため、対象物の方向へ誘導し、対象物に応じた画質の画像を提供する情報提供装置が望まれる。   As described above, when shooting a natural landscape or the like, it is preferable to know in advance the location and direction suitable for shooting. Furthermore, the image quality parameter varies depending on the object. Therefore, an information providing apparatus that guides in the direction of the object and provides an image with an image quality corresponding to the object is desired.

そこで、一例として図1に示す情報提供装置100を提供する。情報提供装置100は、対象物を撮影する撮像部101と、撮影位置を推定する撮影位置推定部102と、撮影方向を推定する撮影方向推定部103と、対象物位置を含む対象物情報を取得する対象物情報取得部104と、撮影位置、及び撮影方向、及び対象物位置に基づいて、対象物方向を推定する対象物方向推定部105と、対象物方向を報知する報知処理部106と、対象物情報に基づいて、画質パラメータを制御する画質パラメータ制御部107と、を備える。   Therefore, the information providing apparatus 100 shown in FIG. 1 is provided as an example. The information providing apparatus 100 acquires an object information including an object position, an imaging unit 101 that images an object, an imaging position estimation unit 102 that estimates an imaging position, an imaging direction estimation unit 103 that estimates an imaging direction. A target object information acquisition unit 104, a target position estimation unit 105 that estimates a target direction based on a shooting position, a shooting direction, and a target position; a notification processing unit 106 that notifies the target direction; An image quality parameter control unit 107 that controls image quality parameters based on the object information.

情報提供装置100は、対象物の存在する方向(以下、対象物方向と呼ぶ)を報知する。さらに、情報提供装置100は、対象物に関する情報(以下、対象物情報と呼ぶ)に基づいて、画質パラメータを制御する。   The information providing apparatus 100 notifies the direction in which the object exists (hereinafter referred to as the object direction). Furthermore, the information providing apparatus 100 controls the image quality parameter based on information related to the object (hereinafter referred to as object information).

具体的には、まず、撮影位置推定部102は、撮影位置を推定する(ステップS1001)。撮影位置とは、情報提供装置100の存在する位置を意味する。そして、撮影方向推定部103は、撮影方向を推定する(ステップS1002)。撮影方向とは、撮像部101が向いている方向を意味する。次に、対象物情報取得部104は、対象物位置を含む対象物情報を取得する(ステップS1003)。対象物位置とは、対象物の位置に関する情報を意味する。その後、対象物方向推定部105は、撮影位置、撮影方向、対象物位置に基づいて、対象物方向を推定する(ステップS1004)。報知処理部106は、対象物方向を報知する(ステップS1005)。そのため、ユーザが対象物の方向を知らない場合であっても、情報提供装置100は、ユーザに、対象物の方向を提示できる。さらに、画質パラメータ制御部107は、対象物情報に基づいて、画質パラメータを制御する(ステップS1006)。従って、情報提供装置100は、対象物の方向へ誘導し、対象物の撮影に適した情報を提供する。   Specifically, first, the shooting position estimation unit 102 estimates the shooting position (step S1001). The shooting position means a position where the information providing apparatus 100 exists. Then, the shooting direction estimation unit 103 estimates the shooting direction (step S1002). The shooting direction means a direction in which the imaging unit 101 is facing. Next, the object information acquisition unit 104 acquires object information including the object position (step S1003). The object position means information related to the position of the object. Thereafter, the object direction estimation unit 105 estimates the object direction based on the imaging position, the imaging direction, and the object position (step S1004). The notification processing unit 106 notifies the object direction (step S1005). Therefore, even when the user does not know the direction of the object, the information providing apparatus 100 can present the direction of the object to the user. Further, the image quality parameter control unit 107 controls the image quality parameter based on the object information (step S1006). Therefore, the information providing apparatus 100 guides in the direction of the object and provides information suitable for photographing the object.

以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。
[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
Hereinafter, specific embodiments will be described in more detail with reference to the drawings.
[First Embodiment]
The first embodiment will be described in more detail with reference to the drawings.

図2は、本実施形態に係る情報提供装置1の全体構成の一例を示す平面図である。   FIG. 2 is a plan view showing an example of the overall configuration of the information providing apparatus 1 according to the present embodiment.

情報提供装置1は、表示部10と、操作部20と、撮像部30と、を含んで構成される。なお、本実施形態に係る情報提供装置1を、図2で示す形態に限定する趣旨ではない。情報提供装置1には、例えば、スマートフォン、携帯電話、ゲーム機、タブレットPC(Personal Computer)、スレートPC、PDA(Personal Digital Assistants)等が相当する。   The information providing apparatus 1 includes a display unit 10, an operation unit 20, and an imaging unit 30. The information providing apparatus 1 according to the present embodiment is not intended to be limited to the form shown in FIG. The information providing apparatus 1 corresponds to, for example, a smartphone, a mobile phone, a game machine, a tablet PC (Personal Computer), a slate PC, a PDA (Personal Digital Assistant), and the like.

ユーザは、表示部10により情報提供装置1が表示する情報(文字や画像等)を視認する。表示部10は、液晶パネル、有機EL(Electro Luminescence)パネル等が好ましい。   The user visually recognizes information (characters, images, etc.) displayed by the information providing apparatus 1 on the display unit 10. The display unit 10 is preferably a liquid crystal panel, an organic EL (Electro Luminescence) panel, or the like.

操作部20は、情報提供装置1に対するユーザの操作を受け付ける。図2では、操作部20としてハードウエアキーを図示しているが、タッチパネル等の操作手段を採用することもできる。   The operation unit 20 receives a user operation on the information providing apparatus 1. In FIG. 2, a hardware key is illustrated as the operation unit 20, but operation means such as a touch panel may be employed.

撮像部30は、対象物を撮影する。具体的には、撮像部30は、表示部10と相対する面に配置され、表示部10と相対する方向の対象物を撮影する。   The imaging unit 30 captures an object. Specifically, the imaging unit 30 is arranged on a surface facing the display unit 10 and photographs an object in a direction facing the display unit 10.

図3は、情報提供装置1の内部構成の一例を示す図である。情報提供装置1は、表示部10と、操作部20と、撮像部30と、制御部40と、GPSアンテナ50と、方位センサ60と、加速度センサ70と、時計80と、記憶部90と、を含んで構成される。   FIG. 3 is a diagram illustrating an example of the internal configuration of the information providing apparatus 1. The information providing apparatus 1 includes a display unit 10, an operation unit 20, an imaging unit 30, a control unit 40, a GPS antenna 50, an orientation sensor 60, an acceleration sensor 70, a clock 80, a storage unit 90, It is comprised including.

制御部40は、対象物設定部41と、対象物情報取得部42と、撮影位置推定部43と、撮影方向推定部44と、対象物方向推定部45と、報知処理部46と、画質パラメータ制御部47と、ノイズ除去処理部48と、加算画像生成部49と、を含んで構成される。   The control unit 40 includes an object setting unit 41, an object information acquisition unit 42, an imaging position estimation unit 43, an imaging direction estimation unit 44, an object direction estimation unit 45, a notification processing unit 46, and an image quality parameter. A control unit 47, a noise removal processing unit 48, and an addition image generation unit 49 are included.

記憶部90は、星データ記憶部91と、撮影画像記憶部92と、を含んで構成される。図3には、簡単のため、本実施形態に係る情報提供装置1に関係するモジュールを主に記載する。なお、以下の説明では、対象物を星座として説明する。   The storage unit 90 includes a star data storage unit 91 and a captured image storage unit 92. In FIG. 3, for the sake of simplicity, modules related to the information providing apparatus 1 according to the present embodiment are mainly described. In the following description, the object is described as a constellation.

星データ記憶部91は、星に関するデータを記憶する。具体的には、星に関するデータは、星の位置に関するデータ(以下、星図データと呼ぶ)と、星座に関するデータ(以下、星座データと呼ぶ)を含む。星図データは、星の位置、及び日時と関連付けられた天体の情報を含む。星座データは、星座の名称、星座を構成する星の等級(光度)等の情報を含む。また、星座データは、星座を構成する星の名称、星座を構成する星を連結する線(以下、星座線と呼ぶ)に関する情報を含んでもよい。   The star data storage unit 91 stores data regarding stars. Specifically, the data relating to the star includes data relating to the position of the star (hereinafter referred to as star map data) and data relating to the constellation (hereinafter referred to as constellation data). The star map data includes star positions and celestial information associated with the date and time. The constellation data includes information such as the name of the constellation and the grade (luminosity) of the stars constituting the constellation. The constellation data may also include information on names of stars constituting the constellation and lines connecting the stars constituting the constellation (hereinafter referred to as constellation lines).

撮影画像記憶部92は、撮像部30が撮影した画像(以下、撮影画像と呼ぶ)を記憶する。制御部40は、操作部20に対する操作に基づいて、撮影画像を、撮影画像記憶部92に記憶してもよい。図3において、撮影画像記憶部92は、情報提供装置1の内部に配置されているが、外部記憶媒体でもよい。例えば、撮影画像記憶部92は、メモリーカード等の外部記憶媒体でもよい。なお、外部記憶媒体は、各種あるが、その種別は問わない。   The captured image storage unit 92 stores an image captured by the imaging unit 30 (hereinafter referred to as a captured image). The control unit 40 may store the captured image in the captured image storage unit 92 based on an operation on the operation unit 20. In FIG. 3, the captured image storage unit 92 is arranged inside the information providing apparatus 1, but may be an external storage medium. For example, the captured image storage unit 92 may be an external storage medium such as a memory card. There are various types of external storage media, but the type is not limited.

対象物設定部41は、対象物を設定する。対象物設定部41は、操作部20が検出する操作に基づいて、対象物を設定してもよい。   The object setting unit 41 sets an object. The object setting unit 41 may set an object based on an operation detected by the operation unit 20.

対象物情報取得部42は、対象物位置を含む対象物情報を取得する。対象物情報は、対象物の種類に関する情報を含む。また、対象物が星座の場合には、対象物情報取得部42は、対象物位置として、対象物の星座の位置を取得する。さらに、対象物情報取得部42は、星データ記憶部91を参照し、対象物の星座データを取得する。   The object information acquisition unit 42 acquires object information including the object position. The object information includes information regarding the type of the object. When the object is a constellation, the object information acquisition unit 42 acquires the position of the constellation of the object as the object position. Furthermore, the target object information acquisition unit 42 refers to the star data storage unit 91 and acquires the constellation data of the target object.

撮影位置推定部43は、撮影位置を推定する。つまり、撮影位置推定部43は、情報提供装置1の位置を推定する。撮影位置推定部43は、情報提供装置1の緯度、経度を含む情報を推定する。具体的には、まず、GPSアンテナ50が、GPS衛星からの電波を受信する。そして、撮影位置推定部43は、GPSアンテナ50が受信した電波に基づいて、情報提供装置1の位置を、撮影位置として推定する。   The shooting position estimation unit 43 estimates the shooting position. That is, the shooting position estimation unit 43 estimates the position of the information providing apparatus 1. The shooting position estimation unit 43 estimates information including the latitude and longitude of the information providing apparatus 1. Specifically, first, the GPS antenna 50 receives radio waves from GPS satellites. Then, the shooting position estimation unit 43 estimates the position of the information providing device 1 as the shooting position based on the radio wave received by the GPS antenna 50.

撮影方向推定部44は、撮影方向を推定する。つまり、撮影方向推定部44は、撮像部30が向いている方向を推定する。その際に、撮影方向推定部44は、方位センサ60、及び加速度センサ70の出力に基づいて、撮影方向を推定する。   The shooting direction estimation unit 44 estimates the shooting direction. That is, the shooting direction estimation unit 44 estimates the direction in which the imaging unit 30 is facing. At that time, the shooting direction estimation unit 44 estimates the shooting direction based on the outputs of the direction sensor 60 and the acceleration sensor 70.

具体的には、撮影方向推定部44は、方位センサ60の出力に基づいて、撮像部30の方位を推定する。さらに、撮影方向推定部44は、加速度センサ70の出力に基づいて、撮像部30の姿勢(角度)を推定する。また、撮影方向推定部44は、角速度センサ(図示せず)の出力に基づいて、撮像部30の姿勢を推定してもよい。   Specifically, the imaging direction estimation unit 44 estimates the orientation of the imaging unit 30 based on the output of the orientation sensor 60. Further, the shooting direction estimation unit 44 estimates the attitude (angle) of the imaging unit 30 based on the output of the acceleration sensor 70. Further, the shooting direction estimation unit 44 may estimate the posture of the imaging unit 30 based on the output of an angular velocity sensor (not shown).

対象物方向推定部45は、撮影位置、及び撮影方向、及び対象物位置に基づいて、対象物方向を推定する。具体的には、まず、対象物方向推定部45は、撮影位置及び対象物位置を含む直線を光軸とした場合に、所定の焦点距離の撮像面を、対象撮像面として決定する。そして、対象物方向推定部45は、撮像面の中心から対象撮像面の中心に対する方向を、対象物方向として推定する。なお、情報提供装置1から対象撮像面までの焦点距離、及び情報提供装置1から撮像面までの焦点距離は同一とする。   The target object direction estimation unit 45 estimates the target object direction based on the shooting position, the shooting direction, and the target object position. Specifically, first, the object direction estimation unit 45 determines an imaging surface having a predetermined focal length as the target imaging surface when a straight line including the imaging position and the object position is used as the optical axis. Then, the object direction estimating unit 45 estimates the direction from the center of the imaging surface to the center of the target imaging surface as the object direction. The focal distance from the information providing apparatus 1 to the target imaging surface and the focal distance from the information providing apparatus 1 to the imaging surface are the same.

以下の説明では、撮影位置を原点とし、鉛直方向をZ軸、Z軸に直交する2軸をX軸、Y軸とする座標系を既定して説明する。   In the following description, a coordinate system is described in which the photographing position is the origin, the vertical direction is the Z axis, and the two axes orthogonal to the Z axis are the X axis and the Y axis.

図4は、対象物方向の一例を示す図である。図4の場合、情報提供装置1の撮影位置を原点P401とする。点P402は、対象物位置を表す。   FIG. 4 is a diagram illustrating an example of the object direction. In the case of FIG. 4, the photographing position of the information providing apparatus 1 is set as the origin P401. Point P402 represents the object position.

また、図4において、破線L1は、撮像部30の光軸を表す。破線L1を光軸とした場合の撮像面は、撮像面201である。さらに、破線L2は、点P401及び点P402を含む直線である。つまり、破線L2は、撮影位置及び対象物位置を含む直線である。そして、破線L2を光軸とした場合の対象撮像面は、対象撮像面202である。なお、上述のとおり、撮像面201と対象撮像面202の焦点距離は同一とする。   In FIG. 4, a broken line L1 represents the optical axis of the imaging unit 30. The imaging surface when the broken line L1 is the optical axis is the imaging surface 201. Furthermore, the broken line L2 is a straight line including the point P401 and the point P402. That is, the broken line L2 is a straight line including the shooting position and the object position. The target imaging plane when the broken line L2 is the optical axis is the target imaging plane 202. As described above, the focal lengths of the imaging surface 201 and the target imaging surface 202 are the same.

ここで、矢印D1は、撮像面201の中心から、対象撮像面202の中心への方向を表す。従って、対象物方向推定部45は、矢印D1で表す方向を対象物方向として推定する。   Here, the arrow D <b> 1 represents a direction from the center of the imaging surface 201 to the center of the target imaging surface 202. Therefore, the object direction estimation unit 45 estimates the direction represented by the arrow D1 as the object direction.

報知処理部46は、対象物方向を報知する。例えば、報知処理部46は、画像、音声、光、振動の少なくともいずれか一を用いて、対象物方向を報知してもよい。報知処理部46は、画像を用いて対象物方向を報知する場合、対象物方向を示す画像等を表示部10に表示してもよい。以下、対象物方向を示す画像を報知画像と呼ぶ。具体的には、報知処理部46は、対象物方向を示す矢印画像等を、報知画像として生成することが好ましい。   The notification processing unit 46 notifies the object direction. For example, the notification processing unit 46 may notify the object direction using at least one of image, sound, light, and vibration. When notifying the object direction using an image, the notification processing unit 46 may display an image or the like indicating the object direction on the display unit 10. Hereinafter, an image indicating the object direction is referred to as a notification image. Specifically, it is preferable that the notification processing unit 46 generates an arrow image or the like indicating the object direction as a notification image.

そして、報知処理部46は、報知画像と、撮像部30の入力画像を重ね合わせた(合成した)画像を表示部10に表示する。また、報知画像は、対象物を強調する画像を含んでもよい。具体的には、報知処理部46は、撮像部30の入力画像と、対象物方向を示す矢印画像等を合成した画像を生成する。そして、報知処理部46は、生成した合成画像を表示部10に表示する。従って、撮影位置、撮影方向に応じて、撮像部30の入力画像、及び対象物方向は変化する。つまり、撮影位置、撮影方向に応じて、報知処理部46が生成する合成画像は、変化する。なお、表示部10の中央に、対象物が表示されることが好ましい。なぜなら、表示部10の中心に対象物が表示されることは、対象物が、撮像部30の光軸上に位置することを意味するからである。そのため、報知処理部46は、対象物の表示位置が表示部10の中心となるように、対象物方向を報知することが好ましい。   Then, the notification processing unit 46 displays an image obtained by superimposing (combining) the notification image and the input image of the imaging unit 30 on the display unit 10. The notification image may include an image that emphasizes the target object. Specifically, the notification processing unit 46 generates an image obtained by combining the input image of the imaging unit 30 with an arrow image indicating the direction of the object. Then, the notification processing unit 46 displays the generated composite image on the display unit 10. Therefore, the input image of the imaging unit 30 and the object direction change according to the shooting position and shooting direction. That is, the composite image generated by the notification processing unit 46 changes according to the shooting position and the shooting direction. In addition, it is preferable that an object is displayed at the center of the display unit 10. This is because displaying an object at the center of the display unit 10 means that the object is located on the optical axis of the imaging unit 30. Therefore, it is preferable that the notification processing unit 46 notifies the object direction so that the display position of the object is at the center of the display unit 10.

また、報知処理部46は、対象物方向を示す音声を出力してもよい。例えば、図5(a)の場合、「左方向にカシオペア座があります」等の音声を出力してもよい。   Further, the notification processing unit 46 may output a sound indicating the direction of the object. For example, in the case of FIG. 5A, a voice such as “There is a Cassiopeia seat in the left direction” may be output.

また、報知処理部46は、対象物方向と、情報提供装置との距離を光、振動等で報知してもよい。その場合、報知処理部46は、LED(Light Emitting Diode、図示せず)、バイブレータ(図示せず)を備えていることが好ましい。例えば、報知処理部46は、対象物が撮像部30の画角内となる位置に近づくほど、光の点滅を早くしてもよい。また、報知処理部46は、対象物が撮像部30の画角内となる位置に近づくほど、振動の周期を短くしてもよい。   Further, the notification processing unit 46 may notify the distance between the object direction and the information providing apparatus by light, vibration, or the like. In that case, it is preferable that the alerting | reporting process part 46 is equipped with LED (Light Emitting Diode, not shown) and a vibrator (not shown). For example, the notification processing unit 46 may make the light blink faster as the object approaches the position within the angle of view of the imaging unit 30. Further, the notification processing unit 46 may shorten the period of vibration as the object approaches a position that is within the angle of view of the imaging unit 30.

図5は、対象物方向と報知画像の一例を示す図である。図5(a)は、対象物方向の一例を示す。矢印D2は対象物方向を示す。つまり、図5(a)の場合、矢印D2は、撮像面211の中心点P411から、対象撮像面の中心に対する方向を表す。   FIG. 5 is a diagram illustrating an example of an object direction and a notification image. FIG. 5A shows an example of the object direction. Arrow D2 indicates the object direction. That is, in the case of FIG. 5A, the arrow D2 represents the direction from the center point P411 of the imaging surface 211 to the center of the target imaging surface.

一方、図5(b)は、表示部10の表示画像の一例を示す。図5(b)の場合、撮像部30は、入力画像として、山と星を含む画像を取得したとする。その場合、図5(b)に示すように、報知処理部46は、対象物方向D2を示す矢印画像301と、撮像部30の入力画像を合成した画像を生成する。   On the other hand, FIG. 5B shows an example of a display image on the display unit 10. In the case of FIG.5 (b), the imaging part 30 assumes that the image containing a mountain and a star was acquired as an input image. In that case, as illustrated in FIG. 5B, the notification processing unit 46 generates an image obtained by combining the arrow image 301 indicating the object direction D <b> 2 and the input image of the imaging unit 30.

図6は、報知画像の一例を示す図である。図6では、対象物設定部41は、「カシオペア座」を対象物として設定しているとする。図6(a)は、撮像部30の画角内にカシオペア座が存在しない場合の一例を示す図である。ここで、対象物方向推定部45は、左方向にカシオペア座が存在すると推定したとする。図6(a)の場合、報知処理部46は、左方向を示す矢印画像311と、星座の名称312を含む報知画像を生成する。そして、報知処理部46は、報知画像と、撮像部30の入力画像と、を合成した画像を生成し、表示部10に表示する。なお、図6(a)の場合には、報知処理部46は、星座の名称312として、「カシオペア座」の文字を表示している。   FIG. 6 is a diagram illustrating an example of a notification image. In FIG. 6, it is assumed that the object setting unit 41 sets “Cassiopeia” as an object. FIG. 6A is a diagram illustrating an example of a case in which no cassiopeia seat exists within the angle of view of the imaging unit 30. Here, it is assumed that the object direction estimation unit 45 estimates that the Cassiopeia locus exists in the left direction. In the case of FIG. 6A, the notification processing unit 46 generates a notification image including an arrow image 311 indicating the left direction and a constellation name 312. Then, the notification processing unit 46 generates an image obtained by combining the notification image and the input image of the imaging unit 30 and displays the image on the display unit 10. In the case of FIG. 6A, the notification processing unit 46 displays “Cassiopeia” as the constellation name 312.

一方、図6(b)は、撮像部30の画角内に、カシオペア座が存在する場合の一例を示す図である。図6(b)の場合、カシオペア座を示す星マークと、星座線が表示されている。ここで、図6(b)の場合、カシオペア座は、表示部10の左上に表示されている。そのため、図6(b)の場合には、報知処理部46は、上方向と左方向を示す矢印画像313を生成し、表示部10に表示している。従って、ユーザは、矢印画像313で示す方向に、情報提供装置の位置、角度を変更することが好ましい。つまり、ユーザが、撮像部30を対象物へ向けるように、ユーザを誘導するために、報知処理部46は、対象物方向を報知する。   On the other hand, FIG. 6B is a diagram illustrating an example in which a Cassiopeia seat exists within the angle of view of the imaging unit 30. In the case of FIG. 6B, a star mark indicating a Cassiopeia locus and a constellation line are displayed. Here, in the case of FIG. 6B, the Cassiopeia seat is displayed on the upper left of the display unit 10. Therefore, in the case of FIG. 6B, the notification processing unit 46 generates an arrow image 313 indicating the upward direction and the left direction and displays it on the display unit 10. Therefore, the user preferably changes the position and angle of the information providing apparatus in the direction indicated by the arrow image 313. That is, in order for the user to guide the user to point the imaging unit 30 toward the target, the notification processing unit 46 notifies the target direction.

画質パラメータ制御部47は、対象物情報に基づいて、画質パラメータを制御する。画質パラメータは、加算枚数、焦点距離、明度、色調、彩度、露光時間、ホワイトバランス等を含む。加算枚数については、後述する。   The image quality parameter control unit 47 controls the image quality parameter based on the object information. The image quality parameters include the number of added sheets, focal length, brightness, color tone, saturation, exposure time, white balance, and the like. The added number will be described later.

例えば、対象物の種類が星座である場合、画質パラメータ制御部47は、焦点距離を無限遠に設定する。また、画質パラメータ制御部47は、星座を構成する星の光度に応じて、明度、ホワイトバランス、露光時間等を変更してもよい。例えば、星座を構成する星の光度が低いほど、画質パラメータ制御部47は、露光時間を長くすることが好ましい。または、星座を構成する星の光度が低いほど、画質パラメータ制御部47は、明度を高くしてもよい。また、画質パラメータ制御部47は、星座を構成する星、又は星雲等の色に基づいて、色調を変更してもよい。その場合、対象物情報は、星座を構成する星、又は星雲等の色を含む。   For example, when the type of the object is a constellation, the image quality parameter control unit 47 sets the focal length to infinity. Further, the image quality parameter control unit 47 may change the brightness, white balance, exposure time, etc. according to the luminous intensity of the stars constituting the constellation. For example, the image quality parameter control unit 47 preferably lengthens the exposure time as the luminous intensity of the stars constituting the constellation is lower. Alternatively, the image quality parameter control unit 47 may increase the brightness as the luminous intensity of the stars constituting the constellation is lower. Further, the image quality parameter control unit 47 may change the color tone based on the color of a star or a nebula constituting a constellation. In that case, the object information includes colors such as stars or nebulae constituting a constellation.

このように、画質パラメータ制御部47が対象物情報(例えば、星の光度)に基づいて、画質パラメータを変更することによって、撮像部30は、対象物に適した画像を撮影できる。   As described above, the image quality parameter control unit 47 changes the image quality parameter based on the object information (for example, the luminous intensity of the star), so that the imaging unit 30 can capture an image suitable for the object.

ノイズ除去処理部48は、撮影画像のノイズを除去する画像処理を行う。例えば、ノイズ除去処理部48は、撮影画像にウェーブレット変換を行い、高周波成分を抽出してもよい。そして、ノイズ除去処理部48は、抽出した高周波成分を除去して、逆ウェーブレット変換を行う。その結果、ノイズ除去処理部48は、ノイズを除去した画像を生成できる。なお、ノイズを除去する画像処理は各種あるが、その詳細は問わない。   The noise removal processing unit 48 performs image processing for removing noise in the captured image. For example, the noise removal processing unit 48 may perform wavelet transform on the captured image and extract a high frequency component. And the noise removal process part 48 removes the extracted high frequency component, and performs inverse wavelet transformation. As a result, the noise removal processing unit 48 can generate an image from which noise has been removed. There are various types of image processing for removing noise, but the details are not limited.

加算画像生成部49は、撮影画像を所定の枚数、加算した画像を生成する。以下の説明では、加算画像生成部49が生成した画像を加算画像と呼ぶ。さらに、以下の説明では、加算する枚数を、加算枚数と呼ぶ。具体的には、加算画像生成部49は、撮影画像の画素値を加算し、加算画像を生成する。そのため、加算画像の各画素値は、加算前の各画素値より高くなる。つまり、加算画像の明度は、撮影画像の明度より高くなる。   The added image generation unit 49 generates an image obtained by adding a predetermined number of photographed images. In the following description, the image generated by the added image generation unit 49 is referred to as an added image. Further, in the following description, the number to be added is referred to as an added number. Specifically, the addition image generation unit 49 adds the pixel values of the captured image to generate an addition image. Therefore, each pixel value of the added image is higher than each pixel value before addition. That is, the brightness of the added image is higher than the brightness of the captured image.

なお、加算画像生成部49は、再帰的に画素を加算してもよい。例えば、4枚の撮影画像を加算する場合、まず、加算画像生成部49は、撮影画像を複製する。そして、加算画像生成部49は、元の撮影画像と、複製画像を加算する。その後、加算画像生成部49は、生成された画像(第1の加算画像と呼ぶ)を複製する。そして、加算画像生成部49は、第1の加算画像と、複製された第1の加算画像を加算してもよい。   Note that the addition image generation unit 49 may add pixels recursively. For example, when four captured images are added, first, the added image generation unit 49 duplicates the captured image. Then, the addition image generation unit 49 adds the original captured image and the duplicate image. Thereafter, the addition image generation unit 49 duplicates the generated image (referred to as a first addition image). Then, the addition image generation unit 49 may add the first addition image and the copied first addition image.

画質パラメータ制御部47は、対象物情報に基づいて、加算枚数を決定してもよい。例えば、対象物を星座とする場合、画質パラメータ制御部47は、星座を構成する星の光度に基づいて、加算枚数を決定してもよい。具体的には、画質パラメータ制御部47は、星座を構成する星の平均の光度を算出する。そして、画質パラメータ制御部47は、算出した平均の光度が低いほど、加算枚数を多くしてもよい。   The image quality parameter control unit 47 may determine the additional number based on the object information. For example, when the object is a constellation, the image quality parameter control unit 47 may determine the number of additions based on the luminous intensity of the stars constituting the constellation. Specifically, the image quality parameter control unit 47 calculates the average luminous intensity of the stars constituting the constellation. The image quality parameter control unit 47 may increase the number of added images as the calculated average luminous intensity is lower.

または、画質パラメータ制御部47は、星座を構成する所定の星の光度に基づいて、加算枚数を決定してもよい。例えば、画質パラメータ制御部47は、選択する所定の星として、星座を構成する星から最低光度の星を選択してもよい。そして、画質パラメータ制御部47は、選択した所定の星の光度が低いほど、加算枚数を多くすることが好ましい。   Alternatively, the image quality parameter control unit 47 may determine the number of additions based on the luminous intensity of a predetermined star constituting the constellation. For example, the image quality parameter control unit 47 may select a star with the lowest luminous intensity from the stars constituting the constellation as the predetermined star to be selected. The image quality parameter control unit 47 preferably increases the number of added images as the luminous intensity of the selected predetermined star is lower.

図7は、加算枚数と星の光度の関係の一例を示す図である。線D1は、加算枚数と、星の光度の対応関係を表す線である。ここで、図7の場合、光度P1は、光度P2より高い。図7の場合、光度P1を基準とした場合、画質パラメータ制御部47は、加算枚数を4枚とする。一方、光度P2を基準とした場合、画質パラメータ制御部47は、加算枚数を8枚とする。加算枚数が多いほど、加算画像の明度は高い。従って、図7の場合には、画質パラメータ制御部47が加算枚数を決定する際に、基準とする星の光度が低いほど、加算画像の明度は高い。   FIG. 7 is a diagram illustrating an example of the relationship between the added number of sheets and the luminous intensity of a star. A line D1 is a line representing the correspondence between the number of added sheets and the luminous intensity of the stars. Here, in the case of FIG. 7, the luminous intensity P1 is higher than the luminous intensity P2. In the case of FIG. 7, when the luminous intensity P1 is used as a reference, the image quality parameter control unit 47 sets the added number to four. On the other hand, when the luminous intensity P2 is used as a reference, the image quality parameter control unit 47 sets the added number to eight. The greater the added number, the higher the brightness of the added image. Therefore, in the case of FIG. 7, when the image quality parameter control unit 47 determines the number of additions, the lightness of the addition image is higher as the brightness of the reference star is lower.

次に、情報提供装置1の動作について説明する。   Next, the operation of the information providing apparatus 1 will be described.

図8は、対象物方向の報知処理に関する動作の一例を示すフローチャートである。   FIG. 8 is a flowchart illustrating an example of an operation related to the notification process of the object direction.

ステップS1において、対象物設定部41は、対象物を設定する。そして、ステップS2に遷移する。   In step S1, the object setting unit 41 sets an object. Then, the process proceeds to step S2.

例えば、ユーザが操作部20を介して、対象物とする星座の名称を入力する。対象物設定部41は、操作部20を介して入力された星座を対象物として設定する。あるいは、記憶部90は、予め、所定の複数の星座を対象物候補として記憶してもよい。そして、制御部40は、対象物候補を表示部10に表示してもよい。その場合、ユーザは、表示された対象物候補から、対象物の星座を選択する。対象物設定部41は、選択された星座を対象物の星座として設定する。なお、対象物の星座の設定方法は各種あるが、その詳細は問わない。   For example, the user inputs the name of a constellation as an object through the operation unit 20. The object setting unit 41 sets a constellation input via the operation unit 20 as an object. Alternatively, the storage unit 90 may store a plurality of predetermined constellations as object candidates in advance. Then, the control unit 40 may display the candidate object on the display unit 10. In that case, the user selects the constellation of the target object from the displayed target object candidates. The object setting unit 41 sets the selected constellation as the constellation of the object. There are various methods for setting the constellation of the object, but the details are not limited.

ステップS2において、対象物情報取得部42は、対象物位置を含む対象物情報を取得する。具体的には、まず、対象物情報取得部42は、時計80を参照し、現在の日付、時刻を取得する。そして、対象物情報取得部42は、日付、時刻、星図データに基づいて、対象物位置を算出する。対象物情報取得部42は、対象物位置として、対象物の星座の仰角、俯角を含む情報を取得する。   In step S2, the object information acquisition unit 42 acquires object information including the object position. Specifically, first, the object information acquisition unit 42 refers to the clock 80 and acquires the current date and time. And the target object information acquisition part 42 calculates a target object position based on date, time, and star map data. The object information acquisition unit 42 acquires information including the elevation angle and depression angle of the constellation of the object as the object position.

ステップS3において、撮影位置推定部43は、撮影位置を検出する。そして、ステップS4において、撮影方向推定部44は、撮影方向を推定する。   In step S3, the shooting position estimation unit 43 detects a shooting position. In step S4, the shooting direction estimation unit 44 estimates the shooting direction.

ステップS5において、撮像部30は、背景画像を取得する。背景画像とは、撮像部30に対する入力画像に相当する。   In step S5, the imaging unit 30 acquires a background image. The background image corresponds to an input image for the imaging unit 30.

ステップS6において、対象物方向推定部45は、撮影位置、撮影方向、及び対象物位置に基づいて、対象物方向を推定する。   In step S6, the object direction estimation unit 45 estimates the object direction based on the imaging position, the imaging direction, and the object position.

ステップS7において、報知処理部46は、対象物方向を報知する。そして、ステップS8に遷移する。なお、制御部40は、操作部20に対する操作に基づいて、報知画像の表示を停止してもよい。具体的には、操作部20が所定の操作を検出した場合、制御部40は、報知画像を非表示とする等の処理を行ってもよい。例えば、報知画像と対象物の表示位置が重なった場合、ユーザは対象物方向を確認後に、報知画像を非表示としてもよい。   In step S7, the notification processing unit 46 notifies the object direction. And it changes to step S8. Note that the control unit 40 may stop displaying the notification image based on an operation on the operation unit 20. Specifically, when the operation unit 20 detects a predetermined operation, the control unit 40 may perform processing such as hiding the notification image. For example, when the notification image and the display position of the object overlap, the user may hide the notification image after confirming the object direction.

ステップS8において、操作部20が処理終了の操作を検出したか否かを、制御部40は判断する。例えば、制御部40は、表示部10に処理終了のアイコン、メニュー等を表示してもよい。そして、処理終了のアイコン等に対する操作を検出した場合、操作部20は、処理終了の操作を検出したとしてもよい。処理終了の操作は各種あるが、その詳細は問わない。   In step S <b> 8, the control unit 40 determines whether or not the operation unit 20 has detected a process end operation. For example, the control unit 40 may display a process end icon, menu, or the like on the display unit 10. When the operation on the process end icon or the like is detected, the operation unit 20 may detect the process end operation. There are various operations for finishing the process, but the details are not limited.

処理終了の操作が検出された場合(ステップS8のYes分岐)には、制御部40は、対象物方向の報知処理を終了する。処理終了の操作が検出されない場合(ステップS8のNo分岐)には、ステップS3に遷移し、処理を継続する。なお、ステップS1からステップS5までの処理の順序は、図8に示す順序に限定されない。   When the process end operation is detected (Yes branch in step S8), the control unit 40 ends the notification process of the object direction. If an operation for ending the process is not detected (No branch in step S8), the process proceeds to step S3 and the process is continued. Note that the order of processing from step S1 to step S5 is not limited to the order shown in FIG.

図9は、撮影画像の補正に関する動作の一例を示すフローチャートである。   FIG. 9 is a flowchart illustrating an example of an operation related to correction of a captured image.

ステップS101において、操作部20が撮影操作を検出したか否かを、制御部40は判断する。例えば、情報提供装置1は、操作部20として、シャッターボタンを備えていてもよい。または、表示部10に撮影のアイコン、メニュー等を表示しても良い。その場合、撮影のアイコン等に対する操作を検出した場合、操作部20は、撮影操作を検出したとしてもよい。   In step S101, the control unit 40 determines whether or not the operation unit 20 has detected a shooting operation. For example, the information providing apparatus 1 may include a shutter button as the operation unit 20. Alternatively, a shooting icon, a menu, or the like may be displayed on the display unit 10. In this case, when an operation on a shooting icon or the like is detected, the operation unit 20 may detect a shooting operation.

ここで、対象物が所定の位置に表示された場合、報知処理部46は、撮影に適した状態であることを報知してもよい。例えば、対象物が表示部10の中央に表示された場合、報知処理部46は、撮影に適した状態であることを報知してもよい。報知処理部46は、撮影に適した状態である場合、報知画像の色を変更する等の処理をすることが好ましい。または、報知処理部46は、文字、音声等によって、撮影に適した状態であることを報知してもよい。   Here, when the object is displayed at a predetermined position, the notification processing unit 46 may notify that the state is suitable for photographing. For example, when the object is displayed at the center of the display unit 10, the notification processing unit 46 may notify that the state is suitable for shooting. When the notification processing unit 46 is in a state suitable for photographing, it is preferable to perform processing such as changing the color of the notification image. Or the alerting | reporting process part 46 may alert | report that it is a state suitable for imaging | photography with a character, an audio | voice, etc. FIG.

撮影操作が検出された場合(ステップS101のYes分岐)には、ステップS102に遷移する。撮影操作が検出されない場合(ステップS101のNo分岐)には、ステップS101に遷移し、処理を継続する。   When a photographing operation is detected (Yes branch in step S101), the process proceeds to step S102. When the photographing operation is not detected (No branch in step S101), the process proceeds to step S101 and the process is continued.

ステップS102において、画質パラメータ制御部47は、対象物情報に基づいて、画質パラメータを決定する。そして、ステップS103において、撮像部30は、決定された画質パラメータで、対象物を撮影する。   In step S102, the image quality parameter control unit 47 determines an image quality parameter based on the object information. In step S103, the imaging unit 30 captures an object with the determined image quality parameter.

ステップS104において、ノイズ除去処理部48は、撮影画像のノイズを除去する処理を行う。そして、ステップS105において、加算画像生成部49は、ノイズを除去した撮影画像を、所定の枚数、加算する。その後、制御部40は、加算画像を表示部10に表示する(ステップS106)。そして、ステップS107に遷移する。   In step S104, the noise removal processing unit 48 performs a process of removing noise from the captured image. In step S105, the addition image generation unit 49 adds a predetermined number of captured images from which noise has been removed. Thereafter, the control unit 40 displays the added image on the display unit 10 (step S106). And it changes to step S107.

図10は、撮影画像と加算画像の一例を示す図である。図10(a)は、撮影画像の一例を示す図である。図10(b)は、加算画像の一例を示す図である。図10(a)に示すように、撮影画像の明度は低くなる恐れがある。そのため、加算画像生成部49は、撮影画像を重ね合わせて、加算画像を生成する。その結果、図10(b)に示すように、加算画像生成部49は、明度が高い画像を生成できる。   FIG. 10 is a diagram illustrating an example of a captured image and an added image. FIG. 10A is a diagram illustrating an example of a captured image. FIG. 10B is a diagram illustrating an example of the addition image. As shown in FIG. 10A, the brightness of the photographed image may be lowered. Therefore, the added image generation unit 49 generates an added image by superimposing the captured images. As a result, as shown in FIG. 10B, the addition image generation unit 49 can generate an image with high brightness.

ステップS107において、制御部40は、加算画像を保存するか否かを判断する。例えば、操作部20が、加算画像を保存する操作を検出した場合、制御部40は、加算画像を保存すると判断してもよい。例えば、制御部40は、表示部10に画像保存のアイコン、メニュー等を表示してもよい。そして、画像保存のアイコン等に対する操作を検出した場合、操作部20は、画像保存の操作を検出したとしてもよい。   In step S107, the control unit 40 determines whether to save the added image. For example, when the operation unit 20 detects an operation for saving the added image, the control unit 40 may determine to save the added image. For example, the control unit 40 may display an image storage icon, menu, and the like on the display unit 10. When an operation for an image storage icon or the like is detected, the operation unit 20 may detect an image storage operation.

加算画像を保存する場合(ステップS107のYes分岐)には、制御部40は、加算画像を撮影画像記憶部92に保存する(ステップS108)。加算画像を保存しない場合(ステップS107のNo分岐)には、ステップS103に戻り、処理を継続する。   When storing the added image (Yes branch in step S107), the control unit 40 stores the added image in the captured image storage unit 92 (step S108). When the addition image is not stored (No branch in step S107), the process returns to step S103 and the process is continued.

以上より、本実施形態に係る情報提供装置1では、対象物の位置と、現在位置の差分に基づいて、対象物の方向を推定し、対象物の方向を報知する。そのため、本実施形態に係る情報提供装置1は、ユーザが対象物の位置を知らない場合であっても、ユーザを対象物の方向へ誘導できる。さらに、本実施形態に係る情報提供装置1では、対象物に関する情報を予め記憶しておく。従って、本実施形態に係る情報提供装置1は、対象物の方向へ誘導し、対象物の撮影に適した情報を提供する。   As described above, the information providing apparatus 1 according to the present embodiment estimates the direction of the object based on the difference between the position of the object and the current position, and notifies the direction of the object. Therefore, the information providing apparatus 1 according to the present embodiment can guide the user in the direction of the object even when the user does not know the position of the object. Furthermore, in the information providing apparatus 1 according to the present embodiment, information related to the object is stored in advance. Therefore, the information providing apparatus 1 according to the present embodiment guides in the direction of the object and provides information suitable for photographing the object.

上記の実施形態では、報知処理部46が、画像、音声、光、振動の少なくともいずれか一を用いて、対象物方向をユーザに報知する例を示した。しかし、報知処理部46は、他の手法を用いて、対象物方向をユーザに報知してもよい。   In the above-described embodiment, an example in which the notification processing unit 46 notifies the user of the object direction using at least one of image, sound, light, and vibration has been described. However, the notification processing unit 46 may notify the user of the object direction using another method.

上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。   A part or all of the above embodiments can be described as in the following supplementary notes, but is not limited thereto.

(付記1)対象物を撮影する撮像部と、撮影位置を推定する撮影位置推定部と、撮影方向を推定する撮影方向推定部と、対象物位置を含む対象物情報を取得する対象物情報取得部と、前記撮影位置、及び前記撮影方向、及び前記対象物位置に基づいて、対象物方向を推定する対象物方向推定部と、前記対象物方向を報知する報知処理部と、前記対象物情報に基づいて、画質パラメータを制御する画質パラメータ制御部と、を備える情報提供装置。   (Supplementary Note 1) An imaging unit that captures an object, an imaging position estimation unit that estimates an imaging position, an imaging direction estimation unit that estimates an imaging direction, and object information acquisition that acquires object information including the object position A target direction estimating unit for estimating a target direction based on the shooting position, the shooting direction, and the target position, a notification processing unit for reporting the target direction, and the target information. And an image quality parameter control unit that controls the image quality parameter based on the information providing device.

(付記2)前記対象物方向推定部は、撮像面の中心から対象撮像面の中心に対する方向を、前記対象物方向として推定する情報提供装置。   (Additional remark 2) The said object direction estimation part is an information provision apparatus which estimates the direction with respect to the center of an object imaging surface from the center of an imaging surface as the said object direction.

(付記3)画像を表示する表示部を備え、前記報知処理部は、報知画像と、前記撮像部の入力画像と、を重ねあわせた画像を、前記表示部に表示する情報提供装置。   (Additional remark 3) The information provision apparatus provided with the display part which displays an image, and the said alerting | reporting process part displays the image which overlap | superposed the alerting | reporting image and the input image of the said imaging part on the said display part.

(付記4)前記報知処理部は、前記対象物方向を示す矢印画像を含む画像を、前記報知画像として生成する情報提供装置。   (Supplementary Note 4) The information providing apparatus, wherein the notification processing unit generates an image including an arrow image indicating the object direction as the notification image.

(付記5)撮影画像を所定の加算枚数、加算した画像を生成する加算画像生成部を備える情報提供装置。   (Additional remark 5) An information provision apparatus provided with the addition image production | generation part which produces | generates the image which added the predetermined addition number of the picked-up image.

(付記6)方位センサ、及び加速度センサを備え、
前記撮影方向推定部は、前記方位センサ、及び前記加速度センサの出力に基づいて、前記撮影方向を推定する情報提供装置。
(Appendix 6) A bearing sensor and an acceleration sensor are provided.
The imaging direction estimation unit is an information providing apparatus that estimates the imaging direction based on outputs of the direction sensor and the acceleration sensor.

(付記7)前記画質パラメータは、前記加算枚数、焦点距離、明度、色調、彩度、露光時間、ホワイトバランスの少なくともいずれか一を含む情報提供装置。   (Additional remark 7) The said image quality parameter is an information provision apparatus containing at least any one of the said addition number of sheets, a focal distance, brightness, a color tone, saturation, exposure time, and white balance.

(付記8)前記対象物は星座を含み、前記対象物情報取得部は、前記対象物が星座である場合、星座情報を前記対象物情報として取得し、前記画質パラメータ制御部は、前記対象物が星座である場合、焦点距離を無限遠に設定する情報提供装置。   (Supplementary Note 8) When the object includes a constellation, the object information acquisition unit acquires constellation information as the object information when the object is a constellation, and the image quality parameter control unit includes the object An information providing device that sets the focal length to infinity when is a constellation.

(付記9)対象物を撮影する工程と、撮影位置を推定する工程と、撮影方向を推定する工程と、対象物位置を含む対象物情報を取得する工程と、前記撮影位置、及び前記撮影方向、及び前記対象物位置に基づいて、対象物方向を推定する対象物方向推定工程と、前記対象物方向を報知する報知工程と、前記対象物情報に基づいて、画質パラメータを制御する工程と、を含む情報提供方法。   (Additional remark 9) The process of image | photographing a target object, the process of estimating a shooting position, the process of estimating a shooting direction, the process of acquiring the target object information containing a target object position, the said shooting position, and the said shooting direction And an object direction estimating step for estimating an object direction based on the object position, an informing step for notifying the object direction, a step of controlling an image quality parameter based on the object information, Information providing method including

(付記10)前記対象物方向推定工程において、撮像面の中心から対象撮像面の中心に対する方向を、前記対象物方向として推定する情報提供方法。   (Additional remark 10) The information provision method which estimates the direction with respect to the center of an object imaging surface from the center of an imaging surface as the said object direction in the said object direction estimation process.

(付記11)前記報知工程において、報知画像と、前記撮像部の入力画像と、を重ねあわせた画像を生成する情報提供方法。   (Additional remark 11) The information provision method which produces | generates the image which overlap | superposed the alerting | reporting image and the input image of the said imaging part in the said alerting | reporting process.

(付記12)前記報知工程において、前記対象物方向を示す矢印画像を含む画像を、前記報知画像として生成する情報提供方法。   (Additional remark 12) The information provision method which produces | generates the image containing the arrow image which shows the said object direction as the said alerting | reporting image in the said alerting | reporting process.

(付記13)撮影画像を所定の加算枚数、加算した画像を生成する加算画像生成工程を含む情報提供方法。   (Additional remark 13) The information provision method including the addition image production | generation process which produces | generates the image which added the image | photographed image the predetermined addition number of sheets.

(付記14)情報提供装置を制御するコンピュータに実行させるプログラムであって、対象物を撮影する処理と、撮影位置を推定する処理と、撮影方向を推定する処理と、対象物位置を含む対象物情報を取得する処理と、前記撮影位置、及び前記撮影方向、及び前記対象物位置に基づいて、対象物方向を推定する対象物方向推定処理と、前記対象物方向を報知する報知処理と、前記対象物情報に基づいて、画質パラメータを制御する処理と、を実行するプログラム。   (Supplementary Note 14) A program that is executed by a computer that controls the information providing apparatus, and includes a process of photographing an object, a process of estimating a photographing position, a process of estimating a photographing direction, and an object including the position of the object A process for obtaining information, an object direction estimation process for estimating an object direction based on the imaging position, the imaging direction, and the object position; an informing process for informing the object direction; And a program for controlling the image quality parameter based on the object information.

(付記15)前記対象物方向推定処理において、撮像面の中心から対象撮像面の中心に対する方向を、前記対象物方向として推定するプログラム。   (Additional remark 15) The said target direction estimation process WHEREIN: The program which estimates the direction with respect to the center of a target imaging surface from the center of an imaging surface as said target object direction.

(付記16)前記報知処理において、報知画像と、前記撮像部の入力画像と、を重ねあわせた画像を生成するプログラム。   (Additional remark 16) The said alerting | reporting process WHEREIN: The program which produces | generates the image which superimposed the alerting | reporting image and the input image of the said imaging part.

(付記17)前記報知処理において、前記対象物方向を示す矢印画像を含む画像を、前記報知画像として生成するプログラム。   (Additional remark 17) The said alerting | reporting process WHEREIN: The program which produces | generates the image containing the arrow image which shows the said object direction as said alerting | reporting image.

(付記18)撮影画像を所定の加算枚数、加算した画像を生成する加算画像生成処理を実行するプログラム。   (Additional remark 18) The program which performs the addition image production | generation process which produces | generates the image which added the photography image and the predetermined addition number of sheets.

なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。   Each disclosure of the cited patent documents and the like cited above is incorporated herein by reference. Within the scope of the entire disclosure (including claims) of the present invention, the embodiments and examples can be changed and adjusted based on the basic technical concept. In addition, various combinations of various indication elements (including each element of each claim, each element of each embodiment or example, each element of each drawing, etc.) within the scope of the claims of the present invention, Selection is possible. That is, the present invention of course includes various variations and modifications that could be made by those skilled in the art according to the entire disclosure including the claims and the technical idea.

1、100 情報提供装置
10 表示部
20 操作部
30、101 撮像部
40 制御部
41 対象物設定部
42、104 対象物情報取得部
43、102 撮影位置推定部
44、103 撮影方向推定部
45、105 対象物方向推定部
46、106 報知処理部
47、107 画質パラメータ制御部
48 ノイズ除去処理部
49 加算画像生成部
50 GPSアンテナ
60 方位センサ
70 加速度センサ
80 時計
90 記憶部
91 星データ記憶部
92 撮影画像記憶部
201、211 撮像面
202 対象撮像面
301、311、313 矢印画像
312 星座の名称
DESCRIPTION OF SYMBOLS 1,100 Information provision apparatus 10 Display part 20 Operation part 30,101 Imaging part 40 Control part 41 Object setting part 42,104 Object information acquisition part 43,102 Shooting position estimation part 44,103 Shooting direction estimation part 45,105 Object direction estimation unit 46, 106 Notification processing unit 47, 107 Image quality parameter control unit 48 Noise removal processing unit 49 Addition image generation unit 50 GPS antenna 60 Direction sensor 70 Acceleration sensor 80 Clock 90 Storage unit 91 Star data storage unit 92 Photographed image Storage unit 201, 211 Imaging surface 202 Target imaging surface 301, 311, 313 Arrow image 312 Constellation name

Claims (10)

対象物を撮影する撮像部と、
撮影位置を推定する撮影位置推定部と、
撮影方向を推定する撮影方向推定部と、
対象物位置を含む対象物情報を取得する対象物情報取得部と、
前記撮影位置、及び前記撮影方向、及び前記対象物位置に基づいて、対象物方向を推定する対象物方向推定部と、
前記対象物方向を報知する報知処理部と、
前記対象物情報に基づいて、画質パラメータを制御する画質パラメータ制御部と、
を備えることを特徴とする情報提供装置。
An imaging unit for photographing an object;
A shooting position estimation unit for estimating the shooting position;
A shooting direction estimation unit for estimating a shooting direction;
An object information acquisition unit for acquiring object information including the object position;
An object direction estimation unit that estimates an object direction based on the imaging position, the imaging direction, and the object position;
A notification processing unit for reporting the direction of the object;
An image quality parameter control unit for controlling an image quality parameter based on the object information;
An information providing apparatus comprising:
前記対象物方向推定部は、撮像面の中心から対象撮像面の中心に対する方向を、前記対象物方向として推定する請求項1に記載の情報提供装置。   The information providing apparatus according to claim 1, wherein the object direction estimation unit estimates a direction from the center of the imaging surface to the center of the target imaging surface as the object direction. 画像を表示する表示部を備え、
前記報知処理部は、報知画像と、前記撮像部の入力画像と、を重ねあわせた画像を、前記表示部に表示する請求項1又は2に記載の情報提供装置。
A display unit for displaying images;
The information providing apparatus according to claim 1, wherein the notification processing unit displays an image obtained by superimposing a notification image and an input image of the imaging unit on the display unit.
前記報知処理部は、前記対象物方向を示す矢印画像を含む画像を、前記報知画像として生成する請求項3に記載の情報提供装置。   The information providing apparatus according to claim 3, wherein the notification processing unit generates an image including an arrow image indicating the object direction as the notification image. 撮影画像を所定の加算枚数、加算した画像を生成する加算画像生成部を備える請求項1乃至4のいずれか一記載の情報提供装置。   The information providing apparatus according to claim 1, further comprising an addition image generation unit that generates an image obtained by adding a predetermined number of captured images. 前記画質パラメータは、前記加算枚数、焦点距離、明度、色調、彩度、露出時間、ホワイトバランスの少なくともいずれか一を含む請求項5に記載の情報提供装置。   The information providing apparatus according to claim 5, wherein the image quality parameter includes at least one of the added number, focal length, brightness, color tone, saturation, exposure time, and white balance. 方位センサ、及び加速度センサを備え、
前記撮影方向推定部は、前記方位センサ、及び前記加速度センサの出力に基づいて、前記撮影方向を推定する請求項1乃至6のいずれか一に記載の情報提供装置。
It is equipped with an orientation sensor and an acceleration sensor,
The information providing apparatus according to claim 1, wherein the shooting direction estimation unit estimates the shooting direction based on outputs of the direction sensor and the acceleration sensor.
前記対象物は星座を含み、
前記対象物情報取得部は、前記対象物が星座である場合、星座情報を前記対象物情報として取得し、
前記画質パラメータ制御部は、前記対象物が星座である場合、焦点距離を無限遠に設定する請求項1乃至7のいずれか一に記載の情報提供装置。
The object includes a constellation;
The object information acquisition unit acquires constellation information as the object information when the object is a constellation,
The information providing apparatus according to any one of claims 1 to 7, wherein the image quality parameter control unit sets a focal length to infinity when the object is a constellation.
対象物を撮影する工程と、
撮影位置を推定する工程と、
撮影方向を推定する工程と、
対象物位置を含む対象物情報を取得する工程と、
前記撮影位置、及び前記撮影方向、及び前記対象物位置に基づいて、対象物方向を推定する対象物方向推定工程と、
前記対象物方向を報知する報知工程と、
前記対象物情報に基づいて、画質パラメータを制御する工程と、
を含むことを特徴とする情報提供方法。
A process of photographing the object;
Estimating the shooting position;
Estimating the shooting direction;
Acquiring object information including the object position;
An object direction estimation step for estimating an object direction based on the imaging position, the imaging direction, and the object position;
An informing step of informing the object direction;
Controlling image quality parameters based on the object information;
An information providing method comprising:
情報提供装置を制御するコンピュータに実行させるプログラムであって、
対象物を撮影する処理と、
撮影位置を推定する処理と、
撮影方向を推定する処理と、
対象物位置を含む対象物情報を取得する処理と、
前記撮影位置、及び前記撮影方向、及び前記対象物位置に基づいて、対象物方向を推定する対象物方向推定処理と、
前記対象物方向を報知する報知処理と、
前記対象物情報に基づいて、画質パラメータを制御する処理と、
を実行するプログラム。
A program for causing a computer that controls the information providing apparatus to execute the program,
Processing to photograph the object,
A process of estimating the shooting position;
A process of estimating the shooting direction;
Processing to obtain object information including the object position;
An object direction estimation process for estimating an object direction based on the imaging position, the imaging direction, and the object position;
An informing process for informing the object direction;
Processing for controlling image quality parameters based on the object information;
A program that executes.
JP2012169391A 2012-07-31 2012-07-31 Information providing device, information providing method, and program of the same Pending JP2014030092A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012169391A JP2014030092A (en) 2012-07-31 2012-07-31 Information providing device, information providing method, and program of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012169391A JP2014030092A (en) 2012-07-31 2012-07-31 Information providing device, information providing method, and program of the same

Publications (1)

Publication Number Publication Date
JP2014030092A true JP2014030092A (en) 2014-02-13

Family

ID=50202408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012169391A Pending JP2014030092A (en) 2012-07-31 2012-07-31 Information providing device, information providing method, and program of the same

Country Status (1)

Country Link
JP (1) JP2014030092A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022094516A1 (en) * 2020-10-29 2022-05-05 Qualcomm Incorporated Noise processing in image frames for digital video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022094516A1 (en) * 2020-10-29 2022-05-05 Qualcomm Incorporated Noise processing in image frames for digital video

Similar Documents

Publication Publication Date Title
US10593014B2 (en) Image processing apparatus, image processing system, image capturing system, image processing method
CN105005960B (en) Method, device and system for acquiring watermark photo
JP5279875B2 (en) Object display device, object display method, and object display program
JP2013186691A (en) Image processing device, image processing method, and program
JP5195986B2 (en) Image output apparatus and program
CN107771310B (en) Head-mounted display device and processing method thereof
JP2012174116A (en) Object display device, object display method and object display program
US20190347775A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP6096634B2 (en) 3D map display system using virtual reality
US9921054B2 (en) Shooting method for three dimensional modeling and electronic device supporting the same
TW201919003A (en) Computer Readable Media, Information Processing Apparatus and Information Processing Method
KR102003383B1 (en) Method and apparatus for shooting image in an electronic device
JP2017212510A (en) Image management device, program, image management system, and information terminal
JP2015031979A (en) Information processing device, information processing method, and program
JP2017067834A (en) A taken image display device of unmanned aircraft, taken image display method, and taken image display program
JPWO2018025825A1 (en) Imaging system
JP2005106953A (en) Electronic map generating system, electronic map generating method, electronic map generating program, and recording medium with the program recorded thereon
JP2014030092A (en) Information providing device, information providing method, and program of the same
JP6532370B2 (en) Imaging system, composition setting device, and composition setting program
JP6504703B2 (en) Imaging apparatus and imaging method
JP2012034107A (en) Image display device, image display method, and image display program
JP2013037476A (en) Observation device, observation method and imaging apparatus
JP5853967B2 (en) Image output apparatus and program
KR102272757B1 (en) System and method for producing panoramic image and video
JP2011193170A (en) Imaged image display device, imaged image display method, and electronic map output by the same