JP6314427B2 - Imaging apparatus, information processing apparatus, control method, and program - Google Patents

Imaging apparatus, information processing apparatus, control method, and program Download PDF

Info

Publication number
JP6314427B2
JP6314427B2 JP2013227318A JP2013227318A JP6314427B2 JP 6314427 B2 JP6314427 B2 JP 6314427B2 JP 2013227318 A JP2013227318 A JP 2013227318A JP 2013227318 A JP2013227318 A JP 2013227318A JP 6314427 B2 JP6314427 B2 JP 6314427B2
Authority
JP
Japan
Prior art keywords
additional information
range
imaging
display control
peripheral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013227318A
Other languages
Japanese (ja)
Other versions
JP2015089021A (en
JP2015089021A5 (en
Inventor
さやか 坂本
さやか 坂本
喜基 堀野
喜基 堀野
伸紘 西岡
伸紘 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2013227318A priority Critical patent/JP6314427B2/en
Publication of JP2015089021A publication Critical patent/JP2015089021A/en
Publication of JP2015089021A5 publication Critical patent/JP2015089021A5/ja
Application granted granted Critical
Publication of JP6314427B2 publication Critical patent/JP6314427B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、撮像装置で撮像中の領域にある属性情報を、撮像画像に合成して表示する撮像装置に関する。   The present invention relates to an imaging apparatus that combines and displays attribute information in a region being imaged by an imaging apparatus with a captured image.

近年、携帯端末の位置測位機能により取得する位置情報を利用して、近くにある施設や象徴物の案内情報をサーバ等から自動で取得し、携帯端末の撮像機能で撮像された撮像画像に合成して、表示部(ディスプレイ)に表示するシステムが普及している。その代表例が、頓智ドット株式会社が提供するセカイカメラ(登録商標)である。セカイカメラ(登録商標)は、撮像機能によって目の前の景色を画面上に映し出された上で、その場所・対象物(建物・看板など)に関連する「エアタグ」と呼ばれる付加情報を重ねて表示するものである。   In recent years, using location information acquired by the location measurement function of a mobile terminal, information on nearby facilities and symbolic objects is automatically acquired from a server, etc., and combined with a captured image captured by the imaging function of the mobile terminal Thus, a system for displaying on a display unit (display) has become widespread. A typical example is Sekai Camera (registered trademark) provided by Tonchi Dot Co., Ltd. Sekai Camera (registered trademark) displays the scenery in front of it on the screen by the imaging function, and then superimposes additional information called “air tag” related to the place / object (building, signboard, etc.) To display.

また、特許文献1は、撮像装置などを介して撮像された現実の画像とその画像内に映り込んでいる物に関するバーチャルな情報とをリアルタイムで合成し、表示すること可能にするビューア装置が開示されている。   Patent Document 1 discloses a viewer device that can synthesize and display a real image captured through an imaging device or the like and virtual information related to an object reflected in the image in real time. Has been.

特開2006−59136号公報JP 2006-59136 A

しかしながら、現状のセカイカメラ(登録商標)や特許文献1に記載のビューア装置では、撮像範囲内に存在するある程度の距離以内の「エアタグ」と呼ばれる付加情報や属性情報が全て表示されてしまうため、撮像方向に複数の「エアタグ」が存在する場合、複数の「エアタグ」や属性情報が重なり、奥にある「エアタグ」や属性情報が埋もれて確認できないという問題が生じている。   However, in the current Sekai Camera (registered trademark) and the viewer device described in Patent Document 1, all additional information and attribute information called “air tag” within a certain distance existing in the imaging range are displayed. When there are a plurality of “air tags” in the imaging direction, a plurality of “air tags” and attribute information are overlapped, and the “air tag” and attribute information in the back are buried and cannot be confirmed.

セカイカメラ(登録商標)の場合は、奥にある「エアタグ」を確認するために、以下の操作により対応することができる。   In the case of Sekai Camera (registered trademark), in order to confirm the “air tag” in the back, the following operation can be used.

・手前にある「エアタグ」をスワイプ(たとえば、手前の「エアタグ」を画面外へフリック)する。
・表示する情報の条件を絞り込む(ラーメン屋関係の情報のみなど)
-Swipe the “air tag” in front (for example, flick the “air tag” in front) to the outside of the screen.
・ Narrow down the conditions of information to be displayed (only information related to ramen shops)

しかし、セカイカメラ(登録商標)の技術は、ユーザが気付かない付加情報を「エアタグ」として表示して、ユーザに気付かせることが目的の一つと考えられるため、確認したい場所の付加情報を最初から表示しておく方が望ましい。   However, since Sekai Camera (registered trademark) technology is considered to display additional information that the user does not notice as an “air tag” and to make the user aware of it, the additional information of the place to be confirmed from the beginning. It is better to display it.

本発明は、上記の課題を解決するために、不要な付加情報を自動で排除し、注目している位置の付加情報を撮像画像に付加して表示し、撮像範囲で付加情報を表示している領域を調整および認識させる仕組みを提供することを目的とする。
In order to solve the above problems, the present invention automatically eliminates unnecessary additional information, adds additional information at a position of interest to a captured image, and displays additional information in an imaging range. The purpose is to provide a mechanism for adjusting and recognizing existing areas.

上記課題を解決するために、本発明は、 位置情報と対応付けられた付加情報を記憶している記憶手段を有する付加情報管理サーバと通信可能な、所定の撮像範囲を撮像する撮像装置であって、前記撮像範囲にある対象物を特定する特定手段と、前記特定された対象物の位置を取得する取得手段と、前記撮像範囲のうち前記取得された前記対象物の位置の周辺の領域を設定する領域設定手段と、前記撮像範囲を撮像した画像において、前記設定された周辺の領域にある対象物に対応する付加情報に基づく情報を、当該設定された周辺の領域にある対象物の付記情報として表示する第1の表示制御手段と、前記領域設定手段で設定された周辺の領域を識別可能に表示する第2の表示制御手段とを有し、前記第2の表示制御手段は、前記撮像範囲のうち前記設定された周辺の領域の範囲を変更する操作を受け付け、当該範囲が変更された周辺の領域を識別可能に表示し、前記第1の表示制御手段は、前記範囲が変更された周辺の領域にある対象物に対応する付加情報に基づく情報を、当該範囲が変更された周辺の領域にある対象物の付記情報として表示することを特徴とする。
In order to solve the above-described problems, the present invention is an imaging apparatus that captures a predetermined imaging range that can communicate with an additional information management server having a storage unit that stores additional information associated with position information. Te, specifying means for specifying the imaging range near Ru target object, an acquisition unit for acquiring a position of the identified target product, peripheral positions of the obtained the object of the imaging range an area setting means for setting a region in an image obtained by imaging the imaging range, the information based on the additional information corresponding to the set region near Ru Target of neighborhood, a peripheral region of the said set there are a first display control means for displaying a note information of the object, the have a second display control means for distinguishably displaying the periphery of the region set by the region setting means, said second display The control means is configured to control the imaging range. Among them, an operation to change the range of the set peripheral region is received, and the peripheral region in which the range has been changed is displayed in an identifiable manner, and the first display control means Information based on the additional information corresponding to the object in the area is displayed as additional information of the object in the surrounding area where the range is changed .

本発明によれば、不要な付加情報を自動で排除し、注目している位置の付加情報を撮像画像に付加して表示し、撮像範囲で付加情報を表示している領域を調整および認識させることができるという効果を有する。
According to the present invention, unnecessary additional information is automatically excluded, the additional information at the position of interest is added to the captured image and displayed, and the region displaying the additional information in the imaging range is adjusted and recognized. It has the effect of being able to.

本発明の実施形態に係る撮像装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る付加情報管理サーバのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the additional information management server which concerns on embodiment of this invention. 本発明の一実施形態を示すシステムの全体構成を示すシステム構成図である。1 is a system configuration diagram illustrating an overall configuration of a system according to an embodiment of the present invention. 本発明の撮像システムにおいて、撮像装置が付加情報管理サーバから付加情報を受信し、付加情報を合成するまでの流れを説明するシーケンスチャートである。6 is a sequence chart illustrating a flow from when the imaging apparatus receives additional information from the additional information management server to synthesize the additional information in the imaging system of the present invention. 本発明における被写体と撮像装置の位置関係とその撮像結果および文字合成結果の一例を示す模式図である。It is a schematic diagram which shows an example of the positional relationship of the to-be-photographed object and imaging device in this invention, its imaging result, and a character composition result. 本発明における付加情報抽出範囲を設定する設定画面のイメージの一例を示す模式図である。It is a schematic diagram which shows an example of the image of the setting screen which sets the additional information extraction range in this invention. 撮像画像と付加情報とをディスプレイ部117に表示した一例をしめした模式図である。It is the schematic diagram which showed the example which displayed the captured image and additional information on the display part.

以下、図面を参照して、本発明の実施形態を詳細に説明する。まず、図1を参照して、本発明を実施する撮像装置100のハードウェア構成について説明する。なお、撮像装置100は必ずしも撮像専用ではなくてもよく、携帯端末や携帯電話が以下の機能を有していてもよい。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, with reference to FIG. 1, the hardware configuration of the imaging apparatus 100 that implements the present invention will be described. Note that the imaging apparatus 100 is not necessarily dedicated to imaging, and a mobile terminal or a mobile phone may have the following functions.

撮像装置100は、いわゆるデジタルカメラから成り、撮像用のレンズ101、撮像素子(以下、「CCD」と称する)102、カメラ信号処理部(以下、「ADC」と称する)103、画像処理部104、システムコントローラ110、バッファメモリ111、フラッシュROM112、インターフェース回路(以下、「I/F回路」と称する)113、カードホルダ114、メモリカード115、ディスプレイドライバ116、および操作部120を備える。   The imaging apparatus 100 includes a so-called digital camera, an imaging lens 101, an imaging element (hereinafter referred to as “CCD”) 102, a camera signal processing unit (hereinafter referred to as “ADC”) 103, an image processing unit 104, A system controller 110, a buffer memory 111, a flash ROM 112, an interface circuit (hereinafter referred to as “I / F circuit”) 113, a card holder 114, a memory card 115, a display driver 116, and an operation unit 120 are provided.

レンズ101は、レンズ等であり、対物レンズ、ズームレンズ、およびフォーカスレンズなどで構成される。ズームレンズおよびフォーカスレンズについては、不図示の駆動機構により光軸方向へ駆動される。撮像素子102は、レンズ101から入射した撮像光を結像し、電気信号(アナログ信号)に変換して出力するCCDイメージセンサで構成される。   The lens 101 is a lens or the like, and includes an objective lens, a zoom lens, a focus lens, and the like. The zoom lens and the focus lens are driven in the optical axis direction by a driving mechanism (not shown). The imaging element 102 is configured by a CCD image sensor that forms an image of imaging light incident from the lens 101, converts it into an electrical signal (analog signal), and outputs it.

カメラ信号処理部(ADC)103は、撮像素子102から受けた電気信号にデジタル変換やホワイトバランス調整などの信号処理を行なって、デジタル信号に変換する機能を有する。システムコントローラ110は、画像処理部104、バッファメモリ111、フラッシュROM112、I/F回路113、ディスプレイドライバ116、サウンドドライバ118、LEDドライバ128、および操作部120に接続されている   The camera signal processing unit (ADC) 103 has a function of performing signal processing such as digital conversion and white balance adjustment on the electric signal received from the image sensor 102 and converting it into a digital signal. The system controller 110 is connected to the image processing unit 104, buffer memory 111, flash ROM 112, I / F circuit 113, display driver 116, sound driver 118, LED driver 128, and operation unit 120.

画像処理部104は、前処理部105、YC処理部106、電子ズーム処理部107、圧縮部108、および伸長部109を備え、カメラ信号処理部103から出力されるデジタル信号から画像データを生成し、各種画像処理を行う機能を有する。   The image processing unit 104 includes a preprocessing unit 105, a YC processing unit 106, an electronic zoom processing unit 107, a compression unit 108, and an expansion unit 109, and generates image data from a digital signal output from the camera signal processing unit 103. Have a function of performing various image processing.

前処理部105は、入力される画像データに基づく画像のホワイトバランスを調整するホワイトバランス処理や画像のガンマ補正処理を行う機能を有する。ホワイトバランス処理は、画像の色合いを、実物の色合いに近くなるように調整したり、光源(蛍光灯や太陽光など)に合った適正な色に調整したりする処理である。ガンマ補正処理は、画像のコントラストを調整する処理である。なお、前処理部105は、ホワイトバランス処理およびガンマ補正処理以外の画像処理を実行することも可能である。   The pre-processing unit 105 has a function of performing white balance processing for adjusting the white balance of an image based on input image data and image gamma correction processing. The white balance process is a process of adjusting the color of an image so as to be close to the actual color, or adjusting the color to an appropriate color that matches a light source (such as a fluorescent lamp or sunlight). The gamma correction process is a process for adjusting the contrast of an image. Note that the pre-processing unit 105 can also perform image processing other than white balance processing and gamma correction processing.

YC処理部106は、入力される画像データに基づく画像を、輝度情報「Y」と、輝度信号と青色の色差情報「Cb」と、輝度信号と赤色の色差情報「Cr」とに分離する機能を有する。電子ズーム処理部107は、画像の一部(例えば中央部)を所定の大きさでトリミングし、トリミングした画像を信号処理で元画像の大きさに拡大する機能を有する。   The YC processor 106 separates an image based on input image data into luminance information “Y”, luminance signal and blue color difference information “Cb”, and luminance signal and red color difference information “Cr”. Have The electronic zoom processing unit 107 has a function of trimming a part of an image (for example, a central part) with a predetermined size and enlarging the trimmed image to the size of the original image by signal processing.

電子ズーム処理部107は、例えば、撮像された1600×1200ドットの画像から中央の1024×768ドットの画像を切り出し、データ補間を行いながら1600×1200ドットのサイズに拡大することができる。   The electronic zoom processing unit 107 can, for example, extract a central 1024 × 768 dot image from a captured 1600 × 1200 dot image and enlarge it to a size of 1600 × 1200 dot while performing data interpolation.

圧縮部108は、画像データをJPEG(Joint Photographic Expert Group)方式などの圧縮形式によって圧縮する機能を有する。伸長部109は、圧縮されている画像データを伸長する機能を有する。例えば、画像データをJPEG方式で圧縮する場合、まず、画像データの高周波成分と低周波成分の割合を数値化する離散コサイン変換処理が行われる(DCT処理)。次に、画像の階調やグラデーションを表現する段階を数値(量子化ビット数)で表現する量子化処理が行われる。最後に、ハフマン符号化処理で画像データが圧縮される。   The compression unit 108 has a function of compressing image data in a compression format such as a JPEG (Joint Photographic Expert Group) method. The decompression unit 109 has a function of decompressing compressed image data. For example, when compressing image data using the JPEG method, first, a discrete cosine transform process is performed (DCT process) that digitizes the ratio of high-frequency components and low-frequency components of image data. Next, a quantization process is performed for expressing the gradation or gradation of the image by a numerical value (quantization bit number). Finally, the image data is compressed by the Huffman encoding process.

具体的には、画像データの信号文字列が一定のビット毎に区切られ、出現頻度が高い文字列に対してより短い符号が与えてられてゆく。なお、圧縮処理を行わないで画像データを記録する方式の場合は、圧縮部108および伸長部109を省略することができる。また、画像データの圧縮形式は、JPEG方式に限らず、GIF(Graphical Interchange Format)形式などであっても、同様に処理を行うことができる。   Specifically, the signal character string of the image data is segmented every certain bit, and a shorter code is given to a character string having a high appearance frequency. In the case of a system that records image data without performing compression processing, the compression unit 108 and the expansion unit 109 can be omitted. Further, the image data compression format is not limited to the JPEG format, and the same processing can be performed even in a GIF (Graphical Interchange Format) format.

バッファメモリ111には、画像処理部104で画像処理が行われる際に、一時的に画像データが保存される。フラッシュROM112には、撮像装置100の各種設定情報や、後述する指定された構図情報等が保存される。I/F回路113は、システムコントローラ110から出力される画像データを、メモリカード115に記録可能なデータ形式に変換する。また、I/F回路113は、メモリカード115から読み出された画像データ等を、システムコントローラ110で処理可能なデータ形式に変換する。   The buffer memory 111 temporarily stores image data when image processing is performed by the image processing unit 104. The flash ROM 112 stores various setting information of the imaging apparatus 100, designated composition information described later, and the like. The I / F circuit 113 converts the image data output from the system controller 110 into a data format that can be recorded on the memory card 115. The I / F circuit 113 converts the image data read from the memory card 115 into a data format that can be processed by the system controller 110.

カードホルダ114は、記録媒体であるメモリカード115を撮像装置100に着脱可能にする機構を備えると共に、メモリカード115との間でデータ通信が可能な電気接点を備える。また、カードホルダ114は、撮像装置100で利用される記録媒体の種類に応じた構造を有する。メモリカード115は、フラッシュメモリなどの半導体記憶素子を内蔵し、カードホルダ114に着脱可能なカード型の記録媒体である。メモリカード115には、撮像装置100で撮像された画像データを記録することができる。   The card holder 114 includes a mechanism that allows the memory card 115 that is a recording medium to be attached to and detached from the imaging apparatus 100, and includes an electrical contact that enables data communication with the memory card 115. The card holder 114 has a structure corresponding to the type of recording medium used in the imaging apparatus 100. The memory card 115 is a card-type recording medium that incorporates a semiconductor storage element such as a flash memory and is detachable from the card holder 114. The memory card 115 can record image data picked up by the image pickup apparatus 100.

ディスプレイドライバ116は、システムコントローラ110から出力される画像データをディスプレイ117で表示可能な信号に変換する。具体的には、ディスプレイドライバ116は、システムコントローラ110から出力されるデジタルの画像データをアナログ画像信号に変換する処理を行い、次に画像サイズをディスプレイ117の表示可能エリアのサイズに適したサイズに変換する処理を行う。   The display driver 116 converts the image data output from the system controller 110 into a signal that can be displayed on the display 117. Specifically, the display driver 116 performs processing for converting digital image data output from the system controller 110 into an analog image signal, and then sets the image size to a size suitable for the size of the displayable area of the display 117. Perform the conversion process.

サウンドドライバ118は、システムコントローラ110から出力される音声データをスピーカ219で鳴動可能な信号に変換する処理を行う。LED(Light Emitting Diode)ドライバ128は、システムコントローラ110から出力される命令に従いランプ129の制御を行う。   The sound driver 118 performs processing for converting the audio data output from the system controller 110 into a signal that can be sounded by the speaker 219. An LED (Light Emitting Diode) driver 128 controls the lamp 129 in accordance with a command output from the system controller 110.

操作部120は、電源スイッチ121、モードダイヤル122、撮像ボタン123、タッチパネルキー124、ズームボタン125、および閲覧(再生)ボタン126を備え、ユーザからの操作入力を受け付けて、操作内容に応じた信号をシステムコントローラ110に出力する。なお、操作部120には、図示の操作ボタン以外の操作ボタン類も含まれるが、それらの説明は省略する。   The operation unit 120 includes a power switch 121, a mode dial 122, an imaging button 123, a touch panel key 124, a zoom button 125, and a browse (playback) button 126. The operation unit 120 receives an operation input from the user and receives a signal corresponding to the operation content. Is output to the system controller 110. The operation unit 120 includes operation buttons other than the illustrated operation buttons, but a description thereof is omitted.

モードダイヤル(選択ボタン)122は、撮像動作のモードを切り替えるための回転可能なダイヤルである。ユーザはモードダイヤル122を操作することで、複数の撮像動作モードを選択することが可能である。なお、本発明の実施形態で、モードダイヤルは、ダイヤル式機構として記載をするが、例えば、ダイヤルではなくスライド式のボタンであってもよい。つまり、モードダイヤル122について、その機構はダイヤルに限定されず、カメラのモードを切り替えられるための機構を備えていることが本質である。   The mode dial (select button) 122 is a rotatable dial for switching the mode of the imaging operation. The user can select a plurality of imaging operation modes by operating the mode dial 122. In the embodiment of the present invention, the mode dial is described as a dial type mechanism. However, for example, a slide type button may be used instead of the dial. That is, the mechanism of the mode dial 122 is not limited to the dial, and it is essential to have a mechanism for switching the camera mode.

また、撮像動作モードの例として、構図を用いて撮像を行う場合、その構図の指示入力を受付けることが可能なモード等があるが、尚、このようなモードへの切替方法については、ダイヤルに限定されず、ディスプレイ117上のタッチパネル(不図示)などによる切替方法であってもよい。   In addition, as an example of the imaging operation mode, when imaging is performed using a composition, there is a mode that can accept an instruction input of the composition. Without being limited, a switching method using a touch panel (not shown) on the display 117 may be used.

閲覧ボタン126は、撮像した画像データを閲覧する閲覧モード(再生モード)に切り替えるためのボタンである。閲覧ボタン126が押下されると、撮像モードから閲覧モードに移行する。なお、閲覧モードへの切替方法については、前述のように、閲覧ボタン126の押下に限定されず、ディスプレイ117上のタッチパネルなどによる移行方法であってもよい。   The browse button 126 is a button for switching to a browse mode (playback mode) for browsing captured image data. When the browse button 126 is pressed, the imaging mode is changed to the browsing mode. Note that the switching method to the browsing mode is not limited to pressing the browsing button 126 as described above, and may be a transition method using a touch panel on the display 117 or the like.

閲覧モードでは、システムコントローラ110が、I/F回路113を介して、カードホルダ114に装着されているメモリカード115から設定情報と画像データを読み出す。設定情報は、現在装着されているメモリカード115に記録されている画像の枚数および記録されている画像データの容量などである。読み出される画像データは、例えば、画像1枚分の画像データまたはサムネイルデータである。なお、メモリカード115から読み出される画像データは、上述したように所定の圧縮形式で圧縮されている。   In the browsing mode, the system controller 110 reads setting information and image data from the memory card 115 attached to the card holder 114 via the I / F circuit 113. The setting information includes the number of images recorded on the currently installed memory card 115 and the capacity of the recorded image data. The read image data is, for example, image data or thumbnail data for one image. Note that the image data read from the memory card 115 is compressed in a predetermined compression format as described above.

メモリカード115から読み出された画像データは、I/F回路113およびシステムコントローラ110を介して、ディスプレイドライバ116へ入力される。ディスプレイドライバ116は、入力された画像データをディスプレイ117に表示させる。   The image data read from the memory card 115 is input to the display driver 116 via the I / F circuit 113 and the system controller 110. The display driver 116 displays the input image data on the display 117.

タッチパネルキー124は、ディスプレイ上に表示される操作キーであり、ユーザが撮像装置100に対する所定の指示や機能選択を行うためのキーである。ユーザは、タッチパネルキー124により、撮像装置100に対する各種設定情報やユーザ認証情報などの操作入力を行うことができる。   The touch panel key 124 is an operation key displayed on the display, and is a key for the user to perform a predetermined instruction or function selection for the imaging apparatus 100. The user can perform operation inputs such as various setting information and user authentication information on the imaging apparatus 100 with the touch panel key 124.

また、タッチパネルキー124により、ディスプレイ117にメニュー画面や撮像装置100に対して各種設定情報を設定するための画面を表示したり、撮像装置100が有する所定の機能を選択することができる。   In addition, the touch panel key 124 can display a menu screen or a screen for setting various setting information for the imaging apparatus 100 on the display 117, or can select a predetermined function of the imaging apparatus 100.

さらに、タッチパネルキー124により、撮像装置100で撮像された画像データをディスプレイ117上にプレビュー表示させることができる。プレビュー表示とは、撮像装置100で撮像した画像を、その直後にディスプレイ117に表示させる機能である。   Further, the image data captured by the image capturing apparatus 100 can be previewed on the display 117 by the touch panel key 124. The preview display is a function of causing the display 117 to display an image captured by the imaging apparatus 100 immediately after that.

なお、プレビュー表示については、ディスプレイ117上に撮像した画像を1枚のみ表示する構成に限定されず、サムネイル画像を含む複数の画像を表示するように構成してもよい。また、プレビュー表示の切り替えについては、タッチパネルキー124の押下に限らず、他のボタンの押下などの一般的な方法を利用して切り替えられる構成にしてもよい。また、プレビュー表示画面で、プレビュー表示画像の削除や編集などが行えるように構成してもよい。   Note that the preview display is not limited to a configuration in which only one image captured on the display 117 is displayed, and a plurality of images including thumbnail images may be displayed. Further, the switching of the preview display is not limited to the pressing of the touch panel key 124 but may be configured to be switched using a general method such as pressing of another button. Further, the preview display screen may be configured such that the preview display image can be deleted or edited.

レンズ制御部127は、レンズ101のレンズに対して、ズーム、フォーカス、絞り等の制御を行う。また、撮像装置100は、被写体を撮像して画像データを得る撮像モードと当該撮像モードで得た画像データを表示する閲覧(再生)モードとを備える。   The lens control unit 127 controls the lens 101 such as zoom, focus, and diaphragm. In addition, the imaging apparatus 100 includes an imaging mode in which a subject is imaged to obtain image data and a browsing (reproduction) mode in which image data obtained in the imaging mode is displayed.

なお、音声についてはマイクやスピーカを用いることで、撮像装置100と同様に記録、及び再生が可能である。また、映像(動画)記録時には、通常音声記録も同時に行われ、圧縮部108および伸長部109で、映像と音声が多重化される。   Note that audio can be recorded and reproduced in the same manner as the imaging apparatus 100 by using a microphone or a speaker. Further, when recording video (moving image), normal audio recording is also performed at the same time, and video and audio are multiplexed by the compression unit 108 and the expansion unit 109.

また、撮像装置100における撮像動作について図1を用いて説明する。まず、ユーザが電源スイッチ121を操作し、撮像装置100の電源をONにする。すると、撮像装置100に内蔵されているバッテリー(不図示)から各回路へ電源供給されて、撮像装置100の起動処理(レンズバリアを開く動作制御およびマイクロコンピューターのリセット処理など)が行われる。   An imaging operation in the imaging apparatus 100 will be described with reference to FIG. First, the user operates the power switch 121 to turn on the imaging apparatus 100. Then, power is supplied to each circuit from a battery (not shown) built in the imaging apparatus 100, and activation processing of the imaging apparatus 100 (operation control for opening the lens barrier, reset processing of the microcomputer, etc.) is performed.

撮像装置100は、電源OFF時に電源スイッチ121が押下されると電源ONとなり、自動的に撮像モードとなるように構成されている。また、電源OFF時に閲覧ボタンが押下されると電源ONとなり、自動的に閲覧モードとなるように構成されている。   The imaging apparatus 100 is configured to turn on the power when the power switch 121 is pressed when the power is turned off and automatically enter the imaging mode. Further, when the viewing button is pressed when the power is turned off, the power is turned on and the viewing mode is automatically set.

撮像装置100が撮像モードに移行すると、光学画像がレンズ101を介して撮像装置100内へ入射し、撮像素子(CCD)102に結像される。CCD102は、入射される光学画像を電気信号に変換して、カメラ信号処理部(ADC)103へ出力する。ADC103は、入力される電気信号(アナログ信号)をデジタル信号に変換する。ADC103から出力されるデジタル信号は画像処理部104に入力される。   When the imaging apparatus 100 shifts to the imaging mode, an optical image enters the imaging apparatus 100 via the lens 101 and is imaged on the imaging element (CCD) 102. The CCD 102 converts an incident optical image into an electric signal and outputs it to a camera signal processing unit (ADC) 103. The ADC 103 converts an input electric signal (analog signal) into a digital signal. A digital signal output from the ADC 103 is input to the image processing unit 104.

画像処理部104内の前処理部105では、入力されるデジタル信号に基づき画像データを生成し、ホワイトバランス処理およびガンマ補正処理などが行われる。画像処理部104内のYC処理部106では、画像データが輝度信号Yと色差信号CrおよびCbとに分離され、色差信号CrおよびCbの情報量を減らす処理が行われる。   A preprocessing unit 105 in the image processing unit 104 generates image data based on an input digital signal, and performs white balance processing, gamma correction processing, and the like. In the YC processing unit 106 in the image processing unit 104, the image data is separated into the luminance signal Y and the color difference signals Cr and Cb, and processing for reducing the information amount of the color difference signals Cr and Cb is performed.

色差信号CrおよびCbの情報量の削減処理は、例えば、画像の主走査方向の色情報を間引く「4:2:2ダウンサンプリング処理」や、画像の縦横方向の色情報を間引く「4:1:1ダウンサンプリング処理」などがある。なお、前処理部105およびYC処理部106で画像処理を行う際は、画像データを一時的にバッファメモリ111に保存し、随時バッファメモリ111に保存されている画像データを読み出しながら画像処理が行われる。   The information amount reduction processing for the color difference signals Cr and Cb is, for example, “4: 2: 2 downsampling processing” for thinning out color information in the main scanning direction of an image, or “4: 1” for thinning out color information in the vertical and horizontal directions of an image. : 1 downsampling process ". When image processing is performed by the pre-processing unit 105 and the YC processing unit 106, image data is temporarily stored in the buffer memory 111, and image processing is performed while reading the image data stored in the buffer memory 111 as needed. Is called.

画像処理部104から出力される画像データ(非圧縮)はシステムコントローラ110に入力される。システムコントローラ110は、画像処理部104から出力される画像データを、ディスプレイドライバ116へ出力する。   Image data (uncompressed) output from the image processing unit 104 is input to the system controller 110. The system controller 110 outputs the image data output from the image processing unit 104 to the display driver 116.

ディスプレイドライバ116は、入力される画像データ(デジタル信号)をアナログ画像信号に変換すると共に、アナログ画像信号に基づく画像のサイズをディスプレイ117で表示可能なサイズに調整する。   The display driver 116 converts input image data (digital signal) into an analog image signal, and adjusts the size of the image based on the analog image signal to a size that can be displayed on the display 117.

また、ディスプレイドライバ116は、ディスプレイ117に画像を表示させるよう制御する。このとき、ディスプレイ117に表示される画像は、CCD102、ADC103、および画像処理部104で、連続的に信号処理されて生成される画像(スルー画像)である。   Further, the display driver 116 controls the display 117 to display an image. At this time, the image displayed on the display 117 is an image (through image) generated by continuously performing signal processing in the CCD 102, the ADC 103, and the image processing unit 104.

ディスプレイ117にスルー画像が表示されている状態で、ユーザが希望のタイミングで撮像ボタン123を操作すると、システムコントローラ110は画像処理部104に制御信号を出力する。画像処理部104に制御信号が入力されると、圧縮部108は、前処理部105およびYC処理部106で画像処理された画像データをバッファメモリ111へ保存し、圧縮処理を行う。   When the user operates the imaging button 123 at a desired timing while the through image is displayed on the display 117, the system controller 110 outputs a control signal to the image processing unit 104. When a control signal is input to the image processing unit 104, the compression unit 108 stores the image data processed by the preprocessing unit 105 and the YC processing unit 106 in the buffer memory 111 and performs compression processing.

具体的には、画像データの高周波成分と低周波成分の割合を数値化する離散コサイン変換処理(DCT処理)や、画像の階調やグラデーションを表現する段階を量子化ビット数で表現する量子化処理や、画像データの信号文字列を一定のビット毎に区切り、出現頻度が高い文字列に対して、より短い符号を与えてゆくハフマン符号化処理などが実行される。圧縮された画像データは、システムコントローラ110およびディスプレイドライバ116を介してディスプレイ117に表示される。また、圧縮された画像データは、カードホルダ114を介してメモリカード115に記録される。   Specifically, discrete cosine transform processing (DCT processing) that digitizes the ratio of high-frequency components and low-frequency components of image data, and quantization that expresses the gradation and gradation of an image with the number of quantization bits Processing, Huffman coding processing for dividing a signal character string of image data into fixed bits and giving a shorter code to a character string having a high appearance frequency is performed. The compressed image data is displayed on the display 117 via the system controller 110 and the display driver 116. The compressed image data is recorded on the memory card 115 via the card holder 114.

撮像ボタン123が操作される前にズームボタン125が操作されると、システムコントローラ110は光学ズーム処理や電子ズーム処理を実行し、画像の大きさを拡大または縮小させることができる。そして、ズームボタン125の操作後、撮像ボタン123が操作されると、拡大または縮小された画像の画像データがメモリカード115へ記録される。   When the zoom button 125 is operated before the imaging button 123 is operated, the system controller 110 can execute an optical zoom process or an electronic zoom process to enlarge or reduce the size of the image. When the imaging button 123 is operated after the zoom button 125 is operated, the image data of the enlarged or reduced image is recorded in the memory card 115.

次に、図2を参照して、本発明で利用する付加情報管理サーバ200のハードウェア構成について説明する。   Next, a hardware configuration of the additional information management server 200 used in the present invention will be described with reference to FIG.

図2は、本発明の実施形態における付加情報管理サーバ200に適用可能な情報処理装置のハードウェア構成図である。   FIG. 2 is a hardware configuration diagram of an information processing apparatus applicable to the additional information management server 200 in the embodiment of the present invention.

図2において、201はCPUで、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM203あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、画像管理を実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。   In FIG. 2, reference numeral 201 denotes a CPU that comprehensively controls each device and controller connected to the system bus 204. The ROM 203 or the external memory 211 also has a BIOS (Basic Input / Output System), an operating system program (hereinafter referred to as OS), which is a control program of the CPU 201, and a function necessary for realizing image management, which will be described later. Various programs are stored.

202はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM203あるいは外部メモリ211からRAM202にロードして、該ロードしたプログラムを実行することで各種動作を実現するものである。   A RAM 202 functions as a main memory, work area, and the like for the CPU 201. The CPU 201 implements various operations by loading a program necessary for execution of processing from the ROM 203 or the external memory 211 into the RAM 202 and executing the loaded program.

また、205は入力コントローラで、キーボードやポインティングデバイス等の入力装置209からの入力を制御する。206はビデオコントローラで、ディスプレイ装置210等の表示器への表示を制御する。これらは必要に応じて操作者が使用するものである。   An input controller 205 controls input from an input device 209 such as a keyboard and a pointing device. A video controller 206 controls display on a display device such as the display device 210. These are used by the operator as needed.

207はメモリコントローラで、ブートプログラム,各種のアプリケーション,フォントデータ,ユーザファイル,編集ファイル,各種データ等を記憶するハードディスク(HD)や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ211へのアクセスを制御する。   A memory controller 207 is connected to the hard disk (HD), flexible disk (FD), or PCMCIA card slot for storing a boot program, various applications, font data, user files, editing files, various data, etc. via an adapter. The access to the external memory 211 such as a compact flash (registered trademark) memory is controlled.

また、外部メモリ211のハードディスク(HD)は、撮像装置100から送信される撮像画像を受信し、記憶する大容量のメモリ領域を有している。   The hard disk (HD) of the external memory 211 has a large-capacity memory area that receives and stores captured images transmitted from the imaging device 100.

208は通信I/F(インタフェース)コントローラで、ネットワーク(例えば、無線LANなど)を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。   A communication I / F (interface) controller 208 connects and communicates with an external device via a network (for example, a wireless LAN), and executes communication control processing on the network. For example, communication using TCP / IP is possible.

なお、CPU201は、例えばRAM202内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ装置210上での表示を可能としている。また、CPU201は、ディスプレイ装置210上の不図示のマウスカーソル等でのユーザ指示を可能とする。   Note that the CPU 201 enables display on the display device 210 by executing outline font rasterization processing on a display information area in the RAM 202, for example. Further, the CPU 201 enables a user instruction with a mouse cursor (not shown) on the display device 210.

本発明を実現するための後述するフローチャートに示す各ステップの処理は、コンピュータで読み取り実行可能なプログラムにより実行され、そのプログラムは外部メモリ211に記録されている。そして、必要に応じてRAM202にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる定義ファイル及び各種情報テーブル等も、外部メモリ211に格納されており、これらについての詳細な説明も後述する。   The processing of each step shown in the flowchart to be described later for realizing the present invention is executed by a program that can be read and executed by a computer, and the program is recorded in the external memory 211. Then, it is executed by the CPU 201 by being loaded into the RAM 202 as necessary. Furthermore, definition files and various information tables used when executing the program are also stored in the external memory 211, and a detailed description thereof will be described later.

次に、図3のシステムブロック図を参照して、本発明のシステム構成を説明する。   Next, the system configuration of the present invention will be described with reference to the system block diagram of FIG.

図3は、本発明の一実施形態を示すシステムの全体構成を示すシステム構成図の一例である。   FIG. 3 is an example of a system configuration diagram showing an overall configuration of a system showing an embodiment of the present invention.

撮像装置100a〜cは、図1で説明した撮像機能を有する装置の例である。なお、撮像装置100a〜cは、図1により説明した撮像装置の機能の他に、位置情報検出機能は有している。なお、図1により説明した全て機能を有していなくても良い。   The imaging devices 100a to 100c are examples of devices having the imaging function described with reference to FIG. Note that the imaging devices 100a to 100c have a position information detection function in addition to the functions of the imaging device described with reference to FIG. Note that not all the functions described with reference to FIG.

付加情報管理サーバ200は、図2で説明した情報処理機能を有する装置の例である。撮像装置100a〜cと、付加情報管理サーバ200は、無線LANやWi−Fi(登録商標)などによりお互いに通信可能である。付加情報管理サーバ200は、位置情報毎の付加情報を保存・管理する付加情報管理サーバであり、各撮像装置100a〜cからの位置情報を受信し、受信した位置情報を参照して、各撮像装置100a〜cの周囲の付加情報を送信してきた撮像装置に配信する処理を行う。   The additional information management server 200 is an example of an apparatus having the information processing function described with reference to FIG. The imaging devices 100a to 100c and the additional information management server 200 can communicate with each other via a wireless LAN, Wi-Fi (registered trademark), or the like. The additional information management server 200 is an additional information management server that stores and manages additional information for each position information. The additional information management server 200 receives position information from each of the image capturing apparatuses 100a to 100c, refers to the received position information, and captures each image. Processing for distributing the additional information around the devices 100a to 100c to the imaging device that has transmitted the information is performed.

次に、図4のフローチャートを参照して、撮像装置が付加情報を表示し撮像する処理手順について説明する。   Next, a processing procedure in which the imaging apparatus displays additional information and captures an image will be described with reference to the flowchart of FIG.

図4は、本発明の撮像システムにおいて、撮像装置が付加情報管理サーバから付加情報を受信し、付加情報を合成するまでの流れを説明するシーケンスチャートであり、撮像装置100及び付加情報管理サーバ200のそれぞれのシステムコントローラ(図1の110)及びCPU(図2の201)の制御の下、処理が実行される。なお、S401〜S413は各処理ステップを示す。   FIG. 4 is a sequence chart for explaining the flow from when the imaging apparatus receives additional information from the additional information management server to synthesize the additional information in the imaging system of the present invention, and the imaging apparatus 100 and additional information management server 200. The processing is executed under the control of the respective system controllers (110 in FIG. 1) and the CPU (201 in FIG. 2). S401 to S413 indicate each processing step.

図4のフローチャートは、撮像装置を起動し、ユーザが撮像操作を開始すると開始される。   The flowchart in FIG. 4 starts when the imaging apparatus is activated and the user starts an imaging operation.

ユーザが、撮像したい被写体に撮像装置を向けて撮像を開始すると、ステップS401の処理を開始し、ステップS401において、撮像装置100のシステムコントローラ110は、被写体にピントを合わせ、ステップS402において、被写体へのピントがあったかどうかを判断する、ピントが合わない間はピント調整を続け、ピントがあったと判断された場合は、次のステップS403へと処理を進める。   When the user points the imaging device toward the subject to be imaged and starts imaging, the processing in step S401 is started. In step S401, the system controller 110 of the imaging device 100 focuses on the subject, and in step S402, the subject is moved to the subject. The focus adjustment is continued while the subject is out of focus. If it is judged that the subject is in focus, the process proceeds to the next step S403.

ステップS403では、撮像装置100のシステムコントローラ110は、ピントがあった被写体を背景と共に撮像する。   In step S <b> 403, the system controller 110 of the imaging apparatus 100 captures the subject that is in focus together with the background.

次に、ステップS404において、撮像装置100のシステムコントローラ110は、撮像装置100の位置情報をGPS通信などにより取得する(位置検出部)。また、撮像装置の撮像方位情報を電子コンパスなどにより測定する(方位検出部)。   Next, in step S404, the system controller 110 of the imaging apparatus 100 acquires position information of the imaging apparatus 100 by GPS communication or the like (position detection unit). Further, the imaging orientation information of the imaging device is measured by an electronic compass or the like (azimuth detection unit).

次に、ステップS405において、撮像装置100のシステムコントローラ110は、撮像装置100の周辺の付加情報を受信するため、ステップS404で取得した位置情報を付加情報管理サーバに送信する。   Next, in step S405, the system controller 110 of the imaging apparatus 100 transmits the position information acquired in step S404 to the additional information management server in order to receive additional information around the imaging apparatus 100.

次に、付加情報管理サーバのCPU201は、ステップS406において、撮像装置100から受信した位置情報の周辺の付加情報を付加情報記憶部から抽出する。その後、ステップS407において、ステップS406で抽出した付加情報ならびにその付加情報の位置情報を撮像装置100に送信する。   Next, in step S406, the CPU 201 of the additional information management server extracts additional information around the position information received from the imaging apparatus 100 from the additional information storage unit. Thereafter, in step S407, the additional information extracted in step S406 and the position information of the additional information are transmitted to the imaging apparatus 100.

送信された付加情報およびその付加情報の位置情報を、ステップS408において、撮像装置100のシステムコントローラ110が、付加情報管理サーバから受信する(付加情報取得部)。   In step S408, the system controller 110 of the imaging apparatus 100 receives the transmitted additional information and the position information of the additional information from the additional information management server (additional information acquisition unit).

次に、ステップS409において、撮像装置100のシステムコントローラ110は、ステップS403で撮像した際の撮影距離(ピントの合う距離)を取得する。撮影距離は、たとえば、撮像時に取得したExif情報の被写体距離などを利用する。   Next, in step S409, the system controller 110 of the imaging apparatus 100 acquires the shooting distance (the distance that is in focus) when the image is captured in step S403. For the shooting distance, for example, the subject distance of Exif information acquired at the time of imaging is used.

次に、ステップS410において、撮像装置100のシステムコントローラ110は、ステップS409で取得した撮影距離、ステップS404で取得した位置情報および撮像方位情報を利用して、被写体の位置候補を算出する。被写体の位置候補を算出した結果の例を図5、図6を参照して説明する。   Next, in step S410, the system controller 110 of the imaging apparatus 100 calculates a subject position candidate using the shooting distance acquired in step S409, the position information acquired in step S404, and the imaging direction information. An example of the result of calculating the subject position candidate will be described with reference to FIGS.

図5は、本発明における被写体と撮像装置の位置関係とその撮像結果および文字合成結果の一例を示す模式図である。図5(a)は、本発明における地図上の被写体の配置を示した図であり、20が撮像装置の位置を示す。また、破線で囲まれた扇形で示される範囲が撮像装置の撮像範囲(撮像エリア特定部)になる。22から25の星や黒丸が付加情報を有する位置であり、ユーザが22の星印の被写体を中心に撮像した撮像画像が図5(c)である。   FIG. 5 is a schematic diagram showing an example of the positional relationship between the subject and the imaging apparatus, the imaging result, and the character composition result in the present invention. FIG. 5A is a diagram showing the arrangement of the subject on the map in the present invention, and 20 indicates the position of the imaging device. Further, a range indicated by a sector surrounded by a broken line is an imaging range (imaging area specifying unit) of the imaging apparatus. FIG. 5C shows a captured image in which the stars 22 to 25 and the black circles are positions having additional information, and the user has captured the subject of 22 stars.

破線で囲まれた扇形の撮像範囲の中で、ユーザがピントを合わせた距離周辺の付加情報のみを表示させるために、ステップS409で取得した撮影距離を利用する。なお、撮影距離が「10.43m」などのように範囲を持たず一つの値しか持ち得ない場合は、図6のような距離情報に幅を持たせる値を入力する画面を表示し、ユーザの入力を促しても良い(距離範囲変更部)。図6を参照して、付加情報を取得する前後の幅の変更画面を説明する。   In order to display only the additional information around the distance focused by the user in the fan-shaped imaging range surrounded by the broken line, the imaging distance acquired in step S409 is used. When the shooting distance has no range such as “10.43 m”, a screen for inputting a value for giving a width to the distance information as shown in FIG. May be prompted (distance range changing unit). With reference to FIG. 6, the width change screen before and after acquiring additional information will be described.

図6は、本発明における付加情報抽出範囲を設定する設定画面のイメージの一例を示す模式図である。   FIG. 6 is a schematic diagram showing an example of an image of a setting screen for setting the additional information extraction range in the present invention.

図6の600は、撮影距離の前後の付加情報を抽出する範囲を指定する画面イメージであり、撮影距離から、前方601の距離と後方602の距離だけ付加情報を抽出する範囲を指定可能になる。   Reference numeral 600 in FIG. 6 is a screen image for designating a range for extracting additional information before and after the shooting distance. From the shooting distance, a range for extracting additional information by the distance of the front 601 and the distance of the rear 602 can be specified. .

なお、付加情報を抽出する範囲はデフォルトで前後数メートルと設定しても良いし、撮影距離の前後1/10と設定していても良い。   Note that the range for extracting additional information may be set to several meters before and after the default, or may be set to 1/10 before and after the shooting distance.

図6の設定画面によって設定された付加情報抽出範囲は、図5(a)の灰色領域26として表示する。図5(a)の図面は、ディスプレイ部117に表示される図5(c)の21の部分に表示されている。   The additional information extraction range set on the setting screen in FIG. 6 is displayed as the gray area 26 in FIG. The drawing of FIG. 5A is displayed in the portion 21 of FIG. 5C displayed on the display unit 117.

また、図6による付加情報抽出範囲の設定方法の他に、たとえば、図5(c)に表示されている21の部分をユーザが操作することにより付加情報抽出範囲を設定することも可能である。図5(c)の21を拡大した図が図5(a)に対応するが、図5(a)に対し、灰色領域26の幅27を、たとえばタッチスクリーンなどの入力手段により手動で広げることによって、付加情報抽出範囲を拡大することができる。タッチスクリーンなどにより付加情報抽出範囲、すなわち灰色領域26を広げた結果が図5(b)の図になる。図5(b)は、付加情報抽出範囲である灰色領域26が図5(a)よりも広がっており、図5(b)では、図5(a)で付加情報抽出範囲に含まれていなかった24の付加情報も抽出されることになる。図4のフローチャートの説明に戻る。   In addition to the setting method of the additional information extraction range shown in FIG. 6, for example, the additional information extraction range can be set by the user operating the portion 21 displayed in FIG. 5C. . An enlarged view of 21 in FIG. 5 (c) corresponds to FIG. 5 (a), but the width 27 of the gray region 26 is manually widened by an input means such as a touch screen as compared with FIG. 5 (a). Thus, the additional information extraction range can be expanded. FIG. 5B shows the result of expanding the additional information extraction range, that is, the gray area 26 by using a touch screen or the like. In FIG. 5B, the gray area 26 that is the additional information extraction range is wider than that in FIG. 5A, and in FIG. 5B, it is not included in the additional information extraction range in FIG. 24 additional information items are also extracted. Returning to the flowchart of FIG.

ステップS410において、付加情報の抽出範囲を算出すると、次に図4のステップS411において、撮像装置100のシステムコントローラ110は、ステップS408で取得した付加情報の内、付加情報の位置情報が付加情報抽出範囲内の付加情報を抽出する。   When the additional information extraction range is calculated in step S410, in step S411 in FIG. 4, the system controller 110 of the imaging apparatus 100 extracts additional information position information from the additional information acquired in step S408. Extract additional information within the range.

続いて、ステップS412において、撮像装置100のシステムコントローラ110は、ステップS411で抽出した付加情報を撮像画像に合成し、ステップS413において、合成された撮像画像を表示して、本発明の処理を終える。合成された撮像画像の例を図5を参照して説明する。   Subsequently, in step S412, the system controller 110 of the imaging device 100 combines the additional information extracted in step S411 with the captured image. In step S413, the combined captured image is displayed, and the processing of the present invention ends. . An example of the synthesized captured image will be described with reference to FIG.

図5(c)は付加情報抽出範囲が図5(a)の場合の付加情報が付加された撮像画像であり、図5(d)は付加情報抽出範囲が図5(b)の場合の付加情報が付加された撮像画像である。撮像画像である図5(c)や図5(d)には、各被写体(位置情報)22〜24のそばに、付加情報が吹き出しとして表示されている。図5(c)と図5(d)の違いとしては、図5(c)には表示されていない24の付加情報が、図5(d)では表示されている点である。これは、ステップS410において、ユーザが付加情報抽出範囲を図5(a)より図5(b)に広げ、被写体(位置情報)24を含むことになったためである。   FIG. 5C is a captured image to which additional information is added when the additional information extraction range is FIG. 5A, and FIG. 5D is an addition when the additional information extraction range is FIG. 5B. It is a captured image to which information is added. In FIG. 5C and FIG. 5D, which are captured images, additional information is displayed as a balloon beside each subject (position information) 22-24. The difference between FIG. 5 (c) and FIG. 5 (d) is that 24 additional information not displayed in FIG. 5 (c) is displayed in FIG. 5 (d). This is because in step S410, the user expanded the additional information extraction range from FIG. 5A to FIG. 5B, and included the subject (position information) 24.

以上のように、撮像装置の撮影距離を利用して抽出する付加情報を制限することにより、複数ある付加情報の中でユーザがピント(焦点)を合わせた領域の付加情報のみを表示することが出来る効果を有する。   As described above, by limiting the additional information to be extracted by using the shooting distance of the imaging apparatus, only the additional information of the region in which the user has focused (focus) can be displayed among a plurality of additional information. It has an effect that can be done.

また、別の実施例として、撮像状況での被写界深度と撮影距離とにより、ピント(焦点)が合う範囲(距離範囲)を算出し、撮像範囲の中からピントが合う範囲の付加情報のみを取得しても良い。なお、被写界深度の前端と後端はレンズの焦点距離、レンズの絞り値などにより算出され、被写界深度の前端と後端内をピントが合う距離範囲としても良い。   As another example, a range (distance range) that is in focus (distance range) is calculated based on the depth of field and shooting distance in an imaging situation, and only additional information on the range in focus within the imaging range is calculated. You may get The front end and the rear end of the depth of field are calculated based on the focal length of the lens, the aperture value of the lens, and the like, and the front end and the rear end of the depth of field may be set as a distance range in focus.

また、別の実施例として、ディスプレイ部117に付加情報の吹き出しを表示する際に、被写体をオブジェクトと認識して、オブジェクトと付加情報の吹き出しが重ならないように表示することも可能である。図7を参照して、実施例の説明を行う。   As another example, when displaying a balloon of additional information on the display unit 117, the subject can be recognized as an object and displayed so that the object and the balloon of additional information do not overlap. The embodiment will be described with reference to FIG.

図7は、撮像画像と付加情報とをディスプレイ部117に表示した一例をしめした模式図である。   FIG. 7 is a schematic diagram showing an example in which the captured image and the additional information are displayed on the display unit 117.

図7の700は、オブジェクト32と吹き出し33が重なっている例である。この吹き出しの位置ではオブジェクト32の詳細が確認できない。これは、吹き出しを付加情報が有する位置情報の右側に必ず表示するように設定されているためである。   700 in FIG. 7 is an example in which the object 32 and the balloon 33 overlap. Details of the object 32 cannot be confirmed at the position of the balloon. This is because the balloon is set to be displayed on the right side of the position information included in the additional information.

本発明では、710の35や36のように撮像画像に撮像されている被写体をオブジェクトとして認識する(オブジェクト検出部)。オブジェクト認識技術は、公知の技術を利用し、たとえば輪郭抽出やパターンマッチングなどを利用する。   In the present invention, the subject captured in the captured image, such as 35 and 36 in 710, is recognized as an object (object detection unit). The object recognition technique uses a known technique, for example, contour extraction or pattern matching.

撮像装置の撮像位置と撮像方位から、オブジェクトと認識された被写体の位置に存在する付加情報を特定し、付加情報33や34をオブジェクト35や36と重ならないように表示する。その結果、710の吹き出し33のようにオブジェクトと重なることなく表示することができる。   The additional information existing at the position of the subject recognized as the object is specified from the imaging position and the imaging direction of the imaging device, and the additional information 33 and 34 is displayed so as not to overlap the objects 35 and 36. As a result, it is possible to display without overlapping with the object like the balloon 710 of 710.

この処理により、付加情報がオブジェクトと重なって、他の付加情報を有するオブジェクトが確認できない(たとえば、700の場合、32が見辛い)点を改善することができる。   With this process, it is possible to improve the point that the additional information overlaps with the object and an object having other additional information cannot be confirmed (for example, in the case of 700, 32 is difficult to see).

以上の処理により、付加情報管理サーバから付加情報を受信し、撮像装置に付加情報を表示する際の付加情報と背景画像の見やすさを改善することができる。   With the above processing, it is possible to improve the visibility of the additional information and the background image when receiving the additional information from the additional information management server and displaying the additional information on the imaging apparatus.

上記実施形態では、撮像装置と付加情報管理サーバとに適用する場合を説明したが、付加情報管理サーバの構成を撮像装置に持たせることにより、撮像装置のみで実施することも可能である。   In the above-described embodiment, the case where the present invention is applied to the imaging apparatus and the additional information management server has been described. However, the configuration of the additional information management server can be provided in the imaging apparatus, and the implementation can be performed only by the imaging apparatus.

なお、特に図示しないが、記録媒体に記憶されるプログラム群を管理する情報、例えばバ−ジョン情報,作成者等も記憶され、かつ、プログラム読み出し側のOS等に依存する情報、例えばプログラムを識別表示するアイコン等も記憶される場合もある。   Although not specifically illustrated, information for managing a program group stored in the recording medium, for example, version information, creator, etc. is also stored, and information depending on the OS on the program reading side, for example, a program is identified. An icon to be displayed may also be stored.

さらに、各種プログラムに従属するデータも同じディレクトリに管理されている。また、インスト−ルするプログラムやデータが圧縮されている場合に、解凍するプログラム等も記憶される場合もある。   Further, data belonging to various programs is also managed in the same directory. In addition, when a program or data to be installed is compressed, a program to be decompressed may be stored.

本実施形態における図4に示す機能が外部からインスト−ルされるプログラムによって、撮像機能を有する情報処理装置により遂行されていてもよい。そして、その場合、CD−ROMやフラッシュメモリやFD等の記録媒体により、あるいはネットワークを介して外部の記録媒体から、プログラムを含む情報群を出力装置に供給される場合でも本発明は適用されるものである。   The function shown in FIG. 4 in the present embodiment may be performed by an information processing apparatus having an imaging function by a program installed from the outside. In this case, the present invention is applied even when an information group including a program is supplied to the output device from a recording medium such as a CD-ROM, a flash memory, or an FD, or from an external recording medium via a network. Is.

以上のように、前述した実施形態の機能を実現するソフトウェアのプログラムコ−ドを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュ−タ(またはCPUやMPU)が記録媒体に格納されたプログラムコ−ドを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   As described above, a recording medium that records a program code of software that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus records the recording medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the program code stored in the medium.

この場合、記録媒体から読み出されたプログラムコ−ド自体が本発明の新規な機能を実現することになり、そのプログラムコ−ドを記憶した記録媒体は本発明を構成することになる。   In this case, the program code itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program code constitutes the present invention.

プログラムコ−ドを供給するための記録媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,DVD−ROM,磁気テ−プ,不揮発性のメモリカ−ド,ROM,EEPROM,シリコンディスク等を用いることができる。   Examples of the recording medium for supplying the program code include a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a DVD-ROM, a magnetic tape, and a non-volatile memory card. ROM, EEPROM, silicon disk, etc. can be used.

また、コンピュ−タが読み出したプログラムコ−ドを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコ−ドの指示に基づき、コンピュ−タ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read out by the computer, not only the functions of the above-described embodiments are realized, but also the computer is operated on the basis of the instruction of the program code. It goes without saying that the OS (operating system) or the like performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

さらに、記録媒体から読み出されたプログラムコ−ドが、コンピュ−タに挿入された機能拡張ボ−ドやコンピュ−タに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコ−ドの指示に基づき、その機能拡張ボ−ドや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the recording medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the program code is read out. -A case where the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the function and the functions of the above-described embodiments are realized by the processing. Needless to say.

また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。   Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or apparatus. In this case, by reading a recording medium storing a program represented by software for achieving the present invention into the system or apparatus, the system or apparatus can enjoy the effects of the present invention.

さらに、本発明を達成するためのソフトウェアによって表されるプログラムをネットワーク上のサーバ,データベ−ス等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。   Furthermore, by downloading and reading a program represented by software for achieving the present invention from a server, database, etc. on a network using a communication program, the system or apparatus can enjoy the effects of the present invention. Is possible.

なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。   In addition, all the structures which combined each embodiment mentioned above and its modification are also included in this invention.

100a〜c 撮像装置
200 付加情報管理サーバ
100a-c Imaging device 200 Additional information management server

Claims (6)

位置情報と対応付けられた付加情報を記憶している記憶手段を有する付加情報管理サーバと通信可能な、所定の撮像範囲を撮像する撮像装置であって、
前記撮像範囲にある対象物を特定する特定手段と、
前記特定された対象物の位置を取得する取得手段と、
前記撮像範囲のうち前記取得された前記対象物の位置の周辺の領域を設定する領域設定手段と、
前記撮像範囲を撮像した画像において、前記設定された周辺の領域にある対象物に対応する付加情報に基づく情報を、当該設定された周辺の領域にある対象物の付記情報として表示する第1の表示制御手段と、
前記領域設定手段で設定された周辺の領域を識別可能に表示する第2の表示制御手段と
を有し、
前記第2の表示制御手段は、前記撮像範囲のうち前記設定された周辺の領域の範囲を変更する操作を受け付け、当該範囲が変更された周辺の領域を識別可能に表示し、
前記第1の表示制御手段は、前記範囲が変更された周辺の領域にある対象物に対応する付加情報に基づく情報を、当該範囲が変更された周辺の領域にある対象物の付記情報として表示することを特徴とする撮像装置。
An imaging apparatus for imaging a predetermined imaging range, which is communicable with an additional information management server having storage means for storing additional information associated with position information,
Specifying means for specifying the imaging range near Ru Target material,
An acquisition unit for acquiring a position of the identified Target material,
An area setting means for setting a region around the position of the acquired the object of the imaging range,
The display in the image obtained by imaging the imaging range, the information based on the additional information corresponding to the set region near Ru Target of peripheral, as appended information of the object in the area around which is the set 1 display control means;
Have a second display control means for distinguishably displaying the area around the set by the area setting means,
The second display control unit accepts an operation to change the range of the set peripheral region in the imaging range, and displays the peripheral region in which the range is changed in an identifiable manner,
The first display control means displays information based on additional information corresponding to an object in a peripheral area where the range is changed as additional information of the object in a peripheral area where the range is changed. An imaging apparatus characterized by:
前記第2の表示制御手段は、記設定された周辺の領域の前後の境界を変更する操作を受け付け可能であることを特徴とする請求項に記載の撮像装置。 The second display control means, the image pickup apparatus according to claim 1, characterized in that it is capable of accepting an operation for changing the front and rear boundaries of a peripheral region of the previous SL set. 位置情報と対応付けられた付加情報を記憶している記憶手段を有する付加情報管理サーバと通信可能な、所定の撮像範囲を撮像した画像を表示する情報処理装置であって、
前記撮像範囲にある対象物を特定する特定手段と、
前記特定された対象物の位置を取得する取得手段と、
前記撮像範囲のうち前記取得された前記対象物の位置の周辺の領域を設定する領域設定手段と、
前記撮像範囲を撮像した画像において、前記設定された周辺の領域にある対象物に対応する付加情報に基づく情報を、当該設定された周辺の領域にある対象物の付記情報として表示する第1の表示制御手段と、
前記領域設定手段で設定された周辺の領域を識別可能に表示する第2の表示制御手段と
を有し、
前記第2の表示制御手段は、前記撮像範囲のうち前記設定された周辺の領域の範囲を変更する操作を受け付け、当該範囲が変更された周辺の領域を識別可能に表示し、
前記第1の表示制御手段は、前記範囲が変更された周辺の領域にある対象物に対応する付加情報に基づく情報を、当該範囲が変更された周辺の領域にある対象物の付記情報として表示することを特徴とする情報処理装置。
An information processing apparatus that displays an image of a predetermined imaging range that can communicate with an additional information management server having a storage unit that stores additional information associated with position information,
Specifying means for specifying the imaging range near Ru Target material,
An acquisition unit for acquiring a position of the identified Target material,
An area setting means for setting a region around the position of the acquired the object of the imaging range,
The display in the image obtained by imaging the imaging range, the information based on the additional information corresponding to the set region near Ru Target of peripheral, as appended information of the object in the area around which is the set 1 display control means;
Second display control means for displaying the surrounding area set by the area setting means in an identifiable manner,
The second display control unit accepts an operation to change the range of the set peripheral region in the imaging range, and displays the peripheral region in which the range is changed in an identifiable manner,
The first display control means displays information based on additional information corresponding to an object in a peripheral area where the range is changed as additional information of the object in a peripheral area where the range is changed. An information processing apparatus characterized by:
位置情報と対応付けられた付加情報を記憶している記憶手段を有する付加情報管理サーバと通信可能な、所定の撮像範囲を撮像する撮像装置の制御方法であって、
前記撮像範囲にある対象物を特定する特定工程と、
前記特定された対象物の位置を取得する取得工程と、
前記撮像範囲のうち前記取得された前記対象物の位置の周辺の領域を設定する領域設定工程と、
前記撮像範囲を撮像した画像において、前記設定された周辺の領域にある対象物に対応する付加情報に基づく情報を、当該設定された周辺の領域にある対象物の付記情報として表示する第1の表示制御工程と、
前記領域設定工程で設定された周辺の領域を識別可能に表示する第2の表示制御工程と
を有し、
前記第2の表示制御工程は、前記撮像範囲のうち前記設定された周辺の領域の範囲を変更する操作を受け付け、当該範囲が変更された周辺の領域を識別可能に表示し、
前記第1の表示制御工程は、前記範囲が変更された周辺の領域にある対象物に対応する付加情報に基づく情報を、当該範囲が変更された周辺の領域にある対象物の付記情報として表示することを特徴とする制御方法。
A method for controlling an imaging apparatus that images a predetermined imaging range and is communicable with an additional information management server having a storage unit that stores additional information associated with position information,
A specifying step of specifying the imaging range near Ru Target material,
An acquisition step of acquiring a position of the identified Target material,
An area setting step of setting a peripheral region of the position of the acquired the object of the imaging range,
The display in the image obtained by imaging the imaging range, the information based on the additional information corresponding to the set region near Ru Target of peripheral, as appended information of the object in the area around which is the set 1 display control process;
A second display control step for displaying the peripheral region set in the region setting step in an identifiable manner,
The second display control step accepts an operation for changing the range of the set peripheral region in the imaging range, and displays the peripheral region in which the range is changed in an identifiable manner,
In the first display control step, information based on additional information corresponding to an object in a peripheral area where the range is changed is displayed as additional information of the object in a peripheral area where the range is changed. A control method characterized by:
位置情報と対応付けられた付加情報を記憶している記憶手段を有する付加情報管理サーバと通信可能な、所定の撮像範囲を撮像した画像を表示する情報処理装置の制御方法であって、
前記撮像範囲にある対象物を特定する特定工程と、
前記特定された対象物の位置を取得する取得工程と、
前記撮像範囲のうち前記取得された前記対象物の位置の周辺の領域を設定する領域設定工程と、
前記撮像範囲を撮像した画像において、前記設定された周辺の領域にある対象物に対応する付加情報に基づく情報を、当該設定された周辺の領域にある対象物の付記情報として表示する第1の表示制御工程と、
前記領域設定工程で設定された周辺の領域を識別可能に表示する第2の表示制御工程と
を有し、
前記第2の表示制御工程は、前記撮像範囲のうち前記設定された周辺の領域の範囲を変更する操作を受け付け、当該範囲が変更された周辺の領域を識別可能に表示し、
前記第1の表示制御工程は、前記範囲が変更された周辺の領域にある対象物に対応する付加情報に基づく情報を、当該範囲が変更された周辺の領域にある対象物の付記情報として表示することを特徴とする制御方法。
A control method for an information processing apparatus that displays an image of a predetermined imaging range that is communicable with an additional information management server having storage means that stores additional information associated with position information,
A specifying step of specifying the imaging range near Ru Target material,
An acquisition step of acquiring a position of the identified Target material,
An area setting step of setting a peripheral region of the position of the acquired the object of the imaging range,
The display in the image obtained by imaging the imaging range, the information based on the additional information corresponding to the set region near Ru Target of peripheral, as appended information of the object in the area around which is the set 1 display control process;
A second display control step for displaying the peripheral region set in the region setting step in an identifiable manner,
The second display control step accepts an operation for changing the range of the set peripheral region in the imaging range, and displays the peripheral region in which the range is changed in an identifiable manner,
In the first display control step, information based on additional information corresponding to an object in a peripheral area where the range is changed is displayed as additional information of the object in a peripheral area where the range is changed. A control method characterized by:
請求項またはに記載された制御方法の各工程をコンピュータに実行させるためのプログラム。
The program for making a computer perform each process of the control method described in Claim 4 or 5 .
JP2013227318A 2013-10-31 2013-10-31 Imaging apparatus, information processing apparatus, control method, and program Active JP6314427B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013227318A JP6314427B2 (en) 2013-10-31 2013-10-31 Imaging apparatus, information processing apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013227318A JP6314427B2 (en) 2013-10-31 2013-10-31 Imaging apparatus, information processing apparatus, control method, and program

Publications (3)

Publication Number Publication Date
JP2015089021A JP2015089021A (en) 2015-05-07
JP2015089021A5 JP2015089021A5 (en) 2016-12-22
JP6314427B2 true JP6314427B2 (en) 2018-04-25

Family

ID=53051359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013227318A Active JP6314427B2 (en) 2013-10-31 2013-10-31 Imaging apparatus, information processing apparatus, control method, and program

Country Status (1)

Country Link
JP (1) JP6314427B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6491574B2 (en) * 2015-08-31 2019-03-27 Kddi株式会社 AR information display device
JP6800671B2 (en) * 2016-09-15 2020-12-16 ヤフー株式会社 Grant device, grant method and grant program
JP6824681B2 (en) * 2016-10-05 2021-02-03 キヤノン株式会社 Information processing equipment, information processing methods and programs
WO2018122895A1 (en) * 2016-12-26 2018-07-05 三菱電機株式会社 Image processing device, image processing method, image processing program, and image monitoring system
WO2019123974A1 (en) * 2017-12-19 2019-06-27 国立大学法人東京大学 Video distribution device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059136A (en) * 2004-08-20 2006-03-02 Seiko Epson Corp Viewer apparatus and its program
JP4861105B2 (en) * 2006-09-15 2012-01-25 株式会社エヌ・ティ・ティ・ドコモ Spatial bulletin board system
JP5328810B2 (en) * 2008-12-25 2013-10-30 パナソニック株式会社 Information display device and information display method
JP5178553B2 (en) * 2009-01-27 2013-04-10 オリンパス株式会社 Imaging device
JP5514062B2 (en) * 2010-09-30 2014-06-04 株式会社日立ソリューションズ Electronic device, imaging screen display method with information, and program

Also Published As

Publication number Publication date
JP2015089021A (en) 2015-05-07

Similar Documents

Publication Publication Date Title
US7154544B2 (en) Digital camera including a zoom button and/or a touch tablet useable for performing a zoom operation
JP6314427B2 (en) Imaging apparatus, information processing apparatus, control method, and program
US9251765B2 (en) Image processing device, image processing method, and program for generating composite image
US8340470B2 (en) Imaging apparatus, image editing method and program
JP6079297B2 (en) Editing apparatus, editing method, and editing program
JP2010166608A (en) Short film producing device, short film producing method, program, and recording medium
JP4519531B2 (en) Image display device, image display method, and program
US9065986B2 (en) Imaging apparatus and imaging system
KR20130073724A (en) Method and apparatus for generating or storing resultant image which changes selected area
JP2014131217A (en) Photographing device, photographing system, control method, and program for deterring leakage of personal information
KR20110106577A (en) Method for reproducing content using received information through network and display apparatus thereof
US10200616B2 (en) Image processing device that performs image rotation processing, method of controlling the same, and storage medium
JP2012084052A (en) Imaging apparatus, control method and program
JP2013135459A (en) Imaging apparatus and control method and program thereof
JP5942422B2 (en) Information processing apparatus, control method thereof, and program
JP2010097449A (en) Image composition device, image composition method and image composition program
JP2014115388A (en) Information processor, information processing system, control method, and program
KR101695209B1 (en) A system and method for composing real-time image and chroma-key Image of subject
JP5392244B2 (en) Imaging apparatus, control method, and program
JP2010154267A (en) Photographing apparatus and photographing system, image data management method, and program
JP2014115772A (en) Image processing apparatus, image processing system, control method, and program
JP6337451B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2014143665A (en) Imaging apparatus, control method, and program
JP5294091B2 (en) Imaging apparatus, control method thereof, and program
JP2014071753A (en) Photographing device, photographing system, control method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180312

R150 Certificate of patent or registration of utility model

Ref document number: 6314427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250