JP2008193196A - Imaging device and specified voice output method - Google Patents

Imaging device and specified voice output method Download PDF

Info

Publication number
JP2008193196A
JP2008193196A JP2007022818A JP2007022818A JP2008193196A JP 2008193196 A JP2008193196 A JP 2008193196A JP 2007022818 A JP2007022818 A JP 2007022818A JP 2007022818 A JP2007022818 A JP 2007022818A JP 2008193196 A JP2008193196 A JP 2008193196A
Authority
JP
Japan
Prior art keywords
subject
unit
image
specific subject
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007022818A
Other languages
Japanese (ja)
Inventor
Koichi Nakagome
浩一 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007022818A priority Critical patent/JP2008193196A/en
Publication of JP2008193196A publication Critical patent/JP2008193196A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To emphasize and reproduce only a voice of a specific subject which is easily and speedily specified for a specific image among images being photographed or having been photographed. <P>SOLUTION: An image is picked up and displayed by an image display means, and an input external voice is converted into a plurality of voice signals, which are output. Then the specific subject is specified in the image displayed by the image display means, and the direction of the specific subject is calculated from coordinate information and photography viewing angle of the specified subject. Based upon the calculated direction of the specific subject, a synthesized voice signal corresponding to the direction of the specific subject is generated from the plurality of voice signals, and output to the outside. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像装置および撮像装置における指定音声出力方法に関する。   The present invention relates to an imaging apparatus and a designated audio output method in the imaging apparatus.

近年、パーソナルコンピュータの目覚しい普及やその使い勝手の良さから、従来の銀塩フィルムを用いたカメラに替わって、CCD(Charge Coupled Device)等の撮像素子を用いたデジタルカメラが急速に普及している。   In recent years, digital cameras using an image pickup device such as a CCD (Charge Coupled Device) are rapidly spreading instead of conventional cameras using a silver salt film because of the remarkable spread of personal computers and their ease of use.

上述のデジタルカメラは、撮像した画像をデジタルデータに変換して表示、保存することができるため、従来の銀塩フィルムを用いたカメラと異なり、様々な機能が提案されている。   Since the above-described digital camera can convert captured images into digital data for display and storage, various functions have been proposed, unlike a camera using a conventional silver salt film.

例えば、こうした機能の一例として、デジタルカメラで撮影を行う際、デジタルカメラが撮影画面中の被写体の位置を検出するとともに、デジタルカメラが被写体と交信を行うことにより被写体に関する関連情報を収集し、その関連情報を撮影画面内の位置に関連付けて画像データに付加して記憶する。そして、その画像データを再生して閲覧する際に、ユーザが興味を持った被写体を再生画面上で指定すると、指定された再生画面上の位置に応じた関連情報を読み出して表示するようなものが知られている(例えば、特許文献1参照。)。
特開2003−174578号公報
For example, as an example of such a function, when shooting with a digital camera, the digital camera detects the position of the subject in the shooting screen, and the digital camera communicates with the subject to collect related information about the subject. The related information is added to the image data and stored in association with the position in the shooting screen. Then, when reproducing and browsing the image data, if the subject that the user is interested in is specified on the playback screen, the related information corresponding to the specified position on the playback screen is read and displayed. Is known (for example, see Patent Document 1).
JP 2003-174578 A

そのため、上述の従来技術によれば、例えば、画像を閲覧している最中に、画像に写されている歴史的建造物などについて知りたいと思った場合に、一旦画像の閲覧を中止して百科事典で調べたり、インターネットで検索したりすることなく、迅速に、必要な情報を入手できる。しかしながら、例えば、撮影中、または撮影された特定の場面において、画像に映し出されている特定の被写体の音声のみを強調して再生したいというような要求に対して、これに応えられるものではなかった。   Therefore, according to the above-described prior art, for example, when browsing an image and wanting to know about a historical building or the like shown in the image, the browsing of the image is temporarily stopped. You can quickly get the information you need without looking up in an encyclopedia or searching the internet. However, for example, it was not possible to respond to a request to emphasize and reproduce only the sound of a specific subject displayed in an image during shooting or in a specific scene where shooting was performed. .

そこで、本発明は、上述の課題に鑑みてなされたものであり、撮影中、または撮影した画像のうち、特定の画像について、簡便かつ迅速に指定された特定の被写体の音声のみを強調して再生することができる撮像装置および指定音声出力方法を提供することを目的とする。   Accordingly, the present invention has been made in view of the above-described problems, and emphasizes only the sound of a specific subject that is designated simply and quickly for a specific image during or during shooting. An object of the present invention is to provide an imaging apparatus and a designated audio output method that can be reproduced.

本発明は、上記の課題を解決するために、以下の事項を提案している。
(1)本発明は、画像を撮像する撮像手段と、該撮像手段により撮像された画像を表示する画像表示手段を備えた撮像装置であって、入力された外部音声を複数の音声信号に変換して音声信号に変換して出力する音声入力段と、前記画像表示手段に表示された画像に対して、画像内の特定の被写体を指定する被写体指定手段と、該被写体指定手段において指定された被写体の座標情報と撮影画角とに基づいて、特定の被写体の方向を算出する方向算出手段と、前記方向算出手段において算出された特定の被写体の方向に基づいて、前記複数の音声信号から前記特定の被写体の方向に対応した合成音声信号を生成する合成音声信号生成手段と、該合成音声信号を外部に出力する出力手段と、を備えたことを特徴とする撮像装置を提案している。
The present invention proposes the following matters in order to solve the above problems.
(1) The present invention is an imaging device including an imaging unit that captures an image and an image display unit that displays an image captured by the imaging unit, and converts input external audio into a plurality of audio signals. A voice input stage that converts the voice signal into an audio signal and outputs the voice signal; a subject designation unit that designates a specific subject in the image with respect to the image displayed on the image display unit; and the subject designation unit Direction calculation means for calculating the direction of a specific subject based on the coordinate information of the subject and the shooting angle of view, and the plurality of audio signals based on the direction of the specific subject calculated by the direction calculation means. There has been proposed an imaging apparatus comprising: a synthesized voice signal generating unit that generates a synthesized voice signal corresponding to a direction of a specific subject; and an output unit that outputs the synthesized voice signal to the outside.

(2)本発明は、(1)の撮像装置について、さらに、前記複数の音声信号と前記撮像手段が撮像した画像とを記憶する記憶手段を備えたことを特徴とする撮像装置を提案している。   (2) The present invention proposes an imaging apparatus characterized in that the imaging apparatus of (1) further includes storage means for storing the plurality of audio signals and images taken by the imaging means. Yes.

(3)本発明は、(1)または(2)の撮像装置について、前記音声入力手段は、2次元に配置されるマイクロフォンアレーであることを特徴とする撮像装置を提案している。   (3) The present invention proposes an imaging apparatus characterized in that, in the imaging apparatus of (1) or (2), the sound input means is a microphone array arranged in two dimensions.

(4)本発明は、(2)の撮像装置について、前記合成音声信号生成手段は、前記方向算出手段において算出された特定の被写体の方向に基づいて、前記複数の音声信号から特定の被写体の方向に対応した合成音声信号を生成する際に、前記記憶手段から読み出した前記複数の音声信号を用いることを特徴とする撮像装置を提案している。   (4) In the imaging apparatus according to (2), the synthesized audio signal generation unit may determine a specific subject from the plurality of audio signals based on the direction of the specific subject calculated by the direction calculation unit. An image pickup apparatus is proposed that uses the plurality of sound signals read from the storage means when generating a synthesized sound signal corresponding to a direction.

(5)本発明は、(1)から(4)のいずれかの撮像装置について、前記被写体指定手段は、タッチパネルにより指定された任意の被写体を特定の被写体として指定することを特徴とする撮像装置を提案している。   (5) In the imaging apparatus according to any one of (1) to (4), the subject designating unit designates an arbitrary subject designated by the touch panel as a specific subject. Has proposed.

(6)本発明は、(1)から(4)のいずれかの撮像装置について、さらに、顔認識手段を備え、前記被写体指定手段は、該顔認識手段によって顔として認識された被写体を特定の被写体として指定することを特徴とする請求項1から4のいずれかに記載の撮像装置を提案している。   (6) The present invention relates to any one of (1) to (4), further comprising a face recognizing unit, wherein the subject designating unit specifies a subject recognized as a face by the face recognizing unit. The imaging apparatus according to claim 1, wherein the imaging apparatus is designated as a subject.

(7)本発明は、(1)から(4)のいずれかの撮像装置について、さらに、被写体追従手段を備え、前記被写体指定手段は、該被写体追従手段の追従対象である被写体を特定の被写体として指定することを特徴とする撮像装置を提案している。   (7) The present invention provides the imaging apparatus according to any one of (1) to (4), further including subject tracking means, wherein the subject specifying means specifies a subject to be tracked by the subject tracking means as a specific subject. We propose an imaging device characterized by specifying as

(8)本発明は、画像を撮像する撮像手段と、該撮像手段により撮像された画像を表示する画像表示手段を備えた撮像装置における指定音声出力方法であって、前記画像を撮像し、前記画像表示手段に表示するとともに、入力された外部音声を複数の音声信号に変換して音声信号に変換して出力する第1のステップと、前記画像表示手段に表示された画像に対して、画像内の特定の被写体を指定する第2のステップと、該指定された被写体の座標情報と撮影画角とに基づいて、前記特定の被写体の方向を算出する第3のステップと、該算出された特定の被写体の方向に基づいて、前記複数の音声信号から前記特定の被写体の方向に対応した合成音声信号を生成する第4のステップと、該合成音声信号を外部に出力する第5のステップと、を備えたことを特徴とする指定音声出力方法を提案している。   (8) The present invention is a designated voice output method in an imaging apparatus including an imaging unit that captures an image and an image display unit that displays an image captured by the imaging unit, A first step of displaying the image on the image display means, converting the input external sound into a plurality of sound signals, converting the sound into sound signals, and outputting the sound signals; and for the image displayed on the image display means, A second step of designating a specific subject, a third step of computing the direction of the specific subject based on the coordinate information and the shooting angle of view of the designated subject, and the calculated A fourth step of generating a synthesized audio signal corresponding to the direction of the specific subject from the plurality of audio signals based on the direction of the specific subject; and a fifth step of outputting the synthesized audio signal to the outside , Be prepared It proposes a specific sound output method characterized by the.

本発明によれば、撮影中、または撮影した画像のうち、特定の画像について、簡便かつ迅速に指定された特定の被写体の音声のみを強調して再生することができるという効果がある。   According to the present invention, it is possible to emphasize and reproduce only the sound of a specific subject that is specified easily and quickly for a specific image during or during shooting.

以下、本発明の実施形態について、図1から図10を用いて詳細に説明する。
なお、本実施形態における構成要素は適宜、既存の構成要素等との置き換えが可能であり、また、他の既存の構成要素との組み合わせを含む様々なバリエーションが可能である。したがって、本実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。
Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 1 to 10.
Note that the constituent elements in the present embodiment can be appropriately replaced with existing constituent elements and the like, and various variations including combinations with other existing constituent elements are possible. Therefore, the description of the present embodiment does not limit the contents of the invention described in the claims.

<第1の実施形態>
図1から図7を用いて、第1の実施形態に係る撮像装置について説明する。
本実施形態は、撮像待機時に表示されるスルー画像において、ユーザが、指定した特定の被写体(人、動物)の音声を再生するものである。
<First Embodiment>
The imaging apparatus according to the first embodiment will be described with reference to FIGS.
In the present embodiment, the sound of a specific subject (person, animal) designated by the user is reproduced in a through image displayed during imaging standby.

<撮像装置の外観構成>
本実施形態に係る撮像装置(デジタルカメラ100)の外観構成は、図1に示すようになっており、図1(A)はその正面図、図1(B)はその背面図を示している。撮像装置(デジタルカメラ100)の正面には、図1(A)に示すように、その正面側にストロボ発光部1と撮像レンズ(レンズ群)2とを備え、さらに、所定の間隔をもって2次元状に複数のマイク11a〜11iを備えている。なお、複数のマイク11a〜11iは、マイクロフォンアレーで構成されていてもよい。この場合、単体のマイクロフォンと異なり、組み立てが容易である上に、コストダウンを図ることも可能となる。
<Appearance configuration of imaging device>
The external configuration of the imaging apparatus (digital camera 100) according to the present embodiment is as shown in FIG. 1, FIG. 1 (A) is a front view thereof, and FIG. 1 (B) is a rear view thereof. . As shown in FIG. 1 (A), a strobe light emitting unit 1 and an imaging lens (lens group) 2 are provided on the front side of the imaging apparatus (digital camera 100) on the front side, and two-dimensionally with a predetermined interval. A plurality of microphones 11a to 11i are provided. The plurality of microphones 11a to 11i may be configured by a microphone array. In this case, unlike a single microphone, the assembly is easy and the cost can be reduced.

また、撮像装置(デジタルカメラ100)の背面には、図1(B)に示すように、モードダイヤル3と、表示モニタ4と、カーソルキー5と、SETキー6と、望遠撮影時に用いられるズームキー(Wideボタン7−1、Teleボタン7−2)7と、撮像モードを選択する選択手段としての撮影モード選択キー10と、スピーカ12等が設けられている。なお、本発明の音声出力機能は、常に、ON状態としてもよいし、省電力のためにモードダイヤル3を用いて設定してもよい。   Further, as shown in FIG. 1B, on the rear surface of the image pickup apparatus (digital camera 100), a mode dial 3, a display monitor 4, a cursor key 5, a SET key 6, and a zoom key used during telephoto shooting. (Wide button 7-1, Tele button 7-2) 7, a shooting mode selection key 10 as selection means for selecting an imaging mode, a speaker 12, and the like are provided. The audio output function of the present invention may always be in the ON state, or may be set using the mode dial 3 for power saving.

さらに、撮像装置(デジタルカメラ100)の上面には、図1(A)、(B)に示すように、シャッターキー8と、電源ボタン9等が設けられ、図示しない撮像装置(デジタルカメラ100)の側面には、パーソナルコンピュータやモデム等の外部装置をUSBケーブルで接続する場合に用いられるUSB(Universal Serial Bus)端子の接続部や、メモリカード等を挿入するスロット等が設けられている。   Further, as shown in FIGS. 1A and 1B, a shutter key 8, a power button 9, and the like are provided on the upper surface of the imaging apparatus (digital camera 100). On the side surface, a connection portion of a USB (Universal Serial Bus) terminal used when connecting an external device such as a personal computer or a modem with a USB cable, a slot for inserting a memory card, and the like are provided.

<撮像装置の電気的構成>
本実施形態に係る撮像装置(デジタルカメラ100)は、図2に示すように、撮像レンズ62と、レンズ駆動ブロック63と、絞り兼用シャッター64と、CCD50と、TG(Timing Generator)66と、ユニット回路67と、DRAM(Dynamic Random Access Memory)68と、メモリ69と、CPU(Central Processing Unit)70と、画像表示部71と、キー入力部72と、外部通信I/F(Interface)73と、ストロボ駆動部74と、ストロボ発光部75と、カードI/F(Interface)76と、音声入力部81と、音声出力部82と、被写体指定部83と、音声信号処理部90とを備えており、カードI/F76には、図示しないデジタルカメラ100本体のカードスロットにメモリカードが着脱可能に接続される。
<Electrical configuration of imaging device>
As shown in FIG. 2, the image pickup apparatus (digital camera 100) according to the present embodiment includes an image pickup lens 62, a lens driving block 63, a diaphragm shutter 64, a CCD 50, a TG (Timing Generator) 66, and a unit. A circuit 67, a DRAM (Dynamic Random Access Memory) 68, a memory 69, a CPU (Central Processing Unit) 70, an image display unit 71, a key input unit 72, an external communication I / F (Interface) 73, A strobe driving unit 74, a strobe light emitting unit 75, a card I / F (Interface) 76, an audio input unit 81, an audio output unit 82, a subject designating unit 83, and an audio signal processing unit 90 are provided. The card I / F 76 has a digital card (not shown). Memory card is detachably connected to La 100 body of the card slot.

撮像レンズ62は、フォーカスレンズ、ズームレンズを含み、レンズ駆動ブロック63が接続されている。このレンズ駆動ブロック63は、図示しないフォーカスレンズ、ズームレンズをそれぞれ撮像面と平行な光軸方向に駆動させるフォーカスモータ及びズームモータと、CPU70からの制御信号にしたがってフォーカスモータ及びズームモータをそれぞれ駆動させるフォーカスドライバ及びズームモータドライバから構成されている。   The imaging lens 62 includes a focus lens and a zoom lens, and a lens driving block 63 is connected thereto. The lens drive block 63 drives a focus motor and a zoom motor that drive a focus lens and a zoom lens (not shown) in an optical axis direction parallel to the imaging surface, respectively, and drives the focus motor and the zoom motor in accordance with a control signal from the CPU 70, respectively. It consists of a focus driver and a zoom motor driver.

絞り兼用シャッター64は、図示しない駆動回路を含み、この駆動回路はCPU70から送られてくる制御信号にしたがって絞り兼用シャッターを動作させる。なお、この絞り兼用シャッター64は、絞りとシャッターとして機能する。   The aperture / shutter 64 includes a drive circuit (not shown), and this drive circuit operates the aperture / shutter according to a control signal sent from the CPU 70. The aperture / shutter 64 functions as an aperture and a shutter.

ここで、絞りとは、撮像レンズ62から入ってくる光の量を制御する機構をいい、シャッターとは、CCD50に光を当てる時間を制御する機構をいう。また、CCD50に光を当てる時間(露出時間)は、シャッターの開閉間隔時間(シャッター速度)によって変化するため、露出量は、この絞りとシャッター速度とによって定めることができる。   Here, the aperture refers to a mechanism that controls the amount of light that enters from the imaging lens 62, and the shutter refers to a mechanism that controls the time during which light is applied to the CCD 50. Further, since the time (exposure time) during which light is applied to the CCD 50 varies depending on the opening / closing interval time (shutter speed) of the shutter, the exposure amount can be determined by the aperture and the shutter speed.

CCD50は、撮像レンズ62及び絞り兼用シャッター64を介して投影された被写体の光を電気信号に変換し、撮像信号としてユニット回路67に出力する。また、CCD50は、TG66によって生成された所定周波数のタイミング信号にしたがって駆動する。なお、TG66にはユニット回路(CDS/AGC/AD)67が接続されている。   The CCD 50 converts the light of the subject projected via the imaging lens 62 and the aperture / shutter 64 into an electrical signal and outputs it to the unit circuit 67 as an imaging signal. The CCD 50 is driven according to a timing signal having a predetermined frequency generated by the TG 66. A unit circuit (CDS / AGC / AD) 67 is connected to the TG 66.

ユニット回路(CDS/AGC/AD)67は、CCD50から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行うAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD50の撮像信号は、ユニット回路67を経てデジタル信号としてCPU70に送られる。   A unit circuit (CDS / AGC / AD) 67 is a CDS (Correlated Double Sampling) circuit that holds the imaged signal output from the CCD 50 by correlated double sampling, and an AGC (Automatic Gain Adjustment) for the imaged signal after the sampling. (Automatic Gain Control) circuit and an A / D converter that converts the analog image pickup signal after the automatic gain adjustment into a digital signal. The image pickup signal of the CCD 50 is sent to the CPU 70 as a digital signal through the unit circuit 67. It is done.

CPU70は、ユニット回路67から送られてきた画像データの画像処理(画素補間処理、γ補正、輝度色差信号の生成、ホワイトバランス処理、露出補正処理等)、ブレ補正処理、画像データの圧縮・伸張(例えば、JPEG形式の圧縮・伸張)の処理等を行う機能を有するとともに、デジタルカメラ100の各部を制御プログラムにしたがって制御するワンチップマイコンであって、時刻を計時するクロック回路を含む。   The CPU 70 performs image processing (pixel interpolation processing, γ correction, luminance / color difference signal generation, white balance processing, exposure correction processing, etc.) of image data sent from the unit circuit 67, blur correction processing, and compression / decompression of image data. A one-chip microcomputer that has a function of performing processing (for example, compression / decompression in JPEG format) and the like, and controls each unit of the digital camera 100 according to a control program, and includes a clock circuit that measures time.

DRAM68は、CPU70のワーキングメモリとしても使用される。画像表示部71は、カラーLCD(Liquid Crystal Display)とその駆動回路とを含み、撮影待機状態において、CCD50によって撮像された被写体をスルー画像として表示する。なお、画像表示部71の表面には、タッチパネルが組み込まれている。これにより、ユーザが画像表示部71に表示された画像の中から特定の被写体を容易に指定することが可能となる。   The DRAM 68 is also used as a working memory for the CPU 70. The image display unit 71 includes a color LCD (Liquid Crystal Display) and its driving circuit, and displays the subject imaged by the CCD 50 as a through image in the imaging standby state. A touch panel is incorporated on the surface of the image display unit 71. As a result, the user can easily specify a specific subject from the images displayed on the image display unit 71.

キー入力部72は、シャッターボタンやモードキー、SETキー、十字キー、撮影モード選択キー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU70に出力する。   The key input unit 72 includes a plurality of operation keys such as a shutter button, a mode key, a SET key, a cross key, and a shooting mode selection key, and outputs an operation signal according to the user's key operation to the CPU 70.

外部通信I/F73は、外部の電子機器(例えば、パーソナルコンピュータ)との間でデータの入出力を行うものであり、USB規格、IEEE1394規格などの各種インターフェース規格による入出力を可能としており、これらの規格によるデータ入出力が可能なパソコンなどの電子機器と接続可能となっている。また、IrDA規格による赤外線通信、Bluetooth(TM)規格による無線通信により外部の電子機器と画像データの入出力を可能としているものでもよい。   The external communication I / F 73 is for inputting / outputting data to / from an external electronic device (for example, a personal computer), and enables input / output according to various interface standards such as the USB standard and the IEEE 1394 standard. It can be connected to electronic devices such as personal computers that can input and output data according to the above standards. In addition, the image data may be input / output to / from an external electronic device by infrared communication based on the IrDA standard or wireless communication based on the Bluetooth (TM) standard.

ストロボ駆動部74は、CPU70の制御信号にしたがって、ストロボ発光部75を閃光駆動させ、ストロボ発光部75は、これによりストロボを閃光させる。CPU70は、図示しない測光回路により、撮影シーンが暗いか否かを判断し、撮影シーンが暗いと判断し、かつ、撮影を行う場合(シャッターボタンの押下時)には、ストロボ駆動部74に制御信号を出力する。   The strobe driving unit 74 drives the strobe light emitting unit 75 to flash according to the control signal of the CPU 70, and the strobe light emitting unit 75 thereby causes the strobe to flash. The CPU 70 determines whether or not the shooting scene is dark using a photometry circuit (not shown), and determines that the shooting scene is dark and controls the strobe driving unit 74 when shooting (when the shutter button is pressed). Output a signal.

メモリ69は、CPU70によるデジタルカメラ100の各部の制御に必要なプログラム及び各部の制御に必要なデータを記録格納しており、CPU70は、このプログラムにしたがって処理を実行する。   The memory 69 records and stores a program necessary for control of each part of the digital camera 100 by the CPU 70 and data necessary for control of each part, and the CPU 70 executes processing according to this program.

音声入力部81は、入力された外部音声をマイク11a〜11iによって複数の音声信号に変換し、後述する音声信号処理部90に音声信号を出力する。音声出力部82は、音声信号処理部90において信号処理された音声をスピーカ12に対して出力する。被写体指定部83は、例えば、タッチパネルによって構成された画像表示部71に表示された特定の被写体(人、動物)を指定するために、ユーザがタッチペン等によって、指定する特定の被写体の画像に触れたときに、その特定の被写体に対応する座標情報を認識し、この座標情報を音声信号処理部90に出力する。音声信号処理部90は、入力した座標情報および音声信号に基づいて、ユーザが被写体指定部83において指定した特定の被写体の音声信号のみを強調する処理を実行し、処理した音声信号を音声出力部82に出力する。   The audio input unit 81 converts the input external audio into a plurality of audio signals by the microphones 11a to 11i, and outputs the audio signal to the audio signal processing unit 90 described later. The audio output unit 82 outputs the audio signal-processed by the audio signal processing unit 90 to the speaker 12. The subject designation unit 83 touches an image of a specific subject that the user designates with a touch pen or the like in order to designate a specific subject (person, animal) displayed on the image display unit 71 configured by a touch panel, for example. The coordinate information corresponding to the specific subject is recognized, and the coordinate information is output to the audio signal processing unit 90. The audio signal processing unit 90 executes a process of emphasizing only the audio signal of a specific subject specified by the user in the subject specifying unit 83 based on the input coordinate information and the audio signal, and the processed audio signal is output to the audio output unit. 82.

<主要部の構成ブロック>
本実施形態に係る撮像装置(デジタルカメラ100)の主要構成ブロックは、図3に示すように、音声入力部81と、CCD(画像入力部)50と、画像表示部71と、被写体指定部83と、音声信号処理部90と、音声出力部82とから構成されており、図4に示すように、音声信号処理部90は、さらに、被写体方向演算部91と、遅延量演算部92と、遅延量調整部93と、合成部94とから構成されている。
<Structure block of main part>
As shown in FIG. 3, the main constituent blocks of the imaging apparatus (digital camera 100) according to the present embodiment are an audio input unit 81, a CCD (image input unit) 50, an image display unit 71, and a subject designation unit 83. And an audio signal processing unit 90 and an audio output unit 82. As shown in FIG. 4, the audio signal processing unit 90 further includes a subject direction calculation unit 91, a delay amount calculation unit 92, The delay amount adjusting unit 93 and the combining unit 94 are included.

ここで、被写体方向演算部91は、被写体指定部83から入力した座標情報とCPU70から入力した画角情報とに基づいて、画像内の指定された特定の被写体の被写体方向を演算する。なお、演算方法の詳細については、後述する。   Here, the subject direction calculation unit 91 calculates the subject direction of the specified specific subject in the image based on the coordinate information input from the subject specifying unit 83 and the view angle information input from the CPU 70. Details of the calculation method will be described later.

また、遅延量演算部92は、被写体方向演算部91において演算された被写体方向と各マイク11a〜11iの配列位置情報とから各マイク11a〜11iにおける被写体からの音声信号の到達遅延量を演算する。   The delay amount calculation unit 92 calculates the arrival delay amount of the audio signal from the subject in each of the microphones 11a to 11i from the subject direction calculated in the subject direction calculation unit 91 and the arrangement position information of each of the microphones 11a to 11i. .

遅延量調整部93は、遅延量演算部92が演算した各マイク11a〜11iにおける被写体からの音声信号の到達遅延量に基づいて、各マイク11a〜11iからの音声信号の遅延量を調整して、各音声信号の位相を合わせる。そして、合成部94は、遅延量調整部93から出力される遅延量が調整された各音声信号を合成して音声出力部82に出力する。これにより、被写体指定部83を用いて、ユーザに指定された撮像画像上の特定の被写体に対応する音声のみを強調して出力することができる。   The delay amount adjustment unit 93 adjusts the delay amount of the audio signal from each microphone 11a to 11i based on the arrival delay amount of the audio signal from the subject in each microphone 11a to 11i calculated by the delay amount calculation unit 92. The phase of each audio signal is matched. Then, the synthesis unit 94 synthesizes the audio signals adjusted in delay amount output from the delay amount adjustment unit 93 and outputs the synthesized audio signals to the audio output unit 82. Thereby, it is possible to emphasize and output only the sound corresponding to the specific subject on the captured image designated by the user using the subject designation unit 83.

<被写体方向演算部の演算処理>
次に、被写体方向演算部91における演算処理について、図5を用いて、説明する。
図5は、説明の便宜上、画像表示部の横方向の画素配列をX方向とした1次元のモデルを例示している。なお、画像表示部の横方向の画素配列をX方向、縦方向の画素配列をY方向とした2次元のモデルの場合でも、以下、詳述する方法によって、被写体方向角を演算することができる。
<Calculation processing of subject direction calculation unit>
Next, calculation processing in the subject direction calculation unit 91 will be described with reference to FIG.
FIG. 5 illustrates a one-dimensional model in which the horizontal pixel array of the image display unit is the X direction for convenience of explanation. Even in the case of a two-dimensional model in which the horizontal pixel array of the image display unit is the X direction and the vertical pixel array is the Y direction, the subject direction angle can be calculated by the method described in detail below. .

図5において、θは、撮影時のデジタルカメラの画角を示している。ここで、画角θは、ズーム撮影であれば、ズームレンズのズームリングの移動量により、固定レンズによる撮影であれば、固定レンズの固定値により求めることができ、この情報は、CPU70から供給される。   In FIG. 5, θ represents the angle of view of the digital camera at the time of shooting. Here, the angle of view θ can be obtained from the movement amount of the zoom ring of the zoom lens in the case of zoom photography, and the fixed value of the fixed lens in the case of photography using a fixed lens. This information is supplied from the CPU 70. Is done.

図5において、レンズ主点から被写体までの距離をYとする。図中、Xは、距離Yにおいて画像の中央から端までに対応する長さである。また、xは、ユーザが被写体指定部83において指定した画像表示部71上の特定の人物の光軸中心からの距離を示しており、θxは、xにおける光軸中心からの角度を示している。ここで、xとYとの間には、
x=Ytanθx・・・(1)
の関係式が成立し、XとYとの間には、
Y=Xtanθ
・・・(2)
の関係式が成立する。
In FIG. 5, it is assumed that the distance from the lens principal point to the subject is Y. In the figure, X is a length corresponding to the distance Y from the center to the end of the image. Further, x represents the distance from the optical axis center of a specific person on the image display unit 71 specified by the user in the subject specifying unit 83, and θx represents the angle from the optical axis center in x. . Here, between x and Y,
x = Ytan θx (1)
Is established, and between X and Y,
Y = Xtanθ
... (2)
The following relational expression holds.

ここで、上記式(1)、式(2)から、Yを消去すると、θxは、以下、式(3)のようになる。
θx=arctan(x/(X・tanθ))・・・(3)
したがって、(3)式から、x/Xとθとがわかれば、被写体の方向角θxを求めることができる。ここで、x/Xは、撮像された画像の横方向の画素数(=2X)と指定された特定の人物が画像中心から何画素離れているか(=x)から決まり、θはレンズ状態((レンズの焦点距離から算出可能な画角)/2 )から決まるので、レンズ状態と画像内の位置から被写体の方向角θxが求まる。
Here, when Y is eliminated from the above formulas (1) and (2), θx is represented by the following formula (3).
θx = arctan (x / (X · tan θ)) (3)
Accordingly, if x / X and θ are known from the expression (3), the direction angle θx of the subject can be obtained. Here, x / X is determined by the number of pixels in the horizontal direction of the captured image (= 2X) and how many pixels the specified person is away from the center of the image (= x), and θ is the lens state ( Therefore, the direction angle θx of the subject can be determined from the lens state and the position in the image.

<遅延量演算部の演算処理>
次に、遅延量演算部における演算処理について、図6を用いて、説明する。
図6は、ユーザが被写体指定部83において指定した特定の被写体(人、動物)の音声(図中、音源と表示)が、各マイク11b、11eに対して到来する方向を模式的に示した図である。
<Calculation processing of delay amount calculation unit>
Next, calculation processing in the delay amount calculation unit will be described with reference to FIG.
FIG. 6 schematically shows the direction in which the sound (displayed as a sound source in the figure) of a specific subject (person, animal) designated by the user in the subject designation unit 83 arrives at each of the microphones 11b and 11e. FIG.

図6に示すように、光軸中心と被写体の音声(音源)の到来方向とがなす角は、上記、被写体方向演算部91で求められるθxとなる。ここで、デジタルカメラ100の撮像レンズ搭載面に設けられた例えば、2つのマイク11b、11eの間隔をLとすると、マイク11b、11eの間隔Lは、被写体の位置(音源)からマイク11b、11eまでの距離に比べて十分に短いため、各マイク11b、11eと被写体の音声(音源)の到来方向とがなす角も、上記の光軸中心と被写体の音声(音源)の到来方向とがなす角θxと同様にみなすことができる。   As shown in FIG. 6, the angle formed by the center of the optical axis and the direction of arrival of the sound (sound source) of the subject is θx obtained by the subject direction calculation unit 91 described above. Here, for example, if the interval between two microphones 11b and 11e provided on the imaging lens mounting surface of the digital camera 100 is L, the interval L between the microphones 11b and 11e is determined from the subject position (sound source) to the microphones 11b and 11e. Since the distance between the microphones 11b and 11e and the arrival direction of the subject sound (sound source) is also the angle between the center of the optical axis and the arrival direction of the subject sound (sound source). It can be regarded in the same way as the angle θx.

そこで、遅延量を求めるために、図6において、マイク11eの中心から、マイク11bに対する被写体の音声(音源)の到来方向に対して、垂線を下すと、その遅延量は、以下、式(4)のようになる。
Lsinθx・・・(4)
このように、他のマイクに対しても同様の演算を行うことにより、基準となるマイクからの遅延量を求めることができる。
Therefore, in order to obtain the delay amount, in FIG. 6, when a perpendicular is drawn from the center of the microphone 11 e to the arrival direction of the sound (sound source) of the subject with respect to the microphone 11 b, the delay amount is expressed by the following equation (4): )become that way.
Lsin θx (4)
In this way, the delay amount from the reference microphone can be obtained by performing the same calculation for other microphones.

<撮像装置の処理>
次に、図7を用いて、本実施形態に係る撮像装置の処理について説明する。
まず、画像表示部71が、撮影待機状態において、CCD50によって撮像された画像をスルー画像として表示するとともに、音声入力部81が各マイク11a〜11iからの音声を各マイク11a〜11iごとに取り込んで、音声信号処理部90に出力する(ステップS101)。
<Processing of Imaging Device>
Next, processing of the imaging apparatus according to the present embodiment will be described with reference to FIG.
First, in the shooting standby state, the image display unit 71 displays an image captured by the CCD 50 as a through image, and the audio input unit 81 captures audio from each microphone 11a to 11i for each microphone 11a to 11i. And output to the audio signal processing unit 90 (step S101).

次に、被写体指定部83によって、ユーザが画像表示部71に表示された特定の被写体(人、動物)を指定すると、被写体指定部83が、画像表示部71に表示された特定の被写体の座標情報を被写体方向演算部91に出力する(ステップS102)。   Next, when the user designates a specific subject (person, animal) displayed on the image display unit 71 by the subject designation unit 83, the subject designation unit 83 displays the coordinates of the specific subject displayed on the image display unit 71. Information is output to the subject direction calculation unit 91 (step S102).

被写体方向演算部91は、被写体指定部83から入力した座標情報とCPU70から入力した画角情報とに基づいて、上記(3)の演算式から、被写体の音声の到来方向(角度)θxを算出し、遅延量演算部92に出力する(ステップS103)。遅延量演算部92は、入力した到来方向(角度)θxと各マイクの設置間隔Lとに基づいて、上記(4)の演算式から、各マイクの遅延量を演算し、遅延量調整部93に出力する(ステップS104)。   The subject direction calculation unit 91 calculates the arrival direction (angle) θx of the sound of the subject from the calculation formula (3) based on the coordinate information input from the subject specification unit 83 and the view angle information input from the CPU 70. And output to the delay amount calculation unit 92 (step S103). The delay amount calculation unit 92 calculates the delay amount of each microphone from the equation (4) based on the input arrival direction (angle) θx and the installation interval L of each microphone, and the delay amount adjustment unit 93. (Step S104).

遅延量調整部93は、入力した各マイクごとの遅延量に基づいて、対応する音声信号の遅延量を調整して、位相を合わせた音声信号を合成部94に出力する(ステップS105)。合成部94は、遅延量調整部93からの音声信号を合成して、音声出力部82に出力する(ステップS106)。音声出力部82は、合成部94から入力した信号を電気信号に変換して、スピーカ12に供給することにより、音声を外部に放音する(ステップS107)。   The delay amount adjustment unit 93 adjusts the delay amount of the corresponding audio signal based on the input delay amount for each microphone, and outputs the audio signal having the phase matched to the synthesis unit 94 (step S105). The synthesis unit 94 synthesizes the audio signal from the delay amount adjustment unit 93 and outputs the synthesized audio signal to the audio output unit 82 (step S106). The audio output unit 82 converts the signal input from the synthesizing unit 94 into an electric signal and supplies it to the speaker 12, thereby emitting the sound to the outside (step S107).

したがって、本実施形態によれば、撮影待機状態で、ユーザが被写体指定部83によって指定した特定の被写体の音声を強調して再生することができる。また、ユーザが音声を聞きたい特定の被写体を画像表示部上でタッチペンなどを用いて、指定すればよいため、ヒューマンインターフェースに優れているという利点を有する。   Therefore, according to the present embodiment, it is possible to emphasize and reproduce the sound of a specific subject specified by the user using the subject specifying unit 83 in the shooting standby state. In addition, since a specific subject that the user wants to hear is specified on the image display unit using a touch pen or the like, there is an advantage that the human interface is excellent.

さらに、ユーザが画像表示部上で指定した画像から座標情報を生成し、この座標情報と画角情報とから、音声を聞きたい特定の被写体の音声の到来方向を算出し、さらに、各マイクの設置間隔からそれぞれのマイクに対応した遅延量を求めて、遅延量の調整を行った音声信号を合成して出力することから、音声を聞きたい特定の被写体の音声のみを強調して出力することができる。   Further, coordinate information is generated from an image designated by the user on the image display unit, and the arrival direction of the sound of a specific subject to be heard is calculated from the coordinate information and the angle-of-view information. The amount of delay corresponding to each microphone is obtained from the installation interval, and the audio signal with the adjusted delay amount is synthesized and output, so only the sound of the specific subject you want to hear is emphasized and output Can do.

<第2の実施形態>
図8から図10を用いて、第2の実施形態について説明する。
本実施形態は、すでに撮像された画像を画像表示部71に表示し、ユーザが、指定した特定の被写体(人、動物)の音声を再生するものである。なお、本実施形態における撮像装置の外観構成は、第1の実施形態と同様であり、また、第1の実施形態と同一の符号を付す構成要素については、同様の機能を有するものであることから、その詳細な説明は省略する。
<Second Embodiment>
The second embodiment will be described with reference to FIGS.
In the present embodiment, an already captured image is displayed on the image display unit 71, and the sound of a specific subject (person, animal) designated by the user is reproduced. Note that the external configuration of the imaging apparatus according to the present embodiment is the same as that of the first embodiment, and components having the same reference numerals as those of the first embodiment have similar functions. Therefore, detailed description thereof is omitted.

<主要部の構成ブロック>
本実施形態に係る撮像装置(デジタルカメラ100)の主要構成ブロックは、図8に示すように、音声入力部81と、CCD(画像入力部)50と、記憶部84と、画像表示部71と、被写体指定部83と、音声信号処理部90と、音声出力部82とから構成されており、音声信号処理部90は、図9に示すように、さらに、被写体方向演算部91と、遅延量演算部92と、遅延量調整部93と、合成部94とから構成されている。
<Structure block of main part>
As shown in FIG. 8, the main constituent blocks of the imaging apparatus (digital camera 100) according to the present embodiment are an audio input unit 81, a CCD (image input unit) 50, a storage unit 84, an image display unit 71, and the like. , A subject designation unit 83, an audio signal processing unit 90, and an audio output unit 82. The audio signal processing unit 90 further includes a subject direction calculation unit 91, a delay amount, as shown in FIG. The calculation unit 92, the delay amount adjustment unit 93, and the synthesis unit 94 are configured.

第1の実施形態と異なる部分は、記憶部84を備えた点にある。記憶部84は、音声入力部81に入力された各マイク11a〜11iからの音声を各マイク11a〜11iに対応してトラックを分けて記憶する。また、記憶部84は、撮影した画像情報と上記の音声情報とを対応づけて記憶する。こうすることによって、すでに撮像された画像において、ユーザが、指定した特定の被写体(人、動物)の音声を強調して再生することができる。   The difference from the first embodiment is that a storage unit 84 is provided. The storage unit 84 stores the audio from the microphones 11a to 11i input to the audio input unit 81 in a separate track corresponding to the microphones 11a to 11i. In addition, the storage unit 84 stores the captured image information and the audio information in association with each other. By doing so, it is possible to emphasize and reproduce the sound of a specific subject (person, animal) designated by the user in an already captured image.

なお、記憶部84は、別個に設けてもよいし、DRAM68を記憶部84として、撮像された画像データに対応させて、マイク11a〜11iから入力された音声信号を一時記憶するバッファメモリとして使用してもよい。また、記憶部84として外部記憶素子であるメモリカードに、圧縮された画像データとこれに対応した各マイク11a〜11iからの圧縮された音声信号を保存してもよい。   The storage unit 84 may be provided separately, or the DRAM 68 as the storage unit 84 is used as a buffer memory that temporarily stores the audio signals input from the microphones 11a to 11i in correspondence with the captured image data. May be. Moreover, you may preserve | save the compressed audio | voice signal from each microphone 11a-11i corresponding to the compressed image data to the memory card | curd which is an external storage element as the memory | storage part 84. FIG.

<撮像装置の処理>
次に、図10を用いて、本実施形態に係る撮像装置の処理について説明する。
まず、ユーザの操作により、記憶部84から画像データを読み出して、画像表示部71に選択する画像データを表示する(ステップS201)。選択される画像データが、記憶部84から読み出されたら、関連する音声データを読み出す(ステップS202)。
<Processing of Imaging Device>
Next, processing of the imaging apparatus according to the present embodiment will be described using FIG.
First, image data is read from the storage unit 84 by the user's operation, and the image data to be selected is displayed on the image display unit 71 (step S201). When the selected image data is read from the storage unit 84, the related audio data is read (step S202).

次に、被写体指定部83によって、ユーザが画像表示部71に表示された特定の被写体(人、動物)を指定すると、被写体指定部83が、画像表示部71に表示された特定の被写体の座標情報を被写体方向演算部91に出力する(ステップS203)。   Next, when the user designates a specific subject (person, animal) displayed on the image display unit 71 by the subject designation unit 83, the subject designation unit 83 displays the coordinates of the specific subject displayed on the image display unit 71. Information is output to the subject direction calculation unit 91 (step S203).

被写体方向演算部91は、被写体指定部83から入力した座標情報とCPU70から入力した画角情報とに基づいて、上記(3)の演算式から、被写体からの音声の到来方向(角度)θxを算出し、遅延量演算部92に出力する(ステップS204)。遅延量演算部92は、入力した到来方向(角度)θxと各マイクの設置間隔Lとに基づいて、上記(4)の演算式から、各マイクの遅延量を演算し、遅延量調整部93に出力する(ステップS205)。   Based on the coordinate information input from the subject specifying unit 83 and the angle-of-view information input from the CPU 70, the subject direction calculation unit 91 calculates the arrival direction (angle) θx of the sound from the subject from the calculation formula (3). Calculate and output to the delay amount calculation unit 92 (step S204). The delay amount calculation unit 92 calculates the delay amount of each microphone from the equation (4) based on the input arrival direction (angle) θx and the installation interval L of each microphone, and the delay amount adjustment unit 93. (Step S205).

遅延量調整部93は、記憶部84から音声データをトラックごとに読み出すとともに、入力した各マイクごとの遅延量に基づいて、対応する音声信号の遅延量を調整して、位相を合わせた音声信号を合成部94に出力する(ステップS206)。合成部94は、遅延量調整部93からの音声信号を合成して、音声出力部82に出力する(ステップS207)。音声出力部82は、合成部94から入力した信号を電気信号に変換して、スピーカ12に供給することにより、音声を外部に放音する(ステップS208)。   The delay amount adjustment unit 93 reads out the audio data from the storage unit 84 for each track, adjusts the delay amount of the corresponding audio signal based on the input delay amount for each microphone, and adjusts the phase of the audio signal. Is output to the synthesis unit 94 (step S206). The synthesis unit 94 synthesizes the audio signal from the delay amount adjustment unit 93 and outputs the synthesized audio signal to the audio output unit 82 (step S207). The audio output unit 82 converts the signal input from the synthesizing unit 94 into an electric signal and supplies the signal to the speaker 12, thereby emitting the sound to the outside (step S208).

したがって、本実施形態によれば、画像データを記憶するとともに、画像データと関連付けて音声データを各マイクに対応したトラックごとに記憶することから、すでに撮像された画像データについて、ユーザが被写体指定部83によって指定した特定の被写体(人、動物)の音声を強調して再生することができる。   Therefore, according to the present embodiment, the image data is stored, and the audio data is stored for each track corresponding to each microphone in association with the image data. The sound of a specific subject (person, animal) designated by 83 can be emphasized and reproduced.

また、ユーザが音声を聞きたい特定の被写体を画像表示部上でタッチペンなどを用いて、指定すればよいため、ヒューマンインターフェースに優れているという利点を有する。さらに、ユーザが画像表示部上で指定した画像から座標情報を生成し、この座標情報と画角情報とから、音声を聞きたい特定の被写体の音声の到来方向を算出し、さらに、各マイクの設置間隔からそれぞれのマイクに対応した遅延量を求めて、遅延量の調整を行った音声信号を合成して出力することから、音声を聞きたい特定の被写体の音声のみを強調して出力することができる。   In addition, since a specific subject that the user wants to hear is specified on the image display unit using a touch pen or the like, there is an advantage that the human interface is excellent. Further, coordinate information is generated from an image designated by the user on the image display unit, and the arrival direction of the sound of a specific subject to be heard is calculated from the coordinate information and the angle-of-view information. The amount of delay corresponding to each microphone is obtained from the installation interval, and the audio signal with the adjusted delay amount is synthesized and output, so only the sound of the specific subject you want to hear is emphasized and output Can do.

以上、この発明の実施形態につき、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。例えば、本実施形態では、被写体の指定をタッチパネルによりユーザが手動で行う方法について説明したが、顔認識による自動指定であってもよい。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes a design and the like within a scope not departing from the gist of the present invention. For example, in the present embodiment, the method in which the user manually designates the subject using the touch panel has been described, but automatic designation by face recognition may be used.

また、顔認識により候補となる被写体を絞り込んだ後にユーザが任意に被写体を指定するようにしてもよい。さらに、オートフォーカスの対象となる被写体を、音声を聞きたい特定の被写体としてもよい。また、被写体追従モードにより、追従対象の被写体を音声を聞きたい特定の被写体としてもよい。   Further, the user may arbitrarily designate the subject after narrowing down the candidate subjects by face recognition. Furthermore, the subject to be autofocused may be a specific subject that wants to hear sound. Further, in the subject tracking mode, the subject to be tracked may be a specific subject to be heard.

また、指向性を調整できるマイクを用いて、被写体方向角に応じた指向性を設定し、さらに、音声を聞きたい特定の被写体の音声のみを強調するようにしてもよいし、被写体からマイクまでの距離に応じて、感度を可変して、音声を聞きたい特定の被写体の音声のみを強調するようにしてもよい。   In addition, using a microphone that can adjust the directivity, the directivity according to the subject direction angle is set, and only the sound of a specific subject to be heard can be emphasized. Depending on the distance, the sensitivity may be varied to emphasize only the sound of a specific subject to be heard.

また、上記で述べたように、被写体の方向は、ユーザの指定した座標情報と画角とにより決定され、遅延量は、被写体の方向角とマイク間距離により決定されるため、これらを変数とするデータテーブルを格納して、このデータテーブルと、各マイクに対応してトラックに分けて記憶された音声データを外部機器に出力し、この外部機器において上記遅延量の演算や音声の合成処理を行うようにしてもよい。   Also, as described above, the direction of the subject is determined by the coordinate information and the angle of view specified by the user, and the delay amount is determined by the direction angle of the subject and the distance between the microphones. The data table and the audio data stored in tracks corresponding to each microphone are output to an external device, and the external device performs the above delay amount calculation and audio synthesis processing. You may make it perform.

第1の実施形態に係る撮像装置の外観構成図である。1 is an external configuration diagram of an imaging apparatus according to a first embodiment. 第1の実施形態に係る撮像装置の電気的構成ブロック図である。1 is a block diagram of an electrical configuration of an imaging apparatus according to a first embodiment. 第1の実施形態に係る撮像装置の主要構成ブロック図である。1 is a main configuration block diagram of an imaging apparatus according to a first embodiment. 第1の実施形態に係る撮像装置の音声処理部の構成ブロック図である。2 is a block diagram illustrating a configuration of an audio processing unit of the imaging apparatus according to the first embodiment. FIG. 第1の実施形態に係る撮像装置における被写体方向演算部の演算処理を説明するための図である。It is a figure for demonstrating the calculation process of the to-be-photographed object direction calculating part in the imaging device which concerns on 1st Embodiment. 第1の実施形態に係る撮像装置における遅延量演算部の演算処理を説明するための図である。It is a figure for demonstrating the calculation process of the delay amount calculating part in the imaging device which concerns on 1st Embodiment. 第1の実施形態に係る撮像装置の処理フローである。It is a processing flow of the imaging device concerning a 1st embodiment. 第2の実施形態に係る撮像装置の主要構成ブロック図である。It is a main block diagram of the imaging device concerning a 2nd embodiment. 第2の実施形態に係る撮像装置の音声処理部の構成ブロック図である。It is a block diagram of a configuration of an audio processing unit of an imaging apparatus according to a second embodiment. 第2の実施形態に係る撮像装置の処理フローである。It is a processing flow of the imaging device concerning a 2nd embodiment.

符号の説明Explanation of symbols

1・・・ストロボ発光部、2・・・撮像レンズ(レンズ群)、3・・・モードダイヤル、4・・・液晶モニタ画面、5・・・カーソルキー、6・・・SETキー、7・・・ズームキー、8・・・シャッターキー、9・・・電源ボタン、10・・・撮影モード選択キー、11a〜11i・・・マイク、12・・スピーカ、20・・・第1のレンズ、21・・・第2のフォーカスレンズ、30・・・第2のレンズ、31・・・反射ミラー、32・・・光学ズームレンズ、33・・・第1のフォーカスレンズ、40・・・光可動反射ミラー、50・・・CCD、62・・・撮像レンズ、63・・・レンズ駆動ブロック、64・・・絞り兼用シャッター、66・・・TG、67・・・ユニット回路、68・・・DRAM、69・・・メモリ、70・・・CPU、71・・・画像表示部、72・・・キー入力部、73・・・外部通信I/F、74・・・ストロボ駆動部、75・・・ストロボ発光部、76・・・カードI/F、81・・・音声入力部、82・・・音声出力部、83・・・被写体指定部、84・・・記憶部、90・・・音声信号処理部、91・・・被写体方向演算部、92・・・遅延量演算部、93・・・遅延量調整部、94・・・合成部、100・・・デジタルカメラ   DESCRIPTION OF SYMBOLS 1 ... Strobe light emission part, 2 ... Imaging lens (lens group), 3 ... Mode dial, 4 ... LCD monitor screen, 5 ... Cursor key, 6 ... SET key, 7 ..Zoom key, 8 ... Shutter key, 9 ... Power button, 10 ... Shooting mode selection key, 11a to 11i ... Microphone, 12 .... Speaker, 20 ... First lens, 21 ... second focus lens, 30 ... second lens, 31 ... reflecting mirror, 32 ... optical zoom lens, 33 ... first focus lens, 40 ... light movable reflection Mirror, 50 ... CCD, 62 ... Imaging lens, 63 ... Lens drive block, 64 ... Shutter / shutter, 66 ... TG, 67 ... Unit circuit, 68 ... DRAM, 69 ... Memory, 70 ... CPU 71... Image display unit 72. Key input unit 73. External communication I / F 74 74 Strobe drive unit 75 75 Strobe light emitting unit 76 Card I / F, 81 ... audio input unit, 82 ... audio output unit, 83 ... subject designation unit, 84 ... storage unit, 90 ... audio signal processing unit, 91 ... subject direction calculation Unit, 92 ... delay amount calculation unit, 93 ... delay amount adjustment unit, 94 ... synthesis unit, 100 ... digital camera

Claims (8)

画像を撮像する撮像手段と、該撮像手段により撮像された画像を表示する画像表示手段を備えた撮像装置であって、
入力された外部音声を複数の音声信号に変換して音声信号に変換して出力する音声入力段と、
前記画像表示手段に表示された画像に対して、画像内の特定の被写体を指定する被写体指定手段と、
該被写体指定手段において指定された被写体の座標情報と撮影画角とに基づいて、特定の被写体の方向を算出する方向算出手段と、
前記方向算出手段において算出された特定の被写体の方向に基づいて、前記複数の音声信号から前記特定の被写体の方向に対応した合成音声信号を生成する合成音声信号生成手段と、
該合成音声信号を外部に出力する出力手段と、
を備えたことを特徴とする撮像装置。
An imaging apparatus comprising: an imaging unit that captures an image; and an image display unit that displays an image captured by the imaging unit,
An audio input stage that converts input external audio into a plurality of audio signals, converts them into audio signals, and outputs them;
Subject designation means for designating a specific subject in the image with respect to the image displayed on the image display means;
Direction calculating means for calculating the direction of a specific subject based on the coordinate information of the subject specified by the subject specifying means and the shooting angle of view;
Based on the direction of the specific subject calculated by the direction calculation means, synthesized speech signal generation means for generating a synthesized speech signal corresponding to the direction of the specific subject from the plurality of speech signals;
Output means for outputting the synthesized speech signal to the outside;
An imaging apparatus comprising:
さらに、前記複数の音声信号と前記撮像手段が撮像した画像とを記憶する記憶手段を備えたことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a storage unit that stores the plurality of audio signals and images captured by the imaging unit. 前記音声入力手段は、2次元に配置されるマイクロフォンアレーであることを特徴とする請求項1または請求項2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the voice input unit is a microphone array arranged two-dimensionally. 前記合成音声信号生成手段は、前記方向算出手段において算出された特定の被写体の方向に基づいて、前記複数の音声信号から特定の被写体の方向に対応した合成音声信号を生成する際に、前記記憶手段から読み出した前記複数の音声信号を用いることを特徴とする請求項2に記載の撮像装置。   The synthesized sound signal generating means generates the synthesized sound signal corresponding to the direction of a specific subject from the plurality of sound signals based on the direction of the specific subject calculated by the direction calculating means. The imaging apparatus according to claim 2, wherein the plurality of audio signals read from the means are used. 前記被写体指定手段は、タッチパネルにより指定された任意の被写体を特定の被写体として指定することを特徴とする請求項1から4のいずれかに記載の撮像装置。   The imaging apparatus according to claim 1, wherein the subject designating unit designates an arbitrary subject designated by a touch panel as a specific subject. さらに、顔認識手段を備え、前記被写体指定手段は、該顔認識手段によって顔として認識された被写体を特定の被写体として指定することを特徴とする請求項1から4のいずれかに記載の撮像装置。   5. The imaging apparatus according to claim 1, further comprising a face recognizing unit, wherein the subject specifying unit specifies a subject recognized as a face by the face recognizing unit as a specific subject. . さらに、被写体追従手段を備え、前記被写体指定手段は、該被写体追従手段の追従対象である被写体を特定の被写体として指定することを特徴とする請求項1から4のいずれかに記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a subject tracking unit, wherein the subject specifying unit specifies a subject that is a tracking target of the subject tracking unit as a specific subject. 画像を撮像する撮像手段と、該撮像手段により撮像された画像を表示する画像表示手段を備えた撮像装置における指定音声出力方法であって、
前記画像を撮像し、前記画像表示手段に表示するとともに、入力された外部音声を複数の音声信号に変換して音声信号に変換して出力する第1のステップと、
前記画像表示手段に表示された画像に対して、画像内の特定の被写体を指定する第2のステップと、
該指定された被写体の座標情報と撮影画角とに基づいて、前記特定の被写体の方向を算出する第3のステップと、
該算出された特定の被写体の方向に基づいて、前記複数の音声信号から前記特定の被写体の方向に対応した合成音声信号を生成する第4のステップと、
該合成音声信号を外部に出力する第5のステップと、
を備えたことを特徴とする指定音声出力方法。
A designated audio output method in an imaging apparatus including an imaging unit that captures an image and an image display unit that displays an image captured by the imaging unit,
A first step of capturing the image, displaying the image on the image display means, converting the input external sound into a plurality of sound signals, converting the sound into sound signals, and outputting the sound signals;
A second step of designating a specific subject in the image with respect to the image displayed on the image display means;
A third step of calculating the direction of the specific subject based on the coordinate information of the designated subject and the shooting angle of view;
A fourth step of generating a synthesized audio signal corresponding to the direction of the specific subject from the plurality of audio signals based on the calculated direction of the specific subject;
A fifth step of outputting the synthesized speech signal to the outside;
A designated audio output method characterized by comprising:
JP2007022818A 2007-02-01 2007-02-01 Imaging device and specified voice output method Pending JP2008193196A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007022818A JP2008193196A (en) 2007-02-01 2007-02-01 Imaging device and specified voice output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007022818A JP2008193196A (en) 2007-02-01 2007-02-01 Imaging device and specified voice output method

Publications (1)

Publication Number Publication Date
JP2008193196A true JP2008193196A (en) 2008-08-21

Family

ID=39752899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007022818A Pending JP2008193196A (en) 2007-02-01 2007-02-01 Imaging device and specified voice output method

Country Status (1)

Country Link
JP (1) JP2008193196A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093671A (en) * 2008-10-10 2010-04-22 Olympus Imaging Corp Camera, reproducing device, and reproducing method
JP2010278725A (en) * 2009-05-28 2010-12-09 Sanyo Electric Co Ltd Image and sound processor and imaging apparatus
JP2011227199A (en) * 2010-04-16 2011-11-10 Nec Casio Mobile Communications Ltd Noise suppression device, noise suppression method and program
JP2013236136A (en) * 2012-05-02 2013-11-21 Kyocera Corp Electronic apparatus, control method, and control program
WO2014103331A1 (en) * 2012-12-27 2014-07-03 パナソニック株式会社 Sound processing system and sound processing method
WO2014132533A1 (en) * 2013-03-01 2014-09-04 シャープ株式会社 Voice input device and image display device equipped with voice input device
CN104243779A (en) * 2013-06-24 2014-12-24 松下电器产业株式会社 Directivity control system and sound output control method
JP2015019371A (en) * 2013-07-09 2015-01-29 ノキア コーポレイション Audio processing apparatus
JP2015080194A (en) * 2013-07-19 2015-04-23 パナソニックIpマネジメント株式会社 Directivity control system, directivity control method, sound collection system and sound collection control method
JP2015100125A (en) * 2012-12-27 2015-05-28 パナソニックIpマネジメント株式会社 Audio processing system and audio processing method
JP2015139162A (en) * 2014-01-23 2015-07-30 キヤノン株式会社 Acoustic signal processing apparatus, moving image imaging apparatus and control method therefor
WO2015151130A1 (en) * 2014-03-31 2015-10-08 パナソニックIpマネジメント株式会社 Sound processing apparatus, sound processing system, and sound processing method
JP2016178691A (en) * 2013-06-24 2016-10-06 パナソニックIpマネジメント株式会社 Directivity control system and sound output control method
WO2017034166A1 (en) * 2015-08-21 2017-03-02 Samsung Electronics Co., Ltd. Method for processing sound by electronic device and electronic device thereof
US20180158446A1 (en) * 2015-05-18 2018-06-07 Panasonic Intellectual Property Management Co., Ltd. Directionality control system and sound output control method
US10063967B2 (en) 2016-03-22 2018-08-28 Panasonic Intellectual Property Management Co., Ltd. Sound collecting device and sound collecting method
CN109313904A (en) * 2016-05-30 2019-02-05 索尼公司 Video/audio processing equipment, video/audio processing method and program
US10248375B2 (en) 2017-07-07 2019-04-02 Panasonic Intellectual Property Management Co., Ltd. Sound collecting device capable of obtaining and synthesizing audio data
US10909384B2 (en) 2015-07-14 2021-02-02 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method
US10939030B2 (en) 2018-09-07 2021-03-02 Canon Kabushiki Kaisha Video audio processing system and method of controlling the video audio processing system

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62258575A (en) * 1986-05-02 1987-11-11 Hitachi Ltd Automatic tracking camera system
JPH05308553A (en) * 1992-04-28 1993-11-19 Sanyo Electric Co Ltd Sound recorder for video camera
JPH07110429A (en) * 1993-10-08 1995-04-25 Nikon Corp Camera provided with object tracking function
JPH11150676A (en) * 1997-11-17 1999-06-02 Canon Inc Image processor and tracking device
JP2001086588A (en) * 1999-09-10 2001-03-30 Canon Inc Audio signal processor and audio signal processing method and electronic device
JP2002252805A (en) * 2001-02-22 2002-09-06 Ricoh Co Ltd Imaging apparatus and method, program, and recording medium
JP2004173095A (en) * 2002-11-21 2004-06-17 Matsushita Electric Ind Co Ltd Portable video telephone system
JP2005124090A (en) * 2003-10-20 2005-05-12 Sony Corp Microphone device, reproducing device, and imaging device
JP2005323139A (en) * 2004-05-10 2005-11-17 Fuji Xerox Co Ltd Conference recording device, conference recording method, designing method and program
JP2006031678A (en) * 2004-05-28 2006-02-02 Sony United Kingdom Ltd Image processing
JP2006113265A (en) * 2004-10-14 2006-04-27 Fujinon Corp Autofocus system
JP2006222618A (en) * 2005-02-09 2006-08-24 Casio Comput Co Ltd Camera device, camera control program, and recording voice control method
JP2006235712A (en) * 2005-02-22 2006-09-07 Canon Inc Conversation recording device
JP2006261900A (en) * 2005-03-16 2006-09-28 Casio Comput Co Ltd Imaging apparatus, and imaging control program
JP2006287735A (en) * 2005-04-01 2006-10-19 Fuji Photo Film Co Ltd Picture voice recording apparatus and collecting voice direction adjustment method
JP2006352687A (en) * 2005-06-17 2006-12-28 Kddi Corp Person tracking system
JP2007005849A (en) * 2005-06-21 2007-01-11 Sony Corp Recording apparatus, recording method, reproducing apparatus, reproducing method, program for recording method, and recording medium for recording the program for the recording method

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62258575A (en) * 1986-05-02 1987-11-11 Hitachi Ltd Automatic tracking camera system
JPH05308553A (en) * 1992-04-28 1993-11-19 Sanyo Electric Co Ltd Sound recorder for video camera
JPH07110429A (en) * 1993-10-08 1995-04-25 Nikon Corp Camera provided with object tracking function
JPH11150676A (en) * 1997-11-17 1999-06-02 Canon Inc Image processor and tracking device
JP2001086588A (en) * 1999-09-10 2001-03-30 Canon Inc Audio signal processor and audio signal processing method and electronic device
JP2002252805A (en) * 2001-02-22 2002-09-06 Ricoh Co Ltd Imaging apparatus and method, program, and recording medium
JP2004173095A (en) * 2002-11-21 2004-06-17 Matsushita Electric Ind Co Ltd Portable video telephone system
JP2005124090A (en) * 2003-10-20 2005-05-12 Sony Corp Microphone device, reproducing device, and imaging device
JP2005323139A (en) * 2004-05-10 2005-11-17 Fuji Xerox Co Ltd Conference recording device, conference recording method, designing method and program
JP2006031678A (en) * 2004-05-28 2006-02-02 Sony United Kingdom Ltd Image processing
JP2006113265A (en) * 2004-10-14 2006-04-27 Fujinon Corp Autofocus system
JP2006222618A (en) * 2005-02-09 2006-08-24 Casio Comput Co Ltd Camera device, camera control program, and recording voice control method
JP2006235712A (en) * 2005-02-22 2006-09-07 Canon Inc Conversation recording device
JP2006261900A (en) * 2005-03-16 2006-09-28 Casio Comput Co Ltd Imaging apparatus, and imaging control program
JP2006287735A (en) * 2005-04-01 2006-10-19 Fuji Photo Film Co Ltd Picture voice recording apparatus and collecting voice direction adjustment method
JP2006352687A (en) * 2005-06-17 2006-12-28 Kddi Corp Person tracking system
JP2007005849A (en) * 2005-06-21 2007-01-11 Sony Corp Recording apparatus, recording method, reproducing apparatus, reproducing method, program for recording method, and recording medium for recording the program for the recording method

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093671A (en) * 2008-10-10 2010-04-22 Olympus Imaging Corp Camera, reproducing device, and reproducing method
JP2010278725A (en) * 2009-05-28 2010-12-09 Sanyo Electric Co Ltd Image and sound processor and imaging apparatus
JP2011227199A (en) * 2010-04-16 2011-11-10 Nec Casio Mobile Communications Ltd Noise suppression device, noise suppression method and program
JP2013236136A (en) * 2012-05-02 2013-11-21 Kyocera Corp Electronic apparatus, control method, and control program
US10536681B2 (en) 2012-12-27 2020-01-14 Panasonic Intellectual Property Management Co., Ltd. Sound processing system and sound processing method that emphasize sound from position designated in displayed video image
JP2014143678A (en) * 2012-12-27 2014-08-07 Panasonic Corp Voice processing system and voice processing method
CN104904236B (en) * 2012-12-27 2018-09-14 松下知识产权经营株式会社 sound processing system and sound processing method
US9826211B2 (en) 2012-12-27 2017-11-21 Panasonic Intellectual Property Management Co., Ltd. Sound processing system and processing method that emphasize sound from position designated in displayed video image
US10244219B2 (en) 2012-12-27 2019-03-26 Panasonic Intellectual Property Management Co., Ltd. Sound processing system and sound processing method that emphasize sound from position designated in displayed video image
JP2015100125A (en) * 2012-12-27 2015-05-28 パナソニックIpマネジメント株式会社 Audio processing system and audio processing method
JP2015118386A (en) * 2012-12-27 2015-06-25 パナソニックIpマネジメント株式会社 Voice processing system and voice processing method
JP2015122756A (en) * 2012-12-27 2015-07-02 パナソニックIpマネジメント株式会社 Audio processing system and audio processing method
WO2014103331A1 (en) * 2012-12-27 2014-07-03 パナソニック株式会社 Sound processing system and sound processing method
CN104904236A (en) * 2012-12-27 2015-09-09 松下知识产权经营株式会社 Sound processing system and sound processing method
WO2014132533A1 (en) * 2013-03-01 2014-09-04 シャープ株式会社 Voice input device and image display device equipped with voice input device
JPWO2014132533A1 (en) * 2013-03-01 2017-02-02 シャープ株式会社 Voice input device and image display device provided with the voice input device
US9747454B2 (en) 2013-06-24 2017-08-29 Panasonic Intellectual Property Management Co., Ltd. Directivity control system and sound output control method
JP2016178691A (en) * 2013-06-24 2016-10-06 パナソニックIpマネジメント株式会社 Directivity control system and sound output control method
JP2015029241A (en) * 2013-06-24 2015-02-12 パナソニックIpマネジメント株式会社 Directivity control system and voice output control method
CN104243779A (en) * 2013-06-24 2014-12-24 松下电器产业株式会社 Directivity control system and sound output control method
CN104243779B (en) * 2013-06-24 2018-11-09 松下电器产业株式会社 Directive property control system and sound output control method
JP2015019371A (en) * 2013-07-09 2015-01-29 ノキア コーポレイション Audio processing apparatus
US9549244B2 (en) 2013-07-19 2017-01-17 Panasonic Intellectual Property Management Co., Ltd. Directivity control system, directivity control method, sound collection system and sound collection control method
JP2015080194A (en) * 2013-07-19 2015-04-23 パナソニックIpマネジメント株式会社 Directivity control system, directivity control method, sound collection system and sound collection control method
JP2015139162A (en) * 2014-01-23 2015-07-30 キヤノン株式会社 Acoustic signal processing apparatus, moving image imaging apparatus and control method therefor
WO2015151130A1 (en) * 2014-03-31 2015-10-08 パナソニックIpマネジメント株式会社 Sound processing apparatus, sound processing system, and sound processing method
US20180158446A1 (en) * 2015-05-18 2018-06-07 Panasonic Intellectual Property Management Co., Ltd. Directionality control system and sound output control method
US10497356B2 (en) * 2015-05-18 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Directionality control system and sound output control method
US10909384B2 (en) 2015-07-14 2021-02-02 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method
WO2017034166A1 (en) * 2015-08-21 2017-03-02 Samsung Electronics Co., Ltd. Method for processing sound by electronic device and electronic device thereof
US9967658B2 (en) 2015-08-21 2018-05-08 Samsung Electronics Co., Ltd Method for processing sound by electronic device and electronic device thereof
US10063967B2 (en) 2016-03-22 2018-08-28 Panasonic Intellectual Property Management Co., Ltd. Sound collecting device and sound collecting method
JPWO2017208820A1 (en) * 2016-05-30 2019-03-28 ソニー株式会社 Audio-visual processing apparatus and method, and program
CN109313904A (en) * 2016-05-30 2019-02-05 索尼公司 Video/audio processing equipment, video/audio processing method and program
US11184579B2 (en) 2016-05-30 2021-11-23 Sony Corporation Apparatus and method for video-audio processing, and program for separating an object sound corresponding to a selected video object
JP2022036998A (en) * 2016-05-30 2022-03-08 ソニーグループ株式会社 Video acoustic processing device, method and program
CN109313904B (en) * 2016-05-30 2023-12-08 索尼公司 Video/audio processing apparatus and method, and storage medium
JP7396341B2 (en) 2016-05-30 2023-12-12 ソニーグループ株式会社 Audiovisual processing device and method, and program
US11902704B2 (en) 2016-05-30 2024-02-13 Sony Corporation Apparatus and method for video-audio processing, and program for separating an object sound corresponding to a selected video object
US10248375B2 (en) 2017-07-07 2019-04-02 Panasonic Intellectual Property Management Co., Ltd. Sound collecting device capable of obtaining and synthesizing audio data
US10939030B2 (en) 2018-09-07 2021-03-02 Canon Kabushiki Kaisha Video audio processing system and method of controlling the video audio processing system

Similar Documents

Publication Publication Date Title
JP2008193196A (en) Imaging device and specified voice output method
JP5787907B2 (en) Imaging device for taking self-portrait images
US8976270B2 (en) Imaging device and imaging device control method capable of taking pictures rapidly with an intuitive operation
JP4872797B2 (en) Imaging apparatus, imaging method, and imaging program
US10200585B2 (en) Imaging device, imaging system, imaging method, and computer-readable recording medium for use in an imaging system including an external communication device
US20090128644A1 (en) System and method for generating a photograph
US8514285B2 (en) Image processing apparatus, image processing method and program
JP2019030007A (en) Electronic device for acquiring video image by using plurality of cameras and video processing method using the same
JP2007028536A (en) Digital camera
JP5230013B2 (en) Imaging device
KR20170013102A (en) Method and electronic apparatus for stabilizing video
US20100053363A1 (en) Photographing method and apparatus
JP2006020166A (en) Map display system and digital camera
JP2011188065A (en) Imaging controller, method of detecting subject, and program
JP2012002951A (en) Imaging device, method for detecting in-focus position and in-focus position detection program
WO2022057723A1 (en) Video anti-shake processing method and electronic device
US8525913B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP2014531829A (en) Remotely controllable digital video camera system
CN103888684A (en) Image processing apparatus that combines a plurality of images
US20060127078A1 (en) Imaging apparatus having a focus function
JPWO2020158069A1 (en) Imaging device, imaging method, and program
JPWO2020158070A1 (en) Imaging device, imaging method, and program
JP2012257112A (en) Imaging apparatus and program
KR20090083713A (en) Apparatus for processing digital image and method for controlling thereof
JP5182395B2 (en) Imaging apparatus, imaging method, and imaging program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110913