JP2010028418A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2010028418A JP2010028418A JP2008186941A JP2008186941A JP2010028418A JP 2010028418 A JP2010028418 A JP 2010028418A JP 2008186941 A JP2008186941 A JP 2008186941A JP 2008186941 A JP2008186941 A JP 2008186941A JP 2010028418 A JP2010028418 A JP 2010028418A
- Authority
- JP
- Japan
- Prior art keywords
- information
- feature
- image data
- face
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、デジタルカメラ等の撮像装置に関する。 The present invention relates to an imaging apparatus such as a digital camera.
従来の撮像装置には、特許文献1に記載されるものが存在する。特許文献1の撮像装置は、「動画像において追尾対象の顔の検出ができない状況が生じた場合であっても、被写体の追跡を継続可能とする」ものである。
There exist some which are described in
特許文献1の撮像装置は、「過去に検出された顔の位置に基づいて現在の顔のおおまかな位置を推定し、このおおまかな位置に対応する複数の周囲情報を取得し、過去に取得された周囲情報に最も類似する周囲情報が取得された位置に基づいて現在の顔の位置を推定する」ものである。
上記のように、一般的な撮像装置では、顔に関する情報(以下、顔情報と称す)を用いて、人物の顔をパターンマッチングで検出することが可能になっている。 As described above, in a general imaging apparatus, it is possible to detect a person's face by pattern matching using information related to a face (hereinafter referred to as face information).
しかしながら、撮像装置は、カメラに対して正面を向いている人物が横を向いてしまうと、撮像素子で生成される画像データから顔を検出できなくなる。すなわち、撮像装置は、正面に向きの人物に対しては、高い精度で顔を検出できるが、横を向いた人物に対しては、高い精度で顔を検出することができない。これは、顔情報に、顔の形、顔の色、目や鼻の位置などのテンプレート情報を利用しているからである。 However, the imaging device cannot detect a face from image data generated by the imaging device if a person facing the front of the camera faces sideways. That is, the imaging apparatus can detect a face with high accuracy for a person facing forward, but cannot detect a face with high accuracy for a person facing sideways. This is because template information such as the shape of the face, the color of the face, and the positions of the eyes and nose is used for the face information.
要するに、パターンマッチングでは、被写体が所定の方向を向いている場合、精度高く被写体を検出できる。しかし、被写体が所定の方向以外を向いた場合は、被写体の検出精度が極端に低くなる。 In short, in pattern matching, a subject can be detected with high accuracy when the subject faces a predetermined direction. However, when the subject faces in a direction other than the predetermined direction, the subject detection accuracy becomes extremely low.
そこで本発明は、上記課題を解決するため、被写体が所定の方向を向いている状態から所定の方向以外を向いた場合であっても、撮像手段から順次生成される画像データに対して、被写体に関する領域を高い精度で継続設定できる撮像装置を提供することを目的とする。 Therefore, in order to solve the above-described problem, the present invention is directed to image data that is sequentially generated from the imaging unit, even when the subject is facing a predetermined direction, even when the subject is facing a direction other than the predetermined direction. An object of the present invention is to provide an imaging device capable of continuously setting a region related to a high accuracy.
すなわち、本発明の撮像装置は、光学系で形成された被写体像を撮像して、画像データを順次生成する撮像手段と、被写体の特徴を示す第1特徴情報を記憶した記憶媒体と、
前記撮像手段から生成される画像データ内において、前記記憶された第1特徴情報が存在するか否かを判別する判別手段と、前記判別手段によって前記第1特徴情報が存在すると判別された場合、前記画像データ内において前記第1特徴情報が存在すると判別された位置に、特徴領域を設定するとともに、当該設定された特徴領域内の画像データの特徴を示す第2特徴情報を前記記憶媒体に記憶する第1設定手段と、前記判別手段によって前記第1特徴情報が存在しないと判別された場合であって、前記記憶媒体に第2特徴情報が記憶されている場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する第2設定手段と、を備える。
That is, the imaging apparatus of the present invention captures a subject image formed by an optical system and sequentially generates image data, a storage medium storing first feature information indicating the characteristics of the subject,
In the image data generated from the imaging means, when it is determined that the first feature information is present by the determining means for determining whether or not the stored first feature information exists, and the determining means, A feature region is set at a position where it is determined that the first feature information exists in the image data, and second feature information indicating the feature of the image data in the set feature region is stored in the storage medium. If the first feature information is determined not to exist by the first setting means and the determination means, and the second feature information is stored in the storage medium, the stored second feature Second setting means for setting the feature region in the image data based on the information.
このようにすれば、画像データ内に第1特徴情報が存在しない場合であっても、第2特徴情報に基づいて特徴領域を設定することができる。 In this way, even if the first feature information does not exist in the image data, the feature region can be set based on the second feature information.
また、好ましくは、前記第2設定手段は、前記記憶された第2特徴情報の内容に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。 Preferably, the second setting means determines whether to set a feature region based on the second feature information according to the content of the stored second feature information, and sets the feature region to If it is determined to set, the feature region is set in the image data based on the stored second feature information.
また、好ましくは、前記撮像手段から順次生成される画像データに対して、前記第1設定手段が特徴領域を継続して設定した回数を第1設定回数として計数する第1計数手段をさらに備える。そして、前記第2設定手段は、前記第1計数手段で計数した設定回数に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。 Preferably, the image processing apparatus further includes first counting means for counting the number of times that the first setting means has continuously set the characteristic area for the image data sequentially generated from the imaging means as the first setting number. Then, the second setting means determines whether to set a feature area based on the second feature information according to the number of times set by the first counting means, and determines to set the feature area. In this case, the feature region is set in the image data based on the stored second feature information.
また、好ましくは、前記撮像手段から順次生成される画像データに対して、前記第1設定手段が特徴領域を設定してから、特徴領域を設定しなくなるまでの時間を第1設定時間として計時する第1計時手段をさらに備える。そして前記第2設定手段は、前記第1計時手段で計時される第1設定時間に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。 Preferably, for the image data sequentially generated from the imaging unit, the time from when the first setting unit sets the feature region until the feature region is not set is counted as the first set time. First timing means is further provided. The second setting means determines whether or not to set a feature area based on the second feature information according to the first set time counted by the first timing means, and sets the feature area. If so, the feature region is set in the image data based on the stored second feature information.
また、好ましくは、撮影環境の明るさに関する情報を取得する輝度取得手段をさらに備える。そして前記第2設定手段は、前記輝度取得手段が取得した明るさに関する情報に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。 Preferably, the apparatus further includes luminance acquisition means for acquiring information related to the brightness of the shooting environment. Then, the second setting unit determines whether to set a feature region based on the second feature information according to the information on the brightness acquired by the luminance acquisition unit, and determines to set the feature region. In this case, the feature region is set in the image data based on the stored second feature information.
また、好ましくは、前記第1設定手段は、前記判別手段によって前記第1特徴情報が存在すると判別された場合、さらに、前記画像データ内において前記第1特徴情報が存在すると判別された位置によって指定される特定領域内の画像データの特徴を示す第3特徴情報を前記記憶媒体に記憶する。そして、前記第2設定手段は、前記記憶された第3特徴情報の内容に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。 Preferably, the first setting means is designated by a position where it is determined that the first feature information exists in the image data when the determination means determines that the first feature information exists. The third feature information indicating the feature of the image data in the specific area is stored in the storage medium. Then, the second setting means determines whether to set a feature region based on the second feature information according to the content of the stored third feature information, and determines to set the feature region. In this case, the feature region is set in the image data based on the stored second feature information.
また、好ましくは、前記撮像手段から順次生成される画像データに対して、前記第2設定手段が特徴領域を継続して設定した回数を第2設定回数として計数する第2計数手段をさらに備える。そして、前記第2設定手段は、前記第2計数手段で計数される第2設定回数に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。 Preferably, the image processing apparatus further includes second counting means for counting the number of times that the second setting means has continuously set the characteristic area as the second setting number for the image data sequentially generated from the imaging means. The second setting means determines whether or not to set a feature area based on the second feature information according to the second set count counted by the second counting means. If it is determined to set, the feature region is set in the image data based on the stored second feature information.
また、好ましくは、前記撮像手段から順次生成される画像データに対して、前記第2設定手段が特徴領域を設定してから、特徴領域を設定しなくなるまでの時間を第2設定時間として計時する第2計時手段をさらに備える。そして前記第2設定手段は、前記第2計時手段で計時される第2設定時間に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。 Preferably, for the image data sequentially generated from the imaging unit, the time from when the second setting unit sets the feature region until the feature region is not set is counted as a second set time. Second timing means is further provided. The second setting means determines whether or not to set a feature area based on the second feature information according to a second set time counted by the second timing means, and sets the feature area If so, the feature region is set in the image data based on the stored second feature information.
また、好ましくは、前記第2設定手段は、さらに第2特徴情報に基づく特徴領域を設定させる位置に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。 Preferably, the second setting means further determines whether or not to set the feature region based on the second feature information according to a position where the feature region based on the second feature information is set, and If it is determined that a feature area is to be set, the feature area is set in the image data based on the stored second feature information.
また、好ましくは、自装置の移動に関する情報を取得する移動情報取得手段をさらに備える。そして前記第2設定手段は、前記移動量取得手段が取得した移動に関する情報に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。 Preferably, the information processing apparatus further includes movement information acquisition means for acquiring information related to movement of the own apparatus. Then, the second setting means determines whether or not to set a feature area based on the second feature information according to the information related to movement acquired by the movement amount acquisition means, and determines to set the feature area. In this case, the feature region is set in the image data based on the stored second feature information.
また、好ましくは、前記第1特徴情報は、顔に関する情報であり、前記第2特徴情報は、色に関する情報である。 Preferably, the first feature information is information relating to a face, and the second feature information is information relating to a color.
また、好ましくは、前記特徴領域は、顔領域である。 Preferably, the feature area is a face area.
すなわち、本発明の撮像装置によれば、画像データ内に第1特徴情報が存在しない場合、第2特徴情報に基づいて特徴領域を設定することにより、被写体が所定の方向を向いている状態から所定の方向以外を向いた場合であっても、撮像手段から順次生成される画像データに対して、被写体に関する領域を高い精度で継続設定できる。 That is, according to the imaging apparatus of the present invention, when the first feature information does not exist in the image data, the feature region is set based on the second feature information, so that the subject is facing the predetermined direction. Even when facing in a direction other than a predetermined direction, the area related to the subject can be continuously set with high accuracy for the image data sequentially generated from the imaging means.
以下、本発明の一実施の形態を、図面を参照して説明する。本発明をデジタルカメラに適用した例を説明する。
(実施の形態1)
1.デジタルカメラの概要
デジタルカメラ1は、CCDイメージセンサー12から生成された画像データ内に、フラッシュメモリ16に予め記憶された顔情報が存在するか否かを判別する(画像データ内から、顔を検出する)。デジタルカメラ1は、画像データに、1個の顔情報が存在すると判別した場合(1個の顔が検出できた場合)、顔領域を設定するとともに、第1顔領域内の画像データの特徴を示す色情報をバッファメモリ15に記憶する。一方、デジタルカメラ1は、画像データに、顔情報が存在しないと判別した場合であって、バッファメモリ15に色情報が記憶されている場合、色情報に基づいて画像データ内に顔領域を設定する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. An example in which the present invention is applied to a digital camera will be described.
(Embodiment 1)
1. Overview of Digital Camera The
なお、デジタルカメラ1が、画像データに複数個の顔情報が存在すると判別した場合、画像データに複数個の顔領域を設定する。デジタルカメラ1は、設定された顔領域の内、主要被写体を選択する。デジタルカメラ1は、主要被写体として選択された顔領域内の画像データの特徴を示す色情報をバッファメモリ15に記憶する。
If the
2.構成
図1は、本実施の形態に係るデジタルカメラ1の斜視図である。図2は、本実施の形態に係るデジタルカメラ1の構成を示すブロック図である。以下、具体的に構成を説明する。
2. Configuration FIG. 1 is a perspective view of a
光学系11は、被写体からの光学信号を集光してCCDイメージセンサー12上に被写体像を形成する。光学系11は、対物レンズ111とズームレンズ112とフォーカスレンズ113と絞り/シャッタ114とを含む。
The optical system 11 collects optical signals from the subject and forms a subject image on the
ズームレンズ112は、ズーム駆動部115によって駆動され、被写体像の写る範囲(画角)を調整する。すなわち、ズームレンズ112は、焦点距離を調整可能である。フォーカスレンズ113は、フォーカス駆動部116によって駆動され、ピントの調節を行なう。ズーム駆動部115は、ズームレンズ112を移動するためのカム機構やカム機構を駆動するためのアクチュエータなどを備えて構成され、コントローラ17からの制御に応じて、ズームレンズ112を駆動させる。フォーカス駆動部116は、フォーカスレンズ113を移動するためのカム機構やカム機構を駆動するためのアクチュエータなどを備えて構成される。フォーカス駆動部116は、コントローラ17からの制御に応じて、フォーカスレンズ113を駆動させる。
The
また、絞り/シャッタ114は、絞りとシャッタを兼用した部材である。絞り/シャッタ114は、絞り/シャッタ駆動部117によって駆動される。絞りは、5枚の羽根によって構成され、光学系11を通る光の量を調整するものである。また、シャッタは、開けたり閉じられたりして、CCDイメージセンサー12に当たる光の量を時間的に調整するものである。絞り/シャッタ駆動部117は、カム機構やカム機構を駆動するためのアクチュエータなどを備えて構成され、コントローラ17からの制御に応じて、絞り/シャッタを駆動する。
The diaphragm /
なお、本実施の形態では、絞りとシャッタを兼用した絞り/シャッタ114を備えるようにしたが、これに限られず、絞りとシャッタとを別々に設けるようにしても良い。この場合、例えば、シャッタは光学系内に設けず、絞りだけを光学系に設けるとよい。この際、シャッタは、光学系とCCDイメージセンサーの間に設けるとよい。このようにすれば、シャッタを光学系と別の部材で設けたので、レンズ交換タイプのデジタルカメラにも適用できるようになる。
In the present embodiment, the diaphragm /
CCDイメージセンサー12は、光学系11によって形成された被写体像を撮像して画像データを生成する。CCDイメージセンサー12は、タイミングジェネレータ121から供給されるパルス信号に基づいて、被写体像を撮像し、画像データを生成する。タイミングジェネレータ121は、LSIなどの集積回路によって構成され、CCDイメージセンサー12にパルス信号を供給する。ここでタイミングジェネレータ121がCCDイメージセンサー12に供給するパルス信号は、例えば、1秒間に30回のフレーム読み出しパルス信号を供給する。これによって、CCDイメージセンサー12では、30分の1秒ごとのフレームの画像データを取得できるようになる。
The
ADコンバータ13は、CCDイメージセンサー12で生成された画像データをデジタルデータに変換する。
The
画像処理部14は、デジタルデータに変換された画像データに対して所定の処理を施す。所定の処理としては、ガンマ変換、YC変換、電子ズーム処理、圧縮処理、伸張処理などが考えられるが、これに限定されるものではない。 The image processing unit 14 performs predetermined processing on the image data converted into digital data. As the predetermined processing, gamma conversion, YC conversion, electronic zoom processing, compression processing, expansion processing, and the like can be considered, but are not limited thereto.
バッファメモリ15は、画像処理部14で画像処理を行う際、および、コントローラ17で制御処理を行う際に、ワークメモリとして作用する。バッファメモリ15は、例えば、DRAMなどで実現可能である。
The
フラッシュメモリ16は、内蔵メモリとして用いられる。フラッシュメモリ16は、画像処理された画像データの他に、コントローラ17の制御のためのプログラムや設定値などを記憶可能である。本実施の形態では、顔情報が記憶されている。顔情報は、画像データ内から人物の顔を検出するために用いられるものである。つまり、顔情報は、画像データ内に、顔情報が存在するか否かを判別する際に用いられるものである。顔情報には、例えば、顔全体の輪郭や顔の構成要素(目、鼻、耳など)に対応したテンプレート情報が考えられる。
The
コントローラ17は、デジタルカメラ1の各部を制御する。コントローラ17は、マイクロコンピュータで実現してもよく、ハードワイヤードな回路で実現しても良い。なお、コントローラ17の各種制御は、3.コントローラの各種制御で詳細に説明する。
The
ぶれ検出器30は、ジャイロセンサーなどで構成されるものであり、自装置の振動を検出する。ぶれ検出器30は、デジタルカメラ1の水平軸を中心とした上下方向の回転振動を検知する第1のジャイロセンサーと、デジタルカメラ1の鉛直軸を中心とした左右方向の回転振動を検知する第2のジャイロセンサーとを備える。つまり、ぶれ検出器30は、デジタルカメラ1の動き角速度を検出する。なお、コントローラ17は、ぶれ検出器30から動き角速度を取得して、この角速度を積分して、デジタルカメラ1の角速度を算出する。この角速度が、デジタルカメラ1のぶれ量である。ぶれ量は、例えば、−300〜300deg/secのような値で算出される。
The
カードスロット18は、メモリカード19を着脱するためのスロットである。カードスロット18は、メモリカード19を制御する機能を有するようにしてもよい。メモリカード19は、フラッシュメモリなどを内蔵する。メモリカード19は、画像処理部14によって画像処理された画像データを格納可能である。
The
液晶モニタ20は、画像データおよびデジタルカメラ1の各種設定等を表示する。なお、液晶モニタ20に替えて、有機ELディスプレイなどを用いることもできる。
The liquid crystal monitor 20 displays image data and various settings of the
操作部21は、デジタルカメラ1の外装に取り付けられた操作部材の総称である。操作部21としては、十字キーや押下釦等が考えられる。
The
本実施の形態では、操作部の一つの押下釦として、シャッタスイッチ211がある。シャッタスイッチ211は、デジタルカメラ1の上面に設けられるものであり、使用者からの半押しおよび全押しを検知できるようにしたものである。使用者によって半押し又は全押し操作が行なわれると、シャッタスイッチ211は操作に応じた操作信号をコントローラ17に出力する。
In the present embodiment, there is a
また本実施の形態では、操作部21の一つの部材としてズームレバー212が備えられている。ズームレバー212は、使用者からの操作に応じて、デジタルカメラ1の焦点距離を変更するものである。ズームレバー212は、使用者に操作されると、操作信号をコントローラ17に出力する。これによって、コントローラ17は、ズームレンズ112に対して焦点距離を変更するための制御信号を送ることができる。
In the present embodiment, a
3.コントローラの各種制御
コントローラ17は、フラッシュメモリ16に記憶された顔情報に基づいて、CCDイメージセンサー12で生成された画像データ内に顔情報が存在するか否かを判別する。
3. Based on the face information stored in the
コントローラ17は、画像データ内に1個又は複数個の顔情報が存在すると判別した場合、画像データに顔領域を設定する。この後、コントローラ17は、顔領域内の画像データに対応する色情報をバッファメモリ15に記憶する。一方、コントローラ17は、画像データ内に顔情報が存在しないと判別した場合であって、バッファメモリ15に色情報が記憶されている場合、色情報に基づいて画像データに顔領域を設定する。
When the
なお、コントローラ17は、画像データに顔領域を設定した場合、顔領域を設定した画像データを液晶モニタ20に表示させる。
When the face area is set in the image data, the
3−1 画像データ内に顔情報が存在するか否かの判別
コントローラ17は、画像データ内に、フラッシュメモリ16に記憶された顔情報が存在するか否かを判別する。具体的に、コントローラ17は、フラッシュメモリ16から顔情報を読み出す。コントローラ17は、テンプレートマッチングによって、画像データ内に顔情報が存在するか否かを判別する。テンプレートマッチングは、従来技術であるので説明を割愛する。
3-1. Determination of whether face information is present in image data The
3−2 3−1で1個の顔情報が存在すると判別された場合の制御
コントローラ17は、3−1で画像データ内に1個の顔情報が存在すると判別された場合、画像データ内において顔情報が存在すると判別された位置に、顔領域を設定する(図3A)。この後、コントローラ17は、顔領域内の画像データに対応する色情報をバッファメモリ15に記憶する(図3A)。この際、コントローラ17は、画像データ内において顔領域が設定された位置を設定位置としてバッファメモリ15に記憶する。色情報と設定位置は関連付けて記憶しておくと、コントローラ17はこれらの情報を使用する際、簡単によみだせるようになる。設定位置は、顔領域の左上端の位置情報を用いるとよい。
3-2 When the
本実施の形態で、顔領域内の画像データにおける色情報は、画像データの各画素を色相の色空間に変換したものを用いている。ここで色相は、0〜360度の位相角として角度により表すことができる。すなわち、色空間がHSV色空間である場合、図4のように、R=0/G=120/B=240の位置関係で表現できる。したがって、例えば、図4において、該当色の角度は、θとなる。これによって、画像データにおける色情報を、ヒストグラムで表現できるようにしている。なお、本実施の形態では、0〜359度を40分割して、各領域内に存在する画素の数を計算するようにしている。図5のヒストグラムの横軸は、分割した領域(「1」〜「40」、例えば「1」は、0〜8度に対応)を表しており、縦軸は、第1顔領域内に存在する各領域の画素の数を表している。 In this embodiment, the color information in the image data in the face area is obtained by converting each pixel of the image data into a hue color space. Here, the hue can be expressed by an angle as a phase angle of 0 to 360 degrees. That is, when the color space is the HSV color space, it can be expressed by a positional relationship of R = 0 / G = 120 / B = 240 as shown in FIG. Therefore, for example, in FIG. 4, the angle of the corresponding color is θ. Thereby, the color information in the image data can be expressed by a histogram. In the present embodiment, 0 to 359 degrees are divided into 40, and the number of pixels existing in each region is calculated. The horizontal axis of the histogram in FIG. 5 represents divided areas (“1” to “40”, for example, “1” corresponds to 0 to 8 degrees), and the vertical axis exists in the first face area. This represents the number of pixels in each area.
3−3 3−1で複数個の顔情報が存在すると判別された場合の制御
コントローラ17は、3−1で複数個の顔情報が存在すると判別された場合、画像データに複数個の顔領域を設定し、顔領域の中から主要被写体を決定する。主要被写体の決定方法は、従来技術と同様であるが、例えば、顔領域内の画像データで最も画像の中心位置に近い領域を、主要被写体の領域として選択すると良い。なお、サイズの大きい領域を、主要被写体の領域として設定してもよい。
3-3 When the
コントローラ17は、主要被写体の顔領域を選択すると、この主要被写体の顔領域内の画像データの特徴を示す色情報をバッファメモリ15に記憶する。この際、画像データ内において顔領域が設定された位置を設定位置としてバッファメモリ15に記憶する。
When the
なお、複数個の全て又はいくつかの顔領域について、色情報と設定位置を記憶するようにしてもよい。 Note that color information and setting positions may be stored for all or some of the plurality of face regions.
3−4 3−1で顔情報が存在しないと判別された場合の制御
コントローラ17は、3−1で顔情報が存在しないと判別された場合であって、バッファメモリ15に色情報が記憶されている場合、色情報に基づいて顔領域を設定する。
3-4 When the
具体的に、コントローラ17は、バッファメモリ15から色情報及び設定位置を読み出す。次にコントローラ17は、図3Bのように、設定位置から所定領域(以下、探索領域と称す)内に含まれる画像データにおいて、色情報に最も近似する領域を探索する。色情報に最も近似する領域の探索方法は、従来技術であるため、詳細は割愛する。この後、コントローラ17は、探索領域内の画像データにおいて色情報が最も近似する領域に、顔領域を設定する。
Specifically, the
なお、コントローラ17は、3−1で顔領域が存在しないと判別された場合であって、バッファメモリ15に色情報が記憶されていない場合、第2顔領域を設定しない。また、コントローラ17は、画像データの探索領域内に所定レベル以上で近似した色情報が存在しない場合、第2顔領域を設定しないようにするとよい。
Note that the
4.実施の形態と本発明の対比
デジタルカメラ1は、本発明の撮像装置の一例である。CCDイメージセンサー12は、本発明の撮像手段の一例である。バッファメモリ15及びフラッシュメモリ16は、本発明の記憶媒体の一例である。コントローラ17は、本発明の判別手段の一例である。コントローラ17は、本発明の第1設定手段の一例である。コントローラ17は、本発明の第1設定手段の一例である。顔情報は、本発明の第1特徴情報の一例である。色情報は、本発明の第2特徴情報の一例である。顔領域は、本発明の特徴領域の一例である。
4). The comparison
5.動作
上記のように構成したデジタルカメラ1の動作を説明する。この動作例は、デジタルカメラ1の電源がOFFからONに変更された後、デジタルカメラ1がポートレートモードのような被写体撮影モードに設定された場合に行なわれる。
5. Operation The operation of the
5−1.基本的な動作(図6)
まず、コントローラ17は、CCDイメージセンサー121を制御して、CCDイメージセンサー12を駆動させる。CCDイメージセンサー12は、画像データを生成する(A1)。次に、コントローラ17は、フラッシュメモリ16から顔情報を読み出す。コントローラ17は、CCDイメージセンサー12で生成された画像データ内おいて、顔情報が存在するか否かを判別する(A2)。
5-1. Basic operation (Fig. 6)
First, the
コントローラ17は、画像データ内に顔情報を存在すると判別した場合、画像データに顔領域を設定する(A3)。コントローラ17は、画像データ内に複数の顔情報が存在するか否かを判断する(A4)。コントローラ17は、画像データ内に複数の顔領域が存在すると判断した場合、複数の顔領域の中から、主要被写体となる顔領域を選択する(A5)。
If the
コントローラ17は、1個の顔情報が存在する場合、その顔領域、又は、複数の顔情報が存在する場合、主要被写体として選択された顔領域に関して、顔領域内の画像データの色情報及び設定位置をバッファメモリ15に記憶する。すなわち、コントローラ17は、顔領域内の画像データの特徴を示す色情報、及び、画像データにおける顔領域の設定位置を、バッファメモリ15に記憶する(A6)。次に、ステップA9に移行する。
When one face information is present, the
一方、コントローラ17は、ステップA2において、画像データ内に顔情報が存在しないと判別した場合、色情報がバッファメモリ15に記憶されているか否かを判断する(A7)。コントローラ17は、色情報がバッファメモリ15に記憶されていない場合、ステップA1に処理を移行する。一方、コントローラ17は、色情報がバッファメモリ15に記憶されている場合、この色情報及び設定位置をバッファメモリ15から読み出す。そしてコントローラ17は、色情報及び設定位置に基づいて、画像データ内に顔領域を設定する(A8)。
On the other hand, if it is determined in step A2 that face information does not exist in the image data, the
この後、コントローラ17は、顔領域が設定された画像データを、液晶モニタ20に表示させる(A9)。そしてコントローラ17は、ステップA1に戻り、CCDイメージセンサー12に次の画像データを生成させる。
Thereafter, the
図7を用いて動作例を説明する。まず、コントローラ17は、図7Aに示すように、画像データに顔情報が存在する場合、顔情報によって、画像データに顔領域を設定する。この際、コントローラ17は、顔領域内の画像データに対応する色情報をバッファメモリ15に記憶する。次にCCDイメージセンサー12から生成される画像データでも同様に、図7Bに示すように、顔情報によって、画像データに顔領域を設定する。この際、コントローラ17は、顔領域内の画像データに対応する色情報をバッファメモリ15に記憶する。図7Cも、図7AやBと同様である。そして、CCDイメージセンサー12から生成された画像データにおいて、図7Dのように、コントローラ17が、画像データ内に顔領域が存在しないと判断した場合、コントローラ17は、バッファメモリ15に記憶された色情報に基づいて、顔領域を設定する。これによって、デジタルカメラ1は、画像データ内に顔領域が存在しないと判断された場合であっても、色情報に基づいて、画像データに顔領域を設定できる。
An operation example will be described with reference to FIG. First, as shown in FIG. 7A, when face information exists in the image data, the
ここで、上記動作では、顔情報で顔領域を設定できるか否かを判別し、顔領域を設定できない場合、色情報で顔領域を設定するようにした。このようにすれば、色情報の追跡よりも顔情報の追跡を優先できるので、色情報の追跡のように、追跡したい被写体と異なる被写体をいつの間にか追跡してしまうといったことをより軽減できる。すなわち、画像データに顔領域が検出できた場合、色情報が再設定(記憶)されるため、色情報に基づいた顔領域の設定の際、所望の被写体に顔領域を継続して設定しやすくなる。つまり、追跡精度の向上が図れる。 Here, in the above operation, it is determined whether or not the face area can be set with the face information. If the face area cannot be set, the face area is set with the color information. In this way, since tracking of face information can be prioritized over tracking of color information, it is possible to further reduce tracking of a subject that is different from the subject to be tracked, such as tracking of color information. That is, when the face area is detected in the image data, the color information is reset (stored), and therefore, when setting the face area based on the color information, it is easy to continuously set the face area for a desired subject. Become. That is, the tracking accuracy can be improved.
なお、「5−1.基本的な動作(図6)」で基本的な動作を説明したが、以下の場合に、画像データ内に顔情報が存在しない場合(画像データから顔が検出できない場合)に、色情報に基づいて顔領域を設定するようにしてもかまわない。 Although the basic operation has been described in “ 5-1. Basic operation (FIG. 6) ”, in the following cases, when face information does not exist in the image data (when a face cannot be detected from the image data) ), The face area may be set based on the color information.
5−2.色情報の内容を考慮した動作(図8)
上記の構成において、デジタルカメラ1は、画像データ内に顔情報が存在するか否かを判別するようにしている。しかし、画像データ内に顔情報が存在するか否かの判別(以下、顔検出)は、顔でないものを誤検出する可能性がある。そこでデジタルカメラ1は、画像データから顔が検出できない場合、バッファメモリ15に記憶された色情報の内容に応じて、色情報に基づく顔領域の設定を行なうか否かを判断するようにする。デジタルカメラ1は、色情報に基づいて顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-2. Operation considering color information (Fig. 8)
In the above configuration, the
コントローラ17は、画像データ内に顔情報が存在しないと判断した場合であって、バッファメモリ15に記憶された色情報が、肌色に関する情報を所定の割合以上(例えば、40パーセント以上)含む場合、色情報に基づいて顔領域を設定すると判断する。肌色に関する情報とは、図5のヒストグラムの場合、例えば、分割した領域「2〜4」(色相角9度〜35度)を用いることができる。このため分割した領域「2〜4」の画素が、ヒストグラムの全画素の内、40パーセント以上か存在すれば、色情報に基づいて顔領域を設定すると判断する。
When the
この場合の動作例は、図8のようになる。すなわち、ステップA7の判断条件が、ステップB7になる。ステップB7において、コントローラ17は、バッファメモリ15に色情報が記憶されており、かつ、色情報の内容が、肌色に関する情報を40パーセント以上含むか否かを判別する。ステップB7以外のステップB1〜B9は、ステップA1〜A9と同様の処理である。
An operation example in this case is as shown in FIG. That is, the determination condition in step A7 is step B7. In step B <b> 7, the
5−3.顔情報に基づいて顔領域を継続して設定した回数を考慮した動作(図9)
上記の構成において、デジタルカメラ1は、CCDイメージセンサー12が順次生成する画像データに対して、顔検出を行なうようにしている。しかし、顔検出は、瞬間的(例えば、3フレーム間のみ)に顔を検出する場合がある。このような場合、顔でないものを顔として検出していることが多い。そこでデジタルカメラ1は、画像データから顔が検出できない場合であって、安定して顔が検出されていた場合に、色情報に基づいて顔領域を設定するようにする。つまり、デジタルカメラ1は、CCDイメージセンサー12から順次生成される画像データに対して、顔情報に基づいて顔領域を継続して設定した回数を顔設定回数として計数するコントローラ17(本発明の第1計数手段の一例)を備える。また、デジタルカメラ1は、画像データから顔が検出できない場合、顔設定回数に応じて、色情報に基づく顔領域の設定を行なうか否かを判断するようにする。デジタルカメラ1は、色情報に基づいて顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-3. An operation that takes into account the number of times the face area is continuously set based on face information (FIG. 9)
In the above configuration, the
コントローラ17は、画像データ内に顔情報が存在しないと判断した場合であって、顔設定回数が所定回数以上(30回以上)である場合、色情報に基づいて顔領域を設定すると判断する。顔設定回数は、バッファメモリ15に記憶されている。また、顔領域が継続して設定されたか否かを判別するためのフラグ情報が、バッファメモリ15に記憶されている。フラグ情報は、直前の画像データにおいて顔情報に基づいて顔領域を設定したか否かを判別できるようにしたものである。フラグ情報は、「1」と「0」を情報として持っており、「1」の場合、直前の画像データに対して顔情報に基づいて顔領域を設定したことを示し、「0」の場合、直前の画像データに対して色情報に基づいて顔領域を設定したことを示す。
The
この場合の動作例を、図9を用いて説明する。図6と同様の動作については説明を割愛する。この動作を開始する際、バッファメモリ15に記憶された顔設定回数は、「0」に設定されている。また、バッファメモリ15に記憶されたフラグ情報は、「0」に設定されている。
An example of the operation in this case will be described with reference to FIG. Description of operations similar to those in FIG. 6 is omitted. When starting this operation, the number of face settings stored in the
まず、コントローラ17は、ステップA1〜A6の動作と同様のステップC1〜C6の動作を行う。コントローラ17は、ステップC6の後、顔情報に基づいた顔領域の設定が継続的か否かを判別する(C7)。つまり、コントローラ17は、バッファメモリ15に記憶されたフラグ情報に基づいて、直前の画像データに対して顔情報に基づいた顔領域を設定したか否かを判別する。したがって、コントローラ17は、フラグ情報が「1」である場合、顔領域の設定が継続的であるとして、顔設定回数に「1」を加算する(C8)。一方、コントローラ17は、フラグ情報が「0」である場合、顔領域の設定が継続的でないとして、バッファメモリ15に記憶された顔設定回数に「1」を設定する(C9)。ステップC8又はC9の後、コントローラ17は、バッファメモリ15に記憶されたフラグ情報に「1」を設定する(C10)。そしてコントローラ17は、ステップA9と同様の動作を行う(C14)。
First, the
一方、コントローラ17は、ステップC2において、画像データに顔情報が存在しないと判別された場合、バッファメモリ15に記憶されたフラグ情報に「0」を設定する(C11)。この後コントローラ17は、
バッファメモリ15に色情報が記憶されており、バッファメモリ15に記憶された顔設定回数が「30」以上であるか否かを判別する(C12)。コントローラ17は、ステップC11において、バッファメモリ15に色情報が記憶されていない、又は、バッファメモリ15に記憶された顔設定回数が「30」未満である場合、ステップC1に移行する。一方、コントローラ17は、ステップC11において、バッファメモリ15に色情報が記憶されており、かつ、バッファメモリ15に記憶された顔設定回数が「30」以上である場合、ステップA8と同様の動作を行なう(C13)。この後、コントローラ17は、ステップA9と同様の動作を行う(C14)。
On the other hand, if it is determined in step C2 that face information does not exist in the image data, the
It is determined whether color information is stored in the
なお、この動作例では、顔設定回数に応じて、色情報に基づいた顔領域を設定するか否かを判断した。これに限られず、顔設定時間(顔情報を継続して検出できた時間)に応じて、色情報に基づいた顔領域を設定するか否かを判断してもかまわない。この場合デジタルカメラ1は、CCDイメージセンサー12から順次生成される画像データに対して、顔情報に基づいて顔領域を継続して設定した時間を顔設定時間として計時するコントローラ17(本発明の第1計時手段の一例)を備える。この動作の場合、顔設定回数の1回を、例えば1/30秒(1フレームの読み出し時間)に換算して、計算を行なえばよい。したがって、この動作例では、バッファメモリ15に顔設定時間を記憶しておき、ステップC8において、『顔設定時間に、「1/30」を加算する。』、ステップC9において、『顔設定時間に、「1/30」を設定する。』、ステップC12において、『色情報が記憶されており、顔設定時間が「1」以上であるか?』、のようにするとよい。
In this operation example, it is determined whether to set a face area based on the color information according to the number of face settings. However, the present invention is not limited to this, and it may be determined whether or not to set the face area based on the color information according to the face setting time (the time during which face information can be detected continuously). In this case, the
5−4.顔情報に基づいて顔領域が設定された位置の周囲の情報を考慮した動作(図10)
一般的に、人物の顔の周囲には、肌色を有する露出した腕や肩が存在する可能性がある。このような場合、デジタルカメラは、色情報で顔領域の追跡を行なうと、顔でない部分(露出した腕や肩など)を顔と判断して、顔領域を設定してしまう可能性がある。そこでデジタルカメラ1は、直前の画像データに対して顔情報に基づいて設定された顔領域の周囲(特定領域)から色に関する情報(特定情報)を取得するようにする。また、デジタルカメラ1は、画像データから顔が検出できない場合、この特定領域から取得した特定情報に応じて、色情報に基づく顔領域の設定を行なうか否かを判断するようにする。デジタルカメラ1は、色情報に基づいて顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-4. Operation considering information around the position where the face area is set based on the face information (FIG. 10)
Generally, there is a possibility that exposed arms and shoulders having a skin color exist around the face of a person. In such a case, when tracking the face area with color information, the digital camera may determine a non-face part (exposed arm, shoulder, etc.) as a face and set the face area. Therefore, the
コントローラ17は、顔情報に基づいて顔領域を設定した場合、顔領域の周囲である特定領域内の画像データの特定情報を取得する。本実施の形態の特定領域は、顔領域に隣接する部分を除いた周囲の領域である。例えば、図11Aの場合、顔領域50Aと、特定領域60Aとなる。また、図11Bの場合、顔領域50Bと、特定領域60Bとなる。なお、顔領域に隣接する部分を特定領域から除いている理由は、顔の下には首があり、例えば、この首の情報を取得すると、顔の周囲に露出した腕や胸元があるか判断できないためである。デジタルカメラ1は、取得した特定情報をバッファメモリ15に記憶する。
When the face area is set based on the face information, the
コントローラ17は、画像データ内に顔情報が存在しないと判断した場合であって、バッファメモリ15に記憶した特定情報が、肌色に関する情報を所定割合(5パーセント)以上含む場合、色情報に基づいて顔領域を設定しないと判断する。例えば、特定領域の特定情報として、図11Aのような、特定領域内の画像データから色に関する情報が取得されたとすると、コントローラ17は、色情報に基づいて顔領域を設定すると判断する。一方、図11Bのような、特定領域内の画像データから色に関する情報が取得されたとすると、コントローラ17は、色情報に基づいて顔領域を設定しないと判断する。図11Bの場合、特定領域内に被写体の手が入っているため、特定領域内の特定情報に肌色が含まれ、色情報に基づいて顔領域を設定しないと判断される。
If the
この場合の動作例を、図10を用いて説明する。図6と同様の動作については説明を割愛する。 An operation example in this case will be described with reference to FIG. Description of operations similar to those in FIG. 6 is omitted.
まず、コントローラ17は、ステップA1〜A6の動作と同様の動作を行う(D1〜D6)コントローラ17は、ステップD6の後、顔領域によって指定される特定領域内の画像データの色に関する情報を特定情報として取得する(D7)。そしてコントローラ17は、ステップA9と同様の動作を行う(D10)。
First, the
一方、コントローラ17は、ステップD2において、画像データに顔情報が存在しないと判別された場合、バッファメモリ15に色情報が記憶されており、バッファメモリ15に記憶された特定情報において、肌色に関する情報が所定割合未満であるか否かを判別する(D8)。コントローラ17は、ステップD8において、バッファメモリ15に色情報が記憶されていない、又は、バッファメモリ15に記憶された特定情報において肌色に関する情報が所定割合以上である場合、ステップD1に移行する。一方、コントローラ17は、ステップD8において、バッファメモリ15に色情報が記憶されており、かつ、バッファメモリ15に記憶された特定情報において肌色に関する情報が所定割合未満である場合、ステップA8と同様の動作を行なう(D9)。この後、コントローラ17は、ステップA9と同様の動作を行う(D10)。
On the other hand, if it is determined in step D2 that face information does not exist in the image data, the
なお、特定領域は、顔領域の大きさに応じて、大きくなったり、小さくなったりするようにするとよい。これは、顔領域が大きい場合、被写体の体も大きく画像データに移されているからである。 It should be noted that the specific area may be made larger or smaller depending on the size of the face area. This is because when the face area is large, the body of the subject is also moved to image data.
5−5.撮影環境の明るさに関する情報を考慮した動作(図12)
撮影環境が暗くなった場合、色に関する情報の信頼度が下がる。すなわち、このような場合に、色情報に基づいて顔領域を設定すると、顔領域を設定する際の精度が下がる。そこでデジタルカメラ1は、撮影環境の明るさに関する情報を取得するようにする。つまり、デジタルカメラ1は、CCDイメージセンサー12で生成された画像データから、撮影環境の明るさに関する情報を取得するコントローラ17(本発明の輝度取得手段の一例)を備える。また、デジタルカメラ1は、画像データから顔が検出できない場合、この取得した明るさに関する情報に応じて、色情報に基づいた顔領域を設定するか否かを判断するようにする。デジタルカメラ1は、色情報に基づいた顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-5. Operation in consideration of information on brightness of shooting environment (FIG. 12)
When the shooting environment becomes dark, the reliability of the information about the color decreases. That is, in such a case, if the face area is set based on the color information, the accuracy in setting the face area is lowered. Therefore, the
コントローラ17は、画像データから明るさに関する情報を取得する。この明るさに関する情報は、輝度の情報である。コントローラ17は、画像処理部14でYC変換された画像データを受け取り、この画像データから、画像の輝度の平均値を算出する。この輝度の平均値の算出方法は、従来技術であるため、説明は割愛する。これによってコントローラ17は、輝度の情報を取得する。例えば、輝度の情報が、8ビットで表現された場合、輝度情報を「0」〜「255」で表現することができる。
The
コントローラ17は、画像データ内に顔情報が存在しないと判別した場合であって、輝度情報が所定値(例えば、「30」)未満である場合、色情報に基づく顔領域の設定を行なわないようにする。つまり、コントローラ17は、輝度情報が所定値以上である場合、色情報に基づく顔領域の設定を行なうようにする。
If the
図12を用いて動作を説明する。図6と同様の動作については説明を割愛する。 The operation will be described with reference to FIG. Description of operations similar to those in FIG. 6 is omitted.
まず、コントローラ17は、ステップA1〜A6の動作と同様の動作を行う(E1〜E6)。コントローラ17は、ステップE6の後、ステップA9と同様の動作を行う(E10)
一方、コントローラ17は、ステップE2において、画像データに顔情報が存在しないと判別された場合、生成された画像データから輝度情報を取得する(E7)。この後コントローラ17は、バッファメモリ15に色情報が記憶されており、取得した輝度情報が所定値(例えば「30」)以上であるか否かを判別する(E8)。コントローラ17は、ステップE8において、バッファメモリ15に色情報が記憶されていない、又は、取得した輝度情報が「30」未満である場合、ステップE1に移行する。一方、コントローラ17は、ステップE8において、バッファメモリ15に色情報が記憶されており、かつ、取得した輝度情報が「30」以上である場合、ステップA8と同様の動作を行なう(E9)。この後、コントローラ17は、ステップA9と同様の動作を行う(E10)。
First, the
On the other hand, if it is determined in step E2 that face information does not exist in the image data, the
5−6.色情報に基づいて顔領域を継続して設定した回数を考慮した動作(図13)
画像データから顔が検出できない場合において、色情報に基づいた顔領域の設定を継続して複数回行なった場合、顔とは異なる被写体を追跡していってしまう可能性がある。そこでデジタルカメラ1は、画像データから顔が検出できない場合において、色情報に基づいた顔領域の設定を継続して複数回行なった場合、色情報に基づく顔領域の設定を行なわないようにする。つまり、デジタルカメラ1は、CCDイメージセンサー12から順次生成される画像データに対して、色情報に基づいて顔領域を継続して設定した回数を色設定回数として計数するコントローラ17(本発明の第2計数手段の一例)を備える。また、デジタルカメラ1は、画像データから顔が検出できない場合、色設定回数に応じて、色情報に基づく顔領域の設定を行なうか否かを判断するようにする。デジタルカメラ1は、色情報に基づいて顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-6. Operation in consideration of the number of times the face area is continuously set based on the color information (FIG. 13)
If the face cannot be detected from the image data and the face area setting based on the color information is continuously performed a plurality of times, a subject different from the face may be tracked. Therefore, when the face cannot be detected from the image data and the face area is set based on the color information for a plurality of times, the
コントローラ17は、画像データ内に顔情報が存在しないと判断した場合であって、色設定回数が所定回数以上(90回未満)である場合、色情報に基づいて顔領域を設定すると判断する。色設定回数は、バッファメモリ15に記憶されている。
When the
この場合の動作例を、図13を用いて説明する。図6と同様の動作については説明を割愛する。この動作を開始する際、バッファメモリ15に記憶された色設定回数は、「0」に設定されている。
An operation example in this case will be described with reference to FIG. Description of operations similar to those in FIG. 6 is omitted. When starting this operation, the number of color settings stored in the
まず、コントローラ17は、ステップA1〜A6の動作と同様の動作を行う(F1〜F6)。コントローラ17は、そしてコントローラ17は、ステップA9と同様の動作を行う(F11)。
First, the
一方、コントローラ17は、ステップF2において、画像データに顔情報が存在しないと判別された場合、バッファメモリ15に色情報が記憶されており、かつ、バッファメモリ15に記憶された色設定回数が「90」未満であるか否かを判別する(F7)。コントローラ17は、ステップF7において、バッファメモリ15に色情報が記憶されていない、又は、バッファメモリ15に記憶された色設定回数が「90」以上である場合、バッファメモリ15に記憶された色設定回数に「0」を設定する(F10)。一方、コントローラ17は、ステップF7において、バッファメモリ15に色情報が記憶されており、かつ、バッファメモリ15に記憶された色設定回数が「90」未満である場合、ステップA8と同様の動作を行なう(F8)。そしてコントローラ17は、バッファメモリ15に記憶された色設定回数に「1」を加算する(F9)。この後、コントローラ17は、ステップA9と同様の動作を行う(F11)。
On the other hand, if it is determined in step F2 that face information does not exist in the image data, the
なお、この動作例では、色設定回数に応じて、色情報に基づいた顔領域を設定するか否かを判断した。これに限られず、色設定時間(色情報に基づいて顔領域を継続して設定した時間)に応じて、色情報に基づいた顔領域を設定するか否かを判断してもかまわない。この場合デジタルカメラ1は、CCDイメージセンサー12から順次生成される画像データに対して、色情報に基づいて顔領域を継続して設定した時間を色設定時間として計時するコントローラ17(本発明の第2計時手段の一例)を備える。この動作の場合、上記の色設定回数の1回を、例えば1/30秒(1フレームの読み出し時間)に換算して、計算を行なえばよい。したがって、この動作例では、バッファメモリ15に色設定時間を記憶しておき、ステップF9において、『色設定時間に、「1/30」を加算する。』、ステップF10において、『色設定時間に、「0」を設定する。』、ステップF7において、『色情報が記憶されており、色設定時間が「3」未満であるか?』、のようにするとよい。
In this operation example, it is determined whether or not to set the face area based on the color information according to the number of color settings. However, the present invention is not limited to this, and it may be determined whether or not to set the face area based on the color information according to the color setting time (the time when the face area is continuously set based on the color information). In this case, the
5−7.第2顔領域を設定する範囲を考慮した動作(図14)
撮影者は、ポートレートモードなどのように人物撮影を行う場合、なるべく被写体の顔が中心に来るように、デジタルカメラを移動させることが多い。したがって、デジタルカメラ1は、色情報に基づく顔領域の設定する位置が一部でも設定範囲から外れた場合、色情報に基づく顔領域を設定しないようにする。つまり、デジタルカメラ1は、画像データから顔が検出できない場合、色情報に基づく顔領域の設定位置に応じて、色情報に基づいて顔領域を設定するか否かを判断する。デジタルカメラ1は、色情報に基づいて顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-7. Operation considering the range for setting the second face area (FIG. 14)
When shooting a person as in portrait mode, the photographer often moves the digital camera so that the face of the subject is as centered as possible. Therefore, the
ここで本実施の形態のコントローラ17は、画像データ内に顔情報が存在すると判別した場合、顔領域の設定された位置が画像データ内の設定範囲外に移動した場合、色情報に基づく顔領域を設定しないようにする。つまり、顔領域の設定された位置が画像データ内の設定範囲内にある場合、色情報に基づく顔領域の設定を行なうようにする。
Here, if the
実施の形態の設定範囲は、例えば、図15のようにするとよい。すなわち、顔情報に基づいて設定した顔領域の大きさに応じて、設定範囲の大きさを変更するとよい。これは、画像データ内に検出された顔が大きい場合、顔領域が移動する範囲は画面全体で移動すると考えられるからである。一方、画像データ内に検出された顔が小さい場合、顔領域が移動する範囲は画面中心付近で移動すると考えられるからである。図15Aが、顔領域が大きい場合の例である。図15Cが、顔領域が小さい場合の例である。 The setting range of the embodiment may be, for example, as shown in FIG. In other words, the size of the setting range may be changed according to the size of the face area set based on the face information. This is because when the face detected in the image data is large, the range in which the face area moves is considered to move over the entire screen. On the other hand, when the face detected in the image data is small, the range in which the face area moves is considered to move near the center of the screen. FIG. 15A shows an example when the face area is large. FIG. 15C shows an example when the face area is small.
また、実施の形態は、色情報に基づく顔領域の設定位置が、設定範囲から一部でも外れると、色情報に基づいて顔領域を設定しないようにする。例えば、図16では、(A)の場合、色情報に基づいて顔領域を設定するようにし、(B)の場合、色情報に基づいて顔領域を設定しないようにする。 In the embodiment, if the setting position of the face area based on the color information is partially out of the setting range, the face area is not set based on the color information. For example, in FIG. 16, in the case of (A), the face area is set based on the color information, and in the case of (B), the face area is not set based on the color information.
この場合の動作例を、図14を用いて説明する。ステップG1〜G7は、ステップA1〜A7と同じである。コントローラ17は、ステップG7で色情報が記憶されていると判断した場合、色情報に基づく顔領域の設定位置が、設定範囲か否かを判別する(G8)。コントローラ17は、設定位置が設定範囲に含まれる場合、色情報に基づいて顔領域を設定する(G9)。この後、コントローラ17は、ステップA9と同様の処理を行う(G10)。一方で、設定位置が設定範囲に含まれない場合、ステップG1に処理を移行する。
An operation example in this case will be described with reference to FIG. Steps G1 to G7 are the same as steps A1 to A7. When the
5−8.ぶれ量を考慮した動作(図17)
デジタルカメラが大きく移動されると、次の画像データから顔が検出できないと考えられる。このような場合、色情報に基づいて顔領域を設定すると、被写体の顔が実際に存在しないのにも関わらず、顔領域を設定してしまうことになる。そこでデジタルカメラ1は、コントローラ17(本発明の移動量取得手段の一例)が算出したぶれ量に応じて、色情報に基づいて顔領域を設定するか否かを判断するようにする。デジタルカメラ1は、色情報に基づいて顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-8. Operation considering the amount of blurring (Fig. 17)
If the digital camera is moved greatly, it is considered that the face cannot be detected from the next image data. In such a case, if the face area is set based on the color information, the face area is set even though the face of the subject does not actually exist. Therefore, the
コントローラ17は、ぶれ量が所定範囲(−200〜200deg/sec)に含まれる場合、色情報に基づく顔領域の設定を行なうようにする。
The
図17を用いて動作を説明する。図6と同様の動作については説明を割愛する。 The operation will be described with reference to FIG. Description of operations similar to those in FIG. 6 is omitted.
まず、コントローラ17は、ステップA1〜A6の動作と同様の動作を行う(H1〜H6)。コントローラ17は、ステップH6の後、ステップA9と同様の動作を行う(H10)
一方、コントローラ17は、ステップE2において、画像データに顔情報が存在しないと判別された場合、デジタルカメラ1のぶれ量を算出する(H7)。この後コントローラ17は、バッファメモリ15に色情報が記憶されており、算出したぶれ量が所定範囲に含まれるか否かを判別する(H8)。コントローラ17は、ステップH8において、バッファメモリ15に色情報が記憶されていない、又は、算出したぶれ量が−200〜200deg/secに含まれない場合、ステップH1に移行する。一方、コントローラ17は、ステップH8において、バッファメモリ15に色情報が記憶されており、かつ、算出したぶれ量が−200〜200deg/secに含まれる場合、ステップA8と同様の動作を行なう(H9)。この後、コントローラ17は、ステップA9と同様の動作を行う(H10)。
First, the
On the other hand, if it is determined in step E2 that face information does not exist in the image data, the
6.まとめ
デジタルカメラ1は、光学系11で形成された被写体像を撮像して、画像データを順次生成するCCDイメージセンサー12と、顔情報を記憶したフラッシュメモリ16と、CCDイメージセンサー12から生成される画像データ内において、記憶された顔情報が存在するか否かを判別するコントローラ17と、コントローラ17によって顔情報が存在すると判別された場合、画像データ内において顔情報が存在すると判別された位置に、顔領域を設定するとともに、設定された顔領域内の画像データの色情報をバッファメモリ15に記憶するコントローラ17と、コントローラ17によって顔情報が存在しないと判別された場合であって、バッファメモリ15に色情報が記憶されている場合、記憶された色情報に基づいて画像データ内に顔領域を設定するコントローラ17と、を備える。
6). Summary The
このようにすれば、画像データ内に顔情報が存在しない場合、色情報に基づいて顔領域を設定することにより、被写体の顔が正面方向を向いている状態から正面方向以外を向いた場合であっても、CCDイメージセンサーから順次生成される画像データに対して、顔領域を高い精度で継続設定できる。
(他の実施の形態)
本発明の実施の形態として、実施の形態1を例示した。しかし、本発明は、実施の形態1に限定されず、他の実施の形態においても実現可能である。そこで、本発明の他の実施の形態を以下まとめて説明する。
In this way, when face information does not exist in the image data, the face area is set based on the color information, so that the face of the subject faces from the front direction to the direction other than the front direction. Even in such a case, the face area can be continuously set with high accuracy for the image data sequentially generated from the CCD image sensor.
(Other embodiments)
実施の形態1では、第1特徴情報として、顔情報を用いた例を説明した。しかし、これに限られず、例えば、固体認証に用いられる認証用の画像情報を用いることができる。この認証用の画像情報には、人物、すなわち、人間と異なる被写体(犬、猫など)を用いてもかまわない。さらに、画像情報に限られず、被写体の特徴情報であればどのような情報であってもかまわない。 In the first embodiment, the example in which face information is used as the first feature information has been described. However, the present invention is not limited to this, and for example, authentication image information used for solid authentication can be used. For this authentication image information, a person, that is, a subject (dog, cat, etc.) different from a human may be used. Furthermore, the information is not limited to image information, and any information may be used as long as it is characteristic information of the subject.
このようにすれば、例えば、固体認証から自動で色情報に基づいた特徴領域の設定に変更されるため、固体認証用の画像情報を複数個保存してなくてもある精度以上の追跡を行なうことができるようになる。例えば、犬を撮影した画像情報を記憶する。この画像情報に基づいて固体認証で犬を検知する。この際、検知した犬の色に関する情報を記憶する。この後、固体認証で犬が検出できなくなった場合、色情報で追跡する。 In this case, for example, the setting is changed from the solid authentication to the setting of the feature region based on the color information automatically, so that the tracking is performed with the accuracy higher than the accuracy without storing a plurality of pieces of image information for the solid authentication. Will be able to. For example, image information obtained by photographing a dog is stored. A dog is detected by solid authentication based on this image information. At this time, information regarding the color of the detected dog is stored. After this, if a dog cannot be detected by solid authentication, it is tracked with color information.
また、本実施の形態では、バッファメモリ15に予め記憶しておいた顔情報を用いて、顔領域の設定を行なうようにした。しかし、これに限られず、撮影の直前に外部から取得した情報であってもかまわない。
In the present embodiment, the face area is set using face information stored in advance in the
また、本実施の形態では、色に関する情報として、色相を用いて特徴情報を分類した。しかし、これに限られず、彩度や明度であってもかまわないし、これらを組み合わせた情報を用いてもかまわない。 Further, in the present embodiment, the feature information is classified using the hue as the information regarding the color. However, the present invention is not limited to this, and saturation or brightness may be used, or information combining these may be used.
また、本実施の形態では、第2特徴情報として、色に関する情報を用いた例を説明した。しかし、これに限られず、例えば、コントラストに関する情報、又は/及び、輝度に関する情報等を用いることができる。 In the present embodiment, an example in which information about color is used as the second feature information has been described. However, the present invention is not limited to this, and for example, information on contrast or / and information on luminance can be used.
すなわち、本発明は、上記実施の形態に限られず、種々の態様で実施可能である。 That is, the present invention is not limited to the above embodiment, and can be implemented in various modes.
本発明は、撮像装置に適用可能である。例えば、デジタルカメラ、ビデオカメラ、カメラ付き携帯端末等に利用できる。 The present invention can be applied to an imaging apparatus. For example, it can be used for a digital camera, a video camera, a mobile terminal with a camera, and the like.
1 デジタルカメラ
11 光学系
12 CCDイメージセンサー
121 タイミングジェネレータ
13 ADコンバータ
14 画像処理部
15 バッファメモリ
16 フラッシュメモリ
17 コントローラ
20 液晶モニタ
21 操作部
50 顔領域
60 特定領域
70 設定範囲
DESCRIPTION OF
Claims (12)
被写体の特徴を示す第1特徴情報を記憶した記憶媒体と、
前記撮像手段から生成される画像データ内において、前記記憶された第1特徴情報が存在するか否かを判別する判別手段と、
前記判別手段によって前記第1特徴情報が存在すると判別された場合、前記画像データ内において前記第1特徴情報が存在すると判別された位置に、特徴領域を設定するとともに、当該設定された特徴領域内の画像データの特徴を示す第2特徴情報を前記記憶媒体に記憶する第1設定手段と、
前記判別手段によって前記第1特徴情報が存在しないと判別された場合であって、前記記憶媒体に第2特徴情報が記憶されている場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する第2設定手段と、
を備える撮像装置。 Imaging means for capturing a subject image formed by an optical system and sequentially generating image data;
A storage medium storing first feature information indicating features of the subject;
Discriminating means for discriminating whether or not the stored first feature information exists in the image data generated from the imaging means;
When it is determined by the determining means that the first feature information is present, a feature region is set at a position where the first feature information is determined to be present in the image data, and within the set feature region First setting means for storing second characteristic information indicating characteristics of the image data in the storage medium;
When it is determined by the determining means that the first feature information does not exist, and the second feature information is stored in the storage medium, the image data is based on the stored second feature information. Second setting means for setting the feature region in the inside,
An imaging apparatus comprising:
さらに前記記憶された第2特徴情報の内容に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。 The second setting means includes
Further, according to the content of the stored second feature information, it is determined whether to set a feature region based on the second feature information, and when it is determined to set the feature region, the stored second feature information 2) setting the feature region in the image data based on the feature information;
The imaging device according to claim 1.
前記第2設定手段は、
さらに前記第1計数手段で計数した設定回数に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。 A first counting unit that counts the number of times that the first setting unit has continuously set the characteristic region as the first set number of times for the image data sequentially generated from the imaging unit;
The second setting means includes
Further, according to the number of times set by the first counting means, it is determined whether to set a feature area based on the second feature information, and if it is determined to set the feature area, the stored second 2) setting the feature region in the image data based on the feature information;
The imaging device according to claim 1.
前記第2設定手段は、
さらに前記第1計時手段で計時される第1設定時間に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。 First time measuring means for measuring the time from when the first setting means sets the feature area to the time when the feature area is no longer set as the first set time for the image data sequentially generated from the imaging means. In addition,
The second setting means includes
Further, it is determined whether or not to set a feature area based on the second feature information according to the first set time measured by the first timing means, and if it is determined to set the feature area, the storage Setting the feature region in the image data based on the second feature information
The imaging device according to claim 1.
前記第2設定手段は、
さらに前記輝度取得手段が取得した明るさに関する情報に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。 It further comprises a luminance acquisition means for acquiring information regarding the brightness of the shooting environment,
The second setting means includes
Further, it is determined whether or not to set a feature area based on the second feature information according to the information about the brightness acquired by the luminance acquisition means, and if it is determined to set the feature area, the stored Setting the feature region in the image data based on second feature information;
The imaging device according to claim 1.
前記判別手段によって前記第1特徴情報が存在すると判別された場合、さらに、前記画像データ内において前記第1特徴情報が存在すると判別された位置によって指定される特定領域内の画像データの特徴を示す第3特徴情報を前記記憶媒体に記憶し、
前記第2設定手段は、
前記記憶された第3特徴情報の内容に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。 The first setting means includes
When it is determined by the determining means that the first feature information is present, the feature further indicates a feature of the image data in the specific area designated by the position where the first feature information is determined to be present in the image data. Storing third feature information in the storage medium;
The second setting means includes
Based on the content of the stored third feature information, it is determined whether to set a feature region based on the second feature information, and when it is determined to set the feature region, the stored second feature information Setting the feature region in the image data based on feature information;
The imaging device according to claim 1.
前記第2設定手段は、
さらに前記第2計数手段で計数される第2設定回数に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。 A second counting unit that counts the number of times that the second setting unit has continuously set the characteristic area as the second set number of times for the image data sequentially generated from the imaging unit;
The second setting means includes
Further, according to the second set number counted by the second counting means, it is determined whether or not to set a feature region based on the second feature information, and if it is determined to set the feature region, Setting the feature region in the image data based on the second feature information
The imaging device according to claim 1.
前記第2設定手段は、
さらに前記第2計時手段で計時される第2設定時間に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。 Second time measuring means for measuring the time from when the second setting means sets the characteristic area to the time when the characteristic area is no longer set as the second setting time for the image data sequentially generated from the imaging means; In addition,
The second setting means includes
Further, it is determined whether to set a feature area based on the second feature information according to a second set time measured by the second timing means, and when it is determined to set the feature area, the storage Setting the feature region in the image data based on the second feature information
The imaging device according to claim 1.
さらに第2特徴情報に基づく特徴領域を設定させる位置に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。 The second setting means includes
Further, according to the position where the feature area based on the second feature information is set, it is determined whether to set the feature area based on the second feature information. Setting the feature region in the image data based on the second feature information.
The imaging device according to claim 1.
前記第2設定手段は、
さらに前記移動量取得手段が取得した移動に関する情報に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。 It further comprises movement information acquisition means for acquiring information relating to movement of the own device,
The second setting means includes
Further, it is determined whether to set a feature area based on the second feature information in accordance with the movement-related information acquired by the movement amount acquisition means. Setting the feature region in the image data based on second feature information;
The imaging device according to claim 1.
前記第2特徴情報は、色に関する情報である、
請求項1に記載の撮像装置。 The first feature information is information about a face,
The second feature information is information relating to color.
The imaging device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008186941A JP2010028418A (en) | 2008-07-18 | 2008-07-18 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008186941A JP2010028418A (en) | 2008-07-18 | 2008-07-18 | Imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010028418A true JP2010028418A (en) | 2010-02-04 |
Family
ID=41733834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008186941A Pending JP2010028418A (en) | 2008-07-18 | 2008-07-18 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010028418A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103747181A (en) * | 2014-01-10 | 2014-04-23 | 上海斐讯数据通信技术有限公司 | System for combining videos and camera-acquired pictures |
JP2017041791A (en) * | 2015-08-20 | 2017-02-23 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
JP2017147764A (en) * | 2017-05-23 | 2017-08-24 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005223660A (en) * | 2004-02-06 | 2005-08-18 | Nikon Gijutsu Kobo:Kk | Digital camera |
JP2008061219A (en) * | 2006-06-14 | 2008-03-13 | Canon Inc | Image processing apparatus, imaging apparatus, and method of controlling image processing apparatus |
JP2008076786A (en) * | 2006-09-22 | 2008-04-03 | Sony Corp | Imaging apparatus, imaging apparatus control method, and computer program |
-
2008
- 2008-07-18 JP JP2008186941A patent/JP2010028418A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005223660A (en) * | 2004-02-06 | 2005-08-18 | Nikon Gijutsu Kobo:Kk | Digital camera |
JP2008061219A (en) * | 2006-06-14 | 2008-03-13 | Canon Inc | Image processing apparatus, imaging apparatus, and method of controlling image processing apparatus |
JP2008076786A (en) * | 2006-09-22 | 2008-04-03 | Sony Corp | Imaging apparatus, imaging apparatus control method, and computer program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103747181A (en) * | 2014-01-10 | 2014-04-23 | 上海斐讯数据通信技术有限公司 | System for combining videos and camera-acquired pictures |
JP2017041791A (en) * | 2015-08-20 | 2017-02-23 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
CN106470315A (en) * | 2015-08-20 | 2017-03-01 | 卡西欧计算机株式会社 | Image processing apparatus and image processing method |
US10348958B2 (en) | 2015-08-20 | 2019-07-09 | Casio Computer Co., Ltd. | Image processing apparatus for performing predetermined processing on a captured image |
CN106470315B (en) * | 2015-08-20 | 2019-07-09 | 卡西欧计算机株式会社 | Image processing apparatus, image processing method and recording medium |
JP2017147764A (en) * | 2017-05-23 | 2017-08-24 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109842753B (en) | Camera anti-shake system, camera anti-shake method, electronic device and storage medium | |
US9479692B2 (en) | Image capturing apparatus and method for controlling the same | |
JP4254873B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and computer program | |
TWI425826B (en) | Image selection device and method for selecting image | |
US8831282B2 (en) | Imaging device including a face detector | |
JP5409189B2 (en) | Imaging apparatus and control method thereof | |
US8373761B2 (en) | Shake correcting apparatus and method thereof in digital photographing apparatus | |
US20140184854A1 (en) | Front camera face detection for rear camera zoom function | |
US8493493B2 (en) | Imaging apparatus, imaging apparatus control method, and computer program | |
US20160173749A1 (en) | Still image capture with exposure control | |
JP2006215571A (en) | Method of displaying camera shake, its apparatus, image display device, and its method | |
JP2010141649A (en) | Image capturing apparatus and face detecting method and program | |
KR20150078275A (en) | Digital Photographing Apparatus And Method For Capturing a Moving Subject | |
KR101423432B1 (en) | Imaging apparatus, imaging method and storage medium | |
JP2009213114A (en) | Imaging device and program | |
US11523048B2 (en) | Electronic device, control method of electronic device, and non-transitory computer readable medium | |
JP4807582B2 (en) | Image processing apparatus, imaging apparatus, and program thereof | |
JP2010028418A (en) | Imaging apparatus | |
JP5448868B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
WO2016009199A2 (en) | Minimisation of blur in still image capture | |
JP2011041186A (en) | Electronic camera | |
JP2009296029A (en) | Image pickup apparatus | |
JP6584259B2 (en) | Image blur correction apparatus, imaging apparatus, and control method | |
JP2010093451A (en) | Imaging apparatus and program for imaging apparatus | |
JP5251600B2 (en) | Electronic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110715 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20110811 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120921 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20121120 |