JP5092888B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP5092888B2 JP5092888B2 JP2008130173A JP2008130173A JP5092888B2 JP 5092888 B2 JP5092888 B2 JP 5092888B2 JP 2008130173 A JP2008130173 A JP 2008130173A JP 2008130173 A JP2008130173 A JP 2008130173A JP 5092888 B2 JP5092888 B2 JP 5092888B2
- Authority
- JP
- Japan
- Prior art keywords
- feature area
- unit
- feature
- image
- cutout range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
この発明は、画像処理装置および画像処理方法に関する。詳しくは、被写体の特徴的な部分を含む特徴エリアが含まれるように切り出し範囲を決定し、この切り出し範囲の画像情報を伝送することにより、特徴エリアの検出個数が変化する場合であってもユーザは手動で切り出し範囲を調整する必要がなく、ユーザの使い勝手の向上を図るようにした画像処理装置等に係るものである。 The present invention relates to an image processing apparatus and an image processing method. Specifically, even if the number of detected feature areas is changed by determining the cutout range so that a feature area including a characteristic part of the subject is included and transmitting image information of this cutout range, the user Does not require manual adjustment of the cutout range, and relates to an image processing apparatus or the like that is intended to improve the user-friendliness.
従来のPC(Personal Computer)あるいは携帯端末を利用したテレビ電話では、通常話者は1人である。例えば、特許文献1には、話者1人の顔画像を最適な画枠に調整して伝送する技術が記載されている。
In a videophone using a conventional PC (Personal Computer) or a portable terminal, there is usually one speaker. For example,
この特許文献1に記載される技術では、例えば、図26(a)に示すように、ビデオカメラ200とPC(Personal Computer)300がUSBケーブル400を介して接続された通信ステムにおいては、以下のようなビデオストリーム伝送が可能となる。なお、図26(b)はビデオカメラ200の表示パネル210の画像表示例を示し、図26(c)はPC300の表示パネルの画像表示例を示している。
In the technique described in
この場合、ビデオカメラ200では、図26(b)に示すように撮像画像から顔を含む検出枠FLaが決定される。そして、ビデオカメラ200では、撮像画像データから検出枠FLaの画像データが切り出されてPC300にストリーミング伝送される。そのため、PC300の表示パネル310には、図26(c)に示すように、撮像画像のうち上述の検出枠FLaに対応した画像が表示される。
上述の特許文献1に記載の技術は、話者が複数人である場合のテレビ会議には適用できない。この場合、全ての話者が画枠に入るようにカメラの画枠調整を手動で行う必要があり、ユーザの使い勝手がよくない。
The technique described in
この発明の目的は、ユーザの使い勝手の向上を図ることにある。 An object of the present invention is to improve user convenience.
この発明の概念は、
被写体の撮像画像に対応した画像情報に基づいて、上記被写体の特徴的な部分を含む上記撮像画像の特徴エリアを検出する特徴エリア検出部と、
上記特徴エリア検出部で検出された特徴エリアの領域情報に基づいて、該検出された特徴エリアを含む切り出し範囲を決定する切り出し範囲決定部と、
上記切り出し範囲決定部で決定された切り出し範囲の領域情報に基づいて、上記被写体の撮像画像に対応した画像情報から該切り出し範囲の画像情報を切り出す画像切り出し部と、
上記画像切り出し部で切り出された画像情報を伝送する画像伝送部とを備え、
上記特徴エリア検出部は、
周期的に、上記被写体の撮像画像に対応した画像情報に基づいて、上記特徴エリアを検出し、
特徴エリア番号が付与されている各特徴エリアの特徴エリア情報が記憶される記憶部を有し、
上記特徴エリアの検出を行う毎に、
上記記憶部に記憶されている特徴エリアを順次処理対象とし、重複する特徴エリアの検出があるときは検出カウントをインクリメントすると共に特徴エリア情報を更新し、重複する特徴エリアの検出がないときは検出カウントをデクリメントすると共に該検出カウントが規定値に達するときは上記記憶部から対応する特徴エリア情報を削除し、
上記処理対象の特徴エリアのいずれとも重複しない特徴エリアの検出があるとき、該特徴エリアの特徴エリア情報を、特徴エリア番号を新規に割り当てて検出カウントを1として上記記憶部に記憶し、
上記切り出し範囲決定部は、
上記記憶部に記憶されている特徴エリアのうち検出カウントが規定値以上にある特徴エリアを有効化された特徴エリアとし、該有効化された特徴エリアの領域情報に基づいて、該有効化された特徴エリアを含む切り出し範囲を決定する
画像処理装置にある。
The concept of this invention is
A feature area detection unit that detects a feature area of the captured image including a characteristic part of the subject based on image information corresponding to the captured image of the subject;
A cutout range determination unit for determining a cutout range including the detected feature area based on the area information of the feature area detected by the feature area detection unit;
An image cutout unit that cuts out image information of the cutout range from image information corresponding to the captured image of the subject based on the region information of the cutout range determined by the cutout range determination unit;
An image transmission unit that transmits the image information cut out by the image cutout unit ,
The feature area detector
Periodically, the feature area is detected based on image information corresponding to the captured image of the subject,
A storage unit for storing feature area information of each feature area to which a feature area number is assigned;
Each time the feature area is detected,
The feature areas stored in the storage unit are sequentially processed. When overlapping feature areas are detected, the detection count is incremented and the feature area information is updated. When no overlapping feature areas are detected, detection is performed. When the count is decremented and the detection count reaches a specified value, the corresponding feature area information is deleted from the storage unit,
When there is detection of a feature area that does not overlap with any of the feature areas to be processed, feature area information of the feature area is newly assigned a feature area number and stored in the storage unit as a detection count of 1,
The cutout range determination unit
Among the feature areas stored in the storage unit, a feature area whose detection count is equal to or greater than a specified value is set as an activated feature area, and the activated feature area is based on the area information of the activated feature area. The image processing apparatus determines a cutout range including a feature area .
この発明においては、特徴エリア検出部により、被写体の撮像画像に対応した画像情報に基づいて、撮像画像の特徴エリアが検出される。特徴エリアは、被写体の特徴的な部分、例えば、人間の顔、特定の物体、特定の動物等の一部または全部を含むエリアである。例えば、人間の顔を含む特徴エリアを検出する場合には、従来周知の顔検出の手法が利用される。 In the present invention, the feature area detection unit detects the feature area of the captured image based on the image information corresponding to the captured image of the subject. The characteristic area is an area that includes a characteristic part of the subject, for example, part or all of a human face, a specific object, a specific animal, and the like. For example, when a feature area including a human face is detected, a conventionally known face detection method is used.
切り出し範囲決定部により、特徴エリア検出部で検出された特徴エリアの位置情報に基づいて、この検出された特徴エリアを含む切り出し範囲が決定される。この場合、検出された特徴エリアが複数個ある場合には、その全てを含むように切り出し範囲が決定される。 The cutout range determination unit determines the cutout range including the detected feature area based on the position information of the feature area detected by the feature area detection unit. In this case, when there are a plurality of detected feature areas, the cutout range is determined so as to include all of the detected feature areas.
切り出し範囲は、例えば、受信側における利用便宜のために、所定のアスペクト比となるように決定される。例えば、検出特徴エリアの、最左端の値をL、最上端の値をT、最右端の値をR、最下端の値をBとし、最上端から切り出し範囲の上端までの距離および最下端から切り出し範囲の下端までの距離をaとし、最左端から切り出し範囲の左端までの距離および最右端から切り出し範囲の右端までの距離をbとし、アスペクト比をh:vとするとき、{|R−L|+2b}:{|B−T|+2a}=h:vの式を満たすように、距離aおよび距離bが求められて、切り出し範囲が決定される。ここで、距離aおよび距離bの領域は、切り出し範囲のアスペクト比をh:vとするための「のりしろ領域」である。 For example, the clipping range is determined so as to have a predetermined aspect ratio for convenience of use on the receiving side. For example, in the detection feature area, the leftmost value is L, the uppermost value is T, the rightmost value is R, the lowermost value is B, and the distance from the uppermost edge to the upper end of the cutout range and the lowermost value When the distance to the lower end of the cutout range is a, the distance from the leftmost end to the left end of the cutout range, the distance from the rightmost end to the right end of the cutout range is b, and the aspect ratio is h: v, {| R- L | + 2b}: {| B−T | + 2a} = h: The distance a and the distance b are obtained so as to satisfy the expression v, and the cutout range is determined. Here, the area of the distance a and the distance b is a “margin area” for setting the aspect ratio of the cutout range to h: v.
上述の検出された特徴エリア、および決定された切り出し範囲は、例えば、グラフィック表示部により、撮像画像を表示する表示パネルに、撮像画像に重ねて表示される。この表示により、ユーザは、検出された特徴エリアと、それによって決定された切り出し範囲を容易に認識できるようになる。 The detected feature area and the determined clipping range are displayed on the display panel that displays the captured image, for example, by the graphic display unit so as to overlap the captured image. With this display, the user can easily recognize the detected feature area and the cutout range determined thereby.
画像切り出し部により、切り出し範囲決定部で決定された切り出し範囲の位置情報に基づいて、被写体の撮像画像に対応した画像情報から切り出し範囲の画像情報が切り出される。そして、画像伝送部により、画像切り出し部で切り出された画像情報が伝送される。この場合、画像切り出し部で切り出された画像情報は、直接、あるいは圧縮符号化されて、伝送される。例えば、USBケーブルで接続されたPC等の外部機器に送信される。 Based on the position information of the cutout range determined by the cutout range determination unit, the image cutout unit cuts out image information of the cutout range from the image information corresponding to the captured image of the subject. Then, the image information cut out by the image cutout unit is transmitted by the image transmission unit. In this case, the image information cut out by the image cutout unit is transmitted directly or after being compressed and encoded. For example, it is transmitted to an external device such as a PC connected by a USB cable.
上述したように、この発明においては、検出された特徴エリアが含まれるように切り出し範囲が自動的に決定され、この切り出し範囲の画像情報が伝送されるものであり、ユーザは、切り出し範囲を調整する必要がなく、使い勝手が向上する。 As described above, in the present invention, the cutout range is automatically determined so that the detected feature area is included, and image information of this cutout range is transmitted, and the user adjusts the cutout range. There is no need to do this, and usability is improved.
この発明において、例えば、特徴エリア検出部で検出された特徴エリアから所定の特徴エリアを切り出し対象から除外することを設定し、またこの設定を解除するユーザ操作部をさらに備え、切り出し範囲決定部は、特徴エリア検出部で検出された特徴エリアのうち、ユーザ操作部で切り出し対象から除外された特徴エリアを除く他の特徴エリアを含む切り出し範囲を決定する、ようにされてもよい。ユーザは、ユーザ操作部を操作することで、所定の特徴エリアを切り出し対象から除外し、あるいはその除外を解除することが可能となり、所定の特徴エリアの画像情報を伝送するか否かの選択が可能となる。 In this invention, for example, it further includes a user operation unit that sets to exclude a predetermined feature area from the feature area detected by the feature area detection unit, and cancels this setting. Of the feature areas detected by the feature area detection unit, a cutout range including other feature areas excluding the feature areas excluded from the cutout target by the user operation unit may be determined. By operating the user operation unit, the user can exclude a predetermined feature area from the cut-out target or cancel the exclusion, and can select whether to transmit image information of the predetermined feature area. It becomes possible.
この場合、ユーザ操作部は、上述したように、グラフィック表示部により表示パネルに表示された特徴エリアの表示を用い、例えば表示パネル上に配置されたタッチパネルの押圧操作により、設定および解除を行うように、構成されてもよい。ユーザは、このように表示パネルの特徴エリアの表示を用いて設定および解除を行うことで、設定および解除の操作を容易に行うことができる。また、この場合、グラフィック表示部により、切り出し対象から除外された所定の特徴エリアの表示態様が変化するようにされることで、ユーザは、所定の特徴エリアが切り出し対象から除外されたことを容易に確認することが可能となる。 In this case, as described above, the user operation unit uses the display of the feature area displayed on the display panel by the graphic display unit, and performs setting and cancellation, for example, by pressing the touch panel arranged on the display panel. Alternatively, it may be configured. The user can easily perform the setting and canceling operations by performing the setting and canceling using the display of the characteristic area of the display panel. In this case, the graphic display unit changes the display mode of the predetermined feature area excluded from the cutout target, so that the user can easily exclude the predetermined feature area from the cutout target. It becomes possible to confirm.
また、この発明において、例えば、特徴エリア検出部は、周期的に、被写体の撮像画像に対応した画像情報に基づいて特徴エリアを検出し、特徴エリア検出部は、ユーザ操作部により切り出し対象から除外することが設定された所定の特徴エリアの画像情報を記憶する記憶部と、特徴エリア検出部で検出された特徴エリアの画像情報と記憶部に記憶されている画像情報とを比較して、特徴エリア検出部で検出された特徴エリアが、切り出し対象から除外することが設定された所定の特徴エリアに対応した特徴エリアであるか否かの判断を行う除外判断部とを有し、切り出し範囲決定部は、特徴エリア検出部で検出された特徴エリアの位置情報および除外判断部の判断結果に基づいて、特徴エリア検出部で検出された特徴エリアのうち、ユーザ操作部で上記切り出し対象から除外された特徴エリアを除く他の特徴エリアを含む切り出し範囲を決定する、ようにされてもよい。 In the present invention, for example, the feature area detection unit periodically detects the feature area based on image information corresponding to the captured image of the subject, and the feature area detection unit is excluded from the cut target by the user operation unit. The storage unit that stores the image information of the predetermined feature area that is set to be compared with the image information of the feature area detected by the feature area detection unit and the image information stored in the storage unit An exclusion determination unit that determines whether or not the feature area detected by the area detection unit is a feature area corresponding to a predetermined feature area that is set to be excluded from the extraction target; The unit is based on the position information of the feature area detected by the feature area detection unit and the determination result of the exclusion determination unit, and among the feature areas detected by the feature area detection unit, Determining a clipping range that includes the other features area excluding the feature area excluded from the cut target at work section, it may be adapted.
このように切り出し対象から除外することが設定された所定の特徴エリアの画像情報を記憶部に記憶しておき、周期的に検出された特徴エリアの画像情報を記憶部に記憶された画像情報と比較して、当該検出された特徴エリアが切り出し対象から除外されたものであるかを判断する構成とすることで、切り出し対象から除外された特徴エリアが一旦撮像画像から外れた後再び撮像画像内に入ってきた場合にあっても、当該特徴エリアに対しては切り出し対象から除外されたものであるとの取り扱いを継続できる。 The image information of the predetermined feature area set to be excluded from the extraction target is stored in the storage unit, and the image information of the feature area detected periodically is stored in the storage unit. In comparison, it is configured to determine whether or not the detected feature area is excluded from the extraction target, so that the feature area excluded from the extraction target is once out of the captured image and then again in the captured image. Even in the case of entering, it is possible to continue to handle the feature area as being excluded from the extraction target.
また、この発明において、例えば、特徴エリアに含まれる上記被写体の特徴的な部分は人間の顔であり、特徴エリア検出部は、被写体の撮像画像に対応した画像情報に基づいて検出された特徴エリア内の顔が発声者の顔か否かの判断を行う発声者判断部を有し、切り出し範囲決定部は、特徴エリア検出部で検出された特徴エリアの位置情報および発声者判断部の判断結果に基づいて、特徴エリア検出部で検出された特徴エリアに発声者の顔が含まれている特徴エリアがあるとき、この発声者の顔が含まれる特徴エリアを含む切り出し範囲を決定する、ようにされてもよい。この場合、発声者の顔が含まれる特徴エリアを含むように切り出し範囲が決定されるため、発声者の顔を中心とした画像情報を切り出して伝送することが可能となる。 In the present invention, for example, the characteristic part of the subject included in the feature area is a human face, and the feature area detection unit detects the feature area based on image information corresponding to the captured image of the subject. A speaker determination unit that determines whether or not the face of the speaker is the face of the speaker, and the cutout range determination unit includes the position information of the feature area detected by the feature area detection unit and the determination result of the speaker determination unit When the feature area detected by the feature area detection unit includes a feature area that includes the speaker's face, the cutout range including the feature area that includes the speaker's face is determined. May be. In this case, since the cutout range is determined so as to include the feature area including the face of the speaker, the image information centered on the face of the speaker can be cut out and transmitted.
例えば、音声レベル検出部で検出された音声レベルが閾値以上であるときのみ、上述したように発声者の顔の特徴エリアを含むように切り出し範囲が決定されてもよい。この場合、発声者判断部による判断誤りを補完することが可能となる。つまり、発声者判断部において発声者の顔であるとの判断に誤りがある場合、音声レベルが閾値より小さくなることが予想され、発声者判断部による判断が誤りであることがわかる。なお、この場合、発声者の顔が含まれる特徴エリアの大きさが大きくなる程閾値が大きくされることで、安定した発声者の検出が可能となる。 For example, the cutout range may be determined so as to include the feature area of the speaker's face as described above only when the sound level detected by the sound level detection unit is equal to or greater than the threshold value. In this case, it becomes possible to supplement the determination error by the speaker determination unit. That is, when there is an error in the determination of the speaker's face in the speaker determination unit, the voice level is expected to be smaller than the threshold, and it can be seen that the determination by the speaker determination unit is incorrect. In this case, as the size of the feature area including the face of the speaker increases, the threshold is increased, so that the speaker can be detected stably.
また、この発明において、例えば、話者検出モードのオンまたはオフを設定するユーザ設定部をさらに備え、切り出し範囲決定部は、ユーザ設定部で話者検出モードオンに設定されている場合、特徴エリア検出部で検出された特徴エリアに発声者の顔が含まれる特徴エリアがあるとき、この発声者の顔が含まれる特徴エリアを含む切り出し範囲を決定する、ようにされてもよい。この場合、ユーザは、ユーザ設定部により、切り出し範囲に、検出された全ての特徴エリアを含ませるか、あるいは発声者の顔が含まれる特徴エリアを中心に含ませるかを、選択できる。 Further, in the present invention, for example, a user setting unit that sets on / off of the speaker detection mode is further provided, and the cut-out range determination unit has a feature area when the speaker detection mode is set on by the user setting unit. When the feature area detected by the detection unit includes a feature area including the face of the speaker, a cutout range including the feature area including the face of the speaker may be determined. In this case, the user can use the user setting unit to select whether to include all the detected feature areas in the cutout range or to include at the center the feature area including the face of the speaker.
例えば、話者検出モードの設定状態は、グラフィック表示部により、表示パネルに表示される。これにより、ユーザは、話者検出モードがオンにあるかオフにあるかを容易に確認できる。この場合、ユーザ設定部は、上述の話者検出モードの設定状態の表示を用い、例えば表示パネル上に配置されたタッチパネルの押圧操作により、オンまたはオフを設定する、構成とされてもよい。ユーザは、このように表示パネルの話者検出モードの設定状態の表示を用いてオンまたはオフの設定を行うことで、設定操作を容易に行うことができる。 For example, the setting state of the speaker detection mode is displayed on the display panel by the graphic display unit. Thereby, the user can easily confirm whether the speaker detection mode is on or off. In this case, the user setting unit may be configured to use the display of the setting state of the speaker detection mode described above, and to set on or off by, for example, pressing a touch panel arranged on the display panel. The user can easily perform the setting operation by performing the setting of ON or OFF using the display of the setting state of the speaker detection mode on the display panel in this way.
また、この発明において、例えば、特徴エリア検出部は、周期的に、被写体の撮像画像に対応した画像情報に基づいて特徴エリアを検出し、切り出し範囲決定部は、周期的に、特徴エリア検出部で検出された特徴エリアの位置情報に基づいて、この検出された特徴エリアを含む切り出し範囲を決定し、切り出し範囲のロックモードのオンまたはオフを設定するユーザ設定部をさらに備え、切り出し範囲決定部は、ユーザ設定部でロックモードオンに設定される場合、切り出し範囲を前回に決定された切り出し範囲にロックする、ようにされてもよい。この場合、ユーザは、ユーザ設定部により、切り出し範囲を固定するか、あるいは特徴エリアの検出結果に応じて切り出し範囲を変化させるかを、選択できる。 In the present invention, for example, the feature area detection unit periodically detects a feature area based on image information corresponding to the captured image of the subject, and the cutout range determination unit periodically detects the feature area detection unit. A cutout range determination unit further comprising: a user setting unit that determines a cutout range including the detected feature area based on the position information of the feature area detected in step S1 and sets on / off of a lock mode of the cutout range. When the lock mode is set to ON in the user setting unit, the cutout range may be locked to the previously determined cutout range. In this case, the user can select whether to fix the cutout range or change the cutout range according to the detection result of the feature area by the user setting unit.
例えば、ロックモードの設定状態は、グラフィック表示部により、表示パネルに表示される。これにより、ユーザは、ロックモードがオンにあるかオフにあるかを容易に確認できる。この場合、ユーザ設定部は、上述のロックモードの設定状態の表示を用い、例えば表示パネル上に配置されたタッチパネルの押圧操作により、オンまたはオフを設定する、構成とされてもよい。ユーザは、このように表示パネルのロックモードの設定状態の表示を用いてオンまたはオフの設定を行うことで、設定操作を容易に行うことができる。 For example, the setting state of the lock mode is displayed on the display panel by the graphic display unit. Thereby, the user can easily confirm whether the lock mode is on or off. In this case, the user setting unit may be configured to use the display of the setting state of the lock mode described above, and to set on or off by, for example, pressing a touch panel arranged on the display panel. The user can easily perform the setting operation by performing the setting of ON or OFF using the display of the setting state of the lock mode of the display panel as described above.
この発明によれば、被写体の特徴的な部分を含む特徴エリアが含まれるように切り出し範囲を決定し、この切り出し範囲の画像情報を伝送するものであり、特徴エリアの検出個数が変化する場合であってもユーザは手動で切り出し範囲を調整する必要がなく、ユーザの使い勝手の向上を図ることができる。 According to the present invention, the cutout range is determined so that the feature area including the characteristic part of the subject is included, and the image information of the cutout range is transmitted, and the detected number of feature areas changes. Even if it exists, the user does not need to manually adjust the cutout range, and the user-friendliness can be improved.
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としてのビデオカメラ(カムコーダ)100の構成例を示している。このビデオカメラレコーダ100は、USB(Universal Serial Bus)ビデオストリーミング画像の出力を可能とするものである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration example of a video camera (camcorder) 100 as an embodiment. This
このビデオカメラ100は、制御部101と、ユーザ操作部102とを有している。また、このビデオカメラ100は、イメージャ111と、撮像処理部112と、ベースバンド処理部113と、マイクロホン115と、A/D変換器116と、圧縮/伸長部117と、記録/再生部118とを有している。
The
また、ビデオカメラ100は、インタフェース121と、D端子122と、D/A変換器123と、音声出力端子124とを有している。また、ビデオカメラ100は、重畳部131と、LCDドライバ132と、LCDパネル133と、OSD部134と、タッチパネル135と、座標検出部136とを有している。さらに、ビデオカメラ100は、画像圧縮部141と、USB制御部142と、USBインタフェース143と、特徴エリア検出部144とを有している。
The
制御部101は、ビデオカメラ100の各部を制御する。制御部101は、CPU103、フラッシュROM104およびSDRAM105を備えている。フラッシュROM104は、CPU103の制御プログラム等を記憶している。SDRAM105は、CPU220の制御処理に必要なデータの一時記憶等に用いられる。CPU103は、フラッシュROM104から読み出したプログラムやデータをSDRAM105上に展開してプログラムを起動し、ビデオカメラ100の各部を制御する。
The
また、制御部101は、切り出し範囲決定部106および話者音声検出部107を備えている。切り出し範囲決定部106は、例えば、USBインタフェース143がUSBケーブルを介して外部機器に接続されており、ビデオミーティングモードにあるとき、特徴エリア検出部140で検出された特徴エリアの位置情報に基づいて、この検出された特徴エリアを含むように切り出し範囲を決定する。この切り出し範囲決定部106の処理の詳細については後述する。
In addition, the
話者音声検出部107は、A/D変換器116から出力される音声データ(音声情報)に基づいて音声レベルを検出し、この音声レベルが閾値以上であるか否かを判断する。この意味で、話者音声検出部107は、音声レベル検出部およびレベル判断部を構成している。この話者音声検出部107の処理の詳細については後述する。
The speaker
後述するように、話者音声検出部107の検出結果は、特徴エリアに含まれる顔が発声者の顔であると判断される際に、その判断を補完するために使用される。すなわち、特徴エリアに含まれる顔が発声者の顔であると判断され、かつ、音声レベルが閾値以上であると判断される場合に、特徴エリアに含まれる顔が発声者の顔であるとの判断が確定し、それに基づいて、上述の切り出し範囲決定部106では、発声者の顔が含まれる特徴エリアを含むように、切り出し範囲が決定される。
As will be described later, the detection result of the speaker
ユーザ操作部102は、ユーザインタフェースを構成し、制御部101に接続されている。このユーザ操作部102は、ビデオカメラ100の図示しない筐体面に配置されたキー、釦、ダイアル等で構成される。ユーザは、ユーザ操作部102を用いて、ビデオカメラ100の記録、再生等を操作できる。
The user operation unit 102 constitutes a user interface and is connected to the
イメージャ111は、例えば、C−MOS(Complementary Metal Oxide Semiconductor)撮像素子、あるいはCCD(Charge Coupled Device)撮像素子により構成される。撮像処理部112は、イメージャ111で得られる撮像信号を処理して、被写体の撮像画像に対応した画像データ(画像情報)を生成する。撮像処理部112では、例えば、イメージャ111から出力される撮像信号(アナログ信号)に対し、サンプルホールドおよび利得制御、アナログ信号からデジタル信号への変換、さらにホワイトバランス調整、ガンマ補正等の処理が行われる。A/D変換器116は、マイクロホン115で得られた音声信号をアナログ信号からデジタル信号に変換して、上述の撮像処理部112で得られる撮像画像データに対応した音声データを得る。
The
ベースバンド処理部113は、撮像処理部112で生成された画像データを一時的に蓄積するためのSDRAM114を備えている。ベースバンド処理部113は、撮像処理部112で生成された画像データを、重畳部131を通じてLCDドライバ132に供給する。また、ベースバンド処理部113は、記録時に、撮像処理部112で生成された画像データおよびA/D変換器116で得られた音声データを、圧縮/伸長部117に供給する。
The
また、ベースバンド処理部113は、再生時に、圧縮/伸長部117で得られた再生画像データを、重畳部131を通じてLCDドライバ132に供給すると共に、インタフェース121を通じてD端子122に出力する。インタフェース121は、ベースバンド処理部113からの画像データを、デジタル信号からアナログ信号に変換する。また、ベースバンド処理部113は、再生時に、圧縮/伸長部117で得られた再生音声データを、D/A変換器123を通じて音声出力端子124に出力する。D/A変換器123は、ベースバンド処理部113からの音声データを、デジタル信号からアナログ信号に変換する。
The
また、ベースバンド処理部113は、例えば、USBインタフェース143がUSBケーブルを介して外部機器に接続されており、ビデオミーティングモードにあるとき、以下の処理を行う。すなわち、撮像処理部112で生成された画像データから、切り出し範囲決定部106で決定された切り出し範囲の画像データを切り出す。この意味で、ベースバンド処理部113は、画像切り出し部を構成する。また、この切り出し範囲の画像データを、ストリーミングサイズ、例えば、640×480画素(VGA:Video Graphics Array)、あるいは320×240画素(QVGA:QuarterVideo Graphics Array)に解像度変換(スケーリング処理)して、画像圧縮部141に供給する。
For example, when the
圧縮/伸長部117は、記録時には、画像データと音声データを、例えば、MPEG(Moving Picture Experts Group)方式でデータ圧縮し、データ圧縮した画像データと音声データとを多重化する。また、圧縮/伸長部117は、再生時には、記録/再生部118から供給されるMPEG信号から画像データと音声データを分離し、さらに伸長処理を施してデータ圧縮処理前の画像データと音声データを復元して、ベースバンド処理部113に供給する。
At the time of recording, the compression /
記録/再生部118は、記録時には、圧縮/伸長部117で生成されたMPEG信号を、記録メディア119に記録する。また、記録再生部118は、再生時には、記録メディア119から読み出し、MPEG信号を得る。例えば、記録メディア119は、光ディスク、ハードディスク、磁気テープ、半導体メモリなどである。
The recording /
OSD(On Screen Display)回路134は、制御部101の制御のもと、GUI画面用の表示信号を発生する。この表示信号としては、特徴エリア検出部140で検出された特徴エリアを示す表示信号、切り出し範囲決定部106で決定された切り出し範囲を示す表示信号等がある。ここで、制御部101およびOSD部134は、グラフィック表示部を構成している。
An OSD (On Screen Display)
重畳部131は、ベースバンド処理部113から供給される画像データ(撮像画像データ、再生画像データ)に、OSD部134からの画面表示信号を重畳して、LCDドライバ132に供給する。LCDドライバ132は、重畳部131から供給される画像データに基づいて、LCDパネル133を駆動し、このLCDパネル133に撮像画像または再生画像を表示する。
The superimposing
上述したように、重畳部131で画像データにGUI画面用の表示信号が重畳されることで、LCDパネル133に表示される撮像画像、あるいは再生画像は、GUI画面が重畳されたものとなる。タッチパネル135は、LCDパネル133の画面上の位置を指定する位置指定部を構成しており、LCDパネル133の画面上に配置されている。ユーザは、LCDパネル133上に配置されたタッチパネル135を用いて、撮像時においては撮像動作、記録動作等、再生時においては再生動作等を操作可能となる。
As described above, when the display signal for the GUI screen is superimposed on the image data by the superimposing
このタッチパネル135は、座標検出部136を介して制御部101に接続されている。ユーザは、タッチパネル135を、指で直接触れるか、あるいはペンで触れるかして、画面上の位置を指定できる。
The
画像圧縮部141は、例えば、USBインタフェース143がUSBケーブルを介して外部機器に接続されており、ビデオミーティングモードにあるとき、ベースバンド処理部113から供給されるストリーミングサイズの画像データに対してデータ圧縮の処理を行う。画像圧縮部141は、例えば、モーションJPEG(Joint Photographic Experts Group)等の圧縮方式を用いる。
For example, when the
USB制御部142は、USBインタフェース143を介した通信の制御を行う。USBインタフェース143は、通信ケーブル(USBケーブル)を装着するための図示しないコネクタ等により構成される。USB制御部142およびUSBインタフェース143は、画像伝送部を構成している。USBインタフェース143は、USBケーブルを通じて、外部機器、例えばPC(Personal Computer)等とのデータの送受信を行う。
The
特徴エリア検出部144は、例えば、USBインタフェース143がUSBケーブルを介して外部機器に接続されており、ビデオミーティングモードにあるとき、以下の処理を行う。すなわち、特徴エリア検出部144は、ベースバンド処理部113のSDRAM114に一時的に蓄積された撮像画像データに基づいて、被写体の特徴的な部分を含む矩形領域としての特徴エリアを検出する。この実施の形態において、被写体の特徴的な部分は、人間の顔とされる。この特徴エリア検出部144の処理の詳細については後述する。
For example, when the
図1に示すビデオカメラ100の動作を説明する。
The operation of the
最初に、撮像時、記録時の動作を説明する。 First, operations during imaging and recording will be described.
イメージャ111で得られた撮像信号は撮像処理部112に供給されて処理され、この撮像処理部112からは被写体の撮像画像に対応した画像データ(画像情報)が得られる。また、マイクロホン115で得られた音声信号はA/D変換器116に供給され、アナログ信号からデジタル信号に変換されて、撮像画像データに対応した撮像音声データが得られる。撮像処理部112で得られた撮像画像データおよびA/D変換器116で得られた撮像音声データは、ベースバンド処理部113に供給される。
The imaging signal obtained by the
ベースバンド処理部113に供給された撮像画像データは、重畳部131を通じて、LCDドライバ132に供給される。これにより、LCDパネル133には撮像画像が表示され、ユーザはその表示により撮像画像の確認が可能となる。
The captured image data supplied to the
この状態で、制御部101の制御のもと、OSD部134では、撮像動作、記録動作等をユーザが操作するために使用されるGUI画面用の表示信号が発生される。この表示信号は、重畳部131に供給されて、ベースバンド処理部113から供給される撮像画像データに重畳される。
In this state, under the control of the
これにより、LCDパネル133に表示される撮像画像には、撮像動作、記録動作等をユーザが操作するために使用されるGUI画面が重ねて表示される。そのため、ユーザは、LCDパネル133上に配置されたタッチパネル135を用いて、撮像動作、記録動作等を操作できる。なお、ユーザは、ユーザ操作部102を構成するキー等を用いても同様に撮像動作、記録動作等を操作できる。
As a result, a GUI screen used for the user to operate the imaging operation, the recording operation, and the like is displayed on the captured image displayed on the
上述の撮像状態において、ユーザの記録指示があると、撮像画像データおよび撮像音声データの記録動作が開始される。すなわち、ベースバンド処理部113から撮像画像データおよび撮像音声データが圧縮/伸長部117に供給される。そして、圧縮/伸長部117では、画像データと音声データがそれぞれ例えばMPEG方式でデータ圧縮され、その後に双方が多重化されてMPEG信号が得られる。このMPEG信号は記録/再生部118に供給され、記録メディア119に記録される。
In the above-described imaging state, when the user gives a recording instruction, the recording operation of the captured image data and the captured audio data is started. That is, the captured image data and the captured audio data are supplied from the
次に、再生時の動作について説明する。 Next, the operation during reproduction will be described.
記録/再生部118では、記録メディア119からMPEG信号が読み出される。このMPEG信号は圧縮/伸長部117に供給される。この圧縮/伸長部117では、記録/再生部118から供給されるMPEG信号から画像データおよび音声データが分離され、さらに伸長処理が施されて、データ圧縮処理前の画像データと音声データが得られる。これら再生画像データおよび再生音声データはベースバンド処理部113に供給される。
The recording / reproducing
ベースバンド処理部131に供給された再生画像データは、重畳部131を通じて、LCDドライバ132に供給される。これにより、LCDパネル133には再生画像が表示され、ユーザはその表示により再生画像の確認が可能となる。
The reproduced image data supplied to the
この状態で、制御部101の制御のもと、OSD部134では、再生動作等をユーザが操作するために使用されるGUI画面用の表示信号が発生される。この表示信号は、重畳部131に供給されて、ベースバンド処理部113から供給される再生画像データに重畳される。
In this state, under the control of the
これにより、LCDパネル133に表示される再生画像には、再生動作等をユーザが操作するために使用されるGUI画面が重ねて表示される。そのため、ユーザは、LCDパネル133上に配置されたタッチパネル135を用いて、再生動作等を操作できる。なお、ユーザは、ユーザ操作部102を構成するキー等を用いても同様に再生動作等を操作できる。
As a result, the GUI image used for the user to operate the reproduction operation or the like is displayed on the reproduction image displayed on the
また、圧縮/伸長部117からベースバンド処理部113に供給される再生画像データは、インタフェース121でデジタル信号からアナログ信号に変換され、D端子122に出力される。同様に、圧縮/伸長部117からベースバンド処理部113に供給される再生音声データは、D/A変換器123でデジタル信号からアナログ信号に変換され、音声出力端子124に出力される。
The reproduced image data supplied from the compression /
次に、例えば、USBインタフェース143がUSBケーブルを介して外部機器、例えばPC(Personal Computer)等に接続されており、ビデオミーティングモードにあるときの各部の動作について説明する。
Next, for example, the operation of each unit when the
ビデオミーティングモードにあるとき、ビデオカメラ100の特徴エリア検出部144、制御部106、ベースバンド処理部113およびUSB制御部142は、1フレーム毎に、図2のフローチャートに沿って処理を行う。
When in the video meeting mode, the feature
まず、ステップST1において、特徴エリア検出部144は、被写体の撮像画像に対応した画像データ(画像情報)に基づいて、被写体の特徴的な部分、この実施の形態においては顔を含む特徴エリアを検出する。特徴エリア検出部144は、検出した特徴エリアの領域座標(領域情報)を制御部101に供給する。
First, in step ST1, the feature
次に、ステップST2において、制御部101の切り出し範囲決定部106は、特徴エリア検出部144で検出された特徴エリアの領域座標に基づいて、この検出された特徴エリアを含む切り出し範囲を決定する。切り出し範囲決定部106は、決定した切り出し範囲の領域座標(領域情報)をベースバンド処理部113に供給する。
Next, in step ST <b> 2, the cutout
次に、ステップST3において、ベースバンド処理部113は、切り出し範囲決定部106で決定された切り出し範囲の領域座標に基づいて、被写体の撮像画像に対応した画像情報から切り出し範囲の画像情報を切り出す。さらに、ベースバンド処理部113は、切り出された画像情報に対して、ストリーミングサイズ(例えば、640×480画素、320×240画素等)に解像度変換して、画像圧縮部141に供給する。
Next, in step ST <b> 3, the
次に、ステップST4において、USB制御部142は、画像圧縮部141でデータ圧縮処理が施された切り出し範囲の画像データを伝送情報としてUSBインタフェース143に出力する。
Next, in step ST <b> 4, the
ここで、ビデオミーティングモードの選択操作について説明する。ビデオカメラ100においては、USBインタフェース143がUSBケーブルを介して外部機器に接続されるとき、どのUSBデバイス(プロトコル)を使用して通信するかを、予めビデオカメラ100のセットアップメニューから選択できるようになっている。図3は、ビデオカメラ100のLCDパネル133に表示される、セットアップメニューの選択例を示している。
Here, the video meeting mode selection operation will be described. In the
この選択例で「マスストレージ」、「PictBridge」、「ビデオストリーミング」または「ビデオミーティング」のいずれかのモードの選択が可能とされている。ユーザは、例えば、タッチパネル135の各モードの表示箇所を押圧操作することで、所望のモードを選択できる。図3の選択例では、カーソルCAが「ビデオミーティング」の表示位置に移動した状態にあり、「ビデオミーティング」が選択されていることが分かる。
In this selection example, a mode of “mass storage”, “PictBridge”, “video streaming”, or “video meeting” can be selected. For example, the user can select a desired mode by pressing the display location of each mode on the
上述したようにセットアップメニューで「ビデオミーティング」を選択し、USBインタフェース143をUSBケーブルで外部機器と接続することで、ビデオストリーム画像を伝送するビデオミーティングモードとなる。図4は、USBケーブルで外部機器と接続する過程におけるLCDパネル133の画像表示例を示している。
As described above, “video meeting” is selected in the setup menu, and the
図4(a)は、接続前の状態、すなわち通常モードの表示状態を示している。この表示状態では、撮像画像が表示されている。図4(b)は、接続直後の状態を示しており、USB接続準備画面(黒画面)が表示された状態となる。図4(c)は、接続されて所定時間が経過した後の状態、すなわちビデオミーティングモードの表示状態を示している。この表示状態では、撮像画像が表示され、さらにそれに重ねて、検出された特徴エリアを示す枠ARaと、決定された切り出し範囲を示す枠ARbが表示される。 FIG. 4A shows a state before connection, that is, a display state in the normal mode. In this display state, a captured image is displayed. FIG. 4B shows a state immediately after connection, and a USB connection preparation screen (black screen) is displayed. FIG. 4C shows a state after a predetermined time has elapsed since the connection, that is, a display state of the video meeting mode. In this display state, a captured image is displayed, and a frame ARa indicating the detected feature area and a frame ARb indicating the determined cutout range are further displayed over the captured image.
また、ビデオミーティングモードのサブモードとして、ロックモードと話者検出モードが用意されている。ロックモードは、現在伝送しているビデオストリーム画像の切り出し範囲(画枠)をロックするモードである。話者検出モードは、発声者の顔が含まれている特徴エリアがあるとき、その特徴エリアを含むように切り出し範囲を決定するモードである。 Also, a lock mode and a speaker detection mode are prepared as submodes of the video meeting mode. The lock mode is a mode for locking the cutout range (image frame) of the currently transmitted video stream image. In the speaker detection mode, when there is a feature area including the face of the speaker, the cutout range is determined so as to include the feature area.
図4(c)に示すように、ビデオミーティングモードの表示状態では、GUI表示として、上述した枠ARa,ARbの表示の他に、ロックモードのオン(ロック)またはオフ(アンロック)の設定ボタンBTaおよび話者検出モードのオンまたはオフを設定する設定ボタンBTbも表示される。なお、枠ARa,ARbおよび設定ボタンBTa,BTbの表示信号は、制御部101の制御により、OSD部134で発生されて、重畳部131で撮像画像データに重畳される。
As shown in FIG. 4C, in the display state of the video meeting mode, as the GUI display, in addition to the display of the frames ARa and ARb described above, the lock mode ON (locked) or OFF (unlocked) setting button A setting button BTb for setting on / off of BTa and speaker detection mode is also displayed. The display signals of the frames ARa and ARb and the setting buttons BTa and BTb are generated by the
ユーザは、LCDパネル133上に配置されたタッチパネル135の設定ボタンBTaに対応した部分を押圧操作することで、ロックモードを、オンからオフへ、さらにオフからオンへと、トグル的に切り替えることができる。この場合、設定ボタンBTaの文字表示は、ロックモードオンのときは「ロック」となり、ロックモードオフのときは「アンロック」となる。図4(c)の設定ボタンBTaの文字表示は、ロックモードがオン(ロック)であることを示している。
The user can toggle the lock mode from on to off and from off to on by pressing the part corresponding to the setting button BTa of the
また、ユーザは、LCDパネル133上に配置されたタッチパネル135の設定ボタンBTbに対応した部分を押圧操作することで、話者検出モードを、オンからオフへ、さらにオフからオンへと、トグル的に切り替えることができる。この場合、設定ボタンBTbの文字表示は、話者検出モードオンのときは「話者検出オン」となり、話者検出モードオフのときは「話者検出オフ」となる。図4(c)の設定ボタンBTbの文字表示は、話者検出モードがオンであることを示している。
In addition, the user presses a portion corresponding to the setting button BTb of the
次に、特徴エリア検出部144における特徴エリアの検出動作について説明する。特徴エリア検出部144は、周期的に、この実施の形態においては1フレーム毎に、被写体の撮像画像に対応した画像データ(画像情報)に基づいて、被写体の特徴的な部分として人間の顔を含む特徴エリアを検出する。
Next, a feature area detection operation in the feature
最初、特徴エリア検出部144は、撮像画像から顔画像特有の輝度値の分布パターンを検索することで顔画像を検出する。図5は、顔画像特有の輝度値の分布パターン例を示している。この分布パターン例は、ハッチングを付して示すように、輝度値が高い部分の分布パターンを示している。
First, the feature
次に、特徴エリア検出部144は、検出された顔画像から、図6に示すように、目、口の位置を検出する。この場合、特徴エリア検出部144は、例えば、検出された顔画像を暗い部分と明るい部分にパターン分けすることで、目、口の位置を検出する。
Next, the feature
次に、特徴エリア検出部144は、図7(a)に示すように、目、口の位置からなる矩形エリアを用いて、特徴エリアの矩形領域座標(Left,Top,Right,Bottom)を算出する。すなわち、特徴エリア検出部144は、目、口の位置から、縦の長さがaで横の長さがbの矩形エリアを形成する。
Next, as shown in FIG. 7A, the feature
そして、特徴エリア検出部144は、矩形エリアの左端からさらにbだけ左側の位置をLeftとして求め、矩形エリアの右端からさらにbだけ右側に移動した位置をRightとして求める。また、特徴エリア検出部144は、矩形エリアの上端からさらに2aだけ上側の位置をTopとして求め、矩形エリアの下端からさらにaだけ下側の位置をBottomとして求める。
Then, the feature
図7(b)は、上述したように検出された特徴エリア内に含まれる顔画像の一例を示している。 FIG. 7B shows an example of a face image included in the feature area detected as described above.
特徴エリア検出部144では、上述したように1フレーム毎に、被写体の撮像画像に対応した画像データ(画像情報)に基づいて、撮像画像の特徴エリアを検出する。この場合、検出精度にもよるが、撮像状態の変化が影響する等して、同一の特徴エリアが各フレームで必ずしも連続して検出されるとは限らない。そのため、各フレームで検出される特徴エリアをそのまま用いて切り出し範囲を決定する場合には、切り出し範囲の変化が激しく、極めて安定性に欠けるものとなる。
As described above, the feature
そこで、特徴エリア検出部144は、特徴エリアの有効化処理を行い、有効化された特徴エリアの情報のみを制御部101に送り、切り出し範囲の安定性を図る。特徴エリア検出部144における特徴エリアの有効化処理について説明する。
Therefore, the feature
特徴エリア検出部144は、有効化処理を行うために、SDRAM114に、メインバッファおよび一時バッファを確保する。メインバッファには、前フレームの時点で特徴エリア番号が付与されている各特徴エリアの特徴エリア情報(図14(b)参照)が記憶される。この特徴エリア情報には、特徴エリアを示す座表情報が含まれている。
The feature
また、一時バッファには、現フレームで検出された各特徴エリアの特徴エリア情報(図14(b)参照)が記憶される。 The temporary buffer stores feature area information (see FIG. 14B) of each feature area detected in the current frame.
特徴エリア検出部144は、メインバッファの記憶に係る特徴エリア番号が付与されている各特徴エリアを順次処理対象とする。特徴エリア検出部144は、メインバッファおよび一時バッファに記憶された特徴エリア情報に基づいて、処理対象の特徴エリアと一部または全部が重複する特徴エリアが現フレームで検出された特徴エリアの中にあるか否かを判断する。
The feature
特徴エリア検出部144は、重複する特徴エリアがある場合には、その重複する特徴エリアが処理対象の特徴エリアと同じ特徴エリア番号の特徴エリアであると判断し、処理対象の特徴エリアの検出カウントをインクリメントし、検出カウントが規定値(例えば、30フレーム)以上であるとき、未だ有効な特徴エリアとして登録されていない場合には、登録する。また、特徴エリア検出部144は、重複する特徴エリアがある場合には、この処理対象の特徴エリアの矩形領域座標を重複している現フレームで検出された特徴エリアの矩形領域座標に更新する。
If there is an overlapping feature area, the feature
また、特徴エリア検出部144は、重複する特徴エリアがない場合には、処理対象の特徴エリアの検出カウントをデクリメントする。特徴エリア検出部144は、検出カウントが規定値(例えば、0フレーム)に達するとき、当該処理対象の特徴エリアを、特徴エリア番号の付与対象から削除する。特徴エリア検出部144は、この削除に伴って、メインバッファから当該処理対象の特徴エリアの特徴エリア情報(図14(b)参照)を削除し、さらには登録されている場合にはその登録を削除して、無効化する。
Also, the feature
また、特徴エリア検出部144は、全ての特徴エリアに対して上述の処理を行った後に、処理対象の特徴エリアのいずれとも重複しない特徴エリア(未処理特徴エリア)が現フレームで検出された特徴エリアの中にある場合には、以下の処理を行う。すなわち、特徴エリア検出部144は、現フレームの未処理特徴エリアに、特徴エリア番号を新規に割り当て、その検出カウントを1フレームとする。また、特徴エリア検出部144は、メインバッファに、当該現フレームの未処理特徴エリアの特徴エリア情報(図14(b)参照)を追加記憶する。
In addition, the feature
ここで、メインバッファに、図8(a)に示すように、特徴エリア番号が付与されている特徴エリアARa1,ARa2が記憶されており、一時バッファに、図8(b)に
示すように、現フレームで検出された特徴エリアARa1,ARa2が記憶されている場合を考える。
Here, as shown in FIG. 8A, feature areas ARa1 and ARa2 to which feature area numbers are assigned are stored in the main buffer, and in the temporary buffer, as shown in FIG. 8B, Consider a case where feature areas ARa1 and ARa2 detected in the current frame are stored.
最初に、メインバッファの特徴エリアARa1が処理対象とされる。この特徴エリアARa1は、図9に示すように、一時バッファの特徴エリアARa3と重複している。そのため、特徴エリア検出部144は、一時バッファの特徴エリアARa3が処理対象のメインバッファの特徴エリアARa1と同じ特徴エリア番号の特徴エリアであると判断し、処理対象の特徴エリアARa1の検出カウントをインクリメントし、検出カウントが規定値(例えば、30フレーム)以上であるとき、未だ有効な特徴エリアとして登録されていない場合には、登録する。また、特徴エリア検出部144は、メインバッファの特徴エリアARa1の矩形領域座標を一時バッファの特徴エリアARa3の矩形領域座標に更新する。
First, the feature area ARa1 of the main buffer is set as a processing target. As shown in FIG. 9, the feature area ARa1 overlaps with the temporary buffer feature area ARa3. Therefore, the feature
次に、メインバッファの特徴エリアARa2が処理対象とされる。図9に示すように、一時バッファには、この特徴エリアARa2と重複する特徴エリアはない。そのため、特徴エリア検出部144は、処理対象のメインバッファの特徴エリアARa2の検出カウントをデクリメントし、検出カウントが規定値(例えば、0フレーム)に達するとき、この特徴エリアARa2を特徴エリア番号の付与対象から削除する。
Next, the feature area ARa2 of the main buffer is set as a processing target. As shown in FIG. 9, the temporary buffer does not have a feature area overlapping with the feature area ARa2. Therefore, the feature
メインバッファの特徴エリアARa1,ARa2に対して上述の処理を行った後、一時バッファには、図9に示すように、処理対象の特徴エリアARa1,ARa2のいずれとも重複しない特徴エリアARa4が存在する。特徴エリア検出部144は、この特徴エリアARa4に特徴エリア番号を新規に割り当て、その検出カウントを1フレームとする。また、特徴エリア検出部144は、メインバッファに、この特徴エリアARa4の特徴エリア情報(図14(b)参照)を追加記憶する。
After performing the above-described processing on the feature areas ARa1 and ARa2 of the main buffer, the temporary buffer has a feature area ARa4 that does not overlap with any of the feature areas ARa1 and ARa2 to be processed, as shown in FIG. . The feature
図10のフローチャートは、上述の特徴エリア検出部144における有効化処理の手順を示している。
The flowchart of FIG. 10 shows the procedure of the activation process in the above-described feature
特徴エリア検出部144は、ステップST11において、有効化処理を開始し、その後にステップST12の処理に移る。このステップST12において、特徴エリア検出部144は、メインバッファに未処理の特徴エリアがあるか否かを判断する。未処理の特徴エリアがある場合、特徴エリア検出部144は、ステップST13において、一時バッファに記憶されている各特徴エリアの特徴エリア情報(座表情報)を検索する。つまり、特徴エリア検出部144は、処理対象の特徴エリアと重複する特徴エリアが現フレームで検出された特徴エリアの中にあるか調べる。
In step ST11, the feature
次に、特徴エリア検出部144は、ステップST14において、ステップST13の調査結果に基づいて、処理対象の特徴エリアと重複する特徴エリアが、現フレームで検出された特徴エリアの中にあるか否かを判断する。
Next, in step ST14, the feature
重複する特徴エリアがあるとき、特徴エリア検出部144は、ステップST15において、処理対象の特徴エリアに割り当てられている特徴エリア番号の検出カウントをインクリメントする。そして、特徴エリア検出部144は、ステップST16において、検出カウントが規定値(例えば、30フレーム)以上であるか否かを判断する。
When there are overlapping feature areas, the feature
規定値以上であるとき、特徴エリア検出部144は、ステップST17において、登録済みの特徴エリアであるか否かを判断する。登録済みでないときは、特徴エリア検出部144は、ステップST18において、当該処理対象の特徴エリアを登録して有効化する。
When the value is equal to or greater than the specified value, the feature
特徴エリア検出部144は、ステップST18の処理の後、ステップST19の処理に移る。なお、ステップST16で検出カウントが規定値以上でないとき、およびステップST17で登録済みであるとき、特徴エリア検出部144は、直ちに、ステップST19の処理に移る。
The feature
このステップST19において、特徴エリア検出部144は、処理対象の特徴エリアの矩形領域座標を、重複している現フレームで検出された特徴エリアの矩形領域座標に更新する。特徴エリア検出部144は、ステップST19の処理の後、上述のステップST12の処理に戻り、次の処理対象の処理に移る。
In step ST19, the feature
また、ステップST14で重複する特徴エリアがないとき、特徴エリア検出部144は、ステップST20において、処理対象の特徴エリアに割り当てられている特徴エリア番号の検出カウントをデクリメントする。そして、特徴エリア検出部144は、ステップST21において、検出カウントが規定値(例えば、0フレーム)に達したか否かを判断する。
When there are no overlapping feature areas in step ST14, the feature
検出カウントが規定値に達したとき、特徴エリア検出部144は、ステップST22において、当該処理対象の特徴エリアを、特徴エリア番号の付与対象から削除する。特徴エリア検出部144は、この削除に伴って、メインバッファから当該処理対象の特徴エリアの特徴エリア情報(図14(b)参照)を削除し、さらには登録されている場合にはその登録を削除して、無効化する。
When the detection count reaches the specified value, in step ST22, the feature
特徴エリア検出部144は、ステップST22の処理の後、ステップST12に戻り、次の処理対象の処理に移る。また、ステップST21で検出カウントが規定値に達していないとき、特徴エリア検出部144は、直ちに、ステップST12に戻り、次の処理対象の処理に移る。
After the process of step ST22, the feature
また、ステップST12で未処理の特徴エリアがないとき、特徴エリア検出部144は、ステップST23の処理に移る。このステップST23において、特徴エリア検出部144は、処理対象の特徴エリアのいずれとも重複しない特徴エリア(未処理特徴エリア)が、一時バッファに記憶された現フレームで検出された特徴エリアの中にあるか否かを判断する。
If there is no unprocessed feature area in step ST12, the feature
未処理特徴エリアがあるとき、特徴エリア検出部144は、ステップST24において、現フレームの未処理特徴エリアに、特徴エリア番号を新規に割り当て、その検出カウントを1フレームとする。そして、特徴エリア検出部144は、メインバッファに、当該現フレームの未処理特徴エリアの特徴エリア情報(図14(b)参照)を追加記憶する。一方、未処理特徴エリアがないとき、特徴エリア検出部144は、直ちに、ステップST25の処理に移り、有効化の処理を終了する。
When there is an unprocessed feature area, in step ST24, the feature
次に、特徴エリア検出部144における話者(発声者)の判断動作について説明する。特徴エリア検出部144は、被写体の撮像画像に対応した画像データ(画像情報)に基づいて、検出された各特徴エリア(登録されている有効化された特徴エリア)を順次判断対象の特徴エリアとし、判断対象の特徴エリアに含まれる顔が話者(発声者)の顔か否かを判断する。この意味で、特徴エリア検出部144は発声者判断部を構成する。
Next, a speaker (speaker) determination operation in the feature
最初、特徴エリア検出部144は、判断対象の特徴エリアの撮像画像の口のエリアに着目し、図11(a)に示すように、口の動きを検出する矩形領域ARmを決定する。すなわち、特徴エリア検出部144は、口の上下方向の中心位置からa/2だけ上側の位置を矩形領域ARmの上端として求め、口の上下方向の中心位置からa/2だけ下側の位置を矩形領域ARmの下端として求める。また、特徴エリア検出部144は、口の左右方向の中心位置からbだけ左側の位置を矩形領域ARmの左端として求め、口の左右方向の中心位置からbだけ右側の位置を矩形領域ARmの右端として求める。
First, the feature
ここで、aは、判断対象の特徴エリアの検出時に目、口の位置から形成された矩形エリア(図7(a)参照)の縦(上下方向)の長さである。同様に、bは、判断対象の特徴エリアの検出時に目、口の位置から形成された矩形エリア(図7(a)参照)の横(左右方向)の長さである。図11(b)は、上述したように特徴エリアの撮像画像上に決定された矩形領域ARmの一例を示している。 Here, a is the vertical (vertical direction) length of the rectangular area (see FIG. 7A) formed from the positions of the eyes and mouth when the feature area to be determined is detected. Similarly, b is the horizontal (horizontal direction) length of the rectangular area (see FIG. 7A) formed from the positions of the eyes and mouth when the feature area to be determined is detected. FIG. 11B shows an example of the rectangular area ARm determined on the captured image of the feature area as described above.
次に、特徴エリア検出部144は、上述したように決定された矩形領域ARmに対して、オプティカルフローにより口の動きを示す動きベクトルを検出する。そして、特徴エリア検出部144は、口の動き(動きベクトル)から声を出しているか推定できるとき、判断対象の特徴エリアに含まれる顔が話者(発声者)の顔であると判断する。この場合、判断対象の特徴エリアは、話者の発声が検出された特徴エリアとなる。
Next, the feature
次に、特徴エリア検出部144における除外エリアの判断動作について説明する。上述したように、ビデオミーティングモードの表示状態では、GUI表示として、検出された特徴エリアを示す枠ARaが表示される(図4(c)参照)。ユーザは、LCDパネル133上に配置されたタッチパネル135の所定の特徴エリアの部分を押圧操作することで、この所定の特徴エリアを切り出し対象から除外することを設定でき、またその設定を解除できる。なお、この設定および解除の操作は、LCDパネル133に表示された特徴エリアの表示を用いて、ユーザ操作部102を操作して行うこともできる。
Next, an operation for determining an exclusion area in the feature
上述したように、ユーザの操作によって所定の特徴エリアが除外設定された場合、この所定の特徴エリアの特徴エリア番号が制御部101から特徴エリア検出部144に通知される。特徴エリア検出部144は、内蔵されたSDRAM145に、通知された特徴エリア番号に基づいて、除外設定された所定の特徴エリアの画像データ(画像情報)をストアする。
As described above, when a predetermined feature area is excluded and set by a user operation, the feature area number of the predetermined feature area is notified from the
ここで、所定の特徴エリアが除外設定されるとき、制御部101の制御により、OSD部134で発生される表示信号が変化し、この所定の特徴エリアの表示態様が変化する。図12(a)は除外設定された特徴エリアがない場合の表示状態を示しており、図12(b)は右側の特徴エリアが除外設定された場合の表示状態の一例を示している。
Here, when a predetermined feature area is excluded, the display signal generated by the
特徴エリア検出部144は、SDRAM145に除外設定された特徴エリアの画像データがストアされているとき、検出された各特徴エリア(登録されている有効化された特徴エリア)を順次判断対象の特徴エリアとし、判断対象の特徴エリアが除外設定された特徴エリアであるか否かを判断する。この意味で、特徴エリア検出部144は、除外判断部を構成する。
When the image data of the excluded feature area is stored in the
この場合、特徴エリア検出部144は、判断対象の特徴エリアの画像データとSDRAM145にストアされている特徴エリア画像データとを用いて、判断対象の特徴エリア画像と除外設定された特徴エリア画像との間で従来周知のマッチング演算を行う。特徴エリア検出部144は、マッチング演算結果により双方の画像が一致すると判断するとき、判断対象の特徴エリアは除外設定された特徴エリアであると判断する。
In this case, the feature
図13のフローチャートは、上述した特徴エリア検出部144のビデオミーティングモード時の処理手順を示している。特徴エリア検出部144は、1フレーム毎に、図13のフローチャートの処理を行う。
The flowchart of FIG. 13 shows a processing procedure in the video meeting mode of the feature
特徴エリア検出部144は、ステップST31において、処理を開始し、その後に、ステップST32の処理に移る。このステップST32において、特徴エリア検出部144は、ビデオミーティングモードであるか否かを判断する。ビデオミーティングモードでないとき、特徴エリア検出部144は、直ちにステップST45に移り、処理を終了する。一方、ビデオミーティングモードであるとき、特徴エリア検出部144は、ステップST33の処理に移る。
The feature
このステップST33において、特徴エリア検出部144は、被写体の撮像画像に対応した画像データ(画像情報)に基づいて、被写体の特徴的な部分として人間の顔を含む特徴エリアを検出する(図5〜図7参照)。そして、特徴エリア検出部144は、ステップST34において、ステップST33で検出された特徴エリアと、前のフレームの時点で特徴エリア番号が付与されている特徴エリアとに基づいて、特徴エリアの有効化処理を行う(図8〜図10参照)。
In step ST33, the feature
次に、特徴エリア検出部144は、ステップST35において、話者(発声者)判断および除外エリア判断に関して、未処理の特徴エリア(登録されている有効化された特徴エリア)があるか否かを判断する。未処理の特徴エリアがあるときは、ステップST36において、特徴エリア検出部144は、SDRAM145に除外設定された特徴エリアの画像データ(画像情報)がストアされているか否かを判断する。
Next, in step ST <b> 35, the feature
除外設定された特徴エリアの画像データがストアされているとき、特徴エリア検出部144は、ステップST37において、判断対象の特徴エリアの画像データとSDRAM145にストアされている特徴エリア画像データとを用いて、判断対象の特徴エリア画像と除外設定された特徴エリア画像との間で従来周知のマッチング演算を行う。
When the image data of the excluded feature area is stored, the feature
次に、特徴エリア検出部144は、ステップST38において、ステップST37で得られたマッチング演算結果に基づいて、判断対象の特徴エリア画像と除外設定された特徴エリア画像とが一致するか否かを判断する。
Next, in step ST38, the feature
一致すると判断するとき、特徴エリア検出部144は、ステップST39において、判断対象の特徴エリア情報の「特徴エリアマッチング結果」の項目の値として、除外設定された特徴エリアにマッチすることを示す「true」を設定する。一方、一致しないと判断するとき、特徴エリア検出部144は、ステップST40において、判断対象の特徴エリア情報の「特徴エリアマッチング結果」の項目の値として、除外設定された特徴エリアにマッチしないことを示す「false」を設定する。
When determining that they match, in step ST39, the feature
特徴エリア検出部144は、ステップST39またはステップST40の処理の後、ステップST41の処理に移る。このステップST41において、特徴エリア検出部144は、口の動きを検出する矩形領域ARm決定し(図11参照)、その矩形領域ARmに対して、オプティカルフローにより口の動きを示す動きベクトルを検出する。そして、特徴エリア検出部144は、ステップST42において、口の動き(動きベクトル)から声を出しているか否か、つまり判断対象の特徴エリアに含まれる顔が話者(発声者)の顔であるか否かを判断する。
The feature
話者の顔であると判断するとき、特徴エリア検出部144は、ステップST43において、判断対象の特徴エリア情報の「話者の発声検出結果」の項目の値として、特徴エリア内の顔は発声していることを示す「true」を設定する。一方、話者の顔でないと判断するとき、特徴エリア検出部144は、ステップST44において、判断対象の特徴エリア情報の「話者の発声検出結果」の項目の値として、特徴エリア内の顔は発声していないことを示す「false」を設定する。
When determining that the face is the speaker's face, in step ST43, the feature
特徴エリア検出部144は、ステップST43またはステップST44の処理をした後、ステップST35に戻り、次の処理対象の処理に移る。また、ステップST35で未処理の特徴エリアがないとき、特徴エリア検出部144は、直ちにステップST45に進み、処理を終了する。
The characteristic
特徴エリア検出部144から制御部101には、フレーム毎に、上述した特徴エリア検出処理の結果として、登録されている有効化された特徴エリアの情報が供給される。図14(b)は、特徴エリア情報の一例を示している。この特徴エリア情報には、その特徴エリアに付与された特徴エリア番号の値が含まれる。図示のように、この実施の形態においては、特徴エリア番号として、0〜20の間の番号が付与される。
The information about the activated feature area registered is supplied to the
また、特徴エリア情報には、特徴エリアを示す矩形領域座標(Left,Top,Right,Bottom)の値が含まれる。この座標では、例えば、図14(a)に示すように、左上の位置が原点(0ピクセル,0ピクセル)とされる。図示のように、この実施の形態においては、左端座標Leftおよび右端座標Rightは、0〜3200ピクセルの間の値となる。また、図示のように、この実施の形態においては、上端座標Topおよび下端座標Bottomは、0〜2400ピクセルの間の値となる。 Further, the feature area information includes values of rectangular region coordinates (Left, Top, Right, Bottom) indicating the feature area. In this coordinate, for example, as shown in FIG. 14A, the upper left position is the origin (0 pixel, 0 pixel). As shown in the figure, in this embodiment, the left end coordinate Left and the right end coordinate Right are values between 0 and 3200 pixels. Further, as illustrated, in this embodiment, the upper end coordinate Top and the lower end coordinate Bottom are values between 0 and 2400 pixels.
また、特徴エリア情報には、除外設定された特徴エリアにマッチするか否かを示す「特徴エリアマッチング結果」、および特徴エリア内の顔が発声しているか否かを示す「話者の発声検出結果」が含まれる。 The feature area information includes a “feature area matching result” indicating whether or not the feature area that is excluded is matched, and “speaker utterance detection” indicating whether or not a face in the feature area is uttered. "Result" is included.
次に、制御部106の切り出し範囲決定部106における切り出し範囲の決定動作について説明する。
Next, the cutout range determination operation in the cutout
切り出し範囲決定部106は、特徴エリア検出部144で検出された特徴エリア(登録されている有効化された特徴エリア)の情報に基づいて、基本的には、全ての特徴エリアを含むように、切り出し範囲ARbを決定する。この実施の形態において、切り出し範囲決定部106は、さらに、ビデオストリーム画像のアスペクト比となるように切り出し範囲ARbを調整する。
Based on the information of the feature area (registered activated feature area) detected by the feature
ここで、検出された特徴エリア(一個または複数個の特徴エリア)の、最左端の値をL、最上端の値をT、最右端の値をR、最下端の値をBとする。また、検出された特徴エリアの最上端から切り出し範囲ARbの上端までの距離および検出された特徴エリアの最下端から切り出し範囲ARbの下端までの距離をaとする。また、検出された特徴エリアの最左端から切り出し範囲ARbの左端までの距離および検出された特徴エリアの最右端から切り出し範囲ARbの右端までの距離をbとする。さらに、ビデオストリーム画像のアスペクト比をh:vとする。 Here, in the detected feature area (one or a plurality of feature areas), the leftmost value is L, the highest value is T, the rightmost value is R, and the lowest value is B. Further, the distance from the uppermost end of the detected feature area to the upper end of the cutout area ARb and the distance from the lowermost end of the detected feature area to the lower end of the cutout area ARb are set as a. Also, let b be the distance from the leftmost end of the detected feature area to the left end of the cutout area ARb and the distance from the rightmost end of the detected feature area to the right end of the cutout area ARb. Furthermore, the aspect ratio of the video stream image is h: v.
切り出し範囲決定部106は、(1)式を満たすように、距離aおよび距離bを求めて、切り出し範囲ARbを決定する。
The cutout
{|R−L|+2b}:{|B−T|+2a}=h:v ・・・(1) {| R−L | + 2b}: {| B−T | + 2a} = h: v (1)
例えば、図15に示すように、特徴エリア検出部144で、特徴エリア1〜3の3個の特徴エリア(登録されている有効化された特徴エリア)が検出された場合を考える。なお、ビデオストリーミング画像のサイズ(ストリーミングサイズ)は640×480画素であるとし、そのアスペクト比は4:3であるとする。
For example, as shown in FIG. 15, consider a case where the feature
この場合、特徴エリアの最左端は特徴エリア1の左端L1であり、特徴エリアの最上端は特徴エリア2の上端T2であり、特徴エリアの最右端は特徴エリア3の右端R3であり、特徴エリアの最下端は特徴エリア1の下端B1である。そのため、距離aおよび距離bは、(2)式を満たすように、求められる。
In this case, the leftmost end of the feature area is the left end L1 of the
{|R3−L1|+2b}:{|B1−T2|+2a}=4:3 ・・・(2) {| R3-L1 | + 2b}: {| B1-T2 | + 2a} = 4: 3 (2)
この場合、切り出し範囲ARbの、左端は(L1−b)に決定され、上端は(T2−a)に決定され、右端は(R3+b)に決定され、下端は(B1+a)に決定される。 In this case, the left end of the cutout range ARb is determined as (L1-b), the upper end is determined as (T2-a), the right end is determined as (R3 + b), and the lower end is determined as (B1 + a).
制御部101の切り出し範囲決定部106は、上述したように、基本的には、特徴エリア検出部144で検出された特徴エリアが全て含まれるように、切り出し範囲ARbを決定する。
As described above, the cutout
切り出し範囲決定部106は、特徴エリア検出部144で検出された特徴エリアであっても、除外設定された特徴エリアに関しては、当該特徴エリアが含まれないように、切り出し範囲を決定する。切り出し範囲決定部106は、除外設定された特徴エリアであるか否かを、特徴エリア検出部144から送られてくる特徴エリア情報の「特徴エリアのマッチング結果」の項目の値で認識できる(図14(b)参照)。すなわち、切り出し範囲決定部106は、「特徴エリアのマッチング結果」の項目の値が「true」である特徴エリアは、除外設定された特徴エリアであると認識する。
The cut-out
例えば、特徴エリア検出部144で特徴エリア1〜3の3個の特徴エリアが検出された場合を考える。図16(a)は、特徴エリア1〜3のいずれも除外設定された特徴エリアでない場合を示しており、切り出し範囲決定部106では、特徴エリア1〜3の全てを含むように、切り出し範囲ARbが決定される。これに対して、図16(b)は、特徴エリア1,2は除外設定された特徴エリアでないが、特徴エリア3は除外設定された特徴エリアである場合を示しており、切り出し範囲決定部106では、特徴エリア3を除いて、特徴エリア1,2を含むように、切り出し範囲ARbが決定される。
For example, consider a case where the feature
また、切り出し範囲決定部106は、話者検出モードオンに設定されており、特徴エリア検出部144で検出された特徴エリアの中に話者(発声者)の顔が含まれている特徴エリアがあり、かつ実際に音声入力がある場合には、以下の処理をする。すなわち、切り出し範囲決定部106は、話者(発声者)の顔が含まれている特徴エリア(一個または複数個)を含むように、切り出し範囲ARbを設定する。
In addition, the cut-out
切り出し範囲決定部106は、話者(発声者)の顔が含まれている特徴エリアであるか否かを、特徴エリア検出部144から送られてくる特徴エリア情報の「話者の発声検出結果」の項目の値で認識できる(図14(b)参照)。すなわち、切り出し範囲決定部106は、「話者の発声検出結果」の項目の値が「true」である特徴エリアは、話者(発声者)の顔が含まれている特徴エリアであると認識する。
The cutout
また、切り出し範囲決定部106は、実際に音声入力があるか否かの判断を、話者音声検出部107のレベル判断結果に基づいて行う。話者音声検出部107は、上述したように、A/D変換器116から出力される音声データ(音声情報)のレベルを検出し、この音声レベルが閾値以上であるか否かを判断する。切り出し範囲決定部106は、話者音声検出部107で音声レベルが閾値以上であると判断するとき、実際に音声入力があると判断する。
In addition, the cutout
なお、実際に音声入力があることを条件とすることは必ずしも必要としない。しかし、この条件を加えることで、上述の特徴エリア検出部144における話者(発声者)の判断動作の判断誤りを補完することができる。
Note that it is not necessarily required that there is actually a voice input. However, by adding this condition, the determination error of the determination operation of the speaker (speaker) in the feature
ところで、この実施の形態において、話者音声検出部107における音声レベルの閾値は、処理対象の特徴エリアの面積が大きくなるほど大きくされる。図17(a)は処理対象の特徴エリアの面積が大きい場合を示しており、閾値は−THa,+THaとされている。これに対して、図17(b)は処理対象の特徴エリアの面積が小さい場合を示しており、閾値は−THb,+THbとされている。ここで、|THa|>|THb|の関係となる。このように処理対象の特徴エリアの面積に応じて音声レベルの閾値を変化させることで、安定した発声者の検出が可能となる。
By the way, in this embodiment, the threshold of the voice level in the speaker
また、切り出し範囲決定部106は、ロックモードオンに設定されている場合、切り出し範囲を更新せず、前回のままとする。
In addition, when the lock mode is set to ON, the cutout
図18のフローチャートは、上述の制御部101の切り出し範囲決定部106の処理手順を示している。切り出し範囲決定部106は、1フレーム毎に、図18のフローチャートの処理を行う。
The flowchart of FIG. 18 shows the processing procedure of the cutout
切り出し範囲決定部106は、ステップST51において、処理を開始し、その後に、ステップST52の処理に移る。このステップST52において、切り出し範囲決定部106は、ビデオミーティングモードであるか否かを判断する。ビデオミーティングモードでないとき、切り出し範囲決定部106は、直ちにステップST66に移り、処理を終了する。
The cutout
ビデオミーティングモードであるとき、切り出し範囲決定部106は、ステップST53の処理に移る。このステップST53において、切り出し範囲決定部106は、ロックモードオンにあるか否かを判断する。ロックモードオンにあるとき、切り出し範囲決定部106は、直ちにステップST66に移り、処理を終了する。一方、ロックモードオンにないとき、切り出し範囲決定部106は、ステップST54の処理に移る。
When in the video meeting mode, the cutout
このステップST54において、切り出し範囲決定部106は、特徴エリア検出部144から、特徴エリア(登録されている有効化された特徴エリア)の情報(図14(b)参照)を取得する。そして、切り出し範囲決定部106は、ステップST55において、未処理の特徴エリアがあるか否か、つまりステップST54で取得した特徴エリア情報で示される全ての特徴エリアについて処理をしたか否かを判断する。
In step ST54, the cutout
未処理の特徴エリアがあるとき、切り出し範囲決定部106は、ステップST56において、処理対象の特徴エリアが切り出し対象の特徴エリアであるか否か、つまり処理対象の特徴エリアが除外設定された特徴エリアであるか否かを判断する。切り出し範囲決定部106は、この判断を、特徴エリア情報の「特徴エリアのマッチング結果」の項目の値で判断できる(図14(b)参照)。すなわち、切り出し範囲決定部106は、「特徴エリアのマッチング結果」の項目の値が「true」であるとき、処理対象の特徴エリアは除外設定された特徴エリア(切り出し対象でない特徴エリア)であると判断する。
When there is an unprocessed feature area, the cutout
処理対象の特徴エリアが切り出し対象の特徴エリアでないとき、切り出し範囲決定部106は、ステップST55に戻り、次の処理対象の特徴エリアの処理に移る。一方、処理対象の特徴エリアが切り出し対象の特徴エリアであるとき、切り出し範囲決定部106は、ステップST57において、話者の検出フラグが設定済みであるか否かを判断する。
When the feature area to be processed is not the feature area to be cut out, the cutout
話者の検出フラグは、後述するように、話者検出モードオンに設定されており、処理対象の特徴エリアで話者の発声が検出されており、しかも音声入力がある場合に設定され、話者の特徴エリアで切り出し範囲が更新される状態となる。上述したようにステップST57で話者の検出フラグが設定済みか否かを判断するのは、話者の検出フラグが設定済みである場合、直ちに、処理対象の特徴エリアが話者(発声者)の特徴エリアであるか否かの判断処理に移るためである。 As will be described later, the speaker detection flag is set when the speaker detection mode is on, the speaker's utterance is detected in the feature area to be processed, and there is a voice input. The cutout range is updated in the person's feature area. As described above, in step ST57, it is determined whether or not the speaker detection flag has been set. If the speaker detection flag has already been set, the feature area to be processed is immediately the speaker (speaker). This is because the process proceeds to a determination process of whether or not the feature area is.
ステップST57で話者の検出フラグが設定済みでない場合、切り出し範囲決定部106は、ステップST58において、処理対象の特徴エリアで切り出し範囲を更新する。すなわち、切り出し範囲決定部106は、現在処理対象の特徴エリアをさらに含むように、切り出し範囲((1)式におけるL,T,R,Bの値)を更新する。一方、ステップST57で話者の検出フラグが設定済みである場合、切り出し範囲決定部106は、ステップST59の処理に移る。
If the speaker detection flag has not been set in step ST57, the cutout
このステップST59において、切り出し範囲決定部106は、話者検出モードオンにあるか否かを判断する。話者検出モードオンにないとき、切り出し範囲決定部106は、ステップST55に戻り、次の処理対象の特徴エリアの処理に移る。一方、話者検出モードにあるとき、切り出し範囲決定部106は、ステップST60の処理に移る。
In step ST59, the cutout
このステップST60において、切り出し範囲決定部106は、処理対象の特徴エリアで話者の発声が検出されているか否かを判断する。切り出し範囲決定部106は、この判断を、特徴エリア情報の「話者の発声検出結果」の項目の値で判断できる(図14(b)参照)。すなわち、切り出し範囲決定部106は、「話者の発声検出結果」の項目の値が「true」であるとき、処理対象の特徴エリアでは話者の発声が検出されていると判断する。
In step ST60, the cutout
処理対象の特徴エリアが話者の発声が検出されたものでないとき、切り出し範囲決定部106は、ステップST55に戻り、次の処理対象の特徴エリアの処理に移る。一方、処理対象の特徴エリアが話者の発声が検出されたものであるとき、切り出し範囲決定部106は、ステップST61において、音声入力があるか否かを判断する。切り出し範囲決定部106は、この判断を、話者音声検出部107における、入力音声レベルの判断結果に基づいて行う。
When the feature area to be processed is not one in which the speaker's utterance has been detected, the cut-out
音声入力がないとき、切り出し範囲決定部106は、ステップST55に戻り、次の処理対象の特徴エリアの処理に移る。一方、音声入力があるとき、切り出し範囲決定部106は、ステップST62において、話者の検出フラグを設定し、ステップST63において、処理対象の特徴エリア(話者の特徴エリア)で切り出し範囲を更新する。すなわち、切り出し範囲決定部106は、現在処理対象の特徴エリアを含む、話者の特徴エリアを含むように、切り出し範囲((1)式におけるL,T,R,Bの値)を更新する。切り出し範囲決定部106は、ステップST63の処理の後、ステップST55に戻り、次の処理対象の特徴エリアの処理に移る。
When there is no voice input, the cutout
ステップST55で未処理の特徴エリアがないとき、切り出し範囲決定部106は、ステップST64の処理に移る。このステップST64において、切り出し範囲決定部106は、上述の特徴エリアの処理で更新された切り出し範囲を用いて、ビデオストリーム画像のアスペクト比となるように切り出し範囲ARbを調整する(図15参照)。
When there is no unprocessed feature area in step ST55, the cutout
次に、切り出し範囲決定部106は、ステップST65において、ベースバンド処理部113に、切り出し範囲を、ステップST64で調整した切り出し範囲に変更するように指示し、その後、ステップST66において、処理を終了する。
Next, in step ST65, the cutout
図18のフローチャートにおいて、ロックモードオンの状態にあるときには、切り出し範囲決定部106は直ちに処理を終了し、この切り出し範囲決定部106からベースバンド処理部113に切り出し範囲の変更指示は行われない。その場合、ベースバンド処理部113は、前のフレームと同じ切り出し範囲の矩形領域座標に基づいて、被写体の撮像画像に対応した画像データ(画像情報)から切り出し範囲の画像データを切り出す。
In the flowchart of FIG. 18, when the lock mode is on, the cutout
次に、ビデオミーティングモードにおける具体的な動作例について説明する。なお、ロックモードオフに設定されており、また話者検出モードオンに設定されているものとする。 Next, a specific operation example in the video meeting mode will be described. It is assumed that the lock mode is off and the speaker detection mode is on.
[動作例1] [Operation Example 1]
特徴エリア検出部144で、撮像画像から、図19に示すように、特徴エリア1〜3が検出され、特徴エリア検出部144から制御部101に、図20(a)〜(c)に示すように、各特徴エリアの情報が供給されるものとする。
As shown in FIG. 19, the feature
ここで、特徴エリア1は、除外設定された特徴エリアではなく、特徴エリア情報の「特徴エリアのマッチング結果」の項目の値は「false」となっている。また、この特徴エリア1は、話者の発声が検出された特徴エリアではなく、特徴エリア情報の「話者の発声検出結果」の項目の値は「false」となっている。
Here, the
また、特徴エリア2は、除外設定された特徴エリアではなく、特徴エリア情報の「特徴エリアのマッチング結果」の項目の値は「false」となっている。また、この特徴エリア2は、話者の発声が検出された特徴エリアではなく、特徴エリア情報の「話者の発声検出結果」の項目の値は「false」となっている。
In addition, the
また、また、特徴エリア3は、除外設定された特徴エリアではなく、特徴エリア情報の「特徴エリアのマッチング結果」の項目の値は「false」となっている。また、この特徴エリア3は、話者の発声が検出された特徴エリアではなく、特徴エリア情報の「話者の発声検出結果」の項目の値は「false」となっている。 Also, the feature area 3 is not a feature area that is excluded, and the value of the item “matching result of feature area” of the feature area information is “false”. The feature area 3 is not a feature area in which a speaker's utterance is detected, and the value of the item “speaker's utterance detection result” in the feature area information is “false”.
この場合、切り出し範囲決定部106では、特徴エリア1〜3の全てを含むように、切り出し範囲が決定される。そして、切り出し範囲決定部106からベースバンド処理部113に、その切り出し範囲への変更が指示される。
In this case, the cutout
図21(b)は、LCDパネル133の表示状態を示しており、撮像画像上に特徴エリア1〜3を示す枠ARaと、切り出し範囲を示す枠ARbが表示されている。この場合、切り出し範囲には特徴エリア1〜3の全てが含まれている。
FIG. 21B shows a display state of the
図21(c)は、図21(a)に示すように、ビデオカメラ100にUSBケーブル400を介して接続されたPC300の表示パネル310の表示状態を示している。この表示パネル310には、ビデオカメラ100から伝送される切り出し範囲のストリーミング画像(特徴エリア1〜3を含む)が表示されている。
FIG. 21C shows the display state of the
[動作例2] [Operation example 2]
特徴エリア検出部144で、撮像画像から、図19に示すように、特徴エリア1〜3が検出され、特徴エリア検出部144から制御部101に、図22(a)〜(c)に示すように、各特徴エリアの情報が供給されるものとする。
As shown in FIG. 19, the feature
ここで、特徴エリア1は、除外設定された特徴エリアではなく、特徴エリア情報の「特徴エリアのマッチング結果」の項目の値は「false」となっている。また、この特徴エリア1は、話者の発声が検出された特徴エリアではなく、特徴エリア情報の「話者の発声検出結果」の項目の値は「false」となっている。
Here, the
また、特徴エリア2は、除外設定された特徴エリアではなく、特徴エリア情報の「特徴エリアのマッチング結果」の項目の値は「false」となっている。また、この特徴エリア2は、話者の発声が検出された特徴エリアではなく、特徴エリア情報の「話者の発声検出結果」の項目の値は「false」となっている。
In addition, the
また、また、特徴エリア3は、除外設定された特徴エリアであり、特徴エリア情報の「特徴エリアのマッチング結果」の項目の値は「true」となっている。また、この特徴エリア3は、話者の発声が検出された特徴エリアではなく、特徴エリア情報の「話者の発声検出結果」の項目の値は「false」となっている。 The feature area 3 is an excluded feature area, and the value of the item “matching result of feature area” in the feature area information is “true”. The feature area 3 is not a feature area in which a speaker's utterance is detected, and the value of the item “speaker's utterance detection result” in the feature area information is “false”.
この場合、切り出し範囲決定部106では、特徴エリア3を除き、特徴エリア1,2を含むように、切り出し範囲が決定される。そして、切り出し範囲決定部106からベースバンド処理部113に、その切り出し範囲への変更が指示される。
In this case, the cutout
図23(b)は、LCDパネル133の表示状態を示しており、撮像画像上に特徴エリア1〜3を示す枠ARaと、切り出し範囲を示す枠ARbが表示されている。この場合、切り出し範囲には特徴エリア1,2だけが含まれている。
FIG. 23B shows a display state of the
図23(c)は、図23(a)に示すように、ビデオカメラ100にUSBケーブル400を介して接続されたPC300の表示パネル310の表示状態を示している。この表示パネル310には、ビデオカメラ100から伝送される切り出し範囲のストリーミング画像(特徴エリア1,2を含む)が表示されている。
FIG. 23C shows the display state of the
[動作例3] [Operation Example 3]
特徴エリア検出部144で、撮像画像から、図19に示すように、特徴エリア1〜3が検出され、特徴エリア検出部144から制御部101に、図24(a)〜(c)に示すように、各特徴エリアの情報が供給されるものとする。
As shown in FIG. 19, the feature
ここで、特徴エリア1は、除外設定された特徴エリアではなく、特徴エリア情報の「特徴エリアのマッチング結果」の項目の値は「false」となっている。また、この特徴エリア1は、話者の発声が検出された特徴エリアではなく、特徴エリア情報の「話者の発声検出結果」の項目の値は「false」となっている。
Here, the
また、特徴エリア2は、除外設定された特徴エリアではなく、特徴エリア情報の「特徴エリアのマッチング結果」の項目の値は「false」となっている。また、この特徴エリア2は、話者の発声が検出された特徴エリアであり、特徴エリア情報の「話者の発声検出結果」の項目の値は「true」となっている。
In addition, the
また、また、特徴エリア3は、除外設定された特徴エリアであり、特徴エリア情報の「特徴エリアのマッチング結果」の項目の値は「true」となっている。また、この特徴エリア3は、話者の発声が検出された特徴エリアではなく、特徴エリア情報の「話者の発声検出結果」の項目の値は「false」となっている。 The feature area 3 is an excluded feature area, and the value of the item “matching result of feature area” in the feature area information is “true”. The feature area 3 is not a feature area in which a speaker's utterance is detected, and the value of the item “speaker's utterance detection result” in the feature area information is “false”.
この場合、音声入力があるときには、切り出し範囲決定部106では、話者の特徴エリアである特徴エリア2を中心に含むように、切り出し範囲が決定される。そして、切り出し範囲決定部106からベースバンド処理部113に、その切り出し範囲への変更が指示される。
In this case, when there is a voice input, the cutout
図25(b)は、LCDパネル133の表示状態を示しており、撮像画像上に特徴エリア1〜3を示す枠ARaと、切り出し範囲を示す枠ARbが表示されている。この場合、切り出し範囲には話者の特徴エリアである特徴エリア2が中心に含まれている。なお、話者の特徴エリアである特徴エリア2は、他の特徴エリアとは異なる態様で表示されている。
FIG. 25B shows the display state of the
図25(c)は、図25(a)に示すように、ビデオカメラ100にUSBケーブル400を介して接続されたPC300の表示パネル310の表示状態を示している。この表示パネル310には、ビデオカメラ100から伝送される切り出し範囲のストリーミング画像(特徴エリア2を中心に含む)が表示されている。
FIG. 25C shows the display state of the
以上説明したように、図1に示すビデオカメラ100においては、ビデオミーティングモードにあるとき、特徴エリア検出部144では被写体の撮像画像に対応した画像データ(画像情報)に基づいて顔を含む特徴エリアが検出され、制御部101の切り出し範囲決定部106では特徴エリア検出部144で検出された特徴エリアを含むように切り出し範囲が決定され、ベースバンド処理部113では撮像画像データから切り出し範囲決定部106で決定された切り出し範囲の画像データが切り出され、USB制御部142によりビデオストリーム画像の伝送が行われる。
As described above, in the
すなわち、図1に示すビデオカメラ100においては、ビデオミーティングモードにあるとき、撮像画像の特徴エリア(一個または複数個)が含まれるように切り出し範囲が自動的に決定され、この切り出し範囲の画像データが伝送されるものであり、ユーザは、撮像画像の特徴エリアを含むように切り出し範囲を手動で調整する必要がなく、使い勝手が向上する。
That is, in the
また、図1に示すビデオカメラ100においては、ユーザはタッチパネル135またはユーザ操作部102を操作することで、特徴エリア検出部144で検出された特徴エリアのうち所定の特徴エリアを切り出し対象から除外することを設定し、またこの設定を解除できる。そのため、ユーザは、所定の特徴エリアの画像情報を伝送するか否かの選択を容易に行うことができる。
In the
この場合、ユーザは、LCDパネル(表示パネル)133の特徴エリアの表示を用いて設定および解除を行うことでき、設定および解除の操作を容易に行うことができる。また、この場合、グラフィック表示部により、切り出し対象から除外された所定の特徴エリアの表示態様が変化するようにされているので、ユーザは、所定の特徴エリアが切り出し対象から除外されたことを容易に確認できる。 In this case, the user can set and cancel using the display of the feature area of the LCD panel (display panel) 133, and can easily perform the setting and canceling operations. Further, in this case, since the display mode of the predetermined feature area excluded from the clipping target is changed by the graphic display unit, the user can easily exclude the predetermined feature area from the clipping target. Can be confirmed.
また、図1に示すビデオカメラ100においては、特徴エリア検出部144では、切り出し対象から除外することが設定された所定の特徴エリアの画像データ(画像情報)をSDRAM(記憶部)145に記憶しておき、周期的(1フレーム毎)に検出された特徴エリアの画像データを、SDRAM145に記憶された画像データと比較して、当該検出された特徴エリアが切り出し対象から除外されたものであるかを判断する構成となっている。そのため、切り出し対象から除外された特徴エリアが一旦撮像画像から外れた後再び撮像画像内に入ってきた場合にあっても、当該特徴エリアに対しては切り出し対象から除外されたものであるとの取り扱いを継続できる。
In the
また、図1に示すビデオカメラ100においては、話者検出モードオンに設定されるとき、発声者の顔が含まれる特徴エリア(話者の検出エリア)を中心に含むように切り出し範囲が決定される。そのため、発声者の顔を中心とした画像情報を切り出して伝送できる。ユーザは、タッチパネル135あるいはユーザ操作部102の操作により、話者検出モードのオンオフを設定できるので、切り出し範囲に、検出された全ての特徴エリアを含ませるか、あるいは発声者の顔が含まれる特徴エリアを中心として含ませるかを、容易に選択できる。
Further, in the
また、図1に示すビデオカメラ100においては、ロックモードオンに設定されるとき、切り出し範囲決定部106では、特徴エリア検出部144で検出された特徴エリアの情報による切り出し範囲の更新処理を行わず、ベースバンド処理部113における切り出し範囲はロックされる。したがって、ユーザは、タッチパネル135あるいはユーザ操作部102の操作でロックモードをオンまたはオフに設定することで、切り出し範囲を固定するか、あるいは特徴エリアの検出結果に応じて切り出し範囲を変化させるかを、容易に選択できる。
In the
なお、上述実施の形態においては、特徴エリアに含まれる被写体の特徴的な部分が人間の顔である例を示したが、これに限定されるものではなく、特徴エリアに含まれる被写体の特徴的な部分は、特定の物体、特定の生物等の一部あるいは全部であってもよい。 In the above-described embodiment, an example in which the characteristic part of the subject included in the feature area is a human face has been described. However, the present invention is not limited thereto, and the characteristic part of the subject included in the feature area is not limited thereto. Such a part may be a part or the whole of a specific object, a specific organism, or the like.
また、上述実施の形態においては、ビデオストリーミング画像を伝送する手段としてUSB規格の通信手段を用いたが、これに限定されるものではなく、IEEE1394(Institute of Electrical and Electronic Engineers 1394)等の有線手段、あるいはWiFi等の無線手段であってもよい。 In the above-described embodiment, USB standard communication means is used as means for transmitting video streaming images. However, the present invention is not limited to this, and wired means such as IEEE 1394 (Institute of Electrical and Electronic Engineers 1394). Alternatively, wireless means such as WiFi may be used.
また、上述実施の形態においては、切り出し範囲決定部106では、ビデオミーティングモードにおける最終的な切り出し範囲をビデオストリーミング画像のアスペクト比となるように調整しているが、この調整を行わない構成とすることもできる。
In the above-described embodiment, the cutout
この発明は、PCあるいは携帯端末を利用したテレビ電話、テレビ会議等のコミュニケーションシステム等に適用できる。 The present invention can be applied to a communication system such as a video phone or a video conference using a PC or a portable terminal.
100・・・ビデオカメラ、101・・・制御部、102・・・ユーザ操作部、103・・・CPU、104・・・フラッシュROM、105・・・SDAM、106・・・切り出し範囲決定部、107・・・話者音声検出部、111・・・イメージャ、112・・・撮像処理部、113・・・ベースバンド処理部、114・・・SDRAM、115・・・マイクロホン、116・・・A/D変換器、117・・・圧縮/伸長部、118・・・記録/再生部、119・・・記録メディア、121・・・インタフェース、122・・・D端子、123・・・D/A変換器、124・・・音声出力端子、131・・・重畳部、132・・・LCDドライバ、133・・・LCDパネル、134・・・OSD部、135・・・タッチパネル、136・・・座標検出部、141・・・画像圧縮部、142・・・USB制御部、143・・・USBインタフェース、144・・・特徴エリア検出部、145・・・SDRAM
DESCRIPTION OF
Claims (22)
上記特徴エリア検出部で検出された特徴エリアの領域情報に基づいて、該検出された特徴エリアを含む切り出し範囲を決定する切り出し範囲決定部と、
上記切り出し範囲決定部で決定された切り出し範囲の領域情報に基づいて、上記被写体の撮像画像に対応した画像情報から該切り出し範囲の画像情報を切り出す画像切り出し部と、
上記画像切り出し部で切り出された画像情報を伝送する画像伝送部とを備え、
上記特徴エリア検出部は、
周期的に、上記被写体の撮像画像に対応した画像情報に基づいて、上記特徴エリアを検出し、
特徴エリア番号が付与されている各特徴エリアの特徴エリア情報が記憶される記憶部を有し、
上記特徴エリアの検出を行う毎に、
上記記憶部に記憶されている特徴エリアを順次処理対象とし、重複する特徴エリアの検出があるときは検出カウントをインクリメントすると共に特徴エリア情報を更新し、重複する特徴エリアの検出がないときは検出カウントをデクリメントすると共に該検出カウントが規定値に達するときは上記記憶部から対応する特徴エリア情報を削除し、
上記処理対象の特徴エリアのいずれとも重複しない特徴エリアの検出があるとき、該特徴エリアの特徴エリア情報を、特徴エリア番号を新規に割り当てて検出カウントを1として上記記憶部に記憶し、
上記切り出し範囲決定部は、
上記記憶部に記憶されている特徴エリアのうち検出カウントが規定値以上にある特徴エリアを有効化された特徴エリアとし、該有効化された特徴エリアの領域情報に基づいて、該有効化された特徴エリアを含む切り出し範囲を決定する
画像処理装置。 A feature area detection unit that detects a feature area of the captured image including a characteristic part of the subject based on image information corresponding to the captured image of the subject;
A cutout range determination unit for determining a cutout range including the detected feature area based on the area information of the feature area detected by the feature area detection unit;
An image cutout unit that cuts out image information of the cutout range from image information corresponding to the captured image of the subject based on the region information of the cutout range determined by the cutout range determination unit;
An image transmission unit that transmits the image information cut out by the image cutout unit ,
The feature area detector
Periodically, the feature area is detected based on image information corresponding to the captured image of the subject,
A storage unit for storing feature area information of each feature area to which a feature area number is assigned;
Each time the feature area is detected,
The feature areas stored in the storage unit are sequentially processed. When overlapping feature areas are detected, the detection count is incremented and the feature area information is updated. When no overlapping feature areas are detected, detection is performed. When the count is decremented and the detection count reaches a specified value, the corresponding feature area information is deleted from the storage unit,
When there is detection of a feature area that does not overlap with any of the feature areas to be processed, feature area information of the feature area is newly assigned a feature area number and stored in the storage unit as a detection count of 1,
The cutout range determination unit
Among the feature areas stored in the storage unit, a feature area whose detection count is equal to or greater than a specified value is set as an activated feature area, and the activated feature area is based on the area information of the activated feature area. An image processing apparatus for determining a cutout range including a feature area .
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising an imaging unit that captures an image of a subject and obtains image information corresponding to the captured image of the subject.
上記画像伝送部は、上記画像圧縮部で圧縮符号化された画像情報を伝送する
請求項1に記載の画像処理装置。 An image compression unit that performs compression encoding processing on the image information cut out by the image cut-out unit;
The image processing apparatus according to claim 1, wherein the image transmission unit transmits the image information compressed and encoded by the image compression unit.
上記表示パネルに、上記撮像画像に重ねて、上記特徴エリア検出部で検出された特徴エリアおよび上記切り出し範囲決定部で決定された切り出し範囲を表示するグラフィック表示部とをさらに備える
請求項1に記載の画像処理装置。 A display panel for displaying the captured image based on image information corresponding to the captured image of the subject;
The graphic display unit that displays the feature area detected by the feature area detection unit and the cutout range determined by the cutout range determination unit on the display panel so as to overlap the captured image. Image processing apparatus.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the characteristic part of the subject included in the characteristic area is a human face.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the cutout range determination unit determines the cutout range so as to include a feature area detected by the feature area detection unit and to have a predetermined aspect ratio.
上記特徴エリア検出部で検出された特徴エリアの、最左端の値をL、最上端の値をT、最右端の値をR、最下端の値をBとし、
上記最上端から上記切り出し範囲の上端までの距離および上記最下端から上記切り出し範囲の下端までの距離をaとし、
上記最左端から上記切り出し範囲の左端までの距離および上記最右端から上記切り出し範囲の右端までの距離をbとし、
上記アスペクト比をh:vとするとき、
{|R−L|+2b}:{|B−T|+2a}=h:v
の式を満たすように、距離aおよび距離bを求めて、上記切り出し範囲を決定する
請求項6に記載の画像処理装置。 The cutout range determination unit
In the feature area detected by the feature area detection unit, L is the leftmost value, T is the highest value, R is the rightmost value, and B is the lowest value.
The distance from the uppermost end to the upper end of the cutout range and the distance from the lowermost end to the lower end of the cutout range is a,
The distance from the leftmost end to the left end of the cutout range and the distance from the rightmost end to the right end of the cutout range is b,
When the aspect ratio is h: v,
{| R−L | + 2b}: {| B−T | + 2a} = h: v
The image processing apparatus according to claim 6, wherein the distance a and the distance b are obtained so as to satisfy the expression, and the cutout range is determined.
上記切り出し範囲決定部は、上記特徴エリア検出部で検出された特徴エリアのうち、上記ユーザ操作部で上記切り出し対象から除外された特徴エリアを除く他の特徴エリアを含む切り出し範囲を決定する
請求項1に記載の画像処理装置。 It further comprises a user operation unit that sets to exclude a predetermined feature area from the feature area detected from the feature area detected by the feature area detection unit, and cancels the setting,
The cutout range determination unit determines a cutout range including other feature areas excluding the feature area excluded from the cutout target by the user operation unit among the feature areas detected by the feature area detection unit. The image processing apparatus according to 1.
上記表示パネルに、上記撮像画像に重ねて、上記特徴エリア検出部で検出された特徴エリアおよび上記切り出し範囲決定部で決定された切り出し範囲を表示するグラフィック表示部とをさらに備え、
上記ユーザ操作部は、上記表示パネルに表示された上記特徴エリア検出部で検出された特徴エリアの表示を用いて、上記設定および上記解除を行う
請求項8に記載の画像処理装置。 A display panel for displaying the captured image based on image information corresponding to the captured image of the subject;
The display panel further includes a graphic display unit that displays the feature area detected by the feature area detection unit and the cutout range determined by the cutout range determination unit, overlaid on the captured image,
The image processing apparatus according to claim 8, wherein the user operation unit performs the setting and the cancellation using a display of a feature area detected by the feature area detection unit displayed on the display panel.
請求項9に記載の画像処理装置。 The graphic display unit changes a display mode of the predetermined feature area on the display panel when exclusion of the predetermined feature area from the cut target is set by the user operation unit. Image processing device.
ユーザは、上記表示パネルに表示されている所定の特徴エリアに対応した上記タッチパネル上の位置を押圧操作することで、該所定の特徴エリアに対する上記設定および上記解除を行う
請求項9に記載の画像処理装置。 The user operation unit includes a touch panel arranged on the display panel,
The image according to claim 9, wherein the user performs the setting and the release for the predetermined feature area by pressing a position on the touch panel corresponding to the predetermined feature area displayed on the display panel. Processing equipment.
上記特徴エリア検出部は、上記ユーザ操作部により上記切り出し対象から除外することが設定された上記所定の特徴エリアの画像情報を記憶する記憶部と、
上記特徴エリア検出部で検出された特徴エリアの画像情報と上記記憶部に記憶されている画像情報とを比較して、上記特徴エリア検出部で検出された特徴エリアが、切り出し対象から除外することが設定された上記所定の特徴エリアに対応した特徴エリアであるか否かの判断を行う除外判断部とを有し、
上記切り出し範囲決定部は、上記特徴エリア検出部で検出された特徴エリアの領域情報および上記除外判断部の判断結果に基づいて、上記特徴エリア検出部で検出された特徴エリアのうち、上記ユーザ操作部で上記切り出し対象から除外された特徴エリアを除く他の特徴エリアを含む切り出し範囲を決定する
請求項8に記載の画像処理装置。 The feature area detection unit periodically detects the feature area based on image information corresponding to a captured image of the subject,
A storage unit that stores image information of the predetermined feature area that is set to be excluded from the extraction target by the user operation unit;
Compare the image information of the feature area detected by the feature area detection unit with the image information stored in the storage unit, and exclude the feature area detected by the feature area detection unit from the target to be cut out An exclusion determination unit that determines whether or not the feature area corresponds to the predetermined feature area that is set,
The cutout range determination unit is configured to select the user operation from among the feature areas detected by the feature area detection unit based on the region information of the feature area detected by the feature area detection unit and the determination result of the exclusion determination unit. The image processing apparatus according to claim 8, wherein a cutout range including other feature areas excluding the feature area excluded from the cutout target is determined by a section.
上記特徴エリア検出部は、上記被写体の撮像画像に対応した画像情報に基づいて検出された特徴エリア内の顔が発声者の顔か否かの判断を行う発声者判断部を有し、
上記切り出し範囲決定部は、上記特徴エリア検出部で検出された特徴エリアの領域情報および上記発声者判断部の判断結果に基づいて、上記特徴エリア検出部で検出された特徴エリアに発声者の顔が含まれている特徴エリアがあるとき、該発声者の顔が含まれる特徴エリアを含む切り出し範囲を決定する
請求項1に記載の画像処理装置。 The characteristic part of the subject included in the characteristic area is a human face,
The feature area detection unit includes a speaker determination unit that determines whether a face in the feature area detected based on image information corresponding to a captured image of the subject is the face of a speaker.
The cut-out range determining unit is configured to determine whether or not a speaker's face is included in the feature area detected by the feature area detecting unit based on the area information of the feature area detected by the feature area detecting unit and the determination result of the speaker determining unit. The image processing apparatus according to claim 1, wherein, when there is a feature area including the character area, a cutout range including the feature area including the face of the speaker is determined.
上記音声レベル検出部で検出された音声レベルが閾値以上であるか否かを判断するレベル判断部とをさらに備え、
上記切り出し範囲決定部は、上記特徴エリア検出部で検出された特徴エリアに発声者の顔が含まれる特徴エリアがあると共に、上記音声レベル検出部で検出された音声レベルが上記レベル判断部で閾値以上であると判断されるとき、該発声者の顔が含まれる特徴エリアを含む切り出し範囲を決定する
請求項13に記載の画像処理装置。 An audio level detector that detects an audio level based on audio information corresponding to the image information;
A level determination unit that determines whether or not the audio level detected by the audio level detection unit is greater than or equal to a threshold;
The cutout range determination unit includes a feature area in which the face of the speaker is included in the feature area detected by the feature area detection unit, and the voice level detected by the voice level detection unit is a threshold value by the level determination unit. The image processing apparatus according to claim 13, wherein when it is determined as described above, a cutout range including a feature area including the face of the speaker is determined.
請求項14に記載の画像処理装置。 The image processing apparatus according to claim 14, wherein the threshold value used in the level determination unit is increased as the size of a feature area including the face of the speaker is increased.
上記切り出し範囲決定部は、上記ユーザ設定部で話者検出モードオンに設定されている場合、
上記特徴エリア検出部で検出された特徴エリアに発声者の顔が含まれる特徴エリアがあるとき、該発声者の顔が含まれる特徴エリアを含む切り出し範囲を決定する
請求項13に記載の画像処理装置。 A user setting unit for setting the speaker detection mode on or off;
When the cutout range determination unit is set to speaker detection mode on in the user setting unit,
The image processing according to claim 13, wherein when the feature area detected by the feature area detection unit includes a feature area including the face of the speaker, a cutout range including the feature area including the face of the speaker is determined. apparatus.
上記表示パネルに、上記話者検出モードの設定状態を表示するグラフィック表示部とをさらに有する
請求項16に記載の画像処理装置。 A display panel for displaying the captured image based on image information corresponding to the captured image of the subject;
The image processing apparatus according to claim 16, further comprising a graphic display unit that displays a setting state of the speaker detection mode on the display panel.
請求項17に記載の画像処理装置。 The image processing device according to claim 17, wherein the user setting unit sets the speaker detection mode on or off using a display of the setting state of the speaker detection mode displayed on the display panel.
上記切り出し範囲決定部は、上記周期的に、上記特徴エリア検出部で検出された特徴エリアの位置情報に基づいて、該検出された特徴エリアを含む切り出し範囲を決定し、
切り出し範囲のロックモードのオンまたはオフを設定するユーザ設定部をさらに備え、
上記切り出し範囲決定部は、上記ユーザ設定部でロックモードオンに設定される場合、上記切り出し範囲を前回に決定された切り出し範囲にロックする
請求項1に記載の画像処理装置。 The feature area detection unit periodically detects the feature area based on image information corresponding to a captured image of the subject,
The cutout range determination unit periodically determines a cutout range including the detected feature area based on the position information of the feature area detected by the feature area detection unit;
It further comprises a user setting unit for setting on / off of the lock mode of the clipping range,
The image processing apparatus according to claim 1, wherein the cutout range determination unit locks the cutout range to the cutout range determined last time when the user setting unit sets the lock mode on.
上記表示パネルに、上記ロックモードの設定状態を表示するグラフィック表示部とをさらに有する
請求項19に記載の画像処理装置。 A display panel for displaying the captured image based on image information corresponding to the captured image of the subject;
The image processing apparatus according to claim 19, further comprising a graphic display unit that displays the set state of the lock mode on the display panel.
請求項20に記載の画像処理装置。 The image processing apparatus according to claim 20, wherein the user setting unit sets the lock mode on or off using a display of the lock mode setting state displayed on the display panel.
上記特徴エリア検出ステップで検出された特徴エリアの領域情報に基づいて、該検出された特徴エリアを含む切り出し範囲を決定する切り出し範囲決定ステップと、
上記切り出し範囲決定ステップで決定された切り出し範囲の領域情報に基づいて、上記被写体の撮像画像に対応した画像情報から該切り出し範囲の画像情報を切り出す画像切り出しステップと、
上記画像切り出しステップで切り出された画像情報を伝送する画像伝送ステップとを有し、
上記特徴エリア検出ステップでは、
周期的に、上記被写体の撮像画像に対応した画像情報に基づいて、上記特徴エリアを検出し、
上記特徴エリアの検出を行う毎に、
特徴エリア番号が付与されている各特徴エリアの特徴エリア情報が記憶される記憶部に記憶されている特徴エリアを順次処理対象とし、重複する特徴エリアの検出があるときは検出カウントをインクリメントすると共に特徴エリア情報を更新し、重複する特徴エリアの検出がないときは検出カウントをデクリメントすると共に該検出カウントが規定値に達するときは上記記憶部から対応する特徴エリア情報を削除し、
上記処理対象の特徴エリアのいずれとも重複しない特徴エリアの検出があるとき、該特徴エリアの特徴エリア情報を、特徴エリア番号を新規に割り当てて検出カウントを1として上記記憶部に記憶し、
上記切り出し範囲決定ステップでは、
上記記憶部に記憶されている特徴エリアのうち検出カウントが規定値以上にある特徴エリアを有効化された特徴エリアとし、該有効化された特徴エリアの領域情報に基づいて、該有効化された特徴エリアを含む切り出し範囲を決定する
画像処理方法。
A feature area detecting step for detecting a feature area of the captured image including a characteristic portion of the subject based on image information corresponding to the captured image of the subject;
A cutout range determination step for determining a cutout range including the detected feature area based on the region information of the feature area detected in the feature area detection step,
An image cutout step of cutting out the image information of the cutout range from the image information corresponding to the captured image of the subject based on the area information of the cutout range determined in the cutout range determination step;
Possess an image transmission step of transmitting the image information extracted by the image extraction step,
In the feature area detection step,
Periodically, the feature area is detected based on image information corresponding to the captured image of the subject,
Each time the feature area is detected,
The feature areas stored in the storage unit storing the feature area information of each feature area to which the feature area number is assigned are sequentially processed, and when there are overlapping feature areas, the detection count is incremented and Update the feature area information, decrement the detection count when no overlapping feature area is detected, and delete the corresponding feature area information from the storage unit when the detection count reaches a specified value,
When there is detection of a feature area that does not overlap with any of the feature areas to be processed, feature area information of the feature area is newly assigned a feature area number and stored in the storage unit as a detection count of 1,
In the cutout range determination step,
Among the feature areas stored in the storage unit, a feature area whose detection count is equal to or greater than a specified value is set as an activated feature area, and the activated feature area is based on the area information of the activated feature area. An image processing method for determining a cutout range including a feature area .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008130173A JP5092888B2 (en) | 2008-05-16 | 2008-05-16 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008130173A JP5092888B2 (en) | 2008-05-16 | 2008-05-16 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009278568A JP2009278568A (en) | 2009-11-26 |
JP5092888B2 true JP5092888B2 (en) | 2012-12-05 |
Family
ID=41443539
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008130173A Expired - Fee Related JP5092888B2 (en) | 2008-05-16 | 2008-05-16 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5092888B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5235746B2 (en) * | 2009-03-25 | 2013-07-10 | 三洋電機株式会社 | Image transmission device and imaging device equipped with the same |
JP5389083B2 (en) * | 2011-03-25 | 2014-01-15 | 株式会社東芝 | Image processing apparatus, image encoding system, and image decoding system |
JP6966421B2 (en) * | 2015-04-01 | 2021-11-17 | オウル・ラブズ・インコーポレイテッドOwl Labs, Inc. | Composite and scaling angle-separated subscenes |
JP6591000B1 (en) * | 2018-06-20 | 2019-10-16 | ヤフー株式会社 | Image processing apparatus, image processing method, and image processing program |
WO2022031872A1 (en) | 2020-08-04 | 2022-02-10 | Owl Labs Inc. | Designated view within a multi-view composited webcam signal |
WO2022046810A2 (en) | 2020-08-24 | 2022-03-03 | Owl Labs Inc. | Merging webcam signals from multiple cameras |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09322136A (en) * | 1996-05-29 | 1997-12-12 | Sharp Corp | Image transmitter |
JPH1051755A (en) * | 1996-05-30 | 1998-02-20 | Fujitsu Ltd | Screen display controller for video conference terminal equipment |
JP4746295B2 (en) * | 2003-08-25 | 2011-08-10 | 富士フイルム株式会社 | Digital camera and photographing method |
JP4920175B2 (en) * | 2004-03-22 | 2012-04-18 | フリュー株式会社 | PHOTOGRAPHIC PRINT DEVICE, PHOTOGRAPHIC PRINT DEVICE CONTROL METHOD, PHOTOGRAPHIC PRINT DEVICE CONTROL PROGRAM, AND COMPUTER READABLE RECORDING MEDIUM |
JP2007228070A (en) * | 2006-02-21 | 2007-09-06 | Yamaha Corp | Video conference apparatus |
JP2008085737A (en) * | 2006-09-28 | 2008-04-10 | Nikon Corp | Electronic camera |
-
2008
- 2008-05-16 JP JP2008130173A patent/JP5092888B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009278568A (en) | 2009-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8045850B2 (en) | Image pickup apparatus, image recording apparatus and image recording method | |
US8327283B2 (en) | Electronic apparatus with display unit to display icon for mode and associated information-processing method | |
JP5092888B2 (en) | Image processing apparatus and image processing method | |
US20070075970A1 (en) | Method for controlling display of image according to movement of mobile terminal | |
JP2007258831A (en) | Remote control unit, remote control system, and method of displaying detailed information | |
JP2009278548A (en) | Image processing apparatus, image processing method, image playback device, image playback method and program | |
JP2008227919A (en) | Two-way communication system, communication terminal device and image mute control method | |
JP2009077228A (en) | Image sensing device and its control method | |
JP4372040B2 (en) | Display processing apparatus and display processing method | |
JP2007174229A (en) | Color video image display device | |
JP6319491B2 (en) | Imaging apparatus and control method | |
JP6583458B2 (en) | Imaging apparatus and control method | |
JP2010134507A (en) | Reproduction device | |
JP4817635B2 (en) | Image display device and image display method | |
JP2011130134A (en) | Imaging apparatus and imaging system | |
JP6583457B2 (en) | Imaging apparatus and control method | |
JP6119447B2 (en) | Imaging system and control method | |
JP2005176272A (en) | Image pickup method and apparatus thereof | |
JP2005318180A (en) | Hard disk recorder and video recording apparatus | |
JP4371170B2 (en) | Imaging apparatus, image recording apparatus, and image recording method | |
JP6332963B2 (en) | Image processing apparatus and image processing apparatus control method | |
JP4111688B2 (en) | Mail terminal device with video recorder | |
KR100666231B1 (en) | Mobile terminal connectable to audio output device and video output device | |
WO2012070534A1 (en) | Video image and audio output device, and video image and audio output method, as well as television image receiver provided with the video image and audio output device | |
JP2017098682A (en) | Display control device and display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120821 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120903 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150928 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |