JP2023024485A - Image display device, image display method, and program - Google Patents

Image display device, image display method, and program Download PDF

Info

Publication number
JP2023024485A
JP2023024485A JP2022190713A JP2022190713A JP2023024485A JP 2023024485 A JP2023024485 A JP 2023024485A JP 2022190713 A JP2022190713 A JP 2022190713A JP 2022190713 A JP2022190713 A JP 2022190713A JP 2023024485 A JP2023024485 A JP 2023024485A
Authority
JP
Japan
Prior art keywords
image
dead zone
target
frame
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022190713A
Other languages
Japanese (ja)
Inventor
優馬 小宮
Yuma KOMIYA
雄大 阿部
Takehiro Abe
智大 島田
Tomohiro Shimada
修也 楠本
Shuya Kusumoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2023024485A publication Critical patent/JP2023024485A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display device, an image display method, and a program for stably displaying an object frame without damaging followability with respect to a detected object.
SOLUTION: An image display device 11 is provided with: an image acquisition unit 101 that acquires successive images; an object detection unit 103 that detects an object from the images; an object frame determination unit 105 that determines an object frame which is a range of the object from the latest image among the images; an insensitive zone determination unit that determines an insensitive zone with respect to the position of the object frame; a storage unit 260 that stores a preceding object frame which corresponds to an object frame determined from an immediately preceding image and a preceding insensitive zone which corresponds to an insensitive zone determined from the immediately preceding image; and a display control unit 109 that displays the object frame when the position of the object is outside the range of the preceding insensitive zone, and displays the preceding object frame when the position of the object is within the range of the preceding insensitive zone.
SELECTED DRAWING: Figure 4
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、画像表示装置、画像表示方法、及びプログラムに関し、特に検出した対象の範囲を示す対象枠を表示する画像表示装置、画像表示方法、及びプログラムに関する。 The present invention relates to an image display device, an image display method, and a program, and more particularly to an image display device, an image display method, and a program for displaying an object frame indicating the range of a detected object.

従来より、デジタルカメラにより撮影を行う場合に、被写体が人の場合には顔検出が行われ、検出された顔の位置や大きさの情報に基づいて、顔枠(対象枠)の表示が行われている。 Conventionally, when photographing with a digital camera, if the subject is a person, face detection is performed, and a face frame (target frame) is displayed based on information on the position and size of the detected face. It is

デジタルカメラのLCD(Liquid Crystal Display)で構成される表示部に表示される対象枠を連続して表示する場合に、対象枠を安定的に表示する技術が提案されている。 2. Description of the Related Art Techniques have been proposed for stably displaying target frames when successively displaying target frames on a display unit configured by an LCD (Liquid Crystal Display) of a digital camera.

例えば、撮影待機状態において、顔領域の検出及び非検出が繰り返され、ライブビュー画像(スルー画像)上に顔領域を示すための対象枠(四角枠)が表示されたり、表示されなくなったりする場合がある。特許文献1に記載された技術は、この対象枠の表示及び非表示が繰り返されることを抑制することを目的としている。特許文献1に記載された技術では、被写体領域が検出されなかった場合には、直前に設定された検出被写体領域を継続して検出被写体領域として対象枠を表示する。 For example, when the detection and non-detection of the face area are repeated in the shooting standby state, and the target frame (square frame) for indicating the face area is displayed or not displayed on the live view image (through image). There is The technique described in Patent Literature 1 aims to suppress the repetition of display and non-display of the target frame. In the technique described in Patent Document 1, when the subject area is not detected, the previously set detected subject area is continued and the target frame is displayed as the detected subject area.

特開2007-221312号公報JP 2007-221312 A

ここで、表示する対象枠は検出する対象の動きによっては不安定な表示となってしまう。例えば検出対象が顔である場合には、顔の微小な移動に対しても対象枠が追従して移動してしまい、対象枠の表示が不安定となってしまう。一方で、対象枠の変動幅を抑えるために、移動量を半分にして対象枠を表示する技術が提案されているが、この場合には対象枠の対象への追従性が損なわれてしまう。 Here, the target frame to be displayed becomes an unstable display depending on the movement of the target to be detected. For example, when the detection target is a face, the target frame moves to follow even a minute movement of the face, resulting in unstable display of the target frame. On the other hand, in order to suppress the fluctuation range of the target frame, a technique has been proposed in which the target frame is displayed by halving the amount of movement.

特許文献1に記載の技術は、対象枠の表示及び非表示が繰り返されることを抑制することを目的とした技術であって、対象が移動することによる対象枠の不安定な表示に関しては言及されていない。 The technology described in Patent Literature 1 is a technology intended to suppress repeated display and non-display of the target frame, and mentions the unstable display of the target frame due to the movement of the target. not

本発明はこのような事情に鑑みてなされたもので、その目的は、検出された対象への追従性を損なうことなく、安定的に対象枠を表示する画像表示装置、画像表示方法、及びプログラムを提供することである。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image display device, an image display method, and a program for stably displaying an object frame without impairing the followability to a detected object. is to provide

上記目的を達成するための本発明の一の態様である画像表示装置は、連続する画像を取得する画像取得部と、画像から対象を検出する対象検出部と、画像中の最新の画像から対象の範囲である対象枠を決定する対象枠決定部と、対象枠の位置に対する不感帯を決定する不感帯決定部と、一画像前の画像から決定した対象枠に相当する前回の対象枠、及び、一画像前の画像から決定した不感帯に相当する前回の不感帯を記憶する記憶部と、対象の位置が、前回の不感帯の範囲外の場合には、対象枠を表示し、前回の不感帯の範囲内の場合には、前回の対象枠を表示する表示制御部と、を備える。 An image display device, which is one aspect of the present invention for achieving the above object, comprises an image acquisition unit that acquires successive images, a target detection unit that detects a target from the images, and a target from the latest image among the images. a target frame determination unit that determines a target frame within the range of the target frame, a dead band determination unit that determines a dead band with respect to the position of the target frame, a previous target frame corresponding to the target frame determined from the image one image before, and one A storage unit for storing the previous dead zone corresponding to the dead zone determined from the image before the image, and if the position of the object is outside the range of the previous dead zone, the object frame is displayed and the range of the previous dead zone is displayed. In the case, a display control unit for displaying the previous target frame.

本態様によれば、対象の位置が前回の不感帯の範囲内の場合には、前回に表示した対象枠を表示するので、小さい変動(位置の変動)では対象枠の表示用の位置情報を変えずに安定的に対象枠を表示することができる。また、対象の位置が前回の不感帯の範囲外の場合には、今回検出された対象に対応する対象枠を表示するので、検出された対象への追従性(位置の追従性)が優れた対象枠の表示を行うことができる。 According to this aspect, when the target position is within the range of the previous dead zone, the previously displayed target frame is displayed. It is possible to stably display the target frame without Also, if the position of the target is outside the range of the previous dead zone, the target frame corresponding to the target detected this time is displayed. A frame can be displayed.

好ましくは、対象検出部は、対象の位置情報を検出し、不感帯決定部は、位置情報に基づいて、不感帯を変更する。 Preferably, the target detection section detects position information of the target, and the dead zone determination section changes the dead zone based on the position information.

好ましくは、不感帯決定部は、位置情報と前回の不感帯とに基づいて、対象の動き判定を行い、動き判定の結果に基づいて前回の不感帯を変更する。 Preferably, the dead zone determination unit performs motion determination of the object based on the position information and the previous dead zone, and changes the previous dead zone based on the motion determination result.

本発明の他の態様である画像表示装置は、連続する画像を取得する画像取得部と、画像から対象を検出する対象検出部と、画像中の最新の画像から対象の範囲である対象枠を決定する対象枠決定部と、対象枠の大きさに対する不感帯を決定する不感帯決定部と、一画像前の画像から決定した対象枠に相当する前回の対象枠、及び、一画像前の画像から決定した不感帯に相当する前回の不感帯を記憶する記憶部と、対象の大きさが、前回の不感帯の範囲外の場合には、対象枠を表示し、前回の不感帯の範囲内の場合には、前回の対象枠を表示する表示制御部と、を備える。 An image display device according to another aspect of the present invention includes an image acquisition unit that acquires continuous images, a target detection unit that detects a target from the images, and a target frame that is the range of the target from the latest image in the image. A target frame determination unit to determine, a dead band determination unit to determine a dead band for the size of the target frame, a previous target frame corresponding to the target frame determined from the image one image before, and the image one image before If the size of the object is outside the range of the previous dead zone, the object frame is displayed, and if it is within the range of the previous dead zone, the previous dead zone is stored. and a display control unit that displays the target frame of.

本態様によれば、対象の大きさが前回の不感帯の範囲内の場合には、前回に表示した対象枠を表示するので、小さい変動(大きさの変動)では対象枠の表示用の大きさ情報を変えずに安定的に対象枠を表示することができる。また、対象の位置が前回の不感帯の範囲外の場合には、今回検出された対象に対応する対象枠を表示するので、検出された対象への追従性(大きさの追従性)が優れた対象枠の表示を行うことができる。 According to this aspect, when the size of the target is within the range of the previous dead zone, the previously displayed target frame is displayed. The target frame can be stably displayed without changing the information. In addition, when the position of the target is outside the range of the previous dead zone, the target frame corresponding to the target detected this time is displayed. A target frame can be displayed.

好ましくは、対象検出部は、対象の大きさ情報を検出し、不感帯決定部は、大きさ情報に基づいて、不感帯を変更する。 Preferably, the object detection unit detects size information of the object, and the dead zone determination unit changes the dead zone based on the size information.

好ましくは、不感帯決定部は、大きさ情報と前回の不感帯とに基づいて、対象の動き判定を行い、動き判定の結果に基づいて前回の不感帯を変更する。 Preferably, the dead zone determination unit performs motion determination of the object based on the size information and the previous dead zone, and changes the previous dead zone based on the motion determination result.

好ましくは、不感帯決定部は、動き判定の結果が第1の方向を示す場合には、第1の方向の不感帯を小さくする。 Preferably, the dead zone determination unit reduces the dead zone in the first direction when the motion determination result indicates the first direction.

好ましくは、不感帯決定部は、動き判定の結果が第1の方向を示さない場合には、第1の方向の不感帯を大きくする。 Preferably, the dead zone determiner increases the dead zone in the first direction when the motion determination result does not indicate the first direction.

好ましくは、不感帯の変更は、不感帯の位置又は大きさを、対象検出部で検出された対象によって変更する。 Preferably, the change of the dead zone changes the position or size of the dead zone according to the target detected by the target detection unit.

本発明の他の態様である画像表示装置は、連続する画像であって、検出された対象の位置、及び対象の範囲である対象枠の位置に関する情報を有する画像を取得する画像取得部と、対象枠の位置に対する不感帯を決定する不感帯決定部と、一画像前の画像から決定した対象枠に相当する前回の対象枠、及び、一画像前の画像から決定した不感帯に相当する前回の不感帯を記憶する記憶部と、対象の位置が、前回の不感帯の範囲外の場合には、対象枠を表示し、前回の不感帯の範囲内の場合には、前回の対象枠を表示する表示制御部と、を備える。 An image display device according to another aspect of the present invention is an image acquisition unit configured to acquire continuous images having information about the position of a detected target and the position of a target frame that is the range of the target; A dead zone determining unit that determines the dead zone for the position of the target frame, the previous target frame corresponding to the target frame determined from the image one image before, and the previous dead zone corresponding to the dead zone determined from the image one image before. a storage unit for storing, a display control unit for displaying the target frame when the position of the target is outside the range of the previous dead zone, and displaying the previous target frame when the position is within the range of the previous dead zone. , provided.

本発明の他の態様である画像表示装置は、連続する画像であって、検出された対象の大きさ、及び対象の範囲である対象枠の大きさに関する情報を有する画像を取得する画像取得部と、対象枠の大きさに対する不感帯を決定する不感帯決定部と、一画像前の画像から決定した対象枠に相当する前回の対象枠、及び、一画像前の画像から決定した不感帯に相当する前回の不感帯を記憶する記憶部と、対象の大きさが、前回の不感帯の範囲外の場合には、対象枠を表示し、前回の不感帯の範囲内の場合には、前回の対象枠を表示する表示制御部と、を備える。 An image display device according to another aspect of the present invention is an image acquisition unit that acquires images that are continuous images and that have information about the size of a detected object and the size of an object frame that is the range of the object. , a dead zone determination unit that determines a dead zone with respect to the size of the target frame, a previous target frame corresponding to the target frame determined from the image one image before, and a previous target frame corresponding to the dead zone determined from the image one image before When the size of the object is out of the range of the previous dead band, the target frame is displayed, and when it is within the range of the previous dead band, the previous target frame is displayed. and a display control unit.

好ましくは、表示制御部によって、表示された対象枠の位置情報を画像に記録する情報追加部を備える。 Preferably, an information addition unit is provided for recording the position information of the displayed target frame in the image by the display control unit.

好ましくは、不感帯は対象枠に対する不感帯幅であり、不感帯の初期値は、一定である。 Preferably, the dead zone is a dead zone width with respect to the target frame, and the initial value of the dead zone is constant.

好ましくは、対象検出部が検出する対象は物体である。 Preferably, the target detected by the target detection unit is an object.

好ましくは、物体は、顔又は瞳である。 Preferably the object is a face or an eye.

好ましくは、対象枠は矩形である。 Preferably, the target frame is rectangular.

好ましくは、対象枠は楕円である。 Preferably, the target frame is an ellipse.

本発明の他の態様である画像表示方法は、連続する画像を取得するステップと、画像から対象を検出するステップと、画像中の最新の画像から対象の範囲である対象枠を決定するステップと、対象枠の位置に対する不感帯を決定するステップと、一画像前の画像から決定した対象枠に相当する前回の対象枠、及び、一画像前の画像から決定した不感帯に相当する前回の不感帯を記憶するステップと、対象の位置が、前回の不感帯の範囲外の場合には、対象枠を表示し、前回の不感帯の範囲内の場合には、前回の対象枠を表示するステップと、を含む。 An image display method, which is another aspect of the present invention, comprises the steps of acquiring successive images, detecting a target from the images, and determining a target frame, which is the range of the target, from the latest image in the images. , a step of determining a dead zone with respect to the position of the object frame, and storing the previous object frame corresponding to the object frame determined from the image one image before and the previous dead zone corresponding to the dead zone determined from the image one image before. and displaying the object frame when the position of the object is outside the range of the previous dead zone, and displaying the previous object frame when the position is within the range of the previous dead zone.

本発明の他の態様である画像表示方法は、連続する画像を取得するステップと、画像から対象を検出するステップと、画像中の最新の画像から対象の範囲である対象枠を決定するステップと、対象枠の大きさに対する不感帯を決定するステップと、一画像前の画像から決定した対象枠に相当する前回の対象枠、及び、一画像前の画像から決定した不感帯に相当する前回の不感帯を記憶するステップと、対象の大きさが、前回の不感帯の範囲外の場合には、対象枠を表示し、前回の不感帯の範囲内の場合には、前回の対象枠を表示するステップと、を含む。 An image display method, which is another aspect of the present invention, comprises the steps of acquiring successive images, detecting a target from the images, and determining a target frame, which is the range of the target, from the latest image in the images. a step of determining a dead zone for the size of the object frame; a step of storing, a step of displaying the object frame when the size of the object is outside the range of the previous dead zone, and displaying the previous object frame when the size is within the range of the previous dead zone. include.

本発明の他の態様であるプログラムは、連続する画像を取得するステップと、画像から対象を検出するステップと、画像中の最新の画像から対象の範囲である対象枠を決定するステップと、対象枠の位置に対する不感帯を決定するステップと、一画像前の画像から決定した対象枠に相当する前回の対象枠、及び、一画像前の画像から決定した不感帯に相当する前回の不感帯を記憶するステップと、対象の位置が、前回の不感帯の範囲外の場合には、対象枠を表示し、前回の不感帯の範囲内の場合には、前回の対象枠を表示するステップと、を含む画像表示工程をコンピュータに実行させる。 According to another aspect of the present invention, there is provided a program comprising the steps of acquiring successive images, detecting a target from the images, determining a target frame that is the range of the target from the latest image in the images, a step of determining a dead zone with respect to the position of the frame; a step of storing the previous target frame corresponding to the target frame determined from the image one image before and the previous dead zone corresponding to the dead zone determined from the image one image before; and displaying the target frame when the position of the target is outside the range of the previous dead zone, and displaying the previous target frame when the target position is within the range of the previous dead zone. run on the computer.

本発明の他の態様であるプログラムは、連続する画像を取得するステップと、画像から対象を検出するステップと、画像中の最新の画像から対象の範囲である対象枠を決定するステップと、対象枠の大きさに対する不感帯を決定するステップと、一画像前の画像から決定した対象枠に相当する前回の対象枠、及び、一画像前の画像から決定した不感帯に相当する前回の不感帯を記憶するステップと、対象の大きさが、前回の不感帯の範囲外の場合には、対象枠を表示し、前回の不感帯の範囲内の場合には、前回の対象枠を表示するステップと、を含む画像表示工程をコンピュータに実行させる。 According to another aspect of the present invention, there is provided a program comprising the steps of acquiring successive images, detecting a target from the images, determining a target frame that is the range of the target from the latest image in the images, A step of determining a dead zone with respect to the size of the frame, and storing the previous target frame corresponding to the target frame determined from the image one image before and the previous dead zone corresponding to the dead zone determined from the image one image before. and displaying the target frame when the size of the target is outside the range of the previous dead band, and displaying the previous target frame when the size of the target is within the range of the previous dead band. A display process is performed by a computer.

本発明によれば、対象の位置が、前回の不感帯の範囲内の場合には前回に表示した対象枠を表示するので、対象の多少の変動では対象枠の表示が変わらず安定的に対象枠を表示することができ、また、対象の位置が、前回の不感帯の範囲外の場合には、今回検出された対象に対応する対象枠を表示するので、検出された対象への追従性が優れた対象枠の表示を行うことができる。 According to the present invention, when the target position is within the range of the previous dead zone, the previously displayed target frame is displayed. Also, if the position of the target is outside the range of the previous dead zone, the target frame corresponding to the target detected this time is displayed. It is possible to display the target frame.

図1は、撮像装置の一例を示す斜視図である。FIG. 1 is a perspective view showing an example of an imaging device. 図2は、撮像装置の一例を示す背面図である。FIG. 2 is a rear view showing an example of an imaging device. 図3は、撮像装置の構成を示す図である。FIG. 3 is a diagram showing the configuration of the imaging device. 図4は、画像表示装置の主な機能構成例を示すブロック図である。FIG. 4 is a block diagram showing a main functional configuration example of the image display device. 図5は、不感帯について説明する図である。FIG. 5 is a diagram for explaining the dead zone. 図6は、不感帯について説明する図である。FIG. 6 is a diagram for explaining the dead zone. 図7は、不感帯の決定の具体例を示す図である。FIG. 7 is a diagram showing a specific example of determination of the dead zone. 図8は、画像表示方法を示すフローチャートである。FIG. 8 is a flow chart showing an image display method. 図9は、画像表示方法を示すフローチャートである。FIG. 9 is a flow chart showing an image display method. 図10は、不感帯処理の具体例を示す図である。FIG. 10 is a diagram showing a specific example of dead zone processing. 図11は、対象枠の大きさの不感帯に関して説明する図である。FIG. 11 is a diagram for explaining the dead zone of the size of the target frame. 図12は、画像表示方法を示すフローチャートである。FIG. 12 is a flow chart showing an image display method. 図13は、画像表示方法を示すフローチャートである。FIG. 13 is a flow chart showing an image display method. 図14は、スマートフォンの外観を示す図である。FIG. 14 is a diagram showing the appearance of a smartphone. 図15は、スマートフォンの構成を示すブロック図である。FIG. 15 is a block diagram showing the configuration of a smartphone.

以下、添付図面にしたがって本発明に係る画像表示装置、画像表示方法、及びプログラムの好ましい実施の形態について説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of an image display device, an image display method, and a program according to the present invention will be described below with reference to the accompanying drawings.

[撮像装置]
図1及び図2は、それぞれ本発明の画像表示装置を搭載する撮像装置の一例(デジタルカメラ)を示す斜視図及び背面図である。
[Imaging device]
1 and 2 are a perspective view and a rear view, respectively, showing an example of an imaging device (digital camera) equipped with an image display device of the present invention.

画像表示装置11(図4を参照)は、撮像装置10に搭載され、撮像装置10で撮像されたライブビュー画像(スルー画像)を表示する。なお、画像表示装置11は、記録された動画も表示することができる。 The image display device 11 (see FIG. 4) is mounted on the imaging device 10 and displays a live view image (through image) captured by the imaging device 10 . Note that the image display device 11 can also display recorded moving images.

撮像装置10は、レンズを通った光を撮像素子で受け、デジタル信号に変換して静止画又は動画の画像データとして記録メディアに記録するデジタルカメラである。 The image capturing apparatus 10 is a digital camera that receives light through a lens with an image sensor, converts the signal into a digital signal, and records the image data of a still image or a moving image on a recording medium.

図1に示すように撮像装置10は、その正面に撮影レンズ12、ストロボ1等が配設され、上面にはシャッタボタン2、電源/モードスイッチ3、モードダイヤル4等が配設されている。一方、図2に示すように、カメラ背面には、モニタ(LCD)30、ズームボタン5、十字ボタン6、MENU/OKボタン7、再生ボタン8、BACKボタン9等が配設されている。 As shown in FIG. 1, an imaging device 10 has a photographing lens 12, a strobe 1, etc. on its front surface, and a shutter button 2, a power/mode switch 3, a mode dial 4, etc. on its top surface. On the other hand, as shown in FIG. 2, a monitor (LCD) 30, a zoom button 5, a cross button 6, a MENU/OK button 7, a playback button 8, a BACK button 9, etc. are arranged on the back of the camera.

撮影レンズ12は、沈胴式のズームレンズで構成されており、電源/モードスイッチ3によってカメラの作動モードを撮影モードに設定することにより、カメラ本体から繰り出される。ストロボ1は、主要被写体にストロボ光を照射するものである。 The photographing lens 12 is a collapsible zoom lens, and is extended from the camera body by setting the operation mode of the camera to the photographing mode with the power/mode switch 3 . A strobe 1 irradiates a main subject with strobe light.

シャッタボタン2は、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成され、撮影準備指示部として機能するとともに、画像の記録指示部として機能する。 The shutter button 2 is composed of a two-stage stroke type switch consisting of a so-called "half-press" and "full-press", and functions as an image recording instruction section as well as a photographing preparation instruction section.

撮像装置10は、撮影モードとして静止画撮影モードが選択され、シャッタボタン2が「半押し」されると、AF(Autofocus)/AE(Auto Exposure)制御を行う撮影準備動作を行い、シャッタボタン2が「全押し」されると、静止画の撮像及び記録を行う。 When the still image shooting mode is selected as the shooting mode and the shutter button 2 is "half-pressed", the imaging apparatus 10 performs a shooting preparation operation for performing AF (Autofocus)/AE (Auto Exposure) control. When is "full-pressed", a still image is captured and recorded.

また、撮像装置10は、撮影モードとして動画撮影モードが選択され、シャッタボタン2が「全押し」されると、動画の録画を開始し、シャッタボタン2が再度「全押し」されると、録画を停止して待機状態になる。 In addition, the imaging device 10 starts recording a moving image when the moving image shooting mode is selected as the shooting mode and the shutter button 2 is fully pressed. stop and wait.

電源/モードスイッチ3は、撮像装置10の電源をON/OFFする電源スイッチとしての機能と、撮像装置10のモードを設定するモードスイッチとしての機能とを併せ持っており、「OFF位置」と「再生位置」と「撮影位置」との間をスライド自在に配設されている。撮像装置10は、電源/モードスイッチ3をスライドさせて、「再生位置」又は「撮影位置」に合わせることにより、電源がONになり、「OFF位置」に合わせることにより、電源がOFFになる。そして、電源/モードスイッチ3をスライドさせて、「再生位置」に合わせることにより、「再生モード」に設定され、「撮影位置」に合わせることにより、「撮影モード」に設定される。 The power/mode switch 3 has both a function as a power switch for turning ON/OFF the power of the imaging device 10 and a function as a mode switch for setting the mode of the imaging device 10. It is disposed so as to be slidable between "position" and "photographing position". The imaging device 10 is powered on by sliding the power/mode switch 3 to the "reproduction position" or "shooting position", and is powered off by sliding it to the "OFF position". Then, by sliding the power/mode switch 3 to the "playback position", the "playback mode" is set, and by setting it to the "shooting position", the "shooting mode" is set.

モードダイヤル4は、撮像装置10の撮影モードを設定するモード切替部として機能し、このモードダイヤル4の設定位置により、撮像装置10の撮影モードが様々なモードに設定される。例えば、静止画撮影を行う「静止画撮影モード」、動画撮影を行う「動画撮影モード」等である。 The mode dial 4 functions as a mode switching section for setting the shooting mode of the imaging device 10 , and the shooting mode of the imaging device 10 is set to various modes depending on the setting position of the mode dial 4 . For example, there are a “still image shooting mode” for shooting still images, a “moving image shooting mode” for shooting moving images, and the like.

モニタ30は、表示部として機能し、撮影モード時のライブビュー画像の表示、再生モード時の静止画又は動画の表示を行うとともに、メニュー画面の表示等を行うことでグラフィカルユーザーインターフェースの一部として機能する。 The monitor 30 functions as a display unit, displays a live view image in shooting mode, displays a still image or a moving image in playback mode, and displays a menu screen, etc., to serve as a part of the graphical user interface. Function.

ズームボタン5は、ズームを指示するズーム指示手段として機能し、望遠側へのズームを指示するテレボタン5Tと、広角側へのズームを指示するワイドボタン5Wとからなる。撮像装置10は、撮影モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、撮影レンズ12の焦点距離が変化する。また、再生モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、再生中の画像が拡大、縮小する。 The zoom button 5 functions as zoom instruction means for instructing zooming, and includes a tele button 5T for instructing zooming to the telephoto side and a wide button 5W for instructing zooming to the wide angle side. In the image pickup apparatus 10, the focal length of the photographing lens 12 is changed by operating the tele button 5T and the wide button 5W in the photographing mode. Further, when the tele button 5T and the wide button 5W are operated in the reproduction mode, the image being reproduced is enlarged or reduced.

十字ボタン6は、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。 The cross button 6 is an operation unit for inputting instructions in four directions, up, down, left, and right. Function. The left/right keys function as frame advance (forward/reverse) buttons in playback mode.

MENU/OKボタン7は、モニタ30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作ボタンである。 The MENU/OK button 7 is an operation button having both a function as a menu button for issuing a command to display a menu on the screen of the monitor 30 and a function as an OK button for commanding determination and execution of selected contents. is.

再生ボタン8は、撮影記録した静止画又は動画をモニタ30に表示させる再生モードに切り替えるためのボタンである。 The playback button 8 is a button for switching to a playback mode for displaying a captured and recorded still image or moving image on the monitor 30 .

BACKボタン9は、入力操作のキャンセルや一つ前の操作状態に戻すことを指示するボタンとして機能する。 The BACK button 9 functions as a button for instructing cancellation of an input operation or returning to the previous operation state.

なお、本実施形態に係る撮像装置10において、ボタン/スイッチ類に対して固有の部材を設けるのではなく、タッチパネルを設けこれを操作することでそれらボタン/スイッチ類の機能を実現するようにしてもよい。 In the imaging apparatus 10 according to the present embodiment, instead of providing specific members for the buttons/switches, a touch panel is provided and operated to realize the functions of the buttons/switches. good too.

[撮像装置の内部構成]
図3は、撮像装置10の構成を示す図である。撮像装置10は撮影レンズ12により被写体像(光学像)を撮像素子210に結像させる。
[Internal configuration of imaging device]
FIG. 3 is a diagram showing the configuration of the imaging device 10. As shown in FIG. The imaging apparatus 10 forms a subject image (optical image) on the imaging device 210 through the imaging lens 12 .

撮影レンズ12はズームレンズ110とフォーカスレンズ150とから構成される。また、撮像装置10は、絞り130と、レンズ駆動部140とを備える。レンズ駆動部140は、制御部としてのCPU240からの指令に応じてズームレンズ110、フォーカスレンズ150を進退駆動してズーム(光学ズーム)調整、フォーカス調整を行う。ズーム調整及びフォーカス調整は、CPU240からの指令に応じて行う他に、ユーザが行ったズーム操作、フォーカス操作に応じて行ってもよい。また、レンズ駆動部140はCPU240からの指令に応じて絞り130を制御し、露出を調整する。一方、ズームレンズ110及びフォーカスレンズ150の位置、絞り130の開放度等の情報がCPU240に入力される。 The photographing lens 12 is composed of a zoom lens 110 and a focus lens 150 . The imaging device 10 also includes an aperture 130 and a lens driver 140 . The lens drive unit 140 advances and retreats the zoom lens 110 and the focus lens 150 according to commands from the CPU 240 as a control unit to perform zoom (optical zoom) adjustment and focus adjustment. The zoom adjustment and the focus adjustment may be performed according to a command from the CPU 240, or may be performed according to a zoom operation and a focus operation performed by the user. In addition, the lens driving section 140 controls the aperture 130 in accordance with instructions from the CPU 240 to adjust the exposure. On the other hand, information such as the positions of the zoom lens 110 and the focus lens 150 and the opening degree of the diaphragm 130 is input to the CPU 240 .

撮像装置10は、撮像素子210、AFE220(AFE:Analog Front End)、A/D変換器230(A/D:Analog to Digital)、CPU240、操作部250、記憶部260、及びモニタ30を備える。撮像装置10は、撮像素子210に透過させる光を遮光するためのメカニカルシャッター(不図示)を有していてもよい。撮像素子210は、多数の受光素子がマトリクス状に配列された受光面を備え、ズームレンズ110、フォーカスレンズ150、及び絞り130を透過した被写体光が撮像素子210の受光面上に結像され、各受光素子によって電気信号に変換される。撮像素子210の受光面上にはR(赤),G(緑),又はB(青)のカラーフィルタが設けられており、各色の信号に基づいて被写体のカラー画像を取得することができる。なお、撮像素子210としては、CMOS(Complementary Metal-Oxide Semiconductor)、CCD(Charge-Coupled Device)等の様々な光電変換素子を用いることができる。AFE220は撮像素子210から出力されるアナログ画像信号のノイズ除去、増幅等を行い、A/D変換器230は、取り込んだアナログ画像信号を階調幅があるデジタル画像信号に変換する。なお、シャッターは、メカニカルシャッターでも電子シャッターでもよい。電子シャッターの場合、CPU240によって撮像素子210の電荷蓄積期間を制御することで露光時間(シャッタースピード)を調節することができる。 The imaging device 10 includes an imaging element 210 , an AFE 220 (AFE: Analog Front End), an A/D converter 230 (A/D: Analog to Digital), a CPU 240 , an operation section 250 , a storage section 260 and a monitor 30 . The imaging device 10 may have a mechanical shutter (not shown) for blocking light to be transmitted through the imaging element 210 . The imaging element 210 has a light receiving surface in which a large number of light receiving elements are arranged in a matrix, and subject light transmitted through the zoom lens 110, the focus lens 150, and the diaphragm 130 forms an image on the light receiving surface of the imaging element 210, It is converted into an electric signal by each light receiving element. A color filter of R (red), G (green), or B (blue) is provided on the light receiving surface of the imaging device 210, and a color image of the subject can be acquired based on the signals of each color. As the imaging element 210, various photoelectric conversion elements such as CMOS (Complementary Metal-Oxide Semiconductor) and CCD (Charge-Coupled Device) can be used. The AFE 220 removes noise and amplifies the analog image signal output from the imaging device 210, and the A/D converter 230 converts the captured analog image signal into a digital image signal having a gradation range. The shutter may be either a mechanical shutter or an electronic shutter. In the case of an electronic shutter, the exposure time (shutter speed) can be adjusted by controlling the charge accumulation period of the imaging device 210 with the CPU 240 .

記憶部260は各種の光磁気記録媒体、半導体メモリ等の非一時的記録媒体及びその制御回路により構成され、動画(ライブビュー画像を含む)及び静止画を記憶する。記録媒体は撮像装置10に対し着脱できるタイプを用いることができる。また、記憶部260にはプログラム及びCPU240の各種制御に用いる情報等が記憶される。 The storage unit 260 is composed of various magneto-optical recording media, non-temporary recording media such as semiconductor memory, and their control circuits, and stores moving images (including live view images) and still images. A recording medium of a detachable type with respect to the imaging device 10 can be used. In addition, the storage unit 260 stores programs, information used for various controls of the CPU 240, and the like.

モニタ30は、動画(ライブビュー画像、記録動画)及び静止画を表示することができる。撮像装置10はファインダを備えていてもよく、ファインダはモニタ30として機能する。ファインダは、例えば液晶表示パネル、プリズム、レンズ等により構成され、ユーザは図示せぬ接眼部を介して動画、静止画を視認することができる。ファインダとしては「光学式ビューファインダ(OVF:Optical View Finder)」、「電子式ビューファインダ(EVF:Electronic View Finder)」、あるいはこれらの組合せである「ハイブリッド式ビューファインダ(HVF:Hybrid View Finder)」を用いることができる。 The monitor 30 can display moving images (live view images, recorded moving images) and still images. The imaging device 10 may have a viewfinder, and the viewfinder functions as the monitor 30 . The finder is composed of, for example, a liquid crystal display panel, a prism, a lens, etc., and the user can view moving images and still images through an eyepiece (not shown). As a finder, an "optical view finder (OVF)", an "electronic view finder (EVF)", or a combination of these, a "hybrid view finder (HVF)" is used. can be used.

CPU240は、記憶部260から必要なプログラム及び各種制御に用いる情報を読み出して、CPU240で行われる各種処理及び各種制御を行う。 The CPU 240 reads necessary programs and information used for various controls from the storage unit 260 and performs various processes and controls performed by the CPU 240 .

CPU240は各種制御を実行する。ハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の機能部として作用する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 The CPU 240 executes various controls. The hardware structure is various processors as shown below. For various processors, the circuit configuration can be changed after manufacturing such as CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), which is a general-purpose processor that executes software (program) and acts as various functional units. Programmable Logic Device (PLD), which is a processor, ASIC (Application Specific Integrated Circuit), etc. be

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の機能部を1つのプロセッサで構成してもよい。複数の機能部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能部として作用させる形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の機能部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or composed of two or more processors of the same type or different types (for example, a plurality of FPGAs, or a combination of a CPU and an FPGA). may Also, a plurality of functional units may be configured by one processor. As an example of configuring a plurality of functional units in a single processor, first, as represented by computers such as clients and servers, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor acts as a plurality of functional units. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that implements the functions of the entire system including multiple functional units with a single IC (Integrated Circuit) chip. be. In this way, various functional units are configured using one or more of the above various processors as a hardware structure.

<第1の実施形態>
次に第1の実施形態に関して説明する。本例では、対象枠の位置に対して不感帯が設定される。
<First embodiment>
Next, the first embodiment will be described. In this example, a dead zone is set for the position of the target frame.

図4は、撮像装置10に搭載される画像表示装置11の主な機能構成例を示すブロック図である。画像表示装置11は、画像取得部101、対象検出部103、対象枠決定部105、不感帯決定部107、表示制御部109、情報追加部111、記憶部260、及びモニタ30を備える。画像取得部101、対象検出部103、対象枠決定部105、不感帯決定部107、表示制御部109、及び情報追加部111は、CPU240で実現される。 FIG. 4 is a block diagram showing a main functional configuration example of the image display device 11 mounted on the imaging device 10. As shown in FIG. The image display device 11 includes an image acquisition unit 101 , an object detection unit 103 , an object frame determination unit 105 , a dead zone determination unit 107 , a display control unit 109 , an information addition unit 111 , a storage unit 260 and a monitor 30 . The image acquisition unit 101 , the object detection unit 103 , the object frame determination unit 105 , the dead zone determination unit 107 , the display control unit 109 and the information addition unit 111 are realized by the CPU 240 .

画像取得部101は、連続する画像を取得する。具体的には、画像取得部101は、A/D変換器230から出力される連続する画像を取得する。例えば画像取得部101は、撮像装置10で撮影された複数のフレーム画像で構成されたライブビュー画像を取得する。 The image acquisition unit 101 acquires continuous images. Specifically, the image acquisition unit 101 acquires continuous images output from the A/D converter 230 . For example, the image acquisition unit 101 acquires a live view image composed of a plurality of frame images captured by the imaging device 10 .

対象検出部103は、取得した画像から対象を検出する。例えば、対象検出部103は、公知の技術を使用して人の顔を検出する。対象検出部103は、画像において人の顔を検出し、例えば位置座標で構成される位置情報を取得する。また、対象検出部103は、顔以外の物体も検出することができる。例えば、対象検出部103は、瞳を検出することができる。 A target detection unit 103 detects a target from the acquired image. For example, the object detection unit 103 detects a person's face using a known technique. The object detection unit 103 detects a person's face in the image, and acquires position information including position coordinates, for example. The object detection unit 103 can also detect objects other than faces. For example, the object detection unit 103 can detect the pupil.

対象枠決定部105は、画像中の最新の画像から対象の範囲である対象枠を決定する。対象枠決定部105は、画像取得部101で取得された複数の画像のそれぞれにおいて検出された対象についての対象枠を決定する。対象枠は、検出された対象をユーザに報知するためのものであり、様々な形状を採用することができる。対象枠は例えば正方形を含む矩形であり、また、対象枠は例えば真円を含む楕円である。 The target frame determination unit 105 determines a target frame, which is the target range, from the latest image among the images. The object frame determination unit 105 determines object frames for objects detected in each of the plurality of images acquired by the image acquisition unit 101 . The target frame is for notifying the user of the detected target, and can adopt various shapes. The object frame is, for example, a rectangle containing a square, and the object frame is, for example, an ellipse containing a perfect circle.

不感帯決定部107は、対象枠の表示に関する不感帯を決定する。不感帯決定部107は、例えば対象枠の位置に対する不感帯を決定する。ここで対象枠の表示に関する不感帯とは、対象枠(又は対象)が不感帯の範囲内を動く場合には、表示させる対象枠は対象に追従させずに一定とし、対象枠(又は対象)が不感帯の範囲外を動く場合には、表示させる対象枠は対象に追従させる(対象に対応した対象枠とする)。 The dead zone determining unit 107 determines a dead zone for displaying the target frame. The dead zone determination unit 107 determines, for example, a dead zone with respect to the position of the target frame. Here, the dead zone related to the display of the target frame means that when the target frame (or target) moves within the range of the dead zone, the target frame to be displayed is fixed without following the target, and the target frame (or target) is the dead zone. , the target frame to be displayed follows the target (the target frame corresponding to the target).

図5及び図6は、不感帯決定部107で決定された不感帯について説明する図である。図5及び図6には、n番目のフレームにおいて対象検出部103で検出された顔125、顔125に応じて対象枠決定部105で決定された対象枠121、及び不感帯決定部107で決定された不感帯120が示されている。また、n+1番目のフレームにおいて対象検出部103で検出された顔127、顔127に応じて対象枠決定部105で決定された対象枠123が示されている。なお、本例の場合は、顔125及び顔127には同様の位置関係で対象枠121及び対象枠123がそれぞれ決定される。また、本例の場合、対象の位置又は対象枠の位置の基準点は、対象枠の左上隅の基準点B1(対象枠121)及び基準点B2(対象枠123)である。 5 and 6 are diagrams for explaining the dead zone determined by the dead zone determination unit 107. FIG. 5 and 6 show the face 125 detected by the object detection unit 103 in the n-th frame, the object frame 121 determined by the object frame determination unit 105 according to the face 125, and the target frame 121 determined by the dead zone determination unit 107. A dead band 120 is shown. A face 127 detected by the object detection unit 103 in the (n+1)th frame and a target frame 123 determined by the target frame determination unit 105 according to the face 127 are also shown. In this example, the target frame 121 and the target frame 123 are determined with the same positional relationship for the face 125 and the face 127, respectively. In this example, the reference points for the position of the object or the position of the object frame are the reference point B1 (object frame 121) and the reference point B2 (object frame 123) at the upper left corner of the object frame.

図5に示した場合では、n番目のフレームにおいて設定された不感帯120の範囲内に、n+1番目のフレームで検出された顔127が位置している。すなわち、n+1番目の基準点B2は、不感帯120の範囲内である。したがって、n+1番目のフレームにおいても対象枠121が表示されることになる。 In the case shown in FIG. 5, the face 127 detected in the (n+1)th frame is positioned within the range of the dead zone 120 set in the nth frame. That is, the (n+1)th reference point B2 is within the dead zone 120 . Therefore, the target frame 121 is also displayed in the (n+1)th frame.

図6に示した場合では、n番目のフレームにおいて設定された不感帯122の範囲外に、n+1番目のフレームで検出された顔127が位置している。すなわち、n+1番目の基準点B2は、不感帯122の範囲外である。したがって、n+1番目のフレームにおいては、顔127に対応する対象枠121が表示されることになる。 In the case shown in FIG. 6, the face 127 detected in the (n+1)th frame is positioned outside the range of the dead zone 122 set in the nth frame. That is, the (n+1)th reference point B2 is outside the dead zone 122 . Therefore, the target frame 121 corresponding to the face 127 is displayed in the (n+1)th frame.

このように、検出される対象の位置に対して不感帯を設定することにより、対象の微小の動きには対象枠の表示を移動させずに安定的な表示を行うことができ、且つ不感帯を超える対象の移動には追従性良く対象枠を表示させることができる。 By setting a dead zone with respect to the position of the target to be detected in this way, it is possible to perform stable display without moving the display of the target frame in response to minute movements of the target, and to exceed the dead zone. The target frame can be displayed with good followability for the movement of the target.

また、不感帯決定部107は、不感帯の位置及び/又は大きさを検出された対象によって変更することができる。すなわち、不感帯決定部107は検出された対象の位置に応じて、不感帯の位置及び大きさを変更することができる。さらに、不感帯決定部107は、対象の動きに応じて不感帯の幅を変更することができる。不感帯決定部107は、位置情報と前回の不感帯とに基づいて、対象の動き判定を行い、動き判定の結果に基づいて不感帯(前回の不感帯)を変更する。例えば、不感帯決定部107は、動き判定の結果が第1の方向を示す場合には、第1の方向の不感帯を小さくする。すなわち、検出した対象が移動している方向には不感帯の幅を小さく設定して、対象枠の対象への追従性を向上させている。また、不感帯決定部107は、動き判定の結果が第1の方向を示さない場合には、第1の方向の不感帯を大きくする。すなわち、検出した対象が移動していない方向には不感帯の幅を大きく設定して、対象枠の表示の安定性を向上させている。 In addition, the dead zone determining unit 107 can change the position and/or size of the dead zone according to the detected object. That is, the dead zone determination unit 107 can change the position and size of the dead zone according to the detected position of the target. Furthermore, the dead zone determination unit 107 can change the width of the dead zone according to the movement of the object. The dead zone determination unit 107 determines the motion of the object based on the position information and the previous dead zone, and changes the dead zone (previous dead zone) based on the motion determination result. For example, when the motion determination result indicates the first direction, the dead zone determination unit 107 reduces the dead zone in the first direction. That is, the width of the dead zone is set small in the direction in which the detected object is moving, thereby improving the followability of the object frame to the object. Further, when the motion determination result does not indicate the first direction, the dead zone determination unit 107 increases the dead zone in the first direction. That is, the width of the dead zone is set large in the direction in which the detected target is not moving, thereby improving the stability of the display of the target frame.

図7は、不感帯決定部107が決定する不感帯の具体例を示す図である。なお、図7に示す場合では、図中のX軸の正方向と負方向に不感帯が決定されている。 FIG. 7 is a diagram showing a specific example of the dead zone determined by the dead zone determination unit 107. As shown in FIG. In the case shown in FIG. 7, dead zones are determined in the positive and negative directions of the X-axis in the figure.

図7(A)に示す場合は、前回の対象枠の表示位置Pと正方向と負方向の不感帯の幅が同じ場合である。このように、対象がどちらに動くか不明な場合に、正方向及び負方向で不感帯の幅が同じに設定することにより、適切な対象枠の表示を行うことができる。例えば、不感帯の初期値は一定として、画角の中心から正方向及び負方向で同じ幅の不感帯を設けてもよい。図7(B)に示す場合は、不感帯の幅を全体的に大きくした場合である。図7(C)に示す場合は、不感帯の幅を全体的に小さくした場合である。図7(B)に示すように、不感帯の幅を全体的に大きくすると対象枠の表示の安定性が向上し、図7(C)に示すように、不感帯の幅を全体的に小さくすると対象枠の表示の追従性が向上する。図7(D)に示す場合は、不感帯決定部107の動き判定において、対象が正方向に動いたと判定され、正方向の不感帯の幅を小さくした場合である。また、図7(D)に示す場合では、対象が負方向に動いていないと判定され、負方向の不感帯の幅を大きくした場合である。図7(E)に示す場合は、不感帯決定部107の動き判定において、対象が負方向に動いたと判定され、負方向の不感帯の幅を小さくした場合である。また、図7(E)に示す場合では、対象が正方向に動いていないと判定され、正方向の不感帯の幅を大きくした場合である。 In the case shown in FIG. 7A, the widths of the dead zones in the positive and negative directions are the same as the previous display position P of the target frame. In this way, when it is unknown in which direction the object will move, by setting the width of the dead zone to be the same in the positive direction and the negative direction, it is possible to appropriately display the object frame. For example, the initial value of the dead zone may be constant, and dead zones having the same width in the positive and negative directions from the center of the angle of view may be provided. The case shown in FIG. 7B is a case in which the width of the dead zone is increased as a whole. In the case shown in FIG. 7C, the width of the dead zone is reduced as a whole. As shown in FIG. 7B, when the width of the dead zone is widened, the stability of the display of the target frame is improved. As shown in FIG. The followability of the display of the frame is improved. In the case shown in FIG. 7D, the motion determination by the dead zone determining unit 107 determines that the object has moved in the positive direction, and the width of the dead zone in the positive direction is reduced. In the case shown in FIG. 7D, it is determined that the object is not moving in the negative direction, and the width of the dead zone in the negative direction is increased. In the case shown in FIG. 7(E), it is determined that the object has moved in the negative direction in the motion determination of the dead zone determination unit 107, and the width of the dead zone in the negative direction is reduced. In the case shown in FIG. 7E, it is determined that the object is not moving in the positive direction, and the width of the dead zone in the positive direction is increased.

このように、不感帯決定部107は、対象の動きに応じて不感帯の位置や大きさを変更することにより、対象枠を安定的に且つ追従性が良く表示することができる。 In this way, the dead zone determination unit 107 can stably display the target frame with good followability by changing the position and size of the dead zone according to the movement of the target.

図4に戻って、記憶部260は、一画像前の画像から決定した対象枠に相当する前回の対象枠、及び、一画像前の画像から決定した不感帯に相当する前回の不感帯を記憶する。具体的には図5及び図6で説明したn番目のフレームにおける対象枠121及び不感帯120(不感帯122)を記憶する。記憶部260に記憶された前回の対象枠及び前回の不感帯は、表示制御部109の制御に用いられる。記憶部260に記憶される情報は、画像毎に更新されても良いし、各画像の情報が蓄積されても良い。 Returning to FIG. 4, the storage unit 260 stores the previous target frame corresponding to the target frame determined from the image one image before and the previous dead zone corresponding to the dead zone determined from the image one image before. Specifically, the object frame 121 and dead zone 120 (dead zone 122) in the n-th frame described with reference to FIGS. 5 and 6 are stored. The previous target frame and the previous dead zone stored in the storage unit 260 are used for control of the display control unit 109 . The information stored in the storage unit 260 may be updated for each image, or information of each image may be accumulated.

表示制御部109は、モニタ30への表示を制御する。モニタ30は、ライブビュー画像、記録動画、及び静止画が表示される。また、表示制御部109は、ライブビュー画像又は記録動画に重畳させて対象枠を表示する。表示制御部109は、対象の位置が、前回の不感帯の範囲外の場合には、対象枠を表示し、前回の不感帯の範囲内の場合には、前回の対象を表示する。 The display control unit 109 controls display on the monitor 30 . The monitor 30 displays live view images, recorded moving images, and still images. In addition, the display control unit 109 displays the target frame superimposed on the live view image or the recorded moving image. The display control unit 109 displays the target frame when the position of the target is outside the range of the previous dead zone, and displays the previous target when it is within the range of the previous dead zone.

情報追加部111は、表示制御部109によって、表示された対象枠の位置情報を画像に記録する。具体的には、表示された対象枠の座標値をフレーム毎に付加する。情報追加部111での情報追加は、公知の手法により行われる。 The information addition unit 111 records the position information of the displayed target frame in the image by the display control unit 109 . Specifically, the coordinate values of the displayed target frame are added to each frame. Information addition by the information addition unit 111 is performed by a known method.

次に、画像表示装置11を使用した画像表示方法(画像表示工程)に関して説明する。 Next, an image display method (image display process) using the image display device 11 will be described.

図8及び図9は、画像表示装置11を使用した画像表示方法を示すフローチャートである。本例は、対象として顔が検出され、検出された顔に対応する顔枠が表示される例である。 8 and 9 are flowcharts showing an image display method using the image display device 11. FIG. In this example, a face is detected as an object and a face frame corresponding to the detected face is displayed.

先ず、画像取得部101により、顔が撮影された連続するフレーム画像を取得する(ステップS10)。その後、対象検出部103は、取得されたフレームの各々において、顔を検出し、検出した顔の位置情報を取得する(ステップS11)。 First, the image acquisition unit 101 acquires continuous frame images in which the face is captured (step S10). After that, the object detection unit 103 detects a face in each of the acquired frames and acquires position information of the detected face (step S11).

不感帯決定部107は、前回の「正(正方向)」の動き判定が「1」であるか否かを判定する(ステップS12)。前回の「正」の動き判定が「1」である場合には、不感帯決定部107は正方向に小さい不感帯幅を設定する(ステップS13)。一方、前回の「正」の動き判定が「0」である場合(「1」ではない場合)には、不感帯決定部107は正方向に大きい不感帯幅を設定する(ステップS14)。 The dead zone determination unit 107 determines whether or not the previous "positive (positive direction)" motion determination was "1" (step S12). When the previous "positive" motion determination is "1", the dead zone determining unit 107 sets a dead zone width that is small in the positive direction (step S13). On the other hand, if the previous "positive" motion determination was "0" (not "1"), the dead zone determination unit 107 sets a dead zone width that is large in the positive direction (step S14).

次に、不感帯決定部107は、前回の「負(負方向)」の動き判定が「1」であるか否かを判定する(ステップS15)。前回の「負」の動き判定が「1」である場合には、不感帯決定部107は負方向に小さい不感帯幅を設定する(ステップS16)。一方、前回の「負」の動き判定が「0」である場合(「1」ではない場合)には、不感帯決定部107は負方向に大きい不感帯幅を設定する(ステップS17)。 Next, the dead zone determination unit 107 determines whether or not the previous "negative (negative direction)" motion determination was "1" (step S15). When the previous "negative" motion determination is "1", the dead zone determining unit 107 sets a narrow dead zone width in the negative direction (step S16). On the other hand, if the previous "negative" motion determination was "0" (not "1"), the dead zone determination unit 107 sets a large dead zone width in the negative direction (step S17).

次に、不感帯決定部107は、上記の処理により設定された不感帯幅を用いて、前回の不感帯処理後の座標を基準に不感帯を設定する(ステップS18)。 Next, the dead zone determination unit 107 uses the dead zone width set by the above process to set the dead zone based on the coordinates after the previous dead zone process (step S18).

図9に移って、不感帯決定部107は、取得した今回の顔の位置が上述の説明のように設定された不感帯を超えたか否かを判定する(ステップS19)。取得した今回の顔の位置が設定された不感帯を超えた場合には、不感帯決定部107は正の方向に超えたか否かを判定する(ステップS20)。そして、不感帯決定部107は、今回の顔の位置が正の方向に超えた場合には、動き判定を「正:1」「負:0」と設定する(ステップS21)。一方、対象検出部103は、今回の顔の位置が負の方向に超えた場合には、動き判定を「正:0」「負:1」と設定する(ステップS22)。その後、表示制御部109は、顔枠の表示用に今回の検出された位置情報を使用して、顔枠を表示する(ステップS23)。 Moving to FIG. 9, the dead zone determining unit 107 determines whether or not the acquired face position this time exceeds the dead zone set as described above (step S19). When the current acquired face position exceeds the set dead zone, the dead zone determining unit 107 determines whether or not it exceeds in the positive direction (step S20). Then, when the current position of the face exceeds the positive direction, the dead zone determining unit 107 sets the motion determination to "positive: 1" and "negative: 0" (step S21). On the other hand, when the current position of the face exceeds in the negative direction, the object detection unit 103 sets the motion determination to "positive: 0" and "negative: 1" (step S22). After that, the display control unit 109 displays the face frame using the currently detected position information for displaying the face frame (step S23).

一方で、今回の顔の位置が不感帯を超えていないと判定された場合には、今回の動き判定を「正:0」「負:0」と設定する(ステップS24)。そして、今回の位置情報を前回の位置情報で上書きする(ステップS25)。その後、表示制御部109は、顔枠の表示用に前回の位置情報を使用する(ステップS26)。 On the other hand, if it is determined that the current face position does not exceed the dead zone, the current motion determination is set to "positive: 0" and "negative: 0" (step S24). Then, the current position information is overwritten with the previous position information (step S25). After that, the display control unit 109 uses the previous position information for displaying the face frame (step S26).

上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。 Each configuration and function described above can be appropriately realized by arbitrary hardware, software, or a combination of both. For example, a program that causes a computer to execute the above-described processing steps (procedures), a computer-readable recording medium (non-temporary recording medium) recording such a program, or a computer capable of installing such a program However, it is possible to apply the present invention.

図10は、不感帯処理の具体例を示す図である。図10で示されるグラフでは、検出対象が顔であり、検出された顔に応じて顔枠の表示が行われるライブビュー画像について示している。図10において、横軸はフレーム毎に顔の検出を行った検出回数を示し、縦軸は表示部におけるX座標を示す。グラフ上の四角印で表される線は不感帯の上限値を示し、菱形印で表される線は検出された顔の位置(X座標)を示し、バツ印で表される線は処理後の顔枠の表示用の位置(X座標)を示し、三角印で表される線は不感帯下限値を示す。なお、顔枠の表示用の位置は枠の中心の位置のX座標を示す。また、X座標が大きくなる方向を正の方向、小さくなる方向を負の方向として以下の説明を行う。 FIG. 10 is a diagram showing a specific example of dead zone processing. The graph shown in FIG. 10 shows a live view image in which a detection target is a face and a face frame is displayed according to the detected face. In FIG. 10, the horizontal axis indicates the number of face detections performed for each frame, and the vertical axis indicates the X coordinate on the display unit. The square line on the graph indicates the upper limit of the dead zone, the diamond line indicates the position (X coordinate) of the detected face, and the cross line indicates the post-processed face position (X coordinate). A line that indicates the position (X coordinate) for displaying the face frame and that is indicated by a triangle mark indicates the lower limit value of the dead zone. The display position of the face frame indicates the X coordinate of the center position of the frame. In the following description, the direction in which the X coordinate increases is defined as the positive direction, and the direction in which the X coordinate decreases as the negative direction.

検出回数170から矢印T1で示されるタイミングまでは、不感帯の上限値と不感帯の下限値との間(不感帯内)で、顔位置が検出されている。したがって、顔枠の表示は変化せずに、顔枠は一定の位置で表示されている。 From the detection count 170 to the timing indicated by the arrow T1, the face position is detected between the upper limit value of the dead band and the lower limit value of the dead band (within the dead band). Therefore, the display of the face frame does not change, and the face frame is displayed at a fixed position.

矢印T2で示されるタイミングでは、顔の位置が不感帯の上限値を超えて検出されているので、顔枠の表示位置は、検出された顔の位置に応じた位置となる。また、矢印T2で示されるタイミングでは、矢印T1で示されるタイミングでの不感帯と同じ不感帯が設定されている。これは、矢印T1で示されるタイミングでは顔の位置が不感帯内で検出されているからである。 At the timing indicated by the arrow T2, the position of the face is detected beyond the upper limit of the dead zone, so the display position of the face frame is a position corresponding to the position of the detected face. Also, at the timing indicated by the arrow T2, the same dead band as the dead band at the timing indicated by the arrow T1 is set. This is because the face position is detected within the dead zone at the timing indicated by the arrow T1.

矢印T3で示されるタイミングでは、顔の位置が不感帯の上限値を超えて検出されているので、顔枠の表示位置は、検出された顔の位置に応じた位置となる。また、矢印T3のタイミングでは不感帯が移動し、不感帯の幅も変更されている。具体的には、矢印T3のタイミングでは、矢印T2でのタイミングの顔枠の表示位置を基準に、矢印T2のタイミングで不感帯の上限値を超えた位置で顔枠が表示されているので、矢印T3のタイミングでは正方向の不感帯幅は小さく変更される。 At the timing indicated by the arrow T3, the position of the face is detected beyond the upper limit of the dead zone, so the display position of the face frame is a position corresponding to the position of the detected face. At the timing of arrow T3, the dead zone is moved and the width of the dead zone is also changed. Specifically, at the timing of arrow T3, the face frame is displayed at a position exceeding the upper limit value of the dead zone at the timing of arrow T2, based on the display position of the face frame at the timing of arrow T2. At timing T3, the dead band width in the positive direction is reduced.

このように、顔枠の表示に関して不感帯を設けることにより、安定した顔枠の表示及び検出した顔の位置への追従性を損なわないようにしている。また、上述の態様では、不感帯の幅を前回の顔枠の表示位置を基準にして、不感帯の位置及び不感帯の幅を調節しているので、より安定的で追従性のある顔枠の表示を行うことができる。 In this way, by providing a dead zone for display of the face frame, stable display of the face frame and followability to the position of the detected face are not impaired. Further, in the above-described mode, the width of the dead zone is adjusted based on the previous display position of the face frame, so that the position of the dead zone and the width of the dead zone are adjusted. It can be carried out.

<第2の実施形態>
第1の実施形態では位置に対する不感帯について説明を行ったが、第2の実施形態においては、対象枠の大きさに対する不感帯を設定する例について説明を行う。図4で説明を行った各部は以下のような機能を本実施形態では有する。なお、以下の説明では第2の実施形態での特徴的な箇所を説明する。
<Second embodiment>
In the first embodiment, the dead zone with respect to the position was explained, but in the second embodiment, an example of setting the dead zone with respect to the size of the object frame will be explained. Each unit described with reference to FIG. 4 has the following functions in this embodiment. Note that, in the following description, features that are characteristic of the second embodiment will be described.

対象検出部103は、対象を検出し、対象の大きさ情報を検出する。例えば対象検出部103は、対象である顔を検出し、その顔の大きさ情報(面積、長さ)を検出する。 The object detection unit 103 detects an object and detects size information of the object. For example, the target detection unit 103 detects a target face and detects size information (area, length) of the face.

対象枠決定部105は、最新の画像から対象の範囲である対象枠を決定する。対象枠は、検出された対象の大きさに応じて大きさが決定される。例えば、顔が検出された場合には、検出された顔の範囲を囲むようにして対象枠の大きさが決定される。 A target frame determination unit 105 determines a target frame, which is a target range, from the latest image. The size of the target frame is determined according to the size of the detected target. For example, when a face is detected, the size of the target frame is determined so as to enclose the range of the detected face.

不感帯決定部107は、大きさ情報と前回の不感帯とに基づいて、対象の動き判定を行い、動き判定の結果に基づいて前回の不感帯を変更することができる。不感帯決定部107は、動き判定の結果が第1の方向を示す場合には、第1の方向の不感帯を小さくする。ここで不感帯決定部107は、正方形の顔枠の一辺の長さを数値化し、その数字が大きくなる方向を正方向、小さくなる方向を負方向として動き判定を行うことができる。 The dead zone determination unit 107 can determine the motion of the object based on the size information and the previous dead zone, and change the previous dead zone based on the motion determination result. The dead zone determination unit 107 reduces the dead zone in the first direction when the motion determination result indicates the first direction. Here, the dead zone determining unit 107 can quantify the length of one side of the square face frame, and determine the movement by regarding the direction in which the number increases as the positive direction and the direction in which the number decreases as the negative direction.

表示制御部109は、対象の大きさが、前回の不感帯の範囲外の場合には、対象枠を表示し、前回の不感帯の範囲内の場合には、前回の対象枠を表示する。 The display control unit 109 displays the target frame when the size of the target is outside the range of the previous dead band, and displays the previous target frame when the size is within the range of the previous dead band.

情報追加部111は、表示制御部109によって、表示された対象枠の大きさ情報を画像に記録する。具体的には、表示された対象枠の大きさ(面積又は一辺の長さ)をフレーム毎に付加する。情報追加部111での情報追加は、公知の手法により行われる。 The information addition unit 111 records the size information of the displayed target frame in the image by the display control unit 109 . Specifically, the size (area or length of one side) of the displayed target frame is added to each frame. Information addition by the information addition unit 111 is performed by a known method.

図11は、対象枠の大きさの不感帯に関して説明する図である。図11中では、対象枠131は不感帯の下限値を示し、対象枠133は不感帯の上限値を示しており、対象枠139は表示用の対象枠を示している。例えば、対象枠131で示される不感帯の下限値及び対象枠133で示される不感帯の上限値の範囲内ある対象枠137に対応する対象が検出された場合には、表示制御部109は対象枠139を表示する。一方、対象枠131で示される不感帯の下限値及び対象枠133で示される不感帯の上限値の範囲外にある対象枠135に対応する対象が検出された場合には、表示制御部109は、対象枠135を表示用の対象枠として表示する。 FIG. 11 is a diagram for explaining the dead zone of the size of the target frame. In FIG. 11, a target frame 131 indicates the lower limit of the dead band, a target frame 133 indicates the upper limit of the dead band, and a target frame 139 indicates a display target frame. For example, when a target corresponding to the target frame 137 within the range of the lower limit value of the dead band indicated by the target frame 131 and the upper limit value of the dead band indicated by the target frame 133 is detected, the display control unit 109 controls the target frame 139 display. On the other hand, when a target corresponding to the target frame 135 outside the range of the lower limit of the dead band indicated by the target frame 131 and the upper limit of the dead band indicated by the target frame 133 is detected, the display control unit 109 detects the target Frame 135 is displayed as a target frame for display.

次に、画像表示装置11を使用した画像表示方法(画像表示工程)に関して説明する。画像表示方法は、連続するフレームにおいて顔を検出し、検出した顔の位置をユーザに報知する顔枠を連続して表示する。 Next, an image display method (image display process) using the image display device 11 will be described. In the image display method, faces are detected in successive frames, and face frames are successively displayed to inform the user of the positions of the detected faces.

図12及び図13は、画像表示装置11を使用した画像表示方法(画像表示工程)を示すフローチャートである。 12 and 13 are flowcharts showing an image display method (image display process) using the image display device 11. FIG.

先ず、画像取得部101により、顔が撮影された連続するフレーム画像を取得する(ステップS30)。その後、対象検出部103は、取得されたフレームの各々において、顔を検出し、検出した顔の大きさ情報を取得する(ステップS31)。 First, the image acquisition unit 101 acquires continuous frame images in which the face is captured (step S30). After that, the object detection unit 103 detects a face in each of the acquired frames and acquires size information of the detected face (step S31).

不感帯決定部107は、前回の「正(正方向)」の動き判定が「1」であるか否かを判定する(ステップS32)。前回の「正」の動き判定が「1」である場合には、不感帯決定部107は正方向に小さい不感帯幅を設定する(ステップS33)。一方、前回の「正」の動き判定が「0」である場合(「1」ではない場合)には、不感帯決定部107は正方向に大きい不感帯幅を設定する(ステップS34)。なお、正方向は枠が大きくなる方向を示し、負方向は枠が小さくなる方向を示す。 The dead zone determining unit 107 determines whether or not the previous "positive (positive direction)" motion determination was "1" (step S32). When the previous "positive" motion determination is "1", the dead zone determining unit 107 sets a dead zone width that is small in the positive direction (step S33). On the other hand, if the previous "positive" motion determination was "0" (not "1"), the dead zone determination unit 107 sets a large dead zone width in the positive direction (step S34). The positive direction indicates the direction in which the frame becomes larger, and the negative direction indicates the direction in which the frame becomes smaller.

次に、不感帯決定部107は、前回の「負」の動き判定が「1」であるか否かを判定する(ステップS35)。前回の「負(負方向)」の動き判定が「1」である場合には、不感帯決定部107は負方向に小さい不感帯幅を設定する(ステップS36)。一方、前回の「負」の動き判定が「0」である場合(「1」ではない場合)には、不感帯決定部107は負方向に大きい不感帯幅を設定する(ステップS37)。 Next, the dead zone determination unit 107 determines whether or not the previous "negative" motion determination was "1" (step S35). When the previous "negative (negative direction)" motion determination is "1", the dead zone determination unit 107 sets a small dead zone width in the negative direction (step S36). On the other hand, if the previous "negative" motion determination was "0" (not "1"), the dead zone determination unit 107 sets a large dead zone width in the negative direction (step S37).

次に、不感帯決定部107は、上記の処理により設定された不感帯幅を用いて、前回の不感帯処理後の大きさを基準に不感帯を設定する(ステップS38)。 Next, the dead zone determination unit 107 uses the dead zone width set by the above process to set the dead zone based on the size after the previous dead zone process (step S38).

図13に移って、次に、不感帯決定部107は、取得した今回の顔の大きさが今回設定された不感帯を超えたか否かを判定する(ステップS39)。取得した今回の顔の大きさが今回設定された不感帯を超えた場合には、不感帯決定部107は正方向に超えたか否かを判定する(ステップS40)。そして、不感帯決定部107は、今回の顔の大きさが正方向に超えた場合には、動き判定を「正:1」「負:0」と設定する(ステップS41)。一方、対象検出部103は、今回の顔の大きさが負方向に超えた場合には、動き判定を「正:0」「負:1」と設定する(ステップS42)。その後、表示制御部109は、顔枠の表示用に今回の検出された大きさ情報を使用して、顔枠を表示する(ステップS43)。 Moving to FIG. 13, next, the dead zone determination unit 107 determines whether or not the acquired face size this time exceeds the dead zone set this time (step S39). When the acquired face size this time exceeds the currently set dead zone, the dead zone determining unit 107 determines whether or not it exceeds in the positive direction (step S40). Then, when the size of the face this time exceeds in the positive direction, the dead zone determination unit 107 sets the motion determination to "positive: 1" and "negative: 0" (step S41). On the other hand, when the size of the current face exceeds the negative direction, the object detection unit 103 sets the motion determination to "positive: 0" and "negative: 1" (step S42). Thereafter, the display control unit 109 displays the face frame using the size information detected this time for displaying the face frame (step S43).

一方で、今回の顔の大きさが不感帯を超えていないと判定された場合には、今回の動き判定を「正:0」「負:0」と設定する(ステップS44)。そして、今回の大きさ情報を前回の大きさ情報で上書きする(ステップS45)。その後、表示制御部109は、顔枠の表示用に前回の大きさ情報を使用する(ステップS46)。 On the other hand, if it is determined that the current face size does not exceed the dead zone, the current motion determination is set to "positive: 0" and "negative: 0" (step S44). Then, the current size information is overwritten with the previous size information (step S45). After that, the display control unit 109 uses the previous size information for displaying the face frame (step S46).

以上で説明したように、対象の大きさが、前回の不感帯の範囲内の場合には前回に表示した対象枠を表示するので、小さい変動(大きさの変動)では対象枠の表示用の大きさ情報を変えずに安定的に対象枠を表示することができる。また、対象の大きさが、前回の不感帯の範囲外の場合には、今回検出された対象に対応する対象枠を表示するので、検出された対象への追従性(大きさの追従性)が優れた対象枠の表示を行うことができる。 As explained above, if the target size is within the previous dead zone, the previously displayed target frame is displayed. It is possible to stably display the target frame without changing the information. In addition, when the size of the object is outside the range of the previous dead zone, the object frame corresponding to the object detected this time is displayed, so the followability (followability of size) to the detected object is improved. An excellent object frame can be displayed.

<その他>
[位置及び大きさに対する不感帯]
上述の説明においては、第1の実施形態において対象枠の位置に対する不感帯に関して説明し、第2の実施形態においては対象枠の大きさに対する不感帯に関して説明をした。本発明では、対象枠の位置及び大きさに対して不感帯を決定することもできる。すなわち、対象枠の位置及び大きさに関して、不感帯が同時に設定される。このように、対象枠の位置と大きさとに関して不感帯を設定することにより、より安定的に対象への追従性が良く対象枠の表示を行うことができる。
<Others>
[Dead zone for position and size]
In the above description, the dead zone with respect to the position of the target frame has been described in the first embodiment, and the dead zone with respect to the size of the target frame has been described in the second embodiment. In the present invention, a dead zone can also be determined with respect to the position and size of the object frame. That is, a dead zone is simultaneously set with respect to the position and size of the target frame. By setting the dead zone with respect to the position and size of the target frame in this manner, the target frame can be displayed more stably with good followability to the target.

[連続する画像]
上述の説明においては、画像取得部101が取得した画像に対して、対象検出部103により対象が検出され、対象枠決定部105により対象枠が決定されていた。しかし、本発明はこの態様に限定されるものではない。例えば画像取得部101が取得する連続する画像は、検出された対象の位置、及び対象の範囲である対象枠の位置に関する情報を有していてもよい。また、例えば画像取得部101が取得する連続する画像は、検出された対象の大きさ、及び対象の範囲である対象枠の大きさに関する情報を有していてもよい。この場合には、画像表示装置11において、取得した画像から対象の検出(対象検出部103)及び対象枠の決定(対象枠決定部105)が不要となる。
[Consecutive images]
In the above description, the object detection unit 103 detects the object and the object frame determination unit 105 determines the object frame in the image acquired by the image acquisition unit 101 . However, the invention is not limited to this aspect. For example, consecutive images acquired by the image acquisition unit 101 may have information about the position of the detected target and the position of the target frame, which is the range of the target. Further, for example, consecutive images acquired by the image acquisition unit 101 may have information about the size of the detected target and the size of the target frame, which is the range of the target. In this case, the image display device 11 does not need to detect a target (target detection unit 103) and determine a target frame (target frame determination unit 105) from the acquired image.

<スマートフォンの構成>
上述の説明では、図1において撮像装置10の一例として、カメラを用いて説明をしたが、本発明の適用はこれに限定されるものではない。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。なお、図4におけるCPU240は主制御部501に対応し、記憶部260は記憶部550に対応し、モニタ30は表示パネル521に対応する。
<Smartphone configuration>
In the above description, a camera is used as an example of the imaging device 10 in FIG. 1, but application of the present invention is not limited to this. Other aspects to which the present invention can be applied include, for example, mobile phones and smart phones with camera functions, PDAs (Personal Digital Assistants), and portable game machines. An example of a smart phone to which the present invention can be applied will be described below. Note that the CPU 240 in FIG. 4 corresponds to the main control unit 501 , the storage unit 260 corresponds to the storage unit 550 , and the monitor 30 corresponds to the display panel 521 .

図14は、スマートフォン500の外観を示す図である。図14に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、係る筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。なお、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。 FIG. 14 is a diagram showing the appearance of smartphone 500 . A smartphone 500 shown in FIG. 14 has a flat housing 502, and a display panel 521 as a display unit and an operation panel 522 as an input unit are integrated on one surface of the housing 502 for display input. A portion 520 is provided. Further, the housing 502 includes a speaker 531 , a microphone 532 , an operation section 540 and a camera section 541 . Note that the configuration of the housing 502 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent may be adopted, or a configuration having a folding structure or a slide mechanism may be adopted.

図15は、図14に示すスマートフォン500の構成を示すブロック図である。図15に示すように、スマートフォンの主たる構成要素として、基地局と移動通信網とを介した移動無線通信を行う無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記憶部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。 FIG. 15 is a block diagram showing the configuration of smartphone 500 shown in FIG. As shown in FIG. 15, the main components of a smart phone are a wireless communication unit 510 that performs mobile wireless communication via a base station and a mobile communication network, a display input unit 520, a call unit 530, and an operation unit 540. , a camera unit 541 , a storage unit 550 , an external input/output unit 560 , a GPS (Global Positioning System) receiving unit 570 , a motion sensor unit 580 , a power supply unit 590 , and a main control unit 501 .

無線通信部510は、主制御部501の指示にしたがって、移動通信網に収容された基地局に対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信、Webデータ及びストリーミングデータなどの受信を行う。 Radio communication section 510 performs radio communication with a base station accommodated in a mobile communication network according to instructions from main control section 501 . This wireless communication is used to transmit and receive various file data such as audio data and image data, e-mail data and the like, and to receive Web data and streaming data.

表示入力部520は、主制御部501の制御により、画像(静止画及び動画)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。 Under the control of the main control unit 501, the display input unit 520 displays images (still images and moving images), character information, etc. to visually transmit information to the user, and detects user operations on the displayed information. The touch panel includes a display panel 521 and an operation panel 522 .

表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。かかるデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。 The display panel 521 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device. The operation panel 522 is a device that is placed so that an image displayed on the display surface of the display panel 521 can be visually recognized, and that detects one or more coordinates operated by the user's finger or stylus. When such a device is operated by a user's finger or a stylus, a detection signal generated due to the operation is output to the main control unit 501 . Next, the main controller 501 detects the operating position (coordinates) on the display panel 521 based on the received detection signal.

図14に示すように、本発明の撮像装置10の一実施形態として例示しているスマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。かかる配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。 As shown in FIG. 14, a display panel 521 and an operation panel 522 of a smartphone 500 illustrated as an embodiment of the imaging device 10 of the present invention are integrated to form a display input unit 520. The arrangement is such that the panel 522 completely covers the display panel 521 . When such an arrangement is adopted, the operation panel 522 may have a function of detecting user operations in areas outside the display panel 521 as well. In other words, the operation panel 522 has a detection area (hereinafter referred to as a display area) for the overlapping portion overlapping the display panel 521 and a detection area (hereinafter referred to as a non-display area) for the outer edge portion not overlapping the display panel 521. ) may be provided.

なお、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。また、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。 The size of the display area and the size of the display panel 521 may be completely matched, but they do not necessarily have to be matched. Also, the operation panel 522 may have two sensitive areas, an outer edge portion and an inner portion other than the outer edge portion. Furthermore, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like. Position detection methods employed in the operation panel 522 include a matrix switch method, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. can also

通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力したり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力するものである。また、図14に示すように、例えば、スピーカ531、マイクロホン532を表示入力部520が設けられた面と同じ面に搭載することができる。 The call unit 530 includes a speaker 531 and a microphone 532, converts the user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501, and outputs the data to the main control unit 501, or a wireless communication unit. 510 or the external input/output unit 560 decodes the audio data and outputs it from the speaker 531 . Further, as shown in FIG. 14, for example, a speaker 531 and a microphone 532 can be mounted on the same surface as the display input unit 520 is provided.

操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図14に示すように、操作部540は、スマートフォン500の筐体502の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。 The operation unit 540 is a hardware key using a key switch or the like, and receives instructions from the user. For example, as shown in FIG. 14, the operation unit 540 is mounted on the side surface of the housing 502 of the smartphone 500, is turned on when pressed with a finger or the like, and is turned off by the restoring force of a spring or the like when the finger is released. It is a push button type switch.

記憶部550は、主制御部501の制御プログラム、制御データ、アプリケーションソフトウェア、通信相手の名称及び電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、及びダウンロードしたコンテンツデータを記憶し、又ストリーミングデータなどを一時的に記憶するものである。また、記憶部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552により構成される。なお、記憶部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの記録媒体を用いて実現される。 The storage unit 550 stores the control program of the main control unit 501, control data, application software, address data associated with the name and telephone number of the communication partner, data of sent and received e-mails, web data downloaded by web browsing, and It stores downloaded content data and temporarily stores streaming data. The storage unit 550 is configured by an internal storage unit 551 built into the smartphone and an external storage unit 552 having a detachable external memory slot. The internal storage unit 551 and the external storage unit 552 constituting the storage unit 550 are of the flash memory type, hard disk type, multimedia card micro type, It is implemented using a recording medium such as a card-type memory (for example, Micro SD (registered trademark) memory), RAM (Random Access Memory), ROM (Read Only Memory), or the like.

外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、及びIEEE1394など)又はネットワーク(例えば、インターネット、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。 The external input/output unit 560 serves as an interface with all external devices connected to the smartphone 500, and communicates with other external devices (e.g., universal serial bus (USB), IEEE 1394, etc.) or Network (e.g., Internet, wireless LAN (Local Area Network), Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (registered trademark), UWB (Ultra Wideband) ( (registered trademark), ZigBee (registered trademark), etc.).

スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)、SIM(Subscriber Identity Module Card)/UIM(UserIdentity Module Card)カード、又はオーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオビデオ機器、無線接続される外部オーディオビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、及びイヤホンなどがある。外部入出力部560は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達し、又はスマートフォン500の内部のデータを外部機器に伝送することが可能である。 External devices connected to the smart phone 500 may include, for example, a wired/wireless headset, a wired/wireless external charger, a wired/wireless data port, a memory card connected through a card socket, a SIM (subscriber), and so on. Identity Module Card)/UIM (User Identity Module Card) card, external audio-video equipment connected via audio/video I/O (Input/Output) terminals, external audio-video equipment wirelessly connected, wired/wireless connection connected smart phones, wired/wireless personal computers, wired/wireless PDA, and earphones. The external input/output unit 560 can transmit data received from such an external device to each component inside the smartphone 500 or transmit data inside the smartphone 500 to an external device.

GPS受信部570は、主制御部501の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン500の緯度、経度、及び高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。 GPS receiving unit 570 receives GPS signals transmitted from GPS satellites ST1 to STn according to instructions from main control unit 501, performs positioning calculation processing based on a plurality of received GPS signals, and obtains the latitude of smartphone 500, Detects a position consisting of longitude and altitude. When the GPS receiving unit 570 can acquire position information from the wireless communication unit 510 or the external input/output unit 560 (for example, wireless LAN), it can also detect the position using the position information.

モーションセンサ部580は、例えば、3軸の加速度センサ及びジャイロセンサなどを備え、主制御部501の指示にしたがって、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。 The motion sensor unit 580 includes, for example, a triaxial acceleration sensor and a gyro sensor, and detects physical movements of the smartphone 500 according to instructions from the main control unit 501 . By detecting the physical movement of smartphone 500, the moving direction and acceleration of smartphone 500 are detected. This detection result is output to the main control unit 501 .

電源部590は、主制御部501の指示にしたがって、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。 The power supply unit 590 supplies power stored in a battery (not shown) to each unit of the smartphone 500 according to instructions from the main control unit 501 .

主制御部501は、マイクロプロセッサを備え、記憶部550が記憶する制御プログラム及び制御データにしたがって動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能及びアプリケーション処理機能を備える。 The main control unit 501 includes a microprocessor, operates according to control programs and control data stored in the storage unit 550 , and controls each unit of the smartphone 500 in an integrated manner. Also, the main control unit 501 has a mobile communication control function and an application processing function for controlling each unit of the communication system in order to perform voice communication and data communication through the wireless communication unit 510 .

アプリケーション処理機能は、記憶部550が記憶するアプリケーションソフトウェアにしたがって主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能、本発明に係る圧縮処理を行う画像処理機能などがある。 The application processing function is realized by main control section 501 operating according to application software stored in storage section 550 . Application processing functions include, for example, an infrared communication function for controlling the external input/output unit 560 to perform data communication with a counterpart device, an e-mail function for sending and receiving e-mails, a web browsing function for browsing web pages, and the present invention. There is an image processing function that performs compression processing related to

また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画や動画のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、係る復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。 The main control unit 501 also has an image processing function such as displaying an image on the display input unit 520 based on image data (still image or moving image data) such as received data or downloaded streaming data. The image processing function is a function in which the main control unit 501 decodes the image data, applies image processing to the decoded result, and displays the image on the display input unit 520 .

さらに、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。 Furthermore, the main control unit 501 executes display control for the display panel 521 and operation detection control for detecting user operations through the operation unit 540 and the operation panel 522 .

表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコン及びスクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。 By executing display control, the main control unit 501 displays software keys such as icons and scroll bars for starting application software, or displays a window for creating an e-mail. Note that the scroll bar is a software key for accepting an instruction to move the display portion of an image that is too large to fit in the display area of the display panel 521 .

また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じてアイコンに対する操作、及びウィンドウの入力欄に対する文字列の入力を受け付け、或いはスクロールバーを通じた表示画像のスクロール要求を受け付ける。 Further, by executing the operation detection control, the main control unit 501 detects user operations through the operation unit 540, accepts operations on icons through the operation panel 522 and input of character strings in input fields of windows, or scrolls. Accepts a request to scroll the display image through the bar.

さらに、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定し、操作パネル522の感応領域及びソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。 Furthermore, by executing the operation detection control, the main control unit 501 determines whether the operation position on the operation panel 522 is an overlapping portion (display area) overlapping the display panel 521 or an outer edge portion (non-display area) not overlapping the display panel 521. ) and controls the display position of the sensitive area of the operation panel 522 and the software keys.

また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組合せて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。 The main control unit 501 can also detect a gesture operation on the operation panel 522 and execute a preset function according to the detected gesture operation. A gesture operation is not a conventional simple touch operation, but an operation of drawing a locus with a finger or the like, specifying a plurality of positions simultaneously, or combining these to draw a locus from at least one of a plurality of positions. means.

カメラ部541は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラであり、図1に示した撮像装置10に相当する。また、カメラ部541は、主制御部501の制御により、撮影によって得た静止画の画像データを、例えばJPEG(Joint Photographic coding Experts Group)で圧縮し、又は動画の画像データを、例えばH.264/AVCで圧縮して記憶部550に記録したり、外部入出力部560や無線通信部510を通じて出力することができる。図14に示すようにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、或いは、複数のカメラ部541が搭載されてもよい。なお、複数のカメラ部541が搭載されている場合、撮影に供するカメラ部541を切り替えて単独にて撮影したり、或いは、複数のカメラ部541を同時に使用して撮影することもできる。 The camera unit 541 is a digital camera that performs electronic imaging using an imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device), and corresponds to the imaging apparatus 10 shown in FIG. In addition, under the control of the main control unit 501, the camera unit 541 compresses the image data of a still image obtained by shooting with, for example, JPEG (Joint Photographic coding Experts Group), or compresses the image data of a moving image into, for example, H.264. 264/AVC and recorded in the storage unit 550 , or output through the external input/output unit 560 or the wireless communication unit 510 . As shown in FIG. 14 , in the smartphone 500 , the camera unit 541 is mounted on the same surface as the display input unit 520 , but the mounting position of the camera unit 541 is not limited to this. Alternatively, a plurality of camera units 541 may be mounted. Note that when a plurality of camera units 541 are mounted, the camera unit 541 used for photographing can be switched and photographed independently, or the plurality of camera units 541 can be used simultaneously for photographing.

また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。更には、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサ(ジャイロセンサ)と併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。 Also, the camera unit 541 can be used for various functions of the smartphone 500 . For example, an image acquired by the camera unit 541 can be displayed on the display panel 521, or an image of the camera unit 541 can be used as one of the operation inputs of the operation panel 522. Further, when the GPS receiving section 570 detects the position, it is also possible to refer to the image from the camera section 541 and detect the position. Furthermore, by referring to the image from the camera unit 541, the optical axis direction of the camera unit 541 of the smartphone 500 can be detected without using a triaxial acceleration sensor or in combination with a triaxial acceleration sensor (gyro sensor). can be determined, and the current usage environment can also be determined. Of course, the image from the camera unit 541 can also be used within the application software.

その他、静止画又は動画の画像データにGPS受信部570により取得した位置情報、マイクロホン532により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部580により取得した姿勢情報等などを付加して記憶部550に記録したり、外部入出力部560や無線通信部510を通じて出力することもできる。 In addition, positional information acquired by the GPS receiving unit 570 in image data of still images or moving images, audio information acquired by the microphone 532 (which may be converted into text information by performing audio-to-text conversion by the main control unit, etc.), Posture information and the like acquired by the motion sensor unit 580 can be added and recorded in the storage unit 550 or output through the external input/output unit 560 and the wireless communication unit 510 .

以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。 Although examples of the present invention have been described above, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible without departing from the spirit of the present invention.

1 :ストロボ
2 :シャッタボタン
3 :電源/モードスイッチ
4 :モードダイヤル
5 :ズームボタン
6 :十字ボタン
7 :MENU/OKボタン
8 :再生ボタン
9 :BACKボタン
10 :撮像装置
11 :画像表示装置
12 :撮影レンズ
30 :モニタ
101 :画像取得部
103 :対象検出部
105 :対象枠決定部
107 :不感帯決定部
109 :表示制御部
110 :ズームレンズ
111 :情報追加部
140 :レンズ駆動部
150 :フォーカスレンズ
210 :撮像素子
230 :A/D変換器
240 :CPU
250 :操作部
260 :記憶部
1 : Strobe 2 : Shutter button 3 : Power/mode switch 4 : Mode dial 5 : Zoom button 6 : Cross button 7 : MENU/OK button 8 : Playback button 9 : BACK button 10 : Imaging device 11 : Image display device 12 : Shooting lens 30 : Monitor 101 : Image acquisition unit 103 : Object detection unit 105 : Object frame determination unit 107 : Dead zone determination unit 109 : Display control unit 110 : Zoom lens 111 : Information addition unit 140 : Lens drive unit 150 : Focus lens 210 : Image sensor 230 : A/D converter 240 : CPU
250: Operation unit 260: Storage unit

Claims (23)

複数の画像の入力を受け付ける画像取得部と、
前記複数の画像のうち、第1の画像及び第2の画像から対象を検出する対象検出部と、
前記第1の画像中の前記対象の範囲である第1の対象枠、及び前記第2の画像中の前記対象の範囲である第2の対象枠を決定する対象枠決定部と、
前記第1の画像中から抽出された前記対象に対する不感帯を決定する不感帯決定部と、
前記第2の画像から検出された前記対象の位置が、
前記第1の画像から決定された前記不感帯の範囲外の場合は、前記第2の画像中に前記第2の対象枠を、
前記第1の画像から決定された前記不感帯の範囲内の場合は、前記第2の画像中に前記第1の対象枠を、
表示する制御を実行する表示制御部と、
を備える画像表示装置。
an image acquisition unit that receives input of a plurality of images;
a target detection unit that detects a target from a first image and a second image among the plurality of images;
a target frame determination unit that determines a first target frame that is the range of the target in the first image and a second target frame that is the range of the target in the second image;
a dead zone determination unit that determines a dead zone for the object extracted from the first image;
The position of the object detected from the second image is
when outside the range of the dead zone determined from the first image, the second object frame in the second image,
If it is within the range of the dead zone determined from the first image, the first object frame is placed in the second image,
a display control unit that controls display;
An image display device comprising:
前記不感帯決定部が、前記対象に対する前記第1の対象枠の位置から前記不感帯を決定することを特徴とする、請求項1に記載の画像表示装置。 2. The image display apparatus according to claim 1, wherein said dead zone determination unit determines said dead zone from the position of said first object frame with respect to said object. 前記対象検出部は、前記対象の位置情報を検出し、
前記不感帯決定部は、前記位置情報に基づいて、前記不感帯を変更する請求項1又は2に記載の画像表示装置。
The target detection unit detects position information of the target,
3. The image display device according to claim 1, wherein the dead zone determining section changes the dead zone based on the position information.
前記不感帯決定部は、前記位置情報と前記不感帯とに基づいて、前記対象の動き判定を行い、前記動き判定の結果に基づいて前記不感帯を変更する請求項3に記載の画像表示装置。 4. The image display device according to claim 3, wherein the dead zone determining section performs motion determination of the target based on the position information and the dead zone, and changes the dead zone based on the result of the motion determination. 複数の画像の入力を受け付ける画像取得部と、
前記複数の画像のうち、第1の画像及び第2の画像から対象を検出する対象検出部と、
前記第1の画像中の前記対象の範囲である第1の対象枠、及び前記第2の画像中の前記対象の範囲である第2の対象枠を決定する対象枠決定部と、
前記第1の画像中から抽出された前記対象に対する不感帯を決定する不感帯決定部と、
前記第2の画像から検出された前記対象の大きさが、
前記第1の画像から決定された前記不感帯の範囲外の場合は、前記第2の画像中に前記第2の対象枠を、
前記第1の画像から決定された前記不感帯の範囲内の場合は、前記第2の画像中に前記第1の対象枠を、
表示する制御を実行する表示制御部と、
を備える画像表示装置。
an image acquisition unit that receives input of a plurality of images;
a target detection unit that detects a target from a first image and a second image among the plurality of images;
a target frame determination unit that determines a first target frame that is the range of the target in the first image and a second target frame that is the range of the target in the second image;
a dead zone determination unit that determines a dead zone for the object extracted from the first image;
the size of the object detected from the second image is
when outside the range of the dead zone determined from the first image, the second object frame in the second image,
If it is within the range of the dead zone determined from the first image, the first object frame is placed in the second image,
a display control unit that controls display;
An image display device comprising:
前記不感帯決定部が、前記対象に対する前記第1の対象枠の大きさから前記不感帯を決定することを特徴とする、請求項5に記載の画像表示装置。 6. The image display apparatus according to claim 5, wherein said dead zone determination unit determines said dead zone from the size of said first object frame for said object. 前記対象検出部は、前記対象の大きさ情報を検出し、
前記不感帯決定部は、前記大きさ情報に基づいて、前記不感帯を変更する請求項5又は6に記載の画像表示装置。
The target detection unit detects size information of the target,
7. The image display device according to claim 5, wherein the dead zone determining section changes the dead zone based on the size information.
前記不感帯決定部は、前記大きさ情報と前記不感帯とに基づいて、前記対象の動き判定を行い、前記動き判定の結果に基づいて前記不感帯を変更する請求項5から7のいずれか1項に記載の画像表示装置。 8. The dead zone determination unit according to any one of claims 5 to 7, wherein the dead zone determining unit performs motion determination of the target based on the size information and the dead zone, and changes the dead zone based on the result of the motion determination. The image display device described. 前記不感帯決定部は、前記動き判定の結果が第1の方向を示す場合には、前記第1の方向の前記不感帯を小さくする請求項4又は8に記載の画像表示装置。 9. The image display device according to claim 4, wherein the dead zone determination unit reduces the dead zone in the first direction when the motion determination result indicates the first direction. 前記不感帯決定部は、前記動き判定の結果が第1の方向を示さない場合には、前記第1の方向の前記不感帯を大きくする請求項9に記載の画像表示装置。 10. The image display device according to claim 9, wherein the dead zone determination unit enlarges the dead zone in the first direction when the result of the motion determination does not indicate the first direction. 前記第2の画像と前記第1の画像とは、動画像を構成する、異なるフレームの画像であることを特徴とする、請求項1から10のいずれか1項に記載の画像表示装置。 11. The image display device according to claim 1, wherein said second image and said first image are images of different frames forming a moving image. 前記第2の画像が前記第1の画像よりも取得時刻が新しいことを特徴とする、請求項1から11のいずれか1項に記載の画像表示装置。 12. The image display device according to any one of claims 1 to 11, wherein the acquisition time of the second image is newer than that of the first image. 前記不感帯の変更は、前記不感帯の位置又は大きさを、前記対象検出部で検出された前記対象によって変更する請求項3、4、及び7から10のいずれか1項に記載の画像表示装置。 11. The image display device according to any one of claims 3, 4, and 7 to 10, wherein the change of the dead zone changes the position or size of the dead zone according to the object detected by the object detection unit. 前記表示制御部によって、表示された前記第1の対象枠及び前記第2の対象枠の位置情報又は大きさ情報を画像に記録する情報追加部を備える請求項1から13のいずれか1項に記載の画像表示装置。 14. The method according to any one of claims 1 to 13, further comprising an information adding unit that records position information or size information of the first target frame and the second target frame displayed by the display control unit in an image. The image display device described. 前記不感帯は前記第1の対象枠及び前記第2の対象枠に対する不感帯幅であり、前記不感帯の初期値は、一定である請求項1から14のいずれか1項に記載の画像表示装置。 The image display device according to any one of claims 1 to 14, wherein the dead zone is a dead zone width with respect to the first object frame and the second object frame, and an initial value of the dead zone is constant. 前記対象検出部が検出する前記対象は物体である請求項1から15のいずれか1項に記載の画像表示装置。 16. The image display device according to any one of claims 1 to 15, wherein the target detected by the target detection unit is an object. 前記物体は、顔又は瞳である請求項16に記載の画像表示装置。 17. The image display device according to claim 16, wherein said object is a face or an eye. 前記第1の対象枠及び前記第2の対象枠は、矩形である請求項1から17のいずれか1項に記載の画像表示装置。 The image display device according to any one of claims 1 to 17, wherein the first object frame and the second object frame are rectangles. 前記前記第1の対象枠及び前記第2の対象枠は、楕円である請求項1から18のいずれか1項に記載の画像表示装置。 The image display device according to any one of claims 1 to 18, wherein the first object frame and the second object frame are ellipses. 複数の画像の入力を受け付ける画像取得ステップと、
前記複数の画像のうち、第1の画像及び第2の画像から対象を検出する対象検出ステップと、
前記第1の画像中の前記対象の範囲である第1の対象枠、及び前記第2の画像中の前記対象の範囲である第2の対象枠を決定する対象枠決定ステップと、
前記第1の画像中から抽出された前記対象に対する不感帯を決定する不感帯決定ステップと、
前記第2の画像から検出された前記対象の位置が、
前記第1の画像から決定された前記不感帯の範囲外の場合は、前記第2の画像中に前記第2の対象枠を、
前記第1の画像から決定された前記不感帯の範囲内の場合は、前記第2の画像中に前記第1の対象枠を、
表示する制御を実行する表示制御ステップと、
を含む画像表示方法。
an image acquisition step for accepting input of a plurality of images;
a target detection step of detecting a target from a first image and a second image among the plurality of images;
a target frame determination step of determining a first target frame that is the range of the target in the first image and a second target frame that is the range of the target in the second image;
a dead zone determination step of determining a dead zone for the object extracted from the first image;
The position of the object detected from the second image is
when outside the range of the dead zone determined from the first image, the second object frame in the second image,
If it is within the range of the dead zone determined from the first image, the first object frame is placed in the second image,
a display control step for performing display control;
Image display method including.
複数の画像の入力を受け付ける画像取得ステップと、
前記複数の画像のうち、第1の画像及び第2の画像から対象を検出する対象検出ステップと、
前記第1の画像中の前記対象の範囲である第1の対象枠、及び前記第2の画像中の前記対象の範囲である第2の対象枠を決定する対象枠決定ステップと、
前記第1の画像中から抽出された前記対象に対する不感帯を決定する不感帯決定ステップと、
前記第2の画像から検出された前記対象の大きさが、
前記第1の画像から決定された前記不感帯の範囲外の場合は、前記第2の画像中に前記第2の対象枠を、
前記第1の画像から決定された前記不感帯の範囲内の場合は、前記第2の画像中に前記第1の対象枠を、
表示する制御を実行する表示制御ステップと、
を含む画像表示方法。
an image acquisition step for accepting input of a plurality of images;
a target detection step of detecting a target from a first image and a second image among the plurality of images;
a target frame determination step of determining a first target frame that is the range of the target in the first image and a second target frame that is the range of the target in the second image;
a dead zone determination step of determining a dead zone for the object extracted from the first image;
the size of the object detected from the second image is
when outside the range of the dead zone determined from the first image, the second object frame in the second image,
If it is within the range of the dead zone determined from the first image, the first object frame is placed in the second image,
a display control step for performing display control;
Image display method including.
複数の画像の入力を受け付ける画像取得ステップと、
前記複数の画像のうち、第1の画像及び第2の画像から対象を検出する対象検出ステップと、
前記第1の画像中の前記対象の範囲である第1の対象枠、及び前記第2の画像中の前記対象の範囲である第2の対象枠を決定する対象枠決定ステップと、
前記第1の画像中から抽出された前記対象に対する不感帯を決定する不感帯決定ステップと、
前記第2の画像から検出された前記対象の位置が、
前記第1の画像から決定された前記不感帯の範囲外の場合は、前記第2の画像中に前記第2の対象枠を、
前記第1の画像から決定された前記不感帯の範囲内の場合は、前記第2の画像中に前記第1の対象枠を、
表示する制御を実行する表示制御ステップと、
を含む画像表示工程をコンピュータに実行させるプログラム。
an image acquisition step for accepting input of a plurality of images;
a target detection step of detecting a target from a first image and a second image among the plurality of images;
a target frame determination step of determining a first target frame that is the range of the target in the first image and a second target frame that is the range of the target in the second image;
a dead zone determination step of determining a dead zone for the object extracted from the first image;
The position of the object detected from the second image is
when outside the range of the dead zone determined from the first image, the second object frame in the second image,
If it is within the range of the dead zone determined from the first image, the first object frame is placed in the second image,
a display control step for performing display control;
A program that causes a computer to execute an image display process including
複数の画像の入力を受け付ける画像取得ステップと、
前記複数の画像のうち、第1の画像及び第2の画像から対象を検出する対象検出ステップと、
前記第1の画像中の前記対象の範囲である第1の対象枠、及び前記第2の画像中の前記対象の範囲である第2の対象枠を決定する対象枠決定ステップと、
前記第1の画像中から抽出された前記対象に対する不感帯を決定する不感帯決定ステップと、
前記第2の画像から検出された前記対象の大きさが、
前記第1の画像から決定された前記不感帯の範囲外の場合は、前記第2の画像中に前記第2の対象枠を、
前記第1の画像から決定された前記不感帯の範囲内の場合は、前記第2の画像中に前記第1の対象枠を、
表示する制御を実行する表示制御ステップと、
を含む画像表示工程をコンピュータに実行させるプログラム。
an image acquisition step for accepting input of a plurality of images;
a target detection step of detecting a target from a first image and a second image among the plurality of images;
a target frame determination step of determining a first target frame that is the range of the target in the first image and a second target frame that is the range of the target in the second image;
a dead zone determination step of determining a dead zone for the object extracted from the first image;
the size of the object detected from the second image is
when outside the range of the dead zone determined from the first image, the second object frame in the second image,
If it is within the range of the dead zone determined from the first image, the first object frame is placed in the second image,
a display control step for performing display control;
A program that causes a computer to execute an image display process including
JP2022190713A 2019-02-28 2022-11-29 Image display device, image display method, and program Pending JP2023024485A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019036375 2019-02-28
JP2019036375 2019-02-28
JP2021501692A JP7186854B2 (en) 2019-02-28 2020-01-16 Image display device, image display method, and program
PCT/JP2020/001159 WO2020174911A1 (en) 2019-02-28 2020-01-16 Image display device, image display method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021501692A Division JP7186854B2 (en) 2019-02-28 2020-01-16 Image display device, image display method, and program

Publications (1)

Publication Number Publication Date
JP2023024485A true JP2023024485A (en) 2023-02-16

Family

ID=72239331

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021501692A Active JP7186854B2 (en) 2019-02-28 2020-01-16 Image display device, image display method, and program
JP2022190713A Pending JP2023024485A (en) 2019-02-28 2022-11-29 Image display device, image display method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021501692A Active JP7186854B2 (en) 2019-02-28 2020-01-16 Image display device, image display method, and program

Country Status (2)

Country Link
JP (2) JP7186854B2 (en)
WO (1) WO2020174911A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5225317B2 (en) 2010-04-06 2013-07-03 キヤノン株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2012124797A (en) 2010-12-10 2012-06-28 Canon Inc Photographing device
WO2016151925A1 (en) * 2015-03-26 2016-09-29 富士フイルム株式会社 Tracking control device, tracking control method, tracking control program, and automatic tracking/image-capturing system
EP3285476A4 (en) 2015-04-14 2018-09-19 Sony Corporation Image processing device, image processing method, and image processing system
JP6727791B2 (en) 2015-11-05 2020-07-22 キヤノン株式会社 Tracking control device, tracking control method, and imaging device
JP6833461B2 (en) 2015-12-08 2021-02-24 キヤノン株式会社 Control device and control method, imaging device

Also Published As

Publication number Publication date
JP7186854B2 (en) 2022-12-09
JPWO2020174911A1 (en) 2021-12-02
WO2020174911A1 (en) 2020-09-03

Similar Documents

Publication Publication Date Title
JP6205073B2 (en) Imaging apparatus, imaging method, and program
US9389758B2 (en) Portable electronic device and display control method
KR20100008936A (en) Portable terminal having dual camera and photographing method using the same
JP6360204B2 (en) Camera device, imaging system, control method, and program
WO2014083914A1 (en) Image capture device and focus control method
JP6028112B2 (en) Imaging apparatus and focus control method
US10746958B2 (en) Imaging device, focusing control method, and focusing control program
CN113596316A (en) Photographing method, graphical user interface and electronic equipment
WO2019181515A1 (en) Imaging control device, imaging device, imaging control method, and imaging control program
CN115484375A (en) Shooting method and electronic equipment
JP7112529B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
US10863095B2 (en) Imaging apparatus, imaging method, and imaging program
US10778903B2 (en) Imaging apparatus, imaging method, and program
JP5789725B2 (en) Imaging apparatus, focusing method thereof and focusing control program
JP6374535B2 (en) Operating device, tracking system, operating method, and program
WO2020209097A1 (en) Image display device, image display method, and program
JP7186854B2 (en) Image display device, image display method, and program
JP5832673B2 (en) Imaging apparatus and operation control method thereof
JP6840903B2 (en) Imaging device, imaging method, and program
JP7169431B2 (en) Image processing device, image processing method and program, imaging device
CN114531539B (en) Shooting method and electronic equipment
WO2020066316A1 (en) Photographing apparatus, photographing method, and program
WO2019181299A1 (en) Imaging control device, imaging device, imaging control method, and imaging control program
WO2020158200A1 (en) Imaging device controller, imaging device, imaging device control method, and imaging device control program
JP2023051391A (en) Imaging device, imaging control method, and imaging control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240117

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240515