JP2011053587A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2011053587A
JP2011053587A JP2009204508A JP2009204508A JP2011053587A JP 2011053587 A JP2011053587 A JP 2011053587A JP 2009204508 A JP2009204508 A JP 2009204508A JP 2009204508 A JP2009204508 A JP 2009204508A JP 2011053587 A JP2011053587 A JP 2011053587A
Authority
JP
Japan
Prior art keywords
feature point
image
display
target
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2009204508A
Other languages
Japanese (ja)
Inventor
Masahiro Shioi
正宏 塩井
Ikuko Tsubaki
郁子 椿
Takeaki Suenaga
健明 末永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009204508A priority Critical patent/JP2011053587A/en
Publication of JP2011053587A publication Critical patent/JP2011053587A/en
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable to reopen automatic following of partial expansion display and an expansion region without re-operating by a user even when an attention object deviated temporarily from a display image is displayed again. <P>SOLUTION: An image processing device 1 includes: an attention object detecting part 3 detecting feature point information and feature point position which indicates an image of the attention object in a user specification region; a memory 8 for the feature point information; a frame memory 10 for afront frame; a movement quantity calculating part 6 calculating movement quantity of the feature point information between the frame stored in the memory 10 and the present frame; a memory 9 storing the feature point position in the present frame; a re-display detecting part 7 in which when movement quantity cannot be calculated, it is detected whether the feature point is included in an afterward frame or not, and when it is included, the feature point position is detected; an expansion area deciding part 4 in which the expansion area including the attention object is decided based on the feature point position detected by the attention object detecting part 3, a movement quantity of the feature points calculated by the movement quantity calculating part 6, or the feature point position detected by the re-display detecting part 7. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像の一部分を拡大して表示装置に表示する画像処理装置に関する。   The present invention relates to an image processing apparatus that enlarges a part of an image and displays the enlarged image on a display device.

画像表示装置では、ユーザの操作に応じて、画像の一部分を拡大して表示する機能が知られている。例えば、特許文献1では、ユーザが注目したい位置を指定すると、あたかもルーペを用いて画像を見たかのように、指定した位置を中心とした円形領域だけを拡大し、元の画像に重畳して表示する情報処理装置について示されている。   In the image display device, a function of enlarging and displaying a part of an image according to a user operation is known. For example, in Patent Document 1, when a user specifies a position that the user wants to pay attention to, a circular area centered on the specified position is enlarged and displayed on the original image as if the user had viewed the image using a loupe. An information processing apparatus is shown.

図7は、特許文献1に記載されている従来の画像表示装置の機能的構成の一例を示すブロック図である。図の画像表示装置100では、ユーザ入力中心座標取得部101が、ユーザからの入力により、拡大する領域の中心座標を取得し、部分拡大計算部102に出力する。部分拡大計算部102では、中心座標を中心とした円形の領域を定め、入力画像のうち定めた領域内だけ画像拡大処理し、元の入力画像全体に拡大画像を重ねたような部分拡大画像を得る。部分拡大計算部102から出力された部分拡大画像は、表示部103においてユーザに提示される。   FIG. 7 is a block diagram illustrating an example of a functional configuration of a conventional image display device described in Patent Document 1. In FIG. In the image display apparatus 100 in the figure, the user input center coordinate acquisition unit 101 acquires the center coordinates of the area to be enlarged by the input from the user, and outputs it to the partial enlargement calculation unit 102. The partial enlargement calculation unit 102 determines a circular area centered on the center coordinates, performs image enlargement processing only within the determined area of the input image, and generates a partial enlarged image in which the enlarged image is superimposed on the entire original input image. obtain. The partial enlarged image output from the partial enlargement calculation unit 102 is presented to the user on the display unit 103.

しかし、動画像を表示する場合、画像内のユーザが注目する対象が移動する。この場合、特許文献1に開示の技術では、注目する対象を拡大表示し続けるには、画像の動きに合わせて、ユーザが拡大領域の位置を手動で指定し続ける必要がある。このような手動で追従する作業は、ユーザにとって煩わしい。
これに対し、特許文献2には、部分拡大表示する際に、ユーザにより指定されたオブジェクトの拡大映像の表示位置を、当該オブジェクトの動きベクトルに応じて移動する技術が開示されている。
However, when a moving image is displayed, the target of attention of the user in the image moves. In this case, in the technique disclosed in Patent Document 1, in order to continue to display the target object in an enlarged manner, it is necessary for the user to manually specify the position of the enlarged region in accordance with the movement of the image. Such manual tracking is troublesome for the user.
On the other hand, Patent Document 2 discloses a technique for moving a display position of an enlarged image of an object designated by a user according to a motion vector of the object when performing partial enlarged display.

特開平4−142661号公報JP-A-4-142661 特開2009−10016号公報JP 2009-10016 A

動画像を表示する場合、ユーザが注目する対象が画像内で移動するのみならず、注目対象がフレームから外れたり、シーンチェンジにより映像に表示されなくなったりすることがある。そしてその後、再度フレームに現れたり、再びのシーンチェンジにより映像に再表示されたりすることがある。上述の場合、再表示後、ユーザが再操作することなく、注目対象の部分拡大表示と拡大領域の自動追従が再開されることが好ましい。   When displaying a moving image, not only the target that the user pays attention to moves within the image, but also the target of interest may deviate from the frame or may not be displayed on the video due to a scene change. After that, it may appear again in the frame, or may be redisplayed on the video due to another scene change. In the above-described case, it is preferable that after the redisplay, the partially enlarged display of the target of interest and the automatic tracking of the enlarged region are resumed without being operated again.

本発明は、上述のような実状に鑑みてなされたものであり、ユーザに指定された領域内の注目対象を拡大した動画像を全体動画像に重ねるように表示する部分拡大表示を行う際に、拡大領域を自動追従すると共に、さらに、一旦表示画像から外れた注目対象が再表示された場合でも、ユーザが再操作することなく、部分拡大表示と拡大領域の上記自動追従を再開させることができる画像処理装置を提供することをその目的とする。   The present invention has been made in view of the above-described situation, and when performing a partial enlarged display for displaying a moving image in which a target object in an area designated by a user is enlarged so as to be superimposed on the entire moving image. In addition to automatically following the enlarged area, it is possible to resume the partially enlarged display and the above-described automatic tracking of the enlarged area without the user's operation again even if the target of interest once deviated from the display image is redisplayed. It is an object of the present invention to provide an image processing apparatus that can be used.

上記課題を解決するために、本発明の第1の技術手段は、画像処理装置であって、表示画面の表示画像に対してユーザが指定した位置の周辺領域内、又は、ユーザが指定した領域内に含まれる注目対象の画像を示す特徴点情報及び当該特徴点の表示位置を検出する注目対象検出部と、前記検出された特徴点情報を記憶する特徴点情報記憶部と、現表示フレームの前フレームの画像を記憶するフレームメモリと、前記フレームメモリに記憶された画像及び現表示フレームの画像における前記特徴点情報記憶部に記憶された特徴点情報の表示位置を検出し、及び/又は、特徴点情報の表示位置の移動量を算出する移動量算出部と、現表示フレームにおける特徴点情報の表示位置を記憶する現フレーム特徴点位置情報記憶部と、前記移動量算出部が移動量を算出できなかった場合に、その後のフレームの画像について前記特徴点情報が含まれるか否か、及び、含まれている場合に前記特徴点情報の表示位置を検出する再表示検出部と、前記注目対象検出部が検出した特徴点情報の表示位置、前記移動量算出部が算出した前記特徴点情報の移動量若しくは検出した現フレームにおける特徴点情報の表示位置、又は前記再表示検出部が検出した前記特徴点情報の表示位置に基づいて、前記注目対象を含む拡大領域を決定し、該拡大領域の画像を前記注目対象の表示箇所に重畳して拡大表示させる部分拡大表示部と、を備え、ユーザの指定により注目対象の拡大画像を当該注目対象の表示箇所に重畳して注目画像の動きに追従して表示させると共に、当該注目対象の画像が表示画面外に移動した後、再表示された場合においても追従して拡大画像を表示させることを特徴としたものである。   In order to solve the above problems, a first technical means of the present invention is an image processing apparatus, in a peripheral area at a position specified by a user with respect to a display image on a display screen, or an area specified by a user Feature point information indicating an image of the target object included in the target object, a target object detection unit that detects a display position of the feature point, a feature point information storage unit that stores the detected feature point information, and a current display frame Detecting the display position of the feature point information stored in the feature point information storage unit in the frame memory storing the image of the previous frame, the image stored in the frame memory and the image of the current display frame, and / or A movement amount calculation unit for calculating a movement amount of a display position of feature point information; a current frame feature point position information storage unit for storing a display position of feature point information in a current display frame; and the movement amount calculation unit. If the amount of movement could not be calculated, whether or not the feature point information is included in the image of the subsequent frame, and if included, a re-display detection unit that detects the display position of the feature point information; The display position of the feature point information detected by the target object detection unit, the movement amount of the feature point information calculated by the movement amount calculation unit, or the display position of the feature point information detected in the current frame, or the re-display detection unit A partial enlarged display unit that determines an enlarged region including the target of interest based on the detected display position of the feature point information, and displays an enlarged image of the enlarged region superimposed on the display location of the target of interest; The enlarged image of the target of interest is superimposed on the display location of the target of interest and displayed following the movement of the target image as specified by the user, and the image of the target of interest has moved out of the display screen , In which is characterized in that also display the enlarged image follows to the case where it is re-displayed.

第2の技術手段は、第1の技術手段において、前記拡大画像の大きさと拡大率のうち少なくともいずれか一つをユーザから取得する取得部を備えることを特徴としたものである。   According to a second technical means, in the first technical means, an acquisition unit is provided for acquiring at least one of a size and an enlargement ratio of the enlarged image from a user.

第3の技術手段は、第1又は第2の技術手段において、前記注目対象検出部が、前記注目対象として顔画像及び/または文字画像を検出することを特徴としたものである。   According to a third technical means, in the first or second technical means, the attention object detection unit detects a face image and / or a character image as the attention object.

第4の技術手段は、第1又は第2の技術手段において、前記注目対象検出部が、前記入力画像に奥行き情報が付随されている場合に、該奥行き情報から手前に存在している物体を判別して、その物体を前記注目対象として検出することを特徴としたものである。   According to a fourth technical means, in the first or second technical means, when the target object detection unit includes depth information attached to the input image, an object existing in front of the depth information is detected. In this case, the object is detected as the target of interest.

第5の技術手段は、第1〜第4のいずれか1の技術手段において、前記注目対象検出部で検出した注目対象を強調表示し、該注目対象がユーザの意図にあっているか否かをユーザに確認させる確認手段を備えることを特徴としたものである。   The fifth technical means highlights the target of interest detected by the target of interest detection unit in any one of the first to fourth technical means, and determines whether or not the target of interest is in accordance with the user's intention. It is characterized by comprising confirmation means for allowing the user to confirm.

第6の技術手段は、第1〜第5のいずれか1の技術手段において、前記再表示検出部が、一定閾値以上の前記特徴点情報が検出された場合に、その後のフレームの画像について前記特徴点情報が含まれると判定することを特徴としたものである。   In a sixth technical means, in any one of the first to fifth technical means, when the re-display detection unit detects the feature point information that is equal to or greater than a predetermined threshold value, It is characterized by determining that the feature point information is included.

本発明によれば、部分拡大表示を行う際に、拡大領域を自動で追従することができる。さらに、一旦表示画像から外れた注目対象が再表示された場合でも、ユーザが再操作することなく、部分拡大表示と拡大領域の上記追従を再開させることができる。   According to the present invention, an enlarged region can be automatically followed when performing partial enlarged display. Furthermore, even when a target of interest that once deviates from the display image is redisplayed, the partially enlarged display and the follow-up of the enlarged region can be resumed without re-operation by the user.

本発明の第1の実施の形態に係る画像処理装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an image processing apparatus according to a first embodiment of the present invention. 図1の画像処理装置での処理の流れの一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of a processing flow in the image processing apparatus of FIG. 1. 図1の画像処理装置での処理の流れの一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of a processing flow in the image processing apparatus of FIG. 1. 図1の画像処理装置での処理の流れの一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of a processing flow in the image processing apparatus of FIG. 1. 本発明の画像処理装置が行う部分拡大表示の例を説明する図である。It is a figure explaining the example of the partial expansion display which the image processing apparatus of this invention performs. 本発明の第2の実施の形態に係る画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 従来の部分拡大表示技術について説明する図である。It is a figure explaining the conventional partial expansion display technique.

以下、添付図面を参照しながら本発明の実施の形態について詳細に説明する。図面において同じ機能を有する部分については同じ符号を付し、繰り返しの説明は省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, portions having the same function are denoted by the same reference numerals, and repeated description is omitted.

(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る画像処理装置の概略構成を示すブロック図である。本実施形態の画像処理装置20は、注目対象の自動追従を伴った部分拡大表示を行うもので、図1に示すように、追従実行信号取得部1と、ユーザ指定領域取得部2と、注目対象検出部3と、拡大領域決定部4と、部分拡大計算部5と、特徴点移動量算出部6と、注目対象再表示検出部7と、第1のメモリ8と、第2のメモリ9と、フレームメモリ10とで構成されており、生成した画像を表示部11に出力する。なお、画像処理装置20では、注目対象の自動追従を伴った部分拡大表示だけでなく、自動追従無しの部分拡大表示を行うことも可能であるが、ここでは、本発明に係わる前者の部分拡大表示について主に説明する。
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of the image processing apparatus according to the first embodiment of the present invention. The image processing apparatus 20 according to the present embodiment performs partial enlargement display with automatic tracking of a target of interest. As shown in FIG. 1, a tracking execution signal acquisition unit 1, a user-specified region acquisition unit 2, and a target Object detection unit 3, enlargement area determination unit 4, partial enlargement calculation unit 5, feature point movement amount calculation unit 6, attention object redisplay detection unit 7, first memory 8, and second memory 9 And the frame memory 10 and outputs the generated image to the display unit 11. The image processing apparatus 20 can perform not only partial enlarged display with automatic tracking of the target of interest but also partial enlarged display without automatic tracking, but here, the former partial expansion according to the present invention is performed. The display will be mainly described.

追従実行信号取得部1では、ユーザから入力される追従機能の開始と終了を指示する信号を取得し、拡大領域決定部4に出力する。追従機能の実行を定める追従実行信号は、「追従を実行する」を表す「ON」か「追従を実行しない」を表す「OFF」のいずれかの値をとる。   In the follow-up execution signal acquisition unit 1, a signal instructing the start and end of the follow-up function input from the user is acquired and output to the enlarged region determination unit 4. The follow-up execution signal that determines the execution of the follow-up function takes either a value of “ON” representing “execution of follow-up” or “OFF” representing “not execute follow-up”.

部分拡大計算部5は、従来の技術と同様に、注目対象の部分拡大表示を行う際に、入力フレーム画像に対して、後述の部分拡大領域情報Coutによって指定される領域について、画像拡大処理を行う。画像拡大方法は、例えば、予め設定された固定値の拡大率でバイリニア方法を用いて行うが、それに限定するものではない。
フレームメモリ10は、後述の特徴点移動量算出部6での処理のために、前フレーム画像を記憶する。
表示部11は、例えば液晶ディスプレイ等で構成され、部分拡大画像を表示出力する。
Similar to the conventional technique, the partial enlargement calculation unit 5 performs image enlargement processing on an area specified by partial enlargement area information Cout described later on the input frame image when performing partial enlargement display of the target of interest. Do. For example, the image enlargement method is performed using a bilinear method with a preset fixed value enlargement ratio, but is not limited thereto.
The frame memory 10 stores the previous frame image for processing in a feature point movement amount calculation unit 6 described later.
The display unit 11 is composed of a liquid crystal display, for example, and displays and outputs a partially enlarged image.

ユーザ指定領域取得部2は、部分拡大表示を行う際に、例えば、表示部11がタッチパネル機能を備えている場合は、画面上の表示画像においてユーザが注目対象の物体を円で囲ったり、領域の中心をタッチしたり、注目対象の物体の一部分をタッチしたときに、最初のフレームについて、ユーザの注目対象を含む領域の位置を取得し、ユーザ指定領域情報Cinとして、拡大領域決定部4及び注目対象検出部3に出力する。また、タッチパネルの代わりにマウスやリモートコントローラを用いてユーザが指示してもよいし、図示しない視線検出装置によって検知したユーザの視線方向から算出した画像位置に基づいて上記領域を算出してもよい。   For example, when the display unit 11 has a touch panel function, the user designated area acquisition unit 2 encloses the object of interest with a circle in the display image on the screen. When the center of the object is touched or a part of the target object is touched, the position of the area including the target object of the user is acquired for the first frame, and the enlarged area determination unit 4 and the user specified area information Cin are obtained. This is output to the target object detection unit 3. In addition, the user may instruct using a mouse or a remote controller instead of the touch panel, or the area may be calculated based on the image position calculated from the user's line-of-sight direction detected by a line-of-sight detection device (not shown). .

注目対象検出部3は、部分拡大表示の際の最初のフレームについて、ユーザが指定した領域の中の注目対象を検出し、注目対象を識別する特徴点情報及び当該特徴点の位置情報を算出/取得し、特徴点情報を第1のメモリ(特徴点情報記憶部)8に格納し、特徴点位置情報を拡大領域決定部4に出力する。注目対象の検出方法としては、カメラにおける被写体自動追跡機能などで実現されている手法を用いればよい。例えば、拡大表示させたい領域内に顔画像が存在した場合には、顔画像が注目対象である可能性が高いため、その顔画像を注目対象に設定すればよい。顔画像の検出方法としては、目・鼻・口の形状とその配置から顔画像を検出する方法や、肌色領域のグラディエーションの具合などから検出する一般的な顔画像領域検出の手法を用いればよい。また、拡大したい領域内に文字が表示されていた場合には、それが注目対象である可能性が高いため、その文字画像を注目対象に設定すればよい。また、一般的に注目対象は動きがあるため、数フレーム間で相関をとり、拡大したい領域の中で動きのあるものを注目対象としても良い。   The target object detection unit 3 detects the target object in the area specified by the user for the first frame in the partial enlarged display, and calculates the feature point information for identifying the target object and the position information of the feature point / The feature point information is acquired, stored in the first memory (feature point information storage unit) 8, and the feature point position information is output to the enlarged region determination unit 4. As a method of detecting a target of interest, a method realized by an automatic subject tracking function in a camera may be used. For example, when a face image exists in an area to be enlarged, the face image is likely to be a target of attention, and therefore the face image may be set as a target of attention. As a method of detecting a face image, a method of detecting a face image from the shape and arrangement of eyes, nose, and mouth, or a general face image region detection method that detects from the degree of gradation of a skin color region, etc. Good. Further, when a character is displayed in an area to be enlarged, it is highly likely that the character is a target of attention, and therefore the character image may be set as a target of attention. In general, since the target of interest has a motion, it is possible to correlate between several frames, and to select the subject of motion in the region to be enlarged.

注目対象から特徴点情報を検出する手法としては、主要なエッジが交差した箇所として定義されるコーナーを用いる方法がある。コーナー検出の手法は、公知のハリスオペレータやSUSANオペレータを用いることができる。ここでは特徴点としてコーナーを用いたが、コーナーに限定するものではなく、エッジを特徴点としてもよく、また、輝度情報に代えて色情報など他の特徴量を用いてもよいし、複数の特徴量を組み合わせてもよい。
本画像処理装置20では、このように取得された特徴点情報は、部分拡大表示を行っている際に注目対象が画面から無くなったときでも、第1のメモリ8に記憶されているので、後述の注目対象再表示検出部7によって再表示された注目対象を検知することができる。
As a method for detecting feature point information from a target of interest, there is a method using a corner defined as a location where main edges intersect. As a corner detection method, a known Harris operator or SUSAN operator can be used. Although corners are used here as feature points, the present invention is not limited to corners. Edges may be used as feature points, and other feature quantities such as color information may be used instead of luminance information. You may combine a feature-value.
In the image processing apparatus 20, the feature point information acquired in this way is stored in the first memory 8 even when the target of interest disappears from the screen during partial enlargement display. The attention object redisplayed by the attention object redisplay detection unit 7 can be detected.

拡大領域決定部4は、入力フレーム画像における拡大表示を行う領域を決定し、部分拡大領域情報Coutとして部分拡大計算部5に出力するものである。
拡大領域決定部4は、最初のフレームについては、注目対象検出部3から取得した特徴点位置情報に基づいて、該当する特徴点が納まる領域を拡大領域とする。例えば、該当する特徴点が全て収まる円を描き、部分拡大領域情報Coutとして、拡大領域の形状が円であることと、その中心座標と、描いた円の半径に固定値のマージンを加えた値との3点の情報を部分拡大計算部5に出力する。また、拡大領域決定部4は、その最初のフレームの特徴点位置情報C1を第2のメモリ(現フレーム特徴点位置情報記憶部)9に格納すると共に、当該最初のフレームをフレームメモリ10に格納する。
The enlargement area determination unit 4 determines an area to be enlarged in the input frame image, and outputs the area to the partial enlargement calculation unit 5 as partial enlargement area information Cout.
For the first frame, the enlargement area determination unit 4 sets an area in which the corresponding feature point is stored as an enlargement area based on the feature point position information acquired from the target object detection unit 3. For example, a circle in which all the corresponding feature points are drawn is drawn, and as the partial enlarged region information Cout, the shape of the enlarged region is a circle, its center coordinates, and a value obtained by adding a fixed margin to the radius of the drawn circle Are output to the partial enlargement calculation unit 5. Further, the enlarged region determination unit 4 stores the feature point position information C1 of the first frame in the second memory (current frame feature point position information storage unit) 9 and stores the first frame in the frame memory 10. To do.

自動追従部分拡大表示の際の2つ目以降のフレームに関する拡大領域決定部4の動作は後述する。   The operation of the enlarged region determination unit 4 regarding the second and subsequent frames in the automatic follow-up partial enlarged display will be described later.

特徴点移動量算出部6は、部分拡大表示の際の2つ目以降のフレームについて、例えば、入力フレーム画像と、フレームメモリ10に保持された前フレーム画像と、第1のメモリ8に保持された特徴点情報と、に基づき、前後の両方のフレーム画像で各特徴点の座標を検出し、これら座標から、入力フレーム画像と前フレーム画像の間の各特徴点の移動量Vを検出し、拡大領域決定部4に出力する。また、特徴点移動量算出部6は、上記検出後、入力フレーム画像をフレームメモリ10に格納する。   The feature point movement amount calculation unit 6 holds, for example, the input frame image, the previous frame image held in the frame memory 10, and the first memory 8 for the second and subsequent frames in the partial enlarged display. Based on the feature point information, the coordinates of each feature point are detected in both the front and back frame images, and the movement amount V of each feature point between the input frame image and the previous frame image is detected from these coordinates, The result is output to the enlarged area determination unit 4. Further, the feature point movement amount calculation unit 6 stores the input frame image in the frame memory 10 after the detection.

拡大領域決定部4は、部分拡大表示の際の2つ目のフレームについて、第2のメモリ9に記憶の最初のフレームの特徴点位置情報と、特徴点移動量算出部6で算出した各特徴点の移動量Vに基づいて、当該フレームの特徴点位置情報C2を得て、該当する特徴点が全て収まる拡大領域を決定し、部分拡大領域情報Coutを出力する。また、この際、2つ目のフレームの特徴点位置情報C2については第2のメモリ9の記憶を更新し格納する。
3つ目以降のフレームについても、拡大領域決定部4が上述と同様に動作することで、部分拡大表示ができるようになっている。
The enlarged region determination unit 4 has the feature point position information of the first frame stored in the second memory 9 and the features calculated by the feature point movement amount calculation unit 6 for the second frame in the partial enlarged display. Based on the movement amount V of the point, the feature point position information C2 of the frame is obtained, an enlarged region in which all the corresponding feature points are contained is determined, and partial enlarged region information Cout is output. At this time, the memory of the second memory 9 is updated and stored for the feature point position information C2 of the second frame.
For the third and subsequent frames, the enlarged region determination unit 4 operates in the same manner as described above, so that the partial enlarged display can be performed.

また、特徴点移動量算出部6は、注目対象が、フレームアウトやシーンチェンジにより表示映像から消えた場合には、特徴点の移動量Vを算出できないので、その旨を示す情報を拡大領域決定部4に出力する。
この情報を受けた拡大領域決定部4では、部分拡大領域情報Coutとして、部分拡大表示を無効にする情報を部分拡大計算部5に出力し、部分拡大表示を中止させる。これを受けた部分拡大計算部5では、入力フレーム画像をそのまま表示部11に出力する。
Also, the feature point movement amount calculation unit 6 cannot calculate the feature point movement amount V when the target of interest disappears from the display image due to frame-out or scene change. Output to part 4.
Upon receiving this information, the enlargement area determination unit 4 outputs information for invalidating the partial enlargement display as the partial enlargement area information Cout to the partial enlargement calculation part 5 and stops the partial enlargement display. In response to this, the partial enlargement calculation unit 5 outputs the input frame image to the display unit 11 as it is.

注目対象再表示検出部7は、注目対象がフレームアウトやシーンチェンジにより映像から消え、部分拡大表示を中止して以降、注目対象が画面内に再度表示されたか否かの検出を行う。ここでは、特徴点の移動量の検出に用いていた特徴点情報が第1のメモリ8に保持されてあるので、その特徴点が画面内に再度現れたか否かの判定を行えばよい。なお、再表示された場合に、特徴点の一部が変わっている場合があるので、特徴点が完全一致した場合だけでなく、特徴点の一致割合が一定閾値以上であった場合にも、注目対象が再度表示されたと判定してもよい。
注目対象再表示検出部7は、さらに、注目対象が再度表示された場合は、特徴点位置情報を算出/取得し、拡大領域決定部4に出力する。なお、上記算出/取得後、入力フレーム画像をフレームメモリ10に格納する。
The attention object re-display detection unit 7 detects whether or not the attention object disappears from the video due to a frame-out or a scene change, and after the partial enlarged display is stopped, the attention object is displayed again on the screen. Here, since the feature point information used for detecting the movement amount of the feature point is held in the first memory 8, it may be determined whether or not the feature point appears again in the screen. In addition, when redisplayed, some of the feature points may have changed, so not only when the feature points are completely matched, but also when the matching rate of the feature points is greater than a certain threshold, You may determine with the attention object displayed again.
The attention object re-display detection unit 7 further calculates / acquires feature point position information and outputs it to the enlarged region determination unit 4 when the attention object is displayed again. After the calculation / acquisition, the input frame image is stored in the frame memory 10.

拡大領域決定部4は、注目対象の再表示が検出されたフレームについては、注目対象再表示検出部7から取得した特徴点位置情報に基づいて、該当する特徴点が納まる領域を拡大領域として決定し、部分拡大領域情報Coutを部分拡大計算部5に出力すると共に、当該フレームの特徴点位置情報Cnを第2のメモリ9に格納する。以降のフレームについては、上述の通常の部分拡大表示と同様に処理することで、注目対象の再表示が検出された後に、ユーザが再操作することなく、部分拡大表示を再開させることできる。   For the frame in which the redisplay of the target of interest is detected, the enlarged region determination unit 4 determines, as the expansion region, the region in which the corresponding feature point is contained based on the feature point position information acquired from the target redisplay detection unit 7 Then, the partial enlargement area information Cout is output to the partial enlargement calculation unit 5, and the feature point position information Cn of the frame is stored in the second memory 9. The subsequent frames are processed in the same manner as the above-described normal partial enlarged display, so that the partial enlarged display can be resumed without the user performing another operation after the redisplay of the target of interest is detected.

図2は、部分拡大表示を行う最初のフレームについて図1の画像処理装置20が行う処理の流れの一例を説明するためのフローチャートである。
ユーザが、入力装置を用いて、領域を指定し、部分拡大表示を指示すると、ユーザ指定領域取得部2にて上記領域の位置をユーザ指定領域位置情報Cinとして取得し、図2に示すように、注目対象検出部3にて、ユーザ指定領域位置情報Cinから最初のフレーム内の注目対象を検出し、当該注目対象の特徴点情報と特徴点位置情報C1を算出し(ステップS1)、特徴点情報を第1のメモリ8に格納し、特徴点位置情報C1を拡大領域決定部4に出力する。
FIG. 2 is a flowchart for explaining an example of the flow of processing performed by the image processing apparatus 20 of FIG. 1 for the first frame for performing partial enlarged display.
When the user designates an area using the input device and instructs partial enlargement display, the user designated area acquisition unit 2 obtains the position of the area as user designated area position information Cin, as shown in FIG. The attention object detection unit 3 detects the attention object in the first frame from the user-specified region position information Cin, calculates the feature point information and the feature point position information C1 of the attention object (step S1), and the feature points The information is stored in the first memory 8, and the feature point position information C 1 is output to the enlarged region determination unit 4.

そして、拡大領域決定部4で、特徴点位置情報C1に基づいて、各特徴点が収まる領域を設定し、拡大領域位置情報Coutとして部分拡大計算部5に出力し(ステップS2)、最初のフレームの特徴点位置情報C1を第2のメモリ9に格納させ(ステップS3)、最初の入力フレーム画像をフレームメモリ10に格納させる(ステップS4)。ステップS5では、部分拡大計算部5が、部分拡大領域情報Coutによって指定される拡大領域内の画素に対して画像拡大処理を行い、さらに、拡大した画像と、該拡大した画像の外側の領域について入力画像の画素値をそのまま用いた画像とを合成して、得られた部分拡大画像を表示部11へ出力する。   Then, the enlarged region determination unit 4 sets a region in which each feature point falls based on the feature point position information C1, and outputs it to the partial enlargement calculation unit 5 as the enlarged region position information Cout (step S2). Is stored in the second memory 9 (step S3), and the first input frame image is stored in the frame memory 10 (step S4). In step S5, the partial enlargement calculation unit 5 performs image enlargement processing on the pixels in the enlargement area specified by the partial enlargement area information Cout, and further, for the enlarged image and the area outside the enlarged image. An image using the pixel value of the input image as it is is synthesized, and the obtained partial enlarged image is output to the display unit 11.

図3は、部分拡大表示の際の2つ目以降のフレームについて図1の画像処理装置20が行う処理の流れの一例を説明するためのフローチャートである。
部分拡大表示の際の2つ目以降のフレームについては、図3に示すように、特徴点移動量算出部6において、第1のメモリ8に記憶の特徴点情報とフレームメモリ10内の前フレーム画像と入力フレーム画像とから、各特徴点の移動量Vを算出する(ステップS11)。次にステップS12にて、ステップS11での各特徴点の移動量Vの算出が失敗したか否かを判定する。移動量Vが算出できた場合(NOの場合)は、ステップS13に進む。なお、失敗した場合(YESの場合)とは、注目対象が表示画像内から外れた場合であって部分拡大表示を中断させる場合である。この場合の処理については、後述の図4を用いて後述する。
FIG. 3 is a flowchart for explaining an example of a flow of processing performed by the image processing apparatus 20 in FIG. 1 for the second and subsequent frames in the partial enlarged display.
For the second and subsequent frames in the partial enlarged display, as shown in FIG. 3, the feature point movement amount calculation unit 6 uses the feature point information stored in the first memory 8 and the previous frame in the frame memory 10. A moving amount V of each feature point is calculated from the image and the input frame image (step S11). Next, in step S12, it is determined whether or not the calculation of the movement amount V of each feature point in step S11 has failed. When the movement amount V can be calculated (in the case of NO), the process proceeds to step S13. In addition, when it fails (in the case of YES), it is a case where an attention object remove | deviates from the inside of a display image, and is a case where partial enlarged display is interrupted. The processing in this case will be described later with reference to FIG.

ステップS13では、拡大領域決定部4において、第2のメモリ9から前フレーム特徴点位置情報Cn-1を読み、それに各特徴点の移動量Vを加算して現フレーム特徴点位置情報Cnを得て、その情報から各特徴点が収まる領域を設定し、拡大領域位置情報Coutとして出力し、ステップS11に進む。このようにすることで、注目対象を自動追従するだけでなく、注目対象が入力フレーム画像内で拡大縮小されれば、それに合わせて部分拡大表示領域の形状を拡大縮小することができる。   In step S13, the enlarged region determination unit 4 reads the previous frame feature point position information Cn-1 from the second memory 9, and adds the movement amount V of each feature point to the current frame feature point position information Cn. Then, an area in which each feature point falls is set from the information, and is output as enlarged area position information Cout, and the process proceeds to step S11. In this way, not only the target object is automatically tracked, but if the target object is enlarged / reduced in the input frame image, the shape of the partially enlarged display area can be enlarged / reduced accordingly.

ステップS14では、第2のメモリ9の特徴点位置情報の内容を更新し、次いでステップS15では、フレームメモリ10を入力フレーム画像で更新する。そして、部分拡大計算部5において、部分拡大領域情報Coutによって指定される拡大領域内の画素に対して画像拡大処理を行い、部分拡大画像を取得し表示部11へ出力する(ステップS16)。
その後、ステップS17において、ユーザから拡大処理終了が指示されたか否かを判定し、指示された場合(YESの場合)は処理を終了し、指示されていない場合(NOの場合)はステップS11に戻る。
In step S14, the content of the feature point position information in the second memory 9 is updated, and in step S15, the frame memory 10 is updated with the input frame image. Then, the partial enlargement calculation unit 5 performs image enlargement processing on the pixels in the enlargement region specified by the partial enlargement region information Cout, acquires a partial enlargement image, and outputs it to the display unit 11 (step S16).
Thereafter, in step S17, it is determined whether or not the user has instructed to end the enlargement process. If instructed (in the case of YES), the process is terminated. If not instructed (in the case of NO), the process proceeds to step S11. Return.

図4は、図3のステップS12で特徴点の移動量の算出に失敗した場合、つまり注目対象が表示画像内から外れた場合に図1の画像処理装置20が行う処理の流れの一例を説明するためのフローチャートである。
特徴点の移動量の算出に失敗した場合(注目対象が表示画像内から外れた場合)、その旨を示す情報を拡大領域決定部4に出力し、当該決定部4が、拡大領域位置情報Coutとして、無効であることを示す情報を部分拡大計算部5に出力する(ステップS21)。この際、部分拡大計算部5では、部分拡大処理は行われず、入力フレーム画像をそのまま表示部11へ出力する(ステップS22)。
その後、ステップS23において、ユーザから拡大処理終了が指示されたか否かを判定し、指示された場合(YESの場合)は処理を終了し、指示されていない場合(NOの場合)はステップS24に進む。
FIG. 4 illustrates an example of the flow of processing performed by the image processing apparatus 20 in FIG. 1 when the calculation of the amount of movement of the feature points in step S12 in FIG. It is a flowchart for doing.
If the calculation of the amount of movement of the feature point fails (when the target object is out of the display image), information indicating that fact is output to the enlarged region determining unit 4, and the determining unit 4 displays the enlarged region position information Cout. As a result, information indicating invalidity is output to the partial enlargement calculation unit 5 (step S21). At this time, the partial enlargement calculation unit 5 does not perform the partial enlargement process, and outputs the input frame image as it is to the display unit 11 (step S22).
Thereafter, in step S23, it is determined whether or not the user has instructed to end the enlargement process. If instructed (in the case of YES), the process is terminated. If not instructed (in the case of NO), the process proceeds to step S24. move on.

ステップS24では、注目対象再表示検出部7が次に入力されたフレーム画像内に注目対象が再度表示されたことを検出したか否か判定する。再表示の検出は、入力フレーム画像と、第1のメモリ8に保持されている特徴点情報とに基づいて行われる。
検出されていない場合(ステップS24、NOの場合)は、これまで通り拡大領域情報は無効であることを示す情報のまま、ステップS22に進むので、部分拡大表示が行われないままとなる。一方、注目対象が検出された場合(YESの場合)には、注目対象再表示検出部7にて特徴点位置情報Cnを算出し(ステップS25)、拡大領域決定部4で、特徴点位置情報Cnに基づいて、各特徴点が収まる領域を設定し、拡大領域位置情報Coutとして部分拡大計算部5に出力した上で(ステップS26)、図3のステップS14に進んで、注目対象が存在していた場合と同様の処理に移行する。これにより、部分拡大表示が復活することとなる。
In step S <b> 24, it is determined whether or not the attention object re-display detection unit 7 detects that the attention object is displayed again in the next input frame image. The re-display is detected based on the input frame image and the feature point information held in the first memory 8.
If not detected (NO in step S24), the process proceeds to step S22 with the information indicating that the enlarged area information is invalid as before, so that the partial enlarged display is not performed. On the other hand, when the attention object is detected (in the case of YES), the feature point position information Cn is calculated by the attention object re-display detection unit 7 (step S25), and the enlarged region determination unit 4 performs the feature point position information. Based on Cn, an area in which each feature point falls is set, and is output as the enlarged area position information Cout to the partial enlargement calculation unit 5 (step S26). Then, the process proceeds to step S14 in FIG. It moves to the same processing as the case where it had. As a result, the partial enlarged display is restored.

上述のとおり、本実施形態の画像処理装置によれば、動画像に部分拡大処理を行う場合に、画像の動きに合わせて、拡大領域を自動的に追従することができる。さらに、一旦表示画像から外れた注目対象が再表示された場合でも、ユーザが注目対象を再度指定することなく、部分拡大表示と拡大領域の上記追従を再開させることができる。   As described above, according to the image processing apparatus of the present embodiment, when performing a partial enlargement process on a moving image, it is possible to automatically follow the enlargement area in accordance with the movement of the image. Furthermore, even when the target of interest that has once deviated from the display image is displayed again, it is possible to resume the partially enlarged display and the tracking of the enlarged region without the user again specifying the target of interest.

図5は、上述したような、注目対象が一旦画面から消えて、再度表示される場合の一例であるユーザによる運動会の撮影映像の例を説明する図である。
図5(A)〜図5(C)は、画像処理装置に入力される動画像の一例を示す図である。図5(A)は、3人の徒競走参加者のスタート地点を撮影した画像であるが、この映像を撮影している最中に、カメラを左方向にチルトして、背景の建物を中心に映すと、図5(B)の映像となる。ここから、また徒競走のスタート地点を中心にした映像の撮影に戻し始めて図5(C)の映像となる。
FIG. 5 is a diagram for explaining an example of a captured image of an athletic meet by the user, which is an example of the case where the target of interest disappears from the screen and is displayed again as described above.
5A to 5C are diagrams illustrating an example of a moving image input to the image processing apparatus. FIG. 5 (A) is an image of the start points of the three Athlete participants. While shooting this video, tilt the camera to the left and focus on the background building. When projected, the image shown in FIG. From this point, the video shown in FIG. 5C is obtained by returning to the shooting of the video centering on the starting point of the race.

ここで、3人の徒競走参加者の中央の人物の顔画像を注目対象とした場合の拡大表示の方法を図5(D)〜図5(F)に示す。ユーザが徒競走参加者の中央の人物の顔周辺を囲むことで、注目対象がその囲まれた領域に存在していることを認識する。次いで、その領域内に顔画像が存在することを認識することで、注目対象が顔画像であることを認識する。そこで、図5(A)の画像に部分拡大機能処理を施すと図5(D)のように中央の人物の顔部分が部分拡大表示される。ここで部分拡大表示を行った領域を虫眼鏡の形状で示しているが表示形状はこの形状に限定はしない。ここで、背景の建物を中心に映した図5(B)の映像になると、注目対象が画面に表示されなくなったと認識し、移動量検出及び部分拡大表示機能を中断するため、図5(E)のような部分拡大がされない表示となる。そして、スタート地点の映像に戻ると図5(C)の映像となり、注目対象が画面内に再度出現したと検出し、再度部分拡大表示を再開し、図5(F)の映像となる。   Here, FIGS. 5D to 5F show an enlarged display method in the case where the face image of the person at the center of the three student race participants is the target of attention. When the user surrounds the periphery of the face of the person at the center of the student race participant, it is recognized that the target object is present in the enclosed area. Next, by recognizing that a face image exists in the region, it is recognized that the target object is a face image. Therefore, when the partial enlargement function process is performed on the image in FIG. 5A, the face portion of the central person is partially enlarged as shown in FIG. Here, the area on which the partial enlargement display is performed is indicated by a magnifying glass shape, but the display shape is not limited to this shape. Here, when the video in FIG. 5B is projected centering on the building in the background, it is recognized that the target of interest is no longer displayed on the screen, and the movement amount detection and partial enlargement display functions are interrupted. ) Is displayed without partial enlargement. Then, when returning to the video at the start point, the video shown in FIG. 5C is obtained, and it is detected that the target of interest has appeared again in the screen, the partial enlarged display is resumed again, and the video shown in FIG. 5F is obtained.

(第2の実施の形態)
図6は、本発明の第2の実施の形態に係る画像処理装置の概略構成を示すブロック図である。図1の第1の実施の形態のものと異なるのは、パラメータ取得部12が追加され、部分拡大計算部13で行う処理が異なる点である。
パラメータ取得部12では、ユーザからの入力によって、部分拡大処理の拡大率や拡大後の画像の大きさを取得し、部分拡大計算部13に出力する。
(Second Embodiment)
FIG. 6 is a block diagram showing a schematic configuration of an image processing apparatus according to the second embodiment of the present invention. The difference from the first embodiment of FIG. 1 is that a parameter acquisition unit 12 is added and the processing performed by the partial enlargement calculation unit 13 is different.
The parameter acquisition unit 12 acquires the enlargement ratio of the partial enlargement process and the size of the image after enlargement according to the input from the user, and outputs them to the partial enlargement calculation unit 13.

例えば、ユーザがリモートコントローラの操作によって、「拡大率を高く」あるいは「拡大率を低く」という入力を行う。これらの入力が行われると、パラメータ取得部12は、予め指定した拡大率修正係数を設定する。例えば、「拡大率を高く」の場合は+0.5、「拡大率を低く」の場合は−0.5という値を予め指定しておく。そして、前フレームで用いた拡大率に対して、拡大率修正係数を加算した値を、拡大率として出力する。これにより拡大率をユーザの意図に合わせて調整することができる。   For example, the user inputs “higher enlargement ratio” or “lower enlargement ratio” by operating the remote controller. When these inputs are made, the parameter acquisition unit 12 sets a magnification factor correction coefficient designated in advance. For example, a value of +0.5 is designated in advance for “higher enlargement ratio” and −0.5 in the case of “lower enlargement ratio”. Then, a value obtained by adding an enlargement factor correction coefficient to the enlargement factor used in the previous frame is output as an enlargement factor. As a result, the enlargement ratio can be adjusted according to the user's intention.

また例えば、ユーザがリモートコントローラの操作によって、「拡大後の画像を大きく」あるいは「拡大後の画像を小さく」という入力を行う。これらの入力が行われると、パラメータ取得部12は、予め指定した拡大後画像サイズ修正係数を設定する。例えば、「拡大後の画像を大きく」の場合は1.1、「拡大後の画像を小さく」の場合は0.9という値を予め指定しておく。そして、前フレームで用いた拡大後画像サイズ倍率に対して、拡大後画像サイズ修正係数を加算した値を、拡大後画像サイズ倍率として出力する。これにより拡大後の画像の大きさをユーザの意図に合わせて調整することができる。   Further, for example, the user inputs “enlarged image after enlargement” or “decrease image after enlargement” by operating the remote controller. When these inputs are made, the parameter acquisition unit 12 sets a pre-enlarged image size correction coefficient designated in advance. For example, a value of 1.1 is designated in advance for “larger image after enlargement”, and 0.9 is designated for “smaller image after enlargement”. Then, a value obtained by adding the post-enlargement image size correction coefficient to the post-enlargement image size magnification used in the previous frame is output as the post-enlargement image size magnification. Thereby, the size of the enlarged image can be adjusted according to the user's intention.

上記例では修正係数の候補を予め設定したが、それに限定するものではなく、修正係数の数値を直接入力する手段を備えてもよい。また、修正係数を用いずに、拡大率や拡大後画像サイズ倍率を直接入力する手段を備えてもよい。また、入力手段はリモートコントローラに限定するものではなく、タッチパッドやキーボードなど、その他の入力装置を用いてもよい。また、上記例では拡大率と拡大後画像サイズ倍率の両方をパラメータとしたが、一方だけを用い、もう一方は固定値であってもよい。   In the above example, correction coefficient candidates are set in advance. However, the present invention is not limited to this, and a means for directly inputting a correction coefficient value may be provided. Further, a means for directly inputting the enlargement ratio and the image size magnification after enlargement may be provided without using the correction coefficient. Further, the input means is not limited to the remote controller, and other input devices such as a touch pad and a keyboard may be used. In the above example, both the enlargement ratio and the image size magnification after enlargement are used as parameters, but only one of them may be used, and the other may be a fixed value.

部分拡大計算部13は、第1の実施形態と同様に、入力フレーム画像に対して、拡大領域位置情報Coutによって指定される領域の内側について、画像拡大処理を行う。ただし、本例では拡大率と拡大後画像サイズ倍率はパラメータ取得部12で取得した値を用いる。
上述のとおり、本実施形態の画像処理装置によれば、拡大領域を追従しながら部分拡大処理を行う場合に、ユーザの意図に合わせて、拡大率と拡大領域サイズ倍率を調整することができる。
Similarly to the first embodiment, the partial enlargement calculation unit 13 performs image enlargement processing on the inside of the region specified by the enlargement region position information Cout on the input frame image. However, in this example, the values acquired by the parameter acquisition unit 12 are used for the enlargement ratio and the image size magnification after enlargement.
As described above, according to the image processing apparatus of the present embodiment, when the partial enlargement process is performed while following the enlargement area, the enlargement ratio and the enlargement area size magnification can be adjusted according to the user's intention.

(各実施形態におけるバリエーション)
上述の追従信号は、例えば、リモートコントローラを用いた「開始」または「終了」を表す信号の入力に基づいて設定される。「開始」の場合は追従実行信号を「ON」に、「終了」の場合は追従実行信号を「OFF」に設定する。入力がない間は、追従実行信号は、以前に入力があったときのまま変化させない。入力装置はリモートコントローラに限定せず、例えば、表示部11がタッチパネルの機能を持つ場合は、表示部にメニュー画面を表示させ、ユーザがタッチパネルから入力を行ってもよいし、キーボードなどの図示しない入力装置を用いてもよい。
(Variations in each embodiment)
The follow-up signal is set based on, for example, an input of a signal representing “start” or “end” using a remote controller. In the case of “start”, the follow execution signal is set to “ON”, and in the case of “end”, the follow execution signal is set to “OFF”. While there is no input, the follow-up execution signal is not changed as it was when there was an input before. The input device is not limited to a remote controller. For example, when the display unit 11 has a touch panel function, a menu screen may be displayed on the display unit, and a user may input from the touch panel, or a keyboard or the like is not illustrated. An input device may be used.

また、フレームメモリ10に保持する前フレーム画像は、画像全体を保持しても良いし、特徴点移動量算出部6で用いる一部の領域だけであってもよい。   Further, the previous frame image held in the frame memory 10 may hold the entire image or may be only a partial area used in the feature point movement amount calculation unit 6.

以上では、顔画像・文字画像・動きがある画像を注目対象と設定する手法を記載したが、これに限る必要はない。また、これらの中の複数が存在していた場合の優先順位付けを事前にメニューで設定できるようにしていても良いし、顔画像検出モード・文字画像検出モード・動きがある画像検出モードのいずれかをまず選択してから、ユーザが拡大したい領域を選択するようにしてもよい。
また、奥行き情報が付随されている映像の場合には、その奥行き情報から手前に存在している物体を判別して、その物体を注目対象と認識する手法を用いてもよい。
さらに、注目対象が複数存在することを認識した場合には、注目対象を1個ずつ順繰りに強調表示及びYES/NOの入力を促す画面を表示し、強調表示している注目対象がユーザの意図にあっているのか否かをユーザに選択(確認)してもらってもよい。
In the above, a method for setting a face image, a character image, and an image with motion as a target of interest has been described. However, the present invention is not limited to this. In addition, prioritization when there are a plurality of these may be set in the menu in advance, and any of face image detection mode, character image detection mode, and image detection mode with motion Alternatively, the user may select an area to be enlarged and then select an area to be enlarged.
Further, in the case of a video with depth information attached thereto, a method of discriminating an object existing in front from the depth information and recognizing the object as a target of attention may be used.
Further, when recognizing that there are a plurality of attention targets, a screen prompting to highlight the attention targets one by one and prompting the user to enter YES / NO is displayed. The highlighted attention target is the user's intention. The user may select (confirm) whether or not it is appropriate.

また、各特徴点の移動量の算出方法は、上述の例に限られず、前フレーム画像において検出済みの特徴点を、マッチング方法を用いて入力フレーム画像のどの地点に移動しているのかを算出する方法でもよい。他にはブロックマッチングを用いて行うこともできる。まず、前フレーム画像において、注目対象が収まるように縦横各R画素の正方形で囲んだ領域を算出用領域と設定し、この領域を縦横各Qブロックに分割する。ただし、ブロックサイズを縦横各P画素とし、R=P×Qとなるように予めRを設定する。そして、各ブロックに対して、入力フレーム画像との間でブロックマッチングを行い、それを各特徴点の移動量として出力する。なお、上記例では算出用領域とブロックの形状を正方形としたが、正方形に限定するものではなく、他の形状であってもよい。   In addition, the calculation method of the movement amount of each feature point is not limited to the above example, and the feature point detected in the previous frame image is calculated to which point in the input frame image is moved using the matching method. It is also possible to do it. Alternatively, block matching can be used. First, in the previous frame image, an area surrounded by squares of R pixels in the vertical and horizontal directions is set as a calculation area so that the target of interest fits, and this area is divided into vertical and horizontal Q blocks. However, R is set in advance so that the block size is P pixels vertically and horizontally, and R = P × Q. Then, block matching is performed between each block and the input frame image, and this is output as the amount of movement of each feature point. In the above example, the calculation area and the block have a square shape. However, the shape is not limited to a square, and other shapes may be used.

ここで記載した方法は、特徴点毎もしくは小ブロック単位に移動量を検出するので、単純な移動だけでなく、回転や変形や拡大縮小のような変化であっても注目対象の位置が検出可能となり、注目対象の部分拡大表示が追従可能となる。なお、ここでの拡大縮小とは、ズームイン・ズームアウトのような映像全体が拡大縮小した場合だけでなく、注目対象だけがカメラに近づいたり遠ざかったりした場合にも対応可能となる。   The method described here detects the amount of movement for each feature point or small block, so it can detect the position of the target object not only for simple movements but also for changes such as rotation, deformation, and enlargement / reduction. Thus, the enlarged display of the target object can be followed. Note that the enlargement / reduction here can be applied not only when the entire image is enlarged / reduced, such as zoom-in / zoom-out, but also when only the target of interest approaches or moves away from the camera.

また、以上の例では、拡大領域の形状を円形としたが、円形に限定するものではなく、四角形やその他の任意の形状を用いてもよい。拡大領域の形状が円の場合、形状が円であることと、円の中心座標と、半径とを拡大領域位置情報としたが、矩形の場合は、形状が矩形であることと、4角の座標位置とを拡大領域位置情報とし、楕円の場合は、形状が楕円であることと、長径・短径・楕円率・傾きとを拡大領域位置情報とし、任意の形状の場合には、形状が任意の形状であることと、外周位置の座標とを拡大領域位置情報にすればよい。   In the above example, the shape of the enlarged region is a circle, but the shape is not limited to a circle, and a square or any other shape may be used. When the shape of the enlarged region is a circle, the shape is a circle, the center coordinates of the circle, and the radius are used as the enlarged region position information. In the case of an ellipse, the coordinate position is the enlarged region position information, and in the case of an ellipse, the shape is an ellipse, and the major axis, minor axis, ellipticity, and slope are the enlarged region position information. What is necessary is just to make it an arbitrary shape and the coordinate of an outer periphery position into enlarged area position information.

また、設定した注目対象を常時有効とし、新しい注目対象が設定されたら、注目対象を更新するようにしてもよいし、注目対象の設定を複数可能とし、新しい注目対象を設定するたびに、一番古い注目対象もしくは一番使用頻度の低い注目対象を消去するようにしてもよい。また、放送視聴時に部分拡大を行う場合には、番組が切り替わる度に、注目対象をクリアするようにしてもよいし、チャネル毎に複数の注目対象を設定できるようにして、チャネルを切り替えて、元のチャネルに戻った際には、前回そのチャネルで設定した注目対象が有効になるようにしてもよい。また、放送番組を録画したコンテンツやユーザがカメラで撮影したコンテンツの再生時には、そのコンテンツ毎に注目対象を設定できるようにしてもよいし、別のコンテンツを再生する度に、注目対象の設定をクリアするようにしてもよい。   In addition, the set target of interest may be always valid, and when a new target of interest is set, the target of interest may be updated, or multiple target targets can be set. The oldest attention object or the least frequently used attention object may be deleted. In addition, when performing partial enlargement during broadcast viewing, the target of attention may be cleared each time the program is switched, or a plurality of target of interest can be set for each channel, and the channel is switched, When returning to the original channel, the target of interest set in that channel last time may be enabled. Also, at the time of playback of content that has recorded a broadcast program or content that the user has taken with a camera, the target of attention may be set for each content, or the target of interest is set every time another content is played back. You may make it clear.

これまで、特徴点の移動量を算出する方法と、注目対象つまり特徴点が再表示されたか否かの算出方法とを異なる方式で記載してきたが、移動量を算出する代わりに、フレーム毎に特徴点の位置を検出するようにして、両者を同一の方法としてもよい。またマシンパワーが乏しい環境によっては、第2のメモリ9に記憶の前フレーム特徴点位置情報を用いて、特徴点の移動量の算出は移動前の周辺のみ行えば良いので毎フレーム行えるが、注目対象(特徴点)が再表示されたか否かの判定は全領域を行う必要があるので、毎フレーム行えない場合がある。この場合、注目対象(特徴点)が再表示されたか否かの判定は1フレームを複数フレームの時間にわたって検出してもよい。また複数の注目対象が設定されている場合は、全ての注目対象を同一のフレームで検出するのではなく、時間毎に区切って、1つの注目対象の検出を行って、検出できなかった場合に次の注目対象の検出をその時点から行うとの方法でもよい。   So far, the method of calculating the movement amount of the feature point and the calculation method of whether or not the target object, that is, the feature point has been redisplayed, have been described in different ways, but instead of calculating the movement amount, for each frame Both may be the same method by detecting the position of the feature point. Depending on the environment where the machine power is scarce, it is possible to calculate the amount of movement of the feature points only around the area before the movement by using the previous frame feature point position information stored in the second memory 9. Since it is necessary to perform the entire region to determine whether or not the target (feature point) has been redisplayed, it may not be possible to perform every frame. In this case, the determination as to whether or not the target of interest (feature point) has been redisplayed may detect one frame over a period of a plurality of frames. In addition, when multiple attention targets are set, if not all attention targets are detected in the same frame, but one target is detected at intervals of time and cannot be detected. A method may be used in which the next target of interest is detected from that point.

以上において、本発明の画像処理装置に関する実施形態の例について説明したが、これらの説明から、本発明に係わる、画像処理方法、及び、該画像処理方法をコンピュータによりプログラムとして実行する処理プログラムについても容易に理解することができるであろう。
また、本発明の画像処理装置は、画像表示部と一体とした画像表示装置として構成してもよい。さらに、例えば各種記録メディア再生装置などの映像出力機器内に設けられても良いことは言うまでもない。
The embodiments of the image processing apparatus according to the present invention have been described above. From these descriptions, the image processing method according to the present invention and a processing program for executing the image processing method as a program by a computer are also described. It will be easy to understand.
The image processing apparatus of the present invention may be configured as an image display apparatus integrated with an image display unit. Furthermore, it goes without saying that it may be provided in a video output device such as various recording media playback devices.

1…追従実行信号取得部、2…ユーザ指定領域取得部、3…注目対象検出部、4…拡大領域決定部、5,13…部分拡大計算部、6…特徴点移動量算出部、7…注目対象再表示検出部、8…第1のメモリ、9…第2のメモリ、10…フレームメモリ、11…表示部、12…パラメータ取得部、13…部分拡大計算部。 DESCRIPTION OF SYMBOLS 1 ... Following execution signal acquisition part, 2 ... User designation area | region acquisition part, 3 ... Attention object detection part, 4 ... Enlargement area determination part, 5, 13 ... Partial enlargement calculation part, 6 ... Feature point movement amount calculation part, 7 ... Attention target redisplay detection unit, 8... First memory, 9... Second memory, 10... Frame memory, 11.

Claims (6)

表示画面の表示画像に対してユーザが指定した位置の周辺領域内、又は、ユーザが指定した領域内に含まれる注目対象の画像を示す特徴点情報及び当該特徴点の表示位置を検出する注目対象検出部と、
前記検出された特徴点情報を記憶する特徴点情報記憶部と、
現表示フレームの前フレームの画像を記憶するフレームメモリと、
前記フレームメモリに記憶された画像及び現表示フレームの画像における前記特徴点情報記憶部に記憶された特徴点情報の表示位置を検出し、及び/又は、特徴点情報の表示位置の移動量を算出する移動量算出部と、
現表示フレームにおける特徴点情報の表示位置を記憶する現フレーム特徴点位置情報記憶部と、
前記移動量算出部が移動量を算出できなかった場合に、その後のフレームの画像について前記特徴点情報が含まれるか否か、及び、含まれている場合に前記特徴点情報の表示位置を検出する再表示検出部と、
前記注目対象検出部が検出した特徴点情報の表示位置、前記移動量算出部が算出した前記特徴点情報の移動量若しくは検出した現フレームにおける特徴点情報の表示位置、又は前記再表示検出部が検出した前記特徴点情報の表示位置に基づいて、前記注目対象を含む拡大領域を決定し、該拡大領域の画像を前記注目対象の表示箇所に重畳して拡大表示させる部分拡大表示部と、を備え、
ユーザの指定により注目対象の拡大画像を当該注目対象の表示箇所に重畳して注目画像の動きに追従して表示させると共に、当該注目対象の画像が表示画面外に移動した後、再表示された場合においても追従して拡大画像を表示させることを特徴とする画像処理装置。
Feature point information indicating a target image included in a peripheral region at a position designated by the user with respect to a display image on the display screen or a region designated by the user, and a target of interest for detecting the display position of the feature point A detection unit;
A feature point information storage unit for storing the detected feature point information;
A frame memory for storing an image of the previous frame of the current display frame;
Detecting the display position of the feature point information stored in the feature point information storage unit in the image stored in the frame memory and the image of the current display frame, and / or calculating the movement amount of the display position of the feature point information A movement amount calculation unit to perform,
A current frame feature point position information storage unit for storing a display position of feature point information in the current display frame;
When the movement amount calculation unit cannot calculate the movement amount, whether or not the feature point information is included in the image of the subsequent frame, and if it is included, the display position of the feature point information is detected. A re-display detection unit to
The display position of the feature point information detected by the target object detection unit, the movement amount of the feature point information calculated by the movement amount calculation unit, or the display position of the feature point information detected in the current frame, or the re-display detection unit A partial enlarged display unit that determines an enlarged region including the target of interest based on the detected display position of the feature point information, and displays an enlarged image of the enlarged region superimposed on the display location of the target of interest; Prepared,
The enlarged image of the target of interest is superimposed on the display location of the target of interest according to the user's designation and displayed following the movement of the target of interest, and the image of the target of interest has been re-displayed after moving outside the display screen An image processing apparatus that displays an enlarged image following a case.
前記拡大画像の大きさと拡大率のうち少なくともいずれか一つをユーザから取得する取得部を備えることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an acquisition unit configured to acquire at least one of a size and an enlargement ratio of the enlarged image from a user. 前記注目対象検出部は、前記注目対象として顔画像及び/または文字画像を検出することを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the attention object detection unit detects a face image and / or a character image as the attention object. 前記注目対象検出部は、前記入力画像に奥行き情報が付随されている場合に、該奥行き情報から手前に存在している物体を判別して、その物体を前記注目対象として検出することを特徴とする請求項1または2に記載の画像処理装置。   When the depth information is attached to the input image, the attention target detection unit discriminates an object existing in front from the depth information, and detects the object as the attention target. The image processing apparatus according to claim 1 or 2. 前記注目対象検出部で検出した注目対象を強調表示し、該注目対象がユーザの意図にあっているか否かをユーザに確認させる確認手段を備えることを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。   5. The apparatus according to claim 1, further comprising: a confirmation unit that highlights the target of interest detected by the target of interest detection unit and causes the user to confirm whether or not the target of interest matches the user's intention. The image processing apparatus according to item 1. 前記注目対象再表示検出部は、一定閾値以上の前記特徴点情報が検出された場合に、その後のフレームの画像について前記特徴点情報が含まれると判定することを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。   The target object re-display detection unit determines that the feature point information is included in an image of a subsequent frame when the feature point information equal to or greater than a predetermined threshold is detected. The image processing apparatus according to any one of the above.
JP2009204508A 2009-09-04 2009-09-04 Image processing device Ceased JP2011053587A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009204508A JP2011053587A (en) 2009-09-04 2009-09-04 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009204508A JP2011053587A (en) 2009-09-04 2009-09-04 Image processing device

Publications (1)

Publication Number Publication Date
JP2011053587A true JP2011053587A (en) 2011-03-17

Family

ID=43942622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009204508A Ceased JP2011053587A (en) 2009-09-04 2009-09-04 Image processing device

Country Status (1)

Country Link
JP (1) JP2011053587A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103390282A (en) * 2013-07-30 2013-11-13 百度在线网络技术(北京)有限公司 Image tagging method and device
JP2014064134A (en) * 2012-09-20 2014-04-10 Make Softwear:Kk Photographing game machine, control method for photographing game machine, and computer program
WO2014103732A1 (en) * 2012-12-26 2014-07-03 ソニー株式会社 Image processing device, and image processing method and program
JP2015528120A (en) * 2012-05-09 2015-09-24 インテル コーポレイション Selective enhancement of parts of the display based on eye tracking
WO2016076140A1 (en) * 2014-11-14 2016-05-19 ソニー株式会社 Information processing device, information processing method, and program
JP2017090711A (en) * 2015-11-11 2017-05-25 キヤノン株式会社 Image tremor correction device, and control method of the same, program thereof, and recording medium
JP2019006164A (en) * 2017-06-21 2019-01-17 アルパイン株式会社 Display system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0614323A (en) * 1992-06-29 1994-01-21 Sanyo Electric Co Ltd Subject tracking image processor
JP2004240844A (en) * 2003-02-07 2004-08-26 Ricoh Co Ltd Image processor, roi region control method, program, and storage medium
JP2006099404A (en) * 2004-09-29 2006-04-13 Sanyo Electric Co Ltd Image display device
JP2008203756A (en) * 2007-02-22 2008-09-04 Toshiba Corp Video signal processor, video display device, and video signal processing method
JP2009231988A (en) * 2008-03-19 2009-10-08 Sanyo Electric Co Ltd Image processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0614323A (en) * 1992-06-29 1994-01-21 Sanyo Electric Co Ltd Subject tracking image processor
JP2004240844A (en) * 2003-02-07 2004-08-26 Ricoh Co Ltd Image processor, roi region control method, program, and storage medium
JP2006099404A (en) * 2004-09-29 2006-04-13 Sanyo Electric Co Ltd Image display device
JP2008203756A (en) * 2007-02-22 2008-09-04 Toshiba Corp Video signal processor, video display device, and video signal processing method
JP2009231988A (en) * 2008-03-19 2009-10-08 Sanyo Electric Co Ltd Image processor

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015528120A (en) * 2012-05-09 2015-09-24 インテル コーポレイション Selective enhancement of parts of the display based on eye tracking
JP2014064134A (en) * 2012-09-20 2014-04-10 Make Softwear:Kk Photographing game machine, control method for photographing game machine, and computer program
WO2014103732A1 (en) * 2012-12-26 2014-07-03 ソニー株式会社 Image processing device, and image processing method and program
CN104871525A (en) * 2012-12-26 2015-08-26 索尼公司 Image processing device, and image processing method and program
CN103390282A (en) * 2013-07-30 2013-11-13 百度在线网络技术(北京)有限公司 Image tagging method and device
CN103390282B (en) * 2013-07-30 2016-04-13 百度在线网络技术(北京)有限公司 Image labeling method and device thereof
WO2016076140A1 (en) * 2014-11-14 2016-05-19 ソニー株式会社 Information processing device, information processing method, and program
JPWO2016076140A1 (en) * 2014-11-14 2017-08-24 ソニー株式会社 Information processing apparatus, information processing method, and program
US10617301B2 (en) 2014-11-14 2020-04-14 Sony Corporation Information processing device and information processing method
JP2017090711A (en) * 2015-11-11 2017-05-25 キヤノン株式会社 Image tremor correction device, and control method of the same, program thereof, and recording medium
JP2019006164A (en) * 2017-06-21 2019-01-17 アルパイン株式会社 Display system

Similar Documents

Publication Publication Date Title
US10366477B2 (en) Image processing apparatus and image processing method
EP3792738B1 (en) User interfaces for capturing and managing visual media
KR101810935B1 (en) Method, device, program and recording medium for adjusting and displaying image
US10009603B2 (en) Method and system for adaptive viewport for a mobile device based on viewing angle
JP5678324B2 (en) Display device, computer program, and display method
JP6167703B2 (en) Display control device, program, and recording medium
KR101679078B1 (en) Method for navigation in panoramic image, machine-readable storage and portable device
JP2011053587A (en) Image processing device
JP4626668B2 (en) Image processing apparatus, display control method, program, and recording medium
US20080198178A1 (en) Providing area zoom functionality for a camera
US20040179121A1 (en) System and method for displaying captured images according to imaging device position
US20050243073A1 (en) Presentation device and display method
US10924652B2 (en) Monitoring apparatus and monitoring system
JP2016127571A (en) Camera system, display control device, display control method, and program
KR20150119621A (en) display apparatus and image composition method thereof
CN109565569B (en) Monitoring device and system
CN112805995A (en) Information processing apparatus
JP6145738B2 (en) Display device and computer program
JP5919570B2 (en) Image display device and image display method
JP4495518B2 (en) Program selection support apparatus and program selection support program
JP5229928B1 (en) Gaze position specifying device and gaze position specifying program
JP5015121B2 (en) Imaging device
JP6614516B2 (en) Display device and computer program
WO2021131325A1 (en) Image processing device, image processing method, and program
JP2017182843A (en) Program, display control device, and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130425

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20140527