JP2010004261A - Image processing apparatus, and image processing method - Google Patents

Image processing apparatus, and image processing method Download PDF

Info

Publication number
JP2010004261A
JP2010004261A JP2008160629A JP2008160629A JP2010004261A JP 2010004261 A JP2010004261 A JP 2010004261A JP 2008160629 A JP2008160629 A JP 2008160629A JP 2008160629 A JP2008160629 A JP 2008160629A JP 2010004261 A JP2010004261 A JP 2010004261A
Authority
JP
Japan
Prior art keywords
area
image
image processing
unit
complex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008160629A
Other languages
Japanese (ja)
Inventor
Yu Kimishima
裕 君島
Mitsuhisa Kaneko
光久 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008160629A priority Critical patent/JP2010004261A/en
Publication of JP2010004261A publication Critical patent/JP2010004261A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of quickly displaying a complicated area. <P>SOLUTION: The image processing apparatus includes: a display screen on which an image before encoding is displayed; a complicated area detection part for detecting a complicated pixel area from the image before encoding; a complicated area display part for displaying the complicated pixel area detected by the complicated area detection part, on the display screen; an operation input part for a user to designate an arbitrary area in the image as a designated area; and an image processing part for subjecting the designated area designated through the operation input part, to prescribed image processing. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置、及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

近年、映像処理技術の急速な発展に伴い、手軽に高品質なデジタル映像の撮影が可能な撮像装置が一般にも普及してきている。このような高画質映像のデジタル映像データは、そのデータ量が膨大であるため、それを経済的に記録するために種々の工夫が凝らされている。その中でも、高画質な映像データを高画質なままにデータ容量を圧縮する符号化技術として、例えば、MPEG(Moving Picture Experts Group)やVCEG(Video Coding Experts Group)により規格化された圧縮符号化技術がよく知られている。   In recent years, with the rapid development of video processing technology, imaging devices that can easily shoot high-quality digital video have become popular. Since such digital video data of high-quality video has an enormous amount of data, various devices have been devised to record it economically. Among them, as an encoding technique for compressing data capacity of high-quality video data while maintaining high image quality, for example, a compression encoding technique standardized by MPEG (Moving Picture Experts Group) or VCEG (Video Coding Experts Group) Is well known.

このような撮像装置には、通常、光学系を介して入射された光を光電変換して電気信号を出力する撮像素子が搭載されており、その電気信号からデジタル映像信号が生成される。さらに、上記の理由から、デジタル映像信号は、撮像装置に搭載されたエンコーダにより所定の符号化方式で符号化される。このとき、エンコーダは、例えば、上記のMPEG等により規格化された圧縮符号化方式に基づいて符号化処理を実行する。符号化されたデジタル映像信号は、撮像装置に接続された記録媒体に記録される。   Such an imaging apparatus is usually equipped with an imaging device that photoelectrically converts light incident through an optical system and outputs an electrical signal, and a digital video signal is generated from the electrical signal. Furthermore, for the above reason, the digital video signal is encoded by a predetermined encoding method by an encoder mounted on the imaging apparatus. At this time, the encoder executes encoding processing based on, for example, a compression encoding method standardized by the above-described MPEG or the like. The encoded digital video signal is recorded on a recording medium connected to the imaging device.

ところが、MPEG等の圧縮符号化方式は、エンコード前の画像が複雑であったり、画像に動きの激しい被写体が含まれているような場合に、圧縮率が低下したり、圧縮ノイズが発生して符号化後の映像品質が低下してしまうことが多い。また、単位時間当たりに割り当てられるビット量が固定されていると、複雑な画素領域を含む画像に多くの符号量が割り当てられてしまい、全体として映像品質が低下してしまうことがある。そのため、複雑な画素領域や動きの激しい被写体を含む画像を低減させることが求められている。   However, compression encoding methods such as MPEG may cause a reduction in compression rate or compression noise when the pre-encoded image is complex or the image contains a subject that moves rapidly. In many cases, video quality after encoding is degraded. In addition, if the bit amount allocated per unit time is fixed, a large amount of code is allocated to an image including a complex pixel area, and the video quality as a whole may be degraded. Therefore, it is required to reduce an image including a complicated pixel region and a subject that moves rapidly.

こうした要求に対し、下記の特許文献1には、画像の複雑さや被写体の動きの激しさ等に応じて変化する符号化率を画面上に表示する技術が開示されている。さらに、同文献1には、所定の符号化率を超過した場合に画面上に警告を表示する技術が開示されている。また、下記の特許文献2には、ユーザが画像中で重要と考える領域に高い重要度を設定しておき、重要度に応じた符号量で符号化する技術が開示されている。さらに、下記の特許文献3には、画像のエッジ検出や複雑領域の検出を行い、その結果得られたエッジ領域や複雑領域に対して自動的に多くの符号量を割り当てて符号化する技術が開示されている。   In response to such a request, Patent Document 1 below discloses a technique for displaying on a screen a coding rate that changes according to the complexity of an image, the intensity of movement of a subject, and the like. Furthermore, the document 1 discloses a technique for displaying a warning on a screen when a predetermined coding rate is exceeded. Patent Document 2 below discloses a technique in which a high importance level is set in an area that a user considers important in an image, and encoding is performed with a code amount corresponding to the importance level. Further, Patent Document 3 below discloses a technique for performing edge detection and complex area detection of an image, and automatically assigning a large amount of code to the edge area and complex area obtained as a result of the detection. It is disclosed.

特開2003−250114号公報JP 2003-250114 A 特開平8−336135号公報JP-A-8-336135 特開平9− 98421号公報JP-A-9-98421

しかしながら、上記の特許文献1のように符号化率が画面に表示されたとしても、ユーザは、被写体のどの部分が複雑な領域なのかを容易に判断することが難しい。そのため、熟練した撮影技術を持つユーザでなければ複雑領域を回避するようにアングル等の調整を行うことが難しかった。また、上記の特許文献2のようにユーザが予め重要な領域を指定しておくような場合、時事刻々と複雑領域が変化するような撮影シーンにおいては十分な効果が得られない。さらに、重要度の設定はユーザにとって大きな負担になる。   However, even if the coding rate is displayed on the screen as in Patent Document 1, it is difficult for the user to easily determine which part of the subject is a complex area. Therefore, it is difficult to adjust the angle or the like so as to avoid a complicated area unless it is a user having a skilled photographing technique. Further, when the user designates an important area in advance as in the above-mentioned Patent Document 2, a sufficient effect cannot be obtained in a shooting scene in which the complex area changes from moment to moment. Furthermore, setting the importance level is a heavy burden on the user.

また、上記の特許文献3のように自動的に符号量を割り当てて符号化するような場合、実際にユーザが重要であると考える領域に多くの符号量が割り当てられるとは限らず、肝心な領域の画質が低くなってしまうことがある。また、同文献3の技術では、ユーザのアングル調整等で回避できる複雑領域があっても、ユーザに複雑領域の情報が提示されない。そのため、複雑領域を含んだまま撮影が続行され、符号化処理が実行される際に、複雑領域が回避された画像よりも多くの符号量が費やされることになる。   In addition, when encoding is performed by automatically allocating a code amount as described in Patent Document 3, a large amount of code amount is not always allocated to a region that is actually considered important by the user. The image quality of the area may be lowered. Further, in the technique of the same document 3, even if there is a complex area that can be avoided by adjusting the angle of the user, information on the complex area is not presented to the user. Therefore, when the imaging is continued while including the complex area and the encoding process is executed, a larger amount of code is consumed than an image in which the complex area is avoided.

つまり、上記の技術を単独で又は組み合わせて用いたとしても、撮影画像に含まれる複雑な画素領域をリアルタイムでユーザに提示することが難しい。そのため、ユーザにとって重要な領域の画質が低下してしまったり、ユーザ操作で回避できる複雑領域が画像に含まれて符号量が相対的に多くなったりする。さらに、上記の特許文献1のようにエンコード処理後に得られる情報をユーザに提示するような構成にすると、エンコード処理に時間が掛かり、ユーザがリアルタイムに複雑領域の回避行動をとることが難しくなる。   That is, even if the above techniques are used alone or in combination, it is difficult to present a complex pixel region included in the captured image to the user in real time. For this reason, the image quality of a region important for the user is deteriorated, or a complex region that can be avoided by a user operation is included in the image, and the code amount is relatively increased. Furthermore, if the configuration is such that information obtained after the encoding process is presented to the user as in Patent Document 1 described above, the encoding process takes time, and it becomes difficult for the user to take complex area avoidance actions in real time.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザに対して複雑な画素領域をより早く提示し、ユーザにより指定された画素領域に所定の画像処理を施すことが可能な、新規かつ改良された画像処理装置、及び画像処理方法を提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to present a complicated pixel area to a user earlier and to provide a predetermined pixel area designated by the user. It is an object of the present invention to provide a new and improved image processing apparatus and an image processing method capable of performing image processing.

上記課題を解決するために、本発明のある観点によれば、エンコード前の画像が表示される表示画面と、前記エンコード前の画像から複雑な画素領域を検出する複雑領域検出部と、前記複雑領域検出部により検出された複雑な画素領域を前記表示画面に表示する複雑領域表示部と、前記画像内の任意領域をユーザが指定領域として指定するための操作入力部と、前記操作入力部を介して指定された指定領域に所定の画像処理を施す画像処理部と、を備える、画像処理装置が提供される。   In order to solve the above problems, according to an aspect of the present invention, a display screen on which an image before encoding is displayed, a complex area detection unit that detects a complex pixel area from the image before encoding, and the complex A complex region display unit for displaying a complex pixel region detected by the region detection unit on the display screen, an operation input unit for a user to designate an arbitrary region in the image as a designated region, and the operation input unit. There is provided an image processing apparatus including an image processing unit that performs predetermined image processing on a designated area designated via the image processing unit.

このように、上記の画像処理装置は、エンコード前の画像が表示される表示画面を有しており、さらに、複雑領域検出部により、前記エンコード前の画像から複雑な画素領域を検出することができる。また、上記の画像処理装置は、複雑領域表示部により、前記複雑領域検出部により検出された複雑な画素領域を前記表示画面に表示する。そして、上記の画像処理装置は、前記画像内の任意領域をユーザが指定領域として指定するための操作入力部を有しており、さらに、画像処理部により、前記操作入力部を介して指定された指定領域に所定の画像処理を施すことができる。   As described above, the image processing apparatus has a display screen on which an image before encoding is displayed, and the complex area detection unit can detect a complex pixel area from the image before encoding. it can. In the image processing apparatus, the complex area display unit displays the complex pixel area detected by the complex area detection unit on the display screen. The image processing apparatus includes an operation input unit for a user to specify an arbitrary area in the image as a specified area, and is further specified by the image processing unit via the operation input unit. It is possible to perform predetermined image processing on the designated area.

また、前記画像処理部は、前記画像を符号化するエンコーダであり、当該画像を符号化する際に前記操作入力部を介して指定された指定領域に比較的多くの符号量又は比較的少ない符号量を割り当てて符号化するように構成されていてもよい。   Further, the image processing unit is an encoder that encodes the image, and a relatively large code amount or a relatively small code is specified in a designated area designated via the operation input unit when the image is coded. It may be configured to allocate and encode quantities.

また、前記画像処理部は、前記操作入力部を介して指定された指定領域に対し、ローパスフィルタ、減色処理、又は被写界深度の低減処理を施すように構成されていてもよい。   The image processing unit may be configured to perform a low-pass filter, a color reduction process, or a depth-of-field reduction process on a designated area designated via the operation input unit.

また、上記の画像処理装置は、前記操作入力部を介して指定された指定領域の外縁を前記表示画面に表示する指定領域表示部をさらに備えていてもよい。この場合、前記指定領域表示部は、ユーザにより前記操作入力部が操作された時間の長さに応じて前記指定領域のサイズを拡大する。   The image processing apparatus may further include a designated area display unit that displays an outer edge of the designated area designated via the operation input unit on the display screen. In this case, the designated area display unit enlarges the size of the designated area according to the length of time that the operation input unit is operated by the user.

また、前記指定領域表示部は、前記指定領域のサイズを拡大する際、前記指定領域の外縁が前記複雑領域検出部により検出された複雑な画素領域の外縁に沿うように前記指定領域を拡大するように構成されていてもよい。   The designated area display unit enlarges the designated area so that the outer edge of the designated area is aligned with the outer edge of the complex pixel area detected by the complex area detecting unit when the size of the designated area is enlarged. It may be configured as follows.

また、前記複雑領域検出部は、前記エンコード前の画像から検出される離散コサイン変換係数、ウェーブレット係数、動きベクトルの長さ、フラットネス、又はイントラACが大きな画素領域を前記複雑な画素領域として検出するように構成されていてもよい。   The complex area detecting unit detects a pixel area having a large discrete cosine transform coefficient, wavelet coefficient, motion vector length, flatness, or intra AC detected from the pre-encoded image as the complex pixel area. It may be configured to.

また、上記の画像処理装置は、光学系を介して入射された光から被写体の像を形成する撮像部をさらに備えていてもよい。この場合、前記撮像部は、前記被写体の像を前記表示画面に表示させると共に、当該被写体の像を前記エンコード前の画像として前記複雑領域検出部に入力する。   The image processing apparatus may further include an imaging unit that forms an image of a subject from light incident through the optical system. In this case, the imaging unit displays the image of the subject on the display screen, and inputs the image of the subject to the complex region detection unit as the image before encoding.

また、上記課題を解決するために、本発明の別の観点によれば、エンコード前の画像から複雑な画素領域が検出される複雑領域検出ステップと、表示画面にエンコード前の画像が表示され、前記複雑領域検出ステップで検出された複雑な画素領域が前記表示画面に表示される複雑領域表示ステップと、ユーザにより前記画像内の任意領域が指定領域として指定された場合に、少なくとも当該指定領域に対して所定の画像処理が施される画像処理ステップとを含む、画像処理方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a complex region detection step in which a complex pixel region is detected from an image before encoding, an image before encoding is displayed on a display screen, A complex region display step in which the complex pixel region detected in the complex region detection step is displayed on the display screen; and when an arbitrary region in the image is designated by the user as the designated region, at least the designated region There is provided an image processing method including an image processing step in which predetermined image processing is performed.

以上説明したように本発明によれば、ユーザに対して複雑な画素領域をより早く提示し、ユーザにより指定された画素領域に所定の画像処理を施すことが可能になる。   As described above, according to the present invention, a complicated pixel region can be presented to the user earlier, and predetermined image processing can be performed on the pixel region designated by the user.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[本稿の構成]
まず、本発明の実施形態について詳細に説明するに先立ち、当該実施形態が目的とするところについて簡単に説明する。この中で、当該目的を達成するための同実施形態に係る技術の概要について説明する。次いで、同実施形態に係る装置、及び方法の具体的な構成例を示し、当該装置の機能構成、及び当該方法に係る処理の流れについて説明する。
[Structure of this article]
First, prior to describing the embodiment of the present invention in detail, the purpose of the embodiment will be briefly described. In this, the outline | summary of the technique which concerns on the same embodiment for achieving the said objective is demonstrated. Next, a specific configuration example of the apparatus and method according to the embodiment will be shown, and the functional configuration of the apparatus and the flow of processing according to the method will be described.

[目的]
既に述べた通り、MPEG等のエンコード方式を用いると、各映像フレームに複雑な画素領域が含まれていたり、映像フレーム間の動きが激しい場合、圧縮率が低下したり、圧縮ノイズが発生したりしてしまう。また、同方式では、単位時間当たりに割り当てられるビット量が固定されており、その上限を超過すると極端に画質が低下してしまう。そのため、撮影時に映像フレームを構成する画像の複雑領域を除去又は低減させたり、動きの激しい被写体を極力少なくしたりすることが映像品質の向上には欠かせない。
[the purpose]
As already mentioned, when an encoding method such as MPEG is used, if each video frame contains complex pixel areas, or if the motion between video frames is intense, the compression rate will decrease or compression noise will occur. Resulting in. Also, in this method, the amount of bits allocated per unit time is fixed, and when the upper limit is exceeded, the image quality is extremely deteriorated. For this reason, it is indispensable for improving the video quality to remove or reduce the complex area of the image constituting the video frame at the time of shooting, or to reduce the subject that moves rapidly as much as possible.

複雑な画素領域や動きの激しい画素領域をリアルタイムで特定し、これらの画素領域を撮影時に回避することができれば、同じビットレートの設定でも、エンコード後の映像品質を高めることができる。さらに、これらの画素領域が少なくなれば、エンコード後の映像データサイズを低減させることも可能になる。つまり、高品質でサイズが小さい映像データを生成することができるようになる。後述する本発明の実施形態は、このような映像データの生成を実現することを主な目的とするものである。   If complex pixel areas and pixel areas with high motion are identified in real time and these pixel areas can be avoided during shooting, the encoded video quality can be improved even with the same bit rate setting. Furthermore, if these pixel areas are reduced, the encoded video data size can be reduced. That is, it is possible to generate high-quality and small-sized video data. An embodiment of the present invention to be described later is mainly intended to realize generation of such video data.

近年、高速通信網の普及に伴い、個人レベルでも動画配信や動画投稿といった動画コンテンツの遣り取りが頻繁に行われるようになってきている。例えば、Webカメラを用いた動画チャットのようにインターネットを介してリアルタイムに動画データを遣り取りされるケースも増えている。このような場合に遣り取りされる動画コンテンツとしては、低ビットレートで高画質なものが望まれる。例えば、動画チャット等の場合、遣り取りされる映像の中で重要なのは顔等が写っている中心部分である。その場合に、周辺部分に複雑領域が含まれていたり、動きの激しい被写体が写り込んでいたりすると、圧縮率が低下して映像品質が落ちてしまう。   In recent years, with the spread of high-speed communication networks, video content such as video distribution and video posting has been frequently exchanged even at the individual level. For example, moving image data is exchanged in real time via the Internet, such as moving image chat using a Web camera. The moving image content exchanged in such a case is desired to have a high image quality at a low bit rate. For example, in the case of a video chat or the like, the important part of the exchanged video is the central portion where the face is shown. In this case, if the surrounding area includes a complex area or a subject that moves rapidly is captured, the compression rate decreases and the video quality deteriorates.

これと同様に、例えば、ドラマや映画等の映像コンテンツを制作する際、あまり重要ではない背景部分に複雑領域が含まれていたり、動きの激しい被写体が写り込んでいたりすると映像品質が低下してしまう。また、背景に情報量の大きい映像が含まれると、視聴者には所謂うるさい映像として認識されてしまう。例えば、背景に写り込んでいる木々の葉が風で揺れていると、その部分の画素領域は、複雑な画素領域となり、かつ、動き検出が難しい画素領域となる。また、うるさい映像にもなるため、この映像コンテンツから視聴者が受ける印象が悪化してしまうことがある。   Similarly, when producing video content such as dramas and movies, for example, if the background area is not so important and the complex area is included, or if a subject with intense movement is reflected, the video quality will deteriorate. End up. In addition, if a video with a large amount of information is included in the background, the viewer will recognize it as a so-called noisy video. For example, when the leaves of trees reflected in the background are swayed by the wind, the pixel area of that portion becomes a complex pixel area and a pixel area where motion detection is difficult. Moreover, since it becomes a noisy image | video, the impression which a viewer receives from this video content may deteriorate.

このような複雑な映像部分や動きの激しい映像部分は、撮影時にカメラのアングルを調整したり、画角を狭めたりすることで容易に回避することができる場合がある。そもそも、こうした映像部分を撮影時に回避できれば、これらの映像部分に起因してエンコード後の映像品質が低下してしまうことが無くなる。しかし、高度に熟練したユーザでなければ、複雑な映像部分や動きの激しい映像部分を的確に判断することは難しい。また、複雑な映像部分や動きの激しい映像部分であっても、ユーザが重要であると考える場合があり、自動的に複雑領域等を判断して補正しようとすると、エンコード後の映像がユーザの意図と乖離してしまう可能性がある。   There are cases where such complicated video portions or video portions with intense movement can be easily avoided by adjusting the camera angle or narrowing the angle of view during shooting. In the first place, if such a video portion can be avoided at the time of shooting, the video quality after encoding will not deteriorate due to these video portions. However, unless it is a highly skilled user, it is difficult to accurately determine a complex video portion or a video portion with a lot of movement. Also, even complex video parts or video parts with high motion may be considered important by the user, and if an attempt is made to automatically determine and correct complex areas etc., the encoded video will be displayed by the user. There is a possibility of deviation from the intention.

こうした観点から、後述する本発明の実施形態では、各映像フレームに含まれる複雑な画素領域や映像フレーム間の激しい動きを検出し、その検出結果をユーザに提示する技術を提案する。また、同実施形態では、ユーザが撮影時に複雑領域等をリアルタイムで把握し、複雑領域等の回避ができるように、より高速に複雑領域等をユーザに提示する技術を提案する。これらの技術を用いることで、撮影中にユーザが重要でないと判断した複雑領域等をリアルタイムに回避することが可能になり、エンコード後の映像データのデータ量を低減させながら、重要部分の映像品質を向上させることができる。以下、同実施形態に係る装置、及び方法の構成例について詳細に説明する。   From such a viewpoint, the embodiment of the present invention to be described later proposes a technique for detecting a complex pixel region included in each video frame and a severe motion between the video frames and presenting the detection result to the user. In the embodiment, a technique is proposed in which the user can grasp the complex area in real time at the time of shooting and present the complex area to the user at a higher speed so that the complex area can be avoided. By using these technologies, it is possible to avoid in real time complex areas that the user has determined to be unimportant during shooting, reducing the amount of video data after encoding, and reducing the video quality of important parts. Can be improved. Hereinafter, a configuration example of the apparatus and method according to the embodiment will be described in detail.

<実施形態>
以下、本発明の一実施形態について説明する。本実施形態は、エンコード前の画像から複雑な画素領域を検出して表示画面に表示させると共に、その表示内容に基づいてユーザにより指定された指定領域に所定の画像処理を施す技術に関する。エンコード前の画像から複雑な画素領域が検出されるため、リアルタイムに複雑な画素領域が表示できるようになる。このようにして表示された情報を参照することで、ユーザは、カメラワークや構図等をインタラクティブに調整しながら複雑な画素領域等を回避することが可能になる。
<Embodiment>
Hereinafter, an embodiment of the present invention will be described. The present embodiment relates to a technique for detecting a complex pixel area from an image before encoding and displaying it on a display screen, and performing predetermined image processing on a designated area designated by a user based on the display content. Since a complex pixel area is detected from the image before encoding, the complex pixel area can be displayed in real time. By referring to the information displayed in this way, the user can avoid complicated pixel areas and the like while interactively adjusting camera work and composition.

[撮像装置100の機能構成]
まず、図1を参照しながら、本実施形態に係る撮像装置100の機能構成について説明する。図1は、本実施形態に係る撮像装置100の機能構成例を示す説明図である。撮像装置100の技術は、例えば、カムコーダやWebカメラが接続されたパーソナルコンピュータ、或いは、カメラ付きの携帯電話等に適用される。なお、撮像装置100は、本実施形態に係る技術のうち、複雑な画素領域を高速に表示するための一部技術に関する。
[Functional Configuration of Imaging Device 100]
First, the functional configuration of the imaging apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 1 is an explanatory diagram illustrating a functional configuration example of the imaging apparatus 100 according to the present embodiment. The technology of the imaging apparatus 100 is applied to, for example, a personal computer to which a camcorder or a Web camera is connected, a mobile phone with a camera, or the like. Note that the imaging apparatus 100 relates to a part of the techniques according to the present embodiment for displaying a complex pixel region at high speed.

図1に示すように、撮像装置100は、主に、光学系102と、イメージセンサ104と、画像処理ブロック130とにより構成される。イメージセンサ104は、撮像部の一例である。画像処理ブロック130は、画像処理装置の一例である。この画像処理ブロック130の機能は、図31に示すハードウェア構成により実現することができる。   As shown in FIG. 1, the imaging apparatus 100 mainly includes an optical system 102, an image sensor 104, and an image processing block 130. The image sensor 104 is an example of an imaging unit. The image processing block 130 is an example of an image processing apparatus. The function of the image processing block 130 can be realized by the hardware configuration shown in FIG.

(光学系102、イメージセンサ104)
光学系102は、被写体に反射した光が入射された場合に、その被写体像を結像させるための一又は複数のレンズにより形成されている。光学系102を介して入射した光は、イメージセンサ104に光信号として入力される。
(Optical system 102, image sensor 104)
The optical system 102 is formed by one or a plurality of lenses for forming an image of a subject when the reflected light is incident on the subject. The light incident through the optical system 102 is input to the image sensor 104 as an optical signal.

イメージセンサ104は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の光電変換素子により形成されている。イメージセンサ104は、光学系102を介して入力された光信号を光電変換して電気信号を出力する。イメージセンサ104から出力された電気信号は、デジタル画像信号として画像処理ブロック130(画像処理部132)に入力される。なお、動画像が撮影される場合には、連続して被写体像がイメージセンサ104に入力され、ページ単位(フレーム又はフィールド単位)のデジタル画像信号が画像処理部132に連続して入力される。   The image sensor 104 is formed of a photoelectric conversion element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), for example. The image sensor 104 photoelectrically converts an optical signal input via the optical system 102 and outputs an electrical signal. The electrical signal output from the image sensor 104 is input to the image processing block 130 (image processing unit 132) as a digital image signal. When a moving image is captured, the subject image is continuously input to the image sensor 104, and digital image signals in units of pages (frame or field units) are continuously input to the image processing unit 132.

(画像処理ブロック130)
画像処理ブロック130は、主に、画像処理部132と、エンコーダ134と、画像記憶部136と、画像出力制御部138と、表示パネル140とにより構成される。画像出力制御部138は、複雑領域検出部、複雑領域表示部、及び指定領域表示部の一例である。表示パネル140は、表示画面の一例である。
(Image processing block 130)
The image processing block 130 mainly includes an image processing unit 132, an encoder 134, an image storage unit 136, an image output control unit 138, and a display panel 140. The image output control unit 138 is an example of a complex region detection unit, a complex region display unit, and a designated region display unit. The display panel 140 is an example of a display screen.

(画像処理部132)
まず、イメージセンサ104からデジタル画像信号が入力されると、画像処理部132は、デジタル画像信号に対してホワイトバランスの調整やγ補正等の画像処理を施す。また、画像処理部132は、ユーザ設定に応じてローパスフィルタや赤目補正等をデジタル画像信号に施す。画像処理部132により画像処理が施されたデジタル画像信号は、エンコーダ134、及び画像出力制御部138に入力される。
(Image processing unit 132)
First, when a digital image signal is input from the image sensor 104, the image processing unit 132 performs image processing such as white balance adjustment and γ correction on the digital image signal. In addition, the image processing unit 132 applies a low-pass filter, red-eye correction, and the like to the digital image signal according to user settings. The digital image signal subjected to image processing by the image processing unit 132 is input to the encoder 134 and the image output control unit 138.

(エンコーダ134)
画像処理部132からデジタル画像信号が入力されると、エンコーダ134は、このデジタル画像信号に対して所定のエンコード方式でエンコード処理を施す。所定のエンコード方式としては、例えば、MPEG−2、MPEG−4、H.264/AVC等で規格化された方式が用いられる。もちろん、本実施形態に適用可能なエンコード方式は、これらの例に限定されるものではない。
(Encoder 134)
When a digital image signal is input from the image processing unit 132, the encoder 134 performs an encoding process on the digital image signal by a predetermined encoding method. Examples of the predetermined encoding method include MPEG-2, MPEG-4, H.264, and the like. A method standardized by H.264 / AVC or the like is used. Of course, the encoding method applicable to this embodiment is not limited to these examples.

ここでは、一例として、MPEG−2として規定されたエンコード方式を用いる場合におけるエンコーダ134の機能構成について簡単に説明する。   Here, as an example, a functional configuration of the encoder 134 when using an encoding method defined as MPEG-2 will be briefly described.

MPEG−2では、動き補償フレーム間差分符号化技術が用いられている。まず、エンコーダ134は、連続して入力されるデジタル画像信号から動きベクトルを検出する。このとき、エンコーダ134は、ブロックマッチング法等を利用して動き検出を行う。次いで、エンコーダ134は、検出した動きベクトルを用いてデジタル画像信号に動き補償を施しつつ、デジタル画像信号を差分符号化する。   In MPEG-2, a motion compensation interframe differential encoding technique is used. First, the encoder 134 detects a motion vector from continuously input digital image signals. At this time, the encoder 134 performs motion detection using a block matching method or the like. Next, the encoder 134 differentially encodes the digital image signal while performing motion compensation on the digital image signal using the detected motion vector.

その後、エンコーダ134は、動き補償により補正できない差分情報等にDCTを施す。さらに、エンコーダ134は、DCTが施された差分情報等を量子化し、ハフマン符号等の可変長符号を用いて符号化する。このようにしてデジタル画像信号は、エンコーダ134によりエンコードされる。エンコード後のデジタル画像信号は、エンコード結果として画像記憶部136に記録される。   Thereafter, the encoder 134 performs DCT on difference information that cannot be corrected by motion compensation. Further, the encoder 134 quantizes the difference information and the like subjected to DCT, and encodes it using a variable length code such as a Huffman code. In this way, the digital image signal is encoded by the encoder 134. The encoded digital image signal is recorded in the image storage unit 136 as an encoding result.

(画像出力制御部138)
ところで、画像処理部132から出力されたデジタル画像信号は、エンコーダ134とは独立に画像出力制御部138に対しても入力される。画像出力制御部138は、エンコード前のデジタル画像信号からDCT係数等の符号を算出し、この符号を用いてデジタル画像信号に含まれる各画素領域の複雑さを評価する。画像出力制御部138による評価結果は、表示パネル140に表示される。このとき、画像出力制御部138は、デジタル画像信号を評価結果と共に表示する。この表示方法については後段において詳述する。
(Image output control unit 138)
Meanwhile, the digital image signal output from the image processing unit 132 is also input to the image output control unit 138 independently of the encoder 134. The image output control unit 138 calculates a code such as a DCT coefficient from the digital image signal before encoding, and evaluates the complexity of each pixel area included in the digital image signal using this code. The evaluation result by the image output control unit 138 is displayed on the display panel 140. At this time, the image output control unit 138 displays the digital image signal together with the evaluation result. This display method will be described in detail later.

ここで、図2を参照しながら、画像出力制御部138の詳細な機能構成について説明を加える。図2は、画像出力制御部138の詳細な機能構成を示す説明図である。   Here, a detailed functional configuration of the image output control unit 138 will be described with reference to FIG. FIG. 2 is an explanatory diagram showing a detailed functional configuration of the image output control unit 138.

図2に示すように、画像出力制御部138は、主に、画像信号評価部152と、評価結果可視化部154と、画像重畳制御部156とにより構成される。なお、画像信号評価部152、及び画像重畳制御部156には、デジタル画像信号が入力されている。   As shown in FIG. 2, the image output control unit 138 mainly includes an image signal evaluation unit 152, an evaluation result visualization unit 154, and an image superposition control unit 156. Note that digital image signals are input to the image signal evaluation unit 152 and the image superimposition control unit 156.

(画像信号評価部152)
画像信号評価部152は、デジタル画像信号に含まれる各画素領域の空間的な画像特性又は時間的な画像特性を評価する。つまり、画像信号評価部152は、デジタル画像信号の各画素領域が持つ複雑さや、デジタル画像信号間における動きの激しさ等を評価する。画素領域としては、1つの画素又は複数の画素で構成される画素ブロックが1つの単位として用いられる。
(Image signal evaluation unit 152)
The image signal evaluation unit 152 evaluates a spatial image characteristic or a temporal image characteristic of each pixel area included in the digital image signal. That is, the image signal evaluation unit 152 evaluates the complexity of each pixel area of the digital image signal, the intensity of movement between the digital image signals, and the like. As the pixel region, a pixel block composed of one pixel or a plurality of pixels is used as one unit.

例えば、画像信号評価部152は、デジタル画像信号に離散コサイン変換(DCT;Discrete Cosine Transform)を施してDCT係数を算出する。ここでは、説明の都合上、画像信号評価部152によりDCT係数が算出される構成について説明したが、DCT係数に代えて、例えば、ウェーブレット係数、フラットネス、又はイントラAC等のパラメータが算出されるように構成されていてもよい。また、画像信号評価部152は、複数のデジタル画像信号を用いて動きベクトルを検出するように構成されていてもよい。これらの設定は、エンコーダ134が対応するエンコード方式に整合するように決定されることが好ましい。   For example, the image signal evaluation unit 152 performs DCT (Discrete Cosine Transform) on the digital image signal to calculate a DCT coefficient. Here, for convenience of explanation, the configuration in which the DCT coefficient is calculated by the image signal evaluation unit 152 has been described. However, for example, parameters such as a wavelet coefficient, flatness, or intra AC are calculated instead of the DCT coefficient. It may be configured as follows. Further, the image signal evaluation unit 152 may be configured to detect a motion vector using a plurality of digital image signals. These settings are preferably determined so that the encoder 134 matches the corresponding encoding scheme.

ところで、上記のフラットネスとは、画像の空間的な平坦さを表すデータである。フラットネスは、画像の図柄が空間的に複雑であるほど小さくなり、平坦であるほど大きくなる。一方、イントラACは、マクロブロックの平均値から各画素値の差分を算出して画像単位で累積したものである。従って、イントラACは、フレーム内符号化処理における発生符号量にほぼ相当する。そのため、イントラACは、映像の絵柄の複雑さ及び圧縮後のデータ量の大きさを示す指標として用いることができる。   By the way, the above flatness is data representing the spatial flatness of an image. The flatness becomes smaller as the design of the image is spatially complex, and becomes larger as it is flatter. On the other hand, the intra AC is obtained by calculating the difference of each pixel value from the average value of the macroblock and accumulating it in units of images. Therefore, the intra AC substantially corresponds to the generated code amount in the intra-frame encoding process. Therefore, the intra AC can be used as an index indicating the complexity of the picture pattern and the size of the compressed data amount.

次に、画像信号評価部152は、これらのパラメータを用いてデジタル画像信号を評価する。各画素領域の空間的な画像特性を評価する場合、画像信号評価部152は、DCT係数やウェーブレット係数等の周波数解析により算出されたパラメータを用いる。この場合、画像信号評価部152は、ある画素領域の高周波成分に対応するパラメータが大きな値を持つ場合に、その画素領域が複雑な画素領域であると評価する。逆に、画像信号評価部152は、ある画素領域の高周波成分に対応するパラメータが小さな値である場合に、その画素領域が複雑領域ではないと評価する。   Next, the image signal evaluation unit 152 evaluates the digital image signal using these parameters. When evaluating the spatial image characteristics of each pixel region, the image signal evaluation unit 152 uses parameters calculated by frequency analysis such as DCT coefficients and wavelet coefficients. In this case, when the parameter corresponding to the high frequency component of a certain pixel region has a large value, the image signal evaluation unit 152 evaluates that the pixel region is a complex pixel region. Conversely, when the parameter corresponding to the high-frequency component of a certain pixel area has a small value, the image signal evaluation unit 152 evaluates that the pixel area is not a complex area.

一方で、各画素領域の時間的な画像特性を評価する場合、画像信号評価部152は、デジタル画像信号間における動き検出により得られた動きベクトルを用いる。この場合、画像信号評価部152は、デジタル画像信号間において、ある画素領域の移動を示す動きベクトルの大きさをパラメータとして参照し、パラメータが大きな値を持つ場合に、その画素領域が動きの激しい画素領域であると評価する。逆に、画像信号評価部152は、デジタル画像信号間において、ある画素領域の動きベクトルの大きさが小さな値を持つ場合に、その画素領域が動きの激しい画素領域ではないと評価する。   On the other hand, when evaluating temporal image characteristics of each pixel region, the image signal evaluation unit 152 uses a motion vector obtained by motion detection between digital image signals. In this case, the image signal evaluation unit 152 refers to the magnitude of a motion vector indicating movement of a certain pixel area as a parameter between digital image signals, and when the parameter has a large value, the pixel area has a strong motion. Evaluated to be a pixel area. On the other hand, when the magnitude of the motion vector of a certain pixel area has a small value between digital image signals, the image signal evaluation unit 152 evaluates that the pixel area is not a pixel area with intense motion.

また、画像信号評価部152は、例えば、デジタル画像信号に含まれる各画素領域について動きベクトルの大きさを算出し、画像全体又は所定サイズの領域において平均値を算出してもよい。このように構成することで、画像全体又は所定サイズの領域における動きの激しさを評価することが可能になり、各映像シーンにおける動きの激しさを捉えることができるようになる。本実施形態の技術は、ユーザに複雑領域等を提示する技術であるから、そのような領域をユーザが容易に認識できるようにすることが重要である。   In addition, the image signal evaluation unit 152 may calculate the size of the motion vector for each pixel area included in the digital image signal, and calculate an average value in the entire image or an area of a predetermined size, for example. With this configuration, it is possible to evaluate the intensity of movement in the entire image or a region of a predetermined size, and it is possible to capture the intensity of movement in each video scene. Since the technique of this embodiment is a technique for presenting a complex area or the like to the user, it is important that the user can easily recognize such an area.

このようにして画像信号評価部152により得られた評価結果は、評価結果可視化部154に入力される。   The evaluation result obtained by the image signal evaluation unit 152 in this way is input to the evaluation result visualization unit 154.

(評価結果可視化部154)
評価結果可視化部154は、画像信号評価部152により得られた評価結果を所定の表示形式に再構成する。
(Evaluation result visualization unit 154)
The evaluation result visualization unit 154 reconfigures the evaluation result obtained by the image signal evaluation unit 152 into a predetermined display format.

例えば、評価結果可視化部154は、評価結果に基づいてデジタル画像信号の複雑領域に所定の色や模様を割り当てる。このとき、評価結果可視化部154は、例えば、複雑さや動きの激しさ等が大きい画素領域に濃い色合いを割り当てたり、目の細かい模様を割り当てたりする。また、評価結果可視化部154は、複雑さや動きの激しさ等を表すパラメータが所定値を越える領域を特定し、当該領域の外縁を縁取りしたり、所定の色合いで描画するように設定する。   For example, the evaluation result visualization unit 154 assigns a predetermined color or pattern to the complex area of the digital image signal based on the evaluation result. At this time, the evaluation result visualization unit 154 assigns a dark hue or a fine pattern to a pixel region having a large complexity or intense motion, for example. Further, the evaluation result visualization unit 154 specifies a region where a parameter indicating complexity, intensity of movement, or the like exceeds a predetermined value, and sets the outer edge of the region to be drawn or drawn with a predetermined color.

また、評価結果可視化部154は、例えば、複雑さや動きの激しさ等を示すパラメータ値の大きさに基づいてデジタル画像信号全体の評価結果をグラフ化したり、パラメータ値を数値として表示されるように設定したりする。さらに、評価結果可視化部154は、所定のプリセットエリアを除くように複雑領域等が表示される領域を限定するように構成されていてもよい。この場合、プリセットエリアには、複雑領域等を示す所定の色合いや模様等が表示されないようになる。   Further, the evaluation result visualization unit 154 graphs the evaluation result of the entire digital image signal based on the size of the parameter value indicating complexity, intensity of movement, or the like, or displays the parameter value as a numerical value. Or set. Furthermore, the evaluation result visualization unit 154 may be configured to limit an area where a complex area or the like is displayed so as to exclude a predetermined preset area. In this case, a predetermined color or pattern indicating a complex area or the like is not displayed in the preset area.

プリセットエリアは、ユーザにより任意に設定できるように構成されていることが好ましい。ユーザが重要であると考える領域は、複雑であっても、動きが激しくても、その分だけ符号量を多く割り当てて処理されることが好ましい。そのため、ユーザが重要であると考える領域には複雑領域等が表示される必要がない。上記のようにプリセットエリアに複雑領域等が表示されないことで、ユーザは表示された複雑領域等にだけ注意すれば済むようになり、煩わしさが低減され、より撮影操作に集中できるようになる。   It is preferable that the preset area is configured to be arbitrarily set by the user. Even if the area that the user considers important is complicated or moves violently, it is preferable to process by assigning a larger amount of code. Therefore, it is not necessary to display a complex area or the like in an area that the user considers important. As described above, since the complex area or the like is not displayed in the preset area, the user only has to pay attention to the displayed complex area or the like, so that troublesomeness is reduced and the user can concentrate on the shooting operation.

このようにして評価結果可視化部154により割り当て又は設定された表示形式の情報は、可視化結果として画像重畳制御部156に入力される。   The display format information assigned or set by the evaluation result visualization unit 154 in this manner is input to the image superimposition control unit 156 as a visualization result.

(画像重畳制御部156)
画像重畳制御部156は、デジタル画像信号を表示パネル140に表示させると共に、画像信号評価部152により得られた評価結果をデジタル画像信号に重畳して表示させる。このとき、画像重畳制御部156は、評価結果可視化部154により設定された可視化結果の表示形式に従って評価結果を表示パネル140に表示する。例えば、画像重畳制御部156は、評価結果に対応して複雑領域の外縁を示す模様を表示する場合、互いの位置関係を調整しながらデジタル画像信号と模様とを重畳合成する。そして、重畳合成された画像は、表示パネル140に表示される。
(Image superposition control unit 156)
The image superposition control unit 156 displays the digital image signal on the display panel 140 and superimposes the evaluation result obtained by the image signal evaluation unit 152 on the digital image signal. At this time, the image superposition control unit 156 displays the evaluation result on the display panel 140 according to the display format of the visualization result set by the evaluation result visualization unit 154. For example, when displaying a pattern indicating the outer edge of the complex area corresponding to the evaluation result, the image superimposing control unit 156 superimposes and synthesizes the digital image signal and the pattern while adjusting the positional relationship with each other. Then, the superimposed and synthesized image is displayed on the display panel 140.

以上、画像出力制御部138の詳細な機能構成について説明した。上記の通り、画像出力制御部138は、デジタル画像信号の複雑さ等を評価し、その評価結果を表示パネル140に表示させる機能を有する。上記の説明の中で、評価方法については、DCT係数や動きベクトル等を用いた種々の方法が適用できる点、及びこれらの方法を用いる場合の具体的な評価方法について述べた。その中で、DCT係数を用いる方法について、図3を参照しながら、より詳細かつ具体的な説明を加えておきたい。   The detailed functional configuration of the image output control unit 138 has been described above. As described above, the image output control unit 138 has a function of evaluating the complexity or the like of the digital image signal and displaying the evaluation result on the display panel 140. In the above description, regarding the evaluation method, various methods using DCT coefficients, motion vectors, and the like can be applied, and a specific evaluation method when using these methods has been described. Of these, a more detailed and specific description of the method using the DCT coefficient is desired with reference to FIG.

(DCT係数を用いる評価方法について)
ここで、DCT係数を用いる評価方法に関し、図3を参照しながら、画像信号評価部152の詳細な機能構成について説明する。この中で、図4〜図6を参照しながら、DCT係数の算出方法について簡単に説明する。さらに、図7を参照しながら、評価結果可視化部154による具体的な評価結果の可視化例について述べる。そして、図8を参照しながら、画像重畳制御部156による評価結果の重畳合成結果について述べる。
(Evaluation method using DCT coefficient)
Here, regarding the evaluation method using the DCT coefficient, a detailed functional configuration of the image signal evaluation unit 152 will be described with reference to FIG. In this, the calculation method of a DCT coefficient is demonstrated easily, referring FIGS. 4-6. Further, a specific example of visualization of the evaluation result by the evaluation result visualization unit 154 will be described with reference to FIG. Then, with reference to FIG. 8, the result of superimposing and combining the evaluation results by the image superimposing control unit 156 will be described.

図3は、画像信号評価部152の詳細な機能構成を示す説明図である。図4〜図6は、DCT係数の算出方法を説明するための説明図である。図7は、評価結果可視化部154による具体的な評価結果の可視化例を示す説明図である。図8は、画像重畳制御部156による評価結果の重畳合成結果の一例を示す説明図である。   FIG. 3 is an explanatory diagram showing a detailed functional configuration of the image signal evaluation unit 152. 4 to 6 are explanatory diagrams for explaining a DCT coefficient calculation method. FIG. 7 is an explanatory diagram showing an example of a specific evaluation result visualization performed by the evaluation result visualization unit 154. FIG. 8 is an explanatory diagram illustrating an example of the result of superimposing and combining the evaluation results by the image superimposing control unit 156.

図3に示すように、画像信号評価部152は、画像領域分割部172と、周波数解析部174と、解析結果数値化部176とにより構成される。   As shown in FIG. 3, the image signal evaluation unit 152 includes an image region division unit 172, a frequency analysis unit 174, and an analysis result digitization unit 176.

まず、画像領域分割部172にはデジタル画像信号が入力される。画像領域分割部172は、図4に示すようにデジタル画像信号を所定サイズの画素領域に分割する。図4の例では、デジタル画像信号が縦8画素×横8画素の画素領域に分割されている。もちろん、所定サイズは、縦8画素×横8画素に限定されず、1画素単位でもよいし、縦横9画素以上の画素領域でもよい。つまり、所定サイズは任意に設定され得る。   First, a digital image signal is input to the image region dividing unit 172. The image area dividing unit 172 divides the digital image signal into pixel areas of a predetermined size as shown in FIG. In the example of FIG. 4, the digital image signal is divided into pixel areas of 8 vertical pixels × 8 horizontal pixels. Of course, the predetermined size is not limited to 8 vertical pixels × 8 horizontal pixels, and may be a unit of one pixel or a pixel region of 9 or more vertical and horizontal pixels. That is, the predetermined size can be set arbitrarily.

画像領域分割部172により分割された画素領域の情報は、周波数解析部174に入力される。周波数解析部174は、各画素領域に対してDCTを施す。まず、周波数解析部174は、図5に示すように各画素領域に含まれる各画素の画素値に離散コサイン変換を施して画素領域(ブロック)単位の周波数対強度(DCT係数)分布を算出する。   Information on the pixel area divided by the image area dividing unit 172 is input to the frequency analyzing unit 174. The frequency analysis unit 174 performs DCT on each pixel region. First, as shown in FIG. 5, the frequency analysis unit 174 performs discrete cosine transformation on the pixel value of each pixel included in each pixel region to calculate a frequency versus intensity (DCT coefficient) distribution in pixel region (block) units. .

この例ではDCTを用いているが、他の周波数解析手法を用いる場合でも同様の処理が行われる。これらの処理により、分割された各画素領域に対する空間的な周波数特性が得られる。既に述べた通り、DCT係数等のパラメータで示される空間的な周波数特性は画素領域の複雑さを示すものである。   Although DCT is used in this example, the same processing is performed even when another frequency analysis method is used. By these processes, a spatial frequency characteristic for each divided pixel region is obtained. As already described, the spatial frequency characteristics indicated by parameters such as DCT coefficients indicate the complexity of the pixel region.

周波数解析部174により得られたDCT係数は、解析結果数値化部176に入力される。解析結果数値化部176は、画素領域毎のDCT係数を所定数の段階に分類して複雑さの度合いを表す数値に変換する。例えば、解析結果数値化部176は、予め設定された4つの閾値を基準にしてDCT係数を5段階の評価値に分ける。   The DCT coefficient obtained by the frequency analysis unit 174 is input to the analysis result digitizing unit 176. The analysis result digitizing unit 176 classifies the DCT coefficients for each pixel region into a predetermined number of stages and converts the DCT coefficients into numerical values representing the degree of complexity. For example, the analysis result digitizing unit 176 divides the DCT coefficient into five stages of evaluation values based on four preset threshold values.

このとき、解析結果数値化部176は、所定周波数以上のDCT係数の合計強度値が4つの閾値で区切られた区間のいずれに含まれるかを判定する。そして、その判定結果に基づき、図6に示すように、各区間に割り当てられた評価値が評価対象の画素領域に対応付けられる。このようにして解析結果数値化部176により得られた評価値は、評価結果として評価結果可視化部154に入力される。   At this time, the analysis result digitizing unit 176 determines which of the sections divided by the four thresholds is the total intensity value of the DCT coefficients equal to or higher than the predetermined frequency. Based on the determination result, as shown in FIG. 6, the evaluation value assigned to each section is associated with the pixel area to be evaluated. The evaluation value obtained by the analysis result digitizing unit 176 in this way is input to the evaluation result visualization unit 154 as an evaluation result.

評価結果可視化部154は、図7の例に示すように、評価値の大きさに応じて各画素領域に表示される模様の濃淡を決定する。例えば、評価値が大きい画素領域は、濃い模様にて表示される。逆に、評価値が小さい画素領域は、淡い模様にて表示される。   As shown in the example of FIG. 7, the evaluation result visualization unit 154 determines the shade of the pattern displayed in each pixel area according to the evaluation value. For example, a pixel region having a large evaluation value is displayed with a dark pattern. Conversely, a pixel region having a small evaluation value is displayed in a light pattern.

この他にも可視化表現の手法としては、例えば、色彩や数字を付加したり、アイコンを付加して表示したりすることも考えられる。また、任意の閾値を設け、評価値が閾値以上の画素領域のみを表示する手法も考えられる。さらに、評価値が近い複数の画素領域をグループ化し、各グループの境界線を表示する手法も考えられる。そして、評価値に対応するヒストグラムや各種グラフ等を表示する手法も考えられる。   In addition to this, as a method of visualization expression, for example, it is conceivable to add colors and numbers, or add icons to display. A method of providing an arbitrary threshold value and displaying only a pixel region having an evaluation value equal to or higher than the threshold value is also conceivable. Further, a method of grouping a plurality of pixel areas having similar evaluation values and displaying the boundary line of each group is also conceivable. A method of displaying a histogram or various graphs corresponding to the evaluation value is also conceivable.

また、これらの可視化手法を組み合わせて表示する手法も考えられる。さらに、評価結果からエンコード後の画像や圧縮ノイズの発生箇所を予測して、予測画像を表示する手法等も考えられる。このように、評価結果可視化部154により算出される情報は、評価結果の表示情報である。つまり、評価結果可視化部154により、評価結果を示す模様が表示された表示レイヤーが生成されるのである。この可視化結果は、画像重畳制御部156に入力される。   Further, a method of displaying a combination of these visualization methods is also conceivable. Furthermore, a method of predicting an encoded image or a portion where compression noise is generated from an evaluation result and displaying a predicted image may be considered. As described above, the information calculated by the evaluation result visualization unit 154 is display information of the evaluation result. That is, the evaluation result visualization unit 154 generates a display layer on which a pattern indicating the evaluation result is displayed. The visualization result is input to the image superposition control unit 156.

画像重畳制御部156は、図8に示すように、元のデジタル画像信号と、評価結果可視化部154により生成された評価結果の表示レイヤーとを重畳して合成する。このとき、画像重畳制御部156は、元のデジタル画像信号と評価結果の表示レイヤーとが空間的な整合性が取れるように必要に応じて位置調整してから重畳合成する。そして、重畳合成して得られた画像は、表示パネル140に表示される。   As shown in FIG. 8, the image superimposing control unit 156 superimposes and combines the original digital image signal and the evaluation result display layer generated by the evaluation result visualizing unit 154. At this time, the image superimposition control unit 156 performs superposition and synthesis after adjusting the position as necessary so that the original digital image signal and the evaluation result display layer can be spatially consistent. Then, an image obtained by superposition and synthesis is displayed on the display panel 140.

図8に示すように、重畳合成された画像の中で、元画像の複雑な画素領域には濃い模様が表示され、複雑でない領域には淡い模様が表示されている。このように模様の濃淡により複雑領域が表現されることにより、ユーザは、複雑領域を容易に判断することが可能になる。なお、評価結果可視化部154によりヒストグラムやグラフ等の表示形態が設定された場合には、ヒストグラムやグラフ等が元画像に重畳されるように表示される。   As shown in FIG. 8, in the superimposed image, a dark pattern is displayed in a complex pixel area of the original image, and a light pattern is displayed in an uncomplicated area. As described above, the complex area is expressed by the shading of the pattern, so that the user can easily determine the complex area. When a display form such as a histogram or graph is set by the evaluation result visualization unit 154, the histogram or graph is displayed so as to be superimposed on the original image.

以上、DCT係数を用いる評価方法に関して一連の流れを説明した。ここではDCT係数を用いるケースを例に挙げて説明したが、これらの一連の処理は、ウェーブレット係数や他の周波数解析手法を用いる場合でもDCT係数の算出処理を除いて同様である。また、動きベクトルの大きさを評価値とする場合についても、評価値の算出、可視化、及び重畳処理等において同様の手法が用いられる。なお、評価値としては、DCT係数のような符号データをそのまま用いるのではなく、例えば、符号化難易度や圧縮ノイズの発生率等を用いてもよい。   In the above, a series of flow was demonstrated regarding the evaluation method using a DCT coefficient. Here, the case where DCT coefficients are used has been described as an example, but a series of these processes is the same except for the calculation process of DCT coefficients even when wavelet coefficients or other frequency analysis methods are used. In the case where the magnitude of the motion vector is used as the evaluation value, the same method is used in calculation of the evaluation value, visualization, superimposition processing, and the like. As the evaluation value, code data such as a DCT coefficient is not used as it is, but for example, an encoding difficulty level, a compression noise generation rate, or the like may be used.

(表示パネル140)
再び図1を参照する。上記のようにして評価結果が重畳されたデジタル画像信号は、表示パネル140に表示される。表示パネル140としては、撮像装置100に内蔵されている表示モニタであってもよいし、撮像装置100に外部機器として接続されている表示モニタであってもよい。また、表示パネル140は、タッチパネル等の入力デバイス機能を備えたものであってもよい。この場合、表示パネル140は、ユーザが画面を押圧した押圧力を検知する機能を備えた圧力検知機能付きのタッチパネルであってもよい。また、表示パネル140は、画面に直接触れずとも、ユーザが接触又は近接した画面上の位置を3次元的に検知する機能を有していてもよい。
(Display panel 140)
Refer to FIG. 1 again. The digital image signal on which the evaluation result is superimposed as described above is displayed on the display panel 140. The display panel 140 may be a display monitor built in the imaging apparatus 100 or a display monitor connected to the imaging apparatus 100 as an external device. Further, the display panel 140 may have an input device function such as a touch panel. In this case, the display panel 140 may be a touch panel with a pressure detection function having a function of detecting a pressing force when the user presses the screen. Further, the display panel 140 may have a function of three-dimensionally detecting the position on the screen that the user touches or approaches without directly touching the screen.

以上、本実施形態に係る撮像装置100の機能構成について説明した。このように、画像出力制御部138がエンコーダ134とは独立して構成されているため、エンコード処理に掛かる処理時間やエンコード結果に関係せずに複雑領域の評価及び当該評価結果の表示が可能になる。その結果、複雑さ領域等の表示に関する処理が高速に実行され、ユーザに対してリアルタイムに複雑領域等を提示することができる。   The functional configuration of the imaging device 100 according to the present embodiment has been described above. As described above, since the image output control unit 138 is configured independently of the encoder 134, it is possible to evaluate a complex area and display the evaluation result regardless of the processing time and the encoding result for the encoding process. Become. As a result, the processing related to the display of the complex area and the like is executed at high speed, and the complex area and the like can be presented to the user in real time.

なお、上記の説明においては、撮像装置100を単独の装置として説明していたが、本実施形態はこれに限定されない。例えば、画像処理ブロック130は外部接続された情報処理装置により実現されてもよい。また、画像記憶部136は外部接続された記憶装置や通信機器(非図示)を介して接続された外部記憶装置により実現されてもよい。   In the above description, the imaging device 100 has been described as a single device, but the present embodiment is not limited to this. For example, the image processing block 130 may be realized by an externally connected information processing apparatus. The image storage unit 136 may be realized by an externally connected storage device or an external storage device connected via a communication device (not shown).

上記の通り、撮像装置100を構成する画像処理ブロック130の機能は、図31に示すハードウェア構成により実現できる。例えば、画像処理部132、エンコーダ134、画像出力制御部138の機能は、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録されたプログラムに基づいてCPU902により実現される。また、画像記憶部136の機能は、RAM906、記憶部920、又はリムーバブル記録媒体928により実現される。さらに、表示パネル140の機能は、出力部918により実現される。但し、表示パネル140がタッチパネル等の入力手段としての機能を有する場合、入力部916にも対応する。   As described above, the functions of the image processing block 130 configuring the imaging apparatus 100 can be realized by the hardware configuration illustrated in FIG. For example, the functions of the image processing unit 132, the encoder 134, and the image output control unit 138 are realized by the CPU 902 based on a program recorded in the ROM 904, the RAM 906, the storage unit 920, or the removable recording medium 928. The function of the image storage unit 136 is realized by the RAM 906, the storage unit 920, or the removable recording medium 928. Further, the function of the display panel 140 is realized by the output unit 918. However, when the display panel 140 has a function as input means such as a touch panel, it corresponds to the input unit 916.

[撮像装置200の機能構成]
次に、図9を参照しながら、本実施形態に係る撮像装置200の機能構成について説明する。図9は、本実施形態に係る撮像装置200の機能構成例を示す説明図である。撮像装置200に係る技術は、例えば、カムコーダやWebカメラが接続されたパーソナルコンピュータ、或いは、カメラ付きの携帯電話等に適用される。なお、撮像装置200は、本実施形態に係る技術のうち、デジタル画像信号の評価結果をエンコード時のビット割り当て予測に用いてエンコード結果の高画質化を図るための技術に関する。
[Functional Configuration of Imaging Device 200]
Next, a functional configuration of the imaging apparatus 200 according to the present embodiment will be described with reference to FIG. FIG. 9 is an explanatory diagram illustrating a functional configuration example of the imaging apparatus 200 according to the present embodiment. The technology related to the imaging apparatus 200 is applied to, for example, a personal computer to which a camcorder or a Web camera is connected, a mobile phone with a camera, or the like. Note that the imaging apparatus 200 relates to a technique for improving the image quality of an encoding result by using a digital image signal evaluation result for bit allocation prediction at the time of encoding, among the techniques according to the present embodiment.

図9に示すように、撮像装置200は、主に、光学系202と、イメージセンサ204と、画像処理ブロック230とにより構成される。イメージセンサ204は、撮像部の一例である。画像処理ブロック230は、画像処理装置の一例である。この画像処理ブロック230の機能は、図31に示すハードウェア構成により実現することができる。   As shown in FIG. 9, the imaging apparatus 200 mainly includes an optical system 202, an image sensor 204, and an image processing block 230. The image sensor 204 is an example of an imaging unit. The image processing block 230 is an example of an image processing device. The function of the image processing block 230 can be realized by the hardware configuration shown in FIG.

(光学系202、イメージセンサ204)
光学系202は、被写体に反射した光が入射された場合に、その被写体像を結像させるための一又は複数のレンズにより形成されている。光学系202を介して入射した光は、イメージセンサ204に光信号として入力される。
(Optical system 202, image sensor 204)
The optical system 202 is formed by one or a plurality of lenses for forming an image of a subject when the reflected light is incident on the subject. Light incident through the optical system 202 is input to the image sensor 204 as an optical signal.

イメージセンサ204は、例えば、CCDやCMOS等の光電変換素子により形成されている。イメージセンサ204は、光学系202を介して入力された光信号を光電変換して電気信号を出力する。イメージセンサ204から出力された電気信号は、デジタル画像信号として画像処理ブロック230(画像処理部232)に入力される。なお、動画像が撮影される場合には、連続して被写体像がイメージセンサ204に入力され、ページ単位のデジタル画像信号が画像処理部232に連続して入力される。   The image sensor 204 is formed by a photoelectric conversion element such as a CCD or a CMOS, for example. The image sensor 204 photoelectrically converts an optical signal input via the optical system 202 and outputs an electrical signal. The electrical signal output from the image sensor 204 is input to the image processing block 230 (image processing unit 232) as a digital image signal. Note that when moving images are captured, subject images are continuously input to the image sensor 204, and digital image signals in units of pages are continuously input to the image processing unit 232.

(画像処理ブロック230)
画像処理ブロック230は、主に、画像処理部232と、エンコーダ234と、画像記憶部236と、画像出力制御部238と、割り当てビット変更部239と、表示パネル240とにより構成される。画像出力制御部238は、複雑領域検出部、複雑領域表示部、及び指定領域表示部の一例である。表示パネル240は、表示画面の一例である。
(Image processing block 230)
The image processing block 230 mainly includes an image processing unit 232, an encoder 234, an image storage unit 236, an image output control unit 238, an assigned bit change unit 239, and a display panel 240. The image output control unit 238 is an example of a complex region detection unit, a complex region display unit, and a designated region display unit. The display panel 240 is an example of a display screen.

(画像処理部232)
まず、イメージセンサ204からデジタル画像信号が入力されると、画像処理部232は、デジタル画像信号に対してホワイトバランスの調整やγ補正等の画像処理を施す。また、画像処理部232は、ユーザ設定に応じてローパスフィルタや赤目補正等をデジタル画像信号に施す。画像処理部232により画像処理が施されたデジタル画像信号は、エンコーダ234、及び画像出力制御部238に入力される。
(Image processing unit 232)
First, when a digital image signal is input from the image sensor 204, the image processing unit 232 performs image processing such as white balance adjustment and γ correction on the digital image signal. The image processing unit 232 performs a low-pass filter, red-eye correction, and the like on the digital image signal according to user settings. The digital image signal that has been subjected to image processing by the image processing unit 232 is input to the encoder 234 and the image output control unit 238.

(エンコーダ234)
画像処理部232からデジタル画像信号が入力されると、エンコーダ234は、このデジタル画像信号に対して所定のエンコード方式でエンコード処理を施す。所定のエンコード方式としては、例えば、MPEG−2、MPEG−4、H.264/AVC等で規格化された方式が用いられる。もちろん、本実施形態に適用可能なエンコード方式は、これらの例に限定されるものではない。エンコーダ234によりエンコードされたデジタル画像信号は、エンコード結果として画像記憶部236に記録される。
(Encoder 234)
When a digital image signal is input from the image processing unit 232, the encoder 234 performs an encoding process on the digital image signal by a predetermined encoding method. Examples of the predetermined encoding method include MPEG-2, MPEG-4, H.264, and the like. A method standardized by H.264 / AVC or the like is used. Of course, the encoding method applicable to this embodiment is not limited to these examples. The digital image signal encoded by the encoder 234 is recorded in the image storage unit 236 as an encoding result.

(画像出力制御部238)
画像処理部232から出力されたデジタル画像信号は、エンコーダ234とは独立に設けられた画像出力制御部238に対しても入力される。画像出力制御部238は、エンコード前のデジタル画像信号からDCT係数等の符号を算出し、この符号を用いてデジタル画像信号に含まれる各画素領域の複雑さを評価する。但し、DCT係数に代えて、例えば、ウェーブレット係数、フラットネス、又はイントラAC等のパラメータが算出され、このパラメータにより評価結果が算出されるように構成されていてもよい。また、画像出力制御部238は、複数のデジタル画像信号を用いて動きベクトルを検出し、その動きベクトルの大きさに基づいて評価結果を算出するように構成されていてもよい。画像出力制御部238により算出された評価結果は、割り当てビット変更部239に入力される。
(Image output control unit 238)
The digital image signal output from the image processing unit 232 is also input to the image output control unit 238 provided independently of the encoder 234. The image output control unit 238 calculates a code such as a DCT coefficient from the digital image signal before encoding, and evaluates the complexity of each pixel area included in the digital image signal using this code. However, instead of the DCT coefficient, for example, a parameter such as a wavelet coefficient, flatness, or intra AC may be calculated, and the evaluation result may be calculated using the parameter. In addition, the image output control unit 238 may be configured to detect a motion vector using a plurality of digital image signals and calculate an evaluation result based on the magnitude of the motion vector. The evaluation result calculated by the image output control unit 238 is input to the allocation bit changing unit 239.

(割り当てビット変更部239)
割り当てビット変更部239は、ユーザにより指定された画素領域の割り当てビット量を変更し、エンコーダ234に変更後の割り当てビット量を入力する。エンコーダ234では、割り当てビット変更部239により変更された割り当てビット量で指定領域に対してエンコード処理が施される。
(Assignment bit changing unit 239)
The assigned bit changing unit 239 changes the assigned bit amount of the pixel area designated by the user, and inputs the changed assigned bit amount to the encoder 234. In the encoder 234, the designated area is encoded with the allocated bit amount changed by the allocated bit changing unit 239.

例えば、重要な画素領域をユーザに指定させる場合、割り当てビット変更部239は、指定領域の割り当てビット量を増加させる。このような構成にすることで、デジタル画像信号全体に割り当てるビット量が固定されている場合に、よりユーザの嗜好に合った高品質なエンコード画像が生成されるようになる。   For example, when the user designates an important pixel area, the assigned bit changing unit 239 increases the assigned bit amount of the designated area. With this configuration, when the bit amount allocated to the entire digital image signal is fixed, a high-quality encoded image that more suits the user's preference is generated.

逆に、複雑領域をユーザに指定させる場合、割り当てビット変更部239は、指定領域の割り当てビット量を低減させる。このような構成にすることで、デジタル画像信号全体に割り当てるビット量が固定されている場合に、複雑領域以外の画素領域に多くのビット量が割り当てられ、デジタル画像信号の高画質化が図れる。もちろん、割り当てビット量を増加させるか、減少させるかは、用途や目的に応じて適宜変更されうる。   Conversely, when the user designates a complex area, the assigned bit changing unit 239 reduces the amount of assigned bits in the designated area. With such a configuration, when the bit amount to be assigned to the entire digital image signal is fixed, a large bit amount is assigned to the pixel region other than the complex region, and the image quality of the digital image signal can be improved. Of course, whether to increase or decrease the allocated bit amount can be appropriately changed according to the application and purpose.

ここで、図10を参照しながら、割り当てビット変更部239の詳細な機能構成について説明すると共に、当該機能構成による一連の処理の流れについて説明を加える。図10は、割り当てビット変更部239の詳細な機能構成を示す説明図である。   Here, the detailed functional configuration of the allocation bit changing unit 239 will be described with reference to FIG. 10, and a series of processing flows by the functional configuration will be described. FIG. 10 is an explanatory diagram showing a detailed functional configuration of the allocation bit changing unit 239.

図10に示すように、割り当てビット変更部239は、領域選択部252と、割り当てビット量変更部254と、操作結果出力部256とにより構成される。   As shown in FIG. 10, the allocated bit changing unit 239 includes an area selecting unit 252, an allocated bit amount changing unit 254, and an operation result output unit 256.

まず、領域選択部252には、画像出力制御部238から評価結果が重畳されたデジタル画像信号が入力される。この重畳されたデジタル画像信号は、表示パネル240にも入力されて表示される。ユーザは、表示パネル240に表示された評価結果とデジタル画像信号との合成画像を参照して所望の画素領域を指定する。このとき、ユーザは、例えば、評価結果に基づいて複雑領域又は動きが激しい領域等と表示された画素領域を指定する。ユーザにより画素領域が指定されると、領域選択部252は、指定領域の情報を割り当てビット量変更部254に入力する。   First, a digital image signal on which an evaluation result is superimposed is input from the image output control unit 238 to the region selection unit 252. The superimposed digital image signal is also input to the display panel 240 and displayed. The user designates a desired pixel region with reference to a composite image of the evaluation result displayed on the display panel 240 and the digital image signal. At this time, the user designates, for example, a pixel region displayed as a complex region or a region with high movement based on the evaluation result. When the pixel area is designated by the user, the area selecting unit 252 inputs information on the designated area to the allocated bit amount changing unit 254.

割り当てビット量変更部254は、指定領域の割り当てビット量を設定して操作結果出力部256に入力する。このとき、指定領域に割り当てられるビット量は、ユーザにより指定されるか、所定量だけ減少又は増加される。ユーザにより指定される場合、タッチパネルを押圧した回数や押圧力、或いは、キーボード等により入力された数値等に基づいて割り当てるビット量が設定される。もちろん、本実施形態はこれに限定されず、任意の方法によりユーザが所望するビット量が割り当てられるように構成されてもよい。   The allocated bit amount changing unit 254 sets the allocated bit amount of the designated area and inputs it to the operation result output unit 256. At this time, the bit amount allocated to the designated area is designated by the user, or is decreased or increased by a predetermined amount. When designated by the user, a bit amount to be assigned is set based on the number of times the touch panel is pressed, the pressing force, or a numerical value input by a keyboard or the like. Of course, the present embodiment is not limited to this, and the bit amount desired by the user may be allocated by an arbitrary method.

割り当てビット量変更部254により設定された指定領域の割り当てビット量は、操作結果出力部256を介してエンコーダ234に入力される。このとき、指定領域の割り当てビット量と共に、指定領域の位置情報もエンコーダ234に入力される。その結果、エンコーダ234は、指定領域に対して指定された割り当てビット量でエンコード処理を施すことができる。   The allocated bit amount of the designated area set by the allocated bit amount changing unit 254 is input to the encoder 234 via the operation result output unit 256. At this time, the position information of the designated area is also input to the encoder 234 together with the allocated bit amount of the designated area. As a result, the encoder 234 can perform the encoding process with the assigned bit amount designated for the designated area.

(表示パネル240)
ところで、表示パネル240としては、撮像装置200に搭載されている表示モニタやファインダであってもよいし、撮像装置200に外部機器として接続されている表示モニタであってもよい。また、表示パネル240は、タッチパネル等の入力デバイス機能を備えたものであってもよい。この場合、表示パネル240は、ユーザが画面を押圧した押圧力を検知する機能を備えた圧力検知機能付きのタッチパネルであってもよい。また、表示パネル240は、画面に直接触れずとも、ユーザが接触又は近接した画面上の位置を3次元的に検知する機能を有していてもよい。
(Display panel 240)
By the way, the display panel 240 may be a display monitor or a finder mounted on the imaging apparatus 200 or a display monitor connected to the imaging apparatus 200 as an external device. Further, the display panel 240 may have an input device function such as a touch panel. In this case, the display panel 240 may be a touch panel with a pressure detection function having a function of detecting a pressing force when the user presses the screen. In addition, the display panel 240 may have a function of three-dimensionally detecting the position on the screen that the user has touched or approached without directly touching the screen.

以上、撮像装置200の機能構成について説明した。上記の通り、撮像装置200は、割り当てビット変更部239を備えることにより、ユーザが指定領域に対して任意のビット量を割り当てることが可能になる。従って、表示パネル240に表示された複雑領域等をユーザが指定して割り当てビット量を減少させることで、指定領域以外に多くのビット量が割り当てられて画像品質が向上する。逆に、複雑領域であるが、ユーザが重要であると考える画素領域を指定して多くのビット量を割り当てるように操作することで、画像全体のデータ量を増大させずに重要な画素領域の画質を向上させることができる。   The functional configuration of the imaging apparatus 200 has been described above. As described above, the imaging apparatus 200 includes the allocated bit changing unit 239, so that the user can allocate an arbitrary bit amount to the designated area. Therefore, when the user designates a complex area or the like displayed on the display panel 240 and reduces the allocated bit amount, a larger bit amount is allocated in addition to the designated area, and the image quality is improved. Conversely, by specifying a pixel area that is considered to be important by the user and assigning a large amount of bits, the user can select the important pixel area without increasing the data amount of the entire image. Image quality can be improved.

上記の通り、撮像装置200を構成する画像処理ブロック230の機能は、図31に示すハードウェア構成により実現できる。例えば、画像処理部232、エンコーダ234、画像出力制御部238、割り当てビット変更部239の機能は、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録されたプログラムに基づいてCPU902により実現される。   As described above, the function of the image processing block 230 constituting the imaging device 200 can be realized by the hardware configuration shown in FIG. For example, the functions of the image processing unit 232, the encoder 234, the image output control unit 238, and the assigned bit change unit 239 are realized by the CPU 902 based on a program recorded in the ROM 904, RAM 906, storage unit 920, or removable recording medium 928. The

また、画像記憶部236の機能は、RAM906、記憶部920、又はリムーバブル記録媒体928により実現される。さらに、表示パネル240の機能は、出力部918により実現される。但し、表示パネル240がタッチパネル等の入力手段としての機能を有する場合、入力部916にも対応する。また、割り当てビット変更部239に対するユーザ入力は、入力部916の機能により実現される。   The function of the image storage unit 236 is realized by the RAM 906, the storage unit 920, or the removable recording medium 928. Further, the function of the display panel 240 is realized by the output unit 918. However, when the display panel 240 has a function as input means such as a touch panel, the display panel 240 also corresponds to the input unit 916. Also, user input to the assigned bit changing unit 239 is realized by the function of the input unit 916.

[画像処理装置330の機能構成]
次に、図11を参照しながら、本実施形態に係る画像処理装置330の機能構成について説明する。図11は、本実施形態に係る画像処理装置330の機能構成例を示す説明図である。画像処理装置330は、上記の撮像装置100の技術をエンコード結果の評価処理に応用したものである。
[Functional Configuration of Image Processing Device 330]
Next, a functional configuration of the image processing apparatus 330 according to the present embodiment will be described with reference to FIG. FIG. 11 is an explanatory diagram illustrating a functional configuration example of the image processing apparatus 330 according to the present embodiment. The image processing device 330 is obtained by applying the technique of the imaging device 100 to an encoding result evaluation process.

図11に示すように、画像処理装置330は、主に、画像処理部332と、エンコーダ334と、画像記憶部336と、デコーダ337と、画像出力制御部338と、表示パネル340とにより構成される。画像処理装置330の機能は、図31に示すハードウェア構成により実現することができる。画像処理部332は、複雑領域検出部の一例である。画像出力制御部338は、複雑領域表示部、及び指定領域表示部の一例である。表示パネル340は、表示画面の一例である。   As shown in FIG. 11, the image processing device 330 mainly includes an image processing unit 332, an encoder 334, an image storage unit 336, a decoder 337, an image output control unit 338, and a display panel 340. The The functions of the image processing apparatus 330 can be realized by the hardware configuration shown in FIG. The image processing unit 332 is an example of a complex area detection unit. The image output control unit 338 is an example of a complex area display unit and a designated area display unit. The display panel 340 is an example of a display screen.

(画像処理部332)
まず、デジタル画像信号が入力されると、画像処理部332は、デジタル画像信号に対してホワイトバランスの調整やγ補正等の画像処理を施す。また、画像処理部332は、ユーザ設定に応じてローパスフィルタや赤目補正等をデジタル画像信号に施す。画像処理部332により画像処理が施されたデジタル画像信号はエンコーダ334に入力される。
(Image processing unit 332)
First, when a digital image signal is input, the image processing unit 332 performs image processing such as white balance adjustment and γ correction on the digital image signal. In addition, the image processing unit 332 performs a low-pass filter, red-eye correction, and the like on the digital image signal according to user settings. The digital image signal that has been subjected to image processing by the image processing unit 332 is input to the encoder 334.

(エンコーダ334)
画像処理部332からデジタル画像信号が入力されると、エンコーダ334は、このデジタル画像信号に対して所定のエンコード方式でエンコード処理を施す。所定のエンコード方式としては、例えば、MPEG−2、MPEG−4、H.264/AVC等で規格化された方式が用いられる。もちろん、本実施形態に適用可能なエンコード方式は、これらの例に限定されるものではない。エンコーダ334によりエンコードされたデジタル画像信号は、エンコード結果としてデコーダ337に入力されると共に、画像記憶部336に記録される。さらに、エンコード処理に用いた符号化情報は、画像出力制御部338に入力される。
(Encoder 334)
When a digital image signal is input from the image processing unit 332, the encoder 334 performs an encoding process on the digital image signal by a predetermined encoding method. Examples of the predetermined encoding method include MPEG-2, MPEG-4, H.264, and the like. A method standardized by H.264 / AVC or the like is used. Of course, the encoding method applicable to this embodiment is not limited to these examples. The digital image signal encoded by the encoder 334 is input to the decoder 337 as an encoding result and recorded in the image storage unit 336. Further, the encoding information used for the encoding process is input to the image output control unit 338.

(デコーダ337)
デコーダ337は、エンコーダ334から入力されたエンコード後のデジタル画像信号系列をデコードし、再びエンコード前のデジタル画像信号系列を復元する。このとき、デコーダ337は、エンコーダ334と同じエンコード方式に基づいてデジタル画像信号をデコードする。デコーダ337によりデコードされたデジタル画像信号は、画像出力制御部338に入力される。
(Decoder 337)
The decoder 337 decodes the encoded digital image signal sequence input from the encoder 334 and restores the pre-encoded digital image signal sequence again. At this time, the decoder 337 decodes the digital image signal based on the same encoding method as the encoder 334. The digital image signal decoded by the decoder 337 is input to the image output control unit 338.

(画像出力制御部338)
画像出力制御部338は、デコーダ337から入力されたデジタル画像信号から得られるDCT係数等の符号を用いて各画素領域の複雑さを評価する。但し、DCT係数に代えて、例えば、ウェーブレット係数、フラットネス、又はイントラAC等のパラメータに基づいて評価結果が算出されるように構成されていてもよい。また、画像出力制御部338は、複数のデジタル画像信号を用いて動きベクトルを検出し、その動きベクトルの大きさに基づいて評価結果を算出するように構成されていてもよい。
(Image output control unit 338)
The image output control unit 338 evaluates the complexity of each pixel region using a code such as a DCT coefficient obtained from the digital image signal input from the decoder 337. However, instead of the DCT coefficient, for example, the evaluation result may be calculated based on parameters such as a wavelet coefficient, flatness, or intra AC. In addition, the image output control unit 338 may be configured to detect a motion vector using a plurality of digital image signals and calculate an evaluation result based on the magnitude of the motion vector.

つまり、エンコーダ334によりエンコードされたデジタル画像信号系列が評価されることになる。このとき、画像出力制御部338は、エンコーダ334から入力された符号化情報を加味して評価情報を生成する。画像出力制御部338により生成された評価情報は、デジタル画像信号に重畳合成されて表示パネル340に表示される。   That is, the digital image signal sequence encoded by the encoder 334 is evaluated. At this time, the image output control unit 338 generates evaluation information in consideration of the encoded information input from the encoder 334. The evaluation information generated by the image output control unit 338 is superimposed on the digital image signal and displayed on the display panel 340.

(表示パネル340)
表示パネル340としては、画像処理装置330に搭載されている表示モニタであってもよいし、画像処理装置330に外部機器として接続されている表示モニタであってもよい。また、表示パネル340は、タッチパネル等の入力デバイス機能を備えたものであってもよい。この場合、表示パネル340は、ユーザが画面を押圧した押圧力を検知する機能を備えた圧力検知機能付きのタッチパネルであってもよい。また、表示パネル340は、画面に直接触れずとも、ユーザが接触又は近接した画面上の位置を3次元的に検知する機能を有していてもよい。
(Display panel 340)
The display panel 340 may be a display monitor mounted on the image processing apparatus 330 or a display monitor connected to the image processing apparatus 330 as an external device. Further, the display panel 340 may have an input device function such as a touch panel. In this case, the display panel 340 may be a touch panel with a pressure detection function having a function of detecting a pressing force when the user presses the screen. In addition, the display panel 340 may have a function of three-dimensionally detecting the position on the screen that the user has touched or approached without directly touching the screen.

以上、画像処理装置330の機能構成について説明した。上記の通り、画像処理装置330は、エンコーダ334から出力されたエンコード後のデジタル画像信号系列を評価すると共に、その評価結果とデジタル画像信号とを重畳させてユーザに提示することができる。また、エンコードする際に用いた符号化情報を加味して評価情報が生成され、ユーザは、符号化情報を考慮した評価結果を得ることができる。   The functional configuration of the image processing apparatus 330 has been described above. As described above, the image processing apparatus 330 can evaluate the encoded digital image signal series output from the encoder 334 and can superimpose the evaluation result and the digital image signal to present them to the user. Also, evaluation information is generated taking into account the encoded information used for encoding, and the user can obtain an evaluation result in consideration of the encoded information.

上記の通り、画像処理装置330の機能は、図31に示すハードウェア構成により実現できる。例えば、画像処理部332、エンコーダ334、デコーダ337、画像出力制御部338の機能は、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録されたプログラムに基づいてCPU902により実現される。また、画像記憶部336の機能は、RAM906、記憶部920、又はリムーバブル記録媒体928により実現される。さらに、表示パネル340の機能は、出力部918により実現される。但し、表示パネル340がタッチパネル等の入力手段としての機能を有する場合、入力部916にも対応する。   As described above, the functions of the image processing apparatus 330 can be realized by the hardware configuration shown in FIG. For example, the functions of the image processing unit 332, the encoder 334, the decoder 337, and the image output control unit 338 are realized by the CPU 902 based on a program recorded in the ROM 904, the RAM 906, the storage unit 920, or the removable recording medium 928. The function of the image storage unit 336 is realized by the RAM 906, the storage unit 920, or the removable recording medium 928. Further, the function of the display panel 340 is realized by the output unit 918. However, when the display panel 340 has a function as input means such as a touch panel, the display panel 340 also corresponds to the input unit 916.

以上、撮像装置100、200、及び画像処理装置330を例に挙げて本実施形態に係る基本的な技術について説明した。以下では、これらの技術を組み込んだ具体的な装置構成として、撮像装置400を例に挙げ、より具体的な技術説明を行う。この中で、ユーザ操作を含む一連の処理の流れについて説明すると共に、画面上での表示構成等についても具体的な例を挙げて説明する。   The basic technology according to the present embodiment has been described above by taking the imaging devices 100 and 200 and the image processing device 330 as examples. Hereinafter, as a specific apparatus configuration incorporating these techniques, the imaging apparatus 400 is taken as an example, and a more specific technical description will be given. In this, a series of processing flows including user operations will be described, and a display configuration on the screen will be described with a specific example.

[撮像装置400の機能構成]
まず、図12を参照しながら、本実施形態に係る撮像装置400の機能構成について説明する。図12は、本実施形態に係る撮像装置400の機能構成例を示す説明図である。
[Functional Configuration of Imaging Device 400]
First, the functional configuration of the imaging apparatus 400 according to the present embodiment will be described with reference to FIG. FIG. 12 is an explanatory diagram illustrating a functional configuration example of the imaging apparatus 400 according to the present embodiment.

図12に示すように、撮像装置400は、主に、イメージセンサ402と、画像処理ブロック404と、制御部406と、操作部408と、表示パネル410と、記録メディア412とにより構成される。イメージセンサ402は、撮像部の一例である。画像処理ブロック404は、画像処理装置の一例である。この画像処理ブロック404の機能は、図31に示すハードウェア構成により実現することができる。表示パネル410は、表示画面の一例である。   As shown in FIG. 12, the imaging apparatus 400 mainly includes an image sensor 402, an image processing block 404, a control unit 406, an operation unit 408, a display panel 410, and a recording medium 412. The image sensor 402 is an example of an imaging unit. The image processing block 404 is an example of an image processing apparatus. The function of the image processing block 404 can be realized by the hardware configuration shown in FIG. The display panel 410 is an example of a display screen.

(イメージセンサ402)
イメージセンサ402は、例えば、CCDやCMOS等の光電変換素子により形成されている。イメージセンサ402は、光学系を介して入力された光信号を光電変換して電気信号を出力する。イメージセンサ402から出力された電気信号は、デジタル画像信号として画像処理ブロック404(画像処理部430)に入力される。なお、動画像が撮影される場合には、連続して被写体像がイメージセンサ402に入力され、ページ単位のデジタル画像信号が画像処理部430に連続して入力される。
(Image sensor 402)
The image sensor 402 is formed by a photoelectric conversion element such as a CCD or a CMOS, for example. The image sensor 402 photoelectrically converts an optical signal input via the optical system and outputs an electrical signal. The electrical signal output from the image sensor 402 is input to the image processing block 404 (image processing unit 430) as a digital image signal. When a moving image is captured, the subject image is continuously input to the image sensor 402, and the digital image signal for each page is continuously input to the image processing unit 430.

(制御部406、操作部408)
制御部406は、操作部408によるユーザ操作に応じて画像処理ブロック404を制御する手段である。操作部408としては、例えば、キーボード、マウス、リモートコントローラ、ボタン、タッチパネル、タッチパッド、光学センサ、又はカーソル等の操作手段が用いられる。但し、タッチパネルの場合、操作部408の機能は、表示パネル410と組み合わせることで実現される。
(Control unit 406, operation unit 408)
The control unit 406 is means for controlling the image processing block 404 in accordance with a user operation by the operation unit 408. As the operation unit 408, for example, an operation unit such as a keyboard, a mouse, a remote controller, a button, a touch panel, a touch pad, an optical sensor, or a cursor is used. However, in the case of a touch panel, the function of the operation unit 408 is realized by combining with the display panel 410.

(表示パネル410)
表示パネル410としては、撮像装置400に搭載されている表示モニタやファインダであってもよいし、撮像装置400に外部機器として接続されている表示モニタであってもよい。また、表示パネル410は、タッチパネル等の入力デバイス機能を備えたものであってもよい。この場合、表示パネル410は、ユーザが画面を押圧した押圧力を検知する機能を備えた圧力検知機能付きのタッチパネルであってもよい。また、表示パネル410は、画面に直接触れずとも、ユーザが接触又は近接した画面上の位置を3次元的に検知する機能を有していてもよい。
(Display panel 410)
The display panel 410 may be a display monitor or finder mounted on the imaging apparatus 400 or a display monitor connected to the imaging apparatus 400 as an external device. The display panel 410 may have an input device function such as a touch panel. In this case, the display panel 410 may be a touch panel with a pressure detection function having a function of detecting a pressing force when the user presses the screen. Further, the display panel 410 may have a function of three-dimensionally detecting the position on the screen that the user touches or approaches without directly touching the screen.

(記録メディア412)
記録メディア412は、例えば、磁気記録媒体、光記録媒体、光磁気記録媒体、又は半導体記録媒体等により構成される。記録メディア412には、主にデジタル画像信号が記録される。また、記録メディア412には、各種の設定情報やデジタル画像信号に関するメタ情報等が記録されてもよい。記録メディア412は、画像処理ブロック404に含まれるメディア制御回路442によりデータの読み出し又は書き込みが制御される。
(Recording medium 412)
The recording medium 412 is configured by, for example, a magnetic recording medium, an optical recording medium, a magneto-optical recording medium, or a semiconductor recording medium. Digital image signals are mainly recorded on the recording medium 412. The recording medium 412 may record various setting information, meta information related to digital image signals, and the like. The recording medium 412 is controlled to read or write data by a media control circuit 442 included in the image processing block 404.

(画像処理ブロック404)
画像処理ブロック404は、主に、画像処理部430と、画像出力制御部436と、エンコーダ/デコーダ438と、バッファメモリ440と、メディア制御回路442とにより構成される。また、画像処理部430は、前処理回路432と、カメラ信号処理回路434とにより構成される。画像出力制御部436は、複雑領域検出部、複雑領域表示部、及び指定領域表示部の一例である。また、画像出力制御部436、エンコーダ/デコーダ438は、画像処理部の一例である。
(Image processing block 404)
The image processing block 404 mainly includes an image processing unit 430, an image output control unit 436, an encoder / decoder 438, a buffer memory 440, and a media control circuit 442. The image processing unit 430 includes a preprocessing circuit 432 and a camera signal processing circuit 434. The image output control unit 436 is an example of a complex region detection unit, a complex region display unit, and a designated region display unit. The image output control unit 436 and the encoder / decoder 438 are examples of an image processing unit.

(前処理回路432)
前処理回路432には、例えば、CDS(Crrelated Double Sampling)回路、AGC(Automatic Gain Control)回路、A/D(Analog to Digital)コンバータ等が含まれる。CDS回路は、イメージセンサ402から入力された画像信号に含まれるリセットノイズを除去する回路である。AGC回路は、画像信号を所定レベルまで増幅制御する回路である。A/Dコンバータは、アナログの画像信号をデジタル画像信号に変換する回路である。これらの回路により生成されたデジタル画像信号は、カメラ信号処理回路434に入力される。
(Pre-processing circuit 432)
The pre-processing circuit 432 includes, for example, a CDS (Credited Double Sampling) circuit, an AGC (Automatic Gain Control) circuit, an A / D (Analog to Digital) converter, and the like. The CDS circuit is a circuit that removes reset noise included in the image signal input from the image sensor 402. The AGC circuit is a circuit that controls amplification of an image signal to a predetermined level. The A / D converter is a circuit that converts an analog image signal into a digital image signal. Digital image signals generated by these circuits are input to the camera signal processing circuit 434.

(カメラ信号処理回路434)
カメラ信号処理回路434には、例えば、フィーダバッククランプ回路、ホワイトクリップ回路、ベースクリップ回路、ホワイトバランス回路、γ補正回路等が含まれる。
(Camera signal processing circuit 434)
The camera signal processing circuit 434 includes, for example, a feeder back clamp circuit, a white clip circuit, a base clip circuit, a white balance circuit, and a γ correction circuit.

フィーダバッククランプ回路は、デジタル画像信号の黒レベルOB(オプティカルブラック)を一定基準値に固定するための回路である。ホワイトクリップ回路は、画像信号の過変調を防ぐために所定振幅以上の変調が掛からないようにするリミッタ回路である。ベースクリップ回路は、低レベルノイズをクリップするための回路である。ホワイトバランス回路は、ホワイトバランスを調整するための回路である。γ補正回路は、画像信号に所定のγ補正を施すための回路である。これらの回路により処理されたデジタル画像信号は、画像出力制御部436、及びエンコーダ/デコーダ438に入力される。   The feeder back clamp circuit is a circuit for fixing the black level OB (optical black) of the digital image signal to a constant reference value. The white clip circuit is a limiter circuit that prevents modulation of a predetermined amplitude or more from being applied in order to prevent overmodulation of the image signal. The base clipping circuit is a circuit for clipping low level noise. The white balance circuit is a circuit for adjusting the white balance. The γ correction circuit is a circuit for performing predetermined γ correction on the image signal. The digital image signal processed by these circuits is input to the image output control unit 436 and the encoder / decoder 438.

(画像出力制御部436)
画像出力制御部436は、エンコード前のデジタル画像信号からDCT係数等の符号を算出し、この符号を用いてデジタル画像信号に含まれる各画素領域の複雑さを評価する。但し、DCT係数に代えて、例えば、ウェーブレット係数、フラットネス、又はイントラAC等のパラメータが算出され、このパラメータにより評価結果が算出されるように構成されていてもよい。また、画像出力制御部436は、複数のデジタル画像信号を用いて動きベクトルを検出し、その動きベクトルの大きさに基づいて評価結果を算出するように構成されていてもよい。画像出力制御部436は、算出した評価結果をデジタル画像信号に重畳して表示パネル410に表示する。
(Image output control unit 436)
The image output control unit 436 calculates a code such as a DCT coefficient from the digital image signal before encoding, and evaluates the complexity of each pixel area included in the digital image signal using this code. However, instead of the DCT coefficient, for example, a parameter such as a wavelet coefficient, flatness, or intra AC may be calculated, and the evaluation result may be calculated using the parameter. The image output control unit 436 may be configured to detect a motion vector using a plurality of digital image signals and calculate an evaluation result based on the magnitude of the motion vector. The image output control unit 436 superimposes the calculated evaluation result on the digital image signal and displays it on the display panel 410.

その後、操作部408、制御部406を介してユーザにより画素領域が指定されると、画像出力制御部436は、ユーザに指定された画素領域に割り当てられるビット量の設定情報を変更する。そして、画像出力制御部436は、ユーザに指定された画像領域の位置情報と、指定領域に割り当てられる変更後のビット量の情報とをエンコーダ/デコーダ438に入力する。例えば、ユーザが複雑領域を指定している場合、画像出力制御部436は、指定領域の割り当てビット量が低減するように設定情報を更新する。更新された設定情報、及び指定領域の位置情報は、エンコーダ/デコーダ438に入力される。   Thereafter, when the pixel area is designated by the user via the operation unit 408 and the control unit 406, the image output control unit 436 changes the setting information of the bit amount allocated to the pixel area designated by the user. Then, the image output control unit 436 inputs the position information of the image area designated by the user and the information on the changed bit amount allocated to the designated area to the encoder / decoder 438. For example, when the user designates a complex area, the image output control unit 436 updates the setting information so that the allocated bit amount of the designated area is reduced. The updated setting information and the position information of the designated area are input to the encoder / decoder 438.

また、画像出力制御部436は、ユーザにより画素領域が指定された場合に、指定領域の割り当てビット量を変更するのではなく、指定領域にローパスフィルタ等の所定の画像処理を施すように構成されていてもよい。所定の画像処理としては、ローパスフィルタの他にも、例えば、減色処理や被写界深度の低減処理等が用いられる。もちろん、本実施形態に適用可能な所定の画像処理はこれに限定されず、その目的に応じて適宜変更される。   Further, the image output control unit 436 is configured to perform predetermined image processing such as a low-pass filter on the designated area instead of changing the allocated bit amount of the designated area when the pixel area is designated by the user. It may be. As the predetermined image processing, in addition to the low-pass filter, for example, color reduction processing, depth-of-field reduction processing, or the like is used. Of course, the predetermined image processing applicable to the present embodiment is not limited to this, and may be appropriately changed according to the purpose.

(エンコーダ/デコーダ438)
エンコーダ/デコーダ438は、カメラ信号処理回路434から入力されたデジタル画像信号に対して所定のエンコード方式でエンコード処理を施す。このとき、エンコーダ/デコーダ438は、画像出力制御部436から入力された指定領域の位置情報、及び指定領域の割り当てビット量に基づいてエンコード処理を実行する。つまり、エンコーダ/デコーダ438は、指定領域に対して画像出力制御部436により設定されたビット量でエンコード処理を施す。
(Encoder / Decoder 438)
The encoder / decoder 438 performs an encoding process on the digital image signal input from the camera signal processing circuit 434 using a predetermined encoding method. At this time, the encoder / decoder 438 performs the encoding process based on the position information of the designated area input from the image output control unit 436 and the allocated bit amount of the designated area. That is, the encoder / decoder 438 performs an encoding process on the designated area with the bit amount set by the image output control unit 436.

なお、所定のエンコード方式としては、例えば、MPEG−2、MPEG−4、H.264/AVC等で規格化された方式が用いられる。もちろん、本実施形態に適用可能なエンコード方式は、これらの例に限定されるものではない。例えば、MPEG−2で規格化されたエンコード方式が用いられる場合、既に述べた通り、動き補償フレーム間差分符号化手法等が用いられる。このような場合、エンコーダ/デコーダ438は、フレームメモリとしてバッファメモリ440を利用する。このようにしてエンコーダ/デコーダ438によりエンコードされたデジタル画像信号は、メディア制御回路442を介して記録メディア412に記録される。   The predetermined encoding method includes, for example, MPEG-2, MPEG-4, H.264, and the like. A method standardized by H.264 / AVC or the like is used. Of course, the encoding method applicable to this embodiment is not limited to these examples. For example, when an encoding method standardized by MPEG-2 is used, a motion compensation interframe difference encoding method or the like is used as described above. In such a case, the encoder / decoder 438 uses the buffer memory 440 as a frame memory. The digital image signal thus encoded by the encoder / decoder 438 is recorded on the recording medium 412 via the media control circuit 442.

また、エンコーダ/デコーダ438は、エンコード後のデジタル画像信号をバッファメモリ440に蓄積し、そのデジタル画像信号をデコードして画像出力制御部436に入力するように構成されていてもよい。このような構成は、上記の画像処理装置330のようにエンコード後のデジタル画像信号に対する評価情報を算出する際に利用される。この場合、エンコード後のデジタル画像信号に対する評価情報がデジタル画像信号に重畳合成されて表示パネル410に表示される。   The encoder / decoder 438 may be configured to store the encoded digital image signal in the buffer memory 440, decode the digital image signal, and input the decoded digital image signal to the image output control unit 436. Such a configuration is used when calculating evaluation information for the encoded digital image signal as in the image processing apparatus 330 described above. In this case, evaluation information for the encoded digital image signal is superimposed on the digital image signal and displayed on the display panel 410.

以上、本実施形態に係る撮像装置400の機能構成について説明した。上記の通り、撮像装置400は、エンコーダ/デコーダ438によりエンコードされる前のデジタル画像信号から複雑さ又は動きの激しさ等を含む画素領域を検出し、その画素領域をデジタル画像信号に重畳して表示する構成に1つの特徴がある。   The functional configuration of the imaging apparatus 400 according to the present embodiment has been described above. As described above, the imaging apparatus 400 detects a pixel area including complexity or intensity of motion from the digital image signal before being encoded by the encoder / decoder 438, and superimposes the pixel area on the digital image signal. There is one feature in the configuration to display.

このような構成により、ユーザに対して高速に複雑さ領域等を提示することができる。その結果、ユーザがリアルタイムに複雑な画素領域等を指定することが可能になる。また、ユーザは、アングルや画角を調整して撮像範囲から複雑領域等を避けることが容易になる。結果として、デジタル画像信号に含まれる複雑領域等が小さくなり、他の部分に割り当てられるビット量が多くなるため、相対的にエンコード後の画像品質が向上するという効果が得られる。   With such a configuration, the complexity area and the like can be presented to the user at high speed. As a result, it becomes possible for the user to designate a complicated pixel region or the like in real time. In addition, the user can easily avoid complicated areas from the imaging range by adjusting the angle and the angle of view. As a result, since the complex area included in the digital image signal is reduced and the amount of bits allocated to other portions is increased, an effect of relatively improving the image quality after encoding can be obtained.

さらに、提示された複雑領域等の情報に基づいてユーザにより画素領域が指定されると、撮像装置400は、その指定領域に対して所定の画像処理を施すように構成されている。例えば、撮像装置400は、指定領域にローパスフィルタを掛けたり、指定領域の割り当てビット量を低減させてエンコード処理を施したりする。このような構成にすることで、ユーザが非重要と考える領域に対して割り当てられる符号量を低減させることが可能になり、単位時間当たりに割り当てられるビット量が固定されていても、エンコード後の映像品質を高めることができる。   Furthermore, when a pixel area is designated by the user based on information such as the presented complex area, the imaging device 400 is configured to perform predetermined image processing on the designated area. For example, the imaging apparatus 400 applies a low pass filter to the designated area or performs an encoding process by reducing the allocated bit amount of the designated area. By adopting such a configuration, it is possible to reduce the amount of code allocated to an area that the user considers unimportant, and even if the bit amount allocated per unit time is fixed, Video quality can be improved.

なお、撮像装置400を構成する画像処理ブロック404の機能は、図31に示すハードウェア構成により実現できる。例えば、エンコーダ/デコーダ438、画像出力制御部436の機能は、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録されたプログラムに基づいてCPU902により実現される。操作部408の機能は、入力部916により実現される。   Note that the function of the image processing block 404 constituting the imaging apparatus 400 can be realized by the hardware configuration shown in FIG. For example, the functions of the encoder / decoder 438 and the image output control unit 436 are realized by the CPU 902 based on a program recorded in the ROM 904, the RAM 906, the storage unit 920, or the removable recording medium 928. The function of the operation unit 408 is realized by the input unit 916.

また、バッファメモリ440の機能は、RAM906、記憶部920、又はリムーバブル記録媒体928により実現される。さらに、記録メディア412は、記憶部920、又はリムーバブル記録媒体928により実現される。さらに、表示パネル410の機能は、出力部918により実現される。但し、表示パネル410がタッチパネル等の入力手段としての機能を有する場合、入力部916にも対応する。   The function of the buffer memory 440 is realized by the RAM 906, the storage unit 920, or the removable recording medium 928. Further, the recording medium 412 is realized by the storage unit 920 or the removable recording medium 928. Further, the function of the display panel 410 is realized by the output unit 918. However, when the display panel 410 has a function as input means such as a touch panel, it corresponds to the input unit 916.

[ユーザ操作を含む処理の流れについて]
ここで、上記の撮像装置400の動作、及びユーザ操作を含む本実施形態に係る画像処理の流れについて説明する。
[Processing flow including user operations]
Here, the flow of image processing according to the present embodiment including the operation of the imaging apparatus 400 and user operations will be described.

まず、図13、及び図14を参照しながら、本実施形態に係る画像処理の全体的な流れについて説明する。次いで、図15を参照しながら、構図設定操作の流れについて説明する。次いで、図16を参照しながら、光学系の設定操作の流れについて説明する。次いで、図17を参照しながら、画像処理設定操作の流れについて説明する。次いで、図18を参照しながら、エンコード設定操作の流れについて説明する。   First, an overall flow of image processing according to the present embodiment will be described with reference to FIGS. 13 and 14. Next, the flow of the composition setting operation will be described with reference to FIG. Next, the flow of an optical system setting operation will be described with reference to FIG. Next, the flow of the image processing setting operation will be described with reference to FIG. Next, the flow of an encoding setting operation will be described with reference to FIG.

(全体的な流れ)
まず、図13を参照する。図13に示すように、撮像装置400により、映像の複雑さが可視化される(SU10)。既に説明した通り、撮像装置400は、デジタル画像信号の空間的な複雑さ及び時間的な複雑さの一方又は両方を可視化することができる。
(Overall flow)
First, referring to FIG. As shown in FIG. 13, the image complexity is visualized by the imaging device 400 (SU10). As described above, the imaging apparatus 400 can visualize one or both of the spatial complexity and the temporal complexity of the digital image signal.

例えば、デジタル画像信号の周波数解析等により得られる高周波数成分の係数が大きな画素領域が空間的な複雑さを持つ複雑領域であるとして、所定の表示形式で可視化される。また、動き検出により画素領域の動きベクトルが算出され、動きベクトルの大きな画素領域が時間的な複雑さを持つ複雑領域であるとして、所定の表示形式で可視化される。   For example, a pixel region having a large high frequency component coefficient obtained by frequency analysis of a digital image signal is visualized in a predetermined display format as a complex region having spatial complexity. In addition, the motion vector of the pixel area is calculated by motion detection, and the pixel area having a large motion vector is visualized in a predetermined display format as a complex area having temporal complexity.

次いで、ユーザ及び撮像装置400により、画作りの段階で複雑さが調整される(SU20)。調整できる要素としては、例えば、構図、映像加工、エンコード設定等がある。   Next, the complexity is adjusted by the user and the imaging device 400 at the stage of image creation (SU20). Examples of elements that can be adjusted include composition, video processing, and encoding settings.

構図の調整要素としては、例えば、カメラワーク、フォーカス、アイリス、ズーム等がある。構図の調整は、主にユーザによって行われる。但し、ユーザは、撮像装置400の表示パネル410に表示された複雑領域を参照しながら構図の調整を行う。撮像装置400は、ユーザにより構図が変更されるとリアルタイムで複雑領域の表示を更新する。そのため、ユーザは、表示パネル410を参照しながらインタラクティブに構図の調整を行うことができる。このような構図の調整は、複雑領域を高速に表示することが可能な撮像装置400の技術により実現されるものである。   Examples of composition adjustment elements include camera work, focus, iris, and zoom. Composition adjustment is mainly performed by the user. However, the user adjusts the composition while referring to the complex area displayed on the display panel 410 of the imaging apparatus 400. The imaging apparatus 400 updates the display of the complex area in real time when the composition is changed by the user. Therefore, the user can interactively adjust the composition while referring to the display panel 410. Such composition adjustment is realized by the technique of the imaging apparatus 400 capable of displaying a complex region at high speed.

映像加工の調整要素としては、例えば、光学フィルタ、デジタルフィルタ等がある。映像加工の調整は、主にユーザによって行われる。但し、デジタルフィルタの場合、例えば、ユーザにより指定された画素領域に対して撮像装置400がフィルタ処理を施す形式で実現される。このような場合も、ユーザは、表示パネル410を参照しながらインタラクティブに映像加工の調整を行うことができる。映像加工の調整についても、複雑領域を高速に表示することが可能な撮像装置400の技術により実現されるものである。   Examples of adjustment elements for image processing include an optical filter and a digital filter. Adjustment of image processing is mainly performed by the user. However, in the case of a digital filter, for example, it is realized in a format in which the imaging apparatus 400 performs a filtering process on a pixel region designated by the user. Even in such a case, the user can interactively adjust the video processing while referring to the display panel 410. The adjustment of the image processing is also realized by the technology of the imaging apparatus 400 that can display a complex area at high speed.

エンコード設定の調整要素としては、例えば、画素領域に割り当てられるビット量を調整するための重み付け調整等がある。エンコード設定の調整は、主にユーザによって行われる。但し、ユーザにより指定された画素領域に対して撮像装置400が割り当てビット量の重み付けを施す形式で実現される。このような場合も、ユーザは、表示パネル410を参照しながらインタラクティブに重み付けしたい画素領域の指定を行うことができる。エンコード設定の調整についても、複雑領域を高速に表示することが可能な撮像装置400の技術により実現されるものである。   As an adjustment element of the encoding setting, for example, there is a weighting adjustment for adjusting the bit amount allocated to the pixel area. The adjustment of the encoding setting is mainly performed by the user. However, it is realized in a format in which the imaging device 400 weights the allocated bit amount for the pixel region designated by the user. Also in such a case, the user can specify a pixel area to be weighted interactively while referring to the display panel 410. The adjustment of the encoding setting is also realized by the technology of the imaging apparatus 400 that can display a complex area at high speed.

上記の調整が行われた後で、撮像装置400によりデジタル画像信号に対してエンコード処理が施される(SU30)。このとき、上記の調整を行う前の画像に対してエンコード処理を施すのに比べ、ユーザが重要視する領域に対して多くのビット量が割り当てられるため、相対的にエンコード後のデジタル画像信号が高画質化されている。   After the above adjustment is performed, the imaging device 400 performs an encoding process on the digital image signal (SU30). At this time, as compared with the case where the encoding process is performed on the image before performing the above adjustment, a larger bit amount is allocated to the area which is regarded as important by the user. High image quality.

例えば、構図が調整されて撮像範囲の複雑領域が減少している場合、画像全体に割り当てられるビット量が同じであれば、複雑領域に取られるビット量が相対的に少なくて済むため、より高画質化されるのである。また、指定領域に多くのビット量を割り当てる構成の場合、当然、ユーザが重要視する指定領域が高画質化され、ユーザの嗜好に適合するエンコード後の画像が得られることになる。   For example, when the composition is adjusted and the complex area of the imaging range is reduced, if the amount of bits allocated to the entire image is the same, the amount of bits taken in the complex area can be relatively small, and therefore, The image quality is improved. Further, in the case of a configuration in which a large amount of bits is allocated to the designated area, naturally, the designated area that is important to the user is improved in image quality, and an encoded image suitable for the user's preference is obtained.

次に、図14を参照する。図14は、ユーザ操作に焦点を当てた全体的な処理の流れを示す説明図である。   Reference is now made to FIG. FIG. 14 is an explanatory diagram showing an overall processing flow focused on user operations.

図14に示すように、まず、ユーザにより複雑領域の表示設定が行われる(S102)。例えば、表示方法、閾値、領域指定等が設定される。複雑領域の表示方法としては、例えば、別窓に模様を付けて表示(図19)するのか、表示画面上に模様を付けて表示(図23)するのか、色を付けて表示(図25、図26)するのか、といった設定がある。   As shown in FIG. 14, first, display setting of a complex area is performed by the user (S102). For example, a display method, a threshold value, an area designation, etc. are set. As a display method of the complex area, for example, whether to display with a pattern on another window (FIG. 19), display with a pattern on the display screen (FIG. 23), or display with a color (FIG. 25, FIG. 25). FIG. 26) is set.

閾値は、エンコード前のデジタル画像信号から得られるDCT係数等を評価情報に変換する際に用いる閾値である。領域指定の設定とは、ユーザが領域を指定するための設定である。例えば、ユーザにより表示パネル410がタッチされた場合に、タッチされた所定サイズの画素領域に枠を表示(図21)するのか、模様を付けて表示(図22)するのか、といった設定である。   The threshold value is a threshold value used when converting DCT coefficients or the like obtained from the digital image signal before encoding into evaluation information. The area designation setting is a setting for the user to designate an area. For example, when the display panel 410 is touched by the user, the setting is whether to display a frame (FIG. 21) or display with a pattern (FIG. 22) in the touched pixel area of a predetermined size.

次いで、ユーザは、所望の表示設定になったか否かを判断する(S104)。所望の表示設定になったのであれば、ステップS106の処理に進行する。一方、所望の表示設定になっていなければ、ステップS102の処理に戻り、表示設定を変更する。   Next, the user determines whether or not the desired display setting has been achieved (S104). If the desired display setting is obtained, the process proceeds to step S106. On the other hand, if the desired display setting is not obtained, the process returns to step S102 to change the display setting.

ステップS106では、ユーザにより、どのような処理を行うかが判断される(S106)。構図の設定を行う場合、ステップS108の処理に進行し、例えば、カメラの位置や向きを調整したり、使用レンズを変更したり、或いは、ズーム倍率を調整したりする。光学系の設定を行う場合、ステップS110の処理に進行し、フォーカス、アイリス、光学フィルタ等のパラメータを調整する。画像処理設定を行う場合、ステップS112の処理に進行し、LPF(Low−Pass Filter)等の調整を行う。   In step S106, the user determines what processing is to be performed (S106). When setting the composition, the process proceeds to step S108. For example, the camera position or orientation is adjusted, the lens used is changed, or the zoom magnification is adjusted. When setting the optical system, the process proceeds to step S110, and parameters such as focus, iris, and optical filter are adjusted. When performing image processing setting, the process proceeds to step S112, and adjustment such as LPF (Low-Pass Filter) is performed.

次いで、ユーザは、回避すべき複雑領域が存在するか否かを判断する(S114)。回避すべき複雑領域がある場合、ステップS106の処理に進行し、複雑領域を回避すべく設定を変更する。回避すべき複雑領域がない場合、ステップS116の処理に進行する。   Next, the user determines whether there is a complex area to be avoided (S114). If there is a complex area to be avoided, the process proceeds to step S106, and the setting is changed to avoid the complex area. If there is no complicated area to avoid, the process proceeds to step S116.

このステップにおいて、複雑領域が存在していても、その複雑領域に対してユーザが回避すべきでないと考える場合には、その複雑領域が回避されずに残される点が重要である。例えば、同じ複雑さを持つ複雑領域が複数存在していても、ユーザが重要だと考える方だけを残すことができる。このようにユーザの嗜好を反映した選択的な処理は、自動的に複雑領域を判断して画像処理してしまう装置においては実現できない点に注意されたい。   In this step, even if a complex area exists, if it is considered that the user should not avoid the complex area, it is important that the complex area is left without being avoided. For example, even if there are a plurality of complex areas having the same complexity, only those who think that the user is important can be left. It should be noted that such selective processing that reflects user preferences cannot be realized in an apparatus that automatically determines a complex area and performs image processing.

次いで、ステップS116では、ユーザにより複雑領域の表示設定を変更するか否かが判断される(S116)。複雑領域の表示設定を変更する場合、ステップS102の処理に進行する。一方で、複雑領域の表示設定を変更しない場合、ステップS118の処理に進行する。ステップS118では、ユーザによりエンコード設定が行われる(S118)。例えば、ユーザによりビット量の重み付け量が設定される。次いで、デジタル画像信号の記録が開始され(S120)、一連の設定処理が終了する。   Next, in step S116, it is determined whether or not the display setting of the complex area is changed by the user (S116). When changing the display setting of the complex area, the process proceeds to step S102. On the other hand, if the display setting of the complex area is not changed, the process proceeds to step S118. In step S118, encoding setting is performed by the user (S118). For example, the user sets a weighting amount of the bit amount. Next, recording of a digital image signal is started (S120), and a series of setting processes is completed.

(構図設定操作の流れ(S108))
ここで、上記のステップS108で実行される構図の設定操作について、図15を参照しながら説明を加える。図15は、構図設定処理の流れを示す説明図である。
(Composition setting operation flow (S108))
Here, the composition setting operation executed in step S108 will be described with reference to FIG. FIG. 15 is an explanatory diagram showing the flow of the composition setting process.

図15に示すように、まず、ユーザにより構図を変更するか否かが判断される(S132)。構図を変更する場合、ステップS134の処理に進行する。一方で、構図を変更しない場合、構図設定に係る一連の処理を終了する。ステップS134では、ユーザにより構図の設定が行われる(S134)。このとき、ユーザは、複雑領域を回避するように構図を変更する。次いで、ユーザは、所望の構図になったか否かを判断する(S136)。所望の構図であれば、構図設定に係る一連の処理を終了する。一方で、所望の構図でなければ、ステップS132の処理に戻る。   As shown in FIG. 15, first, it is determined whether or not the composition is changed by the user (S132). When the composition is changed, the process proceeds to step S134. On the other hand, when the composition is not changed, a series of processes related to composition setting is ended. In step S134, the composition is set by the user (S134). At this time, the user changes the composition so as to avoid the complex area. Next, the user determines whether or not the desired composition has been achieved (S136). If it is a desired composition, a series of processes related to composition setting is terminated. On the other hand, if the desired composition is not obtained, the process returns to step S132.

上記のステップS136の段階で、ユーザは、撮像装置400の表示パネル410に表示された複雑領域を参照し、所望の構図か否かを判断している。この判断処理の時点で、ステップS134で行われた構図の設定が反映され、表示パネル410の複雑領域が更新されている必要がある。構図の変更は、微調整を重ねながら繰り返し実行される。そのため、構図の設定変更が反映されるまでに長い時間が掛かるようだと、ユーザの負担が増加してしまう上、被写体が移動したり、照明が変化したりして複雑領域の回避が難しくなる可能性がある。こうした点を考慮すると、図15に示した構図設定処理には、撮像装置400が有する複雑領域の高速表示機能が不可欠であると言える。   In the above-described step S136, the user refers to the complex area displayed on the display panel 410 of the imaging apparatus 400 and determines whether or not the composition is a desired one. At the time of this determination processing, the composition setting performed in step S134 needs to be reflected and the complex area of the display panel 410 needs to be updated. The composition change is repeatedly performed with repeated fine adjustments. For this reason, if it takes a long time for the composition setting change to be reflected, the burden on the user will increase, and it will be difficult to avoid complex areas because the subject will move or the lighting will change. there is a possibility. Considering these points, it can be said that the complex area high-speed display function of the imaging device 400 is indispensable for the composition setting process shown in FIG.

(光学系設定操作の流れ(S110))
ここで、上記のステップS110で実行される光学系の設定操作について、図16を参照しながら説明を加える。図16は、光学系設定処理の流れを示す説明図である。
(Flow of optical system setting operation (S110))
Here, the optical system setting operation executed in step S110 will be described with reference to FIG. FIG. 16 is an explanatory diagram showing the flow of the optical system setting process.

図16に示すように、まず、ユーザにより光学系を変更するか否かが判断される(S152)。光学系を変更する場合、ステップS154の処理に進行する。一方で、光学系を変更しない場合、光学系設定に係る一連の処理を終了する。ステップS154では、ユーザにより光学系の設定が行われる(S154)。このとき、ユーザは、複雑領域を回避するように光学系を調整する。次いで、ユーザは、所望の画になったか否かを判断する(S156)。所望の画であれば、光学系設定に係る一連の処理を終了する。一方で、所望の画でなければ、ステップS152の処理に戻る。   As shown in FIG. 16, first, it is determined whether or not the user changes the optical system (S152). When the optical system is changed, the process proceeds to step S154. On the other hand, when the optical system is not changed, a series of processes related to the optical system setting is ended. In step S154, the user sets the optical system (S154). At this time, the user adjusts the optical system so as to avoid the complicated area. Next, the user determines whether or not a desired image has been obtained (S156). If the image is a desired image, a series of processing relating to the optical system setting is terminated. On the other hand, if it is not a desired image, the process returns to step S152.

上記のステップS156の段階で、ユーザは、撮像装置400の表示パネル410に表示された複雑領域を参照し、所望の画か否かを判断している。この判断処理の時点で、ステップS154で行われた光学系の設定が反映され、表示パネル410の複雑領域が更新されている必要がある。光学系の変更は、微調整を重ねながら繰り返し実行される。そのため、光学系の設定変更が反映されるまでに長い時間が掛かるようだと、ユーザの負担が増加してしまう上、被写体が移動したり、照明が変化したりして複雑領域の回避が難しくなる可能性がある。こうした点を考慮すると、図16に示した光学系設定処理には、撮像装置400が有する複雑領域の高速表示機能が不可欠であると言える。   In the above-described step S156, the user refers to the complex area displayed on the display panel 410 of the imaging apparatus 400 and determines whether the image is a desired image. At the time of this determination process, the setting of the optical system performed in step S154 is reflected, and the complex area of the display panel 410 needs to be updated. The change of the optical system is repeatedly performed with repeated fine adjustments. For this reason, if it takes a long time to reflect the change in the settings of the optical system, the burden on the user will increase, and it will be difficult to avoid complicated areas due to movement of the subject and changes in illumination. There is a possibility. Considering these points, it can be said that the high-speed display function of the complex area of the imaging apparatus 400 is indispensable for the optical system setting process shown in FIG.

(画像処理設定操作の流れ(S112))
ここで、上記のステップS112で実行される画像処理設定操作について、図17を参照しながら説明を加える。図17は、画像処理設定操作の流れを示す説明図である。
(Flow of image processing setting operation (S112))
Here, the image processing setting operation executed in step S112 will be described with reference to FIG. FIG. 17 is an explanatory diagram showing the flow of the image processing setting operation.

図17に示すように、まず、ユーザにより画像処理設定を変更するか否かが判断される(S172)。画像処理設定を変更する場合、ステップS174の処理に進行する。一方で、画像処理設定を変更しない場合、画像処理設定に係る一連の処理を終了する。ステップS174では、ユーザにより画像処理領域を指定するか否かが判断される(S174)。画像処理領域を指定する場合、ステップS176の処理に進行する。一方、画像処理領域を指定しない場合、ステップS178の処理に進行する。   As shown in FIG. 17, first, the user determines whether or not to change the image processing setting (S172). When the image processing setting is changed, the process proceeds to step S174. On the other hand, when the image processing setting is not changed, the series of processing related to the image processing setting is ended. In step S174, it is determined whether or not the user designates an image processing area (S174). When an image processing area is designated, the process proceeds to step S176. On the other hand, if no image processing area is designated, the process proceeds to step S178.

ステップS176では、ユーザにより画像処理領域が指定される(S176)。例えば、ユーザによりタッチパネル(表示パネル410)上の領域が押圧され、画像処理領域として指定される。次いで、ユーザにより画像処理の設定が行われる(S178)。このとき、ユーザにより指定領域に施される画像処理方法の種類が設定される(S178)。次いで、ユーザは、所望の画になったか否かを判断する(S180)。所望の画であれば、画像処理設定に係る一連の処理を終了する。一方で、所望の画でなければ、ステップS172の処理に戻る。   In step S176, an image processing area is designated by the user (S176). For example, an area on the touch panel (display panel 410) is pressed by the user and designated as an image processing area. Next, image processing is set by the user (S178). At this time, the type of the image processing method applied to the designated area is set by the user (S178). Next, the user determines whether or not a desired image has been obtained (S180). If the image is a desired image, a series of processes related to the image processing setting is terminated. On the other hand, if it is not a desired image, the process returns to step S172.

(エンコード設定操作の流れ(S118))
ここで、上記のステップS118で実行されるエンコード設定操作について、図18を参照しながら説明を加える。図18は、エンコード設定操作の流れを示す説明図である。
(Flow of encoding setting operation (S118))
Here, the encoding setting operation executed in step S118 will be described with reference to FIG. FIG. 18 is an explanatory diagram showing the flow of the encoding setting operation.

図18に示すように、まず、ユーザによりエンコード設定を変更するか否かが判断される(S192)。エンコード設定を変更する場合、ステップS194の処理に進行する。一方で、エンコード設定を変更しない場合、エンコード設定に係る一連の処理を終了する。ステップS194では、ユーザにより重み付け領域を指定するか否かが判断される(S194)。重み付け領域を指定する場合、ステップS196の処理に進行する。一方、重み付け領域を指定しない場合、ステップS198の処理に進行する。   As shown in FIG. 18, first, the user determines whether or not to change the encoding setting (S192). When the encoding setting is changed, the process proceeds to step S194. On the other hand, when the encoding setting is not changed, a series of processes related to the encoding setting is terminated. In step S194, it is determined whether or not the user designates a weighted area (S194). If a weighted area is designated, the process proceeds to step S196. On the other hand, if no weighting area is designated, the process proceeds to step S198.

ステップS196では、ユーザにより重み付け領域(画像処理領域)が指定される(S196)。例えば、ユーザによりタッチパネル(表示パネル410)上の領域が押圧され、画像処理領域として指定される。次いで、ユーザによりエンコードの設定が行われる(S198)。このとき、ユーザにより指定領域に割り当てられるビット量(重み量)が設定され(S198)、エンコード設定に係る一連の処理を終了する。   In step S196, the user designates a weighting area (image processing area) (S196). For example, an area on the touch panel (display panel 410) is pressed by the user and designated as an image processing area. Next, encoding is set by the user (S198). At this time, the bit amount (weight amount) allocated to the designated area is set by the user (S198), and a series of processing relating to the encoding setting is ended.

以上、ユーザ操作に係る一連の処理について説明した。上記の通り、本実施形態に係る撮像装置400の機能を利用することで、上記のようなユーザ操作により複雑領域を効果的に回避することが可能になる。つまり、ユーザ操作に応じてリアルタイムに複雑領域の表示が更新され、その表示された複雑領域を参考にしてユーザが回避行動を執ることにより、映像データの符号化効率が高まり、映像品質が向上されるのである。   The series of processes related to user operations has been described above. As described above, by using the function of the imaging apparatus 400 according to the present embodiment, it is possible to effectively avoid the complex area by the user operation as described above. In other words, the display of the complex area is updated in real time according to the user's operation, and the user performs the avoidance action with reference to the displayed complex area, so that the encoding efficiency of the video data is increased and the video quality is improved. It is.

[複雑領域の表示構成等について]
ここで、図19〜図30を参照しながら、撮像装置400の表示パネル410に表示される複雑領域等の表示構成について説明する。この表示構成に係る表示制御は、主に画像出力制御部436の機能により実現される。
[Display structure of complex area]
Here, a display configuration of a complex area or the like displayed on the display panel 410 of the imaging apparatus 400 will be described with reference to FIGS. Display control according to this display configuration is realized mainly by the function of the image output control unit 436.

(複雑領域を別窓に表示する構成)
まず、図19を参照する。図19には、表示パネル410の表示画面上に画像と別窓とが重畳表示されている様子が例示されている。表示画面に表示されている画像は、複数の子供が玉入れをしている様子を示したものである。
(Configuration to display complex areas in a separate window)
First, refer to FIG. FIG. 19 illustrates a state in which an image and another window are superimposed and displayed on the display screen of the display panel 410. The image displayed on the display screen shows a state in which a plurality of children are playing a ball.

この画像には、背景に複数の木々が含まれている。このような画像の場合、空や地面は比較的平坦な図柄であるため、複雑さが小さいものと推察される。一方、背景の木々は、比較的細かな構造を含むため、複雑さが大きいものと推察される。また、子供の腕や投げられている玉は、比較的動きの激しい部分であると推察される。さらに、木々の葉は、強い風が吹いて揺らぐと、複雑で動きの激しい絵柄になるものと推察される。   This image includes a plurality of trees in the background. In the case of such an image, since the sky and the ground are relatively flat symbols, it is assumed that the complexity is small. On the other hand, the trees in the background include a relatively fine structure, so it is presumed that the complexity is large. Also, it can be inferred that the child's arm and the ball being thrown are relatively fast moving parts. Furthermore, the leaves of the trees are thought to be complex and intensely moving when the strong wind blows and shakes.

このような画像に対してMPEG方式等のエンコード処理を施すと、背景の木々に多くの符号量が割り当てられてしまう。そのため、撮影者にとって本来重要であるべき前景の子供達の絵柄に圧縮ノイズが発生したり、画質の著しい低下が発生してしまう。一方、自動的に複雑領域を検出して部分的にビットレートを低下させる装置の場合、子供の腕や玉の部分も低ビットレートで描画されてしまい、撮影者にとって重要な領域の映像品質が低下してしまう可能性が高い。一方で、撮影者が撮影範囲から木々の一部を外すことにより、容易にエンコード後の映像品質を向上させることができるのである。   If such an image is encoded by an MPEG method or the like, a large amount of code is assigned to the background trees. For this reason, compression noise occurs in the foreground children's pattern, which should be important for the photographer, and the image quality deteriorates significantly. On the other hand, in the case of a device that automatically detects a complex area and partially reduces the bit rate, the child's arm and ball part are also drawn at a low bit rate, and the video quality of the area important for the photographer is reduced. There is a high possibility that it will decline. On the other hand, when the photographer removes a part of the trees from the photographing range, the video quality after encoding can be easily improved.

しかしながら、多くの撮影者は、撮影中に上記のような複雑領域を把握することは難しい。そこで、図19のように複雑領域を表示し、どのような撮影者でも、容易に複雑領域を把握できるようにしているのである。図19の例では、別窓が表示され、別窓の中に画像に重畳して複雑領域を示す模様が表示されている。この例では、複雑領域がハッチングにより表示されているが、これに限定されない。また、この例では、複雑さの度合いに応じて模様の濃淡を付けている。従って、撮影者は、濃度の高い模様部分を回避するようにアングルや画角等を調整することでエンコード後の映像品質を向上させることができる。   However, it is difficult for many photographers to grasp such a complex area during photographing. Therefore, a complex area is displayed as shown in FIG. 19 so that any photographer can easily grasp the complex area. In the example of FIG. 19, a separate window is displayed, and a pattern indicating a complex region is displayed in the separate window so as to be superimposed on the image. In this example, the complex area is displayed by hatching, but the present invention is not limited to this. In this example, the pattern is shaded according to the degree of complexity. Therefore, the photographer can improve the video quality after encoding by adjusting the angle, the angle of view, and the like so as to avoid a pattern portion having a high density.

(タッチパネルエリアを別窓に表示する構成)
次に、図20を参照する。図20には、図19の例と同様の画像が表示されている。撮像装置400の場合、任意の画素領域を撮影者が指定することで、その指定領域に画像処理を施したり、割り当てビット量を変更したりすることができる。その指定方法としては、例えば、表示画面上を指等でタッチして指定する方法が好ましい。
(Configuration to display the touch panel area in a separate window)
Reference is now made to FIG. In FIG. 20, an image similar to the example of FIG. 19 is displayed. In the case of the imaging apparatus 400, when a photographer designates an arbitrary pixel area, it is possible to perform image processing on the designated area or change an allocated bit amount. As the specification method, for example, a method of specifying by touching the display screen with a finger or the like is preferable.

図20の例では、背景に含まれる木々の部分に相当する複雑領域がタッチされ、指定領域として選択された状態が示されている。この例では、指定領域の外縁が別窓に太線で表示されている。このように、複雑領域を選択的に指定することで、撮影者が所望する複雑領域にのみ画像処理を施すことができるようになる。   In the example of FIG. 20, a state where a complex area corresponding to a portion of trees included in the background is touched and selected as a designated area is shown. In this example, the outer edge of the designated area is displayed in a separate window with a thick line. As described above, by selectively designating the complex area, it is possible to perform image processing only on the complex area desired by the photographer.

(タッチパネルエリアを本窓に表示する構成(外縁表示))
また、図21に示すように、指定領域の外縁は、表示画面に表示されたスルー画像に対して重畳して表示されてもよい。このように、複雑領域を別窓に表示し、指定領域をメイン画面に表示することで、指定領域の外縁がどこまでなのかを撮影者が認識し易くなる。
(Configuration to display the touch panel area on the main window (outer edge display))
Further, as shown in FIG. 21, the outer edge of the designated area may be displayed so as to be superimposed on the through image displayed on the display screen. Thus, by displaying the complex area in a separate window and displaying the designated area on the main screen, the photographer can easily recognize how far the outer edge of the designated area is.

また、撮影者がタッチする領域をメイン画面上に設定し、別窓は複雑領域の表示のみに限定してもよい。このような構成にすることで、撮影者が複雑領域を選択し易くなる。なお、指定領域は複雑領域に限定されるものではなく、任意の画素領域であってもよい。但し、表示された複雑領域上をタッチすることで、その複雑領域が指定領域として選択されるように構成されている方が高い操作性を実現できるかもしれない。このような表示設定をユーザにより任意に行えるようにしておくことで利便性が高まるであろう。   Further, an area touched by the photographer may be set on the main screen, and the separate window may be limited to display only the complex area. With this configuration, the photographer can easily select a complex area. The designated area is not limited to a complex area, and may be an arbitrary pixel area. However, it may be possible to achieve higher operability when the complex area is selected as the designated area by touching the displayed complex area. Convenience will be improved by allowing such display settings to be arbitrarily performed by the user.

(タッチパネルエリアを本窓に表示する構成(オブジェクト表示))
次に、図22を参照する。図22には、タッチして指定された画素領域を所定形状のオブジェクトで表示する構成が示されている。図22の例では、タッチした部分に円形の指定領域が表示される構成が描画されている。この例では、タッチした時間的な長さに応じて円の直径が大きくなるように構成されている。つまり、撮影者は、長くタッチすることにより1度のタッチで大きな画素領域を指定することができるのである。
(Configuration to display the touch panel area in the main window (object display))
Reference is now made to FIG. FIG. 22 shows a configuration in which a pixel area specified by touching is displayed as an object having a predetermined shape. In the example of FIG. 22, a configuration in which a circular designated area is displayed on the touched portion is drawn. In this example, the diameter of the circle is increased according to the touched time length. That is, the photographer can designate a large pixel area by one touch by touching for a long time.

また、オブジェクトの形状としては、図22のように円形でもよいが、例えば、三角形や四角形等の略多角形、楕円形、星形、瓢箪形等、任意の形状に設定されていてもよい。さらに、タッチの長さに応じてオブジェクトが均等に拡大するように構成されていてもよいが、例えば、複雑領域の外縁に沿って拡大するように構成されていてもよい。オブジェクトが複雑領域の外縁をはみ出さないように拡大することで、撮影者は、複雑領域の一部分だけを容易に選択することが可能になる。また、複雑領域が階層的に表示されている場合には、各階層における複雑領域の外縁に沿って指定領域が拡大するように構成されていてもよい。   The shape of the object may be circular as shown in FIG. 22, but may be set to an arbitrary shape such as a substantially polygon such as a triangle or a quadrangle, an ellipse, a star, or a saddle. Furthermore, the object may be configured to expand uniformly according to the length of the touch, but may be configured to expand along the outer edge of the complex region, for example. By enlarging the object so that it does not protrude from the outer edge of the complex area, the photographer can easily select only a part of the complex area. Moreover, when the complex area is displayed hierarchically, the designated area may be configured to expand along the outer edge of the complex area in each hierarchy.

上記の例では、タッチの長さに応じてオブジェクトが広がるように構成されていたが、本実施形態はこれに限定されない。例えば、タッチする際の押圧力に応じてオブジェクトが拡大するように構成されていてもよいし、タッチした指等をスライドさせて描かれた軌跡の形状に応じて拡大するように構成されていてもよい。また、タッチされた指の本数や接触面積に応じて拡大率が変更されるように構成されていてもよい。   In the above example, the object is configured to spread according to the length of the touch, but the present embodiment is not limited to this. For example, the object may be configured to expand according to the pressing force at the time of touching, or may be configured to expand according to the shape of the locus drawn by sliding the touched finger or the like. Also good. Further, the enlargement ratio may be changed according to the number of touched fingers and the contact area.

(複雑領域の絞り込み(色))
次に、図23を参照する。図23には、メイン画面に画像と複雑領域とを重畳表示する表示構成が示されている。さらに、図23には、複雑領域を色で絞り込むための色指定バーが重畳表示されている。この色指定バーには、色指定用のスライドバーと、輝度指定用のスライドバーとが設けられている。
(Refine complex area (color))
Reference is now made to FIG. FIG. 23 shows a display configuration in which an image and a complex area are superimposed and displayed on the main screen. Further, in FIG. 23, a color designation bar for narrowing down the complex area by color is superimposed and displayed. The color designation bar includes a color designation slide bar and a luminance designation slide bar.

色指定用のスライドバーにより色が指定されると、表示画面上に表示された複雑領域の中で、指定色に一致又は近い色の領域のみが表示され、他の複雑領域の指定が解除される。同様に、輝度指定用のスライドバーにより輝度が指定されると、表示画面上に表示された複雑領域の中で、指定輝度に一致又は近い輝度の領域のみが表示され、他の複雑領域の指定が解除される。つまり、色指定バーで指定された指定色と指定輝度との組み合わせに適合する複雑領域にのみが表示され、他の複雑領域の指定が解除される。   When a color is specified by the color designation slide bar, only the color area that matches or is close to the specified color is displayed in the complex area displayed on the display screen, and the designation of other complex areas is canceled. The Similarly, when the brightness is specified by the brightness specifying slide bar, only the area of the brightness that matches or is close to the specified brightness is displayed in the complex area displayed on the display screen. Is released. That is, only the complex area that matches the combination of the designated color designated by the color designation bar and the designated luminance is displayed, and the designation of other complex areas is cancelled.

背景に含まれる複雑領域と前景に含まれる複雑領域とは、色彩や明るさが異なる場合が多い。また、同種の被写体は、同系色を含む場合が多い。そのため、複雑さを持つ同種類の被写体を複雑領域として指定したい場合に色情報による絞り込み表示が有効である。つまり、色情報による絞り込み表示が行われることで、撮影者が所望の複雑領域を容易に特定できるようになるのである。   The complex area included in the background and the complex area included in the foreground often have different colors and brightness. In addition, the same type of subject often includes similar colors. For this reason, the narrow-down display based on color information is effective when it is desired to designate the same type of subject with complexity as a complex area. That is, the narrowed display based on the color information is performed so that the photographer can easily specify a desired complex area.

(プリセット領域の指定)
次に、図24を参照する。図24には、複雑領域が表示されないプリセット領域が設定されている表示構成が示されている。撮影者が撮影範囲から外す予定が無く、画質を落としたくない画素領域に対しては、予めプリセット領域を設定しておき、その領域に複雑領域を示す模様等が表示されないようにしておいてもよい。このような表示構成にすることで、複雑領域を回避するために撮影者が誤って重要な領域を撮影範囲から外してしまったり、割り当てビット量を下げる指定領域を設定してしまったりすることが防げる。また、撮影者にとって複雑さの関係ない領域に複雑領域を示す模様が表示されるという煩わしさを避けることが可能になり、撮影者が撮影に集中することができるようになる。
(Specify preset area)
Reference is now made to FIG. FIG. 24 shows a display configuration in which a preset area where a complex area is not displayed is set. For a pixel area where the photographer has no plan to remove from the shooting range and does not want to reduce the image quality, a preset area may be set in advance, and a pattern indicating a complex area may not be displayed in that area. Good. By using such a display configuration, the photographer may accidentally remove important areas from the shooting range in order to avoid complex areas, or set designated areas that reduce the allocated bit amount. I can prevent it. In addition, it is possible to avoid the trouble of displaying a pattern indicating a complex area in an area that does not have complexity for the photographer, and the photographer can concentrate on photographing.

(色による複雑領域の表示)
次に、図25を参照する。図25の例は、複雑領域を色や濃淡等で表現する場合の例である。表現の制約上、メッシュで表示しているが、例えば、このメッシュの部分を青や赤といった目立つ色で塗り潰すように表現することもできる。色による表現は、模様による表現に比べて表現の自由度が高まるという点で有利である。色の場合、色彩や明るさが調整できるため、複雑さの度合いに応じて色を変えたり、明るさを変えたりすることができる。その一例を示したのが図26である。複雑さを示す評価値に応じて色の濃淡を変えると、図26のように表現される。ここではメッシュの濃淡で表現しているが、それぞれの段階に異なる色を割り当てることにより、撮影者が複雑さの度合いを認識し易い表現にすることが可能になる。
(Display of complex area by color)
Reference is now made to FIG. The example of FIG. 25 is an example in the case where a complex area is expressed by color, shading, or the like. Although it is displayed as a mesh due to restrictions on expression, for example, the mesh portion can be expressed so as to be painted with a conspicuous color such as blue or red. Expression by color is advantageous in that the degree of freedom of expression is higher than expression by pattern. In the case of a color, since the color and brightness can be adjusted, the color can be changed or the brightness can be changed according to the degree of complexity. An example is shown in FIG. When the shade of the color is changed according to the evaluation value indicating the complexity, it is expressed as shown in FIG. Here, the expression is expressed by the density of the mesh, but by assigning different colors to the respective stages, it is possible to make the expression easy for the photographer to recognize the degree of complexity.

(複雑領域の表示と調整メニューの表示)
次に、図27を参照する。図27は、複雑領域が検出された場合に、撮像装置400がユーザに対して調整方法の選択を促すための表示メニュー画面である。上記の通り、撮像装置400は、複雑領域に対して画像処理を施したり、割り当てビット量を変化させたりすることができる。そこで、撮像装置400は、複雑領域が検出されると、その複雑領域又はユーザにより指定された領域に対し、どのような画像処理等を施すべきかを選択させるのである。そして、ユーザにより選択されると、撮像装置400は、その選択された方法に基づいて画像処理等を実行するのである。
(Display of complex area and adjustment menu)
Reference is now made to FIG. FIG. 27 is a display menu screen for the imaging apparatus 400 to prompt the user to select an adjustment method when a complex area is detected. As described above, the imaging apparatus 400 can perform image processing on the complex area and change the allocated bit amount. Therefore, when a complex area is detected, the imaging apparatus 400 selects what kind of image processing or the like should be performed on the complex area or the area designated by the user. When selected by the user, the imaging apparatus 400 executes image processing or the like based on the selected method.

(ユーザの撮像操作に関するヒントの表示)
次に、図28を参照する。図28は、複雑領域が検出された場合に、撮像装置400がユーザに対して複雑領域を回避するための調整方法を提示する画面である。
(Display of hints related to user imaging operations)
Reference is now made to FIG. FIG. 28 is a screen on which the imaging apparatus 400 presents an adjustment method for avoiding the complex area to the user when the complex area is detected.

繰り返しになるが、複雑領域の回避は、画像処理を施すまでもなく、アングル調整等により実現することができる。撮像範囲に複雑領域が多く含まれている場合、複雑領域の多くを撮像範囲から除外することで、エンコード後の映像データ量が大きく削減される上、映像品質の大きな向上が得られるのである。但し、多くの撮影者は、複雑領域を容易に認識できず、その複雑領域の回避方法を瞬時に判断できない。そこで、図28に示すように、撮像装置400からユーザに複雑領域の回避方法を提示するのである。   Again, avoidance of complex areas can be realized by angle adjustment or the like without performing image processing. When a large number of complex areas are included in the imaging range, by excluding most of the complex areas from the imaging range, the amount of video data after encoding is greatly reduced, and a great improvement in video quality can be obtained. However, many photographers cannot easily recognize a complex area and cannot instantly determine how to avoid the complex area. Therefore, as shown in FIG. 28, the imaging apparatus 400 presents a method for avoiding the complex area to the user.

このとき、撮像装置400は、画面の左側に複雑領域が多く含まれる場合は、アングルを右にずらすようにユーザに指示する。このとき、撮像装置400は、複雑さの度合いが大きい複雑領域が含まれる部分を撮像範囲から回避するようにアングルを移動させる方法を提示するように構成されていてもよい。もちろん、アングルだけではなく、フォーカスやズーム等、複雑領域を回避するための構図調整に関する一又は複数のヒントをユーザに提示してもよい。このような構成にすることで、ユーザは、複雑領域を正確に認識していなくても、或いは、その回避行動を瞬時に判断できなくても、複雑領域を容易に回避して高画質な映像を撮影することが可能になる。   At this time, the imaging apparatus 400 instructs the user to shift the angle to the right when there are many complex areas on the left side of the screen. At this time, the imaging apparatus 400 may be configured to present a method of moving the angle so as to avoid a part including a complex area with a high degree of complexity from the imaging range. Of course, not only the angle but also one or a plurality of hints related to composition adjustment for avoiding complicated areas such as focus and zoom may be presented to the user. By adopting such a configuration, even if the user does not recognize the complex area accurately or cannot immediately determine the avoidance action, the user can easily avoid the complex area and obtain a high-quality image. Can be taken.

(プリセットメニューの表示)
次に、図29を参照する。図29は、ユーザにプリセットメニューを表示させるためのメニュー画面を示す説明図である。プリセットメニューとしては、例えば、「動画チャット」「Webアップロード」「運動会」「自然・風景」「ドラマ撮影」等がある。これらのプリセットメニューが選択されると、図29に示すように、コメントが表示される。例えば、「Webアップロード」の場合、「画面外枠付近の複雑領域を表示します。複雑領域のビットレートを下げます。」といったコメントが表示される。さらに、ユーザ指定の場合、「複雑さを表示する領域や、閾値を自由に設定できます。複雑領域への処理も自由に行えます。」等のコメントが表示される。
(Preset menu display)
Reference is now made to FIG. FIG. 29 is an explanatory diagram showing a menu screen for displaying a preset menu to the user. Examples of the preset menu include “video chat”, “Web upload”, “athletic meet”, “nature / landscape”, and “drama shooting”. When these preset menus are selected, comments are displayed as shown in FIG. For example, in the case of “Web upload”, a comment such as “Display a complex area near the outer frame of the screen. Lower the bit rate of the complex area” is displayed. Furthermore, in the case of user designation, a comment such as “an area for displaying complexity and a threshold value can be freely set. Processing to a complex area can also be freely performed” is displayed.

(パラメータの調整画面)
次に、図30を参照する。図30は、ユーザにより画像処理方法が選択された場合に、そのパラメータを動的に調整するための表示構成を示すものである。図30に示すように、表示画面には調整バーが表示され、この調整バーを操作することにより、例えば、LPFのパラメータが変更できる。このパラメータを変更すると、変更後のパラメータに基づいて複雑領域にLPFが施されて表示される。もちろん、調整パラメータとしては、LPFに限定されず、被写界深度や減色度合い、割り当てビット量等であってもよい。このように、画像処理後の映像が確認でき、インタラクティブにパラメータが調整できることで、複雑領域に対する画像処理の効果が容易に確認できるようになる。
(Parameter adjustment screen)
Reference is now made to FIG. FIG. 30 shows a display configuration for dynamically adjusting the parameters when an image processing method is selected by the user. As shown in FIG. 30, an adjustment bar is displayed on the display screen, and by operating this adjustment bar, for example, parameters of the LPF can be changed. When this parameter is changed, LPF is applied to the complex area based on the changed parameter and displayed. Of course, the adjustment parameter is not limited to the LPF, and may be a depth of field, a degree of color reduction, an allocated bit amount, or the like. As described above, the video after the image processing can be confirmed and the parameters can be adjusted interactively, so that the effect of the image processing on the complex area can be easily confirmed.

[ハードウェア構成(情報処理装置)]
上記装置が有する各構成要素の機能は、例えば、図31に示すハードウェア構成を有する情報処理装置により、上記の機能を実現するためのコンピュータプログラムを用いて実現することが可能である。図31は、上記装置の各構成要素が有する機能を実現することが可能な情報処理装置のハードウェア構成を示す説明図である。
[Hardware configuration (information processing equipment)]
The function of each component included in the above-described device can be realized, for example, by an information processing device having a hardware configuration illustrated in FIG. 31 using a computer program for realizing the above-described function. FIG. 31 is an explanatory diagram showing a hardware configuration of an information processing apparatus capable of realizing the functions of each component of the apparatus.

この情報処理装置の形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS(Personal Handy−phone System)、PDA(Personal Digital Assistant)等の携帯情報端末、ゲーム機、又は各種の情報家電等の形態がこれに含まれる。   The form of this information processing apparatus is arbitrary. For example, a personal computer, a mobile phone, a personal information system such as a personal handy phone system (PHS), a personal digital assistant (PDA), a game machine, or various information appliances This includes forms.

図31に示すように、この情報処理装置は、主に、CPU(Central Processing Unit)902と、ROM(Read Only Memory)904と、RAM(Random Access Memory)906と、ホストバス908と、ブリッジ910と、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926とにより構成される。   As shown in FIG. 31, this information processing apparatus mainly includes a CPU (Central Processing Unit) 902, a ROM (Read Only Memory) 904, a RAM (Random Access Memory) 906, a host bus 908, and a bridge 910. An external bus 912, an interface 914, an input unit 916, an output unit 918, a storage unit 920, a drive 922, a connection port 924, and a communication unit 926.

CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、例えば、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する。RAM906は、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等を一時的又は永続的に格納する。これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908によって相互に接続されている。また、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続されている。   The CPU 902 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation of each component or a part thereof based on various programs recorded in the ROM 904, the RAM 906, the storage unit 920, or the removable recording medium 928. . The ROM 904 stores, for example, a program read by the CPU 902 and data used for calculation. The RAM 906 temporarily or permanently stores, for example, a program that is read into the CPU 902 and various parameters that change as appropriate when the program is executed. These components are connected to each other by, for example, a host bus 908 capable of high-speed data transmission. The host bus 908 is connected to an external bus 912 having a relatively low data transmission speed via a bridge 910, for example.

入力部916は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等の操作手段である。また、入力部916は、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントロール手段(所謂、リモコン)であってもよい。なお、入力部916は、上記の操作手段を用いて入力された情報を入力信号としてCPU902に伝送するための入力制御回路等により構成されている。   The input unit 916 is an operation unit such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever. The input unit 916 may be remote control means (so-called remote controller) capable of transmitting a control signal using infrared rays or other radio waves. Note that the input unit 916 includes an input control circuit for transmitting information input using the above-described operation means to the CPU 902 as an input signal.

出力部918は、例えば、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、PDP(Plasma DisplayPanel)、又はELD(Electro−Luminescence Display)等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。   The output unit 918 is, for example, a display device such as a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), or an ELD (Electro-Luminescence Display), an audio device such as a speaker, a headphone, or the like. It is a device capable of visually or audibly notifying acquired information to a user, such as a mobile phone or a facsimile.

記憶部920は、各種のデータを格納するための装置であり、例えば、ハードディスクドライブ(HDD;Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等により構成される。   The storage unit 920 is a device for storing various data, and includes, for example, a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, or a magneto-optical storage device. Is done.

ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、コンパクトフラッシュ(登録商標)(CF;CompactFlash)、メモリースティック、又はSDメモリカード(Secure Digital memory card)等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit Card)、又は電子機器等であってもよい。   The drive 922 is a device that reads information recorded on a removable recording medium 928 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 928. The removable recording medium 928 is, for example, a DVD medium, a Blu-ray medium, an HD DVD medium, a compact flash (registered trademark) (CF; CompactFlash), a memory stick, or an SD memory card (Secure Digital memory card). Of course, the removable recording medium 928 may be, for example, an IC card (Integrated Circuit Card) on which a non-contact IC chip is mounted, an electronic device, or the like.

接続ポート924は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。   The connection port 924 is a port for connecting an external connection device 930 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there. The external connection device 930 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder.

通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN(Local Area Network)、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。   The communication unit 926 is a communication device for connecting to the network 932. For example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB), optical communication A router, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communications. The network 932 connected to the communication unit 926 is configured by a wired or wireless network, such as the Internet, home LAN, infrared communication, visible light communication, broadcast, or satellite communication.

[ユースケース]
最後に、ユースケースについて述べる。
[Use Case]
Finally, the use case is described.

「動画チャット」に用いる場合、ユーザは、方向変更やズーム程度の操作しか行わない。また、ユーザは、自分の顔や相手に見せたいものだけが綺麗に撮影できればよいと考える。場合によっては、匿名性を高めるため、顔の部分だけ画質を落とすこともある。さらに、動画サイズを最小限に抑えたいという要求がある。「動画チャット」は、このようなユーザを想定したものである。こうしたユーザにとっては、複雑さ表示を見ながらカメラの向きやレイアウトを変えられるため、相手から見やすいようにリアルタイムに調整することができるようになる。「Webアップロード」の場合も、最小限のデータ量で重要部分だけにビットレートを割り当てるという点で同様である。   When used for “video chat”, the user only performs operations such as changing the direction and zooming. In addition, the user thinks that only what he / she wants to show his / her face and the other party needs to be beautifully photographed. In some cases, in order to increase anonymity, the image quality of only the face portion may be reduced. In addition, there is a demand for minimizing the video size. “Video chat” is intended for such users. For these users, the orientation and layout of the camera can be changed while looking at the complexity display, so that the user can make adjustments in real time so that it can be easily seen by the other party. The same applies to “Web upload” in that a bit rate is assigned only to an important part with a minimum amount of data.

「運動会」撮影に用いる場合、人の動きが多く、木々や緑が多いため、圧縮ノイズが発生しやすい。また、撮影者は、自分の子供を中心に綺麗に撮りたいと考えている。さらに、混み合った場所で動く被写体を撮影しているため、カメラの動きが大きい。こうした状況において、撮影ポジションをどこに設定するかが非常に重要である。このような場合に、徒競走等で子供が走っている場面を含みつつ、背景の複雑領域が含まれないような撮影ポジションを予め確認することができる。また、複雑領域が含まれる角度を予め確認しておき、その角度になったら子供にズームする等の調整により、複雑領域を回避することができるようになる。   When used for "athletic meet" photography, there is a lot of human movement and there are many trees and greens, so compression noise is likely to occur. In addition, the photographer wants to shoot beautifully around his child. Furthermore, since the subject moving in a crowded place is photographed, the movement of the camera is large. In such a situation, where to set the shooting position is very important. In such a case, it is possible to confirm in advance a shooting position that includes a scene where a child is running in a race or the like but does not include a complex background area. In addition, it is possible to avoid the complex area by checking the angle including the complex area in advance and adjusting the zoom to the child when the angle is reached.

「ドラマ撮影」に用いる場合、ビットレートは可能な限り下げたくないという要求がある。また、背景に複雑な部分があると、視聴者にとって所謂うるさい画になってしまうため、このような状況を避けたいという要求がある。こうした要求に応えるため、ドラマや映画を撮影する場合、ロケーションハンティングと呼ばれる撮影場所の探索を行う。その際、撮像装置400を用いると、複雑さを考慮して撮影場所の探索を容易に行うことができるようになる。また、複雑さ表示の閾値を設定しておけば、風等の外乱を考慮した上で上記の要求に応じた撮影場所を決定することができる。   When used for “drama shooting”, there is a demand for reducing the bit rate as much as possible. In addition, if there is a complicated part in the background, it will be a so-called noisy picture for the viewer, and there is a demand to avoid such a situation. In order to meet these demands, when shooting a drama or a movie, a search for a shooting location called location hunting is performed. At that time, if the imaging apparatus 400 is used, it is possible to easily search for a shooting location in consideration of complexity. In addition, if a threshold value for complexity display is set, it is possible to determine a shooting location according to the above request in consideration of disturbances such as wind.

急な場面変化等への対応という点に関しては、生放送に使う撮影機器に対して撮像装置400の技術を好適に適用することができる。生放送の場合、ロケーションハンティングができないため、撮影しながら急な場面変化にリアルタイムで応答しなければならないからである。このような場合に撮像装置400の技術を適用すると、インタラクティブに場面変化に対応することが可能になる。   With respect to dealing with sudden scene changes and the like, the technology of the imaging apparatus 400 can be suitably applied to imaging equipment used for live broadcasting. This is because location hunting is not possible in live broadcasting, and it is necessary to respond in real time to sudden scene changes while shooting. If the technique of the imaging apparatus 400 is applied in such a case, it becomes possible to respond to a scene change interactively.

[まとめ]
デジタル撮影の場合、複雑な背景をあまり含まない絵作りをすれば、同じ映像でもビットレートを落とすことができる。しかし、自動的に構図を変更すると、映像がおかしくなってしまう。また、カメラマンには、多くビットレートが割かれる領域が分からない。同じ被写体を撮影していても、多少構図を上下左右に移動させることにより、映像に含まずとも良い複雑な画像領域を回避して撮影することが可能になる。その結果、ビットレートを下げることができるようになる。さらに、カメラマンがデータ量を気にしながら撮影するといったストレスを解消できる。
[Summary]
In the case of digital photography, you can reduce the bit rate of the same video if you make a picture that does not include a complicated background. However, if the composition is automatically changed, the video will become strange. In addition, the photographer does not know the area where the bit rate is often divided. Even if the same subject is shot, it is possible to avoid a complicated image area that does not need to be included in the video by moving the composition slightly up and down and left and right. As a result, the bit rate can be lowered. Furthermore, it is possible to eliminate the stress that the photographer shoots while taking care of the data amount.

このような状況を実現するには、複雑領域の表示に関してリアルタイム性が重要である。また、インタラクティブな操作感が得られることも重要である。全体の符号量を抑制するために、各映像フレームに割り当てる符号量の閾値が決まっている場合、1つのフレームの中で多くの符号量を割り当てるべき領域をインタラクティブに設定できるということは非常に大きなメリットである。また、ある場面だと綺麗に写っているが、人が入ってきたり、複雑な領域が入ってくると映像の品質が低下してしまうといった状況を回避するために好適に用いることができる。   In order to realize such a situation, real-time property is important for displaying a complex area. It is also important to obtain an interactive operational feeling. In order to suppress the overall code amount, when a code amount threshold value to be assigned to each video frame is determined, it is very large that an area where a large amount of code amount should be assigned in one frame can be set interactively. It is a merit. Also, it can be suitably used to avoid a situation in which a certain scene is clearly reflected, but the quality of the image is degraded when a person enters or a complicated area enters.

本実施形態の効果について列挙する。まず、ユーザは、表示された複雑領域を見ながら、カメラワーク、構図、カメラ設定、フォーカス、ズーム、アイリス、使用レンズ、光学フィルタ、被写界深度等を変更・調整することができるようになる。これにより、高画質、低容量、低ノイズ、うるさくない画像等、ユーザの所望する画像を撮影するための目安が得られる.また、インターネットを介して遣り取りすることが前提となるような低ビットレートでの撮影が要求される映像コンテンツ等においても、画像中の重要でない部分に存在する複雑又は動きの激しい領域が発見されやすくなるというメリットがある。   The effects of this embodiment will be enumerated. First, the user can change / adjust camera work, composition, camera settings, focus, zoom, iris, lens used, optical filter, depth of field, etc. while viewing the displayed complex area. . As a result, it is possible to obtain a guideline for capturing an image desired by the user, such as an image with high image quality, low capacity, low noise, and noisy. In addition, even in video content that requires shooting at a low bit rate that is assumed to be exchanged via the Internet, a complex or intensely moving region that is present in an unimportant part of an image is easily found. There is a merit that

より高い画質が求められる映像コンテンツにおいても同様である。これらの映像コンテンツにおいて、複雑又は動きの激しい領域を撮影領域からはずす、フォーカスをずらす、若しくは、割り当てるビット量を減らすことで、重要な領域の画質低下を軽減することができる。また、記録された動画を再生する前に、どの程度のノイズがのっているか、どの程度の画質が得られたのかを把握することができる。   The same applies to video content that requires higher image quality. In these video contents, it is possible to reduce image quality degradation in important areas by removing complicated or intensely moving areas from the shooting area, shifting the focus, or reducing the amount of allocated bits. In addition, it is possible to grasp how much noise is present and how much image quality is obtained before reproducing the recorded moving image.

さらに重要な効果として、例えば、ユーザが撮像装置を向ける方向を若干ずらすといった簡単な操作を行うことにより画質の向上等が図れるという効果がある。但し、このような効果を得るために、本実施形態では、複雑領域、及び動きの激しい領域を元の画像上に重ねて表示することで、画像のどの領域、どの被写体が複雑なのか、動きが激しいのかを特定できるようにしている。その結果、ユーザは、撮像装置を若干ずらす方向を容易に特定することができるのである。   Further, as an important effect, for example, there is an effect that the image quality can be improved by performing a simple operation such as slightly shifting the direction in which the user points the imaging apparatus. However, in order to obtain such an effect, in this embodiment, a complicated region and a region with high movement are displayed on the original image so as to indicate which region of the image and which subject is complex, It is possible to identify whether the is intense. As a result, the user can easily specify the direction in which the imaging device is slightly shifted.

但し、このような処理にはリアルタイム性が求められるが、本実施形態の場合、被写体の動きとモニタ上に表示される複雑さ、動きの激しさの評価結果の時間的な遅れが少ないので、動きのある画像の撮影時にも違和無く撮像方向の調整等が行えるのである。本実施形態に係る技術は、動画の記録等の使用法だけでなく、画像の複雑さ、動きの激しさを測るための装置等としても使用できる。例えば、都市景観や芸術品の評価にも応用することができる。なお、本実施形態では、複雑なアルゴリズムが用いられていないため、既存の撮像装置にそれほどの手間を掛けずに本実施形態の技術を搭載することができる。   However, such processing requires real-time properties, but in the case of this embodiment, there is little time delay in the evaluation results of the movement of the subject, the complexity displayed on the monitor, and the intensity of the movement. Even when a moving image is captured, the imaging direction can be adjusted without a problem. The technology according to the present embodiment can be used not only as a method for recording moving images but also as an apparatus for measuring the complexity of an image and the intensity of movement. For example, it can be applied to the evaluation of cityscapes and artworks. In the present embodiment, since a complicated algorithm is not used, the technology of the present embodiment can be mounted without much effort on an existing imaging apparatus.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば、上記の撮像装置400は、複雑領域が検出された場合に、スピーカ音が鳴ったり、LED等の光源が点灯したりしてユーザに複雑領域の存在を提示してもよい。   For example, when the complex area is detected, the imaging apparatus 400 may present the existence of the complex area to the user by making a speaker sound or turning on a light source such as an LED.

本発明の一実施形態に係る撮像装置の構成例を示す説明図である。It is explanatory drawing which shows the structural example of the imaging device which concerns on one Embodiment of this invention. 本実施形態に係る画像出力制御部の構成例を示す説明図である。It is explanatory drawing which shows the structural example of the image output control part which concerns on this embodiment. 本実施形態に係る画像信号評価部の構成例を示す説明図である。It is explanatory drawing which shows the structural example of the image signal evaluation part which concerns on this embodiment. 複雑さ領域の検出処理を説明するための説明図である。It is explanatory drawing for demonstrating the detection process of a complexity area | region. 複雑さ領域の検出処理を説明するための説明図である。It is explanatory drawing for demonstrating the detection process of a complexity area | region. 複雑さ領域の検出処理を説明するための説明図である。It is explanatory drawing for demonstrating the detection process of a complexity area | region. 複雑さ領域の検出処理を説明するための説明図である。It is explanatory drawing for demonstrating the detection process of a complexity area | region. 複雑さ領域の検出処理を説明するための説明図である。It is explanatory drawing for demonstrating the detection process of a complexity area | region. 本実施形態に係る撮像装置の構成例を示す説明図である。It is explanatory drawing which shows the structural example of the imaging device which concerns on this embodiment. 本実施形態に係る割り当てビット変更部の構成例を示す説明図である。It is explanatory drawing which shows the structural example of the allocation bit change part which concerns on this embodiment. 本実施形態に係る撮像装置の構成例を示す説明図である。It is explanatory drawing which shows the structural example of the imaging device which concerns on this embodiment. 本実施形態に係る撮像装置の装置構成の一例を示す説明図である。It is explanatory drawing which shows an example of the apparatus structure of the imaging device which concerns on this embodiment. 本実施形態に係る画像処理方法の全体的な流れを示す説明図である。It is explanatory drawing which shows the whole flow of the image processing method which concerns on this embodiment. 本実施形態に係るユーザ操作の全体的な流れを示す説明図である。It is explanatory drawing which shows the whole flow of the user operation which concerns on this embodiment. 本実施形態に係る構図設定操作の流れを示す説明図である。It is explanatory drawing which shows the flow of the composition setting operation which concerns on this embodiment. 本実施形態に係る光学系の設定操作の流れを示す説明図である。It is explanatory drawing which shows the flow of the setting operation of the optical system which concerns on this embodiment. 本実施形態に係る画像処理設定操作の流れを示す説明図である。It is explanatory drawing which shows the flow of image processing setting operation which concerns on this embodiment. 本実施形態に係るエンコード設定操作の流れを示す説明図である。It is explanatory drawing which shows the flow of the encoding setting operation which concerns on this embodiment. 本実施形態に係る複雑領域の表示構成例を示す説明図である。It is explanatory drawing which shows the example of a display structure of the complex area | region which concerns on this embodiment. 本実施形態に係る指定領域の表示構成例を示す説明図である。It is explanatory drawing which shows the example of a display structure of the designation | designated area | region which concerns on this embodiment. 本実施形態に係る指定領域の表示構成例を示す説明図である。It is explanatory drawing which shows the example of a display structure of the designation | designated area | region which concerns on this embodiment. 本実施形態に係る指定領域の表示構成例を示す説明図である。It is explanatory drawing which shows the example of a display structure of the designation | designated area | region which concerns on this embodiment. 本実施形態に係る複雑領域の表示構成例を示す説明図である。It is explanatory drawing which shows the example of a display structure of the complex area | region which concerns on this embodiment. 本実施形態に係るプリセット領域の表示構成例を示す説明図である。It is explanatory drawing which shows the example of a display structure of the preset area | region which concerns on this embodiment. 本実施形態に係る複雑領域の表示構成例を示す説明図である。It is explanatory drawing which shows the example of a display structure of the complex area | region which concerns on this embodiment. 本実施形態に係る複雑領域の表示構成例を示す説明図である。It is explanatory drawing which shows the example of a display structure of the complex area | region which concerns on this embodiment. 本実施形態に係る調整メニューの表示構成例を示す説明図である。It is explanatory drawing which shows the example of a display structure of the adjustment menu which concerns on this embodiment. 本実施形態に係る操作ヒントの表示構成例を示す説明図である。It is explanatory drawing which shows the example of a display structure of the operation hint which concerns on this embodiment. 本実施形態に係るプリセットメニューの表示構成例を示す説明図である。It is explanatory drawing which shows the example of a display structure of the preset menu which concerns on this embodiment. 本実施形態に係るパラメータ調整画面の表示構成例を示す説明図である。It is explanatory drawing which shows the example of a display structure of the parameter adjustment screen which concerns on this embodiment. 本実施形態に係るハードウェア構成例を示す説明図である。It is explanatory drawing which shows the hardware structural example which concerns on this embodiment.

符号の説明Explanation of symbols

100、200 撮像装置
102、202 光学系
104、204 イメージセンサ
130、230 画像処理ブロック
132、232 画像処理部
134、234 エンコーダ
136、236 画像記憶部
138、238 画像出力制御部
140、240 表示パネル
152 画像信号評価部
154 評価結果可視化部
156 画像重畳制御部
172 画像領域分割部
174 周波数解析部
176 解析結果数値化部
239 割り当てビット変更部
252 領域選択部
254 割り当てビット量変更部
256 操作結果出力部
330 画像処理装置
332 画像処理部
334 エンコーダ
336 画像記憶部
337 デコーダ
338 画像出力制御部
340 表示パネル
400 撮像装置
402 イメージセンサ
404 画像処理ブロック
406 制御部
408 操作部
410 表示パネル
412 記録メディア
430 画像処理部
432 前処理回路
434 カメラ信号処理回路
436 画像出力制御部
438 エンコーダ/デコーダ
440 バッファメモリ
442 メディア制御回路
100, 200 Imaging device 102, 202 Optical system 104, 204 Image sensor 130, 230 Image processing block 132, 232 Image processing unit 134, 234 Encoder 136, 236 Image storage unit 138, 238 Image output control unit 140, 240 Display panel 152 Image signal evaluation unit 154 Evaluation result visualization unit 156 Image superposition control unit 172 Image region division unit 174 Frequency analysis unit 176 Analysis result digitization unit 239 Allocation bit change unit 252 Area selection unit 254 Allocation bit amount change unit 256 Operation result output unit 330 Image processing device 332 Image processing unit 334 Encoder 336 Image storage unit 337 Decoder 338 Image output control unit 340 Display panel 400 Imaging device 402 Image sensor 404 Image processing block 406 Control unit 408 Operation unit 410 Display panel 412 Recording media 430 Image processing unit 432 Pre-processing circuit 434 Camera signal processing circuit 436 Image output control unit 438 Encoder / decoder 440 Buffer memory 442 Media control circuit

Claims (8)

エンコード前の画像が表示される表示画面と、
前記エンコード前の画像から複雑な画素領域を検出する複雑領域検出部と、
前記複雑領域検出部により検出された複雑な画素領域を前記表示画面に表示する複雑領域表示部と、
前記画像内の任意領域をユーザが指定領域として指定するための操作入力部と、
前記操作入力部を介して指定された指定領域に所定の画像処理を施す画像処理部と、
を備える、画像処理装置。
A display screen that displays the unencoded image,
A complex region detection unit for detecting a complex pixel region from the image before encoding;
A complex area display unit that displays a complex pixel area detected by the complex area detection unit on the display screen;
An operation input unit for a user to designate an arbitrary area in the image as a designated area;
An image processing unit that performs predetermined image processing on a designated area designated via the operation input unit;
An image processing apparatus comprising:
前記画像処理部は、前記画像を符号化するエンコーダであり、当該画像を符号化する際に前記操作入力部を介して指定された指定領域に比較的多くの符号量又は比較的少ない符号量を割り当てて符号化する、請求項1に記載の画像処理装置。   The image processing unit is an encoder that encodes the image, and a relatively large code amount or a relatively small code amount is added to a designated area designated through the operation input unit when the image is coded. The image processing apparatus according to claim 1, wherein the image processing apparatus performs allocation and encoding. 前記画像処理部は、前記操作入力部を介して指定された指定領域に対し、ローパスフィルタ、減色処理、又は被写界深度の低減処理を施す、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing unit performs a low-pass filter, a color reduction process, or a depth-of-field reduction process on a designated area designated via the operation input unit. 前記操作入力部を介して指定された指定領域の外縁を前記表示画面に表示する指定領域表示部をさらに備え、
前記指定領域表示部は、ユーザにより前記操作入力部が操作された時間の長さに応じて前記指定領域のサイズを拡大する、請求項1に記載の画像処理装置。
A designated area display unit for displaying an outer edge of the designated area designated via the operation input unit on the display screen;
The image processing apparatus according to claim 1, wherein the designated area display unit enlarges the size of the designated area according to a length of time that the operation input unit is operated by a user.
前記指定領域表示部は、前記指定領域のサイズを拡大する際、前記指定領域の外縁が前記複雑領域検出部により検出された複雑な画素領域の外縁に沿うように前記指定領域を拡大する、請求項4に記載の画像処理装置。   The designated area display unit enlarges the designated area so that an outer edge of the designated area is along an outer edge of the complex pixel area detected by the complex area detecting unit when the size of the designated area is enlarged. Item 5. The image processing apparatus according to Item 4. 前記複雑領域検出部は、前記エンコード前の画像から検出される離散コサイン変換係数、ウェーブレット係数、動きベクトルの長さ、フラットネス、又はイントラACが大きな画素領域を前記複雑な画素領域として検出する、請求項1に記載の画像処理装置。   The complex area detection unit detects a pixel area having a large discrete cosine transform coefficient, wavelet coefficient, motion vector length, flatness, or intra AC detected from the pre-encoded image as the complex pixel area. The image processing apparatus according to claim 1. 光学系を介して入射された光から被写体の像を形成する撮像部をさらに備え、
前記撮像部は、前記被写体の像を前記表示画面に表示させると共に、当該被写体の像を前記エンコード前の画像として前記複雑領域検出部に入力する、請求項1に記載の画像処理装置。
An imaging unit that forms an image of a subject from light incident through the optical system;
The image processing apparatus according to claim 1, wherein the imaging unit displays the image of the subject on the display screen, and inputs the image of the subject to the complex region detection unit as the image before the encoding.
エンコード前の画像から複雑な画素領域が検出される複雑領域検出ステップと、
表示画面にエンコード前の画像が表示され、前記複雑領域検出ステップで検出された複雑な画素領域が前記表示画面に表示される複雑領域表示ステップと、
ユーザにより前記画像内の任意領域が指定領域として指定された場合に、少なくとも当該指定領域に対して所定の画像処理が施される画像処理ステップと、
を含む、画像処理方法。
A complex region detection step in which a complex pixel region is detected from an image before encoding;
A complex region display step in which an image before encoding is displayed on the display screen, and the complex pixel region detected in the complex region detection step is displayed on the display screen;
An image processing step in which a predetermined image processing is performed on at least the designated area when an arbitrary area in the image is designated by the user as the designated area;
Including an image processing method.
JP2008160629A 2008-06-19 2008-06-19 Image processing apparatus, and image processing method Withdrawn JP2010004261A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008160629A JP2010004261A (en) 2008-06-19 2008-06-19 Image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008160629A JP2010004261A (en) 2008-06-19 2008-06-19 Image processing apparatus, and image processing method

Publications (1)

Publication Number Publication Date
JP2010004261A true JP2010004261A (en) 2010-01-07

Family

ID=41585596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008160629A Withdrawn JP2010004261A (en) 2008-06-19 2008-06-19 Image processing apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP2010004261A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013535048A (en) * 2010-06-04 2013-09-09 アペリオ・テクノロジーズ・インコーポレイテッド System and method for judging slide quality of digitized microscope slide
JP2015207308A (en) * 2010-03-29 2015-11-19 ソニー株式会社 Data processing apparatus and method, and data processing system
WO2016104831A1 (en) * 2014-12-24 2016-06-30 전자부품연구원 Real-time image recognition method in low specification image device
JPWO2015068329A1 (en) * 2013-11-08 2017-03-09 ソニー株式会社 Cell analysis system, cell analysis program, and cell analysis method
JP2017162055A (en) * 2016-03-08 2017-09-14 株式会社Nttドコモ Image evaluation apparatus and image evaluation program
JP2021061580A (en) * 2019-09-19 2021-04-15 アクシス アーベー Using skip block mask to reduce bitrate from monitoring camera

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207308A (en) * 2010-03-29 2015-11-19 ソニー株式会社 Data processing apparatus and method, and data processing system
US9786052B2 (en) 2010-03-29 2017-10-10 Sony Corporation Image processing apparatus and method for evaluating objects in an image
US10311582B2 (en) 2010-03-29 2019-06-04 Sony Corporation Image processing apparatus and method for evaluating objects in an image
US10692223B2 (en) 2010-03-29 2020-06-23 Sony Corporation Image processing apparatus and method for evaluating objects in an image
JP2013535048A (en) * 2010-06-04 2013-09-09 アペリオ・テクノロジーズ・インコーポレイテッド System and method for judging slide quality of digitized microscope slide
JPWO2015068329A1 (en) * 2013-11-08 2017-03-09 ソニー株式会社 Cell analysis system, cell analysis program, and cell analysis method
US10861154B2 (en) 2013-11-08 2020-12-08 Sony Corporation Cell analysis system, cell analysis program and cell analysis method
WO2016104831A1 (en) * 2014-12-24 2016-06-30 전자부품연구원 Real-time image recognition method in low specification image device
JP2017162055A (en) * 2016-03-08 2017-09-14 株式会社Nttドコモ Image evaluation apparatus and image evaluation program
JP2021061580A (en) * 2019-09-19 2021-04-15 アクシス アーベー Using skip block mask to reduce bitrate from monitoring camera

Similar Documents

Publication Publication Date Title
JP6024110B2 (en) Image processing apparatus, image processing method, program, terminal device, and image processing system
US8045850B2 (en) Image pickup apparatus, image recording apparatus and image recording method
US8279296B2 (en) Information processing apparatus, image-capturing system, reproduction control method, recording control method, and program
CN101371589B (en) Adaptive filtering to enhance video encoder performance
JP5399578B2 (en) Image processing apparatus, moving image processing apparatus, video processing apparatus, image processing method, video processing method, television receiver, program, and recording medium
US8106991B2 (en) Image processing apparatus and image processing method
JP4693522B2 (en) Imaging device
WO2013185699A1 (en) Local image enhancing method and apparatus
WO2016011877A1 (en) Method for filming light painting video, mobile terminal, and storage medium
WO2007126097A1 (en) Image processing device and image processing method
JP2010004261A (en) Image processing apparatus, and image processing method
KR102584523B1 (en) Method and apparatus for reducing color moire, and image processing apparatus using the method
JP2011119974A (en) Panoramic image synthesizer, panoramic image synthesis method, and program
US8718376B2 (en) Apparatus and method for enhancing image in portable terminal
JP2014165530A (en) Image processing system
JP5990903B2 (en) Image generation device
JP2006074114A (en) Image processing apparatus and imaging apparatus
US10348957B2 (en) Image capturing apparatus, method of controlling the same, and storage medium for shooting a still image without interrupting shooting of moving images
KR20110040249A (en) A digital image processing apparatus for recognizing firework, there of method and there of computer-readable storage medium
JP5398562B2 (en) Tracking frame initial position setting device and operation control method thereof
JP2008060876A (en) Image recording apparatus
JP6416255B2 (en) Image processing system and image processing method
JP2021002803A (en) Image processing apparatus, control method therefor, and program
JP5375988B2 (en) Image signal reproducing apparatus, image signal reproducing method, imaging apparatus, and imaging method
JP6679333B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110906