JP2007088959A - Image output apparatus and program - Google Patents

Image output apparatus and program Download PDF

Info

Publication number
JP2007088959A
JP2007088959A JP2005277045A JP2005277045A JP2007088959A JP 2007088959 A JP2007088959 A JP 2007088959A JP 2005277045 A JP2005277045 A JP 2005277045A JP 2005277045 A JP2005277045 A JP 2005277045A JP 2007088959 A JP2007088959 A JP 2007088959A
Authority
JP
Japan
Prior art keywords
image
target
processing
output
output device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005277045A
Other languages
Japanese (ja)
Inventor
Hideo Suzuki
秀夫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2005277045A priority Critical patent/JP2007088959A/en
Publication of JP2007088959A publication Critical patent/JP2007088959A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To surely enhance a section under consideration such as a person regardless of where the person or the like is located in an image when working and outputting an image. <P>SOLUTION: When displaying and outputting an image (output object image) such as a camera photographic image or a television broadcast reception image to a main display unit 9, a CPU 1 specifies a portion of the output object image as a target region, and operates image working processing for enhancing a region to the target region for displaying and outputting the image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、カメラ撮影画像、テレビ放送受信画像などに画像加工処理を施して出力する画像出力装置及びプログラムに関する。   The present invention relates to an image output apparatus and a program for performing image processing on a camera photographed image, a television broadcast received image, and the like and outputting the processed image.

一般に、カメラ撮影画像などの出力対象画像に任意の画像加工処理を施して出力するパーソナルコンピュータにおいては、画像の一部分を強調表示するためにその彩度、明度などを変更したり、当該部分を拡大あるいは縮小するようにしている。その際、ユーザ操作によってその加工範囲及び加工種を任意に指定するようにしているが、画像の一部を加工する毎にユーザ操作が必要となり、ユーザに大きな負担をかけるほか、正確に範囲指定することは困難であった。この場合、従来では、ユーザ操作によって加工範囲を指定しなくても、画像の一部分に加工を施すことが可能な技術として、画像の中央部分を除いてその周辺部分を拡大するようにしたものが知られている(特許文献1参照)。
特開2004−80472号公報
In general, in a personal computer that outputs an image to be output such as a camera-captured image with arbitrary image processing, the saturation, brightness, etc. can be changed or the part can be enlarged to highlight a part of the image. Or it is trying to reduce. At that time, the processing range and processing type are arbitrarily specified by user operation. However, each time a part of the image is processed, user operation is required, which places a heavy burden on the user and specifies the range accurately. It was difficult to do. In this case, conventionally, as a technique capable of processing a part of an image without specifying a processing range by a user operation, a technique for enlarging the peripheral part except the central part of the image is available. It is known (see Patent Document 1).
JP 2004-80472 A

ところで、一般に、人物などの被写体を撮影する際には、ファインダー画面の中央位置に被写体が来るようにカメラ向きを合わせて撮影するようにしているため、上述した従来技術では、被写体像の周辺部分が拡大されるだけであって画像の中央部分にある被写体部分は拡大対象外となる。  By the way, in general, when shooting a subject such as a person, the camera is oriented so that the subject comes to the center of the viewfinder screen. Is enlarged, and the subject portion at the center of the image is excluded from the enlargement target.

この発明の課題は、画像を加工して出力する場合に、人物などが画像内のどこに位置しているかに拘らず、人物などの注目部分を確実に強調できるようにすることである。   An object of the present invention is to make it possible to reliably emphasize a portion of interest such as a person regardless of where the person or the like is located in the image when the image is processed and output.

請求項1記載の発明は、出力対象の画像に対して画像加工処理を施して出力する画像出力装置であって、出力対象画像の一部分を注目部分として特定する特定手段と、この特定手段によって特定された注目部分に対して当該部分を強調するための画像加工処理を施す加工手段と、この加工手段によって加工された画像を出力する出力手段とを具備したことを特徴とする。
更に、コンピュータに対して、上述した請求項1記載の発明に示した主要機能を実現させるためのプログラムを提供する(請求項9記載の発明)。
なお、出力対象画像は、カメラ撮影画像に限らず、例えば、テレビ放送受信画像などであってもよく、画像の種類は問わない。
The invention described in claim 1 is an image output device that performs image processing on an output target image and outputs the processed image, a specifying unit that specifies a part of the output target image as a target portion, and a specifying unit by the specifying unit The image processing apparatus includes a processing unit that performs image processing for emphasizing the portion of interest that has been performed, and an output unit that outputs an image processed by the processing unit.
Furthermore, a program for realizing the main functions shown in the invention described in claim 1 is provided to the computer (the invention described in claim 9).
Note that the output target image is not limited to a camera-captured image, and may be, for example, a television broadcast reception image, and the type of image is not limited.

なお、上述した請求項1記載の発明は次ぎのようなものであってもよい。
前記特定手段は、出力対象画像を解析することによってその中に含まれている特定物を注目部分として認識する(請求項2記載の発明)。
The invention described in claim 1 described above may be as follows.
The specifying unit recognizes a specific object included in the output target image as an attention portion by analyzing the output target image (the invention according to claim 2).

前記特定手段は、出力対象画像を解析することによってその変化状態に基づいて注目部分を認識する(請求項3記載の発明)。   The specifying unit recognizes a target portion based on the change state by analyzing the output target image (the invention according to claim 3).

前記特定手段は、撮影画像としての出力対象画像の中からカメラ撮影時に焦点を合わせた被写体部分を注目部分として特定する(請求項4記載の発明)。   The specifying unit specifies a subject portion focused at the time of camera shooting from an output target image as a shot image as an attention portion.

前記特定手段は、出力対象画像に付加されている付加情報に基づいて当該画像内の注目部分を特定する(請求項5記載の発明)。   The specifying unit specifies a target portion in the image based on additional information added to the output target image (the invention according to claim 5).

前記画像加工処理は、画像拡大処理あるいは画像縮小処理であり、前記加工手段は、時間経過あるいはユーザ操作に応じて注目部分を段階的に順次拡大あるいは縮小する(請求項6記載の発明)。   The image processing process is an image enlargement process or an image reduction process, and the processing means sequentially enlarges or reduces the target portion step by step in accordance with the passage of time or a user operation.

前記画像加工処理は、画像拡大処理あるいは画像縮小処理であり、前記加工手段は、注目部分とその周辺部分を拡大処理あるいは縮小処理する際に、注目部分とその周辺部分とではその拡大率あるいは縮小率を変えて拡大処理あるいは縮小処理を実行する(請求項7記載の発明)。   The image processing process is an image enlargement process or an image reduction process, and the processing means enlarges or reduces the target part and its peripheral part when the target part and its peripheral part are enlarged or reduced. The enlargement process or the reduction process is executed at a different rate (the invention according to claim 7).

前記加工手段は、前記注目部分に対して画像拡大処理、縮小処理、色変更処理、ハイライト加工処理のうち、少なくともその何れの加工処理によって注目部分を加工する(請求項8記載の発明)。   The processing means processes the target portion by at least any one of image enlargement processing, reduction processing, color change processing, and highlight processing processing on the target portion (the invention according to claim 8).

請求項1記載の発明によれば、出力対象画像の一部分を注目部分として特定すると共に、この注目部分に対して当該部分を強調するための画像加工処理を施して出力するようにしたから、人物などが画像内のどこに位置しているかに拘らず、人物などの注目部分を確実に強調することができ、注目部分の視認性を高めることが可能となる。   According to the first aspect of the present invention, since a part of the output target image is specified as the target part and the image processing process for emphasizing the target part is performed on the target part, the person is output. Regardless of where in the image, etc., the attention part such as a person can be surely emphasized, and the visibility of the attention part can be improved.

請求項2記載の発明によれば、上述した請求項1記載の発明と同様の効果を有するほか、出力対象画像を解析することによってその中に含まれている特定物を注目部分として認識するようにしたから、画像解析によって特定物、例えば、人物、建物、自動車を注目部分として画像認識することができる。この場合、全体形状をパターン認識したり、各構成要素の位置関係及び形状などの特徴を分析して認識するなど、その認識の仕方は任意である。また、特定物の一部あるいは全体、例えば、人物の顔部分あるいは人物の全体を注目部分としてもよい。  According to the invention described in claim 2, in addition to having the same effect as that of the invention described in claim 1, the specific object included in the output target image is recognized as the attention part by analyzing the output target image. Therefore, a specific object, for example, a person, a building, or a car can be recognized as an attention part by image analysis. In this case, the recognition method is arbitrary, such as pattern recognition of the entire shape or analysis and recognition of features such as the positional relationship and shape of each component. Further, a part or the whole of a specific object, for example, a person's face part or the whole person may be set as the attention part.

請求項3記載の発明によれば、上述した請求項1記載の発明と同様の効果を有するほか、出力対象画像を解析することによってその変化状態に基づいて注目部分を認識するようにしたから、例えば、コントラスト、彩度、明るさなどの変化の大きさに基づいて注目部分を画像認識することができる。   According to the invention described in claim 3, in addition to having the same effect as that of the invention described in claim 1 described above, the attention portion is recognized based on the change state by analyzing the output target image. For example, the target portion can be image-recognized based on the magnitude of changes such as contrast, saturation, and brightness.

請求項4記載の発明によれば、上述した請求項1記載の発明と同様の効果を有するほか、撮影画像としての出力対象画像の中からカメラ撮影時に焦点を合わせた被写体部分を注目部分として特定するようにしたから、ピントが一番合っている部分を被写体部分(注目部分)として特定することができる。この場合、画像解析によってピントが一番合っている部分を被写体部分として画像認識するようにしてもよい。   According to the invention described in claim 4, in addition to having the same effect as the invention described in claim 1, the subject portion focused at the time of camera shooting is specified as the target portion from the output target image as the shot image. As a result, it is possible to specify the portion in focus that is the best in focus as the subject portion (target portion). In this case, an image may be recognized as a subject portion where the focus is best achieved by image analysis.

請求項5記載の発明によれば、上述した請求項1記載の発明と同様の効果を有するほか、出力対象画像に付加されている付加情報に基づいて注目部分を特定するようにしたから、撮影画像に付加されている属性情報から「焦点位置」を示す情報を取得して被写体部分を注目部分として特定するようにしてもよい。また、デジタルテレビ放送受信画像に付加されている各種の情報を参照することによって注目部分を特定するようにしてもよい。   According to the fifth aspect of the invention, in addition to having the same effect as the first aspect of the invention described above, the attention portion is specified based on the additional information added to the output target image. Information indicating the “focus position” may be acquired from the attribute information added to the image, and the subject portion may be specified as the attention portion. Further, the attention portion may be specified by referring to various types of information added to the digital television broadcast reception image.

請求項6記載の発明によれば、上述した請求項1記載の発明と同様の効果を有するほか、時間経過あるいはユーザ操作に応じて注目部分を段階的に順次拡大あるいは縮小するようにしたから、注目部分を徐々にズームアップあるいはズームダウンしながら当該画像部分に注目を向けさせることができる。したがって、注目部分が徐々に飛び出して来るような感覚あるいは吸い込まれるような感覚を得ることができ、動的変化に富んだ注意喚起力の高い強調出力が可能となる。   According to the invention described in claim 6, in addition to having the same effect as the invention described in claim 1 described above, the attention portion is sequentially enlarged or reduced step by step according to the passage of time or user operation. Attention can be directed to the image portion while gradually zooming up or down the attention portion. Therefore, it is possible to obtain a feeling that the attention part gradually jumps out or is sucked in, and an emphasis output that is rich in dynamic change and has a high alerting power is possible.

請求項7記載の発明によれば、上述した請求項1記載の発明と同様の効果を有するほか、注目部分とその周辺部分を拡大処理あるいは縮小処理する際に、注目部分とその周辺部分とではその拡大率あるいは縮小率を変えて拡大処理あるいは縮小処理を実行するようにしたから、相対的な変化に富んだ注意喚起力の高い強調出力が可能となる。   According to the invention described in claim 7, in addition to having the same effect as the invention described in claim 1 described above, when the attention part and its peripheral part are enlarged or reduced, the attention part and its peripheral part are Since the enlargement process or the reduction process is executed by changing the enlargement ratio or the reduction ratio, it is possible to perform an emphasized output with a high alerting power rich in relative changes.

請求項8記載の発明によれば、上述した請求項1記載の発明と同様の効果を有するほか、注目部分に対して画像拡大処理、縮小処理、色変更処理、ハイライト加工処理のうち、少なくともその何れの加工処理によって注目部分を加工するようにしたから、注目部分の拡大/縮小のほか、色変更処理(色相変更処理、彩度変更処理、明度変更処理)、ハイライト加工処理(コントラスト強調など、様々な加工処理)を施すことができる。   According to the invention described in claim 8, in addition to having the same effect as that of the invention described in claim 1 described above, at least of the image enlargement process, the reduction process, the color change process, and the highlight process for the target portion. Since the target part is processed by any of the processing processes, in addition to enlargement / reduction of the target part, color change processing (hue change processing, saturation change processing, brightness change processing), highlight processing processing (contrast enhancement) Etc.) can be applied.

以下、図1〜図6を参照して本発明の実施例を説明する。
この実施例は、画像出力装置として携帯電話装置に適用した場合を例示したもので、図1は、この携帯電話装置の基本的な構成要素を示したブロック図である。
この携帯電話装置は、2つの筐体(上部筐体、下部筐体)が開閉可能に取り付けられた折り畳み自在なもので、二次電池を主電源として駆動され、通話機能、電子メール機能、インターネット接続機能などのほか、テレビ放送電波を受信して出力するテレビ機能と、このテレビ機能によって受信したテレビ放送を逐次録画する録画機能と、この録画機能によって録画された内容を再生出力したり、外部供給された各種の画像を読み出して再生出力する再生機能などを備えている。
Hereinafter, embodiments of the present invention will be described with reference to FIGS.
This embodiment exemplifies a case where the present invention is applied to a mobile phone device as an image output device. FIG. 1 is a block diagram showing basic components of the mobile phone device.
This mobile phone device is a foldable one in which two cases (upper case and lower case) are attached so as to be openable and closable, driven by a secondary battery as a main power source, and has a call function, e-mail function, Internet In addition to the connection function, etc., a TV function that receives and outputs TV broadcast radio waves, a recording function that sequentially records TV broadcasts received by this TV function, and playback and output of the content recorded by this recording function, It has a playback function that reads out and plays back various supplied images.

CPU1は、記憶部2内の各種のプログラムに応じてこの携帯電話装置の全体動作を制御する中央演算処理装置である。記憶部2は、不揮発性メモリ(内部メモリ)であり、例えば、フラッシュメモリなどによって構成され、プログラム領域とデータ領域とを有し、このプログラム領域には、後述する図3〜図6に示す動作手順に応じて本実施例を実現するためのプログラムが格納されている。記録メディア3は、着脱自在な可搬型メモリで、撮影画像データ、各種のデータ、プログラムを外部供給するもので、例えば、スマートメディア、ICカードなどによって構成されている。メモリ4は、ワーク領域を有する内部メモリで、例えば、DRAM(Direct Random Access Memory)、SDRAM(Synchronous DRAM)などによって構成されている。   The CPU 1 is a central processing unit that controls the overall operation of the mobile phone device according to various programs in the storage unit 2. The storage unit 2 is a non-volatile memory (internal memory), and is configured by, for example, a flash memory, and has a program area and a data area. In the program area, operations shown in FIGS. A program for realizing the present embodiment is stored according to the procedure. The recording medium 3 is a detachable portable memory that supplies photographed image data, various types of data, and programs to the outside. The recording medium 3 includes, for example, smart media and an IC card. The memory 4 is an internal memory having a work area, and is composed of, for example, a DRAM (Direct Random Access Memory), an SDRAM (Synchronous DRAM), or the like.

電話通信部5は、アンテナ6に接続された送受信デュプレクサの受信側から信号を取り込んで受信ベースバンド信号に復調したのちに、音声データを音声スピーカ7から出力させる。また、電話通信部5は、音声マイク8から入力された音声データを送信ベースバンド信号に符号化したのちに、送受信デュプレクサの送信側に与えられ、アンテナ6から発信出力させる。一方、電子メール機能、インターネット接続によって電話通信部5を介して受信した画像などの表示データは、LCD(液晶表示器)によって構成されたメイン表示部9に与えられて表示出力される。メイン表示部9は、例えば、400+240ドット構成の表示画面を有し、文字情報、テレビ放送受信画像、カメラ撮影画像、各種メッセージなどを高品位に表示する。このメイン表示部9のほか、装置本体の背面部にはサブ表示部10が設けられており、現在日時、簡易なメッセージ、アイコンなどが表示される。   The telephone communication unit 5 takes in a signal from the reception side of the transmission / reception duplexer connected to the antenna 6 and demodulates it into a reception baseband signal, and then outputs audio data from the audio speaker 7. In addition, the telephone communication unit 5 encodes the audio data input from the audio microphone 8 into a transmission baseband signal, and then provides the transmission baseband signal to the transmission side of the transmission / reception duplexer to transmit and output from the antenna 6. On the other hand, display data such as an image received via the telephone communication unit 5 by the e-mail function or the Internet connection is given to a main display unit 9 constituted by an LCD (liquid crystal display), and is displayed and output. The main display unit 9 has a display screen having a 400 + 240 dot configuration, for example, and displays character information, a television broadcast reception image, a camera image, various messages, and the like with high quality. In addition to the main display unit 9, a sub display unit 10 is provided on the back of the apparatus main body, and displays the current date and time, simple messages, icons, and the like.

テレビ受信部11は、TVアンテナ12を備え、携帯電話などの携帯受信機向けの地上波デジタルテレビ放送を受信するもので、テレビ映像及び音声情報以外にも電子番組表(EPG)なども含めて受信可能である。テレビ受信部11は、専用CPU、TVアンテナ12に接続されている受信部と、受信したテレビ放送を映像信号、音声信号に分離分離する増幅分離部と、圧縮データを解凍するデコード部などを有する構成となっており、このテレビ受信部11から出力されたテレビ映像信号は、メイン表示部9から表示出力され、また、テレビ音声信号は、内蔵スピーカ13あるいはイヤホン14から出力される。   The TV receiver 11 includes a TV antenna 12 and receives terrestrial digital TV broadcasts for mobile receivers such as mobile phones. In addition to TV video and audio information, an electronic program guide (EPG) is also included. It can be received. The television receiver 11 includes a dedicated CPU, a receiver connected to the TV antenna 12, an amplification / separation unit that separates and separates the received television broadcast into a video signal and an audio signal, a decoding unit that decompresses the compressed data, and the like. The TV video signal output from the TV receiver 11 is output from the main display unit 9, and the TV audio signal is output from the built-in speaker 13 or the earphone 14.

キー操作部15は、押しボタン式の各種のキーを備え、ダイヤル入力、文字入力、コマンド入力などを行うもので、テレビ機能用としてテレビON/OFFキー、チャンネル切り替えキーのほか、テレビ放送の録画(録音を含む)を指示する録画開始キー、録画内容の再生を指示する再生キー、再生の一時停止を指示する一時停止キー、早送り再生を指示する早送りキー、画像表示時に画像に加工を施して表示する特殊出力機能を選択する機能選択キーなどを有している。CPU1は、キー操作部15からのキー入力信号に応じた処理を実行する。報知部16は、上述した内蔵スピーカ13を含めて、LED(発光ダイオード)、振動モータを有する構成で、電話・メール着信時には着信報知を行うほか、警告アラームなどの報知時にも駆動される。   The key operation unit 15 is provided with various push button type keys, and performs dial input, character input, command input, etc. In addition to a TV ON / OFF key and a channel switching key for TV functions, it records TV broadcasts. (Including recording) recording start key, playback key for playback of recorded content, pause key for pause playback, fast-forward key for fast-forward playback, and processing the image during image display It has a function selection key for selecting a special output function to be displayed. The CPU 1 executes processing according to a key input signal from the key operation unit 15. The notification unit 16 includes an LED (light emitting diode) and a vibration motor including the built-in speaker 13 described above. The notification unit 16 notifies the incoming call when a call / mail is received, and is also driven when a warning alarm is given.

カメラ撮像部17は、静止画撮影のほかに動画撮影も可能なもので、撮影レンズ、ミラー等のレンズ・ミラーブロック、CCDイメージセンサ等の撮像素子、その駆動系のほか、測距センサ、光量センサ、アナログ処理回路、信号処理回路、圧縮伸張回路等を備え、光学ズームを調整制御したり、オートフォーカス時の駆動制御、シャッター駆動制御、露出、ホワイトバランス等を制御する。このカメラ撮像部17によって撮影された撮影画像は、記憶部2、記録メディア3に記憶保存される。この場合、メイン表示部9は、モニタ画像を表示する撮影モニタ画面(ファインダ画面)、記憶部2、記録メディア3に記憶保存されている撮影画像を再生出力する再生画面として機能する。   The camera imaging unit 17 can shoot moving images in addition to still images, and includes a photographing lens, a lens / mirror block such as a mirror, an image sensor such as a CCD image sensor, its drive system, a distance measuring sensor, a light quantity A sensor, an analog processing circuit, a signal processing circuit, a compression / decompression circuit, and the like are provided to adjust and control the optical zoom, and to control drive control during autofocus, shutter drive control, exposure, white balance, and the like. The captured image captured by the camera imaging unit 17 is stored and saved in the storage unit 2 and the recording medium 3. In this case, the main display unit 9 functions as a photographing monitor screen (finder screen) for displaying a monitor image, a reproduction screen for reproducing and outputting the photographed image stored and stored in the storage unit 2 and the recording medium 3.

図2は、カメラ撮影画像あるいはテレビ放送受信画像などの画像(出力対象の画像)をメイン表示部9に表示出力させる際に、この画像に所定の加工を施して表示する特殊出力機能がユーザ操作によって選択された場合において、この画像加工処理の実行前及び実行後の画像を例示した図である。なお、図中、左側が加工処理の実行前の画像、右側が加工処理の実行後の画像を示している。
ここで、CPU1は、画像加工を行う前に、出力対象の画像内に注目対象となる特定物、例えば、人物、建物、自動車、オブジェクト(文字、図形など)が含まれているか否かを判別し、特定物が含まれているときには、この特定物が写っている部分(注目部分)の中心位置をターゲット位置として特定するようにしている。
FIG. 2 shows a special output function for performing a predetermined process on an image (image to be output) such as a camera-captured image or a television broadcast received image (output target image) on the main display unit 9 and displaying it. FIG. 6 is a diagram exemplifying images before and after the execution of this image processing process when selected by (1). In the drawing, the left side shows an image before execution of the processing process, and the right side shows an image after execution of the processing process.
Here, before performing image processing, the CPU 1 determines whether or not a specific object to be noticed, for example, a person, a building, a car, or an object (such as a character or a graphic) is included in the output target image. When a specific object is included, the center position of the portion (target part) in which the specific object is reflected is specified as the target position.

この場合、出力対象画像が撮影画像である場合には、この撮影画像に付加されているフォーカス情報(焦点位置情報)に基づいてピントが合っている部分(例えば、人物の顔部分)をターゲット位置として特定するようにしているが、撮影画像にフォーカス情報が付加されていなかったり、テレビ放送受信画像などであれば、この画像を解析しながら画像認識を行い、画像内に特定物が含まれているか否か判別するようにしている。なお、特定物の認識アルゴリズムは、周知の技術を使用して行うが、全体形状をパターン認識したり、各構成要素の位置関係及び形状などの特徴を分析して認識してもよく、更には画像解析によってコントラスト、彩度、明るさなどの変化を検出し、この変化の大きさに基づいて特定物を認識するようにしてもよく、その認識の仕方は任意である(以下、同様)。このようにして特定したターゲット位置を基準にしてCPU1は、特定物が含まれている領域をターゲット領域として特定するようにしている。  In this case, when the output target image is a captured image, a portion in focus (for example, a human face portion) based on focus information (focus position information) added to the captured image is determined as the target position. However, if the focus information is not added to the captured image, or if it is a TV broadcast received image, etc., image recognition is performed while analyzing this image, and the specific object is included in the image. Whether or not there is is determined. The specific object recognition algorithm is performed by using a well-known technique. However, the entire shape may be recognized by pattern recognition, or by analyzing features such as the positional relationship and shape of each component. Changes such as contrast, saturation, and brightness may be detected by image analysis, and a specific object may be recognized based on the magnitude of the change, and the method of recognition is arbitrary (the same applies hereinafter). Based on the target position specified in this way, the CPU 1 specifies an area including the specific object as the target area.

図2(A)は、画像加工処理として時間経過あるいはユーザ操作に応じて注目部分を段階的に順次拡大して表示出力する順次拡大処理を例示したもので、図中、「+」は、人物の顔部分の中心位置(ターゲット位置)を示し、また、図中、点線で囲んだ枠は、出力対象画像からその一部分を切り出すための切り出し枠を示し、この切り出し枠内の画像が拡大対象となり、この枠内画像を元の画像サイズに拡大するようにしている。この場合、予め決められている時間(例えば、2秒)が経過する毎に自動的に拡大処理が実行されるほか、ユーザ操作に応答して拡大処理が実行される。  FIG. 2A illustrates a sequential enlargement process in which the target portion is sequentially enlarged and displayed for output according to the passage of time or a user operation as the image processing process. In the figure, a frame surrounded by a dotted line indicates a cutout frame for cutting out a part of the output target image, and the image in the cutout frame is an enlargement target. The in-frame image is enlarged to the original image size. In this case, every time a predetermined time (for example, 2 seconds) elapses, the enlargement process is automatically executed, and the enlargement process is executed in response to a user operation.

図2(B)は、ターゲット領域を拡大するほかに、このターゲット領域以外の周辺部分をも含めて拡大するが、その際、ターゲット領域から離れるほどその拡大率を指数関数的に順次変更するようにした周辺部比率変更拡大処理を示した図である。この場合、CPU1は、出力対象の画像をN×Mのマトリックス状(桝目状)に分割すると共に、各枡目領域のうち、ターゲット位置を基準にして特定物(人物)を含む領域全体をターゲット領域として特定したのち、このターゲット領域を除く他の全ての領域を周辺領域として特定するようにしている。なお、出力対象画像の略全体がターゲット領域に相当する場合、例えば、上半身の人物が画像全体に大写しされているような場合には、この人物画像の一部分(人物の顔部分)をターゲット領域とし、その他の部分を周辺領域としてもよい。   In FIG. 2B, in addition to enlarging the target area, the area including the peripheral area other than the target area is also enlarged. At that time, the enlargement ratio is sequentially changed exponentially as the distance from the target area increases. It is the figure which showed the peripheral part ratio change expansion process made. In this case, the CPU 1 divides the image to be output into an N × M matrix (a grid pattern), and targets the entire area including a specific object (person) based on the target position in each grid area. After the area is specified, all other areas except the target area are specified as the peripheral area. In addition, when substantially the entire output target image corresponds to the target area, for example, when a person in the upper body is enlarged in the entire image, a part of this person image (a person's face) is set as the target area. Other portions may be used as the peripheral region.

そして、人物部分(ターゲット領域)と共に、ターゲット領域以外の周辺部分を拡大する場合に、ターゲット領域の拡大率よりも周辺領域の拡大率の方が小さくなるように当該周辺部分を拡大するようにしている。その際、ターゲット領域から離れるほど拡大率が指数関数的に順次小さくなるよう変更される。なお、図中、矢印マークは、上方向の矢印で拡大を示し、また、矢印の太さで拡大率の大きさを示している。この場合にも、上述と同様に、時間経過あるいはユーザ操作に応じてターゲット領域を段階的に順次拡大して表示出力する順次拡大処理が行われる。   When the peripheral part other than the target area is enlarged together with the person part (target area), the peripheral part is enlarged so that the enlargement ratio of the peripheral area becomes smaller than the enlargement ratio of the target area. Yes. At that time, the magnification is changed so as to decrease exponentially as the distance from the target region increases. In the figure, the arrow mark indicates enlargement with an upward arrow, and the thickness of the arrow indicates the size of the enlargement ratio. Also in this case, as described above, a sequential enlargement process is performed in which the target region is sequentially enlarged and displayed for output in accordance with the passage of time or user operation.

図2(C)は、画像加工処理として色変更処理(明度変更処理)を例示した場合であり、画像内に含まれている人物部分の明度をその周辺部分に比べて明るくなるような強調加工を施す場合である。なお、画像加工処理としては、色変更処理(色相変更処理、彩度変更処理、明度変更処理)のほかに、ハイライト加工処理(コントラスト強調処理などの様々な加工処理)を任意に指定可能となっている。  FIG. 2C illustrates a case where color change processing (brightness change processing) is exemplified as the image processing processing, and emphasis processing is performed so that the brightness of the person portion included in the image becomes brighter than the surrounding portion. Is applied. In addition to color change processing (hue change processing, saturation change processing, brightness change processing), image processing can be specified arbitrarily with highlight processing (various processing such as contrast enhancement processing). It has become.

次ぎに、この実施例における携帯電話装置の動作概念を図3〜図6に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体のほかに、伝送媒体を介して外部供給されたプログラム/データを利用してこの実施例特有の動作を実行することもできる。   Next, the operation concept of the mobile phone device in this embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. In addition, the operation according to the above-described program code transmitted via the transmission medium can be sequentially executed. In other words, in addition to the recording medium, an operation peculiar to this embodiment can be executed by using a program / data supplied externally via a transmission medium.

図3〜図5は、カメラ撮影画像あるいはテレビ放送受信画像などの画像に所定の加工を施して表示する特殊出力機能がユーザ操作によって選択された場合に実行開始される動作を示したフローチャートである。
先ず、CPU1は、カメラ撮影画像あるいはテレビ放送受信画像などの1画像を出力対象画像(ソース画像)として取得したのち(ステップA1)、ユーザ操作によって選択指定されている画像加工種の判別を行う(ステップA2)。
3 to 5 are flowcharts showing operations started when a special output function for performing predetermined processing on an image such as a camera-captured image or a television broadcast reception image is displayed by a user operation. .
First, after acquiring one image such as a camera photographed image or a television broadcast received image as an output target image (source image) (step A1), the CPU 1 determines an image processing type selected and designated by a user operation (step A1). Step A2).

この画像加工種は、上述の特殊出力機能が起動される前に、ユーザ操作によって選択指定されたもので、この実施例では、「画像拡大/縮小」、「色変更」、「ハイライト加工」の中かに任意の加工種を選択指定するようにしている。この場合、「画像拡大/縮小」には、図2(A)で示した「順次拡大」、図2(B)で示した「周辺部の比率変更拡大」と、これと同様な「順次縮小」と「比率変更縮小」とがある。また、「色変更」には、「色相変更」、「彩度変更」、「明度変更」とがあり、「ハイライト加工」には、「コントラスト強調」などがある。いま、画像加工種として、「画像拡大/縮小」が選択されている場合には(ステップA3でYES)、ソース画像内に含まれている人物の顔部分などの中心位置をターゲット位置として特定するターゲット位置特定処理に移る(ステップA4)。  This image processing type is selected and designated by a user operation before the above-described special output function is activated. In this embodiment, “image enlargement / reduction”, “color change”, “highlight processing”. An arbitrary processing type is selected and specified in. In this case, “image enlargement / reduction” includes “sequential enlargement” shown in FIG. 2A, “peripheral ratio change enlargement” shown in FIG. 2B, and “sequential reduction” similar to this. And “ratio change reduction”. “Color change” includes “hue change”, “saturation change”, and “brightness change”, and “highlight processing” includes “contrast enhancement”. If “image enlargement / reduction” is selected as the image processing type (YES in step A3), the center position of the face portion of the person included in the source image is specified as the target position. The process proceeds to the target position specifying process (step A4).

図6は、ターゲット位置特定処理を詳述するためのフローチャートである。
先ず、CPU1は、出力対象画像が撮影画像である場合に、この撮影画像にフォーカス情報(焦点位置情報)が付加されているか否かを調べ(ステップB1)、フォーカス情報が付加されていれば、この画像内の焦点位置に基づいてピントが合っている部分(被写体部分)をターゲット位置として特定する(ステップB2)。また、フォーカス情報が付加されていなければ(ステップB1でNO)、出力対象画像を解析することによって人物の顔部分が含まれているか否かを画像認識し(ステップB3)、顔部分が含まれていれば(ステップB4でYES)、その中から最も大きい顔部分を上位2つまで特定し、これらの中心位置をターゲット位置として特定する(ステップB5)。なお、人物が一人の場合には、1つの顔部分がターゲット位置として特定される。
FIG. 6 is a flowchart for explaining the target position specifying process in detail.
First, when the output target image is a captured image, the CPU 1 checks whether or not focus information (focus position information) is added to the captured image (step B1). If the focus information is added, A focused part (subject part) is specified as a target position based on the focal position in the image (step B2). If focus information is not added (NO in step B1), it is recognized whether or not a human face portion is included by analyzing the output target image (step B3), and the face portion is included. If so (YES in step B4), the top two face parts are specified from among them, and the center positions thereof are specified as target positions (step B5). When there is one person, one face part is specified as the target position.

また、人物の顔部分が含まれていなければ(ステップB4でNO)、画像解析によって当該画像内に文字部分が含まれているか否かを画像認識し(ステップB6)、文字部分が含まれていれば、この文字部分をターゲット位置として特定する(ステップB7)。この場合、文字列であれば、その全体領域がターゲット位置として特定される。なお、人物の顔部分、文字部分を画像認識する以外にも、その他の画像認識処理(ステップB8)では、予め決められている自動車、建物などの特定物が含まれているか否かを画像認識し、この特定物の位置(中心点)をターゲット位置として特定する。なお、出力対象画像が字幕付きのテレビ放送受信画像の場合には、この受信画像に付加されている文字部分の上書き位置をターゲット位置として特定するようにしてもよい。  If the face portion of the person is not included (NO in step B4), whether or not the character portion is included in the image is recognized by image analysis (step B6), and the character portion is included. If so, the character portion is specified as the target position (step B7). In this case, if it is a character string, the whole area | region is specified as a target position. In addition to recognizing human face portions and character portions, other image recognition processing (step B8) recognizes whether or not a specific object such as a predetermined car or building is included. Then, the position (center point) of this specific object is specified as the target position. If the output target image is a television broadcast reception image with subtitles, the overwriting position of the character portion added to the reception image may be specified as the target position.

このようなターゲット位置特定処理が終わると、CPU1は、この処理結果を参照してターゲット位置を特定できたか否かをチェックする(図4のステップA5)。ここで、ソース画像内に特定物が含まれていない場合、つまり、ターゲット位置を特定できなかった場合には(ステップA5でNO)、ソース画像全体を一様のサイズに変更する(ステップA6)。すなわち、画像全体を指定されたサイズに変更する通常処理が行われる。また、ソース画像内に特定物が含まれている場合(ターゲット位置を特定することができた場合)には(ステップA5でYES)、「画像拡大/縮小」として「順次拡大」が選択された場合かをチェックする(ステップA7)。  When such a target position specifying process is completed, the CPU 1 checks whether or not the target position has been specified with reference to the processing result (step A5 in FIG. 4). Here, when a specific object is not included in the source image, that is, when the target position cannot be specified (NO in step A5), the entire source image is changed to a uniform size (step A6). . That is, normal processing for changing the entire image to a specified size is performed. If a specific object is included in the source image (when the target position can be specified) (YES in step A5), “sequential enlargement” is selected as “image enlargement / reduction”. A check is made (step A7).

いま、画像加工種として「画像拡大/縮小」の「順次拡大」が選択されている場合には(ステップA7でYES)、出力対象画像からその一部分を切り出すための切り出し枠を生成する(ステップA8)。この切り出し枠は、図2(A)に示すように、出力対象画像を一回り小さくした大きさ、例えば、3/4の大きさであり、CPU1は、この切り出し枠をソース画像上のターゲット位置を基準として配置したのち、この枠内の画像を切り出す(ステップA9)。そして、CPU1は、この切り出し画像が元の画像サイズ(ソース画像サイズ)となるように当該切り出し画像を拡大すると共に(ステップA10)、この拡大画像をソース画像に代えて切り替え表示させる(ステップA11)。  If “sequential enlargement” of “image enlargement / reduction” is selected as the image processing type (YES in step A7), a cutout frame for cutting out a part of the output target image is generated (step A8). ). As shown in FIG. 2A, the cutout frame has a size that is one size smaller than the output target image, for example, 3/4, and the CPU 1 sets the cutout frame to the target position on the source image. Are placed on the basis of the image, and the image within the frame is cut out (step A9). Then, the CPU 1 enlarges the clipped image so that the clipped image becomes the original image size (source image size) (step A10), and switches and displays the magnified image instead of the source image (step A11). .

そして、2秒タイマの計時動作をクリアスタートさせたのち(ステップA12)、タイムアップになったかをチェックし(ステップA13)、2秒経過前であれば、ユーザ操作による拡大指示を受けたかをチェックする(ステップA14)。ここで、拡大指示が無ければ、ユーザから終了指示を受けたかをチェックし(ステップA15)、終了指示もなければステップA13に戻る。ここで、拡大画像を表示してから2秒が経過した場合(ステップA13でYES)あるいはユーザから拡大指示を受けた場合には(ステップA14でYES)、上述のステップA8に戻り、現在表示されている画像からその一部分を切り出すための切り出し枠を生成し、この生成枠内から画像を切り出して(ステップA9)、ソース画像サイズに拡大表示させる(ステップA10、A11)。以下、タイムアップあるいは拡大指示を受ける毎に上述の動作が繰り返される。この結果、図2(A)に示すように人物の顔部分がそのターゲット位置を基準として徐々にズームアップ表示される。  Then, after clearing the time counting operation of the 2-second timer (step A12), check whether the time is up (step A13), and if 2 seconds have elapsed, check whether an enlargement instruction by a user operation has been received (Step A14). If there is no enlargement instruction, it is checked whether an end instruction is received from the user (step A15). If there is no end instruction, the process returns to step A13. Here, if 2 seconds have passed since the enlarged image was displayed (YES in step A13) or if an enlargement instruction was received from the user (YES in step A14), the process returns to step A8 described above and is currently displayed. A cut-out frame for cutting out a part of the generated image is generated, the image is cut out from the generated frame (step A9), and enlarged and displayed at the source image size (steps A10 and A11). Thereafter, the above-described operation is repeated every time a time-up or enlargement instruction is received. As a result, as shown in FIG. 2A, the face portion of the person is gradually zoomed up with reference to the target position.

一方、画像加工種として「画像拡大/縮小」の「比率変更拡大」が選択されている場合には(図4のステップA16でYES)、出力対象の画像を縦横方向にN×Mのマトリックス状(桝目状)に分割すると共に(ステップA17)、各枡目領域のうち、ターゲット位置を基準にして特定物を含む桝目領域(矩形領域)をターゲット領域として特定する(ステップA18)。なお、図2(B)の例では人物の上半身が写っている全ての領域がターゲット領域として特定される。そして、このターゲット領域内の画像を1段階拡大(例えば、1.2倍に拡大)したのち(ステップA19)、ターゲット領域以外の周辺領域の横方向を順次拡大率を変更しながら拡大する(ステップA20)。すなわち、ターゲット領域から離れている領域ほどその拡大率が指数関数的に順次小さくなるような拡大処理を行う。  On the other hand, when “ratio change enlargement” of “image enlargement / reduction” is selected as the image processing type (YES in step A16 in FIG. 4), the image to be output is arranged in an N × M matrix form in the vertical and horizontal directions. In addition to being divided into (a grid shape) (step A17), a grid area (rectangular area) including a specific object is specified as a target area among the grid areas (step A18). In the example of FIG. 2B, all areas where the upper body of a person is shown are specified as target areas. Then, after enlarging the image in the target area by one step (for example, enlarging to 1.2 times) (step A19), the lateral direction of the peripheral area other than the target area is sequentially enlarged while changing the enlargement ratio (step A20). . That is, an enlargement process is performed so that the enlargement ratio sequentially decreases exponentially as the area is farther from the target area.

次ぎに、ターゲット領域以外の周辺領域の縦方向を順次拡大率を変更しながら拡大するが、この場合においてもターゲット領域から離れるほどその拡大率が指数関数的に順次小さくなるような拡大処理を行う(ステップA21)。このようにしてターゲット領域及びその周辺領域を拡大した画像は、ソース画像サイズに変換されて表示出力される(ステップA22)。そして、上述の場合と同様に、2秒タイマの計時動作をスタートさせたのち(ステップA23)、タイムアップになったかをチェックし(ステップA24)、2秒経過前であれば、ユーザ操作による拡大指示を受けたかをチェックする(ステップA25)。ここで、拡大指示が無ければ、ユーザから終了指示を受けたかをチェックし(ステップA26)、終了指示を受けるまでステップA24に戻る。  Next, the vertical direction of the peripheral area other than the target area is enlarged while sequentially changing the enlargement ratio. Even in this case, enlargement processing is performed so that the enlargement ratio sequentially decreases exponentially as the distance from the target area increases. (Step A21). The image obtained by enlarging the target area and the surrounding area in this way is converted into the source image size and displayed and output (step A22). Then, as in the case described above, after starting the time counting operation of the 2-second timer (step A23), it is checked whether the time is up (step A24). It is checked whether an instruction has been received (step A25). If there is no enlargement instruction, it is checked whether an end instruction is received from the user (step A26), and the process returns to step A24 until the end instruction is received.

ここで、拡大画像を表示してから2秒が経過した場合(ステップA24でYES)あるいはユーザから拡大指示を受けた場合には(ステップA25でYES)、上述のステップA19に戻り、ターゲット領域内の画像を1段階拡大したのち、ターゲット領域以外の周辺領域の横方向及び縦方向を順次拡大率を変更しながら拡大表示する(ステップA20〜A22)。以下、タイムアップあるいは拡大指示を受ける毎に上述の動作が繰り返される。この結果、図2(B)に示すように人物の顔部分がそのターゲット位置を基準として徐々にズームアップ表示される。  Here, when 2 seconds have elapsed since the enlarged image was displayed (YES in step A24) or when an enlargement instruction is received from the user (YES in step A25), the process returns to the above-described step A19, and within the target area. After the image is enlarged by one step, the horizontal direction and the vertical direction of the peripheral area other than the target area are enlarged and displayed sequentially while changing the enlargement ratio (steps A20 to A22). Thereafter, the above-described operation is repeated every time a time-up or enlargement instruction is received. As a result, as shown in FIG. 2B, the face portion of the person is gradually zoomed up with reference to the target position.

また、上述した「順次拡大」、「比率変更拡大」以外の「拡大/縮小」が選択された場合には(ステップA16でNO)、その他の拡大縮小処理に移る(ステップA27)。いま、「順次縮小」が選択された場合には、画像全体を1段階縮小すると共に、時間経過あるいはユーザ操作に応じて画像全体を段階的に順次縮小する処理が行われる。また、「比率変更縮小」が選択された場合には、ターゲット領域を1段階縮小したのち、このターゲット領域以外の周辺領域の縦方向を順次縮小率を変更しながら縮小する処理を時間経過あるいはユーザ操作が行われる毎に繰り返す。その他、画像全体を指定サイズに拡大したり、縮小する処理が行われる。  If “enlargement / reduction” other than “sequential enlargement” and “ratio change enlargement” described above is selected (NO in step A16), the process proceeds to other enlargement / reduction processing (step A27). If “sequential reduction” is selected, the entire image is reduced by one step, and the entire image is sequentially reduced step by step as time passes or by a user operation. If “ratio change reduction” is selected, the target area is reduced by one step, and then the process of reducing the vertical direction of the peripheral area other than the target area while sequentially changing the reduction ratio is performed over time or by the user. Repeat every time an operation is performed. In addition, processing for enlarging or reducing the entire image to a specified size is performed.

他方、画像加工種として「拡大/縮小」以外の色変更処理あるいはハイライト加工処理が選択された場合には(図3のステップA3でNO)、図5のフローに移り、選択された画像加工種は、「明度変更」かをチェックし(ステップA28)、「明度変更」であれば、上述と同様のターゲット位置を特定する処理の実行に移る(ステップA29)。そして、CPU1は、この処理結果を参照してターゲット位置を特定することができたかをチェックし(ステップA30)、ターゲット位置を特定できなかった場合には、ソース画像全体に対して明度変更処理を施す(ステップA33)。  On the other hand, when color change processing or highlight processing other than “enlarge / reduce” is selected as the image processing type (NO in step A3 in FIG. 3), the flow proceeds to FIG. 5 and the selected image processing is performed. It is checked whether the seed is “lightness change” (step A28). If it is “lightness change”, the process proceeds to the execution of the process for specifying the target position as described above (step A29). Then, the CPU 1 checks whether or not the target position can be specified with reference to the processing result (step A30), and if the target position cannot be specified, the brightness change process is performed on the entire source image. (Step A33).

また、ターゲット位置を特定することができた場合には(ステップA30でYES)、出力対象画像をマトリックス状(桝目状)に分割すると共に、各枡目領域のうち、ターゲット位置を基準にして特定物(例えば、人物の顔部分)を含む桝目領域(矩形領域)をターゲット領域として特定する(ステップA31)。そして、このターゲット領域に対して明度変更処理を施す(ステップA32)。この場合、例えば、ターゲット領域の明度をその周辺部分に比べて明るくなるような強調加工が施される。なお、その他、「彩度変更」、「色相変更」、「コントラスト変更」などが選択された場合には、上述と同様に、ターゲット位置からターゲット領域を特定したのち、このターゲット領域に対して彩度変更処理、色相変更処理、コントラスト変更処理などを実行する。  If the target position can be specified (YES in step A30), the output target image is divided into a matrix shape (a grid shape) and specified with respect to the target position in each grid area. A cell area (rectangular area) including an object (for example, a human face) is specified as a target area (step A31). Then, a brightness change process is performed on the target area (step A32). In this case, for example, an emphasis process is performed so that the brightness of the target area becomes brighter than the surrounding area. In addition, when “saturation change”, “hue change”, “contrast change” or the like is selected, after specifying the target area from the target position, the saturation is applied to the target area as described above. A degree change process, a hue change process, a contrast change process, and the like are executed.

以上のように、この実施例においてCPU1は、カメラ撮影画像あるいはテレビ放送受信画像などの画像(出力対象の画像)をメイン表示部9に表示出力させる際に、出力対象画像の一部分をターゲット領域として特定すると共に、このターゲット領域に対して当該領域を強調するための画像加工処理を施して出力するようにしたから、人物などが画像内のどこに位置しているかに拘らず、人物などのターゲットを確実に強調することができ、ターゲットの視認性を高めることが可能となる。   As described above, in this embodiment, when the CPU 1 causes the main display unit 9 to display and output an image (an output target image) such as a camera-captured image or a television broadcast reception image, a part of the output target image is used as a target region. In addition to specifying the target area, the target area is subjected to an image processing process for emphasizing the area so that the target area is output. Therefore, regardless of where the person is located in the image, the target such as the person is selected. It is possible to surely emphasize the target, and it becomes possible to improve the visibility of the target.

この場合、CPU1は、出力対象画像を解析することによってその中に含まれている特定物を認識するようにしたから、画像解析によって特定物、例えば、人物、建物、自動車、オブジェクト(文字、図形など)をターゲットとして画像認識することができる。また、出力対象画像を解析することによってその変化状態に基づいて特定物を認識するようにしたから、例えば、コントラスト、彩度、明るさなどの変化の大きさに基づいて特定物を画像認識することができる。  In this case, since the CPU 1 recognizes a specific object included in the output target image by analyzing the output target image, the specific object, for example, a person, a building, a car, an object (character, graphic) is analyzed by the image analysis. Etc.) can be recognized as targets. Further, since the specific object is recognized based on the change state by analyzing the output target image, for example, the specific object is image-recognized based on the magnitude of change such as contrast, saturation, and brightness. be able to.

CPU1は、撮影画像に付加されている属性情報から「焦点位置」を示す情報を取得して被写体部分を特定するようにしたから、カメラ撮影時に焦点を合わせた被写体部分(ピントが一番合っている部分)をターゲットとして特定することができる。
また、出力対象画像の中に含まれている文字部分をターゲットとして特定するようにしたから、例えば、バスの時刻表などをメモ代わりに撮影した場合、この撮影画像の中から文字が含まれている部分をターゲットとして特定することができる。
Since the CPU 1 obtains information indicating the “focus position” from the attribute information added to the photographed image and specifies the subject portion, the subject portion focused (at the best focus) during camera photography. Can be specified as a target.
Also, since the character part included in the output target image is specified as the target, for example, when taking a bus timetable instead of a memo, characters are included in this captured image. Can be specified as a target.

また、CPU1は、時間経過あるいはユーザ操作に応じてターゲットを段階的に順次拡大あるいは縮小するようにしたから、ターゲットを徐々にズームアップあるいはズームダウンしながら当該画像部分に注目を向けさせることができる。したがって、ターゲットが徐々に飛び出して来るような感覚あるいは吸い込まれるような感覚を得ることができ、動的変化に富んだ注意喚起力の高い強調出力が可能となる。   In addition, since the CPU 1 sequentially enlarges or reduces the target stepwise in accordance with the passage of time or user operation, the CPU 1 can focus attention on the image portion while gradually zooming up or down the target. . Therefore, it is possible to obtain a feeling that the target gradually jumps out or is sucked in, and an emphasis output that is rich in dynamic change and has a high alerting power is possible.

CPU1は、ターゲットとその周辺部分を拡大処理あるいは縮小処理する際に、ターゲットとその周辺部分とではその拡大率あるいは縮小率を変えて拡大処理あるいは縮小処理を実行するようにしたから、相対的な変化に富んだ注意喚起力の高い強調出力が可能となる。この場合、周辺部分を拡大あるいは縮小する際に、ターゲットから離れるほど徐々に拡大率を変更する拡大処理あるいはターゲットから離れるほど徐々に縮小率を変更する縮小処理を実行するようにしたから、例えば、ターゲットから離れるほど徐々に大きくなるようにしたり、ターゲットから離れるほど徐々に小さくなるようにすることができ、ターゲットを中心とした遠近感効果の付与が可能となるほか、ターゲットが浮き出てくるような感覚のハイライト効果を付与することも可能となる。   The CPU 1 executes the enlargement process or the reduction process while changing the enlargement ratio or the reduction ratio between the target and the peripheral part when the target and the peripheral part are enlarged or reduced. It is possible to produce a highly emphasized output with high alerting power. In this case, when enlarging or reducing the peripheral portion, the enlargement process for gradually changing the enlargement rate as the distance from the target is increased, or the reduction process for gradually changing the reduction rate as the distance from the target is performed. The distance from the target can be gradually increased or the distance from the target can be gradually decreased. This allows for a perspective effect centered on the target and makes the target stand out. It is also possible to add a sensory highlight effect.

CPU1は、ターゲットに対して画像拡大処理、縮小処理、色変更処理、ハイライト加工処理のうち、少なくともその何れの加工処理によってターゲットを加工するようにしたから、ターゲットの拡大/縮小のほか、色変更処理(色相変更処理、彩度変更処理、明度変更処理)、ハイライト加工処理(コントラスト強調など、様々な加工処理)を施すことができる。   Since the CPU 1 processes the target by at least any one of the image enlargement process, the reduction process, the color change process, and the highlight process for the target, in addition to the enlargement / reduction of the target, the color Changing processing (hue changing processing, saturation changing processing, brightness changing processing) and highlight processing (various processing processing such as contrast enhancement) can be performed.

なお、上述した実施例においては、出力対象画像の中に含まれている文字部分をターゲットとして特定する場合に、画像認識によって特定するようにしたが、デジタルテレビ放送受信画像の場合には、この受信画像に付加されている各種の情報を参照することによってターゲット特定を行うようにしてもよい。  In the above-described embodiment, when a character portion included in an output target image is specified as a target, the character portion is specified by image recognition. Target identification may be performed by referring to various types of information added to the received image.

また、1つの画像内に複数のターゲット領域が特定された場合には、この複数のターゲット領域の大きさを比較して、その中から最も大きいターゲット領域のみに絞り込んでもよい。つまり、複数のターゲットの中から一つのターゲットを特定し、その他のターゲットを無効としてもよい。また、複数のターゲットを有効としてもよい。
上述した実施例においては、撮影画像に付加されている属性情報から「焦点位置」を示す情報を取得してターゲットを特定するようにしたが、画像解析によってピントが一番合っている部分をターゲットとして特定するようにしてもよい。
When a plurality of target areas are specified in one image, the sizes of the plurality of target areas may be compared to narrow down only to the largest target area. That is, one target may be specified from a plurality of targets, and the other targets may be invalidated. A plurality of targets may be effective.
In the above-described embodiment, information indicating the “focus position” is acquired from the attribute information added to the photographed image and the target is specified. May be specified.

上述した実施例においては、出力対象画像をその縦横方向にN×Mのマトリックス状(桝目状)に分割する場合を例示したが、出力対象画像をその縦方向にN等分してN個の横枠領域に分割したり、画像をその横方向にN等分してN個の縦枠領域に分割するようにしてもよい。この場合、ターゲット位置を基準として特定物が含まれている1または2以上の横枠領域領域あるいは縦枠領域をターゲット領域として特定すればよい。  In the above-described embodiment, the case where the output target image is divided into N × M matrix (a grid shape) in the vertical and horizontal directions is illustrated. However, the output target image is divided into N pieces in the vertical direction to obtain N pieces. The image may be divided into horizontal frame regions, or the image may be divided into N vertical frame regions by dividing the image into N equal parts. In this case, it is only necessary to specify one or more horizontal frame region areas or vertical frame areas that include a specific object with reference to the target position as the target area.

また、上述した実施例ではターゲット領域以外の周辺領域を拡大/縮小処理する場合に、ターゲット領域から離れるほど徐々に拡大率が小さくなるように拡大処理を実行したり、ターゲット領域から離れるほど徐々に縮小率が小さくなるように縮小処理を実行するようにしたが、これとは逆にターゲット領域から離れるほど徐々に拡大率が大きくなるように拡大処理を実行したり、ターゲット領域から離れるほど徐々に縮小率が大きくなるようらに縮小処理を実行するようにしてもよい。  In the above-described embodiment, when enlarging / reducing the peripheral area other than the target area, the enlargement process is executed so that the enlargement rate gradually decreases as the distance from the target area increases, or gradually as the distance from the target area increases. Although the reduction process is executed so that the reduction ratio becomes smaller, conversely, the enlargement process is executed so that the enlargement ratio gradually increases as the distance from the target area increases, or gradually as the distance from the target area increases. The reduction process may be executed so that the reduction ratio increases.

その他、上述した実施例では、画像を表示する場合を示したが、画像表示に限らず、画像を印刷出力したり、ネットワークを介して送信出力する場合であっても同様に適用可能である。
また、携帯電話装置に限らず、例えば、PDA、電子カメラ、電子腕時計、携帯音楽再生機、携帯ビデオレコーダなどの携帯端末装置であっても同様に適用可能であり、更に、携帯端末装置に限らず、定置型の画像出力装置(パーソナルコンピュータ、テレビ受信機、ビデオレコーダなど)であってもよい。
In addition, although the case where an image is displayed has been described in the above-described embodiments, the present invention is not limited to image display, and can be similarly applied to a case where an image is printed out or transmitted via a network.
Further, the present invention is not limited to a mobile phone device, and can be applied to a mobile terminal device such as a PDA, an electronic camera, an electronic wristwatch, a portable music player, a portable video recorder, and the like. Alternatively, it may be a stationary image output device (a personal computer, a television receiver, a video recorder, etc.).

画像出力装置として適用した携帯電話装置の基本的な構成要素を示したブロック図。The block diagram which showed the basic component of the mobile telephone apparatus applied as an image output apparatus. (A)は、画像加工処理として時間経過あるいはユーザ操作に応じてターゲットを段階的に順次拡大して表示出力する順次拡大処理を示した図、(B)は、ターゲット領域を拡大するほかに、このターゲット領域以外の周辺部分をも含めて拡大する場合にターゲットから離れるほどその拡大率を指数関数的に順次変更する比率変更拡大処理を示した図、(C)は、画像加工処理として色変更処理(明度変更処理)が選択された場合を示した図。(A) is a diagram showing a sequential enlargement process in which a target is enlarged in stages step by step according to the passage of time or user operation as an image processing process, (B) The figure which showed the ratio change expansion process which changes the expansion rate sequentially exponentially so that it leaves | separates from a target when enlarging also including peripheral parts other than this target area, (C) is a color change as an image processing process The figure which showed the case where a process (brightness change process) was selected. カメラ撮影画像あるいはテレビ放送受信画像などの画像に所定の加工を施して表示する特殊出力機能がユーザ操作によって選択された場合に実行開始される動作を示したフローチャート。The flowchart which showed the operation | movement started when the special output function which performs a predetermined process and displays on images, such as a camera picked-up image or a television broadcast reception image, is selected by user operation. 図3に続く、フローチャート。The flowchart following FIG. 図3に続く、フローチャート。The flowchart following FIG. 図3、図5のターゲット位置特定処理を詳述するためのフローチャート。6 is a flowchart for explaining the target position specifying process of FIGS. 3 and 5 in detail.

符号の説明Explanation of symbols

1 CPU
2 記憶部
3 記録メディア
5 電話通信部
9 メイン表示部
11 テレビ受信部
15 キー操作部
17 カメラ撮像部
1 CPU
2 Storage unit 3 Recording medium 5 Telephone communication unit 9 Main display unit 11 TV reception unit 15 Key operation unit 17 Camera imaging unit

Claims (9)

出力対象の画像に対して画像加工処理を施して出力する画像出力装置であって、
出力対象画像の一部分を注目部分として特定する特定手段と、
この特定手段によって特定された注目部分に対して当該部分を強調するための画像加工処理を施す加工手段と、
この加工手段によって加工された画像を出力する出力手段と、
を具備したことを特徴とする画像出力装置。
An image output apparatus that performs image processing on an output target image and outputs the image,
A specifying means for specifying a part of the output target image as a target part;
Processing means for performing image processing for emphasizing the part of interest specified by the specifying means;
Output means for outputting an image processed by the processing means;
An image output apparatus comprising:
前記特定手段は、出力対象画像を解析することによってその中に含まれている特定物を注目部分として認識する、
ようにしたことを特徴とする請求項1記載の画像出力装置。
The specifying unit recognizes a specific object included in the output target image as an attention part by analyzing the output target image.
2. The image output device according to claim 1, wherein the image output device is configured as described above.
前記特定手段は、出力対象画像を解析することによってその変化状態に基づいて注目部分を認識する、
ようにしたことを特徴とする請求項1記載の画像出力装置。
The specifying means recognizes a target portion based on the change state by analyzing the output target image,
2. The image output device according to claim 1, wherein the image output device is configured as described above.
前記特定手段は、撮影画像としての出力対象画像の中からカメラ撮影時に焦点を合わせた被写体部分を注目部分として特定する、
ようにしたことを特徴とする請求項1記載の画像出力装置。
The specifying unit specifies a subject portion focused at the time of camera shooting from an output target image as a shot image as a target portion.
2. The image output device according to claim 1, wherein the image output device is configured as described above.
前記特定手段は、出力対象画像に付加されている付加情報に基づいて当該画像内の注目部分を特定する、
ようにしたことを特徴とする請求項1記載の画像出力装置。
The specifying unit specifies a target portion in the image based on additional information added to the output target image;
2. The image output device according to claim 1, wherein the image output device is configured as described above.
前記画像加工処理は、画像拡大処理あるいは画像縮小処理であり、前記加工手段は、時間経過あるいはユーザ操作に応じて注目部分を段階的に順次拡大あるいは縮小する、
ようにしたことを特徴とする請求項1記載の画像出力装置。
The image processing process is an image enlargement process or an image reduction process, and the processing means sequentially enlarges or reduces the target portion step by step according to the passage of time or a user operation.
2. The image output device according to claim 1, wherein the image output device is configured as described above.
前記画像加工処理は、画像拡大処理あるいは画像縮小処理であり、前記加工手段は、注目部分とその周辺部分を拡大処理あるいは縮小処理する際に、注目部分とその周辺部分とではその拡大率あるいは縮小率を変えて拡大処理あるいは縮小処理を実行する、
ようにしたことを特徴とする請求項1記載の画像出力装置。
The image processing process is an image enlargement process or an image reduction process, and the processing means enlarges or reduces the target part and its peripheral part when the target part and its peripheral part are enlarged or reduced. Execute enlargement or reduction at different rates
2. The image output device according to claim 1, wherein the image output device is configured as described above.
前記加工手段は、前記注目部分に対して画像拡大処理、縮小処理、色変更処理、ハイライト加工処理のうち、少なくともその何れの加工処理によって注目部分を加工する、
ようにしたことを特徴とする請求項1記載の画像出力装置。
The processing means processes the target portion by at least any one of the image enlargement processing, the reduction processing, the color change processing, and the highlight processing processing on the target portion.
2. The image output device according to claim 1, wherein the image output device is configured as described above.
コンピュータに対して、
出力対象画像の一部分を注目部分として特定する機能と、
この特定手段によって特定された注目部分に対して当該部分を強調するための画像加工処理を施す機能と、
加工された画像を出力する機能と、
を実現させるためのプログラム。
Against the computer,
A function for identifying a part of an output target image as a target part,
A function of performing image processing for emphasizing the part of interest identified by the identifying unit;
A function to output the processed image;
A program to realize
JP2005277045A 2005-09-26 2005-09-26 Image output apparatus and program Pending JP2007088959A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005277045A JP2007088959A (en) 2005-09-26 2005-09-26 Image output apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005277045A JP2007088959A (en) 2005-09-26 2005-09-26 Image output apparatus and program

Publications (1)

Publication Number Publication Date
JP2007088959A true JP2007088959A (en) 2007-04-05

Family

ID=37975479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005277045A Pending JP2007088959A (en) 2005-09-26 2005-09-26 Image output apparatus and program

Country Status (1)

Country Link
JP (1) JP2007088959A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010028158A (en) * 2008-07-15 2010-02-04 Canon Inc Imaging apparatus
JP2010045625A (en) * 2008-08-13 2010-02-25 Hoya Corp Imaging apparatus
JP2010050601A (en) * 2008-08-20 2010-03-04 Nippon Hoso Kyokai <Nhk> Image converter, image conversion program, and image conversion method
JP2010187078A (en) * 2009-02-10 2010-08-26 Canon Inc Video reproduction apparatus and method of controlling the same
JP2011248508A (en) * 2010-05-25 2011-12-08 Kyocera Corp Communication terminal and mail reading out method
JP2013258748A (en) * 2013-08-07 2013-12-26 Canon Inc Imaging apparatus
EP4009624A4 (en) * 2019-10-09 2022-10-19 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image display method, image display apparatus, and mobile terminal

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010028158A (en) * 2008-07-15 2010-02-04 Canon Inc Imaging apparatus
JP2010045625A (en) * 2008-08-13 2010-02-25 Hoya Corp Imaging apparatus
US8310565B2 (en) 2008-08-13 2012-11-13 Pentax Ricoh Imaging Company, Ltd. Digital camera with face detection and electronic zoom control function
JP2010050601A (en) * 2008-08-20 2010-03-04 Nippon Hoso Kyokai <Nhk> Image converter, image conversion program, and image conversion method
JP2010187078A (en) * 2009-02-10 2010-08-26 Canon Inc Video reproduction apparatus and method of controlling the same
JP2011248508A (en) * 2010-05-25 2011-12-08 Kyocera Corp Communication terminal and mail reading out method
JP2013258748A (en) * 2013-08-07 2013-12-26 Canon Inc Imaging apparatus
EP4009624A4 (en) * 2019-10-09 2022-10-19 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image display method, image display apparatus, and mobile terminal
US11770603B2 (en) 2019-10-09 2023-09-26 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image display method having visual effect of increasing size of target image, mobile terminal, and computer-readable storage medium

Similar Documents

Publication Publication Date Title
JP4718950B2 (en) Image output apparatus and program
US11696021B2 (en) Video recording device and camera function control program
US9462181B2 (en) Imaging device for capturing self-portrait images
KR100749337B1 (en) Method for photography using a mobile terminal with plural lenses and apparatus therefor
US7733394B2 (en) Focus state display apparatus and focus state display method
JP5190117B2 (en) System and method for generating photos with variable image quality
JP2004145291A (en) Image display apparatus, method and program for image display
JP2007088959A (en) Image output apparatus and program
JP2010183200A (en) Mobile terminal provided with imaging function
KR100689419B1 (en) Method and apparatus for compounding taken?image in mobile terminal having camera
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
JP2006014221A (en) Imaging apparatus and imaging method
KR100722435B1 (en) Mobile communication terminal having function of measuring subject size
KR100642688B1 (en) Apparatus and method for editing a part of picture in mobile communication terminal
CN115205164A (en) Training method of image processing model, video processing method, device and equipment
JP2018106739A (en) Information display device, information display method, and program
KR101622680B1 (en) Mobile terminal and method for handling image thereof
JP2006270488A (en) Imaging apparatus and image processing method
KR101281786B1 (en) A mobile phone haveing a fundtino of editing motion picture and the method for editing motion picture thereof
KR100697627B1 (en) Method and apparatus for photography using motion sensing
KR20080042462A (en) Apparatus and method for editing image in portable terminal
KR101391785B1 (en) Portable terminal and method for executing mode photographing panorama image thereof
KR20050041589A (en) Method for taking moving picture in wireless phone
KR20100101219A (en) Method for taking picture of portable terminal and portable terminal performing the same
JP2017016334A (en) Information processor, control method, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080515