JP4603249B2 - Image processing apparatus for mobile phone with camera - Google Patents

Image processing apparatus for mobile phone with camera Download PDF

Info

Publication number
JP4603249B2
JP4603249B2 JP2003192964A JP2003192964A JP4603249B2 JP 4603249 B2 JP4603249 B2 JP 4603249B2 JP 2003192964 A JP2003192964 A JP 2003192964A JP 2003192964 A JP2003192964 A JP 2003192964A JP 4603249 B2 JP4603249 B2 JP 4603249B2
Authority
JP
Japan
Prior art keywords
image
captured
imaging
data
texture data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003192964A
Other languages
Japanese (ja)
Other versions
JP2005031745A (en
Inventor
孝行 星野
智明 長野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2003192964A priority Critical patent/JP4603249B2/en
Publication of JP2005031745A publication Critical patent/JP2005031745A/en
Application granted granted Critical
Publication of JP4603249B2 publication Critical patent/JP4603249B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、カメラ付き携帯電話機における画像処理装置に関する。
【0002】
【従来の技術】
従来の画像処理装置として、撮像装置で撮像した画像を仮想空間内の仮想三次元物体に貼り付けるものがある。これによれば、画像情報を画像取り込み手段により取り込み、この取り込んだ画像情報から、仮想三次元物体の特徴位置に対応して設けられたゲージを備えている切り抜き範囲指定用の枠を使って、画像切り出し手段により所定範囲の画像情報を切り出すようにしている。また、このように切り出した所定範囲の画像情報を、仮想三次元物体に貼り付けている(例えば、特許文献1参照)。
【0003】
この画像処理装置では、事前に撮像して取り込んだ二次元画像上にフレーム用の前記枠を表示して、この枠をユーザーに移動、拡大等させて切り出し位置を決定した後、画像上の一部を切り出し、仮想三次元物体上に貼り付けるという作業が必要となる。
【0004】
【特許文献1】
特開2000−235656号公報
【0005】
【発明が解決しようとする課題】
しかしながら、従来の画像処理装置にあっては、撮像装置による撮像時点においては、撮像した画像を仮想三次元物体に貼り付けた後の画像イメージが掴みづらく、期待通りの合成画像が得られない場合があるという問題があった。
また、撮像した画像に対して、ユーザーが切り出し範囲の枠の移動および切り出し作業をする必要があり、この作業に手間が掛かるという問題があった。
【0006】
本発明が解決しようとする課題としては、前記撮像時における画像の仮想三次元物体に対する貼り付け後の画面イメージが把握できないという問題の解決や、ユーザーが切り出し範囲の枠の移動および切り出し作業をする必要があり、手間が掛かるという問題の解決などがそれぞれ一例として挙げられる。
【0007】
【課題を解決するための手段】
請求項1に記載のカメラ付き携帯電話機における画像処理装置は、通信・通話情報および画像情報を携帯電話通信網を介して送受信する通信部、画像情報を記憶する画像記憶手段、キー入力部、を含むカメラ付き携帯電話機における画像処理装置であって、撮像画像が透過して表示されると共にキャラクタの特徴位置と形状を一致させた透過領域が設定されたフレーム用画像が前記画像記憶手段に予め用意され、該フレーム用画像をプレビュー画像として表示する表示手段と、前記プレビュー画像を見ながら撮像できるように前記表示手段と同一面に撮像レンズが配置され、該撮像レンズを通して撮像者自身の像を受光面に結像させて、光電変換した画像データを前記表示手段に連続的に出力して前記フレーム用画像と合成して前記透過領域内に撮像者自身の像を表示させ、前記キー入力部のレリーズキーが押された瞬間に確定した前記透過領域内に表示された撮像者自身の静止画像を撮像する撮像手段と、前記撮像手段により撮像された前記透過領域内の静止画像のデータをテクスチャに変換して撮像画像テクスチャデータとし、該撮像画像テクスチャデータの貼り付けによって置き換えられるテクスチャデータと座標設定を事前に一致させてから、前記キャラクタの特徴位置に前記撮像画像テクスチャデータを貼り付ける画像処理手段と、を有し、前記フレーム用画像は、前記透過領域内の撮像位置の目安となる位置を示すマークを前記透過領域内に備え、前記撮像手段により撮像が行われる際には、前記透過領域内のマークは撮像された前記静止画像に合成されないことを特徴とする。
【0008】
【0009】
【0010】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
本発明の実施の形態に係る画像処理装置は、例えば、カメラ付き携帯電話機に使用される。図1は、本発明の実施の形態に係る画像処理装置を使用した一例であるカメラ付き携帯電話機の構成を示すブロック図である。
図1に示すように、カメラ付き携帯電話機10は、データバス11を介して、撮像部12、CPU13、メモリ部14、キー入力部15、表示部16および通信部17を接続して構成される。
【0011】
撮像部12は、撮像手段として機能し、被写体の像を受光面に結像させて光電変換し、画像データとして出力する。この撮像部12には、例えば、図示しないストロボ装置、被写体を受光面に合焦させるフォーカス調光手段、ズーム調節手段、絞り調節手段等を設けてもよい。
【0012】
CPU13は、カメラ付き携帯電話機10全体の動作を統括制御する情報処理手段および画像処理手段として機能する。このCPU13は撮像部12で得られた画像情報を切り出してキャラクタ登録部がある後述のメモリに送ったり、画像をキャラクタ(物体)に貼り付ける制御のほか、画像データのサンプリングタイミング制御、ストロボ装置の制御、露光制御、フォーカス制御、ズーム制御、画像データの記録制御、通信制御、表示制御、画像データの各種変換処理などの制御を行う。
【0013】
メモリ部14は、キャラクタの仮想三次元形状データのほか、キャラクタの頂点情報、ポリゴン構成情報、テクスチャ座標情報、変形用重み付け情報などの画像情報を記憶する画像記憶手段として機能する。
また、このメモリ部14は、前記各情報とともに携帯電話機の動作プログラム、画像処理プログラム、各種定数、撮像条件を示すパラメータ、画像の性質を示すパラメータ等が記録されたROMや、プログラム実行時の作業領域となるRAMなどから構成されている。
【0014】
また、キー入力部15は、データキーや制御キーを含み、それぞれ対応するデータの入力や撮像部12の撮像に使われるレリーズキー(撮像時にシャッターを切るためのボタン)などの用途に用いられる。
表示部16は各種のテキストデータのほか、画像データを表示する表示手段として機能し、例えば、液晶ディスプレイや有機ELディスプレイ等からなる。
通信部17は、通信・通話情報や前記画像情報等を携帯電話通信網を介して送受信する。
【0015】
次に、本実施の形態に係る画像処理装置を使用するカメラ付き携帯電話機10の外観の一例を挙げ、図2を用いて説明する。
図2は、カメラ付き携帯電話機の正面図である。このカメラ付き携帯電話機10は外装体が縦長の箱体からなり、正面には液晶ディスプレイや有機EL表示パネルなどからなる表示部16が設けられている。
【0016】
この表示部16の上方にはカメラ付き携帯電話機10の受話部となるスピーカ18が配置され、一方、表示部16の下方には撮像部12の撮像レンズ19が配置されている。また、外装体の上面には通信部17のアンテナ23が突設されている。
【0017】
さらに、撮像レンズ19の下部には、レリーズキー21やカーソル移動キー22等を含む各種の機能を選択するための制御キー群24およびダイヤルボタンを含むデータキー群25が配置されている。
さらに、データキー群25の下部にはマイク26が配置されている。これらのデータキー群25および制御キー群24の各キーはキー入力部15に設けられている。
【0018】
次に、本実施の形態に係る画像処理装置の処理方法について、図面を用いて説明する。
最初に、撮像画像の取り込みからテクスチャ化までの処理手順を図3のフローチャートに沿って、図4、図5を用いて説明する。
【0019】
まず、図4に示すような、予めガイドとなるフレーム用画像27を用意する(ステップS1)。このフレーム用画像27は、撮像部12でのプレビュー画像表示時に、撮像画像が透過して表示される透過領域27aが設定されている。そして、撮像画像が貼り付けられた時のイメージができるだけ分かり易いようなデザインに設定されている。なお、このフレーム用画像27のデータは、メモリ部14内の所定領域に予め登録してある。
【0020】
次に、デジタルカメラ機能を開始すると(ステップS2)、撮像部12は撮像レンズ19を通してプレビュー用の画像(例えば、ユーザー自身の顔)を取り込む(ステップS3)。
【0021】
この取り込んだプレビュー用の画像に、ステップS1で得たフレーム用画像27を透過領域27aを除いて合成する(ステップS4)。この合成した画像を表示部16で表示する(ステップS5)。
【0022】
そして、ユーザーは図5に示すように、カメラ付き携帯電話機10を持ちながら表示部16の表示画像を見て、フレーム用画像27の透過領域27aにユーザー自身の顔が入るように、被写体であるユーザー自身の顔とカメラ付き携帯電話機10の撮像レンズ19との位置関係を手を動かして調整しながら、さらに、カーソル移動キー22を操作して透過領域27aに表示されたユーザー自身の顔に対してズームや位置の微調整を行う。
【0023】
次に、ユーザーが撮影の決断を下してレリーズキー21を押したかどうかを判断し(ステップS6)、押されていない場合(ステップS6のNO)にはステップS3以降の処理を繰り返す。これにより、リアルタイムに刻々と変化するプレビュー用の画像に対して、透過領域27aにユーザー自身の顔が入るように調整を行える。
【0024】
こうして最終的にユーザーが決断し、レリーズキー21が押された場合(ステップS6のYES)は、レリーズキー21が押された瞬間に透過領域27aに表示された静止画像を確定し、この静止画像を汎用的な画像情報としてエンコードする(ステップS7)。
【0025】
ここで、ステップS7で生成された画像情報と、テクスチャとして扱えるデータのフォーマットが異なる場合は、テクスチャ用のフォーマットに変換する(ステップS8)。こうして、上記確定された静止画像がテクスチャ化された撮像画像テクスチャデータが得られる。
【0026】
続いて、撮像画像テクスチャデータをキャラクタの特徴位置(例えば、顔)に貼り付けて表示するまでの処理手順を図6のフロチャートに沿って、図7〜図11を用いて説明する。
まず、図7に示すような、メモリ部14に予め登録してあるキャラクタ28の仮想三次元形状データ(例えば、ぬいぐるみ全身)を読み込む(ステップS11)。
【0027】
次に、キャラクタ28の仮想三次元モーションデータを動画形成のための連続画データとして読み込む(ステップS12)。
【0028】
次に、図8に示すキャラクタ28の仮想三次元テクスチャデータ28A(例えば、ぬいぐるみの顔を抜いた全身)を読み込む(ステップS13)。
【0029】
ここで云う、仮想三次元テクスチャデータ28Aとは、撮像画像テクスチャデータ(例えば、ユーザーの顔)の貼り付けによって置き換えられることがないテクスチャ(例えば、顔のないぬいぐるみ全身)を指す。ここで、図のフローチャートで説明したような手順によって作成された撮像画像テクスチャデータの有無を判定する(ステップS14)。
【0030】
この判定で、撮像画像テクスチャデータが存在しない場合には、図9に示すような、キャラクタ28の仮想三次元テクスチャデータ28B(例えば、ぬいぐるみの顔)を読み込む(ステップS15)。
【0031】
ここで云う、キャラクタの仮想三次元テクスチャデータ28Bとは、撮像画像テクスチャデータ(例えば、ユーザーの顔)の貼り付けによって置き換えられるテクスチャを指す。画像の撮影前やユーザーが撮像データを削除した場合にデフォルトの画像として貼り付けられるものである。
【0032】
一方、撮像画像テクスチャデータがある場合は、図10に示すような、撮像画像テクスチャデータ29を読み込む(ステップS16)。
【0033】
キャラクタデータ作成時は、キャラクタ28の仮想三次元テクスチャデータ28Bの画像を貼り付けることを前提としてテクスチャ座標設定がなされているが、この仮想三次元テクスチャデータ28Bとフレーム用画像27に合わせて撮影された画像データのテクスチャ座標関係を事前に一致させておくことで、撮影後の位置調整等を必要とせずに、画像を置き換えるだけで適切な位置に撮像画像を貼り付けることができる。
【0034】
こうして、図11に示すように、仮想三次元テクスチャデータ28Aに撮像画像テクスチャデータ29を貼り付けた画像(例えば、ユーザーの顔を貼り付けたぬいぐるみ)ができあがる。
【0035】
さらに、図12に示すようなキャラクタ28の仮想三次元ワイヤーフレームに対して、3Dポリゴン表示やテクスチャマッピングの技術等を用いて、三次元シミュレーションを行えば、仮想三次元キャラクタ動画(例えば、ユーザーの顔を貼り付けたぬいぐるみが踊る動画など)を生成することができる(ステップS17)。
【0036】
最後に、こうして生成された仮想三次元キャラクタ動画は、表示部16に表示される(ステップS18)。
【0037】
なお、前述のプレビュー時に、取り込んだ画像にフレーム用画像27を合成するとき(ステップS4)、フレーム用画像27は貼り付け位置設定用のガイドとしての役割を持つが、貼り付け時の特殊効果的な使い方もできる。
例えば、予めメモリ部14に保存された画像データなどを使用して、枠として表わされる眼鏡の縁の画像や赤い鼻などの画像を合成して(例えば、ユーザーの顔に眼鏡や赤い鼻が合成される)、キャラクタ28に貼り付けることができる。
【0038】
また、撮像する際には、取り込んだ画像とフレーム用画像とを必ずしも合成しなくてもよく、これにより、撮像位置の目安としてのみ書き込んだ画像などにより、取り込んだ画像が上書きされてしまうことを防ぐことができる。
例えば、ユーザーの顔を撮る際に、目や口の撮像位置の目安となるマーク等を書き込んだ画像をフレームとして使用した場合、そのまま合成してしまうと、顔の上に上記マーク等が上書きされ、貼り付けに使用するには適さない画像になってしまう。合成しなければこのような問題は発生しないため、撮像に際してより細かなガイド機能を持つ(例えば、撮像位置の目安となるマーク等を書き込んだ)フレーム用画像が使用できる。
【0039】
なお、本実施の形態では、仮想三次元キャラクタ動画を表示部16に表示させるようにしているが、撮像画像テクスチャデータをキャラクタに貼り付けて表示する画像は、二次元の動画や静止画でもよい。
【0040】
なお、上記の仮想三次元キャラクタ動画や二次元の動画、静止画などは、必ずしも表示部16に表示させる必要はなく、それらのデータを他の携帯電話機や端末等に無線あるいは有線で送信してもよい。
【0041】
【0042】
以上詳述したように、本実施の形態における画像処理装置であるカメラ付き携帯電話機10は、
撮像画像が透過して表示されると共にキャラクタ28の特徴位置(例えば、顔の部分)と形状を一致させた透過領域27aが設定されたフレーム用画像27がメモリ部14(画像記憶手段)に予め用意され、フレーム用画像27をプレビュー画像として表示する表示部16(表示手段)と、
プレビュー画像を見ながら撮像できるように表示部16と同一面に撮像レンズ19が配置されており、撮像レンズ19を通して撮像者自身の像を受光面に結像させて、光電変換した画像データを表示部16に連続的に出力してフレーム用画像27と合成して透過領域27a内に撮像者自身の像を表示させ、撮像者によってキー入力部15のシャッターボタンとして機能するレリーズキー21が押された瞬間に確定した前記透過領域内に表示された静止画像を撮像する撮像部12(撮像手段)と、
撮像部12により撮像された前記透過領域内の静止画像のデータをテクスチャに変換して撮像画像テクスチャデータ29とし、該撮像画像テクスチャデータ29の貼り付けによって置き換えられるテクスチャデータ(仮想三次元テクスチャデータ28B)と座標設定を事前に一致させてから、キャラクタ28の特徴位置(例えば、顔の位置)に前記撮像画像テクスチャデータ29を貼り付けるCPU13(画像処理手段)と、を有している。
これにより、ユーザーは撮影時に、キャラクタ28に対する撮像画像の貼り付け位置を簡単に掴むことができ、位置が適正となったタイミングにてレリーズキー21を押すだけで、最適の静止画像が得られる。
また、この撮像した画像に対して、ユーザーが切り出し範囲の枠の移動および切り出し作業をする必要が無く、手間を掛けずにキャラクタ28に撮像画像テクスチャデータ29を貼り付けることができる。
【図面の簡単な説明】
【図1】 本発明の実施の形態に係る画像処理装置を使用した一例であるカメラ付き携帯電話機の構成を示すブロック図である。
【図2】 本発明の実施の形態に係る画像処理装置を使用した一例であるカメラ付き携帯電話機を示す正面図である。
【図3】 本発明の実施の形態に係る画像処理装置における画像処理方法の撮像画像の取り込みからテクスチャ化までの処理手順処理を示すフローチャートである。
【図4】 フレーム用画像を示す図である。
【図5】 ユーザーがカメラ付き携帯電話機を持ちながら撮像画像の取り込みを行っていることを示す説明図である。
【図6】 撮像画像テクスチャデータをキャラクタの特徴位置に貼り付けて表示するまでの処理手順を示すフロチャートである。
【図7】 予め登録してあるキャラクタ28を示す図である。
【図8】 キャラクタの仮想三次元テクスチャデータ28A(例えば、ぬいぐるみの顔を抜いた全身)を示す図である。
【図9】 キャラクタの仮想三次元テクスチャデータ28B(例えば、ぬいぐるみの顔)を示す図である。
【図10】 撮像画像テクスチャデータ29を(例えば、ユーザーの顔)を示す図である。
【図11】 仮想三次元テクスチャデータ28Aに撮像画像テクスチャデータ29を貼り付けた画像(例えば、ユーザーの顔を貼り付けたぬいぐるみ)を示す図である。
【図12】 キャラクタの仮想三次元ワイヤーフレームを示す図である。
【符号の説明】
10 携帯電話機(画像処理装置)
12 撮像部(撮像手段)
13 CPU(画像処理手段)
14 メモリ部(画像記憶手段)
16 表示部(表示手段)
27 フレーム用画像
27a 透過領域
28 キャラクタ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus in a camera-equipped mobile phone.
[0002]
[Prior art]
As a conventional image processing apparatus, there is an apparatus that pastes an image captured by an imaging apparatus to a virtual three-dimensional object in a virtual space. According to this, the image information is captured by the image capturing means, and from this captured image information, using a clipping range designation frame provided with a gauge provided corresponding to the feature position of the virtual three-dimensional object, The image cutout means cuts out a predetermined range of image information. Moreover, the image information of the predetermined range cut out in this way is pasted on the virtual three-dimensional object (for example, refer to Patent Document 1).
[0003]
In this image processing apparatus, the frame for a frame is displayed on a two-dimensional image captured and captured in advance, the frame is moved and enlarged by the user, and the cutout position is determined. The work of cutting out the part and pasting it on the virtual three-dimensional object is required.
[0004]
[Patent Document 1]
Japanese Patent Laid-Open No. 2000-235656
[Problems to be solved by the invention]
However, in the conventional image processing apparatus, at the time of image capturing by the image capturing apparatus, it is difficult to grasp the image image after pasting the captured image on the virtual three-dimensional object, and a composite image as expected cannot be obtained. There was a problem that there was.
In addition, there is a problem that the user needs to move and cut out the frame of the cutout range for the captured image, and this work is troublesome.
[0006]
The problem to be solved by the present invention is to solve the problem that the screen image after pasting the virtual three-dimensional object of the image at the time of imaging cannot be grasped, or the user moves and cuts out the frame of the cutout range One example is the solution to the problem that it is necessary and time-consuming.
[0007]
[Means for Solving the Problems]
An image processing apparatus for a camera-equipped cellular phone according to claim 1 comprises: a communication unit that transmits and receives communication / call information and image information via a cellular phone communication network; an image storage unit that stores image information; and a key input unit. An image processing apparatus for a camera-equipped mobile phone including a frame image in which a captured image is transmitted and displayed, and a transmission region in which a character's feature position and shape are matched is set in the image storage unit in advance A display means for displaying the frame image as a preview image, and an imaging lens arranged on the same plane as the display means so that the image can be taken while viewing the preview image, and the photographer's own image is received through the imaging lens. The image data formed on the surface and photoelectrically converted is continuously output to the display means and synthesized with the frame image to form the transmission region. An imaging unit to display the image of the photographer himself, capturing a still image of the key input unit the transmission region the photographer is displayed in its own the release key is confirmed the moment pressed in to by the image pickup means The captured still image data in the transparent area is converted into texture to obtain captured image texture data, and the texture data to be replaced by pasting of the captured image texture data and coordinate settings are matched in advance, and then the character Image processing means for pasting the captured image texture data at the feature position, and the frame image is provided with a mark indicating the position of the imaging position in the transmissive area in the transmissive area , when the image is taken by the imaging means, especially that marks the transmissive region are not synthesized in the still image captured To.
[0008]
[0009]
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The image processing apparatus according to the embodiment of the present invention is used in , for example, a camera-equipped mobile phone. Figure 1 is a block diagram showing a camera-equipped mobile phone configuration is an example of using the image processing equipment according to the embodiment of the present invention.
As shown in FIG. 1, the camera-equipped mobile phone 10 is configured by connecting an imaging unit 12, a CPU 13, a memory unit 14, a key input unit 15, a display unit 16, and a communication unit 17 via a data bus 11. .
[0011]
The imaging unit 12 functions as an imaging unit, forms an image of a subject on a light receiving surface, performs photoelectric conversion, and outputs the image data. The imaging unit 12 may be provided with, for example, a strobe device (not shown), a focus light adjusting unit that focuses the subject on the light receiving surface, a zoom adjusting unit, a diaphragm adjusting unit, and the like.
[0012]
The CPU 13 functions as an information processing unit and an image processing unit that control the overall operation of the camera-equipped mobile phone 10. This CPU 13 cuts out the image information obtained by the image pickup unit 12 and sends it to a memory, which will be described later, where the character registration unit is located. In addition to controlling the image to be pasted on a character (object), the CPU 13 controls the sampling timing of image data, Control such as control, exposure control, focus control, zoom control, image data recording control, communication control, display control, and various conversion processing of image data is performed.
[0013]
The memory unit 14 functions as image storage means for storing image information such as character vertex information, polygon configuration information, texture coordinate information, and deformation weighting information in addition to the virtual three-dimensional shape data of the character.
In addition, the memory unit 14 includes a mobile phone operation program, an image processing program, various constants, parameters indicating imaging conditions, parameters indicating image properties, and the like, as well as work during program execution. It is composed of an area RAM or the like.
[0014]
The key input unit 15 includes data keys and control keys, and is used for applications such as input of corresponding data and a release key (button for releasing a shutter at the time of imaging) used for imaging of the imaging unit 12.
The display unit 16 functions as a display unit that displays image data in addition to various text data, and includes, for example, a liquid crystal display or an organic EL display.
The communication unit 17 transmits and receives communication / call information, the image information, and the like via a mobile phone communication network.
[0015]
Then, like an example of the appearance of a camera-equipped mobile phone 10 to use the image processing equipment according to the present embodiment will be described with reference to FIG.
FIG. 2 is a front view of the camera-equipped mobile phone. The camera-equipped mobile phone 10 has a vertically long outer casing, and a display unit 16 including a liquid crystal display or an organic EL display panel is provided on the front.
[0016]
Above the display unit 16, a speaker 18 serving as a receiver of the camera-equipped mobile phone 10 is disposed, and on the other hand, an imaging lens 19 of the imaging unit 12 is disposed below the display unit 16. In addition, an antenna 23 of the communication unit 17 protrudes from the upper surface of the exterior body.
[0017]
Further, a control key group 24 for selecting various functions including a release key 21 and a cursor movement key 22 and a data key group 25 including a dial button are disposed below the imaging lens 19.
Further, a microphone 26 is disposed below the data key group 25. Each key of the data key group 25 and the control key group 24 is provided in the key input unit 15.
[0018]
Next, a processing method of the image processing apparatus according to the present embodiment will be described with reference to the drawings.
First, a processing procedure from capturing a captured image to texturing will be described with reference to FIGS. 4 and 5 along the flowchart of FIG.
[0019]
First, a frame image 27 as a guide is prepared in advance as shown in FIG. 4 (step S1). The frame image 27 is set with a transmissive area 27 a in which the captured image is displayed when the preview image is displayed on the imaging unit 12. The design is such that the image when the captured image is pasted is as easy to understand as possible. The data of the frame image 27 is registered in advance in a predetermined area in the memory unit 14.
[0020]
Next, when the digital camera function is started (step S2), the imaging unit 12 captures a preview image (for example, the user's own face) through the imaging lens 19 (step S3).
[0021]
The frame image 27 obtained in step S1 is combined with the captured preview image except for the transparent region 27a (step S4). The synthesized image is displayed on the display unit 16 (step S5).
[0022]
Then, as shown in FIG. 5, the user looks at the display image on the display unit 16 while holding the camera-equipped mobile phone 10, and is the subject so that the user's own face enters the transparent area 27 a of the frame image 27. While adjusting the positional relationship between the user's own face and the imaging lens 19 of the camera-equipped mobile phone 10 by moving the hand , the cursor movement key 22 is further operated to display the user's own face displayed in the transparent area 27a. a fine adjustment of the zoom and position Te.
[0023]
Next, it is determined whether or not the user has decided to shoot and pressed the release key 21 (step S6) . If not pressed (NO in step S6) , the processes in and after step S3 are repeated. As a result, it is possible to adjust the preview image that changes every moment in real time so that the user's own face enters the transparent region 27a .
[0024]
When the user finally decides and the release key 21 is pressed (YES in step S6), the still image displayed in the transparent area 27a is determined at the moment when the release key 21 is pressed , and this still image is displayed. the encoded as a general image information (step S7).
[0025]
If the image information generated in step S7 and the format of the data that can be handled as a texture are different, the format is converted to a texture format (step S8). Thus, the captured image texture data said determined still image is textured is obtained.
[0026]
Subsequently, the captured image texture data, wherein the position of the character (for example, a face) the processing procedure up displays stuck on along the flows charts of FIG. 6 will be described with reference to FIGS. 7-11.
First, the virtual three-dimensional shape data (for example, the whole stuffed animal) of the character 28 registered in advance in the memory unit 14 as shown in FIG. 7 is read (step S11).
[0027]
Next, the virtual three-dimensional motion data of the character 28 is read as continuous image data for moving image formation (step S12).
[0028]
Next, the virtual three-dimensional texture data 28A of the character 28 shown in FIG. 8 (for example, the whole body with the stuffed face removed) is read (step S13).
[0029]
Here, the virtual three-dimensional texture data 28A refers to a texture (for example, a stuffed toy whole body without a face) that cannot be replaced by pasting captured image texture data (for example, a user's face). Here, the presence / absence of captured image texture data created by the procedure described in the flowchart of FIG. 3 is determined (step S14).
[0030]
If it is determined that there is no captured image texture data, virtual three-dimensional texture data 28B (for example, a stuffed face) of the character 28 as shown in FIG. 9 is read (step S15).
[0031]
Here, the virtual three-dimensional texture data 28B of the character refers to a texture that is replaced by pasting captured image texture data (for example, a user's face). This is pasted as a default image before the image is taken or when the user deletes the image data.
[0032]
On the other hand, when there is captured image texture data, captured image texture data 29 as shown in FIG. 10 is read (step S16).
[0033]
At the time of creating character data, texture coordinates are set on the premise that an image of the virtual three-dimensional texture data 28B of the character 28 is pasted. However, the character data is taken according to the virtual three-dimensional texture data 28B and the frame image 27. By matching the texture coordinate relationship of the image data in advance, the captured image can be pasted at an appropriate position simply by replacing the image without requiring position adjustment after shooting.
[0034]
In this way, as shown in FIG. 11, an image (for example, a stuffed animal with a user's face pasted) is created by pasting the captured image texture data 29 on the virtual three-dimensional texture data 28A.
[0035]
Furthermore, if a 3D simulation is performed on the virtual 3D wire frame of the character 28 as shown in FIG. 12 using 3D polygon display, texture mapping technology, etc., a virtual 3D character animation (for example, the user's A moving image of a stuffed toy with a face attached can be generated (step S17).
[0036]
Finally, the virtual three-dimensional character moving image generated in this way is displayed on the display unit 16 (step S18).
[0037]
When the frame image 27 is combined with the captured image at the time of the preview (step S4), the frame image 27 serves as a guide for setting the pasting position. Can also be used.
For example, the image data stored in the memory unit 14 in advance is used to synthesize an image of the edge of the glasses represented as a frame or an image such as a red nose (for example, glasses or a red nose are synthesized on the user's face). Can be pasted on the character 28.
[0038]
Also, when capturing an image, it is not always necessary to combine the captured image and the frame image, so that the captured image is overwritten by an image written only as a guide for the imaging position. Can be prevented.
For example, when taking an image of a user's face and using an image with a mark or the like as a guide for the imaging position of the eyes or mouth as a frame, if the image is combined as it is, the above mark or the like is overwritten on the face. , The image becomes unsuitable for use in pasting. Since such a problem does not occur unless they are combined, a frame image having a finer guide function (for example, a mark or the like as a guide for the imaging position) can be used for imaging.
[0039]
In the present embodiment, the virtual three-dimensional character moving image is displayed on the display unit 16, but the image displayed by pasting the captured image texture data on the character may be a two-dimensional moving image or a still image. .
[0040]
Note that the above virtual three-dimensional character video, two-dimensional video, still image, etc. do not necessarily have to be displayed on the display unit 16, and those data are transmitted to other mobile phones, terminals, etc. wirelessly or by wire. Also good.
[0041]
[0042]
As described above in detail, the camera-equipped cellular phone 10 that is the image processing apparatus in the present embodiment is
A frame image 27 in which a captured image is transmitted and displayed and a transparent region 27a in which the shape of the character 28 is matched with the feature position (for example, a face portion) is set in the memory unit 14 (image storage unit) in advance. A display unit 16 (display means) that is prepared and displays the frame image 27 as a preview image ;
An imaging lens 19 is arranged on the same surface as the display unit 16 so that the user can take an image while viewing the preview image. The image of the photographer himself is formed on the light receiving surface through the imaging lens 19 and the photoelectrically converted image data is displayed. The image is continuously output to the unit 16 and is combined with the frame image 27 to display an image of the photographer himself / herself in the transmissive area 27a, and the release key 21 that functions as the shutter button of the key input unit 15 is pressed by the photographer. An image pickup unit 12 (image pickup means) for picking up a still image displayed in the transmission region determined at a certain moment ;
The still image data in the transparent area captured by the image capturing unit 12 is converted into texture to be captured image texture data 29, and texture data (virtual three-dimensional texture data 28B replaced by pasting of the captured image texture data 29 is added. ) And the coordinate setting in advance, and then the CPU 13 (image processing means) for pasting the captured image texture data 29 to the characteristic position of the character 28 (for example, the position of the face) .
As a result, the user can easily grasp the pasting position of the captured image on the character 28 at the time of shooting, and an optimum still image can be obtained simply by pressing the release key 21 when the position becomes appropriate.
Further, it is not necessary for the user to move and cut out the frame of the cutout range for the picked up image, and the picked-up image texture data 29 can be pasted on the character 28 without taking time and effort.
[Brief description of the drawings]
1 is a block diagram showing a camera-equipped mobile phone configuration is an example of using the image processing equipment according to the embodiment of the present invention.
2 is a front view of a camera-equipped mobile phone as an example of using the image processing equipment according to the embodiment of the present invention.
FIG. 3 is a flowchart showing processing procedure processing from capturing a captured image to texturing of the image processing method in the image processing apparatus according to the embodiment of the present invention;
FIG. 4 is a diagram illustrating a frame image.
FIG. 5 is an explanatory diagram showing that a user is capturing a captured image while holding a camera-equipped mobile phone;
6 is a flow chart showing the processing procedure up displays paste captured image texture data to the feature position of the character.
FIG. 7 is a diagram showing characters 28 registered in advance.
FIG. 8 is a diagram showing character virtual three-dimensional texture data 28A (for example, a whole body with a stuffed animal face removed);
FIG. 9 is a view showing virtual three-dimensional texture data 28B (for example, a stuffed face) of a character.
FIG. 10 is a diagram illustrating captured image texture data 29 (for example, a user's face).
FIG. 11 is a diagram illustrating an image (for example, a stuffed animal with a user's face pasted) on which the captured image texture data 29 is pasted on the virtual three-dimensional texture data 28A.
FIG. 12 shows a virtual three-dimensional wire frame of a character.
[Explanation of symbols]
10 Mobile phone (image processing device)
12 Imaging unit (imaging means)
13 CPU (image processing means)
14 Memory unit (image storage means)
16 Display section (display means)
27 Image for frame 27a Transparent area 28 Character

Claims (1)

通信・通話情報および画像情報を携帯電話通信網を介して送受信する通信部、画像情報を記憶する画像記憶手段、キー入力部、を含むカメラ付き携帯電話機における画像処理装置であって、
撮像画像が透過して表示されると共にキャラクタの特徴位置と形状を一致させた透過領域が設定されたフレーム用画像が前記画像記憶手段に予め用意され、該フレーム用画像をプレビュー画像として表示する表示手段と、
前記プレビュー画像を見ながら撮像できるように前記表示手段と同一面に撮像レンズが配置され、該撮像レンズを通して撮像者自身の像を受光面に結像させて、光電変換した画像データを前記表示手段に連続的に出力して前記フレーム用画像と合成して前記透過領域内に撮像者自身の像を表示させ、前記キー入力部のレリーズキーが押された瞬間に確定した前記透過領域内に表示された撮像者自身の静止画像を撮像する撮像手段と、
前記撮像手段により撮像された前記透過領域内の静止画像のデータをテクスチャに変換して撮像画像テクスチャデータとし、該撮像画像テクスチャデータの貼り付けによって置き換えられるテクスチャデータと座標設定を事前に一致させてから、前記キャラクタの特徴位置に前記撮像画像テクスチャデータを貼り付ける画像処理手段と
を有し、
前記フレーム用画像は、前記透過領域内の撮像位置の目安となる位置を示すマークを前記透過領域内に備え、
前記撮像手段により撮像が行われる際には、前記透過領域内のマークは撮像された前記静止画像に合成されないことを特徴とするカメラ付き携帯電話機における画像処理装置。
An image processing apparatus for a camera-equipped mobile phone including a communication unit that transmits and receives communication / call information and image information via a mobile phone communication network, an image storage unit that stores image information, and a key input unit,
A display in which a captured image is transmitted and displayed, and a frame image in which a transparent region in which the character's characteristic position and shape are matched is set in the image storage means, and the frame image is displayed as a preview image Means,
An imaging lens is arranged on the same surface as the display means so that the image can be taken while viewing the preview image, and an image of the photographer is formed on a light receiving surface through the imaging lens, and photoelectrically converted image data is displayed on the display means Are continuously output and combined with the frame image to display an image of the photographer himself / herself in the transmissive area, and displayed in the transmissive area determined at the moment when the release key of the key input unit is pressed. An imaging means for capturing a still image of the photographer himself / herself ,
Still image data in the transparent area captured by the imaging means is converted into texture to obtain captured image texture data, and the texture data to be replaced by pasting the captured image texture data and coordinate settings are matched in advance. From the image processing means for pasting the captured image texture data to the feature position of the character ,
Have
The frame image is provided with a mark in the transmissive area indicating a position that serves as a guide for an imaging position in the transmissive area .
An image processing apparatus in a camera-equipped cellular phone , wherein a mark in the transmission region is not combined with the captured still image when imaging is performed by the imaging means .
JP2003192964A 2003-07-07 2003-07-07 Image processing apparatus for mobile phone with camera Expired - Fee Related JP4603249B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003192964A JP4603249B2 (en) 2003-07-07 2003-07-07 Image processing apparatus for mobile phone with camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003192964A JP4603249B2 (en) 2003-07-07 2003-07-07 Image processing apparatus for mobile phone with camera

Publications (2)

Publication Number Publication Date
JP2005031745A JP2005031745A (en) 2005-02-03
JP4603249B2 true JP4603249B2 (en) 2010-12-22

Family

ID=34204602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003192964A Expired - Fee Related JP4603249B2 (en) 2003-07-07 2003-07-07 Image processing apparatus for mobile phone with camera

Country Status (1)

Country Link
JP (1) JP4603249B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7312550B2 (en) * 2018-12-28 2023-07-21 株式会社イトーキ Virtual space providing system, virtual space providing method and program
CN112991147B (en) 2019-12-18 2023-10-27 抖音视界有限公司 Image processing method, device, electronic equipment and computer readable storage medium

Also Published As

Publication number Publication date
JP2005031745A (en) 2005-02-03

Similar Documents

Publication Publication Date Title
CN110072070B (en) Multi-channel video recording method, equipment and medium
CN102055834B (en) Double-camera photographing method of mobile terminal
US7440013B2 (en) Image pickup device with facial region detector and method of synthesizing image including facial region
CN111183632A (en) Image capturing method and electronic device
CN113489894B (en) Shooting method and terminal in long-focus scene
CN111327814A (en) Image processing method and electronic equipment
KR101433157B1 (en) Mobile terminal and method for transmitting image thereof
US20090227283A1 (en) Electronic device
KR20140106779A (en) Apparatus and method for processing a image in device
WO2021244455A1 (en) Image content removal method and related apparatus
WO2004039068A1 (en) Image combining portable terminal and image combining method used therefor
JP2008198062A (en) Image processor and image processing method
CN114092364A (en) Image processing method and related device
JP2015001609A (en) Control device and storage medium
WO2020155052A1 (en) Method for selecting images based on continuous shooting and electronic device
WO2021185296A1 (en) Photographing method and device
JP5923595B2 (en) Image processing apparatus and method, and imaging apparatus
WO2022001806A1 (en) Image transformation method and apparatus
CN113497890B (en) Shooting method and equipment
JP2005204015A (en) Mobile equipment and image processing method
JP4603249B2 (en) Image processing apparatus for mobile phone with camera
JP2001320454A (en) Mobile phone with camera
JP7128347B2 (en) Image processing device, image processing method and program, imaging device
JP2010081562A (en) Imaging device, method, and program
JP2006128754A (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20060621

Free format text: JAPANESE INTERMEDIATE CODE: A621

A131 Notification of reasons for refusal

Effective date: 20081008

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081127

A02 Decision of refusal

Effective date: 20081216

Free format text: JAPANESE INTERMEDIATE CODE: A02

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090205

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090223

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090319

A521 Written amendment

Effective date: 20100826

Free format text: JAPANESE INTERMEDIATE CODE: A523

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Effective date: 20101001

Free format text: JAPANESE INTERMEDIATE CODE: A61

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees