JP2004086384A - Image editing method, image editing device, computer program and recording medium - Google Patents

Image editing method, image editing device, computer program and recording medium Download PDF

Info

Publication number
JP2004086384A
JP2004086384A JP2002244389A JP2002244389A JP2004086384A JP 2004086384 A JP2004086384 A JP 2004086384A JP 2002244389 A JP2002244389 A JP 2002244389A JP 2002244389 A JP2002244389 A JP 2002244389A JP 2004086384 A JP2004086384 A JP 2004086384A
Authority
JP
Japan
Prior art keywords
editing
area
image
edit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002244389A
Other languages
Japanese (ja)
Other versions
JP4142918B2 (en
Inventor
Teruhiro Akamatsu
赤松 彰宏
Yuji Yo
楊 裕治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Make Software Co Ltd
Original Assignee
Make Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Make Software Co Ltd filed Critical Make Software Co Ltd
Priority to JP2002244389A priority Critical patent/JP4142918B2/en
Publication of JP2004086384A publication Critical patent/JP2004086384A/en
Application granted granted Critical
Publication of JP4142918B2 publication Critical patent/JP4142918B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image editing method etc., for easily designating a place whose adjustment is desired by one player, and for preventing the area of the other player from being affected by the adjustment of one player. <P>SOLUTION: An edition area is set for each object based on the featured points of the image data of a subject such as the vertex of the head and the eyes or color information such as the color of the hair and the color of the skin. Then, the designation of one edition area is accepted form the set edition area, and edition information for the accepted edition area is accepted from an input means, and the image data of the edition area are edited based on the accepted edition information. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、演算処理手段により前記画像データを編集する画像編集方法、画像編集装置、コンピュータを画像編集装置として機能させるためのコンピュータプログラム及び記録媒体に関し、特に遊戯施設に設置される画像編集装置であって、編集を希望する箇所のみをプレイヤが選択して実行することが可能な画像編集方法等に関する。
【0002】
【従来の技術】
遊戯施設等に設置される画像編集装置は、所定の対価の支払いを条件に、CCD(Charge Coupled Device)等の撮像部から画像データを取り込み、この取り込んだ画像データをモニタ上に載置されるタッチパネル式の入力手段から、タブレットペン等で編集情報を入力して、シール等の印刷媒体に編集後の画像データを印刷する。このような画像編集装置においては、撮影時の光量不足を補うため、または肌の色をより自然な色合いにするために、所謂ハイキー調整が行われる。
【0003】
このハイキー調整は、取り込んだ画像データの明度を変更させることにより調整を行う。プレイヤは、表示部に表示される画像を見ながら好みの色合いに設定し、その後印刷する画像を決定し所望の画像をシールに印刷する。このようなハイキー調整を行うものとして、例えば、特開2002−77782号公報に開示された画像印刷装置が知られている。特開2002−77782号公報には、明るさ変更ボタンが画面に表示され、操作パネルから明るさ調整ボタンを適宜操作することによって画像全体の明度を変更させる技術が開示されている。
【0004】
【発明が解決しようとする課題】
しかしながら、従来のハイキー調整は画面全体の明度が変更されるため、複数人のプレイヤが撮影された場合、各プレイヤが自分の好みの色合いに調整することができないという問題があった。特に、遊戯施設に設置される画像編集装置は、単独で撮影した画像よりもむしろ、複数人で撮影した画像を編集することが圧倒的に多いためプレイヤ毎に自由に色合い等を調整することが可能な画像編集装置の開発が切望されていた。
【0005】
本発明は斯かる事情に鑑みてなされたものであり、その目的とするところは、編集を希望する編集画素を受け付け、この受け付けた編集画素の色情報に基づいて、該編集画素を含む編集領域を設定し、この設定された編集領域について編集情報を入力させることにより、一のプレイヤが調整を希望する箇所を容易に指定でき、また他のプレイヤの領域については一のプレイヤの調整による影響を受けることがない画像編集方法、画像編集装置、コンピュータを画像編集装置として機能させるためのコンピュータプログラム及び記録媒体を提供することにある。
【0006】
また、本発明の他の目的は、被写体の画像データの特徴点または色情報に基づき、被写体毎の編集領域を設定し、設定された編集領域から一の編集領域の指定を受け付け、この設定された一の被写体の編集領域についてのみ編集を行うことにより、より遊技性が高く、また他のプレイヤの領域については一のプレイヤの調整による影響を受けることがない画像編集方法、画像編集装置、コンピュータを画像編集装置として機能させるためのコンピュータプログラム及び記録媒体を提供することにある。
【0007】
さらに、本発明の他の目的は、被写体毎に編集領域が設定された後に、さらに編集領域を顔、髪等の体領域毎にさらに分割し、この分割された領域内において画像の編集を行うことにより、さらに多様な画像編集を行うことが可能な画像編集装置を提供することにある。
【0008】
【課題を解決するための手段】
第1発明に係る画像編集方法は、撮像された画像データに対して入力手段から入力された編集情報に基づき、演算処理手段により前記画像データを編集する画像編集方法において、前記入力手段から編集画素を受け付けるステップと、受け付けた編集画素の色情報に基づいて、前記演算処理手段により前記編集画素を含む編集領域を設定する領域設定ステップと、設定された編集領域に対する編集情報を前記入力手段から受け付けるステップと、受け付けた編集情報に基づき、前記演算処理手段により前記編集領域の画像データを編集するステップとを備えることを特徴とする。
【0009】
第2発明に係る画像編集方法は、撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、演算処理手段により前記画像データを編集する画像編集方法において、被写体の画像データの特徴点または色情報に基づき、前記演算処理手段により被写体毎の編集領域を設定する領域設定ステップと、設定された被写体毎の編集領域から一の被写体に係る編集領域の指定を、前記入力手段から受け付ける指定受付ステップと、受け付けた編集領域に対する編集情報を入力手段から受け付けるステップと、受け付けた編集情報に基づき、前記演算処理手段により前記編集領域の画像データを編集するステップとを備えることを特徴とする。
【0010】
第3発明に係る画像編集装置は、撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、演算処理手段により前記画像データを編集する画像編集装置において、前記入力手段から編集画素を受け付ける手段と、受け付けた編集画素の色情報に基づいて、前記演算処理手段により前記編集画素を含む編集領域を設定する領域設定手段と、設定された編集領域に対する編集情報を入力手段から受け付ける手段と、受け付けた編集情報に基づき、前記演算処理手段により前記編集領域の画像データを編集する手段とを備えることを特徴とする。
【0011】
第4発明に係る画像編集装置は、第3発明において、前記領域設定手段は、受け付けた編集画素を含む編集領域の色情報と、該編集領域に近接する対象画素の色情報とを比較し、比較した結果その差が所定値以内である場合に、該対象画素を編集領域に設定するよう構成してあることを特徴とする。
【0012】
第5発明に係る画像編集装置は、第3発明または第4発明において、編集後の画像データを印刷媒体へ印刷する印刷手段を更に備えることを特徴とする。
【0013】
第6発明に係る画像編集装置は、撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、演算処理手段により前記画像データを編集する画像編集装置において、被写体の画像データの特徴点または色情報に基づき、前記演算処理手段により被写体毎の編集領域を設定する領域設定手段と、設定された被写体毎の編集領域から一の被写体に係る編集領域の指定を、前記入力手段から受け付ける指定受付手段と、受け付けた編集領域に対する編集情報を前記入力手段から受け付ける手段と、受け付けた編集情報に基づき、前記演算処理手段により前記編集領域の画像データを編集する手段とを備えることを特徴とする。
【0014】
第7発明に係る画像編集装置は、第6発明において、前記設定された被写体毎の編集領域の画像に対して第1の画像処理を施す手段と、前記指定受付手段により、一の編集領域の指定を受け付けた場合、該編集領域の画像に対して第2の画像処理を施す手段とを更に備えることを特徴とする。
【0015】
第8発明に係る画像編集装置は、第6発明において、前記領域設定手段により設定された被写体の編集領域を、前記演算処理手段により顔及び髪を含む人体領域毎にさらに分割する手段を更に備えることを特徴とする。
【0016】
第9発明に係る画像編集装置は、第6発明乃至第8発明のいずれかにおいて、編集後の画像データを印刷媒体へ印刷する印刷手段を更に備えることを特徴とする。
【0017】
第10発明に係るコンピュータプログラムは、撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、コンピュータに前記画像データを編集させるためのコンピュータプログラムにおいて、コンピュータに、前記入力手段から編集画素を受け付けさせるステップと、コンピュータに、受け付けさせた編集画素の色情報に基づいて、該編集画素を含む編集領域を設定させる領域設定ステップと、コンピュータに、設定された編集領域に対する編集情報を前記入力手段から受け付けさせるステップと、コンピュータに、受け付けさせた編集情報に基づき前記編集領域の画像データを編集させるステップとを実行させることを特徴とする。
【0018】
第11発明に係るコンピュータプログラムは、撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、コンピュータに前記画像データを編集させるためのコンピュータプログラムにおいて、コンピュータに、被写体の画像データの特徴点または色情報に基づき、被写体毎の編集領域を設定させる領域設定ステップと、コンピュータに、設定された被写体毎の編集領域から一の被写体に係る編集領域の指定を受け付けさせる指定受付ステップと、コンピュータに、受け付けさせた編集領域に対する編集情報を入力手段から受け付けさせるステップと、コンピュータに、受け付けさせた編集情報に基づき前記編集領域の画像データを編集させるステップとを実行させることを特徴とする。
【0019】
第12発明に係るコンピュータでの読み取りが可能な記録媒体は、撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、コンピュータに前記画像データを編集させるためのコンピュータプログラムが記録された記録媒体において、コンピュータに、前記入力手段から編集画素を受け付けさせるステップと、コンピュータに、受け付けさせた編集画素の色情報に基づいて、該編集画素を含む編集領域を設定させる領域設定ステップと、コンピュータに、設定された編集領域に対する編集情報を入力手段から受け付けさせるステップと、コンピュータに、受け付けさせた編集情報に基づき前記編集領域の画像データを編集させるステップとを実行させるコンピュータプログラムが記録されていることを特徴とする。
【0020】
第13発明に係るコンピュータでの読み取りが可能な記録媒体は、撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、コンピュータに前記画像データを編集させるためのコンピュータプログラムが記録された記録媒体において、コンピュータに、被写体の画像データの特徴点または色情報に基づき、被写体毎の編集領域を設定させる領域設定ステップと、コンピュータに、設定された被写体毎の編集領域から一の被写体に係る編集領域の指定を受け付けさせる指定受付ステップと、コンピュータに、受け付けさせた編集領域に対する編集情報を入力手段から受け付けさせるステップと、コンピュータに、受け付けさせた編集情報に基づき前記編集領域の画像データを編集させるステップとを実行させるコンピュータプログラムが記録されていることを特徴とする。
【0021】
本発明にあっては、画像編集装置はプレイヤが編集を希望する箇所である編集画素の入力を入力手段から受け付ける。これは例えば、顔の肌色部分、髪の部分を入力ペン等により受け付ける。そして、受け付けた編集画素の色情報に基づいて、演算処理手段により該編集画素を含む編集領域を設定する。これは例えば、受け付けた編集画素を含む編集領域の色情報と、該編集領域に近接する対象画素の色情報とを比較し、比較した結果その差が所定値以内である場合に、該対象画素を編集領域に設定する。次いで、設定された編集領域に対して、明度の変更等の編集情報を入力手段から受け付け、受け付けた編集情報に基づき前記編集領域の画像データを編集する。編集された画像データは印刷手段にて印刷媒体上に印刷される。このように構成したので、プレイヤは調整を希望する箇所(例えば顔の一部分、髪)をペン等で指定するだけで、調整を反映させる領域(一のプレイヤの顔全体、髪全体)が設定されるため、一のプレイヤの、顔等の明るさを変更した場合に、他のプレイヤの領域については、この調整による影響を防止することができる。しかもプレイヤは入力ペンにより変更箇所を指定するという単純な作業しか要求されないため、容易に調整が可能となる。
【0022】
また、本発明にあっては、頭の頂点、目等、被写体の画像データの特徴点または、髪の色、肌の色等の色情報に基づき、被写体毎に編集領域を設定する。この場合、編集領域を明確にするために、設定された被写体毎の編集領域の画像に対して第1の画像処理を施す。そして、設定された編集領域から一の編集領域の指定を受け付ける。この場合プレイヤに選択された領域を把握させるために、一の編集領域の指定を受け付けた場合、該編集領域の画像に対して第2の画像処理を施す。次いで、受け付けた編集領域に対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき前記編集領域の画像データを編集するよう構成したので、一のプレイヤは自己の画像についてのみお絵かき、色の調整等を行うことができ、一方他のプレイヤは一のプレイヤの編集による影響を受けることが無く、より遊技性の高い画像編集装置を提供することが可能となる。
【0023】
さらに、本発明にあっては、設定された被写体の編集領域を、顔及び髪を含む人体領域毎にさらに分割するようにしたので、一のプレイヤは自己の髪だけ金色にする、自己の顔だけ白くする等さらに細かく編集が行うことが可能となる。
【0024】
【発明の実施の形態】
以下本発明を実施の形態を示す図面に基づいて詳述する。
実施の形態1
図1は本発明に係る画像編集装置の外観を示す模式図である。画像編集装置1の前面には、スピーカ19、撮影装置18,操作ディスプレイ13,操作ボタン135、操作ディスプレイ13に表示された画像に対して、編集図形、文字などを入力するタブレットペン132、コイン投入口141等が設けられる。また、画像編集装置1の前面両端部には、ライト及びストロボを内蔵する照明部191が周設されており、撮影装置18に同期して前面に立つプレイヤを照射する。さらに、画像編集装置1の筐体側面には印刷されたシールを排出するシール取出口161が設けられている。なお、画像編集装置1はその他、撮影装置18に対向する位置に後部照明、ファン、カーテン、背景幕(図示せず)等を備える。
【0025】
画像編集装置1の前面に垂設されたスピーカ19は、プレイヤに対して、硬貨を投入してからの撮影手順の進行を案内するガイダンス、及びプレイヤが操作ディスプレイ13に表示されている自分自身の撮影画像に対して、後述する編集を行う際のガイダンス等の音声情報を出力する。撮影装置18を挟んで両側に立設される照明部191は後述するように、撮影の際のフラッシュとして機能するとともに、画像編集装置1およびプレイヤを囲む背景幕(図示せず)により外光が遮断されているため、撮影前の状態においてもプレイヤを照明する。
【0026】
画像編集装置1の前面略中央部には、レール184に従い上下動する撮影装置18が持設されている。撮影装置18の前面側の開口部には、プレイヤの指示に従い画像を取り込むCCDカメラ181のレンズ、及び、撮影した画像を表示する液晶ディスプレイ等の取り込み画像表示部182が露出した状態で配設されている。撮影装置18及びレール184は図示しない回動ギアによりそれぞれが結合されており、プレイヤの操作ボタン135の操作により、撮影装置18をレール上で上下動させることができる。
【0027】
操作ディスプレイ13は、撮影装置18の下部に、表示画面を画像編集装置1の前方斜め方向に向けた状態で、内設されている。操作ディスプレイ13は、液晶ディスプレイまたはCRT(Cathode−Ray Tube)等より構成されるモニタと、その上部に積層されるタッチパネルから構成される。操作ディスプレイ13の近傍には、タブレットペン132が設けられ、CCDカメラ181により撮影された画像が操作ディスプレイ13に表示されるため、プレイヤは、タブレットペン132を利用して撮影画像に後述する色調整または落書き処理等を施すことができる。また、操作ディスプレイ13には、撮影画像の他に、画像プリントの作成および印刷処理の進行段階に応じて種々の選択ボタン、メッセージなどが表示され、操作ディスプレイ13に表示された選択ボタンを、タブレットペン132を利用して選択することにより撮影手順が進行される。
【0028】
画像編集装置1の前面下方のほぼ垂直な面には、コイン投入口141が設けられている。プレイヤが所定の代金をコイン投入口141に投入すると、撮影処理が開始される。画像編集装置1の側面下部には、シール取出口161が設けられており、撮影し、画像編集した撮影画像が、所定数に分割されたシールに印刷されて排出される。
【0029】
図2は画像編集装置1のハードウェア構成を示すブロック図である。画像編集装置1はバス17を介して演算処理手段(以下、CPU(Central Processing Unit)という)11、撮影装置18、撮影装置昇降ユニット183、記憶部15、入力手段(以下、操作ディスプレイ13という)、操作ボタン135、スピーカ19、照明部191、印刷手段(以下、印刷部という)16、硬貨処理部14、RAM(Random Access Memory)12等が接続されている。
【0030】
CPU11は、バス17を介して画像編集装置1の上述したようなハードウェア各部と接続されていて、それらを制御すると共に、ハードディスク等の記憶部15に格納された制御プログラム15Pに従って、種々のソフトウェア的機能を実行する。なお、本実施の形態においては、画像編集装置1は撮影装置18、操作ディスプレイ13、及び印刷部16等を一の筐体内に格納しているがこれに限らず、例えば撮影装置18のみを隔離して設けるようにしても良い。例えば、撮影装置18、照明部191、磁気カード排出口(図示せず)等の撮影機能を果たすユニットと、操作ディスプレイ13、印刷部16、及び磁気カード挿入口(図示せず)等の画像編集機能を果たすユニットとを、遊戯施設内のサーバコンピュータ(図示せず)を介してネットワークで接続することにより、同様の機能を実現するようにしても良い。この場合、撮影装置18を含むユニットにおいてプレイヤが撮影を行った場合、IDが付された磁気カードが磁気カード排出口から排出される。画像データ及びIDは対応づけられてサーバコンピュータに記憶される。プレイヤが画像編集及び印刷を行う場合は、磁気カードを、磁気カード挿入口へ挿入し、IDを元にサーバコンピュータから画像データを読み出して画像の編集を行い、シール等に印刷するようにすればよい。
【0031】
RAM12は、SRAM(Static Random Access Memory)またはフラッシュメモリ等で構成され、ソフトウェアの実行時に発生する一時的なデータを記憶する。撮影装置18はCCDカメラ181、及び取り込み画像表示部182等により構成されている。プレイヤの操作ボタン135の操作指示により、CPU11はCCDカメラ181に対して画像の取り込み信号を出力する。CCDに蓄積された電荷は電気信号として図示しないA/D変換器に出力され、A/D変換器によりデジタル信号に変換された画像データはRGB各成分のデータとして記憶部15に格納され、また液晶ディスプレイ等の取り込み画像表示部182及び操作ディスプレイ13のモニタ133へ出力される。
【0032】
撮影装置18には撮影装置昇降ユニット183が接続されており、プレイヤの昇降指示が操作ボタン135からあった場合、撮影装置昇降ユニット183は図示しない回動ギアを動作させ、撮影装置18をレール184に沿って上下動させる。
【0033】
操作ディスプレイ13はモニタ133,タッチパネル131,タブレットペン132及び表示プロセッサ134から構成されている。以下にその内容を説明する。表示プロセッサ134は、CPU11からの指示に基づいて撮影手順の案内画面をモニタ133に表示させる。表示プロセッサ134は、内部にCCDカメラ181で取得した画像データを記憶するためのフレームバッファを有しており、撮影した画像も同様にモニタ133に表示する。フレームバッファは、デュアルポートメモリにより構成され、それぞれの領域が一枚分の画像データを記憶できる2つの領域に分けて使用される。フレームバッファの第1の領域には、CCDカメラ181からの取り込み画像が入力され、撮影後は、撮影した画像(利用者がフレーム画像を選択した場合には、撮影画像とフレーム画像)が記憶される。一方、第2の領域は、落書き処理や明るさ調整などの編集処理において使用される記憶領域であり、撮影が終了した時点では、第1の領域と同一の撮影画像が記憶される。すなわち、編集処理において、プレイヤがタブレットペン132を利用して落書きを入力すると、その入力データが第2の領域内に書き込まれる。なお、プレイヤは、消しゴム処理を指定することにより、1度付加した落書きを消去し、元の画像に戻すことができる。その場合、表示プロセッサ134は、その消しゴムで指定された部分の画像データを第1の領域から読み出し、第2の領域に書き込ことにより、利用者が消しゴムで指定した部分を、落書き処理を行う前の撮影画像にもどす。
【0034】
モニタ133上には、透明なタッチパネル131が積層されており、モニタ133には、表示プロセッサ134のフレームバッファの、第2の領域に記憶されたデータが表示される。したがって、利用者が落書きなどを入力している最中は、落書きなどが施された撮影画像が、モニタ133に表示される。タッチパネル131は、タブレットペン132からの入力を検出する。明るさ調整、落書き等の編集情報が入力された場合、タッチパネル131はその入力を受け付け、受け付けた編集情報を表示プロセッサ134へ出力する。表示プロセッサ134は入力された編集情報をフレームバッファ内の第2の領域に書き込む処理を行う。
【0035】
記憶部15には、音声のガイダンスデータが記録されており、スピーカ19は、CPU11の指示に基づいて記憶部15に記録されているガイダンスデータを読み出してスピーカ19に出力する。スピーカ19がプレイヤに対して出力するガイダンスには、操作方法や、撮影直前のカウントダウンなどがある。硬貨処理部14は、コイン投入口141から投入された硬貨の金額を検出し、所定の代金が投入されたと検出した場合、検出信号をCPU11へ出力する。
【0036】
印刷部16は、画像シールを作成する部分であり、CCDカメラ181により撮影され、明るさ調整などの編集処理などが施された後の画像をシール紙などに印刷し、印刷された画像シールはシール取出口161から排出される。照明部191は蛍光灯等の連続照明するライト191b及び撮影の瞬間シンクロ発光して照明するストロボ191aにより構成されている。ライト191bは画像編集装置1の前面両側端にそれぞれ設けられており、プラスチック製の拡散照明カバーを透過してプレイヤを照射する。このライトは撮影時のみならず撮影前、編集時においても点灯しており、その点灯/消灯は記憶部15に記憶された制御プログラム15Pに従いCPU11が制御する。時計部192は時間データをCPU11へ出力する。
【0037】
また、ストロボ191aも同様に画像編集装置1の前面両側端にそれぞれ設けられている。ストロボ191aはCCDカメラ181の画像取り込みに同期してプレイヤを照射するよう設定されている。CPU11は操作ボタン135からCCDカメラ181に対する撮影指示信号が出力された場合は、CCDカメラ181の画像取り込みタイミングに同期させてストロボ191aに対し点灯指示信号を出力する。なお、プレイヤの背後に設けられる図示しない後部ストロボについても同様の制御がなされる。
【0038】
以上のハードウェア構成において、本発明のソフトウェア処理の内容を、フローチャートを用いて説明する。図3乃至図5は本発明の画像処理の手順を示すフローチャートである。CPU11は硬貨処理部14により、所定の額の貨幣が投入されたか否かを判断し、所定の額の貨幣が投入されたと判断した場合、記憶部15から撮影手順及び編集手順を示すメッセージを読み出してモニタ133へ出力する。CPU11は操作ボタン135から画像取り込みを示す信号が入力されたか否かを監視し、操作ボタンから入力された場合は、ストロボ191aを発光させると共に、CCDカメラ181に対して画像の取り込み信号を出力することにより、画像データを取り込む(ステップS31)。
【0039】
CPU11は取り込んだ画像データを表示プロセッサ134のフレームバッファの、第1の領域及び第2の領域に記憶する(ステップS32)。CPU11はフレームバッファから画像データを読み出し、また編集情報を入力するための編集画面を記憶部15から読み出し、読み出した編集画面及び画像データをモニタ133へ表示する(ステップS33)。なお、実際は複数回撮影を行い、好みの画像をプレイヤに数枚選択させて編集を実行するが、本実施の形態においては説明を簡単にするために1回の撮影により得られた画像を編集する際の処理について説明する。
【0040】
図6はモニタ133に表示される編集画面及び画像データのイメージを示す説明図である。取り込んだ画像データを中心として上部には時計部192から出力される時間情報に基づくカウントダウンタイマ24が表示される。さいしょからボタン25は、編集情報が入力された後に操作された場合、画像をCCDカメラ181から取り込んだ状態へ移行させる処理を行う。具体的にはフレームバッファの第1の領域に記憶した画像データを読み出して表示する。ひとつもどるボタン26は直前に入力された編集情報をキャンセルする処理を実行する。つまりCPU11は編集情報が入力された場合、編集情報を時計部から出力される時間情報に対応させてフレームバッファの第2の領域に記憶する。そして、ひとつもどるボタン26が操作された場合は、CPU11は記憶した時間情報の履歴を参照して、第2の領域に過去に記憶した画像データから一つ前の画像を読み出してモニタ133に表示する。
【0041】
モニタ133の左端部には編集項目ボタン21が複数表示されており、これに対応させて、入力する編集情報であるパラメータボタン22が表示される。本例ではプレイヤがタブレットペン132から編集項目ボタン21の明るさを選択した状態を示している。CPU11は編集項目が選択された場合、編集項目に対応するパラメータを記憶部15から読み出して表示する。本例では、超美白、美白、普通、日焼け等のパラメータが表示される。CPU11は一のパラメータが選択された場合、対応する画像処理情報を記憶部15の画像処理変換テーブル151を参照して画像処理を行う。例えば、美白が選択された場合、RGBの各明度値をそれぞれ30ずつ加算するよう画像処理変換テーブル151には記憶されており、CPU11は各画素について画像処理変換テーブル151を参照して、各画素に明度30を加算する等して画像処理を実行する。また、日焼けのパラメータが選択された場合は、RGBの各明度値を30減少させる。すなわち、RGBの各値は例えばそれぞれ8ビット値0〜255で表し、R=0,G=0,B=0を黒、R=255,G=255,B=255を白と定義し、ここで肌色がR=X、G=X、B=Zで表されている場合、R=X+30、G=X+30、B=Z+30とすると色白(美白)が実現できる。さらには不健康な青白い顔色でもB=Z+30のところB=Z+15とすれば健康的な赤みを帯びた顔色にもできる。
【0042】
図7は編集項目及びパラメータの例を示す説明図である。各編集項目に対してパラメータが図示の如く設定されている。各パラメータには対応する画像処理の情報が画像処理変換テーブル151に記憶されている。編集項目の整形については、パラメータがすっきり、ふつう、ぽっちゃり等が用意されている。整形処理を行う場合、編集領域画素中の中央付近の画素を中心としてX軸方向またはY軸方向に各画素を所定のパラメータに従い拡大または縮小させるレンズシミュレーション処理を行う。すっきりのパラメータは、画像のX軸Y軸の比率は主なプレイヤである若い女の子の心理を考慮して1:1ではなく、0.80〜0.94:1とし、ふつうのパラメータは0.95〜0.98:1とし、プレイヤが認識できない程度にほっそり顔にするのがよい。またぽっちゃりの場合は、パラメータは、1.2〜1.1:1等とすればよい。自動補正については、例えば、かわいくは、ほおを幼児の特徴を表すかすかにふくらませる処理、目を大きくする処理をソフトウェアにて行う。目鼻の配置を、本人らしさを残して日本人の平均値に1/4くらい近づけるように修正する。ベイビーはR=X+30,G=Y+30,B=Z+10とすると色白、赤みを帯びた赤ちゃん色が実現できる。さらにほおを赤ちゃんのようにふくらませ、目を大きくし、ニキビ、しわ等の肌の一様でないものは全て均一になるようにソフトウェアで処理する。きれいには顔の輪郭、目鼻の配置を、本人らしさを残して日本人の平均値に半分くらい近づけるように修正する。肌色は流行を反映したものにする。外人風は被写体の好みもあるので各国人の特徴的な顔立ち、肌色(人種に対応させて黒色、黄色、白色)から選ばせ、例えば北欧人であれば目鼻立ちをくっきりとさせつつ、半分くらいモーフィングの技術を用いて近づけ、肌色を白く、わずかに赤みを加える。古風にはローキーで彩度を抑える。大人っぽくはR=X−10、G=Y−10,B=Zぐらいにする。かわいくときれいにの差はかわいくは個性を残したまま、きれいには標準的な目鼻の配置をプレイヤの平均値(例えば日本人)に会わせ所謂美人顔にする。より好まれる解釈はメイキスト、プロカメラマンの範疇であるがその解釈が文字だけではイメージが湧かないのであれば漫画などでアイコンとして文字と共に表示するのも良い。その他の編集項目は文言どおりである。
【0043】
続いて、CPU11は、このモニタ133上に画像データの編集を実行するか否かのメッセージを、記憶部15から読み出して表示する。CPU11は操作ボタン135またはタブレットペン132から画像データの編集を実行する旨の信号が入力されるか否かを判断する(ステップS34)。CPU11は画像データの編集を実行する旨の信号が入力されない場合は(ステップS34でNO)、印刷部16へフレームバッファの第2の領域に記憶した画像データを読み出して出力する(ステップS55)。
【0044】
一方、画像データの編集を実行する旨の信号が入力された場合は(ステップS34でYES)、編集画素を受け付ける(ステップS35)。この場合、図6に示すように編集画素の入力を促すメッセージが記憶部15から読み出されて表示される。たとえば、「色調整したいポイントを選んでね」等のメッセージが表示される。プレイヤはタブレットペン132を用いて編集を希望する箇所を指定する。CPU11はタブレットペン132からの入力があった場合、図6に示す如くポインタ27が表示される。本実施の形態においては、顔の肌色部分の明るさ調整処理を行う手順について説明する。
【0045】
図8はポインタ27の周辺画素を示す説明図である。図に示す如くポインタ27で示す画素がプレイヤに指定された編集画素に該当する。なお、本実施の形態においては、プレイヤが入力する画素は1画素としているが、これに限るものではなく複数の画素を編集画素として入力を受け付けるようにしても良い。編集画素の入力受け付け後、CPU11は入力された編集画素及び近接する画素の明度値を取得し(ステップS36)、取得したRGBそれぞれの明度値をRAM12に記憶する。近接する画素とは、編集画素の近辺の画素をいい、例えば入力された編集画素に隣接する画素、図8では編集画素を中心とした8方向の画素をいう。
【0046】
CPU11は入力された編集画素を含む近接する画素を初期状態の編集領域とし、該編集領域の平均明度値を算出する(ステップS37)。具体的にはRAM12に記憶したRGBそれぞれの明度データを読み出してRGBのそれぞれについて平均値を算出する。算出された平均明度値はRAM12に記憶される。CPU11はさらに、編集領域に近接する画素の明度値を取得する(ステップS41)。前記近接画素は図8においては編集領域に近接する画素である。CPU11は取得した画素の各RGBの明度値と、編集領域の各RGBの平均明度値との差の絶対値を算出し、その絶対値が記憶部15に予め記憶された閾値以上であるか否かを判断する(ステップS42)。
【0047】
算出した絶対値が閾値以上でない場合は(ステップS42でNO)、CPU11は顔の肌色部分と判断してこの画素を編集領域として設定する(ステップS43)。一方、算出した絶対値が閾値以上である場合は(ステップS42でYES)、当該画素は背景、髪、服等の肌色成分以外と判断して、この画素に対してフラグをセットする(ステップS44)。その後、CPU11は、編集領域に近接する全ての画素にフラグがセットされたか否かを判断する(ステップS45)。全ての近接する画素についてフラグがセットされていない場合は(ステップS45でNO)、ステップS41へ移行し、以上の処理を繰り返して行う。
【0048】
一方、全ての近接する画素にフラグがセットされた場合は(ステップS45でYES)、編集領域が顔全体に広がり、背景、髪、服等の肌色成分以外の領域まで達したと判断し、編集領域を確定する(ステップS46)。CPU11は、確定した編集領域以外の画素についてプレイヤに分からせるため、明度値を一定値低下させる等の画像処理を行う(ステップS47)。
【0049】
図9はステップS47による画像処理の結果を示す説明図である。図に示すようにCPU11は確定した編集領域を除く画素について画像処理を行う。これにより、プレイヤはタブレットペン132により指定した編集を希望する領域が正しいものであるかを視認することができる。CPU11はタブレットペン132から編集項目の入力を受け付ける(ステップS48)。具体的には、モニタ133の左端部縦方向に並列配置された編集項目ボタン21が、タブレットペン132により指定された場合、これを受け付ける。さらに、CPU11は編集情報であるパラメータを受け付ける(ステップS51)。CPU11は編集項目ボタン21がタブレットペン13で指定された場合は、パラメータボタン22を表示する。タブレットペン132によりパラメータボタンが操作された場合は、そのパラメータに対応するRGBの各要素に対する画像処理情報を画像処理変換テーブル151から読み出す。そして読み出した画像処理情報に従い、編集領域の各画素について、画像データの編集を行い(ステップS52)、編集後の画像データをバッファメモリの第2の領域に格納すると共に、モニタ133に表示する。
【0050】
CPU11は時計部192から出力される時間情報に基づき、編集時間のタイムアウト、またはおわりボタン23が操作されたか否かを判断する(ステップS53)。タイムアウトではなく、またおわりボタン23も操作されない場合は(ステップS53でNO)、ステップS48へ移行し以上述べた処理を繰り返す。一方、タイムアウトまたはおわりボタン23が操作された場合は(ステップS53でYES)、編集領域以外の画素について、ステップS47で行った画像処理を元に戻す画像処理を行う(ステップS54)。具体的には、編集領域以外の画素のRGB各明度値を所定値減じる処理をステップS47で行った場合は、編集領域以外の画素のRGB各明度値を所定値増加する処理を行い、バッファメモリの第2の領域に記憶する。
【0051】
その後CPU11は印刷部16へバッファメモリの第2の領域に記憶された編集後の画像データを出力する(ステップS55)。印刷部16はCPU11の指示に従いシールに印刷を行い、印刷後のシールはシール取出口161から排出される。なお、本実施の形態においては顔の肌色部分について明るさ調整をする場合の例について説明したが、これに限るものではなく背景、髪などの部分を同様の処理により画像処理を行うようにしてもよい。以上説明したように、プレイヤは、タブレットペン132を用いて、編集を希望する箇所を指定するという単純な操作のみで、所望の編集領域について編集を行うことが可能となる。また、他のプレイヤの画像データに影響を与えることなく、自由に明るさ調整等が可能となりより遊技性を高めることが可能となる。
【0052】
実施の形態2
図10は実施の形態2に係る画像編集装置1の構成を示すブロック図である。また、実施の形態1に係る画像編集装置1を実行させるためのコンピュータプログラムは、本実施の形態2のように画像編集装置1にプレインストールして提供することも、またCD−ROM、MO等の可搬型記録媒体で提供することも可能である。さらに、コンピュータプログラムをインターネットまたは公衆回線経由等で搬送波として伝搬させて提供することも可能である。以下に、その内容を説明する。
【0053】
図10に示す画像編集装置1に、編集画素の入力を受け付けさせ、領域を設定させ、編集情報を受け付けさせ、画像データを編集させるプログラムが記録された記録媒体1a(CD−ROM、MO又はDVD−ROM等)が画像編集装置1の記憶部15にインストールされている。かかるプログラムは画像編集装置1のRAM12にロードして実行される。これにより、上述のような本発明の画像編集装置1として機能する。
【0054】
本実施の形態2は以上の如き構成としてあり、その他の構成及び作用は実施の形態1と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。
【0055】
実施の形態3
実施の形態3は実施の形態1と異なり、取り込んだ画像からCPU11が被写体毎の編集領域を設定し、プレイヤは一の被写体を選択して、選択された被写体に係る編集領域内で画像の編集を行う方法に関する。
【0056】
図11乃至13は実施の形態3に係る画像編集処理の手順を示すフローチャートである。CPU11は硬貨処理部14により、所定の額の貨幣が投入されたか否かを判断し、所定の額の貨幣が投入されたと判断した場合、記憶部15から撮影手順及び編集手順を示すメッセージを読み出してモニタ133へ出力する。CPU11は操作ボタン135から画像取り込みを示す信号が入力されたか否かを監視し、操作ボタンが入力された場合は、ストロボ191aを発光させると共に、CCDカメラ181に対して画像の取り込み信号を出力することにより、画像データを取り込む(ステップS111)。
【0057】
CPU11は取り込んだ画像データを表示プロセッサ134のフレームバッファの、第1の領域及び第2の領域に記憶する(ステップS112)。CPU11はフレームバッファから画像データを読み出し、また編集情報を入力するための編集画面を記憶部15から読み出し、読み出した編集画面及び画像データをモニタ133へ表示する(ステップS113)。CPU11はこのモニタ133上に画像データの編集を実行するか否かのメッセージを、記憶部15から読み出して表示する。CPU11は操作ボタン135またはタブレットペン132から画像データの編集を実行する旨の信号が入力されるか否かを判断する(ステップS114)。画像データの編集を実行する旨の信号が入力されない場合は(ステップS114でNO)、CPU11は印刷部16へフレームバッファの第2の領域に記憶した画像データを読み出して出力する(ステップS133)。
【0058】
一方、画像データの編集を実行する旨の信号が入力された場合は(ステップS114でYES)、CPU11はフレームバッファに記憶した画像データを読み出して、背景画像を取り除く処理を行い被写体画像のみを抽出する(ステップS115)。これは、クロマキー処理などの公知の画像処理方法により被写体画像を抽出するようにすればよい。CPU11は被写体画像を抽出した後、エッジ検出を行い(ステップS116)、さらに、エッジ検出された画素群の中から、被写体画像の輪郭画素のみを抽出する処理を行う(ステップS117)。
【0059】
CPU11は被写体の輪郭画素を抽出した後、被写体毎の編集領域を設定する(ステップS118)。すなわち複数の被写体が存在する場合、被写体数、各被写体が占める画素を認識することにより、被写体毎の編集領域を設定する。この場合、被写体の情報に対応させて、各被写体が占める画素の情報が記憶部15に記憶される。なお、S118の処理については後述する。被写体毎の領域が設定された場合、CPU11は各被写体及び背景画像に対し第1の画像処理を行う(ステップS121)。
【0060】
図14は被写体毎に画像編集処理を行う際のイメージを示す説明図である。第1の画像処理が実行された場合、背景成分領域、被写体領域毎に着色処理が行われる。具体的にはCPU11は一の被写体の編集領域画素を記憶部15から読み出し、フレームバッファの第2の領域に記憶された画像データの、前記読み出した画素に対し、着色処理を行う。続いて、CPU11は他の被写体の編集領域画素を記憶部15から読み出し、フレームバッファの第2の領域に記憶された画像データの、前記読み出した画素に対し、着色処理を行う。被写体の編集領域に対する着色処理が完了した場合、フレームバッファの第2の領域に、残りの画素、すなわち背景画素に対して着色処理を行う。着色処理は領域毎に異なる色成分を用いれば良く、これにより、プレイヤは容易に編集領域を認識することが可能となる。
【0061】
CPU11は被写体数及び被写体の位置を認識した場合、被写体数及び被写体の位置に応じたアイコンを記憶部15から読み出してモニタ133の右側端部に設けられる領域選択ボックス210に表示する(ステップS122)。このアイコンは予め記憶部15に記憶されており、本実施例の場合、被写体が2名、左右並列状態で撮影されているので、これに対応するアイコンをモニタに表示する。CPU11はプレイヤのタブレットペン132の操作により、一の被写体の編集領域を受け付ける(ステップS123)。この場合、CPU11は記憶部15から編集領域の指定を促すメッセージを読み出して、図14の如く表示する。このメッセージは例えば「だれを編集するの?編集する人をペンでタッチしてね。」等を表示するようにすればよい。
【0062】
プレイヤはタブレットペン132を用いて一の被写体をモニタ上の着色された被写体領域をタッチすることにより、または領域選択ボックス210に表示された一のアイコンをクリックすることにより、編集対象となる一の被写体を指定する。図14の例ではポインタ27で指定された被写体(正面方向から見て左側の被写体)が選択されている。左側の被写体を指定する場合は領域選択ボックス210の上側のアイコン「ひだりの人」をタッチすることにより編集対象となる被写体が選択される。このようにアイコンを設けることでプレイヤは容易に一の被写体を選択することが可能となる。
【0063】
編集対象となる被写体領域を受け付けた場合、CPU11は記憶部15から対象となる被写体画像を読み出し、これに第2の画像処理を行う(ステップS124)。第2の画像処理は例えば、ステップS121で行った被写体領域に対する画像処理を元に戻す処理を実行するようにすればよい。この場合、CPU11はフレームバッファに記憶した第2の画像編集処理がなされた画像データを読み出し、選択された被写体の画素に対して、ステップS121で行った着色処理を元に戻す処理を行う。これにより、プレイヤは容易に編集領域を把握することが可能となる。
【0064】
CPU11はタブレットペン132から編集項目の入力を受け付ける(ステップS125)。具体的には、モニタ133の左端部縦方向に並列配置された編集項目ボタン21が、タブレットペン132により指定された場合、これを受け付ける。さらに、CPU11は編集情報であるパラメータを受け付ける(ステップS126)。CPU11は編集項目ボタン21が操作された場合は、パラメータボタン22を表示する。タブレットペン132によりパラメータボタンが操作された場合は、そのパラメータに対応するRGBの各要素に対する画像処理情報を画像処理変換テーブル151から読み出す。そして読み出した画像処理情報にしたがい、編集領域の各画素について、画像データの編集を行い(ステップS127)、編集後の画像をバッファメモリの第2の領域に格納すると共に、モニタ133に表示する。なお、詳細な画像処理の内容については実施の形態1で説明したので省略する。
【0065】
CPU11は時計部192から出力される時間情報に基づき、編集時間のタイムアウト、またはおわりボタン23が操作されたか否かを判断する(ステップS131)。タイムアウトではなく、またおわりボタン23も操作されない場合は(ステップS131でNO)、ステップS125へ移行し以上述べた処理を繰り返す。一方、タイムアウトまたはおわりボタン23が操作された場合は(ステップS131でYES)、編集領域以外の画素について、ステップS121で行った画像処理を元に戻す画像処理を行う(ステップS132)。具体的には、編集領域以外の画素について行った着色処理を元に戻す処理を行い、バッファメモリの第2の領域に記憶する。
【0066】
その後CPU11は印刷部16へバッファメモリの第2の領域に記憶された編集後の画像データを出力する(ステップS133)。印刷部16はCPU11の指示に従いシールに印刷を行い、印刷後のシールはシール取出口161から排出される。以上のように構成することで、複数のプレイヤで撮影し編集を行う場合でも、ユーザの指定により、選択対象を容易に選択できる。また、従来のように他のプレイヤの画像に対しては編集した処理が反映されることがないため、より自由度の高い編集が可能となる。
【0067】
以下にS118の、編集領域設定処理の詳細について説明する。図15はステップS118の第1のサブルーチンを示すフローチャートであり、また図16は取り込み画像の一例を示す説明図である。図16に示すように被写体2名の画像に対しエッジ検出が行われ、各被写体の輪郭が表示されている。ここで、図16においては、モニタ133の左上端部を原点として、横方向の画素配列をx軸、縦方向の画素配列をy軸とする。以下に被写体毎の編集領域を設定する際の処理内容について説明する。まず、CPU11は配列i、及びxに初期値0を代入しRAM12に記憶する(ステップS151)。CPU11はx軸の画素を初期値0に固定した状態でy軸方向の画素を走査し、明度を検出する(ステップS152)。
【0068】
そしてCPU11は走査線上に輪郭画素が存在するか否かを判断する(ステップS153)。輪郭画素を検出しない場合は(ステップS153でNO)、xをインクリメントし(ステップS154)、ステップS152へ移行して処理を繰り返す。一方、輪郭画素を検出した場合は(ステップS153でYES)、iをインクリメントし(ステップS155)、検出した画素に係る領域は第i番目の被写体と認識する(ステップS156)。同時に検出した画素の座標をRAM12に記憶しておく。なお、初期値は0であるので、第1回目の認識により第1番目の被写体と認識する。
【0069】
さらにCPU11はxの値をインクリメントし(ステップS157)、インクリメントされたx軸の画素を固定した状態でy軸方向の画素を走査し、明度を検出する(ステップS158)。そして、CPU11はy軸走査線上に輪郭画素が存在するか否かを判断する(ステップS159)。CPU11は輪郭画素が存在する場合は(ステップS159でYES)、被写体番号(i)に対応づけて輪郭画素の座標をRAM12に記憶する(ステップS1510)。その後CPU11は、ステップS157へ移行し以上の処理を繰り返す。ステップS159において、CPU11は輪郭画素を検出しなかった場合(ステップS159でNO)、xをインクリメントする(ステップS1511)。
【0070】
その後、CPU11は、xが予め定めた最大値であるか否かを判断する(ステップS1512)。例えば、x軸方向の座標値の終端を1024とした場合、xの値が1024であるか否かを判断する。xの値が最大でない場合(ステップS1512でNO)、ステップS152へ移行し、被写体の検出及び被写体領域の画素検出を繰り返して行う。xの値が最大値となった場合(ステップS1512でYES)、処理を終了する。以上説明したように取り込んだ画像データの色情報に基づいた処理によりCPU11は、RAM12に格納された被写体番号及び被写体の輪郭画素座標を読み出し、これら読み出したデータに基づいて各被写体の編集領域を設定することができる。また、被写体毎の編集領域の設定は以下に述べる方法により実行しても良い。
【0071】
図17はステップS118の第2のサブルーチンを示すフローチャートであり、また図18は取り込み画像の一例を示す説明図である。CPU11はクロマキー処理により頂点画素の座標を検出する(ステップS171)。そして、検出した頂点数及び頂点画素の座標29a、29b…をRAM12に記憶する(ステップS172)。これにより被写体数及び頂点座標が認識される。図18の例では被写体数が2であり、頂点画素の座標はそれぞれ、29a(x1 、y1 )、29b(x2 、y2 )と記憶される。
【0072】
CPU11は配列xにx1 +1を代入し(ステップS173)、y軸方向の走査を行い、輪郭画素の座標を抽出する(ステップS174)。CPU11は抽出した輪郭画素の座標値をRAM12に記憶する(ステップS175)。続いてCPU11は配列xがx2 以上であるか否かを判断する(ステップS176)。xがx2 以上でない場合(ステップS176でNO)、ステップS173へ移行して以上の処理を繰り返す。xがx2 以上である場合(ステップS176でYES)、ステップS175においてRAM12に記憶した画素を読み出し座標yが最大である輪郭画素の座標(x、ymax )を抽出する(ステップS177)。
【0073】
CPU11はこの輪郭画素の座標(x、ymax )を被写体間の境界と認識し、輪郭画素の座標(x、ymax )から、(x、yend )までの画素を境界画素と設定する(ステップS178)。なお、yend はy軸の終点画素であり、例えば取り込み画像の画素の座標領域(xend 、yend )を(1024,512)とした場合は、512となる。なお、この領域はCCDカメラ181の解像度設定により自由に変更することが可能である。最後にCPU11は被写体毎に輪郭画素、境界画素の座標を記憶する(ステップS179)。以上のように、頭部頂点等の人体の特徴点に基づいて被写体毎の編集領域を設定するようにすればよい。なお、人体の特徴点については頭部の頂点に限るものではなく、目、鼻、顔の肌色部分等に基づいて処理を行うようにしても良い。以下に特徴点である被写体の目を用いた被写体毎の領域設定処理について説明する。
【0074】
図19はステップS118の第3のサブルーチンを示すフローチャートであり、また図20は取り込み画像の一例を示す説明図である。CPU11はまず、取り込んだ画像をクロマキー処理等によって背景部分を取り除き被写体部分のみを抽出する。そして、記憶部15に予め記憶された図20に示す目のテンプレート画像を読み出す(ステップS181)。なお、テンプレート画像は複数の大きさのものが用意される。CPU11は始点画素(0,0)を開始点として、被写体抽出画像とテンプレート画像とのテンプレートマッチング処理を行う(ステップS182)。
【0075】
CPU11はマッチング処理により算出された相関値と予め記憶部15に記憶された閾値とを比較し、相関値が閾値以下であるか否かを判断する。閾値以下であると判断した場合は(ステップS183でYES)、テンプレート画像が目の位置に合致したと判断して、画素及び被写体番号(初期値1)を記憶する(ステップS184)。CPU11は前記画素及び該画素の周辺画素に対してフラグをセットする(ステップS185)。例えば、合致した画素座標(x、y)に対してx±100、y±100の領域に係る画素に対してフラグをセットする。これは、合致した画素周辺ではステップS183の処理により、相関値が閾値以下となる画素が多く、また被写体同士の目が、あまりに近接して存在していることはあり得ないことから、一定領域内で再度マッチング処理を行わないようにして正確な被写体数を把握するためである。
【0076】
一方、算出した相関値が閾値以上である場合は、目以外の領域と判断して当該画素にフラグをセットする(ステップS186)。CPU11は全ての画素にフラグがセットされたか否かを判断する(ステップS187)。全ての画素についてフラグがセットされていないと判断した場合は(ステップS187でNO)、フラグがセットされていない画素へ移動し(ステップS188)、再度ステップS182へ移行し以上の処理を繰り返す。CPU11は全ての画素についてフラグがセットされたと判断した場合(ステップS187でYES)、RAM12に記憶した画素を被写体番号に対応させて読み出す(ステップS189)。
【0077】
図20の例では被写体1については座標値(x1 、y1 )、被写体2については(x2 、y2 )がそれぞれ読み出される。目の座標値が決定された場合、CPU11は目の画素を中心とした所定の領域を被写体の領域として設定する(ステップS1810)。この所定の領域については予め記憶部15に記憶されており、例えば、y軸方向には±200画素の領域、x軸方向の−方向(頭部方向)に100画素、+領域(胴体部分方向)に200画素等と設定されている。なお、図20に示すようにテンプレート画像は複数種類用意しておいても良く、複数のテンプレート画像を用いてパターンマッチングを行うようにしても良い。この場合、テンプレート画像に応じて上述した所定の領域の値を変更するようにしても良い。以上のように特徴点である目を検出することにより、被写体数及び被写体毎の編集領域を設定することが可能となる。
【0078】
実施の形態4
図21は実施の形態4に係る画像編集装置1の構成を示すブロック図である。また、実施の形態3に係る画像編集装置1を実行させるためのコンピュータプログラムは、本実施の形態4のように画像編集装置1にプレインストールして提供することも、またCD−ROM、MO等の可搬型記録媒体で提供することも可能である。さらに、コンピュータプログラムをインターネットまたは公衆回線経由等で提供することも可能である。以下に、その内容を説明する。
【0079】
図21に示す画像編集装置1に、編集領域を設定させ、編集領域の指定を受け付けさせ、編集情報を受け付けさせ、画像データを編集させるプログラムが記録された記録媒体1a(CD−ROM、MO又はDVD−ROM等)が画像編集装置1の記憶部15にインストールされている。かかるプログラムは画像編集装置1のRAM12にロードして実行される。これにより、上述のような本発明の画像編集装置1として機能する。
【0080】
本実施の形態4は以上の如き構成としてあり、その他の構成及び作用は実施の形態1及び3と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。
【0081】
実施の形態5
実施の形態3では選択された一の被写体画像全体に対して編集処理を実行する場合について説明したが、さらに選択された被写体画像を髪、顔等の人体領域毎に分割して編集するようにしても良い。以下にその内容を説明する。図22及び図23は実施の形態5に係る編集処理の手順を示すフローチャートである。まず上述したステップS118と同様の処理により、被写体毎の編集領域を設定する(ステップS221)。CPU11は一の被写体の、編集領域の指定を操作ディスプレイ13から受け付ける(ステップS222)。編集領域の指定を受け付け、編集対象となる一の被写体が決定した場合、CPU11は編集領域以外の画素に画像処理を施す(ステップS223)。画像処理後の画像データはフレームバッファの第2の領域に記憶される。
【0082】
図24は画像処理を施した後のイメージを示す説明図である。図に示すように編集領域以外の画素部分に例えば着色処理等が行われる。CPU11は編集領域を顔、髪、胴体等の人体領域毎に分割する処理を行う(ステップS224)。
【0083】
図25及び図26はステップS224のサブルーチンを示すフローチャートである。抽出した被写体画像を顔、髪、胴体などの人体領域毎に分割する画像処理は公知の方法を適用すれば良く、例えば以下に述べる方法により実行すればよい。まず、ステップS171で説明したように、CPU11は編集領域である被写体の頂点画素の座標値を検出する(ステップS251)。頂点画素の座標値が検出された場合、CPU11は当該画素から所定領域の画素の明度を取得する(ステップS252)。この所定領域は予め記憶部15に記憶されており、頂点画素から髪が存在するであろうとおよそ判断される座標領域データが記憶されている。CPU11は取得した画素の明度値から第1基準値を減じた値の絶対値が第1閾値以下であるか否かを判断する(ステップS253)。第1基準値及び第1閾値は、取得した画素の明度が標準的な髪の色成分に近似するか否かの判断のために用いられる。第1基準値及び第1閾値はRGBの色成分毎に所定の明度値が記憶部15に予め記憶されている。
【0084】
CPU11は絶対値が第1閾値以下であると判断した場合(ステップS253でYES)、当該画素は髪の部分であると判断し、画素に第1フラグを設定する(ステップS254)。一方、絶対値が閾値以下でないと判断した場合(ステップS253でNO)、CPU11はステップS254の処理をスキップする。CPU11はステップS252で取得した画素の全てについてステップS253の処理を行ったか否かを判断する(ステップS255)。全ての画素について判断していないと判断した場合は(ステップS255でNO)、ステップS253へ移行し以上の処理を繰り返す。
【0085】
一方全ての画素についてステップS253の処理が終了したと判断した場合は(ステップS255でYES)、CPU11はステップS254で設定した第1フラグの画素を髪の部分と認識する(ステップS256)。CPU11は髪の部分の認識が終了した後は、顔の部分の認識処理を行う。顔の部分の認識は人体の特徴点、例えば実施の形態3で説明した目を用いて行う。まず、実施の形態3で述べた方法と同様にテンプレート画像を記憶部15から読み出す(ステップS257)。CPU11は被写体の領域についてテンプレートマッチング処理を行う(ステップS258)。CPU11はマッチング処理の結果、相関値が最大の画素を抽出する(ステップS259)。
【0086】
CPU11は抽出した画素から所定領域の画素の明度を取得する(ステップS261)。この所定領域は予め記憶部15に記憶されており、抽出した画素、すなわち目の部分から顔の外延が存在するであろうとおよそ判断される座標領域データが記憶されている。CPU11は取得した画素に第1フラグが設定されているか否かを判断する(ステップS262)。CPU11は第1フラグが設定されていると判断した場合は(ステップS262でYES)、当該画素は髪の部分であるので、ステップS263及びS264の処理はスキップして、ステップS265へ移行する。
【0087】
CPU11は画素に第1フラグが設定されていないと判断した場合(ステップS262でNO)、当該画素は顔の部分又は胴体の部分であると判断して、取得した画素の明度値から第2基準値を減じた値の絶対値が第2閾値以下であるか否かを判断する(ステップS263)。第2基準値及び第2閾値は、取得した画素の明度が標準的な肌の色成分に近似するか否かの判断のために用いられる。第2基準値及び第2閾値はRGBの色成分毎に所定の明度値が記憶部15に予め記憶されている。
【0088】
CPU11は絶対値が第2閾値以下であると判断した場合(ステップS263でYES)、当該画素は顔の部分であると判断し、画素に第2フラグを設定する(ステップS264)。一方、絶対値が閾値以下でないと判断した場合(ステップS263でNO)、CPU11はステップS264の処理をスキップする。CPU11はステップS261で取得した画素の全てについてステップS262またはステップS263の処理を行ったか否かを判断する(ステップS265)。全ての画素について判断していないと判断した場合は(ステップS265でNO)、ステップS262へ移行し以上の処理を繰り返す。
【0089】
一方全ての画素についてステップS262またはステップS263の処理が終了したと判断した場合は(ステップS265でYES)、CPU11はステップS264で設定した第2フラグの画素を顔の部分と認識する(ステップS266)。CPU11は選択された被写体の編集領域のうち第1フラグ及び第2フラグが設定されていない領域の画素に対して第3フラグを設定する(ステップS267)。つまりCPU11は髪及び顔以外の画素である第3フラグの画素を胴体部分と認識し(ステップS268)、処理を終了してメインルーチンへリターンする。
【0090】
ステップS224(図22)において、人体領域の分割が終了した場合、CPU11は記憶部15から予め記憶したアイコンを領域選択ボックス210に表示する(ステップS225)。プレイヤは、タブレットペン132により、直接編集する領域(顔、髪など)を指定することが出来るほか、アイコンにタッチすることによっても編集領域を指定することができる。このアイコンは予め記憶部15に記憶されており、本実施例の場合、被写体領域全体を編集する「ぜんぶ」、第1フラグが設定された髪の部分のみを編集する「かみ」、第2フラグが設定された顔の部分のみを編集する「かお」、及び第3フラグが設定された胴体部分のみを編集する「からだ」アイコンがそれぞれ表示される。CPU11はプレイヤのタブレットペン132の操作により、編集領域を受け付ける(ステップS226)。この場合、CPU11は記憶部15から編集領域の指定を促すメッセージを読み出して、図24の如く表示する。このメッセージは例えば「どこを編集するの」等を表示するようにすればよい。
【0091】
プレイヤはタブレットペン132を用いて編集を希望する身体部分をタッチすることにより、または領域選択ボックス210に表示された一のアイコンをクリックすることにより、編集対象となる一の領域を指定する。図24の例ではポインタ27で指定された顔の部分が選択されている。アイコンを利用する場合は、「かお」のアイコンをタッチする。このようにアイコンを設けることでプレイヤは容易に編集領域を選択することが可能となる。
【0092】
顔、髪、胴体等の一の身体に係る編集領域を受け付けた場合、編集領域以外の画素について画像処理を行う(ステップS227)。編集領域を例えば第2フラグである顔の部分であるとした場合、第1フラグ及び第3フラグが設定されている画素にステップS223で行ったのと同様の画像処理を行う。この場合、CPU11は画像処理したデータをフレームバッファの第2の領域に記憶する。これにより、プレイヤは容易に編集領域を把握することが可能となる。
【0093】
CPU11はタブレットペン132から編集項目の入力を受け付ける(ステップS228)。具体的には、モニタ133の左端部縦方向に並列配置された編集項目ボタン21が、タブレットペン132により指定された場合、これを受け付ける。さらに、CPU11は編集情報であるパラメータを受け付ける(ステップS229)。CPU11は編集項目ボタン21が操作された場合は、パラメータボタン22を表示する。タブレットペン132によりパラメータボタンが操作された場合は、そのパラメータに対応するRGBの各要素に対する画像処理情報を画像処理変換テーブル151から読み出す。そして読み出した画像処理情報に従い、編集領域の各画素について、画像データの編集を行い(ステップS2210)、編集後の画像をバッファメモリの第2の領域に格納すると共に、モニタ133に表示する。なお、詳細な画像処理の内容については実施の形態1で説明したので省略する。
【0094】
CPU11は時計部192から出力される時間情報に基づき、編集時間のタイムアウト、またはおわりボタン23が操作されたか否かを判断する(ステップS231)。タイムアウトではなく、またおわりボタン23も操作されない場合は(ステップS231でNO)、ステップS228へ移行し以上述べた処理を繰り返す。一方、タイムアウトまたはおわりボタン23が操作された場合は(ステップS231でYES)、編集領域以外の画素について、ステップS223及びステップS227で行った画像処理を元に戻す画像処理を行う(ステップS232)。具体的には、編集領域以外の画素について行った着色処理を元に戻す処理を行い、バッファメモリの第2の領域に記憶する。
【0095】
その後CPU11は印刷部16へバッファメモリの第2の領域に記憶された編集後の画像データを出力する(ステップS233)。印刷部16はCPU11の指示に従いシールに印刷を行い、印刷後のシールはシール取出口161から排出される。以上のように構成することで、被写体毎に編集する場合、さらにその領域を顔、髪等の身体領域に分割して自由に編集することが可能となる。
【0096】
【発明の効果】
以上詳述した如く、本発明にあっては、画像編集装置はプレイヤが編集を希望する箇所である編集画素の入力を入力手段から受け付ける。そして、受け付けた編集画素の色情報に基づいて、演算処理手段により該編集画素を含む編集領域を設定する。次いで、設定された編集領域に対して、明度の変更等の編集情報を入力手段から受け付け、受け付けた編集情報に基づき前記編集領域の画像データを編集するよう構成したので、プレイヤは調整を希望する箇所(例えば顔の一部分、髪)をペン等で指定するだけで、調整を反映させる領域(一のプレイヤの顔全体、髪全体)が設定されるため、一のプレイヤの、顔等の明るさを変更した場合に、他のプレイヤの領域については、この調整による影響を防止することができる。しかもプレイヤは入力ペンにより変更箇所を指定するという単純な作業しか要求されないため、容易に調整が可能となる。
【0097】
また、本発明にあっては、頭の頂点、目等、被写体の画像データの特徴点または、髪の色、肌の色等のまたは色情報に基づき、被写体毎に編集領域を設定する。そして、設定された編集領域から一の編集領域の指定を受け付け、受け付けた編集領域に対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき前記編集領域の画像データを編集するよう構成したので、一のプレイヤは自己の画像についてのみお絵かき、色の調整等を行うことができ、一方他のプレイヤは一のプレイヤの編集による影響を受けることが無く、より遊技性の高い画像編集装置を提供することが可能となる。
【0098】
さらに、本発明にあっては、設定された被写体の編集領域を、顔及び髪を含む人体領域毎にさらに分割するようにしたので、一のプレイヤは自己の髪だけ金色にする、自己の顔だけ白くする等さらに細かく編集が行うことが可能となる等、本発明は優れた効果を奏し得る。
【図面の簡単な説明】
【図1】本発明に係る画像編集装置の外観を示す模式図である。
【図2】画像編集装置のハードウェア構成を示すブロック図である。
【図3】本発明の画像処理の手順を示すフローチャートである。
【図4】本発明の画像処理の手順を示すフローチャートである。
【図5】本発明の画像処理の手順を示すフローチャートである。
【図6】モニタに表示される編集画面及び画像データのイメージを示す説明図である。
【図7】編集項目及びパラメータの例を示す説明図である。
【図8】ポインタの周辺画素を示す説明図である。
【図9】ステップS47による画像処理の結果を示す説明図である。
【図10】実施の形態2に係る画像編集装置の構成を示すブロック図である。
【図11】実施の形態3に係る画像編集処理の手順を示すフローチャートである。
【図12】実施の形態3に係る画像編集処理の手順を示すフローチャートである。
【図13】実施の形態3に係る画像編集処理の手順を示すフローチャートである。
【図14】被写体毎に画像編集処理を行う際のイメージを示す説明図である。
【図15】ステップS118の第1のサブルーチンを示すフローチャートであ
【図16】取り込み画像の一例を示す説明図である。
【図17】ステップS118の第2のサブルーチンを示すフローチャートである。
【図18】取り込み画像の一例を示す説明図である。
【図19】ステップS118の第3のサブルーチンを示すフローチャートである。
【図20】取り込み画像の一例を示す説明図である。
【図21】実施の形態4に係る画像編集装置の構成を示すブロック図である。
【図22】実施の形態5に係る編集処理の手順を示すフローチャートである。
【図23】実施の形態5に係る編集処理の手順を示すフローチャートである。
【図24】画像処理を施した後のイメージを示す説明図である。
【図25】ステップS224のサブルーチンを示すフローチャートである。
【図26】ステップS224のサブルーチンを示すフローチャートである。
【符号の説明】
1    画像編集装置
191  照明部
191a ストロボ
191b ライト
192  時計部
16   印刷部
184  レール
18   撮影装置
181  CCDカメラ
182  取り込み画像表示部
19   スピーカ
135  操作ボタン
141  コイン投入口
14   硬貨処理部
15   記憶部
151  画像処理変換テーブル
183  撮影装置昇降ユニット
132  タブレットペン
13   操作ディスプレイ
131  タッチパネル
133  モニタ
161  シール取出口
1a   記録媒体
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image editing method, an image editing device, and a computer functioning as an image editing device that receives editing information for captured image data from an input unit, and edits the image data by an arithmetic processing unit based on the received editing information. More particularly, the present invention relates to an image editing apparatus installed in a game facility, and more particularly to an image editing method and the like in which a player can select and execute only a portion desired to be edited.
[0002]
[Prior art]
An image editing apparatus installed in a game facility or the like captures image data from an imaging unit such as a CCD (Charge Coupled Device) on condition that a predetermined price is paid, and places the captured image data on a monitor. Editing information is input from a touch panel type input unit using a tablet pen or the like, and the edited image data is printed on a printing medium such as a sticker. In such an image editing apparatus, so-called high-key adjustment is performed in order to compensate for insufficient light quantity at the time of shooting or to make the skin color more natural.
[0003]
This high key adjustment is performed by changing the brightness of the captured image data. The player sets a desired color while watching the image displayed on the display unit, then determines the image to be printed, and prints the desired image on a sticker. An image printing apparatus disclosed in, for example, Japanese Patent Application Laid-Open No. 2002-77782 is known as one that performs such high key adjustment. Japanese Patent Application Laid-Open No. 2002-77782 discloses a technique in which a brightness change button is displayed on a screen, and the brightness of the entire image is changed by appropriately operating a brightness adjustment button from an operation panel.
[0004]
[Problems to be solved by the invention]
However, in the conventional high key adjustment, since the brightness of the entire screen is changed, there is a problem that when a plurality of players are photographed, each player cannot adjust the color tone to his or her favorite color. In particular, image editing devices installed in amusement facilities often edit images taken by a plurality of people rather than images taken alone, so that the color tone and the like can be freely adjusted for each player. The development of a possible image editing device has been eagerly desired.
[0005]
The present invention has been made in view of such circumstances, and a purpose thereof is to receive an edit pixel desired to be edited, and, based on the color information of the received edit pixel, to edit an edit area including the edit pixel. By setting the editing information for the set editing area, it is possible to easily specify a place where one player wants to make an adjustment, and to affect the area of another player by the adjustment of one player. It is an object of the present invention to provide an image editing method, an image editing apparatus, a computer program for causing a computer to function as an image editing apparatus, and a recording medium that are not affected by the method.
[0006]
Further, another object of the present invention is to set an editing area for each subject based on feature points or color information of image data of the subject, accept designation of one editing area from the set editing areas, and set the editing area. An image editing method, an image editing apparatus, and a computer, in which the editing is performed only on the editing area of one subject, so that the playability is higher, and the area of another player is not affected by the adjustment of one player. It is an object of the present invention to provide a computer program and a recording medium for causing a computer to function as an image editing device.
[0007]
Further, another object of the present invention is that after an editing region is set for each subject, the editing region is further divided into body regions such as faces and hairs, and an image is edited in the divided regions. Accordingly, an object of the present invention is to provide an image editing apparatus capable of performing more various kinds of image editing.
[0008]
[Means for Solving the Problems]
An image editing method according to a first aspect of the present invention is an image editing method for editing the image data by arithmetic processing means based on editing information input from the input means for captured image data. Receiving, an area setting step of setting an edit area including the edit pixel by the arithmetic processing unit based on the received color information of the edit pixel, and accepting edit information for the set edit area from the input means. And a step of editing the image data in the editing area by the arithmetic processing unit based on the received editing information.
[0009]
An image editing method according to a second aspect of the present invention is an image editing method for receiving editing information for captured image data from an input unit, and editing the image data by an arithmetic processing unit based on the received editing information. An area setting step of setting an editing area for each subject by the arithmetic processing means based on the feature points or color information of the above; and specifying an editing area for one subject from the set editing areas for each subject by the input means. Receiving an editing information for the received editing area from the input unit, and editing the image data of the editing area by the arithmetic processing unit based on the received editing information. And
[0010]
An image editing apparatus according to a third aspect of the present invention is an image editing apparatus which receives editing information for captured image data from an input unit, and edits the image data by an arithmetic processing unit based on the received editing information. Means for receiving an edit pixel, area setting means for setting an edit area including the edit pixel by the arithmetic processing means based on the received color information of the edit pixel, and edit information for the set edit area from the input means. And a means for editing the image data of the editing area by the arithmetic processing means based on the received editing information.
[0011]
In the image editing apparatus according to a fourth aspect, in the third aspect, the area setting unit compares color information of the edit area including the received edit pixel with color information of a target pixel adjacent to the edit area, If the result of the comparison is within a predetermined value, the target pixel is set in the editing area.
[0012]
An image editing apparatus according to a fifth aspect is the image editing apparatus according to the third or fourth aspect, further comprising printing means for printing the edited image data on a print medium.
[0013]
An image editing apparatus according to a sixth aspect of the present invention is an image editing apparatus that receives editing information for captured image data from an input unit and edits the image data by an arithmetic processing unit based on the received editing information. Area setting means for setting an editing area for each subject by the arithmetic processing means based on the characteristic points or color information of the above; and inputting means for designating an editing area for one subject from the set editing areas for each subject. From the input means, and a means for editing the image data of the edit area by the arithmetic processing means based on the received edit information. Features.
[0014]
An image editing apparatus according to a seventh aspect is the image editing apparatus according to the sixth aspect, wherein the means for performing the first image processing on the image of the set editing area for each subject, and the designation receiving means, Means for performing a second image processing on the image in the editing area when the designation is accepted.
[0015]
The image editing apparatus according to an eighth aspect of the present invention is the image editing apparatus according to the sixth aspect, further comprising a unit for further dividing the editing region of the subject set by the region setting unit into human body regions including a face and hair by the arithmetic processing unit. It is characterized by the following.
[0016]
An image editing apparatus according to a ninth aspect is the image editing apparatus according to any of the sixth to eighth aspects, further comprising a printing unit for printing the edited image data on a print medium.
[0017]
A computer program according to a tenth aspect of the present invention is a computer program for receiving editing information for captured image data from an input unit, and causing a computer to edit the image data based on the received editing information. Receiving an edit pixel from the computer; an area setting step of causing a computer to set an edit area including the edit pixel based on the color information of the received edit pixel; and editing information for the set edit area by the computer. And the step of causing a computer to edit the image data in the editing area based on the received editing information.
[0018]
A computer program according to an eleventh aspect of the present invention is a computer program for receiving, from an input unit, editing information for captured image data, and causing a computer to edit the image data based on the received editing information. An area setting step of setting an editing area for each subject based on feature points or color information of data, and a specification receiving step of causing a computer to receive specification of an editing area for one subject from the set editing area for each subject. Causing the computer to execute, from the input means, editing information for the received editing area, and causing the computer to execute the step of editing the image data of the editing area based on the received editing information. I do.
[0019]
A computer-readable recording medium according to a twelfth aspect of the present invention includes a computer program for receiving editing information for captured image data from an input unit, and causing a computer to edit the image data based on the received editing information. Causing the computer to accept an edit pixel from the input unit on the recorded recording medium; and setting an edit area including the edit pixel based on the color information of the accepted edit pixel. A computer program for executing a step of causing a computer to receive editing information for a set editing area from an input unit, and a step of causing the computer to edit image data of the editing area based on the received editing information. That is And butterflies.
[0020]
A computer-readable recording medium according to a thirteenth aspect of the present invention is configured such that a computer program for receiving editing information for captured image data from an input unit and causing a computer to edit the image data based on the received editing information is provided. An area setting step of causing the computer to set an editing area for each subject based on feature points or color information of image data of the subject on the recorded recording medium; and A designation accepting step of accepting designation of an edit area relating to a subject; a step of causing a computer to accept edit information for the accepted edit area from an input unit; and an image of the edit area based on the accepted edit information. Steps to edit data Wherein the computer program causes are recorded.
[0021]
According to the present invention, the image editing apparatus receives, from the input unit, an input of an edit pixel, which is a portion that the player desires to edit. For example, a skin color portion of the face and a hair portion are received by an input pen or the like. Then, based on the received color information of the edit pixel, an edit region including the edit pixel is set by the arithmetic processing unit. For example, the color information of the edit area including the received edit pixel is compared with the color information of the target pixel adjacent to the edit area, and when the difference is within a predetermined value, the target pixel Is set in the editing area. Next, edit information such as a change in brightness is received from the input means for the set edit area, and the image data in the edit area is edited based on the received edit information. The edited image data is printed on a print medium by a printing unit. With such a configuration, the player only designates a portion (for example, part of the face, hair) desired to be adjusted with a pen or the like, and an area (an entire face of one player, entire hair) of the adjustment is set. Therefore, when the brightness of one player's face or the like is changed, the effect of this adjustment can be prevented for the area of another player. In addition, since the player is required only to perform a simple operation of designating a changed portion with the input pen, the adjustment can be easily performed.
[0022]
Further, in the present invention, an editing area is set for each subject based on feature points of image data of the subject such as a vertex of a head and eyes, or color information such as a hair color and a skin color. In this case, in order to clarify the editing area, the first image processing is performed on the image of the set editing area for each subject. Then, the designation of one editing area from the set editing area is received. In this case, in order to allow the player to grasp the selected area, when the designation of one editing area is received, the second image processing is performed on the image of the editing area. Next, since the editing information for the received editing area is received from the input unit and the image data of the editing area is edited based on the received editing information, one player draws and adjusts the color only for his own image. Etc., while the other players are not affected by the editing of one player, and it is possible to provide an image editing apparatus with higher playability.
[0023]
Further, in the present invention, the set editing area of the subject is further divided into each human body area including the face and the hair, so that one player turns his or her own hair golden, It is possible to perform more detailed editing such as whitening only.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, the present invention will be described in detail with reference to the drawings showing embodiments.
Embodiment 1
FIG. 1 is a schematic view showing the appearance of an image editing apparatus according to the present invention. On the front of the image editing device 1, a speaker 19, a photographing device 18, an operation display 13, an operation button 135, a tablet pen 132 for inputting an edited figure, characters, and the like with respect to an image displayed on the operation display 13, a coin insertion An opening 141 and the like are provided. At both ends of the front surface of the image editing apparatus 1, illumination units 191 each having a built-in light and a strobe are provided, and irradiate a player standing on the front surface in synchronization with the photographing apparatus 18. Further, a seal outlet 161 for discharging a printed seal is provided on a side surface of the housing of the image editing apparatus 1. In addition, the image editing apparatus 1 further includes a rear illumination, a fan, a curtain, a background curtain (not shown), and the like at a position facing the imaging device 18.
[0025]
A speaker 19 vertically provided on the front of the image editing apparatus 1 provides guidance to a player for guiding the progress of a shooting procedure after inserting coins, and the player's own display on the operation display 13. It outputs audio information such as guidance for performing editing to be described later on the captured image. As will be described later, the illuminating portions 191 provided on both sides of the imaging device 18 function as a flash at the time of imaging, and external light is generated by the image editing device 1 and a background curtain (not shown) surrounding the player. Since the game is interrupted, the player is illuminated even before shooting.
[0026]
A photographing device 18 that moves up and down according to a rail 184 is provided substantially at the center of the front surface of the image editing device 1. A lens of a CCD camera 181 that captures an image according to a player's instruction, and a captured image display unit 182 such as a liquid crystal display that displays a captured image are disposed in an opening on the front side of the imaging device 18 in an exposed state. ing. The imaging device 18 and the rail 184 are connected to each other by a rotating gear (not shown), and the imaging device 18 can be moved up and down on the rail by operating the operation button 135 of the player.
[0027]
The operation display 13 is provided below the imaging device 18 with the display screen facing obliquely in front of the image editing device 1. The operation display 13 includes a monitor formed of a liquid crystal display or a CRT (Cathode-Ray Tube) or the like, and a touch panel stacked thereon. A tablet pen 132 is provided near the operation display 13, and an image photographed by the CCD camera 181 is displayed on the operation display 13. Alternatively, graffiti processing or the like can be performed. In addition to the photographed image, various selection buttons and messages are displayed on the operation display 13 in accordance with the progress of the image print creation and the printing process. The photographing procedure proceeds by making a selection using the pen 132.
[0028]
A coin insertion slot 141 is provided on a substantially vertical surface below the front surface of the image editing apparatus 1. When the player inserts a predetermined price into the coin slot 141, the photographing process is started. A seal outlet 161 is provided at a lower portion of the side surface of the image editing apparatus 1, and a photographed image obtained by photographing and editing is printed on a predetermined number of divided stickers and discharged.
[0029]
FIG. 2 is a block diagram illustrating a hardware configuration of the image editing apparatus 1. The image editing apparatus 1 is provided with arithmetic processing means (hereinafter, referred to as CPU (Central Processing Unit)) 11, a photographing device 18, a photographing device elevating unit 183, a storage unit 15, and input means (hereinafter, referred to as operation display 13) via a bus 17. , An operation button 135, a speaker 19, an illumination unit 191, a printing unit (hereinafter, referred to as a printing unit) 16, a coin processing unit 14, a RAM (Random Access Memory) 12, and the like.
[0030]
The CPU 11 is connected to the above-described hardware units of the image editing apparatus 1 via the bus 17, controls the hardware units, and executes various software programs according to a control program 15 P stored in the storage unit 15 such as a hard disk. Perform a functional function. In the present embodiment, the image editing apparatus 1 stores the photographing apparatus 18, the operation display 13, the printing unit 16 and the like in one housing, but is not limited to this. For example, only the photographing apparatus 18 is isolated. You may make it provide. For example, a unit that performs a photographing function such as a photographing device 18, an illumination unit 191, and a magnetic card ejection opening (not shown), and an image editing unit such as the operation display 13, the printing unit 16, and a magnetic card insertion opening (not shown). A similar function may be realized by connecting the unit that performs the function with a network via a server computer (not shown) in the amusement facility. In this case, when the player performs photographing in the unit including the photographing device 18, the magnetic card with the ID is ejected from the magnetic card ejection port. The image data and the ID are stored in the server computer in association with each other. When the player edits and prints an image, the user inserts a magnetic card into the magnetic card insertion slot, reads out image data from the server computer based on the ID, edits the image, and prints it on a sticker or the like. Good.
[0031]
The RAM 12 is configured by an SRAM (Static Random Access Memory) or a flash memory, and stores temporary data generated when executing software. The photographing device 18 includes a CCD camera 181, a captured image display unit 182, and the like. The CPU 11 outputs an image capture signal to the CCD camera 181 in response to a player's operation instruction of the operation button 135. The electric charge stored in the CCD is output as an electric signal to an A / D converter (not shown), and the image data converted into a digital signal by the A / D converter is stored in the storage unit 15 as data of each of RGB components. The image is output to the captured image display unit 182 such as a liquid crystal display and the monitor 133 of the operation display 13.
[0032]
The photographing device 18 is connected to a photographing device elevating unit 183. When a player's elevating instruction is given from the operation button 135, the photographing device elevating unit 183 operates a rotating gear (not shown) to move the photographing device 18 to the rail 184. Move up and down along.
[0033]
The operation display 13 includes a monitor 133, a touch panel 131, a tablet pen 132, and a display processor 134. The details will be described below. The display processor 134 displays a guide screen for a shooting procedure on the monitor 133 based on an instruction from the CPU 11. The display processor 134 has a frame buffer for storing image data acquired by the CCD camera 181 inside, and similarly displays a captured image on the monitor 133. The frame buffer is configured by a dual port memory, and each area is used by being divided into two areas capable of storing one sheet of image data. A captured image from the CCD camera 181 is input to the first area of the frame buffer, and after capturing, the captured image (the captured image and the frame image when the user selects the frame image) is stored. You. On the other hand, the second area is a storage area used in editing processing such as graffiti processing and brightness adjustment, and stores the same photographed image as the first area when photographing ends. That is, in the editing process, when the player inputs a graffiti using the tablet pen 132, the input data is written in the second area. Note that the player can erase the graffiti added once and return to the original image by designating the eraser processing. In that case, the display processor 134 reads out the image data of the part designated by the eraser from the first area and writes it in the second area, thereby performing the graffiti processing on the part designated by the user with the eraser. Returns to the previous image.
[0034]
On the monitor 133, a transparent touch panel 131 is laminated, and on the monitor 133, data stored in the second area of the frame buffer of the display processor 134 is displayed. Therefore, while the user is inputting a graffiti or the like, the captured image on which the graffiti or the like has been given is displayed on the monitor 133. Touch panel 131 detects an input from tablet pen 132. When editing information such as brightness adjustment and graffiti is input, the touch panel 131 receives the input and outputs the received editing information to the display processor 134. The display processor 134 performs a process of writing the input editing information to the second area in the frame buffer.
[0035]
The voice guidance data is recorded in the storage unit 15, and the speaker 19 reads the guidance data recorded in the storage unit 15 based on an instruction from the CPU 11 and outputs the guidance data to the speaker 19. The guidance output from the speaker 19 to the player includes an operation method and a countdown immediately before shooting. The coin processing unit 14 detects the amount of coins inserted from the coin insertion slot 141 and outputs a detection signal to the CPU 11 when detecting that a predetermined price has been inserted.
[0036]
The printing unit 16 is a part for creating an image sticker, prints an image that has been photographed by the CCD camera 181 and has been subjected to editing processing such as brightness adjustment on sticker paper or the like. It is discharged from the seal outlet 161. The illumination unit 191 includes a light 191b for continuous illumination such as a fluorescent lamp and a strobe 191a for illuminating by synchronizing light emission at the moment of photographing. The lights 191b are provided on both side edges of the front surface of the image editing apparatus 1, and irradiate the player through a diffused illumination cover made of plastic. This light is turned on not only at the time of shooting, but also before shooting and at the time of editing. The turning on / off of the light is controlled by the CPU 11 according to the control program 15P stored in the storage unit 15. The clock unit 192 outputs time data to the CPU 11.
[0037]
Also, strobes 191a are similarly provided on both sides of the front surface of the image editing apparatus 1, respectively. The strobe 191a is set so as to irradiate the player in synchronization with the image capture of the CCD camera 181. When a photographing instruction signal for the CCD camera 181 is output from the operation button 135, the CPU 11 outputs a lighting instruction signal to the strobe 191a in synchronization with the image capturing timing of the CCD camera 181. The same control is performed for a rear strobe (not shown) provided behind the player.
[0038]
In the above hardware configuration, the contents of the software processing of the present invention will be described with reference to flowcharts. 3 to 5 are flowcharts showing the procedure of the image processing of the present invention. The CPU 11 uses the coin processing unit 14 to determine whether or not a predetermined amount of money has been inserted, and reads a message indicating a shooting procedure and an editing procedure from the storage unit 15 when determining that the predetermined amount of money has been inserted. And outputs it to the monitor 133. The CPU 11 monitors whether a signal indicating image capture has been input from the operation button 135. If the signal has been input from the operation button, the CPU 11 causes the strobe 191a to emit light and outputs an image capture signal to the CCD camera 181. Thereby, the image data is captured (step S31).
[0039]
The CPU 11 stores the captured image data in the first area and the second area of the frame buffer of the display processor 134 (Step S32). The CPU 11 reads the image data from the frame buffer, reads an editing screen for inputting editing information from the storage unit 15, and displays the read editing screen and the image data on the monitor 133 (step S33). It should be noted that, in actuality, shooting is performed a plurality of times, the player is allowed to select several favorite images, and editing is performed. However, in the present embodiment, for simplicity of explanation, an image obtained by one shooting is edited. The processing at the time of performing will be described.
[0040]
FIG. 6 is an explanatory diagram showing an image of the editing screen and image data displayed on the monitor 133. A countdown timer 24 based on time information output from the clock unit 192 is displayed at an upper portion centering on the captured image data. When the button 25 is operated after the input of the editing information, the button 25 performs a process of shifting to a state in which an image is captured from the CCD camera 181. Specifically, the image data stored in the first area of the frame buffer is read and displayed. The return button 26 executes a process of canceling the editing information input immediately before. That is, when the editing information is input, the CPU 11 stores the editing information in the second area of the frame buffer in association with the time information output from the clock unit. When the return button 26 is operated, the CPU 11 refers to the history of the stored time information, reads the previous image from the image data stored in the past in the second area, and displays it on the monitor 133. I do.
[0041]
A plurality of edit item buttons 21 are displayed on the left end of the monitor 133, and a parameter button 22 as edit information to be input is displayed in correspondence with the plurality of edit item buttons 21. This example shows a state in which the player has selected the brightness of the edit item button 21 from the tablet pen 132. When an editing item is selected, the CPU 11 reads out a parameter corresponding to the editing item from the storage unit 15 and displays the parameter. In this example, parameters such as super-whitening, whitening, normal, and tan are displayed. When one parameter is selected, the CPU 11 performs image processing on the corresponding image processing information with reference to the image processing conversion table 151 of the storage unit 15. For example, when whitening is selected, the image processing conversion table 151 is stored so that each of the lightness values of RGB is added by 30 each, and the CPU 11 refers to the image processing conversion table 151 for each pixel and The image processing is executed by adding the brightness 30 to the image data. When the sunburn parameter is selected, each lightness value of RGB is decreased by 30. That is, each value of RGB is represented by, for example, an 8-bit value of 0 to 255, R = 0, G = 0, B = 0 is defined as black, R = 255, G = 255, B = 255 is defined as white. If R = X, G = X, and B = Z, and if R = X + 30, G = X + 30, and B = Z + 30, fairness (whitening) can be realized. Furthermore, even if an unhealthy pale complexion is set at B = Z + 30 and B = Z + 15, a healthy reddish complexion can be obtained.
[0042]
FIG. 7 is an explanatory diagram showing examples of edit items and parameters. Parameters are set for each edit item as shown. Image processing information corresponding to each parameter is stored in the image processing conversion table 151. Regarding the formatting of the editing items, parameters such as clear, normal, and chubby are prepared. When performing the shaping process, a lens simulation process of enlarging or reducing each pixel in the X-axis direction or the Y-axis direction centering on a pixel near the center in the editing area pixel according to a predetermined parameter is performed. As for the clear parameters, the ratio of the X-axis and the Y-axis of the image is set to 0.80 to 0.94: 1 instead of 1: 1 in consideration of the psychology of a young girl who is the main player. The ratio is preferably set to 95 to 0.98: 1, and the face should be slender so that the player cannot recognize it. In the case of chubby, the parameters may be 1.2 to 1.1: 1. With regard to the automatic correction, for example, processing to make the cheeks slightly inflate the characteristics of the infant and processing to enlarge the eyes are performed by software. The arrangement of the eyes and nose is modified so that it is close to the average of Japanese people by about 1/4 while maintaining the personality. For a baby, if R = X + 30, G = Y + 30 and B = Z + 10, a fair-skinned and reddish baby color can be realized. In addition, the cheeks are inflated like a baby, the eyes are enlarged, and any uneven skin such as acne and wrinkles is processed by the software to make them even. To make it beautiful, the face outline and the arrangement of the eyes and nose are corrected so as to be close to half of the average for Japanese people, while maintaining personality. Skin color should reflect the fashion. The foreigner style also has a preference for the subject, so select from the distinctive facial features of each nation and the skin color (black, yellow, white according to race). Use morphing technique to approach and whiten skin tone, adding a slight redness. In the old-fashioned style, low-key saturation is suppressed. For adults, R = X-10, G = Y-10, and B = Z. The difference between cute and neat is that while maintaining cute personality, the standard arrangement of the eyes and nose is made to meet the average value (for example, Japanese) of the player to make a so-called beautiful face. More preferred interpretations are in the category of the mainist and professional photographer, but if the interpretation does not produce an image only with characters, it is also good to display them as icons with characters in cartoons and the like. Other editing items are as written.
[0043]
Subsequently, the CPU 11 reads a message as to whether or not to execute the editing of the image data from the storage unit 15 on the monitor 133 and displays the message. The CPU 11 determines whether a signal to execute the editing of the image data is input from the operation button 135 or the tablet pen 132 (step S34). When a signal to execute the editing of the image data is not input (NO in step S34), the CPU 11 reads and outputs the image data stored in the second area of the frame buffer to the printing unit 16 (step S55).
[0044]
On the other hand, when a signal to execute editing of image data is input (YES in step S34), an edited pixel is received (step S35). In this case, as shown in FIG. 6, a message prompting the input of the edit pixel is read from the storage unit 15 and displayed. For example, a message such as "Please select a point to be adjusted" is displayed. The player uses the tablet pen 132 to specify a portion desired to be edited. When the CPU 11 receives an input from the tablet pen 132, the pointer 27 is displayed as shown in FIG. In the present embodiment, a procedure for performing the brightness adjustment processing of the skin color portion of the face will be described.
[0045]
FIG. 8 is an explanatory diagram showing the peripheral pixels of the pointer 27. As shown in the figure, the pixel indicated by the pointer 27 corresponds to the edit pixel designated by the player. In the present embodiment, the number of pixels input by the player is one, but the present invention is not limited to this, and a plurality of pixels may be input as edit pixels. After accepting the input of the edit pixel, the CPU 11 acquires the brightness values of the inputted edit pixel and the adjacent pixels (step S36), and stores the acquired brightness values of the RGB in the RAM 12. The adjacent pixel means a pixel near the edit pixel, for example, a pixel adjacent to the input edit pixel, and in FIG. 8, a pixel in eight directions around the edit pixel.
[0046]
The CPU 11 sets an adjacent pixel including the input edit pixel as an edit area in an initial state, and calculates an average brightness value of the edit area (step S37). Specifically, the brightness data of each of the RGB stored in the RAM 12 is read, and an average value is calculated for each of the RGB. The calculated average brightness value is stored in the RAM 12. The CPU 11 further acquires a brightness value of a pixel adjacent to the editing area (Step S41). The adjacent pixels are pixels that are adjacent to the editing area in FIG. The CPU 11 calculates the absolute value of the difference between the obtained RGB lightness value of the pixel and the average lightness value of each RGB of the editing area, and determines whether the absolute value is equal to or greater than a threshold value stored in the storage unit 15 in advance. Is determined (step S42).
[0047]
If the calculated absolute value is not greater than or equal to the threshold value (NO in step S42), the CPU 11 determines that the face is a skin color portion and sets this pixel as an editing area (step S43). On the other hand, if the calculated absolute value is equal to or larger than the threshold (YES in step S42), the pixel is determined to be other than the skin color component such as the background, hair, clothes, etc., and a flag is set for this pixel (step S44). ). Thereafter, the CPU 11 determines whether or not flags have been set for all the pixels adjacent to the editing area (step S45). If the flags have not been set for all adjacent pixels (NO in step S45), the process proceeds to step S41, and the above processing is repeated.
[0048]
On the other hand, if the flags are set for all adjacent pixels (YES in step S45), it is determined that the editing area has spread over the entire face and has reached an area other than the skin color components such as the background, hair, clothes, etc., and the editing is performed. The area is determined (step S46). The CPU 11 performs image processing such as lowering the brightness value by a certain value in order to allow the player to recognize pixels other than the determined editing area (step S47).
[0049]
FIG. 9 is an explanatory diagram showing the result of the image processing in step S47. As shown in the figure, the CPU 11 performs image processing on the pixels excluding the determined editing area. This allows the player to visually recognize whether the region desired to be edited specified by the tablet pen 132 is correct. The CPU 11 receives an input of an edit item from the tablet pen 132 (step S48). More specifically, when the editing item buttons 21 arranged in parallel in the vertical direction at the left end of the monitor 133 are designated by the tablet pen 132, this is accepted. Further, the CPU 11 receives a parameter that is editing information (step S51). When the edit item button 21 is designated by the tablet pen 13, the CPU 11 displays a parameter button 22. When the parameter button is operated by the tablet pen 132, image processing information for each of the RGB elements corresponding to the parameter is read from the image processing conversion table 151. The image data is edited for each pixel in the editing area according to the read image processing information (step S52), and the edited image data is stored in the second area of the buffer memory and displayed on the monitor 133.
[0050]
Based on the time information output from the clock section 192, the CPU 11 determines whether the editing time has expired or the end button 23 has been operated (step S53). If it is not time-out and the end button 23 is not operated (NO in step S53), the process proceeds to step S48 and the above-described processing is repeated. On the other hand, if the timeout or end button 23 has been operated (YES in step S53), image processing for undoing the image processing performed in step S47 on the pixels outside the editing area is performed (step S54). Specifically, when the process of reducing the RGB lightness values of the pixels other than the edit region by a predetermined value is performed in step S47, the process of increasing the RGB lightness values of the pixels other than the edit region by a predetermined value is performed. In the second area.
[0051]
Thereafter, the CPU 11 outputs the edited image data stored in the second area of the buffer memory to the printing unit 16 (Step S55). The printing unit 16 prints on the sticker according to the instruction of the CPU 11, and the printed sticker is discharged from the sticker outlet 161. Note that, in the present embodiment, an example in which the brightness is adjusted for the skin color portion of the face has been described. However, the present invention is not limited to this, and image processing is performed on the background, hair, and the like by similar processing. Is also good. As described above, the player can edit a desired editing area only by a simple operation of designating a portion to be edited using the tablet pen 132. In addition, the brightness can be freely adjusted without affecting the image data of another player, so that the gaming ability can be further improved.
[0052]
Embodiment 2
FIG. 10 is a block diagram showing a configuration of the image editing device 1 according to the second embodiment. Further, a computer program for executing the image editing apparatus 1 according to the first embodiment can be provided by being preinstalled in the image editing apparatus 1 as in the second embodiment, and can be provided on a CD-ROM, an MO, or the like. It is also possible to provide the portable recording medium. Further, it is also possible to provide the computer program by propagating it as a carrier wave via the Internet or a public line. The contents will be described below.
[0053]
A recording medium 1a (CD-ROM, MO or DVD) on which a program for causing the image editing apparatus 1 shown in FIG. 10 to accept an input of an edit pixel, set an area, accept edit information, and edit image data is recorded. -ROM or the like) is installed in the storage unit 15 of the image editing apparatus 1. Such a program is loaded into the RAM 12 of the image editing apparatus 1 and executed. Thereby, it functions as the image editing apparatus 1 of the present invention as described above.
[0054]
The second embodiment has the above-described configuration, and other configurations and operations are the same as those of the first embodiment. Corresponding portions are allotted with the same reference numerals, and detailed description thereof is not repeated.
[0055]
Embodiment 3
In the third embodiment, unlike the first embodiment, the CPU 11 sets an editing area for each subject from the captured image, the player selects one subject, and edits the image in the editing area related to the selected subject. On how to do.
[0056]
11 to 13 are flowcharts showing the procedure of the image editing process according to the third embodiment. The CPU 11 uses the coin processing unit 14 to determine whether or not a predetermined amount of money has been inserted, and reads a message indicating a shooting procedure and an editing procedure from the storage unit 15 when determining that the predetermined amount of money has been inserted. And outputs it to the monitor 133. The CPU 11 monitors whether a signal indicating image capture has been input from the operation button 135. If the operation button has been input, the CPU 11 causes the strobe 191a to emit light and outputs an image capture signal to the CCD camera 181. Thereby, the image data is captured (step S111).
[0057]
The CPU 11 stores the fetched image data in the first area and the second area of the frame buffer of the display processor 134 (Step S112). The CPU 11 reads the image data from the frame buffer, reads an editing screen for inputting editing information from the storage unit 15, and displays the read editing screen and image data on the monitor 133 (step S113). The CPU 11 reads a message as to whether or not to execute the editing of the image data from the storage unit 15 and displays the message on the monitor 133. The CPU 11 determines whether or not a signal to execute editing of image data is input from the operation button 135 or the tablet pen 132 (step S114). If a signal to execute editing of the image data is not input (NO in step S114), the CPU 11 reads out and outputs the image data stored in the second area of the frame buffer to the printing unit 16 (step S133).
[0058]
On the other hand, if a signal indicating that image data is to be edited is input (YES in step S114), CPU 11 reads out the image data stored in the frame buffer and performs processing for removing the background image to extract only the subject image (Step S115). This can be done by extracting a subject image by a known image processing method such as chroma key processing. After extracting the subject image, the CPU 11 performs edge detection (step S116), and further performs processing of extracting only contour pixels of the subject image from the group of pixels whose edges have been detected (step S117).
[0059]
After extracting the contour pixels of the subject, the CPU 11 sets an editing area for each subject (step S118). That is, when there are a plurality of subjects, an editing area for each subject is set by recognizing the number of subjects and the pixels occupied by each subject. In this case, information on the pixels occupied by each subject is stored in the storage unit 15 in association with the information on the subject. The processing in S118 will be described later. When the area for each subject is set, the CPU 11 performs the first image processing on each subject and the background image (step S121).
[0060]
FIG. 14 is an explanatory diagram showing an image when performing image editing processing for each subject. When the first image processing is performed, the coloring processing is performed for each of the background component area and the subject area. Specifically, the CPU 11 reads the editing area pixel of one subject from the storage unit 15 and performs a coloring process on the read pixel of the image data stored in the second area of the frame buffer. Subsequently, the CPU 11 reads out the editing area pixels of another subject from the storage unit 15 and performs a coloring process on the read out pixels of the image data stored in the second area of the frame buffer. When the coloring process for the editing area of the subject is completed, the remaining pixels, that is, the background pixels, are colored in the second area of the frame buffer. The coloring process may use a different color component for each region, which allows the player to easily recognize the editing region.
[0061]
When recognizing the number of subjects and the positions of the subjects, the CPU 11 reads the icons corresponding to the number of subjects and the positions of the subjects from the storage unit 15 and displays them in the area selection box 210 provided at the right end of the monitor 133 (step S122). . This icon is stored in the storage unit 15 in advance, and in the case of the present embodiment, since two subjects have been photographed in a left-right parallel state, the corresponding icon is displayed on the monitor. The CPU 11 accepts the editing area of one subject by operating the tablet pen 132 of the player (step S123). In this case, the CPU 11 reads from the storage unit 15 a message urging the designation of the editing area, and displays the message as shown in FIG. This message may display, for example, "Who is going to edit? Touch the person to be edited with the pen."
[0062]
The player touches one object on the monitor using the tablet pen 132 and touches a colored object area on the monitor, or clicks one icon displayed in the area selection box 210 to thereby edit one object to be edited. Specify the subject. In the example of FIG. 14, the subject designated by the pointer 27 (the subject on the left as viewed from the front) is selected. In the case of designating the subject on the left, the subject to be edited is selected by touching the icon "Hidden person" above the area selection box 210. By providing the icons in this manner, the player can easily select one subject.
[0063]
When the subject area to be edited is received, the CPU 11 reads the subject image from the storage unit 15 and performs the second image processing on the subject image (step S124). In the second image processing, for example, the processing of returning the image processing to the subject area performed in step S121 may be performed. In this case, the CPU 11 reads out the image data subjected to the second image editing process stored in the frame buffer, and performs a process of restoring the coloring process performed in step S121 to the pixel of the selected subject. Thus, the player can easily grasp the editing area.
[0064]
The CPU 11 receives an input of an edit item from the tablet pen 132 (step S125). More specifically, when the editing item buttons 21 arranged in parallel in the vertical direction at the left end of the monitor 133 are designated by the tablet pen 132, this is accepted. Further, the CPU 11 receives a parameter that is editing information (step S126). When the edit item button 21 is operated, the CPU 11 displays a parameter button 22. When the parameter button is operated by the tablet pen 132, image processing information for each of the RGB elements corresponding to the parameter is read from the image processing conversion table 151. In accordance with the read image processing information, the image data is edited for each pixel in the editing area (step S127), and the edited image is stored in the second area of the buffer memory and displayed on the monitor 133. The details of the image processing have been described in the first embodiment, and a description thereof will be omitted.
[0065]
Based on the time information output from the clock unit 192, the CPU 11 determines whether the editing time has expired or the end button 23 has been operated (step S131). If it is not time-out and the end button 23 is not operated (NO in step S131), the process proceeds to step S125 and the above-described processing is repeated. On the other hand, if the timeout or end button 23 has been operated (YES in step S131), image processing for undoing the image processing performed in step S121 is performed on the pixels outside the editing area (step S132). Specifically, a process of restoring the coloring process performed on the pixels other than the editing region is performed, and stored in the second region of the buffer memory.
[0066]
Thereafter, the CPU 11 outputs the edited image data stored in the second area of the buffer memory to the printing unit 16 (Step S133). The printing unit 16 prints on the sticker according to the instruction of the CPU 11, and the printed sticker is discharged from the sticker outlet 161. With the configuration described above, even when a plurality of players shoot and edit, the selection target can be easily selected by the user. Further, the edited process is not reflected on the image of another player as in the related art, so that editing with a higher degree of freedom can be performed.
[0067]
Hereinafter, the details of the editing area setting process in S118 will be described. FIG. 15 is a flowchart showing a first subroutine of step S118, and FIG. 16 is an explanatory diagram showing an example of a captured image. As shown in FIG. 16, edge detection is performed on images of two subjects, and the outline of each subject is displayed. Here, in FIG. 16, the pixel array in the horizontal direction is the x axis, and the pixel array in the vertical direction is the y axis, with the upper left end of the monitor 133 as the origin. Hereinafter, the processing content when setting the editing area for each subject will be described. First, the CPU 11 substitutes the initial value 0 into the arrays i and x and stores them in the RAM 12 (step S151). The CPU 11 scans pixels in the y-axis direction with the x-axis pixels fixed at the initial value 0, and detects brightness (step S152).
[0068]
Then, the CPU 11 determines whether or not the contour pixel exists on the scanning line (step S153). If no contour pixel is detected (NO in step S153), x is incremented (step S154), and the process proceeds to step S152 to repeat the processing. On the other hand, if a contour pixel is detected (YES in step S153), i is incremented (step S155), and the area related to the detected pixel is recognized as the i-th subject (step S156). The coordinates of the detected pixels are stored in the RAM 12 at the same time. Since the initial value is 0, it is recognized as the first subject by the first recognition.
[0069]
Further, the CPU 11 increments the value of x (step S157), scans the pixels in the y-axis direction with the incremented x-axis pixels fixed, and detects the brightness (step S158). Then, the CPU 11 determines whether or not there is a contour pixel on the y-axis scanning line (step S159). If there is a contour pixel (YES in step S159), CPU 11 stores the coordinates of the contour pixel in RAM 12 in association with subject number (i) (step S1510). After that, the CPU 11 shifts to step S157 and repeats the above processing. In step S159, when the CPU 11 does not detect the contour pixel (NO in step S159), x is incremented (step S1511).
[0070]
Thereafter, the CPU 11 determines whether or not x is a predetermined maximum value (step S1512). For example, assuming that the end of the coordinate value in the x-axis direction is 1024, it is determined whether or not the value of x is 1024. If the value of x is not the maximum (NO in step S1512), the process proceeds to step S152, and the detection of the subject and the pixel detection of the subject area are repeatedly performed. If the value of x has reached the maximum value (YES in step S1512), the process ends. As described above, the CPU 11 reads out the subject number and the contour pixel coordinates of the subject stored in the RAM 12 by the processing based on the color information of the captured image data, and sets the editing area of each subject based on the read data. can do. The setting of the editing area for each subject may be performed by the method described below.
[0071]
FIG. 17 is a flowchart showing a second subroutine of step S118, and FIG. 18 is an explanatory diagram showing an example of a captured image. The CPU 11 detects the coordinates of the vertex pixels by the chroma key processing (step S171). Then, the detected number of vertices and the coordinates 29a, 29b,... Of the vertex pixels are stored in the RAM 12 (step S172). Thereby, the number of subjects and the vertex coordinates are recognized. In the example of FIG. 18, the number of subjects is 2, and the coordinates of the vertex pixels are 29a (x 1 , Y 1 ), 29b (x 2 , Y 2 ) Is stored.
[0072]
The CPU 11 stores x in the array x. 1 +1 is substituted (step S173), scanning in the y-axis direction is performed, and the coordinates of the contour pixels are extracted (step S174). The CPU 11 stores the coordinate values of the extracted contour pixels in the RAM 12 (Step S175). Subsequently, the CPU 11 determines that the array x is x 2 It is determined whether or not this is the case (step S176). x is x 2 If not (NO in step S176), the process proceeds to step S173 and the above processing is repeated. x is x 2 If this is the case (YES in step S176), the pixel stored in the RAM 12 in step S175 is read out and the coordinates (x, y) of the contour pixel having the maximum coordinate y are read out. max ) Is extracted (step S177).
[0073]
The CPU 11 determines the coordinates (x, y) of this contour pixel. max ) Is recognized as the boundary between the objects, and the coordinates (x, y max ) To (x, y end ) Are set as boundary pixels (step S178). Note that y end Is the end pixel of the y-axis. For example, the coordinate area (x end , Y end ) Is (1024, 512), the result is 512. This area can be freely changed by setting the resolution of the CCD camera 181. Finally, the CPU 11 stores the coordinates of the outline pixel and the boundary pixel for each subject (step S179). As described above, the editing area for each subject may be set based on the feature points of the human body such as the top of the head. Note that the feature points of the human body are not limited to the vertices of the head, and the processing may be performed based on the eyes, nose, skin color of the face, and the like. An area setting process for each subject using the eyes of the subject, which is a feature point, will be described below.
[0074]
FIG. 19 is a flowchart showing a third subroutine of step S118, and FIG. 20 is an explanatory diagram showing an example of a captured image. First, the CPU 11 removes the background portion from the captured image by chroma key processing or the like and extracts only the subject portion. Then, the template image of the eye shown in FIG. 20 stored in the storage unit 15 is read out (step S181). Note that template images of a plurality of sizes are prepared. The CPU 11 performs a template matching process between the subject extracted image and the template image with the starting pixel (0, 0) as a starting point (step S182).
[0075]
The CPU 11 compares the correlation value calculated by the matching process with a threshold value stored in the storage unit 15 in advance, and determines whether the correlation value is equal to or less than the threshold value. If it is determined that the value is equal to or less than the threshold value (YES in step S183), it is determined that the template image matches the eye position, and the pixel and the subject number (initial value 1) are stored (step S184). The CPU 11 sets a flag for the pixel and the peripheral pixels of the pixel (step S185). For example, a flag is set for a pixel in an area of x ± 100 and y ± 100 with respect to the matched pixel coordinates (x, y). This is because there are many pixels whose correlation value is equal to or less than the threshold value in the vicinity of the matched pixel due to the processing in step S183, and the eyes of the subjects cannot exist too close to each other. This is because the exact number of subjects is grasped without performing the matching process again in the processing.
[0076]
On the other hand, if the calculated correlation value is equal to or larger than the threshold value, it is determined that the area is other than the eye and a flag is set for the pixel (step S186). The CPU 11 determines whether or not flags have been set for all pixels (step S187). If it is determined that the flags have not been set for all the pixels (NO in step S187), the process moves to the pixels for which the flags have not been set (step S188), and the process returns to step S182 to repeat the above processing. If the CPU 11 determines that the flags have been set for all the pixels (YES in step S187), the CPU 11 reads out the pixels stored in the RAM 12 in association with the subject numbers (step S189).
[0077]
In the example of FIG. 20, the coordinate value (x 1 , Y 1 ) For subject 2 (x 2 , Y 2 ) Are read out. When the coordinate values of the eyes are determined, the CPU 11 sets a predetermined area around the pixel of the eye as the area of the subject (step S1810). The predetermined area is stored in the storage unit 15 in advance. For example, an area of ± 200 pixels in the y-axis direction, 100 pixels in the − direction (head direction) of the x-axis direction, and a + area (body part direction) ) Is set to 200 pixels or the like. Note that a plurality of template images may be prepared as shown in FIG. 20, and pattern matching may be performed using a plurality of template images. In this case, the value of the above-described predetermined area may be changed according to the template image. As described above, by detecting the eyes as the feature points, it is possible to set the number of subjects and the editing area for each subject.
[0078]
Embodiment 4
FIG. 21 is a block diagram showing a configuration of the image editing device 1 according to the fourth embodiment. Further, a computer program for executing the image editing apparatus 1 according to the third embodiment can be provided by being preinstalled in the image editing apparatus 1 as in the fourth embodiment, and can be provided on a CD-ROM, an MO, or the like. It is also possible to provide the portable recording medium. Further, the computer program can be provided via the Internet or a public line. The contents will be described below.
[0079]
A recording medium 1a (CD-ROM, MO, or MO) storing a program for causing the image editing apparatus 1 shown in FIG. 21 to set an editing area, accept designation of an editing area, accept editing information, and edit image data. DVD-ROM or the like) is installed in the storage unit 15 of the image editing apparatus 1. Such a program is loaded into the RAM 12 of the image editing apparatus 1 and executed. Thereby, it functions as the image editing apparatus 1 of the present invention as described above.
[0080]
The fourth embodiment is configured as described above, and the other configurations and operations are the same as those of the first and third embodiments. Corresponding portions are allotted with the same reference numerals, and detailed description thereof is omitted. I do.
[0081]
Embodiment 5
In the third embodiment, the case where the editing process is performed on the entire selected one subject image has been described. However, the selected subject image is further divided and edited for each human body region such as a hair and a face. May be. The details will be described below. FIG. 22 and FIG. 23 are flowcharts showing the procedure of the editing process according to the fifth embodiment. First, an editing area for each subject is set by the same processing as in step S118 described above (step S221). The CPU 11 receives designation of the editing area of one subject from the operation display 13 (step S222). When the designation of the editing area is received and one subject to be edited is determined, the CPU 11 performs image processing on pixels outside the editing area (step S223). The image data after the image processing is stored in the second area of the frame buffer.
[0082]
FIG. 24 is an explanatory diagram showing an image after performing image processing. As shown in the drawing, for example, a coloring process or the like is performed on a pixel portion other than the editing area. The CPU 11 performs a process of dividing the editing area into each human body area such as a face, hair, and torso (step S224).
[0083]
FIG. 25 and FIG. 26 are flowcharts showing a subroutine of step S224. A known method may be applied to the image processing for dividing the extracted subject image for each human body region such as a face, a hair, and a torso, and may be performed by, for example, a method described below. First, as described in step S171, the CPU 11 detects the coordinate value of the vertex pixel of the subject, which is the editing area (step S251). When the coordinate value of the vertex pixel is detected, the CPU 11 acquires the brightness of the pixel in the predetermined area from the pixel (step S252). This predetermined area is stored in the storage unit 15 in advance, and coordinate area data from which it is determined that hair is likely to exist from the apex pixel is stored. The CPU 11 determines whether or not the absolute value of the value obtained by subtracting the first reference value from the acquired brightness value of the pixel is equal to or smaller than the first threshold value (step S253). The first reference value and the first threshold value are used for determining whether or not the brightness of the acquired pixel is close to a standard hair color component. As the first reference value and the first threshold value, predetermined brightness values are stored in the storage unit 15 in advance for each of the RGB color components.
[0084]
When the CPU 11 determines that the absolute value is equal to or less than the first threshold (YES in step S253), it determines that the pixel is a hair part, and sets a first flag for the pixel (step S254). On the other hand, if it is determined that the absolute value is not smaller than the threshold (NO in step S253), the CPU 11 skips the processing in step S254. The CPU 11 determines whether or not the processing in step S253 has been performed for all of the pixels acquired in step S252 (step S255). If it is determined that the determination has not been made for all the pixels (NO in step S255), the process proceeds to step S253 and the above processing is repeated.
[0085]
On the other hand, if it is determined that the processing of step S253 has been completed for all pixels (YES in step S255), CPU 11 recognizes the pixel of the first flag set in step S254 as a hair part (step S256). After the recognition of the hair part is completed, the CPU 11 performs a face part recognition process. Recognition of a face portion is performed using feature points of a human body, for example, eyes described in the third embodiment. First, a template image is read from the storage unit 15 in the same manner as in the method described in the third embodiment (step S257). The CPU 11 performs a template matching process on the subject area (step S258). The CPU 11 extracts a pixel having the largest correlation value as a result of the matching process (step S259).
[0086]
The CPU 11 acquires the brightness of the pixels in the predetermined area from the extracted pixels (step S261). The predetermined area is stored in the storage unit 15 in advance, and the extracted pixels, that is, coordinate area data that is approximately determined to have an extension of the face from the eyes are stored. The CPU 11 determines whether the first flag is set for the obtained pixel (step S262). When the CPU 11 determines that the first flag is set (YES in step S262), since the pixel is a hair portion, the processing in steps S263 and S264 is skipped, and the process proceeds to step S265.
[0087]
If the CPU 11 determines that the first flag is not set for the pixel (NO in step S262), the CPU 11 determines that the pixel is a face part or a body part, and determines the second criterion from the brightness value of the acquired pixel. It is determined whether or not the absolute value of the reduced value is equal to or less than the second threshold (step S263). The second reference value and the second threshold are used for determining whether or not the brightness of the acquired pixel is close to a standard skin color component. As the second reference value and the second threshold value, predetermined brightness values are stored in the storage unit 15 in advance for each of the RGB color components.
[0088]
When the CPU 11 determines that the absolute value is equal to or smaller than the second threshold (YES in step S263), it determines that the pixel is a face part, and sets a second flag for the pixel (step S264). On the other hand, when it is determined that the absolute value is not smaller than the threshold (NO in step S263), the CPU 11 skips the processing in step S264. The CPU 11 determines whether the processing of step S262 or step S263 has been performed for all of the pixels acquired in step S261 (step S265). If it is determined that the determination has not been performed for all the pixels (NO in step S265), the process proceeds to step S262 and the above processing is repeated.
[0089]
On the other hand, if it is determined that the processing of step S262 or step S263 has been completed for all pixels (YES in step S265), CPU 11 recognizes the pixel of the second flag set in step S264 as a face part (step S266). . The CPU 11 sets a third flag for pixels in an area where the first flag and the second flag are not set in the editing area of the selected subject (step S267). That is, the CPU 11 recognizes the pixel of the third flag, which is a pixel other than the hair and the face, as the body part (step S268), ends the process, and returns to the main routine.
[0090]
When the division of the human body region is completed in step S224 (FIG. 22), the CPU 11 displays the icon stored in advance from the storage unit 15 in the region selection box 210 (step S225). The player can directly specify an area to be edited (face, hair, etc.) using the tablet pen 132, and can also specify an editing area by touching an icon. This icon is stored in the storage unit 15 in advance, and in the case of the present embodiment, “all” to edit the entire subject area, “kami” to edit only the hair part with the first flag set, and the second flag Are displayed, and a "body" icon is displayed for editing only the body portion for which the third flag is set. The CPU 11 accepts the editing area by the operation of the tablet pen 132 by the player (step S226). In this case, the CPU 11 reads a message prompting the user to specify an editing area from the storage unit 15 and displays the message as shown in FIG. This message may display, for example, "where to edit".
[0091]
The player specifies one area to be edited by touching the body part desired to be edited with the tablet pen 132 or by clicking one icon displayed in the area selection box 210. In the example of FIG. 24, the face part specified by the pointer 27 is selected. To use the icon, touch the icon of “Kao”. By providing the icons in this manner, the player can easily select an editing area.
[0092]
When an editing area related to one body such as a face, hair, and a body is received, image processing is performed on pixels other than the editing area (step S227). If the editing area is, for example, a face portion that is the second flag, image processing similar to that performed in step S223 is performed on the pixels for which the first flag and the third flag are set. In this case, the CPU 11 stores the image-processed data in the second area of the frame buffer. Thus, the player can easily grasp the editing area.
[0093]
The CPU 11 receives an input of an edit item from the tablet pen 132 (step S228). More specifically, when the editing item buttons 21 arranged in parallel in the vertical direction at the left end of the monitor 133 are designated by the tablet pen 132, this is accepted. Further, the CPU 11 receives a parameter that is editing information (step S229). When the edit item button 21 is operated, the CPU 11 displays a parameter button 22. When the parameter button is operated by the tablet pen 132, image processing information for each of the RGB elements corresponding to the parameter is read from the image processing conversion table 151. The image data is edited for each pixel in the editing area according to the read image processing information (step S2210), and the edited image is stored in the second area of the buffer memory and displayed on the monitor 133. The details of the image processing have been described in the first embodiment, and a description thereof will be omitted.
[0094]
Based on the time information output from the clock unit 192, the CPU 11 determines whether the editing time has expired or the end button 23 has been operated (step S231). If no time-out has occurred and the end button 23 has not been operated (NO in step S231), the process proceeds to step S228 and the above-described processing is repeated. On the other hand, if the timeout or end button 23 has been operated (YES in step S231), image processing for restoring the image processing performed in steps S223 and S227 to the pixels other than the editing area is performed (step S232). Specifically, a process of restoring the coloring process performed on the pixels other than the editing region is performed, and stored in the second region of the buffer memory.
[0095]
Thereafter, the CPU 11 outputs the edited image data stored in the second area of the buffer memory to the printing unit 16 (Step S233). The printing unit 16 prints on the sticker according to the instruction of the CPU 11, and the printed sticker is discharged from the sticker outlet 161. With the above configuration, when editing for each subject, the region can be further divided into body regions such as a face and hair and freely edited.
[0096]
【The invention's effect】
As described in detail above, according to the present invention, the image editing apparatus accepts, from the input unit, the input of the edit pixel, which is the location that the player wants to edit. Then, based on the received color information of the edit pixel, an edit region including the edit pixel is set by the arithmetic processing unit. Then, since the editing information such as the change of the brightness is received from the input unit with respect to the set editing area, and the image data of the editing area is edited based on the received editing information, the player desires the adjustment. By simply designating a portion (for example, a part of the face, hair) with a pen or the like, an area (the whole face of one player, the whole hair) to which the adjustment is reflected is set, so that the brightness of the face, etc. of one player Is changed, the effect of this adjustment can be prevented for other player's areas. In addition, since the player is required only to perform a simple operation of designating a changed portion with the input pen, the adjustment can be easily performed.
[0097]
In the present invention, an editing area is set for each subject based on feature points of image data of the subject such as a vertex of a head and eyes, or color information such as a hair color and a skin color. Then, since the specification of one editing area is received from the set editing area, the editing information for the received editing area is received from the input unit, and the image data of the editing area is edited based on the received editing information. One player can perform drawing, color adjustment, etc. only on his own image, while another player is not affected by the editing of one player and provides a more playable image editing device. It is possible to do.
[0098]
Further, in the present invention, the set editing area of the subject is further divided into each human body area including the face and the hair, so that one player turns his or her own hair golden, The present invention can provide excellent effects, such as making it possible to perform more detailed editing such as whitening only.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing an external appearance of an image editing apparatus according to the present invention.
FIG. 2 is a block diagram illustrating a hardware configuration of the image editing apparatus.
FIG. 3 is a flowchart illustrating a procedure of image processing according to the present invention.
FIG. 4 is a flowchart illustrating a procedure of image processing according to the present invention.
FIG. 5 is a flowchart illustrating a procedure of image processing according to the present invention.
FIG. 6 is an explanatory diagram showing an image of an editing screen and image data displayed on a monitor.
FIG. 7 is an explanatory diagram showing examples of editing items and parameters.
FIG. 8 is an explanatory diagram showing peripheral pixels of a pointer.
FIG. 9 is an explanatory diagram showing a result of the image processing in step S47.
FIG. 10 is a block diagram showing a configuration of an image editing device according to a second embodiment.
FIG. 11 is a flowchart illustrating a procedure of an image editing process according to the third embodiment;
FIG. 12 is a flowchart illustrating a procedure of an image editing process according to the third embodiment;
FIG. 13 is a flowchart illustrating a procedure of an image editing process according to the third embodiment;
FIG. 14 is an explanatory diagram showing an image when performing image editing processing for each subject.
FIG. 15 is a flowchart showing a first subroutine of step S118.
FIG. 16 is an explanatory diagram illustrating an example of a captured image.
FIG. 17 is a flowchart showing a second subroutine of step S118.
FIG. 18 is an explanatory diagram illustrating an example of a captured image.
FIG. 19 is a flowchart showing a third subroutine of step S118.
FIG. 20 is an explanatory diagram illustrating an example of a captured image.
FIG. 21 is a block diagram illustrating a configuration of an image editing device according to a fourth embodiment.
FIG. 22 is a flowchart showing a procedure of an editing process according to the fifth embodiment.
FIG. 23 is a flowchart showing a procedure of an editing process according to the fifth embodiment.
FIG. 24 is an explanatory diagram showing an image after performing image processing.
FIG. 25 is a flowchart showing a subroutine of step S224.
FIG. 26 is a flowchart showing a subroutine of step S224.
[Explanation of symbols]
1 Image editing device
191 Lighting unit
191a strobe
191b light
192 Clock section
16 Printing section
184 rail
18 Imaging equipment
181 CCD camera
182 Captured image display
19 Speaker
135 operation button
141 coin slot
14 coin processing unit
15 Memory
151 Image processing conversion table
183 Imaging device lifting unit
132 tablet pen
13 Operation display
131 Touch Panel
133 monitor
161 Seal outlet
1a Recording medium

Claims (13)

撮像された画像データに対して入力手段から入力された編集情報に基づき、演算処理手段により前記画像データを編集する画像編集方法において、
前記入力手段から編集画素を受け付けるステップと、
受け付けた編集画素の色情報に基づいて、前記演算処理手段により前記編集画素を含む編集領域を設定する領域設定ステップと、
設定された編集領域に対する編集情報を前記入力手段から受け付けるステップと、
受け付けた編集情報に基づき、前記演算処理手段により前記編集領域の画像データを編集するステップと
を備えることを特徴とする画像編集方法。
An image editing method for editing the image data by arithmetic processing means based on editing information input from the input means for the captured image data,
Receiving an edit pixel from the input unit;
An area setting step of setting an edit area including the edit pixel by the arithmetic processing unit based on the received color information of the edit pixel;
Receiving editing information for the set editing area from the input unit;
Editing the image data of the editing area by the arithmetic processing unit based on the received editing information.
撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、演算処理手段により前記画像データを編集する画像編集方法において、
被写体の画像データの特徴点または色情報に基づき、前記演算処理手段により被写体毎の編集領域を設定する領域設定ステップと、
設定された被写体毎の編集領域から一の被写体に係る編集領域の指定を、前記入力手段から受け付ける指定受付ステップと、
受け付けた編集領域に対する編集情報を入力手段から受け付けるステップと、受け付けた編集情報に基づき、前記演算処理手段により前記編集領域の画像データを編集するステップと
を備えることを特徴とする画像編集方法。
In an image editing method for receiving editing information for captured image data from an input unit and editing the image data by an arithmetic processing unit based on the received editing information,
An area setting step of setting an editing area for each subject by the arithmetic processing unit based on feature points or color information of image data of the subject;
A designation receiving step of receiving from the input means a designation of an editing area for one subject from the set editing area for each subject,
An image editing method comprising: a step of receiving editing information for a received editing area from an input unit; and a step of editing image data of the editing area by the arithmetic processing unit based on the received editing information.
撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、演算処理手段により前記画像データを編集する画像編集装置において、
前記入力手段から編集画素を受け付ける手段と、
受け付けた編集画素の色情報に基づいて、前記演算処理手段により前記編集画素を含む編集領域を設定する領域設定手段と、
設定された編集領域に対する編集情報を入力手段から受け付ける手段と、
受け付けた編集情報に基づき、前記演算処理手段により前記編集領域の画像データを編集する手段と
を備えることを特徴とする画像編集装置。
An image editing apparatus that receives editing information for imaged image data from an input unit, and edits the image data by an arithmetic processing unit based on the received editing information.
Means for receiving an edit pixel from the input means;
Area setting means for setting an edit area including the edit pixel by the arithmetic processing means based on the received color information of the edit pixel;
Means for receiving editing information for the set editing area from the input means;
Means for editing the image data of the editing area by the arithmetic processing means based on the received editing information.
前記領域設定手段は、
受け付けた編集画素を含む編集領域の色情報と、該編集領域に近接する対象画素の色情報とを比較し、比較した結果その差が所定値以内である場合に、該対象画素を編集領域に設定するよう構成してあることを特徴とする請求項3に記載の画像編集装置。
The area setting means,
The color information of the edit area including the received edit pixel is compared with the color information of the target pixel adjacent to the edit area, and if the difference is within a predetermined value, the target pixel is set to the edit area. 4. The image editing apparatus according to claim 3, wherein the image editing apparatus is configured to set.
編集後の画像データを印刷媒体へ印刷する印刷手段を更に備えることを特徴とする請求項3または4に記載の画像編集装置。The image editing apparatus according to claim 3, further comprising a printing unit configured to print the edited image data on a print medium. 撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、演算処理手段により前記画像データを編集する画像編集装置において、
被写体の画像データの特徴点または色情報に基づき、前記演算処理手段により被写体毎の編集領域を設定する領域設定手段と、
設定された被写体毎の編集領域から一の被写体に係る編集領域の指定を、前記入力手段から受け付ける指定受付手段と、
受け付けた編集領域に対する編集情報を前記入力手段から受け付ける手段と、受け付けた編集情報に基づき、前記演算処理手段により前記編集領域の画像データを編集する手段と
を備えることを特徴とする画像編集装置。
An image editing apparatus that receives editing information for imaged image data from an input unit, and edits the image data by an arithmetic processing unit based on the received editing information.
Area setting means for setting an editing area for each subject by the arithmetic processing means based on feature points or color information of image data of the subject;
From the set editing area for each subject, a designation of an editing area relating to one subject, a designation receiving means for receiving from the input means,
An image editing apparatus, comprising: a unit that receives editing information for a received editing area from the input unit; and a unit that edits image data of the editing area by the arithmetic processing unit based on the received editing information.
前記設定された被写体毎の編集領域の画像に対して第1の画像処理を施す手段と、
前記指定受付手段により、一の編集領域の指定を受け付けた場合、該編集領域の画像に対して第2の画像処理を施す手段と
を更に備えることを特徴とする請求項6に記載の画像編集装置。
Means for performing first image processing on the image of the set editing area for each subject,
7. The image editing apparatus according to claim 6, further comprising: means for performing a second image process on an image in the editing area when the specification receiving means receives specification of one editing area. apparatus.
前記領域設定手段により設定された被写体の編集領域を、前記演算処理手段により顔及び髪を含む人体領域毎にさらに分割する手段
を更に備えることを特徴とする請求項6に記載の画像編集装置。
7. The image editing apparatus according to claim 6, further comprising a unit configured to further divide the editing region of the subject set by the region setting unit for each human body region including a face and hair by the arithmetic processing unit.
編集後の画像データを印刷媒体へ印刷する印刷手段を更に備えることを特徴とする請求項6乃至8のいずれかに記載の画像編集装置。9. The image editing apparatus according to claim 6, further comprising a printing unit that prints the edited image data on a print medium. 撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、コンピュータに前記画像データを編集させるためのコンピュータプログラムにおいて、
コンピュータに、前記入力手段から編集画素を受け付けさせるステップと、
コンピュータに、受け付けさせた編集画素の色情報に基づいて、該編集画素を含む編集領域を設定させる領域設定ステップと、
コンピュータに、設定された編集領域に対する編集情報を前記入力手段から受け付けさせるステップと、
コンピュータに、受け付けさせた編集情報に基づき前記編集領域の画像データを編集させるステップと
を実行させることを特徴とするコンピュータプログラム。
A computer program for allowing a computer to edit the image data based on the received editing information, based on the received editing information,
Causing the computer to receive an edit pixel from the input unit;
An area setting step of causing the computer to set an edit area including the edit pixel based on the color information of the received edit pixel;
Causing the computer to receive editing information for the set editing area from the input unit;
Causing the computer to edit the image data in the editing area based on the received editing information.
撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、コンピュータに前記画像データを編集させるためのコンピュータプログラムにおいて、
コンピュータに、被写体の画像データの特徴点または色情報に基づき、被写体毎の編集領域を設定させる領域設定ステップと、
コンピュータに、設定された被写体毎の編集領域から一の被写体に係る編集領域の指定を受け付けさせる指定受付ステップと、
コンピュータに、受け付けさせた編集領域に対する編集情報を入力手段から受け付けさせるステップと、
コンピュータに、受け付けさせた編集情報に基づき前記編集領域の画像データを編集させるステップと
を実行させることを特徴とするコンピュータプログラム。
A computer program for allowing a computer to edit the image data based on the received editing information, based on the received editing information,
An area setting step of causing the computer to set an editing area for each subject based on feature points or color information of the image data of the subject;
A designation accepting step of causing the computer to accept the designation of an editing area for one subject from the set editing area for each subject;
Causing the computer to accept, from the input means, editing information for the accepted editing area;
Causing the computer to edit the image data in the editing area based on the received editing information.
撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、コンピュータに前記画像データを編集させるためのコンピュータプログラムが記録された記録媒体において、
コンピュータに、前記入力手段から編集画素を受け付けさせるステップと、
コンピュータに、受け付けさせた編集画素の色情報に基づいて、該編集画素を含む編集領域を設定させる領域設定ステップと、
コンピュータに、設定された編集領域に対する編集情報を入力手段から受け付けさせるステップと、
コンピュータに、受け付けさせた編集情報に基づき前記編集領域の画像データを編集させるステップと
を実行させるコンピュータプログラムが記録されていることを特徴とするコンピュータでの読み取りが可能な記録媒体。
On a recording medium in which a computer program for causing a computer to edit the image data is recorded, based on the received editing information, based on the received editing information,
Causing the computer to receive an edit pixel from the input unit;
An area setting step of causing the computer to set an edit area including the edit pixel based on the color information of the received edit pixel;
Causing the computer to receive editing information for the set editing area from the input unit;
Causing the computer to execute a step of editing the image data in the editing area based on the received editing information.
撮像された画像データに対する編集情報を入力手段から受け付け、受け付けた編集情報に基づき、コンピュータに前記画像データを編集させるためのコンピュータプログラムが記録された記録媒体において、
コンピュータに、被写体の画像データの特徴点または色情報に基づき、被写体毎の編集領域を設定させる領域設定ステップと、
コンピュータに、設定された被写体毎の編集領域から一の被写体に係る編集領域の指定を受け付けさせる指定受付ステップと、
コンピュータに、受け付けさせた編集領域に対する編集情報を入力手段から受け付けさせるステップと、
コンピュータに、受け付けさせた編集情報に基づき前記編集領域の画像データを編集させるステップと
を実行させるコンピュータプログラムが記録されていることを特徴とするコンピュータでの読み取りが可能な記録媒体。
On a recording medium in which a computer program for causing a computer to edit the image data is recorded, based on the received editing information, based on the received editing information,
An area setting step of causing the computer to set an editing area for each subject based on feature points or color information of the image data of the subject;
A designation accepting step of causing the computer to accept the designation of an editing area for one subject from the set editing area for each subject;
Causing the computer to accept, from the input means, editing information for the accepted editing area;
Causing the computer to execute a step of editing the image data in the editing area based on the received editing information.
JP2002244389A 2002-08-23 2002-08-23 Image editing method, image editing apparatus, and computer program Expired - Lifetime JP4142918B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002244389A JP4142918B2 (en) 2002-08-23 2002-08-23 Image editing method, image editing apparatus, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002244389A JP4142918B2 (en) 2002-08-23 2002-08-23 Image editing method, image editing apparatus, and computer program

Publications (2)

Publication Number Publication Date
JP2004086384A true JP2004086384A (en) 2004-03-18
JP4142918B2 JP4142918B2 (en) 2008-09-03

Family

ID=32052856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002244389A Expired - Lifetime JP4142918B2 (en) 2002-08-23 2002-08-23 Image editing method, image editing apparatus, and computer program

Country Status (1)

Country Link
JP (1) JP4142918B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266061A (en) * 2008-04-28 2009-11-12 Panasonic Corp Image processor, image processing method, and image transmission system
JP2013017127A (en) * 2011-07-06 2013-01-24 Tatsumi Denshi Kogyo Kk Automatic photograph creation device, automatic photograph creation method and program
JP2013109787A (en) * 2008-08-08 2013-06-06 Make Softwear:Kk Image processing apparatus, image processing method, and computer program
JP2014081649A (en) * 2013-12-13 2014-05-08 Furyu Kk Photograph seal machine, processing method of the same and program
JP2016177015A (en) * 2015-03-18 2016-10-06 フリュー株式会社 Photo seal creation device and image processing method
CN109640186A (en) * 2018-10-25 2019-04-16 平安科技(深圳)有限公司 Picture playing method, equipment, storage medium and device
JP2019126040A (en) * 2019-02-18 2019-07-25 辰巳電子工業株式会社 Photographing game machine, control method, and program
JP2019176481A (en) * 2019-04-25 2019-10-10 辰巳電子工業株式会社 Image processing apparatus, image processing method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266061A (en) * 2008-04-28 2009-11-12 Panasonic Corp Image processor, image processing method, and image transmission system
JP2013109787A (en) * 2008-08-08 2013-06-06 Make Softwear:Kk Image processing apparatus, image processing method, and computer program
JP2013017127A (en) * 2011-07-06 2013-01-24 Tatsumi Denshi Kogyo Kk Automatic photograph creation device, automatic photograph creation method and program
JP2014081649A (en) * 2013-12-13 2014-05-08 Furyu Kk Photograph seal machine, processing method of the same and program
JP2016177015A (en) * 2015-03-18 2016-10-06 フリュー株式会社 Photo seal creation device and image processing method
CN109640186A (en) * 2018-10-25 2019-04-16 平安科技(深圳)有限公司 Picture playing method, equipment, storage medium and device
JP2019126040A (en) * 2019-02-18 2019-07-25 辰巳電子工業株式会社 Photographing game machine, control method, and program
JP2019176481A (en) * 2019-04-25 2019-10-10 辰巳電子工業株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP4142918B2 (en) 2008-09-03

Similar Documents

Publication Publication Date Title
JP3856211B2 (en) Image printing apparatus and method, and program
JP5442966B2 (en) GAME DEVICE, GAME CONTROL METHOD, GAME CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP3548852B2 (en) Photo sticker vending machine, image processing method of photo sticker vending machine, and program
US20020118209A1 (en) Computer program product for introducing painting effects into a digitized photographic image
JP5782873B2 (en) Game shooting device, game shooting method and program
JP4142918B2 (en) Image editing method, image editing apparatus, and computer program
JP5569502B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2013243466A (en) Imaging apparatus for game, imaging method for game, and program
JP6754229B2 (en) Image processing equipment and computer programs
JP4173323B2 (en) Image shooting and editing apparatus, image shooting and editing method, and image shooting and editing program
JP2017135608A (en) Imaging apparatus for amusement and image processing method
JP3050209B2 (en) Image processing apparatus, image processing method, and recording medium storing image processing program
JP5632104B2 (en) Game shooting device, processing method and program for game shooting device
JP4215247B2 (en) Automatic photo creation device
JP5131086B2 (en) Automatic photo creation device, image processing device, image processing method, and image processing program
JP2018029343A (en) Image processing apparatus, image processing method, and program
JP2011164141A (en) Automatic photograph producing device
JP5967275B2 (en) Photographic game machine, its control method and control computer
US20150249754A1 (en) Image providing device and image providing method
JP2003219328A (en) Image printing apparatus and method, printing medium, program, and printing medium unit
JP2019176481A (en) Image processing apparatus, image processing method, and program
JP2016197924A (en) Imaging apparatus for game, imaging method for game, and program
JP6969622B2 (en) Shooting game equipment and programs
JP5967283B2 (en) Photo shooting game machine, its control method and control program
JP6614374B2 (en) Photography game machine, control method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080610

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080613

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4142918

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140620

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term