JP3050209B2 - Image processing apparatus, image processing method, and recording medium storing image processing program - Google Patents

Image processing apparatus, image processing method, and recording medium storing image processing program

Info

Publication number
JP3050209B2
JP3050209B2 JP10261495A JP26149598A JP3050209B2 JP 3050209 B2 JP3050209 B2 JP 3050209B2 JP 10261495 A JP10261495 A JP 10261495A JP 26149598 A JP26149598 A JP 26149598A JP 3050209 B2 JP3050209 B2 JP 3050209B2
Authority
JP
Japan
Prior art keywords
image
image processing
detected
specific part
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP10261495A
Other languages
Japanese (ja)
Other versions
JP2000092481A (en
Inventor
勝行 稲毛
尚弘 田畑
匡 前田
俊幸 小鶴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP10261495A priority Critical patent/JP3050209B2/en
Publication of JP2000092481A publication Critical patent/JP2000092481A/en
Application granted granted Critical
Publication of JP3050209B2 publication Critical patent/JP3050209B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、被写体(特に人
物)を撮影した撮影画像に基づいて、所定の画像にオブ
ジェクトを描画して出力する画像処理装置、画像処理方
法および画像処理プログラムを記録した記録媒体に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention records an image processing apparatus, an image processing method, and an image processing program for drawing and outputting an object on a predetermined image based on a photographed image of a subject (particularly a person). It relates to a recording medium.

【0002】[0002]

【従来の技術】シール自販機(所謂、プリントクラブ
(登録商標)(プリクラ(登録商標)))と言うアミュ
ーズメント装置が従来よりある。シール自販機は、遊技
者であるユーザをカメラで撮影し、該ユーザの撮影画像
と、ユーザによって予め選択されている背景画像(フレ
ーム画像)とを合成し、この合成画像を印刷したシール
を発行する装置である。
2. Description of the Related Art There has been an amusement apparatus called a seal vending machine (so-called Print Club (registered trademark) (Purikura (registered trademark))). The sticker vending machine shoots a user who is a player with a camera, synthesizes a shot image of the user with a background image (frame image) selected in advance by the user, and issues a sticker on which the synthesized image is printed. Device.

【0003】最近のシール自販機は、単に撮影画像と背
景画像とを合成するだけでなく、さらに合成画像上にオ
ブジェクト(模様やラクガキ)を描画ができる機種も提
案されている。この機種では、シールに印刷された画像
がオブジェクトによってさらに特徴づけられるため、発
行されたシールによってユーザが感じる満足感を向上で
きる。
In recent years, there have been proposed seal vending machines which not only combine a photographed image and a background image but also can draw objects (patterns and scribbles) on the combined image. In this model, the image printed on the sticker is further characterized by the object, so that the user can feel more satisfied with the issued sticker.

【0004】[0004]

【発明が解決しようとする課題】ところで、描画するオ
ブジェクトの描画位置、形状、大きさ等は、合成された
画像(撮影画像+背景画像)のイメージにあわせる必要
がある(オブジェクトと合成画像とのイメージがあって
いないと、印刷された画像がオブジェクトによってぼけ
てしまう。)。このため、従来は、撮影画像と背景画像
とを合成した後、該合成画像に対してユーザ自信にオブ
ジェクトを描画させていた。
Incidentally, the drawing position, shape, size, etc. of the object to be drawn need to be matched with the image of the synthesized image (captured image + background image). If there is no image, the printed image will be blurred by the object.) For this reason, conventionally, after a photographed image and a background image are combined, an object is drawn by the user himself on the combined image.

【0005】しかしながら、シール自販機で遊技するユ
ーザの多くは、写真を取るというプロセスを楽しんでい
るのであって、オブジェクトを描画するプロセスを楽し
んでいるのではない。すなわち、ユーザ自信にオブジェ
クトを描画させる従来の装置は、遊技者に与える楽しみ
を効果的に増加させるものではなく、逆に手間をかけさ
せてしまうという問題があった。
[0005] However, many users who play games at the seal vending machine enjoy the process of taking pictures, not the process of drawing objects. That is, the conventional device that allows the user to draw an object does not effectively increase the enjoyment given to the player, but has a problem in that the user is troublesome.

【0006】また、このプロセスによって、1プレイに
かかる時間が長くなるため、装置の稼働効率が低下し、
結果的に売上を低下させるという問題があった。
[0006] Further, since this process increases the time required for one play, the operating efficiency of the device is reduced,
As a result, there was a problem that sales decreased.

【0007】この発明の目的は、被写体を撮影した撮影
画像から被写体の特定部位を検出し、該検出結果に基づ
いて所定の画像にオブジェクトを描画することで、特徴
づけた前記所定の画像を確実に出力することができる画
像処理装置、画像処理方法および画像処理プログラムを
記録した記録媒体を提供することにある。
An object of the present invention is to detect a specific part of a subject from a photographed image of the subject and draw an object on a predetermined image based on the detection result, thereby ensuring the characterized predetermined image. An image processing apparatus, an image processing method, and a recording medium on which an image processing program can be output.

【0008】[0008]

【課題を解決するための手段】請求項1に記載した画像
処理装置は、カメラ等の撮影装置と、前記撮影装置で被
写体を撮影した撮影画像における該被写体の特定部位を
検出する検出手段と、前記検出手段における検出結果に
基づいて、所定の画像上にオブジェクトを描画する画像
描画手段と、前記画像描画手段がオブジェクトを描画し
た画像を出力する出力手段と、前記撮影装置で撮影する
被写体のポーズを選択するポーズ選択手段と、 選択され
たポーズに基づいて前記特定部位を決定する特定部位決
定手段と、を備えている。
An image processing apparatus according to claim 1, comprising: a photographing device such as a camera; and a detecting device for detecting a specific portion of the subject in a photographed image of the subject photographed by the photographing device. Image drawing means for drawing an object on a predetermined image based on the detection result by the detection means, output means for outputting an image in which the object is drawn by the image drawing means, and shooting by the shooting device
Posing selecting means for selecting the pose of the object, it is selected
Specific part determination for determining the specific part based on the pose
Setting means .

【0009】この構成では、検出手段において撮影装置
で撮影した撮影画像における被写体の特定部位が検出さ
れる。画像描画手段は、この検出結果に基づいて所定の
画像にオブジェクトを描画する。これにより、撮影画像
に撮影画像から得たイメージのオブジェクトを描画でき
る。出力手段は、このオブジェクトが描画された画像を
出力する。すなわち、撮影画像から感じるイメージをオ
ブジェクトとして描画した画像を簡単に得ることができ
る。しかも、被写体のポーズによって検出する前記特定
部位が決定されるので、被写体のポーズにあったオブジ
ェクトを描画することができる。
In this configuration, the detection unit detects a specific portion of the subject in the image captured by the image capturing device. The image drawing means draws an object on a predetermined image based on the detection result. Thereby, the object of the image obtained from the captured image can be drawn on the captured image. The output means outputs an image in which the object is drawn. That is, it is possible to easily obtain an image in which an image felt from a captured image is drawn as an object. In addition, the identification based on the pose of the subject
Since the part is determined, the object that fits the pose of the subject
Project can be drawn.

【0010】請求項2に記載した画像処理装置は、前記
検出手段は、前記特定部位の検出を複数回行って、前回
の検出においても今回検出した前記特定部位に対応する
特定部位が検出されているかどうかを判定し、前回検出
されていなければ、今回検出した前記特定部位をノイズ
として処理する手段である。
The image processing apparatus according to claim 2, wherein said detecting means detects said specific part a plurality of times, and a specific part corresponding to said specific part detected this time even in previous detection. Is a means for determining whether or not is detected, and if not detected the last time, processing the specific portion detected this time as noise.

【0011】この構成では、前記特定部位の検出を複数
回行って、前回の検出において今回検出した前記特定部
位に対応する特定部位が検出されていなければ、今回検
出した前記特定部位をノイズとして処理するようにした
ので、特定部位の移動速度を考慮して、外乱光等の影響
による特定部位の誤検出を防止できる。具体的には、特
定部位(例えば、指)の検出が数ms程度の間隔で繰り
返し行ったときに、今回検出された特定部位の近辺に前
回特定部位が検出されていなければ、これは単なるノイ
ズである。したがって、このような特定部位をノイズと
して処理することで検出精度を向上できる。
[0011] In this configuration, the detection of the specific portion performed a plurality of times, if not the detected specific region corresponding to a specific site detected this time in the previous detection, processing detected this time the specific site as noise Therefore, erroneous detection of the specific portion due to the influence of disturbance light or the like can be prevented in consideration of the moving speed of the specific portion. Specifically, when a specific part (for example, a finger) is repeatedly detected at intervals of about several ms and the specific part is not detected in the vicinity of the specific part detected this time, this is simply noise. It is. Therefore, detection accuracy can be improved by processing such a specific part as noise.

【0012】請求項3に記載した画像処理装置では、前
記被写体を人物とした。
In the image processing apparatus according to the third aspect, the subject is a person.

【0013】この構成では、例えば、被写体となった人
物に応じたオブジェクトを描画することができる。
With this configuration, for example, it is possible to draw an object corresponding to the person who has become the subject.

【0014】請求項4に記載した画像処理装置では、前
記所定の画像を前記撮影画像と他の画像とを合成した合
成画像とした。
In the image processing apparatus according to the present invention, the predetermined image is a composite image obtained by compositing the photographed image with another image.

【0015】この構成では、例えば適当な背景画像と撮
影した被写体の画像とを合成し、この合成画像にオブジ
ェクトが描画される。
In this configuration, for example, an appropriate background image and an image of a photographed subject are synthesized, and an object is drawn on the synthesized image.

【0016】請求項5に記載した画像処理装置では、前
記検出手段は、撮影画像における特定部位の位置、上下
左右の向き、重心位置等の特徴量を検出し、この特徴量
に基づいて前記画像描画手段で描画するオブジェクトの
配置、形状、個数、大きさ、色等を決定する手段であ
る。
In the image processing apparatus according to the present invention, the detecting means detects a characteristic amount such as a position of a specific part, a vertical direction, a horizontal direction, a center of gravity position, and the like in the photographed image, and based on the characteristic amount, detects the image. This is a means for determining the arrangement, shape, number, size, color, etc. of the objects to be drawn by the drawing means.

【0017】このように構成することによって、撮影し
た被写体のイメージにあわせて、描画するオブジェクト
を変化させることができる。
With this configuration, the object to be drawn can be changed in accordance with the image of the photographed subject.

【0018】請求項6に記載した画像処理装置では、前
記検出手段は、前記撮影画像における肌色の領域を抽出
し、該肌色領域から前記特定部位を検出する手段であ
る。
In the image processing apparatus according to a sixth aspect, the detecting means is means for extracting a flesh color area in the photographed image and detecting the specific part from the flesh color area.

【0019】この構成では、肌色の領域を抽出し、抽出
した肌色領域から特定部位を検出するため、特定部位が
肌色であるときの検出精度を向上できる(肌色領域以外
の部分でのノイズによる誤検出が生じない。)。例え
ば、被写体が人物である場合、該人物の肌が露出してい
る部位(指や顔等)を特定部位としたときの検出精度を
向上できる。
With this configuration, since the skin color region is extracted and the specific portion is detected from the extracted skin color region, the detection accuracy when the specific portion is a skin color can be improved (errors due to noise in portions other than the skin color region). No detection occurs.). For example, when the subject is a person, it is possible to improve the detection accuracy when a part (a finger, a face, or the like) where the skin of the person is exposed is a specific part.

【0020】請求項7に記載した画像処理装置では、前
記検出手段は、前記撮影画像における前記被写体の領域
を抽出し、該被写体領域から前記特定部位を検出する手
段である。
In the image processing apparatus according to the present invention, the detecting means is means for extracting a region of the subject in the photographed image and detecting the specific part from the subject region.

【0021】この構成では、被写体の領域を抽出し、抽
出した被写体領域から特定部位を検出するため、特定部
位の検出精度を向上できる
In this configuration, the area of the subject is extracted and the specific part is detected from the extracted subject area, so that the detection accuracy of the specific part can be improved .

【0022】[0022]

【0023】請求項に記載した発明画像処理装置は、
前記撮影画像に対して前記検出手段が前記特定部位を検
出する画像領域を設定する検出領域設定手段を備えてい
る。
The invention image processing apparatus according to claim 8,
A detection region setting unit configured to set an image region in which the detection unit detects the specific region with respect to the captured image.

【0024】この構成では、撮影画像全体について特定
部位を検出しないので、特定部位の位置検出にかかる処
理時間を短縮できる。
In this configuration, since a specific portion is not detected in the entire captured image, the processing time required for detecting the position of the specific portion can be reduced.

【0025】請求項に記載した画像処理装置は、前記
画像出力手段から出力される画像パターンのオブジェク
トを選択する選択手段を備え、描画される画像パターン
を選択できるようにした。
According to a ninth aspect of the present invention, there is provided an image processing apparatus comprising a selection unit for selecting an object of an image pattern output from the image output unit, so that an image pattern to be drawn can be selected.

【0026】請求項1に記載した画像処理処理装置で
は、前記出力手段は、前記選択手段における選択時に複
数のオブジェクトを表示する表示装置を有する。
[0026] In the image processing apparatus according to claim 1 0, wherein the output means comprises a display device for displaying a plurality of objects during selection in the selection means.

【0027】したがって、画面を見ながら描画される画
像のパターンを選択することができる。
Therefore, it is possible to select an image pattern to be drawn while looking at the screen.

【0028】請求項1に記載した画像処理処理装置
は、前記出力手段においてオブジェクトを描画した画像
を表示する表示装置を有する。
The image processing apparatus according to claim 1 1, has a display device for displaying an image drawn object in said output means.

【0029】したがって、ユーザはオブジェクトが描画
された画像を見ることができる。
Therefore, the user can see the image on which the object is drawn.

【0030】請求項1記載した画像処理装置では、前
記出力手段は、印刷装置を有するので、オブジェクトが
描画された画像を印刷することができる。
[0030] In the image processing apparatus according to claim 1 2, wherein the output means, because it has a printing apparatus can print an image in which the object is drawn.

【0031】請求項1に記載した画像処理装置では、
オブジェクトが描画された画像を印刷したシールを発行
する。
[0031] In the image processing apparatus according to claim 1 3,
Issue a sticker that prints the image on which the object is drawn.

【0032】[0032]

【発明の実施の形態】図1は、この発明の概要を示す図
である。撮影装置1(カメラ等)において被写体が撮影
され、位置検出手段2に撮影画像が入力される。被写体
は、人物であってもよいし、また、犬や猫等のペットで
あってもよい。位置検出手段2には、撮影画像から検出
すべき被写体の特定部位が指示されている。特定部位
は、被写体の一部であり、例えば、指先、手のひら、顔
等である。画像描画手段3には、位置検出手段2から特
定部位の検出結果(形状、位置、向き、重心等)が入力
されるとともに、オブジェクト(例えば、星、リング、
ボール、撮影装置1によって撮影したユーザの顔画像
等)および該オブジェクトを描画する被描画画像(この
発明で言う、所定の画像)が入力される。なお、オブジ
ェクトは、撮影装置1の撮影画像の一部(例えば、上記
の撮影したユーザの顔画像等)であってもよいし、ま
た、撮影画像に関係がない適当な画像(例えば、星、リ
ング、ボール等)であってもよい。同様に被描画画像
も、撮影装置1の撮影画像であってもよいし、該撮影画
像と他の画像とを合成した合成画像で合ってもよいし、
撮影装置1で撮影された画像と関係のない画像(例え
ば、パーソナルコンピュータの表示画面等)であっても
よい。画像描画手段3は、検出手段2の検出結果に基づ
いて、被描画画像上にオブジェクトを描画する。画像出
力手段4は、オブジェクトが描画された画像を出力す
る。画像出力手段4には、表示装置や印刷装置を設けれ
ばよい。
FIG. 1 is a diagram showing an outline of the present invention. A subject is photographed by the photographing device 1 (a camera or the like), and a photographed image is input to the position detection unit 2. The subject may be a person or a pet such as a dog or a cat. The position detection unit 2 is instructed on a specific part of the subject to be detected from the captured image. The specific part is a part of the subject, for example, a fingertip, a palm, a face, and the like. The image drawing means 3 receives the detection result (shape, position, direction, center of gravity, etc.) of the specific part from the position detecting means 2 and also outputs the objects (for example, stars, rings,
A ball, a user's face image photographed by the photographing device 1, and a drawing image (a predetermined image in the present invention) for drawing the object are input. Note that the object may be a part of a captured image of the imaging device 1 (for example, the above-described captured facial image of the user), or may be an appropriate image (for example, a star, Ring, ball, etc.). Similarly, the image to be drawn may be a photographed image of the photographing device 1 or may be a combined image obtained by combining the photographed image with another image.
The image may not be related to the image captured by the image capturing device 1 (for example, a display screen of a personal computer). The image drawing means 3 draws an object on an image to be drawn based on the detection result of the detection means 2. The image output means 4 outputs an image in which the object is drawn. The image output means 4 may be provided with a display device or a printing device.

【0033】ここで、所定の画像をパーソナルコンピュ
ータの画面の画像とし、オブジェクトを撮影装置1で撮
影したユーザの顔画像とすると、パーソナルコンピュー
タの表示装置(画像出力手段4)の画面に、ユーザの顔
画像を表示することができる。さらに、特定部位をユー
ザの指先とし、位置検出手段2が検出結果として指先の
位置の変化量(指先の移動量)を出力するのであれば、
画像描画手段3が検出結果である指先の変化量をマウス
の操作量に変換するとともに(この変換は、検出手段2
において実行し、その結果を検出結果として出力しても
い。)、この結果に基づいてオブジェクト(ユーザの
顔)を描画すると、ユーザの顔画像をカーソルとして表
示することができる。
Here, assuming that the predetermined image is an image of the screen of the personal computer and the object is a face image of the user photographed by the photographing device 1, the screen of the display device (image output means 4) of the personal computer displays the image of the user. A face image can be displayed. Furthermore, if the specific part is the fingertip of the user, and the position detecting means 2 outputs the amount of change in the position of the fingertip (the amount of movement of the fingertip) as the detection result,
The image drawing unit 3 converts the change amount of the fingertip as the detection result into the operation amount of the mouse (this conversion is performed by the detection unit 2
And outputs the result as a detection result. If an object (user's face) is drawn based on the result, the user's face image can be displayed as a cursor.

【0034】また、シール自販機に適用すれば、ユーザ
のポーズによって描画するオブジェクトを変化させるこ
ともできる。すなわち、ユーザのポーズにあったイメー
ジのオブジェクトを簡単に描画することができ、シール
に印刷される画像がぼけた画像となることがない。ま
た、従来のように、オブジェクトをユーザに描画させな
いので、装置本体の稼働効率を低下させるという問題も
生じない(売上の低下を防止できる。)。
Further, if the present invention is applied to a seal vending machine, the object to be drawn can be changed according to the pose of the user. That is, an object having an image that matches the pose of the user can be easily drawn, and the image printed on the sticker does not become a blurred image. Further, since the object is not drawn by the user as in the related art, there is no problem of lowering the operation efficiency of the apparatus main body (a decrease in sales can be prevented).

【0035】次に、図2以下を参照しながら本願発明の
実施形態について説明する。この実施形態は、本願発明
をシール自販機(所謂、プリントクラブ(プリクラ))
に適用したものである。図2は、この実施形態にかかる
シール自販機の構成を示すブロック図である。シール自
販機11は、被写体であるユーザを撮影する撮影装置1
2、入力操作を行う操作部13、操作ガイダンスや出力
画像等を表示する表示装置14、出力画像を印刷したシ
ールを発行するシール発行機15、および、本体装置の
動作を制御する制御装置16を備えている。制御装置1
6には、図1における位置検出手段2および画像描画手
段3の機能が設けられている。また、図1における画像
出力手段4は、表示装置14およびシール発行機15に
相当する。撮影装置12には、図示していないカメラや
照明装置等が設けられている。操作部13には、入力操
作を行うボタン、ジョイスティック等が設けられてい
る。制御装置16には、以下に示す処理を実行するため
の画像処理プログラムを記録媒体(CD−ROM、ハー
ドディスク等)によって供給している。
Next, an embodiment of the present invention will be described with reference to FIG. In this embodiment, the present invention is applied to a seal vending machine (so-called print club (Purikura)).
It is applied to FIG. 2 is a block diagram showing the configuration of the seal vending machine according to this embodiment. The seal vending machine 11 is a photographing apparatus 1 for photographing a user as a subject.
2, an operation unit 13 for performing an input operation, a display device 14 for displaying operation guidance and an output image, a seal issuing machine 15 for issuing a seal on which the output image is printed, and a control device 16 for controlling the operation of the main unit. Have. Control device 1
6 is provided with the functions of the position detecting means 2 and the image drawing means 3 in FIG. The image output unit 4 in FIG. 1 corresponds to the display device 14 and the sticker issuing machine 15. The imaging device 12 is provided with a camera, a lighting device, and the like (not shown). The operation unit 13 is provided with a button for performing an input operation, a joystick, and the like. An image processing program for executing the following processing is supplied to the control device 16 by a recording medium (CD-ROM, hard disk, or the like).

【0036】以下、この実施形態にかかるシール自販機
11の動作について説明する。図3は、この実施形態に
かかるシール自販機の動作を示すフローチャートであ
る。シール自販機11は、電源の投入によって図3に示
す処理を開始する。この処理は繰り返し実行される。シ
ール自販機11は、電源が投入されると、プレイ(ゲー
ム)開始待ち処理を実行する(n1)。この処理は、ゲ
ーム代金となるコインの投入を待つ処理である。
The operation of the seal vending machine 11 according to this embodiment will be described below. FIG. 3 is a flowchart showing the operation of the seal vending machine according to this embodiment. The seal vending machine 11 starts the processing shown in FIG. 3 when the power is turned on. This process is repeatedly executed. When the power is turned on, the seal vending machine 11 executes a play (game) start waiting process (n1). This process is a process of waiting for insertion of a coin serving as a game price.

【0037】図4は、n1にかかるプレイ開始待ち処理
を示すフローチャートである。シール発行機11は、表
示装置14にデモ表示(図5(A)参照)を行いなが
ら、操作部13に設けられているコイン投入部(不図
示)にコインが投入されるのを待つ(n21、n2
2)。なお、表示装置14におけるデモ表示は動画であ
ってもよいし、静止画であってもよい。図5(A)に示
すように、デモ表示の右下には現在投入されているコイ
ンの枚数が表示されており(この図では0枚)、コイン
が投入されるとコインの投入枚数の表示を更新し(図5
(B)参照)(n23)、投入枚数が所定の枚数(この
実施形態では3枚)であるかどうかを判定する(n2
3、n24)。n24において、投入枚数が所定の枚数
であると判定すると本処理を終了し、n2に進む。
FIG. 4 is a flowchart showing a play start waiting process according to n1. The seal issuing machine 11 waits for a coin to be inserted into a coin insertion unit (not shown) provided in the operation unit 13 while performing the demonstration display (see FIG. 5A) on the display device 14 (n21). , N2
2). The demo display on the display device 14 may be a moving image or a still image. As shown in FIG. 5A, the number of coins currently inserted is displayed at the lower right of the demo display (0 coins in this figure). When a coin is inserted, the number of inserted coins is displayed. (Fig. 5
(Refer to (B)) (n23), it is determined whether or not the number of inserted sheets is a predetermined number (three in this embodiment) (n2).
3, n24). If it is determined in n24 that the number of inserted sheets is the predetermined number, this processing ends, and the flow proceeds to n2.

【0038】図3に戻って、シール自販機11は、上記
のプレイ開始待ち処理を終了すると(コインが3枚投入
されると)、ユーザにポーズパターンを選択させるポー
ズパターン選択処理を実行する(n2)。このポーズパ
ターン選択処理は、従来のシール自販機におけるフレー
ム選択処理(背景画像を選択する処理)と略同じ処理で
ある。なお、この実施形態のシール自販機11は、従来
のようにフレーム画像を選択させるのではなく、撮影時
にユーザがとるポーズを選択させる。このため、表示装
置14には、本処理の最後に発行するシールに印刷する
画像(後述するオブジェクトを描画した画像)の基本パ
ターン(以下、ポーズパターンと言う。)を表示する
(図6参照)。
Returning to FIG. 3, after finishing the above-mentioned waiting for play start process (when three coins are inserted), the seal vending machine 11 executes a pose pattern selection process for allowing the user to select a pose pattern (n2). ). This pose pattern selection processing is substantially the same as the frame selection processing (processing of selecting a background image) in a conventional seal vending machine. Note that the seal vending machine 11 of this embodiment does not allow the user to select a frame image as in the related art, but allows the user to select a pose to be taken at the time of shooting. For this reason, the display device 14 displays a basic pattern (hereinafter, referred to as a pause pattern) of an image (an image in which an object described later is printed) to be printed on a sticker issued at the end of this processing (see FIG. 6). .

【0039】ユーザは、表示装置14に表示されている
ポーズパターンの中から、気に入ったポーズパターンを
1つ選択する。ポーズパターンの選択は、操作部13に
設けられているジョイスティックを操作して、画面に表
示されているカーソルを気に入ったポーズパターンに位
置させ、操作部13に設けられているボタン操作するこ
とで行える。なお、表示装置14の画面を変更すること
で、図6に示されている以外のポーズパターンを表示さ
せることができる。画面の変更はジョイスティックの操
作で行える。
The user selects one favorite pose pattern from the pose patterns displayed on the display device 14. A pose pattern can be selected by operating a joystick provided on the operation unit 13 to position a cursor displayed on the screen at a favorite pose pattern, and operating buttons provided on the operation unit 13. . By changing the screen of the display device 14, a pose pattern other than that shown in FIG. 6 can be displayed. The screen can be changed by operating the joystick.

【0040】制御装置16は、ポーズパターンが選択さ
れると、選択結果を確認する確認処理を行う(n3)。
この確認処理は、ユーザが誤ってポーズパターンを選択
していないかを確認する処理である。表示装置14に
は、図7に示すようにn2で選択されたポーズパターン
が拡大して表示されるとともに、認識する人体の一部
(以下、認識部位(この図では指先)と言う。)(この
発明で言う特定部位)や撮影時にとるべきポーズのガイ
ダンスが表示される。ユーザは、ポーズパターンの確定
(これでいい)、または、取消(やりなおす)を入力す
る。制御装置16は、n3で取消が入力されるとn2に
戻って上記の処理を繰り返し、確定が入力されると撮影
前処理を実行する(n4)。
When the pause pattern is selected, the control device 16 performs a confirmation process for confirming the selection result (n3).
This confirmation processing is processing for confirming whether the user has erroneously selected a pose pattern. As shown in FIG. 7, the pose pattern selected at n2 is enlarged and displayed on the display device 14, and a part of the human body to be recognized (hereinafter, referred to as a recognition site (fingertip in this figure)) ( Guidance of a specific part (in the present invention) and a pose to be taken at the time of photographing is displayed. The user inputs confirmation of the pause pattern (this is fine) or cancellation (redo). When the cancellation is input in n3, the control device 16 returns to n2 and repeats the above processing, and executes the pre-shooting processing when the confirmation is input (n4).

【0041】n4にかかる撮影前処理は、n3で確定さ
れたポーズパターンに対して予め設定されているパラメ
ータをCD−ROMやハードディスク等の記録媒体から
読み出し、メモリに記憶する処理である(パラメータは
ポーズパターン毎に記録されている。)。パラメータに
は、例えば撮影した画像(人物画像)の背景として合成
するフレーム画像や、認識部位の検出結果に基づいて描
画するオブジェクトの種類、個数、大きさ、描画位置等
を決定するためのデータ等が含まれている。
The pre-shooting process according to n4 is a process of reading parameters preset for the pause pattern determined at n3 from a recording medium such as a CD-ROM or a hard disk and storing the parameters in a memory (parameters are: It is recorded for each pause pattern.) The parameters include, for example, a frame image to be synthesized as a background of a photographed image (person image), and data for determining the type, number, size, drawing position, and the like of an object to be drawn based on a detection result of a recognized part. It is included.

【0042】制御装置16は、撮影前処理を終えると、
n5に進んで画像作成処理を実行する。この画像作成処
理は、撮影装置12で実際にユーザを撮影し、シールに
印刷する画像を作成する処理である。また、制御装置1
6は、画像作成処理の開始時に撮影装置12に設けられ
ている照明装置を点灯し、後述する印刷処理の開始時
(n11の処理開始時)に消灯する。
When the control device 16 completes the pre-shooting process,
Proceeding to n5, an image creation process is executed. This image creation process is a process of actually photographing a user with the photographing device 12 and creating an image to be printed on a sticker. Also, the control device 1
Reference numeral 6 turns on the illumination device provided in the photographing device 12 at the start of the image creation process, and turns off the light at the start of the later-described print process (at the start of the process of n11).

【0043】図8は、n5にかかる画像作成処理を示す
フローチャートである。制御装置16は、撮影装置12
でユーザを撮影した撮影画像を取り込み(n31)、該
撮影画像からユーザの画像領域(以下、被写体領域と言
う。)を抽出する(n32)。通常、シール自販機11
には、ユーザの後ろに幕が配置されている。したがっ
て、撮影画像からこの幕の色(例えば、青色)と略均一
な色の画素を取り除くことで被写体領域を抽出すること
ができる。これにより、図9(A)に示す撮影画像(原
画像)から、図9(B)に示す被写体領域を抽出するこ
とができる。具体的には、以下に示す〔数1〕の条件を
満たす画素を背景画素として取り除くことによって、上
記の被写体領域を抽出する。
FIG. 8 is a flowchart showing the image creation processing according to n5. The control device 16 controls the imaging device 12
The captured image obtained by capturing the user is read (n31), and an image area of the user (hereinafter, referred to as a subject area) is extracted from the captured image (n32). Normally, seal vending machine 11
Has a curtain arranged behind the user. Therefore, the subject area can be extracted by removing pixels having a color substantially uniform with the color of this curtain (for example, blue) from the captured image. Thus, the subject area shown in FIG. 9B can be extracted from the captured image (original image) shown in FIG. 9A. Specifically, the above-described subject area is extracted by removing pixels satisfying the following [Equation 1] as background pixels.

【0044】[0044]

【数1】 なお、〔数1〕におけるαを緩め(大きめ)に設定して
おくと、抽出された被写体領域に取り除くべき背景画素
が含まれる量が多くなり、逆に、αをきつめ(小さめ)
に設定すると、背景画素として取り除かれた被写体領域
の画素が多くなる。この処理で抽出した被写体領域は、
後述するようにユーザの撮影画像として利用することか
ら、αを若干緩めに設定している(被写体領域の画素が
背景画素として取り除かれないようにしている。)。制
御装置16は、n4でメモリに読み込んだ下地画像(フ
レーム画像)に、ここで抽出した被写体領域を重ね合わ
せた合成画像を作成する(n33)。
(Equation 1) Note that if α in [Equation 1] is set to be relatively small (large), the amount of the background pixel to be removed included in the extracted subject area increases, and conversely, α becomes tighter (smaller).
, The number of pixels in the subject area removed as background pixels increases. The subject area extracted in this process is
As will be described later, α is set slightly looser so as to be used as a photographed image of the user (pixels in the subject area are not removed as background pixels). The control device 16 creates a composite image in which the subject region extracted here is superimposed on the base image (frame image) read into the memory at n4 (n33).

【0045】制御装置16は、撮影画像を処理して認識
部位を検出する認識部位検出処理を実行する(n3
4)。n34にかかる認識部位検出処理は、n3で確定
されたポーズパターンによって、その処理内容が異な
る。これは、選択されたポーズパターンによって、撮影
画像から認識する認識部位が異なるからである。n34
にかかる認識部位検出処理の詳細については後述する。
制御装置16は、n34において認識部位の位置、向
き、重心等の特徴量を検出すると、この検出結果に基づ
いてn33で作成した合成画像上にオブジェクトを描画
するオブジェクト描画処理を実行する(n35)。オブ
ジェクトが描画された画像(以下、印刷候補画像と言
う。)は表示装置14に表示される(n36)。
The control device 16 executes a recognition part detection process for detecting the recognition part by processing the photographed image (n3).
4). The content of the recognition site detection processing according to n34 differs depending on the pose pattern determined at n3. This is because the recognition part to be recognized from the captured image differs depending on the selected pose pattern. n34
The details of the recognition part detection processing according to the above will be described later.
When detecting the feature amount such as the position, orientation, and center of gravity of the recognition part in n34, the control device 16 executes an object drawing process of drawing the object on the composite image created in n33 based on the detection result (n35). . The image on which the object is drawn (hereinafter, referred to as a print candidate image) is displayed on the display device 14 (n36).

【0046】以下、認識部位が指先(図10参照)、
突き合わせた指(図11参照)、手のひら(図12
参照)、向かい合った手のひら(図13参照)、握
り合った手(図14参照)、顔の間(図15参照)、
組んだ手(図16参照)、である7つのモードにおけ
る、上記の認識部位検出処理およびオブジェクト描画処
理(n34、n35の処理)ついて説明する。
Hereinafter, the recognition part is a fingertip (see FIG. 10),
The butted fingers (see FIG. 11) and the palm (FIG. 12)
Palms facing each other (see FIG. 13), grasping hands (see FIG. 14), between faces (see FIG. 15),
In crossed hand (see FIG. 16), a is seven modes, will be described with the above recognition site detection process and the object drawing process (n34, processing n35).

【0047】〔モードA〕図10に示すモードAは、認
識部位がユーザの指先である。制御装置16は、撮影画
像を取り込み、該画像から肌色領域を抽出する肌色領域
抽出処理を実行する。図17は、肌色領域抽出処理を示
すフローチャートであり、図18は本処理を説明する図
である。制御装置16は取り込んだ撮影画像に対して
(図18(A)参照)、ユーザの顔が撮影されている顔
存在領域を設定する(図18(B)参照)(n41)。
上述のように、n3で確定されたポーズパターンによっ
て、撮影時におけるポーズを指定しているので、制御装
置16はユーザの顔が撮影されている領域を略正確に推
測することができる。
[Mode A] In the mode A shown in FIG. 10, the recognition site is the fingertip of the user. The control device 16 captures a captured image and executes a skin color region extraction process of extracting a skin color region from the image. FIG. 17 is a flowchart showing the skin color region extraction processing, and FIG. 18 is a view for explaining this processing. The control device 16 sets a face presence area where the user's face is photographed (see FIG. 18B) for the captured photographed image (see FIG. 18A) (n41).
As described above, since the pose at the time of photographing is specified by the pose pattern determined at n3, the control device 16 can estimate the area where the user's face is photographed substantially accurately.

【0048】制御装置16は、n41で推測した顔存在
領域において、ある程度の幅をもたせて肌色の画素を抽
出する肌色サンプル抽出処理を行う(n42)(図18
(C)参照)。この処理は、上記の〔数1〕における背
景色の画素のRGB値を、一般的な人の肌の色のRGB
値に設定するとともに、αを若干大きめに設定し、〔数
1〕の条件を満たす画素を抽出する処理である。制御装
置16は、n42で抽出した肌色の画素について統計処
理を行い、最も頻度の高い色をユーザの肌の色であると
認識する(n43)。
The control device 16 performs a flesh color sample extraction process for extracting flesh color pixels with a certain width in the face existence region estimated at n41 (n42) (FIG. 18).
(C)). In this process, the RGB values of the background color pixels in the above [Equation 1] are converted into the RGB values of the general human skin color.
This is a process of setting a value and α to be slightly larger, and extracting a pixel satisfying the condition of [Equation 1]. The control device 16 performs statistical processing on the skin color pixels extracted in n42, and recognizes the most frequent color as the skin color of the user (n43).

【0049】次に、制御装置16は、撮影画像において
ユーザの手が撮影されている領域を示すパラメータに基
づいて、認識部位検出領域を設定する(n44)。上述
のように、n3で確定されたポーズパターンによって、
撮影時におけるユーザにポーズを指定しているので、上
記の顔だけでなく、ユーザの手が撮影されている領域も
略正確に推測できる。制御装置16はこのパラメータを
n4の処理でメモリに記憶している。具体的には、ポー
ズパターン毎に撮影画像に対して図19(A)、(B)
にハッチングで示す認識部位検出領域が設定されている
(選択されたポーズパターン毎に設定される。)。図1
9(A)は撮影画像の略中央が認識部位検出領域である
例であり、図19(B)は撮影画像の下側が認識部位検
出領域である例である。なお、図19に示した以外の領
域を認識部位検出領域として設定することもある。制御
装置16は、この認識部位検出領域における肌色領域を
抽出する(n45)(図18(D)参照)。この処理
は、上記の〔数1〕における基準色のRGB値をn43
で認識した肌色に設定し、〔数1〕の条件を満たす画素
の領域を抽出する処理である。以上の処理が肌色領域検
出処理である。
Next, the control device 16 sets a recognition part detection area based on a parameter indicating an area where the user's hand is photographed in the photographed image (n44). As described above, according to the pose pattern determined at n3,
Since the pose is specified for the user at the time of shooting, not only the above-mentioned face but also the area where the user's hand is shot can be estimated substantially accurately. The control device 16 stores this parameter in the memory in the process of n4. More specifically, FIGS. 19A and 19B show the captured image for each pose pattern.
Are set (recognized region detection areas indicated by hatching) (set for each selected pose pattern). FIG.
FIG. 9A shows an example in which the substantially center of the captured image is a recognition site detection area, and FIG. 19B shows an example in which the lower side of the captured image is a recognition site detection area. Note that an area other than that shown in FIG. 19 may be set as the recognition site detection area. The control device 16 extracts the skin color region in the recognition site detection region (n45) (see FIG. 18D). In this process, the RGB value of the reference color in the above [Equation 1] is set to n43.
This is a process for extracting a region of a pixel that satisfies the condition of [Equation 1] by setting the skin color recognized in the above. The above processing is the skin color area detection processing.

【0050】上記の肌色領域検出処理によって、図20
(A)に示す撮影画像から図20(B)に示す肌色領域
が抽出される。制御装置16は、ここで抽出した肌色領
域から認識部位である指を検出する。指の領域の検出
は、幅WがWf(予め設定されている指の太さの最大
値)以下で、長さLがLf(予め設定されている指の長
さの最小値)以上の肌色領域を全て検出し、さらに、こ
の検出した肌色領域の中で、一方がWd以上の幅の肌色
領域につながっている領域を検出し、この領域を指とし
て検出する(図20(C)参照)。
By the above-described skin color region detection processing, FIG.
The skin color area shown in FIG. 20B is extracted from the captured image shown in FIG. The control device 16 detects a finger, which is a recognition part, from the skin color region extracted here. The detection of the finger area is performed by detecting a skin color whose width W is equal to or less than Wf (a preset maximum value of the finger thickness) and whose length L is equal to or greater than Lf (the minimum value of the preset finger length). All the regions are detected, and furthermore, among the detected flesh color regions, a region where one is connected to a flesh color region having a width of Wd or more is detected, and this region is detected as a finger (see FIG. 20C). .

【0051】以上の処理で、撮影画像において認識部位
である指の位置する領域が検出される。ここで、肌の色
は被写体であるユーザによって異なり、また撮影環境
(照明の明るさ等)によっても変化する。したがって、
予め設定した肌色の基準値のRGB値を用いて、撮影画
像から肌色領域を抽出すると検出精度が悪く、抽出した
肌色領域から認識部位が検出できない可能性がある。例
えば、ユーザの肌の色が、予め設定した肌色の基準RG
B値からはなれた値であると、ユーザの肌が露出してい
る領域を正確に抽出することができず、認識部位である
指が検出できないという問題が生じる。
Through the above processing, the region where the finger, which is the recognition site, is located in the photographed image is detected. Here, the skin color differs depending on the user who is the subject, and also changes depending on the shooting environment (brightness of lighting and the like). Therefore,
If a skin color region is extracted from a captured image using a preset RGB value of a skin color reference value, detection accuracy is poor, and there is a possibility that a recognition part cannot be detected from the extracted skin color region. For example, if the user's skin color is a preset skin color reference RG
If the value deviates from the B value, a region where the user's skin is exposed cannot be accurately extracted, and a problem that a finger as a recognition site cannot be detected occurs.

【0052】一方、本実施形態の装置は、上記のn41
〜43の処理で、まずユーザの肌の色を認識し、これに
基づいて肌色領域を抽出しているので、確実にユーザの
肌が露出している領域を抽出することができる。よっ
て、撮影画像におけるユーザの指(認識部位)を確実に
検出できる。しかも、撮影画像全体について認識部位を
検出するのではなく、n44で認識部位検出領域を設定
し、この領域内で認識部位を検出しているので処理時間
も短縮される。
On the other hand, the apparatus of the present embodiment
Since the skin color of the user is first recognized and the skin color area is extracted based on the recognition in the processing of steps 43 to 43, the area where the user's skin is exposed can be reliably extracted. Therefore, the user's finger (recognition site) in the captured image can be reliably detected. In addition, the recognition time is not detected for the entire captured image, but a recognition area detection area is set in n44, and the recognition area is detected in this area, so that the processing time is reduced.

【0053】また、上記の処理にかえてn32で説明し
た被写体領域抽出処理を利用して撮影画像から指の領域
を検出することもできる。なお、この場合には、上記の
〔数1〕におけるαをきつめに(その値を若干小さめ
に)設定する。これにより、抽出される被写体領域に背
景領域が含まれることがない。そして、抽出した被写体
領域において、上記同様に幅WがWf(予め設定されて
いる指の太さの最大値)以下で、長さLがLf(予め設
定されている指の長さの最小値)以上の領域を全て検出
し、さらに、この検出した領域の中で、一方がWf以上
の幅の被写体領域につながっていれば、該領域を指の領
域として検出する。なお、αを緩めに設定すると背景領
域の一部が被写体領域として抽出され、被写体領域が実
際よりも太くなる。このため、指の領域がWf以上の幅
となり、該被写体領域から指の領域を検出できない可能
性が高くなるからである。なお、上記の説明では、撮影
画像全体について被写体領域を抽出するとしたが、n4
4で説明したように認識部位検出領域を設定し、該認識
部位設定領域において指の領域を検出することで、処理
時間を短縮できる。
Also, instead of the above processing, the area of the finger can be detected from the photographed image using the subject area extraction processing described in n32. Note that, in this case, α in the above [Equation 1] is set to be tight (slightly smaller). As a result, the extracted subject area does not include the background area. Then, in the extracted subject region, the width W is equal to or smaller than Wf (the preset maximum value of the finger thickness) and the length L is Lf (the minimum value of the preset finger length). ) All of the above areas are detected, and if one of the detected areas is connected to a subject area having a width of Wf or more, this area is detected as a finger area. If α is set to a small value, a part of the background region is extracted as the subject region, and the subject region becomes thicker than the actual one. For this reason, the width of the finger region is equal to or larger than Wf, and the possibility that the finger region cannot be detected from the subject region increases. In the above description, the subject area is extracted from the entire captured image.
The processing time can be shortened by setting the recognition region detection region and detecting the finger region in the recognition region setting region as described in 4.

【0054】また、上記の2つの処理で撮影画像におけ
る指の領域を検出し、一方でのみ検出された指の領域に
ついてはノイズとして除去するようにしてもよい。この
ようにすれば、撮影画像から指の領域の検出精度が向上
できる。
Further, the finger area in the photographed image may be detected by the above two processes, and the finger area detected only on one side may be removed as noise. By doing so, the detection accuracy of the finger region from the captured image can be improved.

【0055】さらに、前回の検出結果を用いて検出精度
を向上させることもできる。この実施形態のシール自販
機11においては、特定部位(例えば、指)の検出を数
ms程度の間隔で繰り返し行うため、今回検出された指
の領域の近辺において、前回の検出時に指の領域が検出
されていなければ、これは外乱光等の影響を受けたノイ
ズであると考えられる。すなわち、実際、数msの間に
指が大きく移動することはなく、ノイズでなければ前回
の検出時にも指が検出されている。すなわち、前回の検
出結果を用いてノイズを除去することで、認識部位の検
出精度を向上できる。例えば、図21(A)にハッチン
グで示す3か所において指の領域が検出されたとき、前
回の検出結果が図21(B)であれば、図21(C)に
示すように右上の認識領域をノイズとして処理し、最終
的に図21(C)にハッチングで示す2か所を今回検出
された指の領域であるとする。これにより、認識部位の
検出精度を一層向上することができる。
Further, the detection accuracy can be improved by using the previous detection result. In the seal vending machine 11 of this embodiment, the detection of a specific part (for example, a finger) is repeatedly performed at intervals of about several ms. Therefore, in the vicinity of the currently detected finger area, the finger area is detected at the previous detection. If not, this is considered to be noise affected by disturbance light or the like. That is, the finger does not actually move significantly within a few ms, and if no noise is detected, the finger is detected at the previous detection. That is, by removing noise using the previous detection result, it is possible to improve the detection accuracy of the recognition site. For example, when finger regions are detected at three places indicated by hatching in FIG. 21A, if the previous detection result is FIG. 21B, the upper right recognition is performed as shown in FIG. 21C. It is assumed that the area is processed as noise, and finally two areas indicated by hatching in FIG. 21C are areas of the finger detected this time. Thereby, the detection accuracy of the recognition part can be further improved.

【0056】上記のいずれかの処理で撮影画像における
指の検出を完了すると、制御装置16は検出された指か
ら有効とする指を決定する。これは、被写体が1人であ
っても、両手を広げていると、上記の処理で最大で10
本の指が検出され(10か所で指が検出される。)、各
指に対してオブジェクトを描画すると、後述するn11
の印刷処理された画像に多くのオブジェクトが存在する
ことになり、好ましい画像と言えない。そこで、この実
施形態の装置では、撮影画像上における位置に基づい
て、検出された指からどの指を有効とするかを決定して
いる。例えば、検出された、認識部位の2箇所を有効と
する場合であれば、最も右側で且つ最も上の位置と、
最も左側で且つ最も上の位置である2つを有効にする
等の条件が決められている。制御装置16は、上記の処
理で有効としたものについて以下の処理を実行する。
When the detection of the finger in the photographed image is completed in any of the above-described processes, the control device 16 determines a valid finger from the detected fingers. This is because even if the subject is one person, if both hands are spread, the above processing can be up to 10
When three fingers are detected (10 fingers are detected) and an object is drawn for each finger, n11 described later is used.
There are many objects in the image that has been subjected to the print processing, and this is not a preferable image. Therefore, in the apparatus of this embodiment, which of the detected fingers is to be made effective is determined based on the position on the captured image. For example, if two detected recognition sites are valid, the rightmost and topmost position is
Conditions such as enabling the two at the leftmost and uppermost positions are determined. The control device 16 executes the following processing for the ones made effective in the above processing.

【0057】制御部16は、上記の処理で有効とした2
つの指について、その特徴量を検出する。ここで検出す
る特徴量の種類については予め決められている。モード
Aでは、指先の位置および指の向き等を特徴量として検
出する。図22を参照しながら指の向きを検出する処理
を説明する。上記の処理で検出された指について、長さ
方向に所定の間隔で指の幅方向の中間点を検出する(図
22(A)、(B)参照)。そして、隣接する中間点間
のずれから傾きを求め(図22(C)参照)、ここで求
めた傾きの平均を指の向きであるとして検出する。ま
た、指の先端部は指先として検出される(図22(A)
参照)。
The control unit 16 determines that 2
The characteristic amount of one finger is detected. The type of the feature amount detected here is determined in advance. In the mode A, the position of the fingertip, the direction of the finger, and the like are detected as feature amounts. The process of detecting the direction of the finger will be described with reference to FIG. With respect to the finger detected in the above-described processing, an intermediate point in the width direction of the finger is detected at predetermined intervals in the length direction (see FIGS. 22A and 22B). Then, the inclination is obtained from the shift between the adjacent intermediate points (see FIG. 22C), and the average of the obtained inclination is detected as the direction of the finger. The tip of the finger is detected as a fingertip (FIG. 22A).
reference).

【0058】次に、制御部16は、n33の処理で作成
した、合成画像上にオブジェクトである光線を描画する
オブジェクト描画処理を実行する。このとき、検出した
指先の位置に基づいてオブジェクトの始点を決定し、ま
た、指の向きに応じて終点(光線が伸びていく方向)を
決定する。また、撮影画像における色分布等を検出し、
オブジェクトの色(透明度)等も検出する。なお、本処
理の詳細については、図23にそのフローチャートを示
した。以上の処理によって、n36で表示装置14に印
刷候補画像が表示される。
Next, the control section 16 executes an object drawing process for drawing a light beam as an object on the composite image created in the process of n33. At this time, the start point of the object is determined based on the detected position of the fingertip, and the end point (the direction in which the light rays extend) is determined according to the direction of the finger. In addition, color distribution and the like in the captured image are detected,
The color (transparency) of the object is also detected. FIG. 23 is a flowchart showing the details of this process. With the above processing, the print candidate image is displayed on the display device 14 in n36.

【0059】〔モードB〕図11に示すモードBは、認
識部位を付き合わせた指先(または向き合った指先)と
したモードである。制御装置16は、上記のモードAの
場合と同様に肌色領域抽出処理を実行して、撮影画像に
おける指を検出する。そして、ここで抽出した指の領域
の中で、その長さがLd以上の領域(2人の指が接して
いる場合に検出される領域で、Ldは撮影画像上におい
て一般的な人の指の約1.5倍程度の長さ)または2つ
の指領域の指先が向き合っている領域(指先間の少しの
隙間が有る場合に検出される領域)を抽出する(図24
(A)、(B)参照)。
[Mode B] Mode B shown in FIG. 11 is a mode in which the recognition tip is set to the fingertip (or the fingertip facing). The control device 16 detects the finger in the captured image by executing the skin color region extraction processing as in the case of the mode A described above. Then, of the extracted finger regions, a region whose length is equal to or longer than Ld (a region detected when two fingers are in contact with each other, and Ld is a general human finger on the captured image). (About 1.5 times the length of a fingertip) or a region of two finger regions where the fingertips face each other (a region detected when there is a small gap between the fingertips) (FIG. 24).
(See (A) and (B)).

【0060】なお、上記の被写体領域抽出処理によって
認識部位の位置を検出することもできる。また、モード
Aで説明したように、両方の処理を実行して検出精度を
向上させてもよい。さらに、上記の図21に示した過去
情報を用いて、検出精度を向上させてもよい。このモー
ドBでは、上記の処理で検出された認識部位の中で1箇
所を有効にする。
Note that the position of the recognized part can be detected by the above-described subject region extraction processing. Further, as described in mode A, both processes may be executed to improve the detection accuracy. Further, the detection accuracy may be improved using the past information shown in FIG. In this mode B, one of the recognition parts detected in the above processing is made valid.

【0061】制御部16は、上記の処理で有効とした指
について、該指領域が連続する指領域であれば、その中
間点を指先の接点として検出し、指先が向き合っていれ
ば(隙間があれば)その隙間の中間点を検出位置とす
る。また、指先が接している(または、向き合ってい
る)2本の指の長さLも特徴量として検出される(図2
4(C)参照)。ここで検出された特徴量に応じて、指
先の接点(または、中間点)の上方にオブジェクトして
炎を描画する。これにより、表示装置14に印刷候補画
像が表示される。なお、このモードBにかかるオブジェ
クト描画処理の詳細については、図25にそのフローチ
ャートを示した。
If the finger area is a continuous finger area, the control section 16 detects an intermediate point of the finger area as a contact point of the fingertip, and if the fingertip faces each other (if the fingertip faces), The intermediate point of the gap (if any) is set as the detection position. In addition, the length L of the two fingers touching (or facing) with each other is also detected as a feature value (FIG. 2).
4 (C)). The flame is drawn as an object above the contact point (or the middle point) of the fingertip according to the detected feature amount. As a result, the print candidate image is displayed on the display device 14. FIG. 25 is a flowchart showing the details of the object drawing process according to the mode B.

【0062】〔モードC〕図12に示すモードCは、認
識部位が手のひらとしたモードである。制御部16は、
上記の肌色抽出処理または被写体領域抽出処理によって
撮影画像における手のひらを抽出し(図26参照)、こ
こで検出した手のひらから有効とするものを決定する。
[Mode C] Mode C shown in FIG. 12 is a mode in which the recognition part is a palm. The control unit 16
The palm in the photographed image is extracted by the above-described skin color extraction processing or subject area extraction processing (see FIG. 26), and the effective palm is determined from the palm detected here.

【0063】制御装置16は、有効とした手のひらの特
徴量(位置、手のひら大きさ、向き等)を検出し、ここ
で検出した特徴量に基づいてn33で形成した合成画像
上に描画するオブジェクトの大きさ、個数、色、配置等
が決定される。これに基づいてオブジェクトの描画が行
われる。これにより、表示装置14に印刷候補画像が表
示される。なお、このモードCにかかるオブジェクト描
画処理の詳細については、図27にそのフローチャート
を示した。
The control device 16 detects the effective palm features (position, palm size, orientation, etc.) and, based on the detected features, determines the object to be drawn on the composite image formed in n33. The size, number, color, arrangement, etc. are determined. The object is drawn based on this. As a result, the print candidate image is displayed on the display device 14. FIG. 27 is a flowchart showing details of the object drawing process according to the mode C.

【0064】〔モードD〕図13に示すモードDは、認
識部位が向かい合った手のひらであるモードである。制
御部16は上記の肌色抽出処理または被写体領域抽出処
理によって、撮影画像における対向する2つの手のひら
を検出する(図28(A)(B)参照)。そして、向か
い合った手のひらの特徴量(位置、手のひら大きさ、向
き、向かい合った手の隙間、該隙間の重心位置等)を検
出し、ここで検出した特徴量に基づいてn33で形成し
た合成画像上に描画するオブジェクトの大きさ、色等が
決定される。これに基づいて、合成画像に対するオブジ
ェクトの描画が実行され、表示装置14に印刷候補画像
が表示される。なお、このモードDにかかるオブジェク
ト描画処理の詳細については、図29にそのフローチャ
ートを示した。
[Mode D] Mode D shown in FIG. 13 is a mode in which recognition portions are palms facing each other. The control unit 16 detects two opposing palms in the captured image by the above-described skin color extraction processing or subject area extraction processing (see FIGS. 28A and 28B). Then, the characteristic amounts of the facing palms (position, palm size, orientation, gaps of the facing hands, the center of gravity of the gaps, etc.) are detected. The size, color, and the like of the object to be drawn are determined. Based on this, drawing of the object on the composite image is executed, and the print candidate image is displayed on the display device 14. FIG. 29 is a flowchart showing details of the object drawing process according to the mode D.

【0065】〔モードE〕図14に示すモードEは、認
識部位が握り合った手であるモードである。制御装置1
6は、図30に示すように現画像に対して(図30
(A))、上記の肌色領域抽出処理(図30(B))と
被写体領域抽出処理(図30(C))との両方を行い、
これら2つの処理で抽出した領域の差分を取り、差分画
像(図30(D))において、無くなった領域について
上部に対応領域が残っていない領域を握りあった手とし
て検出する。なお、上記の2つの処理でともに検出さ
れ、差分画像(図30(D))において無くなる顔領域
については、上方に対応領域が残る(髪の毛の影響)。
[Mode E] Mode E shown in FIG. 14 is a mode in which the recognition site is a gripped hand. Control device 1
6 corresponds to the current image as shown in FIG.
(A)), performing both the above-described skin color area extraction processing (FIG. 30 (B)) and subject area extraction processing (FIG. 30 (C)).
The difference between the regions extracted by these two processes is calculated, and in the difference image (FIG. 30 (D)), the lost region is detected as the hand holding the region where the corresponding region does not remain at the top. It should be noted that, for the face region that is detected together in the above two processes and disappears in the difference image (FIG. 30D), a corresponding region remains above (effect of hair).

【0066】制御装置16は、握りあった手の特徴量と
して重心位置等を検出し、ここで検出した特徴量に基づ
いてn33で形成した合成画像上に描画するオブジェク
トの大きさ、色等が決定される。これに基づいて、合成
画像に対するオブジェクトの描画が実行され、表示装置
14に印刷候補画像が表示される。なお、このモードD
にかかるオブジェクト描画処理の詳細については、図3
1にそのフローチャートを示した。
The control device 16 detects the position of the center of gravity and the like as the characteristic amount of the grasped hand, and determines the size, color, and the like of the object to be drawn on the composite image formed in n33 based on the characteristic amount detected here. It is determined. Based on this, drawing of the object on the composite image is executed, and the print candidate image is displayed on the display device 14. This mode D
For details of the object drawing process according to FIG.
1 shows the flowchart.

【0067】〔モードF〕図15に示すモードFは、認
識部位が2人の顔の間であるモードである。このモード
Fでは、上記のモードEと同様に図30に示した処理を
行って、差分画像(図30(D))において、無くなっ
た領域について上部に対応領域が残っている領域を顔と
して検出する。そして、制御装置16は、特徴量として
2人の顔の間の距離、重心位置、顔の大きさ等を検出
し、ここで検出した特徴量に基づいてn33で形成した
合成画像上に描画するオブジェクトの大きさ、色、個数
等を決定される。これに基づいて、合成画像に対するオ
ブジェクトの描画が実行され、表示装置14に印刷候補
画像が表示される。なお、このモードDにかかるオブジ
ェクト描画処理の詳細については、図32にそのフロー
チャートを示した。このモードFは、検出した2人の顔
の間が狭いほど、多くのオブジェクト(ハートマーク)
が描画される。
[Mode F] Mode F shown in FIG. 15 is a mode in which the recognition site is between two faces. In this mode F, the processing shown in FIG. 30 is performed in the same manner as in the mode E described above, and in the difference image (FIG. 30 (D)), an area where a corresponding area remains above the lost area is detected as a face. I do. Then, the control device 16 detects the distance between the two faces, the position of the center of gravity, the size of the face, and the like as the feature amounts, and draws them on the composite image formed in n33 based on the detected feature amounts. The size, color, number, etc. of the objects are determined. Based on this, drawing of the object on the composite image is executed, and the print candidate image is displayed on the display device 14. FIG. 32 is a flowchart showing the details of the object drawing process according to the mode D. In this mode F, the number of objects (heart marks) increases as the distance between the detected two faces becomes narrower.
Is drawn.

【0068】〔モードG〕図16に示すモードGは、認
識部位が組んでいる手(お祈りをしているポーズ)であ
る。制御装置16は、上記の肌領域抽出処理を実行し、
上側の肌色領域を顔、該顔の略真下に位置する肌色領域
を組んでいる手として検出する(図33参照)。そし
て、制御装置16は、検出した組んでいる手の特徴量と
して、その位置、重心位置等を検出し、ここで検出した
特徴量に基づいてn33で形成した合成画像上に描画す
るオブジェクトの大きさ、色、個数等を決定し、これに
基づいてオブジェクトを描画する。これにより、表示装
置14に印刷候補画像が表示される。なお、このモード
Gにかかるオブジェクト描画処理の詳細については、図
34にそのフローチャートを示した。
[Mode G] Mode G shown in FIG. 16 is a hand in which the recognition part is assembled (prayer in a prayer). The control device 16 executes the above-described skin region extraction processing,
The upper skin color region is detected as a face, and a hand forming a skin color region located immediately below the face (see FIG. 33). Then, the control device 16 detects the position, the position of the center of gravity, and the like as the detected feature amount of the assembled hand, and based on the detected feature amount, determines the size of the object to be drawn on the composite image formed in n33. Then, the color, the number, etc. are determined, and the object is drawn based on the determined color, number, and the like. As a result, the print candidate image is displayed on the display device 14. FIG. 34 is a flowchart showing the details of the object drawing process according to the mode G.

【0069】以上のように、制御装置16は、撮影画像
における指先、突き合わせた指、手のひら、向
かい合った手のひら、握り合った手、顔の間、組
んだ手等、人体の一部を認識し、ここで認識した人体の
一部の特徴量に基づいて、n33で形成した合成画像上
にオブジェクトを描画する。表示装置14には、このオ
ブジェクトが描画された画像が印刷候補画像として表示
される。
As described above, the control device 16 recognizes a part of the human body such as the fingertip, the butted finger, the palm, the facing palm, the grasped hand, the face, and the crossed hands in the captured image. The object is drawn on the composite image formed in n33 based on the feature amount of a part of the human body recognized here. The image on which the object is drawn is displayed on the display device 14 as a print candidate image.

【0070】図3に戻って、制御装置16は、上記の処
理で表示装置14に印刷候補画像を表示すると、OKボ
タンが操作されたかどうかを判定し(n6)、操作され
ていなければn5に戻る。すなわち、上記の画像作成処
理は、ユーザがOKボタンを押下するまで繰り返し実行
される。これにより、ユーザは、表示部14を見なが
ら、気に入った印刷候補画像が得られるようにポーズを
変えることができる。
Returning to FIG. 3, when the print candidate image is displayed on the display device 14 in the above processing, the control device 16 determines whether or not the OK button has been operated (n6). Return. That is, the above image creation processing is repeatedly executed until the user presses the OK button. This allows the user to change the pose while looking at the display unit 14 so as to obtain a favorite print candidate image.

【0071】制御装置16は、n6でOKボタンを押下
されたと判定すると、カウントダウンを行い、タイムア
ップ後に図35に示す印刷確認画面を表示する(n7、
n8)。
When the control device 16 determines that the OK button has been pressed in n6, it counts down and displays a print confirmation screen shown in FIG.
n8).

【0072】ここで、ユーザがやり直しを入力すると、
制御装置16はオブジェクトが描画されているかどうか
を判定し(n9)、オブジェクトが描画されていればn
5に戻って上記の処理を繰り返す。一方、オブジェクト
が描画されていなければ、n3で確定されたポーズパタ
ーンを表示し(図7参照)、ユーザに撮影時におけるポ
ーズのガイダンスを行う(n10)。その後、n5に戻
って上記の処理を繰り返す。なお、オブジェクトが描画
されないのは、ユーザが選択したポーズパターンと違っ
たポーズをとっていため、認識部位を検出できなかった
からである。
Here, when the user inputs a redo,
The control device 16 determines whether or not the object is drawn (n9), and if the object is drawn, n
Returning to step 5, the above processing is repeated. On the other hand, if the object is not drawn, the pose pattern determined in n3 is displayed (see FIG. 7), and the user is guided in the pose at the time of shooting (n10). Thereafter, the process returns to n5 and the above processing is repeated. Note that the object is not drawn because a pose different from the pose pattern selected by the user was taken, so that the recognition site could not be detected.

【0073】シール自販機11は、ユーザがn8で確定
ボタンを押すと、シール発行機15において表示装置1
4に表示している画像を印刷したシールを発行して本処
理を終了する(n11)。なお、シールの印刷中には図
36に示す画像が表示装置14に表示されている。
When the user presses the enter button at n8, the seal vending machine 11 displays the display device 1 on the seal issuing machine 15.
Then, a sticker on which the image displayed in No. 4 is printed is issued, and the process ends (n11). Note that the image shown in FIG. 36 is displayed on the display device 14 during printing of the sticker.

【0074】このように、この実施形態にかかるシール
自販機11では、ユーザがポーズをかえることによっ
て、出力画像においてはユーザのポーズだけなく描画さ
れているオブジェクトも変化するので、多種多様な画像
を印刷することができ、繰り返しプレイしてもユーザを
あきさせることがない。しかも、オブジェクトそユーザ
に描画させるのではなく自動的に描画するため、1プレ
イにかかる時間が長くなることもなく、装置の稼働率の
低下も防止できる。
As described above, in the seal vending machine 11 according to this embodiment, when the user changes the pose, not only the user's pose but also the drawn object changes in the output image. Can be performed, and the user is not emptied even if the player repeatedly plays. In addition, since the object is automatically drawn instead of being drawn by the user, the time required for one play does not become long, and a decrease in the operation rate of the apparatus can be prevented.

【0075】[0075]

【発明の効果】以上のように、この発明によれば、撮影
装置で撮影した撮影画像について被写体の特定部位の位
置を検出し、ここで検出した位置に基づいて、所定の画
像上に適当なオブジェクトが描画される。そして、この
オブジェクトを描画した画像が出力される。したがっ
て、操作者(ユーザ)にオブジェクトの描画を行わせる
ことなく、適当なオブジェクトを描画した画像を出力す
ることができる。しかも、被写体のポーズによって検出
する前記特定部位が決定されるようにしているので、被
写体のポーズにあったオブジェクトを描画することがで
きる。 また、前記特定部位の検出を複数回行って、前回
の検出において今回検出した前記特定部位に対応する特
定部位が検出されていなければ、今回検出した前記特定
部位をノイズとして処理するようにしたので、特定部位
の移動速度を考慮して、外乱光等の影響による特定部位
の誤検出を防止でき、検出精度を向上される。
As described above, according to the present invention, the position of a specific part of a subject is detected in a photographed image photographed by a photographing device, and an appropriate image is formed on a predetermined image based on the detected position. The object is drawn. Then, an image in which this object is drawn is output. Therefore, an image in which an appropriate object is drawn can be output without causing the operator (user) to draw the object. Moreover, it is detected by the pose of the subject
The specific part to be determined
You can draw objects that fit the pose of the object
Wear. In addition, the detection of the specific part is performed plural times,
The characteristic corresponding to the specific part detected this time in the detection of
If the fixed site has not been detected, the identification
Since the part is processed as noise, the specific part
Considering the moving speed of
Erroneous detection can be prevented, and the detection accuracy is improved.

【0076】また、シール自販機に適用すれば、プレイ
時間が長くなることを防止し、且つ、オブジェクトによ
って特徴づけた画像をシールに印刷させることができ
る。よって、装置の稼働率の低下を防止し、売上を向上
することができる。
Further, if the present invention is applied to a sticker vending machine, it is possible to prevent a play time from being lengthened and to print an image characterized by an object on a sticker. Therefore, it is possible to prevent a decrease in the operation rate of the apparatus and improve sales.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の概要を示すブロック図である。FIG. 1 is a block diagram showing an outline of the present invention.

【図2】この発明の実施形態にかかるシール自販機の構
成を示すブロック図である。
FIG. 2 is a block diagram showing a configuration of a seal vending machine according to the embodiment of the present invention.

【図3】この発明の実施形態にかかるシール自販機の処
理を示すフローチャートである。
FIG. 3 is a flowchart showing processing of the seal vending machine according to the embodiment of the present invention.

【図4】プレイ開始待ち処理を示すフローチャートであ
る。
FIG. 4 is a flowchart showing a play start waiting process.

【図5】表示装置におけるデモ表示画面を示す図であ
る。
FIG. 5 is a diagram showing a demonstration display screen on the display device.

【図6】ポーズパターンの選択画面を示す図である。FIG. 6 is a diagram showing a pose pattern selection screen.

【図7】ポーズパターンの確認画面を示す図である。FIG. 7 is a view showing a confirmation screen of a pose pattern.

【図8】画像作成処理を示すフローチャートである。FIG. 8 is a flowchart illustrating an image creation process.

【図9】被写体領域抽出処理を示す図である。FIG. 9 is a diagram showing a subject area extraction process.

【図10】モードAのポーズパターンを示す図である。FIG. 10 is a diagram showing a pause pattern in mode A.

【図11】モードBのポーズパターンを示す図である。FIG. 11 is a diagram showing a pause pattern in mode B.

【図12】モードCのポーズパターンを示す図である。FIG. 12 is a diagram showing a pause pattern in mode C.

【図13】モードDのポーズパターンを示す図である。FIG. 13 is a diagram showing a pause pattern in mode D.

【図14】モードEのポーズパターンを示す図である。FIG. 14 is a diagram showing a pause pattern in a mode E.

【図15】モードFのポーズパターンを示す図である。FIG. 15 is a diagram showing a pose pattern in mode F.

【図16】モードGのポーズパターンを示す図である。FIG. 16 is a diagram showing a pause pattern in mode G.

【図17】肌色領域抽出処理を示すフローチャートであ
る。
FIG. 17 is a flowchart showing a skin color region extraction process.

【図18】肌色領域抽出処理を示す図である。FIG. 18 is a diagram showing a skin color region extraction process.

【図19】特定部位を認識する認識部位検出領域を示す
図である。
FIG. 19 is a diagram showing a recognition site detection region for recognizing a specific site.

【図20】撮影画像から指を検出する処理を示す図であ
る。
FIG. 20 is a diagram illustrating a process of detecting a finger from a captured image.

【図21】前回の検出結果を用いてノイズを除去する処
理を説明する図である。
FIG. 21 is a diagram illustrating a process of removing noise using a previous detection result.

【図22】特徴量として指の向きを検出する処理を示す
図である。
FIG. 22 is a diagram illustrating a process of detecting a finger direction as a feature amount.

【図23】モードAのポーズパターンが選択されている
ときのオブジェクト描画処理を示すフローチャートであ
る。
FIG. 23 is a flowchart showing an object drawing process when a pose pattern in mode A is selected.

【図24】撮影画像から突き合わせた指を検出する処理
を示す図である。
FIG. 24 is a diagram illustrating a process of detecting a butted finger from a captured image.

【図25】モードBのポーズパターンが選択されている
ときのオブジェクト描画処理を示すフローチャートであ
る。
FIG. 25 is a flowchart showing an object drawing process when a pose pattern in mode B is selected.

【図26】撮影画像から手のひら検出する処理を示す図
である。
FIG. 26 is a diagram illustrating processing for detecting a palm from a captured image.

【図27】モードCのポーズパターンが選択されている
ときのオブジェクト描画処理を示すフローチャートであ
る。
FIG. 27 is a flowchart showing an object drawing process when a pose pattern in mode C is selected.

【図28】撮影画像から向かいあった手のひらを検出す
る処理を示す図である。
FIG. 28 is a diagram illustrating a process of detecting a facing palm from a captured image.

【図29】モードDのポーズパターンが選択されている
ときのオブジェクト描画処理を示すフローチャートであ
る。
FIG. 29 is a flowchart showing an object drawing process when a pose pattern in mode D is selected.

【図30】撮影画像から握り合った手および2人の顔の
間を検出する処理を示す図である。
FIG. 30 is a diagram illustrating a process of detecting a hand gripped and a space between two faces from a captured image.

【図31】モードEのポーズパターンが選択されている
ときのオブジェクト描画処理を示すフローチャートであ
る。
FIG. 31 is a flowchart showing an object drawing process when a pose pattern in mode E is selected.

【図32】モードEのポーズパターンが選択されている
ときのオブジェクト描画処理を示すフローチャートであ
る。
FIG. 32 is a flowchart showing an object drawing process when a pose pattern in mode E is selected.

【図33】撮影画像から組んでいる手を検出する処理を
示す図である。
FIG. 33 is a diagram illustrating a process of detecting a crossed hand from a captured image.

【図34】モードFのポーズパターンが選択されている
ときのオブジェクト描画処理を示すフローチャートであ
る。
FIG. 34 is a flowchart showing an object drawing process when a pose pattern in mode F is selected.

【図35】印刷確認画面を示す図である。FIG. 35 is a diagram showing a print confirmation screen.

【図36】印刷処理中における表示画像を示す図であ
る。
FIG. 36 is a diagram illustrating a display image during a printing process.

【符号の説明】[Explanation of symbols]

1−撮影装置 2−位置検出手段 3−画像描画手段 4−画像出力手段 11−シール自販機 12−撮影装置 13−操作部 14−表示装置 15−シール発行機 16−制御装置 Reference Signs List 1-Photographing device 2-Position detecting means 3-Image drawing means 4-Image output means 11-Seal vending machine 12-Photographing device 13-Operation unit 14-Display device 15-Seal issuing machine 16-Control device

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小鶴 俊幸 京都府京都市右京区花園土堂町10番地 オムロン株式会社内 (56)参考文献 特開 平5−328213(JP,A) 特開 平8−153197(JP,A) 特開 平7−123403(JP,A) 特開 平9−33217(JP,A) 特開 昭63−17411(JP,A) 登録実用新案3048141(JP,U) (58)調査した分野(Int.Cl.7,DB名) H04N 7/18 G06T 1/00 ────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Toshiyuki Kozuru 10 Okado Todocho, Ukyo-ku, Kyoto-shi, Kyoto Omron Corporation (56) References JP-A-5-328213 (JP, A) JP-A-8- 153197 (JP, A) JP-A-7-123403 (JP, A) JP-A-9-33217 (JP, A) JP-A-63-17411 (JP, A) Registered utility model 3048141 (JP, U) (58) ) Surveyed field (Int.Cl. 7 , DB name) H04N 7/18 G06T 1/00

Claims (21)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 カメラ等の撮影装置と、 前記撮影装置で被写体を撮影した撮影画像における該被
写体の特定部位を検出する検出手段と、 前記検出手段における検出結果に基づいて、所定の画像
上にオブジェクトを描画する画像描画手段と、 前記画像描画手段がオブジェクトを描画した画像を出力
する出力手段と、前記撮影装置で撮影する被写体のポーズを選択するポー
ズ選択手段と、 選択されたポーズに基づいて前記特定部位を決定する特
定部位決定手段と、 を備えた画像処理装置。
A photographing device such as a camera; a detecting means for detecting a specific part of the subject in a photographed image of the subject photographed by the photographing device; Image drawing means for drawing an object, output means for outputting an image in which the image drawing means draws the object, and a port for selecting a pose of a subject to be photographed by the photographing device.
Feature selection means for determining the specific part based on the selected pose.
An image processing apparatus comprising: a fixed part determining unit .
【請求項2】 前記検出手段は、前記特定部位の検出を
複数回行って、前回の検出においても今回検出した前記
特定部位に対応する特定部位が検出されているかどうか
を判定し、前回検出されていなければ、今回検出した前
記特定部位をノイズとして処理する手段である請求項1
に記載の画像処理装置。
2. The method according to claim 1, wherein the detecting unit performs the detection of the specific part a plurality of times to determine whether a specific part corresponding to the specific part detected this time has been detected in the previous detection. if not, claim 1 is means for processing the detected this time the specific site as noise
An image processing apparatus according to claim 1.
【請求項3】 前記被写体は、人物である請求項1また
は2に記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the subject is a person.
【請求項4】 前記所定の画像は、前記撮影画像と他の
画像とを合成した合成画像である請求項1〜3のいずれ
記載の画像処理装置。
Wherein said predetermined image, the image processing apparatus according to claim 1 wherein a captured image and the other image and the synthesized composite image.
【請求項5】 前記検出手段は、撮影画像における特定
部位の位置、上下左右の向き、重心位置等の特徴量を検
出し、この特徴量に基づいて前記画像描画手段で描画す
るオブジェクトの配置、形状、個数、大きさ、色等を決
定する手段である請求項1〜4のいずれかに記載の画像
処理装置。
5. The detecting means detects a characteristic amount such as a position of a specific part, a vertical direction, a horizontal direction, a center of gravity position and the like in a captured image, and arranges an object to be rendered by the image rendering means based on the characteristic amount. shape, number, size, image processing apparatus according to any one of claims 1 to 4 which is a means for determining the color or the like.
【請求項6】 前記検出手段は、前記撮影画像における
肌色の領域を抽出し、ここで抽出した肌色領域から前記
特定部位を検出する手段である請求項1〜5のいずれか
に記載の画像処理装置。
Wherein said detecting means, said skin color region extracted in the captured image, the image processing according to any one of claims 1 to 5 which is a means for detecting said specific part from the skin color region extracted here apparatus.
【請求項7】 前記検出手段は、前記撮影画像における
前記被写体の領域を抽出し、ここで抽出した被写体領域
から前記特定部位を検出する手段である請求項1〜5の
いずれかに記載の画像処理装置。
Wherein said detecting means, said extracting region of the subject in the captured image, <br/> claim 1-5 is means for detecting said specific site from the extracted object area, where An image processing apparatus according to claim 1.
【請求項8】 前記検出手段が前記特定部位を検出する
画像領域を設定する検出領域設定手段を備えた請求項1
7のいずれかに記載の画像処理装置。
8. A detection area setting means for setting an image area in which the detection means detects the specific part.
8. The image processing apparatus according to any one of claims 7 to 7 .
【請求項9】 前記画像出力手段から出力される画像パ
ターンに描画するオブジェクトの種類を選択する選択手
段を備えた請求項1〜8のいずれかに記載の画像処理装
置。
9. The image processing apparatus according to any one of claims 1 to 8 with a selection means for selecting the type of object that renders an image pattern output from the image output unit.
【請求項10】 前記出力手段は、前記選択手段におけ
る選択時に複数種類の前記オブジェクトを表示する表示
装置を有する請求項9記載の画像処理装置。
10. The image processing apparatus according to claim 9, wherein said output means has a display device for displaying a plurality of types of said objects when selected by said selection means.
【請求項11】 前記出力手段は、前記画像描画手段に
おいてオブジェクトが描画された画像を表示する表示装
置を有する請求項1〜10のいずれかに記載の画像処理
装置。
Wherein said output means, an image processing apparatus according to any one of claims 1 to 1 0 having a display device for displaying an image in which the object is drawn in the image drawing means.
【請求項12】 前記出力手段は、印刷装置を有する請
求項1〜11のいずれかに記載の画像処理装置。
12. The method of claim 11, wherein output means, an image processing apparatus according to any one of claims 1 to 1 1 having a printing device.
【請求項13】 前記印刷装置は、画像をシールに印刷
する装置である請求項12に記載の画像処理装置。
Wherein said printing apparatus, an image processing apparatus according to claim 1 2 is an apparatus that prints an image on the seal.
【請求項14】 カメラ等の撮影装置で被写体を撮影し
た撮影画像における該被写体の特定部位を検出し、 ここで検出した被写体の特定部位に基づいて、所定の画
像にオブジェクトを描画するとともに、該オブジェクト
を描画した画像を出力する画像処理方法であって、 選択された被写体のポーズに基づいて、前記特定部位を
決定する画像処理方法。
14. A method for detecting a specific part of a subject in a photographed image obtained by photographing the subject with a photographing device such as a camera, and drawing an object on a predetermined image based on the detected specific part of the subject; an image processing method for outputting an image drawing objects, based on the pose of the object is selected, the specific site
Image processing method to be determined.
【請求項15】 前記特定部位の検出を複数回行って、
前回の検出においても今回検出した前記特定部位に対応
する特定部位が検出されているかどうかを判定し、前回
検出されていなければ、今回検出した前記特定部位をノ
イズとして処理する請求項14に記載の画像処理方法。
15. The method according to claim 15, wherein the detection of the specific portion is performed a plurality of times.
15. The method according to claim 14, wherein it is determined whether a specific part corresponding to the specific part detected this time is also detected in the previous detection, and if not detected last time, the specific part detected this time is processed as noise . Image processing method.
【請求項16】 前記被写体は、人物である請求項14
または15に記載の画像処理方法。
16. The object according to claim 14 , wherein the subject is a person.
Or the image processing method according to 15 .
【請求項17】 前記所定の画像は、前記撮影画像と他
の画像とを合成した合成画像である請求項14〜16
いずれかに記載の画像処理方法。
17. The image processing method according to claim 14 , wherein the predetermined image is a combined image obtained by combining the photographed image and another image.
【請求項18】 カメラ等の撮影装置で被写体を撮影し
た撮影画像における該被写体の特定部位を検出する第1
のステップと、 ここで検出した被写体の特定部位の位置に基づいて、所
定の画像にオブジェクトを描画する第2のステップと、 該オブジェクトを描画した画像を出力する第3のステッ
プと、前記被写体のポーズを選択する第4のステップと、 選択されたポーズに基づいて前記第1のステップで検出
する特定部位を決定する第5のステップと、 を有する画
像処理プログラムを記録した記録媒体。
18. A first method for detecting a specific part of a subject in a photographed image obtained by photographing the subject with a photographing device such as a camera.
A second step of drawing an object in a predetermined image based on the position of the specific part of the subject detected here; a third step of outputting an image in which the object is drawn ; A fourth step of selecting a pose, and detecting in the first step based on the selected pose
And a fifth step of determining a specific part to be processed.
【請求項19】 前記第1のステップを複数回行って、
前回の検出においても今回検出した前記特定部位に対応
する特定部位が検出されているかどうかを判定し、前回
検出されていなければ、今回検出した前記特定部位をノ
イズとして処理する第4のステップと、を有する請求項
18に記載の画像処理プログラムを記録した記録媒体。
19. The method according to claim 19, wherein the first step is performed a plurality of times.
A fourth step of determining whether or not a specific part corresponding to the specific part detected this time is also detected in the previous detection, and if not detected last time, processing the specific part detected this time as noise; Claim with
19. A recording medium recording the image processing program according to 18 .
【請求項20】 前記被写体は、人物である請求項18
または19に記載の画像処理プログラムを記録した記録
媒体。
20. The subject according to claim 18 , wherein the subject is a person.
Or a recording medium on which the image processing program according to 19 is recorded.
【請求項21】 前記所定の画像は、前記撮影画像と他
の画像とを合成した合成画像である請求項18〜20
いずれかに記載の画像処理プログラムを記録した記録媒
体。
21. The recording medium according to claim 18 , wherein the predetermined image is a combined image obtained by combining the photographed image and another image.
JP10261495A 1998-09-16 1998-09-16 Image processing apparatus, image processing method, and recording medium storing image processing program Expired - Lifetime JP3050209B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10261495A JP3050209B2 (en) 1998-09-16 1998-09-16 Image processing apparatus, image processing method, and recording medium storing image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10261495A JP3050209B2 (en) 1998-09-16 1998-09-16 Image processing apparatus, image processing method, and recording medium storing image processing program

Publications (2)

Publication Number Publication Date
JP2000092481A JP2000092481A (en) 2000-03-31
JP3050209B2 true JP3050209B2 (en) 2000-06-12

Family

ID=17362713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10261495A Expired - Lifetime JP3050209B2 (en) 1998-09-16 1998-09-16 Image processing apparatus, image processing method, and recording medium storing image processing program

Country Status (1)

Country Link
JP (1) JP3050209B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9556702B2 (en) 2011-12-23 2017-01-31 Schlumberger Technology Corporation Compositions and methods for well completions

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193824A (en) * 2000-04-13 2007-08-02 Fujifilm Corp Image processing method
JP4712576B2 (en) * 2006-02-17 2011-06-29 富士フイルム株式会社 Image layout apparatus and method, and program
JP5368165B2 (en) * 2009-04-30 2013-12-18 オリンパスイメージング株式会社 Imaging display device and imaging display method
JP5018896B2 (en) * 2010-01-06 2012-09-05 フリュー株式会社 PHOTOGRAPHIC PRINT DEVICE, PHOTOGRAPHIC PRINT DEVICE CONTROL METHOD, PHOTOGRAPHIC PRINT DEVICE CONTROL PROGRAM, AND COMPUTER READABLE RECORDING MEDIUM
JP5776471B2 (en) * 2011-09-27 2015-09-09 大日本印刷株式会社 Image display system
JP5675922B2 (en) * 2013-09-11 2015-02-25 オリンパスイメージング株式会社 Shooting display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9556702B2 (en) 2011-12-23 2017-01-31 Schlumberger Technology Corporation Compositions and methods for well completions

Also Published As

Publication number Publication date
JP2000092481A (en) 2000-03-31

Similar Documents

Publication Publication Date Title
US9764222B2 (en) System and method for calculating values in tile games
EP1324269A1 (en) Image processing apparatus, image processing method, record medium, computer program, and semiconductor device
JP5406883B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM
WO1995017934A1 (en) Image displaying game machine and image display controlling method
JP2006325740A (en) Rehabilitation support system and program
US9789393B2 (en) Motion sensor, object-motion detection method, and game machine
JP3050209B2 (en) Image processing apparatus, image processing method, and recording medium storing image processing program
JP2010137097A (en) Game machine and information storage medium
JP6320674B2 (en) Game device and server system
JP5874421B2 (en) Game shooting device, game shooting method and program
JP5271528B2 (en) Card game machine
JP2013243466A (en) Imaging apparatus for game, imaging method for game, and program
US8345001B2 (en) Information processing system, entertainment system, and information processing system input accepting method
JP2012169987A (en) Automatic photograph making device
JP4142918B2 (en) Image editing method, image editing apparatus, and computer program
JPH09311759A (en) Method and device for gesture recognition
JP5632104B2 (en) Game shooting device, processing method and program for game shooting device
JP6458426B2 (en) Nail printing apparatus, nail printing apparatus operation control method, and nail printing apparatus operation control program
JP5790034B2 (en) Automatic photo creation device
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP6904447B1 (en) Yugi image shooting equipment and programs
JP5887752B2 (en) Photography game device, photography game method, and photography game program
JP2016197924A (en) Imaging apparatus for game, imaging method for game, and program
JP6978660B2 (en) Photographing game equipment, image display method, and image display program
KR101861748B1 (en) Displaying method for screen of electrical dart, Computer program for the same, and Recording medium storing computer program for the same

Legal Events

Date Code Title Description
R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S211 Written request for registration of transfer of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314213

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090331

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090331

Year of fee payment: 9

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090331

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100331

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110331

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110331

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120331

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120331

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130331

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130331

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140331

Year of fee payment: 14

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term