JP2017034409A - Image processing system, image processing method and computer program - Google Patents

Image processing system, image processing method and computer program Download PDF

Info

Publication number
JP2017034409A
JP2017034409A JP2015151217A JP2015151217A JP2017034409A JP 2017034409 A JP2017034409 A JP 2017034409A JP 2015151217 A JP2015151217 A JP 2015151217A JP 2015151217 A JP2015151217 A JP 2015151217A JP 2017034409 A JP2017034409 A JP 2017034409A
Authority
JP
Japan
Prior art keywords
image
leg
image processing
bent
human subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015151217A
Other languages
Japanese (ja)
Other versions
JP6685094B2 (en
Inventor
石田 裕之
Hiroyuki Ishida
裕之 石田
由明 堀
Yoshiaki Hori
由明 堀
千晃 那須
Chiaki Nasu
千晃 那須
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Make Software Co Ltd
Original Assignee
Make Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Make Software Co Ltd filed Critical Make Software Co Ltd
Priority to JP2015151217A priority Critical patent/JP6685094B2/en
Publication of JP2017034409A publication Critical patent/JP2017034409A/en
Application granted granted Critical
Publication of JP6685094B2 publication Critical patent/JP6685094B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system, an image processing method, and a computer program that are able to perform processing such that even if legs in a photographic image taken by a photographing game machine is highly unlikely stretched straight, a leg portion look in a natural and ideal figure.SOLUTION: An image processing system comprises: acquiring means for acquiring image data from a photographing device that photographs a subject person; and extracting means that extracts a subject person area from an image based on the acquired image data. The image processing system performs image processing for elongating a range of the image which includes the subject person area, in a direction of a height of the subject person. The image processing system further comprises: determining means for determining whether legs of the subject person in the image are bent or not; and elongating means for elongating the area of a leg portion of the subject person in a different pattern according to whether the determining means determines that the legs are bent or not.SELECTED DRAWING: Figure 5

Description

本発明は、人物であるユーザを被写体として写真撮影し、撮影結果が出力された所定の写真シールシート又は写真データを得ることができる撮影遊戯機に関し、ユーザのポーズによらず好適な撮影結果が得られる撮影遊戯機における画像処理装置、画像処理方法及びコンピュータプログラムに関する。   The present invention relates to a shooting game machine that can take a photograph of a user, who is a person, and obtain a predetermined photo sticker sheet or photo data in which the shooting result is output, and has a preferable shooting result regardless of the user's pose. The present invention relates to an image processing apparatus, an image processing method, and a computer program in an obtained shooting game machine.

ユーザが複数人で又は一人で、自身を撮影して得られる写真シールシートを排出する装置が撮影遊戯機として提供されている。撮影遊戯機では、複数人のユーザが入ることができる程度に広い撮影空間に、自動的に撮影を行なう撮影装置、フラッシュ及び反射板を含む撮影機器が設けられている。   An apparatus for discharging a photo sticker sheet obtained by photographing a plurality of users or a single user is provided as a shooting game machine. In a shooting game machine, a shooting device that automatically performs shooting, and a shooting device including a flash and a reflector are provided in a shooting space that is large enough for a plurality of users to enter.

そして撮影遊戯機における撮影機器は、撮影空間内に存在する人物の腰から上の範囲を撮影する場合と、全身を正面から又は斜め上方から撮影する場合とで俯角及び画角が夫々設定されている。腰から上の範囲を撮影する場合と、全身を斜め上方から撮影する場合とでは特に、俯角を大きくすることで被写体のユーザの目線を上げさせ、小顔に写る効果と目を大きくする効果とが得られる。   The shooting equipment in the shooting game machine has a depression angle and an angle of view respectively set when shooting a range above the waist of a person existing in the shooting space and when shooting the whole body from the front or obliquely from above. Yes. Especially when shooting the range from the waist and when shooting the whole body from diagonally above, increasing the depression angle raises the user's eyes of the subject, the effect of appearing on the small face and the effect of enlarging the eyes Is obtained.

更に撮影遊戯機は、撮影で得られた写真画像に対し、小顔に見えるように輪郭を加工する処理、及び目が大きく見えるように強調する加工処理など、被写体が可愛く見えるように補正加工を行なう。上述したように俯角を大きくして全身を撮影する場合、脚が短く写りやすいため、脚部分を伸長すると共に胴体部分を短縮する加工を行なうことが提案されている(特許文献1)。   Furthermore, the shooting game machine performs correction processing on the photographic image obtained by shooting so that the subject looks cute, such as processing the contour so that it looks like a small face and processing that emphasizes it so that the eyes appear large. Do. As described above, when a whole body is imaged with a large depression angle, it is proposed to perform a process of extending the leg portion and shortening the trunk portion because the leg is easy to be captured (Patent Document 1).

被写体となるユーザは撮影空間内で直立した姿勢で写されるとは限らない。特に全身を撮影する設定ではユーザは、様々な動きのあるポーズで写ることが多い。特許文献2には、足が床面から離れている場合には脚部分の伸長処理を行なわないようにして不自然さを解消することが提案されている。   The user who is the subject is not always photographed in an upright posture in the shooting space. In particular, in a setting for photographing the whole body, the user often takes a pose with various movements. Patent Document 2 proposes eliminating the unnaturalness by not performing the extension process of the leg portion when the foot is away from the floor surface.

特開2012−169987号公報JP 2012-169987 A 特開2013−162451号公報JP2013-162451A

しかしながら全身を撮影する場合は、特許文献1に開示されているように脚部分が不自然に短く写ることが多いので、特許文献2に開示されているように脚部分の伸長処理を行なわないとすると得られる写真シールシート及び写真データに対する満足度が低減する。また、画像内から抽出した人物被写体領域に基づいて、特許文献1,2に開示されているような腹部位置及び膝位置を特定することは非常に困難である。被写体であるユーザがとるポーズは千差万別であり、脚を組む姿勢、脚を交差させる姿勢、また衣服によっては膝位置を特定することは非常に困難だからである。   However, when photographing the whole body, the leg part often appears unnaturally short as disclosed in Patent Document 1, so the leg part must be stretched as disclosed in Patent Document 2. As a result, the degree of satisfaction with the obtained photo sticker sheet and photo data is reduced. Further, it is very difficult to specify the abdominal position and knee position as disclosed in Patent Documents 1 and 2 based on the person subject region extracted from the image. This is because there are various poses taken by the user who is the subject, and it is very difficult to specify the posture of crossing the legs, the posture of crossing the legs, and the position of the knee depending on the clothes.

本発明は斯かる事情に鑑みてなされたものであり、撮影遊戯機にて撮影された写真画像内で脚が直立状態でない可能性が高い場合であっても脚部分が自然に且つ理想的な体型に見えるような加工を実現する画像処理装置、画像処理方法及びコンピュータプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and the leg portion is naturally and ideal even in the case where there is a high possibility that the leg is not in an upright state in a photographic image photographed by a photographing amusement machine. An object of the present invention is to provide an image processing apparatus, an image processing method, and a computer program for realizing processing that looks like a body shape.

本発明に係る画像処理装置は、人物被写体を撮影する撮影装置から画像データを取得する取得手段と、取得した画像データに基づく画像から人物被写体領域を抽出する抽出手段とを備え、前記画像の前記人物被写体領域を含む範囲を前記人物被写体の身長方向に伸長させる画像処理を行なう画像処理装置において、前記画像内の人物被写体の脚が曲げられた状態であるか否かを判断する判断手段と、前記判断手段により脚が曲げられた状態であると判断されたか否かに応じて、前記人物被写体の脚部分の領域を相異なるパターンで伸長する伸長手段とを備えることを特徴とする。   An image processing apparatus according to the present invention includes an acquisition unit that acquires image data from an imaging device that captures a human subject, and an extraction unit that extracts a human subject region from an image based on the acquired image data. In an image processing apparatus that performs image processing for extending a range including a person subject area in a height direction of the person subject, a determination unit that determines whether or not a leg of the person subject in the image is bent; The image processing apparatus includes: an extension unit configured to extend the leg portion region of the person subject in a different pattern depending on whether or not the determination unit determines that the leg is bent.

本発明に係る画像処理装置は、前記伸長手段は、前記判断手段により脚が曲げてられていない状態であると判断された場合、前記人物被写体領域の内の膝下部分に対応する領域を他領域よりも長く伸長する第1伸長手段と、前記判断手段により脚が曲げられた状態であると判断された場合、前記人物被写体の脚部分の領域を、複数箇所に分散させて伸長する第2伸長手段とを有することを特徴とする。   In the image processing apparatus according to the present invention, when the extension means determines that the leg is not bent by the determination means, an area corresponding to the lower knee portion of the person subject area is set as another area. A first extension means that extends longer than the first extension means, and a second extension that extends the area of the leg portion of the person subject in a plurality of places when the determination means determines that the leg is bent. Means.

本発明に係る画像処理装置は、前記判断手段は、前記人物被写体領域の輪郭を特定する手段と、特定された輪郭の内、脚部分が含まれる所定範囲内における輪郭線の画像内における前記身長方向に対する向きを特定する向き特定手段とを備え、該特定手段により特定された向きが横向きと判断された場合に、脚を曲げている状態であると判断することを特徴とする。   In the image processing apparatus according to the present invention, the determination unit includes a unit that specifies a contour of the person subject region, and the height in an image of a contour line within a predetermined range including a leg portion of the specified contour. Direction specifying means for specifying the direction with respect to the direction, and when the direction specified by the specifying means is determined to be lateral, it is determined that the leg is bent.

本発明に係る画像処理装置は、前記特定手段は、輪郭線上に所定間隔で複数の点を特定する手段と、前記複数の点における前記輪郭線の接線の前記画像内の横方向における大きさの合計を算出する手段と、算出された合計が所定値よりも大きいか否かを判断する手段とを備え、該手段により大きいと判断された場合に横向きと判断することを特徴とする。   In the image processing apparatus according to the present invention, the specifying unit includes a unit that specifies a plurality of points on the contour line at predetermined intervals, and a size of a tangent line of the contour line at the plurality of points in the horizontal direction in the image. Means for calculating the total and means for determining whether or not the calculated total is greater than a predetermined value, and when the means is determined to be larger, it is determined to be in the landscape orientation.

本発明に係る画像処理装置は、前記第2伸長手段は、曲げられた脚部分以外の箇所で伸長を分散させることを特徴とする。   The image processing apparatus according to the present invention is characterized in that the second extension means distributes the extension at a place other than the bent leg portion.

本発明に係る画像処理方法は、人物被写体を撮影する撮影装置から画像データを取得する手段、取得した画像データに基づく画像から人物被写体領域を抽出する手段を備える画像処理装置が、前記画像の前記人物被写体領域を含む範囲を前記人物被写体の身長方向に伸長させる画像処理を行なう画像処理方法において、前記画像処理装置は、前記画像内の人物被写体の脚が曲げられた状態であるか否かを判断し、脚が曲げられた状態であると判断されたか否かに応じて、前記人物被写体の脚部分の領域を相異なるパターンで伸長することを特徴とする。   The image processing method according to the present invention includes: an image processing apparatus including means for acquiring image data from a photographing apparatus that captures a person subject; and means for extracting a person subject region from an image based on the acquired image data. In an image processing method for performing image processing for extending a range including a person subject area in a height direction of the person subject, the image processing apparatus determines whether or not a leg of the person subject in the image is bent. According to the determination, it is characterized in that the leg part region of the person subject is extended in different patterns depending on whether or not it is determined that the leg is bent.

本発明に係るコンピュータプログラムは、撮影装置と接続されるコンピュータに、前記撮像装置から画像データを取得し、該画像データに基づく画像から人物被写体領域を抽出し、前記画像の前記人物被写体領域を含む範囲を人物被写体の身長方向に伸長させる画像処理を実行させるコンピュータプログラムにおいて、前記コンピュータに、画像内の人物被写体の脚が曲げられた状態であるか否かを判断するステップ、及び脚が曲げられた状態であると判断されたか否かに応じて、前記人物被写体の脚部分の領域を相異なるパターンで伸長するステップを実行させることを特徴とする。   A computer program according to the present invention acquires image data from the imaging device, extracts a human subject region from an image based on the image data, and includes the human subject region of the image in a computer connected to an imaging device. In a computer program for executing image processing for extending a range in the height direction of a person subject, the computer determines whether the leg of the person subject in the image is bent, and the leg is bent. The step of extending the leg part region of the person subject in a different pattern is executed according to whether or not the state is determined to be in a different state.

本発明では、画像内に写っている人物被写体のポーズとして脚の姿勢が推定判断され、脚の状態が曲がっている状態であるか否かによって、脚部分の領域が相異なるパターンで伸長される。即ち、脚の姿勢に応じて適切な伸長処理が行なわれる。   In the present invention, the posture of the leg is estimated and determined as the pose of the human subject in the image, and the leg region is expanded in a different pattern depending on whether or not the leg is bent. . That is, an appropriate extension process is performed according to the posture of the leg.

本発明では、脚が曲げられていないと判断された場合には、脚部分の領域が膝下部分で特に引き伸ばされるように伸長される。一方脚が曲げられていると判断された場合には、脚部分の領域の身長方向への伸長が複数箇所に分散される。これにより、脚が曲がっていることが推定判断される場合には、脚の特定箇所が極端に伸長されることがない。   In the present invention, when it is determined that the leg is not bent, the leg part region is stretched so as to be particularly stretched in the lower knee part. On the other hand, if it is determined that the leg is bent, the extension of the leg portion region in the height direction is distributed to a plurality of locations. Thereby, when it is presumed that the leg is bent, the specific part of the leg is not extremely extended.

本発明では、脚が曲がっているか否かの判断が、人物被写体領域の内の脚が写っているであろうと推定される所定範囲内における輪郭線の向き(身長方向に対する向き)基づいて行なわれる。人物被写体の輪郭は他の処理でも利用するので、判断処理のためだけの処理による負荷を低減することも可能である。   In the present invention, whether or not the leg is bent is determined based on the direction of the contour line (the direction with respect to the height direction) within a predetermined range in which it is estimated that the leg in the human subject area will be reflected. . Since the outline of the person subject is also used in other processes, it is possible to reduce the load due to the process only for the determination process.

本発明では、輪郭線上の複数の点における輪郭線に対する接線の向きの成分の合計値が所定値よりも大きいか否かにより向きが特定される。合計値を算出してから所定値と比較することにより、人物被写体領域の内の脚が写っているであろうと推定される所定範囲内全体での輪郭線の向きの傾向から判断がなされ、脚の状態が精度よく推定される。   In the present invention, the direction is specified based on whether or not the total value of the components of the tangent direction with respect to the contour line at a plurality of points on the contour line is larger than a predetermined value. By calculating the total value and comparing it with the predetermined value, a judgment is made based on the tendency of the direction of the contour line within the predetermined range where it is estimated that the legs in the human subject area will be reflected. Is accurately estimated.

本発明では、脚が曲げられた状態であると判断された場合には、曲げた脚の部分以外を人物被写体の身長方向に複数箇所で伸長させる。これにより、身長方向に対して横向きに曲げられた脚以外が伸長され、脚長に見える効果がより期待できる。   In the present invention, when it is determined that the legs are bent, the portions other than the bent legs are extended at a plurality of locations in the height direction of the human subject. Thereby, the leg other than the leg bent sideways with respect to the height direction is extended, and the effect of appearing as a leg length can be further expected.

本発明による場合、画像内に写っている人物被写体が直立状態でない可能性が高い場合には、脚の伸長箇所が複数箇所に分散されて伸長されるので、人物被写体が自然に且つ理想的な体型に見えるように補正することが可能となる。   According to the present invention, when there is a high possibility that the human subject in the image is not in an upright state, the extended portions of the legs are distributed and extended at a plurality of locations, so that the human subject is natural and ideal. It can be corrected so that it looks like a figure.

本実施の形態における撮影遊戯機の外観を示す斜視図である。It is a perspective view which shows the external appearance of the imaging | photography game machine in this Embodiment. 本実施の形態における撮影遊戯機の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging | photography game machine in this Embodiment. 本実施の形態の撮影遊戯機にて実行される全体処理の一例を示すフローチャートである。It is a flowchart which shows an example of the whole process performed with the imaging | photography game machine of this Embodiment. スタイル補正処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of a style correction process. 脚の状態の推定判断の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of estimation judgment of the state of a leg. 全身撮像により得られる画像の一例を示す説明図である。It is explanatory drawing which shows an example of the image obtained by whole body imaging. 脚の状態の推定判断の過程を示す説明図である。It is explanatory drawing which shows the process of presumed judgment of the state of a leg. 脚の状態の推定判断の過程を示す説明図である。It is explanatory drawing which shows the process of presumed judgment of the state of a leg. 脚の状態の推定判断の過程を示す説明図である。It is explanatory drawing which shows the process of presumed judgment of the state of a leg. 脚の状態の推定判断の過程を示す説明図である。It is explanatory drawing which shows the process of presumed judgment of the state of a leg. スタイル補正処理における2つの伸長処理の差異を示す説明図である。It is explanatory drawing which shows the difference of the two expansion | extension processes in a style correction process. 図6に示した画像に対するスタイル補正処理の結果を示す説明図である。It is explanatory drawing which shows the result of the style correction process with respect to the image shown in FIG.

以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。   Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof.

図1は、本実施の形態における撮影遊戯機の外観を示す斜視図である。撮影遊戯機は全体として、複数のユーザが入り込むことが可能な略直方体形状の箱型の装置である。撮影遊戯機は、おおまかに撮影エリアA及び編集エリアBに分けることができ、夫々のエリアA,Bに複数の機器が設けられて構成される。   FIG. 1 is a perspective view showing an external appearance of a photographing amusement machine according to the present embodiment. A photographing amusement machine as a whole is a box-shaped device having a substantially rectangular parallelepiped shape that a plurality of users can enter. A shooting game machine can be roughly divided into a shooting area A and an editing area B, and a plurality of devices are provided in each of the areas A and B.

撮影エリアAには、事前接客部1及び撮影部2に係る機器が設けられている。事前接客部1は撮影エリアAの外側に向けて設けられているコイン投入口、タッチパネル式のディスプレイ及びスピーカ等を含んで構成されており、ユーザの撮影前のコインの投入、名前の登録等の操作を受け付ける。撮影部2は、撮影エリアA内部の壁面に内側に向けて設置されているカメラ21、ディスプレイ22、照明装置群23、及びスピーカ24(図2参照)を含んで構成されており、ユーザに撮影ガイドを表示し、音声で案内しながら複数回に分けて画像を撮影し、撮影された画像を編集部へ出力する処理を行なう。   In the shooting area A, devices related to the pre-service section 1 and the shooting section 2 are provided. The pre-service section 1 includes a coin slot, a touch panel display, a speaker, and the like that are provided toward the outside of the shooting area A. Accept the operation. The photographing unit 2 is configured to include a camera 21, a display 22, a lighting device group 23, and a speaker 24 (see FIG. 2) installed on the wall surface inside the photographing area A so as to photograph the user. A guide is displayed, and an image is taken in a plurality of times while being guided by voice, and processing for outputting the taken image to the editing unit is performed.

編集エリアBには、第1編集部3a、第2編集部3b(図2参照)及び印刷部4に係る機器が設けられている。第1編集部3aは編集エリアBの中央部に操作画面表示用のマルチタッチパネル式のディスプレイ30aをユーザが操作しやすい高さに露出させた装置を含んで構成されている。第1編集部3aは更にスピーカ33a及び照明装置、並びにディスプレイ30a用のタッチペン31a,32a(図2参照)を備えている。第1編集部3aは、ユーザを撮影した撮影画像に基づく画像への落書き操作をディスプレイ30a及びタッチペン31a,32aにて受け付け、受け付けられた操作に対応する画像処理を実行する。第2編集部3bは第1編集部3a同様に構成され(図示省略)、第1編集部3aと背中合わせの位置に設けられている。印刷部4は、編集エリアBの第1編集部3a、第2編集部3bを含む装置の筐体内に設けられるプリンタを含んで構成され、画像処理後の画像が印刷された写真シールシートを筐体の表面に設けられている吐出口から吐き出す。   In the editing area B, devices related to the first editing unit 3a, the second editing unit 3b (see FIG. 2), and the printing unit 4 are provided. The first editing unit 3a is configured to include a device in which a multi-touch panel display 30a for displaying an operation screen is exposed at a central portion of the editing area B at a height that is easy for a user to operate. The first editing unit 3a further includes a speaker 33a, a lighting device, and touch pens 31a and 32a (see FIG. 2) for the display 30a. The first editing unit 3a accepts a graffiti operation on an image based on a photographed image taken by the user using the display 30a and the touch pens 31a and 32a, and executes image processing corresponding to the accepted operation. The second editing unit 3b is configured in the same manner as the first editing unit 3a (not shown), and is provided back to back with the first editing unit 3a. The printing unit 4 includes a printer provided in a housing of an apparatus including the first editing unit 3a and the second editing unit 3b in the editing area B, and includes a photo sticker sheet on which an image after image processing is printed. It exhales from the outlet provided on the surface of the body.

図2は、本実施の形態における撮影遊戯機の構成を示すブロック図である。撮影遊戯機は、撮影エリアA及び編集エリアBにおけるユーザから視認可能な範囲に上述の事前接客部1、撮影部2、第1編集部3a、第2編集部3b及び印刷部4を備えているほか、撮影エリアA内の壁面に隠された箇所、又は編集エリアBの装置の筐体内部等に、通信部5と制御機構とを備えている。   FIG. 2 is a block diagram illustrating a configuration of the shooting game machine according to the present embodiment. The shooting game machine includes the above-described pre-serving section 1, the shooting section 2, the first editing section 3a, the second editing section 3b, and the printing section 4 in a range that is visible to the user in the shooting area A and the editing area B. In addition, the communication unit 5 and the control mechanism are provided at a location hidden on the wall surface in the shooting area A, or inside the housing of the device in the editing area B.

通信部5は、インターネット等の外部ネットワークに接続して撮影された画像を含むデータの送受信を実現する。通信部5は制御機構に接続されており、制御機構は通信部5を介して外部ネットワーク上のサーバ装置と通信し、データの送受信を行なうことが可能である。本実施の形態における撮影遊戯機では、通信部5が撮影によって得られた画像データを撮影遊戯機のメーカが管理するサーバ装置へ送信する。これによりユーザはサーバ装置から自身の撮影画像を、所謂スマートフォン、タブレット端末、PC(Personal Computer )等の情報端末装置によってダウンロードし、情報端末装置内の記憶装置に記憶させることが可能である。   The communication unit 5 is connected to an external network such as the Internet and realizes transmission / reception of data including images taken. The communication unit 5 is connected to a control mechanism, and the control mechanism can communicate with a server device on an external network via the communication unit 5 to transmit and receive data. In the shooting game machine in the present embodiment, the communication unit 5 transmits the image data obtained by shooting to a server device managed by the manufacturer of the shooting game machine. Thus, the user can download his / her captured image from the server device by an information terminal device such as a so-called smartphone, tablet terminal, PC (Personal Computer), etc., and store it in a storage device in the information terminal device.

制御機構は、上述した各ハードウェアを制御するPCと、各ハードウェアが接続されているバス100を含む制御基板と、各ハードウェアに電力を供給する図示しない電源部とにより構成される。PCは1つのPCで構成されてもよいが、処理を円滑化するために、事前接客部1を制御するPC、撮影部2を制御するPC、第1編集部3aを制御するPC、第2編集部3bを制御するPC、並びに印刷部4及び通信部5を制御するPC、のように制御対象毎に異なるPCを用いてもよい。なお以下の説明では、印刷部4における処理の前段階となる合成画像の作成処理について主に説明する。このため、仮想的に第1PCと第2PCとに分別して説明する。第1PCは、事前接客部1及び撮影部2における処理を制御する制御部6に対応する。第2PCは、撮影部2により得られた画像に対する所定の加工処理、第1編集部3a及び第2編集部3bによる編集の受け付け、及び、これらに基づく合成を含む画像処理を制御し、印刷部4における印刷出力、及び通信部5からのデータ送信を指示する画像処理部7に対応する。   The control mechanism includes a PC that controls each hardware described above, a control board including the bus 100 to which each hardware is connected, and a power supply unit (not shown) that supplies power to each hardware. The PC may be composed of a single PC, but in order to facilitate processing, the PC that controls the pre-serving section 1, the PC that controls the photographing section 2, the PC that controls the first editing section 3a, the second Different PCs may be used for each control target, such as a PC that controls the editing unit 3b and a PC that controls the printing unit 4 and the communication unit 5. In the following description, a composite image creation process that is a pre-stage of processing in the printing unit 4 will be mainly described. For this reason, the description will be made by virtually separating the first PC and the second PC. The first PC corresponds to the control unit 6 that controls the processes in the prior customer service unit 1 and the photographing unit 2. The second PC controls image processing including predetermined processing for the image obtained by the photographing unit 2, acceptance of editing by the first editing unit 3a and the second editing unit 3b, and synthesis based on these, and printing unit 4 corresponds to the image processing unit 7 instructing the print output in 4 and the data transmission from the communication unit 5.

制御部6は、第1PCに備えられたCPU(Central Processing Unit )60と、メモリ61と、HDD(Hard Disk Drive)62と、キャプチャ・クロマキーボード63とを含む。メモリ61はDRAM(Dynamic Random Access Memory)又はSDRAM(Synchronous DRAM)等のRAMを用い、HDD62に替えてフラッシュメモリ、又はSSD(Solid State Drive )等の他の不揮発性記憶装置を用いてもよい。   The control unit 6 includes a CPU (Central Processing Unit) 60, a memory 61, an HDD (Hard Disk Drive) 62, and a capture / chroma keyboard 63 provided in the first PC. The memory 61 may be a RAM such as a DRAM (Dynamic Random Access Memory) or an SDRAM (Synchronous DRAM), and may be a flash memory or another nonvolatile storage device such as an SSD (Solid State Drive) instead of the HDD 62.

CPU60は、HDD62に記憶されている制御プログラム6Pを読み出し、メモリ61に各種情報を読み書きしながら前記制御プログラム6Pを実行することにより、以下の各機能を実現する。   The CPU 60 reads the control program 6P stored in the HDD 62, and executes the control program 6P while reading / writing various information in the memory 61, thereby realizing the following functions.

CPU60は、事前接客部1のコイン投入口にて所定料金の投入を受け付けた場合に事前接客部1から出力される制御信号を入力し、タッチパネル式のディスプレイに操作画面を出力させ、スピーカから案内音声を出力させる。また、CPU60は、事前接客部1のディスプレイに表示されている操作画面上の操作に対応する情報を事前接客部1から入力する。具体的にはCPU60は、ディスプレイ上の操作により、ユーザの名前、通信部5からの送信先アドレスに係る情報等を入力する。   The CPU 60 inputs a control signal output from the pre-service unit 1 when receiving a predetermined charge at the coin insertion slot of the pre-service unit 1, causes the touch panel display to output an operation screen, and guides from the speaker. Output audio. Further, the CPU 60 inputs information corresponding to the operation on the operation screen displayed on the display of the pre-service unit 1 from the pre-service unit 1. Specifically, the CPU 60 inputs the user name, information related to the transmission destination address from the communication unit 5 and the like by an operation on the display.

CPU60は、撮影部2にてカメラ21から得られるモニタ用の映像信号をキャプチャ・クロマキーボード63が入力するように制御し、キャプチャ・クロマキーボード63から映像信号に含まれる各フレームの画像データを取得し、取得したフレームの画像データに基づいてライブ画面用の画像の映像信号を作成し、作成した画像信号をディスプレイ22へ出力する。またCPU60は、撮影開始及び案内をユーザに通知するための撮影ガイドの画像信号をディスプレイ22へ出力し、音声信号をスピーカ24へ出力する。   The CPU 60 controls the capture unit 2 to input the monitor video signal obtained from the camera 21 to the capture / chroma keyboard 63 and acquires the image data of each frame included in the video signal from the capture / chroma keyboard 63. Then, a video signal of an image for a live screen is created based on the acquired frame image data, and the created image signal is output to the display 22. Further, the CPU 60 outputs an image signal of a shooting guide for notifying the user of shooting start and guidance to the display 22 and outputs an audio signal to the speaker 24.

CPU60は、撮影部2のカメラ21による撮影と照明装置群23によるフラッシュ点灯とを同期させて撮影を行なう。なおCPU60は、カメラ21による撮影を複数回実行する。CPU60は、撮影により得られる画像の複数の画像データをカメラ21から取得し、夫々を区別できるように識別情報を付与してHDD62に記憶すると共に、複製して画像処理部7へ出力する。   The CPU 60 performs photographing by synchronizing photographing by the camera 21 of the photographing unit 2 and flash lighting by the lighting device group 23. The CPU 60 executes photographing with the camera 21 a plurality of times. The CPU 60 acquires a plurality of image data of an image obtained by photographing from the camera 21, assigns identification information so that each can be distinguished, stores it in the HDD 62, duplicates it, and outputs it to the image processing unit 7.

HDD62は、CPU60が参照する各種情報を記憶する。HDD62は、CPU60が実行する制御プログラム6Pを予め記憶している。HDD62は、制御プログラム6Pのほかに、事前接客部1のディスプレイ及び撮影部2のディスプレイ22に表示する画像及びフォントデータ、事前接客部1のスピーカ及び撮影部2のスピーカ24から出力させる音声及び音楽等のデータを予め記憶している。また、HDD62には、撮影部2における写真撮影で得られる画像データが記憶される。   The HDD 62 stores various information referred to by the CPU 60. The HDD 62 stores a control program 6P executed by the CPU 60 in advance. In addition to the control program 6P, the HDD 62 displays images and font data to be displayed on the display of the pre-service section 1 and the display 22 of the photographing section 2, and sounds and music output from the speaker of the pre-service section 1 and the speaker 24 of the photographing section 2. Such data is stored in advance. The HDD 62 stores image data obtained by taking a picture in the photographing unit 2.

キャプチャ・クロマキーボード63は、キャプチャ機能及びクロマキー機能を有する回路基板である。キャプチャ・クロマキーボード63は、映像信号から毎秒30(29.97)枚のフレームの画像データを取得して静止画像として出力するキャプチャ機能を有する。またキャプチャ・クロマキーボード63は、静止画像から一定の範囲で所定の色調及び明度を有すると判断される画素を抽出し、抽出した画素に対してα値(透明度)を設定することにより一部の色を透明化して出力するクロマキー機能を有する。キャプチャ・クロマキーボード63は、カメラ21からのモニタ用の映像信号から順次フレームをキャプチャし、キャプチャして得られた静止画像に必要に応じてクロマキー処理を実行し、内蔵するメモリに書き込む。CPU60は、キャプチャ・クロマキーボード63内蔵のメモリから静止画像を順次読み出して、撮影部2のディスプレイ22に表示するライブ画面用の画像の画像信号を作成する。   The capture / chroma keyboard 63 is a circuit board having a capture function and a chroma key function. The capture / chroma keyboard 63 has a capture function of acquiring image data of 30 (29.97) frames per second from a video signal and outputting the image data as a still image. The capture / chroma keyboard 63 extracts pixels determined to have a predetermined color tone and brightness within a certain range from a still image, and sets an α value (transparency) for the extracted pixels. It has a chroma key function to make the color transparent and output. The capture / chroma keyboard 63 sequentially captures frames from the video signal for monitoring from the camera 21, executes chroma key processing on the still image obtained by the capture as necessary, and writes it in the built-in memory. The CPU 60 sequentially reads still images from a memory built in the capture / chroma keyboard 63 and creates an image signal of an image for a live screen to be displayed on the display 22 of the photographing unit 2.

画像処理部7は、第2PCに備えられたCPU70と、メモリ71と、HDD72と、グラフィックボード73とを備える。メモリ71は、DRAM又はSDRAM等のRAMを用いる。   The image processing unit 7 includes a CPU 70, a memory 71, an HDD 72, and a graphic board 73 provided in the second PC. The memory 71 uses a RAM such as DRAM or SDRAM.

CPU70は、HDD72に記憶されている画像処理プログラム7Pを読み出し、メモリ71に各種情報を読み書きしながら前記画像処理プログラム7Pに基づく画像処理を実行する。またCPU70は、制御部6から出力された画像データを、付与されている識別情報と共にメモリ71又はHDD72に記憶し、該画像データを基に加工処理を行なう。加工処理には、画像中の人物の顔を小顔にする加工、顔の頬部分の色味を明るくする(チーク)加工、髪に艶を出す加工、髪色を明るくする加工、目を大きくする加工、体のラインを細く見せるための加工、脚を長く見えるようにする加工等、種々の加工が含まれる。加工処理については詳細を後述する。なおこれらの加工処理の内の一部では、加工具合の強弱(多少)を複数の段階に分けて実行してもよい。CPU70は、加工の種類毎に段階数分だけ複製した画像データをメモリ71又はHDD72に記憶し、各画像データに夫々の段階で加工処理を実行し、加工後の複数の画像データをメモリ71又はHDD72に記憶する。   The CPU 70 reads the image processing program 7P stored in the HDD 72, and executes image processing based on the image processing program 7P while reading / writing various information from / to the memory 71. Further, the CPU 70 stores the image data output from the control unit 6 in the memory 71 or the HDD 72 together with the assigned identification information, and performs processing based on the image data. The processing includes processing to make the face of the person in the image a small face, brightening the color of the cheeks of the face (blushing), processing to gloss the hair, processing to brighten the hair color, large eyes Various processes are included, such as a process for making the body line appear thin, and a process for making the leg look longer. Details of the processing will be described later. In some of these processing processes, the strength (somewhat) of the processing condition may be executed in a plurality of stages. The CPU 70 stores in the memory 71 or the HDD 72 image data duplicated by the number of steps for each type of processing, executes processing on each image data in each step, and stores a plurality of processed image data in the memory 71 or Store in the HDD 72.

更にCPU70は、メモリ71又はHDD72に記憶してある撮影により得られた上述の加工処理前及び加工処理後の複数の画像データに基づき、第1編集部3a又は第2編集部3bにて落書き操作を受け付ける。CPU70は、落書き操作として受け付けた操作の内容に応じて、後述する落書き用操作画面のプレビュー表示部に表示する手書き文字又はメイクを含むスタンプ等の画像データを作成する。CPU70は、作成した画像データを第1編集部3a又は第2編集部3bのディスプレイへ出力する。更にCPU70は、落書き用操作画面のプレビュー表示部に表示されている確定した編集内容に応じて合成画像データを作成する。更にCPU70は、作成された合成画像データに基づき画像を写真シールシートに印刷出力する処理、合成画像データ又は合成処理前の画像データを通信部5から外部サーバ装置へ送信する処理を実行する。   Further, the CPU 70 performs a graffiti operation in the first editing unit 3a or the second editing unit 3b based on a plurality of image data before and after the above-described processing processing obtained by photographing stored in the memory 71 or the HDD 72. Accept. The CPU 70 creates image data such as a stamp including handwritten characters or makeup to be displayed on a preview display section of a graffiti operation screen, which will be described later, according to the content of the operation accepted as the graffiti operation. The CPU 70 outputs the created image data to the display of the first editing unit 3a or the second editing unit 3b. Further, the CPU 70 creates composite image data according to the confirmed editing content displayed in the preview display portion of the graffiti operation screen. Further, the CPU 70 executes processing for printing out an image on a photographic sticker sheet based on the generated composite image data, and processing for transmitting the composite image data or image data before the composite processing from the communication unit 5 to the external server device.

なおHDD72は、CPU70が参照する各種情報を記憶する。HDD72は、CPU70が実行する画像処理プログラム7Pを予め記憶している。HDD72は、第1編集部3a及び第2編集部3bのディスプレイに表示する案内用の文字画像、合成用の素材である文字、フォントデータ又は画像、スピーカから出力させる音楽及び音声等のデータを予め記憶している。HDD72は、合成用の素材である文字、フォントデータ、背景画像、及び前景画像等のデータを予め記憶している。HDD72は、受け付けた編集に基づく画像処理により得られた画像データ、合成後の画像の画像データが記憶される。   The HDD 72 stores various information referred to by the CPU 70. The HDD 72 stores an image processing program 7P executed by the CPU 70 in advance. The HDD 72 stores in advance data such as guidance character images to be displayed on the displays of the first editing unit 3a and the second editing unit 3b, characters, font data or images that are composition materials, music and voices to be output from a speaker, and the like. I remember it. The HDD 72 stores data such as characters, font data, a background image, and a foreground image, which are composition materials, in advance. The HDD 72 stores image data obtained by image processing based on accepted editing and image data of the combined image.

グラフィックボード73は、入力した画像データ及び描画命令に基づいて画像を描画し、描画した画像の画像データを出力するハードウェアである。CPU70は、制御部6から取得して記憶した画像データに対する画像処理を、グラフィックボード73を用いて行なう。具体的には、CPU70は画像データと、目的の画像を得るための描画命令とをグラフィックボード73に与えて処理を行なわせ、描画処理によって得られた画像の画像データをグラフィックボード73内蔵のメモリから入力する。描画処理には、拡縮、回転、移動、クロマキー機能、トリミング機能、α化機能、明度又は色調等の調整機能、フィルタ機能、合成機能等が含まれる。   The graphic board 73 is hardware that draws an image based on input image data and a drawing command and outputs image data of the drawn image. The CPU 70 uses the graphic board 73 to perform image processing on the image data acquired and stored from the control unit 6. Specifically, the CPU 70 gives image data and a drawing command for obtaining a target image to the graphic board 73 to perform processing, and the image data of the image obtained by the drawing processing is stored in a memory built in the graphic board 73. Enter from. The drawing process includes enlargement / reduction, rotation, movement, chroma key function, trimming function, alpha function, brightness or color tone adjustment function, filter function, composition function, and the like.

図3は、本実施の形態の撮影遊戯機にて実行される全体処理の一例を示すフローチャートである。以下の処理は、事前接客部1のタッチパネル式のディスプレイにおける操作及びコイン投入を制御部6のCPU60によって検知した場合に開始される。   FIG. 3 is a flowchart showing an example of the overall processing executed by the shooting game machine of the present embodiment. The following process is started when the CPU 60 of the control unit 6 detects an operation on the touch panel display of the advance customer service unit 1 and a coin insertion.

CPU60は、事前接客部1のタッチパネル式のディスプレイにて、ユーザの名前の入力、撮影コースの選択、出力されるシートデザイン(背景)の選択、又はアングル選択等を受け付ける(ステップS101)。CPU60は、撮影エリアAの空き状況を確認した上で、撮影エリアAが空いている場合には移動を促す移動案内画面をディスプレイに表示させると共に案内音声を出力する(ステップS102)。   The CPU 60 accepts input of a user name, selection of a shooting course, selection of an output sheet design (background), selection of an angle, or the like on the touch panel display of the customer service section 1 (step S101). The CPU 60 confirms the availability of the shooting area A. If the shooting area A is empty, the CPU 60 displays a movement guidance screen for prompting movement on the display and outputs a guidance voice (step S102).

次にCPU60は、撮影エリアA内にて撮影部2のディスプレイ22に、ステップS101で選択された撮影モード又はシートデザインに応じた撮影内容の案内画面を表示させ、案内音声及びBGMをスピーカ24から出力させる(ステップS103)。このとき案内画面には、撮影部2のカメラ21のモニタ出力に基づくライブ映像と、各撮影回のポーズ見本とが含まれるとよい。   Next, the CPU 60 causes the display 22 of the photographing unit 2 in the photographing area A to display a guidance screen for photographing contents according to the photographing mode or the sheet design selected in step S <b> 101, and guide voice and BGM from the speaker 24. Output (step S103). At this time, the guidance screen may include a live video based on the monitor output of the camera 21 of the photographing unit 2 and a pose sample for each photographing time.

CPU60は、ステップS101で選択された撮影モード又はシートデザインに応じて、制御部2のカメラ21及び照明装置群23を制御して複数回の撮影を実行する(ステップS104)。CPU60は、各回の撮影により得られる画像データを相互に識別することが可能にHDD62に記憶する(ステップS105)。ステップS104における複数回の撮影では、ステップS101で選択された撮影モード又はシートデザインに応じて、腰から上のアップの撮影及び足先も含む全身の撮影を区別する。そして各回の撮影では、アップ撮影なのか、全身撮影なのか等に応じて適切なカメラ21の傾き(俯角)、画角、照明の明暗で撮影が実行されるように制御するとよい。   The CPU 60 controls the camera 21 and the illumination device group 23 of the control unit 2 according to the shooting mode or the sheet design selected in step S101, and executes shooting a plurality of times (step S104). The CPU 60 stores the image data obtained by each shooting in the HDD 62 so as to be mutually distinguishable (step S105). In a plurality of times of shooting in step S104, the shooting from the waist up and the whole body shooting including the toes are distinguished according to the shooting mode or the seat design selected in step S101. In each shooting, it may be controlled so that the shooting is executed with an appropriate tilt of the camera 21 (an angle of depression), a field angle, and brightness of lighting depending on whether the shooting is an up-shooting or a whole-body shooting.

撮影が完了するとCPU60は、編集エリアBの空き状況を確認した上で、空いている場合には編集エリアBの第1編集部3a又は第2編集部3bのいずれかへの移動を促す案内画面をディスプレイ22に表示させると共に、案内音声をスピーカ24から出力させ(ステップS106)、制御部6における処理を終了する。なお以下の説明は第1編集部3aへ移動を促した場合を例に説明するが、第2編集部3bへ促した場合も同様の処理となるので詳細な説明は省略する。   When shooting is completed, the CPU 60 confirms the availability of the editing area B, and if it is available, the guidance screen prompts the user to move the editing area B to either the first editing unit 3a or the second editing unit 3b. Is displayed on the display 22 and a guidance voice is output from the speaker 24 (step S106), and the process in the control unit 6 is terminated. In the following description, the case where the first editing unit 3a is urged to move is described as an example. However, since the same processing is performed when the second editing unit 3b is urged, detailed description thereof is omitted.

次に画像処理部7における処理へ移行する。画像処理部7のCPU70は、制御部6のCPU60によりHDD62に記憶された画像データを取得する(ステップS107)。CPU70は、取得した複数のデータ毎に、所定の画像処理を実行する(ステップS108)。ここで所定の画像処理とは例えば以下のような処理である。CPU70はステップS108において、得られた複数の画像データに基づく画像から夫々、人物被写体を特定し、特定された人物被写体のマスク画像を作成し、人物被写体が適切に納まるようにトリミングを実行する。更にCPU70は、抽出した1又は複数の人物被写体領域毎に、顔認識技術に基づいて顔領域(輪郭)、並びに顔領域内の目、鼻、及び口の領域を特定する。CPU70は、特定された領域に基づいて顔を小顔にする加工、顔の頬部分の色味を明るくする(チーク)加工、髪に艶を出す加工、髪色を明るくする加工、目を大きくする加工、体のラインを細く見せるための加工、脚を長く見せる加工等の加工処理を実行する。なおこれらの加工処理の内、体のラインを細く見せ、且つ脚を長く見せる加工を含むスタイル補正処理について、詳細を後述する。   Next, the process proceeds to the processing in the image processing unit 7. The CPU 70 of the image processing unit 7 acquires the image data stored in the HDD 62 by the CPU 60 of the control unit 6 (step S107). The CPU 70 executes predetermined image processing for each of the plurality of acquired data (step S108). Here, the predetermined image processing is, for example, the following processing. In step S108, the CPU 70 specifies a person subject from each of the obtained images based on the plurality of image data, creates a mask image of the specified person subject, and performs trimming so that the person subject fits appropriately. Further, the CPU 70 specifies the face area (contour) and the eye, nose, and mouth areas in the face area based on the face recognition technique for each of the one or more extracted human subject areas. The CPU 70 processes the face to be small on the basis of the specified area, brightens the cheek color of the face (blush), processes to gloss the hair, processes to lighten the hair color, Processing such as processing to make the body line thin, processing to make the leg look longer, etc. is executed. Of these processing processes, the details of the style correction process including the process of making the body line appear thin and the leg long will be described later.

CPU70は、ステップS108の画像処理後、次の落書き操作画面を第1編集部3aのディスプレイ30aに表示させると共に、案内音声及び音楽をスピーカ33aから出力させる(ステップS109)。CPU70は、落書き操作画面上でディスプレイ30a及びタッチペン31aにより落書き操作を受け付ける(ステップS110)。   After the image processing in step S108, the CPU 70 displays the next graffiti operation screen on the display 30a of the first editing unit 3a, and outputs guidance voice and music from the speaker 33a (step S109). The CPU 70 receives a graffiti operation with the display 30a and the touch pen 31a on the graffiti operation screen (step S110).

CPU70は、撮影により得られた画像データに基づくステップS108の画像処理後の画像に、ステップS101で選択されたシートデザインの画像と、ステップS109の落書き操作で受け付けた文字又は画像とを合成する処理を実行する(ステップS111)。CPU70は、合成処理後の写真シールシートのプレビュー含む画面をディスプレイ30aに表示させる(ステップS112)。   The CPU 70 synthesizes the sheet design image selected in step S101 and the character or image received in the graffiti operation in step S109 with the image after the image processing in step S108 based on the image data obtained by shooting. Is executed (step S111). The CPU 70 displays a screen including a preview of the photo sticker sheet after the composition process on the display 30a (step S112).

CPU70は、印刷部4のプリンタが使用中であるか否かを確認した上で、使用中でない場合に印刷部4のプリンタにて写真シールシートの印刷出力を開始させる(ステップS113)。印刷出力処理が行なわれている間に、CPU70は、撮影された複数の画像の内、情報端末装置から入手可能とする画像の選択、情報の送信先アドレスの入力等の操作を第1編集部3aのディスプレイ30aにて受け付ける(ステップS114)。CPU70は、受け付けた操作に応じて選択された画像の画像データを外部サーバ装置へ送信する(ステップS115)。CPU70は印刷出力処理が終了するまで、第1編集部3aのディスプレイ30aにゲーム待機中画面を表示し(ステップS116)、印刷出力処理が完了した場合にはディスプレイ30aに印刷部4の前への移動を促す案内画面を表示させると共に、案内音声を出力させて(ステップS117)、処理を終了する。   The CPU 70 confirms whether or not the printer of the printing unit 4 is in use, and if it is not in use, causes the printer of the printing unit 4 to start printing out a photo sticker sheet (step S113). While the print output process is being performed, the CPU 70 performs operations such as selecting an image that can be obtained from the information terminal device among a plurality of captured images and inputting an information transmission destination address. It is received by the display 30a of 3a (step S114). The CPU 70 transmits the image data of the image selected according to the accepted operation to the external server device (step S115). The CPU 70 displays a game standby screen on the display 30a of the first editing unit 3a until the print output process is completed (step S116). When the print output process is completed, the CPU 30 displays the screen before the print unit 4 on the display 30a. A guidance screen for prompting movement is displayed and guidance voice is output (step S117), and the process is terminated.

図3のフローチャートに示した処理が行なわれることにより、ユーザらは、撮影遊戯機における撮影自体を楽しむと共に、印刷出力された写真シールシートと、外部サーバ装置を介した画像データとを得ることができる。   By performing the processing shown in the flowchart of FIG. 3, the user can enjoy the shooting itself in the shooting game machine and obtain the printed photo sticker sheet and the image data via the external server device. it can.

上述のステップS108において実行される所定の画像処理の内、スタイル補正処理について説明する。図4は、スタイル補正処理の手順の一例を示すフローチャートである。CPU70は、全身撮影により得られた画像を取得する(ステップS21)。予め選択されたシートデザイン、アングル等(図3のS101)の設定に応じて、撮影の回数毎の画角及び俯角、照明の明暗が設定され、その設定情報が一回のプレイ毎に記憶される。設定情報に基づいて撮影部2はカメラ21の俯角及び画角、照明装置群23を制御する。そして画像処理部7のCPU70は該設定情報に基づいて、全身撮影による画像データを特定して取得することが可能である。   Of the predetermined image processing executed in step S108 described above, the style correction processing will be described. FIG. 4 is a flowchart illustrating an example of the procedure of style correction processing. CPU70 acquires the image obtained by whole body imaging | photography (step S21). The angle of view and depression angle for each number of times of shooting and the brightness of lighting are set according to the settings of the sheet design, angle, etc. (S101 in FIG. 3) selected in advance, and the setting information is stored for each play. The Based on the setting information, the photographing unit 2 controls the depression angle and the angle of view of the camera 21 and the illumination device group 23. Then, the CPU 70 of the image processing unit 7 can specify and acquire image data obtained by whole-body imaging based on the setting information.

CPU70は、取得した画像に対して抽出されている人物被写体領域に基づいて、人物被写体の脚の状態を推定判断する(ステップS22)。ステップS22の脚の状態の推定判断処理については詳細を後述する。   The CPU 70 estimates and determines the state of the leg of the person subject based on the person subject area extracted for the acquired image (step S22). Details of the leg state estimation determination process in step S22 will be described later.

CPU70は推定判断された脚の状態が、脚を曲げている状態であるか否かを判断する(ステップS23)。ここで脚を曲げている状態とは例えば片方の脚の膝から先を、後ろ向き又は横方向へ持ち上げ、膝から先の脚部分が床に対して垂直でない方向に向かっている状態である。持ち上げている脚の足先は床に着いていてもよい。また、両脚を交差させて立っている状態であって脚部分が床に対して垂直でない状態も含まれてもよいし、一方の脚をカメラ21側へ伸ばして出している状態であってもよい。   The CPU 70 determines whether or not the estimated leg state is a state where the leg is bent (step S23). Here, the state where the leg is bent is, for example, a state where the tip of one leg is lifted backward or laterally, and the leg portion from the knee is directed in a direction not perpendicular to the floor. The feet of the lifting leg may be on the floor. Further, it may include a state where both legs are crossed and the leg portion is not perpendicular to the floor, or a state where one leg is extended to the camera 21 side. Good.

ステップS23にて脚を曲げている状態でないと判断された場合(S23:NO)、人物被写体は脚を曲げずに写っていると推定されるのでCPU70は、膝下部分に対応する領域を特に伸長するスタイル補正処理を実行する(ステップS24)。ステップS24におけるスタイル補正処理は例えば、取得された矩形画像を全体として縦方向に伸長させる。画角及び俯角で予め判別されている画像内における床面を含まない範囲であって、統計的に膝部分が写る高さとしてHDD72に記憶されている位置から下の領域を他領域よりも高い割合で縦方向に伸長させて行なわれる。   If it is determined in step S23 that the leg is not bent (S23: NO), it is estimated that the human subject is captured without bending the leg, so the CPU 70 particularly extends the region corresponding to the lower knee part. The style correction process is executed (step S24). In the style correction processing in step S24, for example, the acquired rectangular image is extended in the vertical direction as a whole. The range that does not include the floor in the image determined in advance by the angle of view and the depression angle, and the area below the position stored in the HDD 72 as the height at which the knee portion is statistically reflected is higher than the other areas It is performed by extending in the vertical direction at a rate.

ステップS23にて脚を曲げている状態であると判断された場合(S23:YES)、人物被写体は脚を曲げて写っているか、又は脚ではないもの(カバン、スカート等)が大きく写っていると推定される。曲げた脚部分又は脚ではないものを、上述のステップS24のように一部を特に伸長させた場合、極端に歪んで見える。そこでステップS23で脚を曲げている状態であると判断された場合(S23:YES)、CPU70は、脚部分を含む領域の伸長を複数箇所で分散して全体的に伸長させるスタイル補正処理を実行する(ステップS25)。ステップS25における伸長処理は例えば、画角及び俯角で予め判別されている画像内における床面を含まない範囲であって、統計的に股下が写る高さとしてHDD72に記憶されている位置から下の領域を均等な割合で縦方向に伸長させて行なわれる。   If it is determined in step S23 that the leg is bent (S23: YES), the human subject is shown with a bent leg or something that is not a leg (bag, skirt, etc.) It is estimated to be. When a part of a bent leg or a leg that is not a leg is particularly elongated as in step S24 described above, it appears to be extremely distorted. Therefore, if it is determined in step S23 that the leg is bent (S23: YES), the CPU 70 executes a style correction process that extends the region including the leg portion at a plurality of locations and expands the entire region. (Step S25). The decompression process in step S25 is, for example, a range that does not include the floor surface in the image that has been previously determined by the angle of view and the depression angle, and is below the position stored in the HDD 72 as the height at which the inseam is statistically reflected. This is done by extending the region in the vertical direction at an equal rate.

ステップS22における脚の状態の推定判断処理について詳細に説明する。図5は、脚の状態の推定判断の処理手順の一例を示すフローチャートである。   The leg state estimation determination process in step S22 will be described in detail. FIG. 5 is a flowchart illustrating an example of a processing procedure for determining and estimating the leg state.

CPU70は、取得した画像に対して抽出されている人物被写体領域についてのマスク画像(人物被写体領域に対応する画素がα化されている画像)を取得する(ステップS301)。なおCPU70は、取得したマスク画像は例えば画像サイズ(縦横)を1/10に縮小してから以下の処理を実行する。   The CPU 70 acquires a mask image (an image in which pixels corresponding to the person subject area are α) for the person subject area extracted from the acquired image (step S301). The CPU 70 executes the following processing after reducing the image size (vertical / horizontal) of the acquired mask image to 1/10, for example.

CPU70は、マスク画像から脚部分を含む矩形領域を抽出する(ステップS302)。ステップS302で抽出される矩形領域は、画角及び俯角で予め判別されている画像内における床面を含まない範囲であって、統計的に股下が写る高さとしてHDD72に記憶されている位置から下の領域である。   The CPU 70 extracts a rectangular area including the leg portion from the mask image (step S302). The rectangular area extracted in step S302 is a range that does not include the floor surface in the image determined in advance by the angle of view and the depression angle, and from the position stored in the HDD 72 as the height at which the inseam is statistically reflected. The lower area.

CPU70は、抽出した矩形領域内の人物被写体領域の輪郭を特定する(ステップS303)。輪郭の特定はグラフィックボード73のフィルタ処理を利用してもよい。CPU70は、画像内における所定の向き(例えば、画像の左上から下方向及び右方向)に順に、輪郭上に所定間隔で代表点を特定する(ステップS304)。所定間隔とは例えば、元の画像サイズが約3000ピクセル×5000ピクセルであって、マスク画像を1/10に縮小してから用いる場合、15ピクセル間隔とする。所定間隔は画像サイズ及び縮小率から定められてもよいし、又は画像内における顔、頭、肩幅等の身体の大きさに応じて決められてもよい。   The CPU 70 specifies the outline of the person subject area in the extracted rectangular area (step S303). The contour may be specified by using the filter processing of the graphic board 73. The CPU 70 specifies representative points on the contour at predetermined intervals in order in a predetermined direction in the image (for example, from the upper left to the lower and right directions of the image) (step S304). The predetermined interval is, for example, an interval of 15 pixels when the original image size is about 3000 pixels × 5000 pixels and the mask image is used after being reduced to 1/10. The predetermined interval may be determined from the image size and the reduction ratio, or may be determined according to the size of the body such as the face, head, and shoulder width in the image.

CPU70は、各代表点における輪郭に対する接線ベクトルを算出する(ステップS305)。接線ベクトルは長さが規準化(例えば10ピクセル分の長さ)されているとよい。算出された各接線ベクトルに対してCPU70は、画像における横方向の成分の長さを算出し(ステップS306)、全代表点の横方向の成分の長さの合計を算出する(ステップS307)。   The CPU 70 calculates a tangent vector for the contour at each representative point (step S305). The tangent vector may be normalized in length (for example, a length corresponding to 10 pixels). For each calculated tangent vector, the CPU 70 calculates the length of the horizontal component in the image (step S306), and calculates the total length of the horizontal components of all representative points (step S307).

CPU70は、算出された合計値がHDD72に記憶されてある所定値以上であるか否かを判断する(ステップS308)。合計値が所定値以上であると判断された場合(S308:YES)、CPU70は脚を曲げている状態であると判断して(ステップS309)、処理を図4のステップS23へ戻す。   CPU 70 determines whether or not the calculated total value is equal to or greater than a predetermined value stored in HDD 72 (step S308). If it is determined that the total value is equal to or greater than the predetermined value (S308: YES), the CPU 70 determines that the leg is bent (step S309), and the process returns to step S23 in FIG.

ステップS308にて合計値が所定値未満であると判断された場合(S308:NO)、CPU70は脚を曲げていない状態であると判断して(ステップS310)、処理を図4のステップS23へ戻す。   When it is determined in step S308 that the total value is less than the predetermined value (S308: NO), the CPU 70 determines that the leg is not bent (step S310), and the process proceeds to step S23 in FIG. return.

なおステップS304で特定した代表点の数が所定数以上である場合には、脚が写るべき領域に脚以外の物例えば、カバン、スカート等の服飾、又は他の人の脚以外体の一部が写っていることが推定されるので、ステップS305の処理は行なわないようにしてもよい。この場合は脚を曲げている状態と特定し、膝下部分を特に伸長させる処理(S24)を行なわないようにしてもよい。   If the number of representative points specified in step S304 is equal to or greater than the predetermined number, objects other than the legs, for example, clothes such as bags and skirts, or parts of other bodies other than the legs of other people in the region where the legs are to be captured Therefore, the process of step S305 may not be performed. In this case, it may be determined that the leg is bent, and the process of particularly extending the lower knee portion (S24) may not be performed.

図5のフローチャートに示した例では、マスク画像に基づいて輪郭を特定し、特定した輪郭から脚と推定される部分が曲がっているか否かを判断した。しかしながら脚の状態を推定判断する処理は図5のフローチャートに示した手順に限られないことは勿論である。
更には例えば異なる方向から撮影するカメラを用いて、複数の方向からの画像に基づいて3次元的に脚部分の状態を推定するか、又は赤外線LED及び赤外線LEDからの反射光を検知するセンサを用いて脚部分の状態を立体的に捉えるなどしてもよい。
In the example shown in the flowchart of FIG. 5, the contour is specified based on the mask image, and it is determined whether the portion estimated to be a leg is bent from the specified contour. However, it goes without saying that the process of estimating and determining the state of the leg is not limited to the procedure shown in the flowchart of FIG.
Furthermore, for example, using a camera that captures images from different directions, the state of the leg portion is estimated three-dimensionally based on images from a plurality of directions, or an infrared LED and a sensor that detects reflected light from the infrared LED. It may be used to capture the state of the leg portion in three dimensions.

次に、図4のフローチャートに示した処理手順の内のステップS24及びステップS25の伸長処理、並びに図5のフローチャートに示した脚の状態の推定判断処理について、具体例を挙げて説明する。図6は、全身撮像により得られる画像の一例を示す説明図である。図6に示す画像は、図3におけるステップS108の所定の画像処理を行なう前の画像である。   Next, the decompression process of steps S24 and S25 in the process procedure shown in the flowchart of FIG. 4 and the leg state estimation determination process shown in the flowchart of FIG. 5 will be described with specific examples. FIG. 6 is an explanatory diagram illustrating an example of an image obtained by whole body imaging. The image shown in FIG. 6 is an image before performing the predetermined image processing in step S108 in FIG.

図6に示す例では、図中右側に写っている人物は身体をカメラ21に対して右側へ向け、左足を後ろ側に跳ね上げた姿勢を取っている。これにより図6中では人物被写体領域における脚の領域が横向き(外向き)に写っている。この右側に写っている人物も含めて二人の脚部分を伸長させるべく、例えば、床面より上の範囲であって膝下の部分を伸長させる処理を行なった場合、脚が横向きになっているので特に脹脛部分が極端に太く加工される可能性がある。   In the example shown in FIG. 6, the person shown on the right side in the figure has a posture in which the body is directed to the right side with respect to the camera 21 and the left foot is flipped up to the rear side. Thereby, in FIG. 6, the leg region in the human subject region is shown sideways (outward). In order to extend the legs of two people, including the person shown on the right side, for example, when processing is performed to extend the area below the floor and below the knee, the legs are sideways. Therefore, there is a possibility that the calf part is processed to be extremely thick.

図7〜図10は、脚の状態の推定判断の過程を示す説明図である。図7は図6に示す画像に対して作成されたマスク画像(人物被写体領域)から、ステップS302により抽出された矩形領域を示している。図7中白抜き部分はα値が比較的高い領域であり、人物被写体領域に対応する。図7中の2本の一点鎖線の内、下部に存在する一点鎖線は画像内における床面の背景側の境界に対応している。画像内における床面の背景側の境界の位置は、HDD72に予め記憶されている。また上部に存在する一点鎖線は、統計的に股下が写る高さに対応する。画像内における股下が写る高さについても、HDD72に予め記憶されている。   7-10 is explanatory drawing which shows the process of the estimation judgment of the state of a leg. FIG. 7 shows a rectangular area extracted in step S302 from the mask image (person subject area) created for the image shown in FIG. A white portion in FIG. 7 is a region having a relatively high α value and corresponds to a human subject region. Of the two alternate long and short dash lines in FIG. 7, the alternate long and short dash line corresponds to the boundary on the background side of the floor surface in the image. The position of the boundary on the background side of the floor in the image is stored in advance in the HDD 72. Also, the alternate long and short dash line at the top corresponds to the height at which the inseam is statistically reflected. The height at which the crotch is shown in the image is also stored in the HDD 72 in advance.

図8は、ステップS302で抽出された矩形領域内の輪郭上で特定された代表点を示し、図9は代表点上で算出された接線ベクトルを太線で示し、図10は接線ベクトルの1つの拡大図である。図8のように、画像処理部7のCPU70によるステップS304の処理で所定間隔毎に代表点が特定された場合、各代表点上での接線ベクトルは図9のように画像内の左上から輪郭をなぞるようにして算出される。図10の拡大図に示すように、輪郭に対する接線ベクトルは画像における縦方向の成分と横方向の成分とに分解され、接線ベクトルの大きさを例えば10とした場合の各成分の長さ(スカラ値)が算出される。図6の画像の場合、図9に示す各代表点上の接線ベクトルの横方向の成分の長さの合計値は、脚が横向きに写っているために所定値以上であると判断される。   FIG. 8 shows representative points identified on the contour in the rectangular area extracted in step S302, FIG. 9 shows tangent vectors calculated on the representative points by bold lines, and FIG. 10 shows one of the tangent vectors. It is an enlarged view. As shown in FIG. 8, when representative points are specified at predetermined intervals in the process of step S304 by the CPU 70 of the image processing unit 7, the tangent vector on each representative point is contoured from the upper left in the image as shown in FIG. It is calculated by tracing. As shown in the enlarged view of FIG. 10, the tangent vector with respect to the contour is decomposed into a vertical component and a horizontal component in the image, and the length of each component when the magnitude of the tangent vector is set to 10, for example (scalar). Value) is calculated. In the case of the image of FIG. 6, the total value of the lengths of the horizontal components of the tangent vectors on the representative points shown in FIG. 9 is determined to be greater than or equal to a predetermined value because the legs are shown in the horizontal direction.

このように、奥行き方向の情報がない二次元の撮影画像から輪郭の接線ベクトルの横方向の成分の長さの合計を算出し、所定値と比較することで脚が曲がっているか否かを判断する。各代表点で抽出された矩形領域内全体での横向き成分の長さの合計をとることによって、全体として脚が横向きに曲がっている状態を推定判断できる可能性が高まるとの知見が得られたためである。   In this way, the total length of the horizontal components of the contour tangent vector is calculated from a two-dimensional captured image without depth information, and compared with a predetermined value to determine whether the leg is bent or not. To do. The knowledge that the possibility of estimating and judging the state where the legs are bent sideways as a whole is increased by taking the total length of the horizontal components in the entire rectangular area extracted at each representative point. It is.

図11は、スタイル補正処理における2つの伸長処理の差異を示す説明図である。図11中の上部の矩形はスタイル補正処理前の矩形画像を示しており、更に該矩形画像を横8、及び縦10に分割するメッシュ線が示されている。下部の2つの矩形の内のAは、図4のフローチャートにおけるステップS24の処理に対応し、膝下範囲を他領域よりも長く伸長させる場合のメッシュの変形態様を示している。2つの矩形の内のBは、図4のフローチャートにおけるステップS25の処理に対応し、脚部分を全体的に複数箇所で分散させるようにして伸長させる場合のメッシュの変形態様を示している。   FIG. 11 is an explanatory diagram showing a difference between two decompression processes in the style correction process. The upper rectangle in FIG. 11 shows a rectangular image before the style correction process, and further mesh lines that divide the rectangular image into 8 and 10 are shown. A in the lower two rectangles corresponds to the processing in step S24 in the flowchart of FIG. 4 and shows a deformation mode of the mesh when the lower knee range is extended longer than the other regions. B in the two rectangles corresponds to the process of step S25 in the flowchart of FIG. 4 and shows a deformation mode of the mesh when the leg portions are extended so as to be dispersed at a plurality of locations as a whole.

図11にて示されているように、ステップS24に対応するメッシュの変形(A)では脚の膝下部分が写るであろう領域が、他領域よりも極端に長く縦方向に伸長されている。具体的には、脚部分領域を20%縦方向に伸長させるとした場合、図11の変形(A)では特に伸長させている部分(矢印に示す膝下部分)でほぼ20%伸長させる。これにより脚長に見える効果が期待できる。また腰の周辺の領域では、胴体が短めに写るように他領域よりも縦方向に収縮されている。これにより、同様にして脚長に見える効果が期待できる。そしてスタイル補正のために、全体的に画像の上部の横幅を下部の横幅よりも縮小させるように変形されている。つまり人物被写体領域の上部が画像の奥行き方向における奥側へ倒されるような変形とされている。これにより、人物被写体領域が全体的に縦方向に引き伸ばされ、手足が長くすらっとしたスタイルへの補正が実現される。更にステップS24に対応するメッシュの変形では、撮影空間の中での撮影では足(靴)は大きめに写るから、床面に対応する領域は縦方向に収縮させるように変形されている。   As shown in FIG. 11, in the mesh deformation (A) corresponding to step S <b> 24, the region where the lower knee part of the leg is reflected is extended in the longitudinal direction extremely longer than the other regions. Specifically, if the leg portion region is extended 20% in the vertical direction, in the deformation (A) of FIG. 11, the portion that is particularly extended (the lower knee portion indicated by the arrow) is extended approximately 20%. As a result, an effect that looks like a leg length can be expected. In the area around the waist, the body is contracted in the vertical direction more than the other areas so that the body appears shorter. Thereby, the effect which looks like a leg length similarly can be anticipated. In order to correct the style, the entire width of the upper portion of the image is deformed to be smaller than the width of the lower portion. That is, the upper part of the person subject area is deformed so as to be tilted to the back side in the depth direction of the image. As a result, the human subject area is stretched in the vertical direction as a whole, and correction to a style in which the limbs are long and smooth is realized. Furthermore, in the deformation of the mesh corresponding to step S24, the foot (shoes) appears larger when shooting in the shooting space, so the area corresponding to the floor surface is deformed so as to contract in the vertical direction.

そして図11に示されているように、ステップS25に対応するメッシュの変形(B)では、ステップS24に対応するメッシュの変形と比較して他領域よりも極端に長く伸長されている領域はない。具体的には、上述のメッシュの変形(A)では膝下部分で20%伸長させていたのに対し、変形(B)では膝下部分を5%として残りの脚領域に対応するメッシュ部分で各2%ずつ伸長させる。ステップS25に対応する変形でも腰の周辺の領域では、胴体が短めに写るように他領域よりも縦方向に収縮されているが、脚部分における領域の伸長の程度は全体的に均等に分散している。これにより、一部の領域が極端に引き伸ばされていることで逆に目立つことが回避されつつも、脚長に見える効果が期待できる。ステップS25に対応する変形でも同様に、全体的に画像の上部の横幅を下部の横幅よりも縮小させるように変形されている。つまり人物被写体領域の上部が画像の奥行き方向における奥側へ倒されるような変形とされている。人物被写体領域が全体的に縦方向に引き伸ばされ、手足が長くすらっとしたスタイルへの補正が実現される。   And in the deformation | transformation (B) of the mesh corresponding to step S25, as FIG. 11 shows, compared with the deformation | transformation of the mesh corresponding to step S24, there is no area | region extended extremely longer than the other area | region. . Specifically, in the above-described mesh deformation (A), the lower knee portion was stretched by 20%, whereas in the deformation (B), the lower knee portion was 5% and each mesh portion corresponding to the remaining leg region was 2%. Extend by%. Even in the deformation corresponding to step S25, in the region around the waist, the body is contracted in the vertical direction more than the other region so that the trunk is reflected in a shorter direction, but the extent of the region extension in the leg portion is distributed evenly as a whole. ing. As a result, it is possible to expect the effect of appearing as a leg length while avoiding conspicuous conversely due to a part of the region being extremely stretched. Similarly, in the deformation corresponding to step S25, the entire width of the upper portion of the image is deformed to be smaller than the width of the lower portion. That is, the upper part of the person subject area is deformed so as to be tilted to the back side in the depth direction of the image. The human subject area is stretched in the vertical direction as a whole, and correction to a style in which the limbs are long and slender is realized.

なお図11のステップS25に対応するメッシュの変形(B)では、脚部分における領域の伸長の程度は全体的に均等である。しかしながらこれに限らず、横向きの成分の長さが比較的大きな接線ベクトルが算出される代表点を含む範囲は伸長させないように構成してもよい。この場合、他の範囲で伸長させるように伸長の程度に差異を設けるようにしてもよい。更に、横向きの成分の長さに応じて、伸長の程度を全体に均等としたパターンから膝下部分をより強調して伸ばすパターンとの中間の段階を含む複数のパターンで脚部分を伸長させ、選択可能な構成としてもよい。   Note that in the deformation (B) of the mesh corresponding to step S25 in FIG. 11, the extent of the extension of the region in the leg portion is generally uniform. However, the present invention is not limited to this, and a range including a representative point where a tangent vector having a relatively long horizontal component length is calculated may be configured not to be expanded. In this case, you may make it provide a difference in the extent of expansion | extension so that it may extend in another range. Furthermore, depending on the length of the component in the horizontal direction, the leg part is selected by extending the leg part in multiple patterns, including an intermediate stage from the pattern in which the degree of extension is uniform throughout the pattern to emphasize the lower part of the knee. It is good also as a possible structure.

図12は、図6に示した画像に対するスタイル補正処理の結果を示す説明図である。なお図12は、図6の画像の内の特に脚の部分のみを拡大して示している。図12中の上部には図11のAのメッシュの変形を適用した場合(S24)のスタイル補正の結果を示し、下部には図11のBのメッシュの変形を適用した場合(S25)のスタイル補正の結果を示している。図12の上部及び下部を比較した場合、上部のスタイル補正の結果では右側に写っている人物の左脚が横向きになっているので特に脹脛部分が極端に太く見えるように加工されている。下部のスタイル補正の結果では、脚の領域の特定の箇所が極端に太く、又は極端に細長く加工されていることはなく、全体として縦方向に伸長されていることが明らかである。   FIG. 12 is an explanatory diagram showing the result of the style correction processing for the image shown in FIG. Note that FIG. 12 shows only the leg portion in the image of FIG. 6 in an enlarged manner. The upper part of FIG. 12 shows the result of the style correction when the mesh deformation of A of FIG. 11 is applied (S24), and the lower part is the style of the case of applying the mesh deformation of B of FIG. 11 (S25). The result of correction is shown. When the upper part and the lower part of FIG. 12 are compared, in the result of the style correction of the upper part, the left leg of the person shown on the right side is turned sideways, so that the calf part is particularly processed to be extremely thick. As a result of the lower style correction, it is clear that specific portions of the leg region are not processed to be extremely thick or extremely long and are elongated in the vertical direction as a whole.

上述に示したメッシュに基づく伸長処理は、全身撮影により得られた画像に対して行なわれる。カメラ21の画角又は俯角に応じてメッシュに基づく伸長処理をするかしないかの設定を行なったり、伸長処理を行なう場合でも画角又は俯角に応じてメッシュの変形態様を調整したりするとよい。これにより自然に且つスタイル良く写る撮影結果が得られる。   The above-described decompression process based on the mesh is performed on an image obtained by whole body photography. It is preferable to set whether or not to perform the expansion process based on the mesh according to the angle of view or the depression angle of the camera 21 or to adjust the deformation mode of the mesh according to the angle of view or the depression angle even when the expansion process is performed. As a result, it is possible to obtain a photographing result that naturally and in a good style.

なお、上述のように開示された本実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be understood that the embodiment disclosed above is illustrative in all respects and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

7 画像処理部
70 CPU
71 メモリ
72 HDD
73 グラフィックボード
7P 画像処理プログラム
7 Image processing unit 70 CPU
71 Memory 72 HDD
73 graphics board 7P image processing program

Claims (7)

人物被写体を撮影する撮影装置から画像データを取得する取得手段と、取得した画像データに基づく画像から人物被写体領域を抽出する抽出手段とを備え、前記画像の前記人物被写体領域を含む範囲を前記人物被写体の身長方向に伸長させる画像処理を行なう画像処理装置において、
前記画像内の人物被写体の脚が曲げられた状態であるか否かを判断する判断手段と、
前記判断手段により脚が曲げられた状態であると判断されたか否かに応じて、前記人物被写体の脚部分の領域を相異なるパターンで伸長する伸長手段と
を備えることを特徴とする画像処理装置。
An acquisition unit that acquires image data from a photographing device that captures a human subject; and an extraction unit that extracts a human subject region from an image based on the acquired image data, and the range including the human subject region of the image is included in the person In an image processing apparatus that performs image processing for extending in the height direction of a subject,
Determining means for determining whether or not a leg of a human subject in the image is bent;
An image processing apparatus comprising: extension means for extending a leg portion area of the person subject in a different pattern depending on whether or not the determination means determines that the leg is bent. .
前記伸長手段は、
前記判断手段により脚が曲げてられていない状態であると判断された場合、前記人物被写体領域の内の膝下部分に対応する領域を他領域よりも長く伸長する第1伸長手段と、
前記判断手段により脚が曲げられた状態であると判断された場合、前記人物被写体の脚部分の領域を、複数箇所に分散させて伸長する第2伸長手段と
を有することを特徴とする請求項1に記載の画像処理装置。
The extension means includes
A first extension means for extending an area corresponding to a lower knee portion of the person subject area longer than other areas when the determination means determines that the leg is not bent;
2. The apparatus according to claim 1, further comprising: a second extending unit that extends the region of the leg portion of the human subject in a distributed manner when the leg is determined to be bent by the determining unit. The image processing apparatus according to 1.
前記判断手段は、
前記人物被写体領域の輪郭を特定する手段と、
特定された輪郭の内、脚部分が含まれる所定範囲内における輪郭線の画像内における前記身長方向に対する向きを特定する向き特定手段と
を備え、
該特定手段により特定された向きが横向きと判断された場合に、脚を曲げている状態であると判断する
ことを特徴とする請求項1又は2に記載の画像処理装置。
The determination means includes
Means for identifying an outline of the person subject area;
Direction specifying means for specifying a direction with respect to the height direction in an image of a contour line in a predetermined range including a leg portion of the specified contour, and
The image processing apparatus according to claim 1, wherein when the direction specified by the specifying unit is determined to be horizontal, it is determined that the leg is bent.
前記特定手段は、
輪郭線上に所定間隔で複数の点を特定する手段と、
前記複数の点における前記輪郭線の接線の前記画像内の横方向における大きさの合計を算出する手段と、
算出された合計が所定値よりも大きいか否かを判断する手段と
を備え、
該手段により大きいと判断された場合に横向きと判断する
ことを特徴とする請求項3に記載の画像処理装置。
The specifying means is:
Means for identifying a plurality of points at predetermined intervals on the contour line;
Means for calculating the sum of the horizontal sizes in the image of tangents of the contour lines at the plurality of points;
Means for determining whether the calculated total is larger than a predetermined value,
The image processing apparatus according to claim 3, wherein when it is determined that the means is larger, it is determined to be in a landscape orientation.
前記第2伸長手段は、曲げられた脚部分以外の箇所で伸長を分散させる
ことを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the second elongating unit disperses the elongation at a place other than the bent leg portion.
人物被写体を撮影する撮影装置から画像データを取得する手段、取得した画像データに基づく画像から人物被写体領域を抽出する手段を備える画像処理装置が、前記画像の前記人物被写体領域を含む範囲を前記人物被写体の身長方向に伸長させる画像処理を行なう画像処理方法において、
前記画像処理装置は、
前記画像内の人物被写体の脚が曲げられた状態であるか否かを判断し、
脚が曲げられた状態であると判断されたか否かに応じて、前記人物被写体の脚部分の領域を相異なるパターンで伸長する
ことを特徴とする画像処理方法。
An image processing apparatus comprising means for acquiring image data from a photographing device that captures a person subject, and means for extracting a person subject region from an image based on the acquired image data. In an image processing method for performing image processing for extending in the height direction of a subject,
The image processing apparatus includes:
Determining whether the leg of the human subject in the image is bent,
An image processing method, comprising: extending a region of a leg portion of the person subject with a different pattern depending on whether or not the leg is determined to be bent.
撮影装置と接続されるコンピュータに、前記撮像装置から画像データを取得し、該画像データに基づく画像から人物被写体領域を抽出し、前記画像の前記人物被写体領域を含む範囲を人物被写体の身長方向に伸長させる画像処理を実行させるコンピュータプログラムにおいて、
前記コンピュータに、
画像内の人物被写体の脚が曲げられた状態であるか否かを判断するステップ、及び
脚が曲げられた状態であると判断されたか否かに応じて、前記人物被写体の脚部分の領域を相異なるパターンで伸長するステップ
を実行させることを特徴とするコンピュータプログラム。
A computer connected to the image capturing device acquires image data from the image capturing device, extracts a human subject region from an image based on the image data, and sets a range including the human subject region in the image in the height direction of the human subject. In a computer program for executing image processing for decompression,
In the computer,
The step of determining whether or not the leg of the human subject in the image is bent, and whether or not the leg portion area of the human subject is determined according to whether or not the leg is determined to be bent A computer program for executing a step of expanding with different patterns.
JP2015151217A 2015-07-30 2015-07-30 Image processing apparatus, image processing method, and computer program Active JP6685094B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015151217A JP6685094B2 (en) 2015-07-30 2015-07-30 Image processing apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015151217A JP6685094B2 (en) 2015-07-30 2015-07-30 Image processing apparatus, image processing method, and computer program

Publications (2)

Publication Number Publication Date
JP2017034409A true JP2017034409A (en) 2017-02-09
JP6685094B2 JP6685094B2 (en) 2020-04-22

Family

ID=57988984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015151217A Active JP6685094B2 (en) 2015-07-30 2015-07-30 Image processing apparatus, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP6685094B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108898118A (en) * 2018-07-04 2018-11-27 腾讯科技(深圳)有限公司 A kind of video data handling procedure, device and storage medium
JP2018195881A (en) * 2017-05-12 2018-12-06 フリュー株式会社 Photo seal creation device, photo seal manufacturing method, and photo seal manufacturing processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251633A (en) * 2008-04-01 2009-10-29 Seiko Epson Corp Image processor, image processing method and program
JP2012169987A (en) * 2011-02-16 2012-09-06 Tatsumi Denshi Kogyo Kk Automatic photograph making device
JP2014186524A (en) * 2013-03-22 2014-10-02 Mega Chips Corp Person detection device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251633A (en) * 2008-04-01 2009-10-29 Seiko Epson Corp Image processor, image processing method and program
JP2012169987A (en) * 2011-02-16 2012-09-06 Tatsumi Denshi Kogyo Kk Automatic photograph making device
JP2014186524A (en) * 2013-03-22 2014-10-02 Mega Chips Corp Person detection device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195881A (en) * 2017-05-12 2018-12-06 フリュー株式会社 Photo seal creation device, photo seal manufacturing method, and photo seal manufacturing processing program
CN108898118A (en) * 2018-07-04 2018-11-27 腾讯科技(深圳)有限公司 A kind of video data handling procedure, device and storage medium
CN108898118B (en) * 2018-07-04 2023-04-18 腾讯科技(深圳)有限公司 Video data processing method, device and storage medium

Also Published As

Publication number Publication date
JP6685094B2 (en) 2020-04-22

Similar Documents

Publication Publication Date Title
US8648924B2 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for generating a combination image on a display of the capturing apparatus
JP5360450B2 (en) Image processing apparatus, image processing method, and computer program
JP5874421B2 (en) Game shooting device, game shooting method and program
JP2017147621A (en) Image processing apparatus, image processing method and computer program
JP6685094B2 (en) Image processing apparatus, image processing method, and computer program
JP5555924B2 (en) Shooting game machine, shooting game machine control method, and computer program
JP5668514B2 (en) Automatic photo creation device
JP6880394B2 (en) Photographing game console and shooting method
JP5910639B2 (en) Image processing apparatus, image processing method, and computer program
JP5799381B1 (en) Photography game machine and its control program
JP6371318B2 (en) Photography game machine and its control program
JP5483136B1 (en) Imaging apparatus and display control method
JP5998344B2 (en) Shooting game machine, shooting game machine control method, and computer program
JP6403488B2 (en) Photography game machine and control program
JP2004110383A (en) Image forming system, its program and information storage medium
JP2020177605A (en) Image processing device
JP5962643B2 (en) Imaging apparatus and display control method
JP6969622B2 (en) Shooting game equipment and programs
JP2018106678A (en) Sticker making game machine and image processing method
JP5871285B2 (en) Photography game machine and its control program
JP6618764B2 (en) Photo game machine
JP2017016007A (en) Photographic game machine and control program
JP2019030013A (en) Photo taking game machine and control program
JP2018173885A (en) Image processing device, image processing method, and computer program
JP2019133094A (en) Photograph creation game machine, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20191021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200331

R150 Certificate of patent or registration of utility model

Ref document number: 6685094

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250