JP7343760B2 - Image processing program, image processing method, and image processing device - Google Patents

Image processing program, image processing method, and image processing device Download PDF

Info

Publication number
JP7343760B2
JP7343760B2 JP2019146727A JP2019146727A JP7343760B2 JP 7343760 B2 JP7343760 B2 JP 7343760B2 JP 2019146727 A JP2019146727 A JP 2019146727A JP 2019146727 A JP2019146727 A JP 2019146727A JP 7343760 B2 JP7343760 B2 JP 7343760B2
Authority
JP
Japan
Prior art keywords
image
person
pixel
display
photographed image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019146727A
Other languages
Japanese (ja)
Other versions
JP2021027559A (en
Inventor
史陽 冨安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019146727A priority Critical patent/JP7343760B2/en
Publication of JP2021027559A publication Critical patent/JP2021027559A/en
Application granted granted Critical
Publication of JP7343760B2 publication Critical patent/JP7343760B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像処理プログラム、画像処理方法および画像処理装置に関する。 The present invention relates to an image processing program, an image processing method, and an image processing apparatus.

衣料品の購入前には、通常、試着が行われる。このとき、試着者は例えば、試着室等の空間において購入予定の衣料品に着替え、試着姿を鏡に映し出して購入予定の衣料品の確認を行う。 Before buying clothing, people usually try it on. At this time, the person trying on the clothes changes into the clothing they plan to purchase in a space such as a fitting room, and confirms the clothing they plan to purchase by reflecting the clothes they are trying on in a mirror.

一方、近年では、試着者をカメラで撮影し、撮影した試着姿をディスプレイに表示させるシステムが開発されている。例えば、利用者の全身を映すハーフミラーの背面に設けられた表示装置でハーフミラーとは異なる向きから利用者を撮像し、利用者の鏡像と重ならないように撮像画像を表示して、利用者の複数の向きの姿を視認可能にした技術が提案されている。さらに、試着姿を撮影して試着姿映像を記憶し、記憶されている試着姿映像の選択表示を可能にした技術が提案されている。 On the other hand, in recent years, a system has been developed that photographs a person trying on clothes with a camera and displays the photographed appearance of the person trying on clothes on a display. For example, a display device installed on the back of a half mirror that reflects the user's whole body images the user from a different direction than the half mirror, and displays the captured image so that it does not overlap with the mirror image of the user. A technology has been proposed that makes it possible to visually recognize the figure in multiple directions. Furthermore, a technique has been proposed that allows a user to photograph a person trying on clothes, store the image of the person trying on clothes, and selectively display the stored images of the person trying on clothes.

また、関連技術としては、ユーザと表示画面との距離に応じて、図形画像と文字画像の表示の大きさを変化させる技術が提案されている。 Furthermore, as a related technique, a technique has been proposed in which the display size of graphic images and character images is changed depending on the distance between the user and the display screen.

特開2010-87569号公報Japanese Patent Application Publication No. 2010-87569 特開2001-157201号公報Japanese Patent Application Publication No. 2001-157201 特開2008-96776号公報Japanese Patent Application Publication No. 2008-96776

しかし、上述したような、試着姿をカメラで撮影してディスプレイに表示するシステムでは、試着者から見える自分自身の像の上下方向に対する比率が不均等になる場合がある。例えば、試着者と同等の高さの像が表示されている場合、試着者からはその像における上半身より下半身の方が小さく見える。このような見え方の不均等性は試着者とディスプレイとの距離が近いほど顕著になり、見えている像と実物との違いが大きくなる。見えている像が実物と違うと、試着者は例えば、試着した服の丈を正しく判断することが困難になってしまう。 However, in the above-described system in which the person trying on the clothes is photographed with a camera and displayed on a display, the ratio of the image of the person trying on the clothes on in the vertical direction may become uneven. For example, when an image of the same height as the person trying on the garment is displayed, the lower body of the image appears smaller than the upper body of the person trying on the garment. Such non-uniformity in appearance becomes more noticeable as the distance between the person trying on the item and the display becomes closer, and the difference between the visible image and the actual item becomes larger. If the image they see differs from the real thing, it becomes difficult for the person trying on the clothes to correctly judge the length of the clothes they are trying on, for example.

1つの側面では、本発明は、自分自身が撮影された画像を近くで見たときの自分自身の見え方を実物に近づける画像処理プログラム、画像処理方法および画像処理装置を提供することを目的とする。 In one aspect, it is an object of the present invention to provide an image processing program, an image processing method, and an image processing device that make the appearance of oneself closer to the real thing when an image of oneself is viewed up close. do.

上記課題を解決するために、画像処理プログラムが提供される。画像処理プログラムは、コンピュータに、カメラで人物を撮影した撮影画像を人物が視認する表示装置に表示させる際に、人物の眼の高さと、人物と表示装置の表示面との距離と、にもとづいて撮影画像の画素ごとに算出される拡縮率を取得し、撮影画像の各画素を拡縮率にもとづいて拡縮して拡縮画像を生成し、拡縮画像を表示装置に表示させ、表示面の高さ方向に距離を均等分割したときの撮影画像の画素の第1の大きさと、表示面に対して眼を中心として表示面の高さ方向に角度を均等分割したときの撮影画像の画素の第2の大きさとにもとづいて、拡縮率を算出する処理を実行させる。 In order to solve the above problems, an image processing program is provided. The image processing program causes a computer to display an image of a person taken with a camera on a display device that the person can view, based on the height of the person's eyes and the distance between the person and the display surface of the display device. The enlargement/reduction ratio calculated for each pixel of the photographed image is obtained, each pixel of the photographed image is enlarged/reduced based on the enlargement/reduction ratio to generate an enlarged/reduced image, the enlarged/reduced image is displayed on a display device , and the height of the display surface is The first size of the pixels of the photographed image when the distance is equally divided in the direction, and the second size of the pixels of the photographed image when the angle is equally divided in the height direction of the display surface with the eye as the center. The process of calculating the scaling ratio is executed based on the size of the image .

また、上記課題を解決するために、上記画像処理プログラムを用いた処理と同様の処理をコンピュータが実行する画像処理方法が提供される。
さらに、上記課題を解決するために、上記画像処理プログラムを用いた処理と同様の処理を実行する画像処理装置が提供される。
Furthermore, in order to solve the above problems, an image processing method is provided in which a computer executes processing similar to processing using the above image processing program.
Furthermore, in order to solve the above problem, an image processing apparatus is provided that performs processing similar to processing using the above image processing program.

1側面によれば、自分自身が撮影された画像を近くで見たときの自分自身の見え方を実物に近づけることが可能になる。 According to one aspect, it is possible to make the appearance of oneself closer to the real thing when one looks at an image taken of oneself up close.

第1の実施の形態の画像処理装置の一例を説明するための図である。FIG. 1 is a diagram for explaining an example of an image processing apparatus according to a first embodiment. 第2の実施の形態の画像処理システムの構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of the configuration of an image processing system according to a second embodiment. 試着姿の見え方の違いの一例を示す図である。It is a figure which shows an example of the difference in the appearance of a try-on figure. 距離座標系から角度座標系への変換の一例を示す図である。FIG. 3 is a diagram showing an example of conversion from a distance coordinate system to an angular coordinate system. 表示画像と角度との対応関係を示す図である。FIG. 3 is a diagram showing the correspondence between display images and angles. 画像処理装置のハードウェア構成の一例を示す図である。1 is a diagram illustrating an example of a hardware configuration of an image processing device. 画像処理装置の機能ブロックの一例を示す図である。FIG. 2 is a diagram illustrating an example of functional blocks of an image processing device. 表示面のy軸方向に対する距離均等分割の一例を示す図である。FIG. 6 is a diagram illustrating an example of dividing the display screen into equal distances in the y-axis direction. 表示面のy軸方向に対する角度均等分割の一例を示す図である。FIG. 3 is a diagram illustrating an example of equal angular division of the display screen in the y-axis direction. ディスプレイの下端から画素の上端までの距離の算出を説明するための図である(θ≦90°)。FIG. 6 is a diagram for explaining calculation of the distance from the bottom edge of the display to the top edge of the pixel (θ a ≦90°). ディスプレイの下端から画素の上端までの距離の算出を説明するための図である(θ≦90°)。FIG. 6 is a diagram for explaining calculation of the distance from the bottom edge of the display to the top edge of the pixel (θ a ≦90°). ディスプレイの下端から画素の上端までの距離の算出を説明するための図である(90°<θ)。FIG. 6 is a diagram for explaining calculation of the distance from the bottom edge of the display to the top edge of a pixel (90°<θ a ). ディスプレイの下端から画素の上端までの距離の算出を説明するための図である(90°<θ)。FIG. 6 is a diagram for explaining calculation of the distance from the bottom edge of the display to the top edge of a pixel (90°<θ a ). 拡縮画像の生成例を示す図である。FIG. 6 is a diagram showing an example of generation of an enlarged/reduced image. 画像表示および試着者から見た像の例を示す図である。It is a figure which shows the example of an image display and the image seen from the person trying it on. 第1の拡縮率算出の動作の一例を示すフローチャートである。7 is a flowchart illustrating an example of an operation for calculating a first scaling ratio. 第1の拡縮率算出にもとづく画像処理の動作の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image processing operation based on first scaling ratio calculation. つま先画素位置および頭頂部画素位置とパラメータ情報との対応関係を示すテーブルの一例を示す図である。FIG. 7 is a diagram showing an example of a table showing the correspondence between toe pixel positions, top of head pixel positions, and parameter information. 第2の拡縮率算出にもとづく画像処理の動作の一例を示すフローチャートである。7 is a flowchart illustrating an example of an image processing operation based on second scaling factor calculation. つま先画素位置の算出処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of toe pixel position calculation processing. 頭頂部画素位置の算出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the calculation process of the top pixel position. 第2の拡縮率算出にもとづく画像処理の動作の一例を示す図である。FIG. 7 is a diagram illustrating an example of an image processing operation based on a second scaling factor calculation. 第3の拡縮率算出にもとづく画像処理の動作の一例を示すフローチャートである。12 is a flowchart illustrating an example of an image processing operation based on a third scaling factor calculation. 第3の拡縮率算出にもとづく画像処理の動作の一例を示す図である。FIG. 7 is a diagram illustrating an example of an image processing operation based on a third scaling factor calculation.

以下、本実施の形態について図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態の画像処理装置の一例を説明するための図である。画像処理装置1は、受信部1aおよび制御部1bを備える。また、画像処理装置1には、カメラ2および表示装置3が接続されている。
The present embodiment will be described below with reference to the drawings.
[First embodiment]
FIG. 1 is a diagram for explaining an example of an image processing apparatus according to the first embodiment. The image processing device 1 includes a receiving section 1a and a control section 1b. Further, a camera 2 and a display device 3 are connected to the image processing device 1.

この画像処理装置1は、カメラ2によって人物4を撮影した撮影画像を表示装置3に表示させ、表示された撮影画像を人物4自身が視認する状況において、表示装置3に表示された人物4の像をその人物4が見たときの見え方を実物に近づけるようにするものである。特に、人物4と表示装置3の表示面との距離が近い場合、人物4から見える人物4自身の像の上下方向に対する比率が不均等になってしまう。そこで、画像処理装置1は、人物4から見た人物4自身の像の上下方向に対する比率が実物に近くなるように、撮影画像の表示状態を変化させる。 This image processing device 1 displays a photographed image of a person 4 taken by a camera 2 on a display device 3, and in a situation where the person 4 himself/herself visually recognizes the displayed photographed image, the image of the person 4 displayed on the display device 3 is displayed. This is to make the appearance of the image when viewed by the person 4 closer to the real thing. In particular, when the distance between the person 4 and the display surface of the display device 3 is short, the ratio of the image of the person 4 itself seen from the person 4 in the vertical direction becomes uneven. Therefore, the image processing device 1 changes the display state of the photographed image so that the ratio of the image of the person 4 itself in the vertical direction as seen from the person 4 becomes close to that of the actual image.

受信部1aは、例えば、通信インタフェースとして実現される。受信部1aは、カメラ2によって人物4を撮影した撮影画像を受信する。
制御部1bは、例えば、プロセッサとして実現される。制御部1bは、上記のように撮影画像の表示状態を変化させるために、撮影画像の画素ごとの拡縮率を取得する。拡縮率は、より具体的には、撮影画像における垂直方向に並列する画素ごとに取得される。このような画素ごとの拡縮率は、人物4の眼4aの高さH1と、人物4と表示装置3の表示面との距離D1とにもとづいて算出される。
The receiving unit 1a is realized, for example, as a communication interface. The receiving unit 1a receives an image of a person 4 taken by the camera 2.
The control unit 1b is realized, for example, as a processor. In order to change the display state of the photographed image as described above, the control unit 1b acquires the scaling ratio for each pixel of the photographed image. More specifically, the enlargement/reduction ratio is obtained for each pixel arranged in the vertical direction in the photographed image. Such a scaling factor for each pixel is calculated based on the height H1 of the eye 4a of the person 4 and the distance D1 between the person 4 and the display surface of the display device 3.

なお、拡縮率は、例えば、高さH1と距離D1との組み合わせごとに図示しない記憶装置に記憶され、制御部1bから読み出されてもよい。あるいは、拡縮率は、制御部1bによって計算されてもよい。 Note that the scaling ratio may be stored in a storage device (not shown) for each combination of the height H1 and the distance D1, and read out from the control unit 1b, for example. Alternatively, the scaling ratio may be calculated by the control unit 1b.

制御部1bは、撮影画像の各画素を拡縮率にもとづいて拡縮して拡縮画像を生成し、生成した拡縮画像を表示装置3に表示させる。
人物4から見える人物4自身の像の上下方向に対する比率は、人物4の眼4aと表示装置3の表示面との相対的な位置関係によって変化する。例えば、人物4と表示装置3の表示面との距離D1が近いほど、人物4から見える人物4自身の像の上下方向に対する比率は大きく不均等になる。また、距離D1が同じとき、表示面上の人物4の像は、人物4からは眼4aから近くなるほど上下方向に拡大されて見え、眼4aから遠くなるほど上下方向に縮小されて見える。
The control unit 1b generates an enlarged/reduced image by enlarging/reducing each pixel of the captured image based on the enlargement/reduction ratio, and causes the display device 3 to display the generated enlarged/reduced image.
The ratio of the image of the person 4 itself seen from the person 4 in the vertical direction changes depending on the relative positional relationship between the eyes 4a of the person 4 and the display surface of the display device 3. For example, the closer the distance D1 between the person 4 and the display surface of the display device 3 is, the greater the ratio of the image of the person 4 itself seen from the person 4 in the vertical direction becomes unequal. Further, when the distance D1 is the same, the image of the person 4 on the display screen appears to be enlarged in the vertical direction from the person 4 as it gets closer to the eye 4a, and appears to be reduced in the vertical direction as it gets farther from the eye 4a.

制御部1bは上記のように、高さH1と距離D1にもとづいて、撮影画像の画素ごとに算出される拡縮率を用いて、撮影画像の各画素を拡縮し、拡縮によって得られた拡縮画像を表示装置3に表示させる。これにより、高さH1および距離D1にかかわらず、人物4から見える人物4自身の像の上下方向に対する比率を実物に近づけることができる。したがって、人物4が撮影された画像を近くで見たときに人物4自身の見え方を実物に近づけることができる。 As described above, the control unit 1b scales each pixel of the photographed image using the scaling ratio calculated for each pixel of the photographed image based on the height H1 and the distance D1, and creates a scaled image obtained by scaling. is displayed on the display device 3. Thereby, regardless of the height H1 and the distance D1, the ratio of the image of the person 4 itself seen from the person 4 in the vertical direction can be made closer to the real thing. Therefore, when the image of the person 4 is viewed up close, the appearance of the person 4 can be made closer to the real person.

図1の下側には、人物4の像が表示装置3に等身大で表示される場合の画像と、人物4から画像を見たときの像の例を示している。このとき、表示装置3上の人物4の眼4aの高さは、実物の眼4aと同様にH1となる。この状態で人物4が写った撮影画像5aを表示装置3にそのまま表示した場合、人物4から視認される像6aにおいては、人物4の下半身より上半身の比率の方が実際の比率より大きく見える。上半身の比率は、距離D1が短いほど相対的に大きくなる。 The lower side of FIG. 1 shows an example of an image when the image of the person 4 is displayed in life-size on the display device 3, and an example of the image when the image is viewed from the person 4. At this time, the height of the eye 4a of the person 4 on the display device 3 becomes H1, similar to the eye 4a of the real person. When the photographed image 5a of the person 4 is displayed as is on the display device 3 in this state, in the image 6a visually recognized by the person 4, the ratio of the upper body of the person 4 appears larger than the actual ratio. The ratio of the upper body becomes relatively larger as the distance D1 becomes shorter.

一方、撮影画像5aから拡縮率にもとづいて生成される拡縮画像5bでは、眼4aの高さ以下の領域において、上半身より下半身の比率の方が大きくなるように拡縮される。このような拡縮画像5bが表示装置3に表示されたとき、人物4から視認される像6bでは上半身と下半身との比率が実物と同等に見えるようになる。 On the other hand, in the enlarged/reduced image 5b generated from the captured image 5a based on the enlargement/reduction ratio, the ratio of the lower body is larger than that of the upper body in the area below the height of the eye 4a. When such an enlarged/reduced image 5b is displayed on the display device 3, the ratio of the upper body to the lower body of the image 6b visually recognized by the person 4 appears to be the same as that of the real person.

[第2の実施の形態]
次に、カメラで試着者を撮影して試着姿をディスプレイに表示させるシステムに図1の画像処理装置1の機能を適用した第2の実施の形態について説明する。
[Second embodiment]
Next, a second embodiment will be described in which the functions of the image processing device 1 of FIG. 1 are applied to a system that photographs a person trying on clothes with a camera and displays the person trying on the clothes on a display.

図2は、第2の実施の形態の画像処理システムの構成の一例を示す図である。画像処理システム1-1は、カメラ20、ディスプレイ30および画像処理装置10を備える。カメラ20およびディスプレイ30は、試着室40の内部に設置される。ディスプレイ30は、試着室40の底面に対して垂直に設置されるものとする。 FIG. 2 is a diagram showing an example of the configuration of an image processing system according to the second embodiment. The image processing system 1-1 includes a camera 20, a display 30, and an image processing device 10. Camera 20 and display 30 are installed inside fitting room 40. It is assumed that the display 30 is installed perpendicularly to the bottom surface of the fitting room 40.

カメラ20は、試着室40内の試着者を撮影する。画像処理装置10は、試着者の上半身と下半身との比率が実物に近い比率になるように、カメラ20から送信された撮影画像の画像処理を行う。ディスプレイ30は、画像処理装置10によって画像処理が施された試着姿の画像を表示する。なお、ディスプレイ30としては、例えば、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイを用いることができる。 The camera 20 photographs the person trying on the clothes in the fitting room 40. The image processing device 10 performs image processing on the photographed image transmitted from the camera 20 so that the ratio of the upper body to the lower body of the person trying on the suit is close to the real one. The display 30 displays an image of the person trying on the clothes, which has been subjected to image processing by the image processing device 10 . Note that as the display 30, for example, a liquid crystal display or an organic EL (Electroluminescence) display can be used.

次に、第2の実施の形態の画像処理システム1-1の詳細を説明する前に、カメラと試着者との距離に応じて試着者から見た試着姿の見え方の違いについて、図3を用いて説明する。なお、図3では、カメラ20によって試着者が撮影された画像が大きさの比率を変えることなくそのままディスプレイ30に表示されたとする。 Next, before explaining the details of the image processing system 1-1 according to the second embodiment, FIG. Explain using. In addition, in FIG. 3, it is assumed that the image of the person trying on the clothes taken by the camera 20 is displayed as is on the display 30 without changing the size ratio.

図3は、試着姿の見え方の違いの一例を示す図である。図3の上側では、ディスプレイ30の表示面に対して垂直な方向にx軸をとり、高さ方向にy軸をとっている。また、ディスプレイ30の表示面と試着室40の底面(地面)との交点を座標系の原点とする。さらに、試着者像R0は、撮影画像をそのままディスプレイ30に表示した場合の試着者Rの像を、模式的に示したものである。 FIG. 3 is a diagram illustrating an example of a difference in appearance when trying on clothes. In the upper side of FIG. 3, the x-axis is taken in a direction perpendicular to the display surface of the display 30, and the y-axis is taken in the height direction. Further, the intersection between the display surface of the display 30 and the bottom surface (ground) of the fitting room 40 is defined as the origin of the coordinate system. Further, the try-on person image R0 is a schematic representation of the try-on person R when the photographed image is displayed as is on the display 30.

図3の上側に示すように、x軸上に2点をとり、ディスプレイ30と試着者Rが立つ位置との距離が近い方の点をxa、ディスプレイ30と試着者Rが立つ位置との距離が遠い方の点をxbとする。 As shown in the upper part of FIG. 3, two points are taken on the x-axis. Let xb be the point where is farther away.

試着者Rが位置xaに存在する場合、試着者Rの撮影画像にもとづくディスプレイ30による表示画像は、試着者Rからは画像g1のように見える。このとき、画像g1には試着者像R0がほぼ等身大で映っている。しかし、画像g1では、試着者像R0の上半身の比率が下半身の比率よりも大きく、実物に対して双方の比率が不均等になっている。この場合、試着者Rにとって、試着姿の上半身は実物より大きく見え、下半身は実物よりも小さく見える。 When try-on person R exists at position xa, the image displayed on display 30 based on the photographed image of try-on person R looks like image g1 from try-on person R. At this time, the try-on person image R0 appears in the image g1 in approximately life-size. However, in the image g1, the proportion of the upper body of the try-on person image R0 is larger than the proportion of the lower body, and the proportions of both are unequal with respect to the real thing. In this case, for the try-on person R, the upper body of the person trying on the clothes appears larger than the real thing, and the lower body of the person trying on the clothes looks smaller than the real thing.

一方、試着者がより遠い位置xbに存在する場合、試着者Rの撮影画像にもとづくディスプレイ30による表示画像は、試着者Rからは画像g2のように見える。画像g2では、上半身の比率と下半身の比率は実物と略同じであるが、全身像が小さくなっている。この場合、試着者Rにとって、上半身と下半身の服のバランスは実物と同様に見えても画像全体が小さく見える。 On the other hand, when the try-on person is located at a farther position xb, the image displayed on the display 30 based on the photographed image of the try-on person R looks like image g2 from the try-on person R. In image g2, the proportions of the upper body and lower body are approximately the same as in the real thing, but the whole body image is smaller. In this case, for the try-on person R, the overall image appears small even though the balance between the upper and lower body clothes looks similar to the real thing.

このように、撮影画像をそのままディスプレイ30に表示した場合、試着者Rがディスプレイ30に近づくほど、上半身と下半身の比率が不均等になって、試着者Rには実物と比べて上半身の比率が下半身の比率より大きく見えてしまう。よって、試着者Rは、上半身と下半身の服のバランス等の試着状態を正しく判断することが困難となる。 In this way, if the photographed image is displayed as it is on the display 30, the closer the try-on person R gets to the display 30, the more uneven the ratio of the upper body to the lower body becomes, and the more the try-on person R approaches the display 30, the more uneven the ratio of the upper body to the lower body becomes. It looks bigger than the proportion of the lower body. Therefore, it becomes difficult for the try-on person R to correctly judge the state of the try-on, such as the balance between the clothes on the upper body and the lower body.

一方、試着者Rがディスプレイ30から遠ざかるほど、上半身と下半身の比率は実物の比率に近づいていくが、ディスプレイ30には全身の試着姿が小さく表示されてしまう。したがって、試着者Rが上半身と下半身の比率を実物と同じように見たい場合、ディスプレイ30から離れた位置に立つことになるが、全身像が小さく表示されてしまうため、この場合も試着状態を正しく判断することが困難である。 On the other hand, as the try-on person R moves away from the display 30, the ratio of the upper body to the lower body approaches the actual ratio, but the display 30 ends up displaying the whole body trying on the clothes in a smaller size. Therefore, if the try-on person R wants to see the ratio of the upper and lower body in the same way as the real thing, he or she will have to stand at a distance from the display 30, but since the full-body image will be displayed small, in this case as well, the try-on condition will be different. It is difficult to judge correctly.

さらに、撮影画像から試着者Rを含む領域を切り出し、切り出した領域をディスプレイ30に表示することで、試着者Rがディスプレイ30から離れてもディスプレイ30上の試着者像R0を一定の大きさに維持することができる。しかし、このような処理を行ったとしても、試着者Rがディスプレイ30から離れるほど試着者Rが視認する試着者像R0の大きさが小さくなることに変わりない。 Furthermore, by cutting out an area including the try-on person R from the photographed image and displaying the cut-out area on the display 30, the try-on person image R0 on the display 30 can be kept at a constant size even when the try-on person R moves away from the display 30. can be maintained. However, even if such processing is performed, the further the try-on person R is from the display 30, the smaller the size of the try-on person image R0 visually recognized by the try-on person R remains.

次に、ディスプレイ30と試着者との距離に応じて試着者から見た試着姿の見え方が異なることの理由について、図4、図5を用いて説明する。ディスプレイ30上の試着者像R0は、距離で表現される距離座標系において表示される。一方試着者Rは、試着者Rの眼を中心とした角度で表現される角度座標系において試着者像R0を視認する。ディスプレイ30と試着者Rとの距離に応じて上半身と下半身の比率が変化するのは、試着者像R0が表示されてから試着者Rに視認される過程でこのような座標系の変換が行われるからである。 Next, the reason why the appearance of the try-on clothes as seen from the try-on person differs depending on the distance between the display 30 and the try-on person will be explained using FIGS. 4 and 5. The try-on person image R0 on the display 30 is displayed in a distance coordinate system expressed by distance. On the other hand, the try-on person R visually recognizes the try-on person image R0 in an angular coordinate system expressed by an angle centered on the eyes of the try-on person R. The reason why the ratio of the upper body and lower body changes according to the distance between the display 30 and the person trying on the garment is that such a coordinate system conversion is performed in the process from when the image of the person trying on the garment R0 is displayed to being visually recognized by the person trying on the garment. This is because you will be exposed.

図4は、距離座標系から角度座標系への変換の一例を示す図である。図4では例として、ディスプレイ30に試着者像R0が等身大で表示されている場合を示す。このとき、試着者Rの高さと試着者像R0の高さは等しい。 FIG. 4 is a diagram showing an example of conversion from a distance coordinate system to an angular coordinate system. FIG. 4 shows, as an example, a case where the try-on person image R0 is displayed in life-size on the display 30. At this time, the height of the try-on person R and the height of the try-on person image R0 are equal.

地面のy座標をyとし、試着者Rの頭頂部(head)のy座標をy、試着者Rの眼(eye)のy座標をy、試着者Rの身長の半分の位置のy座標をyとする。また、yからyまでの距離をyとし、yからyまでの距離をyとする(y=y)。 The y-coordinate of the ground is y 0 , the y-coordinate of the head of try-on R is y h , the y-coordinate of the eye of try-on R is y e , and the position of half the height of try-on R is Let the y coordinate be yL . Further, let the distance from y 0 to y L be y b , and let the distance from y L to y h be yu (y u =y b ).

ここで、試着者像R0の頭頂部から試着者Rの眼に入射する光線B1と、試着者像R0における身長の半分の位置から試着者Rの眼に入射する光線B2とのなす鋭角側の角度をθとする。また、光線B2と、試着者像R0の足元から試着者Rの眼に入射する光線B3とのなす鋭角側の角度をθとする。このとき、試着者像R0がディスプレイ30に表示され、表示された試着者像R0を試着者Rが見た場合、距離yは角度θに変換され、距離ybは角度θに変換される。 Here, on the acute angle side formed by the light ray B1 that enters the eyes of the try-on person R from the top of the head of the try-on person image R0, and the light ray B2 that enters the eyes of the try-on person R from a position half the height of the try-on person image R0, Let the angle be θ u . Further, the acute angle between the light ray B2 and the light ray B3 which enters the eyes of the try-on person R from the feet of the try-on person image R0 is defined as θ b . At this time, when the try-on person image R0 is displayed on the display 30 and the try-on person R looks at the displayed try-on person image R0, the distance y u is converted to an angle θ u , and the distance yb is converted to an angle θ b . Ru.

図5は、表示画像と角度との対応関係を示す図である。図5に示す画像g3は、図4のようにディスプレイ30に表示された撮影画像を試着者Rが見たときに試着者Rの眼に映る像を示す。画像g3においては、距離yに対応する上半身は角度θに変換され、距離yに対応する下半身は角度θに変換される。ディスプレイ30と試着者Rとの距離が近いほど角度θは角度θより相対的に大きくなり、試着者Rには、図5のように上半身の方が下半身より高さ方向に大きな比率で見えてしまう。このため、試着者Rは服の丈等を正しく判断することが困難となる。 FIG. 5 is a diagram showing the correspondence between display images and angles. An image g3 shown in FIG. 5 shows an image that appears in the eyes of the try-on person R when the try-on person R views the photographed image displayed on the display 30 as shown in FIG. In image g3, the upper half of the body corresponding to the distance y u is converted to an angle θ u , and the lower half of the body corresponding to the distance y b is converted to an angle θ b . The closer the distance between the display 30 and the try-on person R is, the larger the angle θ u becomes relative to the angle θ b.As shown in FIG. I can see it. Therefore, it becomes difficult for the try-on person R to correctly judge the length of the clothes, etc.

本実施の形態はこのような点に鑑みてなされたものであり、カメラ20で撮影した試着者Rの試着姿をディスプレイ30に表示する場合、ディスプレイ30と試着者Rとの距離に依存せずに、試着者Rの上半身と下半身とが実物と同等の比率で見えるように変換して表示させるものである。図4、図5より、ディスプレイ30の表示面上の画素についてのy軸方向の大きさは、試着者Rの眼を中心とした角度座標系での大きさに変換される際に、試着者Rの眼の高さに近いほど拡大される方向に変換され、眼の高さから遠いほど縮小される方向に変換される。そこで、画像処理装置10は、ディスプレイ30に表示される撮影画像の各画素についての垂直方向の大きさを、上記の変換率とは逆になる変換率で拡縮し、拡縮後の撮影画像をディスプレイ30に表示させる。また、画像処理装置10は、ディスプレイ30の表示面と試着者Rとの距離と、試着者Rの眼の高さとに応じて、拡縮率を決定する。 The present embodiment has been made in view of these points, and when displaying the trying-on appearance of the try-on person R photographed by the camera 20 on the display 30, it does not depend on the distance between the display 30 and the try-on person R. In this case, the upper and lower body of the person trying on the suit R is converted and displayed so that they can be seen at the same proportions as the real thing. 4 and 5, when the size of the pixels on the display surface of the display 30 in the y-axis direction is converted to the size in the angular coordinate system centered on the eyes of the try-on person R, The closer the image is to the eye level of R, the more the image is enlarged, and the further it is from the eye level, the more the image is reduced. Therefore, the image processing device 10 enlarges or reduces the vertical size of each pixel of the captured image displayed on the display 30 at a conversion rate that is opposite to the above conversion rate, and displays the enlarged/reduced captured image. 30. Further, the image processing device 10 determines the enlargement/contraction ratio according to the distance between the display surface of the display 30 and the person trying on the garment R, and the height of the eye of the person trying on the garment R.

図6は、画像処理装置のハードウェア構成の一例を示す図である。画像処理装置10は、プロセッサ(コンピュータ)100によって装置全体が制御されている。プロセッサ100は、マルチプロセッサであってもよい。プロセッサ100は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。またプロセッサ100は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。 FIG. 6 is a diagram illustrating an example of the hardware configuration of the image processing device. The entire image processing apparatus 10 is controlled by a processor (computer) 100. Processor 100 may be a multiprocessor. The processor 100 is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device). Further, the processor 100 may be a combination of two or more elements among a CPU, an MPU, a DSP, an ASIC, and a PLD.

プロセッサ100には、バス103を介して、メモリ101および複数の周辺機器が接続されている。
メモリ101は、画像処理装置10の主記憶装置として使用される。メモリ101には、プロセッサ100に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、メモリ101には、プロセッサ100による処理に要する各種データが格納される。また、メモリ101は、画像処理装置10の補助記憶装置としても使用され、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、画像処理装置10は、補助記憶装置として、フラッシュメモリやSSD(Solid State Drive)等の半導体記憶装置やHDD(Hard Disk Drive)等の磁気記録媒体を備えていてもよい。
A memory 101 and a plurality of peripheral devices are connected to the processor 100 via a bus 103.
Memory 101 is used as a main storage device of image processing device 10 . The memory 101 temporarily stores at least a portion of OS (Operating System) programs and application programs to be executed by the processor 100. The memory 101 also stores various data required for processing by the processor 100. The memory 101 is also used as an auxiliary storage device of the image processing device 10, and stores OS programs, application programs, and various data. Note that the image processing device 10 may include, as an auxiliary storage device, a semiconductor storage device such as a flash memory or an SSD (Solid State Drive), or a magnetic recording medium such as an HDD (Hard Disk Drive).

バス103に接続されている周辺機器としては、入出力インタフェース102およびネットワークインタフェース104がある。
入出力インタフェース102には、カメラ20およびディスプレイ30が接続される。入出力インタフェース102は、カメラ20によって撮影された画像のデータを受信して、プロセッサ100に送信する。また、入出力インタフェース102は、プロセッサ100からの命令にしたがって画像をディスプレイ30に表示させる。さらに、入出力インタフェース102は、キーボードやマウス等の情報入力装置を接続可能であって、情報入力装置から送られてくる信号をプロセッサ100に送信する。
Peripheral devices connected to the bus 103 include an input/output interface 102 and a network interface 104.
A camera 20 and a display 30 are connected to the input/output interface 102. The input/output interface 102 receives data of an image taken by the camera 20 and transmits it to the processor 100. Further, the input/output interface 102 causes the display 30 to display an image according to instructions from the processor 100. Further, the input/output interface 102 can be connected to an information input device such as a keyboard or a mouse, and transmits signals sent from the information input device to the processor 100.

また、入出力インタフェース102は、周辺機器を接続するための通信インタフェースとしても機能する。例えば、入出力インタフェース102は、レーザ光等を利用して、光ディスクに記録されたデータの読み取りを行う光学ドライブ装置を接続することができる。光ディスクには、CD(Compact Disc)、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc:BD、登録商標)等がある。 The input/output interface 102 also functions as a communication interface for connecting peripheral devices. For example, the input/output interface 102 can be connected to an optical drive device that reads data recorded on an optical disc using laser light or the like. Optical discs include CDs (Compact Discs), DVDs (Digital Versatile Discs), and Blu-ray Discs (BD, registered trademark).

また、入出力インタフェース102は、メモリ装置やメモリリーダライタを接続することができる。メモリ装置は、入出力インタフェース102との通信機能を搭載した記録媒体である。メモリリーダライタは、メモリカードへのデータの書き込み、またはメモリカードからのデータの読み出しを行う装置である。メモリカードは、カード型の記録媒体である。 Further, the input/output interface 102 can connect a memory device or a memory reader/writer. The memory device is a recording medium equipped with a communication function with the input/output interface 102. A memory reader/writer is a device that writes data to or reads data from a memory card. A memory card is a card-type recording medium.

ネットワークインタフェース104は、ネットワークと接続してネットワークインタフェース制御を行う。ネットワークインタフェース104は、ネットワークとプロセッサ100との間でデータを送受信する。ネットワークインタフェース104としては、例えば、NIC(Network Interface Card)、無線LAN(Local Area Network)カード等を使用することができる。 The network interface 104 connects to a network and performs network interface control. Network interface 104 transmits and receives data between a network and processor 100. As the network interface 104, for example, a NIC (Network Interface Card), a wireless LAN (Local Area Network) card, etc. can be used.

以上のようなハードウェア構成によって、画像処理装置10の処理機能を実現することができる。
図7は、画像処理装置の機能ブロックの一例を示す図である。画像処理装置10は、制御部11、記憶部12およびインタフェース部13を備える。制御部11は、拡縮率算出部11aおよび画像拡縮部11bを含む。
With the hardware configuration as described above, the processing functions of the image processing device 10 can be realized.
FIG. 7 is a diagram illustrating an example of functional blocks of an image processing device. The image processing device 10 includes a control section 11, a storage section 12, and an interface section 13. The control section 11 includes an enlargement/reduction ratio calculation section 11a and an image enlargement/reduction section 11b.

拡縮率算出部11aは、ディスプレイ30の表示面をy軸方向に距離均等分割したときの画素のy方向の大きさi1と、この表示面を試着者の眼を中心としてy軸方向に角度均等分割したときの画素のy方向の大きさi2とから、拡縮率を算出する。拡縮率は、y軸上で(すなわち、ディスプレイ30の表示面の垂直方向に対して)等距離の箇所を、試着者の視野においても等距離の箇所に見えるように、撮影画像の各画素のy軸方向の大きさを拡大または縮小するための係数である。 The enlargement/reduction ratio calculation unit 11a calculates the size in 1 of the pixel in the y-direction when the display surface of the display 30 is equally divided in the y-axis direction, and the size in 1 of the pixel in the y-direction with the eye of the try-on person as the center. The scaling ratio is calculated from the size i n 2 of the pixel in the y direction when the pixel is divided into equal angles. The enlargement/contraction ratio is determined by adjusting each pixel of the photographed image so that a point equidistant on the y-axis (that is, with respect to the vertical direction of the display surface of the display 30) appears to be equidistant in the field of view of the person trying on the garment. This is a coefficient for enlarging or reducing the size in the y-axis direction.

「距離均等分割」とは、表示面をy軸方向に等距離で分割することを示す。この距離均等分割では、表示面は撮影画像のy軸方向の画素数分だけ分割される。このため、分割された各分割領域は撮影画像を表示面に描画した状態において撮影画像のy軸方向に並列する各画素に対応し、大きさi1は撮影画像上のn番目の画素が描画される領域のy軸方向の大きさを示す。 "Equal distance division" indicates that the display surface is divided at equal distances in the y-axis direction. In this distance-equal division, the display surface is divided by the number of pixels in the y-axis direction of the photographed image. Therefore, each divided area corresponds to each pixel that is parallel in the y-axis direction of the captured image when the captured image is drawn on the display screen, and the size i n 1 corresponds to the nth pixel on the captured image. Indicates the size of the area to be drawn in the y-axis direction.

なお、距離均等分割での分割数は、ディスプレイ30に入力される前の撮影画像(ソース画像)におけるy軸方向の画素数であるものとする。このため、距離均等分割での分割数はディスプレイ30におけるy軸方向の画素数と同一であるとは限らない。 Note that the number of divisions in the equal distance division is the number of pixels in the y-axis direction of the captured image (source image) before being input to the display 30. Therefore, the number of divisions in equal distance division is not necessarily the same as the number of pixels in the y-axis direction of the display 30.

「角度均等分割」とは、試着者の眼から表示面に対するy軸方向の視野角を同一角度で分割したときに、その分割線によって表示面を分割することを示す。「角度均等分割したときの画素」(あるいは「角度均等分割による画素」)とは、上記の視野角を同一角度で分割したときに表示面に投影される各分割領域を示す。 "Equal angle division" indicates that when the viewing angle in the y-axis direction from the eyes of the wearer to the display surface is divided by the same angle, the display surface is divided by the dividing line. "Pixels when divided into equal angles" (or "pixels when divided into equal angles") refers to each divided area projected onto the display screen when the above-mentioned viewing angle is divided at the same angle.

角度均等分割での分割数は距離均等分割での分割数と同一である。そして、表示面を距離均等分割したときのn番目の画素は、表示面を角度均等分割したときのn番目の画素と対応付けられ、n番目の両方の画素の大きさi1,i2を用いて撮影画像におけるn番目の画素についての拡縮率が求められる。したがって、拡縮率は撮影画像においてy方向に並列する画素ごとに算出される。 The number of divisions in equal angle division is the same as the number of divisions in equal distance division. Then, the nth pixel when the display surface is divided into equal distances is associated with the nth pixel when the display surface is divided into equal angles, and the sizes of both nth pixels are i n 1, i n 2 is used to find the enlargement/contraction ratio for the n-th pixel in the photographed image. Therefore, the enlargement/contraction ratio is calculated for each pixel arranged in parallel in the y direction in the photographed image.

また、拡縮率算出部11aは、角度均等分割による画素の大きさi2を求める場合、ディスプレイ30と試着者との距離(第1のパラメータ)と、試着者の眼の高さ(第2のパラメータ)とにもとづいて、画素の大きさi2を算出する。このとき、拡縮率算出部11aは、第1、第2のパラメータを含むパラメータ情報の取得方法に応じた第1、第2、第3の拡縮率算出の少なくとも1つによる、拡縮率を得ることができる。 In addition, when calculating the pixel size in 2 by equal angle division, the enlargement/reduction ratio calculation unit 11a calculates the distance between the display 30 and the person trying on the suit (first parameter) and the height of the eye of the person trying on the suit (second parameter). The pixel size i n 2 is calculated based on the following parameters. At this time, the scaling ratio calculation unit 11a obtains the scaling ratio by at least one of the first, second, and third scaling ratio calculations according to the method of obtaining parameter information including the first and second parameters. I can do it.

第1の拡縮率算出では、固定値のパラメータ情報を使用して拡縮率を算出する。第2の拡縮率算出では、試着者のつま先画素位置および頭頂部画素位置をキーにして検索したパラメータ情報を使用して拡縮率を算出する。第3の拡縮率算出では、実測した試着者の眼の3次元(3D:3 dimensions)位置からパラメータ情報を取得して拡縮率を算出する。なお、第1、第2、第3の拡縮率算出の詳細については、図16から図24で後述する。 In the first scaling ratio calculation, the scaling ratio is calculated using fixed value parameter information. In the second scaling ratio calculation, the scaling ratio is calculated using parameter information retrieved using the toe pixel position and the top pixel position of the wearer as keys. In the third expansion/contraction ratio calculation, parameter information is obtained from the actually measured three-dimensional (3D) position of the eye of the person trying on the suit, and the expansion/contraction ratio is calculated. Note that details of the first, second, and third scaling ratio calculations will be described later with reference to FIGS. 16 to 24.

画像拡縮部11bは、カメラ20で撮影された試着者の撮影画像に拡縮率を乗算して拡縮画像を生成し、拡縮画像をディスプレイ30に表示させる。記憶部12は、カメラ20で撮影された撮影画像および拡縮率の算出に要する情報(パラメータ情報)等を記憶する。 The image enlarging/reducing unit 11b multiplies the captured image of the person trying on the clothes taken by the camera 20 by an enlargement/reduction ratio to generate an enlarged/reduced image, and causes the display 30 to display the enlarged/reduced image. The storage unit 12 stores an image taken by the camera 20 and information (parameter information) required for calculating the enlargement/reduction ratio.

インタフェース部13は、画像処理装置10に接続される機器とのインタフェース制御を行う。例えば、カメラ20で撮影された撮影画像の受信処理および拡縮画像のディスプレイ30への転送処理を行う。 The interface unit 13 performs interface control with devices connected to the image processing device 10. For example, it performs a process of receiving an image taken by the camera 20 and a process of transferring an enlarged/reduced image to the display 30.

なお、制御部11は、例えば図6のプロセッサ100により実現される。この場合、制御部11の処理は、プロセッサ100がプログラムを実行することで実現される。また、記憶部12は、例えば図6のメモリ101により実現される。インタフェース部13は、例えば図6の入出力インタフェース102により実現される。 Note that the control unit 11 is realized by the processor 100 in FIG. 6, for example. In this case, the processing of the control unit 11 is realized by the processor 100 executing a program. Further, the storage unit 12 is realized, for example, by the memory 101 in FIG. 6. The interface unit 13 is realized, for example, by the input/output interface 102 shown in FIG.

次に、画像処理装置10における拡縮率の算出処理について、図8から図13を用いて詳しく説明する。なお、以降ではy軸に設置されるカメラ20の図示を省略する。
図8は、表示面のy軸方向に対する距離均等分割の一例を示す図である。ここでは、撮影画像の垂直方向(y軸方向)の画素数をI[pixel]とし、ディスプレイ30の表示面をy軸方向に対してI個に距離均等分割したときの、各分割領域(各画素)のy軸方向の大きさを求める。これは、撮影画像をその画素数を維持したままディスプレイ30の表示面に仮想的に描画した場合における、撮影画像の各画素のy軸方向の大きさを求めることと同じである。なお、ディスプレイ30の表示面の下端は地面の高さであるとする。
Next, the scaling ratio calculation process in the image processing device 10 will be described in detail using FIGS. 8 to 13. Note that illustration of the camera 20 installed on the y-axis will be omitted hereinafter.
FIG. 8 is a diagram showing an example of dividing the display surface into equal distances in the y-axis direction. Here, the number of pixels in the vertical direction (y-axis direction) of the photographed image is I [pixel], and each divided area (each Find the size of the pixel) in the y-axis direction. This is the same as finding the size of each pixel in the y-axis direction of the captured image when the captured image is virtually drawn on the display surface of the display 30 while maintaining the number of pixels. It is assumed that the lower end of the display surface of the display 30 is at the ground level.

距離均等分割により、表示面はI個の画素p(1≦n≦I)に均等分割される。このとき、画素pのy軸方向の大きさi1[mm/pixel]は、ディスプレイ30の表示面の高さをy[mm]とすると、以下の式(1)で算出される。距離均等分割であるため、すべての画素p、・・・、p、・・・、pの大きさは同じ値となる。 By the equal distance division, the display surface is equally divided into I pixels p n (1≦n≦I). At this time, the size i n 1 [mm/pixel] of the pixel p n in the y-axis direction is calculated by the following formula (1), assuming that the height of the display surface of the display 30 is y v [mm]. . Since the pixels are equally divided by distance, the sizes of all pixels p 1 , . . . , p n , . . . , p I have the same value.

Figure 0007343760000001
Figure 0007343760000001

次に、試着者Rのy軸方向の視野角においてディスプレイ30の表示面が占める領域を考える。まず、角度変換としてradianからdegreeへの単位の変換式を以下の式(2a)に示し、degreeからradianへの単位の変換式を以下の式(2b)に示す。 Next, consider the area that the display surface of the display 30 occupies in the viewing angle of the person trying on the suit R in the y-axis direction. First, as an angle conversion, a unit conversion formula from radian to degree is shown in the following equation (2a), and a unit conversion equation from degree to radian is shown in the following equation (2b).

Figure 0007343760000002
Figure 0007343760000002

ディスプレイ30の表示面の上端から試着者Rの眼に入る光線b1と、表示面の下端から試着者Rの眼に入る光線b2とのなす角度のうち小さい方の角度(視野角)をΘとする。また、光線b1と、試着者Rの眼から地面に下した垂直ラインhaとのなす鋭角側の角度をΘとし、光線b2と、垂直ラインhaとのなす鋭角側の角度をΘとする。ディスプレイ30の表示面と試着者Rとの距離をxとし、この距離xと試着者Rの眼の高さyとを用いて、角度Θ、Θ、Θは、以下の式(3)、(4)、(5)で算出される。 The smaller angle (viewing angle) between the light ray b1 entering the eye of the try-on person R from the upper end of the display surface of the display 30 and the light ray b2 entering the eye of the try-on person R from the lower end of the display surface is Θ. do. Also, let Θ u be the acute angle between the light ray b1 and the vertical line ha drawn from the eyes of the try-on person R to the ground, and let Θ d be the acute angle between the light ray b2 and the vertical line ha. . The distance between the display surface of the display 30 and the person trying on the garment R is x r , and using this distance x r and the eye height y e of the person trying on the garment R, the angles Θ, Θ u , and Θ d are calculated using the following formulas. Calculated by (3), (4), and (5).

Figure 0007343760000003
Figure 0007343760000003

Figure 0007343760000004
Figure 0007343760000004

Figure 0007343760000005
Figure 0007343760000005

図9は、表示面のy軸方向に対する角度均等分割の一例を示す図である。ディスプレイ30の表示面を、画素(分割領域)p(1≦n≦I)の上端および下端と、試着者Rの眼との成す角度が均一になるような角度で均等分割するものとする。これは、表示面に対する試着者Rのy軸方向の視野角を均等にI個に分割することを意味する。また、表示面の下端から画素pの上端までの距離をy(第1の上端距離)、表示面の下端から画素pn-1の上端(すなわち画素pの下端)までの距離をyn-1(第2の上端距離)とする。 FIG. 9 is a diagram showing an example of equal angle division of the display surface in the y-axis direction. The display surface of the display 30 shall be equally divided at angles such that the angle formed by the upper and lower ends of the pixels (divided areas) p n (1≦n≦I) and the eyes of the try-on person R is uniform. . This means that the viewing angle of the try-on person R in the y-axis direction with respect to the display screen is equally divided into I parts. Also, the distance from the bottom edge of the display screen to the top edge of pixel p n is y n (first top edge distance), and the distance from the bottom edge of the display screen to the top edge of pixel p n-1 (that is, the bottom edge of pixel p n ) is Let y n-1 (second upper end distance).

画素pの上端から試着者Rの眼に入る光線b11と、画素pn-1の上端から試着者Rの眼に入る光線b12とのなす鋭角側の角度をθとする。なお、光線b11と、垂直ラインhaとのなす鋭角側の角度をθaとする。このとき、角度θは、図8に示した視野角ΘをI個に均等分割した1つの角度であるから、画素pに対するθは、以下の式(6)で算出される。角度均等分割であるため、すべての角度(θ、・・・、θ、・・・、θ)の大きさは同じ値(θとする)となる。 Let θ n be the acute angle between the light ray b11 entering the eye of the try-on person R from the upper end of the pixel p n and the light ray b 12 entering the eye of the try-on person R from the upper end of the pixel p n-1 . Note that the acute angle between the light ray b11 and the vertical line ha is defined as θ a . At this time, since the angle θ n is one angle obtained by equally dividing the viewing angle Θ shown in FIG. 8 into I pieces, θ n for the pixel p n is calculated by the following equation (6). Since the angles are equally divided, the magnitudes of all angles (θ 1 , . . . , θ n , . . . , θ I ) have the same value (referred to as θ e ).

Figure 0007343760000006
Figure 0007343760000006

図9に示すように、角度均等分割による各画素のy軸上の大きさ(距離座標系での大きさ)は画素ごとに異なるが、試着者Rからは同じ大きさに見える。このため、距離均等分割による画素pの大きさi1を角度均等分割による画素pの大きさi2に拡縮することで、距離均等分割による各画素(すなわち、撮影画像の各画素)のy軸方向の大きさを試着者Rに同じ大きさに見せることができる。 As shown in FIG. 9, the size of each pixel on the y-axis (size in the distance coordinate system) due to equal angle division differs from pixel to pixel, but it appears to be the same size to the person trying it on. Therefore, by scaling up or down the size i n 1 of pixel p n resulting from equal distance division to the size i n 2 of pixel p n resulting from equal angle division, each pixel resulting from equal distance division (i.e., each pixel of the photographed image ) can be shown to be the same size in the y-axis direction to the try-on person R.

まず、角度均等分割による画素pの大きさi2は、以下の式(7)で算出される。 First, the size i n 2 of the pixel p n resulting from equal angle division is calculated using the following equation (7).

Figure 0007343760000007
Figure 0007343760000007

また、式(7)における画素pの上端の高さyは、以下の式(8a)、(8b)により算出される。画素pn-1の上端の高さyn-1も同様にして式(8a)、(8b)から求められる。 Further, the height y n of the upper end of pixel p n in equation (7) is calculated by the following equations (8a) and (8b). The height y n-1 of the upper end of the pixel p n-1 is similarly determined from equations (8a) and (8b).

Figure 0007343760000008
Figure 0007343760000008

したがって、画素pについて拡縮率rは、以下の式(9)のように、角度均等分割による画素pの大きさi2を、距離均等分割による画素pの大きさi1で除算することにより算出される。 Therefore, the scaling ratio r n for pixel p n is calculated by dividing the size i n 2 of pixel p n by equal angle division into the size i n 1 of pixel p n by equal distance division, as shown in the following equation (9). Calculated by dividing by .

Figure 0007343760000009
Figure 0007343760000009

ここで、上記の式(8a)について、図10から図13を用いて説明する。図10、図11は、ディスプレイの下端から画素の上端までの距離の算出を説明するための図である。図10、図11では、角度θが90°以下の場合を示している。 Here, the above equation (8a) will be explained using FIGS. 10 to 13. 10 and 11 are diagrams for explaining calculation of the distance from the bottom edge of the display to the top edge of the pixel. 10 and 11 show the case where the angle θ a is 90° or less.

図10において、まず、制御部11は、ディスプレイ30の表示面に対する試着者Rの視野角Θを均等に分割した均等分割角度θeを算出する(式(6))。制御部11は、画素p(第1の画素)の上端から試着者Rの眼に入射する光線b11と、垂直ラインhaとのなす鋭角側の角度θ1(第1の角度)を均等分割角度θe(=θ)にもとづいて算出する。この算出処理では、式(8b)を用いて、画素pのnを代入して求めたθをθ1とする。角度θ1は90°以下である。この場合、制御部11は、90°から角度θ1を減算して、角度(90°-θ1)(第2の角度)を求める。 In FIG. 10, first, the control unit 11 calculates an equal division angle θ e by equally dividing the viewing angle Θ of the try-on person R with respect to the display surface of the display 30 (formula (6)). The control unit 11 equalizes the acute angle θ a 1 (first angle) between the light ray b11 that enters the eye of the try-on person R from the upper end of the pixel p n (first pixel) and the vertical line ha. It is calculated based on the division angle θ e (=θ n ). In this calculation process, θ a obtained by substituting n of pixel p n using equation (8b) is set as θ a 1. The angle θ a 1 is 90° or less. In this case, the control unit 11 subtracts the angle θ a 1 from 90° to obtain the angle (90°−θ a 1) (second angle).

一方、試着者Rの眼Aと、ディスプレイ30における眼Aの高さyの位置の点Bと、ディスプレイ30における画素pの上端の点Cとを結ぶと、三角形ABC(点Bの内角が直角)が形成される。制御部11は、三角形ABCにおける、角度(90°-θ1)の正接(tangent)に、ディスプレイ30と試着者Rとの距離x(第1のパラメータ)を乗算して、距離d1(第1の距離)を算出する。そして、制御部11は、試着者Rの眼の高さy(第2のパラメータ)から距離d1を減算して、画素pの上端の高さyを算出する(式(8a)のθ≦90°のとき)。 On the other hand, if we connect the eye A of the try-on person R, the point B at the height of the eye A on the display 30, and the point C at the upper end of the pixel pn on the display 30, we can form a triangle ABC (the interior angle of point B). is a right angle) is formed. The control unit 11 multiplies the tangent of the angle (90°-θ a 1) in the triangle ABC by the distance x r (first parameter) between the display 30 and the try-on person R to obtain the distance d1 ( the first distance). Then, the control unit 11 subtracts the distance d1 from the eye height y e (second parameter) of the try-on person R to calculate the height y n of the upper end of the pixel p n (equation (8a)). when θ a ≦90°).

図11において、同様にして、制御部11は、画素pn-1の上端から試着者Rの眼に入射する光線b12と、垂直ラインhaとのなす鋭角側の角度θ2(第3の角度)を均等分割角度θe(=θn-1)にもとづいて算出する。この算出処理では、式(8b)を用いて、画素pn-1の(n-1)を代入して求めたθをθ2とする。角度θ2は90°以下である。この場合、制御部11は、90°から角度θ2を減算して、角度(90°-θ2)(第4の角度)を求める。 In FIG. 11, the control unit 11 similarly controls the acute angle θ a 2 (the third angle) is calculated based on the equal division angle θ e (=θ n−1 ). In this calculation process, θ a obtained by substituting (n-1) of pixel p n-1 using equation (8b) is set as θ a 2. The angle θ a 2 is 90° or less. In this case, the control unit 11 subtracts the angle θ a 2 from 90° to obtain the angle (90°−θ a 2) (fourth angle).

一方、試着者Rの眼Aと、ディスプレイ30における眼Aの高さyの位置の点Bと、ディスプレイ30における画素pn-1の上端の点Dとを結ぶと、三角形ABD(点Bの内角が直角)が形成される。制御部11は、三角形ABDにおける、角度(90°-θ2)の正接(tangent)に、ディスプレイ30と試着者Rとの距離で距離x(第1のパラメータ)を乗算して、距離d2(第2の距離)を算出する。そして、制御部11は、試着者Rの眼の高さy(第2のパラメータ)から距離d2を減算して、画素pn-1の上端の高さyn-1を算出する(式(8a)のθ≦90°のとき)。 On the other hand, if we connect the eye A of the try-on person R, the point B at the height ye of the eye A on the display 30, and the point D at the upper end of the pixel pn-1 on the display 30, a triangle ABD (point B The interior angles of are right angles) are formed. The control unit 11 multiplies the tangent of the angle (90°-θ a 2) in the triangle ABD by the distance x r (first parameter), which is the distance between the display 30 and the person trying on the garment R, to determine the distance. d2 (second distance) is calculated. Then, the control unit 11 subtracts the distance d2 from the eye height y e (second parameter) of the try-on person R to calculate the height y n-1 of the upper end of the pixel p n-1 (formula (8a) when θ a ≦90°).

このようにして、θ≦90°の場合における、角度均等分割による画素pの大きさi2を、式(7)を用いて算出できるようになる。
図12、図13は、ディスプレイの下端から画素の上端までの距離の算出を説明するための図である。図12、図13では、角度θが90°を超える場合を示している。
In this way, when θ a ≦90°, the size i n 2 of pixel p n by equal angle division can be calculated using equation (7).
12 and 13 are diagrams for explaining calculation of the distance from the bottom edge of the display to the top edge of the pixel. 12 and 13 show the case where the angle θ a exceeds 90°.

図12において、まず、制御部11は、ディスプレイ30の表示面に対する試着者Rの視野角Θを均等に分割した均等分割角度θeを算出する(式(6))。制御部11は、画素p(第1の画素)の上端から試着者Rの眼に入射する光線b13と、垂直ラインhaとのなす鈍角側の角度θ3(第5の角度)を均等分割角度θe(=θ)にもとづいて算出する。この算出処理では、式(8b)を用いて、画素pのnを代入して求めたθをθ3とする。角度θ3は90°を超える。この場合、制御部11は、角度θ3から90°を減算して、角度(θ3-90°)(第6の角度)を求める。 In FIG. 12, first, the control unit 11 calculates an equal division angle θ e by equally dividing the viewing angle Θ of the try-on person R with respect to the display surface of the display 30 (formula (6)). The control unit 11 equalizes the obtuse angle θ a 3 (fifth angle) between the light ray b13 that enters the eye of the try-on person R from the upper end of the pixel p n (first pixel) and the vertical line ha. It is calculated based on the division angle θ e (=θ n ). In this calculation process, θ a obtained by substituting n of pixel p n using equation (8b) is set as θ a 3. The angle θ a 3 exceeds 90°. In this case, the control unit 11 subtracts 90° from the angle θ a 3 to obtain the angle (θ a 3-90°) (sixth angle).

一方、試着者Rの眼Aと、ディスプレイ30における眼Aの高さyの位置の点Bと、ディスプレイ30における画素pの上端の点Eとを結ぶと、三角形ABE(点Bの内角が直角)が形成される。制御部11は、三角形ABEにおける、角度(θ3-90°)の正接(tangent)に、ディスプレイ30と試着者Rとの距離x(第1のパラメータ)を乗算して、距離d3(第3の距離)を算出する。そして、制御部11は、試着者Rの眼の高さy(第2のパラメータ)に距離d3を加算して、画素pの上端の高さyを算出する(式(8a)の90°<θのとき)。 On the other hand, if we connect eye A of try-on person R, point B at the height of eye A on the display 30, and point E at the upper end of pixel pn on the display 30, we will find a triangle ABE (internal angle of point B). is a right angle) is formed. The control unit 11 multiplies the tangent of the angle (θ a 3-90°) in the triangle ABE by the distance x r (first parameter) between the display 30 and the try-on person R to obtain a distance d3 ( 3rd distance) is calculated. Then, the control unit 11 calculates the height y n of the upper end of the pixel p n by adding the distance d3 to the eye height y e (second parameter) of the try-on person R (equation (8a)). when 90°< θa ).

図13において、同様にして、制御部11は、画素pn-1の上端から試着者Rの眼に入射する光線b14と、垂直ラインhaとのなす鈍角側の角度θ4(第7の角度)を均等分割角度θe(=θn-1)にもとづいて算出する。この算出処理では、式(8b)を用いて画素pn-1の(n-1)を代入して求めたθをθ4とする。角度θ4は90°を超える。この場合、制御部11は、角度θ4から90°を減算して、角度(θ4-90°)(第8の角度)を求める。 In FIG. 13, the control unit 11 similarly controls the obtuse angle θ a 4 (the seventh angle) is calculated based on the equal division angle θ e (=θ n−1 ). In this calculation process, θ a obtained by substituting (n-1) of pixel p n-1 using equation (8b) is set as θ a 4. The angle θ a 4 exceeds 90°. In this case, the control unit 11 subtracts 90° from the angle θ a 4 to obtain the angle (θ a 4-90°) (eighth angle).

一方、試着者Rの眼Aと、ディスプレイ30における眼Aの高さyの位置の点Bと、ディスプレイ30における画素pn-1の上端の点Fとを結ぶと、三角形ABF(点Bの内角が直角)が形成される。制御部11は、三角形ABFにおける、角度(θ4-90°)の正接(tangent)に、ディスプレイ30と試着者Rとの距離x(第1のパラメータ)を乗算して、距離d4(第3の距離)を算出する。そして、制御部11は、試着者Rの眼の高さy(第2のパラメータ)に距離d4を加算して、画素pn-1の上端の高さyn-1を算出する(式(8a)の90°<θのとき)。 On the other hand, if we connect the eye A of the try-on person R, the point B at the height ye of the eye A on the display 30, and the point F at the upper end of the pixel p n-1 on the display 30, a triangle ABF (point B The interior angles of are right angles) are formed. The control unit 11 multiplies the tangent of the angle (θ a 4-90°) in the triangle ABF by the distance x r (first parameter) between the display 30 and the try-on person R to obtain a distance d4 ( 3rd distance) is calculated. Then, the control unit 11 calculates the height y n-1 of the upper end of the pixel p n-1 by adding the distance d4 to the eye height y e (second parameter) of the try-on person R (formula (8a) when 90°<θ a ).

このようにして、90°<θの場合における、角度均等分割による画素pの大きさi2を、式(7)を用いて算出できるようになる。
図14は、拡縮画像の生成例を示す図である。撮影画像g10の各画素に対して対応する拡縮率が適用されることで、拡縮画像g20が生成される。この処理では、まず、撮影画像の画素pの垂直方向に対する大きさiに拡縮率rを乗算することによって、撮影画像の各画素の垂直方向に対する大きさが拡縮される。拡縮後の画素pの大きさi3は、以下の式(10)で算出される。ただし、画素の大きさi、i3は、ディスプレイ30や試着者Rが存在する実世界の座標系でなく、画像座標系における大きさである。
In this way, in the case of 90°<θ a , the size i n 2 of the pixel p n by equal angle division can be calculated using equation (7).
FIG. 14 is a diagram illustrating an example of generating an enlarged/reduced image. An enlarged/reduced image g20 is generated by applying a corresponding enlargement/reduction ratio to each pixel of the photographed image g10. In this process, first, the vertical size of each pixel of the photographed image is scaled up or down by multiplying the vertical size in of the pixel p n of the photographed image by the scaling ratio r n . The size i n 3 of the pixel p n after scaling is calculated by the following equation (10). However, the pixel sizes i n and i n 3 are the sizes in the image coordinate system, not in the real world coordinate system where the display 30 and the try-on person R exist.

Figure 0007343760000010
図14に示すように、撮影画像g10の各画素が拡縮されることで、拡縮後の画素による変換画像g10aが生成される。そして、変換画像g10aの各画素の画素値を補間演算して、変換画像g10aを撮影画像g10と同じ画素数の画像に変換することで、拡縮画像g20が生成される。拡縮画像g20はディスプレイ30に入力され、ディスプレイ30に表示される。
Figure 0007343760000010
As shown in FIG. 14, by scaling each pixel of the captured image g10, a converted image g10a is generated using the pixels after scaling. Then, by interpolating the pixel value of each pixel of the converted image g10a and converting the converted image g10a into an image with the same number of pixels as the photographed image g10, an enlarged/reduced image g20 is generated. The enlarged/reduced image g20 is input to the display 30 and displayed on the display 30.

図15は、画像表示および試着者から見た像の例を示す図である。図15に例示した撮影画像g10を仮にディスプレイ30に表示した場合、表示された撮影画像g10には試着者がほぼ等身大で写っている。この場合、表示された撮影画像g10における試着者の眼の高さは、実際の試着者の眼の高さとほぼ等しくなっている。また、この撮影画像g10では、試着者の上半身と下半身は実物とほぼ同じ比率で写っている。しかし、この撮影画像g10が表示されたディスプレイ30を試着者が見た場合、試着者には図5の例のように上半身が垂直方向に拡大され、下半身が垂直方向に縮小された状態で見える。 FIG. 15 is a diagram showing an example of an image display and an image seen from the person trying on the item. If the photographed image g10 illustrated in FIG. 15 is displayed on the display 30, the displayed photographed image g10 shows the person trying on the clothes at almost life size. In this case, the eye height of the try-on person in the displayed photographed image g10 is approximately equal to the eye height of the actual try-on person. In addition, in this photographed image g10, the upper and lower body of the person trying on the clothes is shown in approximately the same proportion as the actual person. However, when the try-on person looks at the display 30 on which this photographed image g10 is displayed, the try-on person sees the upper body enlarged in the vertical direction and the lower body reduced in the vertical direction, as shown in the example of FIG. .

一方、この撮影画像g10を拡縮することで得られた拡縮画像g20では、試着者の眼の位置に近い領域では画像が垂直方向に縮小され、試着者の眼の位置から遠い領域(例えば画像下側領域)では画像が垂直方向に拡大される。その結果、拡縮画像g20に写っている試着者の像においては、元の撮影画像g10と比較して上半身は小さく写り、下半身は大きく写っている。このような拡縮画像g20が表示されたディスプレイ30を試着者が見たとき、画像g20aに示すように試着者の上半身と下半身は、元の撮影画像g10と同様に実物とほぼ同じ比率で見えるようになる。 On the other hand, in the enlarged/reduced image g20 obtained by enlarging/reducing this photographed image g10, the image is reduced vertically in the area close to the eye position of the try-on person, and in the area far from the eye position of the try-on person (for example, at the bottom of the image). In the side area), the image is enlarged vertically. As a result, in the image of the person trying on the suit in the enlarged/reduced image g20, the upper body appears smaller and the lower body appears larger than in the original photographed image g10. When the try-on person looks at the display 30 on which such an enlarged/reduced image g20 is displayed, the upper and lower body of the try-on person appears in almost the same proportion as the real thing, as shown in the image g20a, as in the original photographed image g10. become.

また、拡縮画像g20では、ディスプレイ30と試着者との距離が近いほど、上半身の縮小率が大きくなり、下半身の拡大率が大きくなる。一方、拡縮画像g20では、ディスプレイ30と試着者との距離が遠いほど、上半身の縮小率が小さくなり、下半身の拡大率も小さくなって、上半身と下半身との比率が実物に近づいていく。しかし、拡縮画像g20が表示されたディスプレイ30を試着者が見たときには、ディスプレイ30と試着者との距離に関係なく、上半身と下半身が実物に近い比率で見えるようになる。 In addition, in the enlarged/reduced image g20, the closer the distance between the display 30 and the person trying on the clothes is, the greater the reduction rate of the upper body and the greater the enlargement rate of the lower body. On the other hand, in the enlarged/reduced image g20, the farther the distance between the display 30 and the person trying on the clothes, the smaller the reduction ratio of the upper body, the smaller the enlargement ratio of the lower body, and the closer the ratio of the upper body to the lower body becomes. However, when the person trying on the garment looks at the display 30 on which the enlarged/reduced image g20 is displayed, the upper and lower body of the wearer can be seen at a ratio close to the real thing, regardless of the distance between the display 30 and the person trying on the garment.

次に、制御部11の拡縮率算出部11aによる第1の拡縮率算出について、図16、図17を用いて説明する。第1の拡縮率算出は、ディスプレイ30と試着者との距離xおよび試着者の眼の高さyを固定値としてあらかじめ用意しておき、固定値のパラメータ情報にもとづいて拡縮率を算出するものである。 Next, the first expansion/contraction rate calculation by the expansion/contraction rate calculation section 11a of the control section 11 will be explained using FIGS. 16 and 17. In the first expansion/contraction ratio calculation, the distance xr between the display 30 and the person trying on the suit and the height of the eye of the person trying it on, ye, are prepared in advance as fixed values, and the expansion/contraction rate is calculated based on the parameter information of the fixed value. It is something to do.

例えば、ディスプレイ30と試着者との距離xは、試着室の床面積の平均的なサイズ(約90cm×約90cm)にもとづいて設定される。記憶部12には、このような試着室における奥行き方向(ディスプレイ30の表示面と垂直な方向)についての3分の2のサイズ(約60cm)が、距離xの固定値としてあらかじめ記憶される。また、記憶部12には、日本人の男性の平均身長(171cm)と女性の平均身長(158cm)の中間値(164cm)が、眼の高さyの固定としてあらかじめ記憶される。 For example, the distance x r between the display 30 and the person trying on the clothes is set based on the average size of the floor area of the fitting room (about 90 cm x about 90 cm). In the storage unit 12, two-thirds of the size (approximately 60 cm) in the depth direction (direction perpendicular to the display surface of the display 30) in the fitting room is stored in advance as a fixed value of the distance x r . . Furthermore, the storage unit 12 stores in advance the intermediate value (164 cm) between the average height of Japanese men (171 cm) and the average height of Japanese women (158 cm) as a fixed eye height ye .

さらに、ディスプレイ30の表示面の高さyは、画像処理装置10の使用開始時に記憶部12に初期設定される。このようにして、記憶部12にはパラメータ情報として、ディスプレイ30と試着者との距離x、試着者の眼の高さy、ディスプレイ30の表示面の高さをyがあらかじめ記憶される。 Further, the height yv of the display surface of the display 30 is initially set in the storage unit 12 when the image processing device 10 is started to be used. In this way, the storage unit 12 stores in advance the distance x r between the display 30 and the person trying on the item, the eye height y e of the person trying on the item, and the height y v of the display surface of the display 30 as parameter information. Ru.

図16は、第1の拡縮率算出の動作の一例を示すフローチャートである。
〔ステップS11〕拡縮率算出部11aは、カメラ20で撮影された撮影画像を取得する。なお、拡縮率算出部11aはこのとき、撮影画像に対し、垂直方向に対するカメラ20のレンズの歪みを除去するための処理を施して、撮影画像における像の垂直方向の比率が実際の比率に近づくように補正することが望ましい。
FIG. 16 is a flowchart illustrating an example of the operation of calculating the first scaling ratio.
[Step S11] The enlargement/reduction ratio calculation unit 11a acquires a captured image captured by the camera 20. At this time, the enlargement/reduction ratio calculation unit 11a performs processing on the photographed image to remove distortion of the lens of the camera 20 in the vertical direction, so that the vertical ratio of the image in the photographed image approaches the actual ratio. It is desirable to correct it as follows.

〔ステップS12〕拡縮率算出部11aは、拡縮率を算出するためのパラメータ情報を記憶部12から取得する。パラメータ情報として、ディスプレイ30と試着者との距離x、試着者の眼の高さy、ディスプレイ30の表示面の高さyが取得される。また、拡縮率算出部11aは、取得された撮影画像の垂直方向の画素数Iを認識する。 [Step S12] The expansion/contraction rate calculation unit 11a acquires parameter information for calculating the expansion/contraction rate from the storage unit 12. As parameter information, the distance x r between the display 30 and the person trying on the item, the height ye of the eyes of the person trying on the item, and the height y v of the display surface of the display 30 are acquired. Further, the enlargement/reduction ratio calculation unit 11a recognizes the number I of pixels in the vertical direction of the acquired captured image.

〔ステップS13〕拡縮率算出部11aは、取得したパラメータ情報と認識した画素数Iとにもとづいて、画素ごとの拡縮率を算出する。
〔ステップS14〕画像拡縮部11bは、算出した拡縮率を撮影画像に乗算して拡縮画像を生成する。
[Step S13] The scaling ratio calculation unit 11a calculates the scaling ratio for each pixel based on the acquired parameter information and the recognized number of pixels I.
[Step S14] The image enlarging/reducing unit 11b multiplies the captured image by the calculated enlargement/reducing ratio to generate an enlarged/reduced image.

〔ステップS15〕制御部11は、拡縮画像をディスプレイ30に転送する。
図17は、第1の拡縮率算出にもとづく画像処理の動作の一例を示す図である。
〔ステップS21〕カメラ20は、試着者を撮影し、撮影画像g10が制御部11に転送される。
[Step S15] The control unit 11 transfers the enlarged/reduced image to the display 30.
FIG. 17 is a diagram illustrating an example of an image processing operation based on the first scaling factor calculation.
[Step S21] The camera 20 photographs the person trying on the clothes, and the photographed image g10 is transferred to the control unit 11.

〔ステップS22〕拡縮率算出部11aは、記憶部12からパラメータ情報を抽出する。また、拡縮率算出部11aは、取得された撮影画像の垂直方向の画素数Iを認識する。
〔ステップS23〕拡縮率算出部11aは、パラメータ情報と画素数Iにもとづいて拡縮率を算出する。
[Step S22] The enlargement/reduction ratio calculation unit 11a extracts parameter information from the storage unit 12. Further, the enlargement/reduction ratio calculation unit 11a recognizes the number I of pixels in the vertical direction of the acquired captured image.
[Step S23] The scaling ratio calculation unit 11a calculates the scaling ratio based on the parameter information and the number of pixels I.

なお、画素数Iおよびディスプレイ30の表示面の高さyも固定値である場合、記憶部12には、固定値である距離x、高さy、画素数Iおよび高さyにもとづいて算出された拡縮率があらかじめ記憶されていてもよい。この場合、ステップS22、S23では、拡縮率が記憶部12から取得される。 Note that when the number of pixels I and the height yv of the display surface of the display 30 are also fixed values, the storage unit 12 stores the fixed values of distance xr , height ye , number of pixels I, and height yv. The enlargement/contraction ratio calculated based on this may be stored in advance. In this case, the scaling ratio is acquired from the storage unit 12 in steps S22 and S23.

〔ステップS24〕画像拡縮部11bは、撮影画像g10に拡縮率を乗算して拡縮画像g20を生成する。
〔ステップS25〕制御部11は、拡縮画像g20をディスプレイ30に転送する。
[Step S24] The image enlarging/reducing unit 11b multiplies the photographed image g10 by an enlarging/reducing ratio to generate an enlarged/reduced image g20.
[Step S25] The control unit 11 transfers the enlarged/reduced image g20 to the display 30.

〔ステップS26〕ディスプレイ30は、拡縮画像g20を表示する。
次に、拡縮率算出部11aの第2の拡縮率算出について、図19から図22を用いて説明する。第2の拡縮率算出では、パラメータ情報のうち、ディスプレイ30と試着者との距離xおよび試着者の眼の高さyを、撮影画像中の試着者の像におけるつま先画素位置および頭頂部画素位置から求めて拡縮率を算出するものである。
[Step S26] The display 30 displays the enlarged/reduced image g20.
Next, the second expansion/contraction rate calculation by the expansion/contraction rate calculation unit 11a will be explained using FIGS. 19 to 22. In the second scaling factor calculation, among the parameter information, the distance xr between the display 30 and the person trying on the suit and the height of the eyes of the person trying on the suit, ye, are used for the toe pixel position and the top of the head in the image of the person trying on the suit in the photographed image. The enlargement/contraction ratio is calculated based on the pixel position.

ここでは例として、つま先画素位置および頭頂部画素位置の複数の組み合わせに対応する距離xおよび高さyの値が記憶部12にあらかじめ記憶されているものとする。また、説明を簡単にするために、撮影画像の垂直方向の画素数Iは固定値であり、パラメータ情報として記憶部12にあらかじめ記憶されるものとする。 Here, as an example, it is assumed that the values of distance x r and height ye corresponding to a plurality of combinations of toe pixel positions and top of head pixel positions are stored in advance in the storage unit 12 . Furthermore, for the sake of simplicity, it is assumed that the number I of pixels in the vertical direction of the photographed image is a fixed value and is stored in advance in the storage unit 12 as parameter information.

図18は、つま先画素位置および頭頂部画素位置とパラメータ情報との対応関係を示すテーブルの一例を示す図である。図18に示すテーブル12a、12bは、記憶部12に格納され、第2の拡縮率算出が行われるときに使用される。 FIG. 18 is a diagram showing an example of a table showing the correspondence between toe pixel positions, top of head pixel positions, and parameter information. Tables 12a and 12b shown in FIG. 18 are stored in the storage unit 12 and used when the second scaling ratio calculation is performed.

テーブル12aには、つま先画素位置P1についての複数の値に対して、ディスプレイ30と試着者との距離xが対応付けて登録されている。つま先画素位置P1は、撮影画像に写った試着者のつま先についての垂直方向の画素番号として検出される。カメラ20の位置と方向があらかじめ決められていれば、つま先画素位置P1から距離xが推定される。ディスプレイ30と試着者との距離xは、検出されたつま先画素位置P1をキーにしてテーブル12aから読み出される。 In the table 12a, the distance xr between the display 30 and the person trying on the item is registered in association with a plurality of values for the toe pixel position P1. The toe pixel position P1 is detected as a pixel number in the vertical direction of the toe of the person trying on the wearer in the photographed image. If the position and direction of the camera 20 are determined in advance, the distance xr can be estimated from the toe pixel position P1. The distance xr between the display 30 and the person trying on the item is read out from the table 12a using the detected toe pixel position P1 as a key.

テーブル12bには、つま先画素位置P1と頭頂部画素位置P2の組み合わせごとに、試着者の眼の高さyが対応付けて登録されている。頭頂部画素位置P2は、撮影画像に写った試着者の頭頂部についての垂直方向の画素番号として検出される。カメラ20の位置と方向があらかじめ決められていれば、つま先画素位置P1と頭頂部画素位置P2の組み合わせから、平均的な試着者の顔の位置や大きさが推定され、それらを基に高さyが推定される。試着者の眼の高さyは、検出されたつま先画素位置P1および頭頂部画素位置P2をキーにしてテーブル12bから読み出される。 In the table 12b, the eye height ye of the try-on wearer is registered in association with each combination of the toe pixel position P1 and the top pixel position P2. The top of the head pixel position P2 is detected as a pixel number in the vertical direction of the top of the head of the person trying on the wearer in the photographed image. If the position and direction of the camera 20 are determined in advance, the position and size of the average try-on person's face can be estimated from the combination of the toe pixel position P1 and the top pixel position P2, and the height can be determined based on these. y e is estimated. The eye height ye of the try-on person is read out from the table 12b using the detected toe pixel position P1 and top of head pixel position P2 as keys.

図19は、第2の拡縮率算出にもとづく画像処理の動作の一例を示すフローチャートである。
〔ステップS31〕制御部11は、カメラ20で撮影された撮影画像を取得する。なお、上記のステップS11と同様に、制御部11はこのとき、撮影画像に対し、垂直方向に対するカメラ20のレンズの歪みを除去するための処理を施すことが望ましい。
FIG. 19 is a flowchart illustrating an example of the image processing operation based on the second scaling factor calculation.
[Step S31] The control unit 11 acquires a photographed image taken by the camera 20. Note that, similarly to step S11 above, it is desirable that the control unit 11 at this time perform processing on the captured image to remove distortion of the lens of the camera 20 in the vertical direction.

〔ステップS32〕拡縮率算出部11aは、撮影画像から試着者のつま先を検出し、つま先画素位置P1を算出する。
〔ステップS33〕拡縮率算出部11aは、撮影画像から試着者の頭頂部を検出し、頭頂部画素位置P2を算出する。
[Step S32] The enlargement/reduction ratio calculation unit 11a detects the toe of the person trying on the suit from the photographed image, and calculates the toe pixel position P1.
[Step S33] The enlargement/reduction ratio calculation unit 11a detects the top of the head of the person trying on the suit from the photographed image, and calculates the top of the head pixel position P2.

〔ステップS34〕拡縮率算出部11aは、記憶部12に格納されているパラメータ情報(ディスプレイと試着者との距離xおよび試着者の眼の高さy)を、算出されたつま先画素位置P1および頭頂部画素位置P2をキーにして読み出して取得する。すなわち、つま先画素位置P1をキーにして距離xがテーブル12aから取得され、つま先画素位置P1および頭頂部画素位置P2をキーにして高さyがテーブル12bから取得される。また、拡縮率算出部11aは、他のパラメータ情報として、撮影画像の垂直方向の画素数Iと、ディスプレイ30の表示面の高さyを記憶部12から取得する。 [Step S34] The enlargement/reduction ratio calculation unit 11a converts the parameter information stored in the storage unit 12 (the distance x r between the display and the person trying on the garment and the height of the eyes of the person trying it on ye ) into the calculated toe pixel position. P1 and the parietal pixel position P2 are used as keys to read and acquire the data. That is, the distance x r is obtained from the table 12a using the toe pixel position P1 as a key, and the height ye is obtained from the table 12b using the toe pixel position P1 and the top pixel position P2 as keys. The enlargement/reduction ratio calculation unit 11a also obtains the number of pixels I in the vertical direction of the captured image and the height yv of the display surface of the display 30 from the storage unit 12 as other parameter information.

〔ステップS35〕拡縮率算出部11aは、取得したパラメータ情報にもとづいて拡縮率を算出する。
〔ステップS36〕画像拡縮部11bは、算出した拡縮率を撮影画像に乗算して拡縮画像を生成する。
[Step S35] The expansion/contraction rate calculation unit 11a calculates the expansion/contraction rate based on the acquired parameter information.
[Step S36] The image enlarging/reducing unit 11b multiplies the captured image by the calculated enlargement/reducing ratio to generate an enlarged/reduced image.

〔ステップS37〕制御部11は、拡縮画像をディスプレイ30に転送する。
図20は、つま先画素位置の算出処理の一例を示すフローチャートである。図20の処理は、図19のステップS32の処理に対応する。
[Step S37] The control unit 11 transfers the enlarged/reduced image to the display 30.
FIG. 20 is a flowchart illustrating an example of toe pixel position calculation processing. The process in FIG. 20 corresponds to the process in step S32 in FIG.

〔ステップS41〕拡縮率算出部11aは、エッジ強調フィルタを用いて、撮影画像の輝度値に対してy軸方向(垂直方向)にエッジ強調処理を施す。
〔ステップS42〕拡縮率算出部11aは、撮影画像における下端のライン(水平方向の画素列)を、つま先位置の探索対象として選択する。
[Step S41] The enlargement/reduction ratio calculation unit 11a performs edge enhancement processing in the y-axis direction (vertical direction) on the luminance value of the photographed image using an edge enhancement filter.
[Step S42] The enlargement/reduction ratio calculation unit 11a selects the bottom line (horizontal pixel row) in the photographed image as a toe position search target.

〔ステップS43〕拡縮率算出部11aは、エッジ強調後の撮影画像における探索対象のラインについて、左端から右端に向かって輝度値が閾値以上となる画素を探索する。
〔ステップS44〕拡縮率算出部11aは、輝度値が閾値以上の画素が検出されたか否かを判定する。該当する画素が検出された場合、拡縮率算出部11aは、現在の探索対象のラインの垂直方向に対する画素番号をつま先画素位置P1として決定し、処理を終了する。一方、該当する画素が検出されなかった場合、ステップS45の処理に進む。
[Step S43] The enlargement/reduction ratio calculation unit 11a searches for a pixel whose luminance value is equal to or greater than a threshold value from the left end to the right end of the search target line in the edge-enhanced photographed image.
[Step S44] The enlargement/reduction ratio calculation unit 11a determines whether a pixel whose luminance value is equal to or greater than a threshold value is detected. If the corresponding pixel is detected, the scaling factor calculation unit 11a determines the pixel number in the vertical direction of the current search target line as the toe pixel position P1, and ends the process. On the other hand, if the corresponding pixel is not detected, the process advances to step S45.

〔ステップS45〕拡縮率算出部11aは、探索対象のラインを1列分(1画素分)上側に移動する。
〔ステップS46〕拡縮率算出部11aは、移動した探索対象のラインが撮影画像の最上端のラインか否かを判定する。移動した探索対象のラインが最上端のラインでない場合は、ステップS43に処理が戻る。一方、移動した探索対象のラインが最上端のラインである場合、つま先画素の検出が不可でありエラーとみなして処理を終了する。
[Step S45] The enlargement/reduction ratio calculation unit 11a moves the line to be searched upward by one column (one pixel).
[Step S46] The enlargement/reduction ratio calculation unit 11a determines whether the moved line to be searched is the topmost line of the photographed image. If the moved search target line is not the topmost line, the process returns to step S43. On the other hand, if the search target line that has been moved is the topmost line, the toe pixel cannot be detected, it is regarded as an error, and the process is terminated.

なお、拡縮率算出部11aは、つま先画素位置の算出においてエラーとなった場合、例えば、記憶部12にあらかじめ格納している固定値のパラメータ情報にもとづく第1の拡縮率算出に移行することができる。 Note that, if an error occurs in calculating the toe pixel position, the scaling ratio calculation unit 11a may, for example, shift to the first scaling ratio calculation based on parameter information of fixed values stored in advance in the storage unit 12. can.

図21は、頭頂部画素位置の算出処理の一例を示すフローチャートである。図21の処理は、図19のステップS33の処理に対応する。
〔ステップS51〕拡縮率算出部11aは、図20のステップS42でエッジ強調処理が施された撮影画像を取得する。
FIG. 21 is a flowchart illustrating an example of a process for calculating the pixel position of the top of the head. The process in FIG. 21 corresponds to the process in step S33 in FIG. 19.
[Step S51] The enlargement/reduction ratio calculation unit 11a acquires the photographed image subjected to the edge enhancement process in step S42 of FIG. 20.

〔ステップS52〕拡縮率算出部11aは、撮影画像における上端のライン(水平方向の画素列)を、頭頂部位置の探索対象として選択する。
〔ステップS53〕拡縮率算出部11aは、エッジ強調後の撮影画像における探索対象のラインについて、左端から右端に向かって輝度値が閾値以上となる画素を探索する。
[Step S52] The enlargement/reduction ratio calculation unit 11a selects the upper end line (horizontal pixel row) in the photographed image as a search target for the top of the head position.
[Step S53] The enlargement/reduction ratio calculation unit 11a searches for a pixel whose luminance value is equal to or greater than a threshold value from the left end to the right end of the search target line in the edge-enhanced photographed image.

〔ステップS54〕拡縮率算出部11aは、輝度値が閾値以上の画素が検出されたか否かを判定する。該当する画素が検出された場合、拡縮率算出部11aは、現在の探索対象のラインの垂直方向に対する画素番号を頭頂部画素位置P2として決定し、処理を終了する。一方、該当する画素が検出されなかった場合、ステップS55の処理に進む。 [Step S54] The enlargement/reduction ratio calculation unit 11a determines whether a pixel whose luminance value is equal to or greater than a threshold value is detected. If the corresponding pixel is detected, the scaling factor calculation unit 11a determines the pixel number in the vertical direction of the current search target line as the top pixel position P2, and ends the process. On the other hand, if the corresponding pixel is not detected, the process advances to step S55.

〔ステップS55〕拡縮率算出部11aは、探索対象のラインを1列分(1画素分)下側に移動する。
〔ステップS56〕拡縮率算出部11aは、移動した探索対象のラインが撮影画像の最下端のラインか否かを判定する。移動した探索対象のラインが最下端のラインでない場合は、ステップS53に処理が戻る。一方、移動した探索対象のラインが最下端のラインである場合、頭頂部画素の検出が不可でありエラーとみなして処理を終了する。
[Step S55] The enlargement/reduction ratio calculation unit 11a moves the search target line downward by one column (one pixel).
[Step S56] The enlargement/reduction ratio calculation unit 11a determines whether the moved line to be searched is the lowest line of the photographed image. If the search target line that has been moved is not the lowest line, the process returns to step S53. On the other hand, if the search target line that has been moved is the lowest line, the top of the head pixel cannot be detected, and this is regarded as an error, and the process is terminated.

なお、拡縮率算出部11aは、頭頂部画素位置の算出においてエラーとなった場合、例えば、記憶部12にあらかじめ格納している固定値のパラメータ情報にもとづく第1の拡縮率算出に移行することができる。 Note that, if an error occurs in calculating the top pixel position, the scaling ratio calculation unit 11a may, for example, shift to a first scaling ratio calculation based on parameter information of fixed values stored in advance in the storage unit 12. I can do it.

上記の図20の処理では、エッジ強調後の撮影画像における試着者の下端位置がつま先位置として検出される。また、図21の処理では、エッジ強調後の撮影画像における試着者の上端位置が頭頂部の位置として検出される。このような処理により、複数のカメラ20を用いたり、専用の距離センサを用いたりすることなく、簡易な処理でつま先画素位置および頭頂部画素位置を推定できる。 In the process shown in FIG. 20 described above, the lower end position of the person trying on the suit in the photographed image after edge enhancement is detected as the toe position. In addition, in the process of FIG. 21, the upper end position of the person trying on the garment in the photographed image after edge enhancement is detected as the position of the top of the head. Through such processing, the toe pixel position and the top pixel position can be estimated by simple processing without using a plurality of cameras 20 or a dedicated distance sensor.

図22は、第2の拡縮率算出にもとづく画像処理の動作の一例を示す図である。
〔ステップS61〕カメラ20は、試着者を撮影し、撮影画像を制御部11に転送する。
FIG. 22 is a diagram illustrating an example of an image processing operation based on the second scaling factor calculation.
[Step S61] The camera 20 photographs the person trying on the clothes and transfers the photographed image to the control unit 11.

〔ステップS62〕拡縮率算出部11aは、撮影画像g10からつま先画素位置を算出する。
〔ステップS63〕拡縮率算出部11aは、撮影画像g10から頭頂部画素位置を算出する。
[Step S62] The enlargement/reduction ratio calculation unit 11a calculates the toe pixel position from the photographed image g10.
[Step S63] The enlargement/reduction ratio calculation unit 11a calculates the top of the head pixel position from the photographed image g10.

〔ステップS64〕拡縮率算出部11aは、つま先画素位置をキーにしてパラメータ情報のうちのディスプレイと試着者との距離xをテーブル12aから抽出する。また、拡縮率算出部11aは、つま先画素位置および頭頂部画素位置をキーにしてパラメータ情報のうちの試着者の眼の高さyをテーブル12bから抽出する。さらに、拡縮率算出部11aは、他のパラメータ情報として、撮影画像の垂直方向の画素数Iと、ディスプレイ30の表示面の高さyを記憶部12から取得する。 [Step S64] The enlargement/reduction ratio calculation unit 11a extracts the distance xr between the display and the person trying on the clothes from the table 12a, which is included in the parameter information, using the toe pixel position as a key. Furthermore, the enlargement/reduction ratio calculation unit 11a extracts the eye height ye of the person trying on the wearer from the table 12b, which is included in the parameter information, using the toe pixel position and the top pixel position as keys. Further, the enlargement/reduction ratio calculation unit 11a obtains the number of pixels I in the vertical direction of the photographed image and the height yv of the display surface of the display 30 from the storage unit 12 as other parameter information.

〔ステップS65〕拡縮率算出部11aは、パラメータ情報にもとづいて、拡縮率を算出する。
〔ステップS66〕画像拡縮部11bは、撮影画像g10に拡縮率を乗算して拡縮画像g20を生成する。
[Step S65] The expansion/contraction rate calculation unit 11a calculates the expansion/contraction rate based on the parameter information.
[Step S66] The image enlarging/reducing unit 11b multiplies the photographed image g10 by the enlarging/reducing ratio to generate an enlarged/reduced image g20.

〔ステップS67〕制御部11は、拡縮画像g20をディスプレイ30に転送する。
〔ステップS68〕ディスプレイ30は、拡縮画像g20を表示する。
次に、第3の拡縮率算出について、図23、図24を用いて説明する。第3の拡縮率算出では、パラメータ情報のうちのディスプレイと試着者との距離xおよび試着者の眼の高さyを実測し、それらの実測値にもとづいて拡縮率を算出するものである。以下の説明では、例として、2つのカメラ(ステレオカメラ)を用いて試着者の眼の3D位置を測定するが、他の例としてデプスセンサを用いて試着者の眼の3D位置を計測してもよい。
[Step S67] The control unit 11 transfers the enlarged/reduced image g20 to the display 30.
[Step S68] The display 30 displays the enlarged/reduced image g20.
Next, the third expansion/contraction ratio calculation will be explained using FIGS. 23 and 24. In the third scaling factor calculation, the distance xr between the display and the person trying on the item and the height of the eye of the person trying it on, among the parameter information, are actually measured, and the scaling factor is calculated based on these measured values. be. In the following explanation, as an example, two cameras (stereo cameras) are used to measure the 3D position of the try-on's eyes, but as another example, a depth sensor may be used to measure the 3D position of the try-on's eyes. good.

図23は、第3の拡縮率算出にもとづく画像処理の動作の一例を示すフローチャートである。
〔ステップS71〕カメラ20a、20b(図24参照)は、試着者を撮影し、撮影画像を制御部11に転送する。なお、上記のステップS11と同様に、制御部11はこのとき、各撮影画像に対し、垂直方向に対するカメラ20のレンズの歪みを除去するための処理を施すことが望ましい。
FIG. 23 is a flowchart illustrating an example of the image processing operation based on the third scaling factor calculation.
[Step S71] The cameras 20a and 20b (see FIG. 24) photograph the person trying on the clothes and transfer the photographed images to the control unit 11. Note that, similarly to step S11 above, at this time, it is desirable that the control unit 11 performs processing on each captured image to remove distortion of the lens of the camera 20 in the vertical direction.

〔ステップS72〕拡縮率算出部11aは、各撮影画像から試着者と背景との差分を算出して試着者の領域(人物領域)を抽出する。
〔ステップS73〕拡縮率算出部11aは、人物領域の中から円形状検出を行って試着者の頭部領域を検出する。
[Step S72] The enlargement/reduction ratio calculation unit 11a calculates the difference between the person trying on the garment and the background from each photographed image, and extracts the area of the person trying on the garment (person area).
[Step S73] The enlargement/reduction ratio calculation unit 11a detects a circular shape from the human region to detect the head region of the person trying on the suit.

〔ステップS74〕拡縮率算出部11aは、頭部領域の中から円形状検出を行って試着者の眼領域を検出する。
〔ステップS75〕拡縮率算出部11aは、撮影画像のそれぞれから、2つの眼領域の中心座標を検出する。拡縮率算出部11aは、各撮影画像から検出された中心座標を基に、三角測量を使用して眼の3D位置(3D座標位置)を測定する。これにより、ディスプレイ30と試着者との距離xおよび試着者の眼の高さyが求められる。
[Step S74] The enlargement/contraction rate calculation unit 11a detects the eye area of the wearer by detecting a circular shape from the head area.
[Step S75] The enlargement/reduction ratio calculation unit 11a detects the center coordinates of the two eye regions from each of the photographed images. The enlargement/reduction ratio calculation unit 11a uses triangulation to measure the 3D position (3D coordinate position) of the eye based on the center coordinates detected from each captured image. As a result, the distance x r between the display 30 and the person trying on the item and the height ye of the eye of the person trying on the item are determined.

〔ステップS76〕拡縮率算出部11aは、残りのパラメータ情報(撮影画像の垂直方向の画素数Iおよびディスプレイ30の表示面の高さy)を記憶部12から取得する。
〔ステップS77〕拡縮率算出部11aは、ステップS75で求められたディスプレイ30と試着者との距離xおよび試着者の眼の高さyと、ステップS76で取得したパラメータ情報とにもとづいて、拡縮率を算出する。
[Step S76] The enlargement/reduction ratio calculation unit 11a acquires the remaining parameter information (the number of vertical pixels I of the photographed image and the height yv of the display surface of the display 30) from the storage unit 12.
[Step S77] The enlargement/reduction ratio calculation unit 11a calculates the size based on the distance xr between the display 30 and the person trying on the suit, the height of the eye of the person trying on the suit, determined at step S75, and the parameter information obtained at step S76. , calculate the scaling ratio.

〔ステップS78〕画像拡縮部11bは、算出した拡縮率を撮影画像に乗算して拡縮画像を生成する。
〔ステップS79〕制御部11は、拡縮画像をディスプレイ30に転送する。
[Step S78] The image enlarging/reducing unit 11b multiplies the captured image by the calculated enlargement/reducing ratio to generate an enlarged/reduced image.
[Step S79] The control unit 11 transfers the enlarged/reduced image to the display 30.

図24は、第3の拡縮率算出にもとづく画像処理の動作の一例を示す図である。
〔ステップS81〕カメラ20a、20bは、試着者を撮影し、撮影画像g11、g12を制御部11に転送する。
FIG. 24 is a diagram illustrating an example of an image processing operation based on the third scaling factor calculation.
[Step S81] The cameras 20a and 20b photograph the person trying on the clothes and transfer the photographed images g11 and g12 to the control unit 11.

〔ステップS82〕拡縮率算出部11aは、撮影画像g11、g12から人物領域を抽出して、人物領域画像g11-1、g12-1を生成する。
〔ステップS83〕拡縮率算出部11aは、人物領域画像g11-1、g12-1から頭部領域を抽出して、頭部領域g11-2、g12-2を生成する。
[Step S82] The enlargement/reduction ratio calculation unit 11a extracts human regions from the photographed images g11 and g12, and generates human region images g11-1 and g12-1.
[Step S83] The enlargement/reduction ratio calculation unit 11a extracts the head region from the human region images g11-1 and g12-1 to generate head regions g11-2 and g12-2.

〔ステップS84〕拡縮率算出部11aは、頭部領域g11-2、g12-2から眼領域を抽出して、眼領域画像g11-3、g12-3を生成する。
〔ステップS85〕拡縮率算出部11aは、2枚の眼領域画像g11-3、g12-3の眼の中心座標から、三角測量により試着者の眼の3D位置を測定する。
[Step S84] The enlargement/reduction ratio calculation unit 11a extracts the eye region from the head regions g11-2 and g12-2, and generates eye region images g11-3 and g12-3.
[Step S85] The enlargement/reduction ratio calculation unit 11a measures the 3D position of the try-on's eye by triangulation from the eye center coordinates of the two eye area images g11-3 and g12-3.

〔ステップS86〕拡縮率算出部11aは、眼の3D位置から、パラメータ情報のうちのディスプレイと試着者との距離xおよび試着者の眼の高さyを取得する。また、拡縮率算出部11aは、残りのパラメータ情報(撮影画像の垂直方向の画素数Iおよびディスプレイ30の表示面の高さy)を記憶部12から取得する。 [Step S86] The enlargement/contraction rate calculation unit 11a obtains the distance xr between the display and the person trying on the garment and the height ye of the eye of the person trying on the garment, among the parameter information, from the 3D position of the eye. Furthermore, the enlargement/reduction ratio calculation unit 11a acquires the remaining parameter information (the number of vertical pixels I of the photographed image and the height yv of the display surface of the display 30) from the storage unit 12.

〔ステップS87〕拡縮率算出部11aは、パラメータ情報にもとづいて、拡縮率を算出する。
〔ステップS88〕画像拡縮部11bは、撮影画像g11(または撮影画像g12)に拡縮率を乗算して拡縮画像g20を生成する。
[Step S87] The expansion/contraction rate calculation unit 11a calculates the expansion/contraction rate based on the parameter information.
[Step S88] The image enlarging/reducing unit 11b multiplies the photographed image g11 (or photographed image g12) by an enlargement/reduction ratio to generate an enlarged/reduced image g20.

〔ステップS89〕制御部11は、拡縮画像g20をディスプレイ30に転送する。
〔ステップS90〕ディスプレイ30は、拡縮画像g20を表示する。
以上説明したように、第2の実施の形態では、ディスプレイ30の表示面をy軸方向に距離均等分割したときの画素のy方向の大きさi1と、表示面を試着者の眼を中心としてy軸方向に角度均等分割したときの画素のy方向の大きさi2とから、拡縮率が算出される。そして、撮影画像に拡縮率を適用することで、ディスプレイ30を通じて試着者が見たときに、試着者の像における上半身と下半身とが実物に近い比率で見えるように補正された拡縮画像が生成され、ディスプレイ30に表示される。これにより、試着者は、ディスプレイ30に近づいた場合でも実物に近い状態で試着者の試着姿を確認できるようになり、サービス性の向上を図ることができる。
[Step S89] The control unit 11 transfers the enlarged/reduced image g20 to the display 30.
[Step S90] The display 30 displays the enlarged/reduced image g20.
As explained above, in the second embodiment, when the display surface of the display 30 is equally divided in the y-axis direction, the pixel size i in 1 in the y-direction and the display surface are The enlargement/contraction ratio is calculated from the size in 2 of the pixel in the y direction when the pixel is equally divided at angles in the y axis direction. Then, by applying an enlargement/reduction ratio to the photographed image, a corrected enlarged/reduced image is generated so that when the try-on person views it through the display 30, the upper body and lower body of the try-on person's image appear at a ratio close to the real thing. , is displayed on the display 30. As a result, even when the person trying on the item approaches the display 30, the person trying on the item can see the person trying on the item in a state similar to the actual item, and serviceability can be improved.

なお、上記で説明した本発明の画像処理装置1、10の処理機能は、コンピュータによって実現することができる。この場合、画像処理装置1、10が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。 Note that the processing functions of the image processing apparatuses 1 and 10 of the present invention described above can be realized by a computer. In this case, a program is provided that describes the processing contents of the functions that the image processing apparatuses 1 and 10 should have. By executing the program on the computer, the above processing functions are realized on the computer.

処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、半導体メモリ等がある。磁気記憶装置には、ハードディスク装置(HDD)、磁気テープ等がある。光ディスクには、CD、DVD、ブルーレイディスク等がある。 A program that describes processing contents can be recorded on a computer-readable recording medium. Computer-readable recording media include magnetic storage devices, optical disks, semiconductor memories, and the like. Magnetic storage devices include hard disk drives (HDD), magnetic tapes, and the like. Optical discs include CDs, DVDs, and Blu-ray discs.

プログラムを流通させる場合、例えば、そのプログラムが記録されたCD等の可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When a program is distributed, for example, a portable recording medium such as a CD on which the program is recorded is sold. It is also possible to store the program in the storage device of the server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。 A computer that executes a program stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. Note that a computer can also directly read a program from a portable recording medium and execute processing according to the program. Furthermore, each time a program is transferred from a server computer connected via a network, the computer can sequentially execute processing according to the received program.

1 画像処理装置
1a 受信部
1b 制御部
2 カメラ
3 表示装置
4 人物
4a 眼
5a 撮影画像
5b 拡縮画像
6a、6b 像
1 Image processing device 1a Receiving unit 1b Control unit 2 Camera 3 Display device 4 Person 4a Eye 5a Photographed image 5b Enlarged/reduced image 6a, 6b Image

Claims (7)

コンピュータに、
カメラで人物を撮影した撮影画像を前記人物が視認する表示装置に表示させる際に、
前記人物の眼の高さと、前記人物と前記表示装置の表示面との距離と、にもとづいて前記撮影画像の画素ごとに算出される拡縮率を取得し、
前記撮影画像の各画素を前記拡縮率にもとづいて拡縮して拡縮画像を生成し、前記拡縮画像を前記表示装置に表示させ、
前記表示面の高さ方向に距離を均等分割したときの前記撮影画像の画素の第1の大きさと、前記表示面に対して前記眼を中心として前記表示面の高さ方向に角度を均等分割したときの前記撮影画像の画素の第2の大きさとにもとづいて、前記拡縮率を算出する、
処理を実行させる画像処理プログラム。
to the computer,
When displaying a photographed image of a person with a camera on a display device that the person views,
obtaining an enlargement/contraction ratio calculated for each pixel of the photographed image based on the eye height of the person and the distance between the person and the display surface of the display device;
generating a scaled image by scaling each pixel of the photographed image based on the scale ratio, and displaying the scaled image on the display device;
a first size of pixels of the photographed image when the distance is equally divided in the height direction of the display surface, and an angle is equally divided in the height direction of the display surface with the eye as the center with respect to the display surface; Calculating the enlargement/contraction ratio based on the second size of the pixels of the photographed image when
An image processing program that executes processing.
前記撮影画像における画素ごとの前記拡縮率は、
前記距離が短いほど、前記撮影画像を前記表示面に描画したときの垂直方向の位置が前記眼の高さに近い画素に対する、前記位置が前記眼の高さから遠い画素についての垂直方向の幅が大きくなるように算出される、
請求項1記載の画像処理プログラム。
The enlargement/contraction ratio for each pixel in the photographed image is
The shorter the distance, the vertical width of a pixel whose vertical position is closer to the eye height when the photographed image is drawn on the display surface, and the vertical width of a pixel whose position is farther from the eye height. is calculated so that it becomes larger,
The image processing program according to claim 1.
前記拡縮率は、
前記撮影画像を前記表示面に描画したときの、前記撮影画像の各画素の垂直方向に対する前記第1の大きさと、
前記高さと前記距離とにもとづく位置に存在する前記眼からの前記表示面に対する視野角を同一角度で分割したときに、前記表示面に投影される各分割領域の垂直方向に対する前記第2の大きさと、
にもとづいて算出される、
請求項1または2記載の画像処理プログラム。
The expansion/contraction rate is
the first size in the vertical direction of each pixel of the photographed image when the photographed image is drawn on the display surface;
the second size in the vertical direction of each divided area projected onto the display surface when the viewing angle from the eye to the display surface from the eye located at a position based on the height and the distance is divided by the same angle; Sato,
Calculated based on
The image processing program according to claim 1 or 2.
前記撮影画像において垂直方向に並列する各画素と、前記表示面において垂直方向に並列する前記各分割領域とを同一方向に1つずつ選択していったときに、前記撮影画像から選択された画素についての前記第1の大きさと、前記選択された画素に対応する前記分割領域についての前記第2の大きさとの比率にもとづいて、前記選択された画素についての前記拡縮率が算出される、
請求項3記載の画像処理プログラム。
A pixel selected from the photographed image when each pixel arranged in the vertical direction in the photographed image and each divided region arranged in the vertical direction on the display surface are selected one by one in the same direction. The scaling factor for the selected pixel is calculated based on the ratio of the first size for the divided area and the second size for the divided area corresponding to the selected pixel.
The image processing program according to claim 3.
前記拡縮率の取得では、前記撮影画像における前記人物の上端および下端の位置にもとづいて前記高さと前記距離を算出し、算出された前記高さおよび前記距離にもとづいて前記拡縮率を算出する、
請求項1乃至4のいずれか1項に記載の画像処理プログラム。
In acquiring the enlargement/reduction ratio, the height and the distance are calculated based on the positions of the upper end and the lower end of the person in the photographed image, and the enlargement/reduction ratio is calculated based on the calculated height and the distance.
The image processing program according to any one of claims 1 to 4.
コンピュータが、
カメラで人物を撮影した撮影画像を前記人物が視認する表示装置に表示させる際に、
前記人物の眼の高さと、前記人物と前記表示装置の表示面との距離と、にもとづいて前記撮影画像の画素ごとに算出される拡縮率を取得し、
前記撮影画像の各画素を前記拡縮率にもとづいて拡縮して拡縮画像を生成し、前記拡縮画像を前記表示装置に表示させ、
前記表示面の高さ方向に距離を均等分割したときの前記撮影画像の画素の第1の大きさと、前記表示面に対して前記眼を中心として前記表示面の高さ方向に角度を均等分割したときの前記撮影画像の画素の第2の大きさとにもとづいて、前記拡縮率を算出する、
画像処理方法。
The computer is
When displaying a photographed image of a person with a camera on a display device that the person views,
obtaining an enlargement/contraction ratio calculated for each pixel of the photographed image based on the eye height of the person and the distance between the person and the display surface of the display device;
generating a scaled image by scaling each pixel of the photographed image based on the scale ratio, and displaying the scaled image on the display device;
a first size of pixels of the photographed image when the distance is equally divided in the height direction of the display surface, and an angle is equally divided in the height direction of the display surface with the eye as the center with respect to the display surface; Calculating the enlargement/contraction ratio based on the second size of the pixels of the photographed image when
Image processing method.
カメラによって人物を撮影した撮影画像を受信する受信部と、
前記撮影画像を前記人物が視認する表示装置に表示させる際に、前記人物の眼の高さと、前記人物と前記表示装置の表示面との距離と、にもとづいて前記撮影画像の画素ごとに算出される拡縮率を取得し、前記撮影画像の各画素を前記拡縮率にもとづいて拡縮して拡縮画像を生成し、前記拡縮画像を前記表示装置に表示させる制御部と、を備え、
前記制御部は、前記表示面の高さ方向に距離を均等分割したときの前記撮影画像の画素の第1の大きさと、前記表示面に対して前記眼を中心として前記表示面の高さ方向に角度を均等分割したときの前記撮影画像の画素の第2の大きさとにもとづいて、前記拡縮率を算出する、
像処理装置。
a receiving unit that receives an image of a person taken by a camera;
When displaying the photographed image on a display device that the person views, calculate each pixel of the photographed image based on the height of the person's eyes and the distance between the person and the display surface of the display device. a control unit that obtains an enlargement/reduction ratio, generates an enlarged/reduced image by enlarging/reducing each pixel of the photographed image based on the enlargement/reduction ratio, and displays the enlarged/reduced image on the display device ;
The control unit is configured to determine a first size of pixels of the photographed image when the distance is equally divided in the height direction of the display surface, and a first size of the pixels of the photographed image in the height direction of the display surface with the eye as the center relative to the display surface. Calculating the enlargement/contraction ratio based on a second size of pixels of the photographed image when the angle is equally divided into
Image processing device.
JP2019146727A 2019-08-08 2019-08-08 Image processing program, image processing method, and image processing device Active JP7343760B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019146727A JP7343760B2 (en) 2019-08-08 2019-08-08 Image processing program, image processing method, and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019146727A JP7343760B2 (en) 2019-08-08 2019-08-08 Image processing program, image processing method, and image processing device

Publications (2)

Publication Number Publication Date
JP2021027559A JP2021027559A (en) 2021-02-22
JP7343760B2 true JP7343760B2 (en) 2023-09-13

Family

ID=74663200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019146727A Active JP7343760B2 (en) 2019-08-08 2019-08-08 Image processing program, image processing method, and image processing device

Country Status (1)

Country Link
JP (1) JP7343760B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244089A (en) 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd Person detection device, person detection method, and person detection program
JP2013162451A (en) 2012-02-08 2013-08-19 Tatsumi Denshi Kogyo Kk Game photographing apparatus, game photographing method, and program
JP2016509683A (en) 2012-12-18 2016-03-31 ヴィルコフスキー,ニッシ Apparatus, system and method for imaging and displaying appearance
WO2018225518A1 (en) 2017-06-07 2018-12-13 ソニー株式会社 Image processing device, image processing method, program, and telecommunication system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244089A (en) 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd Person detection device, person detection method, and person detection program
JP2013162451A (en) 2012-02-08 2013-08-19 Tatsumi Denshi Kogyo Kk Game photographing apparatus, game photographing method, and program
JP2016509683A (en) 2012-12-18 2016-03-31 ヴィルコフスキー,ニッシ Apparatus, system and method for imaging and displaying appearance
WO2018225518A1 (en) 2017-06-07 2018-12-13 ソニー株式会社 Image processing device, image processing method, program, and telecommunication system

Also Published As

Publication number Publication date
JP2021027559A (en) 2021-02-22

Similar Documents

Publication Publication Date Title
US20230195215A1 (en) Virtual object display interface between a wearable device and a mobile device
US12014461B2 (en) Method for constructing three-dimensional model of target object and related apparatus
CN109146965A (en) Information processing unit and computer program
US11436742B2 (en) Systems and methods for reducing a search area for identifying correspondences between images
US10863077B2 (en) Image photographing method, apparatus, and terminal
JP2009278456A (en) Video display device
US12028626B2 (en) Visual-inertial tracking using rolling shutter cameras
KR20200003719A (en) Image processing apparatus, image processing method, and storage medium
US11568555B2 (en) Dense depth computations aided by sparse feature matching
US11915441B2 (en) Systems and methods for low compute depth map generation
US12020448B2 (en) Systems and methods for updating continuous image alignment of separate cameras
JP2021034897A (en) Image processing device, image communication system, image processing method and program
US11450014B2 (en) Systems and methods for continuous image alignment of separate cameras
JP7343760B2 (en) Image processing program, image processing method, and image processing device
US11430086B2 (en) Upsampling low temporal resolution depth maps
TWI745955B (en) Augmented reality system and anchor display method thereof
JP5805013B2 (en) Captured image display device, captured image display method, and program
JP5448952B2 (en) Same person determination device, same person determination method, and same person determination program
US11488318B2 (en) Systems and methods for temporally consistent depth map generation
CN111586328B (en) Information processing apparatus, information processing method, and recording medium
JP2018032144A (en) Image processor, image processing method and program
CN113703161B (en) Augmented reality system and anchoring display method thereof
JP5245156B2 (en) Camera system, image information reproducing means therefor, and image information reproducing means
KR20220074543A (en) Apparatus and method for providing user interface of immersive 3D display
JP2020095671A (en) Recognition device and recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230814

R150 Certificate of patent or registration of utility model

Ref document number: 7343760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150