JP2013080135A - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP2013080135A
JP2013080135A JP2011220459A JP2011220459A JP2013080135A JP 2013080135 A JP2013080135 A JP 2013080135A JP 2011220459 A JP2011220459 A JP 2011220459A JP 2011220459 A JP2011220459 A JP 2011220459A JP 2013080135 A JP2013080135 A JP 2013080135A
Authority
JP
Japan
Prior art keywords
image
displayed
display
coordinate
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011220459A
Other languages
Japanese (ja)
Other versions
JP5974422B2 (en
Inventor
Kazuo Henmi
一男 辺見
Mamoru Kubo
盟 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ALTEC INFORMATION SYSTEM Inc
Nagasaki Prefectural University Corp
Original Assignee
ALTEC INFORMATION SYSTEM Inc
Nagasaki Prefectural University Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ALTEC INFORMATION SYSTEM Inc, Nagasaki Prefectural University Corp filed Critical ALTEC INFORMATION SYSTEM Inc
Priority to JP2011220459A priority Critical patent/JP5974422B2/en
Publication of JP2013080135A publication Critical patent/JP2013080135A/en
Application granted granted Critical
Publication of JP5974422B2 publication Critical patent/JP5974422B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image display device that displays an image that is related to a passenger being in front of a display screen, and attracts interest of the passenger.SOLUTION: An image display device 1 includes: a display 4 that displays a display image; a camera 2 that picks up an image of the front of the display 4; and a PC 3 that controls the display image. The PC 3 displays a picked-up image that is picked up by the camera 2 on the display 4. The PC 3 executes predetermined part detection processing for detecting a predetermined part of a user 20, and displays a decorative image displayed with the detected predetermined part as an original point together with the picked-up image picked up by the camera 2 on the display 4 as a display image.

Description

本発明は、表示面に画像を表示する画像表示装置に関する。   The present invention relates to an image display device that displays an image on a display surface.

近年、広告等を表示するために乗り物や店舗等に設置される画像表示装置として、動画を表示することができるものが多く用いられている。このような画像表示装置としては、通行人の注目を効果的に集めることができる動画等(以下、「画像」)を表示することができるものが好ましい。   In recent years, as an image display device installed in a vehicle or a store for displaying an advertisement or the like, a device that can display a moving image is often used. As such an image display apparatus, an apparatus capable of displaying a moving image or the like (hereinafter referred to as “image”) that can effectively attract the attention of a passerby is preferable.

例えば、特許文献1には、コンピュータにより制御された画像をディスプレイに表示することができる画像表示装置が開示されている。このような画像表示装置によれば、同一の場所に配設された複数のディスプレイに連続映像を配信することで通行人の注目をある程度集めることができることができるようになる。   For example, Patent Document 1 discloses an image display device that can display an image controlled by a computer on a display. According to such an image display device, it is possible to gather a certain amount of attention of passersby by distributing continuous video to a plurality of displays arranged at the same place.

特開2003−157036号公報Japanese Patent Laid-Open No. 2003-157036

しかしながら、このような従来の画像表示装置は、当該画像表示装置の前方を通行する通行人とは何ら関連のない予め定められた所定の画像を表示するものでしかない。このため、このような画像表示装置に表示される画像は、通行人にとっては変化や斬新さに欠けるものでしかなく、この画像を用いることで通行人の注目を効果的に集めることは困難であった。   However, such a conventional image display device only displays a predetermined image that is not related to a passerby who passes in front of the image display device. For this reason, the image displayed on such an image display device is only lacking in change and novelty for passers-by, and it is difficult to effectively gather the attention of passers-by using this image. there were.

本発明は、このような事情を鑑みてなされたものであり、表示面の前方に位置する通行人と関連があり、通行人の興味を引き付けることができる画像を表示する画像表示装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides an image display device that displays an image that is related to a passerby located in front of the display surface and can attract the passerby's interest. For the purpose.

本発明の第一態様は、表示面に表示画像を表示する表示手段と、前記表示面の前方を撮像画像として撮像する撮像手段と、前記表示画像を制御する制御手段とを備える画像表示装置であって、前記制御手段は、前記撮像画像において使用者の所定部位が表示されている位置を起点として設定する所定領域に装飾画像を表示する画像表示処理を実行し、前記装飾画像を前記撮像画像とともに前記表示画像として前記表示面に表示することを特徴としている。   A first aspect of the present invention is an image display device comprising display means for displaying a display image on a display surface, image pickup means for picking up the front of the display surface as a picked-up image, and control means for controlling the display image. The control means executes an image display process for displaying a decoration image in a predetermined area set starting from a position where a predetermined part of the user is displayed in the captured image, and the decoration image is displayed on the captured image. In addition, the display image is displayed on the display surface.

同構成(第一態様にかかる画像表示装置)では、制御装置は、表示面の前方を撮像した撮像画像において使用者の所定部位が表示されている位置を起点とする所定領域に装飾画像を表示する。そして、この装飾画像と撮像画像とを表示画像として表示面に表示する。このため、表示面には、表示面の前方の画像とともに、装飾画像が使用者の所定部位を起点として表示されることとなる。同構成によれば、このように使用者と関連がある位置に装飾画像を表示することで、使用者と関連のある表示画像を表示面に表示することができる。したがって、使用者である通行人の興味を引き付けることができる画像を表示面に表示することができる。   In the same configuration (the image display device according to the first aspect), the control device displays a decoration image in a predetermined area starting from a position where the predetermined part of the user is displayed in the captured image obtained by imaging the front of the display surface. To do. And this decoration image and a captured image are displayed on a display surface as a display image. For this reason, the decoration image is displayed on the display surface starting from the predetermined part of the user, together with the image in front of the display surface. According to the configuration, by displaying the decoration image at the position related to the user as described above, the display image related to the user can be displayed on the display surface. Therefore, an image that can attract the interest of a passerby who is a user can be displayed on the display surface.

本発明の第二態様は、第一態様にかかる画像表示装置であって、前記制御手段は、撮像時刻の異なる前回の撮像画像と今回の撮像画像との間の変化分を白画素として検出し、この白画素が表示される位置に基づいて前記所定部位が表示されている位置を検出することを特徴としている。   A second aspect of the present invention is the image display device according to the first aspect, wherein the control means detects a change between a previous captured image and a current captured image having different imaging times as white pixels. The position where the predetermined part is displayed is detected based on the position where the white pixel is displayed.

本発明の第三態様は、第一態様または第二態様にかかる画像表示装置であって、前記撮像手段は、前記表示面から所定の範囲に前記使用者が位置していないと判断したときには、前記画像表示処理の実行を禁止することを特徴としている。   A third aspect of the present invention is the image display device according to the first aspect or the second aspect, wherein the imaging means determines that the user is not located within a predetermined range from the display surface. Execution of the image display process is prohibited.

同構成(第三態様にかかる画像表示装置)によれば、表示面から所定の範囲に使用者が位置していないときには画像表示処理の実行が禁止されるため、使用者が表示面の前方におらず、表示面に装飾画像を表示する必要がない場合まで画像表示処理が実行されることを抑制することができるようになる。   According to the same configuration (the image display device according to the third aspect), since the execution of the image display process is prohibited when the user is not located within a predetermined range from the display surface, the user is placed in front of the display surface. Thus, it is possible to prevent the image display process from being executed until there is no need to display a decorative image on the display surface.

本発明の第四態様は、第二態様または第三態様にかかる画像表示装置であって、前記制御手段は、前記撮像画像を上領域と下領域とに区画する仮想区画線を前記撮像画像中に設定するとともに、前記下領域に前記白画素を検出したときに、当該白画素が前記仮想区画線まで連続して検出されたことをもって、前記表示面から所定の範囲に前記使用者が位置していると判断することを特徴としている。   A fourth aspect of the present invention is the image display device according to the second aspect or the third aspect, wherein the control means includes a virtual dividing line that divides the captured image into an upper region and a lower region in the captured image. And when the white pixel is detected in the lower region, the user is positioned within a predetermined range from the display surface when the white pixel is continuously detected up to the virtual partition line. It is characterized by being judged.

前方に位置する使用者の全身を撮像することができるように撮像手段を配設した場合、当該撮像手段にて撮像される撮像画像の下領域には撮像手段前方の床面が表示される。そして、当該撮像画像の上領域には床面上の空間が表示される。このため、使用者が撮像手段の前方に位置しているときには、床面にある使用者の足部が白画素として下領域に検出されるとともに、使用者の下肢等が、仮想区画線まで連続して白画素として検出される。   When the imaging unit is arranged so that the whole body of the user located in front can be imaged, the floor surface in front of the imaging unit is displayed in the lower region of the captured image captured by the imaging unit. A space on the floor is displayed in the upper area of the captured image. For this reason, when the user is positioned in front of the imaging means, the user's foot on the floor is detected as a white pixel in the lower region, and the user's lower limbs are continuously connected to the virtual partition line. Thus, it is detected as a white pixel.

同構成(第四態様にかかる画像表示装置)では、このように下領域に白画素を検出したときに、この白画素を仮想区画線まで連続して検出したことをもって、表示面から所定の範囲に使用者が位置していると判断するため、表示面から所定の範囲に使用者が位置しているか否かを好適に判断することができる。   In the same configuration (the image display device according to the fourth aspect), when white pixels are detected in the lower region in this way, the white pixels are continuously detected up to the virtual partition line, so that a predetermined range from the display surface is obtained. Therefore, it can be suitably determined whether or not the user is located within a predetermined range from the display surface.

本発明の第五態様は、第二態様〜第四態様のいずれかにかかる画像表示装置であって、前記制御手段は、前記装飾画像を表示する前記所定領域を前記白画素が表示される領域の大きさに基づいて設定することを特徴としている。   A fifth aspect of the present invention is the image display device according to any one of the second aspect to the fourth aspect, wherein the control means is an area where the white pixel is displayed as the predetermined area where the decoration image is displayed. It is characterized in that it is set based on the size of.

同構成(第五態様にかかる画像表示装置)によれば、使用者の移動速度に基づいて装飾画像を表示する所定領域を設定することができるため、装飾画像を使用者の移動態様に基づいて表示することができる。   According to the same configuration (the image display device according to the fifth aspect), the predetermined area for displaying the decoration image can be set based on the moving speed of the user, so the decoration image can be set based on the movement aspect of the user. Can be displayed.

本発明の第六態様は、第一態様〜第四態様のいずれかにかかる画像表示装置であって、前記制御手段は、撮像時刻の異なる前回の撮像画像と今回の撮像画像との間の変化分を白画素として検出し、前記白画素が表示される領域の重心位置をそれぞれ算出し、この重心位置の移動方向に基づいて、前記所定領域を設定することを特徴としている。   A sixth aspect of the present invention is the image display device according to any one of the first aspect to the fourth aspect, wherein the control means changes between a previous captured image and a current captured image having different imaging times. Minutes are detected as white pixels, the centroid positions of the areas where the white pixels are displayed are calculated, and the predetermined area is set based on the moving direction of the centroid position.

同構成(第六態様にかかる画像表示装置)によれば、所定部位の移動方向に基づいて装飾画像を表示する所定領域を設定することができるため、装飾画像を使用者の移動態様に応じて表示面に表示することができるようになる。   According to the same configuration (the image display device according to the sixth aspect), it is possible to set a predetermined area for displaying the decorative image based on the moving direction of the predetermined part. It can be displayed on the display surface.

本発明の第七態様は、第一態様〜第六態様にいずれかにかかる画像表示装置であって、前記使用者の前記所定部位が表示されている位置を(x´,y´)とすると、前記所定領域は、所定の定数であるw,w,v,v,w,w,w,w,A,B,CおよびDと、以下の数式とに基づいて設定されることを特徴としている。
X = (w+v)t+Asin(wt)+Bsin(wt)+x´
Y = (w+v)t+Ccos(wt)+Dcos(wt)+y´
A seventh aspect of the present invention is the image display device according to any one of the first to sixth aspects, wherein the position where the predetermined part of the user is displayed is (x ′, y ′). The predetermined area is based on w x , w y , v x , v y , w 1 , w 2 , w 3 , w 4 , A, B, C, and D, which are predetermined constants, and the following formula: It is characterized by being set.
X = (w x + v x ) t + Asin (w 1 t) + Bsin (w 2 t) + x'
Y = (w y + v y ) t + C cos (w 3 t) + D cos (w 4 t) + y ′

本発明によれば、表示面の前方に位置する通行人と関連があり、通行人の興味を引き付けることができる画像を表示する画像表示装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image display apparatus which displays the image which is related with the passerby located ahead of a display surface, and can attract a passerby's interest can be provided.

(a)は、本発明の第一実施形態にかかる画像表示装置の概略構成図、(b)は、同実施形態にかかる所定部位検出処理を説明するための説明図。(A) is a schematic block diagram of the image display apparatus concerning 1st embodiment of this invention, (b) is explanatory drawing for demonstrating the predetermined site | part detection process concerning the embodiment. 同実施形態にかかる表示画像の処理方法を示すフローチャート。6 is a flowchart showing a display image processing method according to the embodiment. 同実施形態にかかる所定部位検出処理の処理手順を示すフローチャート。The flowchart which shows the process sequence of the predetermined part detection process concerning the embodiment. 同実施形態にかかる画像表示処理の処理手順を示すフローチャート。6 is a flowchart showing a processing procedure for image display processing according to the embodiment; (a)は、同実施形態にかかる表示画像が表示される画像表示装置の概略構成図、(b)は、同実施形態にかかる表示画像の一例を示すディスプレイの表示画面図。(A) is a schematic block diagram of the image display apparatus by which the display image concerning the embodiment is displayed, (b) is a display screen figure of the display which shows an example of the display image concerning the embodiment. (a)は、他の実施形態にかかる所定部位検出処理を説明するための説明図、(b)は、同実施形態にかかる表示画像が表示される画像表示装置の概略構成図。(A) is explanatory drawing for demonstrating the predetermined site | part detection process concerning other embodiment, (b) is a schematic block diagram of the image display apparatus by which the display image concerning the embodiment is displayed. 本発明の第二実施形態にかかる表示画像の処理方法を示すフローチャート。The flowchart which shows the processing method of the display image concerning 2nd embodiment of this invention. (a)は、同実施形態にかかる画像表示装置および使用者を示す概略図、(b)は、同実施形態にかかる位置検出処理を説明するための説明図。(A) is the schematic which shows the image display apparatus and user concerning the embodiment, (b) is explanatory drawing for demonstrating the position detection process concerning the embodiment. 同実施形態にかかる位置検出処理の処理手順を示すフローチャート。6 is a flowchart showing a processing procedure of position detection processing according to the embodiment. (a)〜(d)は、本発明の第三実施形態にかかる初期速度v,vの算出方法を説明するための説明図。(A) ~ (d) is a third embodiment in accordance initial velocity v x, v explanatory diagram for explaining a method of calculating y of the present invention. (a)は、本発明の第四実施形態にかかる画像表示装置の概略構成図、(b)は、同実施形態にかかる所定部位検出処理を説明するための説明図。(A) is a schematic block diagram of the image display apparatus concerning 4th embodiment of this invention, (b) is explanatory drawing for demonstrating the predetermined site | part detection process concerning the embodiment. 同実施形態にかかる表示画像の処理方法を示すフローチャート。6 is a flowchart showing a display image processing method according to the embodiment; 同実施形態にかかる距離判断処理の処理手順を示すフローチャート。The flowchart which shows the process sequence of the distance judgment process concerning the embodiment. 同実施形態にかかる所定部位検出処理の処理手順を示すフローチャート。The flowchart which shows the process sequence of the predetermined part detection process concerning the embodiment. 同実施形態にかかる表示画像が表示される画像表示装置の概略構成図。The schematic block diagram of the image display apparatus by which the display image concerning the embodiment is displayed. (a)は、他の実施形態にかかる所定部位検出処理を説明するための説明図、(b)は、同実施形態にかかる表示画像が表示される画像表示装置の概略構成図。(A) is explanatory drawing for demonstrating the predetermined site | part detection process concerning other embodiment, (b) is a schematic block diagram of the image display apparatus by which the display image concerning the embodiment is displayed. 第五実施形態にかかる表示画像の処理方法を示すフローチャート。The flowchart which shows the processing method of the display image concerning 5th embodiment. 同実施形態にかかる所定部位検出処理の処理手順を示すフローチャート。The flowchart which shows the process sequence of the predetermined part detection process concerning the embodiment. 同実施形態にかかる表示画像が表示される画像表示装置の概略構成図。The schematic block diagram of the image display apparatus by which the display image concerning the embodiment is displayed. (a)は、他の実施形態にかかる所定部位検出処理を説明するための説明図、(b)は、同実施形態にかかる表示画像が表示される画像表示装置の概略構成図。(A) is explanatory drawing for demonstrating the predetermined site | part detection process concerning other embodiment, (b) is a schematic block diagram of the image display apparatus by which the display image concerning the embodiment is displayed. (a)は、本発明の第六実施形態にかかる画像表示装置の概略構成図、(b)は、同実施形態にかかる所定部位検出処理を説明するための説明図。(A) is a schematic block diagram of the image display apparatus concerning 6th embodiment of this invention, (b) is explanatory drawing for demonstrating the predetermined site | part detection process concerning the embodiment. 同実施形態にかかる所定部位検出処理の処理手順を示すフローチャート。The flowchart which shows the process sequence of the predetermined part detection process concerning the embodiment. 同実施形態にかかる表示画像が表示される画像表示装置の概略構成図。The schematic block diagram of the image display apparatus by which the display image concerning the embodiment is displayed. (a)は、他の実施形態にかかる所定部位検出処理を説明するための説明図、(b)は、同実施形態にかかる表示画像が表示される画像表示装置の概略構成図。(A) is explanatory drawing for demonstrating the predetermined site | part detection process concerning other embodiment, (b) is a schematic block diagram of the image display apparatus by which the display image concerning the embodiment is displayed. 第七実施形態にかかる画像表示処理の処理手順を説明するフローチャート。The flowchart explaining the process sequence of the image display process concerning 7th embodiment. (a)〜(d)は、同実施形態にかかる初期速度v,vの算出方法を説明するための説明図。(A) ~ (d), the initial velocity v x according to the embodiment, v explanatory diagram for explaining a calculation method of y. (a)および(b)は、同実施形態にかかる表示画像の一例を示すディスプレイの表示画面図。(A) And (b) is a display screen figure of the display which shows an example of the display image concerning the embodiment. 他の実施形態にかかる画像表示装置の概略構成図。The schematic block diagram of the image display apparatus concerning other embodiment. 他の実施形態にかかる画像表示装置の概略構成図。The schematic block diagram of the image display apparatus concerning other embodiment.

(第一実施形態)
以下、本発明を具体化した第一実施形態を図1〜図5に基づいて説明する。
まず、図1(a)を参照しながら、本実施形態にかかる画像表示装置1の概略構成について説明する。
(First embodiment)
Hereinafter, a first embodiment embodying the present invention will be described with reference to FIGS.
First, a schematic configuration of the image display apparatus 1 according to the present embodiment will be described with reference to FIG.

同図1(a)に示されるように、画像表示装置1は、カメラ2(本発明の「撮像手段」に相当)と、このカメラ2に接続されるパーソナルコンピュータとしてのPC3(本発明の「制御手段」および「表示手段」に相当)と、このPC3に接続されるディスプレイ4(本発明の「表示面」に相当)とを備えている。これらカメラ2およびディスプレイ4は、前方を通行人(以下、「使用者」)が多く通る乗り物や店舗等に設置されることが好ましい。   As shown in FIG. 1A, an image display device 1 includes a camera 2 (corresponding to “imaging means” of the invention) and a PC 3 (personal computer of the invention) connected to the camera 2. And a display 4 (corresponding to the “display surface” of the present invention) connected to the PC 3. The camera 2 and the display 4 are preferably installed in a vehicle, a store, or the like through which many passersby (hereinafter “users”) pass.

カメラ2は、ディスプレイ4の中央上部に配設され、ディスプレイ4前方を撮像する。
ここで、カメラ2の撮像範囲は、ディスプレイ4前方に起立した使用者20の全身が収まる範囲であればよい。
The camera 2 is disposed at the upper center of the display 4 and images the front of the display 4.
Here, the imaging range of the camera 2 may be a range in which the whole body of the user 20 standing in front of the display 4 can be accommodated.

なお、カメラ2とPC3との接続方法、およびPC3とディスプレイ4との接続方法は、特に限定されるものではなく、例えば、有線方式や無線方式のネットワークを介して接続されていてもよい。   Note that the connection method between the camera 2 and the PC 3 and the connection method between the PC 3 and the display 4 are not particularly limited, and may be connected via, for example, a wired or wireless network.

このように構成された画像表示装置1において、カメラ2にて撮像されたディスプレイ4前方の画像(以下、「撮像画像」)の画像情報は、PC3に出力される。なお、カメラ2は、ディスプレイ4前方を1秒間に5〜30回のうち任意の回数撮像する。撮像画像の撮像回数が1秒間に5回未満であると、使用者20の動きを適切に捉えることが困難となる。一方、撮像画像の撮像回数が1秒間に30回を超えると、PC3が処理すべき画像量が多くなりすぎてしまう。   In the image display device 1 configured as described above, image information of an image in front of the display 4 (hereinafter, “captured image”) captured by the camera 2 is output to the PC 3. The camera 2 images the front of the display 4 any number of times from 5 to 30 times per second. When the number of captured images is less than 5 times per second, it is difficult to appropriately capture the movement of the user 20. On the other hand, if the number of captured images exceeds 30 times per second, the amount of image to be processed by the PC 3 becomes too large.

PC3は、この撮像画像上に、図1(b)に示されるように、横方向をX軸、当該横方向に垂直な方向をY軸、左下端を(0,0)、右上端を(W,H)とする座標を設定する。そして、この座標が設定された撮像画像上に装飾画像を重畳してこれを表示画像とし、この表示画像の画像情報をディスプレイ4に出力する。以下、詳細に説明する。   On this captured image, as shown in FIG. 1B, the PC 3 displays the horizontal direction as the X axis, the direction perpendicular to the horizontal direction as the Y axis, the lower left corner as (0, 0), and the upper right corner as ( Set coordinates as W, H). Then, the decoration image is superimposed on the captured image in which the coordinates are set to form a display image, and the image information of the display image is output to the display 4. Details will be described below.

まず、図2を参照しながら、本実施形態における表示画像の処理方法について説明する。同図2に示されるように、本処理が開始されると、まず、PC3は、所定部位検出処理を実行する(ステップS100)。そして、検出した所定部位を起点として設定する領域に装飾画像を表示する画像表示処理(ステップS101)を実行する。   First, a display image processing method in this embodiment will be described with reference to FIG. As shown in FIG. 2, when this process is started, the PC 3 first executes a predetermined part detection process (step S100). And the image display process (step S101) which displays a decoration image in the area | region set from the detected predetermined site | part as a starting point is performed.

以下、これら所定部位検出処理および画像表示処理について詳細に説明する。
まず、所定部位検出処理について、図3を参照しながら詳細に説明する。
同図3に示されるように、本処理が開始されると、まず、PC3はカメラ2から撮像画像の画像情報を取得し(ステップS200)、この撮像画像に対して白と黒の二階調に変換する二値化処理を施す(ステップS201)。
Hereinafter, the predetermined part detection process and the image display process will be described in detail.
First, the predetermined part detection process will be described in detail with reference to FIG.
As shown in FIG. 3, when this process is started, first, the PC 3 acquires image information of the captured image from the camera 2 (step S200), and the captured image is divided into white and black gradations. Binarization processing for conversion is performed (step S201).

そして、この二値化処理を施した撮像画像に対して差分処理を実行する(ステップS202)。具体的には、前回の制御周期でカメラ2から取得して二値化処理を施した撮像画像と、今回の制御周期でカメラ2から取得して二値化処理を施した撮像画像との間で差分画像を生成する。前回の制御周期で取得した撮像画像と今回の制御周期で取得した撮像画像との間に変化分が存在する場合、差分画像において当該変化分が位置する座標には白画素が表示される。   And a difference process is performed with respect to the captured image which performed this binarization process (step S202). Specifically, between the captured image acquired from the camera 2 and binarized in the previous control cycle and the captured image acquired from the camera 2 and binarized in the current control cycle To generate a difference image. When there is a change between the captured image acquired in the previous control cycle and the captured image acquired in the current control cycle, white pixels are displayed at the coordinates where the change is located in the difference image.

次に、PC3は、今回の制御周期でカメラ2から取得して二値化処理を施した撮像画像を保存する(ステップS203)。そして、PC3は、差分画像において、座標f(x,y)の階調値が基準値C以上であるか否かを判断する(ステップS204)。なお、基準値Cは「200」以上の値に設定されていることが好ましく、「250」以上の値に設定されていることが更に好ましい。本実施形態では、所定部位の安定検出という目的から、「255」に予め設定されている。   Next, the PC 3 stores the captured image obtained from the camera 2 and subjected to binarization processing in the current control cycle (step S203). Then, the PC 3 determines whether or not the gradation value of the coordinate f (x, y) is greater than or equal to the reference value C in the difference image (step S204). The reference value C is preferably set to a value of “200” or more, and more preferably set to a value of “250” or more. In the present embodiment, “255” is set in advance for the purpose of stable detection of a predetermined part.

座標f(x,y)の階調値が基準値C以上であると判断する場合(ステップS204;YES)、座標f(x,y)には白画素が表示されている。すなわち前回の制御周期で取得した撮像画像の座標f(x,y)に表示されている画像と今回の制御周期で取得した撮像画像の座標f(x,y)に表示されている画像とは異なっている。   When it is determined that the gradation value of the coordinate f (x, y) is greater than or equal to the reference value C (step S204; YES), a white pixel is displayed at the coordinate f (x, y). That is, the image displayed at the coordinate f (x, y) of the captured image acquired in the previous control cycle and the image displayed at the coordinate f (x, y) of the captured image acquired in the current control cycle are as follows. Is different.

本実施形態では、このような変化分は、ディスプレイ4前方に起立した使用者20が動いたことに起因して生じたものであるとして、座標f(x,y)に所定部位が位置していると判断する。そこで、座標f(x,y)を動きの検出点とする(ステップS209)。   In the present embodiment, such a change is caused by the movement of the user 20 standing in front of the display 4, and a predetermined part is located at the coordinates f (x, y). Judge that Therefore, the coordinate f (x, y) is set as a motion detection point (step S209).

これに対して、座標f(x,y)の階調値が基準値C未満であると判断する場合(ステップS204;NO)、座標f(x,y)のx座標値をインクリメント(x=x+1)する(ステップS205)。そして、座標f(x,y)のx座標値が、所定値W(撮像画像に設定されたx座標の右端の値)以上であるか否かを判断する(ステップS206)。   On the other hand, when it is determined that the gradation value of the coordinate f (x, y) is less than the reference value C (step S204; NO), the x coordinate value of the coordinate f (x, y) is incremented (x = x + 1) (step S205). Then, it is determined whether or not the x coordinate value of the coordinate f (x, y) is equal to or greater than a predetermined value W (the right end value of the x coordinate set in the captured image) (step S206).

座標f(x,y)のx座標値が所定値W未満であると判断する場合(ステップS206;NO)、ステップS204およびS205の処理を繰り返す。
一方、座標f(x,y)のx座標値が所定値W以上であると判断する場合(ステップS206;YES)、座標f(x,y)のy座標値をインクリメント(y=y+1)して(ステップS207)、座標f(x,y)のy座標値が、所定値H(撮像画像に設定されたy座標の上端の値)以上であるか否かを判断する(ステップS208)。
When it is determined that the x coordinate value of the coordinate f (x, y) is less than the predetermined value W (step S206; NO), the processes of steps S204 and S205 are repeated.
On the other hand, when it is determined that the x coordinate value of the coordinate f (x, y) is greater than or equal to the predetermined value W (step S206; YES), the y coordinate value of the coordinate f (x, y) is incremented (y = y + 1). (Step S207), it is determined whether or not the y coordinate value of the coordinate f (x, y) is equal to or greater than a predetermined value H (the value of the upper end of the y coordinate set in the captured image) (Step S208).

座標f(x,y)のy座標値が所定値H未満であると判断する場合(ステップS208;NO)、ステップS204〜S207の処理を繰り返す。
一方、座標f(x,y)のy座標値が所定値H以上であると判断する場合(ステップS208;YES)、および上述したように座標f(x,y)を動きの検出点とした後(ステップS209)、座標f(x,y)のx座標値およびy座標値をそれぞれx=「0」,y=「0」として(ステップS210)、この所定部位検出処理を一旦終了する。
When it is determined that the y coordinate value of the coordinate f (x, y) is less than the predetermined value H (step S208; NO), the processes of steps S204 to S207 are repeated.
On the other hand, when it is determined that the y-coordinate value of the coordinate f (x, y) is greater than or equal to the predetermined value H (step S208; YES), and as described above, the coordinate f (x, y) is used as the motion detection point. After (step S209), the x-coordinate value and the y-coordinate value of the coordinate f (x, y) are set to x = “0” and y = “0” (step S210), respectively, and the predetermined part detection process is temporarily ended.

次に、画像表示処理について、図4を参照しながら詳細に説明する。
同図4に示されるように、本処理が開始されると、まず、PC3は初期速度v,vを設定する(ステップS300)。
なお、初期速度vは装飾画像のx軸方向における最初の移動速度、初期速度vは装飾画像のy軸方向における最初の移動速度である。これら初期速度v,vは、予め所定の値に設定してもよいし、本処理の開始毎に異なる値に設定してもよい。本実施形態では、予め所定の値に設定されている。
Next, image display processing will be described in detail with reference to FIG.
As shown in FIG. 4, the present process is started, first, PC3 sets the initial velocity v x, v y (step S300).
The initial velocity v x The first moving speed in the x-axis direction of the decoration image, the initial velocity v y is the first moving speed in the y-axis direction of the decoration image. These initial velocities v x and v y may be set to predetermined values in advance, or may be set to different values at the start of this process. In the present embodiment, a predetermined value is set in advance.

次に、PC3は、初期速度vが「0」以上であるか否かを判断する(ステップS301)。初期速度vが「0」以上であると判断する場合(ステップS301;YES)、初期速度vを式(1)に基づいて補正する(ステップS302)。ここで、減速速度Vは、予め所定の値に設定してもよいし、所定部位の動く速度等に応じて設定してもよい。

=v−V…(1)

一方、初期速度vが「0」未満であると判断する場合(ステップS301;NO)、初期速度v=「0」とする(ステップS303)。
Next, the PC 3 determines whether or not the initial speed v x is “0” or more (step S301). When it is determined that the initial speed v x is “0” or more (step S301; YES), the initial speed v x is corrected based on the equation (1) (step S302). Here, the deceleration rate V x may be preset to a predetermined value may be set according to the speed or the like of movement of the predetermined part.

v x = v x −V x (1)

On the other hand, when it is determined that the initial speed v x is less than “0” (step S301; NO), the initial speed v x is set to “0” (step S303).

そして、PC3は、初期速度vが「0」以上であるか否かを判断する(ステップS304)。初期速度vが「0」以上であると判断する場合(ステップS304;YES)、初期速度vを式(2)に基づいて補正する(ステップS305)。ここで、減速速度Vは、予め所定の値に設定してもよいし、所定部位の動く速度等に応じて設定してもよい。本実施形態では、減速速度V,Vは、予め所定の値に定められている。

=v−V…(2)

このように初期速度v,vを補正することで、装飾画像がx軸方向およびy軸方向に減速しながら移動するように表示することができる。
一方、初期速度vが「0」未満であると判断する場合(ステップS304;NO)、初期速度v=「0」とする(ステップS306)。
Then, PC3, the initial velocity v y is equal to or greater than or equal to "0" (step S304). If the initial velocity v y is determined to be "0" or more (step S304; YES), it is corrected based on the initial velocity v y in equation (2) (step S305). Here, the deceleration speed V y may be set to a predetermined value in advance, or may be set according to a moving speed of a predetermined part. In the present embodiment, the deceleration speeds V x and V y are set to predetermined values in advance.

v y = v y −V y (2)

Thus the initial velocity v x, v by correcting the y, can be a decoration image is displayed so as to move while decelerating in the x-axis and y-axis directions.
On the other hand, if the initial velocity v y is determined to be less than "0" (step S304; NO), the initial velocity v x = a "0" (step S306).

次に、装飾画像を表示する座標g(x,y)を以下の式(3)および(4)を用いて算出する(ステップS307)。なお、この座標計算においては、検出した所定部位の位置する座標f(x,y)のx座標値およびy座標値をそれぞれ「x´」,「y´」とする。

x=(w+v)t+Asin(ωt)+Bsin(ωt)+x´…(3)
y=(w+v)t+Ccos(ωt)+Dcos(ωt)+y´…(4)

なお、角速度ω,ω,ω,ω、および定数A,B,C,Dは、実験等を通じて予め定められた所定の値である。また、時間tは、本画像表示処理が開始されたときからカウントを開始する。
Next, coordinates g (x, y) for displaying the decoration image are calculated using the following equations (3) and (4) (step S307). In this coordinate calculation, the x-coordinate value and the y-coordinate value of the coordinates f (x, y) at which the detected predetermined part is located are “x ′” and “y ′”, respectively.

x = (w x + v x ) t + Asin (ω 1 t) + Bsin (ω 2 t) + x ′ (3)
y = (w y + v y ) t + C cos (ω 3 t) + D cos (ω 4 t) + y ′ (4)

The angular velocities ω 1 , ω 2 , ω 3 , ω 4 and the constants A, B, C, D are predetermined values determined in advance through experiments or the like. Also, the time t starts counting from when the main image display process is started.

本実施形態では、装飾画像が、主にx軸方向に吹く風によってx軸方向に流れるように表示する。そこで、それぞれx軸方向、y軸方向に流れる風を風速w,wとして式(3)および(4)に組み込んでいる。なお、風速w,wは、予め定められた所定の速度としてもよいし、本処理の開始毎に異なる値に設定してもよい。
本実施形態では、風速w,wを予め所定の値に設定している。そして、風速wを風速wよりも大きい値に設定している。
In the present embodiment, the decoration image is displayed so as to flow in the x-axis direction mainly by the wind blowing in the x-axis direction. Therefore, winds flowing in the x-axis direction and the y-axis direction are incorporated in the equations (3) and (4) as wind speeds w x and w y , respectively. Note that the wind speeds w x and w y may be predetermined speeds set in advance, or may be set to different values at the start of this process.
In the present embodiment, the wind speeds w x and w y are set to predetermined values in advance. The wind speed w x is set to a value larger than the wind speed w y .

PC3は、式(3)および(4)に基づいて算出した座標g(x,y)に装飾画像を表示し(ステップS308)、表示回数nをインクリメント(n=n+1)する(ステップS309)。   The PC 3 displays the decoration image at the coordinates g (x, y) calculated based on the formulas (3) and (4) (step S308), and increments the display count n (n = n + 1) (step S309).

次に、表示回数nが所定回数N以上であるか否かを判断する(ステップS310)。表示回数nが所定回数N未満であると判断する場合(ステップS310;NO)、ステップS301以降の処理を繰り返す。一方、表示回数nが所定回数N以上であると判断する場合(ステップS310;YES)、表示回数n=「0」とし(ステップS311)、この処理を一旦終了する。なお、所定回数Nは1秒間のうち、装飾画像を表示する座標g(x,y)を算出する回数であり、5〜30回に設定されることが好ましく、15〜30回に設定されることがより好ましい。   Next, it is determined whether or not the display number n is a predetermined number N or more (step S310). When it is determined that the display number n is less than the predetermined number N (step S310; NO), the processes after step S301 are repeated. On the other hand, when it is determined that the display number n is equal to or greater than the predetermined number N (step S310; YES), the display number n is set to “0” (step S311), and this process is temporarily ended. The predetermined number N is the number of times of calculating the coordinates g (x, y) for displaying the decoration image in one second, and is preferably set to 5 to 30 times, and is set to 15 to 30 times. It is more preferable.

図5(a)に、上述した処理を通じて算出した座標に表示画像を表示した画像表示装置1を示す。また、同図5(b)に、上述した処理を通じて表示画像を表示したディスプレイ4の表示画面図を示す。   FIG. 5A shows an image display device 1 that displays a display image at coordinates calculated through the above-described processing. FIG. 5B shows a display screen diagram of the display 4 that displays a display image through the above-described processing.

同図5(b)に示されるように、装飾画像は、使用者20の足部が表示される位置から主にx軸方向に移動するように表示される。なお、同図5(b)には、画像表示処理が開始されてから終了するまでの間に表示される全ての装飾画像を記載している。実際には、装飾画像は、まず使用者20の所定部位(本実施形態においては、足部)が表示される位置と同じ位置に表示される。そして、この所定部位が表示されている位置を起点として、時間の経過とともに使用者20の所定部位が表示されている位置から離れるように移動する。
このように、本実施形態において、装飾画像は、同図5(a)に示されるように使用者20の所定部位を起点とする領域Aに示されることとなる。
As shown in FIG. 5B, the decoration image is displayed so as to move mainly in the x-axis direction from the position where the foot of the user 20 is displayed. In FIG. 5B, all decoration images displayed from the start to the end of the image display process are shown. Actually, the decoration image is first displayed at the same position as the position where the predetermined part (in this embodiment, the foot) of the user 20 is displayed. Then, starting from the position where the predetermined part is displayed, the user 20 moves away from the position where the predetermined part of the user 20 is displayed as time passes.
As described above, in the present embodiment, the decoration image is displayed in the area A starting from the predetermined part of the user 20 as shown in FIG.

上記実施形態によれば、以下に記載する作用効果を奏することができる。
(1)本実施形態では、PC3は、撮像時刻の異なるふたつの撮像画像の間の変化分に基づいて使用者20の所定部位が表示されている位置を検出するため、撮像画像に表示されたもののうちディスプレイ4前方で動くもの、すなわち使用者20を適切に検出することができる。このため、撮像画像において使用者20の所定部位が表示されている位置を適切に検出することができる。
According to the said embodiment, there can exist an effect described below.
(1) In the present embodiment, the PC 3 is displayed in the captured image in order to detect the position where the predetermined part of the user 20 is displayed based on the change between two captured images having different imaging times. Among them, the one that moves in front of the display 4, that is, the user 20 can be detected appropriately. For this reason, the position where the predetermined part of the user 20 is displayed in the captured image can be detected appropriately.

(2)また、ディスプレイ4には、ディスプレイ4前方の画像および使用者20の画像とともに、装飾画像が使用者20の所定部位が表示されている位置を起点として表示される。このように、本実施形態によれば、使用者20と関連がある部位に装飾画像を表示することができるため、使用者である通行人の興味を引き付けることができる画像をディスプレイ4に表示することができる。   (2) Further, the display 4 displays the decoration image together with the image in front of the display 4 and the image of the user 20 from the position where the predetermined part of the user 20 is displayed. Thus, according to this embodiment, since a decoration image can be displayed on the part relevant to the user 20, an image that can attract the interest of a passerby as a user is displayed on the display 4. be able to.

(3)また、所定部位が表示されている位置を起点として所定領域を設定するようにしているため、装飾画像は、所定部位が表示されている位置から他の位置に移動するように表示される。このように、所定部位が表示されている位置を起点として他の位置に移動するように装飾画像が表示されるため、使用者である好適に通行人の興味を好適に引き付けることができる画像をディスプレイに表示することができるようになる。   (3) Since the predetermined area is set starting from the position where the predetermined part is displayed, the decoration image is displayed so as to move from the position where the predetermined part is displayed to another position. The In this way, since the decoration image is displayed so as to move to another position starting from the position where the predetermined part is displayed, an image that can favorably attract the interest of a passerby who is a user can be obtained. It can be displayed on the display.

(その他の実施形態)
以下、本発明を具体化したその他の実施形態を上記第一実施形態と異なる点を中心に図6に基づいて説明する。なお、図6において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Other embodiments)
Hereinafter, another embodiment in which the present invention is embodied will be described based on FIG. 6 with a focus on differences from the first embodiment. In FIG. 6, the same elements as those described in the first embodiment are denoted by the same reference numerals, and redundant descriptions of these elements are omitted.

同図6(a)に示されるように、本実施形態の画像表示装置1は、撮像画像上に、横方向をX軸、当該横方向に垂直な方向をY軸とし、左上端を原点(0,0)、右下端を(W,H)とする座標を設定する。   As shown in FIG. 6A, the image display device 1 according to the present embodiment has a horizontal direction as an X axis, a direction perpendicular to the horizontal direction as a Y axis, and the upper left corner as an origin ( 0,0) and coordinates with the lower right corner at (W, H) are set.

本実施形態にかかる画像表示装置1では、PC3は、図6(b)に示されるように、使用者20の最上部(ここでは、頭頂部)が表示される座標を所定部位が表示される座標として認識し、この座標を起点として主にx軸方向に流れるように装飾画像を表示することとなる。   In the image display device 1 according to the present embodiment, as shown in FIG. 6 (b), the PC 3 displays a predetermined part with coordinates for displaying the uppermost part (here, the top of the head) of the user 20. The decoration image is displayed so as to flow mainly in the x-axis direction starting from this coordinate as a starting point.

上記実施形態によれば、上記実施形態にて説明した作用効果に加えて、以下に記載する作用効果を奏することができる。
(4)本実施形態によれば、使用者20の注意をひきやすい部位である頭頂部を起点として装飾画像を表示することができる。このため、通行人の興味をより好適に引き付けることができる画像を表示することができる。
According to the said embodiment, in addition to the effect demonstrated in the said embodiment, there can exist the effect described below.
(4) According to the present embodiment, it is possible to display a decoration image starting from the top of the head, which is a part that is likely to attract the user's 20 attention. For this reason, the image which can attract a passerby's interest more appropriately can be displayed.

(第二実施形態)
以下、本発明を具体化した第二実施形態を上記第一実施形態と異なる点を中心に図7〜図9に基づいて説明する。なお、これら図7〜図9において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Second embodiment)
Hereinafter, a second embodiment embodying the present invention will be described based on FIGS. 7 to 9 with a focus on differences from the first embodiment. 7 to 9, the same elements as those described in the first embodiment are denoted by the same reference numerals, and redundant description of these elements is omitted.

本実施形態では、使用者20がディスプレイ4前方に位置しているか否かを判断する。そして、使用者20がディスプレイ4から所定の範囲に位置する場合にのみ、当該使用者20の所定部位を検出する所定部位検出処理を実行する。   In the present embodiment, it is determined whether or not the user 20 is located in front of the display 4. Then, only when the user 20 is located within a predetermined range from the display 4, a predetermined part detection process for detecting the predetermined part of the user 20 is executed.

なお、本実施形態では、第一実施形態にて説明したように、PC3は、撮像画像上に、横方向をX軸、当該横方向に垂直な方向をY軸とし、同撮像画像の左上端を原点(0,0)、同撮像画像の右下端を(W,H)とする座標を設定する。また、本実施形態における所定部位検出処理の処理内容、および全体の画像処理方法は、第一実施形態にて説明した処理内容と同一であるため、詳細な説明は割愛する。   In this embodiment, as described in the first embodiment, the PC 3 sets the horizontal direction on the captured image as the X axis and the direction perpendicular to the horizontal direction as the Y axis, and the upper left corner of the captured image. Is set to the origin (0, 0), and the coordinate with the lower right corner of the captured image as (W, H) is set. In addition, since the processing content of the predetermined part detection processing and the entire image processing method in the present embodiment are the same as the processing content described in the first embodiment, detailed description thereof is omitted.

図7に示されるように、本実施形態では、PC3は、所定部位検出処理を実行した(ステップS400)後、使用者20がディスプレイ4前方に位置しているか否かを判断し(ステップS401)、使用者20がディスプレイ4前方に使用者20が位置していないと判断する場合(ステップS401;NO)、所定部位検出処理(ステップS400)を再度実行する。一方、使用者20がディスプレイ4前方に位置していると判断する場合(ステップS401;YES)、画像表示処理を実行する(ステップS402)。   As shown in FIG. 7, in the present embodiment, after executing the predetermined part detection process (step S400), the PC 3 determines whether the user 20 is located in front of the display 4 (step S401). When the user 20 determines that the user 20 is not located in front of the display 4 (step S401; NO), the predetermined part detection process (step S400) is executed again. On the other hand, when it is determined that the user 20 is located in front of the display 4 (step S401; YES), an image display process is executed (step S402).

次に、使用者20が所定の範囲に位置するか否かを判断する位置検出処理について、図8および図9を参照しながら説明する。ここで、「所定の範囲」とは、ディスプレイ4前方のうちディスプレイ4上に配設されたカメラ2にて撮像される範囲を撮像範囲とすると、当該撮像範囲において当該ディスプレイ4と使用者との間の距離が距離D未満となる範囲を示す。   Next, position detection processing for determining whether or not the user 20 is located within a predetermined range will be described with reference to FIGS. 8 and 9. Here, the “predetermined range” refers to a range captured by the camera 2 disposed on the display 4 in front of the display 4 as an imaging range, and between the display 4 and the user in the imaging range. The range in which the distance between them is less than the distance D is shown.

本実施形態では、使用者20がディスプレイ4から所定の範囲に位置していることをもって、使用者20がディスプレイ4前方に位置していると判断するようにしている。なお、以下の説明においては、ディスプレイ4から所定の範囲に位置している使用者を「使用者20」、ディスプレイ4から所定の範囲に位置していない使用者を「使用者23」として表示する。   In the present embodiment, it is determined that the user 20 is located in front of the display 4 when the user 20 is located within a predetermined range from the display 4. In the following description, a user who is located within a predetermined range from the display 4 is displayed as “user 20”, and a user who is not located within the predetermined range from the display 4 is displayed as “user 23”. .

また、カメラ2は、ディスプレイ4の中央上部に配設されているため、カメラ2と使用者20,23と間の距離は、ディスプレイ4と使用者20,23との距離と略等しい。このため、本実施形態では、カメラ2を通じて撮像された撮像画像を用いて使用者20,23とディスプレイ4との間の距離を算出する。   Further, since the camera 2 is disposed at the upper center of the display 4, the distance between the camera 2 and the users 20 and 23 is substantially equal to the distance between the display 4 and the users 20 and 23. For this reason, in this embodiment, the distance between the users 20 and 23 and the display 4 is calculated using a captured image captured through the camera 2.

上述したように、本実施形態では、カメラ2を、ディスプレイ4前方に位置した使用者20の全身を撮像することができる位置に配設している。このため、カメラ2を通じて撮像される撮像画像の下部には床面Fが表示されるとともに、当該撮像画像の上部には床面F上の空間が表示される。さらに、同図8(b)に示されるように、撮像画像において床面Fが表示される上限(例えば、地平線が表示される位置や、室内の床面端部が表示される位置)のy座標値を「F1」とすると、0≦y≦F1となる範囲においては、y座標値が大きくなるほどディスプレイ4から離れた箇所の床面が表示されることとなる。   As described above, in the present embodiment, the camera 2 is disposed at a position where the whole body of the user 20 located in front of the display 4 can be imaged. For this reason, the floor surface F is displayed below the captured image captured through the camera 2, and the space on the floor surface F is displayed above the captured image. Furthermore, as shown in FIG. 8B, the upper limit of the floor image F displayed in the captured image (for example, the position where the horizon is displayed or the position where the indoor floor surface edge is displayed) is y. Assuming that the coordinate value is “F1”, the floor surface away from the display 4 is displayed as the y coordinate value increases in a range where 0 ≦ y ≦ F1.

本実施形態では、撮像画像において、0≦y≦F1となる範囲のうち、ディスプレイ4から所定の距離D(図8(a)参照)にある床面が表示される位置「Y1」までの領域(0≦y<Y1)を下領域とし、この下領域以外の領域(Y1≦y≦H)を上領域とする。所定の範囲は、予め設定されていてもよいし、設置場所等に応じて都度設定するようにしてもよい。なお、本実施形態における「Y1」は本発明の「仮想区画線」に相当する。   In the present embodiment, in a captured image, an area from a display 4 to a position “Y1” where a floor surface at a predetermined distance D (see FIG. 8A) is displayed in a range of 0 ≦ y ≦ F1. Let (0 ≦ y <Y1) be the lower region, and regions other than this lower region (Y1 ≦ y ≦ H) be the upper region. The predetermined range may be set in advance or may be set each time according to the installation location or the like. Note that “Y1” in the present embodiment corresponds to a “virtual lane marking” in the present invention.

図8(a)および(b)に示されるように、使用者20がディスプレイ4から所定の範囲に位置する場合、使用者20の足部21、およびこの足部21から上部に向けて延びる下肢22は上述した下領域に表示される。このため、所定の範囲を使用者20が歩くと、当該使用者20の足部21が下領域で検出されるとともに、当該使用者20の下肢22が足部21から延びる態様で連続して検出される。
これに対して、使用者23のように、所定の範囲に位置しない場合は、同図8(b)に示されるように、上領域にのみ表示される。
As shown in FIGS. 8A and 8B, when the user 20 is located within a predetermined range from the display 4, the user's 20 foot 21 and the lower limb extending from the foot 21 upward. 22 is displayed in the lower area described above. For this reason, when the user 20 walks within a predetermined range, the foot 21 of the user 20 is detected in the lower region, and the lower limb 22 of the user 20 is continuously detected in a manner extending from the foot 21. Is done.
On the other hand, when the user 23 is not located within the predetermined range, it is displayed only in the upper region as shown in FIG. 8B.

そこで、本実施形態では、第一実施形態にて説明した所定部位検出処理を通じて階調値が基準値C以上である座標f(x,y)を検出すると、同図8(b)に示されるように、この座標f(x,y)から座標f(x+n,Y1)までy軸方向に連続して白画素が表示されているか否かを判断する。そして、座標f(x,y)から座標f(x+n,Y1)までy軸方向に連続して白画素が表示されていると判断したことをもって、所定の範囲に使用者20が位置していると判断する。なお、「n」は、使用者20が一般的な速度でディスプレイ4前方を移動したときに、差分画像に表示される白画素の領域のX軸方向の幅よりも若干小さい値に予め設定している。具体的には、「n」は、5〜20ピクセルの範囲に設定されることが好ましく、5〜10ピクセルの範囲に設定されることがより好ましい。   Therefore, in the present embodiment, when coordinates f (x, y) having a gradation value equal to or greater than the reference value C are detected through the predetermined part detection process described in the first embodiment, FIG. 8B shows. Thus, it is determined whether or not white pixels are continuously displayed in the y-axis direction from the coordinates f (x, y) to the coordinates f (x + n, Y1). The user 20 is located within a predetermined range when it is determined that white pixels are continuously displayed in the y-axis direction from the coordinate f (x, y) to the coordinate f (x + n, Y1). Judge. Note that “n” is set in advance to a value slightly smaller than the width of the white pixel area displayed in the difference image in the X-axis direction when the user 20 moves in front of the display 4 at a general speed. ing. Specifically, “n” is preferably set in the range of 5 to 20 pixels, and more preferably set in the range of 5 to 10 pixels.

次に、この位置検出処理の処理手順について、図9を参照しながら詳細に説明する。
なお、PC3は、上述した所定部位検出処理を通じて、下領域に階調値が基準値C以上である座標f(x,y)を検出したことをもってこの位置検出処理を開始する。
Next, the processing procedure of the position detection process will be described in detail with reference to FIG.
Note that the PC 3 starts the position detection process when the coordinate f (x, y) having the gradation value equal to or higher than the reference value C is detected in the lower region through the predetermined part detection process described above.

同図9に示されるように、この位置検出処理が開始されると、まず、座標f(x,y)のy座標値をインクリメント(y=y+1)する(ステップS410)。
次に、座標f(x,y)、座標f(x+1,y)、座標f(x+2,y)・・・座標f(x+n,y)の階調値が全て基準値C以上であるか否かを判断する(ステップS411)。
As shown in FIG. 9, when the position detection process is started, first, the y coordinate value of the coordinate f (x, y) is incremented (y = y + 1) (step S410).
Next, coordinates f (x, y), coordinates f (x + 1, y), coordinates f (x + 2, y)... Whether coordinates f (x + n, y) are all equal to or higher than the reference value C Is determined (step S411).

座標f(x,y)、座標f(x+1,y)、座標f(x+2,y)・・・座標f(x+n,y)の階調値が全て基準値C以上であると判断する場合(ステップS411;YES)、次に座標f(x,y)のy座標値が「Y1」以上であるか否かを判断する(ステップS412)。   Coordinate f (x, y), coordinate f (x + 1, y), coordinate f (x + 2, y) ... When it is determined that all the gradation values of the coordinate f (x + n, y) are equal to or greater than the reference value C ( Next, it is determined whether or not the y coordinate value of the coordinate f (x, y) is “Y1” or more (step S412).

座標f(x,y)のy座標値が「Y1」未満であると判断する場合(ステップS412;NO)、ステップS410およびステップS411の処理を繰り返す。
一方、座標f(x,y)のy座標値が「Y1」以上であると判断する場合(ステップS412;YES)、使用者20がディスプレイ4から所定の範囲に位置していると判断する(ステップS413)。すなわち、この場合は、座標f(x,y)から座標f(x+n,Y1)までy軸方向に連続して白画素を検出したため、使用者20が所定の範囲に位置していると判断する(ステップS413)。
When it is determined that the y-coordinate value of the coordinate f (x, y) is less than “Y1” (step S412; NO), the processes of step S410 and step S411 are repeated.
On the other hand, when it is determined that the y-coordinate value of the coordinates f (x, y) is equal to or greater than “Y1” (step S412; YES), it is determined that the user 20 is located within a predetermined range from the display 4 ( Step S413). That is, in this case, since the white pixels are continuously detected in the y-axis direction from the coordinate f (x, y) to the coordinate f (x + n, Y1), it is determined that the user 20 is located in a predetermined range. (Step S413).

これに対して、座標f(x,y)、座標f(x+1,y)、座標f(x+2,y)・・・座標f(x+n,y)の階調値のうちいずれかが基準値C未満であると判断する場合(ステップS411;NO)、この処理を一旦終了する。この場合は、所定の範囲に使用者20が位置していないと判断する。   On the other hand, any one of the gradation values of the coordinate f (x, y), the coordinate f (x + 1, y), the coordinate f (x + 2, y),..., The coordinate f (x + n, y) is a reference value C. If it is determined that the value is less than (step S411; NO), this process is temporarily terminated. In this case, it is determined that the user 20 is not located within the predetermined range.

上記実施形態によれば、上記実施形態にて説明した作用効果に加えて、以下に記載する作用効果を奏することができる。
(5)本実施形態によれば、使用者20が所定の範囲に位置していることをもって画像表示処理を実行するため、使用者20が所定の範囲に位置していないときに画像表示処理が実行されることを抑制することができる。
According to the said embodiment, in addition to the effect demonstrated in the said embodiment, there can exist the effect described below.
(5) According to the present embodiment, since the image display process is executed when the user 20 is located within the predetermined range, the image display process is performed when the user 20 is not located within the predetermined range. It can be suppressed from being executed.

(第三実施形態)
以下、本発明を具体化した第三実施形態を上記第一実施形態と異なる点を中心に図10に基づいて説明する。なお、これら図10において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described based on FIG. 10 with a focus on differences from the first embodiment. In addition, in these FIG. 10, the same code | symbol is shown about the same element as each element demonstrated in 1st embodiment, The overlapping description about these elements is omitted.

上記第一実施形態では、初期速度v,vを予め所定の速度に設定した。これに対して、本実施形態では、使用者20が動く速度、すなわち白画素が表示される領域の大きさに基づいて初期速度v,vを設定する。以下、本実施形態における初期速度v,vの設定方法について、図10(a)〜(d)を参照しながら詳細に説明する。 In the first embodiment, it was set initial velocity v x, the v y in advance to a predetermined speed. In contrast, in the present embodiment, the rate at which the user 20 moves, i.e., the area where the white pixels are displayed size Based on the initial velocity v x, to set the v y. Hereinafter, the initial velocity v x in this embodiment, the method of setting v y, will be described in detail with reference to FIG. 10 (a) ~ (d) .

なお、本実施形態では、第一実施形態にて説明したように、PC3は、撮像画像上に、横方向をX軸、当該横方向に垂直な方向をY軸とし、同撮像画像の左上端を原点(0,0)、同撮像画像の右下端を(W,H)とする座標を設定する。
また、本実施形態における所定部位検出処理の処理内容、および全体の画像処理方法は、第一実施形態にて説明した処理内容と同一であるため、詳細な説明は割愛する。
In this embodiment, as described in the first embodiment, the PC 3 sets the horizontal direction on the captured image as the X axis and the direction perpendicular to the horizontal direction as the Y axis, and the upper left corner of the captured image. Is set to the origin (0, 0), and the coordinate with the lower right corner of the captured image as (W, H) is set.
In addition, since the processing content of the predetermined part detection processing and the entire image processing method in the present embodiment are the same as the processing content described in the first embodiment, detailed description thereof is omitted.

同図10(a)には、使用者20がディスプレイ4前方をゆっくりと移動する場合に、前回の制御周期でカメラ2にて撮像され、撮像画像に表示された使用者20をX1にて示すとともに、今回の制御周期でカメラ2にて撮像され、撮像画像に表示された使用者20をX2にて示す。
同図10(b)には、同図10(a)に示した撮像画像に基づいて生成される差分画像を示す。同差分画像において、ハッチングで示される領域には白画素が表示されている。
In FIG. 10A, when the user 20 moves slowly in front of the display 4, the user 20 captured by the camera 2 in the previous control cycle and displayed in the captured image is indicated by X1. In addition, the user 20 captured by the camera 2 in the current control cycle and displayed in the captured image is indicated by X2.
FIG. 10B shows a difference image generated based on the captured image shown in FIG. In the difference image, white pixels are displayed in the hatched area.

同図10(c)には、使用者20がディスプレイ4前方を速い速度で移動する場合に、前回の制御周期でカメラ2にて撮像され、撮像画像に表示された使用者20をX1にて示すとともに、今回の制御周期でカメラ2にて撮像され、撮像画像に表示された使用者20をX2にて示す。
同図10(d)には、同図10(c)に示した撮像画像に基づいて生成される差分画像を示す。同差分画像において、ハッチングで示される領域には白画素が表示されている。
In FIG. 10C, when the user 20 moves in front of the display 4 at a high speed, the user 20 captured by the camera 2 in the previous control cycle and displayed in the captured image is displayed at X1. In addition, the user 20 captured by the camera 2 and displayed in the captured image in the current control cycle is indicated by X2.
FIG. 10D shows a difference image generated based on the captured image shown in FIG. In the difference image, white pixels are displayed in the hatched area.

同図10(b)および(d)に示されるように、使用者20がディスプレイ4前方をゆっくりと移動する場合は、速い速度で移動する場合よりも白画素が表示される領域は小さくなる。
そこで、本実施形態では、この白画素が表示される領域に基づいて使用者20の動く速度を推定し、使用者20が速く動くときほど、初期速度v,vを大きい値に設定するようにしている。すなわち、白画素が表示される領域が大きいときほど、初期速度v,vを大きい値に設定するようにしている。
As shown in FIGS. 10B and 10D, when the user 20 moves slowly in front of the display 4, the area where white pixels are displayed becomes smaller than when moving at a high speed.
Therefore, in the present embodiment, the white pixels based on the region displayed estimates the speed of movement of the user 20, as when the user 20 moves fast, set the initial velocity v x, the v y to a large value I am doing so. That is, as the time that region the white pixels are displayed is large, and to set the initial velocity v x, the v y to a large value.

上記実施形態によれば、上記各実施形態にて説明した作用効果に加えて、以下に記載する作用効果を奏することができる。
(7)本実施形態によれば、使用者20の動く速度に応じて初期速度v,vを設定するため、装飾画像を使用者20の移動態様に応じて表示することができる。このため、装飾画像をより使用者20と関連がある態様にて表示することができ、ひいては使用者である通行人の興味をより引き付けることができる画像を表示することができる。
According to the said embodiment, in addition to the effect demonstrated in said each embodiment, there can exist the effect described below.
(7) According to this embodiment, to set the initial velocity v x, v y depending on the speed of movement of the user 20, it can be displayed according to the movement mode of the user 20 the decoration image. For this reason, it is possible to display the decoration image in a manner more related to the user 20, and thus it is possible to display an image that can further attract the interest of the passerby who is the user.

(第四実施形態)
以下、本発明を具体化した第四実施形態を上記第一実施形態と異なる点を中心に図11〜図15に基づいて説明する。なお、これら図11〜図15において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Fourth embodiment)
Hereinafter, a fourth embodiment embodying the present invention will be described based on FIGS. 11 to 15 with a focus on differences from the first embodiment. In addition, in these FIGS. 11-15, the same code | symbol is shown about the element same as each element demonstrated in 1st embodiment, The overlapping description about these elements is omitted.

同図11(a)に示されるように、この第四実施形態の画像表示装置1は、ディスプレイ4(本発明の「表示面」に相当)の中央上部に配設される中央カメラ7(本発明の「撮像手段」に相当)に加えて、ディスプレイ4の片側上部に配設される端側カメラ8(本発明の「撮像手段」に相当)を備えている。   As shown in FIG. 11 (a), the image display device 1 of the fourth embodiment includes a central camera 7 (book) disposed at the upper center of the display 4 (corresponding to the “display surface” of the present invention). In addition to the “imaging means” of the present invention, an end camera 8 (corresponding to the “imaging means” of the present invention) disposed on one upper side of the display 4 is provided.

中央カメラ7および端側カメラ8は、撮像範囲がディスプレイ4前方に起立した使用者20の全身が収まる範囲となるように配設されている。また、これら中央カメラ7および端側カメラ8は、所定回数(本実施形態では、1秒間に5〜30回のうちの任意の回数)ディスプレイ4前方を撮像して、それぞれPC3に出力している。   The central camera 7 and the end camera 8 are arranged so that the imaging range is a range in which the whole body of the user 20 standing in front of the display 4 can be accommodated. Further, the central camera 7 and the end camera 8 image the front of the display 4 a predetermined number of times (in this embodiment, an arbitrary number of 5 to 30 times per second) and output it to the PC 3 respectively. .

図11(b)に示されるように、PC3は、この撮像画像上に横方向をX軸、当該横方向に垂直な方向をY軸、左下端を(0,0)、右上端を(W,H)とする座標を設定する。そして、この座標が設定された撮像画像上に装飾画像を重畳してこれを表示画像とし、この表示画像の画像情報をディスプレイ4に出力する。以下、詳細に説明する。   As shown in FIG. 11 (b), the PC 3 has an X-axis in the horizontal direction, a Y-axis in a direction perpendicular to the horizontal direction, (0, 0) in the lower left corner, and (W in the upper right end on the captured image. , H) is set. Then, the decoration image is superimposed on the captured image in which the coordinates are set to form a display image, and the image information of the display image is output to the display 4. Details will be described below.

次に、図12を参照しながら、本実施形態における画像処理方法について説明する。
同図12に示されるように、PC3(本発明の「表示手段」に相当)は、まず中央カメラ7および端側カメラ8から出力される画像情報に基づいて、使用者20とディスプレイ4との間の距離を算出し、使用者20が想定範囲に位置しているか否かを判断する距離判断処理を実行する(ステップS500)。そして、距離判断処理を終了した後、所定部位検出処理(ステップS501)、次に画像表示処理(ステップS502)を実行する。
Next, an image processing method in the present embodiment will be described with reference to FIG.
As shown in FIG. 12, the PC 3 (corresponding to “display means” of the present invention) first determines whether the user 20 and the display 4 are based on image information output from the central camera 7 and the end camera 8. A distance determination process is performed to calculate a distance between them and determine whether or not the user 20 is located in the assumed range (step S500). Then, after completing the distance determination process, a predetermined part detection process (step S501) and then an image display process (step S502) are executed.

なお、本実施形態において、想定範囲とは、ディスプレイ4前方に起立した使用者20がディスプレイ4に充分な大きさをもって表示される範囲である。具体的には、ディスプレイ4前方のうちディスプレイ4上に配設された中央カメラ7および端側カメラ8にて撮像される範囲を撮像範囲とすると、当該撮像範囲において当該ディスプレイ4と使用者との間の距離が想定距離D1未満となる範囲を示す。想定距離D1は、予め設定されていてもよいし、設置場所等に応じて都度設定するようにしてもよい。   In the present embodiment, the assumed range is a range in which the user 20 standing in front of the display 4 is displayed on the display 4 with a sufficient size. Specifically, assuming that a range captured by the central camera 7 and the end camera 8 disposed on the display 4 in front of the display 4 is an imaging range, the display 4 and the user in the imaging range. A range in which the distance between them is less than the assumed distance D1 is shown. The assumed distance D1 may be set in advance or may be set each time according to the installation location or the like.

次に、図13を参照しながら、距離D2を算出し、この距離D2が想定距離D1以上であるか否かを判断する距離判断処理について説明する。
同図12に示されるように、この距離判断処理が開始されると、まずPC3を用いて想定距離D1を設定する(ステップS600)。
Next, a distance determination process for calculating the distance D2 and determining whether the distance D2 is equal to or greater than the assumed distance D1 will be described with reference to FIG.
As shown in FIG. 12, when this distance determination process is started, first, an assumed distance D1 is set using the PC 3 (step S600).

次に、PC3は、以下に説明するステップS601〜S610の処理と並行して、以下に説明するステップS611〜S620の処理を実行する。
まず、ステップS601〜S610の処理について説明する。上述したように、想定距離D1を設定した(ステップS600)後、PC3は中央カメラ7が撮像した撮像画像(中央画像)の画像情報を取得する(ステップS601)。そして、この撮像画像に対して白と黒の二階調に変換する二値化処理を施す(ステップS602)。
Next, the PC 3 executes the processes of steps S611 to S620 described below in parallel with the processes of steps S601 to S610 described below.
First, the processing of steps S601 to S610 will be described. As described above, after setting the assumed distance D1 (step S600), the PC 3 acquires image information of a captured image (center image) captured by the center camera 7 (step S601). Then, a binarization process is performed on the captured image to convert it into two gradations of white and black (step S602).

そして、前回の制御周期で中央カメラ7から取得して二値化処理を施した撮像画像と、今回の制御周期で中央カメラ7から取得して二値化処理を施した撮像画像との差分画像を生成する(ステップS603)。第一実施形態にて説明したように、前回の制御周期で取得した撮像画像と今回の制御周期で取得した撮像画像との間に変化分が存在する場合、差分画像において当該変化分が位置する座標は白画素で表示される。   The difference image between the captured image obtained from the central camera 7 and binarized in the previous control cycle and the captured image obtained from the central camera 7 and binarized in the current control cycle. Is generated (step S603). As described in the first embodiment, when there is a change between the captured image acquired in the previous control cycle and the captured image acquired in the current control cycle, the change is located in the difference image. The coordinates are displayed with white pixels.

次に、今回の制御周期で中央カメラ7から取得して二値化処理を施した撮像画像を保存する(ステップS604)。そして、PC3は、差分画像の座標f(x1,y1)の階調値が基準値C以上であるか否かを判断する(ステップS605)。   Next, the captured image obtained from the central camera 7 and subjected to the binarization processing in the current control cycle is stored (step S604). Then, the PC 3 determines whether or not the gradation value of the coordinate f (x1, y1) of the difference image is greater than or equal to the reference value C (step S605).

座標f(x1,y1)の階調値が基準値C以上であると判断する場合(ステップS605;YES)、上述したように座標f(x1,y1)を動きの検出点とする(ステップS610)。   When it is determined that the gradation value of the coordinate f (x1, y1) is greater than or equal to the reference value C (step S605; YES), as described above, the coordinate f (x1, y1) is set as a motion detection point (step S610). ).

これに対して、座標f(x1,y1)の階調値が基準値C未満であると判断する場合(ステップS605;NO)、座標f(x1,y1)のx座標値をインクリメント(x1=x1+1)する(ステップS606)。そして、座標f(x1,y1)のx座標値が所定値W以上であるか否かを判断する(ステップS607)。   On the other hand, when it is determined that the gradation value of the coordinate f (x1, y1) is less than the reference value C (step S605; NO), the x coordinate value of the coordinate f (x1, y1) is incremented (x1 = x1 + 1) (step S606). Then, it is determined whether or not the x coordinate value of the coordinate f (x1, y1) is equal to or greater than a predetermined value W (step S607).

座標f(x1,y1)のx座標値が所定値W未満であると判断する場合(ステップS607;NO)、ステップS605およびS606の処理を繰り返す。
一方、座標f(x1,y1)のx座標値が所定値W以上であると判断する場合(ステップS607;YES)、y座標値をインクリメント(y1=y1+1)し(ステップS608)、座標f(x1,y1)のy座標値が所定値H以上であるか否かを判断する(ステップS609)。
When it is determined that the x-coordinate value of the coordinates f (x1, y1) is less than the predetermined value W (step S607; NO), the processes of steps S605 and S606 are repeated.
On the other hand, when it is determined that the x coordinate value of the coordinate f (x1, y1) is equal to or greater than the predetermined value W (step S607; YES), the y coordinate value is incremented (y1 = y1 + 1) (step S608), and the coordinate f ( It is determined whether or not the y coordinate value of x1, y1) is greater than or equal to a predetermined value H (step S609).

座標f(x1,y1)のy座標値が所定値H未満であると判断する場合(ステップS609;NO)、ステップS605〜S608の処理を繰り返す。   When it is determined that the y-coordinate value of the coordinate f (x1, y1) is less than the predetermined value H (step S609; NO), the processing of steps S605 to S608 is repeated.

次に、ステップS611〜S620の処理について説明する。上述したように、想定距離D1を設定した(ステップS600)後、PC3は端側カメラ8が撮像した撮像画像(端側画像)の画像情報を取得する(ステップS611)。そして、この撮像画像に対して白と黒の二階調に変換する二値化処理を施す(ステップS612)。   Next, the processing of steps S611 to S620 will be described. As described above, after setting the assumed distance D1 (step S600), the PC 3 acquires image information of a captured image (end-side image) captured by the end-side camera 8 (step S611). Then, a binarization process is performed on the captured image to convert it into two gradations of white and black (step S612).

そして、前回の制御周期で端側カメラ8から取得して二値化処理を施した撮像画像と、今回の制御周期で端側カメラ8から取得して二値化処理を施した撮像画像との差分画像を生成する(ステップS613)。
次に、今回の制御周期で端側カメラ8から取得して二値化処理を施した撮像画像を保存する(ステップS614)。そして、PC3は、差分画像の座標f(x2,y2)の階調値が基準値C以上であるか否かを判断する(ステップS615)。
Then, a captured image obtained from the end camera 8 in the previous control cycle and subjected to binarization processing, and a captured image obtained from the end camera 8 in the current control cycle and subjected to binarization processing. A difference image is generated (step S613).
Next, the captured image obtained from the end camera 8 and subjected to the binarization process in the current control cycle is stored (step S614). Then, the PC 3 determines whether or not the gradation value of the coordinate f (x2, y2) of the difference image is greater than or equal to the reference value C (step S615).

座標f(x2,y2)の階調値が基準値C以上であると判断する場合(ステップS615;YES)、その座標f(x2,y2)を動きの検出点とする(ステップS620)。   When it is determined that the gradation value of the coordinate f (x2, y2) is greater than or equal to the reference value C (step S615; YES), the coordinate f (x2, y2) is set as a motion detection point (step S620).

これに対して、座標f(x2,y2)の階調値が基準値C未満であると判断する場合(ステップS615;NO)、座標f(x2,y2)のx座標値をインクリメント(x2=x2+1)する(ステップS616)。そして、座標f(x2,y2)のx座標値が所定値W以上であるか否かを判断する(ステップS617)。   On the other hand, when it is determined that the gradation value of the coordinate f (x2, y2) is less than the reference value C (step S615; NO), the x coordinate value of the coordinate f (x2, y2) is incremented (x2 = x2 + 1) (step S616). Then, it is determined whether or not the x coordinate value of the coordinate f (x2, y2) is equal to or greater than a predetermined value W (step S617).

座標f(x2,y2)のx座標値が所定値W未満であると判断する場合(ステップS617;NO)、ステップS615およびS616の処理を繰り返す。
一方、座標f(x2,y2)のx座標値が所定値W以上であると判断する場合(ステップS617;YES)、座標f(x2,y2)y座標値をインクリメント(y2=y2+1)し(ステップS618)、座標f(x2,y2)のy座標値が所定値H以上であるか否かを判断する(ステップS619)。
When it is determined that the x-coordinate value of the coordinates f (x2, y2) is less than the predetermined value W (step S617; NO), the processes of steps S615 and S616 are repeated.
On the other hand, when it is determined that the x coordinate value of the coordinate f (x2, y2) is equal to or greater than the predetermined value W (step S617; YES), the coordinate f (x2, y2) y coordinate value is incremented (y2 = y2 + 1) ( In step S618), it is determined whether or not the y-coordinate value of the coordinate f (x2, y2) is equal to or greater than a predetermined value H (step S619).

座標f(x2,y2)のy座標値が所定値H未満であると判断する場合(ステップS619;NO)、ステップS615〜S618の処理を繰り返す。   When it is determined that the y-coordinate value of the coordinate f (x2, y2) is less than the predetermined value H (step S619; NO), the processing of steps S615 to S618 is repeated.

これに対して、座標f(x1,y1)のy座標値が所定値H以上であると判断する場合(ステップS609;YES)、および座標f(x2,y2)のy座標値が所定値H以上であると判断する場合(ステップS619;YES)、PC3は、座標f(x1,y1)および座標f(x2,y2)に基づいて、使用者20とディスプレイ4との間の距離D2を算出する(ステップS621)。そして、想定距離D1がこの距離D2以上であるか否かを判断する(ステップS622)。   On the other hand, when it is determined that the y coordinate value of the coordinate f (x1, y1) is greater than or equal to the predetermined value H (step S609; YES), and the y coordinate value of the coordinate f (x2, y2) is the predetermined value H. If it is determined that the above is true (step S619; YES), the PC 3 calculates the distance D2 between the user 20 and the display 4 based on the coordinates f (x1, y1) and the coordinates f (x2, y2). (Step S621). Then, it is determined whether or not the assumed distance D1 is equal to or greater than the distance D2 (step S622).

想定距離D1が距離D2以上であると判断する場合(ステップS622;YES)、座標f(x1,y1)および座標f(x2,y2)のx座標値およびy座標値をそれぞれx1=「0」,y1=「0」,x2=「0」,y2=「0」とし(ステップS623)、この処理を一旦終了する。
一方、想定距離D1が距離D2未満であると判断する場合(ステップS622;NO)、S601以降の処理およびS611以降の処理を再び実行する。このように、本距離判断処理では、想定距離D1が距離D2未満である場合、すなわち使用者20が想定距離D1に位置してないと判断する場合は、本処理を繰り返し実行して本処理を終了しないようにしている。
When it is determined that the assumed distance D1 is greater than or equal to the distance D2 (step S622; YES), the x-coordinate value and the y-coordinate value of the coordinate f (x1, y1) and the coordinate f (x2, y2) are x1 = “0”, respectively. , Y1 = “0”, x2 = “0”, y2 = “0” (step S623), and the process is temporarily terminated.
On the other hand, when it is determined that the assumed distance D1 is less than the distance D2 (step S622; NO), the processing after S601 and the processing after S611 are executed again. Thus, in this distance determination process, when the assumed distance D1 is less than the distance D2, that is, when it is determined that the user 20 is not located at the assumed distance D1, this process is repeated and this process is performed. It doesn't end.

次に、図14を参照しながら、本実施形態にかかる所定部位検出処理について詳細に説明する。
同図14に示されるように、PC3は、以下に説明するステップS700〜S709の処理と並行して、以下に説明するステップS710〜S719の処理を実行する。
Next, the predetermined part detection process according to the present embodiment will be described in detail with reference to FIG.
As shown in FIG. 14, the PC 3 executes the processes of steps S710 to S719 described below in parallel with the processes of steps S700 to S709 described below.

まず、ステップS700〜S709の処理について説明する。まず、PC3は中央カメラ7が撮像した撮像画像(中央画像)の画像情報を取得する(ステップS700)。そして、この撮像画像に対して白と黒の二階調に変換する二値化処理を施し(ステップS701)、この二値化処理を施した撮像画像に対して差分処理を実行する(ステップS702)。   First, the processing in steps S700 to S709 will be described. First, the PC 3 acquires image information of a captured image (center image) captured by the center camera 7 (step S700). Then, a binarization process for converting the captured image into two gradations of white and black is performed (step S701), and a difference process is executed on the captured image subjected to the binarization process (step S702). .

次に、今回の制御周期で中央カメラ7から取得して二値化処理を施した撮像画像を保存する(ステップS703)。そして、PC3は、差分画像の座標f(x1,y1)の階調値が基準値C以上であるか否かを判断する(ステップS704)。   Next, the captured image obtained from the central camera 7 and subjected to the binarization process in the current control cycle is stored (step S703). Then, the PC 3 determines whether or not the gradation value of the coordinate f (x1, y1) of the difference image is greater than or equal to the reference value C (step S704).

座標f(x1,y1)の階調値が基準値C以上であると判断する場合(ステップS704;YES)、その座標f(x1,y1)を動きの検出点とする(ステップS709)。   When it is determined that the gradation value of the coordinate f (x1, y1) is greater than or equal to the reference value C (step S704; YES), the coordinate f (x1, y1) is set as a motion detection point (step S709).

これに対して、座標f(x1,y1)の階調値が基準値C未満であると判断する場合(ステップS704;NO)、座標f(x1,y1)のx座標値をインクリメント(x1=x1+1)する(ステップS705)。そして、座標f(x1,y1)のx座標値が所定値W以上であるか否かを判断する(ステップS706)。   On the other hand, when it is determined that the gradation value of the coordinate f (x1, y1) is less than the reference value C (step S704; NO), the x coordinate value of the coordinate f (x1, y1) is incremented (x1 = x1 + 1) (step S705). Then, it is determined whether or not the x coordinate value of the coordinate f (x1, y1) is equal to or greater than a predetermined value W (step S706).

座標f(x1,y1)のx座標値が所定値W未満であると判断する場合(ステップS706;NO)、ステップS704およびS705の処理を繰り返す。
一方、座標f(x1,y1)のx座標値が所定値W以上であると判断する場合(ステップS706;YES)、y座標値をインクリメント(y1=y1+1)し(ステップS707)、座標f(x1,y1)のy座標値が所定値H以上であるか否かを判断する(ステップS708)。
When it is determined that the x-coordinate value of the coordinate f (x1, y1) is less than the predetermined value W (step S706; NO), the processes of steps S704 and S705 are repeated.
On the other hand, when it is determined that the x coordinate value of the coordinate f (x1, y1) is equal to or greater than the predetermined value W (step S706; YES), the y coordinate value is incremented (y1 = y1 + 1) (step S707), and the coordinate f ( It is determined whether or not the y coordinate value of x1, y1) is greater than or equal to a predetermined value H (step S708).

座標f(x1,y1)のy座標値が所定値H未満であると判断する場合(ステップS708;NO)、ステップS704〜S707の処理を繰り返す。   When it is determined that the y-coordinate value of the coordinate f (x1, y1) is less than the predetermined value H (step S708; NO), the processing of steps S704 to S707 is repeated.

次に、ステップS710〜S719の処理について説明する。まず、PC3は端側カメラ8が撮像した撮像画像(端側画像)の画像情報を取得する(ステップS710)。そして、この撮像画像に対して白と黒の二階調に変換する二値化処理を施す(ステップS711)、この二値化処理を施した撮像画像に対して差分処理を実行する(ステップS712)。   Next, processing in steps S710 to S719 will be described. First, the PC 3 acquires image information of a captured image (end-side image) captured by the end-side camera 8 (step S710). Then, a binarization process for converting the captured image into two gradations of white and black is performed (step S711), and a difference process is performed on the captured image subjected to the binarization process (step S712). .

次に、今回の制御周期で端側カメラ8から取得して二値化処理を施した撮像画像を保存する(ステップS713)。そして、PC3は、差分画像の座標f(x2,y2)の階調値が基準値C以上であるか否かを判断する(ステップS714)。   Next, the captured image obtained from the end camera 8 and subjected to the binarization process in the current control cycle is stored (step S713). Then, the PC 3 determines whether or not the gradation value of the coordinate f (x2, y2) of the difference image is greater than or equal to the reference value C (step S714).

座標f(x2,y2)の階調値が基準値C以上であると判断する場合(ステップS714;YES)、その座標f(x2,y2)を動きの検出点とする(ステップS719)。   When it is determined that the gradation value of the coordinate f (x2, y2) is greater than or equal to the reference value C (step S714; YES), the coordinate f (x2, y2) is set as a motion detection point (step S719).

これに対して、座標f(x2,y2)の階調値が基準値C未満であると判断する場合(ステップS714;NO)、座標f(x2,y2)のx座標値をインクリメント(x2=x2+1)する(ステップS715)。そして、座標f(x2,y2)のx座標値が所定値W以上であるか否かを判断する(ステップS716)。   On the other hand, when it is determined that the gradation value of the coordinate f (x2, y2) is less than the reference value C (step S714; NO), the x coordinate value of the coordinate f (x2, y2) is incremented (x2 = x2 + 1) (step S715). Then, it is determined whether or not the x coordinate value of the coordinate f (x2, y2) is equal to or greater than a predetermined value W (step S716).

座標f(x2,y2)のx座標値が所定値W未満であると判断する場合(ステップS716;NO)、ステップS714およびS715の処理を繰り返す。
一方、座標f(x2,y2)のx座標値が所定値W以上であると判断する場合(ステップS716;YES)、y座標値をインクリメント(y2=y2+1)する(ステップS717)。そして、座標f(x2,y2)のy座標値が所定値H以上であるか否かを判断する(ステップS718)。
When it is determined that the x coordinate value of the coordinate f (x2, y2) is less than the predetermined value W (step S716; NO), the processes of steps S714 and S715 are repeated.
On the other hand, when it is determined that the x coordinate value of the coordinate f (x2, y2) is equal to or greater than the predetermined value W (step S716; YES), the y coordinate value is incremented (y2 = y2 + 1) (step S717). Then, it is determined whether or not the y-coordinate value of the coordinate f (x2, y2) is greater than or equal to a predetermined value H (step S718).

座標f(x2,y2)のy座標値が所定値H未満であると判断する場合(ステップS718;NO)、ステップS714〜S717の処理を繰り返す。   When it is determined that the y-coordinate value of the coordinate f (x2, y2) is less than the predetermined value H (step S718; NO), the processing of steps S714 to S717 is repeated.

座標f(x1,y1)のy座標値が所定値H以上であると判断する場合(ステップS708;YES)、および座標f(x2,y2)のy座標値が所定値H以上であると判断する場合(ステップS718;YES)、PC3は、座標f(x1,y1)および座標f(x2,y2)に基づいて、使用者20とディスプレイ4との間の距離D2を算出する(ステップS720)。そして、座標f(x1,y1)および座標f(x2,y2)のx座標値およびy座標値をそれぞれx1=「0」,y1=「0」,x2=「0」,y2=「0」として(ステップS721)、この処理を終了する。   When it is determined that the y coordinate value of the coordinate f (x1, y1) is greater than or equal to the predetermined value H (step S708; YES), and the y coordinate value of the coordinate f (x2, y2) is determined to be greater than or equal to the predetermined value H. If yes (step S718; YES), the PC 3 calculates the distance D2 between the user 20 and the display 4 based on the coordinates f (x1, y1) and the coordinates f (x2, y2) (step S720). . Then, the x coordinate value and the y coordinate value of the coordinate f (x1, y1) and the coordinate f (x2, y2) are x1 = “0”, y1 = “0”, x2 = “0”, y2 = “0”, respectively. (Step S721), the process is terminated.

図12に示されるように、PC3は、これら距離判断処理および所定部位検出処理を終了した後、次にディスプレイ4に画像を表示する画像表示処理を実行する(ステップS502)。なお、この画像表示処理の処理内容は、第一実施形態にて説明した画像表示処理と同一であるため、詳細な説明は割愛する。   As shown in FIG. 12, after completing the distance determination process and the predetermined part detection process, the PC 3 executes an image display process for displaying an image on the display 4 (step S502). Note that the processing content of this image display processing is the same as the image display processing described in the first embodiment, and thus detailed description thereof is omitted.

図15に、上述した処理を通じて表示画像が表示されるディスプレイ4を示す。
同図15に示される領域Aにおいて、装飾画像は、使用者20の足部が表示される位置から主にx軸方向に移動するように表示される。なお、同図15には、画像表示処理が開始されてから終了するまでの間において、装飾画像が表示される全ての領域を記載している。実際には、装飾画像は、まず使用者20の所定部位(本実施形態においては、足部)が表示される位置と同じ位置に表示される。そして、この所定部位が表示されている位置を起点として、時間の経過とともに使用者20の所定部位が表示されている位置から離れるように移動する。
FIG. 15 shows the display 4 on which a display image is displayed through the above-described processing.
In the area A shown in FIG. 15, the decoration image is displayed so as to move mainly in the x-axis direction from the position where the foot of the user 20 is displayed. In FIG. 15, all areas in which the decorative image is displayed from the start to the end of the image display process are shown. Actually, the decoration image is first displayed at the same position as the position where the predetermined part (in this embodiment, the foot) of the user 20 is displayed. Then, starting from the position where the predetermined part is displayed, the user 20 moves away from the position where the predetermined part of the user 20 is displayed as time passes.

また、同図15に示されるように、PC3は、想定範囲に位置する使用者20の所定部位を起点とする領域のみに装飾画像を表示する。すなわち、想定範囲に位置しない使用者23の所定部位を起点とする領域に装飾画像を表示することはない。   Further, as shown in FIG. 15, the PC 3 displays the decorative image only in a region starting from a predetermined part of the user 20 located in the assumed range. That is, the decoration image is not displayed in a region starting from a predetermined part of the user 23 that is not located in the assumed range.

上記実施形態によれば、上記各実施形態にて説明した作用効果に加えて、以下に記載する作用効果を奏することができる。
(6)本実施形態によれば、複数のカメラ7,8を用いるようにしているため、使用者20とディスプレイ4との間の距離D2をより正確に算出することができる。
According to the said embodiment, in addition to the effect demonstrated in said each embodiment, there can exist the effect described below.
(6) According to the present embodiment, since the plurality of cameras 7 and 8 are used, the distance D2 between the user 20 and the display 4 can be calculated more accurately.

(その他の実施形態)
以下、本発明を具体化したその他の実施形態を上記第四実施形態と異なる点を中心に図16に基づいて説明する。なお、図16において、第四実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Other embodiments)
Hereinafter, another embodiment embodying the present invention will be described based on FIG. 16 with a focus on differences from the fourth embodiment. In FIG. 16, the same elements as those described in the fourth embodiment are denoted by the same reference numerals, and redundant descriptions of these elements are omitted.

同図16(a)に示されるように、本実施形態の画像表示装置1は、表示画像上に、横方向をX軸、当該横方向に垂直な方向をY軸とし、左上端を原点(0,0)、右下端を(W,H)とする座標を設定する。   As shown in FIG. 16 (a), the image display device 1 of the present embodiment has, on the display image, the horizontal direction as the X axis, the direction perpendicular to the horizontal direction as the Y axis, and the upper left corner as the origin ( 0,0) and coordinates with the lower right corner at (W, H) are set.

本実施形態にかかる画像表示装置1では、PC3は、図16(b)に示されるように、想定範囲に位置する使用者20の最上部(ここでは、頭頂部)を所定部位として認識し、この頭頂部を起点として装飾画像を表示する。
また、第四実施形態にて説明したように、PC3は、想定範囲に位置しない使用者23の所定部位を起点とする領域には、装飾画像を表示しない。
本実施形態によれば、上記実施形態で説明した作用効果に準じた作用効果を奏することができるようになる。
In the image display device 1 according to the present embodiment, as shown in FIG. 16B, the PC 3 recognizes the uppermost part (here, the parietal part) of the user 20 located in the assumed range as a predetermined part. A decoration image is displayed starting from the top of the head.
Further, as described in the fourth embodiment, the PC 3 does not display a decoration image in an area starting from a predetermined part of the user 23 that is not located in the assumed range.
According to this embodiment, the effect according to the effect demonstrated in the said embodiment can be show | played.

(第五実施形態)
以下、本発明を具体化した第五実施形態を上記第一実施形態と異なる点を中心に図17〜図19に基づいて説明する。なお、これら図17〜図19において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Fifth embodiment)
Hereinafter, a fifth embodiment embodying the present invention will be described with reference to FIGS. 17 to 19 with a focus on differences from the first embodiment. 17 to 19, the same elements as those described in the first embodiment are denoted by the same reference numerals, and redundant descriptions of these elements are omitted.

上記第一実施形態では、白画素で表示される座標f(x,y)を1個だけ検出するようにした。これに対して、本実施形態では、白画素で表示される座標をn個検出する。   In the first embodiment, only one coordinate f (x, y) displayed with white pixels is detected. On the other hand, in the present embodiment, n coordinates displayed by white pixels are detected.

次に、図17を参照しながら、本実施形態における画像処理方法について説明する。
同図17に示されるように、本実施形態では、PC3は、まず所定部位検出処理を実行し(ステップS800)、次に画像表示処理を実行する(ステップS801)。
Next, an image processing method according to this embodiment will be described with reference to FIG.
As shown in FIG. 17, in this embodiment, the PC 3 first executes a predetermined part detection process (step S800), and then executes an image display process (step S801).

次に、図18を参照しながら、本実施形態にかかる所定部位検出処理について詳細に説明する。
同図18に示されるように、本処理が開始されると、まず、PC3はカメラ2が撮像した撮像画像の画像情報を取得する(ステップS900)。次に、PC3は、この撮像画像に対して白と黒の二階調に変換する二値化処理を施し(ステップS901)、この二値化処理を施した撮像画像に対して差分処理を実行する(ステップS902)。
Next, the predetermined part detection processing according to the present embodiment will be described in detail with reference to FIG.
As shown in FIG. 18, when this process is started, first, the PC 3 acquires image information of a captured image captured by the camera 2 (step S900). Next, the PC 3 performs binarization processing for converting the captured image into white and black gradations (step S901), and executes difference processing on the captured image subjected to the binarization processing. (Step S902).

次に、PC3は、今回の制御周期でカメラ2から取得して二値化処理を施した撮像画像を保存する(ステップS903)。そして、PC3は、差分画像の座標f(x,y)の階調値が基準値C以上であるか否かを判断する(ステップS904)。   Next, the PC 3 stores the captured image obtained from the camera 2 and subjected to binarization processing in the current control cycle (step S903). Then, the PC 3 determines whether or not the gradation value of the coordinate f (x, y) of the difference image is greater than or equal to the reference value C (step S904).

座標f(x,y)の階調値が基準値C以上であると判断する場合(ステップS904;YES)、個数nの値をインクリメント(n=n+1)する(ステップS905)。そして、座標f(x,y)をn個目の動きの検出点として記憶する(ステップS906)。   When it is determined that the gradation value of the coordinate f (x, y) is greater than or equal to the reference value C (step S904; YES), the value of the number n is incremented (n = n + 1) (step S905). Then, the coordinates f (x, y) are stored as the nth motion detection point (step S906).

座標f(x,y)をn個目の動きの検出点とした(ステップS906)後、もしくはステップS904にて座標f(x,y)の階調値が基準値C未満であると判断する場合(ステップS904;NO)、座標f(x,y)のx座標値をインクリメント(x=x+1)する(ステップS907)。そして、座標f(x,y)のx座標値が所定値W以上であるか否かを判断する(ステップS908)。   After the coordinate f (x, y) is set as the nth motion detection point (step S906), or in step S904, it is determined that the gradation value of the coordinate f (x, y) is less than the reference value C. In the case (step S904; NO), the x coordinate value of the coordinate f (x, y) is incremented (x = x + 1) (step S907). Then, it is determined whether or not the x coordinate value of the coordinate f (x, y) is greater than or equal to a predetermined value W (step S908).

座標f(x,y)のx座標値が所定値W未満であると判断する場合(ステップS908;NO)、ステップS904〜S907の処理を繰り返す。
一方、座標f(x,y)のx座標値が所定値W以上であると判断する場合(ステップS908;YES)、y座標値をインクリメント(y=y+1)し(ステップS909)、座標f(x,y)のy座標値が所定値H以上であるか否かを判断する(ステップS910)。
When it is determined that the x coordinate value of the coordinate f (x, y) is less than the predetermined value W (step S908; NO), the processing of steps S904 to S907 is repeated.
On the other hand, if it is determined that the x coordinate value of the coordinate f (x, y) is equal to or greater than the predetermined value W (step S908; YES), the y coordinate value is incremented (y = y + 1) (step S909), and the coordinate f ( It is determined whether or not the y coordinate value of x, y) is greater than or equal to a predetermined value H (step S910).

座標f(x,y)のy座標値が所定値H未満であると判断する場合(ステップS910;NO)、ステップS904〜S909の処理を繰り返す。
一方、座標f(x,y)のy座標値が所定値H以上であると判断する場合(ステップS910;YES)、座標f(x,y)のx座標値およびy座標値をそれぞれx=「0」,y=「0」として(ステップS911)、この処理を一旦終了する。
When it is determined that the y-coordinate value of the coordinate f (x, y) is less than the predetermined value H (step S910; NO), the processing of steps S904 to S909 is repeated.
On the other hand, when it is determined that the y coordinate value of the coordinate f (x, y) is equal to or greater than the predetermined value H (step S910; YES), the x coordinate value and the y coordinate value of the coordinate f (x, y) are respectively set as x = “0” and y = “0” are set (step S911), and this process is temporarily terminated.

このように所定部位検出処理(ステップS800)を終了した後、次にPC3は、検出したn個の座標f(x,y)のそれぞれを起点として、装飾画像を表示する画像表示処理を実行する(ステップS801)。なお、本実施形態における画像表示処理の処理内容は、第一実施形態にて説明した処理内容と同一であるため、詳しい説明は割愛する。   After completing the predetermined part detection process (step S800) in this way, the PC 3 next executes an image display process for displaying a decoration image, starting from each of the detected n coordinates f (x, y). (Step S801). In addition, since the processing content of the image display process in this embodiment is the same as the processing content demonstrated in 1st embodiment, detailed description is omitted.

図19に、上述した処理を通じて表示画像が表示されるディスプレイ4を示す。
同図19に示される領域A〜Nにおいて、装飾画像は、使用者20が表示される位置から主にx軸方向に移動するように表示される。なお、同図19には、画像表示処理が開始されてから終了するまでの間において、装飾画像が表示される全ての領域を記載している。実際には、装飾画像は、まず使用者20の所定部位(本実施形態においては、足部)が表示される位置と同じ位置に表示される。そして、この所定部位が表示されている位置を起点として、時間の経過とともに使用者20の所定部位が表示されている位置から離れるように移動する。
FIG. 19 shows a display 4 on which a display image is displayed through the above-described processing.
In the areas A to N shown in FIG. 19, the decoration image is displayed so as to move mainly in the x-axis direction from the position where the user 20 is displayed. Note that FIG. 19 shows all the areas where the decorative image is displayed from the start to the end of the image display process. Actually, the decoration image is first displayed at the same position as the position where the predetermined part (in this embodiment, the foot) of the user 20 is displayed. Then, starting from the position where the predetermined part is displayed, the user 20 moves away from the position where the predetermined part of the user 20 is displayed as time passes.

上記実施形態によれば、上記各実施形態にて説明した作用効果に加え、以下に記載する作用効果を奏することができる。
(8)本実施形態によれば、広い範囲に装飾画像を表示することができるため、使用者である通行人の興味をより引き付けることができる画像をディスプレイ4に表示することができる。
According to the said embodiment, in addition to the effect demonstrated in said each embodiment, there can exist the effect described below.
(8) According to this embodiment, since a decoration image can be displayed in a wide range, an image that can further attract the interest of a passerby as a user can be displayed on the display 4.

(その他の実施形態)
以下、本発明を具体化したその他の実施形態を上記第五実施形態と異なる点を中心に図20に基づいて説明する。なお、図20において、第五実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Other embodiments)
Hereinafter, another embodiment of the present invention will be described based on FIG. 20 with a focus on differences from the fifth embodiment. In FIG. 20, the same elements as those described in the fifth embodiment are denoted by the same reference numerals, and redundant descriptions of these elements are omitted.

同図20(a)に示されるように、本実施形態の画像表示装置1は、表示画像上に、横方向をX軸、当該横方向に垂直な方向をY軸とし、左上端を原点(0,0)、右下端を(W,H)とする座標を設定する。   As shown in FIG. 20 (a), the image display device 1 of the present embodiment has, on the display image, the horizontal direction as the X axis, the direction perpendicular to the horizontal direction as the Y axis, and the upper left corner as the origin ( 0,0) and coordinates with the lower right corner at (W, H) are set.

本実施形態にかかる画像表示装置1では、同図20(b)に示されるように、PC3は、最上部(ここでは、頭頂部)を含めた撮像画像の上部に位置するn個の所定部位を起点として装飾画像をそれぞれ表示する。
本実施形態によれば、上記実施形態で説明した作用効果に準じた作用効果を奏することができるようになる。
In the image display device 1 according to the present embodiment, as shown in FIG. 20B, the PC 3 has n predetermined parts located above the captured image including the uppermost part (here, the top of the head). Decorative images are displayed starting from.
According to this embodiment, the effect according to the effect demonstrated in the said embodiment can be show | played.

(第六実施形態)
以下、本発明を具体化した第六実施形態を上記第一実施形態と異なる点を中心に図2、および図21〜図23に基づいて説明する。なお、これら図2、および図21〜図23において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Sixth embodiment)
Hereinafter, a sixth embodiment of the present invention will be described based on FIG. 2 and FIGS. 21 to 23 with a focus on differences from the first embodiment. 2 and FIGS. 21 to 23, the same elements as those described in the first embodiment are denoted by the same reference numerals, and redundant descriptions of these elements are omitted.

第一実施形態では、可視光からなる撮像画像に基づいて所定部位を検出するようにしたが、本実施形態では、赤外光からなる画像(以下、「赤外光画像」)に基づいて所定部位を検出する。   In the first embodiment, a predetermined part is detected based on a captured image made of visible light. However, in this embodiment, a predetermined part is made based on an image made of infrared light (hereinafter referred to as “infrared light image”). Detect the site.

図21(a)に示されるように、この第六実施形態の画像表示装置1は、ディスプレイ4(本発明の「表示面」に相当)の中央上部に配設される第一カメラ10(本発明の「撮像手段」に相当)および第二カメラ11(本発明の「撮像手段」に相当)に加えて、赤外光を照射する赤外光ライト13を備えている。   As shown in FIG. 21 (a), the image display device 1 of the sixth embodiment includes the first camera 10 (the book) disposed at the upper center of the display 4 (corresponding to the “display surface” of the invention). In addition to the “imaging means” of the invention and the second camera 11 (corresponding to the “imaging means” of the invention), an infrared light 13 for irradiating infrared light is provided.

第一カメラ10および第二カメラ11は、撮像範囲がディスプレイ4前方に起立した使用者20の全身が収まる範囲となるように配設されている。また、第一カメラ10の受光部には、赤外光のみを透過するフィルタ12が取り付けられている。このため、第一カメラ10は、赤外光のみからなる赤外光画像を撮像することとなる。   The first camera 10 and the second camera 11 are arranged so that the imaging range is a range in which the whole body of the user 20 standing in front of the display 4 can be accommodated. A filter 12 that transmits only infrared light is attached to the light receiving portion of the first camera 10. For this reason, the 1st camera 10 will image the infrared light image which consists only of infrared light.

また、これら第一カメラ10および第二カメラ11は、所定回数(本実施形態では、1秒間に5〜30回のうちの任意の回数)ディスプレイ4前方を撮像し、その撮像画像の画像情報をそれぞれPC3(本発明の「表示手段」に相当)に出力している。   The first camera 10 and the second camera 11 image the front of the display 4 a predetermined number of times (in this embodiment, an arbitrary number of 5 to 30 times per second), and display image information of the captured image. Each is output to the PC 3 (corresponding to “display means” of the present invention).

またさらに、本実施形態においてPC3は、図21(b)に示されるように、撮像画像上に、横方向をX軸、当該横方向に垂直な方向をY軸とし、同撮像画像の左下端を原点(0,0)、同撮像画像の右上端を(W,H)とする座標を設定する。   Furthermore, in this embodiment, as shown in FIG. 21B, the PC 3 sets the horizontal direction on the captured image as the X axis and the direction perpendicular to the horizontal direction as the Y axis, and the lower left corner of the captured image. Is set to the origin (0, 0), and the upper right end of the captured image is set to (W, H).

本実施形態では、第一実施形態で説明したように(図2参照)、PC3は、まず所定部位検出処理を実行し(ステップS100)、次に画像表示処理を実行する(ステップS101)。なお、本実施形態において、PC3は、第一カメラ10から出力される撮像画像の画像情報に基づいて所定部位検出処理を実行する。   In the present embodiment, as described in the first embodiment (see FIG. 2), the PC 3 first executes a predetermined part detection process (step S100), and then executes an image display process (step S101). In the present embodiment, the PC 3 performs a predetermined part detection process based on the image information of the captured image output from the first camera 10.

次に、本実施形態にかかる所定部位検出処理について図22を参照しながら詳細に説明する。
本処理が開始されると、まずPC3は、可視光からなる撮像画像(可視光画像)の画像情報を第二カメラ11を通じて取得し、ディスプレイ4に表示する(ステップS1000)。
次に、PC3は、赤外光のみからなる撮像画像(赤外光画像)の画像情報を第一カメラ10を通じて取得する(ステップS1001)。
Next, the predetermined part detection process according to the present embodiment will be described in detail with reference to FIG.
When this process is started, first, the PC 3 acquires image information of a captured image (visible light image) made of visible light through the second camera 11 and displays it on the display 4 (step S1000).
Next, the PC 3 acquires image information of a captured image (infrared light image) made up of only infrared light through the first camera 10 (step S1001).

次に、PC3は、赤外光画像に対して白と黒の二階調に変換する二値化処理を施す(ステップS1002)。そして、この二値化処理を施した赤外光画像に対して差分処理を実行する(ステップS1003)。   Next, the PC 3 performs a binarization process for converting the infrared light image into two gradations of white and black (step S1002). Then, a difference process is executed on the infrared image that has been subjected to the binarization process (step S1003).

次に、PC3は、今回の制御周期で第一カメラ10を通じて取得し、二値化処理を施した赤外光画像を保存する(ステップS1004)。そして、PC3は、差分画像の座標f(x,y)の階調値が基準値C以上であるか否かを判断する(ステップS1005)。   Next, the PC 3 stores the infrared light image acquired through the first camera 10 and subjected to the binarization process in the current control cycle (step S1004). Then, the PC 3 determines whether or not the gradation value of the coordinate f (x, y) of the difference image is greater than or equal to the reference value C (step S1005).

座標f(x,y)の階調値が基準値C以上であると判断する場合(ステップS1005;YES)、座標f(x,y)を動きの検出点とする(ステップS1010)。   When it is determined that the gradation value of the coordinate f (x, y) is greater than or equal to the reference value C (step S1005; YES), the coordinate f (x, y) is set as a motion detection point (step S1010).

これに対して、座標f(x,y)の階調値が基準値C未満であると判断する場合(ステップS1005;NO)、座標f(x,y)のx座標値をインクリメント(x=x+1)する(ステップS1006)。そして、座標f(x,y)のx座標値が所定値W以上であるか否かを判断する(ステップS1007)。   On the other hand, when it is determined that the gradation value of the coordinate f (x, y) is less than the reference value C (step S1005; NO), the x coordinate value of the coordinate f (x, y) is incremented (x = x + 1) (step S1006). Then, it is determined whether or not the x coordinate value of the coordinate f (x, y) is greater than or equal to a predetermined value W (step S1007).

座標f(x,y)のx座標値が所定値W未満であると判断する場合(ステップS1007;NO)、ステップS1005およびS1006の処理を繰り返す。
一方、座標f(x,y)のx座標値が所定値W以上であると判断する場合(ステップS1007;YES)、座標f(x,y)のy座標値をインクリメント(y=y+1)し(ステップS1008)、座標f(x,y)のy座標値が所定値H以上であるか否かを判断する(ステップS1009)。
When it is determined that the x coordinate value of the coordinate f (x, y) is less than the predetermined value W (step S1007; NO), the processes of steps S1005 and S1006 are repeated.
On the other hand, when it is determined that the x coordinate value of the coordinate f (x, y) is greater than or equal to the predetermined value W (step S1007; YES), the y coordinate value of the coordinate f (x, y) is incremented (y = y + 1). (Step S1008), it is determined whether or not the y-coordinate value of the coordinate f (x, y) is greater than or equal to a predetermined value H (Step S1009).

座標f(x,y)のy座標値が所定値H未満であると判断する場合(ステップS1009;NO)、ステップS1005〜S1008の処理を繰り返す。
一方、座標f(x,y)のy座標値が所定値H以上であると判断する場合(ステップS1009;YES)、および座標f(x,y)を動きの検出点とした(ステップS1010)後、座標f(x,y)のx座標値およびy座標値をそれぞれx=「0」,y=「0」として(ステップS1011)、この処理を一旦終了する。
When it is determined that the y coordinate value of the coordinate f (x, y) is less than the predetermined value H (step S1009; NO), the processing of steps S1005 to S1008 is repeated.
On the other hand, when it is determined that the y-coordinate value of the coordinate f (x, y) is greater than or equal to the predetermined value H (step S1009; YES), and the coordinate f (x, y) is set as a motion detection point (step S1010). Thereafter, the x-coordinate value and the y-coordinate value of the coordinate f (x, y) are set to x = “0” and y = “0”, respectively (step S1011), and this process is temporarily ended.

図23に、上述した処理を通じて表示画像が表示されるディスプレイ4を示す。
同図23に示される領域Aにおいて、装飾画像は、使用者20の足部が表示される位置から主にx軸方向に移動するように表示される。なお、同図15には、画像表示処理が開始されてから終了するまでの間において、装飾画像が表示される全ての領域を記載している。実際には、装飾画像は、まず使用者20の所定部位(本実施形態においては、足部)が表示される位置と同じ位置に表示される。そして、この所定部位が表示されている位置を起点として、時間の経過とともに使用者20の所定部位が表示されている位置から離れるように移動する。
FIG. 23 shows the display 4 on which a display image is displayed through the above-described processing.
In the area A shown in FIG. 23, the decoration image is displayed so as to move mainly in the x-axis direction from the position where the foot of the user 20 is displayed. In FIG. 15, all areas in which the decorative image is displayed from the start to the end of the image display process are shown. Actually, the decoration image is first displayed at the same position as the position where the predetermined part (in this embodiment, the foot) of the user 20 is displayed. Then, starting from the position where the predetermined part is displayed, the user 20 moves away from the position where the predetermined part of the user 20 is displayed as time passes.

(9)本実施形態によれば、赤外光画像を用いて使用者20の所定部位を検出するため、撮像画像に表示されたもののうち赤外光を反射するもの、すなわち使用者20を適切に検出することができる。このため、撮像画像において使用者20の所定部位が表示されている位置をより正確に検出することができるようになる。   (9) According to this embodiment, in order to detect the predetermined part of the user 20 using the infrared light image, the one that reflects the infrared light among those displayed in the captured image, that is, the user 20 is appropriately selected. Can be detected. For this reason, the position where the predetermined part of the user 20 is displayed in the captured image can be detected more accurately.

(その他の実施形態)
以下、本発明を具体化したその他の実施形態を上記第六実施形態と異なる点を中心に図24に基づいて説明する。なお、図24において、第六実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Other embodiments)
Hereinafter, another embodiment in which the present invention is embodied will be described based on FIG. 24 with a focus on differences from the sixth embodiment. Note that, in FIG. 24, the same elements as those described in the sixth embodiment are denoted by the same reference numerals, and redundant description of these elements is omitted.

同図24(a)に示されるように、本実施形態において、PC3は、表示画像上に、横方向をX軸、当該横方向に垂直な方向をY軸とし、左上端を原点(0,0)、右下端を(W,H)とする座標を設定する。   As shown in FIG. 24 (a), in this embodiment, the PC 3 sets the horizontal direction on the display image as the X axis, the direction perpendicular to the horizontal direction as the Y axis, and the upper left corner as the origin (0, 0) Set coordinates with the lower right corner as (W, H).

そして、同図24(b)に示されるように、PC3は、使用者20の最上部(ここでは、頭頂部)を所定部位として検出し、この頭頂部を起点として装飾画像を表示する。   Then, as shown in FIG. 24B, the PC 3 detects the uppermost part (here, the top of the head) of the user 20 as a predetermined part, and displays a decoration image starting from this top.

本実施形態によれば、上記実施形態で説明した作用効果に準じた作用効果を奏することができるようになる。   According to this embodiment, the effect according to the effect demonstrated in the said embodiment can be show | played.

(第七実施形態)
以下、本発明を具体化した第七実施形態を上記第一実施形態と異なる点を中心に図25〜図27に基づいて説明する。なお、これら図25〜図27において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Seventh embodiment)
The seventh embodiment embodying the present invention will be described below with reference to FIGS. 25 to 27 with a focus on differences from the first embodiment. In addition, in these FIGS. 25-27, the code | symbol same about each element same as each element demonstrated in 1st embodiment is each shown, and the overlapping description about these elements is omitted.

上記第一実施形態では、初期速度v,vを所定の値に予め設定した。これに対して、本実施形態では、差分画像において白画素が表示される領域の重心位置に基づいて初期速度v,vを算出する。
また、上記第一実施形態では、初期速度v,vが負の値となる場合には、初期速度v,vをそれぞれ「0」となるようにした。これに対して、本実施形態では、初期速度v,vの正負に関わらず、算出された初期速度v,vを用いて装飾画像を表示する領域を設定するようにしている。
In the first embodiment, a preset initial speed v x, the v y to a predetermined value. In contrast, in the present embodiment, to calculate the initial velocity v x, v y on the basis of the center of gravity of the region in which white pixels are displayed in the difference image.
Further, in the above-described first embodiment, if the initial velocity v x, v y is a negative value, and the initial velocity v x, v y to respectively become "0". In contrast, in the present embodiment, regardless of the polarity of the initial velocity v x, v y, calculated initial velocity v x, it is to set the area for displaying the ornamental image using v y.

なお、本実施形態では、第一実施形態にて説明したように、PC3は、撮像画像上に、横方向をX軸、当該横方向に垂直な方向をY軸とし、同撮像画像の左上端を原点(0,0)、同撮像画像の右下端を(W,H)とする座標を設定する。   In this embodiment, as described in the first embodiment, the PC 3 sets the horizontal direction on the captured image as the X axis and the direction perpendicular to the horizontal direction as the Y axis, and the upper left corner of the captured image. Is set to the origin (0, 0), and the coordinate with the lower right corner of the captured image as (W, H) is set.

次に、本実施形態にかかる画像表示処理について図25を参照しながら詳細に説明する。なお、本実施形態における表示画像の処理方法、および所定部位検出処理の処理内容は、第一実施形態にて説明した処理内容と同一であるため、詳細な説明は割愛する。   Next, image display processing according to the present embodiment will be described in detail with reference to FIG. Note that the display image processing method and the processing content of the predetermined part detection processing in this embodiment are the same as the processing content described in the first embodiment, and thus detailed description thereof is omitted.

同図25に示されるように、本処理が開始されると、PC3は、まず差分画像において白画素が表示される領域の重心位置に基づいて初期速度v,vを算出する(ステップS1100)。 As shown in FIG. 25, when the process starts, PC3 first calculates the initial velocity v x, v y on the basis of the gravity center position of the region where white pixels are displayed in the difference image (step S1100 ).

ここで、差分画像において白画素が表示される領域の重心位置の算出方法について、図26(a)〜(d)を参照しながら詳細に説明する。
同図26(a)には、前々回の制御周期(t−2)でカメラ2にて撮像され、撮像画像に表示された使用者をX1にて示すとともに、前回の制御周期(t−1)でカメラ2にて撮像され、撮像画像に表示された使用者20をX2にて示す。
同図26(b)には、同図26(a)に示した撮像画像に基づいて生成される差分画像を示す。同差分画像において、ハッチングで示される領域には白画素が表示されている。
Here, the calculation method of the barycentric position of the area where the white pixels are displayed in the difference image will be described in detail with reference to FIGS.
In FIG. 26 (a), the user who is captured by the camera 2 in the previous control cycle (t-2) and displayed in the captured image is indicated by X1, and the previous control cycle (t-1). The user 20 captured by the camera 2 and displayed in the captured image is denoted by X2.
FIG. 26B shows a difference image generated based on the captured image shown in FIG. In the difference image, white pixels are displayed in the hatched area.

また、同図26(c)には、前回の制御周期(t−1)でカメラ2にて撮像され、撮像画像に表示された使用者をX2にて示すとともに、今回の制御周期(t)でカメラ2にて撮像され、撮像画像に表示された使用者20をX3にて示す。
同図26(d)には、同図26(c)に示した撮像画像に基づいて生成される差分画像を示す。同差分画像において、ハッチングで示される領域には白画素が表示されている。
In FIG. 26C, the user who is captured by the camera 2 in the previous control cycle (t-1) and displayed in the captured image is indicated by X2, and the current control cycle (t). The user 20 captured by the camera 2 and displayed in the captured image is indicated by X3.
FIG. 26D shows a difference image generated based on the captured image shown in FIG. In the difference image, white pixels are displayed in the hatched area.

まず、PC3は、所定部位検出処理を通じて、図26(b)に示される位置Pを所定部位が表示されている位置として検出する。なお、本実施形態においてPC3は、横方向をX軸、当該横方向に垂直な方向をY軸とし、左上端を原点(0,0)、右下端を(W,H)とする座標を撮像画像上に設定している。
そして、PC3は、位置Pを中心とする所定の領域を重心位置算出領域rとして設定する。この重心位置算出領域rは、位置Pを中心として上下左右に10〜50ピクセルの範囲に設定されることが好ましく、10〜20ピクセルの範囲に設定されることがより好ましい。
First, the PC 3 detects the position P shown in FIG. 26B as a position where the predetermined part is displayed through the predetermined part detection process. In the present embodiment, the PC 3 captures coordinates with the horizontal direction as the X axis, the direction perpendicular to the horizontal direction as the Y axis, the upper left corner as the origin (0, 0), and the lower right corner as (W, H). It is set on the image.
Then, the PC 3 sets a predetermined area centered on the position P as the gravity center position calculation area r. The center-of-gravity position calculation region r is preferably set in the range of 10 to 50 pixels vertically and horizontally with the position P as the center, and more preferably in the range of 10 to 20 pixels.

次に、PC3は、同図26(b)に示されるように、差分画像において白画素が表示される領域のうち、重心位置算出領域rに表示される部分の重心位置g(x(t−1),y(t−1))を算出する。なお、この重心位置g(x(t−1),y(t−1))は、既知の方法で算出することができるため、詳しい説明は割愛する。   Next, as shown in FIG. 26B, the PC 3 displays the center of gravity position g (x (t−t−) of the portion displayed in the center of gravity position calculation region r in the region where white pixels are displayed in the difference image. 1), y (t-1)) is calculated. Note that the center of gravity position g (x (t−1), y (t−1)) can be calculated by a known method, and thus detailed description thereof is omitted.

同様に、PC3は、図26(d)に示されるように、位置Pを所定部位が表示されている位置として検出し、この位置Pを中心として重心位置算出領域rを設定する。
そして、差分画像において白画素が表示される領域のうち、重心位置算出領域rに表示される部分の重心位置g(x(t),y(t))を算出する。
Similarly, as shown in FIG. 26D, the PC 3 detects the position P as the position where the predetermined part is displayed, and sets the center-of-gravity position calculation region r around the position P.
Then, the center-of-gravity position g (x (t), y (t)) of the part displayed in the center-of-gravity position calculation area r is calculated among the areas where white pixels are displayed in the difference image.

次に、PC3は、以下の式(5)および(6)に基づいて、重心位置g(x(t−1),y(t−1))と重心位置g(x(t),y(t))との差を求める。

Gx(t)=gx(t−1)−gx(t)…(5)
Gy(t)=gy(t−1)−gy(t)…(6)
Next, the PC 3 calculates the gravity center position g (x (t−1), y (t−1)) and the gravity center position g (x (t), y () based on the following equations (5) and (6). The difference from t)) is obtained.

Gx (t) = gx (t−1) −gx (t) (5)
Gy (t) = gy (t−1) −gy (t) (6)

次に、以下の式(7)および(8)に基づいて、初期速度v,vを算出する。

=A×Gx(t)…(7)
=A×Gy(t)…(8)

なお、A,Bは予め定められた所定の定数である。
Then, based on the following equation (7) and (8) to calculate the initial velocity v x, v y.

v x = A × Gx (t) (7)
v y = A × Gy (t) (8)

A and B are predetermined constants determined in advance.

PC3は、このようにして算出した初期速度v,vを設定し(ステップS1100)、装飾画像を表示する座標g(x,y)を第一実施形態にて説明した以下の式(3)および(4)を用いて算出する(ステップS1101)。なお、この座標計算においては、位置Pのx座標値およびy座標値をそれぞれ「x´」,「y´」とする。

x=(w+v)t+Asin(ωt)+Bsin(ωt)+x´…(3)
y=(w+v)t+Ccos(ωt)+Dcos(ωt)+y´…(4)

第一実施形態にて説明したように、角速度ω,ω,ω,ω、および定数A,B,C,Dは、実験等を通じて予め定められた所定の値である。またさらに、時間tは、本画像表示処理が開始されたときからカウントを開始する。
一方、風速w,wについては、初期速度v,vが負の値である場合は負の値に設定する一方、初期速度v,vが正の値である場合は正の値に設定する。
PC3, the initial velocity v x calculated in this way, to set the v y (step S1100), the coordinates g (x, y) the following equation that describes in a first embodiment (3 for displaying an ornamental image ) And (4) (step S1101). In this coordinate calculation, the x coordinate value and the y coordinate value of the position P are “x ′” and “y ′”, respectively.

x = (w x + v x ) t + Asin (ω 1 t) + Bsin (ω 2 t) + x ′ (3)
y = (w y + v y ) t + C cos (ω 3 t) + D cos (ω 4 t) + y ′ (4)

As described in the first embodiment, the angular velocities ω 1 , ω 2 , ω 3 , ω 4 , and the constants A, B, C, D are predetermined values determined in advance through experiments or the like. Furthermore, the time t starts counting from when the main image display process is started.
On the other hand, the wind speed w x, for w y, whereas if the initial velocity v x, v y is a negative value is set to a negative value, if the initial velocity v x, v y is a positive value positive Set to the value of.

そして、座標g(x,y)に装飾画像を表示する(ステップS1102)。
次に、表示回数nをインクリメント(n=n+1)する(ステップS1103)。
その後、表示回数nが所定回数N以上であるか否かを判断し(ステップS1104)、表示回数nが所定回数N未満であると判断する場合(ステップS1104;NO)、ステップS1101以降の処理を繰り返す。一方、表示回数nが所定回数N以上であると判断する場合(ステップS1104;YES)、表示回数n=「0」とし(ステップS1105)、この処理を一旦終了する。
Then, the decoration image is displayed at the coordinates g (x, y) (step S1102).
Next, the display count n is incremented (n = n + 1) (step S1103).
Thereafter, it is determined whether or not the display count n is equal to or greater than the predetermined count N (step S1104). When it is determined that the display count n is less than the predetermined count N (step S1104; NO), the processing after step S1101 is performed. repeat. On the other hand, when it is determined that the display number n is equal to or greater than the predetermined number N (step S1104; YES), the display number n is set to “0” (step S1105), and this process is temporarily terminated.

図27に、上述した処理を通じて表示画像が表示されるディスプレイ4を示す。
図27(a)に矢印Aにて示す方向に使用者20が移動する場合、差分画像の重心位置も、この矢印にて示す方向に移動する。このときは、Gx(t)は正の値となるため(式(5)参照)、装飾画像は、同図27(a)にS1にて示す方向に流れるように表示される(式(3)参照)。また、使用者20の移動速度が速いときほど、重心位置G1と重心位置G2との差Gx(t),Gy(t)は大きくなるため、初期速度v,vも大きくなる。
FIG. 27 shows the display 4 on which a display image is displayed through the above-described processing.
When the user 20 moves in the direction indicated by the arrow A in FIG. 27A, the barycentric position of the difference image also moves in the direction indicated by the arrow. At this time, since Gx (t) is a positive value (see Expression (5)), the decoration image is displayed so as to flow in the direction indicated by S1 in FIG. )reference). In addition, as when the moving speed of the user 20 is high, the difference between the position of the center of gravity G1 and the position of the center of gravity G2 Gx (t), Gy ( t) for the greater initial velocity v x, v y also increases.

これに対して、図27(b)に矢印にて示す方向に使用者20が移動する場合、差分画像の重心位置もこの矢印にて示す方向に移動する。このときは、G(t)は負の値となる(式(5)参照)ため、装飾画像は同図27(b)にS2にて示す方向に流れるように表示される(式(3)参照)。このときも、使用者20の移動速度が速いときほど、重心位置G1と重心位置G2との差Gx(t),Gy(t)は大きくなるため、初期速度v,vも大きくなる。 On the other hand, when the user 20 moves in the direction indicated by the arrow in FIG. 27B, the barycentric position of the difference image also moves in the direction indicated by the arrow. At this time, since G (t) is a negative value (see Expression (5)), the decoration image is displayed so as to flow in the direction indicated by S2 in FIG. 27B (Expression (3)). reference). At this time, as when the moving speed of the user 20 is high, the difference between the position of the center of gravity G1 and the position of the center of gravity G2 Gx (t), Gy ( t) for the greater initial velocity v x, v y also increases.

上記実施形態によれば、以下に記載する作用効果を奏することができる。
(10)上記実施形態では、初期速度v,vを都度算出するようにしているため、使用者20の動きに応じて装飾画像を表示する領域を変更することができる。装飾画像を表示する領域が使用者20の動きに関わらず一定の範囲である場合と比較して、より使用者20の興味を引く態様にて装飾画像を表示することができるようになる。
According to the said embodiment, there can exist an effect described below.
(10) In the above embodiment, since the initial velocity v x, the v y such that each time calculated, it is possible to change the area for displaying the ornamental image in response to movement of the user 20. Compared to the case where the area for displaying the decoration image is within a certain range regardless of the movement of the user 20, the decoration image can be displayed in a manner that attracts the user 20 more.

(11)また、差分画像の重心位置に基づいて初期速度v,vを算出するようにしているため、装飾画像を表示する領域を使用者20の動きの向きに基づいて設定することができる。 (11) Further, the initial velocity v x based on the center of gravity of the difference image, because you have to calculate the v y, be set based on the area for displaying the ornamental image in the direction of movement of the user 20 it can.

(12)また、差分画像のうち、重心位置算出領域rに表示される部分の差分画像の重心位置G1を算出するようにしている。このため、使用者20の所定部位とその周辺部位のみの動きに基づいて装飾画像を表示する領域を設定することができる。すなわち、使用者20の意に沿った態様で装飾画像を表示することができるようになる。   (12) Also, the center of gravity position G1 of the difference image of the portion displayed in the center of gravity position calculation region r in the difference image is calculated. For this reason, the area | region which displays a decoration image based on the motion of only the predetermined | prescribed site | part of the user 20 and its periphery site | part can be set. That is, the decoration image can be displayed in a manner in line with the intention of the user 20.

(その他の実施形態)
なお、この発明にかかる画像表示装置1は、上記実施形態にて例示した構成に限定されるものではなく、同実施の形態を適宜変更した例えば次のような形態として実施することもできる。また以下の各変形例は、上記実施形態についてのみ適用されるものではなく、異なる変形例同士を互いに組み合わせて実施することもできる。
(Other embodiments)
Note that the image display apparatus 1 according to the present invention is not limited to the configuration exemplified in the above embodiment, and can be implemented as, for example, the following form in which the embodiment is appropriately changed. The following modifications are not applied only to the above-described embodiment, and different modifications can be combined with each other.

・上記第三実施形態において、所定部位が表示される座標f(x,y)を中心として差分画像算出領域r1を設定し、差分画像において白画素が表示される領域のうち、当該差分画像算出領域r1に表示される部分の面積に基づいて、初期速度v、vを変更するようにしてもよい。本変形例によれば、所定部位およびその周辺部位のみの動きの速度に応じて装飾画像の表示領域を変更することができるようになる。 In the third embodiment, the difference image calculation region r1 is set around the coordinate f (x, y) where the predetermined part is displayed, and the difference image calculation is performed among the regions where white pixels are displayed in the difference image. based on the area of the portion to be displayed in the region r1, may be changed to the initial velocity v x, v y. According to this modification, the display area of the decoration image can be changed according to the speed of movement of only the predetermined part and its peripheral part.

・上記第一実施形態では、ディスプレイ4の中央上部にカメラ2を配設するようにしたが、カメラ2の配設態様はこれに限られるものではなく、図28に示されるように、カメラ2をディスプレイ4前方に対向する位置に配設してもよい。本変形例では、カメラ2からPC3に出力された表示画像をプロジェクタ14を用いて、スクリーン15に表示する。本発明においても、上記作用効果に準じた作用効果を奏することができるようになる。   In the first embodiment, the camera 2 is arranged at the upper center of the display 4. However, the arrangement of the camera 2 is not limited to this, and as shown in FIG. May be disposed at a position facing the front of the display 4. In this modification, the display image output from the camera 2 to the PC 3 is displayed on the screen 15 using the projector 14. Also in the present invention, it is possible to achieve the operational effects according to the above operational effects.

・上記第二実施形態では、中央カメラ7と端側カメラ8を用いるようにしたが、本発明はこれに限られるものではない。例えば、図29に示されるように、端側カメラ8をディスプレイ4の左右の端側にそれぞれ配設し、これら端側カメラ8を用いてディスプレイ4と使用者20との間の距離を算出してもよい。本実施形態によれば、端側カメラ8間の距離が大きくなるため、使用者20とディスプレイ4との間の距離を精度よく算出することができるようになる。   In the second embodiment, the central camera 7 and the end camera 8 are used, but the present invention is not limited to this. For example, as shown in FIG. 29, the end cameras 8 are arranged on the left and right ends of the display 4, and the distance between the display 4 and the user 20 is calculated using these end cameras 8. May be. According to the present embodiment, since the distance between the end cameras 8 is increased, the distance between the user 20 and the display 4 can be calculated with high accuracy.

・上記第二実施形態において、装飾画像の表示領域は、ディスプレイ4と使用者20との距離D2の大きさに関わらず一定としたが、装飾画像の表示領域はこれに限られるものではなく、距離D2に基づいて変更してもよい。すなわち、距離D2が大きいときほど、すなわち使用者20がディスプレイ4から離れているときほど、領域Aが大きくなるように設定してもよい。本変形例によれば、ディスプレイ4から離れている場所に位置している使用者20であっても、ディスプレイ4に表示される装飾画像を認識することができるようになる。   In the second embodiment, the decoration image display area is constant regardless of the distance D2 between the display 4 and the user 20, but the decoration image display area is not limited to this. You may change based on the distance D2. That is, the region A may be set to be larger as the distance D2 is larger, that is, as the user 20 is away from the display 4. According to this modification, even the user 20 located at a location away from the display 4 can recognize the decorative image displayed on the display 4.

・上記実施形態では、装飾画像を主にx軸方向に流れるように表示したが、本発明はこれに限られるものではない。風速wを風速wよりも大きい値に設定し、主にy軸方向に流れるように表示してもよい。また、風速wと風速wとを略等しい値に設定し、x軸方向およびy軸方向に流れるように表示してもよい。 In the above embodiment, the decoration image is displayed so as to flow mainly in the x-axis direction, but the present invention is not limited to this. Wind speed w y is set to a value greater than the wind speed w x, may primarily be displayed so as to flow in the y-axis direction. Alternatively, the wind speed w y and the wind speed w x may be set to substantially equal values and displayed so as to flow in the x-axis direction and the y-axis direction.

1…画像表示装置
2…カメラ
3…PC
4…ディスプレイ
7…中央カメラ
8…端側カメラ
10…第一カメラ
11…第二カメラ
12…フィルタ
13…赤外光ライト
14…プロジェクタ
15…スクリーン
20…使用者
21…足部
22…下肢
23…使用者
DESCRIPTION OF SYMBOLS 1 ... Image display apparatus 2 ... Camera 3 ... PC
4 ... Display 7 ... Central camera 8 ... End camera 10 ... First camera 11 ... Second camera 12 ... Filter 13 ... Infrared light 14 ... Projector 15 ... Screen 20 ... User 21 ... Foot 22 ... Lower limb 23 ... User

Claims (7)

表示面に表示画像を表示する表示手段と、前記表示面の前方を撮像画像として撮像する撮像手段と、前記表示画像を制御する制御手段とを備える画像表示装置であって、
前記制御手段は、前記撮像画像において使用者の所定部位が表示されている位置を起点として設定する所定領域に装飾画像を表示する画像表示処理を実行し、前記装飾画像を前記撮像画像とともに前記表示画像として前記表示面に表示する
ことを特徴とする画像表示装置。
An image display device comprising: display means for displaying a display image on a display surface; imaging means for imaging the front of the display surface as a captured image; and control means for controlling the display image,
The control means executes an image display process for displaying a decoration image in a predetermined area that is set starting from a position where a predetermined part of the user is displayed in the captured image, and displays the decoration image together with the captured image. An image display device, wherein the image is displayed on the display surface as an image.
請求項1に記載の画像表示装置であって、
前記制御手段は、撮像時刻の異なる前回の撮像画像と今回の撮像画像との間の変化分を白画素として検出し、この白画素が表示される位置に基づいて前記所定部位が表示されている位置を検出する
ことを特徴とする画像表示装置。
The image display device according to claim 1,
The control means detects a change between a previous captured image and a current captured image having different imaging times as a white pixel, and the predetermined portion is displayed based on a position where the white pixel is displayed. An image display device characterized by detecting a position.
請求項1または2に記載の画像表示装置であって、
前記撮像手段は、前記表示面から所定の範囲に前記使用者が位置していないと判断したときには、前記画像表示処理の実行を禁止する
ことを特徴とする画像表示装置。
The image display device according to claim 1 or 2,
The image display device, wherein the image display unit prohibits execution of the image display process when it is determined that the user is not located within a predetermined range from the display surface.
請求項2または3に記載の画像表示装置であって、
前記制御手段は、前記撮像画像を上領域と下領域とに区画する仮想区画線を前記撮像画像中に設定するとともに、
前記下領域に前記白画素を検出したときに、当該白画素が前記仮想区画線まで連続して検出されたことをもって、前記表示面から所定の範囲に前記使用者が位置していると判断する
ことを特徴とする画像表示装置。
The image display device according to claim 2 or 3,
The control means sets a virtual lane marking in the captured image that partitions the captured image into an upper region and a lower region,
When the white pixel is detected in the lower region, it is determined that the user is located within a predetermined range from the display surface when the white pixel is continuously detected up to the virtual partition line. An image display device characterized by that.
請求項2〜4のいずれか一項に記載の画像表示装置であって、
前記制御手段は、前記装飾画像を表示する前記所定領域を前記白画素が表示される領域の大きさに基づいて設定する
ことを特徴とする画像表示装置。
The image display device according to any one of claims 2 to 4,
The control means sets the predetermined area for displaying the decoration image based on a size of an area where the white pixel is displayed.
請求項1〜4のいずれか一項に記載の画像表示装置であって、
前記制御手段は、撮像時刻の異なる前回の撮像画像と今回の撮像画像との間の変化分を白画素として検出し、前記白画素が表示される領域の重心位置をそれぞれ算出し、この重心位置の移動方向に基づいて、前記所定領域を設定する
ことを特徴とする画像表示装置。
The image display device according to any one of claims 1 to 4,
The control means detects a change between a previous captured image and a current captured image having different imaging times as white pixels, calculates a centroid position of an area where the white pixel is displayed, The predetermined area is set based on the moving direction of the image display device.
請求項1〜6のいずれか一項に記載の画像表示装置であって、
前記使用者の前記所定部位が表示されている位置を(x´,y´)とすると、
前記所定領域は、所定の定数であるw,w,v,v,w,w,w,w,A,B,CおよびDと、以下の数式とに基づいて設定される
ことを特徴とする画像表示装置。
X = (w+v)t+Asin(wt)+Bsin(wt)+x´
Y = (w+v)t+Ccos(wt)+Dcos(wt)+y´
The image display device according to any one of claims 1 to 6,
When the position where the predetermined part of the user is displayed is (x ′, y ′),
The predetermined area is based on predetermined constants w x , w y , v x , v y , w 1 , w 2 , w 3 , w 4 , A, B, C, and D, and the following formulas: An image display device characterized by being set.
X = (w x + v x ) t + Asin (w 1 t) + Bsin (w 2 t) + x'
Y = (w y + v y ) t + C cos (w 3 t) + D cos (w 4 t) + y ′
JP2011220459A 2011-10-04 2011-10-04 Image display device Expired - Fee Related JP5974422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011220459A JP5974422B2 (en) 2011-10-04 2011-10-04 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011220459A JP5974422B2 (en) 2011-10-04 2011-10-04 Image display device

Publications (2)

Publication Number Publication Date
JP2013080135A true JP2013080135A (en) 2013-05-02
JP5974422B2 JP5974422B2 (en) 2016-08-23

Family

ID=48526538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011220459A Expired - Fee Related JP5974422B2 (en) 2011-10-04 2011-10-04 Image display device

Country Status (1)

Country Link
JP (1) JP5974422B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246355A (en) * 2012-05-28 2013-12-09 Yahoo Japan Corp Display device, and display method and program
JP2014238792A (en) * 2013-06-10 2014-12-18 長崎県公立大学法人 Learning support device and learning support method
JP2017521970A (en) * 2014-04-30 2017-08-03 ビステオン グローバル テクノロジーズ インコーポレイテッド System and method for calibrating stereoscopic display alignment in a vehicle
JP2018160862A (en) * 2017-03-23 2018-10-11 富士ゼロックス株式会社 Information processing apparatus, display system, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303567A (en) * 2004-04-09 2005-10-27 Yamaha Corp Image and sound controller
JP2006014875A (en) * 2004-06-30 2006-01-19 Sony Computer Entertainment Inc Information processor, program and object control method in information processor
JP2011035777A (en) * 2009-08-04 2011-02-17 Aisin Seiki Co Ltd Support system for perception of vehicle surroundings
JP2011103561A (en) * 2009-11-11 2011-05-26 Sony Corp System, device and method for processing image, and program
JP2011110215A (en) * 2009-11-26 2011-06-09 Toyota Motor Kyushu Inc Rehabilitation system, program and computer-readable recording medium recording program
JP2011175418A (en) * 2010-02-24 2011-09-08 Dainippon Printing Co Ltd Video information presentation device
JP2012196315A (en) * 2011-03-22 2012-10-18 Nagasakiken Koritsu Daigaku Hojin Occupational therapy training support apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303567A (en) * 2004-04-09 2005-10-27 Yamaha Corp Image and sound controller
JP2006014875A (en) * 2004-06-30 2006-01-19 Sony Computer Entertainment Inc Information processor, program and object control method in information processor
JP2011035777A (en) * 2009-08-04 2011-02-17 Aisin Seiki Co Ltd Support system for perception of vehicle surroundings
JP2011103561A (en) * 2009-11-11 2011-05-26 Sony Corp System, device and method for processing image, and program
JP2011110215A (en) * 2009-11-26 2011-06-09 Toyota Motor Kyushu Inc Rehabilitation system, program and computer-readable recording medium recording program
JP2011175418A (en) * 2010-02-24 2011-09-08 Dainippon Printing Co Ltd Video information presentation device
JP2012196315A (en) * 2011-03-22 2012-10-18 Nagasakiken Koritsu Daigaku Hojin Occupational therapy training support apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
檜田和浩: "「Cell Broadband Engineを用いたフェイストラッキング」", 東芝レビュー, vol. 第62巻第6号, JPN6015037182, 1 June 2007 (2007-06-01), pages 56 - 59, ISSN: 0003319064 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246355A (en) * 2012-05-28 2013-12-09 Yahoo Japan Corp Display device, and display method and program
JP2014238792A (en) * 2013-06-10 2014-12-18 長崎県公立大学法人 Learning support device and learning support method
JP2017521970A (en) * 2014-04-30 2017-08-03 ビステオン グローバル テクノロジーズ インコーポレイテッド System and method for calibrating stereoscopic display alignment in a vehicle
JP2018160862A (en) * 2017-03-23 2018-10-11 富士ゼロックス株式会社 Information processing apparatus, display system, and program
US11017573B2 (en) 2017-03-23 2021-05-25 Fuji Xerox Co., Ltd. Information processing device, display system, and non-transitory computer readable medium

Also Published As

Publication number Publication date
JP5974422B2 (en) 2016-08-23

Similar Documents

Publication Publication Date Title
EP3321888B1 (en) Projected image generation method and device, and method for mapping image pixels and depth values
US11417365B1 (en) Methods, systems and apparatuses for multi-directional still pictures and/or multi-directional motion pictures
CN100353293C (en) Image information displaying device
JP4715353B2 (en) Image processing apparatus, drawing method, and drawing program
CN102388406A (en) Generating a three-dimensional model using a portable electronic device recording
JP5974422B2 (en) Image display device
CN107507243A (en) A kind of camera parameters method of adjustment, instructor in broadcasting&#39;s video camera and system
CN106249985A (en) The method of the screen of portable equipment and change portable equipment
JPWO2019069575A1 (en) Information processing equipment, information processing methods and programs
EP3327676B1 (en) Method for displaying object on three-dimensional model
CN112150560A (en) Method and device for determining vanishing point and computer storage medium
US20180059811A1 (en) Display control device, display control method, and recording medium
JP5300609B2 (en) Intersection guidance information creation device
JP6168597B2 (en) Information terminal equipment
JP2019075126A (en) Information processing device and program
CN114979616A (en) Display method, information processing apparatus, and recording medium
KR20230007477A (en) Depth estimation based on object bottom position
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method
JP6849331B2 (en) Devices and computer programs
KR20180039954A (en) Method and device for processing an image and recording medium thereof
JPWO2012086052A1 (en) Image control apparatus and image control method
JP4918077B2 (en) MAP DISPLAY DEVICE, MAP DISPLAY METHOD, AND COMPUTER PROGRAM
KR20190135147A (en) Apparatus and method for projector
JP2000214992A (en) Direction indication device, direction estimating method and computer readable recording medium which records program on the method
TWI832657B (en) Method, processing device, and display system for information display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20141002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160703

R150 Certificate of patent or registration of utility model

Ref document number: 5974422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees