JP5262929B2 - Image processing program and image processing apparatus - Google Patents

Image processing program and image processing apparatus Download PDF

Info

Publication number
JP5262929B2
JP5262929B2 JP2009088386A JP2009088386A JP5262929B2 JP 5262929 B2 JP5262929 B2 JP 5262929B2 JP 2009088386 A JP2009088386 A JP 2009088386A JP 2009088386 A JP2009088386 A JP 2009088386A JP 5262929 B2 JP5262929 B2 JP 5262929B2
Authority
JP
Japan
Prior art keywords
optical communication
image
person
image processing
communication device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009088386A
Other languages
Japanese (ja)
Other versions
JP2010238196A (en
Inventor
円 光岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009088386A priority Critical patent/JP5262929B2/en
Publication of JP2010238196A publication Critical patent/JP2010238196A/en
Application granted granted Critical
Publication of JP5262929B2 publication Critical patent/JP5262929B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、個人の属性に応じた適切な情報を該個人の光通信装置に送信する広告情報提供システムにおいて、撮像装置で撮影された画像に基づいて光通信装置の所持者を特定する画像処理プログラム、画像処理装置および画像処理方法に関し、より具体的には、光通信中の前記光通信装置の周囲に複数の人物が居る場合に、該光通信装置と各人物を上方から撮像装置で撮影し、撮影された画像を解析して、所定の位置に設置した通信先装置等の基準位置に対する、該光通信装置と各人物の位置関係に基づいて、該光通信装置の所持者候補を選択できる画像処理プログラム、画像処理装置および画像処理方法に関する。   The present invention relates to an advertisement information providing system for transmitting appropriate information according to an individual attribute to the individual optical communication device, and image processing for identifying the owner of the optical communication device based on an image taken by the imaging device More specifically, the present invention relates to a program, an image processing apparatus, and an image processing method. More specifically, when there are a plurality of persons around the optical communication apparatus in optical communication, the optical communication apparatus and each person are photographed from above by an imaging apparatus. Then, the photographed image is analyzed, and the optical communication device owner candidate is selected based on the positional relationship between the optical communication device and each person with respect to the reference position of the communication destination device installed at a predetermined position. The present invention relates to an image processing program, an image processing apparatus, and an image processing method.

LED(Light Emitting Diode)等の発光パターン(可視光だけでなく不可視光による発光パターンも含む)によって情報伝達を実現する光通信の技術が知られている。このような光通信は、光ファイバー等の伝送媒体を必要としないため、様々な場所で簡便に利用することができる。   2. Description of the Related Art There is known an optical communication technology that realizes information transmission using light emission patterns such as LEDs (Light Emitting Diodes) (including light emission patterns not only visible light but also invisible light). Since such optical communication does not require a transmission medium such as an optical fiber, it can be easily used in various places.

光通信を受信する受信デバイスとしては、光の点滅のみを検出可能な受光センサー以外に、画像を撮影可能な撮像装置を用いることができる。撮像装置を光通信の受信デバイスとして用いた場合、光通信で情報を送信する送信者の顔や姿を撮像装置で撮影しながら、光通信で送信される情報を復号することができる。   As a receiving device that receives optical communication, an imaging device that can capture an image can be used in addition to a light receiving sensor that can detect only blinking of light. When the imaging apparatus is used as a receiving device for optical communication, information transmitted by optical communication can be decoded while the face and figure of a sender transmitting information by optical communication are photographed by the imaging apparatus.

このように送信者の顔等を撮影しながら光通信を実行する技術の応用として、光通信に用いられる光の発光位置の近傍に送信者に関する情報を表示する技術が提案されている。この提案では、正面から撮影された映像を解析し、発光位置の近傍に映っている人物を送信者であると特定している。   As an application of the technique for performing optical communication while photographing the sender's face and the like as described above, a technique for displaying information about the sender near the light emission position used for optical communication has been proposed. In this proposal, an image taken from the front is analyzed, and a person shown in the vicinity of the light emission position is identified as a sender.

特開2008−199569号公報JP 2008-199569 A

上述の技術を応用することで、光通信の送信者の属性に応じた広告情報等の提供を行うことが考えられる。その場合、映像を解析することで送信者を特定し、更に当該送信者の属性を特定する必要がある。   By applying the above-described technology, it is conceivable to provide advertisement information or the like according to the attribute of the sender of optical communication. In that case, it is necessary to specify the sender by analyzing the video, and further specify the attribute of the sender.

しかし、上述の従来技術では正面からの映像からの判断を行っているために、画像中に複数の人物が写っている場合、それら人物の位置関係によっては、画像中の誰が送信者であるかを正しく識別することが難しい場合があった。例えば、撮像装置から見て複数の人物が前後に重なって位置している場合には、発光位置に最も近い人物が必ずしも送信者ではない場合があったが、これを把握することは困難であった。   However, since the above-mentioned conventional technology makes a determination from the image from the front, if there are multiple persons in the image, who is the sender in the image depending on the positional relationship of those persons It was sometimes difficult to identify correctly. For example, when a plurality of persons are positioned one behind the other when viewed from the imaging device, the person closest to the light emission position may not necessarily be the sender, but it is difficult to grasp this. It was.

開示の技術は、上記に鑑みてなされたものであって、光通信中の光通信装置の周囲に複数の人物が居る場合に、該光通信装置と所定の基準位置と各人物の位置関係に基づいて、該装置の所持者を特定することができる画像処理プログラム、画像処理装置および画像処理方法を提供することを目的とする。   The disclosed technology has been made in view of the above, and when there are a plurality of persons around the optical communication apparatus in optical communication, the positional relationship between the optical communication apparatus, a predetermined reference position, and each person is determined. It is an object of the present invention to provide an image processing program, an image processing device, and an image processing method that can identify the owner of the device.

本願の開示する画像処理装置は、一つの態様において、個人の属性に応じた適切な情報を該個人の光通信装置に送信する広告情報提供システムにおいて、撮像装置で撮影された画像を解析して光通信装置の所持者を特定する画像処理装置であって、前記光通信装置とその所持者が存在する所定の空間を撮影する前記撮像装置によって撮影された前記画像を解析して、前記光通信装置が送信した光信号と、前記光通信装置の所持者の候補となり得る複数の人物領域を検出する検出部と、前記検出部において前記画像中に検出された複数の人物領域の中から、前記画像における前記光信号の発光位置と予め定められた所定の基準位置と各人物領域との位置関係に基づいて、前記光通信装置の所持者の人物領域を特定する人物領域特定部とを備える。   In one aspect, an image processing apparatus disclosed in the present application analyzes an image captured by an imaging apparatus in an advertisement information providing system that transmits appropriate information according to an individual attribute to the individual optical communication apparatus. An image processing apparatus for identifying a holder of an optical communication apparatus, wherein the optical communication apparatus analyzes the image captured by the imaging apparatus that captures a predetermined space in which the optical communication apparatus and the owner exist. From the optical signal transmitted by the device, a detection unit that detects a plurality of human regions that can be candidates for the holder of the optical communication device, and the plurality of human regions detected in the image by the detection unit, A person area specifying unit for specifying a person area of a holder of the optical communication device based on a positional relationship between a light emission position of the optical signal in the image, a predetermined reference position determined in advance, and each person area;

本願の開示する画像処理プログラム、画像処理装置および画像処理方法の一つの態様によれば、光通信装置の周囲に複数の人物が居る場合に、該光通信装置と通信先装置の位置と各人物の位置関係に基づいて、該光通信装置の所持者候補を選択できるという効果を奏する。   According to one aspect of the image processing program, the image processing apparatus, and the image processing method disclosed in the present application, when there are a plurality of persons around the optical communication apparatus, the positions of the optical communication apparatus and the communication destination apparatus, and each person Based on the positional relationship, it is possible to select an owner candidate for the optical communication device.

図1は、本実施例に係る広告管理システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating the configuration of the advertisement management system according to the present embodiment. 図2は、本実施例に係る広告管理システムの動作を示すシーケンス図である。FIG. 2 is a sequence diagram illustrating the operation of the advertisement management system according to the present embodiment. 図3は、携帯端末装置の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of the mobile terminal device. 図4は、光通信によって送信される信号の発光パターンの一例を示す図である。FIG. 4 is a diagram illustrating an example of a light emission pattern of a signal transmitted by optical communication. 図5は、本実施例に係る広告管理装置の構成を示すブロック図である。FIG. 5 is a block diagram illustrating the configuration of the advertisement management apparatus according to the present embodiment. 図6は、広告表示スケジュールの一例を示す図である。FIG. 6 is a diagram illustrating an example of an advertisement display schedule. 図7は、配信情報選択条件の一例を示す図である。FIG. 7 is a diagram illustrating an example of distribution information selection conditions. 図8は、視聴者属性データの一例を示す図である。FIG. 8 is a diagram illustrating an example of viewer attribute data. 図9は、光通信の復号処理の処理手順を示すフローチャートである。FIG. 9 is a flowchart illustrating a processing procedure of optical communication decoding processing. 図10は、天井側の撮像装置によって撮影された画像データの一例を示す図である。FIG. 10 is a diagram illustrating an example of image data captured by the imaging device on the ceiling side. 図11は、壁側の撮像装置によって撮影された画像データの一例を示す図である。FIG. 11 is a diagram illustrating an example of image data captured by a wall-side imaging device. 図12は、壁側の他の撮像装置によって撮影された画像データの一例を示す図である。FIG. 12 is a diagram illustrating an example of image data captured by another imaging device on the wall side. 図13は、顔領域特定処理の処理手順を示すフローチャートである。FIG. 13 is a flowchart showing the processing procedure of the face area specifying process. 図14は、発光位置情報の一例を示す図である。FIG. 14 is a diagram illustrating an example of the light emission position information. 図15は、頭部領域情報の一例を示す図である。FIG. 15 is a diagram illustrating an example of head region information. 図16は、顔領域情報の一例を示す図である。FIG. 16 is a diagram illustrating an example of face area information. 図17は、撮像装置と頭部領域の対応付けの一例を示す図である。FIG. 17 is a diagram illustrating an example of the association between the imaging device and the head region. 図18は、視聴者追跡処理の処理手順を示すフローチャートである。FIG. 18 is a flowchart showing the processing procedure of the viewer tracking process. 図19は、画像処理プログラムを実行するコンピュータを示す機能ブロック図である。FIG. 19 is a functional block diagram illustrating a computer that executes an image processing program.

以下に、本願の開示する画像処理プログラム、画像処理装置および画像処理方法の実施例を図面に基づいて詳細に説明する。なお、以下の実施例では、本願の開示する画像処理プログラム、画像処理装置および画像処理方法を広告管理システムに適用した例を示すが、本願の開示する画像処理プログラム、画像処理装置および画像処理方法は、この実施例により限定されるものではない。   Embodiments of an image processing program, an image processing apparatus, and an image processing method disclosed in the present application will be described below in detail with reference to the drawings. In the following embodiments, an example in which the image processing program, the image processing apparatus, and the image processing method disclosed in the present application are applied to an advertisement management system is shown. However, the image processing program, the image processing apparatus, and the image processing method disclosed in the present application are described. Is not limited by this embodiment.

まず、本実施例に係る広告管理システム(広告情報提供システム)1について説明する。広告管理システム1は、エレベータに乗った人物に対して広告を表示する。そして、広告管理システム1は、広告に興味をもった人物に対して広告に関するさらに詳細な情報を提供するとともに、その人物の属性情報を取得して記録する。広告管理システム1によって取得された属性情報は、マーケティング等のための重要な資料として活用される。   First, an advertisement management system (advertisement information providing system) 1 according to the present embodiment will be described. The advertisement management system 1 displays an advertisement for a person on the elevator. The advertisement management system 1 provides more detailed information regarding the advertisement to a person who is interested in the advertisement, and acquires and records attribute information of the person. The attribute information acquired by the advertisement management system 1 is used as important material for marketing or the like.

図1は、広告管理システム1の構成を示すブロック図である。図1に示すように、広告管理システム1は、広告管理装置10と、撮像装置20a〜20cと、表示装置30a〜30bとを有する。   FIG. 1 is a block diagram showing the configuration of the advertisement management system 1. As shown in FIG. 1, the advertisement management system 1 includes an advertisement management device 10, imaging devices 20a to 20c, and display devices 30a to 30b.

撮像装置20a〜20cは、エレベータ内の空間を撮影して、複数の静止画像(フレーム)を含む動画像データ(以下、「画像データ」という。)を生成する。具体的には、撮像装置20aは、エレベータの入り口の上方に設置されており、エレベータの入口側から奥側を見る視点でエレベータ内の空間を撮影する。撮像装置20bは、エレベータの奥の上方に設置されており、エレベータの奥側から入口側を見る視点でエレベータ内の空間を撮影する。   The imaging devices 20a to 20c shoot a space in the elevator and generate moving image data (hereinafter referred to as “image data”) including a plurality of still images (frames). Specifically, the imaging device 20a is installed above the entrance of the elevator, and images the space in the elevator from the viewpoint of viewing the back side from the entrance side of the elevator. The imaging device 20b is installed above the back of the elevator, and images the space in the elevator from the viewpoint of viewing the entrance side from the back of the elevator.

撮像装置20cは、エレベータの天井に下向きに設定されており、エレベータ内を見下ろす視点でエレベータ内の空間を撮影する。なお、撮像装置20a〜20cは、防犯用の監視カメラ等の他の役割を兼ねていてもよい。   The imaging device 20c is set downward on the ceiling of the elevator, and images the space in the elevator from the viewpoint of looking down inside the elevator. The imaging devices 20a to 20c may also serve other roles such as a security camera for crime prevention.

表示装置30a〜30bは、エレベータに乗っている人物に対して広告等を表示する。表示装置30aは、エレベータの入り口の上方に設置されており、表示装置30bは、エレベータの奥の上方に設置されている。なお、以下の説明では、撮像装置20a〜20cを撮像装置20と総称することがあり、表示装置30a〜30bを表示装置30と総称することがある。   Display device 30a-30b displays an advertisement etc. with respect to the person on the elevator. The display device 30a is installed above the entrance of the elevator, and the display device 30b is installed above the back of the elevator. In the following description, the imaging devices 20a to 20c may be collectively referred to as the imaging device 20, and the display devices 30a to 30b may be collectively referred to as the display device 30.

広告管理装置10は、広告の表示や、それに興味をもった人物の属性情報の取得等の各種処理を実行する装置であり、本願の開示する画像処理装置としての機能を含む。広告管理装置10は、LAN(Local Area Network)等のネットワーク50を介して撮像装置20a〜20cおよび表示装置30a〜30bと接続されている。   The advertisement management apparatus 10 is an apparatus that executes various processes such as displaying advertisements and acquiring attribute information of persons who are interested in the advertisement, and includes a function as an image processing apparatus disclosed in the present application. The advertisement management device 10 is connected to the imaging devices 20a to 20c and the display devices 30a to 30b via a network 50 such as a LAN (Local Area Network).

また、広告管理装置10は、インターネット60を介して無線通信業者の無線基地局70とも接続されている。このため、広告管理装置10は、インターネット60と無線基地局70を介して、エレベータに乗っている人物Pが所持する携帯端末装置40と通信をすることができる。   The advertisement management apparatus 10 is also connected to a wireless base station 70 of a wireless communication company via the Internet 60. For this reason, the advertisement management apparatus 10 can communicate with the mobile terminal device 40 possessed by the person P riding on the elevator via the Internet 60 and the wireless base station 70.

携帯端末装置40は、携帯可能な情報処理装置であり、例えば、携帯電話端末である。携帯端末装置40は、無線基地局70との間で無線通信を行う無線通信装置としての機能に加えて、光通信によって情報を送信する光通信装置としての機能を有する。広告管理システム1においては、携帯端末装置40が光通信によって送信する信号を撮像装置20aや撮像装置20bが受信し、受信された信号を広告管理装置10が復号する。   The mobile terminal device 40 is a portable information processing device, for example, a mobile phone terminal. The mobile terminal device 40 has a function as an optical communication device that transmits information by optical communication in addition to a function as a wireless communication device that performs wireless communication with the wireless base station 70. In the advertisement management system 1, the imaging device 20a or the imaging device 20b receives a signal transmitted from the mobile terminal device 40 through optical communication, and the advertisement management device 10 decodes the received signal.

次に、図1に示した広告管理システム1の動作について説明する。図2は、広告管理システム1の動作を示すシーケンス図である。図2に示すように、広告管理装置10は、広告コンテンツを表示装置30へ送信し(ステップS01)、表示装置30は、送信された広告コンテンツを表示する(ステップS02)。表示装置30に表示される広告コンテンツには、「この広告で紹介した商品についてもっとお知りになりたい方は、横の撮像装置へ向けてメールアドレスを送信して下さい」といったメッセージが含まれる。   Next, the operation of the advertisement management system 1 shown in FIG. 1 will be described. FIG. 2 is a sequence diagram showing the operation of the advertisement management system 1. As shown in FIG. 2, the advertisement management apparatus 10 transmits advertisement content to the display apparatus 30 (step S01), and the display apparatus 30 displays the transmitted advertisement content (step S02). The advertising content displayed on the display device 30 includes a message such as “If you want to know more about the products introduced in this advertisement, please send an e-mail address to the horizontal imaging device”.

エレベータに乗っている人物Pは、広告で紹介された商品に興味をもつと、撮像装置20へ向けて携帯端末装置40をかざし、携帯端末装置40に割り当てられているメールアドレスを光通信で送信するための所定の操作を携帯端末装置40に対して行う。その結果、携帯端末装置40から撮像装置20へ向けてメールアドレスが光通信で送信される(ステップS03)。   When the person P in the elevator is interested in the product introduced in the advertisement, the person P holds the portable terminal device 40 toward the imaging device 20 and transmits the mail address assigned to the portable terminal device 40 by optical communication. A predetermined operation is performed on the mobile terminal device 40. As a result, a mail address is transmitted from the mobile terminal device 40 to the imaging device 20 by optical communication (step S03).

撮像装置20は、エレベータ内の空間を撮影した画像データを広告管理装置10へ送る(ステップS04)。広告管理装置10は、撮像装置20によって撮影された画像データを時系列に参照しながら発光点の発光パターンを解析することによって復号処理を実行し、送信されたメールアドレスを取得する(ステップS05)。   The imaging device 20 sends image data obtained by photographing the space in the elevator to the advertisement management device 10 (step S04). The advertisement management device 10 executes the decoding process by analyzing the light emission pattern of the light emission points while referring to the image data taken by the imaging device 20 in time series, and acquires the transmitted mail address (step S05). .

続いて、広告管理装置10は、後述する顔領域特定処理を実行して、光通信中に撮影された画像データから光通信を実行した送信者の顔領域を取得する(ステップS06)。顔領域とは、人物の顔面部分の領域である。そして、広告管理装置10は、取得した顔領域を解析して送信者の年齢や性別等の属性情報を取得する(ステップS07)。ここで取得された属性情報は、送信されたメールアドレスと対応づけて所定の記憶部に記録される。   Subsequently, the advertisement management apparatus 10 executes a face area specifying process described later, and acquires the face area of the sender who performed the optical communication from the image data captured during the optical communication (step S06). The face area is an area of the face portion of a person. Then, the advertisement management apparatus 10 analyzes the acquired face area and acquires attribute information such as the sender's age and gender (step S07). The attribute information acquired here is recorded in a predetermined storage unit in association with the transmitted mail address.

続いて、広告管理装置10は、広告コンテンツ毎に予め用意されている配信情報の中から属性情報に応じたものを取得し(ステップS08)、取得された配信情報をステップS05で取得したメールアドレス宛に電子メールとして送信する(ステップS09)。送信された電子メールは、インターネット60と無線基地局70を介して、携帯端末装置40へ送信される。   Subsequently, the advertisement management apparatus 10 acquires information corresponding to the attribute information from the distribution information prepared in advance for each advertising content (step S08), and the mail address from which the acquired distribution information is acquired in step S05. The e-mail is transmitted to the address (step S09). The transmitted electronic mail is transmitted to the mobile terminal device 40 via the Internet 60 and the wireless base station 70.

このように、広告に興味をもった人物にメールアドレスを光通信によって送信させることにより、エレベータ内のような公共の場所にいる人物に対して広告に関する詳細な情報を個別に送信して、広告の効果を向上させることができる。また、光通信中に撮影された画像データから送信者の顔領域を抽出して送信者の年齢等を解析することにより、広告に興味をもった人物に対して年齢等に応じた情報を送信することが可能となり、広告の効果をさらに向上させることができる。   In this way, by sending an email address to a person interested in the advertisement by optical communication, detailed information about the advertisement is individually transmitted to a person in a public place such as an elevator, and the advertisement is sent. The effect can be improved. Also, by extracting the sender's face area from the image data taken during optical communication and analyzing the sender's age, etc., information corresponding to the age etc. is sent to the person interested in the advertisement And the effect of the advertisement can be further improved.

また、広告管理装置10は、ステップS06で取得した顔領域の移動を追跡し、顔画像が画像データ外へ移動した場合には、送信者がエレベータを降りたと判断して、そのときの階数を取得する(ステップS10)。エレベータを降りた階数は、送信者の勤務先や、買い物をしようとしている店を知る手掛かりとなる。そして、広告管理装置10は、取得された階数を属性情報の一部として、送信されたメールアドレスと対応付けて所定の記憶部に記録する(ステップS11)。   Further, the advertisement management apparatus 10 tracks the movement of the face area acquired in step S06. When the face image moves outside the image data, the advertisement management apparatus 10 determines that the sender has exited the elevator and determines the floor number at that time. Obtain (step S10). The number of floors that get off the elevator is a clue to know where the sender is working and the store where you are shopping. Then, the advertisement management apparatus 10 records the acquired floor number as a part of the attribute information in association with the transmitted mail address in a predetermined storage unit (step S11).

このように、広告に興味をもった人物の属性情報を記録しておくことにより、広告の効果の評価やマーケティングに有用な情報を得ることができる。   Thus, by recording the attribute information of a person who is interested in the advertisement, it is possible to obtain information useful for evaluating the effectiveness of the advertisement and marketing.

次に、図1に示した携帯端末装置40の構成について説明する。図3は、携帯端末装置40の構成を示すブロック図である。図3に示すように、携帯端末装置40は、ユーザインターフェース部401、メールアドレス送信部402、符号化部403、発光制御部404、発光部405、無線通信部406、メール送受信部407、WEBブラウザ408とを有する。   Next, the configuration of the mobile terminal device 40 shown in FIG. 1 will be described. FIG. 3 is a block diagram illustrating a configuration of the mobile terminal device 40. As shown in FIG. 3, the mobile terminal device 40 includes a user interface unit 401, a mail address transmission unit 402, an encoding unit 403, a light emission control unit 404, a light emission unit 405, a wireless communication unit 406, a mail transmission / reception unit 407, a WEB browser. 408.

ユーザインターフェース部401は、利用者の操作を受け付けるボタン等の入力デバイスと、文字や画像を表示する液晶パネル等の表示デバイスとを含む。なお、ユーザインターフェース部401は、タッチパネルのように、入力と表示の両方を担当するデバイスを含んでいてもよい。   The user interface unit 401 includes an input device such as a button for accepting a user operation, and a display device such as a liquid crystal panel for displaying characters and images. Note that the user interface unit 401 may include a device in charge of both input and display, such as a touch panel.

メールアドレス送信部402は、ユーザインターフェース部401において所定の操作が行われた場合に、予め携帯端末装置40に割り当てられているメールアドレスを符号化部403へ出力して、そのメールアドレスを光通信によって送信するように指示する。符号化部403は、指示されたメールアドレスを光通信で送信するための符号化処理を実行する。   When a predetermined operation is performed in the user interface unit 401, the mail address transmission unit 402 outputs a mail address previously assigned to the portable terminal device 40 to the encoding unit 403, and the mail address is optically communicated. Instruct to send by. The encoding unit 403 executes an encoding process for transmitting the instructed mail address by optical communication.

発光制御部404は、メールアドレスを符号化することによって得られた発光パターンに従って発光部405を発光させる。発光部405は、LED等の発光デバイスを含み、発光制御部404の制御に従って、発光デバイスを点灯させたり、点灯を中止させたりする。なお、着信通知用のランプやユーザインターフェース部401の液晶パネル等を光通信のための発光デバイスとして利用することもできる。   The light emission control unit 404 causes the light emitting unit 405 to emit light according to the light emission pattern obtained by encoding the mail address. The light emitting unit 405 includes a light emitting device such as an LED, and turns on the light emitting device or stops the lighting according to the control of the light emission control unit 404. Note that an incoming call notification lamp, a liquid crystal panel of the user interface unit 401, and the like can also be used as a light emitting device for optical communication.

無線通信部406は、無線基地局70との間の無線通信を実現する。メール送受信部407は、無線通信部406によって実現される無線通信を通じて電子メールの送受信を行うとともに、ユーザインターフェース部401において受け付けられた操作に応じて、電子メールの表示や編集を行う。WEBブラウザ408は、ユーザインターフェース部401において受け付けられた操作に応じて、無線通信を通じてWEBページを取得し、ユーザインターフェース部401に表示させる。   The wireless communication unit 406 realizes wireless communication with the wireless base station 70. The mail transmission / reception unit 407 performs transmission / reception of electronic mail through wireless communication realized by the wireless communication unit 406, and displays and edits electronic mail according to operations accepted by the user interface unit 401. The WEB browser 408 acquires a WEB page through wireless communication in accordance with an operation accepted by the user interface unit 401 and displays the WEB page on the user interface unit 401.

ここで、携帯端末装置40の光通信によって送信される信号の発光パターンの一例を図4に示す。図4に示すように、メールアドレスを光通信で送信する場合、まず、送信準備信号が送信される。送信準備信号は、光通信の開始を示す信号であり、短い周期で点滅を繰り返す発光パターンを含む。   Here, an example of the light emission pattern of the signal transmitted by the optical communication of the portable terminal device 40 is shown in FIG. As shown in FIG. 4, when transmitting a mail address by optical communication, a transmission preparation signal is first transmitted. The transmission preparation signal is a signal indicating the start of optical communication, and includes a light emission pattern that repeats blinking in a short cycle.

送信準備信号に続いて、送信開始信号が送信される。送信開始信号は、送信対象の情報の送信の開始を示す信号であり、例えば、発光が一定時間継続する発光パターンを含む。   A transmission start signal is transmitted following the transmission preparation signal. The transmission start signal is a signal indicating the start of transmission of information to be transmitted, and includes, for example, a light emission pattern in which light emission continues for a predetermined time.

送信開始信号に続いて、符号化されたメールアドレスに対応する発光パターンが送信される。図4に示した例では、文字コード毎に発光時間と非発光時間の組合せが予め定義されており、この定義に従ってメールアドレスを符号化した発光パターンが送信されている。なお、発光時間と非発光時間の組合せのみでなく、発光する光の強度や色等を組み合わせて各文字コードに対応する発光パターンを定義することとしてもよい。また、発光が所定期間継続したら1、発光が所定期間なければ0というようにビット単位で発行パターンを定義することとしてもよい。   Following the transmission start signal, a light emission pattern corresponding to the encoded mail address is transmitted. In the example shown in FIG. 4, a combination of the light emission time and the non-light emission time is defined in advance for each character code, and a light emission pattern in which a mail address is encoded according to this definition is transmitted. Note that not only the combination of the light emission time and the non-light emission time, but also the light emission pattern corresponding to each character code may be defined by combining the intensity and color of the emitted light. Further, the issuance pattern may be defined in units of bits, such as 1 if light emission continues for a predetermined period and 0 if light emission does not occur for a predetermined period.

符号化されたメールアドレスの送信が完了すると、送信終了信号が送信される。送信終了信号は、光通信の終了を示す信号であり、例えば、発光が一定時間継続する発光パターンを含む。   When transmission of the encoded mail address is completed, a transmission end signal is transmitted. The transmission end signal is a signal indicating the end of optical communication, and includes, for example, a light emission pattern in which light emission continues for a predetermined time.

次に、図1に示した広告管理装置10の構成について説明する。図5は、広告管理装置10の構成を示すブロック図である。図5に示すように、広告管理装置10は、ネットワークインターフェース部110と、記憶部120と、制御部130とを有する。ネットワークインターフェース部110は、インターネット60等を介する通信を実現する。   Next, the configuration of the advertisement management apparatus 10 shown in FIG. 1 will be described. FIG. 5 is a block diagram illustrating a configuration of the advertisement management apparatus 10. As illustrated in FIG. 5, the advertisement management apparatus 10 includes a network interface unit 110, a storage unit 120, and a control unit 130. The network interface unit 110 realizes communication via the Internet 60 or the like.

記憶部120は、各種情報を記憶する記憶デバイスであり、広告データ121と、広告表示スケジュール122と、画像データ123と、配信情報124と、配信情報選択条件125と、視聴者属性データ126とを記憶する。   The storage unit 120 is a storage device that stores various types of information. The storage unit 120 stores advertisement data 121, an advertisement display schedule 122, image data 123, distribution information 124, distribution information selection conditions 125, and viewer attribute data 126. Remember.

広告データ121は、表示装置30に表示される広告コンテンツを含むデータである。広告データ121に含まれる広告コンテンツには、上述したように、メールアドレスを光通信で送信することを求めるものがある。   The advertisement data 121 is data including advertisement content displayed on the display device 30. As described above, some advertisement contents included in the advertisement data 121 require that a mail address be transmitted by optical communication.

広告表示スケジュール122は、どの広告をいつ表示すべきかを示す定義が格納されたデータである。広告表示スケジュール122の一例を図6に示す。図6に示すように、広告表示スケジュール122は、表示時刻、広告ID、広告データ名といった項目を有する。表示時刻は、広告の表示を開始する時刻と終了する時刻である。広告IDは、広告を識別するための識別番号である。広告データ名は、広告コンテンツが格納されたデータファイルの名称である。   The advertisement display schedule 122 is data in which a definition indicating which advertisement should be displayed when is stored. An example of the advertisement display schedule 122 is shown in FIG. As shown in FIG. 6, the advertisement display schedule 122 has items such as display time, advertisement ID, and advertisement data name. The display time is the time when the advertisement display starts and ends. The advertisement ID is an identification number for identifying the advertisement. The advertisement data name is the name of the data file in which the advertisement content is stored.

図6に示した広告表示スケジュール122の1行目は、「CM001」という識別番号で識別される広告の表示を「9:00:00(9時0分0秒)」に開始して、「9:00:30(9時0分30秒)」に終了すべきことを示している。また、この1行目のレコードは、「CM001」という識別番号で識別される広告のコンテンツが「CM001.mpeg」という名称のデータファイルに格納されていることを示している。   The first line of the advertisement display schedule 122 shown in FIG. 6 starts displaying the advertisement identified by the identification number “CM001” at “9:00: 00 (9: 00: 0)” “9:00:30 (9: 0: 30)” indicates that the process should be completed. The record on the first line indicates that the content of the advertisement identified by the identification number “CM001” is stored in the data file named “CM001.mpeg”.

画像データ123は、撮像装置20によって撮影された画像データである。配信情報124は、広告に興味をもった人物へ個別に配信される情報である。   The image data 123 is image data captured by the imaging device 20. The distribution information 124 is information that is individually distributed to a person who is interested in the advertisement.

配信情報選択条件125は、光通信によってメールアドレスが送信された場合にどの配信情報を選択して送信するべきかを示す条件が格納されたデータである。配信情報選択条件125の一例を図7に示す。図7に示すように、配信情報選択条件125は、広告ID、年齢、性別、配信情報名といった項目を有する。広告IDは、広告を識別するための識別番号である。年齢および性別は、メールアドレスの送信者の年齢および性別である。配信情報名は、送信すべき配信情報の名称である。   The distribution information selection condition 125 is data in which a condition indicating which distribution information should be selected and transmitted when a mail address is transmitted by optical communication is stored. An example of the distribution information selection condition 125 is shown in FIG. As illustrated in FIG. 7, the distribution information selection condition 125 includes items such as an advertisement ID, age, sex, and distribution information name. The advertisement ID is an identification number for identifying the advertisement. The age and gender are the age and gender of the sender of the email address. The distribution information name is the name of distribution information to be transmitted.

図7に示した配信情報選択条件125の1〜3行目は、「CM001」という識別番号で識別される広告の表示中にメールアドレスが送信された場合にどの配信情報を選択して送信するべきかを示す条件である。具体的には、1行目は、送信者の年齢が「10〜29」の範囲で性別が「女性」の場合、「CM001−F1.txt」という名称の配信情報を送信すべきことを示している。また、2行目は、送信者の年齢が上記の範囲外で性別が「女性」の場合、「CM001−F2.txt」という名称の配信情報を送信すべきことを示している。また、3行目は、送信者の年齢に関わらず性別が「男性」の場合、「CM001−M.txt」という名称の配信情報を送信すべきことを示している。   The first to third lines of the distribution information selection condition 125 shown in FIG. 7 select and transmit which distribution information when an e-mail address is transmitted while an advertisement identified by the identification number “CM001” is displayed. This is a condition indicating what should be done. Specifically, the first line indicates that if the sender's age is in the range of “10 to 29” and the gender is “female”, distribution information named “CM001-F1.txt” should be transmitted. ing. The second line indicates that distribution information named “CM001-F2.txt” should be transmitted when the age of the sender is outside the above range and the gender is “female”. The third line indicates that distribution information with the name “CM001-M.txt” should be transmitted when the gender is “male” regardless of the age of the sender.

視聴者属性データ126は、メールアドレスの送信者について取得された属性情報が格納されるデータである。図8に視聴者属性データ126の一例を示す。図8に示すように、視聴者属性データ126は、メールアドレス、年齢、性別、階数、広告ID、発光時間、画像ID、顔領域といった項目を有する。   The viewer attribute data 126 is data in which attribute information acquired for the sender of the mail address is stored. FIG. 8 shows an example of the viewer attribute data 126. As shown in FIG. 8, the viewer attribute data 126 includes items such as an email address, age, sex, floor number, advertisement ID, light emission time, image ID, and face area.

メールアドレスは、光通信によって送信されたメールアドレスである。年齢および性別は、メールアドレスの送信者の年齢および性別の解析結果である。階数は、メールアドレスの送信者がエレベータを降りた階数である。広告IDは、メールアドレスが送信されていたときに表示されていた広告を識別するための識別番号である。   The mail address is a mail address transmitted by optical communication. Age and gender are the results of analysis of the age and gender of the sender of the email address. The number of floors is the number of floors where the sender of the mail address has exited the elevator. The advertisement ID is an identification number for identifying the advertisement displayed when the e-mail address was transmitted.

発光時間は、光通信でメールアドレスを送信するための送信準備信号が検出された時刻である。画像IDは、メールアドレスの送信者の年齢および性別を解析するために用いられた画像データを識別するための識別番号である。顔領域は、画像IDで識別される画像データにおいて特定された送信者の顔領域であり、顔領域の左上の座標と幅と高さを示す。   The light emission time is the time when a transmission preparation signal for transmitting a mail address by optical communication is detected. The image ID is an identification number for identifying image data used to analyze the age and sex of the sender of the mail address. The face area is the sender's face area specified in the image data identified by the image ID, and indicates the upper left coordinates, width, and height of the face area.

図8に示した視聴者属性データ126の1行目は、「suzuki@example1.com」というメールアドレスの送信者は、年齢が「40」才、性別が「男性」と解析され、「19F」でエレベータを降りたことを示している。また、1行目は、メールアドレスの送信時に表示されていた広告が、「CM001」という識別番号で識別される広告であることを示している。   The first line of the viewer attribute data 126 shown in FIG. 8 shows that the sender of the email address “suzuki@example1.com” is analyzed as “19F” for age “40” and gender “male”. It shows that I got off the elevator. The first line indicates that the advertisement displayed when the e-mail address is transmitted is an advertisement identified by the identification number “CM001”.

また、1行目は、送信者の年齢および性別を解析するために用いられた画像データが、「N1−081201090021−11」という識別番号で識別される画像であることを示している。また、1行目は、その画像においてX=「302」、Y=「436」を左上の座標とし、幅が「183」で高さが「196」の領域が、送信者の顔領域として特定されたことを示している。   The first line indicates that the image data used for analyzing the age and sex of the sender is an image identified by an identification number “N1-081201090021-11”. In the first line, X = “302” and Y = “436” are the upper left coordinates in the image, and an area having a width of “183” and a height of “196” is specified as the face area of the sender. It has been shown.

制御部130は、広告管理装置10を全体制御する制御部であり、広告表示制御部131と、画像取得部132と、復号部133と、顔領域特定部134と、顔領域検出部134aと、頭部領域検出部134bと、頭部領域選択部134cと、位置変換部134dと、追跡部135と、階数取得部136と、属性解析部137と、情報配信部138と、メール送信部139とを有する。   The control unit 130 is a control unit that totally controls the advertisement management apparatus 10, and includes an advertisement display control unit 131, an image acquisition unit 132, a decoding unit 133, a face region specifying unit 134, a face region detecting unit 134a, A head region detection unit 134b, a head region selection unit 134c, a position conversion unit 134d, a tracking unit 135, a floor acquisition unit 136, an attribute analysis unit 137, an information distribution unit 138, and a mail transmission unit 139; Have

広告表示制御部131は、広告表示スケジュール122に定義されたスケジュールに従って表示装置30に広告データ121を表示させる。画像取得部132は、撮像装置20から画像データを取得し、取得した画像データを画像データ123として記憶部120に記憶させる。   The advertisement display control unit 131 displays the advertisement data 121 on the display device 30 according to the schedule defined in the advertisement display schedule 122. The image acquisition unit 132 acquires image data from the imaging device 20 and stores the acquired image data in the storage unit 120 as the image data 123.

復号部133は、画像取得部132によって取得される画像データに含まれる発光点の発光パターンを復号してメールアドレスを取得する。メールアドレスを取得するため、復号部133は、まず、送信準備信号を検出する。送信準備信号の検出は、画像データ123を参照して、すなわち、該画像データに含まれるある時点のフレーム(静止画像)について、過去一定期間に撮影された各フレームとの差分の和を算出した結果に基づいて行われる。   The decryption unit 133 decrypts the light emission pattern of the light emission points included in the image data acquired by the image acquisition unit 132 and acquires the mail address. In order to acquire the mail address, the decoding unit 133 first detects a transmission preparation signal. The detection of the transmission preparation signal is performed by referring to the image data 123, that is, by calculating the sum of the difference between each frame captured in a certain past period for a frame (still image) at a certain point in time included in the image data. Based on the results.

図4に示したように、送信準備信号は、点滅を短い期間で繰り返す発光パターンを含むため、送信準備信号の発光点に相当するピクセルでは、過去一定期間のフレーム間差分の和が他のピクセルと比較して大きな値となる。このため、過去一定期間のフレーム間差分の和を閾値判定することにより、そのピクセルに相当する位置で送信準備信号が送信されているか否かを判定することができる。   As shown in FIG. 4, the transmission preparation signal includes a light emission pattern that repeats blinking in a short period. Therefore, in the pixel corresponding to the light emission point of the transmission preparation signal, the sum of the inter-frame differences in the past certain period is the other pixels. It becomes a big value compared with. For this reason, it is possible to determine whether or not the transmission preparation signal is transmitted at a position corresponding to the pixel by determining the threshold value of the sum of the inter-frame differences in the past certain period.

時刻tにおける座標(x,y)のピクセルのNフレーム前までのフレーム間差分の和であるD(x,y,t)は、以下の式(1)によって算出することができる。   D (x, y, t), which is the sum of inter-frame differences up to N frames before the pixel at the coordinate (x, y) at time t, can be calculated by the following equation (1).

Figure 0005262929
Figure 0005262929

ここで、P(x,y,t)は、時刻tにおける座標(x,y)のピクセルのRGB各画素の画素値の平均値である。なお、P(x,y,t)は、時刻tにおける座標(x,y)のピクセルのRGB各画素の画素値の最大値であってもよい。   Here, P (x, y, t) is an average value of the pixel values of the RGB pixels of the pixel at the coordinate (x, y) at time t. Note that P (x, y, t) may be the maximum pixel value of each RGB pixel of the pixel at the coordinate (x, y) at time t.

復号部133は、こうして送信準備信号が送信されていることと、その発光点とを検出すると、画像取得部132によって取得される画像を監視して、その発光点において送信開始信号が検出されるのを待つ。そして、復号部133は、送信開始信号が検出されると、送信開始信号の終了時以降の発光点の発光パターンを符号化されたメールアドレスとみなして、発光点で送信終了信号が検出されるまで復号する。   When the decoding unit 133 detects that the transmission preparation signal is transmitted and the light emission point in this way, the decoding unit 133 monitors the image acquired by the image acquisition unit 132 and detects the transmission start signal at the light emission point. Wait for When the transmission start signal is detected, the decoding unit 133 regards the light emission pattern of the light emission points after the end of the transmission start signal as an encoded mail address, and detects the transmission end signal at the light emission point. Decrypt until.

顔領域特定部134は、本実施例に係る画像処理方法を実行して、復号部133によって検出された送信開始信号の送信者の顔領域を特定する。顔領域特定部134による送信者の顔領域の特定は、顔領域検出部134a、頭部領域検出部134b、頭部領域選択部134cおよび位置変換部134dの処理結果に基づいて行われる。   The face area specifying unit 134 executes the image processing method according to the present embodiment, and specifies the face area of the sender of the transmission start signal detected by the decoding unit 133. The face area of the sender is specified by the face area specifying unit 134 based on the processing results of the face area detecting unit 134a, the head region detecting unit 134b, the head region selecting unit 134c, and the position converting unit 134d.

なお、送信者の顔領域の特定対象の画像データは、復号部133で送信準備信号が検出されたときに撮影された画像データであることが好ましいが、送信準備信号の検出後、光通信が終了するまでのいずれかの時点で撮影された画像データであってもよい。   Note that the target image data of the sender's face area is preferably image data taken when the transmission preparation signal is detected by the decoding unit 133, but optical communication is performed after detection of the transmission preparation signal. It may be image data taken at any time until the end.

顔領域検出部134aは、送信者の顔領域の特定対象の画像データから、その画像データに含まれる各人物の顔領域を検出する。画像データからの顔領域の検出は、公知の顔認識技術を用いることによって実現することができる。   The face area detection unit 134a detects the face area of each person included in the image data from the image data to be specified of the sender's face area. Detection of a face area from image data can be realized by using a known face recognition technique.

頭部領域検出部134bは、送信者の顔領域の特定対象の画像データが撮影されたときに撮像装置20cによって撮影された画像データから、その画像データに含まれる各人物の頭部領域(人物領域)を検出する。頭部領域とは、人物の頭部部分の領域である。ここで、検出される頭部領域は、人物の頭部と推定される部分がいずれかの角度で写っている部分であればよく、顔面が含まれることを要しない。画像データからの頭部領域の検出は、例えば、公知の顔認識技術を応用することによって実現される。   The head region detection unit 134b detects the head region (person) of each person included in the image data from the image data captured by the imaging device 20c when the target image data of the sender's face region is captured. Area). The head region is a region of a person's head part. Here, the detected head region may be a portion in which a portion estimated to be a human head is captured at any angle, and does not need to include a face. The detection of the head region from the image data is realized, for example, by applying a known face recognition technique.

頭部領域選択部134cは、頭部領域検出部134bによって検出された頭部領域の中から、送信者と発光点と光通信による通信先装置である撮像装置との位置関係に関する以下の2つの基準を満たすものを、メールアドレスの送信者の頭部領域である可能性があるものとして、光通信の受信に用いられる撮像装置20毎に選択(特定)する。   The head region selection unit 134c has the following two relations regarding the positional relationship between the transmitter, the light emitting point, and the imaging device that is the communication destination device by optical communication from the head region detected by the head region detection unit 134b. Those satisfying the criteria are selected (identified) for each imaging device 20 used for optical communication reception, assuming that there is a possibility of being the head region of the sender of the mail address.

頭部領域選択部134cによる選択の第1の基準は、光通信の発光点からの距離が閾値より小さいことである。第1の基準で用いられる閾値は、光通信が行われる場合に送信者と携帯端末装置40が取り得る距離の最大値に基づいて決定される。光通信が行われる場合に送信者と携帯端末装置40が取り得る距離の最大値としては、例えば、一般的な人間の腕の長さが用いられる。   The first criterion for selection by the head region selection unit 134c is that the distance from the light emitting point of optical communication is smaller than the threshold value. The threshold value used in the first criterion is determined based on the maximum distance that can be taken by the sender and the portable terminal device 40 when optical communication is performed. For example, the length of a general human arm is used as the maximum distance that the sender and the portable terminal device 40 can take when optical communication is performed.

頭部領域選択部134cによる選択の第2の基準は、光通信の受信に用いられる通信先装置である撮像装置20から見て、光通信の発光点よりも遠方に位置していることである。送信者が光通信を実行する場合、送信先の撮像装置20の方向に顔を向け、携帯端末装置40を顔より前方に保持するはずであり、頭部よりも後方に発光点が位置することはないと考えられることが第2の基準の根拠である。   A second criterion for selection by the head region selection unit 134c is that the head region selection unit 134c is located far from the light emitting point of optical communication when viewed from the imaging device 20 that is a communication destination device used for reception of optical communication. . When the sender performs optical communication, the face should be directed in the direction of the destination imaging device 20, the portable terminal device 40 should be held in front of the face, and the light emitting point should be located behind the head The reason for the second standard is that it is not considered to be.

位置変換部134dは、頭部領域選択部134cによって選択された各頭部領域の位置を、撮像装置20aおよび20bによって撮影された画像データにおける位置へ変換する。位置の変換方式は、撮像装置20の位置関係や画像の解像度等に基づいて、変換前後の画像中に共通して存在する物の位置のX軸方向とY軸方向の少なくとも一方が一致するように予め決定される。   The position converting unit 134d converts the position of each head region selected by the head region selecting unit 134c into a position in the image data captured by the imaging devices 20a and 20b. The position conversion method is such that at least one of the X-axis direction and the Y-axis direction of the position of an object that is commonly present in the images before and after the conversion is based on the positional relationship of the imaging device 20, the resolution of the image, and the like. Is determined in advance.

顔領域特定部134は、位置変換部134dによって変換された頭部領域の位置と、顔領域検出部134aによって検出された顔領域の位置とを比較し、位置の差が予め定義された誤差の範囲内の組合せがあれば、その組み合わせの頭部領域と顔領域とは同一位置に存在すると判断し、該顔領域を送信者の顔領域と特定する。なお、誤差の範囲の組合せが複数あった場合は、発光位置に最も近い組合せが、送信者の顔領域を含む組合せと判定される。ここで、発光位置に最も近い組合せを見つける場合、顔領域と発光点の距離と、頭部領域と発光点の距離のうち、いずれか一方を重く評価してもよいし、双方を均等に評価してもよい。   The face area specifying unit 134 compares the position of the head area converted by the position converting unit 134d with the position of the face area detected by the face area detecting unit 134a, and the difference in position is a predetermined error. If there is a combination within the range, it is determined that the head region and the face region of the combination exist at the same position, and the face region is specified as the sender's face region. When there are a plurality of combinations of error ranges, the combination closest to the light emission position is determined as a combination including the sender's face area. Here, when finding the combination closest to the light emitting position, either the distance between the face area and the light emitting point, or the distance between the head area and the light emitting point may be evaluated heavily, or both may be evaluated equally. May be.

このように、光通信の受信に用いられる撮像装置とは異なる方向から撮影された画像から送信者のものと推定される頭部領域を取得し、その頭部領域の位置に基づいて送信者の顔領域を特定することにより、高い精度で送信者の顔領域を検出することができる。   In this way, the head region estimated to be that of the sender is acquired from an image captured from a direction different from that of the imaging device used for reception of optical communication, and the sender's location is determined based on the position of the head region. By specifying the face area, the sender's face area can be detected with high accuracy.

追跡部135は、顔領域特定部134によって送信者のものと特定された顔領域と頭部領域の少なくとも一方の移動を追跡する。追跡部135による追跡は、追跡対象がエレベータ内の空間を出たと判定されるまで継続する。頭部領域等の追跡は、公知の追跡技術を用いて実現することができる。   The tracking unit 135 tracks the movement of at least one of the face region and the head region identified as those of the sender by the face region identifying unit 134. The tracking by the tracking unit 135 continues until it is determined that the tracking target has left the space in the elevator. Tracking of the head region and the like can be realized using a known tracking technique.

階数取得部136は、エレベータの現在の階数を取得する。階数の取得は、例えば、エレベータの運用監視装置から取得することができる。   The floor number acquisition unit 136 acquires the current floor number of the elevator. The number of floors can be acquired, for example, from an elevator operation monitoring device.

属性解析部137は、顔領域特定部134によって送信者のものと判定された顔領域を解析して年齢や性別等の属性情報を取得し、復号部133によって復号されたメールアドレス等とともに視聴者属性データ126に記録する。画像データ中の顔領域から年齢や性別等の属性情報を取得する処理は、公知の画像解析技術を用いて実現することができる。   The attribute analysis unit 137 analyzes the face area determined to be the sender by the face area specifying unit 134 to acquire attribute information such as age and gender, and the viewer along with the mail address decoded by the decoding unit 133 Record in attribute data 126. The process of acquiring attribute information such as age and sex from the face area in the image data can be realized using a known image analysis technique.

また、属性解析部137は、追跡部135によって追跡対象がエレベータ内の空間を出たと判定された場合に、その時点のエレベータの階数を階数取得部136から取得する。そして、属性解析部137は、取得された階数を、復号部133によって復号されたメールアドレスと対応づけて視聴者属性データ126に記録する。   Further, when the tracking unit 135 determines that the tracking target has left the space in the elevator, the attribute analysis unit 137 acquires the floor number of the elevator at that time from the floor acquisition unit 136. The attribute analysis unit 137 records the acquired rank in the viewer attribute data 126 in association with the mail address decrypted by the decryption unit 133.

情報配信部138は、配信情報124から、復号部133によって送信準備信号が検出されたときに表示されていた広告に対応し、属性解析部137によって取得された属性情報に該当するものを取得する。ここで、復号部133によって送信準備信号が検出されたときに表示されていた広告の広告IDは、復号部133によって送信準備信号が検出された時刻が表示時刻に含まれる行を広告表示スケジュール122から検索することによって取得できる。   The information distribution unit 138 acquires, from the distribution information 124, corresponding to the advertisement displayed when the transmission preparation signal is detected by the decoding unit 133 and corresponding to the attribute information acquired by the attribute analysis unit 137. . Here, for the advertisement ID of the advertisement displayed when the transmission preparation signal is detected by the decryption unit 133, the line in which the display time includes the time when the transmission preparation signal is detected by the decryption unit 133 is displayed in the advertisement display schedule 122. Can be obtained by searching from.

そして、情報配信部138は、取得した情報をメールで送信するようにメール送信部139に指示する。メール送信部139は、送信を指示された情報を、復号部133によって復号されたメールアドレス宛にメールで送信する。   Then, the information distribution unit 138 instructs the mail transmission unit 139 to transmit the acquired information by mail. The mail transmission unit 139 transmits the information instructed to be transmitted to the mail address decrypted by the decryption unit 133 by mail.

次に、広告管理装置10の動作について説明する。図9は、光通信の復号処理の処理手順を示すフローチャートである。図9に示すように、復号部133は、画像取得部132から画像データを取得する(ステップS101)。そして、復号部133は、同一の撮像装置20によって撮影された過去一定期間の画像データを画像データ123から取得し、フレーム間差分の和をピクセル毎に演算する(ステップS102)。   Next, the operation of the advertisement management apparatus 10 will be described. FIG. 9 is a flowchart illustrating a processing procedure of optical communication decoding processing. As shown in FIG. 9, the decoding unit 133 acquires image data from the image acquisition unit 132 (step S101). And the decoding part 133 acquires the image data of the past fixed period image | photographed with the same imaging device 20 from the image data 123, and calculates the sum of the difference between frames for every pixel (step S102).

ここで、フレーム間差分の和が閾値を超えるピクセルがなかった場合、すなわち、送信準備信号が送信されていない場合(ステップS103否定)、復号部133は、ステップS101から処理手順を再開する。   Here, when there is no pixel whose sum of interframe differences exceeds the threshold, that is, when a transmission preparation signal is not transmitted (No at Step S103), the decoding unit 133 restarts the processing procedure from Step S101.

一方、フレーム間差分の和が閾値を超えるピクセルがあった場合(ステップS103肯定)、復号部133は、フレーム間差分の和が最大のピクセルを発光点として選択する(ステップS104)。そして、復号部133は、選択したピクセルの過去一定時間の発光パターンを取得する(ステップS105)。   On the other hand, when there is a pixel whose sum of interframe differences exceeds the threshold (Yes at Step S103), the decoding unit 133 selects a pixel having the maximum sum of interframe differences as a light emitting point (Step S104). And the decoding part 133 acquires the light emission pattern of the past fixed time of the selected pixel (step S105).

ここで、送信開始信号の終わりが検出された場合は(ステップS106肯定)、復号部133は、送信終了信号を検出するまでメールアドレスを復号する(ステップS107)。一方、送信開始信号の終わりが検出されない場合は(ステップS106否定)、復号部133は、ステップS105から処理手順を再開する。   If the end of the transmission start signal is detected (Yes at Step S106), the decryption unit 133 decrypts the mail address until the transmission end signal is detected (Step S107). On the other hand, when the end of the transmission start signal is not detected (No at Step S106), the decoding unit 133 restarts the processing procedure from Step S105.

なお、復号処理は、撮像装置20毎に繰り返して実行される。そのため、ある撮像装置20に対応する復号処理で送信準備信号が検出された場合、他の撮像装置20に対応する復号処理で送信準備信号を所定の期間検出しないようにしてもよい。このようにすることにより、送信されたメールアドレスが各撮像装置20に対応する復号処理で重複して復号されることを防止することができる。   Note that the decoding process is repeatedly performed for each imaging device 20. For this reason, when a transmission preparation signal is detected in a decoding process corresponding to an imaging device 20, the transmission preparation signal may not be detected for a predetermined period in a decoding process corresponding to another imaging device 20. By doing so, it is possible to prevent the transmitted e-mail address from being decoded twice in the decoding process corresponding to each imaging device 20.

また、各撮像装置20に対応する復号処理で送信準備信号が所定の期間内に検出された場合、それぞれの復号処理で得られた発光パターンを合成してメールアドレスを復号することとしてもよい。このように発光パターンを合成することにより、光通信中に光がある方向で遮断された場合でも、その影響を軽減することができる。   Further, when a transmission preparation signal is detected within a predetermined period in the decoding process corresponding to each imaging device 20, the mail address may be synthesized by combining the light emission patterns obtained in the respective decoding processes. By synthesizing the light emission pattern in this way, even when light is blocked in a certain direction during optical communication, the influence can be reduced.

続いて、図10〜12に示す画像データの例を参照しながら顔領域特定処理の処理手順について説明する。   Next, the processing procedure of the face area specifying process will be described with reference to the image data examples shown in FIGS.

図10は、送信準備信号の検出時に天井側の撮像装置20cによって撮影された画像データの一例を示す図である。図10に示す画像データ81は、図中下方が撮像装置20aの設置位置に相当し、図中上方が撮像装置20bの設置位置に相当する。そして、画像データ81は、図中左上を原点として、図中右へ行くほどX座標の値が大きくなり、図中下方へ行くほどY座標の値が大きくなるように座標が設定されている。図10には、人物P1〜P3の頭部と、光通信の発光点81dが写っている。   FIG. 10 is a diagram illustrating an example of image data captured by the ceiling-side imaging device 20c when the transmission preparation signal is detected. In the image data 81 shown in FIG. 10, the lower side in the figure corresponds to the installation position of the imaging device 20a, and the upper side in the figure corresponds to the installation position of the imaging device 20b. The coordinates of the image data 81 are set so that the value of the X coordinate increases as it goes to the right in the figure, and the value of the Y coordinate increases as it goes down in the figure, with the upper left in the figure as the origin. FIG. 10 shows the heads of the persons P1 to P3 and the light emitting point 81d for optical communication.

図11は、壁側の撮像装置20aによって撮影された画像データの一例を示す図である。図11に示す画像データ82は、画像データ81と同じタイミングで撮影された画像データである。そして、画像データ82は、図中左上を原点として、図中右へ行くほどX座標の値が大きくなり、図中下方へ行くほどY座標の値が大きくなるように座標が設定されている。図11には、後ろ向きに立っている人物P1と、正面を向いて立っている人物P2およびP3と、光通信の発光点82cとが写っている。   FIG. 11 is a diagram illustrating an example of image data captured by the wall-side imaging device 20a. Image data 82 shown in FIG. 11 is image data taken at the same timing as the image data 81. The coordinates of the image data 82 are set such that the upper left corner in the figure is the origin, the X coordinate value increases toward the right side in the figure, and the Y coordinate value increases toward the lower side in the figure. FIG. 11 shows a person P1 standing rearward, persons P2 and P3 standing frontward, and a light emitting point 82c for optical communication.

図12は、壁側の撮像装置20bによって撮影された画像データの一例を示す図である。図12に示す画像データ83は、画像データ81と同じタイミングで撮影された画像データである。そして、画像データ83は、図中左上を原点として、図中右へ行くほどX座標の値が大きくなり、図中下方へ行くほどY座標の値が大きくなるように座標が設定されている。図12には、正面を向いて立っている人物P1と、後ろ向きに立っている人物P2およびP3と、光通信の発光点83bとが写っている。   FIG. 12 is a diagram illustrating an example of image data captured by the wall-side imaging device 20b. Image data 83 shown in FIG. 12 is image data taken at the same timing as the image data 81. The coordinates of the image data 83 are set so that the value of the X coordinate increases as it goes to the right in the figure, and the value of the Y coordinate increases as it goes down in the figure, with the upper left in the figure as the origin. In FIG. 12, a person P1 standing facing the front, persons P2 and P3 standing rearward, and a light emitting point 83b of optical communication are shown.

図13は、顔領域特定処理の処理手順を示すフローチャートである。この処理手順は、復号部133によって送信準備信号が検出されるたびに、顔領域特定部134によって実行される。   FIG. 13 is a flowchart showing the processing procedure of the face area specifying process. This processing procedure is executed by the face area specifying unit 134 every time a transmission preparation signal is detected by the decoding unit 133.

図13に示すように、顔領域特定部134は、検出された送信準備信号の発光位置に関する情報を復号部133から取得する(ステップS201)。取得される発光位置情報の一例を図14に示す。図14に示すように、発光位置を示す座標は、撮像装置20毎に取得される。これらの座標は、画像データ81〜83内の発光点の座標に対応する。   As illustrated in FIG. 13, the face area specifying unit 134 acquires information regarding the light emission position of the detected transmission preparation signal from the decoding unit 133 (step S <b> 201). An example of the acquired light emission position information is shown in FIG. As shown in FIG. 14, coordinates indicating the light emission position are acquired for each imaging device 20. These coordinates correspond to the coordinates of the light emitting points in the image data 81-83.

続いて、顔領域特定部134は、送信準備信号の検出時に各撮像装置20によって撮影された画像データを取得する(ステップS202)。ここでは、画像データ81〜83が取得されたものとする。   Subsequently, the face area specifying unit 134 acquires image data photographed by each imaging device 20 when the transmission preparation signal is detected (step S202). Here, it is assumed that the image data 81 to 83 are acquired.

続いて、顔領域特定部134は、壁側から撮影された各画像データから顔領域を抽出する処理を顔領域検出部134aに実行させる(ステップS203)。ステップS203では、画像データ82から、正面を向いている人物P2の顔領域82aと、同じく正面を向いている人物P3の顔領域82bとが検出される。また、画像データ83から、正面を向いている人物P1の顔領域83aが検出される。検出された各顔領域の左上座標、幅、高さの組合せは、図16に示すように、それぞれユニークな識別番号である顔領域IDを割り当てられ、撮影された撮像装置と対応づけて管理される。   Subsequently, the face area specifying unit 134 causes the face area detecting unit 134a to execute processing for extracting the face area from each image data photographed from the wall side (step S203). In step S203, the face area 82a of the person P2 facing the front and the face area 82b of the person P3 facing the front are detected from the image data 82. Further, the face area 83a of the person P1 facing the front is detected from the image data 83. As shown in FIG. 16, the combination of the detected upper left coordinate, width, and height of each face area is assigned with a face area ID, which is a unique identification number, and is managed in association with the imaged imaging device. The

続いて、顔領域特定部134は、天井側から撮影された画像データから頭部領域を抽出する処理を頭部領域検出部134bに実行させる(ステップS204)。ステップS204では、画像データ81から、人物P1の頭部領域81aと、人物P2の頭部領域81bと、人物P3の頭部領域81cとが検出される。検出された各頭部領域の左上座標、幅、高さの組合せは、図15に示すように、それぞれユニークな識別番号である頭部領域IDを割り当てられて管理される。   Subsequently, the face area specifying unit 134 causes the head area detecting unit 134b to execute a process of extracting the head area from the image data photographed from the ceiling side (step S204). In step S204, a head region 81a of the person P1, a head region 81b of the person P2, and a head region 81c of the person P3 are detected from the image data 81. As shown in FIG. 15, the combination of the detected upper left coordinates, width, and height of each head region is managed by assigning a head region ID that is a unique identification number.

続いて、顔領域特定部134は、撮像装置20に対して光通信を実行している可能性のある人物の頭部領域を壁側の撮像装置20毎に選択する処理を頭部領域選択部134cに実行させる。そして、顔領域特定部134は、選択された頭部領域を、光通信の送信先と想定される撮像装置20と対応づけて記憶する(ステップS205)。   Subsequently, the face area specifying unit 134 performs a process of selecting a head area of a person who may be performing optical communication with the imaging apparatus 20 for each imaging apparatus 20 on the wall side. 134c is executed. Then, the face area specifying unit 134 stores the selected head area in association with the imaging device 20 that is assumed to be the transmission destination of optical communication (step S205).

ステップS205では、画像データ81から、撮像装置20aに対して光通信を実行している可能性のある人物の頭部領域として、頭部領域81aおよび81bが選択される。これらの頭部領域の中心と発光点81dの距離が閾値Th1より小さいので第1の基準が満たされ、これらの頭部領域の中心のY座標が発光点81dのY座標であるY1よりも小さいので第2の基準も満たされるためである。   In step S205, head regions 81a and 81b are selected from the image data 81 as head regions of a person who may be performing optical communication with the imaging device 20a. Since the distance between the center of these head regions and the light emitting point 81d is smaller than the threshold Th1, the first criterion is satisfied, and the Y coordinate of the center of these head regions is smaller than Y1 which is the Y coordinate of the light emitting point 81d. This is because the second criterion is also satisfied.

また、画像データ81から、撮像装置20bに対して光通信を実行している可能性のある人物の頭部領域として、頭部領域81cが選択される。頭部領域81cの中心と発光点81dの距離が閾値Th1より小さいので第1の基準が満たされ、頭部領域81cの中心のY座標が発光点81dのY座標であるY1よりも大きいので第2の基準も満たされるためである。   Further, from the image data 81, a head region 81c is selected as the head region of a person who may be performing optical communication with the imaging device 20b. Since the distance between the center of the head region 81c and the light emitting point 81d is smaller than the threshold Th1, the first criterion is satisfied, and the Y coordinate of the center of the head region 81c is larger than Y1 which is the Y coordinate of the light emitting point 81d. This is because the second criterion is also satisfied.

こうして選択された頭部領域は、図17に示すように、光通信の送信先と想定される映像装置と対応づけて記憶される。具体的には、頭部領域81aの頭部領域IDである「HEAD01」および頭部領域81bの頭部領域IDである「HEAD02」は、撮像装置20aと対応づけられる。そして、頭部領域81cの頭部領域IDである「HEAD03」は、撮像装置20bと対応づけられる。   As shown in FIG. 17, the head region selected in this way is stored in association with a video device assumed to be a transmission destination of optical communication. Specifically, “HEAD01” that is the head region ID of the head region 81a and “HEAD02” that is the head region ID of the head region 81b are associated with the imaging device 20a. The head area ID “HEAD03” of the head area 81c is associated with the imaging device 20b.

続いて、顔領域特定部134は、選択された頭部領域のうち未取得のものを1つ取得する(ステップS206)。そして、未取得の頭部領域を取得できた場合は(ステップS207否定)、顔領域特定部134は、その頭部領域の中心のX座標を壁側から撮影された各画像データの座標へ変換する処理を位置変換部134dに実行させる(ステップS208)。   Subsequently, the face area specifying unit 134 acquires one of the selected head areas that has not been acquired (step S206). When an unacquired head region can be acquired (No at Step S207), the face region specifying unit 134 converts the X coordinate of the center of the head region into the coordinates of each image data photographed from the wall side. The position conversion unit 134d is caused to execute the processing to be performed (step S208).

ステップS206で頭部領域81bが選択されたとすると、その中心のX座標であるX1は、以下のように変換される。X1を画像データ82の座標へ変換する場合、画像データ82のX座標の方向は、頭部領域81bを含む画像データ81と同一であるので、解像度の相違に応じた係数を乗じることにより変換が完了する。一方、X1を画像データ83の座標へ変換する場合、画像データ83のX座標の方向と画像データ81と反対であるので、座標を図中右上を原点としたものに置き換えた後に、解像度の相違に応じた係数を乗じることとなる。   If the head region 81b is selected in step S206, X1 which is the X coordinate of the center is converted as follows. When X1 is converted to the coordinates of the image data 82, the X-coordinate direction of the image data 82 is the same as that of the image data 81 including the head region 81b. Therefore, the conversion is performed by multiplying the coefficient according to the difference in resolution. Complete. On the other hand, when X1 is converted into the coordinates of the image data 83, the direction of the X coordinate of the image data 83 is opposite to that of the image data 81. Will be multiplied by a coefficient corresponding to.

続いて、顔領域特定部134は、中心の座標と変換後の座標の距離が閾値よりも小さい顔領域を、ステップS206で選択された頭部領域と対応づけて記憶された撮像装置によって撮影された画像データから検出された顔領域の中から選択する(ステップS210)。ここで用いられる閾値は、誤差を吸収するためものである。   Subsequently, the face area specifying unit 134 captures the face area in which the distance between the center coordinates and the converted coordinates is smaller than the threshold by the imaging device stored in association with the head area selected in step S206. A face area detected from the detected image data is selected (step S210). The threshold value used here is for absorbing errors.

ステップS206で頭部領域81aが選択された場合について考える。頭部領域81aと対応づけてステップS205で記憶されたのは撮像装置20aであり、撮像装置20aによって撮影された画像データ82からは、顔領域82aおよび82bが検出されている。しかし、頭部領域81aの中心のX座標を画像データ82のX座標へ変換した位置にいるのは、後ろ向きに立っている人物P1であり、変換後のX座標付近では顔領域は検出されていない。このため、頭部領域81aに対応する顔領域は選択されない。   Consider the case where the head region 81a is selected in step S206. The imaging device 20a is stored in step S205 in association with the head region 81a, and the face regions 82a and 82b are detected from the image data 82 taken by the imaging device 20a. However, the person P1 standing backward is located at the position where the X coordinate of the center of the head region 81a is converted into the X coordinate of the image data 82, and the face region is detected in the vicinity of the converted X coordinate. Absent. For this reason, the face region corresponding to the head region 81a is not selected.

また、ステップS206で頭部領域81cが選択された場合について考える。頭部領域81cと対応づけてステップS205で記憶されたのは撮像装置20bであり、撮像装置20bによって撮影された画像データ83からは、顔領域83aが検出されている。しかし、頭部領域81cの中心のX座標を画像データ83のX座標へ変換した位置にいるのは、後ろ向きに立っている人物P3であり、変換後のX座標付近では顔領域は検出されていない。このため、頭部領域81cに対応する顔領域は選択されない。   Further, consider the case where the head region 81c is selected in step S206. The imaging device 20b is stored in step S205 in association with the head region 81c, and the face region 83a is detected from the image data 83 taken by the imaging device 20b. However, the person P3 standing backwards is at the position where the X coordinate of the center of the head region 81c is converted to the X coordinate of the image data 83, and the face region is detected in the vicinity of the converted X coordinate. Absent. For this reason, the face region corresponding to the head region 81c is not selected.

ステップS206で頭部領域81bが選択された場合について考える。頭部領域81bと対応づけてステップS205で記憶されたのは撮像装置20aであり、撮像装置20aによって撮影された画像データ82からは、顔領域82aおよび82bが検出されている。そして、頭部領域81aの中心のX座標を画像データ82のX座標へ変換した位置には正面を向いて立っている人物P2がおり、変換後のX座標の値は、顔領域82aの中心のX座標とほぼ一致する。このため、頭部領域81bに対応する顔領域として、顔領域82aが選択される。   Consider the case where the head region 81b is selected in step S206. The imaging device 20a is stored in step S205 in association with the head region 81b, and the face regions 82a and 82b are detected from the image data 82 taken by the imaging device 20a. Then, there is a person P2 standing facing the front at the position where the X coordinate of the center of the head region 81a is converted into the X coordinate of the image data 82, and the value of the converted X coordinate is the center of the face region 82a. It almost coincides with the X coordinate. For this reason, the face area 82a is selected as the face area corresponding to the head area 81b.

ステップS209で顔領域を選択できた場合(ステップS210肯定)、顔領域特定部134は、選択された顔領域を、ステップS206で選択した頭部領域と対応づけて送信者の領域の候補として記憶し(ステップS211)、ステップS206から処理手順を再開する。一方、ステップS209で顔領域を選択できなかった場合(ステップS210否定)、顔領域特定部134は、ステップS206から処理手順を再開する。   When the face area can be selected in step S209 (Yes in step S210), the face area specifying unit 134 stores the selected face area as a candidate for the sender area in association with the head area selected in step S206. (Step S211), and the processing procedure is restarted from Step S206. On the other hand, when the face area cannot be selected in step S209 (No in step S210), the face area specifying unit 134 restarts the processing procedure from step S206.

こうして、顔領域特定部134は、未取得の頭部領域がなくなるまで頭部領域と顔領域の照合を行う。そして、ステップS205で選択された頭部領域をすべて取得し、未取得のものがなくなったならば(ステップS207肯定)、頭部領域と顔領域の照合を終了する。   In this way, the face area specifying unit 134 collates the head area with the face area until there is no unacquired head area. Then, all the head regions selected in step S205 are acquired. If there are no unacquired regions (Yes in step S207), the comparison between the head region and the face region is ended.

続いて、顔領域特定部134は、送信者の領域の候補として記憶している頭部領域と顔領域の組合せが複数ある場合は(ステップS212肯定)、発光位置との距離が最小の組合せを候補として選択する(ステップS213)。   Subsequently, when there are a plurality of combinations of the head area and the face area stored as candidates for the sender's area (Yes in step S212), the face area specifying unit 134 selects the combination having the smallest distance from the light emission position. A candidate is selected (step S213).

続いて、顔領域特定部134は、送信者の領域の候補として記憶している頭部領域と顔領域の組合せがあれば(ステップS214肯定)、候補に含まれる頭部領域と顔領域を送信者のものと特定する(ステップS215)。一方、顔領域特定部134は、送信者の領域の候補として記憶している頭部領域と顔領域の組合せがなければ(ステップS214否定)、送信者の頭部領域と顔領域を特定することはできないと判断する(ステップS216)。   Subsequently, if there is a combination of the head area and the face area stored as the sender area candidate (Yes in step S214), the face area specifying unit 134 transmits the head area and the face area included in the candidate. (Step S215). On the other hand, if there is no combination of the head area and the face area stored as the sender area candidate (No in step S214), the face area specifying unit 134 specifies the sender head area and the face area. It is determined that it cannot be performed (step S216).

図10〜12に示した例では、頭部領域81bと顔領域82aの組合せのみが候補として選択されるため、頭部領域81bと顔領域82aが送信者のものと特定される。この特定結果は適正である。   In the example shown in FIGS. 10 to 12, since only the combination of the head region 81b and the face region 82a is selected as a candidate, the head region 81b and the face region 82a are identified as those of the sender. This specific result is reasonable.

図18は、視聴者追跡処理の処理手順を示すフローチャートである。視聴者追跡処理は、顔領域特定部134によって送信者の顔領域と頭部領域が特定されるたびに、追跡部135等によって実行される。   FIG. 18 is a flowchart showing the processing procedure of the viewer tracking process. The viewer tracking process is executed by the tracking unit 135 and the like each time the face region specifying unit 134 specifies the sender's face region and head region.

図18に示すように、追跡部135は、送信者、すなわち、広告に興味をもってメールアドレスを送信した視聴者のものと特定された頭部領域の移動を追跡する(ステップS301)。この追跡は、頭部領域がエレベータ内の空間の外へ出たと判定されるまで実行される。   As shown in FIG. 18, the tracking unit 135 tracks the movement of the head region identified as that of the sender, that is, the viewer who has transmitted the e-mail address with an interest in the advertisement (step S301). This tracking is performed until it is determined that the head region has gone out of the space in the elevator.

そして、頭部領域が画像データの外周部分から外部へ消える等して、頭部領域がエレベータ内の空間の外へ出たと判定されたならば(ステップS302肯定)、階数取得部136が現在の階数を取得する(ステップS303)。そして、属性解析部137が、取得された階数を復号されたメールアドレスと対応づけて視聴者属性データ126に記憶させる(ステップS304)。   Then, if it is determined that the head region has gone out of the space in the elevator, for example, the head region has disappeared from the outer peripheral portion of the image data (Yes in step S302), the floor acquisition unit 136 The floor number is acquired (step S303). Then, the attribute analysis unit 137 stores the acquired rank in the viewer attribute data 126 in association with the decrypted mail address (step S304).

なお、図1に示した広告管理システム1の構成は、要旨を逸脱しない範囲で種々に変更することができる。例えば、広告管理システム1を、エレベータ内で表示される広告を管理するためではなく、電車内や街頭で表示される広告を管理するように変形することができる。   The configuration of the advertisement management system 1 shown in FIG. 1 can be variously changed without departing from the gist. For example, the advertisement management system 1 can be modified not to manage advertisements displayed in an elevator, but to manage advertisements displayed in a train or on the street.

また、広告管理システム1では天井側1台と壁側2台という計3台の撮像装置を用いているが、撮影対象の空間を異なる角度から撮影する撮像装置が複数設置されていれば、撮像装置の台数と設置位置は問わない。   Further, the advertisement management system 1 uses a total of three imaging devices, one on the ceiling side and two on the wall side. However, if a plurality of imaging devices that shoot the space to be photographed from different angles are installed, the imaging is performed. The number of devices and the installation position are not limited.

なお、上記では携帯端末装置40から撮像装置20へ向けてメールアドレスが光通信で送信される場合を例に挙げ説明したが、天井の撮像装置30cにより撮影した画像81から、送信準備信号を検出することができる場合がある。   In the above description, an example in which a mail address is transmitted from the mobile terminal device 40 to the imaging device 20 by optical communication has been described as an example. However, a transmission preparation signal is detected from the image 81 taken by the ceiling imaging device 30c. You may be able to.

したがって、必ずしも上記のように、広告コンテンツ内で、携帯端末を撮像装置へ向けてメールアドレスを送信するよう促さなくてもよい。   Therefore, as described above, it is not always necessary to urge the mobile terminal to send an e-mail address to the imaging device in the advertising content.

たとえば、広告コンテンツにおいて、撮像装置以外の予め定められた所定の基準位置(例えば任意の壁面に貼付したポスターの位置など)に向けて、光信号を発信するよう促した場合にも、送信者と発光点と所定の基準位置との位置関係に基づいて、端末の所持者を特定することができる。   For example, in an advertisement content, even when the user is prompted to send an optical signal toward a predetermined reference position other than the imaging device (for example, the position of a poster attached to an arbitrary wall surface), The owner of the terminal can be identified based on the positional relationship between the light emitting point and the predetermined reference position.

すなわち、この場合、前記頭部領域選択部134cによる前記第2の基準は、予め定められた所定の基準位置(ポスターの位置)からみて、頭部領域が光通信の発光点よりも遠方に位置していること、となる。   That is, in this case, the second reference by the head region selection unit 134c is that the head region is located farther from the light emitting point of optical communication when viewed from a predetermined reference position (poster position). What you are doing.

また、さらに、天井の撮像装置30cにより、服装、髪型等の人物の特徴をも認識することとすれば、壁側の撮像装置を省略したシステム構成とても、携帯対端末装置の所持者に対し、その特徴に応じた広告等の情報を送信することが可能である。   Furthermore, if the ceiling imaging device 30c also recognizes the characteristics of a person such as clothes and hairstyles, the system configuration without the wall-side imaging device is very important for the owner of the portable terminal device. Information such as advertisements according to the characteristics can be transmitted.

前記広告管理装置10の機能の全部もしくは一部は、ソフトウェアとして実装し、これをコンピュータで実行することによって同等の機能を実現することもできる。以下に、広告管理装置10の顔領域特定に関する機能をソフトウェアとして実装した画像処理プログラム1071を実行するコンピュータの一例を示す。   All or part of the functions of the advertisement management apparatus 10 can be implemented as software, and an equivalent function can be realized by executing the software on a computer. Hereinafter, an example of a computer that executes an image processing program 1071 in which a function related to face area specification of the advertisement management apparatus 10 is implemented as software will be described.

図19は、画像処理プログラム1071を実行するコンピュータ1000を示す機能ブロック図である。このコンピュータ1000の各種演算処理を実行するCPU(Central Processing Unit)1010と、ユーザからのデータの入力を受け付ける入力装置1020と、各種情報を表示するモニタ1030と、記録媒体からプログラム等を読み取る媒体読取り装置1040と、ネットワークを介して他のコンピュータとの間でデータの授受を行うネットワークインターフェース装置1050と、各種情報を一時記憶するRAM(Random Access Memory)1060と、ハードディスク装置1070とは、バス1080で接続されている。   FIG. 19 is a functional block diagram illustrating a computer 1000 that executes the image processing program 1071. A central processing unit (CPU) 1010 that executes various arithmetic processes of the computer 1000, an input device 1020 that receives input of data from a user, a monitor 1030 that displays various information, and a medium reading that reads a program from a recording medium A device 1040, a network interface device 1050 that exchanges data with another computer via a network, a RAM (Random Access Memory) 1060 that temporarily stores various information, and a hard disk device 1070 are connected via a bus 1080. It is connected.

そして、ハードディスク装置1070には、図1に示した顔領域特定部134と同様の機能を有する画像処理プログラム1071と、図1に示した画像データ123に対応する画像処理用データ1072とが記憶される。なお、画像処理用データ1072を、適宜分散させ、ネットワークを介して接続された他のコンピュータに記憶させておくこともできる。   The hard disk device 1070 stores an image processing program 1071 having the same function as the face area specifying unit 134 shown in FIG. 1 and image processing data 1072 corresponding to the image data 123 shown in FIG. The Note that the image processing data 1072 can be appropriately distributed and stored in another computer connected via a network.

そして、CPU1010が画像処理プログラム1071をハードディスク装置1070から読み出してRAM1060に展開することにより、画像処理プログラム1071は、画像処理プロセス1061として機能するようになる。そして、画像処理プロセス1061は、画像処理用データ1072から読み出した情報等を適宜RAM1060上の自身に割り当てられた領域に展開し、この展開したデータ等に基づいて各種データ処理を実行する。   Then, the CPU 1010 reads the image processing program 1071 from the hard disk device 1070 and develops it in the RAM 1060, whereby the image processing program 1071 functions as the image processing process 1061. Then, the image processing process 1061 expands information read from the image processing data 1072 and the like in an area allocated to itself on the RAM 1060 as appropriate, and executes various data processing based on the expanded data and the like.

なお、上記の画像処理プログラム1071は、必ずしもハードディスク装置1070に格納されている必要はなく、CD−ROM等の記憶媒体に記憶されたこのプログラムを、コンピュータ1000が読み出して実行するようにしてもよい。また、公衆回線、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等を介してコンピュータ1000に接続される他のコンピュータ(またはサーバ)等にこのプログラムを記憶させておき、コンピュータ1000がこれらからプログラムを読み出して実行するようにしてもよい。   The image processing program 1071 is not necessarily stored in the hard disk device 1070. The computer 1000 may read and execute the program stored in a storage medium such as a CD-ROM. . The computer 1000 stores the program in another computer (or server) connected to the computer 1000 via a public line, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), or the like. You may make it read and run a program from these.

上述してきたように、本実施例では、異なる方向から撮影して得られた情報に基づいて顔領域の候補を絞り込むこととしたので、壁側に設置された撮像装置で撮影された画像中から光通信の送信者の顔領域を精度よく特定することができる。   As described above, in the present embodiment, the face area candidates are narrowed down based on information obtained by photographing from different directions, and thus, from among images photographed by an imaging device installed on the wall side. The face area of the sender of optical communication can be specified with high accuracy.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)個人の属性に応じた適切な情報を該個人の光通信装置に送信する広告情報提供システムにおいて、撮像装置で撮影された画像を解析して光通信装置の所持者を特定する画像処理プログラムであって、
前記光通信装置とその所持者が存在する所定の空間を撮影する前記撮像装置によって撮影された前記画像を解析して、前記光通信装置が送信した光信号と、前記光通信装置の所持者の候補となり得る複数の人物領域を検出する検出手順と、
前記検出手順において前記画像中に検出された複数の人物領域の中から、前記画像における前記光信号の発光位置と予め定められた所定の基準位置と各人物領域との位置関係に基づいて、前記光通信装置の所持者の人物領域を特定する人物領域特定手順と
をコンピュータに実行させることを特徴とする画像処理プログラム。
(Appendix 1) In an advertisement information providing system for transmitting appropriate information according to an individual attribute to the individual optical communication device, an image identifying the owner of the optical communication device by analyzing the image captured by the imaging device A processing program,
Analyzing the image captured by the imaging device that captures a predetermined space where the optical communication device and its owner are present, the optical signal transmitted by the optical communication device, and the owner of the optical communication device A detection procedure for detecting a plurality of human regions that can be candidates;
Based on the positional relationship between each person area and a light emitting position of the optical signal in the image, a predetermined reference position determined in advance, among the plurality of person areas detected in the image in the detection procedure An image processing program for causing a computer to execute a person area specifying procedure for specifying a person area of a holder of an optical communication apparatus.

(付記2)前記人物領域特定手順は、前記所定の位置から見て前記発光位置よりも遠方に位置し、かつ、前記発光位置との距離が閾値よりも小さい人物領域を、前記光通信装置の所持者の人物領域として特定することを特徴とする付記1に記載の画像処理プログラム。 (Additional remark 2) The person area specifying procedure includes a person area located farther from the light emission position as viewed from the predetermined position and having a distance from the light emission position smaller than a threshold value. The image processing program according to appendix 1, wherein the image processing program is specified as a person area of a holder.

(付記3)前記所定の空間を前記撮像装置とは別の方向から撮影する第2の撮像装置によって撮影された、第2の画像に含まれる人物の顔領域を検出する顔領域検出手順と、
前記顔領域検出手順において該第2の画像内で検出された顔領域のうち、前記人物領域選択手順において前記画像内で特定された人物領域と同一位置に存在すると判断されるものを、前記光通信装置を用いて光信号を送信した人物の顔領域として特定する顔領域特定手順と
をさらにコンピュータに実行させることを特徴とする付記1または2記載の画像処理プログラム。
(Additional remark 3) The face area detection procedure which detects the face area of the person included in the 2nd picture photoed by the 2nd imaging device which picturizes the predetermined space from the direction different from the imaging device,
Of the face areas detected in the second image in the face area detection procedure, those determined to be present at the same position as the person area specified in the image in the person area selection procedure are The image processing program according to appendix 1 or 2, further causing a computer to execute a face area specifying procedure for specifying a face area of a person who has transmitted an optical signal using a communication device.

(付記4)前記顔領域特定手順によって特定された顔領域を解析して、前記光通信装置を用いて光信号を送信した人物の属性情報を取得する属性解析手順をさらにコンピュータに実行させることを特徴とする付記3に記載の画像処理プログラム。 (Additional remark 4) Analyzing the face area | region identified by the said face area | region identification procedure, and making a computer perform further the attribute analysis procedure which acquires the attribute information of the person who transmitted the optical signal using the said optical communication apparatus. The image processing program according to appendix 3, which is characterized.

(付記5)前記復号手順によって復号された情報に含まれる前記光通信装置の識別情報に基づいて、前記光通信装置に対して、前記属性解析手順によって解析された属性情報に応じた情報を送信する送信手順をさらにコンピュータに実行させることを特徴とする付記4に記載の画像処理プログラム。 (Supplementary Note 5) Based on the identification information of the optical communication device included in the information decoded by the decoding procedure, information corresponding to the attribute information analyzed by the attribute analysis procedure is transmitted to the optical communication device The image processing program according to appendix 4, further causing a computer to execute a transmission procedure.

(付記6)個人の属性に応じた適切な情報を該個人の光通信装置に送信する広告情報提供システムにおいて、撮像装置で撮影された画像を解析して光通信装置の所持者を特定する画像処理装置であって、
前記光通信装置とその所持者が存在する所定の空間を撮影する前記撮像装置によって撮影された前記画像を解析して、前記光通信装置が送信した光信号と、前記光通信装置の所持者の候補となり得る複数の人物領域を検出する検出部と、
前記検出部において前記画像中に検出された複数の人物領域の中から、前記画像における前記光信号の発光位置と予め定められた所定の基準位置と各人物領域との位置関係に基づいて、前記光通信装置の所持者の人物領域を特定する人物領域特定部と
を備えたことを特徴とする画像処理装置。
(Appendix 6) In an advertisement information providing system for transmitting appropriate information according to an individual attribute to the individual optical communication device, an image identifying the owner of the optical communication device by analyzing the image captured by the imaging device A processing device comprising:
Analyzing the image captured by the imaging device that captures a predetermined space where the optical communication device and its owner are present, the optical signal transmitted by the optical communication device, and the owner of the optical communication device A detection unit for detecting a plurality of human regions that can be candidates;
Based on the positional relationship between each person area and a light emitting position of the optical signal in the image, a predetermined reference position determined in advance, among the plurality of person areas detected in the image by the detection unit. An image processing apparatus comprising: a person area specifying unit that specifies a person area of a holder of the optical communication apparatus.

(付記7)前記人物領域特定部は、前記所定の位置から見て前記発光位置よりも遠方に位置し、かつ、前記発光位置との距離が閾値よりも小さい人物領域を、前記光通信装置の所持者の人物領域として特定することを特徴とする付記6に記載の画像処理装置。 (Additional remark 7) The said person area specific | specification part is located far from the said light emission position seeing from the said predetermined position, and the person area whose distance with the said light emission position is smaller than a threshold value is the optical communication apparatus. The image processing apparatus according to appendix 6, wherein the image processing apparatus is specified as a person area of the owner.

(付記8)前記所定の空間を前記撮像装置とは別の方向から撮影する第2の撮像装置によって撮影された、第2の画像に含まれる人物の顔領域を検出する顔領域検出部と、
前記顔領域検出部において該第2の画像内で検出された顔領域のうち、前記人物領域選択部において前記画像内で特定された人物領域と同一位置に存在すると判断されるものを、前記光通信装置を用いて光信号を送信した人物の顔領域として特定する顔領域特定部と
をさらに備えたことを特徴とする付記6または7記載の画像処理装置。
(Supplementary Note 8) A face area detection unit that detects a face area of a person included in a second image captured by a second imaging apparatus that captures the predetermined space from a direction different from the imaging apparatus;
Of the face areas detected in the second image by the face area detection unit, those determined to be present at the same position as the person area specified in the image by the person area selection unit The image processing apparatus according to appendix 6 or 7, further comprising: a face area specifying unit that specifies the face area of the person who transmitted the optical signal using the communication apparatus.

(付記9)前記顔領域特定部によって特定された顔領域を解析して、前記光通信装置を用いて光信号を送信した人物の属性情報を取得する属性解析部をさらに備えたことを特徴とする付記8に記載の画像処理装置。 (Additional remark 9) It further provided with the attribute analysis part which analyzes the face area specified by the said face area specific | specification part, and acquires the attribute information of the person who transmitted the optical signal using the said optical communication apparatus, It is characterized by the above-mentioned. The image processing apparatus according to appendix 8.

(付記10)前記復号部によって復号された情報に含まれる前記光通信装置の識別情報に基づいて、前記光通信装置に対して、前記属性解析部によって解析された属性情報に応じた情報を送信する送信部をさらに備えたことを特徴とする付記9に記載の画像処理装置。 (Supplementary note 10) Based on the identification information of the optical communication device included in the information decoded by the decoding unit, information corresponding to the attribute information analyzed by the attribute analysis unit is transmitted to the optical communication device The image processing apparatus according to appendix 9, further comprising: a transmitting unit that performs the processing.

(付記11)個人の属性に応じた適切な情報を該個人の光通信装置に送信する広告情報提供システムにおいて、撮像装置で撮影された画像を解析して光通信装置の所持者を特定する画像処理方法であって、
前記光通信装置とその所持者が存在する所定の空間を撮影する前記撮像装置によって撮影された前記画像を解析して、前記光通信装置が送信した光信号と、前記光通信装置の所持者の候補となり得る複数の人物領域を検出する検出工程と、
前記検出工程において前記画像中に検出された複数の人物領域の中から、前記画像における前記光信号の発光位置と予め定められた所定の基準位置と各人物領域との位置関係に基づいて、前記光通信装置の所持者の人物領域を特定する人物領域特定工程と
を含んだことを特徴とする画像処理方法。
(Additional remark 11) Image which identifies the holder of an optical communication apparatus by analyzing the image image | photographed with the imaging device in the advertisement information provision system which transmits appropriate information according to an individual attribute to the personal optical communication apparatus A processing method,
Analyzing the image captured by the imaging device that captures a predetermined space where the optical communication device and its owner are present, the optical signal transmitted by the optical communication device, and the owner of the optical communication device A detection step of detecting a plurality of human regions that can be candidates;
Among the plurality of person areas detected in the image in the detection step, the light signal emission position in the image, a predetermined reference position determined in advance, and the positional relationship between each person area, An image processing method comprising: a person area specifying step of specifying a person area of a holder of the optical communication apparatus.

(付記12)前記人物領域特定工程は、前記所定の位置から見て前記発光位置よりも遠方に位置し、かつ、前記発光位置との距離が閾値よりも小さい人物領域を、前記光通信装置の所持者の人物領域として特定することを特徴とする付記11に記載の画像処理方法。 (Supplementary Note 12) In the person area specifying step, a person area that is located farther from the light emitting position than the predetermined light position and whose distance from the light emitting position is smaller than a threshold is determined by the optical communication apparatus. The image processing method according to appendix 11, wherein the image processing method is specified as a person area of a holder.

(付記13)前記所定の空間を前記撮像装置とは別の方向から撮影する第2の撮像装置によって撮影された、第2の画像に含まれる人物の顔領域を検出する顔領域検出工程と、
前記顔領域検出工程において該第2の画像内で検出された顔領域のうち、前記人物領域選択工程において前記画像内で特定された人物領域と同一位置に存在すると判断されるものを、前記光通信装置を用いて光信号を送信した人物の顔領域として特定する顔領域特定工程と
をさらに含んだことを特徴とする付記11または12記載の画像処理方法。
(Additional remark 13) The face area detection process which detects the face area of the person included in the 2nd picture photoed by the 2nd image pick-up device which picturizes the predetermined space from the direction different from the image pick-up device,
Of the face areas detected in the second image in the face area detection step, those determined to be present at the same position as the person area specified in the image in the person area selection step are The image processing method according to claim 11 or 12, further comprising: a face area specifying step of specifying as a face area of a person who transmitted an optical signal using a communication device.

(付記14)前記顔領域特定工程によって特定された顔領域を解析して、前記光通信装置を用いて光信号を送信した人物の属性情報を取得する属性解析工程をさらに含んだことを特徴とする付記13に記載の画像処理方法。 (Supplementary note 14) The method further includes an attribute analysis step of analyzing the face region specified by the face region specifying step and acquiring attribute information of a person who has transmitted an optical signal using the optical communication device. The image processing method according to appendix 13.

(付記15)前記復号工程によって復号された情報に含まれる前記光通信装置の識別情報に基づいて、前記光通信装置に対して、前記属性解析工程によって解析された属性情報に応じた情報を送信する送信工程をさらに含んだことを特徴とする付記14に記載の画像処理方法。 (Supplementary Note 15) Based on the identification information of the optical communication device included in the information decoded by the decoding step, information corresponding to the attribute information analyzed by the attribute analysis step is transmitted to the optical communication device 15. The image processing method according to appendix 14, further comprising a transmitting step.

1 広告管理システム
10 広告管理装置
110 ネットワークインターフェース部
120 記憶部
121 広告データ
122 広告表示スケジュール
123 画像データ
124 配信情報
125 配信情報選択条件
126 視聴者属性データ
130 制御部
131 広告表示制御部
132 画像取得部
133 復号部
134 顔領域特定部
134a 顔領域検出部
134b 頭部領域検出部
134c 頭部領域選択部
134d 位置変換部
135 追跡部
136 階数取得部
137 属性解析部
138 情報配信部
139 メール送信部
20a〜20c 撮像装置
30a〜30b 表示装置
40 携帯端末装置
401 ユーザインターフェース部
402 メールアドレス送信部
403 符号化部
404 発光制御部
405 発光部
406 無線通信部
407 メール送受信部
408 WEBブラウザ
50 ネットワーク
60 インターネット
70 無線基地局
1000 コンピュータ
1010 CPU
1020 入力装置
1030 モニタ
1040 媒体読取り装置
1050 ネットワークインターフェース装置
1060 RAM
1061 画像処理プロセス
1070 ハードディスク装置
1071 画像処理プログラム
1072 画像処理用データ
1080 バス
DESCRIPTION OF SYMBOLS 1 Advertisement management system 10 Advertisement management apparatus 110 Network interface part 120 Storage part 121 Advertisement data 122 Advertisement display schedule 123 Image data 124 Delivery information 125 Delivery information selection condition 126 Viewer attribute data 130 Control part 131 Advertisement display control part 132 Image acquisition part 133 Decoding unit 134 Face region specifying unit 134a Face region detection unit 134b Head region detection unit 134c Head region selection unit 134d Position conversion unit 135 Tracking unit 136 Rank acquisition unit 137 Attribute analysis unit 138 Information distribution unit 139 Mail transmission unit 20a 20c imaging device 30a-30b display device 40 mobile terminal device 401 user interface unit 402 mail address transmission unit 403 encoding unit 404 light emission control unit 405 light emission unit 406 wireless communication unit 407 mail Transmission / reception unit 408 WEB browser 50 Network 60 Internet 70 Wireless base station 1000 Computer 1010 CPU
1020 Input device 1030 Monitor 1040 Medium reader 1050 Network interface device 1060 RAM
1061 Image processing process 1070 Hard disk device 1071 Image processing program 1072 Image processing data 1080 Bus

Claims (5)

個人の属性に応じた適切な情報を該個人の光通信装置に送信する広告情報提供システムにおいて、撮像装置で撮影された画像を解析して光通信装置の所持者を特定する画像処理プログラムであって、
前記光通信装置とその所持者が存在する所定の空間を撮影する前記撮像装置によって撮影された前記画像を解析して、前記光通信装置が送信した光信号と、前記光通信装置の所持者の候補となり得る複数の人物領域を検出する検出手順と、
前記検出手順において前記画像中に検出された複数の人物領域の中から、予め定められた所定の基準位置から見て前記画像における前記光信号の発光位置よりも遠方に位置し、かつ、前記発光位置との距離が閾値よりも小さい人物領域を、前記光通信装置の所持者の人物領域として特定する人物領域特定手順と
をコンピュータに実行させることを特徴とする画像処理プログラム。
In an advertisement information providing system that transmits appropriate information according to an individual attribute to an optical communication device of the individual, an image processing program that analyzes an image captured by the imaging device and identifies the owner of the optical communication device. And
Analyzing the image captured by the imaging device that captures a predetermined space where the optical communication device and its owner are present, the optical signal transmitted by the optical communication device, and the owner of the optical communication device A detection procedure for detecting a plurality of human regions that can be candidates;
The plurality of person regions detected in the image in the detection procedure are located farther from the light emission position of the optical signal in the image when viewed from a predetermined reference position, and the light emission An image processing program for causing a computer to execute a person area specifying procedure for specifying a person area whose distance from a position is smaller than a threshold as a person area of a holder of the optical communication apparatus.
前記所定の空間を前記撮像装置とは別の方向から撮影する第2の撮像装置によって撮影された、第2の画像に含まれる人物の顔領域を検出する顔領域検出手順と、
前記顔領域検出手順において該第2の画像内で検出された顔領域のうち、前記人物領域選択手順において前記画像内で特定された人物領域と同一位置に存在すると判断されるものを、前記光通信装置を用いて光信号を送信した人物の顔領域として特定する顔領域特定手順と
をさらにコンピュータに実行させることを特徴とする請求項1に記載の画像処理プログラム。
A face area detection procedure for detecting a face area of a person included in a second image captured by a second image capturing apparatus that captures the predetermined space from a direction different from the image capturing apparatus;
Of the face areas detected in the second image in the face area detection procedure, those determined to be present at the same position as the person area specified in the image in the person area selection procedure are the image processing program of the serial placement in claim 1, characterized in that to execute the further computer and the face area specifying step of specifying a human face region that has transmitted the optical signal by using a communication device.
前記顔領域特定手順によって特定された顔領域を解析して、前記光通信装置を用いて光信号を送信した人物の属性情報を取得する属性解析手順をさらにコンピュータに実行させることを特徴とする請求項に記載の画像処理プログラム。 The computer further executes an attribute analysis procedure for analyzing the face area specified by the face area specifying procedure and acquiring attribute information of a person who has transmitted an optical signal using the optical communication device. Item 3. The image processing program according to Item 2 . 前記復号手順によって復号された情報に含まれる前記光通信装置の識別情報に基づいて、前記光通信装置に対して、前記属性解析手順によって解析された属性情報に応じた情報を送信する送信手順をさらにコンピュータに実行させることを特徴とする請求項に記載の画像処理プログラム。 A transmission procedure for transmitting information corresponding to the attribute information analyzed by the attribute analysis procedure to the optical communication device based on the identification information of the optical communication device included in the information decoded by the decoding procedure; The image processing program according to claim 3 , further causing a computer to execute the image processing program. 個人の属性に応じた適切な情報を該個人の光通信装置に送信する広告情報提供システムにおいて、撮像装置で撮影された画像を解析して光通信装置の所持者を特定する画像処理装置であって、
前記光通信装置とその所持者が存在する所定の空間を撮影する前記撮像装置によって撮影された前記画像を解析して、前記光通信装置が送信した光信号と、前記光通信装置の所持者の候補となり得る複数の人物領域を検出する検出部と、
前記検出部において前記画像中に検出された複数の人物領域の中から、予め定められた所定の基準位置から見て前記画像における前記光信号の発光位置よりも遠方に位置し、かつ、前記発光位置との距離が閾値よりも小さい人物領域を、前記光通信装置の所持者の人物領域として特定する人物領域特定部と
を備えたことを特徴とする画像処理装置。
In an advertisement information providing system that transmits appropriate information according to an individual attribute to the optical communication device of the individual, the image processing device analyzes an image captured by the imaging device and identifies the owner of the optical communication device. And
Analyzing the image captured by the imaging device that captures a predetermined space where the optical communication device and its owner are present, the optical signal transmitted by the optical communication device, and the owner of the optical communication device A detection unit for detecting a plurality of human regions that can be candidates;
The plurality of person regions detected in the image by the detection unit are located farther from the light emission position of the optical signal in the image when viewed from a predetermined reference position, and the light emission An image processing apparatus comprising: a person area specifying unit that specifies a person area whose distance from the position is smaller than a threshold as a person area of a holder of the optical communication apparatus.
JP2009088386A 2009-03-31 2009-03-31 Image processing program and image processing apparatus Expired - Fee Related JP5262929B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009088386A JP5262929B2 (en) 2009-03-31 2009-03-31 Image processing program and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009088386A JP5262929B2 (en) 2009-03-31 2009-03-31 Image processing program and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2010238196A JP2010238196A (en) 2010-10-21
JP5262929B2 true JP5262929B2 (en) 2013-08-14

Family

ID=43092419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009088386A Expired - Fee Related JP5262929B2 (en) 2009-03-31 2009-03-31 Image processing program and image processing apparatus

Country Status (1)

Country Link
JP (1) JP5262929B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6080336B2 (en) 2010-10-25 2017-02-15 矢崎総業株式会社 Electric wire / cable
JP5620889B2 (en) * 2011-08-04 2014-11-05 日立Geニュークリア・エナジー株式会社 Information transmission system
JP5751321B2 (en) 2013-12-26 2015-07-22 富士ゼロックス株式会社 Information processing apparatus and information processing program
JP6508730B2 (en) * 2016-12-16 2019-05-08 Necプラットフォームズ株式会社 Light emission marker device, marker detection device, transmission system, marker light emission method, marker detection method, and program
WO2018154902A1 (en) * 2017-02-22 2018-08-30 ソニー株式会社 Information processing device, information processing method, and program
JP7124852B2 (en) * 2020-07-30 2022-08-24 カシオ計算機株式会社 Teaching data generation method, teaching data generation device and program
JP7408728B1 (en) 2022-06-27 2024-01-05 デジタル・アドバタイジング・コンソーシアム株式会社 Information processing equipment, information processing methods, programs and systems

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4868217B2 (en) * 2006-01-25 2012-02-01 ソニー株式会社 Imaging apparatus and method, recording medium, and program
JP4973299B2 (en) * 2007-01-19 2012-07-11 ソニー株式会社 Optical communication apparatus and optical communication method

Also Published As

Publication number Publication date
JP2010238196A (en) 2010-10-21

Similar Documents

Publication Publication Date Title
JP5262929B2 (en) Image processing program and image processing apparatus
US20220414713A1 (en) Information collection system, electronic shelf label, electronic pop advertising, and character information display device
JP6562077B2 (en) Exhibition device, display control device, and exhibition system
US10360572B2 (en) Image processing system, method and computer program product for evaluating level of interest based on direction of human action
US20150324635A1 (en) Methods, systems, and apparatuses for visitor monitoring
KR101157597B1 (en) Mobile terminal and method for forming human network using mobile terminal
CN109961472B (en) Method, system, storage medium and electronic device for generating 3D thermodynamic diagram
CN105122287B (en) Coded light device, and product information system comprising such a coded light device
WO2020186520A1 (en) Price tag information display method and device, and shelf system
JP2016130874A (en) Object display system, management device, object display method and management program
JP2015002477A (en) Information processing apparatus, information processing system, and information processing method
KR20120076673A (en) Method and apparatus for providing advertisement serbvice in mobile communication system
JP4735242B2 (en) Gaze target object identification device
JP4964833B2 (en) Information presentation control apparatus and information presentation control method
JP2006074822A (en) Monitored video delivery method, monitored video delivering apparatus, and monitored video delivery system
JP2005327184A (en) Information providing system and information providing method
JP6112156B2 (en) Behavior analysis apparatus and behavior analysis program
JP4279181B2 (en) Monitoring system
JP2019079127A (en) Customer management program, container, feature extraction program, customer management method, feature extraction method and information processing apparatus
CN112987916A (en) Automobile exhibition stand interaction system and method
KR20220009808A (en) Customized content creation method and computer program
US9864890B1 (en) Systems and methods for contextualizing data obtained from barcode images
JP2007074330A (en) Person monitoring system and program
JP2005130465A (en) Imaging device, information storage server, and article identification apparatus
US20240135411A1 (en) Display control device, display control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130415

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees