JP6268722B2 - Display device, display method, and program - Google Patents

Display device, display method, and program Download PDF

Info

Publication number
JP6268722B2
JP6268722B2 JP2013044251A JP2013044251A JP6268722B2 JP 6268722 B2 JP6268722 B2 JP 6268722B2 JP 2013044251 A JP2013044251 A JP 2013044251A JP 2013044251 A JP2013044251 A JP 2013044251A JP 6268722 B2 JP6268722 B2 JP 6268722B2
Authority
JP
Japan
Prior art keywords
person
attribute
image
line
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013044251A
Other languages
Japanese (ja)
Other versions
JP2014175704A (en
Inventor
宮川 博
博 宮川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013044251A priority Critical patent/JP6268722B2/en
Publication of JP2014175704A publication Critical patent/JP2014175704A/en
Application granted granted Critical
Publication of JP6268722B2 publication Critical patent/JP6268722B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、表示装置、表示方法、及び、プログラムに関する。   The present invention relates to a display device, a display method, and a program.

特許文献1には、デジタルサイネージシステムが開示されている。   Patent Document 1 discloses a digital signage system.

特許文献2には、ユーザが任意に決定するコメントを表示するためのコメント画像(吹き出し画像)を、人物の顔を被写体とする対象画像に配置するコメントレイアウト装置が開示されている。当該コメントレイアウト装置は、対象画像の画像データを取得する画像データ取得部と、画像データを解析して、対象画像における人物の顔の画像領域を認識する画像領域認識部と、人物の顔の画像領域に対応する画像データを解析して、人物の顔の特徴を推定する特徴推定部と、特徴の推定結果を用いて、コメント画像(吹き出し画像)の形態を決定する形態決定部と、決定された形態を有するコメント画像(吹き出し画像)を、対象画像に対応付けて配置するコメントは一部と、を備える。   Patent Document 2 discloses a comment layout device that arranges a comment image (balloon image) for displaying a comment arbitrarily determined by a user on a target image having a human face as a subject. The comment layout device includes an image data acquisition unit that acquires image data of a target image, an image region recognition unit that analyzes the image data and recognizes an image region of a person's face in the target image, and an image of the person's face A feature estimator that analyzes image data corresponding to the region and estimates a facial feature of the person, and a form determiner that determines the form of the comment image (speech image) using the feature estimation result; The comment that arranges the comment image (balloon image) having the above form in association with the target image includes a part.

特開2012−226017号公報JP 2012-2226017 A 特開2007−122533号公報JP 2007-122533 A

本願発明者は、撮像した人物(通行人等)をデジタルサイネージのディスプレイに表示する技術を検討した。自分やその時に自分がいる場所の景色がデジタルサイネージに表示されていると、人はそれに強い関心を持つと考えられる。しかし、単に撮像画像をディスプレイに表示するだけでは、すぐにあきられてしまう。また、人の興味を引く度合も比較的低くなる。   The inventor of the present application examined a technique for displaying a photographed person (passerby or the like) on a display of digital signage. If the scenery of you and where you are at that time is displayed on digital signage, people are likely to have a strong interest in it. However, if the captured image is simply displayed on the display, it is immediately lost. Also, the degree to which people are interested is relatively low.

特許文献1はこのような利用形態、課題及びその解決手段を開示していない。特許文献2はデジタルサイネージに関する技術ではない。   Patent Document 1 does not disclose such usage, problems, and solutions. Patent Document 2 is not a technique related to digital signage.

本願発明は、撮像した人物をディスプレイに表示するデジタルサイネージに対する人の関心度を高めるための技術を提供することを課題とする。   This invention makes it a subject to provide the technique for raising the human interest degree with respect to the digital signage which displays the imaged person on a display.

本発明によれば、
撮像装置と、
前記撮像装置が撮像した画像から人物を抽出する人物抽出手段と、
前記人物抽出手段により抽出された人物の属性を、前記画像を利用して推定する人物属性推定手段と、
前記人物属性推定手段により推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定手段と、
前記画像内の前記人物に、前記台詞決定手段が決定した前記台詞を付与する加工画像を生成する画像加工手段と、
前記加工画像をディスプレイに表示する表示手段と、
を有し、
前記撮像装置は、終点に向かって一方向に人物を移動させる輸送手段により移動中の人物を撮像可能な位置に設置され、
前記ディスプレイは前記輸送手段の終点付近、又は、前記一方向における前記撮像装置により撮像される位置よりも下流側に設置される表示装置が提供される
According to the present invention,
An imaging device;
Person extraction means for extracting a person from an image captured by the imaging device;
Person attribute estimation means for estimating the attribute of the person extracted by the person extraction means using the image;
Using the attribute estimated by the person attribute estimating means, a line determining means for determining a line to be given to the person of the attribute;
Image processing means for generating a processed image for giving the line determined by the line determination means to the person in the image;
Display means for displaying the processed image on a display;
I have a,
The imaging device is installed at a position where a moving person can be imaged by a transportation means that moves the person in one direction toward the end point,
A display device is provided in which the display is installed near the end point of the transportation means or on the downstream side of the position taken by the imaging device in the one direction .

また、本発明によれば、
コンピュータを、
撮像装置が撮像した画像から人物を抽出する人物抽出手段、
前記人物抽出手段により抽出された人物の属性を、前記画像を利用して推定する人物属性推定手段、
前記人物属性推定手段により推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定手段、
前記画像内の前記人物に、前記台詞決定手段が決定した前記台詞を付与する加工画像を生成する画像加工手段、
前記加工画像をディスプレイに表示する表示手段、
として機能させ、
前記撮像装置は、終点に向かって一方向に人物を移動させる輸送手段により移動中の人物を撮像可能な位置に設置され、
前記ディスプレイは前記輸送手段の終点付近、又は、前記一方向における前記撮像装置により撮像される位置よりも下流側に設置されるプログラムが提供される
Moreover, according to the present invention,
Computer
Person extracting means for extracting a person from an image captured by the imaging device;
Person attribute estimation means for estimating the attribute of the person extracted by the person extraction means using the image;
Using the attribute estimated by the person attribute estimating means, a line determining means for determining a line to be given to the person of the attribute;
Image processing means for generating a processed image for giving the line determined by the line determining means to the person in the image;
Display means for displaying the processed image on a display;
Function as
The imaging device is installed at a position where a moving person can be imaged by a transportation means that moves the person in one direction toward the end point,
The display is provided with a program installed near the end point of the transportation means or on the downstream side of the position taken by the imaging device in the one direction .

また、本発明によれば、
コンピュータが、
撮像装置が撮像した画像から人物を抽出する人物抽出ステップと、
前記人物抽出ステップで抽出された人物の属性を、前記画像を利用して推定する人物属性推定ステップと、
前記人物属性推定ステップで推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定ステップと、
前記画像内の前記人物に、前記台詞決定ステップで決定した前記台詞を付与する加工画像を生成する画像加工ステップと、
前記加工画像をディスプレイに表示する表示ステップと、
を実行し、
前記撮像装置は、終点に向かって一方向に人物を移動させる輸送手段により移動中の人物を撮像可能な位置に設置され、
前記ディスプレイは前記輸送手段の終点付近、又は、前記一方向における前記撮像装置により撮像される位置よりも下流側に設置される表示方法が提供される。
Moreover, according to the present invention,
Computer
A person extracting step of extracting a person from the image captured by the imaging device;
A person attribute estimation step of estimating the attribute of the person extracted in the person extraction step using the image;
Using the attribute estimated in the person attribute estimation step, a line determination step for determining a line to be given to the person of the attribute;
An image processing step for generating a processed image for giving the line determined in the line determination step to the person in the image;
A display step of displaying the processed image on a display;
Run
The imaging device is installed at a position where a moving person can be imaged by a transportation means that moves the person in one direction toward the end point,
There is provided a display method in which the display is installed in the vicinity of the end point of the transportation means or on the downstream side of the position taken by the imaging device in the one direction.

本発明によれば、撮像した人物をディスプレイに表示するデジタルサイネージに対する人の関心度を高めることが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to raise a person's interest degree with respect to the digital signage which displays the imaged person on a display.

本実施形態の表示装置の機能ブロック図の一例を示す図である。It is a figure which shows an example of the functional block diagram of the display apparatus of this embodiment. 本実施形態の表示方法の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process of the display method of this embodiment. 本実施形態の撮像装置が撮像した画像の一例を示す図である。It is a figure which shows an example of the image which the imaging device of this embodiment imaged. 本実施形態の表示部が加工画像を表示した一例を示す図である。It is a figure which shows an example in which the display part of this embodiment displayed the process image. 本実施形態の表示装置の利用場面の一例を示す図である。It is a figure which shows an example of the utilization scene of the display apparatus of this embodiment. 本実施形態の表示装置の利用場面の一例を示す図である。It is a figure which shows an example of the utilization scene of the display apparatus of this embodiment. 本実施形態の表示装置の利用場面の一例を示す図である。It is a figure which shows an example of the utilization scene of the display apparatus of this embodiment. 本実施形態の表示装置の機能ブロック図の一例を示す図である。It is a figure which shows an example of the functional block diagram of the display apparatus of this embodiment. 本実施形態の台詞情報記憶部が記憶する情報の一例を示す図である。It is a figure which shows an example of the information which the dialogue information storage part of this embodiment memorize | stores. 本実施形態の台詞情報記憶部が記憶する情報の一例を示す図である。It is a figure which shows an example of the information which the dialogue information storage part of this embodiment memorize | stores. 本実施形態の台詞決定部が記憶することができる情報の一例を示す図である。It is a figure which shows an example of the information which the dialog determination part of this embodiment can memorize | store. 本実施形態の台詞決定部が記憶することができる情報の一例を示す図である。It is a figure which shows an example of the information which the dialog determination part of this embodiment can memorize | store. 本実施形態の台詞決定部が記憶することができる情報の一例を示す図である。It is a figure which shows an example of the information which the dialog determination part of this embodiment can memorize | store. 本実施形態の表示装置の機能ブロック図の一例を示す図である。It is a figure which shows an example of the functional block diagram of the display apparatus of this embodiment. 本実施形態の台詞情報記憶部が記憶する情報の一例を示す図である。It is a figure which shows an example of the information which the dialogue information storage part of this embodiment memorize | stores. 本実施形態の台詞情報記憶部が記憶する情報の一例を示す図である。It is a figure which shows an example of the information which the dialogue information storage part of this embodiment memorize | stores. 本実施形態の表示方法の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process of the display method of this embodiment. 本実施形態の撮像装置が撮像した画像の一例を示す図である。It is a figure which shows an example of the image which the imaging device of this embodiment imaged. 本実施形態の表示部が加工画像を表示した一例を示す図である。It is a figure which shows an example in which the display part of this embodiment displayed the process image. 本実施形態の表示装置の機能ブロック図の一例を示す図である。It is a figure which shows an example of the functional block diagram of the display apparatus of this embodiment. 本実施形態の加工情報記憶部が記憶する情報の一例を示す図である。It is a figure which shows an example of the information which the process information storage part of this embodiment memorize | stores. 本実施形態の表示部が加工画像を表示した一例を示す図である。It is a figure which shows an example in which the display part of this embodiment displayed the process image.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

なお、本実施形態の装置は、任意のコンピュータのCPU、メモリ、メモリにロードされたプログラム(あらかじめ装置を出荷する段階からメモリ内に格納されているプログラムのほか、CD等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムも含む)、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インタフェイスを中心にハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。   The apparatus according to the present embodiment includes an arbitrary computer CPU, memory, and a program loaded in the memory (a program stored in the memory in advance from the stage of shipping the apparatus, a storage medium such as a CD, and the like on the Internet). And a storage unit such as a hard disk for storing the program, and a network connection interface, and any combination of hardware and software. It will be understood by those skilled in the art that there are various modifications to the implementation method and apparatus.

また、本実施形態の説明において利用する機能ブロック図は、ハードウェア単位の構成ではなく、機能単位のブロックを示している。これらの図においては、各装置は1つの機器により実現されるよう記載されているが、その実現手段はこれに限定されない。すなわち、物理的に分かれた構成であっても、論理的に分かれた構成であっても構わない。   In addition, the functional block diagram used in the description of the present embodiment shows a functional unit block, not a hardware unit configuration. In these drawings, each device is described as being realized by one device, but the means for realizing it is not limited to this. That is, it may be a physically separated configuration or a logically separated configuration.

<第1の実施形態>
まず、本実施形態の概要について説明する。
本実施形態の表示装置は、撮像した人物(通行人等)をディスプレイに表示するデジタルサイネージとして利用することができる。本実施形態の表示装置は、撮像した人物をディスプレイに表示する際、撮像した画像をそのまま表示するのでなく、所定の台詞を画像中の人物に付与した加工画像(当該人物が発言しているような加工)を表示する。これにより、表示画像に対する人の関心度を高めることができるほか、コメント内容を工夫すれば広告媒体としても利用できる。しかし、人物に付与される台詞がいつも同じであれば、表示画像に対する人の関心度は十分なものとなり得ない。
<First Embodiment>
First, an outline of the present embodiment will be described.
The display device of this embodiment can be used as a digital signage that displays a captured person (passerby or the like) on a display. The display device according to the present embodiment does not display the captured image as it is when the captured person is displayed on the display, but a processed image in which a predetermined dialogue is given to the person in the image (the person seems to speak) Display). As a result, the degree of interest of the person with respect to the display image can be increased, and if the comment content is devised, it can be used as an advertising medium. However, if the dialogue given to a person is always the same, the degree of interest of the person with respect to the display image cannot be sufficient.

そこで、本実施形態の表示装置は、撮像した人物(画像の中に存在する人物)の属性(性別、年齢層、人種、表情等)を推定し、推定した属性に応じた台詞をその人物に付与する。このような本実施形態の表示装置によれば、ディスプレイに表示される人物の属性に応じて、各人物に付与される台詞が変化する。結果、表示画像に対する人の関心度が向上することが期待される。   Therefore, the display device according to the present embodiment estimates the attributes (gender, age group, race, facial expression, etc.) of the imaged person (the person existing in the image), and displays the dialogue according to the estimated attribute. To grant. According to such a display device of the present embodiment, the dialogue given to each person changes according to the attribute of the person displayed on the display. As a result, it is expected that the degree of human interest in the display image is improved.

以下、本実施形態の表示装置の構成について詳細に説明する。
図1に、本実施形態の表示装置1の機能ブロック図の一例を示す。図示するように、表示装置1は、撮像装置10と、人物抽出部11と、人物属性推定部12と、台詞決定部13と、画像加工部14と、表示部15とを有する。
Hereinafter, the configuration of the display device of the present embodiment will be described in detail.
FIG. 1 shows an example of a functional block diagram of the display device 1 of the present embodiment. As illustrated, the display device 1 includes an imaging device 10, a person extraction unit 11, a person attribute estimation unit 12, a dialogue determination unit 13, an image processing unit 14, and a display unit 15.

撮像装置10は、動画像及び/又は静止画像を撮像する。撮像装置10は、所定の場所に設置され、連続的に又は所定のタイミング(例:所定の時間おき、撮像エリア内に人を感知したタイミング等)で、所定のエリア内の画像を撮像する。設置場所は特段制限されず、駅、空港等の公共エリアであってもよいし、スーパー、ショッピングモール、娯楽施設等であってもよい。   The imaging device 10 captures a moving image and / or a still image. The imaging device 10 is installed at a predetermined location, and captures an image in the predetermined area continuously or at a predetermined timing (for example, at a predetermined time, when a person is detected in the imaging area). The installation location is not particularly limited, and may be a public area such as a station or an airport, or may be a supermarket, a shopping mall, an entertainment facility, or the like.

人物抽出部11は、撮像装置10が撮像した画像から人物を抽出する。人物属性推定部12は、人物抽出部11により抽出された人物の属性(例:性別、年齢層、人種、表情の中の少なくとも1つ等)を、画像を利用して推定する。人物抽出部11及び人物属性推定部12によるこれらの処理を実現する手段は特段制限されないが、例えば、周知の顔認識技術を利用して実現してもよい。このような技術は、例えば、特開2007−880057号公報に開示されている。なお、人物抽出部11及び人物属性推定部12の構成は、当該文献に記載されているものに限定されない。   The person extraction unit 11 extracts a person from the image captured by the imaging device 10. The person attribute estimation unit 12 estimates an attribute of the person (eg, at least one of sex, age group, race, facial expression, etc.) extracted by the person extraction unit 11 using an image. Means for realizing these processes by the person extraction unit 11 and the person attribute estimation unit 12 are not particularly limited, but may be realized by using, for example, a well-known face recognition technique. Such a technique is disclosed in, for example, Japanese Patent Application Laid-Open No. 2007-880057. In addition, the structure of the person extraction part 11 and the person attribute estimation part 12 is not limited to what is described in the said literature.

台詞決定部13は、人物属性推定部12により推定された属性(例:性別、年齢層、人種、表情の中の少なくとも1つ等)を用いて、その属性の人物に付与する台詞を決定する。台詞決定部13は、互いに属性が異なる人物に対して、互いに異なる台詞を決定することができる。すなわち、台詞決定部13は、属性に応じた様々な内容の台詞を決定することができる。   The line determination unit 13 determines a line to be given to a person with the attribute using the attribute estimated by the person attribute estimation unit 12 (eg, at least one of gender, age group, race, facial expression, etc.). To do. The line determination unit 13 can determine different lines for persons having different attributes. That is, the dialogue determination unit 13 can determine dialogues having various contents according to the attributes.

例えば、台詞決定部13は、ある属性の人物に付与する台詞を、その属性の人物の発言として違和感のない内容にすることができる。一例として、人物の属性にあった口調の台詞とすることができる。ある商品「オランジーザス」のプロモーションを目的とした台詞とする場合、男性には男口調の台詞「オランジーザス飲みてぇ―!」等を決定し、女性には女口調の台詞「オランジーザス飲みたいな〜!」等を決定してもよい。その他、性別、年齢層、人種、その時のその人物の表情にあった口調及び/又は内容の台詞を決定することができる。   For example, the line determination unit 13 can make a line given to a person with a certain attribute content that does not feel uncomfortable as a statement of the person with that attribute. As an example, it can be a speech line that matches the attributes of a person. If you want to promote a certain product “Orangesas”, you ’ll decide on a man ’s tone “Orange Jesus”! ~! "Etc. may be determined. In addition, it is possible to determine the gender, age group, race, tone of the person's expression at that time and / or dialogue of the content.

その他の例として、台詞決定部13は、ある属性の人物に付与する台詞を、その属性の人物が興味を抱く内容とすることができる。人は、自分自身が表示されている表示画像に興味を持つと考えられる。このため、ある人物に台詞を付与した加工画像は、高い確率でその人物自身に閲覧される事が期待される。そして、その人物に付与している台詞がその人物に興味を抱かせるものであれば、表示画像に対するその人物の関心度はさらに高まると考えられる。台詞決定部13は、その人物の推定された属性(例:性別、年齢層、人種、表情の少なくとも1つなど)に基づいてその人物に付与する台詞を決定することができるので、高い確率で、その属性の人物が興味を抱く内容とすることができる。例えば、中年男性には「ゴルフショップAがセール中!」等を決定してもよい。   As another example, the line determination unit 13 can set a line to be given to a person with a certain attribute as a content in which the person with that attribute is interested. A person is considered interested in a display image on which he is displayed. For this reason, it is expected that a processed image in which a dialogue is given to a certain person is viewed by the person with a high probability. If the dialogue given to the person makes the person interested, it is considered that the person's interest in the display image is further increased. Since the line determination unit 13 can determine the line to be given to the person based on the estimated attribute of the person (eg, at least one of gender, age group, race, facial expression, etc.), a high probability Thus, it can be made contents that the person of the attribute is interested in. For example, “Golf shop A is on sale!” May be determined for middle-aged men.

画像加工部14は、画像内の人物に、台詞決定部13が決定した台詞を付与する加工画像を生成する。画像加工部14は、例えば、吹き出し画像等のような台詞の付与に使用される画像(以下、「台詞付与画像」)のデータ(以下、「台詞付与画像データ」)を予め保持しておき、当該台詞付与画像データを利用して、撮像装置10が撮像した画像中に所定の台詞を付与する加工画像を生成することができる。加工画像のデータは、撮像装置10が撮像した画像のデータとは別の画像データであって、撮像装置10が撮像した画像と重ねて台詞付与画像及び台詞をディスプレイに表示するためのデータであってもよい。または、加工画像のデータは、撮像装置10が撮像した画像のデータを一部修正し、画像内の所定の位置に台詞付与画像及び台詞が表示されるように改変された画像データであってもよい。   The image processing unit 14 generates a processed image that gives the person in the image the line determined by the line determination unit 13. For example, the image processing unit 14 stores in advance data (hereinafter, “line-granted image data”) of an image (hereinafter, “line-granted image data”) used to give a line such as a speech balloon image, Using the dialogue giving image data, it is possible to generate a processed image that gives a predetermined dialogue in an image captured by the imaging device 10. The processed image data is image data different from the image data captured by the imaging device 10 and is data for displaying a dialogue-giving image and dialogue on the display so as to overlap the image captured by the imaging device 10. May be. Alternatively, the processed image data may be image data that has been modified so that a part of the image data captured by the imaging device 10 is partially modified so that the dialogue-given image and dialogue are displayed at predetermined positions in the image. Good.

撮像装置10が撮像した画像内において画像内台詞付与画像を配置する位置は、周知の顔認識技術で特定された画像中の人物の顔の位置に基づいて決定することができる。   The position where the in-image dialogue-added image is arranged in the image captured by the imaging device 10 can be determined based on the position of the person's face in the image specified by a known face recognition technique.

表示部15は、画像加工部14が生成した加工画像をディスプレイに表示する。加工画像のデータと撮像装置10が撮像した画像のデータとが別の画像データである場合、表示部15は、これら両方のデータを利用し、撮像装置10が撮像した画像上の所定の位置に、加工画像に含まれる台詞付与画像及び台詞を重畳した画像をディスプレイに表示する。なお、加工画像のデータが、撮像装置10が撮像した画像のデータを一部修正し、画像内の所定の位置に台詞付与画像及び台詞が表示されるように改変された画像データである場合、表示部15はその画像データを利用して画像をディスプレイに表示する。表示部15は、加工画像として、静止画像をディスプレイに表示してもよいし、動画像をディスプレイに表示してもよい。   The display unit 15 displays the processed image generated by the image processing unit 14 on the display. When the processed image data and the image data captured by the imaging device 10 are different image data, the display unit 15 uses both of these data and places the processed image data at a predetermined position on the image captured by the imaging device 10. The dialogue application image included in the processed image and the image on which the dialogue is superimposed are displayed on the display. When the processed image data is image data that has been modified so that a part of the data of the image captured by the imaging device 10 is corrected and the dialogue-given image and dialogue are displayed at a predetermined position in the image, The display unit 15 displays an image on the display using the image data. The display unit 15 may display a still image on the display as a processed image, or may display a moving image on the display.

図2は、本実施形態の表示方法の処理の流れの一例を示すフローチャートである。
例えば、撮像装置10が図3に示す画像を撮像(取得)すると(S1)、人物抽出部11は、撮像装置が撮像した画像から人物を抽出する(S2)。その後、人物属性推定部12は、人物抽出部11により抽出された人物の属性を、画像を利用して推定する(S3)。次いで、台詞決定部13は、人物属性推定部12により推定された属性を用いて、その属性の人物に付与する台詞を決定する(S4)。その後、画像加工部14は、画像内の人物に、台詞決定部13が決定した台詞を付与する加工画像を生成する(S5)。そして、表示部15は、画像加工部14が生成した加工画像をディスプレイに表示する(S6)。図4に、表示部15がディスプレイ300に表示した画像の一例を示す。なお、当該構成を動画像で実現する場合は、S2で抽出した人物の画像内の位置を追跡し、人物の位置の移動に合わせて、台詞の位置を変更させる。
FIG. 2 is a flowchart showing an example of the processing flow of the display method of the present embodiment.
For example, when the imaging device 10 captures (acquires) the image shown in FIG. 3 (S1), the person extraction unit 11 extracts a person from the image captured by the imaging device (S2). Thereafter, the person attribute estimation unit 12 estimates the attribute of the person extracted by the person extraction unit 11 using an image (S3). Next, the line determination unit 13 determines a line to be given to the person with the attribute using the attribute estimated by the person attribute estimation unit 12 (S4). Thereafter, the image processing unit 14 generates a processed image that gives the person in the image the line determined by the line determination unit 13 (S5). Then, the display unit 15 displays the processed image generated by the image processing unit 14 on the display (S6). FIG. 4 shows an example of an image displayed on the display 300 by the display unit 15. When the configuration is realized by a moving image, the position in the person image extracted in S2 is tracked, and the position of the dialogue is changed in accordance with the movement of the person position.

以上説明した本実施形態の表示装置によれば、画像内に表示されている人物の属性に応じて、その人物に付与する台詞を決定することができる。すなわち、人物の属性に応じた様々な内容の台詞を表示させることができる。このため、人物に付与される台詞が毎回同じとなることがない。このような本実施形態の表示装置によれば、表示される画像に対する人の関心度を高めることが可能となる。   According to the display device of the present embodiment described above, the dialogue to be given to the person can be determined according to the attribute of the person displayed in the image. That is, dialogues with various contents according to the attributes of the person can be displayed. For this reason, the line given to a person does not become the same every time. According to such a display device of the present embodiment, it is possible to increase the degree of human interest in the displayed image.

また、本実施形態の表示装置によれば、ある属性の人物に付与する台詞を、その属性の人物の発言内容として違和感のないものとすることができる。例えば、男性には男言葉の台詞を決定し、女性には女言葉の台詞を決定することができる。その他、年齢層、人種、その時のその人物の表情にあった口調及び/又は内容の台詞を決定することができる。   Further, according to the display device of the present embodiment, the dialogue given to a person with a certain attribute can be made uncomfortable as the content of the remark of the person with that attribute. For example, a man's dialogue can be determined for men and a woman's dialogue for women. In addition, it is possible to determine the speech of the age group, race, tone and / or content according to the facial expression of the person at that time.

その他、本実施形態の表示装置によれば、ある属性の人物に付与する台詞を、その属性の人物が興味を抱く内容とすることができる。人は、自分自身が表示されている表示画像に興味を持つと考えられる。このため、ある人物に台詞を付与した加工画像は、高い確率でその人物自身に閲覧される事が期待される。画像内でその人物に付与されている台詞がその人物に興味を抱かせるものであれば、その人物の関心度はさらに高まることが期待される。   In addition, according to the display device of the present embodiment, the dialogue to be given to a person with a certain attribute can be content that the person with that attribute is interested in. A person is considered interested in a display image on which he is displayed. For this reason, it is expected that a processed image in which a dialogue is given to a certain person is viewed by the person with a high probability. If the dialogue given to the person in the image makes the person interested, it is expected that the degree of interest of the person will further increase.

<第2の実施形態>
本実施形態では、第1の実施形態の表示装置1の適用場面の一例を示す。
<Second Embodiment>
In this embodiment, an example of an application scene of the display device 1 of the first embodiment is shown.

<適用例1>
本適用例では、一方向に人物を輸送する輸送手段の近辺に撮像装置10及び表示部15のディスプレイを設置して、第1の実施形態の表示装置を利用する。
<Application example 1>
In this application example, the display device of the first embodiment is used by installing the imaging device 10 and the display unit 15 in the vicinity of a transportation means for transporting a person in one direction.

図5に一例を示す。当該例では、終点に向かって一方向に人物を移動させるエスカレータ400の近辺に、撮像装置100(撮像装置10)及びディスプレイ300(表示部15)が設置されている。撮像装置100は、エスカレータ400により移動中の人物を撮像可能な位置に設置されている。そして、ディスプレイ300は、エスカレータ400の終点付近に設置されている。なお、ディスプレイ300の設置位置は必ずしもエスカレータ400の終点付近である必要はなく、エスカレータ400の移動方向における、撮像装置100により撮像される位置よりも下流側の任意の位置に設置することができる。撮像装置100及びディスプレイ300の具体的な設置位置及び設置方法は設計的事項である。   An example is shown in FIG. In this example, the imaging device 100 (imaging device 10) and the display 300 (display unit 15) are installed in the vicinity of an escalator 400 that moves a person in one direction toward the end point. The imaging apparatus 100 is installed at a position where a person who is moving by the escalator 400 can be imaged. The display 300 is installed near the end point of the escalator 400. Note that the installation position of the display 300 is not necessarily near the end point of the escalator 400, and can be installed at an arbitrary position downstream of the position captured by the imaging apparatus 100 in the moving direction of the escalator 400. Specific installation positions and installation methods of the imaging apparatus 100 and the display 300 are design matters.

撮像装置100、制御装置200、ディスプレイ300は互いに有線及び/又は無線で接続されており、撮像装置100が撮像した画像や画像加工部14が生成した加工画像がディスプレイ300に表示可能になっている。制御装置200には、人物抽出部11、人物属性推定部12、台詞決定部13及び画像加工部14が含まれる。なお、制御装置200及びディスプレイ300は、同一の筺体内に設けられてもよい。   The imaging device 100, the control device 200, and the display 300 are connected to each other by wire and / or wireless, and an image captured by the imaging device 100 and a processed image generated by the image processing unit 14 can be displayed on the display 300. . The control device 200 includes a person extraction unit 11, a person attribute estimation unit 12, a line determination unit 13, and an image processing unit 14. Note that the control device 200 and the display 300 may be provided in the same casing.

本適用例の場合、撮像装置100が撮像した画像をリアルタイムにディスプレイ300に表示すると、撮像した人物がその画像を閲覧できなくなる。そこで、本適用例では、撮像装置100が撮像した画像をリアルタイムにディスプレイ300に表示するのでなく、撮像時から所定時間(例:3秒、5秒、10秒等)経過後に、ディスプレイ300に表示することができる。所定時間は、撮像装置100で撮像された人物がディスプレイ300の辺りまで移動するのに要する予測時間とすることができる。この予測時間は、エスカレータ400の移動速度、撮像装置100とディスプレイ300間の距離等に基づいて決定することができる。   In the case of this application example, when an image captured by the image capturing apparatus 100 is displayed on the display 300 in real time, the captured person cannot view the image. Therefore, in this application example, the image captured by the imaging apparatus 100 is not displayed on the display 300 in real time, but is displayed on the display 300 after a predetermined time (eg, 3 seconds, 5 seconds, 10 seconds, etc.) has elapsed since the time of imaging. can do. The predetermined time can be an estimated time required for the person imaged by the imaging apparatus 100 to move to the vicinity of the display 300. This estimated time can be determined based on the moving speed of the escalator 400, the distance between the imaging device 100 and the display 300, and the like.

本適用例によれば、第1の実施形態と同様の作用効果を実現することができる。また、撮像した人物に加工画像を閲覧される確率を高めることができる。   According to this application example, it is possible to achieve the same effect as that of the first embodiment. In addition, it is possible to increase the probability that the processed person can view the processed image.

<適用例2>
本適用例も、一方向に人物を輸送する輸送手段の近辺に撮像装置10及び表示部15のディスプレイを設置して、第1の実施形態の表示装置を利用する。
<Application example 2>
In this application example, the display of the imaging device 10 and the display unit 15 is installed in the vicinity of the transportation means for transporting a person in one direction, and the display device of the first embodiment is used.

図6に一例を示す。当該例では、終点に向かって一方向に人物を移動させる動く歩道500の近辺に、撮像装置100(撮像装置10)及びディスプレイ300(表示部15)が設置されている。撮像装置100は、動く歩道500により移動中の人物を撮像可能な位置に設置されている。そして、ディスプレイ300は、動く歩道500の終点付近に設置されている。なお、ディスプレイ300の設置位置は必ずしも動く歩道500の終点付近である必要はなく、動く歩道500の移動方向における、撮像装置100により撮像される位置よりも下流側の任意の位置に設置することができる。撮像装置100及びディスプレイ300の具体的な設置位置及び設置方法は設計的事項である。   An example is shown in FIG. In this example, the imaging device 100 (imaging device 10) and the display 300 (display unit 15) are installed in the vicinity of a moving sidewalk 500 that moves a person in one direction toward the end point. The imaging apparatus 100 is installed at a position where a moving person can be imaged by a moving sidewalk 500. The display 300 is installed near the end point of the moving sidewalk 500. Note that the installation position of the display 300 is not necessarily near the end point of the moving sidewalk 500, and may be installed at an arbitrary position downstream of the position captured by the imaging device 100 in the moving direction of the moving sidewalk 500. it can. Specific installation positions and installation methods of the imaging apparatus 100 and the display 300 are design matters.

撮像装置100、制御装置200、ディスプレイ300は互いに有線及び/又は無線で接続されており、撮像装置100が撮像した画像や画像加工部14が生成した加工画像がディスプレイ300に表示可能になっている。制御装置200には、人物抽出部11、人物属性推定部12、台詞決定部13及び画像加工部14が含まれる。なお、制御装置200及びディスプレイ300は、同一の筺体内に設けられてもよい。   The imaging device 100, the control device 200, and the display 300 are connected to each other by wire and / or wireless, and an image captured by the imaging device 100 and a processed image generated by the image processing unit 14 can be displayed on the display 300. . The control device 200 includes a person extraction unit 11, a person attribute estimation unit 12, a line determination unit 13, and an image processing unit 14. Note that the control device 200 and the display 300 may be provided in the same casing.

本適用例の場合、撮像装置100が撮像した画像をリアルタイムにディスプレイ300に表示すると、撮像した人物がその画像を閲覧できなくなる。そこで、本適用例では、撮像装置100が撮像した画像をリアルタイムにディスプレイ300に表示するのでなく、撮像時から所定時間(例:3秒、5秒、10秒等)経過後に、ディスプレイ300に表示することができる。所定時間は、撮像装置100で撮像された人物がディスプレイ300の辺りまで移動するのに要する予測時間とすることができる。この予測時間は、動く歩道500の移動速度、撮像装置100とディスプレイ間の距離等に基づいて決定することができる。   In the case of this application example, when an image captured by the image capturing apparatus 100 is displayed on the display 300 in real time, the captured person cannot view the image. Therefore, in this application example, the image captured by the imaging apparatus 100 is not displayed on the display 300 in real time, but is displayed on the display 300 after a predetermined time (eg, 3 seconds, 5 seconds, 10 seconds, etc.) has elapsed since the time of imaging. can do. The predetermined time can be an estimated time required for the person imaged by the imaging apparatus 100 to move to the vicinity of the display 300. The predicted time can be determined based on the moving speed of the moving sidewalk 500, the distance between the imaging device 100 and the display, and the like.

本適用例によれば、第1の実施形態と同様の作用効果を実現することができる。また、撮像した人物に加工画像を閲覧される確率を高めることができる。   According to this application example, it is possible to achieve the same effect as that of the first embodiment. In addition, it is possible to increase the probability that the processed person can view the processed image.

<適用例3>
本適用例では、レストラン、喫茶店等、顧客が一定時間滞在する場所を提供する店舗や施設に撮像装置10及び表示部15のディスプレイを設置して、第1の実施形態の表示装置を利用する。
<Application example 3>
In this application example, the display device of the first embodiment is used by installing the display of the imaging device 10 and the display unit 15 in a store or facility that provides a place where a customer stays for a certain time, such as a restaurant or a coffee shop.

図7に一例を示す。当該例では、レストランのボックス席のテーブル上に、ディスプレイ300(表示部15)が設置されている。撮像装置100(撮像装置10)は、レストランの外部空間であって、当該ボックス席から窓越しに視認できる空間を撮像可能な位置に設置されている。本実施形態の例では、加工画像を閲覧してもらうターゲットは撮像した人物でなく、店舗や施設等の顧客である。撮像装置100及びディスプレイ300の具体的な設置位置及び設置方法は設計的事項である。   An example is shown in FIG. In this example, a display 300 (display unit 15) is installed on a table at a box seat in a restaurant. The imaging device 100 (imaging device 10) is an external space of a restaurant and is installed at a position where a space that can be viewed through a window from the box seat can be imaged. In the example of the present embodiment, the target for viewing the processed image is not the person who captured the image but a customer such as a store or a facility. Specific installation positions and installation methods of the imaging apparatus 100 and the display 300 are design matters.

撮像装置100、制御装置200、ディスプレイ300は互いに有線及び/又は無線で接続されており、撮像装置100が撮像した画像や画像加工部14が生成した加工画像がディスプレイ300に表示可能になっている。制御装置200には、人物抽出部11、人物属性推定部12、台詞決定部13及び画像加工部14が含まれる。なお、制御装置200及びディスプレイ300は、同一の筺体内に設けられてもよい。   The imaging device 100, the control device 200, and the display 300 are connected to each other by wire and / or wireless, and an image captured by the imaging device 100 and a processed image generated by the image processing unit 14 can be displayed on the display 300. . The control device 200 includes a person extraction unit 11, a person attribute estimation unit 12, a line determination unit 13, and an image processing unit 14. Note that the control device 200 and the display 300 may be provided in the same casing.

撮像装置100が撮像した画像はリアルタイムにディスプレイ300に表示されてもよいし、撮像時から所定時間(例:3秒、5秒、10秒等)経過後にディスプレイ300に表示してもよい。   An image captured by the imaging apparatus 100 may be displayed on the display 300 in real time, or may be displayed on the display 300 after a predetermined time (eg, 3 seconds, 5 seconds, 10 seconds, etc.) has elapsed since the time of imaging.

本適用例によれば、第1の実施形態と同様の作用効果を実現することができる。また、ディスプレイ300を閲覧している人物に対して従来ない新たな娯楽を提供することができる。図7の例の場合、レストランのボックス席でリラックスしている顧客は、窓越しに見えるリアルな光景と、その光景に存在する人物に所定の台詞が付与された娯楽的な画像(ディスプレイ300に表示されている画像)とを見比べながら、楽しい時間を過ごすことが可能となる。すなわち、本適用例によれば、ディスプレイ300に表示されている画像に対する顧客の関心度を高めることができる。   According to this application example, it is possible to achieve the same effect as that of the first embodiment. In addition, it is possible to provide a new and unprecedented entertainment for a person browsing the display 300. In the case of the example of FIG. 7, a customer relaxing at a box seat in a restaurant has a realistic sight that can be seen through a window, and an entertaining image in which a predetermined dialogue is given to a person existing in the sight (on the display 300). It is possible to have a good time while comparing with the displayed image. That is, according to this application example, the degree of interest of the customer with respect to the image displayed on the display 300 can be increased.

なお、ここでの例示はあくまで一例であり、表示装置1の適用場面はこれらに限定されない。例えば、ディスプレイ300の前にいる人物を撮像するように撮像装置100を設置してもよい。そして、撮像画像(動画像又は静止画像)を利用して作成した加工画像をリアルタイムにディスプレイ300に表示してもよい。このように構成した場合、加工画像に含まれる人物に自分が表示されている画像を閲覧させることができる。   In addition, the illustration here is an example to the last, and the application scene of the display apparatus 1 is not limited to these. For example, you may install the imaging device 100 so that the person in front of the display 300 may be imaged. Then, a processed image created using the captured image (moving image or still image) may be displayed on the display 300 in real time. When configured in this way, it is possible to allow a person included in the processed image to view an image in which he is displayed.

<第3の実施形態>
本実施形態の表示装置1は、人物の属性に対応付けて台詞を記憶した台詞記憶部17を有し、台詞決定部13は台詞記憶部17に記憶されている情報を利用して台詞を決定する点で、第1及び第2の実施形態と異なる。その他の構成は、第1及び第2の実施形態と同様とすることができる。
<Third Embodiment>
The display device 1 of the present embodiment has a dialogue storage unit 17 that stores dialogue in association with the attributes of a person, and the dialogue determination unit 13 decides dialogue using information stored in the dialogue storage unit 17. This is different from the first and second embodiments. Other configurations can be the same as those in the first and second embodiments.

図8に本実施形態の表示装置1の機能ブロック図の一例を示す。図示するように、表示装置1は、撮像装置10と、人物抽出部11と、人物属性推定部12と、台詞決定部13と、画像加工部14と、表示部15、台詞記憶部17とを有する。撮像装置10、人物抽出部11、人物属性推定部12、画像加工部14及び表示部15の構成は第1及び第2の実施形態と同様である。以下、台詞記憶部17及び台詞決定部13の構成について説明する。   FIG. 8 shows an example of a functional block diagram of the display device 1 of the present embodiment. As illustrated, the display device 1 includes an imaging device 10, a person extraction unit 11, a person attribute estimation unit 12, a line determination unit 13, an image processing unit 14, a display unit 15, and a line storage unit 17. Have. The configurations of the imaging device 10, the person extraction unit 11, the person attribute estimation unit 12, the image processing unit 14, and the display unit 15 are the same as those in the first and second embodiments. Hereinafter, configurations of the dialogue storage unit 17 and the dialogue determination unit 13 will be described.

台詞記憶部17は、人物の属性と、台詞とを対応付けた台詞情報を記憶する。図9に台詞記憶部17が記憶している台詞情報の一例を示す。図示する台詞情報は、性別及び年齢層の組み合わせ毎に、台詞を対応付けている。台詞は、ある商品「オランジーザス」のプロモーションを目的とした台詞となっている。このため、何れの台詞にも「オランジーザス」の単語が含まれている。なお、台詞の内容は設計的事項である。また、図9に示す例の台詞情報は、性別及び年齢層の組み合わせ毎に台詞を対応付けているが、その他の例として、1つの属性毎に台詞を対応付けてもよいし、その他の複数の属性の組み合わせ毎に台詞を対応付けてもよい。   The dialogue storage unit 17 stores dialogue information in which a person attribute is associated with a dialogue. FIG. 9 shows an example of dialogue information stored in the dialogue storage unit 17. In the illustrated dialogue information, dialogue is associated with each combination of gender and age group. The dialogue is for the purpose of promoting a product "Orange Jesus". For this reason, the word “Orange Jesus” is included in any dialogue. The content of dialogue is a design matter. Moreover, although the dialogue information of the example shown in FIG. 9 associates dialogue with each combination of gender and age group, as another example, dialogue may be associated with each attribute, or other plural Dialogue may be associated with each combination of attributes.

台詞決定部13は、人物属性推定部12に推定された属性に対応付けられている台詞を台詞記憶部17から取得し、取得した台詞を、その属性の人物に付与する台詞として決定する。   The line determination unit 13 acquires the line associated with the attribute estimated by the person attribute estimation unit 12 from the line storage unit 17 and determines the acquired line as a line to be given to the person with the attribute.

本実施形態の変形例として、台詞記憶部17は、人物の属性と、時間帯と、台詞とを対応付けた台詞情報を記憶しておいてもよい。図10に台詞記憶部17が記憶している台詞情報の一例を示す。図示する台詞情報は、性別及び年齢層の組み合わせ毎に、時間帯と、台詞とを対応付けている。台詞は、ある商品「オランジーザス」のプロモーションを目的とした台詞であって、対応付けられている時間帯に適した内容となっている。なお、台詞の内容は設計的事項である。また、図10に示す例の台詞情報は、性別及び年齢層の組み合わせ毎に台詞を対応付けているが、その他の例として、1つの属性毎に台詞を対応付けてもよいし、その他の複数の属性の組み合わせ毎に台詞を対応付けてもよい。   As a modification of the present embodiment, the dialogue storage unit 17 may store dialogue information in which a person attribute, a time zone, and a dialogue are associated with each other. FIG. 10 shows an example of dialogue information stored in the dialogue storage unit 17. The dialogue information shown in the figure associates a time zone and dialogue for each combination of gender and age group. The dialogue is for the purpose of promoting a certain product “Orange Jesus” and has contents suitable for the associated time zone. The content of dialogue is a design matter. Moreover, although the dialogue information in the example shown in FIG. 10 associates dialogue with each combination of gender and age group, as another example, dialogue may be associated with each attribute, or other plural Dialogue may be associated with each combination of attributes.

当該変形例の台詞決定部13は、人物属性推定部12に推定された属性を示す情報を取得するとともに、時刻情報を取得する。時刻情報で特定される時刻は、台詞を決定する処理を行う辺りの時刻であればよく、どのタイミングの時刻とするかは設計的事項である。台詞決定部13は、例えば表示装置1内に存在する時計部から所定のタイミング(設計的事項)における現在時刻を示す情報を取得する。そして、台詞決定部13は、人物属性推定部12に推定された属性、及び、取得した時刻情報を含む時間帯に対応付けられている台詞を台詞記憶部17から取得し、取得した台詞を、その属性の人物に付与する台詞として決定する。   The dialogue determination unit 13 of the modification example acquires information indicating the attribute estimated by the person attribute estimation unit 12 and also acquires time information. The time specified by the time information may be a time around the process of determining the dialogue, and it is a design matter to determine the timing of the time. The line determination unit 13 acquires information indicating the current time at a predetermined timing (design matter) from, for example, a clock unit present in the display device 1. Then, the line determination unit 13 acquires the line associated with the attribute estimated by the person attribute estimation unit 12 and the time zone including the acquired time information from the line storage unit 17, and acquires the acquired line. It is determined as a dialogue to be given to a person with that attribute.

本実施形態によれば、第1及び第2の実施形態と同様の作用効果を実現することができる。また、台詞記憶部17が記憶している台詞情報の内容を工夫することで、本実施形態の表示装置1を特定の商品やサービスの公告媒体として利用できる。また、顧客に娯楽を提供する娯楽機器としても利用できる。かかる場合、表示装置1により、そのエリアへの集客効果が期待される。   According to the present embodiment, it is possible to achieve the same effects as those of the first and second embodiments. Further, by devising the content of the dialogue information stored in the dialogue storage unit 17, the display device 1 of the present embodiment can be used as an announcement medium for a specific product or service. It can also be used as an entertainment device for providing entertainment to customers. In such a case, the display device 1 is expected to attract customers to the area.

<第4の実施形態>
本実施形態の表示装置1は、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから所定のコメントを取得し、取得したコメントを台詞として決定する点で、第1乃至第3の実施形態と異なる。その他の構成は、第1乃至第3の実施形態同様とすることができる。
<Fourth Embodiment>
The display device 1 of the present embodiment is the first in that a plurality of users acquire a predetermined comment from a registration server that registers a comment together with their own attribute information for information transmission, and determine the acquired comment as a dialogue. Or different from the third embodiment. Other configurations can be the same as those of the first to third embodiments.

本実施形態の表示装置1の機能ブロック図の一例は、図1で示される。撮像装置10、人物抽出部11、人物属性推定部12、画像加工部14及び表示部15の構成は第1乃至第3の実施形態と同様である。以下、台詞決定部13の構成について説明する。   An example of a functional block diagram of the display device 1 of the present embodiment is shown in FIG. The configurations of the imaging device 10, the person extraction unit 11, the person attribute estimation unit 12, the image processing unit 14, and the display unit 15 are the same as those in the first to third embodiments. Hereinafter, the configuration of the dialogue determination unit 13 will be described.

台詞決定部13は、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、登録されている属性が人物属性推定部12により推定された属性と一致するユーザのコメントを取得し、取得したコメントを、その属性の人物に付与する台詞として決定する。   The dialogue determination unit 13 receives a comment from a user whose registered attribute matches the attribute estimated by the person attribute estimation unit 12 from a registration server in which a plurality of users have registered comments together with their own attribute information for information transmission. And the acquired comment is determined as a dialogue to be given to the person with the attribute.

登録サーバは、いわゆるソーシャルメディアシステムが有するサーバである。当該システムでは、複数のユーザが情報発信のために、自己の属性情報とともにコメントをサーバに登録している。これらのコメントは、インターネット等を通じて一般に公開される。   The registration server is a server included in a so-called social media system. In this system, a plurality of users register comments with their attribute information in the server for information transmission. These comments are open to the public through the Internet.

台詞決定部13の上記構成を実現する手段は特段制限されず、あらゆる従来技術を利用して実現できる。以下、一例を説明するがこれに限定されない。   Means for realizing the above configuration of the line determination unit 13 is not particularly limited, and can be realized using any conventional technique. An example will be described below, but the present invention is not limited to this.

例えば、1つ又は複数の登録サーバ内を検索可能な1つ又は複数の検索サーバをインターネット等のネットワーク上に設けておく。そして、台詞決定部13は、1つ又は複数の検索サーバのアドレス情報を予め保持しておく。   For example, one or more search servers capable of searching in one or more registration servers are provided on a network such as the Internet. Then, the line determination unit 13 holds in advance address information of one or a plurality of search servers.

台詞決定部13は、人物属性推定部12により推定された属性を取得すると、インターネット等のネットワークを介して、当該属性と一致するユーザのコメント要求を検索サーバに送信する。検索サーバはコメント要求を取得すると、その中に含まれる属性をキーとして登録サーバを検索し、そのキーと一致するユーザを特定する。次いで、特定したユーザが登録したコメントの中の任意のコメントを取得する。そして、検索サーバは、取得したコメントを、台詞決定部13に返信する。なお、検索結果としてヒットするコメントが複数ある場合、いずれを選択するかは設計的事項であるが、例えば、登録サーバへの登録時刻が最新のものを選択してもよい。   When the line determination unit 13 acquires the attribute estimated by the person attribute estimation unit 12, the line determination unit 13 transmits a user comment request matching the attribute to the search server via a network such as the Internet. When the search server obtains the comment request, it searches the registration server using the attribute included therein as a key, and identifies a user that matches the key. Next, an arbitrary comment is acquired from the comments registered by the identified user. Then, the search server returns the acquired comment to the line determination unit 13. Note that, when there are a plurality of hit comments as a search result, which one to select is a design matter. For example, the one with the latest registration time in the registration server may be selected.

本実施形態の変形例として、台詞決定部13は、登録サーバから、登録されている属性が人物属性推定部12により推定された属性と一致するユーザのコメントの中の、所定のキーワードを含むコメント(一文)を取得し、取得したコメントを、その属性の人物に付与する台詞として決定してもよい。   As a modification of the present embodiment, the line determination unit 13 includes a comment including a predetermined keyword among user comments in which the registered attribute matches the attribute estimated by the person attribute estimation unit 12 from the registration server. (One sentence) may be acquired, and the acquired comment may be determined as a dialogue to be given to the person with the attribute.

台詞決定部13は、予め所定のキーワードを保持しておいてもよい。所定のキーワードは、例えばある商品「オランジーザス」のプロモーションを目的とする場合、その商品名としてもよい。   The line determination unit 13 may hold a predetermined keyword in advance. The predetermined keyword may be, for example, the name of a product for the purpose of promoting a product “Orange Jesus”.

なお、所定のキーワードは、人物属性推定部12により推定された属性、及び、登録サーバからコメントを取得する時の任意の時刻(設計的事項)の少なくとも一方に基づいて台詞決定部13が決定してもよい。このようにすれば、画像中の人物の属性や時刻に応じて、キーワードを変えることができる。結果、画面表示される台詞のバリエーションが増える。   The predetermined keyword is determined by the dialogue determination unit 13 based on at least one of the attribute estimated by the person attribute estimation unit 12 and an arbitrary time (design matter) when a comment is acquired from the registration server. May be. In this way, the keyword can be changed according to the attribute and time of the person in the image. As a result, the dialogue variations displayed on the screen increase.

台詞決定部13は、例えば図11に示すような情報を保持しておき、当該情報を利用して所定のキーワードを決定してもよい。図11に示す情報は、性別及び年齢層の組み合わせ毎に、キーワードを対応付けている。キーワードは、各属性の人物が一般的に興味を持つと考えられる内容となっている。なお、キーワードの内容は設計的事項である。また、図11に示す例の情報は、性別及び年齢層の組み合わせ毎にキーワードを対応付けているが、その他の例として、1つの属性毎にキーワードを対応付けてもよいし、その他の複数の属性の組み合わせ毎にキーワードを対応付けてもよい。   The line determination unit 13 may hold information as illustrated in FIG. 11, for example, and may determine a predetermined keyword using the information. The information shown in FIG. 11 associates keywords for each combination of gender and age group. The keyword has a content that is considered to be generally interesting to a person with each attribute. The content of the keyword is a design matter. Moreover, although the information of the example shown in FIG. 11 associates a keyword for each combination of gender and age group, as another example, a keyword may be associated with each attribute, A keyword may be associated with each combination of attributes.

台詞決定部13は、人物属性推定部12により推定された属性を取得すると、その属性をキーとして例えば図11に示すような情報を検索し、その属性に対応付けられているキーワードを取得する。なお、図11に示す例の場合、性別及び年齢層の組み合わせ毎に複数のキーワードが対応付けられているが、その中のいずれを選択するかは設計的事項であり、例えばランダムに1つを選択してもよい。   When the line determination unit 13 acquires the attribute estimated by the person attribute estimation unit 12, the line determination unit 13 searches for information as illustrated in FIG. 11 using the attribute as a key, and acquires a keyword associated with the attribute. In the case of the example shown in FIG. 11, a plurality of keywords are associated with each combination of gender and age group. Which one is selected is a design matter, for example, one is randomly selected. You may choose.

その他の例として、台詞決定部13は、例えば図12に示すような情報を保持しておき、当該情報を利用して所定のキーワードを決定してもよい。図12に示す情報は、所定の時間帯毎に、キーワードを対応付けている。キーワードは、各時間帯に適した内容となっている。なお、キーワードの内容は設計的事項である。   As another example, the line determination unit 13 may store information as illustrated in FIG. 12 and determine a predetermined keyword using the information. The information shown in FIG. 12 associates keywords for each predetermined time zone. The keyword has contents suitable for each time zone. The content of the keyword is a design matter.

当該変形例の場合、台詞決定部13は、所定のキーワードを決定する際、時刻情報を取得する。時刻情報で特定される時刻は、所定のキーワードを決定する処理を行う辺りの時刻であればよく、どのタイミングの時刻とするかは設計的事項である。台詞決定部13は、時刻情報を取得すると、その時刻をキーとして例えば図12に示すような情報を検索し、時刻情報で特定される時刻を包含する時間帯に対応付けられているキーワードを取得する。なお、図12に示す例の場合、所定の時間帯毎に複数のキーワードが対応付けられているが、その中のいずれを選択するかは設計的事項であり、例えばランダムに1つを選択してもよい。   In the case of the modification, the line determination unit 13 acquires time information when determining a predetermined keyword. The time specified by the time information may be a time around a process for determining a predetermined keyword, and the timing of the time is a design matter. When the line determination unit 13 acquires time information, the line search unit 13 searches for information such as shown in FIG. 12 using the time as a key, and acquires a keyword associated with a time zone including the time specified by the time information. To do. In the case of the example shown in FIG. 12, a plurality of keywords are associated with each predetermined time period. Which one is selected is a design matter, for example, one is selected at random. May be.

その他の例として、台詞決定部13は、例えば図13に示すような情報を保持しておき、当該情報を利用して所定のキーワードを決定してもよい。図13に示す情報は、性別及び年齢層の組み合わせ毎に、所定の時間帯と、キーワードを対応付けている。キーワードは、各属性の人物がその時間帯に興味を持つと考えられる内容となっている。なお、キーワードの内容は設計的事項である。また、図13に示す例の情報は、性別及び年齢層の組み合わせ毎にキーワードを対応付けているが、その他の例として、1つの属性毎にキーワードを対応付けてもよいし、その他の複数の属性の組み合わせ毎にキーワードを対応付けてもよい。   As another example, the line determination unit 13 may store information as illustrated in FIG. 13, for example, and may determine a predetermined keyword using the information. The information shown in FIG. 13 associates a predetermined time zone with a keyword for each combination of gender and age group. The keyword has a content that a person of each attribute is considered to be interested in that time zone. The content of the keyword is a design matter. Moreover, although the information of the example shown in FIG. 13 associates a keyword for each combination of gender and age group, as another example, a keyword may be associated for each attribute, A keyword may be associated with each combination of attributes.

台詞決定部13は、所定のキーワードを決定する際、時刻情報を取得する。時刻情報で特定される時刻は、所定のキーワードを決定する処理を行う辺りの時刻であればよく、どのタイミングの時刻とするかは設計的事項である。台詞決定部13は、時刻情報を取得すると、その時刻と、人物属性推定部12により推定された属性とをキーとして例えば図13に示すような情報を検索し、その属性と、時刻情報で特定される時刻を包含する時間帯とに対応付けられているキーワードを取得する。   The line determination unit 13 acquires time information when determining a predetermined keyword. The time specified by the time information may be a time around a process for determining a predetermined keyword, and the timing of the time is a design matter. When the line determination unit 13 obtains the time information, the line determination unit 13 searches for information as shown in FIG. 13 using the time and the attribute estimated by the person attribute estimation unit 12 as a key, and specifies the attribute and the time information. A keyword associated with a time zone including the time to be acquired is acquired.

その他の変形例として、ここまでは、台詞決定部13は人物属性推定部12により推定された人物の属性と一致するユーザのコメントを登録サーバから取得することを前提にしていたが、その他の構成とすることもできる。   As other modified examples, the dialog determination unit 13 has been based on the premise that the comment of the user that matches the attribute of the person estimated by the person attribute estimation unit 12 is acquired from the registration server. It can also be.

例えば、台詞決定部13は、登録サーバから、人物属性推定部12により推定された人物の属性に基づいて決定された所定のキーワードを含むコメントを取得し、取得したコメントを、その属性の人物に付与する台詞として決定してもよい。当該例の場合、台詞決定部13は、人物属性推定部12により推定された属性と一致しないユーザのコメントを登録サーバから取得することができる。   For example, the line determination unit 13 acquires a comment including a predetermined keyword determined based on the attribute of the person estimated by the person attribute estimation unit 12 from the registration server, and uses the acquired comment as a person with the attribute. You may decide as a line to give. In the case of this example, the line determination unit 13 can acquire a user comment that does not match the attribute estimated by the person attribute estimation unit 12 from the registration server.

なお、台詞決定部13は、登録サーバから取得したコメントをそのまま台詞として決定するのでなく、内容が完全には一致しないように一部を改変し、改変後のコメントを台詞として決定してもよい。   The line determination unit 13 may determine part of the comment so that the content does not completely match and determine the modified comment as a line, instead of directly determining the comment acquired from the registration server as a line. .

本実施形態によれば、第1乃至第3の実施形態と同様の作用効果を実現することができる。また、本実施形態の場合、撮像した画像に含まれる人物の属性のみならず、登録サーバからコメントを取得するタイミング等に応じて、その人物に付与する台詞が変化する。このため、全く同じ台詞が表示される確率をより小さくすることができる。結果、本実施形態の表示装置1に対する人の関心度をより高めることができる。また、本実施形態の場合、登録サーバに登録されているコメントを利用して台詞を決定することができるので、表示装置1の管理者等は予め台詞を用意し、登録しておく必要が無い。結果、管理者等の手間を省くことができる。   According to the present embodiment, it is possible to achieve the same operational effects as the first to third embodiments. Further, in the case of the present embodiment, the dialogue given to the person changes depending on not only the attribute of the person included in the captured image but also the timing of obtaining a comment from the registration server. For this reason, the probability that exactly the same dialogue is displayed can be further reduced. As a result, it is possible to further increase the degree of human interest in the display device 1 of the present embodiment. In the case of the present embodiment, the dialogue can be determined using the comments registered in the registration server, so the administrator of the display device 1 does not need to prepare and register dialogue beforehand. . As a result, it is possible to save the administrator and the like.

<第5の実施形態>
本実施形態の表示装置1は、撮像装置10が撮像した画像の中に複数の人物がいる場合であって、複数の人物が所定の関係を満たす場合、それらの人物をグループ化する。そして、同一のグループに属する複数の人物に対して、会話形式の台詞を付与する点で、第1乃至第4の実施形態と異なる。その他の構成は第1乃至第4の実施形態と同様とすることができる。
<Fifth Embodiment>
The display device 1 of this embodiment is a case where there are a plurality of persons in the image captured by the image capturing apparatus 10, and when the plurality of persons satisfy a predetermined relationship, the persons are grouped. And it differs from the 1st thru / or a 4th embodiment by the point which gives dialogue style dialogue to a plurality of people who belong to the same group. Other configurations can be the same as those of the first to fourth embodiments.

図14に本実施形態の表示装置1の機能ブロック図の一例を示す。図示するように、表示装置1は、撮像装置10と、人物抽出部11と、人物属性推定部12と、台詞決定部13と、画像加工部14と、表示部15、グループ化部16とを有する。なお、図示しないが台詞記憶部17を有してもよい。以下、各部について説明する。   FIG. 14 shows an example of a functional block diagram of the display device 1 of the present embodiment. As illustrated, the display device 1 includes an imaging device 10, a person extraction unit 11, a person attribute estimation unit 12, a dialogue determination unit 13, an image processing unit 14, a display unit 15, and a grouping unit 16. Have. Although not shown, the dialogue storage unit 17 may be included. Hereinafter, each part will be described.

撮像装置10及び表示部15の構成は、第1乃至第4の実施形態と同様である。   The configurations of the imaging device 10 and the display unit 15 are the same as those in the first to fourth embodiments.

人物抽出部11は、撮像装置が撮像した画像から人物を抽出する。なお、1つの画像の中に複数の人物が存在する場合、人物抽出部11は、複数の人物を抽出する。抽出された複数の人物各々には、所定の識別情報(以下、画像内人物識別情報)が付与される。この画像内人物識別情報には、画像上における各々の顔の位置を示す情報が対応付けられる。   The person extraction unit 11 extracts a person from an image captured by the imaging device. Note that when a plurality of persons are present in one image, the person extracting unit 11 extracts a plurality of persons. Predetermined identification information (hereinafter, “in-image person identification information”) is assigned to each of the plurality of extracted persons. The person identification information in the image is associated with information indicating the position of each face on the image.

人物属性推定部12は、撮像装置10が撮像した画像を利用して、人物抽出部11が抽出した複数の人物各々の属性を推定する。推定された複数の人物各々の属性は、上記画像内人物識別情報に対応付けられる。   The person attribute estimation unit 12 estimates an attribute of each of a plurality of persons extracted by the person extraction unit 11 using an image captured by the imaging device 10. The estimated attributes of the plurality of persons are associated with the in-image person identification information.

グループ化部16は、撮像装置10が撮像した画像から複数の人物が抽出された場合、当該画像を利用して2人以上の人物を含むグループを生成する。   When a plurality of persons are extracted from an image captured by the imaging device 10, the grouping unit 16 generates a group including two or more persons using the image.

例えば、グループ化部16は、抽出された複数の人物の中に所定の関係を満たす組み合わせがあるか否かを確認し、ある場合はその組み合わせを1つのグループとする。グループ化部16は、上記所定の関係を示す情報を予め保持しておくことができる。   For example, the grouping unit 16 checks whether or not there is a combination that satisfies a predetermined relationship among the plurality of extracted persons, and if there is, sets that combination as one group. The grouping unit 16 can hold information indicating the predetermined relationship in advance.

以下、上記所定の関係の一例を説明する。なお、ここでのグループ化の目的は、画像内に存在する仲間同士をグループ化することである。このため、上記所定の関係は、仲間同士と推定されるものとすることができる。   Hereinafter, an example of the predetermined relationship will be described. The purpose of grouping here is to group friends existing in the image. For this reason, the said predetermined relationship shall be estimated with friends.

例えば、画像上の人物の顔の大きさ及び互いの距離で所定の関係を規定してもよい。具体的には、所定の関係は、画像上における互いの顔の大きさの差が所定の閾値(設計的事項)以下で、かつ、画像上における互いの顔の距離が所定の閾値(設計的事項)以下であってもよい。このような人物同士の実空間内での互いの距離は、仲間同士と推定できるほどに近いと考えられる。   For example, a predetermined relationship may be defined by the size of a person's face on the image and the distance from each other. Specifically, the predetermined relationship is that the difference between the sizes of the faces on the image is equal to or smaller than a predetermined threshold (design item), and the distance between the faces on the image is a predetermined threshold (designed). Matter) It may be as follows. It is considered that the distance between such persons in the real space is close enough to be estimated to be friends.

その他の例として、人物の顔の向きで所定の関係を規定してもよい。具体的には、所定の関係は、顔の向きがほぼ一致(向きの違いが所定の角度以内)であってもよいし、又は、互いに向き合っているとしてもよい。前者の場合、このような人物同士は同じ方向を向き、同じ対象を見ながら、その対象についての会話を行っていると考えられる。後者の場合、このような人物同士は互いの顔を見ながら会話していると考えられる。すなわち、このような人物同士は仲間同士と推定することができる。   As another example, a predetermined relationship may be defined by the orientation of a person's face. Specifically, the predetermined relationship may be that face orientations are substantially the same (difference in orientation is within a predetermined angle), or may be facing each other. In the former case, it is considered that such persons are facing the same direction and having a conversation about the target while looking at the same target. In the latter case, it is considered that such persons are talking while looking at each other's faces. That is, such persons can be estimated as friends.

なお、人物の顔の向きを特定する手段は特段制限されず、あらゆる従来技術を採用することができる。このような技術は、例えば、特開2008−148988号公報に開示されている。なお、本実施形態で採用する人物の顔の向きを特定する手段は、当該文献に記載されているものに限定されない。また、互いに向き合っている関係を特定する手段は特段されず、例えば、互いの顔の向き(所定角度の広がりを有してもよい)の先に互いの顔がある2人組は、互いに向き合っていると特定してもよい。   The means for specifying the orientation of the person's face is not particularly limited, and any conventional technique can be adopted. Such a technique is disclosed in, for example, Japanese Patent Application Laid-Open No. 2008-148988. Note that the means for specifying the face orientation of the person employed in the present embodiment is not limited to that described in the document. In addition, there is no particular means for identifying the relationship that faces each other. For example, a pair of faces that face each other ahead of each other (may have a predetermined angle spread) face each other. You may specify that

その他の例として、画像上の人物の顔の大きさ、互いの距離、及び、顔の向きで所定の関係を特定してもよい。例えば、所定の関係は、画像上における互いの顔の大きさの差が所定の閾値(設計的事項)以下で、かつ、画像上における互いの顔の距離が所定の閾値(設計的事項)以下で、かつ、顔の向きがほぼ一致(又は互いに向き合っている)であってもよい。   As another example, a predetermined relationship may be specified by the size of a person's face on the image, the distance from each other, and the orientation of the face. For example, the predetermined relationship is that the difference in the size of each other's faces on the image is equal to or less than a predetermined threshold (design item), and the distance between the faces on the image is equal to or less than a predetermined threshold (design item). And the face orientations may be substantially the same (or face each other).

グループ化部16は、1つの画像の中から、1つまたは複数のグループを生成することができる。グループ化部16は、グループを生成すると、上記画像内人物識別情報を用いて、各グループに含まれる人物を管理することができる。例えば、同じグループに属する人物の画像内人物識別情報すべてに、同じグループに属することを示す情報を対応付けることができる。   The grouping unit 16 can generate one or a plurality of groups from one image. When the grouping unit 16 generates a group, the grouping unit 16 can manage the persons included in each group using the person identification information in the image. For example, information indicating belonging to the same group can be associated with all the person identification information in the image of persons belonging to the same group.

台詞決定部13は、同じグループに属する2人以上の人物に付与する台詞として、会話形式の台詞を決定する。以下、会話形式の台詞を決定する処理の一例を説明する。   The line determination unit 13 determines a conversational line as a line to be given to two or more persons belonging to the same group. Hereinafter, an example of a process for determining conversational dialogue will be described.

例えば、台詞記憶部17は、グループの人数ごとに各々の人物の属性及び台詞を対応付けた台詞情報を記憶しておいてもよい。   For example, the dialogue storage unit 17 may store dialogue information in which each person's attribute and dialogue are associated with each group.

図15に一例を示す。図15に示す台詞情報は、グループに属する人物が2人である場合用の台詞情報である。当該台詞情報では、第1の人物の属性(属性1)と、第2の人物の属性(属性2)と、第1の人物の台詞と、第2の人物の台詞とが対応付けられている。第1の人物の台詞と第2の人物の台詞とは会話形式の台詞となっている。   An example is shown in FIG. The dialogue information shown in FIG. 15 is dialogue information for the case where there are two persons belonging to the group. In the dialogue information, the attribute of the first person (attribute 1), the attribute of the second person (attribute 2), the dialogue of the first person, and the dialogue of the second person are associated with each other. . The dialogue of the first person and the dialogue of the second person are conversational dialogue.

図16に他の例を示す。図16に示す台詞情報は、グループに属する人物が3人である場合用の台詞情報である。当該台詞情報では、第1の人物の属性(属性1)と、第2の人物の属性(属性2)と、第3の人物の属性(属性2)と、第1の人物の台詞と、第2の人物の台詞と、第3の人物の台詞とが対応付けられている。第1乃至第3の人物の台詞は会話形式の台詞となっている。   FIG. 16 shows another example. The dialogue information shown in FIG. 16 is dialogue information for the case where there are three persons belonging to the group. In the dialogue information, the attribute of the first person (attribute 1), the attribute of the second person (attribute 2), the attribute of the third person (attribute 2), the dialogue of the first person, The dialogue of the second person and the dialogue of the third person are associated with each other. The lines of the first to third persons are conversational lines.

図15及び16いずれの台詞情報も、ある商品「オランジーザス」のプロモーションを目的とした内容となっている。このため、何れの会話の中にも「オランジーザス」の単語が含まれている。なお、台詞の内容は設計的事項である。また、図15及び16に示す例の台詞情報は、性別及び年齢層の組み合わせ毎に台詞を対応付けているが、その他の例として、1つの属性毎に台詞を対応付けてもよいし、その他の複数の属性の組み合わせ毎に台詞を対応付けてもよい。   The dialogue information in both FIG. 15 and FIG. 16 is the content for the purpose of promoting a certain product “Orange Jesus”. For this reason, the word “Orange Jesus” is included in any conversation. The content of dialogue is a design matter. In addition, the dialogue information in the examples shown in FIGS. 15 and 16 associates dialogue with each combination of gender and age group, but as another example, dialogue may be associated with each attribute. Dialogue may be associated with each combination of a plurality of attributes.

表示装置1がこのような台詞記憶部17を有する場合、台詞決定部13は、グループ化部16が生成したグループに属する人物の人数、及び、そのグループに属する人物の属性をキーとして台詞記憶部17を検索し、キーに対応付けられた会話形式の台詞を取得することができる。なお、台詞決定部13は会話形式の複数の台詞を取得すると、各台詞を、その台詞を付与される人物の画像内識別情報に対応付ける。   When the display device 1 has such a dialogue storage unit 17, the dialogue determination unit 13 uses the number of persons belonging to the group generated by the grouping unit 16 and the attributes of the persons belonging to the group as a key. 17 can be searched, and the dialogue-style dialogue associated with the key can be acquired. When the dialogue determination unit 13 acquires a plurality of dialogue-style dialogues, each dialogue is associated with identification information in the image of the person to whom the dialogue is given.

画像加工部14は、画像内識別情報各々に対応付けられている台詞と、画像上における各々の顔の位置を示す情報とを利用して、加工画像を生成する。   The image processing unit 14 generates a processed image by using the dialogue associated with each piece of identification information in the image and information indicating the position of each face on the image.

図17は、本実施形態の表示方法の処理の流れの一例を示すフローチャートである。
例えば、撮像装置10が図18に示す画像を撮像(取得)すると(S10)、人物抽出部11は、撮像装置が撮像した画像から複数の人物を抽出する(S11)。その後、人物属性推定部12は、人物抽出部11により抽出された複数の人物各々の属性を、画像を利用して推定する(S12)。次いで、グループ化部16は、画像を利用して2人以上の人物を含むグループを生成する(S13)。ここでは、画像内の3人すべてを含むグループを生成する。すると、台詞決定部13は、同じグループに属する2人以上の人物(ここでは3人)に付与する台詞として、会話形式の台詞を決定する(S14)。その後、画像加工部14は、画像内の人物に、台詞決定部13が決定した会話形式の台詞を付与する加工画像を生成する(S15)。そして、表示部15は、画像加工部14が生成した加工画像をディスプレイに表示する(S16)。図19に、表示部15がディスプレイ300に表示した画像の一例を示す。
FIG. 17 is a flowchart illustrating an example of a processing flow of the display method of the present embodiment.
For example, when the imaging device 10 captures (acquires) the image illustrated in FIG. 18 (S10), the person extraction unit 11 extracts a plurality of persons from the image captured by the imaging device (S11). Thereafter, the person attribute estimation unit 12 estimates the attributes of each of the plurality of persons extracted by the person extraction unit 11 using an image (S12). Next, the grouping unit 16 generates a group including two or more persons using the image (S13). Here, a group including all three persons in the image is generated. Then, the line determination unit 13 determines a conversational line as a line to be given to two or more persons (here, 3 persons) belonging to the same group (S14). Thereafter, the image processing unit 14 generates a processed image that gives the person in the image the dialogue-style dialogue determined by the dialogue determination unit 13 (S15). Then, the display unit 15 displays the processed image generated by the image processing unit 14 on the display (S16). FIG. 19 shows an example of an image displayed on the display 300 by the display unit 15.

本実施形態によれば、第1乃至第4の実施形態と同様の作用効果を実現することができる。また、画像内に存在する仲間同士をグループ化し、会話形式の台詞を付与することで、本実施形態の表示装置1に対する人の関心度をより高めることができる。   According to the present embodiment, it is possible to achieve the same operational effects as those of the first to fourth embodiments. Moreover, it is possible to further increase the degree of interest of a person with respect to the display device 1 of the present embodiment by grouping friends existing in the image and giving a conversational dialogue.

<第6の実施形態>
本実施形態の表示装置1は、撮像装置10が撮像した画像中の人物の顔を加工し、加工後の画像に台詞を付与して表示する点で、第1乃至第5の実施形態と異なる。その他の構成は第1乃至第5の実施形態と同様とすることができる。このような本実施形態によれば、加工画像のおもしろみを増すことができ、人の関心度をより高めることができる。また、人物を特定できない状態まで加工することで、その人物のプライバシーを守ることができる。
<Sixth Embodiment>
The display device 1 according to the present embodiment is different from the first to fifth embodiments in that the face of a person in an image captured by the imaging device 10 is processed and a line is added to the processed image for display. . Other configurations can be the same as those of the first to fifth embodiments. According to such this embodiment, the interestingness of a processed image can be increased, and a person's interest level can be raised more. In addition, by processing to a state where a person cannot be specified, the privacy of the person can be protected.

図20に本実施形態の表示装置1の機能ブロック図の一例を示す。図示するように、表示装置1は、撮像装置10と、人物抽出部11と、人物属性推定部12と、台詞決定部13と、画像加工部14と、表示部15、加工情報記憶部18とを有する。なお、図示しないが、グループ化部16及び台詞記憶部17の少なくとも一方をさらに有してもよい。撮像装置10、人物抽出部11、人物属性推定部12、台詞決定部13、表示部15、グループ化部16及び台詞記憶部17の構成は第1乃至第5の実施形態と同様である、以下、画像加工部14と加工情報記憶部18の構成について説明する。   FIG. 20 shows an example of a functional block diagram of the display device 1 of the present embodiment. As illustrated, the display device 1 includes an imaging device 10, a person extraction unit 11, a person attribute estimation unit 12, a dialogue determination unit 13, an image processing unit 14, a display unit 15, and a processing information storage unit 18. Have Although not shown, at least one of the grouping unit 16 and the dialogue storage unit 17 may be further included. The configurations of the imaging device 10, the person extraction unit 11, the person attribute estimation unit 12, the dialogue determination unit 13, the display unit 15, the grouping unit 16, and the dialogue storage unit 17 are the same as those in the first to fifth embodiments. The configuration of the image processing unit 14 and the processing information storage unit 18 will be described.

画像加工部14は、撮像装置10が撮像した画像内の人物に台詞を付与するとともに、画像内の人物の顔を加工する加工画像を生成する。例えば、画像加工部14は、人物の顔の位置に動物やキャラクターの顔を表示するための加工画像を生成してもよい。画像加工部14は、人物属性推定部12により推定された属性を用いて、各人物の顔に行う加工内容を決定し、決定した加工を実行することができる。   The image processing unit 14 adds a dialogue to the person in the image captured by the imaging device 10 and generates a processed image that processes the face of the person in the image. For example, the image processing unit 14 may generate a processed image for displaying the face of an animal or character at the position of a person's face. The image processing unit 14 can determine the processing content to be performed on each person's face using the attribute estimated by the person attribute estimation unit 12, and can execute the determined processing.

例えば、加工情報記憶部18は、人物の属性と、加工画像内で人物の顔の位置に表示される置換画像(例:動物やキャラクターの顔)とを対応付けた加工情報を記憶しておく(図21参照)。また、加工情報記憶部18は、置換画像のデータを記憶しておく。なお、置換画像の内容は設計的事項である。また、図21に示す例の加工情報は、性別及び年齢層の組み合わせ毎に置換画像を対応付けているが、その他の例として、1つの属性毎に置換画像を対応付けてもよいし、その他の複数の属性の組み合わせ毎に置換画像を対応付けてもよい。   For example, the processing information storage unit 18 stores processing information in which a person attribute is associated with a replacement image (eg, an animal or character face) displayed at the position of the person's face in the processing image. (See FIG. 21). The processing information storage unit 18 stores replacement image data. The content of the replacement image is a design matter. The processing information in the example illustrated in FIG. 21 associates a replacement image for each combination of gender and age group. However, as another example, a replacement image may be associated with each attribute. A replacement image may be associated with each combination of a plurality of attributes.

表示装置1がこのような加工情報記憶部18を有する場合、画像加工部14は、加工情報記憶部18に記憶されている加工情報及び置換画像のデータを利用して、加工画像を生成することができる。具体的には画像加工部14は、人物属性推定部12により推定された属性に対応付けられた置換画像を加工情報記憶部18から取得し、取得した置換画像を、その属性の人物の顔が表示されている位置に表示する加工画像を生成してもよい。   When the display device 1 has such a processing information storage unit 18, the image processing unit 14 generates a processing image using the processing information and replacement image data stored in the processing information storage unit 18. Can do. Specifically, the image processing unit 14 acquires a replacement image associated with the attribute estimated by the person attribute estimation unit 12 from the processing information storage unit 18, and the acquired replacement image is obtained when the face of the person with the attribute is displayed. A processed image to be displayed at the displayed position may be generated.

加工画像のデータは、撮像装置10が撮像した画像のデータとは別のデータであって、撮像装置10が撮像した画像と重ねて置換画像をディスプレイに表示するためのデータであってもよい。または、加工画像のデータは、撮像装置10が撮像した画像のデータを一部修正し、画像内の所定の位置に置換画像が表示されるように改変された画像データであってもよい。   The processed image data may be data that is different from the image data captured by the imaging device 10 and that is used to display a replacement image on the display so as to overlap the image captured by the imaging device 10. Alternatively, the processed image data may be image data that is modified so that a part of the image data captured by the imaging device 10 is corrected and a replacement image is displayed at a predetermined position in the image.

一例を示す。図3は撮像装置10が撮像した画像である。図22は、当該画像に基づいて画像加工部14が生成した加工画像をディスプレイ300に表示したものである。図22の場合、台詞が付与されるとともに、人物の顔が加工されていることが分かる。   An example is shown. FIG. 3 is an image captured by the imaging apparatus 10. FIG. 22 shows a display of a processed image generated by the image processing unit 14 based on the image. In the case of FIG. 22, it can be seen that the dialogue is given and the face of the person is processed.

なお、画像加工部14は、その他、撮像装置10が撮像した画像に対して、白黒加工や、セピア加工や、写生画のように見せる加工等、その他の加工を施してもよい。   In addition, the image processing unit 14 may perform other processing such as black and white processing, sepia processing, and processing that makes the image appear like a sketch on the image captured by the imaging device 10.

本実施形態によれば、第1乃至第5の実施形態と同様の作用効果を実現することができる。また、画像中の人物の顔を加工し、加工後の画像に台詞を付与して表示することで、加工画像のおもしろみを増すことができ、人の関心度をより高めることができる。また、人物を特定できない状態まで加工することで、その人物のプライバシーを守ることができる。   According to the present embodiment, it is possible to achieve the same operational effects as those of the first to fifth embodiments. In addition, by processing the face of a person in the image and adding a dialogue to the processed image for display, the interest of the processed image can be increased, and the degree of interest of the person can be further increased. In addition, by processing to a state where a person cannot be specified, the privacy of the person can be protected.

<付記>
以下、参考形態の例を付記する。
1. 撮像装置と、
前記撮像装置が撮像した画像から人物を抽出する人物抽出手段と、
前記人物抽出手段により抽出された人物の属性を、前記画像を利用して推定する人物属性推定手段と、
前記人物属性推定手段により推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定手段と、
前記画像内の前記人物に、前記台詞決定手段が決定した前記台詞を付与する加工画像を生成する画像加工手段と、
前記加工画像をディスプレイに表示する表示手段と、
を有する表示装置。
2. 1に記載の表示装置において、
前記台詞決定手段は、互いに属性が異なる人物に対して、互いに異なる台詞を決定する表示装置。
3. 1または2に記載の表示装置において、
前記撮像装置は、終点に向かって一方向に人物を移動させる輸送手段により移動中の人物を撮像可能な位置に設置され、
前記ディスプレイは前記輸送手段の終点付近、又は、前記一方向における前記撮像装置により撮像される位置よりも下流側に設置される表示装置。
4. 1から3のいずれかに記載の表示装置において、
前記画像から複数の人物が抽出された場合、前記画像を利用して2人以上の人物を含むグループを生成するグループ化手段をさらに有し、
前記台詞決定手段は、同じグループに属する2人以上の人物に付与する前記台詞として、会話形式の台詞を決定する表示装置。
5. 4に記載の表示装置において、
前記グループ化手段は、人物の顔の向き、顔の大きさ及び互いの顔の距離の中の少なくとも1つに基づいて、前記グループを生成する表示装置。
6. 1から5のいずれかに記載の表示装置において、
人物の属性と、台詞とを対応付けた台詞情報を記憶する台詞記憶手段をさらに有し、
前記台詞決定手段は、前記人物属性推定手段に推定された属性に対応付けられている台詞を前記台詞記憶手段から取得し、取得した台詞を、その属性の人物に付与する台詞として決定する表示装置。
7. 1から5のいずれかに記載の表示装置において、
前記台詞決定手段は、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、登録されている属性が前記人物属性推定手段により推定された属性と一致する前記ユーザの前記コメントを取得し、取得した前記コメントを、その属性の人物に付与する台詞として決定する表示装置。
8. 7に記載の表示装置において、
前記台詞決定手段は、前記登録サーバから、登録されている属性が前記人物属性推定手段により推定された属性と一致する前記ユーザの前記コメントの中の、所定のキーワードを含む前記コメントを取得し、取得した前記コメントを、その属性の人物に付与する台詞として決定する表示装置。
9. 8に記載の表示装置において、
前記所定のキーワードは、前記人物属性推定手段により推定された属性、及び、前記登録サーバから前記コメントを取得する時の時刻の少なくとも一方に基づいて前記台詞決定手段が決定する表示装置。
10. 1から5のいずれかに記載の表示装置において、
前記台詞決定手段は、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、前記人物属性推定手段により推定された属性に基づいて決定された所定のキーワードを含むコメントを取得し、取得したコメントを、その属性の人物に付与する台詞として決定する表示装置。
11. 1から10のいずれかに記載の表示装置において、
前記画像加工手段は、前記画像内の前記人物に前記台詞を付与するとともに、前記画像内の前記人物の顔を加工する前記加工画像を生成する表示装置。
12. 11に記載の表示装置において、
前記画像加工手段は、前記人物属性推定手段により推定された属性を用いて、各人物の顔に行う加工内容を決定し、決定した加工を行う表示装置。
13. 12に記載の表示装置において、
人物の属性と、前記加工画像内で人物の顔の位置に表示される置換画像とを対応付けた加工情報を記憶する加工情報記憶手段をさらに有し、
前記画像加工手段は、前記人物属性推定手段により推定された属性に対応付けられた前記置換画像を前記加工情報記憶手段から取得し、取得した前記置換画像を、その属性の人物の顔が表示されている位置に表示する前記加工画像を生成する表示装置。
14. コンピュータを、
撮像手段、
前記撮像手段が撮像した画像から人物を抽出する人物抽出手段、
前記人物抽出手段により抽出された人物の属性を、前記画像を利用して推定する人物属性推定手段、
前記人物属性推定手段により推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定手段、
前記画像内の前記人物に、前記台詞決定手段が決定した前記台詞を付与する加工画像を生成する画像加工手段、
前記加工画像をディスプレイに表示する表示手段、
として機能させるためのプログラム。
14−2. 14に記載のプログラムにおいて、
前記台詞決定手段に、互いに属性が異なる人物に対して、互いに異なる台詞を決定させるプログラム。
14−3. 14または14−2に記載のプログラムにおいて、
前記撮像手段は、終点に向かって一方向に人物を移動させる輸送手段により移動中の人物を撮像可能な位置に設置され、
前記ディスプレイは前記輸送手段の終点付近、又は、前記一方向における前記撮像装置により撮像される位置よりも下流側に設置されるプログラム。
14−4. 14から14−3のいずれかに記載のプログラムにおいて、
前記コンピュータを、前記画像から複数の人物が抽出された場合、前記画像を利用して2人以上の人物を含むグループを生成するグループ化手段としてさらに機能させ、
前記台詞決定手段に、同じグループに属する2人以上の人物に付与する前記台詞として、会話形式の台詞を決定させるプログラム。
14−5. 14−4に記載のプログラムにおいて、
前記グループ化手段に、人物の顔の向き、顔の大きさ及び互いの顔の距離の中の少なくとも1つに基づいて、前記グループを生成させるプログラム。
14−6. 14から14−5のいずれかに記載のプログラムにおいて、
前記コンピュータを、人物の属性と、台詞とを対応付けた台詞情報を記憶する台詞記憶手段としてさらに機能させ、
前記台詞決定手段に、前記人物属性推定手段に推定された属性に対応付けられている台詞を前記台詞記憶手段から取得させ、取得した台詞を、その属性の人物に付与する台詞として決定させるプログラム。
14−7. 14から14−5のいずれかに記載のプログラムにおいて、
前記台詞決定手段に、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、登録されている属性が前記人物属性推定手段により推定された属性と一致する前記ユーザの前記コメントを取得させ、取得した前記コメントを、その属性の人物に付与する台詞として決定させるプログラム。
14−8. 14−7に記載のプログラムにおいて、
前記台詞決定手段に、前記登録サーバから、登録されている属性が前記人物属性推定手段により推定された属性と一致する前記ユーザの前記コメントの中の、所定のキーワードを含む前記コメントを取得させ、取得した前記コメントを、その属性の人物に付与する台詞として決定させるプログラム。
14−9. 14−8に記載のプログラムにおいて、
前記台詞決定手段に、前記人物属性推定手段により推定された属性、及び、前記登録サーバから前記コメントを取得する時の時刻の少なくとも一方に基づいて、前記所定のキーワードを決定させるプログラム。
14−10. 14から14−5のいずれかに記載のプログラムにおいて、
前記台詞決定手段に、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、前記人物属性推定手段により推定された属性に基づいて決定された所定のキーワードを含むコメントを取得させ、取得したコメントを、その属性の人物に付与する台詞として決定させるプログラム。
14−11. 14から14−10のいずれかに記載のプログラムにおいて、
前記画像加工手段に、前記画像内の前記人物に前記台詞を付与するとともに、前記画像内の前記人物の顔を加工した前記加工画像を生成させるプログラム。
14−12. 14−11に記載のプログラムにおいて、
前記画像加工手段に、前記人物属性推定手段により推定された属性を用いて、各人物の顔に行う加工内容を決定させ、決定した加工を行わせるプログラム。
14−13. 14−12に記載のプログラムにおいて、
前記コンピュータを、
人物の属性と、前記加工画像内で人物の顔の位置に表示される置換画像とを対応付けた加工情報を記憶する加工情報記憶手段としてさらに機能させ、
前記画像加工手段に、前記人物属性推定手段により推定された属性に対応付けられた前記置換画像を前記加工情報記憶手段から取得させ、取得した前記置換画像を、その属性の人物の顔が表示されている位置に表示する前記加工画像を生成させるプログラム。
15. コンピュータが、
撮像装置が撮像した画像から人物を抽出する人物抽出ステップと、
前記人物抽出ステップで抽出された人物の属性を、前記画像を利用して推定する人物属性推定ステップと、
前記人物属性推定ステップで推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定ステップと、
前記画像内の前記人物に、前記台詞決定ステップで決定した前記台詞を付与する加工画像を生成する画像加工ステップと、
前記加工画像をディスプレイに表示する表示ステップと、
を実行する表示方法。
15−2. 15に記載の表示方法において、
前記台詞決定ステップでは、互いに属性が異なる人物に対して、互いに異なる台詞を決定する表示方法。
15−3. 15または15−2に記載の表示方法において、
前記撮像装置は、終点に向かって一方向に人物を移動させる輸送手段により移動中の人物を撮像可能な位置に設置され、
前記ディスプレイは前記輸送手段の終点付近、又は、前記一方向における前記撮像装置により撮像される位置よりも下流側に設置される表示方法。
15−4. 15から15−3のいずれかに記載の表示方法において、
前記コンピュータは、前記画像から複数の人物が抽出された場合、前記画像を利用して2人以上の人物を含むグループを生成するグループ化ステップをさらに実行し、
前記台詞決定ステップでは、同じグループに属する2人以上の人物に付与する前記台詞として、会話形式の台詞を決定する表示方法。
15−5. 15−4に記載の表示方法において、
前記グループ化ステップでは、人物の顔の向き、顔の大きさ及び互いの顔の距離の中の少なくとも1つに基づいて、前記グループを生成する表示方法。
15−6. 15から15−5のいずれかに記載の表示方法において、
前記コンピュータは、人物の属性と、台詞とを対応付けた台詞情報を記憶しておき、
前記台詞決定ステップでは、前記人物属性推定ステップで推定された属性に対応付けられている台詞を前記台詞情報から取得し、取得した台詞を、その属性の人物に付与する台詞として決定する表示方法。
15−7. 15から15−5のいずれかに記載の表示方法において、
前記台詞決定ステップでは、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、登録されている属性が前記人物属性推定ステップで推定された属性と一致する前記ユーザの前記コメントを取得し、取得した前記コメントを、その属性の人物に付与する台詞として決定する表示方法。
15−8. 15−7に記載の表示方法において、
前記台詞決定ステップでは、前記登録サーバから、登録されている属性が前記人物属性推定ステップで推定された属性と一致する前記ユーザの前記コメントの中の、所定のキーワードを含む前記コメントを取得し、取得した前記コメントを、その属性の人物に付与する台詞として決定する表示方法。
15−9. 15−8に記載の表示方法において、
前記所定のキーワードは、前記人物属性推定手段により推定された属性、及び、前記登録サーバから前記コメントを取得する時の時刻の少なくとも一方に基づいて前記台詞決定ステップで決定する表示方法。
15−10. 15から15−5のいずれかに記載の表示方法において、
前記台詞決定ステップでは、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、前記人物属性推定ステップで推定された属性に基づいて決定された所定のキーワードを含むコメントを取得し、取得したコメントを、その属性の人物に付与する台詞として決定する表示方法。
15−11. 15から15−10のいずれかに記載の表示方法において、
前記画像加工ステップでは、前記画像内の前記人物に前記台詞を付与するとともに、前記画像内の前記人物の顔を加工する前記加工画像を生成する表示方法。
15−12. 15−11に記載の表示方法において、
前記画像加工ステップでは、前記人物属性推定ステップで推定された属性を用いて、各人物の顔に行う加工内容を決定し、決定した加工を行う表示方法。
15−13. 15−12に記載の表示方法において、
前記コンピュータは、人物の属性と、前記加工画像内で人物の顔の位置に表示される置換画像とを対応付けた加工情報を記憶しておき、
前記画像加工ステップでは、前記人物属性推定ステップで推定された属性に対応付けられた前記置換画像を前記加工情報から取得し、取得した前記置換画像を、その属性の人物の顔が表示されている位置に表示する前記加工画像を生成する表示方法。
<Appendix>
Hereinafter, examples of the reference form will be added.
1. An imaging device;
Person extraction means for extracting a person from an image captured by the imaging device;
Person attribute estimation means for estimating the attribute of the person extracted by the person extraction means using the image;
Using the attribute estimated by the person attribute estimating means, a line determining means for determining a line to be given to the person of the attribute;
Image processing means for generating a processed image for giving the line determined by the line determination means to the person in the image;
Display means for displaying the processed image on a display;
A display device.
2. In the display device according to 1,
The line determining means is a display device for determining different lines for persons having different attributes.
3. In the display device according to 1 or 2,
The imaging device is installed at a position where a moving person can be imaged by a transportation means that moves the person in one direction toward the end point,
The display is a display device installed near the end point of the transportation means or on the downstream side of the position taken by the imaging device in the one direction.
4). In the display device according to any one of 1 to 3,
When a plurality of persons are extracted from the image, the image processing apparatus further includes a grouping unit that generates a group including two or more persons using the image.
The line determining means is a display device for determining a dialogue type line as the line to be given to two or more persons belonging to the same group.
5). 4, the display device according to
The grouping means is a display device that generates the group based on at least one of a human face orientation, face size, and mutual face distance.
6). In the display device according to any one of 1 to 5,
Further comprising dialogue storage means for storing dialogue information in which attributes of the person and dialogue are associated with each other;
The line determination unit acquires a line associated with the attribute estimated by the person attribute estimation unit from the line storage unit, and determines the acquired line as a line to be given to the person of the attribute .
7). In the display device according to any one of 1 to 5,
The dialogue determining means is a registration server in which a plurality of users register comments together with their own attribute information for information transmission, and the registered attributes coincide with the attributes estimated by the person attribute estimating means. A display device that acquires the comment and determines the acquired comment as a line to be given to a person with the attribute.
8). In the display device according to 7,
The line determination unit acquires the comment including a predetermined keyword among the comments of the user whose registered attribute matches the attribute estimated by the person attribute estimation unit from the registration server, A display device that determines the acquired comment as a dialogue to be given to a person with the attribute.
9. 8. The display device according to 8,
The display device in which the line determination unit determines the predetermined keyword based on at least one of an attribute estimated by the person attribute estimation unit and a time when the comment is acquired from the registration server.
10. In the display device according to any one of 1 to 5,
The line determination means includes a comment including a predetermined keyword determined based on the attribute estimated by the person attribute estimation means from a registration server in which a plurality of users have registered comments together with their own attribute information for information transmission. , And the obtained comment is determined as a dialogue to be given to the person with the attribute.
11. In the display device according to any one of 1 to 10,
The image processing means is a display device that gives the dialogue to the person in the image and generates the processed image that processes the face of the person in the image.
12 11. The display device according to 11,
The image processing means is a display device that uses the attribute estimated by the person attribute estimation means to determine the processing content to be performed on each person's face and performs the determined processing.
13. 12. The display device according to 12,
Processing information storage means for storing processing information in which a person attribute is associated with a replacement image displayed at the position of the person's face in the processing image;
The image processing unit acquires the replacement image associated with the attribute estimated by the person attribute estimation unit from the processing information storage unit, and the acquired replacement image is displayed with the face of the person with that attribute. A display device that generates the processed image to be displayed at a position.
14 Computer
Imaging means,
Person extracting means for extracting a person from the image captured by the imaging means;
Person attribute estimation means for estimating the attribute of the person extracted by the person extraction means using the image;
Using the attribute estimated by the person attribute estimating means, a line determining means for determining a line to be given to the person of the attribute;
Image processing means for generating a processed image for giving the line determined by the line determining means to the person in the image;
Display means for displaying the processed image on a display;
Program to function as.
14-2. 14 program,
A program for causing the line determination means to determine different lines for persons having different attributes.
14-3. In the program described in 14 or 14-2,
The imaging means is installed at a position where a moving person can be imaged by a transportation means that moves the person in one direction toward the end point,
The display is a program installed near the end point of the transportation means or on the downstream side of the position taken by the imaging device in the one direction.
14-4. In the program according to any one of 14 to 14-3,
When a plurality of persons are extracted from the image, the computer further functions as a grouping unit that generates a group including two or more persons using the image,
A program for causing the dialogue determining means to determine a dialogue-type dialogue as the dialogue to be given to two or more persons belonging to the same group.
14-5. In the program described in 14-4,
The program which makes the said grouping means produce | generate the said group based on at least 1 in the direction of a person's face, the size of a face, and the distance of each other's face.
14-6. In the program according to any one of 14 to 14-5,
Further causing the computer to function as dialogue storage means for storing dialogue information in which attributes of a person and dialogue are associated with each other;
A program for causing the line determination unit to acquire a line associated with the attribute estimated by the person attribute estimation unit from the line storage unit, and to determine the acquired line as a line to be given to the person with the attribute.
14-7. In the program according to any one of 14 to 14-5,
From the registration server in which a plurality of users registered comments together with their own attribute information for information transmission, the registered attribute matches the attribute estimated by the person attribute estimation unit. A program for acquiring the comment and determining the acquired comment as a line to be given to a person having the attribute.
14-8. In the program described in 14-7,
Causing the line determination means to acquire, from the registration server, the comment including a predetermined keyword among the comments of the user whose registered attribute matches the attribute estimated by the person attribute estimation means; The program which determines the acquired said comment as a dialog given to the person of the attribute.
14-9. In the program described in 14-8,
A program that causes the line determination unit to determine the predetermined keyword based on at least one of the attribute estimated by the person attribute estimation unit and the time when the comment is acquired from the registration server.
14-10. In the program according to any one of 14 to 14-5,
A comment including a predetermined keyword determined based on the attribute estimated by the person attribute estimation unit from a registration server in which a plurality of users registered comments together with their own attribute information for information transmission in the dialogue determination unit A program that causes the acquired comment to be determined as a dialogue to be given to the person with the attribute.
14-11. In the program according to any one of 14 to 14-10,
A program for causing the image processing means to generate the processed image by giving the dialogue to the person in the image and processing the face of the person in the image.
14-12. In the program described in 14-11,
A program for causing the image processing means to determine the processing content to be performed on each person's face using the attribute estimated by the person attribute estimating means and to perform the determined processing.
14-13. In the program described in 14-12,
The computer,
Further functioning as processing information storage means for storing processing information that associates the attributes of the person with the replacement image displayed at the position of the face of the person in the processed image;
The image processing unit is caused to acquire the replacement image associated with the attribute estimated by the person attribute estimation unit from the processing information storage unit, and the acquired replacement image is displayed with the face of the person with the attribute. A program for generating the processed image to be displayed at a position.
15. Computer
A person extracting step of extracting a person from the image captured by the imaging device;
A person attribute estimation step of estimating the attribute of the person extracted in the person extraction step using the image;
Using the attribute estimated in the person attribute estimation step, a line determination step for determining a line to be given to the person of the attribute;
An image processing step for generating a processed image for giving the line determined in the line determination step to the person in the image;
A display step of displaying the processed image on a display;
Display method to execute.
15-2. 15. The display method according to 15,
A display method for determining different dialogues for persons having different attributes in the dialogue determination step.
15-3. In the display method according to 15 or 15-2,
The imaging device is installed at a position where a moving person can be imaged by a transportation means that moves the person in one direction toward the end point,
The display method is a display method in which the display is installed near the end point of the transportation means or on the downstream side of the position captured by the imaging device in the one direction.
15-4. In the display method according to any one of 15 to 15-3,
The computer further executes a grouping step of generating a group including two or more persons using the image when a plurality of persons are extracted from the image,
A display method for determining a dialogue-type dialogue as the dialogue to be given to two or more persons belonging to the same group in the dialogue determination step.
15-5. In the display method described in 15-4,
In the grouping step, a display method for generating the group based on at least one of a human face orientation, a face size, and a mutual face distance.
15-6. In the display method according to any one of 15 to 15-5,
The computer stores line information in which attributes of persons are associated with lines,
A display method in which in the speech determination step, the speech associated with the attribute estimated in the human attribute estimation step is acquired from the speech information, and the acquired speech is determined as a speech to be given to the person with the attribute.
15-7. In the display method according to any one of 15 to 15-5,
In the dialogue determination step, from a registration server in which a plurality of users have registered comments together with their own attribute information for information transmission, the registered attributes match those estimated in the person attribute estimation step. A display method of acquiring the comment and determining the acquired comment as a dialogue to be given to a person with the attribute.
15-8. In the display method according to 15-7,
In the dialogue determination step, the comment including a predetermined keyword in the comment of the user in which the registered attribute matches the attribute estimated in the person attribute estimation step is acquired from the registration server, The display method which determines the acquired said comment as a dialog given to the person of the attribute.
15-9. In the display method according to 15-8,
The display method in which the predetermined keyword is determined in the dialogue determination step based on at least one of an attribute estimated by the person attribute estimation unit and a time when the comment is acquired from the registration server.
15-10. In the display method according to any one of 15 to 15-5,
In the dialogue determination step, a comment including a predetermined keyword determined based on the attribute estimated in the person attribute estimation step from a registration server in which a plurality of users registered comments together with their own attribute information for information transmission The display method of determining the acquired comment and determining the acquired comment as a dialogue to be given to the person with the attribute.
15-11. In the display method according to any one of 15 to 15-10,
In the image processing step, the dialogue is given to the person in the image and the processed image for processing the face of the person in the image is generated.
15-12. In the display method according to 15-11,
A display method in which, in the image processing step, processing content to be performed on each person's face is determined using the attribute estimated in the person attribute estimation step, and the determined processing is performed.
15-13. In the display method according to 15-12,
The computer stores processing information in which a person attribute is associated with a replacement image displayed at the position of the person's face in the processed image,
In the image processing step, the replacement image associated with the attribute estimated in the person attribute estimation step is acquired from the processing information, and the acquired replacement image is displayed with the face of a person with that attribute. A display method for generating the processed image to be displayed at a position.

1 表示装置
10 撮像装置
11 人物抽出部
12 人物属性推定部
13 台詞決定部
14 画像加工部
15 表示部
16 グループ化部
17 台詞記憶部
18 加工情報記憶部
100 撮像装置
200 制御装置
300 ディスプレイ
400 エスカレータ
500 動く歩道
DESCRIPTION OF SYMBOLS 1 Display apparatus 10 Imaging device 11 Person extraction part 12 Person attribute estimation part 13 Dialogue determination part 14 Image processing part 15 Display part 16 Grouping part 17 Dialogue storage part 18 Processing information storage part 100 Imaging apparatus 200 Control apparatus 300 Display 400 Escalator 500 Moving walkway

Claims (14)

撮像装置と、
前記撮像装置が撮像した画像から人物を抽出する人物抽出手段と、
前記人物抽出手段により抽出された人物の属性を、前記画像を利用して推定する人物属性推定手段と、
前記人物属性推定手段により推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定手段と、
前記画像内の前記人物に、前記台詞決定手段が決定した前記台詞を付与する加工画像を生成する画像加工手段と、
前記加工画像をディスプレイに表示する表示手段と、
を有し、
前記撮像装置は、終点に向かって一方向に人物を移動させる輸送手段により移動中の人物を撮像可能な位置に設置され、
前記ディスプレイは前記輸送手段の終点付近、又は、前記一方向における前記撮像装置により撮像される位置よりも下流側に設置される表示装置。
An imaging device;
Person extraction means for extracting a person from an image captured by the imaging device;
Person attribute estimation means for estimating the attribute of the person extracted by the person extraction means using the image;
Using the attribute estimated by the person attribute estimating means, a line determining means for determining a line to be given to the person of the attribute;
Image processing means for generating a processed image for giving the line determined by the line determination means to the person in the image;
Display means for displaying the processed image on a display;
Have
The imaging device is installed at a position where a moving person can be imaged by a transportation means that moves the person in one direction toward the end point,
The display is a display device installed near the end point of the transportation means or on the downstream side of the position taken by the imaging device in the one direction.
撮像装置と、
前記撮像装置が撮像した画像から人物を抽出する人物抽出手段と、
前記人物抽出手段により抽出された人物の属性を、前記画像を利用して推定する人物属性推定手段と、
前記人物属性推定手段により推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定手段と、
前記画像内の前記人物に、前記台詞決定手段が決定した前記台詞を付与する加工画像を生成する画像加工手段と、
前記加工画像をディスプレイに表示する表示手段と、
前記画像から複数の人物が抽出された場合、前記画像を利用して2人以上の人物を含むグループを生成するグループ化手段と、
を有し、
前記台詞決定手段は、同じグループに属する2人以上の人物に付与する前記台詞として、会話形式の台詞を決定する表示装置。
An imaging device;
Person extraction means for extracting a person from an image captured by the imaging device;
Person attribute estimation means for estimating the attribute of the person extracted by the person extraction means using the image;
Using the attribute estimated by the person attribute estimating means, a line determining means for determining a line to be given to the person of the attribute;
Image processing means for generating a processed image for giving the line determined by the line determination means to the person in the image;
Display means for displaying the processed image on a display;
Grouping means for generating a group including two or more persons using the image when a plurality of persons are extracted from the image;
Have
The line determining means is a display device for determining a dialogue type line as the line to be given to two or more persons belonging to the same group.
請求項2に記載の表示装置において、
前記グループ化手段は、人物の顔の向き、顔の大きさ及び互いの顔の距離の中の少なくとも1つに基づいて、前記グループを生成する表示装置。
The display device according to claim 2,
The grouping means is a display device that generates the group based on at least one of a human face orientation, face size, and mutual face distance.
撮像装置と、
前記撮像装置が撮像した画像から人物を抽出する人物抽出手段と、
前記人物抽出手段により抽出された人物の属性を、前記画像を利用して推定する人物属性推定手段と、
前記人物属性推定手段により推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定手段と、
前記画像内の前記人物に、前記台詞決定手段が決定した前記台詞を付与する加工画像を生成する画像加工手段と、
前記加工画像をディスプレイに表示する表示手段と、
を有し、
前記台詞決定手段は、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、登録されている属性が前記人物属性推定手段により推定された属性と一致する前記ユーザの前記コメントを取得し、取得した前記コメントを、その属性の人物に付与する台詞として決定する表示装置。
An imaging device;
Person extraction means for extracting a person from an image captured by the imaging device;
Person attribute estimation means for estimating the attribute of the person extracted by the person extraction means using the image;
Using the attribute estimated by the person attribute estimating means, a line determining means for determining a line to be given to the person of the attribute;
Image processing means for generating a processed image for giving the line determined by the line determination means to the person in the image;
Display means for displaying the processed image on a display;
Have
The dialogue determining means is a registration server in which a plurality of users register comments together with their own attribute information for information transmission, and the registered attributes coincide with the attributes estimated by the person attribute estimating means. A display device that acquires the comment and determines the acquired comment as a line to be given to a person with the attribute.
請求項4に記載の表示装置において、
前記台詞決定手段は、前記登録サーバから、登録されている属性が前記人物属性推定手段により推定された属性と一致する前記ユーザの前記コメントの中の、所定のキーワードを含む前記コメントを取得し、取得した前記コメントを、その属性の人物に付与する台詞として決定する表示装置。
The display device according to claim 4,
The line determination unit acquires the comment including a predetermined keyword among the comments of the user whose registered attribute matches the attribute estimated by the person attribute estimation unit from the registration server, A display device that determines the acquired comment as a dialogue to be given to a person with the attribute.
撮像装置と、
前記撮像装置が撮像した画像から人物を抽出する人物抽出手段と、
前記人物抽出手段により抽出された人物の属性を、前記画像を利用して推定する人物属性推定手段と、
前記人物属性推定手段により推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定手段と、
前記画像内の前記人物に、前記台詞決定手段が決定した前記台詞を付与する加工画像を生成する画像加工手段と、
前記加工画像をディスプレイに表示する表示手段と、
を有し、
前記台詞決定手段は、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、前記人物属性推定手段により推定された属性に基づいて決定された所定のキーワードを含むコメントを取得し、取得したコメントを、その属性の人物に付与する台詞として決定する表示装置。
An imaging device;
Person extraction means for extracting a person from an image captured by the imaging device;
Person attribute estimation means for estimating the attribute of the person extracted by the person extraction means using the image;
Using the attribute estimated by the person attribute estimating means, a line determining means for determining a line to be given to the person of the attribute;
Image processing means for generating a processed image for giving the line determined by the line determination means to the person in the image;
Display means for displaying the processed image on a display;
Have
The line determination means includes a comment including a predetermined keyword determined based on the attribute estimated by the person attribute estimation means from a registration server in which a plurality of users have registered comments together with their own attribute information for information transmission. , And the obtained comment is determined as a dialogue to be given to the person with the attribute.
コンピュータを、
撮像装置が撮像した画像から人物を抽出する人物抽出手段、
前記人物抽出手段により抽出された人物の属性を、前記画像を利用して推定する人物属性推定手段、
前記人物属性推定手段により推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定手段、
前記画像内の前記人物に、前記台詞決定手段が決定した前記台詞を付与する加工画像を生成する画像加工手段、
前記加工画像をディスプレイに表示する表示手段、
として機能させ、
前記撮像装置は、終点に向かって一方向に人物を移動させる輸送手段により移動中の人物を撮像可能な位置に設置され、
前記ディスプレイは前記輸送手段の終点付近、又は、前記一方向における前記撮像装置により撮像される位置よりも下流側に設置されるプログラム。
Computer
Person extracting means for extracting a person from an image captured by the imaging device;
Person attribute estimation means for estimating the attribute of the person extracted by the person extraction means using the image;
Using the attribute estimated by the person attribute estimating means, a line determining means for determining a line to be given to the person of the attribute;
Image processing means for generating a processed image for giving the line determined by the line determining means to the person in the image;
Display means for displaying the processed image on a display;
Function as
The imaging device is installed at a position where a moving person can be imaged by a transportation means that moves the person in one direction toward the end point,
The display is a program installed near the end point of the transportation means or on the downstream side of the position taken by the imaging device in the one direction.
コンピュータを、
撮像装置が撮像した画像から人物を抽出する人物抽出手段、
前記人物抽出手段により抽出された人物の属性を、前記画像を利用して推定する人物属性推定手段、
前記人物属性推定手段により推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定手段、
前記画像内の前記人物に、前記台詞決定手段が決定した前記台詞を付与する加工画像を生成する画像加工手段、
前記加工画像をディスプレイに表示する表示手段、
前記画像から複数の人物が抽出された場合、前記画像を利用して2人以上の人物を含むグループを生成するグループ化手段、
として機能させ、
前記台詞決定手段は、同じグループに属する2人以上の人物に付与する前記台詞として、会話形式の台詞を決定するプログラム。
Computer
Person extracting means for extracting a person from an image captured by the imaging device;
Person attribute estimation means for estimating the attribute of the person extracted by the person extraction means using the image;
Using the attribute estimated by the person attribute estimating means, a line determining means for determining a line to be given to the person of the attribute;
Image processing means for generating a processed image for giving the line determined by the line determining means to the person in the image;
Display means for displaying the processed image on a display;
Grouping means for generating a group including two or more persons using the image when a plurality of persons are extracted from the image;
Function as
The dialogue determining means determines a dialogue-style dialogue as the dialogue to be given to two or more persons belonging to the same group.
コンピュータを、
撮像装置が撮像した画像から人物を抽出する人物抽出手段、
前記人物抽出手段により抽出された人物の属性を、前記画像を利用して推定する人物属性推定手段、
前記人物属性推定手段により推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定手段、
前記画像内の前記人物に、前記台詞決定手段が決定した前記台詞を付与する加工画像を生成する画像加工手段、
前記加工画像をディスプレイに表示する表示手段、
として機能させ、
前記台詞決定手段は、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、登録されている属性が前記人物属性推定手段により推定された属性と一致する前記ユーザの前記コメントを取得し、取得した前記コメントを、その属性の人物に付与する台詞として決定するプログラム。
Computer
Person extracting means for extracting a person from an image captured by the imaging device;
Person attribute estimation means for estimating the attribute of the person extracted by the person extraction means using the image;
Using the attribute estimated by the person attribute estimating means, a line determining means for determining a line to be given to the person of the attribute;
Image processing means for generating a processed image for giving the line determined by the line determining means to the person in the image;
Display means for displaying the processed image on a display;
Function as
The dialogue determining means is a registration server in which a plurality of users register comments together with their own attribute information for information transmission, and the registered attributes coincide with the attributes estimated by the person attribute estimating means. The program which acquires the said comment and determines the acquired said comment as a dialog given to the person of the attribute.
コンピュータを、
撮像装置が撮像した画像から人物を抽出する人物抽出手段、
前記人物抽出手段により抽出された人物の属性を、前記画像を利用して推定する人物属性推定手段、
前記人物属性推定手段により推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定手段、
前記画像内の前記人物に、前記台詞決定手段が決定した前記台詞を付与する加工画像を生成する画像加工手段、
前記加工画像をディスプレイに表示する表示手段、
として機能させ、
前記台詞決定手段は、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、前記人物属性推定手段により推定された属性に基づいて決定された所定のキーワードを含むコメントを取得し、取得したコメントを、その属性の人物に付与する台詞として決定するプログラム。
Computer
Person extracting means for extracting a person from an image captured by the imaging device;
Person attribute estimation means for estimating the attribute of the person extracted by the person extraction means using the image;
Using the attribute estimated by the person attribute estimating means, a line determining means for determining a line to be given to the person of the attribute;
Image processing means for generating a processed image for giving the line determined by the line determining means to the person in the image;
Display means for displaying the processed image on a display;
Function as
The line determination means includes a comment including a predetermined keyword determined based on the attribute estimated by the person attribute estimation means from a registration server in which a plurality of users have registered comments together with their own attribute information for information transmission. A program that acquires the comment and determines the acquired comment as a line to be given to the person with the attribute.
コンピュータが、
撮像装置が撮像した画像から人物を抽出する人物抽出ステップと、
前記人物抽出ステップで抽出された人物の属性を、前記画像を利用して推定する人物属性推定ステップと、
前記人物属性推定ステップで推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定ステップと、
前記画像内の前記人物に、前記台詞決定ステップで決定した前記台詞を付与する加工画像を生成する画像加工ステップと、
前記加工画像をディスプレイに表示する表示ステップと、
を実行し、
前記撮像装置は、終点に向かって一方向に人物を移動させる輸送手段により移動中の人物を撮像可能な位置に設置され、
前記ディスプレイは前記輸送手段の終点付近、又は、前記一方向における前記撮像装置により撮像される位置よりも下流側に設置される表示方法。
Computer
A person extracting step of extracting a person from the image captured by the imaging device;
A person attribute estimation step of estimating the attribute of the person extracted in the person extraction step using the image;
Using the attribute estimated in the person attribute estimation step, a line determination step for determining a line to be given to the person of the attribute;
An image processing step for generating a processed image for giving the line determined in the line determination step to the person in the image;
A display step of displaying the processed image on a display;
Run
The imaging device is installed at a position where a moving person can be imaged by a transportation means that moves the person in one direction toward the end point,
The display method is a display method in which the display is installed near the end point of the transportation means or on the downstream side of the position captured by the imaging device in the one direction.
コンピュータが、
撮像装置が撮像した画像から人物を抽出する人物抽出ステップと、
前記人物抽出ステップで抽出された人物の属性を、前記画像を利用して推定する人物属性推定ステップと、
前記人物属性推定ステップで推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定ステップと、
前記画像内の前記人物に、前記台詞決定ステップで決定した前記台詞を付与する加工画像を生成する画像加工ステップと、
前記加工画像をディスプレイに表示する表示ステップと、
前記画像から複数の人物が抽出された場合、前記画像を利用して2人以上の人物を含むグループを生成するグループ化ステップと、
を実行し、
前記台詞決定ステップでは、同じグループに属する2人以上の人物に付与する前記台詞として、会話形式の台詞を決定する表示方法。
Computer
A person extracting step of extracting a person from the image captured by the imaging device;
A person attribute estimation step of estimating the attribute of the person extracted in the person extraction step using the image;
Using the attribute estimated in the person attribute estimation step, a line determination step for determining a line to be given to the person of the attribute;
An image processing step for generating a processed image for giving the line determined in the line determination step to the person in the image;
A display step of displaying the processed image on a display;
A grouping step of generating a group including two or more persons using the image when a plurality of persons are extracted from the image;
Run
A display method for determining a dialogue-type dialogue as the dialogue to be given to two or more persons belonging to the same group in the dialogue determination step.
コンピュータが、
撮像装置が撮像した画像から人物を抽出する人物抽出ステップと、
前記人物抽出ステップで抽出された人物の属性を、前記画像を利用して推定する人物属性推定ステップと、
前記人物属性推定ステップで推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定ステップと、
前記画像内の前記人物に、前記台詞決定ステップで決定した前記台詞を付与する加工画像を生成する画像加工ステップと、
前記加工画像をディスプレイに表示する表示ステップと、
を実行し、
前記台詞決定ステップでは、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、登録されている属性が前記人物属性推定ステップで推定された属性と一致する前記ユーザの前記コメントを取得し、取得した前記コメントを、その属性の人物に付与する台詞として決定する表示方法。
Computer
A person extracting step of extracting a person from the image captured by the imaging device;
A person attribute estimation step of estimating the attribute of the person extracted in the person extraction step using the image;
Using the attribute estimated in the person attribute estimation step, a line determination step for determining a line to be given to the person of the attribute;
An image processing step for generating a processed image for giving the line determined in the line determination step to the person in the image;
A display step of displaying the processed image on a display;
Run
In the dialogue determination step, from a registration server in which a plurality of users have registered comments together with their own attribute information for information transmission, the registered attributes match those estimated in the person attribute estimation step. A display method of acquiring the comment and determining the acquired comment as a dialogue to be given to a person with the attribute.
コンピュータが、
撮像装置が撮像した画像から人物を抽出する人物抽出ステップと、
前記人物抽出ステップで抽出された人物の属性を、前記画像を利用して推定する人物属性推定ステップと、
前記人物属性推定ステップで推定された属性を用いて、その属性の人物に付与する台詞を決定する台詞決定ステップと、
前記画像内の前記人物に、前記台詞決定ステップで決定した前記台詞を付与する加工画像を生成する画像加工ステップと、
前記加工画像をディスプレイに表示する表示ステップと、
を実行し、
前記台詞決定ステップでは、複数のユーザが情報発信のために自己の属性情報と共にコメントを登録した登録サーバから、前記人物属性推定ステップで推定された属性に基づいて決定された所定のキーワードを含むコメントを取得し、取得したコメントを、その属性の人物に付与する台詞として決定する表示方法。
Computer
A person extracting step of extracting a person from the image captured by the imaging device;
A person attribute estimation step of estimating the attribute of the person extracted in the person extraction step using the image;
Using the attribute estimated in the person attribute estimation step, a line determination step for determining a line to be given to the person of the attribute;
An image processing step for generating a processed image for giving the line determined in the line determination step to the person in the image;
A display step of displaying the processed image on a display;
Run
In the dialogue determination step, a comment including a predetermined keyword determined based on the attribute estimated in the person attribute estimation step from a registration server in which a plurality of users registered comments together with their own attribute information for information transmission The display method of determining the acquired comment and determining the acquired comment as a dialogue to be given to the person with the attribute.
JP2013044251A 2013-03-06 2013-03-06 Display device, display method, and program Active JP6268722B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013044251A JP6268722B2 (en) 2013-03-06 2013-03-06 Display device, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013044251A JP6268722B2 (en) 2013-03-06 2013-03-06 Display device, display method, and program

Publications (2)

Publication Number Publication Date
JP2014175704A JP2014175704A (en) 2014-09-22
JP6268722B2 true JP6268722B2 (en) 2018-01-31

Family

ID=51696574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013044251A Active JP6268722B2 (en) 2013-03-06 2013-03-06 Display device, display method, and program

Country Status (1)

Country Link
JP (1) JP6268722B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018047353A1 (en) * 2016-09-12 2018-03-15 三菱電機株式会社 Elevator system
JP6437621B1 (en) * 2017-11-09 2018-12-12 東芝エレベータ株式会社 Escalator
JP7308573B2 (en) * 2018-05-24 2023-07-14 株式会社ユピテル System and program etc.
WO2021111753A1 (en) * 2019-12-05 2021-06-10 ソニーグループ株式会社 Information processing device, information processing method, and program
US20220122381A1 (en) * 2020-07-27 2022-04-21 Cortica Ltd. Face to voice based analysis

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005228185A (en) * 2004-02-16 2005-08-25 E4C-Link Corp Character providing system
JP4803147B2 (en) * 2007-09-27 2011-10-26 カシオ計算機株式会社 Imaging apparatus, image generation method, and program
JP2009223835A (en) * 2008-03-18 2009-10-01 Sony Corp Photographing device, image processor, and image processing method and program therefor
JP5423052B2 (en) * 2009-02-27 2014-02-19 株式会社ニコン Image processing apparatus, imaging apparatus, and program
JP2011027977A (en) * 2009-07-24 2011-02-10 Sanyo Electric Co Ltd Display system
JP5423379B2 (en) * 2009-08-31 2014-02-19 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5434582B2 (en) * 2009-12-28 2014-03-05 カシオ計算機株式会社 Image processing apparatus and image processing program
JP5775392B2 (en) * 2011-08-03 2015-09-09 キヤノン株式会社 Information processing apparatus, information processing apparatus control method, and program

Also Published As

Publication number Publication date
JP2014175704A (en) 2014-09-22

Similar Documents

Publication Publication Date Title
CN109155136B (en) Computerized system and method for automatically detecting and rendering highlights from video
US9607436B2 (en) Generating augmented reality exemplars
WO2018012924A1 (en) Augmented reality device and operation thereof
US9123061B2 (en) System and method for personalized dynamic web content based on photographic data
US11954142B2 (en) Method and system for producing story video
EP2960852B1 (en) Information processing device, information processing method, and program
US20170132821A1 (en) Caption generation for visual media
JP6268722B2 (en) Display device, display method, and program
CN113111026A (en) Gallery of messages with shared interests
US20130317912A1 (en) Advertising in Augmented Reality Based on Social Networking
JP2003271084A (en) Apparatus and method for providing information
US20130044922A1 (en) Information processing device, information processing method, program, and information processing system
JP2013149073A (en) Augmented reality device, method and program
KR20180077959A (en) Method and apparatus of recommending contents
US11468675B1 (en) Techniques for identifying objects from video content
US20170293938A1 (en) Interactive competitive advertising commentary
JP7110738B2 (en) Information processing device, program and information processing system
US11144763B2 (en) Information processing apparatus, image display method, and non-transitory computer-readable storage medium for display control
KR20180003932A (en) Posting method of contents and posting apparatus
US20230114462A1 (en) Selective presentation of an augmented reality element in an augmented reality user interface
JP2020042433A (en) Information providing system, user portable device, information providing device, computer program, and information providing method
US11651280B2 (en) Recording medium, information processing system, and information processing method
US11302048B2 (en) Computerized system and method for automatically generating original memes for insertion into modified messages
US11741520B2 (en) Methods and systems for providing crowd information and repeat information related to an establishment using digital image information
CN110852143B (en) Interactive text effects in an augmented reality environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171218

R150 Certificate of patent or registration of utility model

Ref document number: 6268722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150