JP2014075076A - Server device - Google Patents

Server device Download PDF

Info

Publication number
JP2014075076A
JP2014075076A JP2012223032A JP2012223032A JP2014075076A JP 2014075076 A JP2014075076 A JP 2014075076A JP 2012223032 A JP2012223032 A JP 2012223032A JP 2012223032 A JP2012223032 A JP 2012223032A JP 2014075076 A JP2014075076 A JP 2014075076A
Authority
JP
Japan
Prior art keywords
information
display device
environment
acquired
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012223032A
Other languages
Japanese (ja)
Other versions
JP6224308B2 (en
Inventor
Kazuo Shimoda
一夫 下田
Atsushi Sasaki
淳 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aoi Pro
AOI PRO Inc
Original Assignee
Aoi Pro
AOI PRO Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aoi Pro, AOI PRO Inc filed Critical Aoi Pro
Priority to JP2012223032A priority Critical patent/JP6224308B2/en
Publication of JP2014075076A publication Critical patent/JP2014075076A/en
Application granted granted Critical
Publication of JP6224308B2 publication Critical patent/JP6224308B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a server device that allows a video to be displayed in a display device, the video being made to correspond to the environment of the display device, thereby improving user's satisfaction.SOLUTION: A video distribution server 10 includes an environment information acquisition part 30a for acquiring environment information about the environment of a display device 12, and an information processing part 30b which acquires image information and sentence information belonging to equipment on the Internet 11 by retrieving the image information and the sentence information on the basis of a retrieval condition, and which on the basis of the acquired image information and sentence information, generates video information for combining these information and displaying the combined information, and which outputs the video information to the display device 12. The information processing part 30b changes contents of the retrieval condition so as correspond to the environment of the display device 12 on the basis of the environment information acquired by the environment information acquisition part 30a.

Description

本発明は、表示装置にネットワークを介して接続されるサーバー装置に関する。   The present invention relates to a server device connected to a display device via a network.

従来、表示パネルを有する表示装置(映像情報受信端末)と、この表示装置にインターネットを介して接続され、この表示装置に映像を配信するサーバー装置(映像配信管理サーバー)とを備えたシステムが知られている(例えば、特許文献1参照)。   Conventionally, a system including a display device (video information receiving terminal) having a display panel and a server device (video distribution management server) connected to the display device via the Internet and distributing video to the display device is known. (For example, refer to Patent Document 1).

特開2007−221487号公報JP 2007-212487 A

ここで、上述した表示装置は、喫茶店や、バー等の飲食店、金融機関の待合室や、オフィスビルの共用スペース等、様々な場所に設けることが可能であり、また、表示装置が設置された空間の雰囲気や、当該空間に存在する人間の人数等は時間帯、天気、その他の要因により変化し、一定ではない。すなわち、表示装置の環境は、様々な要因により変化する。そして、表示装置が表示する映像を、当該表示装置の環境に対応させることができれば、映像を視認するユーザーの満足度を向上できる。
また、表示装置が表示する映像を、ユーザーに飽きが来ず、かつ、ユーザーの感性に効果的に訴えるものとすることができれば、ユーザーの満足度の向上につながり、さらに、表示装置及びサーバー装置からなるシステムの商品としての魅力、価値を向上できる。
本発明は、上述した事情に鑑みてなされたものであり、環境に対応し、ユーザーの満足度を向上させる映像を表示装置に表示させることが可能なサーバー装置を提供することを目的とする。
Here, the display device described above can be provided in various places such as a coffee shop, a restaurant such as a bar, a waiting room of a financial institution, a shared space of an office building, and the display device is installed. The atmosphere of the space, the number of people in the space, etc. vary depending on the time of day, weather, and other factors, and are not constant. That is, the environment of the display device changes due to various factors. If the video displayed on the display device can be adapted to the environment of the display device, the satisfaction of the user viewing the video can be improved.
Further, if the video displayed on the display device does not get tired of the user and can effectively appeal to the user's sensibility, the user's satisfaction will be improved, and further, the display device and the server device The attractiveness and value as a product of the system consisting of can be improved.
The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a server device that can display an image corresponding to an environment and improving user satisfaction on a display device.

上記目的を達成するために、本発明は、表示装置にネットワークを介して接続されるサーバー装置において、前記表示装置の環境に関する環境情報を取得する環境情報取得手段と、検索条件に基づいて、前記ネットワーク上の機器が有する画像情報を検索して取得し、取得した前記画像情報を表示させるための映像情報を生成し、生成した前記映像情報を前記表示装置に出力する情報処理手段と、を備え、前記情報処理手段は、前記環境情報取得手段により取得された前記環境情報に基づいて、前記表示装置の環境に対応させて、前記検索条件の内容を変更することを特徴とする。
ここで、画像情報とは、静止画ファイル、動画ファイル等の、所定の表示手段に静止画や、動画としての画像を表示するための情報(データ、データ群)を指す。近年、インターネットの発達や、インターネットを介して利用可能なサービスの拡充に伴い、風景画や、アニメーション、プロモーションビデオ等に係る静止画ファイルや、動画ファイル等の画像情報がネットワーク上に無数に存在している、という現状がある。このことを踏まえ、上記構成によれば、情報処理手段は、検索条件に基づいて、ネットワーク上の機器に記憶された画像情報を検索して取得し、取得した画像情報に基づいて映像情報を生成し、映像情報を表示装置に出力する。このため、サーバー装置は、表示装置に、何らかの規則に従って同様の映像を繰り返し表示させるのではなく、ネットワーク上に無数に存在する画像情報を好適に活用して、非常に広大な選択肢の中からランダムに映像を表示させることが可能となり、ユーザーを飽きさせず、ユーザーの満足度を向上させる映像を表示させることが可能となる。
さらに、上記構成によれば、環境情報取得手段は、表示装置が設置された環境に関する環境情報を取得する一方、情報処理手段は、環境情報取得手段により取得された環境情報に基づいて、表示装置が設置された環境に対応させて、検索条件の内容を変更する。このため、サーバー装置は、表示装置が設置された環境に対応する画像情報を検索、収集することが可能となり、これにより、表示装置に、当該表示装置が設置された環境に対応した映像を表示させることが可能となる。なお、環境情報取得手段が、環境情報を取得する方法は、どのような態様であってもよく、例えば、サーバー装置に対して、直接、又は、ネットワーク等を介して間接的に、人為的手段を含む手段により環境情報が入力されるようにしてもよく、また、人為的手段を介さず、オートマチックな手段により環境情報を検知し、取得するようにしてもよい。
In order to achieve the above object, according to the present invention, in a server device connected to a display device via a network, the environment information acquisition means for acquiring environment information related to the environment of the display device, and based on a search condition, Information processing means for searching and acquiring image information possessed by devices on the network, generating video information for displaying the acquired image information, and outputting the generated video information to the display device; The information processing means changes the contents of the search condition in accordance with the environment of the display device based on the environment information acquired by the environment information acquisition means.
Here, the image information refers to information (data, data group) for displaying a still image or an image as a moving image on a predetermined display means such as a still image file or a moving image file. In recent years, with the development of the Internet and the expansion of services that can be used via the Internet, there are innumerable image information such as still image files and video files related to landscape images, animations, and promotional videos on the network. There is a current situation. Based on this, according to the above configuration, the information processing means searches for and acquires image information stored in a device on the network based on the search condition, and generates video information based on the acquired image information. The video information is output to the display device. For this reason, the server device does not repeatedly display the same video according to some rules on the display device, but preferably uses innumerable image information on the network, and randomly selects from a very wide range of options. Thus, it is possible to display an image that improves user satisfaction without getting tired of the user.
Further, according to the above configuration, the environment information acquisition unit acquires the environment information regarding the environment in which the display device is installed, while the information processing unit displays the display device based on the environment information acquired by the environment information acquisition unit. Change the contents of the search conditions according to the environment where is installed. For this reason, the server device can search and collect image information corresponding to the environment in which the display device is installed, thereby displaying the video corresponding to the environment in which the display device is installed on the display device. It becomes possible to make it. Note that the environment information acquisition unit may acquire any method for acquiring the environment information. For example, the method may be performed directly on the server device or indirectly through a network or the like. The environment information may be input by means including the above, or the environment information may be detected and acquired by automatic means without using artificial means.

また、本発明は、前記情報処理手段は、前記検索条件に基づいて、前記ネットワーク上の機器が有する前記画像情報、及び、文章情報を検索して取得し、取得した前記画像情報、及び、前記文章情報に基づいて、これら情報を組み合わせて表示させるための前記映像情報を生成し、生成した前記映像情報を前記表示装置に出力することを特徴とする。
ここで、文章情報とは、文字によって表現される情報であって、言語としての意味を持った情報のことである。近年、インターネットの発達や、インターネットを介して利用可能なサービスの拡充に伴い、ニュースや、気象情報、記事に係る文章、宣伝広告等に係る文章情報がネットワーク上に無数に存在している、という現状がある。このことを踏まえ、上記構成によれば、情報処理手段は、検索条件に基づいて、ネットワーク上の機器に記憶された画像情報、及び、文章情報を検索して取得し、取得した画像情報、及び、文章情報に基づいて、これら情報を組み合わせて表示させるための映像情報を生成し、映像情報を表示装置に出力する。このため、サーバー装置は、表示装置に、何らかの規則に従って同様の映像を繰り返し表示させるのではなく、ネットワーク上に無数に存在する画像情報、及び、文章情報を好適に活用して、非常に広大な選択肢の中からランダムに映像を表示させることが可能となり、ユーザーを飽きさせず、ユーザーの満足度を向上させる映像を表示させることが可能となる。
さらに、情報処理手段は、検索条件に基づいて、ネットワーク上の機器に記憶された画像情報、及び、文章情報を検索して取得し、取得した画像情報、及び、文章情報に基づいて、これら情報を「組み合わせて」表示させるための映像情報を生成し、映像情報を表示装置に出力する。このように、検索条件に基づいて、画像情報、及び、文章情報を検索することにより、画像情報、及び、文章情報について、無秩序に収集するのではなく、何らかの統一性や、関連性を持たせて適切に検索し、収集可能である。そして、適切に検索し、収集した画像情報と、文章情報とを組み合わせて表示させることにより、画像情報に基づいて表示される画像(動画、静止画)によりユーザーの直感的な感性に訴えつつ、文章情報に基づいて表示される文章によりユーザーの論理的な思考を刺激することができ、ユーザーの感性に多面的、かつ、効果的に訴える映像を表示させることが可能となり、これに伴って、ユーザーの満足度を向上させる映像を表示させることが可能となる。
特に、上記構成によれば、画像情報と、文章情報とを独立して検索し、収集した上で、これら情報を組み合わせて映像情報を生成するため、画像情報に基づく画像と、文章情報に基づく文章との多彩な組み合わせを映像として提供することができ、この点でも、ユーザーを飽きさせない。さらに、画像と文章とのランダムな組み合わせがユーザーの感性に訴えるという点で、偶発的に予期せぬ相乗効果を生むことがあり、この点で、エンターテインメント性が高い映像を提供可能である。
Further, according to the present invention, the information processing means searches for and acquires the image information and text information that the device on the network has based on the search condition, the acquired image information, and the Based on the text information, the video information for displaying the information in combination is generated, and the generated video information is output to the display device.
Here, the sentence information is information expressed by characters and has meaning as a language. In recent years, with the development of the Internet and the expansion of services available via the Internet, there are innumerable text information on news, weather information, text on articles, and advertisements on the network. There is a present situation. Based on this, according to the above configuration, the information processing means searches and acquires the image information stored in the device on the network and the text information based on the search condition, the acquired image information, and Based on the text information, video information for displaying the information in combination is generated, and the video information is output to the display device. For this reason, the server device does not repeatedly display the same video according to some rules on the display device, but preferably uses a large number of image information and text information existing on the network, so that it is very vast. It is possible to display a video randomly from among the choices, and it is possible to display a video that improves user satisfaction without getting tired of the user.
Furthermore, the information processing means searches for and acquires image information and text information stored in the devices on the network based on the search condition, and based on the acquired image information and text information, Is generated in combination, and the video information is output to the display device. In this way, by searching for image information and text information based on search conditions, image information and text information are not collected randomly, but have some uniformity or relevance. Can be properly searched and collected. And by appropriately searching and displaying the collected image information and sentence information in combination, while appealing to the intuitive sensibility of the user by the image (video, still image) displayed based on the image information, The text displayed based on the text information can stimulate the logical thinking of the user, and it is possible to display a video that appeals to the user's sensibility in a multifaceted and effective manner. It is possible to display an image that improves user satisfaction.
In particular, according to the above configuration, the image information and the text information are independently searched and collected, and the video information is generated by combining these information. Therefore, the image based on the image information and the text information are used. Various combinations with sentences can be provided as images, and this does not bore users. Furthermore, a random combination of images and sentences appeals to the user's sensibility, which may cause an unexpected and unexpected synergistic effect. In this respect, it is possible to provide a video with high entertainment properties.

また、本発明は、前記検索条件とは、前記ネットワーク上の機器が有する各種情報に対応付けられたメタデータの検索方法のことであり、前記情報処理手段は、前記環境情報取得手段により取得された前記環境情報に基づいて、前記メタデータの検索方法を変更することを特徴とする。
ここで、一般に、ネットワーク上の画像情報や、文章情報には、所定のフォーマットに準拠して、メタデータが付与されており、このメタデータをキーとして検索が行われる。そして、上記構成によれば、環境情報に基づいてメタデータの検索方法を変更する、という簡易な手法により、表示装置の環境に対応する情報を検索し、収集可能である。
In the present invention, the search condition is a search method for metadata associated with various types of information held by the devices on the network, and the information processing means is acquired by the environment information acquisition means. Further, the metadata search method is changed based on the environment information.
Here, generally, metadata is given to image information and text information on a network in accordance with a predetermined format, and a search is performed using this metadata as a key. And according to the said structure, the information corresponding to the environment of a display apparatus can be searched and collected with the simple method of changing the search method of metadata based on environmental information.

また、本発明は、前記環境情報取得手段は、前記環境情報として、前記表示装置が設けられた位置を示す設置位置情報を取得し、前記情報処理手段は、前記環境情報取得手段により取得された前記設置位置情報に基づいて、又は、前記設置位置情報と他の前記環境情報との組み合わせに基づいて、前記表示装置が設置された位置に対応させて、前記検索条件の内容を変更することを特徴とする。
ここで、表示装置がどういう場所に設けられているのか、例えば、ビジネス街の喫茶店に設けられているのか、繁華街の居酒屋に設けられているのか等に応じて、表示装置の環境は異なる。そして、上記構成によれば、情報処理手段は、表示装置が設けられた位置を示す設置位置情報に基づいて、検索条件を変更するため、表示装置が設けられた位置に対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置に、当該表示装置の環境に対応した映像を表示させることが可能となる。
Further, according to the present invention, the environment information acquisition unit acquires installation position information indicating a position where the display device is provided as the environment information, and the information processing unit is acquired by the environment information acquisition unit. Based on the installation position information or based on a combination of the installation position information and other environmental information, changing the content of the search condition in correspondence with the position where the display device is installed. Features.
Here, the environment of the display device varies depending on where the display device is provided, for example, whether it is provided in a coffee shop in a business district or a pub in a downtown area. And according to the said structure, since an information processing means changes search conditions based on the installation position information which shows the position in which the display apparatus was provided, it is suitable image corresponding to the position in which the display apparatus was provided. Information and text information can be searched and collected, and a video corresponding to the environment of the display device can be displayed on the display device.

また、本発明は、前記情報処理手段は、前記設置位置情報に基づいて、前記表示装置が設置された場所の属性を取得し、前記表示装置が設置された場所の属性に対応させて、前記検索条件の内容を変更することを特徴とする。
ここで、表示装置が設置された場所の属性とは、例えば、オフィス街や、繁華街、住宅街といった区域の、特徴、性質に応じた区分や、喫茶店や、居酒屋、カラオケハウス等の表示装置が設けられる空間の用途に応じた区分等、場所によって変化する属性のことである。表示装置が設置された場所の属性に応じて、表示装置の環境は異なる。そして、上記構成によれば、情報処理手段は、表示装置が設けられた場所の属性に対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置に、当該表示装置の場所の属性に対応した映像を表示させることが可能となる。
In the present invention, the information processing means acquires an attribute of a place where the display device is installed based on the installation position information, and corresponds to the attribute of the place where the display device is installed, The content of the search condition is changed.
Here, the attributes of the place where the display device is installed include, for example, classification according to the characteristics and properties of areas such as office districts, downtowns, and residential districts, and display devices such as coffee shops, taverns, and karaoke houses. It is an attribute that changes depending on the location, such as a classification according to the purpose of the space where the space is provided. The environment of the display device varies depending on the attribute of the place where the display device is installed. According to the above configuration, the information processing means can search and collect appropriate image information and text information corresponding to the attribute of the place where the display device is provided, and the display device can store the location of the display device. It is possible to display a video corresponding to the attribute.

また、本発明は、前記表示装置は、自身の位置を示す情報を取得する機能を有し、前記環境情報取得手段は、前記表示装置から前記ネットワークを介した通信により、前記表示装置の位置を示す情報を取得し、取得した情報に基づいて、前記設置位置情報を取得することを特徴とする。
この構成によれば、環境情報取得手段は、表示装置の機能を利用して、確実に、設置位置情報を取得可能である。
Further, according to the present invention, the display device has a function of acquiring information indicating the position of the display device, and the environment information acquisition unit determines the position of the display device by communication from the display device via the network. The installation position information is acquired based on the acquired information.
According to this configuration, the environment information acquisition unit can reliably acquire the installation position information by using the function of the display device.

また、本発明は、前記表示装置の近傍に位置し、自身の位置を示す情報を取得する機能を有する外部機器と、前記ネットワークを介して通信可能に構成され、前記環境情報取得手段は、前記外部機器から前記ネットワークを介した通信により、前記外部機器の位置を示す情報を取得し、取得した情報に基づいて、前記設置位置情報を取得することを特徴とする。
この構成によれば、環境情報取得手段は、外部機器と通信可能であること、及び、外部機器の機能を利用して、確実に、設置位置情報を取得可能である。
Further, the present invention is configured to be able to communicate with the external device located in the vicinity of the display device and having a function of acquiring information indicating its own position via the network. Information indicating a position of the external device is acquired from an external device through communication via the network, and the installation position information is acquired based on the acquired information.
According to this configuration, the environment information acquisition unit can communicate with the external device, and can reliably acquire the installation position information by using the function of the external device.

また、本発明は、前記環境情報取得手段は、前記環境情報として、現在の日時に関する日時情報を取得し、前記情報処理手段は、前記環境情報取得手段により取得された前記日時情報に基づいて、又は、前記日時情報と他の前記環境情報との組み合わせに基づいて、現在の日時に対応させて、前記検索条件の内容を変更することを特徴とする。
ここで、日時に関する日時情報とは、時刻や、年月日、時間帯、曜日、季節等、「時間」の概念を含んだ情報を広く示している。そして、現在の日時によって、表示装置の環境は異なる。例えば、朝と、夜とでは表示装置の環境は異なり、従って表示装置によって表示すべき環境に応じた映像も異なる。そして、上記構成によれば、情報処理手段は、現在の日時に対応した適切な画像情報、文章情報を検索、収集でき、かつ、表示装置に、現在の日時に対応した映像を表示させることが可能となる。
Further, according to the present invention, the environment information acquisition unit acquires date information on a current date as the environment information, and the information processing unit is based on the date information acquired by the environment information acquisition unit, Or based on the combination of the said date information and the other said environment information, the content of the said search condition is changed corresponding to the present date.
Here, the date / time information relating to the date / time widely indicates information including the concept of “time” such as time, date, time zone, day of the week, season, and the like. The environment of the display device varies depending on the current date and time. For example, the environment of the display device is different between morning and night, and accordingly, the video corresponding to the environment to be displayed by the display device is also different. According to the above configuration, the information processing means can search and collect appropriate image information and sentence information corresponding to the current date and time, and can cause the display device to display an image corresponding to the current date and time. It becomes possible.

また、本発明は、前記表示装置は、周辺を撮影して撮影画像を生成する撮影手段を備え、前記環境情報取得手段は、前記環境情報として、前記表示装置から前記ネットワークを介した通信により前記撮影画像を取得し、前記情報処理手段は、前記環境情報取得手段により取得された前記撮影画像に基づいて、又は、前記撮影画像と他の前記環境情報との組み合わせに基づいて、前記撮影画像が示す前記表示装置の環境に対応させて、前記検索条件の内容を変更することを特徴とする。
この構成によれば、情報処理手段は、表示装置の周辺を撮影することによって生成された撮影画像に基づいて検索条件の内容を変更するため、撮影画像から分析される表示装置の実際の環境に対応した適切な画像情報、文章情報を検索、収集でき、かつ、表示装置に、環境に対応した映像を表示させることが可能となる。
In the present invention, the display device includes photographing means for photographing a periphery to generate a photographed image, and the environment information acquiring means communicates the environment information from the display device via the network as the environment information. The captured information is acquired, and the information processing unit is configured to determine whether the captured image is based on the captured image acquired by the environment information acquiring unit or based on a combination of the captured image and other environmental information. The content of the search condition is changed in accordance with the environment of the display device shown.
According to this configuration, the information processing means changes the content of the search condition based on the photographed image generated by photographing the periphery of the display device, so that the actual environment of the display device analyzed from the photographed image is changed. Corresponding appropriate image information and text information can be searched and collected, and an image corresponding to the environment can be displayed on the display device.

また、本発明は、前記情報処理手段は、前記撮影画像に基づいて、前記表示装置の周辺の明るさを検出し、当該明るさに対応させて、前記検索条件の内容を変更することを特徴とする。
ここで、表示装置の周辺の明るさによって、表示装置の周辺の雰囲気は異なり、従って、表示装置によって表示すべき環境に応じた映像も異なる。そして、上記構成によれば、情報処理手段は、表示装置の周辺の明るさに対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置に、当該表示装置の周辺の明るさに対応した映像を表示させることが可能となる。
Further, the present invention is characterized in that the information processing means detects brightness around the display device based on the photographed image, and changes the content of the search condition according to the brightness. And
Here, the atmosphere around the display device differs depending on the brightness around the display device, and thus the image corresponding to the environment to be displayed by the display device also differs. According to the above configuration, the information processing means can search and collect appropriate image information and text information corresponding to the brightness of the periphery of the display device, and the display device has the brightness of the periphery of the display device. It is possible to display a video corresponding to the height.

また、本発明は、前記情報処理手段は、前記撮影画像に基づいて、前記表示装置の周辺に存在する人間の多寡を検出し、当該人間の多寡に対応させて、前記検索条件の内容を変更することを特徴とする。
ここで、表示装置の周辺に存在する人間の人数により、表示装置の周辺の雰囲気は異なり、従って、表示装置によって表示すべき環境に応じた映像も異なる。そして、上記構成によれば、情報処理手段は、表示装置の周辺に存在する人間の人数に対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置に、当該表示装置の周辺に存在する人間の人数に対応した映像を表示させることが可能となる。
Further, according to the present invention, the information processing means detects a human number existing around the display device based on the photographed image, and changes the contents of the search condition according to the human number. It is characterized by doing.
Here, the atmosphere around the display device differs depending on the number of people present around the display device, and accordingly, the image corresponding to the environment to be displayed by the display device also differs. According to the above configuration, the information processing means can search and collect appropriate image information and text information corresponding to the number of people present around the display device, and It is possible to display an image corresponding to the number of humans present in the vicinity.

また、本発明は、前記表示装置は、音声を収音して収音情報を生成する収音手段を備え、前記環境情報取得手段は、前記環境情報として、前記表示装置から前記ネットワークを介した通信により前記収音情報を取得し、前記情報処理手段は、前記環境情報取得手段により取得された前記収音情報に基づいて、又は、前記収音情報と他の前記環境情報との組み合わせに基づいて、前記収音情報が示す前記表示装置の環境に対応させて、前記検索条件の内容を変更することを特徴とする。
ここで、表示装置の周辺の音声、例えば、環境音の状況により、表示装置の周辺の雰囲気は異なり、従って、表示装置によって表示すべき環境に応じた映像も異なる。そして、上記構成によれば、情報処理手段は、表示装置の周辺の音声の状況に対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置に、当該表示装置の周辺の音声の状況に対応した映像を表示させることが可能となる。
Further, according to the present invention, the display device includes sound collection means for collecting sound and generating sound collection information, and the environment information acquisition means is provided as the environment information from the display device via the network. The sound collection information is acquired by communication, and the information processing means is based on the sound collection information acquired by the environment information acquisition means or based on a combination of the sound collection information and other environmental information. The content of the search condition is changed in accordance with the environment of the display device indicated by the sound collection information.
Here, the atmosphere around the display device varies depending on the sound around the display device, for example, the environmental sound, and accordingly, the image corresponding to the environment to be displayed by the display device also varies. According to the above configuration, the information processing means can search and collect appropriate image information and text information corresponding to the sound situation around the display device, and the display device It is possible to display a video corresponding to the audio status.

また、本発明は、前記情報処理手段は、前記収音情報に基づいて、前記表示装置が設置された場所に音楽が流れているか否かを判別し、音楽が流れている場合は、音楽に対応させて、前記検索条件の内容を変更することを特徴とする。
ここで、表示装置が設置された場所にどのような音楽が流れているか否かによって、表示装置によって表示すべき環境に応じた映像も異なる。そして、上記構成によれば、情報処理手段は、表示装置が設置された場所に流れている音楽に対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置に、当該表示装置が設置された場所に流れている音楽に対応した映像を表示させることが可能となる。
According to the present invention, the information processing means determines whether music is flowing in a place where the display device is installed based on the sound collection information. If the music is flowing, Correspondingly, the content of the search condition is changed.
Here, the video corresponding to the environment to be displayed by the display device differs depending on what kind of music is flowing in the place where the display device is installed. According to the above configuration, the information processing means can search and collect appropriate image information and text information corresponding to the music flowing in the place where the display device is installed, and the display device displays the display information. It is possible to display an image corresponding to music flowing in the place where the device is installed.

また、本発明は、前記環境情報取得手段は、前記環境情報として、前記表示装置が設置された場所の気象に関する気象情報を取得し、前記情報処理手段は、前記環境情報取得手段により取得された前記気象情報に基づいて、又は、前記気象情報と他の前記環境情報との組み合わせに基づいて、前記表示装置が設置された場所の気象に対応させて、前記検索条件の内容を変更することを特徴とする。
ここで、表示装置が設置された場所の気象によって、表示装置の周辺の雰囲気は異なり、従って、表示装置によって表示すべき環境に応じた映像も異なる。そして、上記構成によれば、情報処理手段は、表示装置が設置された場所の気象に対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置に、当該表示装置の周辺の気象に対応した映像を表示させることが可能となる。
Further, according to the present invention, the environmental information acquisition means acquires weather information relating to the weather at the place where the display device is installed as the environmental information, and the information processing means is acquired by the environmental information acquisition means. Based on the weather information or based on a combination of the weather information and other environmental information, the content of the search condition is changed corresponding to the weather of the place where the display device is installed. Features.
Here, the atmosphere around the display device differs depending on the weather at the place where the display device is installed. Therefore, the image corresponding to the environment to be displayed by the display device also differs. And according to the said structure, the information processing means can search and collect suitable image information and text information corresponding to the weather of the place where the display device is installed, and the display device has the periphery of the display device. It is possible to display an image corresponding to the weather.

また、本発明は、端末と前記ネットワークを介して通信可能に構成され、前記情報処理手段は、前記映像情報を前記表示装置に出力中、前記端末からの指示に応じて、前記表示装置に出力した前記映像情報に含まれる前記文章情報に関連する情報を記憶する一方、前記端末からの要求に応じて、記憶した前記文章情報、及び、前記文章情報に関連する情報を前記端末に出力することを特徴とする。
この構成によれば、ユーザーは、以下のような動作を行うことができる。すなわち、表示装置が表示する映像を視認していたユーザーは、表示された文章に気になるものがあったときに、自身が所有する端末を操作する。すると、端末からサーバー装置に対して所定のデータが出力され、サーバー装置の情報処理手段は、当該文章に係る文章情報、及び、文章情報に関連する情報を記憶する。そして、ユーザーは、気になった文章について詳細に知りたい場合、サーバー装置にアクセスして、文章情報や、文章情報に関連する情報を取得する。
これにより、ユーザーは、単に、文章情報に基づく文章を視認するだけでなく、自身に必要な文章や、着目すべき文章があった場合は、積極的に、当該文章や、当該文章に関連する情報を取得することができ、より利便性が向上する。
The present invention is configured to be able to communicate with a terminal via the network, and the information processing means outputs the video information to the display device in response to an instruction from the terminal while the video information is being output to the display device. Storing information related to the text information included in the video information, and outputting the stored text information and information related to the text information to the terminal in response to a request from the terminal. It is characterized by.
According to this configuration, the user can perform the following operations. That is, the user who has visually recognized the video displayed on the display device operates the terminal owned by the user when there is something that is anxious about the displayed text. Then, predetermined data is output from the terminal to the server apparatus, and the information processing means of the server apparatus stores the sentence information related to the sentence and information related to the sentence information. And when a user wants to know in detail about the text which became interested, he accesses a server apparatus and acquires text information and the information relevant to text information.
As a result, the user not only visually recognizes the text based on the text information, but also actively relates to the text or the text when there is a text necessary for the user or a text to be noted. Information can be acquired, and convenience is further improved.

本発明によれば、環境に対応し、ユーザーの満足度を向上させる映像を表示装置に表示させることが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to display an image | video which improves a user's satisfaction corresponding to an environment on a display apparatus.

本実施形態に係る映像配信システムの構成を示す図である。It is a figure which shows the structure of the video delivery system which concerns on this embodiment. 映像配信サーバー、及び、表示装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a video delivery server and a display apparatus. 表示装置に表示される映像の一例を示す図である。It is a figure which shows an example of the image | video displayed on a display apparatus. 映像配信サーバーの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a video delivery server. 第1〜第6検索キーテーブルの内容を模式的に示す図である。It is a figure which shows typically the content of the 1st-6th search key table. 映像配信サーバーの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a video delivery server. 定義感情Kと、心理的効能種別Sと、大タグDとの関係を模式的に表わす図である。It is a figure which represents typically the relationship between the definition emotion K, the psychological effect classification S, and the large tag D. 映像配信サーバーの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a video delivery server.

以下、図面を参照して本発明の実施形態について説明する。
<第1実施形態>
図1は、本実施形態に係る映像配信システム1の構成を示す図である。
図1に示すように、映像配信システム1は、映像配信サーバー10(サーバー装置)を備えている。
映像配信サーバー10は、後述する映像配信サービスを提供するサービス提供会社が開発、保守、運営するサーバー装置であり、映像配信サービスは、この映像配信サーバー10におけるソフトウェアとハードウェアとの協働により実現される機能によって提供される。
映像配信サーバー10は、インターネット11(ネットワーク)に接続されており、インターネット11を介して、他の装置と通信可能である。映像配信サーバー10と、他の装置との間では、必要に応じて、所定の暗号化プロトコルに準じた通信や、仮想専用線等の既存の技術によりセキュアな通信が行われる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a diagram showing a configuration of a video distribution system 1 according to the present embodiment.
As shown in FIG. 1, the video distribution system 1 includes a video distribution server 10 (server device).
The video distribution server 10 is a server device that is developed, maintained, and operated by a service provider that provides a video distribution service to be described later. The video distribution service is realized by the cooperation of software and hardware in the video distribution server 10. Provided by the function.
The video distribution server 10 is connected to the Internet 11 (network) and can communicate with other devices via the Internet 11. As necessary, secure communication is performed between the video distribution server 10 and another device using communication according to a predetermined encryption protocol or existing technology such as a virtual private line.

図1に示すように、インターネット11には、複数の表示装置12が接続されている。この表示装置12は、(1)インターネット11等のネットワークを介して映像配信サーバー10と通信する機能、及び、(2)液晶表示パネルや有機ELパネル等の所定の表示手段に映像を表示する機能、を有していれば何であってもよく、例えば、スマートテレビと呼ばれるインターネット11への接続機能を有するテレビや、パーソナルコンピューター、タブレット端末等の携帯端末、スマートフォン等の携帯電話等を本実施形態に係る表示装置12として利用できる。本例では、ネットワークの例として、インターネット11を挙げるが、映像配信サーバー10と、表示装置12との間のネットワークは、物理的、仮想的な専用線、所定の回線等、存在する全てのネットワークを適用可能である。
本実施形態に係る映像配信サービスは、映像配信サーバー10の機能により、社会に存在しない新たな態様で表示装置12に映像を表示することを目的の1つとしている。そして、この映像配信サービスは、例えば、以下のような態様で適用されることが想定されている。
As shown in FIG. 1, a plurality of display devices 12 are connected to the Internet 11. The display device 12 has (1) a function of communicating with the video distribution server 10 via a network such as the Internet 11 and (2) a function of displaying a video on a predetermined display means such as a liquid crystal display panel or an organic EL panel. For example, a TV having a function of connecting to the Internet 11 called a smart TV, a personal computer, a mobile terminal such as a tablet terminal, a mobile phone such as a smartphone, etc. Can be used as the display device 12 according to the above. In this example, the Internet 11 is given as an example of the network, but the network between the video distribution server 10 and the display device 12 includes all existing networks such as physical and virtual dedicated lines and predetermined lines. Is applicable.
The video distribution service according to the present embodiment is intended to display video on the display device 12 in a new manner that does not exist in society by the function of the video distribution server 10. The video distribution service is assumed to be applied in the following manner, for example.

一例としては、表示装置12が、喫茶店や、レストラン、居酒屋等の飲食店の店舗の中であって、来店した顧客(以下、表示装置12を視認する者を総じて「ユーザー」と表現する。)が視認できる位置に設けられる。そして、後に詳述するとおり、映像配信サーバー10は、表示装置12の環境に対応し、ユーザーにとって快適で、ユーザーの感性に訴える映像を、表示装置12に継続して表示させる。例えば、飲食店で会話を楽しんでいるユーザーは、会話の合間に表示装置12を視認して、会話の話題を見つけたり、また例えば、自身のPCを利用して書類を作成する等の作業をしているユーザーは、作業の合間に表示装置12を視認して、何らかのひらめきを得たり、また例えば、一人で飲食をしているユーザーは、表示装置12を何となく視認し、快適さを感じつつ、退屈を紛らわすことができる。ここで挙げた例は、あくまでも一例であり、オフィスビルの共用スペースや、会議室、病院や金融機関、駅等の待合室、教室、カラオケハウスの個室、個人宅等、人間が集まる場所、人間が往来する場所に広く表示装置12を設けることができ、後に明らかとなるとおり、映像配信サーバー10は、表示装置12が設けられた場所やその他の事象に応じて、環境に応じた適切な映像を表示装置12に表示させる。   As an example, the display device 12 is in a store of a restaurant such as a coffee shop, a restaurant, or a pub, and the customer who visits the store (hereinafter, a person who visually recognizes the display device 12 is generally expressed as “user”). Is provided at a position where can be visually recognized. Then, as will be described in detail later, the video distribution server 10 continuously displays video that is compatible with the environment of the display device 12 and that is comfortable for the user and appeals to the user's sensitivity. For example, a user who enjoys a conversation at a restaurant visually recognizes the display device 12 between conversations, finds a topic of conversation, or creates a document using his own PC, for example. The user who is looking at the display device 12 between work and gets some inspiration, for example, the user who is eating and drinking alone feels comfortably looking at the display device 12 somehow Can drown boredom. The examples given here are only examples, such as shared spaces in office buildings, meeting rooms, hospitals and financial institutions, waiting rooms such as stations, classrooms, private rooms in karaoke houses, private homes, etc. The display device 12 can be widely provided in the place where the user goes and the video distribution server 10 displays an appropriate video according to the environment according to the place where the display device 12 is provided and other events. It is displayed on the display device 12.

図1に示すように、映像配信サーバー10には、基地局13が接続された電話回線網14を介して、又は、無線LANに係るアクセスポイントを介して、携帯電話15(端末)が通信可能に接続されている。この携帯電話15は、表示装置12を視認するユーザーが所有するものである。例えば、表示装置12が飲食店に設けられている場合は、携帯電話15は、飲食店に来店し表示装置12に表示された映像を視認するユーザーが所有するものである。   As shown in FIG. 1, a mobile phone 15 (terminal) can communicate with the video distribution server 10 via a telephone line network 14 to which a base station 13 is connected or via an access point related to a wireless LAN. It is connected to the. The mobile phone 15 is owned by a user who views the display device 12. For example, when the display device 12 is provided in a restaurant, the mobile phone 15 is owned by a user who visits the restaurant and views the video displayed on the display device 12.

また、図1に示すように、インターネット11には、画像情報提供サーバー18、文章情報提供サーバー19、及び、音声情報提供サーバー20が接続されている。
画像情報提供サーバー18とは、映像配信サーバー10に対して、画像情報を提供可能なサーバーのことである。画像情報とは、例えば、JPEG方式等の所定の形式の静止画ファイル、MPEG方式等の所定の形式の動画ファイル等、静止画や、動画を表示手段に表示するための情報(データ、データ群)のことである。
例えば、画像情報提供サーバー18は、動画投稿サイトや静止画投稿サイトに係るサーバーであり、この場合、画像情報は、投稿された動画ファイルや静止画ファイルである。また例えば、画像情報提供サーバー18は、企業のホームページや、個人のブログに係るサーバーであり、この場合、画像情報は、アップロードされた動画ファイルや静止画ファイルである。また例えば、画像情報提供サーバー18は、プロモーションビデオ等の映像コンテンツの配信を業として行っている企業、組織が管理するサーバーであり、この場合、画像情報は、提供される動画、静止画に係るコンテンツである。すなわち、近年、インターネット11に関連する技術が発達し、また、インターネット11を介したサービスが拡充しており、インターネット11に接続された無数のサーバー装置に、無数に画像情報が記憶されている。そして、画像情報提供サーバー18は、自身が記憶する画像情報を映像配信サーバー10に提供可能なサーバー装置の1つを便宜的に表現したものである。なお、画像情報提供サーバー18から、映像配信サーバー10に対して、画像情報を提供するためには、著作権の問題をクリアーする必要があるが、本実施形態では、映像配信サーバー10を配信する主体と、サービス提供会社との間で必要な契約が結ばれる等して、著作権の問題は完全にクリアーされているものとする。この点は、後述する文章情報、音声情報についても同様である。
なお、以下の説明では、静止画や、動画を総称して「画像」と表現し、後述する「文章」と明確に区別する。
As shown in FIG. 1, an image information providing server 18, a text information providing server 19, and a voice information providing server 20 are connected to the Internet 11.
The image information providing server 18 is a server that can provide image information to the video distribution server 10. The image information is, for example, information (data, data group) for displaying a still image or a moving image on a display means, such as a still image file of a predetermined format such as JPEG, a moving image file of a predetermined format such as MPEG. ).
For example, the image information providing server 18 is a server related to a moving image posting site or a still image posting site. In this case, the image information is a posted moving image file or a still image file. Further, for example, the image information providing server 18 is a server related to a company homepage or a personal blog. In this case, the image information is an uploaded moving image file or still image file. Further, for example, the image information providing server 18 is a server managed by a company or organization that distributes video content such as promotion videos as business, and in this case, the image information relates to a provided moving image or still image. Content. That is, in recent years, technologies related to the Internet 11 have been developed, and services via the Internet 11 have been expanded, and countless image information is stored in countless server devices connected to the Internet 11. The image information providing server 18 expresses one of the server devices that can provide the image distribution server 10 with the image information stored therein for convenience. In order to provide image information from the image information providing server 18 to the video distribution server 10, it is necessary to clear the copyright problem. In this embodiment, the video distribution server 10 is distributed. It is assumed that the copyright issue has been completely cleared as necessary contracts are concluded between the entity and the service provider. This also applies to text information and audio information described later.
In the following description, still images and moving images are collectively referred to as “images” and are clearly distinguished from “text” described later.

また、文章情報提供サーバー19とは、映像配信サーバー10に対して、文章情報を提供可能なサーバーのことである。文章情報とは、文字によって表現される情報であって、言語としての意味を持った情報のことであり、例えば、文章として表現されたニュース、記事、日記、広告等のことである。
例えば、文章情報提供サーバー19は、通信社、新聞社等のニュースを配信、提供する主体が管理するサーバーであり、この場合、文章情報は、ニュースに係る情報である。この他、文章情報として、ホームページやブログ等に記述された文章に係る情報、短文投稿サイトに投稿された文章に係る情報等がある。近年、インターネット11に接続された無数のサーバー装置に、無数に文章情報が記憶されている。そして、文章情報提供サーバー19は、自身が記憶する文章情報を映像配信サーバー10に提供可能なサーバー装置の1つを便宜的に表現したものである。
また、音声情報提供サーバー20とは、映像配信サーバー10に対して、音声情報を提供可能なサーバーのことである。音声情報とは、MP3等の所定の形式の音声ファイル等、音声に関する情報を保持する情報(データ、データ群)のことである。音声情報提供サーバー20は、例えば、音楽投稿サイトに係るサーバーであり、この場合、音声情報は、投稿された音声ファイルである。また例えば、画像情報提供サーバー18は、企業のホームページや、個人のブログに係るサーバーであり、この場合、画像情報は、アップロードされた音声ファイルである。また例えば、画像情報提供サーバー18は、音楽コンテンツの配信を業として行っている企業、組織が管理するサーバーであり、この場合、音声情報は、提供される音楽に係るコンテンツである。すなわち、近年、インターネット11に接続された無数のサーバー装置に、無数に音声情報が記憶されている。そして、音声情報提供サーバー20は、自身が記憶する音声情報を映像配信サーバー10に提供可能なサーバー装置の1つを便宜的に表現したものである。
The text information providing server 19 is a server that can provide text information to the video distribution server 10. Sentence information is information expressed by characters and has meaning as a language, for example, news, articles, diaries, advertisements, etc. expressed as sentences.
For example, the text information providing server 19 is a server managed by an entity that distributes and provides news such as a news agency or a newspaper company. In this case, the text information is information related to the news. In addition, the text information includes information related to text written on a home page, a blog, etc., information related to text posted on a short text posting site, and the like. In recent years, countless pieces of text information are stored in countless server devices connected to the Internet 11. The text information providing server 19 expresses one of the server devices that can provide text information stored therein to the video distribution server 10 for convenience.
The audio information providing server 20 is a server that can provide audio information to the video distribution server 10. The audio information is information (data, data group) that holds information related to audio, such as an audio file of a predetermined format such as MP3. The audio information providing server 20 is, for example, a server related to a music posting site. In this case, the audio information is a posted audio file. Further, for example, the image information providing server 18 is a server related to a company homepage or a personal blog. In this case, the image information is an uploaded audio file. Further, for example, the image information providing server 18 is a server managed by a company or organization that distributes music content as a business, and in this case, the audio information is content related to the provided music. That is, in recent years, countless audio information is stored in countless server devices connected to the Internet 11. The audio information providing server 20 expresses one of the server devices that can provide the video distribution server 10 with the audio information stored therein for convenience.

また、図1に示すように、インターネット11には、気象情報通知サーバー21が接続されている。この気象情報通知サーバー21は、各エリアの天気等、気象に関する情報を通知する機能を有するサーバー装置である。気象情報通知サーバー21を管理する主体と、サービス提供会社の間では、必要な契約が結ばれており、映像配信サーバー10は、適宜、気象情報通知サーバー21にアクセスし、気象に関する必要な情報を取得できる。   As shown in FIG. 1, a weather information notification server 21 is connected to the Internet 11. The weather information notification server 21 is a server device having a function of notifying information on weather such as weather in each area. Necessary contracts are concluded between the entity that manages the weather information notification server 21 and the service provider, and the video distribution server 10 accesses the weather information notification server 21 as needed to provide necessary information about the weather. You can get it.

図2は、映像配信サーバー10、及び、表示装置12の機能的構成を示すブロック図である。
図2に示すように、映像配信サーバー10は、制御部30と、表示部31と、入力部32と、記憶部33と、インターフェイス部34と、を備えている。
制御部30は、映像配信サーバー10の各部を中枢的に制御するものであり、演算実行部としてのCPUや、このCPUに実行される各種プログラムを不揮発的に記憶するROM、CPUに実行されるプログラムやこのプログラムに係るデータ等を一時的に記憶するRAM、その他の周辺回路等を備えている。制御部30は、環境情報取得部30a(環境情報取得手段)と、情報処理部30b(情報処理手段)とを備えているが、これらについては後述する。これら環境情報取得部30a、及び、情報処理部30bの機能は、制御部30のCPUが所定のプログラムを読み出して実行する等、ハードウェアとソフトウェアとの協働により実現される。
表示部31は、液晶表示パネル等の表示パネルを備え、制御部30の制御の下、表示パネルに各種情報を表示する。
入力部32は、所定の入力デバイスに接続され、入力デバイスに対する操作を検出し、制御部30に出力する。
記憶部33は、ハードディスク等の不揮発性の記憶装置を備え、各種データを書き換え可能に不揮発的に記憶する。
インターフェイス部34は、制御部30の制御の下、インターネット11を介して、表示装置12を含む各種装置と通信規格に準拠した通信を行う。
なお、映像配信サーバー10の構成は、図2に示すものに限らず、例えば、複数のサーバー装置が連係した構成であってもよく、また、集中型システム、分散型システムの一部の機能であってもよい。すなわち、後述する映像配信サーバーに係る各種機能を実現可能な構成であれば、その形態を問わない。
FIG. 2 is a block diagram illustrating functional configurations of the video distribution server 10 and the display device 12.
As shown in FIG. 2, the video distribution server 10 includes a control unit 30, a display unit 31, an input unit 32, a storage unit 33, and an interface unit 34.
The control unit 30 centrally controls each unit of the video distribution server 10, and is executed by a CPU as a calculation execution unit, a ROM that stores various programs executed by the CPU in a nonvolatile manner, and the CPU. A RAM that temporarily stores a program, data related to the program, and other peripheral circuits are provided. The control unit 30 includes an environment information acquisition unit 30a (environment information acquisition unit) and an information processing unit 30b (information processing unit), which will be described later. The functions of the environment information acquisition unit 30a and the information processing unit 30b are realized by the cooperation of hardware and software, such that the CPU of the control unit 30 reads and executes a predetermined program.
The display unit 31 includes a display panel such as a liquid crystal display panel, and displays various types of information on the display panel under the control of the control unit 30.
The input unit 32 is connected to a predetermined input device, detects an operation on the input device, and outputs the operation to the control unit 30.
The storage unit 33 includes a nonvolatile storage device such as a hard disk, and stores various data in a rewritable manner.
The interface unit 34 communicates with various devices including the display device 12 according to the communication standard via the Internet 11 under the control of the control unit 30.
Note that the configuration of the video distribution server 10 is not limited to that shown in FIG. 2, and may be a configuration in which a plurality of server devices are linked, for example, or a part of functions of a centralized system and a distributed system. There may be. That is, the configuration is not limited as long as various functions relating to the video distribution server described later can be realized.

また、図2に示すように、表示装置12は、装置側制御部40と、装置側表示部41と、装置側入力部42と、位置検出部43と、カメラ装置44と、音声処理部45と、インターフェイス部46と、を備えている。
装置側制御部40は、表示装置12の各部を中枢的に制御するものであり、CPUや、ROM、RAM、その他の周辺回路等を備えている。
装置側表示部41は、液晶表示パネルや有機ELパネル等の表示パネル41aを備え、装置側制御部40の制御の下、表示パネル41aに所定の映像を表示する。
装置側入力部42は、表示装置12に設けられた操作スイッチに接続され、操作スイッチに対する操作を検出し、装置側制御部40に出力する。
位置検出部43は、GPS(Global Positioning System)衛星から送信されているGPS電波を受信するアンテナを備え、GPS電波に基づいて、図示せぬ記憶部に記憶された地図データを参照した上で、表示装置12が設けられた位置の座標(経度、緯度)を示す設置位置情報を生成し、装置側制御部40に出力する。
カメラ装置44(撮影手段)は、CCDイメージセンサーやCMOSイメージセンサー等の撮像素子、撮影レンズ群、ズームやフォーカス等の調整を行うためにレンズ群を駆動するレンズ駆動部等を備え、装置側制御部40の制御の下、撮影を行う。装置側制御部40は、インストールされた所定のアプリケーションの機能によって、撮像素子の出力に基づいて、撮影画像を生成する。
音声処理部45(収音手段)は、スピーカー48と接続されており、装置側制御部40から入力された音声信号をデジタル/アナログ変換してスピーカー48に出力することによって、音声信号に係る音声を外部へ放音する。また、音声処理部45は、マイク49と接続されており、マイク49によって収音された音声に係る信号をアナログ/デジタル変換して収音情報を生成し、装置側制御部40に出力する。
インターフェイス部46は、装置側制御部40の制御の下、通信可能な各種機器と、通信規格に準拠した通信を行う。
なお、図2の表示装置12は、一例に過ぎず、表示装置12の種類(スマートテレビ、パーソナルコンピューター等)に応じて、任意の構成を取り得る。
As shown in FIG. 2, the display device 12 includes a device-side control unit 40, a device-side display unit 41, a device-side input unit 42, a position detection unit 43, a camera device 44, and an audio processing unit 45. And an interface unit 46.
The device-side control unit 40 centrally controls each unit of the display device 12, and includes a CPU, a ROM, a RAM, other peripheral circuits, and the like.
The device-side display unit 41 includes a display panel 41a such as a liquid crystal display panel or an organic EL panel, and displays a predetermined image on the display panel 41a under the control of the device-side control unit 40.
The device side input unit 42 is connected to an operation switch provided in the display device 12, detects an operation on the operation switch, and outputs the operation switch to the device side control unit 40.
The position detection unit 43 includes an antenna that receives GPS radio waves transmitted from GPS (Global Positioning System) satellites, and refers to map data stored in a storage unit (not shown) based on the GPS radio waves, Installation position information indicating the coordinates (longitude, latitude) of the position where the display device 12 is provided is generated and output to the device-side control unit 40.
The camera device 44 (photographing means) includes an image sensor such as a CCD image sensor or a CMOS image sensor, a photographing lens group, a lens driving unit for driving the lens group to adjust zoom, focus, etc. Shooting is performed under the control of the unit 40. The apparatus-side control unit 40 generates a captured image based on the output of the image sensor by the function of the installed predetermined application.
The audio processing unit 45 (sound collecting means) is connected to the speaker 48, and the audio signal input from the apparatus-side control unit 40 is digital / analog converted and output to the speaker 48, whereby audio related to the audio signal is obtained. To the outside. The sound processing unit 45 is connected to the microphone 49, and performs analog / digital conversion on a signal related to the sound collected by the microphone 49 to generate sound collection information, and outputs the sound collection information to the apparatus side control unit 40.
The interface unit 46 performs communication based on communication standards with various devices capable of communication under the control of the apparatus-side control unit 40.
Note that the display device 12 in FIG. 2 is merely an example, and can have any configuration depending on the type of the display device 12 (smart TV, personal computer, or the like).

次に、映像配信サービスについて詳述する。
まず、映像配信サービスを提供時の映像配信サーバー10の基本的な動作について簡単に説明する。
映像配信サービスとは、基本的には、映像配信サーバー10が表示装置12に映像を配信し(映像情報を出力し)、表示装置12に映像を表示させるサービスである。映像の配信方法は、ストリーミング再生や、表示装置12に一旦ファイルをダウンロードさせて、ダウンロードさせたファイルを開かせて再生させる方法等、存在する配信方法のいずれをも適用可能である。
映像配信サービスに際し、映像配信サーバー10の情報処理部30bは、検索キーを利用した所定の検索式(検索条件)により、画像情報提供サーバー18により提供される画像情報の中から、検索条件に合致した画像情報を検索し、取得する(ダウンロードする)。すなわち、情報処理部30bは、インターネット11上に無数に存在する画像情報のうち取得可能なものの中から、検索条件に合致するものを検索する。
周知の通り、通常、画像情報には、検索するときのタグとして使用されることが想定されたメタデータが格納されている。例えば、JPEGファイルの所定のエリアに形成されたコメントセグメントには、検索するときのタグとして使用可能なメタデータが格納されており、また例えば、MPEG−7ファイルでは、メタデータがXMLにより記述可能である。そして、情報処理部30bは、画像情報のメタデータを利用して検索を行う既存の検索エンジンの機能を利用して、検索条件に合致した画像情報を検索し、取得する。なお、画像情報を検索する機能は、映像配信サーバー10自体に実装されていてもよく、外部のサーバーの機能を利用するようにしてもよい。
Next, the video distribution service will be described in detail.
First, the basic operation of the video distribution server 10 when providing a video distribution service will be briefly described.
The video distribution service is basically a service in which the video distribution server 10 distributes video to the display device 12 (outputs video information) and causes the display device 12 to display the video. As the video distribution method, any of the existing distribution methods such as streaming reproduction or a method of causing the display device 12 to download the file once and opening the downloaded file for reproduction can be applied.
In the video distribution service, the information processing unit 30b of the video distribution server 10 matches the search condition from the image information provided by the image information providing server 18 by a predetermined search formula (search condition) using a search key. Search and acquire (download) the image information that has been obtained. That is, the information processing unit 30b searches the image information existing innumerably on the Internet 11 for a search condition that matches the search condition.
As is well known, the image information normally stores metadata that is supposed to be used as a tag when searching. For example, a comment segment formed in a predetermined area of a JPEG file stores metadata that can be used as a tag when searching. For example, in an MPEG-7 file, metadata can be described in XML. It is. Then, the information processing unit 30b uses the function of an existing search engine that performs a search using the metadata of the image information to search for and acquire image information that matches the search condition. Note that the function of searching for image information may be implemented in the video distribution server 10 itself, or the function of an external server may be used.

同様にして、情報処理部30bは、検索キーを利用した検索式(検索条件)により、文章情報提供サーバー19により提供される文章情報の中から、検索条件に合致した文章情報を検索し、取得する(ダウンロードする)。すなわち、情報処理部30bは、インターネット11上に無数に存在する文章情報のうち取得可能なものの中から、検索条件に合致するものを検索する。
例えば、通信社等が管理するサーバーが配信するニュースに係る文章情報の場合、通常、ニュースに係る文章情報ごとにメタデータとしてのタグ(例えば、時事、緊急速報、スポーツ、芸能等)が対応付けられているため、情報処理部30bは、当該タグを利用して検索を行う所定の検索エンジンの機能を利用して、検索条件に合致した文章情報を検索する。また例えば、文章情報が、企業、個人のホームページ上に記述された文章に係る情報である場合、情報処理部30bは、メタデータとしての索引情報を利用して検索を行う所定の検索エンジンの機能を利用して、検索条件に合致した文章情報を検索する。
さらに、情報処理部30bは、検索キーを利用した検索式(検索条件)により、音声情報提供サーバー20により提供される音声情報の中から、検索条件に合致した音声情報を検索し、取得する(ダウンロードする)。すなわち、情報処理部30bは、インターネット11上に無数に存在する音声情報のうち取得可能なものについて、検索条件に合致するものを検索する。周知の通り、楽曲情報には、検索するときのタグとして使用されることが想定されたメタデータ(例えば、MP3ファイルのメタデータ)が格納されているため、情報処理部30bは、メタデータを利用して検索を行う既存の検索エンジンの機能を利用して、検索条件に合致した画像情報を検索し、取得する。
Similarly, the information processing unit 30b searches the sentence information provided by the sentence information providing server 19 for the sentence information that matches the search condition by using a search expression (search condition) using the search key, and acquires it. Yes (download). In other words, the information processing unit 30b searches the text information existing innumerably on the Internet 11 from those that can be acquired and that matches the search condition.
For example, in the case of text information related to news distributed by a server managed by a communication company or the like, usually tags (for example, current affairs, emergency bulletins, sports, entertainment, etc.) are associated with each text information related to news. Therefore, the information processing unit 30b searches for text information that matches the search condition by using a function of a predetermined search engine that performs a search using the tag. In addition, for example, when the text information is information related to text described on a company / personal homepage, the information processing unit 30b functions as a predetermined search engine that performs a search using index information as metadata. Is used to search for text information that matches the search conditions.
Furthermore, the information processing unit 30b searches for and acquires voice information that matches the search condition from the voice information provided by the voice information providing server 20 using a search formula (search condition) using a search key ( to download). In other words, the information processing unit 30b searches for audio information that can be acquired from a myriad of audio information on the Internet 11 and that matches the search condition. As is well known, since the music information stores metadata that is assumed to be used as a tag when searching (for example, metadata of an MP3 file), the information processing unit 30b stores the metadata. Search and acquire image information that matches the search conditions using the function of an existing search engine that uses and searches.

以上のようにして、画像情報、文章情報、及び、音声情報のそれぞれを検索した後、情報処理部30bは、画像情報に基づく画像(動画、静止画)と、文章情報に基づく文章とを組み合わせて表示させる映像情報を生成する。映像情報とは、例えば、ストリーミング再生により表示装置12に映像を表示させる場合は、ストリーミング再生に供する画像ファイルのことである。
図3は、映像情報に基づいて表示装置12の表示パネル41aに表示される映像の一例を表す図である。
図3に示すように、映像情報に基づく映像では、表示パネル41aの全域に画像情報に基づく画像G(動画、静止画)が表示されると共に、下部の所定の領域に文章情報に基づく文章Bが文字列として表示される。このように、情報処理部30bは、画像情報と、文章情報とに基づいて、図3に示すような態様で画像情報に基づく画像と、文章情報に基づく文章とが組み合わされた映像を表示させる映像情報を生成する。図3の映像は、あくまで一例であり、文章情報に基づく文章の位置は、図3に示す位置に限らず、また、スクロールしたり、色を付ける等の所定の装飾が施されたりしていてもよい。なお、映像配信サーバー10には、画像情報に対して、所定の画像処理を行うことにより、画像情報と、文章情報とを所定の態様で合成する機能が実装されており、情報処理部30bは、当該機能により、画像情報と文章情報とに基づいて映像情報を生成する。
次いで、情報処理部30bは、生成した映像情報を所定のプロトコルに準拠して表示装置12に出力すると共に、音声情報を表示装置12に出力し、映像情報が示す映像を表示パネル41aに表示させると共に、音声情報に基づいて音声を出力させる。「映像情報を表示装置12に出力して映像を表示させる」とは、例えば、ストリーミング再生の場合は、生成した映像情報に係る画像ファイルを、所定の手順で転送し、再生させることを意味し、また例えば、ファイルをダウンロードさせて映像を表示させる方法の場合は、映像情報に係る画像ファイルをダウンロードさせた後、当該画像ファイルを開いて再生させることを意味する。
After searching for each of image information, sentence information, and audio information as described above, the information processing unit 30b combines an image (moving image, still image) based on the image information and a sentence based on the sentence information. Video information to be displayed. The video information is, for example, an image file used for streaming playback when displaying video on the display device 12 by streaming playback.
FIG. 3 is a diagram illustrating an example of an image displayed on the display panel 41a of the display device 12 based on the image information.
As shown in FIG. 3, in the video based on the video information, an image G (moving image, still image) based on the image information is displayed on the entire area of the display panel 41a, and a text B based on the text information is displayed in a predetermined area below. Is displayed as a string. In this way, the information processing unit 30b displays a video in which an image based on image information and a text based on text information are combined in a manner as shown in FIG. 3 based on the image information and text information. Generate video information. The video in FIG. 3 is merely an example, and the position of the text based on the text information is not limited to the position shown in FIG. Also good. The video distribution server 10 is provided with a function of combining image information and text information in a predetermined manner by performing predetermined image processing on the image information. By this function, video information is generated based on image information and text information.
Next, the information processing unit 30b outputs the generated video information to the display device 12 in accordance with a predetermined protocol, outputs audio information to the display device 12, and displays the video indicated by the video information on the display panel 41a. At the same time, sound is output based on the sound information. “Output the video information to the display device 12 to display the video” means, for example, in the case of streaming playback, the image file relating to the generated video information is transferred and played back in a predetermined procedure. For example, in the case of a method of displaying a video by downloading a file, it means that after downloading an image file related to video information, the image file is opened and reproduced.

情報処理部30bは、以上のような映像情報の生成、出力を継続して行うことにより、表示装置12に映像を継続して表示する。すなわち、画像情報、及び、文章情報は、インターネット11上に無数に存在しているため、検索条件に合致する画像情報、及び、文章情報は、相当数、存在することが想定される。そして、情報処理部30bは、検索、収集した相当数の画像情報、及び、文章情報に基づいて、所定の優先順位に従って、順次、映像情報を生成し、映像を表示させる。
このように、本実施形態では、映像配信サーバー10は、予め準備した画像ファイルに基づいて、所定の規則に従って同様の映像を繰り返し表示させるのではなく、インターネット11上に無数に存在する画像情報、及び、文章情報を検索、収集し、順次、これら情報に基づいて映像情報を生成して、映像を表示させる。このため、同じ映像を繰り返し表示させるのではなく、異なる映像をランダムに表示させることが可能となり、ユーザーを飽きさせず、ユーザーの満足度を向上させることができる。
The information processing unit 30b continuously displays video on the display device 12 by continuously generating and outputting the video information as described above. That is, since there are an infinite number of image information and text information on the Internet 11, it is assumed that there are a considerable number of image information and text information that match the search condition. Then, the information processing section 30b sequentially generates video information according to a predetermined priority order based on the searched and collected considerable number of image information and text information, and displays the video.
As described above, in the present embodiment, the video distribution server 10 does not repeatedly display the same video according to a predetermined rule based on the image file prepared in advance, Then, text information is searched and collected, and video information is generated based on the information in order and displayed. For this reason, it is possible not to repeatedly display the same image but to display different images at random, and to improve user satisfaction without getting tired of the user.

さらに、情報処理部30bは、検索条件に基づいて、インターネット11上の画像情報、及び、文章情報を検索して取得し、取得した画像情報、及び、文章情報に基づいて、これら情報を「組み合わせて」表示させるための映像情報を生成し、映像情報を表示装置12に出力する。このように、検索条件に基づいて、画像情報、及び、文章情報を検索することにより、画像情報、及び、文章情報について、無秩序に収集するのではなく、何らかの統一性や、関連性を持たせて適切に検索し、収集可能である。そして、適切に検索し、収集した画像情報と、文章情報とを組み合わせて表示させることにより、画像情報に基づいて表示される画像(動画、静止画)によりユーザーの直感的な感性に訴えつつ、文章情報に基づいて表示される文章によりユーザーの論理的な思考を刺激することができ、ユーザーの感性に多面的、かつ、効果的に訴える映像を表示させることが可能となり、これに伴って、ユーザーの満足度を向上させる映像を表示させることが可能となる。
特に、上記構成によれば、画像情報と、文章情報とを独立して検索し、収集した上で、これら情報を組み合わせて映像情報を生成するため、画像情報に基づく画像と、文章情報に基づく文章との多彩な組み合わせを映像として提供することができ、この点でも、ユーザーを飽きさせない。さらに、画像と文章とのランダムな組み合わせがユーザーの感性に訴えるという点で、偶発的に予期せぬ相乗効果を生むことがあり、この点で、エンターテインメント性が高い映像を提供可能である。
Further, the information processing unit 30b searches for and acquires image information and text information on the Internet 11 based on the search condition, and “combines these pieces of information based on the acquired image information and text information. The video information to be displayed is generated and the video information is output to the display device 12. In this way, by searching for image information and text information based on search conditions, image information and text information are not collected randomly, but have some uniformity or relevance. Can be properly searched and collected. And by appropriately searching and displaying the collected image information and sentence information in combination, while appealing to the intuitive sensibility of the user by the image (video, still image) displayed based on the image information, The text displayed based on the text information can stimulate the logical thinking of the user, and it is possible to display a video that appeals to the user's sensibility in a multifaceted and effective manner. It is possible to display an image that improves user satisfaction.
In particular, according to the above configuration, the image information and the text information are independently searched and collected, and the video information is generated by combining these information. Therefore, the image based on the image information and the text information are used. Various combinations with sentences can be provided as images, and this does not bore users. Furthermore, a random combination of images and sentences appeals to the user's sensibility, which may cause an unexpected and unexpected synergistic effect. In this respect, it is possible to provide a video with high entertainment properties.

ところで、上述したように、表示装置12は、喫茶店や、バー等の飲食店、金融機関の待合室や、オフィスビルの共用スペース等、様々な場所に設置されることが想定されており、また、表示装置12が設置された空間の雰囲気や、当該空間に存在する人間の人数等は時間帯、天気、その他の要因により変化し、一定ではない。すなわち、表示装置12の環境は、様々な要因により変化する。そして、表示装置12が表示する映像を、当該表示装置12の環境に対応させることができれば、表示装置12が表示する映像と、周りの雰囲気がマッチすることとなり、ユーザーに違和感を与えることなく、ユーザーの快適さを向上でき、その満足度を向上できる。
このことを踏まえ、本実施形態に係る映像配信サーバー10は、以下の動作を実行することにより、表示装置12が設けられた場所やその他の事象に応じて、表示装置12の環境に応じた適切な映像を表示させる。
By the way, as described above, the display device 12 is assumed to be installed in various places such as a coffee shop, a restaurant such as a bar, a waiting room of a financial institution, and a shared space of an office building. The atmosphere of the space in which the display device 12 is installed, the number of humans present in the space, etc. vary depending on the time zone, weather, and other factors, and are not constant. That is, the environment of the display device 12 changes due to various factors. Then, if the video displayed on the display device 12 can be adapted to the environment of the display device 12, the video displayed on the display device 12 and the surrounding atmosphere will match, without giving the user a sense of incongruity, User comfort can be improved and satisfaction can be improved.
Based on this, the video distribution server 10 according to the present embodiment performs the following operations, so that the video distribution server 10 can be appropriately adapted to the environment of the display device 12 according to the location where the display device 12 is provided and other events. The correct video.

図4は、映像配信サーバー10が、映像配信サービスを提供する際に行う動作のフローチャートである。図4のフローチャートが示す処理は、表示装置12の環境に応じて適切な検索条件を構築すること、より具体的には、画像情報、文章情報、及び、音声情報を検索する際に使用する検索キーを適切に選別することを目的とした処理である。図4のフローチャートが示す処理は、例えば、1時間おき等、予め設定された所定のタイミングで行われる。
図4を参照し、映像配信サーバー10の制御部30の環境情報取得部30aは、表示装置12の装置側制御部40と、所定のプロトコルに準拠して通信し、設置位置情報を取得する。上述したように、設置位置情報とは、表示装置12が設けられた位置の座標(経度、緯度)を示す情報であり、表示装置12の位置検出部43により生成されるものである(ステップSA1)。
次いで、情報処理部30bは、環境情報取得部30aにより取得された設置位置情報に基づいて、表示装置12が設置された場所の「土地柄」(表示装置12が設置された場所の属性)を取得する(ステップSA2)。以下、ステップSA2の処理について詳述する。
土地柄とは、繁華街、オフィス街、住宅街、都会、地方都市といった、地図上のエリアの特徴、性質のことである。本実施形態では、映像配信サーバー10の記憶部33に地図データベースが記憶されており、地図が複数のエリアに区分けされると共に、エリアごとに土地柄を示す情報が対応付けて記憶されている。ステップSA2において、情報処理部30bは、設置位置情報、及び、地図データベースに基づいて、表示装置12の設置位置が地図上のどのエリアに属しているかを判別すると共に、属しているエリアと対応付けられた土地柄を、表示装置12が設置された場所の土地柄として、取得する。
なお、本実施形態では、映像配信サーバー10自体が地図データベースを有し、設置位置情報に基づいて土地柄を取得する構成であるが、外部のサーバーに問い合わせる構成であってもよい。
FIG. 4 is a flowchart of operations performed when the video distribution server 10 provides a video distribution service. The process shown in the flowchart of FIG. 4 is to construct an appropriate search condition according to the environment of the display device 12, more specifically, a search used when searching for image information, text information, and audio information. This process is aimed at appropriately selecting keys. The process shown in the flowchart of FIG. 4 is performed at a predetermined timing set in advance, for example, every hour.
Referring to FIG. 4, the environment information acquisition unit 30a of the control unit 30 of the video distribution server 10 communicates with the device-side control unit 40 of the display device 12 in accordance with a predetermined protocol, and acquires installation position information. As described above, the installation position information is information indicating the coordinates (longitude, latitude) of the position where the display device 12 is provided, and is generated by the position detection unit 43 of the display device 12 (step SA1). ).
Next, the information processing unit 30b obtains the “land pattern” of the place where the display device 12 is installed (the attribute of the place where the display device 12 is installed) based on the installation position information acquired by the environment information acquisition unit 30a. Obtain (step SA2). Hereinafter, the process of step SA2 will be described in detail.
A land pattern is a characteristic or property of an area on a map such as a downtown area, an office area, a residential area, an urban area, or a local city. In the present embodiment, a map database is stored in the storage unit 33 of the video distribution server 10, the map is divided into a plurality of areas, and information indicating a land pattern is stored in association with each area. In step SA2, the information processing unit 30b determines which area on the map the installation position of the display device 12 belongs to based on the installation position information and the map database, and associates it with the area to which it belongs. The obtained land pattern is acquired as the land pattern of the place where the display device 12 is installed.
In the present embodiment, the video distribution server 10 itself has a map database and acquires a land pattern based on the installation position information, but it may be configured to make an inquiry to an external server.

次いで、情報処理部30bは、表示装置12が設置された場所の「空間種別」(表示装置12が設置された場所の属性)を取得する(ステップSA3)。
空間種別とは、喫茶店や、居酒屋、カラオケハウス、駅、オフィスビル、教室、路面等、表示装置12が設けられた空間、領域の用途に応じた区分のことである。上述した地図データベースには、地図上に存在する建物や、施設等について、「空間種別」が対応付けて記憶されており、情報処理部30bは、設置位置情報、及び、地図データベースに基づいて、表示装置12が設置されている建物や、施設等を特定すると共に、特定した建物等と対応付けられた空間種別を、表示装置12が設置された場所の空間種別として、取得する。
次いで、情報処理部30bは、第1検索キーテーブルK1を参照し、ステップSA2で取得した土地柄、及び、ステップSA3で取得した空間種別に基づいて、第1検索キーを特定する(ステップSA4)。
Next, the information processing unit 30b acquires the “space type” of the place where the display device 12 is installed (the attribute of the place where the display device 12 is installed) (step SA3).
The space type is a classification according to the use of the space and area in which the display device 12 is provided, such as a coffee shop, a pub, a karaoke house, a station, an office building, a classroom, and a road surface. In the map database described above, “space type” is stored in association with buildings and facilities existing on the map, and the information processing unit 30b is based on the installation position information and the map database. The building or facility where the display device 12 is installed is specified, and the space type associated with the specified building is acquired as the space type of the place where the display device 12 is installed.
Next, the information processing unit 30b refers to the first search key table K1, and specifies the first search key based on the land pattern acquired in step SA2 and the space type acquired in step SA3 (step SA4). .

図5(A)は、第1検索キーテーブルK1の一例を模式的に示す図である。
第1検索キーテーブルK1とは、土地柄と、空間種別との組み合わせごとに、検索キーを対応付けて記憶するテーブルである。なお、図5(A)に示すように、検索キーは、画像情報、文章情報、及び、音声情報ごとに存在しており、第1検索キーテーブルK1では、土地柄と空間種別との組み合わせごとに、各情報の検索キーが対応付けて記憶されている。この点は、後述する他のテーブルにおける検索キーについても同様である。また、第1検索キーテーブルK1は、情報処理部30bの機能を実現するプログラム上に定義されているものでもよく、また、当該プログラムが参照可能な態様で記憶部33に記憶されたデータであってもよい。後述する各テーブルについても同様である。
ここで、土地柄と、空間種別との組み合わせによって、表示装置12が設けられた場所の状態、雰囲気(環境)は異なり、場所の雰囲気にマッチした映像も異なる。例えば、繁華街の居酒屋と、オフィス街の喫茶店とでは、場所の雰囲気が異なり、来店した顧客が快適さを感じる映像も異なる。そして、第1検索キーテーブルK1は、土地柄と、空間種別との組み合わせごとに、環境に適した画像情報、文章情報、及び、音声情報を検索するための検索キーを対応付けて記憶する。なお、土地柄と、空間種別との組み合わせに対応付けられた検索キーは、担当者が自由に設定できる構成となっている。
ステップSA4では、情報処理部30bは、第1検索キーテーブルK1を参照し、ステップSA2で取得した土地柄、及び、ステップSA3で取得した空間種別の組み合わせに対応づけられた検索キーを、第1検索キーとして特定する。例えば、図5(A)の例において、土地柄が「オフィス街」であり、空間種別が「喫茶店」の場合、情報処理部30bは、画像情報の第1検索キーとして「高級感」を、文章情報の第1検索キーとして「経済ニュース」を、音楽情報の第1検索キーとして「ローテンポ」をそれぞれ特定する。
FIG. 5A is a diagram schematically illustrating an example of the first search key table K1.
The first search key table K1 is a table that stores a search key in association with each combination of land pattern and space type. As shown in FIG. 5A, a search key exists for each piece of image information, text information, and audio information. In the first search key table K1, each combination of a land pattern and a space type is provided. In addition, a search key for each information is stored in association with each other. This also applies to search keys in other tables described later. Further, the first search key table K1 may be defined on a program that realizes the function of the information processing unit 30b, and is data stored in the storage unit 33 in such a manner that the program can be referred to. May be. The same applies to each table described later.
Here, depending on the combination of the land pattern and the space type, the state and atmosphere (environment) of the place where the display device 12 is provided are different, and the images matching the atmosphere of the place are also different. For example, a bar in a downtown area and a coffee shop in an office area have different atmospheres of the places, and images of customers who come to the store feel comfortable. And the 1st search key table K1 matches and memorize | stores the search key for searching the image information suitable for environment, text information, and audio | voice information for every combination of a land pattern and a space classification. The search key associated with the combination of the land pattern and the space type can be freely set by the person in charge.
In step SA4, the information processing unit 30b refers to the first search key table K1, and uses the first search key associated with the combination of the land pattern acquired in step SA2 and the space type acquired in step SA3. Identified as a search key. For example, in the example of FIG. 5A, when the land pattern is “office town” and the space type is “coffee shop”, the information processing unit 30 b uses “luxury” as the first search key for image information. “Economic news” is specified as a first search key for text information, and “low tempo” is specified as a first search key for music information.

なお、本実施形態では、表示装置12が、GPS電波を利用して自身の位置を検出する位置検出部43を備えているが、表示装置12が、このような自動で自身の位置を検出する機能を有していない場合もある。このような場合であっても、以下の手段により、環境情報取得部30aは、表示装置12の設置位置情報を取得できる構成となっている。すなわち、近年、GPSによる位置検出機能を有している携帯電話や携帯端末(外部機器)が広く普及している。これを利用して、映像配信サーバー10は、携帯電話等からアクセス可能な専用のページを公開しており、例えば、表示装置12を作業者が、表示装置12の近くにいるときに、自身の携帯電話を利用して、当該専用のページにアクセスし、必要な操作を行うと、当該携帯電話から映像配信サーバー10に対して、携帯電話の位置情報が出力される。そして、環境情報取得部30aは、携帯電話の位置情報を表示装置12の設置位置情報として取得する。
この他、携帯電話等に携帯電話の位置情報をインターネット11を介して映像配信サーバー10に出力させる専用のアプリケーションをインストールさせ、このアプリケーションの機能により、環境情報取得部30aが、設置位置情報を取得する構成であってもよい。
また、映像配信サーバー10が、表示装置12や、携帯電話等の機器に所定のユーザーインターフェイスを提供し、提供されたユーザーインターフェイスに、ユーザーが、表示装置12が設置された場所に関する情報を入力する等、人為的な手段が介在する手段によって、環境情報取得部30aが、設置位置情報を取得する構成であってもよい。
In the present embodiment, the display device 12 includes the position detection unit 43 that detects its own position using GPS radio waves. However, the display device 12 automatically detects its own position. It may not have a function. Even in such a case, the environment information acquisition unit 30a can acquire the installation position information of the display device 12 by the following means. That is, in recent years, mobile phones and mobile terminals (external devices) having a position detection function using GPS have become widespread. Using this, the video distribution server 10 publishes a dedicated page that can be accessed from a mobile phone or the like. For example, when the operator is using the display device 12 near the display device 12, When the mobile phone is used to access the dedicated page and perform a necessary operation, the mobile phone outputs positional information of the mobile phone to the video distribution server 10. Then, the environment information acquisition unit 30a acquires the position information of the mobile phone as the installation position information of the display device 12.
In addition, a dedicated application for causing the mobile phone or the like to output the location information of the mobile phone to the video distribution server 10 via the Internet 11 is installed, and the environment information acquisition unit 30a acquires the installation location information by the function of this application. It may be configured to.
In addition, the video distribution server 10 provides a predetermined user interface to the display device 12 or a device such as a mobile phone, and the user inputs information regarding a place where the display device 12 is installed to the provided user interface. For example, the environment information acquisition unit 30a may acquire the installation position information by means including human means.

さて、第1検索キーを特定した後、環境情報取得部30aは、現在の曜日、及び、時刻を示す日時情報を取得する(ステップSA5)。曜日、時刻の取得は、例えば、RTCや、CPUのクロックを利用した既存の技術で行われる。
次いで、情報処理部30bは、第2検索キーテーブルK2を参照し、ステップSA5で取得した日時情報に基づいて、第2検索キーを特定する(ステップSA6)。
図5(B)は、第2検索キーテーブルK2の一例を模式的に示す図である。
第2検索キーテーブルK2は、土地柄、及び、空間種別の組み合わせごとに存在しており、ステップSA6では、情報処理部30bは、ステップSA2で取得した土地柄、及び、ステップSA3で取得した空間種別の組み合わせに対応する第2検索キーテーブルK2を参照する。図5(B)は、一例として、土地柄:オフィス街、空間種別:喫茶店の場合に対応する第2検索キーテーブルK2を示している。
第2検索キーテーブルK2とは、曜日と、時刻が属する時間帯との組み合わせごとに、検索キーを対応付けて記憶するテーブルである。
ここで、曜日と、現在の時刻が属する時間帯との組み合わせによって、表示装置12が設けられた場所の状態、雰囲気は異なり、環境に対応した映像も異なる。例えば、平日の朝と、休日の夜とでは、場所の雰囲気が異なり、来店した顧客が快適さを感じる映像も異なる。そして、第2検索キーテーブルK2は、曜日と、現在の時刻が属する時間帯との組み合わせごとに、環境に対応した画像情報、文章情報、及び、音声情報を検索するための検索キーを対応付けて記憶する。
ステップSA6では、情報処理部30bは、第2検索キーテーブルK2を参照し、ステップSA5で取得した曜日、時刻が属する時間帯の組み合わせに対応づけられた検索キーを、第2検索キーとして特定する。例えば、図5(B)の例において、曜日が「月曜日」であり、時間帯が「10:00〜12:00」の場合、情報処理部30bは、画像情報の第2検索キーとして「朝」を、文章情報の第2検索キーとして「今日の天気」を、音楽情報の第2検索キーとして「クラシック」をそれぞれ特定する。
なお、本例では、日時情報は、曜日と時刻であるが、日時情報としては、年月日、曜日、季節等、「時間」の概念を含んだ情報を広く利用できる。
Now, after specifying a 1st search key, the environment information acquisition part 30a acquires the date information which shows the present day of the week and time (step SA5). The acquisition of the day of the week and the time is performed by, for example, an existing technology using an RTC or a CPU clock.
Next, the information processing unit 30b refers to the second search key table K2 and specifies the second search key based on the date / time information acquired in Step SA5 (Step SA6).
FIG. 5B is a diagram schematically illustrating an example of the second search key table K2.
The second search key table K2 exists for each combination of land pattern and space type. In step SA6, the information processing unit 30b acquires the land pattern acquired in step SA2 and the space acquired in step SA3. The second search key table K2 corresponding to the combination of types is referred to. FIG. 5B shows, as an example, a second search key table K2 corresponding to the case of land pattern: office district, space type: coffee shop.
The second search key table K2 is a table that stores a search key in association with each combination of the day of the week and the time zone to which the time belongs.
Here, depending on the combination of the day of the week and the time zone to which the current time belongs, the state and atmosphere of the place where the display device 12 is provided are different, and the video corresponding to the environment is also different. For example, the atmosphere of the place is different between weekday mornings and holiday nights, and the images that customers feel comfortable with are different. The second search key table K2 associates search keys for searching for image information, text information, and audio information corresponding to the environment for each combination of the day of the week and the time zone to which the current time belongs. Remember.
In step SA6, the information processing unit 30b refers to the second search key table K2, and specifies the search key associated with the combination of the day of the week and time acquired in step SA5 as the second search key. . For example, in the example of FIG. 5B, when the day of the week is “Monday” and the time zone is “10:00 to 12:00”, the information processing unit 30b uses “morning” as the second search key for image information. ”,“ Today's weather ”as the second search key for text information, and“ Classic ”as the second search key for music information.
In this example, the date and time information is the day of the week and the time, but as the date and time information, information including the concept of “time” such as date, day of the week, season, etc. can be widely used.

さて、第2検索キーを特定した後、環境情報取得部30aは、表示装置12の装置側制御部40と所定のプロトコルに準拠して通信し、カメラ装置44の撮影に基づく撮影画像を取得する(ステップSA7)。ここで環境情報取得部30aにより取得される撮影画像は、現時点からできるだけ時間的に近い時点で撮影されたものとされる。
次いで、情報処理部30bは、環境情報取得部30aにより取得された撮影画像に基づいて、表示装置12の周辺の明るさ(明るい/暗い)を取得する(ステップSA8)。当該判別は、既存の手法の全てを適用可能であり、例えば、撮影画像を構成する一部、又は、全部の画素の色成分の階調値の平均値を算出し、算出した平均値と所定の閾値との比較により行われる。
次いで、情報処理部30bは、第3検索キーテーブルK3を参照し、ステップSA8で取得した表示装置12の周辺の明るさに基づいて、第3検索キーを特定する(ステップSA9)。
図5(C)は、第3検索キーテーブルK3の一例を模式的に示す図である。
第3検索キーテーブルK3は、土地柄、及び、空間種別の組み合わせごとに存在しており、ステップSA9では、情報処理部30bは、ステップSA2で取得した土地柄、及び、ステップSA3で取得した空間種別の組み合わせに対応する第3検索キーテーブルK3を参照する。図5(C)は、一例として、土地柄:オフィス街、空間種別:喫茶店の場合の第3検索キーテーブルK3を示している。
第3検索キーテーブルK3とは、明るさ(明るい/暗い)ごとに検索キーを対応付けて記憶するテーブルである。
ここで、表示装置12の周辺が明るいか暗いかによって、表示装置12が設けられた場所の状態、雰囲気は異なり、環境に対応した映像も異なる。例えば、明るい場合は、表示装置12が設けられた空間は、賑やかな傾向にあり、暗い場合は、表示装置12が設けられた空間は、落ち着いた傾向にあると言える。そして、第3検索キーテーブルK3は、表示装置12の周辺の明るさ(明るい/暗い)ごとに、環境に対応した画像情報、文章情報、及び、音声情報を検索するときの検索キーを対応付けて記憶する。
ステップSA9では、情報処理部30bは、第3検索キーテーブルK3を参照し、ステップSA8で取得した明るさ(明るい/暗い)に対応づけられた検索キーを、第3検索キーとして特定する。例えば、図5(C)の例において、表示装置12の周辺の明るさが「明るい」場合、情報処理部30bは、画像情報、及び、音声情報の第3検索キーとして「明るい」を特定する。
After specifying the second search key, the environment information acquisition unit 30a communicates with the device-side control unit 40 of the display device 12 in accordance with a predetermined protocol, and acquires a captured image based on the image captured by the camera device 44. (Step SA7). Here, the captured image acquired by the environment information acquisition unit 30a is captured at a time as close as possible to the current time.
Next, the information processing unit 30b acquires the brightness (bright / dark) around the display device 12 based on the captured image acquired by the environment information acquisition unit 30a (step SA8). For the determination, all existing methods can be applied. For example, the average value of the gradation values of the color components of a part or all of the pixels constituting the captured image is calculated, and the calculated average value and a predetermined value are determined. This is performed by comparison with the threshold value.
Next, the information processing unit 30b refers to the third search key table K3, and specifies the third search key based on the brightness around the display device 12 acquired in step SA8 (step SA9).
FIG. 5C is a diagram schematically illustrating an example of the third search key table K3.
The third search key table K3 exists for each combination of land pattern and space type. In step SA9, the information processing unit 30b acquires the land pattern acquired in step SA2 and the space acquired in step SA3. The third search key table K3 corresponding to the combination of types is referred to. FIG. 5C shows, as an example, a third search key table K3 in the case of land pattern: office district and space type: coffee shop.
The third search key table K3 is a table that stores a search key in association with each brightness (bright / dark).
Here, depending on whether the periphery of the display device 12 is bright or dark, the state and atmosphere of the place where the display device 12 is provided are different, and the image corresponding to the environment is also different. For example, when the display device 12 is bright, the space provided with the display device 12 tends to be lively. When the display device is dark, the space provided with the display device 12 tends to be calm. The third search key table K3 associates search keys for searching image information, text information, and audio information corresponding to the environment for each brightness (bright / dark) around the display device 12. Remember.
In step SA9, the information processing section 30b refers to the third search key table K3, and specifies the search key associated with the brightness (bright / dark) acquired in step SA8 as the third search key. For example, in the example of FIG. 5C, when the brightness around the display device 12 is “bright”, the information processing unit 30 b specifies “bright” as the third search key for image information and audio information. .

さて、第3検索キーを特定した後、情報処理部30bは、ステップSA7で環境情報取得部30aにより取得された撮影画像に基づいて、表示装置12の周辺に存在する人間の多寡(多い/少ない)を取得する(ステップSA10)。ステップSA10の処理は、既存の手法の全てを適用可能である。例えば、情報処理部30bは、撮影画像について既存の顔検出を行って、撮影画像に写っている人間の顔の数を検出し、検出した人間の顔の数と所定の閾値とを比較し、表示装置12の周辺に存在する人間の多寡(多い/少ない)を取得する。
次いで、情報処理部30bは、第4検索キーテーブルK4を参照し、ステップSA10で取得した表示装置12の周辺に存在する人間の多寡に基づいて、第4検索キーを特定する(ステップSA11)。
図5(D)は、第4検索キーテーブルK4の一例を模式的に示す図である。
第4検索キーテーブルK4は、土地柄、及び、空間種別の組み合わせごとに存在しており、ステップSA11では、情報処理部30bは、ステップSA2で取得した土地柄、及び、ステップSA3で取得した空間種別の組み合わせに対応する第4検索キーテーブルK4を参照する。図5(D)は、一例として、土地柄:オフィス街、空間種別:喫茶店の場合の第4検索キーテーブルK4を示している。
第4検索キーテーブルK4とは、表示装置12の周辺に存在する人間の多寡(多い/少ない)ごとに検索キーを対応付けて記憶するテーブルである。
ここで、表示装置12の周辺に存在する人間が多いか少ないかによって、表示装置12が設けられた場所の状態、雰囲気は異なり、環境に対応した映像も異なる。そして、第4検索キーテーブルK4は、表示装置12の周辺に存在する人間の多寡(多い/少ない)ごとに、環境に対応した画像情報、文章情報、及び、音声情報を検索するときの検索キーを対応付けて記憶する。
ステップSA11では、情報処理部30bは、第4検索キーテーブルK4を参照し、ステップSA10で取得した人間の多寡(多い/少ない)に対応づけられた検索キーを、第4検索キーとして特定する。例えば、図5(D)の例において、表示装置12の周辺に存在する人間が「多い」場合、情報処理部30bは、画像情報、及び、音声情報の第4検索キーとして「賑やか」を特定する。
Now, after specifying the third search key, the information processing unit 30b, based on the photographed image acquired by the environment information acquisition unit 30a in step SA7, the number of humans present in the vicinity of the display device 12 (more / less) ) Is acquired (step SA10). All the existing methods can be applied to the process of step SA10. For example, the information processing unit 30b performs existing face detection on the captured image, detects the number of human faces reflected in the captured image, compares the detected number of human faces with a predetermined threshold, The number (many / few) of humans present around the display device 12 is acquired.
Next, the information processing unit 30b refers to the fourth search key table K4, and specifies the fourth search key based on the number of people present around the display device 12 acquired in Step SA10 (Step SA11).
FIG. 5D is a diagram schematically illustrating an example of the fourth search key table K4.
The fourth search key table K4 exists for each combination of land pattern and space type. In step SA11, the information processing unit 30b acquires the land pattern acquired in step SA2 and the space acquired in step SA3. The fourth search key table K4 corresponding to the combination of types is referred to. FIG. 5D shows, as an example, a fourth search key table K4 in the case of land pattern: office district, space type: coffee shop.
The fourth search key table K4 is a table that stores a search key in association with each person's number (many / few) around the display device 12.
Here, depending on whether there are many or few people around the display device 12, the state and atmosphere of the place where the display device 12 is provided are different, and the images corresponding to the environment are also different. The fourth search key table K4 is a search key for searching for image information, text information, and audio information corresponding to the environment for each person (many / small) in the vicinity of the display device 12. Are stored in association with each other.
In step SA11, the information processing section 30b refers to the fourth search key table K4, and specifies the search key associated with the number of humans (more / less) acquired in step SA10 as the fourth search key. For example, in the example of FIG. 5D, when there are “many” people around the display device 12, the information processing unit 30 b identifies “lively” as the fourth search key for image information and audio information. To do.

さて、第4検索キーを特定した後、環境情報取得部30aは、表示装置12の装置側制御部40と所定のプロトコルに準拠して通信し、音声処理部45が生成した収音情報を取得する(ステップSA12)。
次いで、情報処理部30bは、環境情報取得部30aにより取得された収音情報に基づいて、表示装置12が設置された場所に音楽が流れているか否かを判別する(ステップSA13)。当該判別は、既存の手法の全てを利用可能である。例えば、収音情報が示す音声の波形の特定の帯域の状態や、波形のピークのピッチ等を分析し、分析結果に基づいて、音楽が流れているか否かを判別する。
音楽が流れていないと判別した場合(ステップSA13:NO)、情報処理部30bは、処理手順をステップSA16へ移行する。
一方、音楽が流れていると判別した場合(ステップSA13:YES)、情報処理部30bは、さらに収音情報を分析して、流れている音楽がアップテンポであるか、ローテンポであるかを判別する(ステップSA14)。当該判別は、既存の手法の全てを利用可能である。例えば、情報処理部30bは、収音情報が示す音声の波形に基づいて、ドラムリズムパターンを抽出し、このドラムリズムパターンに基づいて、音楽がアップテンポであるかローテンポであるかを判別する。
After specifying the fourth search key, the environment information acquisition unit 30a communicates with the device-side control unit 40 of the display device 12 in accordance with a predetermined protocol, and acquires the sound collection information generated by the voice processing unit 45. (Step SA12).
Next, the information processing unit 30b determines whether music is flowing in the place where the display device 12 is installed based on the sound collection information acquired by the environment information acquisition unit 30a (step SA13). For this determination, all existing methods can be used. For example, the state of a specific band of the sound waveform indicated by the sound collection information, the peak pitch of the waveform, and the like are analyzed, and it is determined whether music is flowing based on the analysis result.
If it is determined that music is not flowing (step SA13: NO), the information processing section 30b moves the processing procedure to step SA16.
On the other hand, if it is determined that music is flowing (step SA13: YES), the information processing unit 30b further analyzes the sound collection information to determine whether the flowing music is up-tempo or low-tempo. (Step SA14). For this determination, all existing methods can be used. For example, the information processing unit 30b extracts a drum rhythm pattern based on the sound waveform indicated by the sound collection information, and determines whether the music is up-tempo or low-tempo based on the drum rhythm pattern.

次いで、情報処理部30bは、第5検索キーテーブルK5を参照し、ステップSA15の判別結果に基づいて、第5検索キーを特定する(ステップSA15)。
図5(E)は、第5検索キーテーブルK5の一例を模式的に示す図である。
第5検索キーテーブルK5は、土地柄、及び、空間種別の組み合わせごとに存在しており、ステップSA15では、情報処理部30bは、ステップSA2で取得した土地柄、及び、ステップSA3で取得した空間種別の組み合わせに対応する第5検索キーテーブルK5を参照する。図5(E)は、一例として、土地柄:オフィス街、空間種別:喫茶店の場合の第4検索キーテーブルK4を示している。
第5検索キーテーブルK5とは、音楽のテンポ(アップテンポ/ローテンポ)ごとに検索キーを対応付けて記憶するテーブルである。
ここで、表示装置12が設置された場所に流れている音楽のテンポによって、表示装置12が設けられた場所の状態、雰囲気は異なり、環境に対応した映像も異なる。例えば、流れている音楽がローテンポの場合は、表示装置12が設置された周辺の雰囲気が、落ち着いた雰囲気である傾向にある。そして、第5検索キーテーブルK5は、音楽のテンポ(アップテンポ/ローテンポ)ごとに、環境に対応した画像情報、文章情報、及び、音声情報を検索するときの検索キーを対応付けて記憶する。
ステップSA15では、情報処理部30bは、第5検索キーテーブルK5を参照し、ステップSA14で判別した音楽のテンポに対応づけられた検索キーを、第5検索キーとして特定する。例えば、図5(E)の例において、音楽がローテンポである場合、情報処理部30bは、画像情報の第5検索キーとして「シック」特定する。
なお、本例では、ステップSA14において、音楽のテンポを判別しているが、音楽のジャンルを判別し、ジャンルに応じた第5検索キーを特定するようにしてもよい。
また、ステップSA13において音楽が流れていると判別した場合は、情報処理部30bは、所定のフラグを立てる。そして、映像配信サービスの提供に際し、情報処理部30bは、音声情報の検索、収集、及び、表示装置12への出力を行わない。これは、表示装置12が設置された場所に音楽が流れている状態のときに、表示装置12から音声を出力した場合、音が重なり、ユーザーに不快感を与える可能性があるからである。
Next, the information processing section 30b refers to the fifth search key table K5 and specifies the fifth search key based on the determination result of step SA15 (step SA15).
FIG. 5E is a diagram schematically illustrating an example of the fifth search key table K5.
The fifth search key table K5 exists for each combination of land pattern and space type. In step SA15, the information processing unit 30b acquires the land pattern acquired in step SA2 and the space acquired in step SA3. The fifth search key table K5 corresponding to the combination of types is referred to. FIG. 5E shows, as an example, a fourth search key table K4 in the case of land pattern: office district and space type: coffee shop.
The fifth search key table K5 is a table that stores a search key in association with each music tempo (up tempo / low tempo).
Here, depending on the tempo of the music flowing in the place where the display device 12 is installed, the state and atmosphere of the place where the display device 12 is provided are different, and the image corresponding to the environment is also different. For example, when the music being played is at a low tempo, the atmosphere around the display device 12 tends to be a calm atmosphere. The fifth search key table K5 stores a search key for searching image information, text information, and audio information corresponding to the environment in association with each music tempo (up tempo / low tempo).
In step SA15, the information processing unit 30b refers to the fifth search key table K5 and specifies the search key associated with the music tempo determined in step SA14 as the fifth search key. For example, in the example of FIG. 5E, when the music is at a low tempo, the information processing unit 30b specifies “chic” as the fifth search key of the image information.
In this example, the music tempo is determined in step SA14. However, the music genre may be determined, and the fifth search key corresponding to the genre may be specified.
If it is determined in step SA13 that music is playing, the information processing unit 30b sets a predetermined flag. Then, when providing the video distribution service, the information processing unit 30b does not search, collect, and output the audio information to the display device 12. This is because if the sound is output from the display device 12 in a state where music is flowing in the place where the display device 12 is installed, the sounds may overlap and give the user an unpleasant feeling.

さて、第5検索キーを特定した後、環境情報取得部30aは、インターネット11を介して、気象情報通知サーバー21にアクセスし、表示装置12が設置された場所の気象を示す気象情報を取得する(ステップSA16)。本例では、気象情報とは、雨/曇り/晴れのいずれかの気象を示す情報であるものとする。
次いで、情報処理部30bは、第6検索キーテーブルK6を参照し、ステップSA16で取得した気象情報に基づいて、第6検索キーを特定する(ステップSA17)。
図5(F)は、第6検索キーテーブルK6の一例を模式的に示す図である。
第6検索キーテーブルK6は、土地柄、及び、空間種別の組み合わせごとに存在しており、ステップSA17では、情報処理部30bは、ステップSA2で取得した土地柄、及び、ステップSA3で取得した空間種別の組み合わせに対応する第6検索キーテーブルK6を参照する。図5(F)は、一例として、土地柄:オフィス街、空間種別:喫茶店の場合の第6検索キーテーブルK6を示している。
第6検索キーテーブルK6とは、気象(雨/曇り/晴れ)ごとに検索キーを対応付けて記憶するテーブルである。
ここで、表示装置12が設置された場所の気象によって、表示装置12が設けられた場所の状態、雰囲気は異なり、環境に対応した映像も異なる。そして、第6検索キーテーブルK6は、気象ごとに、環境に対応した画像情報、文章情報、及び、音声情報を検索するための検索キーを対応付けて記憶する。
ステップSA17では、情報処理部30bは、第6検索キーテーブルK6を参照し、ステップSA16で取得した気象に対応づけられた検索キーを、第6検索キーとして特定する。例えば、図5(F)の例において、気象が「雨」の場合、情報処理部30bは、画像情報、文章情報、及び、音声情報のそれぞれの第6検索キーとして「雨」を特定する。
Now, after specifying the fifth search key, the environment information acquisition unit 30a accesses the weather information notification server 21 via the Internet 11 and acquires weather information indicating the weather at the place where the display device 12 is installed. (Step SA16). In this example, it is assumed that the weather information is information indicating one of rain / cloudy / sunny weather.
Next, the information processing section 30b refers to the sixth search key table K6 and specifies the sixth search key based on the weather information acquired in Step SA16 (Step SA17).
FIG. 5F is a diagram schematically illustrating an example of the sixth search key table K6.
The sixth search key table K6 exists for each combination of land pattern and space type. In step SA17, the information processing unit 30b acquires the land pattern acquired in step SA2 and the space acquired in step SA3. The sixth search key table K6 corresponding to the combination of types is referred to. FIG. 5F shows, as an example, a sixth search key table K6 in the case of land pattern: office district and space type: coffee shop.
The sixth search key table K6 is a table that stores a search key in association with each weather (rain / cloudy / clear).
Here, depending on the weather at the place where the display device 12 is installed, the state and atmosphere of the place where the display device 12 is provided are different, and the images corresponding to the environment are also different. And the 6th search key table K6 matches and memorize | stores the search key for searching the image information corresponding to environment, text information, and audio | voice information for every weather.
In step SA17, the information processing section 30b refers to the sixth search key table K6, and specifies the search key associated with the weather acquired in step SA16 as the sixth search key. For example, in the example of FIG. 5F, when the weather is “rain”, the information processing unit 30b specifies “rain” as the sixth search key for each of image information, text information, and audio information.

次いで、情報処理部30bは、上述した手段により特定した第1検索キー〜第6検索キーに基づいて、映像配信サービスの提供に際して、画像情報、文章情報、及び、音声情報を検索するときの検索式(検索条件)を生成する(ステップSA18)。
検索式の生成は、例えば、以下のようにして行われる。すなわち、画像情報、及び、文章情報を例にすると、情報処理部30bは、特定した第1検索キー〜第6検索キーの論理和を検索式(検索条件)とする。図4のフローチャートの説明で挙げた例で言うと、画像情報の検索式は、「高級感(第1検索キー) or 朝(第2検索キー) or 明るい(第3検索キー) or 賑やか(第4検索キー) or シック(第5検索キー) or 雨(第6検索キー)」となり、一方、文章情報の検索式は、「経済ニュース(第1検索キー) or 今日の天気(第2検索キー) or 雨(第6検索キー)」となる。
なお、上記例では、各検索キーの論理和を検索式としていたが、検索式の構成のしかたはこれに限らない。例えば、特定の検索キーについては論理和をとる等して、論理和と論理積を所定の態様で利用したり、部分一致検索を利用したり、検索キーに優先順位を付けたり、「重み」を付けたりしてもよい。すなわち、特定した検索キーに由来して検索式を生成するのであれば、どのような方法でも利用可能である。
ステップSA18において検索式を生成した後、情報処理部30bは、上述した手法により、生成した検索式に準じて、画像情報、文章情報、及び、音声情報を検索、収集し、収集した情報に基づいて映像情報を生成し、映像情報に基づいて表示装置12に映像を表示させる。
Next, the information processing unit 30b searches for image information, text information, and audio information when providing the video distribution service based on the first search key to the sixth search key specified by the above-described means. An expression (search condition) is generated (step SA18).
The search expression is generated as follows, for example. That is, taking image information and text information as an example, the information processing unit 30b uses a logical sum of the identified first search key to sixth search key as a search expression (search condition). In the example given in the description of the flowchart of FIG. 4, the search formula for image information is “luxury (first search key) or morning (second search key) or bright (third search key) or lively (first 4 search key) or chic (fifth search key) or rain (sixth search key), while the text information search formula is "economic news (first search key) or today's weather (second search key) Or rain (6th search key) ".
In the above example, the logical sum of each search key is used as a search formula, but the configuration of the search formula is not limited to this. For example, by taking a logical sum for a specific search key, the logical sum and logical product are used in a predetermined manner, a partial match search is used, a priority is given to the search key, or "weight" May be attached. That is, any method can be used as long as a search expression is generated from the specified search key.
After generating the search formula in step SA18, the information processing unit 30b searches and collects image information, text information, and voice information according to the generated search formula by the above-described method, and based on the collected information. The video information is generated, and the video is displayed on the display device 12 based on the video information.

このように、本実施形態に係る映像配信サーバー10は、環境情報取得部30aにより表示装置12が設置された環境に関する情報(環境情報)を取得し、取得した環境情報に基づいて、検索式の生成に利用する検索キーを特定し、特定した検索キーを利用して検索式を生成する。すなわち、表示装置12が設置された環境に応じて検索式(検索条件)を変更する。このため、映像配信サーバー10は、表示装置12が設置された環境に対応する映像情報、文章情報、及び、音声情報を検索、収集することが可能となり、これにより、表示装置12に、当該表示装置12が設置された環境に対応した映像を表示させることが可能となる。   As described above, the video distribution server 10 according to the present embodiment acquires information (environment information) related to the environment in which the display device 12 is installed by the environment information acquisition unit 30a, and based on the acquired environment information, A search key used for generation is specified, and a search expression is generated using the specified search key. That is, the search formula (search condition) is changed according to the environment in which the display device 12 is installed. For this reason, the video distribution server 10 can search and collect video information, text information, and audio information corresponding to the environment in which the display device 12 is installed. It is possible to display an image corresponding to the environment in which the device 12 is installed.

さて、本実施形態に係る映像配信サーバー10は、さらに、以下に示すブックマークサービスを提供する。
すなわち、本実施形態では、映像配信サービスの提供中、表示装置12の表示パネル41aには、画像情報に基づく画像と、文章情報に基づく文章とが組み合わされて表示される(図3参照)。ここで、文章情報に基づく文章は、例えば、ニュースや、記事、他の人が記録した日記の一部、他の人が投稿した文章、宣伝広告等であるが、表示装置12を視認するユーザーは、表示された文章が気になり、詳しく知りたいと考える場合や、何らかのひらめきを得たため、後にもう一度見たいと、考える場合がある。ブックマークサービスは、以上のような場合を想定したサービスである。
ブックマークサービスの提供を受けるユーザーは、事前に自身が所有する携帯電話15(端末)に、以下説明する機能を有する専用のアプリケーションをインストールする必要がある。アプリケーションは、サービス提供会社が提供するものであり、既存のアプリケーションダウンロードサービス等を介して、携帯電話15にインストールされる。
Now, the video distribution server 10 according to the present embodiment further provides the following bookmark service.
That is, in the present embodiment, during the provision of the video distribution service, an image based on the image information and a text based on the text information are displayed in combination on the display panel 41a of the display device 12 (see FIG. 3). Here, the text based on the text information is, for example, news, articles, a part of a diary recorded by another person, text posted by another person, advertisement, etc., but a user who visually recognizes the display device 12 May be interested in the displayed text and wants to know more, or has some inspiration and wants to see it again later. The bookmark service is a service that assumes the above cases.
A user who receives the bookmark service needs to install a dedicated application having a function described below in the mobile phone 15 (terminal) owned by the user in advance. The application is provided by a service provider, and is installed in the mobile phone 15 via an existing application download service or the like.

図6は、ブックマークサービス提供時における映像配信サーバー10の動作を示すフローチャートである。
図6のフローチャートの前提として、ユーザーにより以下の動作が行われる。すなわち、映像配信サービスにより表示装置12に表示された映像を視認しているユーザーは、自身の携帯電話15の専用のアプリケーションを立ち上げる。そして、映像を視認中、表示パネル41aに表示された文章に気になるものがあれば、携帯電話15に対して所定の操作(例えば、携帯電話15のタッチパネル上に表示された所定のアイコンに対するタッチ操作)を行う。すると、専用のアプリケーションの機能により、インターネットを介して、携帯電話15を一意に識別する識別コードを含む所定のデータが、携帯電話15から、映像配信サーバー10に対して送信される(ステップSX1)。
当該所定のデータが入力されると、映像配信サーバー10の制御部30の情報処理部30bは、現在、表示装置12に出力中の映像情報に含まれる文章情報に関連する情報を取得する(ステップSB1)。文章情報に関連する情報とは、本実施形態では、文章情報、及び、文章情報の提供元のURLである。文章情報の提供元のURLとは、例えば、文章情報が、ニュースに係る情報である場合には、当該ニュースに係る情報が記載されたページ(メインページ等別のページであってもよい)のURLであり、また例えば、文章情報が、ブログの文章の一部である場合には、当該ブログに係るページのURLである。当該URLは、情報処理部30bにより、文章情報を検索したときに、文章情報と対応付けて所定の記憶領域に記憶される。なお、文章情報に関連する情報に、文章情報を提供したサーバーや、企業、個人に関する情報等を含めるようにしてもよい。
次いで、情報処理部30bは、携帯電話15の識別コードと対応付けて、文章情報に関連する情報を記憶部33の所定の記憶領域に記憶する(ステップSB2)。
FIG. 6 is a flowchart showing the operation of the video distribution server 10 when the bookmark service is provided.
As a premise of the flowchart of FIG. 6, the following operation is performed by the user. That is, the user who is viewing the video displayed on the display device 12 by the video distribution service starts up a dedicated application for his / her mobile phone 15. And if there is something that is worrisome about the text displayed on the display panel 41a while visually recognizing the video, the mobile phone 15 is subjected to a predetermined operation (for example, a predetermined icon displayed on the touch panel of the mobile phone 15). Touch operation). Then, predetermined data including an identification code for uniquely identifying the mobile phone 15 is transmitted from the mobile phone 15 to the video distribution server 10 via the Internet by the function of the dedicated application (step SX1). .
When the predetermined data is input, the information processing unit 30b of the control unit 30 of the video distribution server 10 acquires information related to the text information included in the video information currently being output to the display device 12 (step). SB1). In the present embodiment, the information related to the text information is text information and the URL of the text information provider. For example, when the text information is information related to news, the URL of the text information providing source is a page (may be another page such as a main page) in which information related to the news is described. For example, when the text information is a part of the text of the blog, it is the URL of the page related to the blog. The URL is stored in a predetermined storage area in association with the text information when the information processing unit 30b searches the text information. Note that the information related to the text information may include a server that provided the text information, information about companies, individuals, and the like.
Next, the information processing unit 30b stores information related to the text information in a predetermined storage area of the storage unit 33 in association with the identification code of the mobile phone 15 (step SB2).

その後、情報処理部30bは、記憶した文章情報に関連する情報について、携帯電話15から出力の要求があったか否かを監視する(ステップSB3)。ここで、携帯電話15にインストールされたアプリケーションには、ユーザーの指示に応じて、携帯電話15の識別コードと共に、文章情報に関連する情報の出力を要求するデータを、インターネット11を介して、映像配信サーバー10に送信する機能が実装されており、ユーザーは、アプリケーションを立ち上げ、当該アプリケーションの機能により、上記要求を行う。
文章情報に関連する情報の出力の要求があった場合(ステップSB3:YES)、情報処理部30bは、携帯電話15の識別コードをキーとして、記憶部33に記憶された文章情報に関連する情報を取得し(ステップSB4)、取得した情報を、インターネット11を介して、所定のプロトコルにより、携帯電話15に出力し(ステップSB5)、携帯電話15のタッチパネル上に、文章情報、及び、文章情報に関連する情報を表示させる。
これにより、ユーザーは、単に、文章情報に基づく文章を視認するだけでなく、自身に必要な文章や、着目すべき文章があった場合は、積極的に、当該文章や、当該文章に関連する情報を取得することができ、より利便性が向上する。
Thereafter, the information processing unit 30b monitors whether there is a request for output from the mobile phone 15 for information related to the stored text information (step SB3). Here, in the application installed in the mobile phone 15, data for requesting output of information related to the text information together with the identification code of the mobile phone 15 is transmitted via the Internet 11 in accordance with a user instruction. A function for transmitting to the distribution server 10 is implemented, and the user starts an application and makes the above request by the function of the application.
When there is a request for outputting information related to the text information (step SB3: YES), the information processing unit 30b uses the identification code of the mobile phone 15 as a key to provide information related to the text information stored in the storage unit 33. (Step SB4), and the acquired information is output to the mobile phone 15 via the Internet 11 according to a predetermined protocol (step SB5), and text information and text information are displayed on the touch panel of the mobile phone 15. Display information related to.
As a result, the user not only visually recognizes the text based on the text information, but also actively relates to the text or the text when there is a text necessary for the user or a text to be noted. Information can be acquired, and convenience is further improved.

以上説明したように、本実施形態に係る映像配信サーバー10(サーバー装置)は、表示装置12が設置された環境に関する環境情報を取得する環境情報取得部30a(環境情報取得手段)と、検索条件に基づいて、インターネット11上の機器に記憶された画像情報、及び、文章情報を検索して取得し、取得した映像情報、及び、文章情報に基づいて、これら情報を組み合わせて表示させるための映像情報を生成し、映像情報を表示装置12に出力する情報処理部30b(情報処理手段)と、を備えている。そして、情報処理部30bは、環境情報取得部30aにより取得された環境情報に基づいて、表示装置12が設置された環境に対応させて、検索条件の内容を変更する。
この構成によれば、映像配信サーバー10は、表示装置12に、何らかの規則に従って同様の映像を繰り返し表示させるのではなく、ネットワーク上に無数に存在する画像情報、及び、文章情報を好適に活用して、非常に広大な選択肢の中からランダムに映像を表示させることが可能となり、ユーザーを飽きさせず、ユーザーの満足度を向上させる映像を表示させることが可能となる。さらに、映像配信サーバー10は、適切に検索し、収集した画像情報と、文章情報とを組み合わせて表示させることにより、画像情報に基づいて表示される画像(動画、静止画)によりユーザーの直感的な感性に訴えつつ、文章情報に基づいて表示される文章によりユーザーの論理的な思考を刺激することができ、ユーザーの感性に多面的、かつ、効果的に訴える映像を表示させることが可能となり、これに伴って、ユーザーの満足度を向上させる映像を表示させることが可能となる。さらに、構成によれば、画像情報と、文章情報とを独立して検索し、収集した上で、これら情報を組み合わせて映像情報を生成するため、画像情報に基づく画像と、文章情報に基づく文章との多彩な組み合わせを映像として提供することができ、この点でも、ユーザーを飽きさせない。さらに、画像と文章とのランダムな組み合わせがユーザーの感性に訴えるという点で、偶発的に予期せぬ相乗効果を生むことがあり、この点で、エンターテインメント性が高い映像を提供可能である。さらに、上記構成によれば、映像配信サーバー10は、表示装置12が設置された環境に対応する映像情報、文章情報を検索、収集することが可能となり、これにより、表示装置12に、当該表示装置12が設置された環境に対応した映像を表示させることが可能となる。
As described above, the video distribution server 10 (server device) according to the present embodiment includes the environment information acquisition unit 30a (environment information acquisition means) that acquires environment information related to the environment in which the display device 12 is installed, and the search condition. Based on the above, the image information and the text information stored in the device on the Internet 11 are searched and acquired, and the acquired video information and the video for displaying the information in combination based on the text information An information processing unit 30b (information processing means) that generates information and outputs video information to the display device 12; Then, the information processing unit 30b changes the content of the search condition in accordance with the environment in which the display device 12 is installed based on the environment information acquired by the environment information acquisition unit 30a.
According to this configuration, the video distribution server 10 does not cause the display device 12 to repeatedly display the same video according to some rules, but preferably uses innumerable image information and text information existing on the network. Thus, it is possible to display a video at random from a very wide range of options, and it is possible to display a video that improves user satisfaction without getting tired of the user. Furthermore, the video distribution server 10 displays the image information (moving image and still image) based on the image information by appropriately searching and displaying the collected image information and the text information in combination. While appealing to the user's sensibility, the user's logical thinking can be stimulated by the text displayed based on the text information, making it possible to display images that appeal to the user's sensibility in a multifaceted and effective manner. Along with this, it is possible to display an image that improves user satisfaction. Further, according to the configuration, since the image information and the text information are independently searched and collected, and the video information is generated by combining these information, the image based on the image information and the text based on the text information are combined. Can be provided as a video, and in this respect users will not get bored. Furthermore, a random combination of images and sentences appeals to the user's sensibility, which may cause an unexpected and unexpected synergistic effect. In this respect, it is possible to provide a video with high entertainment properties. Furthermore, according to the above configuration, the video distribution server 10 can search and collect video information and text information corresponding to the environment in which the display device 12 is installed, whereby the display device 12 displays the display information. It is possible to display an image corresponding to the environment in which the device 12 is installed.

また、本実施形態における検索条件とは、インターネット11上の機器に記憶された各種情報に対応付けられたメタデータの検索方法のことであり、情報処理部30bは、環境情報取得部30aにより取得された環境情報に基づいて、メタデータの検索方法を変更する。
ここで、一般に、ネットワーク上の画像情報や、文章情報には、所定のフォーマットに準拠して、メタデータが付与されており、このメタデータをキーとして検索が行われる。そして、上記構成によれば、環境情報に基づいてメタデータの検索方法を変更する、という簡易な手法により、表示装置12の環境に対応する情報を検索し、収集可能である。
The search condition in the present embodiment is a search method for metadata associated with various types of information stored in devices on the Internet 11, and the information processing unit 30b is acquired by the environment information acquisition unit 30a. The metadata search method is changed based on the environmental information.
Here, generally, metadata is given to image information and text information on a network in accordance with a predetermined format, and a search is performed using this metadata as a key. And according to the said structure, the information corresponding to the environment of the display apparatus 12 can be searched and collected with the simple method of changing the search method of metadata based on environmental information.

また、本実施形態では、環境情報取得部30aは、環境情報として、表示装置12が設けられた位置を示す設置位置情報を取得し、情報処理部30bは、環境情報取得部30aにより取得された設置位置情報に基づいて、又は、設置位置情報と他の環境情報との組み合わせに基づいて、表示装置12が設置された位置に対応させて、検索条件の内容を変更する。
この構成によれば、表示装置12が設けられた位置に対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置12に、当該表示装置12の環境に対応した映像を表示させることが可能となる。
In the present embodiment, the environment information acquisition unit 30a acquires the installation position information indicating the position where the display device 12 is provided as the environment information, and the information processing unit 30b is acquired by the environment information acquisition unit 30a. Based on the installation position information or based on a combination of the installation position information and other environmental information, the contents of the search condition are changed in correspondence with the position where the display device 12 is installed.
According to this configuration, it is possible to search and collect appropriate image information and text information corresponding to the position where the display device 12 is provided, and to display a video corresponding to the environment of the display device 12 on the display device 12. It becomes possible to make it.

また、本実施形態では、情報処理部30bは、設置位置情報に基づいて、表示装置12が設置された場所の属性(本例では、土地柄、及び、空間種別)を取得し、表示装置12が設置された場所の属性に対応させて、検索条件の内容を変更する。
この構成によれば、表示装置12が設けられた場所の属性に対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置12に、当該表示装置12の場所の属性に対応した映像を表示させることが可能となる。
In the present embodiment, the information processing unit 30b acquires the attribute of the place where the display device 12 is installed (in this example, the land pattern and the space type) based on the installation position information, and the display device 12 The content of the search condition is changed according to the attribute of the place where is installed.
According to this configuration, it is possible to search and collect appropriate image information and text information corresponding to the attribute of the place where the display device 12 is provided, and the display device 12 corresponds to the attribute of the location of the display device 12. It is possible to display the selected video.

また、本実施形態では、表示装置12は、自身の位置を示す情報を取得する機能を有する位置検出部43を備えている。そして、環境情報取得部30aは、表示装置12からネットワークを介した通信により、位置検出部43により検出された位置を示す情報を取得し、取得した情報に基づいて、設置位置情報を取得する。
この構成によれば、環境情報取得部30aは、表示装置12の機能を利用して、確実に、設置位置情報を取得可能である。
In the present embodiment, the display device 12 includes a position detection unit 43 having a function of acquiring information indicating its own position. And the environment information acquisition part 30a acquires the information which shows the position detected by the position detection part 43 by communication via the network from the display apparatus 12, and acquires installation position information based on the acquired information.
According to this configuration, the environment information acquisition unit 30a can reliably acquire the installation position information by using the function of the display device 12.

また、表示装置12が位置検出部43を有していない場合、環境情報取得部30aは、携帯電話等の外部機器からインターネット11を介した通信により、外部機器の位置を示す情報を取得し、取得した情報に基づいて、設置位置情報を取得する。
この構成によれば、環境情報取得部30aは、外部機器と通信可能であること、及び、外部機器の機能を利用して、確実に、設置位置情報を取得可能である。
When the display device 12 does not have the position detection unit 43, the environment information acquisition unit 30a acquires information indicating the position of the external device from the external device such as a mobile phone through communication via the Internet 11, The installation position information is acquired based on the acquired information.
According to this configuration, the environment information acquisition unit 30a can communicate with the external device, and can reliably acquire the installation position information by using the function of the external device.

また、本実施形態では、環境情報取得部30aは、環境情報として、現在の日時に関する日時情報を取得し、情報処理部30bは、環境情報取得部30aにより取得された日時情報に基づいて、又は、日時情報と他の環境情報との組み合わせに基づいて、現在の日時に対応させて、検索条件の内容を変更する。
この構成によれば、現在の日時に対応した適切な画像情報、文章情報を検索、収集でき、かつ、表示装置12に、現在の日時に対応した映像を表示させることが可能となる。
In the present embodiment, the environment information acquisition unit 30a acquires date information regarding the current date as environment information, and the information processing unit 30b is based on the date information acquired by the environment information acquisition unit 30a, or Based on the combination of the date and time information and other environment information, the contents of the search condition are changed in correspondence with the current date and time.
According to this configuration, it is possible to search and collect appropriate image information and text information corresponding to the current date and time, and to display a video corresponding to the current date and time on the display device 12.

また、本実施形態では、表示装置12は、周辺を撮影して撮影画像を生成するカメラ装置(撮影手段)を備えている。そして、環境情報取得部30aは、環境情報として、表示装置12からインターネット11を介した通信により撮影画像を取得し、情報処理部30bは、環境情報取得部30aにより取得された撮影画像に基づいて、又は、撮影画像と他の環境情報との組み合わせに基づいて、撮影画像が示す表示装置12が設置された環境に対応させて、検索条件の内容を変更する。
この構成によれば、撮影画像から分析される表示装置12の実際の環境に対応した適切な画像情報、文章情報を検索、収集でき、かつ、表示装置12に、環境に対応した映像を表示させることが可能となる。
In the present embodiment, the display device 12 includes a camera device (photographing unit) that captures the periphery and generates a captured image. Then, the environment information acquisition unit 30a acquires a captured image from the display device 12 by communication via the Internet 11 as environment information, and the information processing unit 30b is based on the captured image acquired by the environment information acquisition unit 30a. Alternatively, based on the combination of the captured image and other environment information, the contents of the search condition are changed in correspondence with the environment in which the display device 12 indicated by the captured image is installed.
According to this configuration, it is possible to search and collect appropriate image information and text information corresponding to the actual environment of the display device 12 analyzed from the photographed image, and to display a video corresponding to the environment on the display device 12. It becomes possible.

また、本実施形態では、情報処理部30bは、撮影画像に基づいて、表示装置12の周辺の明るさを検出し、当該明るさに対応させて、検索条件の内容を変更する。
この構成によれば、表示装置12の周辺の明るさに対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置12に、当該表示装置12の周辺の明るさに対応した映像を表示させることが可能となる。
In the present embodiment, the information processing unit 30b detects the brightness around the display device 12 based on the photographed image, and changes the content of the search condition according to the brightness.
According to this configuration, it is possible to search and collect appropriate image information and text information corresponding to the brightness around the display device 12, and the display device 12 corresponds to the brightness around the display device 12. An image can be displayed.

また、本実施形態では、情報処理部30bは、撮影画像に基づいて、表示装置12の周辺に存在する人間の多寡を検出し、当該人間の多寡に対応させて、検索条件の内容を変更する。
この構成によれば、情報処理部30bは、表示装置12の周辺に存在する人間の人数に対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置12に、当該表示装置12の周辺に存在する人間の人数に対応した映像を表示させることが可能となる。
Further, in the present embodiment, the information processing unit 30b detects the number of people existing around the display device 12 based on the captured image, and changes the content of the search condition according to the number of people. .
According to this configuration, the information processing unit 30b can search and collect appropriate image information and text information corresponding to the number of humans present around the display device 12, and the display device 12 can display the display device. Images corresponding to the number of human beings present around 12 can be displayed.

また、本実施形態では、表示装置12は、音声を収音して収音情報を生成する音声処理部45(収音手段)を備えている。そして、環境情報取得部30aは、環境情報として、表示装置12からインターネット11を介した通信により収音情報を取得し、情報処理部30bは、環境情報取得部30aにより取得された収音情報に基づいて、又は、収音情報と他の環境情報との組み合わせに基づいて、収音情報が示す表示装置12が設置された環境に対応させて、検索条件の内容を変更する。
この構成によれば、表示装置12の周辺の音声の状況に対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置12に、当該表示装置12の周辺の音声の状況に対応した映像を表示させることが可能となる。
In the present embodiment, the display device 12 includes a sound processing unit 45 (sound collecting means) that collects sound and generates sound collection information. Then, the environment information acquisition unit 30a acquires sound collection information from the display device 12 through communication via the Internet 11 as environment information, and the information processing unit 30b uses the sound collection information acquired by the environment information acquisition unit 30a. Based on the combination of the sound collection information and other environmental information, the contents of the search condition are changed in accordance with the environment where the display device 12 indicated by the sound collection information is installed.
According to this configuration, it is possible to search and collect appropriate image information and text information corresponding to the state of sound around the display device 12, and to display the sound state around the display device 12 in the display device 12. Corresponding video can be displayed.

また、本実施形態では、情報処理部30bは、収音情報に基づいて、表示装置12が設置された場所に音楽が流れているか否かを判別し、音楽が流れている場合は、音楽に対応させて、検索条件の内容を変更する。
この構成によれば、情報処理部30bは、表示装置12が設置された場所に流れている音楽に対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置12に、当該表示装置12が設置された場所で流れている音楽に対応した映像を表示させることが可能となる。
In the present embodiment, the information processing unit 30b determines whether music is flowing in the place where the display device 12 is installed based on the sound collection information. If the music is flowing, Correspondingly, the contents of the search condition are changed.
According to this configuration, the information processing unit 30b can search and collect appropriate image information and text information corresponding to music flowing in the place where the display device 12 is installed, and the display device 12 It is possible to display an image corresponding to music flowing in a place where the display device 12 is installed.

また、本実施形態では、環境情報取得部30aは、環境情報として、表示装置12が設置された場所の気象に関する気象情報を取得し、情報処理部30bは、環境情報取得部30aにより取得された気象情報に基づいて、又は、気象情報と他の環境情報との組み合わせに基づいて、表示装置12が設置された場所の気象に対応させて、検索条件の内容を変更することを特徴とする。
この構成によれば、情報処理部30bは、表示装置12が設置された場所の気象に対応して適切な画像情報、文章情報を検索、収集でき、かつ、表示装置12に、当該表示装置12の周辺の気象に対応した映像を表示させることが可能となる。
Moreover, in this embodiment, the environment information acquisition part 30a acquires the weather information regarding the weather of the place where the display apparatus 12 was installed as environment information, and the information processing part 30b was acquired by the environment information acquisition part 30a. Based on weather information or based on a combination of weather information and other environmental information, the content of the search condition is changed according to the weather of the place where the display device 12 is installed.
According to this configuration, the information processing unit 30b can search and collect appropriate image information and text information corresponding to the weather of the place where the display device 12 is installed, and the display device 12 It is possible to display an image corresponding to the weather around the area.

また、本実施形態に係る映像配信サーバー10は、携帯電話15(端末)とインターネット11を介して通信可能である。そして、情報処理部30bは、映像情報を表示装置12に出力中、携帯電話15からの指示に応じて、表示装置12に出力した映像情報に含まれる文章情報に関連する情報を記憶する一方、携帯電話15からの要求に応じて、記憶した文章情報に関連する情報を携帯電話15に出力する。
この構成によれば、ユーザーは、単に、文章情報に基づく文章を視認するだけでなく、自身に必要な文章や、着目すべき文章があった場合は、積極的に、当該文章や、当該文章に関連する情報を取得することができ、より利便性が向上する。
The video distribution server 10 according to the present embodiment can communicate with the mobile phone 15 (terminal) via the Internet 11. The information processing unit 30b stores information related to text information included in the video information output to the display device 12 in response to an instruction from the mobile phone 15 while the video information is being output to the display device 12. In response to a request from the mobile phone 15, information related to the stored text information is output to the mobile phone 15.
According to this configuration, the user not only visually recognizes the text based on the text information, but also positively if there is a text necessary for the user or a text to be noted. It is possible to acquire information related to, and the convenience is further improved.

なお、上述した実施の形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。
例えば、上述した実施形態では、映像配信サーバー10は、画像情報、文章情報、及び、音声情報の3つの情報を検索条件に従って検索し、画像情報及び文章情報の組合せ、又は、画像情報、文章情報及び音声情報の組合せに基づく映像情報を出力する構成であった。しかしながら、必ずしもこの3つの情報を検索し、出力する必要はなく、例えば、画像情報、及び、文章情報を検索し組み合わせて出力する構成であったり、また、画像情報のみを検索し組み合わせて出力する構成であってもよい。このような構成であっても、上述した実施形態で説明した効果と同様の効果を奏することが可能である。
また例えば、本実施形態では、説明の便宜のため、画像情報提供サーバー18、文章情報提供サーバー19、及び、音声情報提供サーバー10をそれぞれ別のサーバーとして説明したが、画像情報や、文章情報が、同一のサーバーに記憶され、提供される構成であっても良いことは言うまでもない。
また例えば、環境情報取得部30aが環境情報を取得する方法は、どのような態様であってもよく、例えば、映像配信サーバー10に対して、直接、又は、ネットワーク等を介して間接的に、人為的手段を含む手段により環境情報が入力されるようにしてもよい。
The above-described embodiment is merely an aspect of the present invention, and can be arbitrarily modified and applied within the scope of the present invention.
For example, in the above-described embodiment, the video distribution server 10 searches for three pieces of information of image information, sentence information, and audio information according to the search condition, and a combination of image information and sentence information, or image information, sentence information. And video information based on a combination of audio information. However, it is not always necessary to search and output these three pieces of information. For example, the image information and the text information are searched and combined and output, or only the image information is searched and combined and output. It may be a configuration. Even with such a configuration, it is possible to achieve the same effects as those described in the above-described embodiments.
For example, in this embodiment, for convenience of explanation, the image information providing server 18, the text information providing server 19, and the audio information providing server 10 have been described as separate servers. Needless to say, the configuration may be stored and provided in the same server.
In addition, for example, the method in which the environment information acquisition unit 30a acquires the environment information may be any form, for example, directly or indirectly to the video distribution server 10 via a network or the like. Environmental information may be input by means including artificial means.

<第2実施形態>
次いで、第2実施形態について説明する。
ここで、映像配信サーバー10が出力する映像情報に基づいて、表示装置12に表示された映像を視聴する者(以下、単に「視聴者」という。)は、あくまで、感情を持った人間である。従って、表示装置12の表示内容を、視聴者の感情に即したものとすることができれば、視聴者の満足度を飛躍的に向上でき、さらに、映像配信サーバー10が提供するサービスの付加価値を向上できる。以上を踏まえ、本実施形態に係る映像配信サーバー10は、視聴者の感情にできるだけ対応した映像等を表示装置12に表示等させることを目的の1つとする。
なお、表示装置12を視聴する視聴者の感情は、表示装置12の環境に含まれる概念である。
また、本実施形態に係る映像配信サーバー10の機能的構成は、第1実施形態に係る映像配信サーバー10の機能的構成と同様であるため、本実施形態に係る映像配信サーバー10の構成図として図2を援用し、各構成の詳細な説明を省略する。
Second Embodiment
Next, a second embodiment will be described.
Here, a person who views the video displayed on the display device 12 based on the video information output from the video distribution server 10 (hereinafter simply referred to as “viewer”) is a person with emotion. . Therefore, if the display content of the display device 12 can be adapted to the emotion of the viewer, the satisfaction of the viewer can be dramatically improved, and the added value of the service provided by the video distribution server 10 can be further increased. It can be improved. Based on the above, the video distribution server 10 according to the present embodiment has an object of causing the display device 12 to display video or the like corresponding to the viewer's emotion as much as possible.
Note that the emotion of the viewer who views the display device 12 is a concept included in the environment of the display device 12.
The functional configuration of the video distribution server 10 according to the present embodiment is the same as the functional configuration of the video distribution server 10 according to the first embodiment. With reference to FIG. 2, detailed description of each component is omitted.

さて、発明者らは、「人間の感情」を定義(表現)した場合、相当多くの数の定義が可能であることを見出した。例えば、「やる気が出ない」や、「期待できない」「笑いたい」「泣きたい」「落ち着いた気持ちになりたい」等、人間の感情は、様々に定義することが可能である。以下、定義された人間の感情を、「定義感情K」という。
また、発明者らは、画像情報や、文字情報、音声情報(以下、単に、「コンテンツ」という)が、人間に与える心理的な効能(以下、「心理的効能」という。)は、数個〜10数個に分類することができることを見出した。心理的効能とは、コンテンツを視聴した視聴者が、当該コンテンツから受ける心理的な影響、効果を概念的に表現したものである。例えば、「気力を向上させる」という心理的効能や、「落ち着ついた気持ちにさせる」という心理的効能、「楽しい気持ちにさせる」という心理的効能等がある。以下、心理的効能を分類したものを「心理的効能種別S」という。
さらに、発明者らは、ある特定の感情を抱いている視聴者にとっては、ある特定の心理的効能種別に属するコンテンツを提供した場合に、当該視聴者に対して最も効果的に心理的な影響を与えることができることを見出した。例えば、「気力向上」という心理的効能種別Sが存在するとした場合において、「やる気が出ない」という感情を抱いている視聴者に対しては、「気力向上」に係る心理的効能種別Sに属するコンテンツを提供した場合に、最も効果的に心理的な影響を与えることができる、等である。
さらに、発明者らは、数個〜10数個に分類された心理的効能種別Sは、その心理的な効能の「傾向」に応じて、数個程度にグループ分けできることを見出した。これを踏まえ、発明者らは、心理的効能種別を数個程度にグループ分けした上で、各グループに、コンテンツにメタデータとして付加可能なタグ(以下、「大タグD」という。)を付与した。
The inventors have found that when "human emotion" is defined (expressed), a considerable number of definitions are possible. For example, human emotions such as “I don't feel motivated”, “I can't expect”, “I want to laugh”, “I want to cry”, “I want to feel calm” can be defined in various ways. Hereinafter, the defined human emotion is referred to as “defined emotion K”.
Further, the inventors have several psychological effects (hereinafter referred to as “psychological effects”) that image information, text information, and audio information (hereinafter simply referred to as “contents”) give to humans. It discovered that it could classify | categorize into 10 or more. Psychological efficacy is a conceptual representation of the psychological effects and effects that a viewer who has viewed content receives from the content. For example, there are a psychological effect of “improvement of power”, a psychological effect of “make calm”, a psychological effect of “make fun”, and the like. Hereinafter, the classification of psychological efficacy is referred to as “psychological efficacy classification S”.
In addition, for the viewers who have a certain emotion, the inventors have the most effective psychological impact on the viewer when providing content belonging to a certain psychological effect category. Found that can give. For example, when there is a psychological effect type S of “improvement”, for a viewer who has a feeling of “not motivated”, the psychological effect type S related to “improvement” When the content to which it belongs is provided, the psychological influence can be exerted most effectively.
Further, the inventors have found that the psychological efficacy types S classified into several to several tens can be grouped into several groups according to the “trend” of the psychological efficacy. Based on this, the inventors grouped the psychological efficacy types into several groups, and gave each group a tag that can be added as metadata to the content (hereinafter referred to as “large tag D”). did.

図7は、定義感情Kと、心理的効能種別Sと、大タグDとの関係を模式的に表わす図である。
図7の例では、定義感情Kとして、定義感情K1〜K100の100個の定義感情Kが定義されている。さらに、心理的効能種別Sとして、心理的効能種別S1〜S15の15個の心理的効能種別Sが定義されている。そして、定義感情K1〜K100のそれぞれは、「視聴者に対して最も効果的に心理的な影響を与える」という観点から、心理的効能種別S1〜S15のいずれかと対応付けられている。図7の例では、「やる気が出ない」という定義感情K1と、「気力向上」という心理的効能種別S1とが対応付けられているが、これは、「やる気が出ない」という感情を抱いている視聴者に対しては、「気力向上」に係る心理的効能種別Sに属するコンテンツを提供した場合に、最も効果的に心理的な影響を与えることができることを鑑みて、対応付けが行われたものである。
また、図7の例では、大タグDとして、大タグD1〜D5の5個の大タグDが定義されている。そして、心理的効能種別S1〜S15のそれぞれは、いずれかの大タグDと対応付けられている。上述したとおり、大タグDは、心理的効能種別Sをその心理的な効能の「傾向」に応じてグループ分けした上で、各グループに付与したタグのことであり、心理的効能種別S1〜S15のそれぞれは、自身のグループに対応する大タグDと対応付けられている。
FIG. 7 is a diagram schematically illustrating the relationship between the definition emotion K, the psychological effect type S, and the large tag D.
In the example of FIG. 7, 100 defined emotions K, defined emotions K1 to K100, are defined as defined emotions K. Furthermore, 15 psychological effect types S of psychological effect types S1 to S15 are defined as psychological effect types S. Each of the definition emotions K1 to K100 is associated with one of the psychological effect types S1 to S15 from the viewpoint of “most effectively having a psychological influence on the viewer”. In the example of FIG. 7, the definition emotion K1 “not motivated” and the psychological effect type S1 “improvement” are associated with each other, but this has an emotion “not motivated”. If the content belonging to the psychological efficacy type S related to “improvement of energy” is provided to the viewer who is, the association is performed in consideration of the most effective psychological influence. It has been broken.
In the example of FIG. 7, five large tags D of large tags D1 to D5 are defined as large tags D. Each of the psychological effect types S1 to S15 is associated with one of the large tags D. As described above, the large tag D is a tag given to each group after the psychological efficacy type S is grouped according to the “trend” of the psychological efficacy, and the psychological efficacy types S1 to S1. Each of S15 is associated with a large tag D corresponding to its own group.

図7に示す定義感情Kと、心理的効能種別Sと、大タグDとの関係は、データとして、映像配信サーバー10の記憶部33に記憶されている。これら情報の関係は、人為的手段により、又は、オートマチックな手段により、随時、変更可能であり、また、情報の追加(新たに定義した定義感情Kの追加等)も、随時、可能である。
以下、記憶部33に記憶された定義感情Kと、心理的効能種別Sと、大タグDとの関係を示すデータを、「大タグ関係データ」という。図7に示すように、1つの定義感情Kは、対応する心理的効能種別Sを介して、1つの大タグDに紐付けられており、映像配信サーバー10の制御部30は、この大タグ関係データを参照することにより、ある1つの定義感情Kと対応する1つの大タグDを特定可能である。
The relationship between the definition emotion K, the psychological effect type S, and the large tag D shown in FIG. 7 is stored as data in the storage unit 33 of the video distribution server 10. The relationship between these information can be changed at any time by human means or by automatic means, and addition of information (addition of a newly defined definition emotion K, etc.) is also possible at any time.
Hereinafter, the data indicating the relationship between the definition emotion K, the psychological efficacy type S, and the large tag D stored in the storage unit 33 is referred to as “large tag relationship data”. As shown in FIG. 7, one definition emotion K is linked to one large tag D via the corresponding psychological effect type S, and the control unit 30 of the video distribution server 10 uses this large tag. By referring to the relational data, it is possible to identify one large tag D corresponding to a certain definition emotion K.

また、本実施形態では、画像情報提供サーバー18(図1参照)が記憶し、提供する画像情報(コンテンツ)には、メタデータとして、大タグDが付加される。画像情報に対するメタデータとしての大タグDの付与は、例えば、以下のようにして行われる。
例えば、大タグDのそれぞれが心理的効能種別Sの心理的な効能の傾向ごとに定義されたタグであることを踏まえて、コンテンツに関する専門家が、コンテンツの内容を把握した上で、人為的手段により、画像情報(コンテンツ)に適切な大タグDを付与する。
また例えば、画像情報(コンテンツ)にアクセスしたユーザーが、どういった感情のときに、どういった画像情報(コンテンツ)にアクセスしたのかを所定の手段で収集し、収集した情報に基づいて、人為的手段により、又は、オートマチックな手段で、画像情報(コンテンツ)に大タグDを付与する。一例としては、ユーザーがコンテンツにアクセスした場合、そのときの感情についてオンライン上でアンケートを取る構成とし、アンケートの結果をコンテンツと紐付けて蓄積し、蓄積したアンケートの結果を、人為的手段、又は、プログラムを用いたオートマチックな手段によって分析し、分析した結果に基づいて画像情報(コンテンツ)に大タグDを付与する。また別例としては、画像情報(コンテンツ)の選択者が、画像情報(コンテンツ)にアクセスしたときの生体情報(脈拍や、体温、血圧等)を取得可能な構成とし、取得した生体情報をコンテンツと紐付けて蓄積し、蓄積した情報に基づいて、コンテンツを選択したときの心理状態を分析し、分析結果に基づいて画像情報(コンテンツ)に大タグDを付与する。
なお、画像情報提供サーバー18における画像情報と同様、文章情報提供サーバー19(図1参照)における文章情報、及び、音声情報提供サーバー10(図1参照)における音声情報にも、メタデータとして、適切な大タグDが付与される。
In the present embodiment, the image information providing server 18 (see FIG. 1) stores and provides image information (content) with a large tag D as metadata. For example, the large tag D as metadata for image information is given as follows.
For example, based on the fact that each of the large tags D is a tag defined for each psychological efficacy trend of the psychological efficacy category S, an expert on content understands the content of the content, By means, an appropriate large tag D is assigned to the image information (content).
In addition, for example, a user who accesses image information (content) collects what image information (content) is accessed by what means when feelings, and based on the collected information, The large tag D is given to the image information (content) by an automatic means or an automatic means. As an example, when the user accesses the content, it is configured to take an online questionnaire about the emotion at that time, and the result of the questionnaire is accumulated in association with the content, and the accumulated questionnaire result is obtained by human means, or Then, analysis is performed by an automatic means using a program, and a large tag D is given to the image information (content) based on the analysis result. As another example, the image information (content) selector can acquire biological information (pulse, body temperature, blood pressure, etc.) when accessing the image information (content), and the acquired biological information is the content. The psychological state when the content is selected is analyzed based on the accumulated information, and the large tag D is given to the image information (content) based on the analysis result.
Similarly to the image information in the image information providing server 18, the text information in the text information providing server 19 (see FIG. 1) and the voice information in the voice information providing server 10 (see FIG. 1) are also appropriate as metadata. Large tag D is given.

このように、本実施形態では、「人間の感情」は無数に定義できる一方、コンテンツは、心理的効能という観点から、数個〜10数個に分類可能であり、さらに、心理的効能種別Sは、その心理的な効能の「傾向」に応じて数個程度にグループ分けできることを見出した。そして、最終的に、定義した定義感情Kの全てを、心理的効能種別Sを介して、数個程度(本例では、5個)の大タグDと、紐付けている。このような手法によって、定義感情Kと、大タグDとの紐付けを行うことにより、無数に定義可能な人間の感情を、感情の特性、及び、コンテンツの特性を踏まえて、適切に、メタデータとしてのタグというコンテンツの選択に利用可能な客観的な情報と紐付けることが可能となった。
また、大タグDは、数個程度(本例では、5個)である。従って、大タグDごとにコンテンツが細分化されない、つまり、ある1の大タグDが付与されたコンテンツの数を、多数、確保できる。これにより、ある1の大タグDをキーとして、コンテンツを検索した場合に、多数のコンテンツを検索でき、検索した多数のコンテンツに係る映像を、表示装置12を介して表示等することにより、第1実施形態と同様、ユーザーを飽きさせず、ユーザーの満足度を向上させる映像を表示させることが可能となる。
As described above, in this embodiment, the “human emotion” can be defined innumerably, while the content can be classified into several to ten from the viewpoint of psychological efficacy, and further, the psychological efficacy classification S Found that it can be grouped into several groups depending on the “trend” of its psychological efficacy. Finally, all of the defined definition emotions K are linked to about several (in this example, five) large tags D via the psychological effect type S. By associating the definition emotion K and the large tag D with such a technique, the human emotions that can be defined innumerably are appropriately metabolized based on the emotion characteristics and content characteristics. It became possible to link with objective information that can be used to select content as tags as data.
The number of large tags D is about several (in this example, five). Therefore, the content is not subdivided for each large tag D, that is, a large number of contents to which a certain large tag D is assigned can be secured. As a result, when content is searched using one large tag D as a key, a large number of content can be searched, and by displaying videos related to the searched large number of contents via the display device 12, etc. As in the first embodiment, it is possible to display an image that improves user satisfaction without getting tired of the user.

次に、本実施形態に係る映像配信サーバー10が、表示装置12に映像情報を出力し、表示装置12に映像を表示させるとき(映像配信サービス時)の動作について説明する。
図8は、上記動作を示すフローチャートである。特に、図8では、画像情報に基づく画像と、文章情報に基づく文章とが組み合わされて構成された映像を、表示装置12に表示させる場合の、映像配信サーバー10の動作を示している。
まず、映像配信サーバー10の制御部30の環境情報取得部30aは、表示装置12の視聴者の感情に対応する定義感情Kを、環境情報として取得する(ステップSC1)。
Next, the operation when the video distribution server 10 according to the present embodiment outputs video information to the display device 12 and displays the video on the display device 12 (during video distribution service) will be described.
FIG. 8 is a flowchart showing the above operation. In particular, FIG. 8 shows the operation of the video distribution server 10 when displaying on the display device 12 a video composed of an image based on image information and a text based on text information.
First, the environment information acquisition unit 30a of the control unit 30 of the video distribution server 10 acquires the definition emotion K corresponding to the emotion of the viewer of the display device 12 as environment information (step SC1).

環境情報としての定義感情Kの取得は、例えば、以下のようにして行われる。
例えば、まず、上述した土地柄や、空間種別、現在の時間帯、曜日、天気、季節、温度、湿度、等の、人間の感情に影響を及ぼす要因(以下、「外的要因」という。)の組合せと、定義感情Kのそれぞれとを対応付けて記憶する。外的要因の組合せと、定義感情Kとの対応付けは、個々の外的要因が人間の心理に与える影響、及び、外的要因の組合せが人間の心理に与える影響を考慮した上で、適切に行われる。単純化した例を挙げると、土地柄=オフィス街、空間種別=喫茶店、曜日=金曜日、天気=晴れ、季節=冬・・・の場合は、人間は「楽しくなりたい」という感情を抱きやすい、といった観点で、適切に対応付けが行われる。そして、ステップSC1において、環境情報取得部30aは、外的要因のそれぞれを取得し、取得した外的要因の組合せと対応付けられた定義感情Kを特定することにより、定義感情Kを、環境情報として取得する。
また例えば、表示装置12の視聴者に、事前に、自身が所有する携帯電話に専用のアプリケーションをインストールさせる。このアプリケーションは、視聴者が、自身の現在の感情を選択するユーザーインターフェイスを提供する機能を有しており、視聴者は、ユーザーインターフェイスを介して、自身の感情を選択し、確定する。当該ユーザーインターフェイスでは、定義された定義感情Kを踏まえて、選択可能な視聴者の感情が十分に用意されている。ユーザーによる自身の感情の選択が確定すると、アプリケーションの機能により、インターネット11を介して、選択された感情を示す情報が、携帯電話の位置情報と共に、映像配信サーバー10に送信される。環境情報取得部30aは、携帯電話の位置情報に基づいて、対応する表示装置12を特定すると共に、選択された感情を示す情報に基づいて、視聴者の感情に対応する定義感情Kを特定する。以上のようにして、環境情報取得部30aは、定義感情Kを取得する。
また例えば、環境情報取得部30aは、表示装置12のカメラ装置44の撮影に基づく撮影画像を、通信により取得する。そして、環境情報取得部30aは、撮影画像に表示された視聴者の表情を光学的手法により分析したり、また、第1実施形態と同様の手法により、空間の雰囲気を光学的手法により分析したりすることにより、視聴者の感情を推定し、対応する定義感情Kを特定する。
また例えば、視聴者に、心拍計や、血圧計等の生体情報を検出する装置が装着され得ている場合、環境情報取得部30aは、当該装置から通信を介して生体情報を取得し、取得した生体情報に基づいて、視聴者の感情を推定し、対応する定義感情Kを特定する。
以上、定義感情Kを取得する手法について、例を挙げて説明したが、当該手法は、上記例に限られず、既存の手法を全て応用可能なことは言うまでもない。例えば、外的要因の組合せと、カメラ装置44の撮影に基づく撮影画像の分析結果との双方を反映して、視聴者の感情を推定し、対応する定義感情Kを特定するようにしてもよい。
Acquisition of the definition emotion K as environmental information is performed as follows, for example.
For example, first, factors affecting human emotions (hereinafter referred to as “external factors”) such as the above-mentioned land pattern, space type, current time zone, day of the week, weather, season, temperature, humidity, etc. And the definition emotion K are stored in association with each other. The correspondence between the combination of external factors and the definition emotion K is appropriate after considering the effect of each external factor on human psychology and the effect of the combination of external factors on human psychology. To be done. For example, in the case of land pattern = office district, space type = coffee shop, day of the week = Friday, weather = sunny, season = winter, humans tend to have the feeling of "I want to be fun" Correspondence is appropriately performed from the viewpoint. In step SC1, the environment information acquisition unit 30a acquires each of the external factors and specifies the definition emotion K associated with the acquired combination of external factors, thereby determining the definition emotion K as the environment information. Get as.
Also, for example, the viewer of the display device 12 is made to install a dedicated application in advance on the mobile phone owned by the viewer. This application has a function of providing a user interface for the viewer to select his / her current emotion, and the viewer selects and confirms his / her emotion via the user interface. In the user interface, selectable viewer emotions are prepared based on the defined definition emotion K. When the user's selection of his / her emotion is confirmed, information indicating the selected emotion is transmitted to the video distribution server 10 together with the position information of the mobile phone via the Internet 11 by the function of the application. The environment information acquisition unit 30a identifies the corresponding display device 12 based on the position information of the mobile phone, and identifies the defined emotion K corresponding to the viewer's emotion based on the information indicating the selected emotion. . As described above, the environment information acquisition unit 30a acquires the definition emotion K.
Further, for example, the environment information acquisition unit 30a acquires a captured image based on the image captured by the camera device 44 of the display device 12 through communication. Then, the environment information acquisition unit 30a analyzes the viewer's facial expression displayed in the captured image by an optical method, or analyzes the atmosphere of the space by an optical method using the same method as in the first embodiment. The viewer's emotion is estimated and the corresponding definition emotion K is specified.
Further, for example, when the viewer is equipped with a device for detecting biological information such as a heart rate monitor or a sphygmomanometer, the environment information acquisition unit 30a acquires the biological information from the device via communication and acquires the information. The viewer's emotion is estimated based on the biometric information, and the corresponding definition emotion K is specified.
The method for acquiring the definition emotion K has been described above with an example, but the method is not limited to the above example, and it goes without saying that all existing methods can be applied. For example, the viewer's emotion may be estimated by reflecting both the combination of external factors and the analysis result of the captured image based on the image captured by the camera device 44, and the corresponding defined emotion K may be identified. .

環境情報取得部30aにより環境情報としての定義感情Kを取得すると、情報処理部30bは、記憶部33に記憶されている上述の大タグ関係データを参照し(ステップSC2)、ステップSC1で取得した定義感情Kに対応する1つの大タグDを特定する(ステップSC3)。上述したように、定義感情Kのそれぞれは、心理的効能種別Sを介して、1つの大タグDに紐付けられており、大タグ関係データを参照することにより、ある1つの定義感情Kに基づいて、対応する1つの大タグDを特定可能である。
次いで、情報処理部30bは、ステップSC3で特定した大タグDを検索キーとして、画像情報、及び、文章情報を検索し、取得する。上述したとおり、画像情報、及び、文章情報には、メタデータとして適切な大タグDが付与されている。ここで検索された画像情報、及び、文章情報は、視聴者の感情を反映した情報である。
次いで、情報取得部30bは、第1実施形態で説明した手法により、画像情報と、文章情報とを組み合わせて、映像情報を生成し(ステップSC5)、生成した映像情報を表示装置12に出力して、映像情報に基づく映像を表示させる(ステップSC6)。
ここで、表示装置12に表示される映像は、視聴者に対して、心理的な影響を効果的に与える映像であるため、視聴者の満足度の向上に結びつき、さらに、映像配信サービスの付加価値を向上できる。
When the definition emotion K as environment information is acquired by the environment information acquisition unit 30a, the information processing unit 30b refers to the above-described large tag relation data stored in the storage unit 33 (step SC2) and acquired in step SC1. One large tag D corresponding to the definition emotion K is specified (step SC3). As described above, each of the defined emotions K is linked to one large tag D via the psychological effect type S. By referring to the large tag relation data, each defined emotion K is assigned to one defined emotion K. Based on this, one corresponding large tag D can be identified.
Next, the information processing unit 30b searches and acquires image information and text information using the large tag D identified in step SC3 as a search key. As described above, a large tag D appropriate as metadata is assigned to image information and text information. The image information and text information searched here are information reflecting viewers' emotions.
Next, the information acquisition unit 30b generates image information by combining the image information and the text information by the method described in the first embodiment (step SC5), and outputs the generated image information to the display device 12. The video based on the video information is displayed (step SC6).
Here, since the video displayed on the display device 12 is a video that has a psychological effect on the viewer effectively, it leads to an improvement in the satisfaction of the viewer, and further, an additional video distribution service is added. Value can be improved.

1 映像配信システム
10 映像配信サーバー(サーバー装置)
11 インターネット(ネットワーク)
12 表示装置
15 携帯電話(端末)
30 制御部
30a 環境情報取得部(環境情報取得手段)
30b 情報処理部(情報処理手段)
1 Video distribution system 10 Video distribution server (server device)
11 Internet (network)
12 Display device 15 Mobile phone (terminal)
30 control unit 30a environment information acquisition unit (environment information acquisition means)
30b Information processing unit (information processing means)

Claims (15)

表示装置にネットワークを介して接続されるサーバー装置において、
前記表示装置の環境に関する環境情報を取得する環境情報取得手段と、
検索条件に基づいて、前記ネットワーク上の機器が有する画像情報を検索して取得し、取得した前記画像情報を表示させるための映像情報を生成し、生成した前記映像情報を前記表示装置に出力する情報処理手段と、を備え、
前記情報処理手段は、
前記環境情報取得手段により取得された前記環境情報に基づいて、前記表示装置の環境に対応させて、前記検索条件の内容を変更することを特徴とするサーバー装置。
In a server device connected to a display device via a network,
Environmental information acquisition means for acquiring environmental information relating to the environment of the display device;
Based on the search condition, the image information of the devices on the network is searched and acquired, video information for displaying the acquired image information is generated, and the generated video information is output to the display device. An information processing means,
The information processing means includes
A server device, wherein the content of the search condition is changed in accordance with the environment of the display device based on the environment information acquired by the environment information acquisition means.
前記情報処理手段は、
前記検索条件に基づいて、前記ネットワーク上の機器が有する前記画像情報、及び、文章情報を検索して取得し、取得した前記画像情報、及び、前記文章情報に基づいて、これら情報を組み合わせて表示させるための前記映像情報を生成し、生成した前記映像情報を前記表示装置に出力することを特徴とする請求項1に記載のサーバー装置。
The information processing means includes
Based on the search conditions, the image information and text information of the devices on the network are searched and acquired, and the information is combined and displayed based on the acquired image information and text information. The server apparatus according to claim 1, wherein the video information to be generated is generated, and the generated video information is output to the display device.
前記検索条件とは、前記ネットワーク上の機器が有する各種情報に対応付けられたメタデータの検索方法のことであり、
前記情報処理手段は、
前記環境情報取得手段により取得された前記環境情報に基づいて、前記メタデータの検索方法を変更することを特徴とする請求項1又は2に記載のサーバー装置。
The search condition is a search method for metadata associated with various information possessed by devices on the network,
The information processing means includes
3. The server apparatus according to claim 1, wherein a search method for the metadata is changed based on the environment information acquired by the environment information acquisition unit.
前記環境情報取得手段は、
前記環境情報として、前記表示装置が設けられた位置を示す設置位置情報を取得し、
前記情報処理手段は、
前記環境情報取得手段により取得された前記設置位置情報に基づいて、又は、前記設置位置情報と他の前記環境情報との組み合わせに基づいて、前記表示装置が設置された位置に対応させて、前記検索条件の内容を変更することを特徴とする請求項1ないし3のいずれかに記載のサーバー装置。
The environmental information acquisition means includes
As the environmental information, obtain installation position information indicating the position where the display device is provided,
The information processing means includes
Based on the installation position information acquired by the environment information acquisition means, or based on a combination of the installation position information and other environmental information, corresponding to the position where the display device is installed, 4. The server device according to claim 1, wherein the contents of the search condition are changed.
前記情報処理手段は、
前記設置位置情報に基づいて、前記表示装置が設置された場所の属性を取得し、前記表示装置が設置された場所の属性に対応させて、前記検索条件の内容を変更することを特徴とする請求項4に記載のサーバー装置。
The information processing means includes
Based on the installation position information, an attribute of the place where the display device is installed is acquired, and the content of the search condition is changed according to the attribute of the place where the display device is installed. The server device according to claim 4.
前記表示装置は、自身の位置を示す情報を取得する機能を有し、
前記環境情報取得手段は、
前記表示装置から前記ネットワークを介した通信により、前記表示装置の位置を示す情報を取得し、取得した情報に基づいて、前記設置位置情報を取得することを特徴とする請求項4又は5に記載のサーバー装置。
The display device has a function of acquiring information indicating its own position,
The environmental information acquisition means includes
The information indicating the position of the display device is acquired from the display device through communication via the network, and the installation position information is acquired based on the acquired information. Server equipment.
前記表示装置の近傍に位置し、自身の位置を示す情報を取得する機能を有する外部機器と、前記ネットワークを介して通信可能に構成され、
前記環境情報取得手段は、
前記外部機器から前記ネットワークを介した通信により、前記外部機器の位置を示す情報を取得し、取得した情報に基づいて、前記設置位置情報を取得することを特徴とする請求項4又は5に記載のサーバー装置。
It is located in the vicinity of the display device, and is configured to be able to communicate with an external device having a function of acquiring information indicating its own position via the network.
The environmental information acquisition means includes
The information indicating the position of the external device is acquired from the external device through communication via the network, and the installation position information is acquired based on the acquired information. Server equipment.
前記環境情報取得手段は、
前記環境情報として、現在の日時に関する日時情報を取得し、
前記情報処理手段は、
前記環境情報取得手段により取得された前記日時情報に基づいて、又は、前記日時情報と他の前記環境情報との組み合わせに基づいて、現在の日時に対応させて、前記検索条件の内容を変更することを特徴とする請求項1ないし7のいずれかに記載のサーバー装置。
The environmental information acquisition means includes
As the environment information, obtain date and time information on the current date and time,
The information processing means includes
Based on the date and time information acquired by the environment information acquisition means or based on a combination of the date and time information and other environment information, the contents of the search condition are changed in correspondence with the current date and time. 8. The server device according to claim 1, wherein the server device is a server device.
前記表示装置は、周辺を撮影して撮影画像を生成する撮影手段を備え、
前記環境情報取得手段は、
前記環境情報として、前記表示装置から前記ネットワークを介した通信により前記撮影画像を取得し、
前記情報処理手段は、
前記環境情報取得手段により取得された前記撮影画像に基づいて、又は、前記撮影画像と他の前記環境情報との組み合わせに基づいて、前記撮影画像が示す前記表示装置の環境に対応させて、前記検索条件の内容を変更することを特徴とする請求項1ないし8のいずれかに記載のサーバー装置。
The display device includes photographing means for photographing a periphery and generating a photographed image,
The environmental information acquisition means includes
As the environment information, the captured image is acquired from the display device through communication via the network,
The information processing means includes
Based on the captured image acquired by the environment information acquisition means or based on a combination of the captured image and other environmental information, corresponding to the environment of the display device indicated by the captured image, 9. The server apparatus according to claim 1, wherein the contents of the search condition are changed.
前記情報処理手段は、
前記撮影画像に基づいて、前記表示装置の周辺の明るさを検出し、当該明るさに対応させて、前記検索条件の内容を変更することを特徴とする請求項9に記載のサーバー装置。
The information processing means includes
The server device according to claim 9, wherein brightness of the periphery of the display device is detected based on the photographed image, and contents of the search condition are changed according to the brightness.
前記情報処理手段は、
前記撮影画像に基づいて、前記表示装置の周辺に存在する人間の多寡を検出し、当該人間の多寡に対応させて、前記検索条件の内容を変更することを特徴とする請求項9又は10に記載のサーバー装置。
The information processing means includes
11. The human condition existing around the display device is detected based on the captured image, and the content of the search condition is changed according to the human condition. The server device described.
前記表示装置は、音声を収音して収音情報を生成する収音手段を備え、
前記環境情報取得手段は、
前記環境情報として、前記表示装置から前記ネットワークを介した通信により前記収音情報を取得し、
前記情報処理手段は、
前記環境情報取得手段により取得された前記収音情報に基づいて、又は、前記収音情報と他の前記環境情報との組み合わせに基づいて、前記収音情報が示す前記表示装置の環境に対応させて、前記検索条件の内容を変更することを特徴とする請求項1ないし11のいずれかに記載のサーバー装置。
The display device includes sound collection means for collecting sound and generating sound collection information,
The environmental information acquisition means includes
As the environment information, the sound collection information is acquired from the display device through communication via the network,
The information processing means includes
Based on the sound collection information acquired by the environment information acquisition means, or based on a combination of the sound collection information and other environmental information, it is made to correspond to the environment of the display device indicated by the sound collection information. The server apparatus according to claim 1, wherein contents of the search condition are changed.
前記情報処理手段は、
前記収音情報に基づいて、前記表示装置が設置された場所に音楽が流れているか否かを判別し、音楽が流れている場合は、音楽に対応させて、前記検索条件の内容を変更することを特徴とする請求項12に記載のサーバー装置。
The information processing means includes
Based on the sound collection information, it is determined whether or not music is flowing in a place where the display device is installed. If music is flowing, the contents of the search condition are changed corresponding to the music. The server device according to claim 12, wherein
前記環境情報取得手段は、
前記環境情報として、前記表示装置が設置された場所の気象に関する気象情報を取得し、
前記情報処理手段は、
前記環境情報取得手段により取得された前記気象情報に基づいて、又は、前記気象情報と他の前記環境情報との組み合わせに基づいて、前記表示装置が設置された場所の気象に対応させて、前記検索条件の内容を変更することを特徴とする請求項1ないし13のいずれかに記載のサーバー装置。
The environmental information acquisition means includes
As the environmental information, obtain weather information about the weather of the place where the display device is installed,
The information processing means includes
Based on the weather information acquired by the environmental information acquisition means, or based on a combination of the weather information and other environmental information, corresponding to the weather of the place where the display device is installed, 14. The server device according to claim 1, wherein the contents of the search condition are changed.
端末と前記ネットワークを介して通信可能に構成され、
前記情報処理手段は、
前記映像情報を前記表示装置に出力中、前記端末からの指示に応じて、前記表示装置に出力した前記映像情報に含まれる前記文章情報に関連する情報を記憶する一方、
前記端末からの要求に応じて、記憶した前記文章情報、及び、前記文章情報に関連する情報を前記端末に出力することを特徴とする請求項1ないし14のいずれかに記載のサーバー装置。
It is configured to be able to communicate with the terminal via the network,
The information processing means includes
While outputting the video information to the display device, according to an instruction from the terminal, while storing information related to the text information included in the video information output to the display device,
The server apparatus according to claim 1, wherein the stored sentence information and information related to the sentence information are output to the terminal in response to a request from the terminal.
JP2012223032A 2012-10-05 2012-10-05 Server device Active JP6224308B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012223032A JP6224308B2 (en) 2012-10-05 2012-10-05 Server device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012223032A JP6224308B2 (en) 2012-10-05 2012-10-05 Server device

Publications (2)

Publication Number Publication Date
JP2014075076A true JP2014075076A (en) 2014-04-24
JP6224308B2 JP6224308B2 (en) 2017-11-01

Family

ID=50749173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012223032A Active JP6224308B2 (en) 2012-10-05 2012-10-05 Server device

Country Status (1)

Country Link
JP (1) JP6224308B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342642A (en) * 2001-05-14 2002-11-29 Olympus Optical Co Ltd System for displaying video
JP2003125379A (en) * 2001-10-17 2003-04-25 Nippon Telegraph & Telephone West Corp Information providing system, method thereof, information distributing server apparatus, contents distribution server apparatus, street television set, mobile communication terminal and program
JP2004220498A (en) * 2003-01-17 2004-08-05 Toppan Printing Co Ltd Advertisement delivery system and method
JP2007052295A (en) * 2005-08-18 2007-03-01 Daiei Inc Store with advertisement space, advertisement display method of store, and advertisement display program of store
JP2007193591A (en) * 2006-01-19 2007-08-02 Casio Comput Co Ltd Web search server and web search method
JP2007235992A (en) * 2007-05-03 2007-09-13 Hitachi Ltd Advertisement display control apparatus and method
JP2008048113A (en) * 2006-08-15 2008-02-28 Nippon Telegr & Teleph Corp <Ntt> Dynamic image data distribution system, dynamic image data distribution method, dynamic image data providing method, dynamic image data distribution program, dynamic image data providing program, and computer-readable recording medium recorded with these programs
JP2008225315A (en) * 2007-03-15 2008-09-25 Konica Minolta Holdings Inc Advertisement display system
JP2010146412A (en) * 2008-12-19 2010-07-01 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for selecting content
JP2012053773A (en) * 2010-09-02 2012-03-15 Nippon Telegr & Teleph Corp <Ntt> Peripheral information display system, and peripheral information display program
JP2012098598A (en) * 2010-11-04 2012-05-24 Yahoo Japan Corp Advertisement providing system, advertisement provision management device, advertisement provision management method, and advertisement provision management program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342642A (en) * 2001-05-14 2002-11-29 Olympus Optical Co Ltd System for displaying video
JP2003125379A (en) * 2001-10-17 2003-04-25 Nippon Telegraph & Telephone West Corp Information providing system, method thereof, information distributing server apparatus, contents distribution server apparatus, street television set, mobile communication terminal and program
JP2004220498A (en) * 2003-01-17 2004-08-05 Toppan Printing Co Ltd Advertisement delivery system and method
JP2007052295A (en) * 2005-08-18 2007-03-01 Daiei Inc Store with advertisement space, advertisement display method of store, and advertisement display program of store
JP2007193591A (en) * 2006-01-19 2007-08-02 Casio Comput Co Ltd Web search server and web search method
JP2008048113A (en) * 2006-08-15 2008-02-28 Nippon Telegr & Teleph Corp <Ntt> Dynamic image data distribution system, dynamic image data distribution method, dynamic image data providing method, dynamic image data distribution program, dynamic image data providing program, and computer-readable recording medium recorded with these programs
JP2008225315A (en) * 2007-03-15 2008-09-25 Konica Minolta Holdings Inc Advertisement display system
JP2007235992A (en) * 2007-05-03 2007-09-13 Hitachi Ltd Advertisement display control apparatus and method
JP2010146412A (en) * 2008-12-19 2010-07-01 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for selecting content
JP2012053773A (en) * 2010-09-02 2012-03-15 Nippon Telegr & Teleph Corp <Ntt> Peripheral information display system, and peripheral information display program
JP2012098598A (en) * 2010-11-04 2012-05-24 Yahoo Japan Corp Advertisement providing system, advertisement provision management device, advertisement provision management method, and advertisement provision management program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
坂辺 拓、外2名: "デジタルサイネージのシステム間連携を実現するクラウドAPIの設計と実装", マルチメディア,分散,協調とモバイル(DICOMO2012)シンポジウム論文集 情報処理学会シンポジ, vol. 第2012巻,第1号, JPN6017016329, 1 August 2012 (2012-08-01), JP, pages 1535 - 1542, ISSN: 0003643942 *

Also Published As

Publication number Publication date
JP6224308B2 (en) 2017-11-01

Similar Documents

Publication Publication Date Title
US11366873B2 (en) Personalized content processing and delivery system and media
AU2020200421B2 (en) System and method for output display generation based on ambient conditions
CN111901638B (en) Behavior curation of media assets
US8856375B2 (en) System and method for distributing media related to a location
Sodergard Mobile television-technology and user experiences
KR101432457B1 (en) Content capture device and methods for automatically tagging content
US10185779B2 (en) Mechanisms for content aggregation, syndication, sharing, and updating
US7533079B2 (en) Device and method for processing situated information
CN110140138A (en) The determination of the content-data of local device, transimission and storage
US20110208570A1 (en) Apparatus, system, and method for individualized and dynamic advertisement in cloud computing and web application
CN109117233A (en) Method and apparatus for handling information
CN106663241A (en) List accumulation and reminder triggering
KR20110084413A (en) System and method for context enhanced ad creation
CN101262494A (en) Method, client, server and system for processing distributed information
US10909474B2 (en) Triggering an automatic creation of an event stamp
JP6988961B2 (en) Information processing system and information processing method
EP2329450A2 (en) System and method for context enhanced messaging
JP7155248B2 (en) Implementing a Cue Data Model for Adaptive Presentation of Collaborative Recollection of Memories
CN103620637B (en) Audio presentation of condensed spatial contextual information
US20200364621A1 (en) Grid card (or geo tag)
US20170006101A1 (en) Adding a card to a mash guide/proximity grid
US20100257030A1 (en) Method and system for conducting a contest
US20170004529A1 (en) Mash guide/proximity grid
Chesher Becoming the Milky Way: mobile phones and actor networks at a U2 concert
US20190303967A1 (en) System and method to characterize a user of a handheld device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170705

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171005

R150 Certificate of patent or registration of utility model

Ref document number: 6224308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250