JP2018098769A - Information processing method, information processing system and server - Google Patents

Information processing method, information processing system and server Download PDF

Info

Publication number
JP2018098769A
JP2018098769A JP2017161362A JP2017161362A JP2018098769A JP 2018098769 A JP2018098769 A JP 2018098769A JP 2017161362 A JP2017161362 A JP 2017161362A JP 2017161362 A JP2017161362 A JP 2017161362A JP 2018098769 A JP2018098769 A JP 2018098769A
Authority
JP
Japan
Prior art keywords
user
video content
exercise
iot device
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2017161362A
Other languages
Japanese (ja)
Inventor
健太郎 中井
Kentaro Nakai
健太郎 中井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to CN201711283856.4A priority Critical patent/CN108228719A/en
Publication of JP2018098769A publication Critical patent/JP2018098769A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing method, an information processing system and a server capable of efficiently providing a user with video content by extracting the video content corresponding to the user.SOLUTION: The information processing method receives an operation time 10002 showing a time to be taken in regulated operation of an IoT apparatus 1004 and a user ID from the IoT apparatus 1004, extracts user attribute data associated with the user ID received from the Lot apparatus 1004 from one or more user attribute data, extracts video content from a matching table on the basis of priority associated with a first set in the first set matching a purpose of operation included in the extracted user attribute data, adjusts a reproduction time of the extracted video content within the operation time, and distributes the adjusted video content to the IoT apparatus 1004 for performing the regulated operation.SELECTED DRAWING: Figure 14

Description

本開示は、ユーザの運動を支援する情報処理方法、情報処理システム及びサーバに関する。   The present disclosure relates to an information processing method, an information processing system, and a server that support a user's exercise.

例えば、特許文献1では、スポーツ施設を利用するユーザに対して、ユーザの嗜好に合った運動を提示する情報処理装置が開示されている。   For example, Patent Document 1 discloses an information processing apparatus that presents an exercise that matches a user's preference to a user who uses a sports facility.

また、特許文献2では、マルチメディア端末装置を操作している利用者に対して、アクセス中の待ち時間を利用し、その利用者の趣味、趣向、家族構成、マルチメディア端末装置によってアクセスされた利用履歴内容などの個人情報に合ったコマーシャル映像を表示画面に映し出すマルチメディア端末装置が開示されている。   Moreover, in patent document 2, using the waiting time during access with respect to the user who is operating the multimedia terminal device, it was accessed by the user's hobby, preference, family structure, and multimedia terminal device There has been disclosed a multimedia terminal device that displays a commercial video suitable for personal information such as usage history contents on a display screen.

特開2015−188693号公報Japanese Patent Laying-Open No. 2015-188893 特開2003−67622号公報JP 2003-67622 A

しかしながら、上記従来の構成では、運動習慣のないユーザに対して、ユーザの好みに応じたフィットネスメニューを提供しても、ユーザが実際に体を動かし、ユーザの運動意識を向上させることで、継続的に運動をさせることは難しい。   However, in the above-described conventional configuration, even if a fitness menu according to the user's preference is provided to a user who does not have an exercise habit, the user actually moves the body and improves the user's exercise consciousness. It is difficult to exercise.

また、運動習慣のあるユーザに対して、ユーザの好みに応じたフィットネスメニューを提供したとしても、ユーザがフィットネスクラブに頻繁に通うことができない場合があり、運動習慣のあるユーザがトレーニングの映像コンテンツを取得したとしても、このユーザがトレーニングの映像コンテンツを見ながら運動するとは限らない。このため、このようなユーザに対して運動習慣を定着させることができないこともある。このことから、ユーザに映像コンテンツを効率的に提供することができているとは言い難い。   In addition, even if a fitness menu according to the user's preference is provided to a user who has an exercise habit, the user may not be able to frequently go to a fitness club, and a user who has an exercise habit will be able to attend training video content. Even if acquired, this user does not always exercise while watching the video content of the training. For this reason, exercise habits may not be established for such users. Therefore, it cannot be said that video content can be efficiently provided to the user.

そこで、本開示では、ユーザに応じた映像コンテンツを抽出することで、ユーザに映像コンテンツを効率的に提供することができる情報処理方法、情報処理システム及びサーバを提供する。   Therefore, the present disclosure provides an information processing method, an information processing system, and a server that can efficiently provide video content to a user by extracting video content corresponding to the user.

本開示の一態様に係る情報処理方法は、ユーザの操作によって規定の運転を行うIoT(Internet of Things)機器に接続され、記憶装置に記憶された映像コンテンツを配信するサーバによる情報処理方法であって、前記記憶装置には、1以上の、ユーザを特定するユーザIDと当該ユーザが行う運動の目的とを紐付けた、ユーザ属性データと、運動の目的と運動の映像コンテンツと当該映像コンテンツに振られた優先順位との第1の組を1以上含むマッチングテーブルと、が記憶され、当該情報処理方法は、前記IoT機器の前記規定の運転に掛かる運転時間を示す運転時間情報と、ユーザIDとを、前記IoT機器から受信し、前記IoT機器から受信した前記ユーザIDに紐付けられたユーザ属性データを、1以上の前記ユーザ属性データの中から抽出し、抽出した前記ユーザ属性データに含まれる前記運動の目的に合致する第1の組のうち、当該第1の組に紐付けられた前記優先順位に基づいて、前記映像コンテンツを前記マッチングテーブルの中から抽出し、抽出した前記映像コンテンツの再生時間を前記運転時間以内に調整し、前記調整した前記映像コンテンツを、前記規定の運転を行う前記IoT機器へ配信する。   An information processing method according to an aspect of the present disclosure is an information processing method by a server that is connected to an IoT (Internet of Things) device that performs a specified driving operation by a user and distributes video content stored in a storage device. In the storage device, one or more user IDs that identify the user and the purpose of the exercise performed by the user are associated with user attribute data, the purpose of the exercise, the video content of the exercise, and the video content. A matching table including one or more first sets with the assigned priority order is stored, and the information processing method includes operation time information indicating an operation time required for the specified operation of the IoT device, and a user ID And the user attribute data associated with the user ID received from the IoT device is one or more Of the first set that matches the purpose of the exercise included in the extracted user attribute data, extracted from the user attribute data, based on the priority associated with the first set, The video content is extracted from the matching table, the playback time of the extracted video content is adjusted within the operation time, and the adjusted video content is distributed to the IoT device that performs the specified operation. .

なお、これらの包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。   Note that these comprehensive or specific modes may be realized by a system, an apparatus, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM. Also, any combination of recording media may be realized.

本開示によれば、ユーザに応じた映像コンテンツを抽出することで、ユーザに映像コンテンツを効率的に提供することができる。   According to the present disclosure, it is possible to efficiently provide video content to the user by extracting video content corresponding to the user.

図1は、実施の形態1における情報処理システムを示す図である。FIG. 1 is a diagram illustrating an information processing system according to the first embodiment. 図2は、実施の形態1におけるクラウドサーバの一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a cloud server according to the first embodiment. 図3は、実施の形態1におけるユーザ属性データの一例を示す図である。FIG. 3 is a diagram illustrating an example of user attribute data according to the first embodiment. 図4は、実施の形態1におけるウェアラブル機器の端末属性データの一例を示す図である。FIG. 4 is a diagram illustrating an example of terminal attribute data of the wearable device according to the first embodiment. 図5Aは、実施の形態1における映像メタデータの一例を示す図である。FIG. 5A is a diagram illustrating an example of video metadata according to the first embodiment. 図5Bは、実施の形態1における素材映像メタデータの一例を示す図である。FIG. 5B is a diagram showing an example of the material video metadata in the first exemplary embodiment. 図6は、実施の形態1におけるマッチングテーブルの一例を示す図である。FIG. 6 is a diagram showing an example of the matching table in the first embodiment. 図7は、実施の形態1における再生履歴データの一例を示す図である。FIG. 7 is a diagram showing an example of reproduction history data in the first embodiment. 図8は、実施の形態1におけるIoT機器の一例を示すブロック図である。FIG. 8 is a block diagram illustrating an example of the IoT device according to the first embodiment. 図9は、実施の形態1におけるIoT機器の表示部に表示される運動の映像コンテンツの一例を示す図である。FIG. 9 is a diagram illustrating an example of motion video content displayed on the display unit of the IoT device according to the first embodiment. 図10は、実施の形態1における機器属性データの一例を示す図である。FIG. 10 is a diagram illustrating an example of device attribute data according to the first embodiment. 図11は、実施の形態1における映像抽出部の一例を示すブロック図である。FIG. 11 is a block diagram illustrating an example of a video extraction unit according to the first embodiment. 図12は、実施の形態1におけるIoT機器へ出力される運動の映像コンテンツの一例を示す図である。FIG. 12 is a diagram illustrating an example of motion video content output to the IoT device according to the first embodiment. 図13は、実施の形態1におけるIoT機器へ出力される運動の映像コンテンツの別の一例を示す図である。FIG. 13 is a diagram illustrating another example of motion video content output to the IoT device according to the first embodiment. 図14は、実施の形態1における情報処理システムの一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of the information processing system according to the first embodiment. 図15は、実施の形態1における映像コンテンツの配信の一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of video content distribution in the first embodiment. 図16は、実施の形態1における「参加型」の映像コンテンツを抽出する処理の一例を示すフローチャートである。FIG. 16 is a flowchart illustrating an example of processing for extracting “participatory” video content according to the first embodiment. 図17は、実施の形態1における「意識型」の映像コンテンツを抽出する処理の一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of processing for extracting “consciousness-type” video content according to the first embodiment. 図18は、実施の形態2における映像コンテンツの配信の一例を示すフローチャートである。FIG. 18 is a flowchart illustrating an example of video content distribution according to the second embodiment.

以下、本開示の基礎となった知見について説明する。   Hereinafter, the knowledge that is the basis of the present disclosure will be described.

近年では、ユーザに対して、ユーザの好みに応じたトレーニングメニューを提示する方法が検討されている。しかしながら、運動習慣のないユーザに対して、ユーザの好みに応じたフィットネスメニューを提供しても、ユーザの運動意識を向上させることで、ユーザが実際に体を動かし、継続的に運動をさせることは難しい。   In recent years, methods for presenting a training menu according to the user's preference to the user have been studied. However, even if a fitness menu is provided to users who do not have exercise habits according to the user's preferences, the user can actually move and continuously exercise by improving the user's awareness of exercise. Is difficult.

また、運動習慣のあるユーザに対して、ユーザの好みに応じたフィットネスメニューを提供したとしても、ユーザがフィットネスクラブに頻繁に通うことができない場合がある。運動習慣のあるユーザがトレーニングの映像コンテンツを取得したとしても、このユーザがトレーニングの映像コンテンツを見ながら運動するとは限らない。このため、このようなユーザに対して運動習慣を定着させることができないこともある。   Even if a fitness menu according to the user's preference is provided to a user with exercise habits, the user may not be able to frequently go to a fitness club. Even if a user with exercise habits acquires training video content, this user does not always exercise while watching the training video content. For this reason, exercise habits may not be established for such users.

さらに、ユーザが利用するIoT(Internet of Things)機器の処理時間中に、1つのトレーニングの映像コンテンツをIoT機器に配信しても、ユーザが1つのトレーニングの映像コンテンツを視聴するだけでは、ユーザに運動習慣を定着させることは難しい。何故ならば、日常生活の中で、ユーザに繰り返しトレーニング映像を見返させるようにすること、少ない時間でもユーザに体を動かせるようにすることが、運動習慣の定着につながるからである。このことから、ユーザに映像コンテンツを効率的に提供することができているとは言い難い。   Furthermore, even if the video content of one training is distributed to the IoT device during the processing time of the IoT (Internet of Things) device used by the user, the user only needs to view the video content of one training. It is difficult to establish exercise habits. This is because, in daily life, allowing the user to look back at the training video repeatedly and allowing the user to move the body even in a short time lead to the establishment of exercise habits. Therefore, it cannot be said that video content can be efficiently provided to the user.

これまで、ユーザがオフィスや住居といった日常生活におけるIoT機器の利用中に、運動習慣に対する意識を向上させるために、トレーニング映像を提供する技術的な解決策に関して、検討はされていなかった。   Up to now, no technical solution for providing training videos has been studied in order to improve awareness of exercise habits while users use IoT devices in daily life such as offices and residences.

上記課題を解決するために、本開示の一態様に係る情報処理方法は、ユーザの操作によって規定の運転を行うIoT(Internet of Things)機器に接続され、記憶装置に記憶された映像コンテンツを配信するサーバによる情報処理方法であって、前記記憶装置には、1以上の、ユーザを特定するユーザIDと当該ユーザが行う運動の目的とを紐付けた、ユーザ属性データと、運動の目的と運動の映像コンテンツと当該映像コンテンツに振られた優先順位との第1の組を1以上含むマッチングテーブルと、が記憶され、当該情報処理方法は、前記IoT機器の前記規定の運転に掛かる運転時間を示す運転時間情報と、ユーザIDとを、前記IoT機器から受信し、前記IoT機器から受信した前記ユーザIDに紐付けられたユーザ属性データを、1以上の前記ユーザ属性データの中から抽出し、抽出した前記ユーザ属性データに含まれる前記運動の目的に合致する第1の組のうち、当該第1の組に紐付けられた前記優先順位に基づいて、前記映像コンテンツを前記マッチングテーブルの中から抽出し、抽出した前記映像コンテンツの再生時間を前記運転時間以内に調整し、前記調整した前記映像コンテンツを、前記規定の運転を行う前記IoT機器へ配信する。   In order to solve the above-described problem, an information processing method according to an aspect of the present disclosure distributes video content stored in a storage device that is connected to an IoT (Internet of Things) device that performs a specified operation by a user operation. In the information processing method by the server, the user attribute data in which one or more user IDs for identifying the user and the purpose of the exercise performed by the user are associated with each other, the purpose of the exercise, and the exercise are stored in the storage device And a matching table including one or more first sets of video content and priority assigned to the video content, and the information processing method calculates an operation time required for the specified operation of the IoT device. The operation time information shown and the user ID are received from the IoT device, and the user ID associated with the user ID received from the IoT device is received. The user attribute data is extracted from the one or more user attribute data, and is linked to the first set among the first sets that match the purpose of the exercise included in the extracted user attribute data Based on the priority order, the video content is extracted from the matching table, the playback time of the extracted video content is adjusted within the operation time, and the adjusted video content is Distribute to the IoT device that is in operation.

これによれば、情報処理方法では、IoT機器から受信したユーザIDに紐付けられた、少なくとも最も優先順位の高いユーザ属性データを記憶装置から抽出する。また、情報処理方法では、抽出した映像コンテンツの再生時間を運転時間以内に調節し、調節した映像コンテンツをサーバがIoT機器へ配信する。IoT機器がサーバから受信した映像コンテンツを出力することで、運動習慣のないユーザであっても、ユーザが日常的に使用するIoT機器を介して映像コンテンツを認識することができる。   According to this, in the information processing method, at least the highest-priority user attribute data associated with the user ID received from the IoT device is extracted from the storage device. In the information processing method, the playback time of the extracted video content is adjusted within the operation time, and the server delivers the adjusted video content to the IoT device. By outputting the video content received from the server by the IoT device, even a user who does not have exercise habits can recognize the video content via the IoT device that the user uses on a daily basis.

したがって、この情報処理方法では、ユーザに応じた映像コンテンツを抽出することで、ユーザに映像コンテンツを効率的に提供することができる。   Therefore, in this information processing method, the video content can be efficiently provided to the user by extracting the video content corresponding to the user.

特に、この情報処理方法では、繰り返し映像コンテンツを配信すれば、ユーザに繰り返しトレーニングの映像コンテンツを見ることができる。このため、ユーザの嗜好にあった映像コンテンツを、ユーザが日常的に利用するIoT機器に配信できるので、ユーザが運動の映像コンテンツに触れる機会を増やすことができる。   In particular, in this information processing method, if the repeated video content is distributed, the video content of the repeated training can be viewed by the user. For this reason, since the video content suitable for the user's preference can be distributed to the IoT device that the user uses on a daily basis, the chance that the user touches the video content of the exercise can be increased.

また、ユーザが使用するIoT機器の規定の運転を行う期間に合わせて、ユーザの嗜好にあった映像コンテンツを配信することができるので、ユーザの日常生活の隙間時間を運動意識の向上に役立てることができる。   In addition, video content that meets the user's preference can be distributed according to the period during which the IoT device used by the user is stipulated, so that the gap time in daily life of the user can be used to improve exercise awareness. Can do.

また、本開示の一態様に係る情報処理システムは、ユーザの操作によって規定の運転を行うIoT機器と、記憶装置に記憶された映像コンテンツを配信するサーバとを含む情報処理システムであって、前記記憶装置には、1以上の、ユーザを特定するユーザIDと当該ユーザが行う運動の目的とを紐付けた、ユーザ属性データと、運動の目的と運動の映像コンテンツと前記映像コンテンツに振られた優先順位との第1の組を1以上含むマッチングテーブルと、が記憶され、前記サーバは、前記IoT機器の前記規定の運転に掛かる運転時間を示す運転時間情報と、ユーザIDとを、前記IoT機器から受信する通信部と、前記IoT機器から受信した前記ユーザID紐付けられたユーザ属性データを、1以上のユーザ属性データの中から抽出するユーザ管理部と、抽出した前記ユーザ属性データに含まれる前記運動の目的に合致する第1の組のうち、当該第1の組に紐付けられた前記優先順位に基づいて、前記映像コンテンツを前記マッチングテーブルの中から抽出し、かつ、抽出した前記映像コンテンツの再生時間を前記運転時間以内に調整する映像抽出部と、前記調整した前記映像コンテンツを、前記規定の運転を行う前記IoT機器へ配信する映像配信部と、を備え、前記IoT機器は、前記サーバから配信された前記映像コンテンツを取得し、前記映像コンテンツを表示する表示部を備える。   An information processing system according to an aspect of the present disclosure is an information processing system including an IoT device that performs a prescribed operation by a user operation, and a server that distributes video content stored in a storage device, In the storage device, one or more user IDs that identify the user and the purpose of the exercise performed by the user are linked to user attribute data, the purpose of the exercise, the video content of the exercise, and the video content. A matching table including one or more first sets of priorities, and the server stores operating time information indicating an operating time required for the specified operation of the IoT device, and a user ID, the IoT A communication unit received from a device and user attribute data associated with the user ID received from the IoT device are extracted from one or more user attribute data The video content based on the priority associated with the first set of the first set that matches the purpose of the exercise included in the extracted user attribute data. A video extraction unit that extracts from the matching table and adjusts the playback time of the extracted video content within the operation time, and the adjusted video content to the IoT device that performs the specified operation A video distribution unit that distributes, and the IoT device includes a display unit that acquires the video content distributed from the server and displays the video content.

また、本開示の一態様に係るサーバは、ユーザの操作によって規定の運転を行うIoT機器に接続され、記憶装置に記憶された映像コンテンツを配信するサーバであって、前記記憶装置には、1以上の、ユーザを特定するユーザIDと当該ユーザが行う運動の目的とを紐付けた、ユーザ属性データと、運動の目的と運動の映像コンテンツと当該映像コンテンツに振られた優先順位との第1の組を1以上含むマッチングテーブルと、が記憶され、当該サーバは、前記IoT機器の前記規定の運転に掛かる運転時間を示す運転時間情報と、ユーザIDとを、前記IoT機器から受信する通信部と、前記IoT機器から受信した前記ユーザIDに紐付けられたユーザ属性データを、1以上の前記ユーザ属性データの中から抽出するユーザ管理部と、抽出した前記ユーザ属性データに含まれる前記運動の目的に合致する第1の組のうち、当該第1の組に紐付けられた前記優先順位に基づいて、前記映像コンテンツを前記マッチングテーブルの中から抽出する映像抽出部と、を備え、前記映像抽出部は、抽出した前記映像コンテンツの再生時間を前記運転時間以内に調整し、前記調整した前記映像コンテンツを、前記規定の運転を行う前記IoT機器へ配信する。   A server according to an aspect of the present disclosure is a server that is connected to an IoT device that performs a specified operation by a user operation and distributes video content stored in a storage device. The storage device includes 1 The first of the user attribute data, the purpose of the exercise, the video content of the exercise, and the priority assigned to the video content, associating the user ID for identifying the user with the purpose of the exercise performed by the user. A matching table including at least one set of the communication information, and the server receives from the IoT device, operation time information indicating an operation time required for the specified operation of the IoT device, and a user ID. A user management unit that extracts user attribute data associated with the user ID received from the IoT device from the one or more user attribute data; Of the first set that matches the purpose of the exercise included in the issued user attribute data, the video content is selected from the matching table based on the priority order associated with the first set. The IoT device that adjusts the playback time of the extracted video content within the operation time, and performs the specified operation on the adjusted video content Delivered to.

これらにおいても、上述と同様の作用効果を奏する。   Also in these cases, the same effects as described above are obtained.

また、本開示の一態様に係る情報処理方法は、前記記憶装置には、さらに、1以上の、IoT機器IDと前記IoT機器の設置場所がユーザにとってプライベートな場所であるかユーザにとってパブリックな場所であるかを示す場所情報とを紐つけた機器属性データが記憶され、当該情報処理方法は、前記IoT機器IDに紐付けられた機器属性データを、1以上の機器属性データの中から抽出し、前記IoT機器の設置場所が前記プライベートな場所であるか前記パブリックな場所であるかを判断し、抽出した前記機器属性データの前記場所情報が前記プライベートな場所を示す場合、前記IoT機器の設置場所でユーザが運動可能な参加型の映像コンテンツを抽出する。   Further, in the information processing method according to an aspect of the present disclosure, the storage device further includes at least one IoT device ID and an installation location of the IoT device that are private to the user or a public location for the user. Device attribute data associated with location information indicating whether or not the device information is stored, and the information processing method extracts device attribute data associated with the IoT device ID from one or more device attribute data. Determining whether the installation location of the IoT device is the private location or the public location, and if the location information of the extracted device attribute data indicates the private location, Participatory video content that the user can exercise at the place is extracted.

これによれば、情報処理方法では、抽出した機器属性データの場所情報がプライベートな場所を示す場合、参加型の映像コンテンツを抽出する。このため、ユーザは、人目を気にしないプライベートな場所で、IoT機器から出力される運動の映像コンテンツにあわせて、IoT機器の設置場所で運動することができる。このため、情報処理方法では、ユーザに運動習慣を定着させることができる。この情報処理方法では、ユーザに映像コンテンツを効率的に提供することができる。   According to this, in the information processing method, when the location information of the extracted device attribute data indicates a private location, participatory video content is extracted. For this reason, the user can exercise at the place where the IoT device is installed in a private place that does not care about the human eye, in accordance with the video content of the exercise output from the IoT device. For this reason, in the information processing method, the exercise habit can be fixed to the user. In this information processing method, video content can be efficiently provided to the user.

また、本開示の一態様に係る情報処理方法は、抽出した前記機器属性データの前記場所情報が前記パブリックな場所を示す場合、前記ユーザの視聴により運動意識を高めさせる意識型の前記映像コンテンツを抽出する。   In addition, the information processing method according to an aspect of the present disclosure provides the conscious-type video content that increases consciousness of exercise by viewing the user when the location information of the extracted device attribute data indicates the public location. Extract.

これによれば、情報処理方法では、抽出した機器属性データの場所情報がパブリックな場所を示す場合、意識型の映像コンテンツを抽出する。このため、ユーザは、人目を気にするパブリックな場所で、IoT機器から出力される運動の映像コンテンツを視聴することで運動意識を高めることができる。この情報処理方法では、ユーザに映像コンテンツを効率的に提供することができる。   According to this, in the information processing method, when the location information of the extracted device attribute data indicates a public location, conscious video content is extracted. For this reason, the user can raise exercise consciousness by viewing the video content of the exercise output from the IoT device in a public place where the user is concerned. In this information processing method, video content can be efficiently provided to the user.

また本開示の一態様に係る情報処理方法は、前記記憶装置には、さらに、1以上の、前記IoT機器IDと前記IoT機器の設置場所で前記ユーザが運動可能なスペースがあるか否かを示す運動可否情報とを紐つけた機器属性データが記憶され、当該情報処理方法は、前記IoT機器IDに紐付けられた機器属性データを1以上の機器属性データの中から抽出し、前記IoT機器の設置場所で運動可能であるか否かを前記運動可否情報に基づいて判断し、前記運動可否情報がユーザにとって前記IoT機器の設置場所で運動可能であることを示す場合、前記IoT機器の設置場所でユーザが運動可能な参加型の前記映像コンテンツを抽出する。   In the information processing method according to an aspect of the present disclosure, the storage device further determines whether or not the storage device has a space where the user can exercise at the installation location of the IoT device ID and the IoT device. Device attribute data associated with the exercise availability information indicated is stored, and the information processing method extracts the device attribute data associated with the IoT device ID from one or more device attribute data, and the IoT device If it is determined based on the exercise availability information that the exercise availability information indicates that the user can exercise at the installation location of the IoT device, the installation of the IoT device is determined. Participatory video content that allows the user to exercise at the place is extracted.

これによれば、情報処理方法では、運動可否情報がユーザにとってIoT機器の設置場所で運動可能であることを示す場合、IoT機器の設置場所でユーザが運動可能な参加型の映像コンテンツを抽出する。このため、情報処理方法では、ユーザに運動習慣を定着させることができる。この情報処理方法では、ユーザに映像コンテンツを効率的に提供することができる。   According to this, in the information processing method, when the exercise availability information indicates that the user can exercise at the installation location of the IoT device, the participation type video content that the user can exercise at the installation location of the IoT device is extracted. . For this reason, in the information processing method, the exercise habit can be fixed to the user. In this information processing method, video content can be efficiently provided to the user.

また、本開示の一態様に係る情報処理方法は、抽出した前記機器属性データの前記運動可否情報がユーザにとって前記IoT機器の設置場所で運動不可能であることを示す場合、ユーザの視聴により運動意識を高めさせる意識型の前記映像コンテンツを抽出する。   In addition, the information processing method according to an aspect of the present disclosure provides an exercise by viewing the user when the exercise availability information of the extracted device attribute data indicates that the user cannot exercise at the installation location of the IoT device. Extract the video content of consciousness type that raises consciousness.

これによれば、情報処理方法では、運動可否情報がユーザにとってIoT機器の設置場所で運動不可能であることを示す場合、ユーザの視聴により運動意識を高めさせる意識型の映像コンテンツを抽出する。このため、ユーザは、IoT機器から出力される運動の映像コンテンツを視聴することで運動意識を高めることができる。この情報処理方法では、ユーザに映像コンテンツを効率的に提供することができる。   According to this, in the information processing method, when the exercise availability information indicates that it is impossible for the user to exercise at the location where the IoT device is installed, the conscious video content that enhances the exercise awareness is extracted by viewing the user. For this reason, the user can raise exercise awareness by viewing the video content of exercise output from the IoT device. In this information processing method, video content can be efficiently provided to the user.

また本開示の一態様に係る情報処理方法は、さらに、前記IoT機器へ前記映像コンテンツを配信する際に、前記ユーザIDと前記IoT機器IDと配信した映像コンテンツのIDとを含む再生履歴データが前記記憶装置に記憶され、前記再生履歴データに記憶された前記映像コンテンツのIDに紐付けられた第2の組の前記優先順位を、現状の前記優先順位から下げた前記優先順位に更新する。   In addition, in the information processing method according to an aspect of the present disclosure, when the video content is distributed to the IoT device, reproduction history data including the user ID, the IoT device ID, and the ID of the distributed video content is stored. The second set of priorities stored in the storage device and associated with the ID of the video content stored in the playback history data is updated to the priorities lowered from the current priorities.

これによれば、情報処理方法では、再生履歴データに記憶された映像コンテンツに紐付けられた第2の組の優先順位を、現状の優先順位から下げた優先順位に更新する。このため、同じユーザに異なる映像コンテンツを提供することができる、つまり、同じユーザに対し、同じ運動の映像コンテンツを続けて配信することが回避されるので、ユーザの運動意識の低下を防ぐことができる。   According to this, in the information processing method, the priority of the second set associated with the video content stored in the reproduction history data is updated to a priority lower than the current priority. For this reason, different video contents can be provided to the same user, that is, it is avoided to continuously deliver video content of the same exercise to the same user, thereby preventing a decrease in user's movement consciousness. it can.

また本開示の一態様に係る情報処理方法は、さらに、前記ユーザIDに紐付けられてユーザが行う運動による活動量を示す身体活動情報を、前記ユーザが装着するウェアラブル機器から受信し、前記記憶装置には、前記ユーザIDと前記身体活動情報とを紐付けた前記ユーザ属性データと、前記身体活動情報と前記映像コンテンツと前記優先順位との第3の組を1以上含む前記マッチングテーブルと、がさらに記憶され、当該情報処理方法は、前記ユーザ属性データに含まれる前記運動の目的、または、前記身体活動情報に合致する前記第3の組のうち、前記第3の組に紐付けられた前記優先順位に基づいて、前記映像コンテンツを前記マッチングテーブルの中から抽出する。   In addition, the information processing method according to an aspect of the present disclosure further receives physical activity information associated with the user ID and indicating the amount of activity due to exercise performed by the user from the wearable device worn by the user, and stores the memory The device includes the user attribute data in which the user ID and the physical activity information are linked, the matching table including one or more third sets of the physical activity information, the video content, and the priority order; Is stored, and the information processing method is linked to the third set of the third set that matches the purpose of the exercise or the physical activity information included in the user attribute data. The video content is extracted from the matching table based on the priority order.

これによれば、情報処理方法では、ユーザが所有するウェアラブル機器で計測されたユーザの活動量を含んだ第3の組に紐付けられた優先順位に基づいて、映像コンテンツをマッチングテーブルの中から抽出する。このため、活動量に基づき、運動の映像コンテンツを抽出するので、ユーザに映像コンテンツをより効率的に提供することができる。   According to this, in the information processing method, the video content is extracted from the matching table based on the priority order associated with the third set including the user activity amount measured by the wearable device owned by the user. Extract. For this reason, since the video content of exercise is extracted based on the amount of activity, the video content can be provided to the user more efficiently.

また本開示の一態様に係る情報処理方法は、抽出した前記映像コンテンツを前記IoT機器へ配信した場合、前記IoT機器から前記ユーザIDと前記ユーザIDに紐付けられ、再生された映像コンテンツのIDと、を含むユーザ属性データを受信し、受信したユーザ属性データを、前記1以上のユーザ属性データの中から抽出し、抽出したユーザ属性データを更新する。   In addition, in the information processing method according to an aspect of the present disclosure, when the extracted video content is distributed to the IoT device, the user ID and the user ID are associated with the user ID and the ID of the reproduced video content from the IoT device. And the received user attribute data is extracted from the one or more user attribute data, and the extracted user attribute data is updated.

これによれば、情報処理方法では、配信したことのある映像コンテンツをユーザ属性データに紐付けて、ユーザ属性データを更新する。このため、ユーザが一度視聴したことのある運動の映像コンテンツを、後から見返すことができる。この情報処理方法では、ユーザに映像コンテンツを効率的に提供することができる。   According to this, in the information processing method, the video content that has been distributed is linked to the user attribute data, and the user attribute data is updated. For this reason, the video content of the exercise that the user has watched once can be viewed later. In this information processing method, video content can be efficiently provided to the user.

なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。   Note that each of the embodiments described below shows a specific example of the present disclosure. Numerical values, shapes, components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements.

(実施の形態1)
[情報処理システムの構成]
まず、本実施の形態における情報処理システム100について説明する。
(Embodiment 1)
[Configuration of information processing system]
First, the information processing system 100 in the present embodiment will be described.

図1は、本実施の形態における情報処理システム100を示す図である。   FIG. 1 is a diagram showing an information processing system 100 in the present embodiment.

情報処理システム100は、ユーザ1002の運動を支援するシステムであり、IoT機器を介して映像コンテンツをユーザに提供することができるシステムである。情報処理システム100は、ユーザ1002の操作によって規定の運転を行うIoT機器1004に接続され、記憶装置に記憶された映像コンテンツを配信するクラウドサーバ1001を含むシステムである。情報処理システム100は、クラウドサーバ1001と、1つ以上のウェアラブル機器1003と、機器グループ1005とを備える。ここでいう既定の運転とは、例えばIoT機器1004がプリンターである場合、印刷、コピーなどの運転を意味する。   The information processing system 100 is a system that supports the exercise of the user 1002, and is a system that can provide video content to the user via an IoT device. The information processing system 100 is a system that includes a cloud server 1001 that is connected to an IoT device 1004 that performs a prescribed operation by an operation of a user 1002 and distributes video content stored in a storage device. The information processing system 100 includes a cloud server 1001, one or more wearable devices 1003, and a device group 1005. For example, when the IoT device 1004 is a printer, the predetermined operation here means an operation such as printing or copying.

クラウドサーバ1001は、インターネットを介してウェアラブル機器1003及び機器グループ1005のIoT機器1004と通信可能な仮想サーバである。クラウドサーバ1001は、主に通常のデータベース管理ツールなどで扱うことが困難な巨大なビッグデータなどを管理する。クラウドサーバ1001は、サーバの一例である。   The cloud server 1001 is a virtual server that can communicate with the wearable device 1003 and the IoT device 1004 of the device group 1005 via the Internet. The cloud server 1001 mainly manages huge big data that is difficult to handle with a normal database management tool or the like. The cloud server 1001 is an example of a server.

なお、クラウドサーバ1001は、仮想サーバに限定されない。CPU(Central Processing Unit)、メモリ、HDD(Hard Disk Drive)などの外部記憶装置を物理的に備えるコンピュータでもよい。また、パーソナルコンピュータであってもよい。クラウドサーバ1001についての詳細は、後述する。   Note that the cloud server 1001 is not limited to a virtual server. A computer that physically includes an external storage device such as a CPU (Central Processing Unit), memory, and HDD (Hard Disk Drive) may be used. A personal computer may also be used. Details of the cloud server 1001 will be described later.

ウェアラブル機器1003は、インターネットと接続可能な機器であり、例えば、スマートフォン、万歩計(登録商標)、心拍数計などであり、ユーザ1002の活動量を計測し、計測した数値を保存する。ウェアラブル機器1003は、少なくとも1つがユーザ1002に装着されている。ウェアラブル機器1003についての詳細は、後述する。   The wearable device 1003 is a device that can be connected to the Internet, and is, for example, a smartphone, a pedometer (registered trademark), a heart rate meter, or the like, measures the activity amount of the user 1002, and stores the measured numerical value. At least one wearable device 1003 is attached to the user 1002. Details of the wearable device 1003 will be described later.

IoT機器1004は、ディスプレイを有し、インターネットと接続可能な機器、例えば、オフィス機器、家電製品などの日常生活の中で利用される機器である。オフィス機器は、例えば、コピー、印刷などの複合機、エレベーターなどである。家電製品は、例えば、電子レンジ、テレビ、冷蔵庫などである。なお、ここでいうIoT機器1004には、スマートフォンなどを含めない。   The IoT device 1004 has a display and is a device that can be connected to the Internet, for example, a device used in daily life, such as an office device or a home appliance. The office equipment is, for example, a multi-function machine for copying and printing, an elevator, and the like. Home appliances are a microwave oven, a television, a refrigerator, etc., for example. Note that the IoT device 1004 here does not include a smartphone or the like.

IoT機器1004は、IoT機器1004の機器属性データをクラウドサーバ1001へ送信する。クラウドサーバ1001は、受信したIoT機器1004の機器属性データを登録する。IoT機器1004及び機器属性データについての詳細は、後述する。   The IoT device 1004 transmits device attribute data of the IoT device 1004 to the cloud server 1001. The cloud server 1001 registers the received device attribute data of the IoT device 1004. Details of the IoT device 1004 and device attribute data will be described later.

機器グループ1005は、例えば、同じLAN(Local Area Network)に属し、1つ以上のIoT機器1004を含むグループで構成されている。機器グループ1005は、例えば、オフィスや店舗、家庭に設置されるIoT機器1004を含むグループであり、その規模を問わない。本実施の形態においては、機器グループ1005は、オフィスであるとして説明する。   The device group 1005 includes, for example, a group that belongs to the same LAN (Local Area Network) and includes one or more IoT devices 1004. The device group 1005 is a group that includes, for example, an IoT device 1004 installed in an office, a store, or a home, and may be of any size. In the present embodiment, the device group 1005 will be described as an office.

このような情報処理システム100では、ユーザ1002は、例えば、スマートフォンのような入力部を備えるウェアラブル機器1003からユーザ1002のユーザ属性データを入力する。これにより、ウェアラブル機器1003は、クラウドサーバ1001へユーザ属性データを送信する。また、ウェアラブル機器1003は、ユーザ1002が行う運動による活動量を計測し、クラウドサーバ1001へ所定のタイミングで活動量を示す身体活動情報を送信する。身体活動情報は、ユーザIDに紐付けられているため、ユーザ属性データにも紐付けられている。クラウドサーバ1001は、ウェアラブル機器1003から受信したユーザ1002のユーザ属性データを登録する。   In such an information processing system 100, the user 1002 inputs user attribute data of the user 1002 from a wearable device 1003 including an input unit such as a smartphone, for example. As a result, the wearable device 1003 transmits user attribute data to the cloud server 1001. The wearable device 1003 measures the amount of activity due to exercise performed by the user 1002 and transmits physical activity information indicating the amount of activity to the cloud server 1001 at a predetermined timing. Since the physical activity information is associated with the user ID, it is also associated with the user attribute data. The cloud server 1001 registers user attribute data of the user 1002 received from the wearable device 1003.

ユーザ1002は、例えば、IoT機器1004を使用する際、IoT機器1004が稼動している時間として数秒から数分の待ち時間が発生する。クラウドサーバ1001は、その待ち時間に、ユーザ1002のユーザ属性データと使用しているIoT機器1004の機器属性データとに基づいて、使用しているIoT機器1004へユーザ1002に即した運動の映像コンテンツを配信する。IoT機器1004は、受信した運動の映像コンテンツをディスプレイに表示する。ここでいう運動の映像コンテンツは、ストレッチ、筋力トレーニング、ヨガなどの運動の動画またはこれらの運動を組み合わせた動画である。   For example, when the user 1002 uses the IoT device 1004, a waiting time of several seconds to several minutes is generated as a time during which the IoT device 1004 is operating. The cloud server 1001 waits for the video content of the exercise according to the user 1002 to the IoT device 1004 being used based on the user attribute data of the user 1002 and the device attribute data of the IoT device 1004 being used. To deliver. The IoT device 1004 displays the received video content of the exercise on the display. The motion picture content here is a motion video such as stretching, strength training, yoga, or a combination of these motions.

ユーザ1002は、IoT機器1004を使用する時に、まずユーザ1002を識別するためのユーザ認識を行ってから、IoT機器1004を使用する。IoT機器1004は、使用しているユーザ1002のユーザ属性データと、IoT機器1004の機器属性データとを、クラウドサーバ1001へ送信し、さらに、再生する運動の映像コンテンツを要求する。   When using the IoT device 1004, the user 1002 first performs user recognition for identifying the user 1002 and then uses the IoT device 1004. The IoT device 1004 transmits the user attribute data of the user 1002 being used and the device attribute data of the IoT device 1004 to the cloud server 1001, and further requests video content of the exercise to be played back.

クラウドサーバ1001は、ユーザ1002が使用しているIoT機器1004から受信したユーザ属性データと機器属性データに基づいて、運動の映像コンテンツを抽出し、抽出した映像コンテンツをユーザ1002が使用しているIoT機器1004へ配信する。   The cloud server 1001 extracts video content of exercise based on the user attribute data and the device attribute data received from the IoT device 1004 used by the user 1002, and the IoT that the user 1002 uses the extracted video content. Deliver to the device 1004.

IoT機器1004は、クラウドサーバ1001から映像コンテンツを受信し、IoT機器1004上のディスプレイに運動の映像コンテンツを表示する。   The IoT device 1004 receives the video content from the cloud server 1001 and displays the motion video content on the display on the IoT device 1004.

[クラウドサーバの構成]
次に、図2を用いて、クラウドサーバ1001の構成について説明する。
[Cloud server configuration]
Next, the configuration of the cloud server 1001 will be described with reference to FIG.

図2は、本実施の形態におけるクラウドサーバ1001の一例を示すブロック図である。   FIG. 2 is a block diagram illustrating an example of the cloud server 1001 in the present embodiment.

図2に示すように、クラウドサーバ1001は、通信部201と、映像配信部202と、映像コンテンツ記憶部203と、ユーザ管理部204と、機器管理部205と、映像抽出部206と、映像メタデータ記憶部207と、ユーザ属性記憶部208と、機器属性記憶部209と、マッチングテーブル210と、再生履歴記憶部211とを備える。   As shown in FIG. 2, the cloud server 1001 includes a communication unit 201, a video distribution unit 202, a video content storage unit 203, a user management unit 204, a device management unit 205, a video extraction unit 206, a video meta unit. A data storage unit 207, a user attribute storage unit 208, a device attribute storage unit 209, a matching table 210, and a reproduction history storage unit 211 are provided.

通信部201は、IoT機器1004の規定の運転に掛かる時間を示すオペレーション時間10002と、ユーザIDとを、IoT機器1004から受信する。通信部201は、ネットワークに接続され、ネットワークを介して、IoT機器1004及びウェアラブル機器1003と通信を行う。通信部201の通信インターフェースは、例えば、有線LANまたは無線LANである。オペレーション時間10002は、運転時間情報が示す運転時間の一例である。   The communication unit 201 receives, from the IoT device 1004, an operation time 10002 indicating the time taken for the prescribed operation of the IoT device 1004 and a user ID. The communication unit 201 is connected to a network and communicates with the IoT device 1004 and the wearable device 1003 via the network. The communication interface of the communication unit 201 is, for example, a wired LAN or a wireless LAN. The operation time 10002 is an example of the operation time indicated by the operation time information.

映像配信部202は、映像コンテンツを、通信部201を介して、規定の運転を行うIoT機器1004へ配信する。運動の映像コンテンツは、ストレッチ、筋力トレーニング、ヨガなどの運動の動画またはこれらの運動を組み合わせた動画で構成される。なお、映像配信部202は、IoT機器1004からの再生指示に従い、映像コンテンツをIoT機器1004へ配信してもよい。   The video distribution unit 202 distributes the video content to the IoT device 1004 that performs the prescribed operation via the communication unit 201. The motion picture content is composed of a motion video such as stretching, strength training, and yoga, or a video combining these motions. Note that the video distribution unit 202 may distribute video content to the IoT device 1004 in accordance with a playback instruction from the IoT device 1004.

ユーザ管理部204は、ウェアラブル機器1003から通信部201で受信したユーザの属性を示す情報であるユーザ属性データを管理する。ユーザ管理部204は、IoT機器1004から受信したユーザIDに紐付けられたユーザ属性データを、1以上のユーザ属性データの中から抽出する。ユーザ管理部204は、ユーザ属性データをユーザ属性記憶部208に登録する。   The user management unit 204 manages user attribute data, which is information indicating user attributes received from the wearable device 1003 by the communication unit 201. The user management unit 204 extracts user attribute data associated with the user ID received from the IoT device 1004 from one or more user attribute data. The user management unit 204 registers user attribute data in the user attribute storage unit 208.

また、ユーザ管理部204は、ユーザIDに紐付けられてユーザ1002が行う運動による活動量を示す身体活動情報を、通信部201を介して、ユーザ1002が装着するウェアラブル機器1003から受信する。ユーザ管理部204は、ユーザ属性記憶部208に、ユーザIDと身体活動情報とを紐付けたユーザ属性データと、活動量と映像コンテンツと優先順位との第3の組を1以上含むマッチングテーブル210と、を記憶する。活動量を示す身体活動情報についての詳細は、後述する。   Also, the user management unit 204 receives physical activity information associated with the user ID and indicating the amount of activity due to exercise performed by the user 1002 from the wearable device 1003 worn by the user 1002 via the communication unit 201. The user management unit 204 includes, in the user attribute storage unit 208, a matching table 210 that includes one or more third sets of user attribute data in which a user ID and physical activity information are associated, an activity amount, video content, and a priority order. And memorize. Details of the physical activity information indicating the amount of activity will be described later.

ユーザ属性記憶部208は、1以上の、ユーザ1002を特定するユーザIDとユーザ1002が行う運動の目的とを紐付けた、ユーザ属性データを記憶する。ユーザ属性記憶部208は、記憶装置の一例である。   The user attribute storage unit 208 stores user attribute data in which one or more user IDs that specify the user 1002 and the purpose of exercise performed by the user 1002 are linked. The user attribute storage unit 208 is an example of a storage device.

[ユーザ属性データ]
ここで、ユーザ属性データについて説明する。
[User attribute data]
Here, the user attribute data will be described.

図3は、本実施の形態におけるユーザ属性データの一例を示す図である。   FIG. 3 is a diagram showing an example of user attribute data in the present embodiment.

ユーザ属性データは、ユーザID、性別、年齢、ウェアラブル機器ID、質問、回答、及び、お気に入りの項目を有する。   The user attribute data includes items of user ID, sex, age, wearable device ID, question, answer, and favorite.

ユーザIDは、IoT機器1004を利用するユーザ1002を、一意に特定するIDであり、ウェアラブル機器1003を所有するユーザを示す。なお、ユーザ1002が保有するウェアラブル機器1003は複数であってもよい。この場合、ウェアラブル機器IDには、ユーザ1002の保有するウェアラブル機器1003の数のIDが含まれる。   The user ID is an ID that uniquely identifies the user 1002 who uses the IoT device 1004, and indicates the user who owns the wearable device 1003. Note that the wearable device 1003 owned by the user 1002 may be plural. In this case, the wearable device ID includes the ID of the number of wearable devices 1003 held by the user 1002.

性別は、ユーザ1002の性別を示す。年齢は、ユーザ1002の年齢を示す。ウェアラブル機器IDは、ユーザ1002が所有するウェアラブル機器1003を一意に特定するIDを示す。質問は、ユーザの嗜好や、運動目的など、1以上の質問内容を示す。回答は、質問に対する回答内容を示す。なお、質問に対する回答内容は、ユーザ1002がウェアラブル機器1003を用いて変更してもよい。その場合、ウェアラブル機器1003から入力された回答内容とユーザIDとが共にクラウドサーバ1001に送信され、ユーザ管理部204は、通信部201を介して受信する。ユーザ管理部204は、ユーザ属性記憶部208に登録されているユーザ属性データのうち、同一のユーザIDに紐付けられている回答内容に対して、受信した回答内容を更新してユーザ属性記憶部208に記憶する。   The gender indicates the gender of the user 1002. The age indicates the age of the user 1002. The wearable device ID indicates an ID that uniquely identifies the wearable device 1003 owned by the user 1002. The question indicates one or more question contents such as user's preference and exercise purpose. The answer indicates the content of the answer to the question. Note that the answer content to the question may be changed by the user 1002 using the wearable device 1003. In that case, both the response content and the user ID input from the wearable device 1003 are transmitted to the cloud server 1001, and the user management unit 204 receives them via the communication unit 201. The user management unit 204 updates the received response content with respect to the response content associated with the same user ID among the user attribute data registered in the user attribute storage unit 208 and updates the user attribute storage unit Store in 208.

お気に入りについて、クラウドサーバ1001が抽出した映像コンテンツをIoT機器1004へ配信した場合、ユーザ管理部204は、IoT機器1004からユーザIDとユーザIDに紐付けられ、再生された映像コンテンツのIDと、を含むユーザ属性データを、通信部201を介して受信する。つまり、ユーザ1002がIoT機器1004で、運動の映像コンテンツを再生し、再生された運動の映像コンテンツをお気に入り登録すると、IoT機器1004から再生された運動の映像コンテンツのIDがユーザIDと共に送信され、通信部201で受信する。ユーザ管理部204は、映像コンテンツを抽出したユーザ属性データに紐付けてユーザ属性データを更新する。ユーザ管理部204は、受信したユーザ属性データと合致するユーザ属性データを、ユーザ属性記憶部208に登録されている1以上のユーザ属性データの中から抽出する。ユーザ管理部204は、受信したユーザIDと、同じユーザ属性データのお気に入りに受信した運動の映像コンテンツのIDとを含むユーザ属性データを更新、つまりユーザ属性記憶部208に新しいユーザ属性データを記憶する。   For the favorite, when the video content extracted by the cloud server 1001 is distributed to the IoT device 1004, the user management unit 204 associates the user ID and the user ID from the IoT device 1004 with the ID of the reproduced video content. User attribute data including the received user attribute data is received via the communication unit 201. That is, when the user 1002 plays the motion video content on the IoT device 1004 and registers the played motion video content as a favorite, the ID of the motion video content played from the IoT device 1004 is transmitted together with the user ID. Received by the communication unit 201. The user management unit 204 updates the user attribute data in association with the user attribute data from which the video content has been extracted. The user management unit 204 extracts user attribute data that matches the received user attribute data from one or more user attribute data registered in the user attribute storage unit 208. The user management unit 204 updates the user attribute data including the received user ID and the ID of the received motion video content in the favorite of the same user attribute data, that is, stores new user attribute data in the user attribute storage unit 208. .

例えば、図3では、ユーザ属性データがユーザ属性記憶部208に2つ記憶されている。ユーザ属性データの1つ目は、ユーザIDが「12345」であり、性別が「男性」であり、年齢が「40」であり、ウェアラブル機器IDが「P011234」であり、質問が「1.機能改善、2.人目は?」であり、この問診の回答として、「1.肩こり、2.気にしない」である。また、お気に入り情報は、「0123450101」が登録されている。質問の「1.機能改善、2.人目は?」は、「1.あなたが改善したい症状は何ですか?」と「2.あなたは運動をするときに人目を気にしますか?」を省略した内容である。   For example, in FIG. 3, two pieces of user attribute data are stored in the user attribute storage unit 208. The first user attribute data is that the user ID is “12345”, the gender is “male”, the age is “40”, the wearable device ID is “P011234”, and the question is “1. "Improved, 2. What is the person?" And the answer to this question is "1. Stiff shoulders, 2. Don't mind". Also, “0123450101” is registered as favorite information. The questions “1. Function improvement, 2. What is your eye?” Are “1. What are the symptoms you want to improve?” And “2. Do you care about your eye when exercising?” The contents are omitted.

ユーザ属性データの2つ目は、ユーザIDが「33445」であり、性別が「女性」であり、年齢が「50」であり、ウェアラブル機器IDが「S012345」であり、質問が「1.機能改善、2.人目は?」であり、この問診の回答として、「1.ダイエット、2.気にする」である。また、お気に入り情報は、「−」で何も登録されていない。質問「1.体質改善、2.人目は?」は、「1.あなたがする運動の目的は何ですか?」と「2.あなたは運動をするときに人目を気にしますか?」を省略した内容である。   The second user attribute data is that the user ID is “33445”, the gender is “female”, the age is “50”, the wearable device ID is “S012345”, and the question is “1. “Improved, 2. What is the first person?”, And the answer to this question is “1. Diet, 2. Care”. Also, no favorite information is registered with “−”. The questions "1. Constitution improvement, 2. What is the person?" Ask "1. What is the purpose of the exercise you do?" And "2. Do you care about the eye when you exercise?" The contents are omitted.

次に、ウェアラブル機器1003の端末属性データについて説明する。   Next, terminal attribute data of the wearable device 1003 will be described.

図4は、本実施の形態におけるウェアラブル機器1003の端末属性データの一例を示す図である。   FIG. 4 is a diagram illustrating an example of terminal attribute data of the wearable device 1003 according to the present embodiment.

図4に示すように、ウェアラブル機器1003の端末属性データは、ユーザID、ウェアラブル機器ID、ウェアラブル機器名称、計測対象、計測値、及び、計測日時の項目を有する。ウェアラブル機器1003の端末属性データは、ユーザ属性記憶部208に登録され、ユーザ属性データに含まれる。   As illustrated in FIG. 4, the terminal attribute data of the wearable device 1003 includes items of a user ID, a wearable device ID, a wearable device name, a measurement target, a measurement value, and a measurement date and time. The terminal attribute data of the wearable device 1003 is registered in the user attribute storage unit 208 and is included in the user attribute data.

ウェアラブル機器名称は、ウェアラブル機器1003の名称を示す。計測対象は、ウェアラブル機器1003が計測する、ユーザ1002が行う運動による活動量を示す。計測値は、ウェアラブル機器1003で計測したユーザ1002が行う運動による活動量の測定値を示す。計測日時は、ウェアラブル機器1003が、測定した活動量を計測した日時を示す。つまり、身体活動情報は、計測対象、計測値、及び、計測日時の各々の情報を含んでいる。   The wearable device name indicates the name of the wearable device 1003. The measurement target indicates the amount of activity due to exercise performed by the user 1002 measured by the wearable device 1003. The measured value indicates a measured value of the amount of activity due to exercise performed by the user 1002 measured by the wearable device 1003. The measurement date and time indicates the date and time when the wearable device 1003 measured the measured amount of activity. That is, the physical activity information includes information on each of the measurement target, the measurement value, and the measurement date / time.

図4ではウェアラブル機器IDの端末属性データは、2つ登録されている。ウェアラブル機器IDの端末属性データの1つめは、ユーザ1002のユーザIDが「12345」であり、ウェアラブル機器IDが「P011234」であり、ウェアラブル機器名称が「スマートフォン」である。ウェアラブル機器IDが「P011234」であるウェアラブル機器1003が計測する活動量は、計測対象が「登った階数」であり、計測値が「3階」であり、計測日時が「2016/10/26 12:00」であることを示す。   In FIG. 4, two pieces of terminal attribute data of wearable device IDs are registered. The first terminal attribute data of the wearable device ID is that the user ID of the user 1002 is “12345”, the wearable device ID is “P011234”, and the wearable device name is “smartphone”. The amount of activity measured by the wearable device 1003 with the wearable device ID “P011234” is “the number of floors climbed” as the measurement target, “3rd floor” as the measurement value, and “2016/10/26 12” as the measurement date and time. : 0 ".

ウェアラブル機器IDの端末属性データの2つめは、ユーザ1002のユーザIDが「33445」であり、ウェアラブル機器IDが「S012345」であり、ウェアラブル機器名称「歩数計」である。ウェアラブル機器IDが「S012345」であるウェアラブル機器が計測する活動量は、計測対象が「歩数」であり、計測値が「4000歩」であり、計測日時が「2016/10/26 19:00」であることを示す。なお、活動量の更新は、所定のタイミングで定期的に、例えば、分単位、秒単位、日単位で行われてもよいし、任意のタイミングで行われてもよい。   The second terminal attribute data of the wearable device ID is that the user ID of the user 1002 is “33445”, the wearable device ID is “S012345”, and the wearable device name is “pedometer”. The amount of activity measured by the wearable device whose wearable device ID is “S012345” is the number of steps to be measured, the measurement value is “4000 steps”, and the measurement date is “2016/10/26 19:00”. Indicates that The activity amount may be updated regularly at a predetermined timing, for example, in units of minutes, seconds, or days, or may be performed at an arbitrary timing.

図2のクラウドサーバ1001の説明に戻る。   Returning to the description of the cloud server 1001 in FIG.

機器管理部205は、クラウドサーバ1001に接続されるIoT機器1004を管理する。例えば、オフィスに新たにIoT機器1004を導入した場合、機器管理部205は、導入した新たなIoT機器1004の機器属性データを登録する。つまり、機器管理部205は、IoT機器1004から通信部201で受信した機器属性データを機器属性記憶部209に記憶する。   The device management unit 205 manages the IoT device 1004 connected to the cloud server 1001. For example, when a new IoT device 1004 is introduced into the office, the device management unit 205 registers device attribute data of the introduced new IoT device 1004. That is, the device management unit 205 stores the device attribute data received from the IoT device 1004 by the communication unit 201 in the device attribute storage unit 209.

機器属性記憶部209は、IoT機器1004から取得した、1以上の、IoT機器IDとIoT機器1004の設置場所がユーザ1002にとってプライベートな場所であるかユーザ1002にとってパブリックな場所であるかを示す場所情報とを紐つけた機器属性データを記憶する。機器属性記憶部209は、記憶装置の一例である。機器属性データについての詳細は、後述する。   The device attribute storage unit 209 indicates one or more IoT device IDs acquired from the IoT device 1004 and a location indicating whether the installation location of the IoT device 1004 is a private location for the user 1002 or a public location for the user 1002 Device attribute data associated with information is stored. The device attribute storage unit 209 is an example of a storage device. Details of the device attribute data will be described later.

映像コンテンツ記憶部203は、配信する運動の映像コンテンツを記憶する。映像コンテンツ記憶部203は、記憶装置の一例である。   The video content storage unit 203 stores motion video content to be distributed. The video content storage unit 203 is an example of a storage device.

本実施の形態において、配信する運動の映像コンテンツは、2つに大別される。1つは、ユーザ1002が運動の映像コンテンツを見ながら運動する「参加型」の映像コンテンツである。もう1つは、複数の運動の映像をリスト化した映像コンテンツであり、ユーザ1002がその映像コンテンツを後で確認する「意識型」の映像コンテンツである。「参加型」の映像コンテンツ及び「意識型」の映像コンテンツは、複数の運動の映像コンテンツをユーザ1002に見せることで、ユーザ1002があとから気になった運動の映像コンテンツを視聴可能である。   In the present embodiment, motion video content to be distributed is roughly divided into two. One is “participatory” video content in which the user 1002 exercises while watching the video content of the exercise. The other is video content in which a plurality of exercise videos are listed, and “conscious” video content that the user 1002 confirms the video content later. The “participation-type” video content and the “consciousness-type” video content can be viewed by the user 1002 by viewing the video content of a plurality of exercises to the user 1002 later.

「参加型」の映像コンテンツは、IoT機器1004の設置場所でユーザ1002が運動可能な映像コンテンツである。「参加型」の映像コンテンツは、例えば、運動を示す解説の映像、運動をすることでどのような身体的効果があることを示す解説の映像などである。   The “participatory” video content is video content that the user 1002 can exercise at the place where the IoT device 1004 is installed. The “participatory type” video content is, for example, a commentary video showing exercise, a commentary video showing what physical effect is obtained by exercising, and the like.

「意識型」の映像コンテンツは、ユーザ1002の視聴により運動意識を高めさせる映像コンテンツである。「意識型」の映像コンテンツは、例えば、運動を示す解説の映像、トレーニと共にユーザ1002が運動を行うためのトレーニの運動を示す映像などである。   “Conscious type” video content is video content that enhances exercise awareness through viewing by the user 1002. “Conscious type” video content is, for example, a commentary video showing exercise, a video showing a trainee exercise for the user 1002 to exercise with the trainee, and the like.

映像メタデータ記憶部207は、映像コンテンツごとに付与される映像メタデータを記憶する。映像メタデータ記憶部207は、記憶装置の一例である。映像メタデータは、映像コンテンツのタイトルなどの概要を示す、主映像メタデータと、映像コンテンツを構成する素材映像メタデータとを含む。クラウドサーバ1001からIoT機器1004へ配信する映像コンテンツは、映像メタデータで映像コンテンツを特定し、素材映像メタデータで映像コンテンツを構成する素材の映像を特定する。   The video metadata storage unit 207 stores video metadata assigned to each video content. The video metadata storage unit 207 is an example of a storage device. The video metadata includes main video metadata indicating an outline of a video content title and the like, and material video metadata constituting the video content. The video content distributed from the cloud server 1001 to the IoT device 1004 specifies the video content with video metadata, and specifies the video of the material constituting the video content with the material video metadata.

次に、映像メタデータについて説明する。   Next, video metadata will be described.

図5Aは、本実施の形態における映像メタデータの一例を示す図である。   FIG. 5A is a diagram illustrating an example of video metadata according to the present embodiment.

図5Aに示すように、映像メタデータは、主映像ID、種別、タイトル、運動効果、強化部位、性別、及び、実施体勢を有する。   As shown in FIG. 5A, the video metadata includes a main video ID, a type, a title, an exercise effect, a strengthened part, a sex, and an implementation posture.

主映像IDは、運動の映像コンテンツを一意に特定するIDである。種別は、運動の映像コンテンツの種別である。タイトルは、運動の映像コンテンツのタイトルである。運動効果は、運動の映像コンテンツの運動効果を示す。強化部位は、運動の映像コンテンツにより強化される体の部位を示す。性別は、運動の映像コンテンツが男性、女性、男性・女性の両方のうち、どの性別に向いているかを示す。実施体勢は、運動を実施する際のユーザ1002の体勢を示す。   The main video ID is an ID that uniquely identifies the video content of the exercise. The type is a type of motion video content. The title is the title of the video content of the exercise. The exercise effect indicates the exercise effect of the motion picture content. The strengthening part indicates a part of the body that is strengthened by the video content of the exercise. The gender indicates which gender of the motion video content is suitable for male, female, male / female. The implementation posture indicates the posture of the user 1002 when performing exercise.

例えば、1つめの映像メタデータは、主映像IDが「0001」であり、種別が「メイン」であり、タイトルが「肩回し」であり、運動効果が「肩こり」であり、強化部位が「肩」であり、対象とする性別が「男性、女性」の両方であり、運動を実施する体勢が「立位」であることを示す。   For example, in the first video metadata, the main video ID is “0001”, the type is “main”, the title is “shoulder rotation”, the exercise effect is “stiff shoulder”, and the strengthening part is “ “Shoulder”, the target gender is both “male and female”, and the posture for performing exercise is “standing”.

図5Bは、本実施の形態における素材映像メタデータの一例を示す図である。   FIG. 5B is a diagram showing an example of the material video metadata in the present embodiment.

図5Bに示すように、素材映像メタデータは、映像メタデータで特定された映像コンテンツを構成する素材の映像を特定するために、主映像IDと紐付けられる。   As shown in FIG. 5B, the material video metadata is associated with the main video ID in order to specify the video of the material constituting the video content specified by the video metadata.

素材映像メタデータは、素材映像IDと、主映像IDと、構成タイプと、再生時間とを有する。   The material video metadata includes a material video ID, a main video ID, a configuration type, and a playback time.

素材映像IDは、素材の映像を一意に示すIDである。主映像IDは、映像メタデータで特定された映像コンテンツである。構成タイプは、素材の映像のタイプを示す。再生時間は、素材の映像の長さを示す。   The material video ID is an ID that uniquely indicates the video of the material. The main video ID is video content specified by the video metadata. The configuration type indicates the video type of the material. The playback time indicates the length of the material video.

例えば、クラウドサーバ1001がIoT機器1004にタイトルが「肩回し」である「参加型」の映像コンテンツを配信する場合、図5Aに示すように、主映像IDが「0001」である映像メタデータが特定される。また、図5Bに示すように、主映像IDが「0001」であり素材映像IDが「0001−01」であり構成タイプが「タイトルコール」である素材映像メタデータと、主映像IDが「0001」であり素材映像IDが「0001−02」であり構成タイプが「解説」である素材映像メタデータと、主映像IDが「0001」であり素材映像IDが「0001−03」であり構成タイプが「1カウント」である素材映像メタデータとが特定される。ここでいう1カウントとは、例えば、タイトルが「肩回し」の場合、1回の肩を回す映像である。   For example, when the cloud server 1001 delivers “participatory” video content whose title is “shoulder” to the IoT device 1004, the video metadata whose main video ID is “0001” is shown in FIG. 5A. Identified. Further, as shown in FIG. 5B, the material video metadata whose main video ID is “0001”, the material video ID is “0001-01”, and the configuration type is “title call”, and the main video ID is “0001”. ”, The material video ID is“ 0001-02 ”and the composition type is“ commentary ”, and the main video ID is“ 0001 ”, the material video ID is“ 0001-03 ”, and the composition type. The material video metadata whose is “1 count” is identified. The 1 count here is, for example, an image of turning the shoulder once when the title is “shoulder turning”.

本実施の形態において、複数の素材の映像からなる映像コンテンツをシームレスに、1つの映像コンテンツとして配信する手法は、例えば、MPEG―DASH(MOVING PICTURE EXPERTS GROUP−DYNAMIC ADAPTIVE STREAMING OVER HTTP)を利用する。   In the present embodiment, for example, MPEG-DASH (MOVING PICTURE EXPPERTS GROUP-DYNAMIC ADAPTIVE STREAMING OVER HTTP) is used as a method for seamlessly distributing video content including videos of a plurality of materials as one video content.

図2のマッチングテーブル210の説明に戻る。マッチングテーブル210は、ユーザ属性データによって特定されたユーザ1002に対して、再生する運動の映像コンテンツを決定するために、ユーザ属性データと映像メタデータとを紐付けている。マッチングテーブル210は、記憶装置の一例である。   Returning to the description of the matching table 210 in FIG. The matching table 210 associates user attribute data and video metadata with the user 1002 specified by the user attribute data in order to determine the video content of the exercise to be reproduced. The matching table 210 is an example of a storage device.

図6は、本実施の形態におけるマッチングテーブル210の一例を示す図である。   FIG. 6 is a diagram illustrating an example of the matching table 210 in the present embodiment.

図6に示すように、マッチングテーブル210は、マッチングID、項目1、項目2、候補運動タイトル、主映像ID、及び、スコアを有する。   As shown in FIG. 6, the matching table 210 includes a matching ID, item 1, item 2, a candidate exercise title, a main video ID, and a score.

マッチングIDは、マッチングの内容を一意に特定するIDである。項目1は、ユーザ属性データの「質問」またはウェアラブル機器IDの端末属性データの「計測対象」に対応する項目である。項目2は、ユーザ属性データの「回答」またはウェアラブル機器IDの端末属性データの「計測値」に対応する項目である。候補運動タイトルは、映像メタデータの「タイトル」である。主映像IDは、映像メタデータの「主映像ID」である。スコアは、マッチングの内容に対する得点であり、配信する運動の映像コンテンツの抽出に用いられる。例えばスコアが高いほどユーザの好みに近いことを示す。   The matching ID is an ID that uniquely identifies the content of matching. Item 1 is an item corresponding to “question” of user attribute data or “measurement target” of terminal attribute data of wearable device ID. Item 2 is an item corresponding to “answer” of user attribute data or “measurement value” of terminal attribute data of wearable device ID. The candidate exercise title is the “title” of the video metadata. The main video ID is the “main video ID” of the video metadata. The score is a score for the content of matching, and is used for extracting video content of exercise to be distributed. For example, the higher the score, the closer to the user's preference.

例えば、運動の情報に基づいて映像コンテンツを抽出する場合、マッチングテーブル210のマッチングID「0001」、「0002」、「0003」は、項目1が「機能改善」であり、項目2が「肩こり」である。また、マッチングID「0001」は、主映像IDが「0001」であり、候補運動タイトルが「肩回し」である。マッチングID「0002」は、主映像IDが「0002」であり、候補運動タイトルが「ベントオーバーY」である。マッチングID「0003」は、主映像IDが「0003」であり、候補運動タイトルが「90/90ストレッチ」である。マッチングID「0001」のスコアは「10」であり、マッチングID「0002」のスコアは「8」であり、マッチングID「0003」のスコアは「7」である。ユーザ属性データの「質問」が「機能改善」であり、ユーザ属性データの「回答」が「肩こり」である場合、これら3つのスコアのうちスコア「10」が最も高い。配信する運動の映像コンテンツは、マッチングID「0001」の映像コンテンツ、つまり、主映像IDが「0001」であり、候補運動タイトルが「肩回し」である映像コンテンツとなる。マッチングテーブル210の「機能改善」、「体質改善」、「強化したい部位」も、運動の目的の一例である。   For example, when extracting video content based on exercise information, the matching IDs “0001”, “0002”, and “0003” in the matching table 210 have item 1 “function improvement” and item 2 “stiff shoulder”. It is. The matching ID “0001” has the main video ID “0001” and the candidate exercise title “shoulder turn”. For the matching ID “0002”, the main video ID is “0002” and the candidate exercise title is “Bent Over Y”. For the matching ID “0003”, the main video ID is “0003”, and the candidate exercise title is “90/90 stretch”. The score of the matching ID “0001” is “10”, the score of the matching ID “0002” is “8”, and the score of the matching ID “0003” is “7”. When the “question” in the user attribute data is “function improvement” and the “answer” in the user attribute data is “stiff shoulder”, the score “10” is the highest among these three scores. The video content of the exercise to be distributed is the video content with the matching ID “0001”, that is, the video content with the main video ID “0001” and the candidate exercise title “shoulder”. “Function improvement”, “improvement of constitution”, and “part to be strengthened” in the matching table 210 are also examples of the purpose of exercise.

また、例えば、身体活動情報に基づいて映像コンテンツを抽出する場合、マッチングID「0006」は、主映像IDが「0004」であり、候補運動タイトルが「スクワット」である。マッチングID「0007」は、主映像IDが「0004」であり、候補運動タイトルが「スクワット」である。マッチングID「0006」のスコアは「8」であり、マッチングID「0007」のスコアは「5」である。ユーザ属性データの「質問」が「登った階数」であり、ユーザ属性データの「回答」が「<10」である場合、これら2つのスコアのうちスコア「8」が最も高い。配信する運動の映像コンテンツは、マッチングID「0006」の映像コンテンツ、つまり、主映像IDが「0004」であり、候補運動タイトルが「スクワット」である映像コンテンツとなる。   For example, when extracting video content based on physical activity information, the matching ID “0006” has a main video ID “0004” and a candidate exercise title “Squat”. For the matching ID “0007”, the main video ID is “0004” and the candidate exercise title is “Squat”. The score of the matching ID “0006” is “8”, and the score of the matching ID “0007” is “5”. When the “question” of the user attribute data is “the number of floors climbed” and the “answer” of the user attribute data is “<10”, the score “8” is the highest of these two scores. The motion video content to be distributed is the video content having the matching ID “0006”, that is, the video content having the main video ID “0004” and the candidate motion title “Squat”.

なお、マッチングテーブル210は、任意のタイミングでスコアを更新してもよいし、新たなマッチングIDを追加してもよい。   Note that the matching table 210 may update the score at an arbitrary timing, or may add a new matching ID.

このように、マッチングテーブル210は、ユーザが行う運動の目的と運動の映像コンテンツと映像コンテンツに振られた優先順位との第1の組を、1以上含むテーブルである。運動の目的は、図3における質問に対する回答である。優先順位は、図6のスコアの一例である。   Thus, the matching table 210 is a table including one or more first sets of the purpose of exercise performed by the user, the video content of the exercise, and the priority assigned to the video content. The purpose of the exercise is to answer the question in FIG. The priority order is an example of the score of FIG.

また、マッチングテーブル210のマッチングID「0008」は、項目1が「歩数」、項目2が5000歩未満を意味する「<5000」、主映像IDが「0006」、候補運動タイトルが「骨盤回旋」の各々に紐付けられている。   Also, the matching ID “0008” in the matching table 210 is that the item 1 is “steps”, the item 2 is “<5000” meaning less than 5000 steps, the main video ID is “0006”, and the candidate exercise title is “pelvic rotation”. It is tied to each of.

図2の説明に戻る。再生履歴記憶部211は、クラウドサーバ1001がIoT機器1004へ映像コンテンツを配信し、IoT機器1004で映像コンテンツが再生された履歴である再生履歴データを記憶する。再生履歴記憶部211は、記憶装置の一例である。   Returning to the description of FIG. The playback history storage unit 211 stores playback history data that is a history of video content being played back by the IoT device 1004 when the cloud server 1001 distributes the video content to the IoT device 1004. The reproduction history storage unit 211 is an example of a storage device.

次に、再生履歴データについて説明する。   Next, the reproduction history data will be described.

図7は、本実施の形態における再生履歴データの一例を示す図である。   FIG. 7 is a diagram showing an example of reproduction history data in the present embodiment.

図7に示すように、再生履歴データは、再生履歴IDと、日時と、ユーザIDと、IoT機器IDと、タイプと、主映像IDと、素材映像IDと、再生時間とを含む。   As shown in FIG. 7, the playback history data includes a playback history ID, a date and time, a user ID, an IoT device ID, a type, a main video ID, a material video ID, and a playback time.

再生履歴IDは、再生された映像コンテンツを特定する映像メタデータを一意に示すIDである。日時は、クラウドサーバ1001がIoT機器1004へ映像コンテンツを配信した日時を示す。ユーザIDは、IoT機器1004を利用したユーザ1002のIDを示す。IoT機器IDは、映像コンテンツを再生したIoT機器1004のIDを示す。タイプは、再生した運動の映像コンテンツの種別が「参加型」であるか、「意識型」であるかを示す。主映像IDは、IoT機器1004で再生された映像コンテンツの映像メタデータの主映像IDを示す。素材映像IDは、IoT機器1004で再生された映像コンテンツの素材映像メタデータのIDを示す。素材映像IDは、カンマ区切りで複数の素材映像メタデータの素材映像IDが記憶される。再生時間は、IoT機器1004で再生された映像コンテンツの総再生時間を示す。   The playback history ID is an ID that uniquely indicates video metadata that identifies the played video content. The date / time indicates the date / time when the cloud server 1001 distributed video content to the IoT device 1004. The user ID indicates the ID of the user 1002 using the IoT device 1004. The IoT device ID indicates the ID of the IoT device 1004 that reproduced the video content. The type indicates whether the type of the video content of the reproduced exercise is “participation type” or “consciousness type”. The main video ID indicates a main video ID of video metadata of video content reproduced by the IoT device 1004. The material video ID indicates the ID of the material video metadata of the video content reproduced by the IoT device 1004. The material video ID stores material video IDs of a plurality of material video metadata separated by commas. The playback time indicates the total playback time of video content played back by the IoT device 1004.

具体的には、再生履歴IDが「0123450101」である再生履歴データは、日時が「2016−10−29 20:00」であり、ユーザIDが「12345」であり、IoT機器IDが「A012345」であり、タイプが「参加型」であり、主映像IDが「0001」であり、素材映像IDが「0001−01,0001−02,0001−03,0001−03,0001−03」であり、再生時間が「30秒」である。   Specifically, the playback history data with the playback history ID “0123450101” has the date and time “2006-10-29 20:00”, the user ID “12345”, and the IoT device ID “A012345”. The type is “participating type”, the main video ID is “0001”, the material video ID is “0001-01, 0001-02, 0001-03, 0001-03, 0001-03”, The playback time is “30 seconds”.

再生履歴IDは、ユーザ1002が、映像コンテンツの再生中または再生後にIoT機器1004の入力部を介してお気に入り登録する場合に用いられる。   The playback history ID is used when the user 1002 performs favorite registration via the input unit of the IoT device 1004 during or after playback of video content.

再生履歴データは、ユーザ1002が任意のタイミングで、ユーザ1002が所有するウェアラブル機器1003で確認することができる。   The reproduction history data can be confirmed by the wearable device 1003 owned by the user 1002 at an arbitrary timing.

図2の説明に戻る。映像抽出部206は、ユーザ属性記憶部208に記憶されているユーザ属性データと、機器属性記憶部209に記憶されている機器属性データと、再生履歴記憶部211に記憶されている再生履歴データとを取得し、映像メタデータ記憶部207に記憶されている映像メタデータと、マッチングテーブル210とを参照し、ユーザ属性データに合致する映像コンテンツを抽出する。   Returning to the description of FIG. The video extraction unit 206 includes user attribute data stored in the user attribute storage unit 208, device attribute data stored in the device attribute storage unit 209, and playback history data stored in the playback history storage unit 211. And the video metadata stored in the video metadata storage unit 207 and the matching table 210 are referenced to extract video content that matches the user attribute data.

また、映像抽出部206は、ユーザ属性データに含まれる運動の目的、または、身体活動情報に合致する第3の組のうち、第3の組に紐付けられた優先順位に基づいて、映像コンテンツをマッチングテーブル210の中から抽出する。   The video extraction unit 206 also selects video content based on the priority associated with the third set of the third set that matches the purpose of exercise or physical activity information included in the user attribute data. Are extracted from the matching table 210.

また、映像抽出部206は、ユーザ1002が利用しているIoT機器1004に対し、配信する映像コンテンツを作成する。映像抽出部206についての詳細は、後述する。   In addition, the video extraction unit 206 creates video content to be distributed to the IoT device 1004 used by the user 1002. Details of the video extraction unit 206 will be described later.

[IoT機器]
次に、IoT機器1004の構成について説明する。
[IoT equipment]
Next, the configuration of the IoT device 1004 will be described.

図8は、本実施の形態におけるIoT機器1004の一例を示すブロック図である。   FIG. 8 is a block diagram showing an example of the IoT device 1004 in the present embodiment.

図8に示すように、IoT機器1004は、通信部301と、表示部302と、入力部305と、制御部303と、ユーザ識別部304と、機器属性記憶部306とを備える。   As illustrated in FIG. 8, the IoT device 1004 includes a communication unit 301, a display unit 302, an input unit 305, a control unit 303, a user identification unit 304, and a device attribute storage unit 306.

本実施の形態において、IoT機器1004は、オフィスに設置される機器であり、例えば、オフィスの事務作業を行うエリアの端に設置された複合機、オフィス内の食堂に設置された電子レンジである。   In this embodiment, the IoT device 1004 is a device installed in an office, for example, a multifunction device installed at the end of an office office work area or a microwave oven installed in a cafeteria in the office. .

通信部301は、ネットワークに接続され、ネットワークを介して、クラウドサーバ1001と通信を行う。通信部301は、例えば、有線LANまたは無線LANの通信インターフェースである。   The communication unit 301 is connected to the network and communicates with the cloud server 1001 via the network. The communication unit 301 is, for example, a wired LAN or wireless LAN communication interface.

表示部302はディスプレイであり、クラウドサーバ1001より配信される、運動の映像コンテンツが表示される。   A display unit 302 is a display on which motion video content distributed from the cloud server 1001 is displayed.

図9は、本実施の形態におけるIoT機器1004の表示部302に表示される運動の映像コンテンツの一例を示す図である。   FIG. 9 is a diagram illustrating an example of motion video content displayed on the display unit 302 of the IoT device 1004 according to the present embodiment.

図9に示すように、表示部302には、運動の映像コンテンツ10001と、IoT機器1004の規定の運転に掛かる時間を示すオペレーション時間10002と、再生される映像コンテンツに対し、ユーザ1002がお気に入りの登録を実行するお気に入り登録ボタン10003とが表示されている。言い換えれば、オペレーション時間は、IoT機器1004が規定の運転をしている現在から運転を終了するまでの残りの処理時間であり、運転時間の一例である。   As shown in FIG. 9, the display unit 302 has an exercise video content 10001, an operation time 10002 indicating a time required for a predetermined operation of the IoT device 1004, and a user 1002 who likes the video content to be played back. A favorite registration button 10003 for executing registration is displayed. In other words, the operation time is the remaining processing time from the present time when the IoT device 1004 is performing the specified operation to the end of the operation, and is an example of the operation time.

図8に示すように、入力部305は、IoT機器1004を操作するためのユーザ1002の入力を受け付ける。   As illustrated in FIG. 8, the input unit 305 receives an input from the user 1002 for operating the IoT device 1004.

本実施の形態において、IoT機器1004が複合機の場合、入力部305は、例えば、ユーザ1002が保有する社員証を読み込むカードリーダーである。また、入力部305は、IoT機器1004のタッチパネルであってもよい。   In the present embodiment, when the IoT device 1004 is a multifunction device, the input unit 305 is, for example, a card reader that reads an employee card held by the user 1002. The input unit 305 may be a touch panel of the IoT device 1004.

制御部303は、IoT機器1004の持つ本来の機能を制御することで、所定の動作をIoT機器1004の本体に行わせる。制御部303は、ユーザ1002がIoT機器1004を利用する際には、IoT機器1004のオペレーション時間を算出し、機器属性データとして、通信部301を介してクラウドサーバ1001へ送信する。   The control unit 303 controls the original function of the IoT device 1004 to cause the main body of the IoT device 1004 to perform a predetermined operation. When the user 1002 uses the IoT device 1004, the control unit 303 calculates the operation time of the IoT device 1004 and transmits it as device attribute data to the cloud server 1001 via the communication unit 301.

本実施の形態において、例えば、IoT機器1004が複合機であれば、制御部303は、複合機本来の動作である、コピー、印刷、スキャンなどを制御し、コピー、印刷、スキャンなどの動作に必要なオペレーション時間を算出したりする。   In the present embodiment, for example, if the IoT device 1004 is a multifunction device, the control unit 303 controls the copying, printing, scanning, and the like, which are the original operations of the multifunction device, and performs operations such as copying, printing, and scanning. Calculate the required operation time.

ユーザ識別部304は、入力部305によって入力されたIoT機器1004を利用するユーザ1002を識別する。本実施の形態において、例えば、IoT機器1004が複合機の場合、カードリーダーである入力部305によりユーザ1002を識別する情報、すなわちユーザIDを読み取り、ユーザ識別部304は、読み取ったユーザIDに基づいてユーザ識別を行う。ユーザ識別部304は、ユーザIDを、通信部301を介してクラウドサーバ1001へ送信する。   The user identification unit 304 identifies the user 1002 who uses the IoT device 1004 input by the input unit 305. In the present embodiment, for example, when the IoT device 1004 is a multifunction device, information for identifying the user 1002 by the input unit 305 that is a card reader, that is, a user ID is read, and the user identification unit 304 is based on the read user ID. User identification. The user identification unit 304 transmits the user ID to the cloud server 1001 via the communication unit 301.

また、本実施の形態において、例えば、IoT機器1004が電子レンジである場合、電子レンジに具備されたカメラによって、顔認識などで、利用するユーザ1002を一意に特定するとしてもよいし、ユーザ1002が所有するウェアラブル機器1003であるスマートフォンを用いて電子レンジの操作を行うことでユーザ1002を一意に特定してもよい。   In the present embodiment, for example, when the IoT device 1004 is a microwave oven, the user 1002 to be used may be uniquely specified by face recognition or the like using a camera provided in the microwave oven. The user 1002 may be uniquely identified by operating a microwave oven using a smartphone that is a wearable device 1003 owned by.

さらに、電子レンジに具備されたカメラによって、ユーザ1002を一意に特定できない、または、ユーザ1002を一意に特定されない場合は、電子レンジに具備されたカメラによって、顔認識などでユーザ1002の性別や年代などを推定し、ユーザIDの代わりに利用してもよい。   Furthermore, when the user 1002 cannot be uniquely specified by the camera provided in the microwave oven, or when the user 1002 cannot be uniquely specified, the gender and age of the user 1002 can be identified by facial recognition or the like using the camera provided in the microwave oven. May be used instead of the user ID.

機器属性記憶部306は、IoT機器1004に関する機器属性データを記憶する記憶装置である。   The device attribute storage unit 306 is a storage device that stores device attribute data related to the IoT device 1004.

図10は、本実施の形態における機器属性データの一例を示す図である。   FIG. 10 is a diagram illustrating an example of device attribute data in the present embodiment.

図10に示すように、機器属性データは、IoT機器ID、名称、設置場所、場所、及び、オペレーション時間を有する。   As illustrated in FIG. 10, the device attribute data includes an IoT device ID, a name, an installation location, a location, and an operation time.

IoT機器IDは、IoT機器1004を一意に特定するIDを示す。名称は、IoT機器1004の機器の名称を示す。設置場所は、IoT機器1004が設置されている住所と建物内の位置を示す。場所は、IoT機器1004が設定されている場所が、不特定多数の目に触れるパブリックの場所であるか、プライベートな場所であるかを示す。オペレーション時間は、IoT機器1004の機能を実施する時間を示す。オペレーション時間は、ユーザ1002がIoT機器1004を利用する際に、制御部303によって算出される。   The IoT device ID indicates an ID that uniquely identifies the IoT device 1004. The name indicates the name of the device of the IoT device 1004. The installation location indicates an address where the IoT device 1004 is installed and a position in the building. The location indicates whether the location where the IoT device 1004 is set is a public location that is touched by an unspecified number of people or a private location. The operation time indicates a time for executing the function of the IoT device 1004. The operation time is calculated by the control unit 303 when the user 1002 uses the IoT device 1004.

機器属性データは、ユーザ1002がIoT機器1004を利用する際、制御部303で算出されたオペレーション時間が追加され、クラウドサーバ1001へ送信される。   When the user 1002 uses the IoT device 1004, the operation time calculated by the control unit 303 is added to the device attribute data, and the device attribute data is transmitted to the cloud server 1001.

例えば、IoT機器IDが「A012345」であるIoT機器1004は、名称が「複合機」であり、設置場所が「大阪府XXXX、X棟Y階北エリア」であり、場所が「プライベート」であり、オペレーション時間が「30」秒である。なお、IoT機器1004が設置されている場所が「プライベート」であるか「パブリック」であるかの定義は、自由に設定できる。   For example, an IoT device 1004 with an IoT device ID “A012345” has a name “MFP”, an installation location “Osaka Prefecture XXXX, X Building Y Floor North Area”, and a location “Private”. The operation time is “30” seconds. The definition of whether the place where the IoT device 1004 is installed is “private” or “public” can be freely set.

[映像抽出部の構成]
次に、クラウドサーバ1001の映像抽出部206の詳細な構成について図11を用いて説明する。
[Configuration of video extractor]
Next, a detailed configuration of the video extraction unit 206 of the cloud server 1001 will be described with reference to FIG.

図11は、本実施の形態における映像抽出部206の一例を示すブロック図である。図11では、映像抽出部206と関連する、通信部201、再生履歴記憶部211、ユーザ属性記憶部208、機器属性記憶部209、マッチングテーブル210、映像メタデータ記憶部207を示す。   FIG. 11 is a block diagram illustrating an example of the video extraction unit 206 in the present embodiment. FIG. 11 shows a communication unit 201, a reproduction history storage unit 211, a user attribute storage unit 208, a device attribute storage unit 209, a matching table 210, and a video metadata storage unit 207 related to the video extraction unit 206.

図11に示すように、映像抽出部206は、ユーザ属性制御部402と、機器属性制御部404と、映像メタデータマッチング部406と、映像尺調整部401と、再生履歴制御部403と、映像メタデータ取得部405とを備える。   As shown in FIG. 11, the video extraction unit 206 includes a user attribute control unit 402, a device attribute control unit 404, a video metadata matching unit 406, a video scale adjustment unit 401, a playback history control unit 403, and a video. And a metadata acquisition unit 405.

ユーザ属性制御部402は、IoT機器1004から送信されるユーザIDを用いて、ユーザIDの合致するユーザ属性データを、ユーザ属性記憶部208から取得する。   The user attribute control unit 402 uses the user ID transmitted from the IoT device 1004 to acquire user attribute data that matches the user ID from the user attribute storage unit 208.

本実施の形態において、例えば、図3に示すように、IoT機器1004から送信されるユーザIDが「12345」である場合、ユーザ属性制御部402は、ユーザ属性データの中からユーザIDが「12345」と一致するユーザ属性データとして、性別が「男性」であり、年齢が「40」であり、ウェアラブル機器IDが「P011234」であり、質問が「1.機能改善、2.人目は?」であり、回答が「1.肩こり、2.気にしない」であり、お気に入りが「0123450101」であるユーザ属性データを、ユーザ属性記憶部208から取得する。   In the present embodiment, for example, as shown in FIG. 3, when the user ID transmitted from the IoT device 1004 is “12345”, the user attribute control unit 402 sets the user ID from “12345” in the user attribute data. As the user attribute data matching "", the gender is "male", the age is "40", the wearable device ID is "P011234", and the question is "1. Function improvement, 2. What is the person?" Yes, user attribute data whose answer is “1. Stiff shoulder, 2. Don't care” and favorite is “0123450101” is acquired from the user attribute storage unit 208.

図11に示すように、機器属性制御部404は、ユーザ1002が利用しているIoT機器1004の機器属性データを機器属性記憶部209から取得する。   As illustrated in FIG. 11, the device attribute control unit 404 acquires device attribute data of the IoT device 1004 used by the user 1002 from the device attribute storage unit 209.

例えば、機器属性制御部404は、図10に示すように、IoT機器1004のIoT機器IDが「A012345」である複合機であれば、機器属性データのうち、IoT機器IDが「A012345」であり、名称が「複合機」であり、設置住所が「大阪府XXXX、X棟Y階北エリア」であり、場所が「プライベート」であり、オペレーション時間が「30」秒である機器属性データを、機器属性記憶部209から取得する。   For example, as illustrated in FIG. 10, the device attribute control unit 404 has an IoT device ID “A012345” in the device attribute data if the IoT device 1004 has an IoT device ID “A012345”. , Device attribute data whose name is “MFP”, installation address is “Osaka Prefecture XXXX, X Building Y Floor North Area”, location is “Private”, and operation time is “30” seconds, Obtained from the device attribute storage unit 209.

図11に示すように、映像メタデータ取得部405は、映像メタデータ記憶部207から、候補となる映像コンテンツのメタデータを取得する。具体的には、マッチングID「0001」の主映像IDが「0001」であり、マッチングID「0002」の主映像IDが「0002」であり、マッチングID「0003」の主映像IDが「0003」であるので、映像メタデータ取得部405は、映像メタデータ及び素材映像メタデータから、主映像IDが「0001」、「0002」、「0003」のメタデータを、マッチングテーブル210から取得する。   As shown in FIG. 11, the video metadata acquisition unit 405 acquires metadata of a candidate video content from the video metadata storage unit 207. Specifically, the main video ID of the matching ID “0001” is “0001”, the main video ID of the matching ID “0002” is “0002”, and the main video ID of the matching ID “0003” is “0003”. Therefore, the video metadata acquisition unit 405 acquires, from the matching table 210, metadata with main video IDs “0001”, “0002”, and “0003” from the video metadata and the material video metadata.

映像メタデータマッチング部406は、ユーザ属性データと、マッチングテーブル210とから、ユーザ1002に適した映像コンテンツの候補を抽出する。   The video metadata matching unit 406 extracts video content candidates suitable for the user 1002 from the user attribute data and the matching table 210.

図3及び図6に示すように、例えば、ユーザIDが「12345」である場合、質問が「1.機能改善、2.人目は?」であり、回答が「1.肩こり、2.気にしない」であるので、マッチングテーブル210を用いると、項目1が「機能改善」であり、項目2が「肩こり」であるマッチングID「0001」及び候補運動タイトル「肩回し」と、マッチングID「0002」及び候補運動タイトル「ベントオーバーY」と、マッチングID「0003」及び候補運動タイトル「90/90ストレッチ」との3つが、ユーザ1002に適した映像コンテンツの候補として抽出される。このとき、マッチングID「0001」のスコアは「10」、マッチングID「0002」のスコアは「8」、マッチングID「0003」のスコアは「7」である。   As shown in FIGS. 3 and 6, for example, when the user ID is “12345”, the question is “1. Function improvement, 2. What is the person?” And the answer is “1. If the matching table 210 is used, the item 1 is “function improvement”, the item 2 is “stiff shoulder”, the matching ID “0001”, the candidate exercise title “shouldering”, and the matching ID “0002” ”And the candidate exercise title“ Bent Over Y ”, the matching ID“ 0003 ”, and the candidate exercise title“ 90/90 stretch ”are extracted as video content candidates suitable for the user 1002. At this time, the score of the matching ID “0001” is “10”, the score of the matching ID “0002” is “8”, and the score of the matching ID “0003” is “7”.

図10及び図11に示すように、映像メタデータマッチング部406は、映像メタデータ取得部405が取得した映像メタデータを参照し、IoT機器1004の機器属性データに応じて、映像コンテンツを抽出する。   As shown in FIGS. 10 and 11, the video metadata matching unit 406 refers to the video metadata acquired by the video metadata acquisition unit 405 and extracts video content according to the device attribute data of the IoT device 1004. .

例えば、IoT機器1004のIoT機器IDが「A012345」である複合機の場合、機器属性データは、場所が「プライベート」である。この場合、IoT機器IDが「A012345」である複合機の周辺でユーザ1002は、運動の映像コンテンツを見ながら運動が可能である。これにより、クラウドサーバ1001は、「参加型」の映像コンテンツを生成する。   For example, in the case of a multifunction peripheral whose IoT device ID of the IoT device 1004 is “A012345”, the location of the device attribute data is “private”. In this case, the user 1002 can exercise while watching the video content of the exercise in the vicinity of the multifunction peripheral having the IoT device ID “A012345”. As a result, the cloud server 1001 generates “participatory” video content.

図6及び図11に示すように、映像メタデータマッチング部406は、ユーザ1002に適した映像コンテンツの候補として抽出した候補運動タイトル「肩回し」、「ベントオーバーY」、「90/90ストレッチ」の中から、IoT機器IDが「A012345」である複合機の周辺で運動可能な、候補運動タイトル「肩回し」と「ベントオーバーY」とを抽出する。   As shown in FIGS. 6 and 11, the video metadata matching unit 406 has the candidate exercise titles “shoulder rotation”, “bent over Y”, and “90/90 stretch” extracted as video content candidates suitable for the user 1002. The candidate exercise titles “shoulder turn” and “bent over Y” that can be exercised around the multi-function peripheral having the IoT device ID “A012345” are extracted.

このとき、候補運動タイトル「肩回し」のスコア「10」方が、候補運動タイトル「ベントオーバーY」のスコア「8」よりも高いので、映像メタデータマッチング部406は、配信する映像コンテンツを候補運動タイトル「肩回し」に決定する。   At this time, since the score “10” of the candidate exercise title “shouldering” is higher than the score “8” of the candidate exercise title “Bent over Y”, the video metadata matching unit 406 selects the video content to be distributed as candidates. The exercise title is “Shoulder Rotation”.

図10及び図11に示すように、別の例として、IoT機器1004のIoT機器IDが「R010210」である電子レンジであれば、機器属性制御部404は、機器属性データのうち、IoT機器IDが「R010210」であり、名称が「電子レンジ」であり、設置住所が「大阪府XXXX、Z棟X階食堂」であり、場所が「パブリック」であり、オペレーション時間が「40」秒である機器属性データを取得する。   As shown in FIGS. 10 and 11, as another example, if the IoT device 1004 has a microwave oven whose IoT device ID is “R010210”, the device attribute control unit 404 includes the IoT device ID in the device attribute data. Is "R010210", the name is "microwave oven", the installation address is "Osaka Prefecture XXXX, Z ridge X floor cafeteria", the location is "public", and the operation time is "40" seconds Get device attribute data.

機器属性データの場所がパブリックであるので、ユーザ1002は、IoT機器1004のIoT機器IDが「R010210」である電子レンジ周辺で、運動の映像コンテンツを見ながら運動をすることができない。これにより、複数の映像コンテンツからなる「意識型」の映像コンテンツが生成される。   Since the location of the device attribute data is public, the user 1002 cannot exercise while watching the video content of the exercise around the microwave oven whose IoT device ID of the IoT device 1004 is “R010210”. Thereby, “consciousness-type” video content including a plurality of video content is generated.

図6及び図11に示すように、具体的には、映像メタデータマッチング部406は、ユーザ1002に適した映像コンテンツの候補として抽出した候補運動タイトル「肩回し」、「ベントオーバーY」、「90/90ストレッチ」の全てを用いて、映像コンテンツを抽出する。   As shown in FIGS. 6 and 11, specifically, the video metadata matching unit 406 extracts the candidate exercise titles “shoulder”, “bent over Y”, “betover Y” extracted as video content candidates suitable for the user 1002. Video content is extracted using all of “90/90 stretch”.

図10及び図11に示すように、映像抽出部206は、抽出した映像コンテンツの再生時間をオペレーション時間以内に調整する。より詳しくは、映像抽出部206の映像尺調整部401は、機器属性データのオペレーション時間を用いて、ユーザ1002へ提供するマッチングテーブル210の中から抽出した映像コンテンツの再生時間をオペレーション時間以内に調整し、IoT機器1004に提供する運動の映像コンテンツを作成し、生成した映像コンテンツを通信部201へ配信する。   As shown in FIGS. 10 and 11, the video extraction unit 206 adjusts the playback time of the extracted video content within the operation time. More specifically, the video scale adjustment unit 401 of the video extraction unit 206 uses the operation time of the device attribute data to adjust the playback time of the video content extracted from the matching table 210 provided to the user 1002 within the operation time. Then, motion video content to be provided to the IoT device 1004 is created, and the generated video content is distributed to the communication unit 201.

例えば、映像尺調整部401は、機器属性データのIoT機器1004のIoT機器IDが「A012345」であり、複合機のオペレーション時間が30秒であるので、候補運動タイトル「肩回し」の映像コンテンツを、30秒以内の再生時間となる「参加型」の映像コンテンツを生成する。   For example, since the IoT device ID of the IoT device 1004 of the device attribute data is “A012345” and the operation time of the multifunction device is 30 seconds, the video scale adjustment unit 401 displays the video content of the candidate exercise title “shoulder”. , “Participatory” video content with a playback time of 30 seconds or less is generated.

このように、映像抽出部206は、抽出したユーザ属性データに含まれる運動の目的に合致する第1の組のうち、第1の組に紐付けられたスコアに基づいて、映像コンテンツをマッチングテーブル210の中から抽出する。   As described above, the video extraction unit 206 matches the video content based on the score associated with the first set out of the first set that matches the purpose of the exercise included in the extracted user attribute data. Extract from 210.

図5A、図5B及び図11に示すように、映像尺調整部401は、映像メタデータ取得部405が取得したタイトル「肩回し」である主映像ID「0001」の素材映像メタデータのうち、素材映像ID「0001−01」、「0001−02」、「0001−03」の再生時間を計算しながら、映像コンテンツを生成する。   As shown in FIGS. 5A, 5B, and 11, the video scale adjustment unit 401 includes the material video metadata of the main video ID “0001” that is the title “shouldering” acquired by the video metadata acquisition unit 405. The video content is generated while calculating the reproduction time of the material video IDs “0001-01”, “0001-02”, and “0001-03”.

具体的には、映像尺調整部401は、生成される映像コンテンツの最初に、素材映像メタデータの構成タイプが「タイトルコール」である素材映像ID「0001−01」(再生時間「2」)を配置する。次に、映像尺調整部401は、構成タイプが「解説」である素材映像ID「0001−02」(再生時間「12」)を配置する。次に、映像尺調整部401は、構成タイプが「1カウント」である素材映像ID「0001−03」(再生時間「5」)を配置する。ここまでの合計の再生時間が「19」であり、オペレーション時間30秒に対する残り時間が「11」であるので、さらに、映像尺調整部401は、構成タイプが「1カウント」である素材映像ID「0001−03」(再生時間「5」)を2回繰り返して配置する。ここまでの合計の再生時間が「29」となり、オペレーション時間の「30」に収まる。このように、映像尺調整部401は、この素材映像IDの素材映像メタデータの順になるように映像コンテンツを生成する。   Specifically, the video scale adjustment unit 401, at the beginning of the generated video content, has a material video ID “0001-01” (reproduction time “2”) whose material video metadata configuration type is “title call”. Place. Next, the video scale adjustment unit 401 arranges a material video ID “0001-02” (reproduction time “12”) whose configuration type is “commentary”. Next, the video scale adjustment unit 401 arranges a material video ID “0001-03” (reproduction time “5”) whose configuration type is “1 count”. Since the total playback time so far is “19” and the remaining time for the operation time of 30 seconds is “11”, the video scale adjustment unit 401 further has a material video ID whose configuration type is “1 count”. “0001-03” (reproduction time “5”) is repeatedly arranged twice. The total playback time so far is “29”, which is within the operation time “30”. In this way, the video scale adjustment unit 401 generates video content in the order of the material video metadata of the material video ID.

次に、映像コンテンツの再生時間について説明する。   Next, the playback time of video content will be described.

図12は、本実施の形態におけるIoT機器へ出力される運動の映像コンテンツの一例を示す図である。図12は、上述したように映像尺調整部401によって生成された映像コンテンツを示している。図12は、オペレーション時間の30秒におさまるように、素材映像IDが「0001−01」、「0001−02」、「0001−03」、「0001−03」、「0001−03」の順で再生時間が29秒以内に収められた映像コンテンツを示す。   FIG. 12 is a diagram showing an example of motion video content output to the IoT device in the present embodiment. FIG. 12 shows the video content generated by the video scale adjustment unit 401 as described above. In FIG. 12, the material video IDs are in the order of “0001-01”, “0001-02”, “0001-03”, “0001-03”, “0001-03” so that the operation time is 30 seconds. The video content whose playback time is within 29 seconds is shown.

このように、ユーザ1002は、IoT機器1004の処理を待っている間に、映像コンテンツを見ながら運動できる。   In this way, the user 1002 can exercise while watching the video content while waiting for the processing of the IoT device 1004.

図13は、本実施の形態におけるIoT機器1004へ出力される運動の映像コンテンツの別の一例を示す図である。図13は、上述したように映像尺調整部401によって生成された映像コンテンツを示している。   FIG. 13 is a diagram illustrating another example of motion video content output to the IoT device 1004 according to the present embodiment. FIG. 13 shows the video content generated by the video scale adjustment unit 401 as described above.

図5A、図5B、図7及び図13に示すように、別の例として、映像尺調整部401は、機器属性データのIoT機器1004のIoT機器IDが「R010210」であり、電子レンジのオペレーション時間が40秒であるので、40秒以内の再生時間となる「意識型」の運動の映像コンテンツを生成する。   As another example, as shown in FIGS. 5A, 5B, 7 and 13, the video scale adjustment unit 401 has an IoT device ID “R010210” of the IoT device 1004 in the device attribute data, and the operation of the microwave oven. Since the time is 40 seconds, the video content of the “conscious type” motion that has a playback time within 40 seconds is generated.

具体的には、映像尺調整部401は、映像メタデータマッチング部406で抽出した、候補運動タイトル「肩回し」、「ベントオーバーY」、「90/90ストレッチ」の全てを用いて、40秒の再生時間に合うように「意識型」の運動の映像コンテンツを生成する。   Specifically, the video scale adjustment unit 401 uses all of the candidate exercise titles “shoulder rotation”, “bent over Y”, and “90/90 stretch” extracted by the video metadata matching unit 406 for 40 seconds. Video content of “conscious” movement is generated to match the playback time.

映像尺調整部401は、候補運動タイトルが「肩回し」である主映像ID「0001」、候補運動タイトルが「ベントオーバーY」である主映像ID「0002」、候補運動タイトルが「90/90ストレッチ」である主映像ID「0003」のそれぞれの素材メタデータから映像コンテンツを生成する。   The video scale adjustment unit 401 has a main video ID “0001” whose candidate exercise title is “shoulder rotation”, a main video ID “0002” whose candidate exercise title is “Bent over Y”, and a candidate exercise title “90/90”. Video content is generated from each material metadata of the main video ID “0003” which is “stretch”.

具体的には、生成される映像コンテンツの最初に、素材映像メタデータの構成タイプが「タイトルコール」である素材映像ID「0001−01」(再生時間「2」)を配置する。次に、素材映像メタデータの構成タイプが「タイトルコール」である、再生時間「2」の素材映像ID「0002−01」を配置する。次に、素材映像メタデータの構成タイプが「タイトルコール」である、再生時間「2」の素材映像ID「0003−01」を配置する。ここまでで合計の再生時間が「6」であるので、次に素材映像メタデータの構成タイプが「解説」である再生時間「12」の素材映像ID「0001−02」を配置する。さらに素材映像メタデータの構成タイプが「解説」である再生時間「10」の素材映像ID「0002−02」を配置し、素材映像メタデータの構成タイプが「解説」である再生時間「10」の素材映像ID「0003−02」を配置する。ここまでで合計の再生時間が「39」となり、オペレーション時間の「40」におさまる。映像尺調整部401は、素材映像ID「0001−01」、「0001−02」、「0002−01」、「0002−02」、「0003−01」、「0003−02」の順になるように映像コンテンツを生成する。   Specifically, the material video ID “0001-01” (reproduction time “2”) having the composition type of the material video metadata “title call” is arranged at the beginning of the generated video content. Next, a material video ID “0002-01” with a playback time “2” having a configuration type of the material video metadata of “title call” is arranged. Next, a material video ID “0003-01” with a playback time “2” whose material video metadata configuration type is “title call” is arranged. Since the total playback time is “6” so far, the material video ID “0001-02” of the playback time “12” whose configuration type of the material video metadata is “commentary” is arranged next. Furthermore, a material video ID “0002-02” having a playback time “10” having a material video metadata configuration type “commentary” is arranged, and a playback time “10” having a material video metadata configuration type “commentary”. The material video ID “0003-02” is arranged. Up to this point, the total playback time is “39”, which falls within the operation time “40”. The video scale adjustment unit 401 is arranged in the order of the material video IDs “0001-01”, “0001-02”, “0002-01”, “0002-02”, “0003-01”, “0003-02”. Generate video content.

IoT機器1004は、クラウドサーバ1001から生成された映像コンテンツを受信し、再生する。   The IoT device 1004 receives and reproduces video content generated from the cloud server 1001.

再生履歴制御部403は、IoT機器1004へ映像コンテンツを配信する際に、映像尺調整部401で作成してIoT機器1004へ配信した映像コンテンツに付与される、主映像IDと素材映像IDとユーザIDとIoT機器IDとを含む再生履歴データとして再生履歴記憶部211へ記憶する。主映像IDと素材映像IDとは映像コンテンツのIDの一例である。具体的には、再生履歴制御部403は、ユーザID「12345」のユーザ1002がIoT機器ID「A012345」である複合機を利用した場合に、タイプが「参加型」であり、タイトルが「肩回し」であり、主映像IDが「0001」であり、素材映像IDが「0001−01、0001−02、0001−03、0001−03、0001−03」である再生履歴データが付与された運動の映像コンテンツを配信したことを、再生履歴ID「0123450101」に紐付けて、再生履歴データとして再生履歴記憶部211に記憶する。   When the video content is distributed to the IoT device 1004, the playback history control unit 403 provides the main video ID, the material video ID, and the user that are added to the video content created by the video scale adjustment unit 401 and distributed to the IoT device 1004. The reproduction history storage unit 211 stores the reproduction history data including the ID and the IoT device ID. The main video ID and the material video ID are examples of video content IDs. Specifically, when the user 1002 with the user ID “12345” uses a multifunction device with the IoT device ID “A012345”, the playback history control unit 403 has the type “participatory” and the title “shoulder” ”Rotation”, main video ID “0001”, and material video ID “0001-01, 0001-02, 0001-03, 0001-03, 0001-03” to which the movement history is given That the video content has been distributed is linked to the playback history ID “0123450101” and stored in the playback history storage unit 211 as playback history data.

映像メタデータマッチング部406は、再生履歴データに記憶された主映像ID及び素材映像IDに紐付けられた第2の組の優先順位を、現状の優先順位から下げた優先順位に更新する。例えば、ユーザID「12345」であるユーザ1002がIoT機器ID「A012345」である複合機を2度目に利用する場合、映像メタデータマッチング部406は、再生履歴データを参照し、抽出した候補のうち、主映像ID「0001」の「肩回し」をすでに提供していることがわかる。そこで、映像メタデータマッチング部406は、マッチングテーブル210の主映像ID「0001」のスコア「10」を「5」だけ減算する。すると、スコアの最も高いのは、スコアが「8」であり、候補運動タイトルが「ベントオーバーY」である映像コンテンツとなる。これより、この情報処理システム100では、同じユーザに異なる映像コンテンツを提供することができる。   The video metadata matching unit 406 updates the priority of the second set associated with the main video ID and the material video ID stored in the reproduction history data to a priority lower than the current priority. For example, when the user 1002 with the user ID “12345” uses the multifunction device with the IoT device ID “A012345” for the second time, the video metadata matching unit 406 refers to the reproduction history data and extracts the extracted candidates. It can be seen that “shoulder rotation” of the main video ID “0001” has already been provided. Therefore, the video metadata matching unit 406 subtracts “5” from the score “10” of the main video ID “0001” in the matching table 210. Then, the video score having the highest score is “8” and the candidate exercise title is “Bent Over Y”. Thus, in this information processing system 100, different video contents can be provided to the same user.

[情報処理システムの動作]
次に、情報処理システム100の動作を具体的に説明する。
[Operation of information processing system]
Next, the operation of the information processing system 100 will be specifically described.

図14は、本実施の形態における情報処理システム100の一例を示すフローチャートである。   FIG. 14 is a flowchart illustrating an example of the information processing system 100 according to the present embodiment.

図3及び図14に示すように、ユーザ1002は、所有するウェアラブル機器1003を操作してクラウドサーバ1001にアクセスし、クラウドサーバ1001に対してユーザ登録を行う。ユーザ登録指示を受けたクラウドサーバ1001のユーザ管理部204は、例えば、ユーザID「12345」をユーザ1002に付与し、ユーザIDを含むユーザ属性データとしてユーザ属性記憶部208に登録する(S1301)。具体的には、ユーザ管理部204は、ユーザ属性データの「ユーザID」に、ユーザのIDを示す「12345」を登録する。   As illustrated in FIGS. 3 and 14, the user 1002 operates the wearable device 1003 owned by the user 1002 to access the cloud server 1001 and performs user registration with the cloud server 1001. Upon receiving the user registration instruction, the user management unit 204 of the cloud server 1001 assigns the user ID “12345” to the user 1002, for example, and registers it in the user attribute storage unit 208 as user attribute data including the user ID (S1301). Specifically, the user management unit 204 registers “12345” indicating the user ID in the “user ID” of the user attribute data.

次に、ユーザ登録が済むと、ユーザ1002は、所有するウェアラブル機器1003に表示される問診に答える形で、性別、年齢の入力、質問に対する回答を入力し、これらの入力をユーザ属性データとして登録する(S1302)。具体的には、ユーザ1002の回答に応じて、ユーザ属性データの「性別」及び「年齢」に対し、それぞれ、「男性」及び「40」と登録される。また、質問に対する回答として、「1.機能改善」は「1.肩こり」であり、「2.人目は?」は「2.気にしない」ことが登録される。   Next, after the user registration is completed, the user 1002 inputs the sex, the age, and the answer to the question in the form of answering the inquiry displayed on the wearable device 1003 owned, and registers these inputs as user attribute data. (S1302). Specifically, “male” and “40” are registered for “gender” and “age” of the user attribute data, respectively, according to the answer of the user 1002. In addition, as an answer to the question, “1. Function improvement” is registered as “1. Stiff shoulder”, and “2.

あわせて、クラウドサーバ1001に対してユーザ1002が所有するウェアラブル機器1003の登録も行う。具体的には、ユーザ属性データのウェアラブル機器IDにユーザ1002が利用するウェアラブル機器ID「P011234」をクラウドサーバ1001に登録する。   In addition, the wearable device 1003 owned by the user 1002 is also registered with the cloud server 1001. Specifically, the wearable device ID “P011234” used by the user 1002 is registered in the cloud server 1001 as the wearable device ID of the user attribute data.

なお、ユーザ属性データの登録は、ユーザ1002が実施したが、それに限定しない。例えば、クラウドサーバ1001の管理者が、ユーザ1002から申請された内容で代理登録を実施してもよい。   Although the user attribute data is registered by the user 1002, the present invention is not limited to this. For example, the administrator of the cloud server 1001 may perform proxy registration with the contents applied for by the user 1002.

次に、ユーザ1002は、IoT機器1004の機器属性データを、クラウドサーバ1001へ登録する(S1303)。機器属性データの登録は、クラウドサーバ1001が、オフィスや家庭などに設置されたIoT機器1004を、映像コンテンツの配信するために行う。   Next, the user 1002 registers the device attribute data of the IoT device 1004 in the cloud server 1001 (S1303). The device attribute data is registered in order for the cloud server 1001 to distribute video content to the IoT device 1004 installed in the office or home.

具体的には、ユーザ1002は、図10の機器属性データに示すように、IoT機器1004の「設置場所」を登録する。また、ユーザ1002は、設置された場所が、多くの人目に付くパブリックな場所か、人目に付かないプライベートな場所かを登録する。さらに、ユーザ1002は、IoT機器1004が設定される場所において、IoT機器1004を利用するユーザ1002が、IoT機器1004のディスプレイを見ながら運動できるか否かを登録する。   Specifically, the user 1002 registers the “installation location” of the IoT device 1004 as shown in the device attribute data of FIG. Also, the user 1002 registers whether the installed location is a public location that can be seen by many people or a private location that cannot be seen by people. Further, the user 1002 registers whether or not the user 1002 using the IoT device 1004 can exercise while looking at the display of the IoT device 1004 at a place where the IoT device 1004 is set.

例えば、図10のIoT機器IDが「A012345」である複合機は、設置場所が「大阪府XXXX,X棟Y階北エリア」であり、場所が「プライベート」である機器属性データとして、機器属性記憶部306に登録される。   For example, in the MFP having the IoT device ID “A012345” in FIG. 10, the device attribute is set as the device attribute data having the installation location “Osaka Prefecture XXXX, X Building Y Floor North Area” and the location “Private”. Registered in the storage unit 306.

IoT機器1004に登録された機器属性データは、クラウドサーバ1001へ送信され、機器属性記憶部209にも記録される。   The device attribute data registered in the IoT device 1004 is transmitted to the cloud server 1001 and is also recorded in the device attribute storage unit 209.

機器属性データの登録は、IoT機器1004を設置する業者もしくはユーザ1002が、所有するウェアラブル機器1003で実施してもよい。また、管理者が実施してもよい。   Registration of device attribute data may be performed by a wearable device 1003 owned by a trader or user 1002 who installs the IoT device 1004. Moreover, an administrator may implement it.

なお、S1301からS1302で説明したユーザIDの登録/ユーザ属性データの登録と、S1303で説明したIoT機器の登録は、順序が逆であってもよい。   Note that the order of the registration of the user ID / registration of user attribute data described in S1301 to S1302 and the registration of the IoT device described in S1303 may be reversed.

次に、ユーザ1002がIoT機器1004を利用する際の処理について述べる。   Next, processing when the user 1002 uses the IoT device 1004 will be described.

IoT機器1004は、IoT機器1004を利用するユーザ1002を認証する(S1304)。具体的には、IoT機器1004のユーザ識別部304は、入力部305により読みとられたユーザIDを識別してユーザ1002を認証する。例えば、ユーザ1002は、ユーザID「12345」である。なお、IoT機器1004を利用するユーザ1002を識別できない場合、例えば、電子レンジに具備されたカメラによって、顔認識などで、ユーザ1002の性別や年代を推定してもよい。ユーザ識別部304は、ユーザIDを特定できない場合、ユーザIDを「NULL」として扱う。   The IoT device 1004 authenticates the user 1002 who uses the IoT device 1004 (S1304). Specifically, the user identification unit 304 of the IoT device 1004 identifies the user ID read by the input unit 305 and authenticates the user 1002. For example, the user 1002 has a user ID “12345”. In addition, when the user 1002 using the IoT device 1004 cannot be identified, for example, the gender and age of the user 1002 may be estimated by face recognition using a camera provided in a microwave oven. If the user ID cannot be specified, the user identification unit 304 treats the user ID as “NULL”.

次に、例えばIoT機器1004が複合機の場合、制御部303は、IoT機器1004のコピー、印刷、スキャンなどの動作に必要なオペレーション時間を算出し(S1305)、機器属性記憶部306にオペレーション時間を示す情報を記憶する。このオペレーション時間は、ユーザ1002がIoT機器1004を利用する間の待ち時間となる。   Next, for example, when the IoT device 1004 is a multifunction peripheral, the control unit 303 calculates an operation time necessary for operations such as copying, printing, and scanning of the IoT device 1004 (S1305), and stores the operation time in the device attribute storage unit 306. Is stored. This operation time is a waiting time while the user 1002 uses the IoT device 1004.

次に、IoT機器1004は、識別したユーザIDと機器属性記憶部306に記憶される機器属性データとを、クラウドサーバ1001に送信する(S1306)。   Next, the IoT device 1004 transmits the identified user ID and device attribute data stored in the device attribute storage unit 306 to the cloud server 1001 (S1306).

なお、IoT機器1004がユーザIDを識別できない場合、ユーザID「NULL」に加え、推定した性別や年代と、機器属性記憶部306に記憶される機器属性データとをクラウドサーバ1001へ送信する。   If the IoT device 1004 cannot identify the user ID, it transmits the estimated gender and age and the device attribute data stored in the device attribute storage unit 306 to the cloud server 1001 in addition to the user ID “NULL”.

次に、クラウドサーバ1001は、IoT機器1004から送信されたユーザIDおよび機器属性データから、ユーザIDで特定されたユーザに対し、配信する運動の映像コンテンツの抽出を行い、IoT機器1004に対し、抽出した運動の映像コンテンツを配信する(S1307)。こうして、IoT機器1004は、クラウドサーバ1001から運動の映像コンテンツを取得する。これにより、IoT機器1004は、規定の運転を行っている間の隙間時間に、規定の運転とは異なる処理をする。つまり、IoT機器1004の表示部302は、この運動の映像コンテンツを表示する。   Next, the cloud server 1001 extracts the video content of the exercise to be distributed to the user specified by the user ID from the user ID and device attribute data transmitted from the IoT device 1004, and for the IoT device 1004, The extracted motion picture content is distributed (S1307). In this way, the IoT device 1004 acquires the motion picture content from the cloud server 1001. As a result, the IoT device 1004 performs processing different from the specified operation during the gap time during the specified operation. That is, the display unit 302 of the IoT device 1004 displays the video content of this exercise.

図14の詳細を、図15を用いて説明する。   Details of FIG. 14 will be described with reference to FIG.

図15は、本実施の形態における映像コンテンツの配信の一例を示すフローチャートである。   FIG. 15 is a flowchart illustrating an example of video content distribution according to the present embodiment.

図3及び図15に示すように、通信部201は、IoT機器1004より、ユーザIDと機器属性データとを受信する。ユーザ属性制御部402は、受信したユーザIDに合致するユーザ属性データを、ユーザ属性記憶部208から取得する(S1401)。   As illustrated in FIGS. 3 and 15, the communication unit 201 receives a user ID and device attribute data from the IoT device 1004. The user attribute control unit 402 acquires user attribute data that matches the received user ID from the user attribute storage unit 208 (S1401).

例えば、運動の情報に基づいて映像コンテンツを抽出する場合、受信したユーザIDが「12345」である場合、ユーザ属性データは、ユーザIDが「12345」であり、性別が「男性」であり、年齢が「40」であり、ウェアラブル機器IDが「P011234」であり、質問が「1.機能改善,2.人目は?」であり、回答が「1.肩こり,2.気にしない」であり、お気に入りが「0123450101」である。   For example, when extracting video content based on exercise information, if the received user ID is “12345”, the user attribute data is that the user ID is “12345”, the gender is “male”, the age Is “40”, the wearable device ID is “P011234”, the question is “1. Function improvement, 2. What is the person?”, And the answer is “1. Stiff shoulder, 2. Don't mind” The favorite is “0123450101”.

ユーザIDが「33445」である場合、ユーザ属性データは、性別が「女性」であり、年齢が「50」であり、ウェアラブル機器IDが「S012345」であり、質問が「1.体質改善,2.人目は?」であり、回答が「1.ダイエット,2.気にしない」であり、お気に入りが「−」である。   When the user ID is “33445”, the user attribute data indicates that the gender is “female”, the age is “50”, the wearable device ID is “S012345”, and the question is “1. "What is your eye?", The answer is "1. Diet, 2. Don't care", and the favorite is "-".

なお、受信したユーザIDが「NULL」である場合、ユーザ属性データを取得できないので、受信した性別、年代を利用する。   If the received user ID is “NULL”, the user attribute data cannot be acquired, so the received sex and age are used.

次に、機器属性制御部404は、受信した機器属性データが、クラウドサーバ1001の機器属性記憶部209に登録されていることを確認する。機器属性記憶部209の登録が確認されれば、機器属性制御部404は、機器属性データの「場所」を確認する(S1402)。つまり、機器属性制御部404は、IoT機器1004の設置場所がプライベートな場所であるかパブリックな場所であるかを判断する。   Next, the device attribute control unit 404 confirms that the received device attribute data is registered in the device attribute storage unit 209 of the cloud server 1001. If the registration of the device attribute storage unit 209 is confirmed, the device attribute control unit 404 confirms the “location” of the device attribute data (S1402). That is, the device attribute control unit 404 determines whether the installation location of the IoT device 1004 is a private location or a public location.

機器属性データの場所が「プライベート」である場合(S1402でYESの場合)、S1405へ進む。具体的には、機器属性データのIoT機器IDが「A012345」である場合、図10の場所は「プライベート」である。   If the location of the device attribute data is “private” (YES in S1402), the process proceeds to S1405. Specifically, when the IoT device ID of the device attribute data is “A012345”, the location in FIG. 10 is “private”.

機器属性データの場所が「パブリック」である場合(S1402でNOの場合)、S1403へ進む。具体的には、機器属性データのIoT機器IDが「R010210」である場合、図10の場所は「パブリック」である。   If the location of the device attribute data is “public” (NO in S1402), the process proceeds to S1403. Specifically, when the IoT device ID of the device attribute data is “R010210”, the location in FIG. 10 is “public”.

次に、ユーザ属性制御部402は、ユーザが人目を気にするか否かを、ユーザ属性データにおける質問「人目は?」の回答に基づいて確認する(S1403)。   Next, the user attribute control unit 402 confirms whether or not the user cares about the eye based on the answer to the question “What is the eye?” In the user attribute data (S1403).

回答が「気にしない」である場合(S1403でNOの場合)に、S1405へ進む。また、回答が「気にする」である場合(S1403でYESの場合)に、S1406へ進む。   If the answer is “I don't care” (NO in S1403), the process proceeds to S1405. If the answer is “care” (YES in S1403), the process advances to S1406.

機器属性データのIoT機器IDが「R010210」である場合、場所は「パブリック」である。ユーザ属性データのユーザIDが「12345」である場合、質問の「2.人目は?」の回答は「2.気にしない」である。   When the IoT device ID of the device attribute data is “R010210”, the location is “public”. When the user ID of the user attribute data is “12345”, the answer “2. What is the person?” Of the question is “2. Don't care”.

なお、受信したユーザIDが「NULL」である場合は、ユーザ属性データがないので、例えば、人目を「気にしない」とする。   When the received user ID is “NULL”, there is no user attribute data, and for example, it is assumed that the user does not care.

次に、機器属性制御部404は、ユーザ1002が運動の映像コンテンツを見ながらその場で運動可能な参加型の映像のコンテンツを抽出する処理を行う(S1405)。   Next, the device attribute control unit 404 performs a process of extracting content of participatory video that allows the user 1002 to exercise on the spot while viewing the video content of exercise (S1405).

抽出した機器属性データの場所情報がプライベートな場所を示す場合(S1402でYESの場合)、ステップS1405で、IoT機器1004の設置場所でユーザ1002が運動可能な参加型の映像コンテンツを抽出する。具体的には、機器属性データのIoT機器IDが「A012345」である複合機の場合、IoT機器1004の表示部302には、クラウドサーバ1001から「参加型」の運動の映像コンテンツが配信される。   If the location information of the extracted device attribute data indicates a private location (YES in S1402), in step S1405, participation-type video content that the user 1002 can exercise at the installation location of the IoT device 1004 is extracted. Specifically, in the case of a multifunction peripheral whose IoT device ID of the device attribute data is “A012345”, video content of “participatory” exercise is distributed from the cloud server 1001 to the display unit 302 of the IoT device 1004. .

一方、機器属性制御部404は、抽出した機器属性データの場所情報がパブリックな場所を示す場合、ユーザ1002の視聴により運動意識を高めさせる「意識型」の運動の映像コンテンツを抽出する処理を行う(S1406)。   On the other hand, when the location information of the extracted device attribute data indicates a public location, the device attribute control unit 404 performs processing for extracting video content of “consciousness” exercise that increases exercise awareness by viewing the user 1002. (S1406).

機器属性データのIoT機器IDが図10の「R010210」である電子レンジの場合、電子レンジのディスプレイには、「意識型」の運動の映像コンテンツが配信される。   In the case of a microwave oven in which the IoT device ID of the device attribute data is “R010210” in FIG. 10, video content of “consciousness” exercise is distributed to the display of the microwave oven.

つまり、ステップS1402、S1403、S1405、S1406から、パブリックな場所であっても、ユーザ1002が人目を気にしない場合は、「参加型」の運動の映像コンテンツがIoT機器1004に配信される。また、ユーザ1002が人目を気にする場合は、「意識型」の運動の映像コンテンツがIoT機器1004に配信される。   That is, from steps S1402, S1403, S1405, and S1406, even if the user 1002 does not care about the eye even in a public place, the video content of “participatory” exercise is distributed to the IoT device 1004. When the user 1002 cares about the eye, the video content of the “conscious” exercise is distributed to the IoT device 1004.

ステップS1405又はステップS1406を経て、次に、抽出された運動の映像コンテンツの映像メタデータは、通信部201を介してIoT機器1004へ配信される(S1407)。つまり、機器属性制御部404は、通信部201を介して、抽出された運動の映像コンテンツをIoT機器1004へ配信する。   After step S1405 or step S1406, the video metadata of the extracted motion video content is distributed to the IoT device 1004 via the communication unit 201 (S1407). That is, the device attribute control unit 404 distributes the extracted motion video content to the IoT device 1004 via the communication unit 201.

IoT機器1004は、取得した映像メタデータから、クラウドサーバ1001上の映像コンテンツ記憶部203に記憶されている映像コンテンツを取得し、この映像コンテンツを再生する。   The IoT device 1004 acquires the video content stored in the video content storage unit 203 on the cloud server 1001 from the acquired video metadata, and reproduces this video content.

次に、再生履歴制御部403は、IoT機器1004へ配信した運動の映像コンテンツを構成する映像メタデータを、ユーザIDおよびIoT機器IDと共に、再生履歴記憶部211に記録することで、再生履歴データを更新する(S1408)。   Next, the playback history control unit 403 records the video metadata constituting the motion video content distributed to the IoT device 1004 in the playback history storage unit 211 together with the user ID and the IoT device ID, thereby playing the playback history data. Is updated (S1408).

再生履歴データとして、図7の日時「2016−10−29 20:00」に、ユーザID「12345」が利用したIoT機器ID「A012345」に対し、「参加型」の運動の映像コンテンツである主映像ID「0001」、素材映像ID「0001−01、0001−02、0001−03、0001−03、0001−03」を記録する。これにより、ユーザ1002は、「参加型」の運動の映像コンテンツを見ながら運動したり、「意識型」の運動の映像コンテンツを見ることで意識を高めたりすることができる。   As the playback history data, the main video content is “participatory” exercise content for the IoT device ID “A012345” used by the user ID “12345” at the date “2016-10-29 20:00” in FIG. Video ID “0001” and material video IDs “0001-01, 0001-02, 0001-03, 0001-03, 0001-03” are recorded. As a result, the user 1002 can exercise while watching the video content of the “participatory type” exercise, or can raise awareness by watching the video content of the “conscious type” exercise.

次に、図15のステップS1405について、図16を用いて説明する。   Next, step S1405 in FIG. 15 will be described with reference to FIG.

図16は、本実施の形態における「参加型」の運動の映像コンテンツを抽出する処理の一例を示すフローチャートである。   FIG. 16 is a flowchart illustrating an example of processing for extracting video content of “participatory” exercise in the present embodiment.

図16に示すように、まず、映像メタデータマッチング部406は、ユーザ属性データとマッチングテーブル210とから、ユーザ1002に適した映像コンテンツの候補を抽出する。まず、映像メタデータマッチング部406は、ユーザ属性データの質問と回答とのペアに基づいて、マッチングテーブル210を用いてユーザ属性データの質問と回答とに対応する候補運動タイトルを特定し、スコアを抽出する(S1501)。   As shown in FIG. 16, first, the video metadata matching unit 406 extracts video content candidates suitable for the user 1002 from the user attribute data and the matching table 210. First, the video metadata matching unit 406 specifies a candidate exercise title corresponding to the question and answer of the user attribute data using the matching table 210 based on the pair of the question and answer of the user attribute data, and obtains a score. Extract (S1501).

具体的には、図3及び図6に示すように、ユーザID「12345」のユーザ1002のユーザ属性データの質問「機能改善」に対する回答が「肩こり」であるので、映像メタデータマッチング部406は、マッチングテーブル210の項目1「機能改善」、項目2「肩こり」に合致する候補運動タイトル「肩回し」(スコア「10」)、候補運動タイトル「ベントオーバーY」(スコア「8」)、及び、候補運動タイトル「90/90ストレッチ」(スコア「7」)を抽出し、それぞれの主映像IDを特定する。   Specifically, as shown in FIGS. 3 and 6, the answer to the question “function improvement” of the user attribute data of the user 1002 of the user ID “12345” is “stiff shoulder”, so the video metadata matching unit 406 , Candidate exercise title “shoulder turn” (score “10”) matching the item 1 “function improvement”, item 2 “stiff shoulder” of the matching table 210, candidate exercise title “bent over Y” (score “8”), and The candidate exercise title “90/90 stretch” (score “7”) is extracted, and each main video ID is specified.

また、映像メタデータマッチング部406は、他のユーザ1002が所有するウェアラブル機器1003の端末属性データも映像コンテンツの抽出に利用する。ユーザID「33445」のユーザ1002が所有するウェアラブル機器ID「S012345」の歩数計によって、計測された歩数が4000歩である場合、映像メタデータマッチング部406は、マッチングテーブル210から合致する項目1「歩数」、項目2「<5000」、抽出の候補運動タイトル「骨盤回旋」、スコア「6」を抽出し、それぞれの主映像IDを特定する。   The video metadata matching unit 406 also uses terminal attribute data of the wearable device 1003 owned by another user 1002 to extract video content. When the number of steps measured by the pedometer of the wearable device ID “S012345” owned by the user 1002 of the user ID “33445” is 4000 steps, the video metadata matching unit 406 matches the item 1 “ The number of steps ”, item 2“ <5000 ”, extraction candidate exercise title“ pelvic rotation ”, and score“ 6 ”are extracted, and the main video ID is specified.

次に、映像メタデータマッチング部406は、IoT機器1004の再生履歴データを確認する(S1502)。つまり、映像メタデータマッチング部406は、再生履歴データの中に合致するユーザIDがあるか否かを判断する。   Next, the video metadata matching unit 406 confirms the reproduction history data of the IoT device 1004 (S1502). That is, the video metadata matching unit 406 determines whether there is a matching user ID in the reproduction history data.

再生履歴記憶部211に記憶される再生履歴データに、合致するユーザIDがない場合(S1502でNOの場合)、ステップS1504の処理へ進む。   If there is no matching user ID in the reproduction history data stored in the reproduction history storage unit 211 (NO in S1502), the process proceeds to step S1504.

再生履歴記憶部211に記憶される再生履歴データに、合致するユーザIDがある場合(S1502でYESの場合)、ステップS1503の処理へ進む。   If there is a matching user ID in the reproduction history data stored in the reproduction history storage unit 211 (YES in S1502), the process proceeds to step S1503.

次に、映像メタデータマッチング部406は、抽出した候補運動タイトルの中で、再生履歴データに含まれる主映像IDのスコアを更新する(S1503)。   Next, the video metadata matching unit 406 updates the score of the main video ID included in the reproduction history data in the extracted candidate exercise title (S1503).

具体的には、図6及び図7のユーザIDが「12345」であるユーザ1002の場合、このユーザIDに合致する再生履歴データがあり、主映像IDが「0001」であるので、映像メタデータマッチング部406は、抽出した映像コンテンツの中で、主映像IDが「0001」である、肩回しのスコア「10」から例えば「5」を引くことで、抽出した映像コンテンツのスコア「5」とする。こうして、抽出された映像コンテンツのスコアは更新される。すると、候補運動タイトル「ベントオーバーY」のスコアが「8」となり、候補運動タイトル「90/90ストレッチ」のスコアが「7」となり、候補運動タイトル「肩回し」のスコアが「5」となる。   Specifically, in the case of the user 1002 whose user ID is “12345” in FIGS. 6 and 7, there is reproduction history data that matches this user ID, and the main video ID is “0001”. The matching unit 406 subtracts, for example, “5” from the shoulder rotation score “10” having the main video ID “0001” in the extracted video content, thereby obtaining the score “5” of the extracted video content. To do. Thus, the score of the extracted video content is updated. Then, the score of the candidate exercise title “Bent Over Y” is “8”, the score of the candidate exercise title “90/90 Stretch” is “7”, and the score of the candidate exercise title “Shoulder” is “5”. .

このようにスコアを更新することにより、ユーザ1002が同一のIoT機器1004を利用するたびに異なる運動の映像コンテンツを提供することができる。   By updating the score in this way, it is possible to provide video content with different exercises every time the user 1002 uses the same IoT device 1004.

次に、映像メタデータマッチング部406は、候補運動タイトルの映像コンテンツで映像メタデータの「実施体勢」が「立位」の映像コンテンツの中から最も高いスコアの候補運動タイトルを選択することで、運動の映像コンテンツを1つに絞り込む(S1504)。   Next, the video metadata matching unit 406 selects the candidate exercise title with the highest score from the video content of the candidate exercise title with the “implementation status” of the video metadata being “standing”, The motion picture content is narrowed down to one (S1504).

具体的には、図5A及ぶ図6に示すように、抽出した候補運動タイトル「肩回し」、「ベントオーバーY」及び「90/90ストレッチ」のうち、映像メタデータの「実施体勢」が「立位」である「肩回し」及び「ベントオーバーY」が候補となる。候補運動タイトル「肩回し」と「ベントオーバー」とのうち、スコアが高いのは「肩回し」であるので、「肩回し」を配信する映像コンテンツに決定する。なお、候補運動タイトルを1つに絞り込めない場合は、予め設定した候補運動タイトルを映像コンテンツとしてもよい。   Specifically, as shown in FIG. 5A and FIG. 6, among the extracted candidate exercise titles “shoulder rotation”, “bent over Y”, and “90/90 stretch”, the “implementation posture” of the video metadata is “ "Standing" and "Bent over Y" which are standing positions are candidates. Of the candidate exercise titles “shoulder turning” and “bent over”, “shoulder turning” has the highest score, so “shoulder turning” is determined as the video content to be distributed. In addition, when a candidate exercise title cannot be narrowed down to one, a preset candidate exercise title may be used as the video content.

映像メタデータ取得部405は、映像メタデータを参照し、映像メタデータマッチング部406が抽出した映像コンテンツの主映像IDから、主映像IDに関する素材映像メタデータを取得する。   The video metadata acquisition unit 405 refers to the video metadata and acquires material video metadata related to the main video ID from the main video ID of the video content extracted by the video metadata matching unit 406.

映像メタデータ取得部405は、候補運動コンテンツ「肩回し」の主映像ID「0001」から素材映像メタデータの主映像ID「0001」の素材映像メタデータを取得する。   The video metadata acquisition unit 405 acquires material video metadata of the main video ID “0001” of the material video metadata from the main video ID “0001” of the candidate exercise content “shoulder rotation”.

次に、図16に示すように、映像尺調整部401は、機器属性データのオペレーション時間「L」に基づいて、配信する運動の映像コンテンツの再生時間「m」を調整する。映像尺調整部401は、再生時間を調整する素材映像の配列を、構成タイプがタイトルコール、解説、1カウントのこの順とする。映像尺調整部401は、構成タイプ「タイトルコール」の再生時間をmとする(S1505)。   Next, as shown in FIG. 16, the video scale adjustment unit 401 adjusts the reproduction time “m” of the video content of the exercise to be distributed based on the operation time “L” of the device attribute data. The video scale adjustment unit 401 sets the arrangement of the material video for adjusting the reproduction time in this order of the configuration type of title call, explanation, and 1 count. The video scale adjustment unit 401 sets the reproduction time of the configuration type “title call” to m (S1505).

次に、映像尺調整部401は、再生時間mがオペレーション時間L未満であるか否かを判定する(S1506)。   Next, the video scale adjustment unit 401 determines whether or not the reproduction time m is less than the operation time L (S1506).

m<Lである場合(S1506でYESの場合)、ステップS1507へ処理を進め、m≧Lである場合(S1506でNOの場合)、ステップS1511へ処理を進める。   If m <L (YES at S1506), the process proceeds to step S1507. If m ≧ L (NO at S1506), the process proceeds to step S1511.

次に、映像尺調整部401は、ステップS1505による再生時間mの運動の映像コンテンツに、構成タイプが「解説」である素材の映像を付加する(S1507)。つまり、ステップS1505での運動の映像コンテンツの再生時間mに、構成タイプ「解説」の素材の映像の再生時間が加算される。   Next, the video scale adjustment unit 401 adds the video of the material whose configuration type is “commentary” to the video content of the motion with the reproduction time m in step S1505 (S1507). That is, the playback time of the video of the material of the configuration type “commentary” is added to the playback time m of the motion video content in step S1505.

再生時間mが、オペレーション時間L未満であるか否かを判定する(S1508)。   It is determined whether the reproduction time m is less than the operation time L (S1508).

m<Lである場合(S1508でYESの場合)、S1509へ処理を進め、m≧Lである場合(S1508でNOの場合)、S1511へ処理を進める。   If m <L (YES in step S1508), the process advances to step S1509. If m ≧ L (NO in step S1508), the process advances to step S1511.

次に、映像尺調整部401は、ステップS1507での再生時間mの運動の映像コンテンツに構成タイプが「1カウント」である素材の映像を付加する(S1509)。つまり、運動の映像コンテンツの再生時間mに、構成タイプ「1カウント」の素材の映像の再生時間が加算される。   Next, the video scale adjustment unit 401 adds the video of the material whose configuration type is “1 count” to the video content of the motion with the reproduction time m in step S1507 (S1509). That is, the playback time of the video of the material of the configuration type “1 count” is added to the playback time m of the motion picture content.

次に、映像尺調整部401は、ステップS1509による運動の映像コンテンツの再生時間mがオペレーション時間L未満であるか否かを判定する(S1510)。   Next, the video scale adjustment unit 401 determines whether or not the playback time m of the motion video content in step S1509 is less than the operation time L (S1510).

m<Lである場合(S1510でYESの場合)、映像尺調整部401は、ステップS1509による再生時間mの運動の映像コンテンツに、さらに、構成タイプ「1カウント」である素材の映像を付加しても、m<Lとなるか否かを判断する(S1512)。   If m <L (YES in step S1510), the video scale adjustment unit 401 further adds a video of the material having the configuration type “1 count” to the video content of the motion with the playback time m in step S1509. However, it is determined whether m <L or not (S1512).

ステップS1509による再生時間mの運動の映像コンテンツに、さらに、構成タイプ「1カウント」である素材の映像を付加しても、m<Lとなる場合(S1512でYESの場合)、映像尺調整部401は、S1509へ処理を戻す。   If the video content of the motion with the playback time m in step S1509 is further added with the video of the material having the configuration type “1 count”, if m <L (YES in S1512), the video scale adjustment unit 401 returns the processing to S1509.

一方、ステップS1509による再生時間mの運動の映像コンテンツに、さらに、構成タイプ「1カウント」である素材の映像を付加すると、m≧Lとなる場合(S1512でNOの場合)、映像尺調整部401は、S1511へ処理を進める。   On the other hand, if a video of the material having the configuration type “1 count” is further added to the video content of the motion with the playback time m in step S1509, if m ≧ L (NO in S1512), the video scale adjustment unit 401 advances the processing to S1511.

m≧Lである場合(S1510でNOの場合)、S1511へ処理を進める。   If m ≧ L (NO in S1510), the process proceeds to S1511.

次に、映像尺調整部401は、再生時間mがオペレーション時間L以上の素材映像メタデータで運動の映像コンテンツを作成する(S1511)。   Next, the video scale adjustment unit 401 creates motion video content with material video metadata having a playback time m equal to or longer than the operation time L (S1511).

なお、映像尺調整部401は、例えばオペレーション時間Lを超過した分の運動の映像コンテンツのカット、又は、ステップS1509で最後に追加した構成タイプ「1カウント」である素材の映像の削除を行い、再生時間mがオペレーション時間L以上の素材映像メタデータで運動の映像コンテンツを作成してもよい。   Note that the video scale adjusting unit 401 performs, for example, cutting motion video content that exceeds the operation time L, or deleting the video of the material of the configuration type “1 count” added last in step S1509, Motion video content may be created with material video metadata having a playback time m equal to or longer than the operation time L.

図5B及び図16で示すように、具体的には、映像尺調整部401は、タイトルが「肩回し」である主映像ID「0001」の素材映像メタデータのうち、素材映像ID「0001−01」、「0001−02」、「0001−03」の再生時間を計算しながら運動の映像コンテンツを生成する。映像尺調整部401は、最初に素材映像メタデータを構成タイプが「タイトルコール」である素材映像ID「0001−01」(再生時間「2」)の素材の映像を配置する。次に、映像尺調整部401は、さらに、構成タイプが「解説」である素材映像ID「0001−02」(再生時間「12」)の素材の映像を付加する。次に、映像尺調整部401は、さらに、構成タイプが「1カウント」である素材映像ID「0001−03」(再生時間「5」)の素材の映像を付加する。ここまでの合計の再生時間が「19」であり、残りの再生時間が「11」であるので、映像尺調整部401は、さらに、構成タイプが「1カウント」である素材映像ID「0001−03」(再生時間「5」)の素材の映像を2回繰り返して付加する。運動の映像コンテンツは、合計の再生時間が「29」となり、オペレーション時間の「30」に収まる。このように、映像尺調整部401は、この素材映像IDの素材映像メタデータの順になるように映像コンテンツを生成する。   As shown in FIG. 5B and FIG. 16, specifically, the video scale adjustment unit 401 includes the material video ID “0001−” among the material video metadata of the main video ID “0001” whose title is “shouldering”. The motion picture content is generated while calculating the playback time of “01”, “0001-02”, and “0001-03”. The video scale adjustment unit 401 first arranges the material video metadata of the material of the material video ID “0001-01” (reproduction time “2”) whose composition type is “title call”. Next, the video scale adjustment unit 401 further adds a video of the material with the material video ID “0001-02” (reproduction time “12”) whose configuration type is “commentary”. Next, the video scale adjustment unit 401 further adds a video of the material with the material video ID “0001-03” (reproduction time “5”) whose configuration type is “1 count”. Since the total playback time so far is “19” and the remaining playback time is “11”, the video scale adjustment unit 401 further includes the material video ID “0001-” whose configuration type is “1 count”. The video of the material “03” (reproduction time “5”) is repeatedly added twice. The video content of the exercise has a total playback time of “29” and falls within the operation time of “30”. In this way, the video scale adjustment unit 401 generates video content in the order of the material video metadata of the material video ID.

図17は、本実施の形態における、「意識型」の運動の映像コンテンツを抽出する処理の一例を示すフローチャートである。図17では、S1501からS1503までが図16の「参加型」の運動の映像コンテンツを抽出するフローチャートと同様であるため、同様の記載についてはその説明を省略する。   FIG. 17 is a flowchart showing an example of processing for extracting video content of “consciousness-type” exercise in the present embodiment. In FIG. 17, steps S1501 to S1503 are the same as the flowchart for extracting the video content of the “participatory type” exercise in FIG.

図3及び図6に示すように、ユーザIDが「12345」であるユーザ1002のユーザ属性データの質問「機能改善」に対する回答が「肩こり」であるので、映像メタデータマッチング部406は、マッチングテーブル210の項目1「機能改善」、項目2「肩こり」に合致する候補運動タイトル「肩回し」(スコア「10」)、候補運動タイトル「ベントオーバーY」(スコア「8」)、及び、候補運動タイトル「90/90ストレッチ」(スコア「7」)を抽出し、主映像IDを特定する。   As shown in FIGS. 3 and 6, since the answer to the question “functional improvement” of the user attribute data of the user 1002 whose user ID is “12345” is “shoulder”, the video metadata matching unit 406 includes a matching table. 210, candidate exercise title “shoulder turn” (score “10”), candidate exercise title “bent over Y” (score “8”), and candidate exercise that match item 1 “function improvement”, item 2 “stiff shoulder” The title “90/90 stretch” (score “7”) is extracted, and the main video ID is specified.

映像メタデータ取得部405は、映像メタデータを参照し、映像メタデータマッチング部406が抽出した映像コンテンツの主映像IDから、主映像IDに関する素材映像メタデータを取得する。   The video metadata acquisition unit 405 refers to the video metadata and acquires material video metadata related to the main video ID from the main video ID of the video content extracted by the video metadata matching unit 406.

映像メタデータ取得部405は、候補運動コンテンツ「肩回し」、「ベントオーバーY」、「90/90ストレッチ」の主映像ID「0001」、「0002」、「0003」から素材映像メタデータの主映像ID「0001」、「0002」、「0003」の素材映像メタデータを取得する。こうして、ステップS1501〜ステップS1503の処理が行われる。   The video metadata acquisition unit 405 stores the main material video metadata from the main video IDs “0001”, “0002”, and “0003” of the candidate motion contents “shoulder rotation”, “bent over Y”, and “90/90 stretch”. The material video metadata of the video IDs “0001”, “0002”, and “0003” is acquired. In this way, the processing from step S1501 to step S1503 is performed.

図17に示すように、映像尺調整部401は、機器属性データのオペレーション時間「L」に基づいて、配信する運動の映像コンテンツの再生時間「m」を調整する。映像尺調整部401は、再生時間を調整する素材の映像の配列を、構成タイプがタイトルコール、解説のこの順とする。映像尺調整部401は、映像メタデータマッチング部406で抽出した候補運動タイトルのそれぞれの「タイトルコール」の再生時間をmとする(S1604)。   As shown in FIG. 17, the video scale adjustment unit 401 adjusts the reproduction time “m” of the video content of the exercise to be distributed based on the operation time “L” of the device attribute data. The video scale adjustment unit 401 sets the arrangement of the video of the material for adjusting the reproduction time in this order of the title type and explanation. The video scale adjustment unit 401 sets m as the reproduction time of each “title call” of the candidate exercise titles extracted by the video metadata matching unit 406 (S1604).

次に、映像尺調整部401は、再生時間mがオペレーション時間L未満であるか否かを判定する(S1605)。   Next, the video scale adjustment unit 401 determines whether or not the reproduction time m is less than the operation time L (S1605).

m<Lである場合(S1605でYESの場合)、ステップS1606へ処理を進め、m≧Lである場合(S1605でNOの場合)、S1607へ処理を進める。   If m <L (YES in step S1605), the process proceeds to step S1606. If m ≧ L (NO in step S1605), the process proceeds to step S1607.

次に、映像尺調整部401は、ステップS1507での再生時間mの運動の映像コンテンツに、映像メタデータマッチング部406で抽出した候補運動タイトルのそれぞれの「解説」の素材の映像を付加する(S1606)。つまり、運動の映像コンテンツの再生時間mに、候補運動タイトルの「解説」である素材の映像の再生時間が加算される。   Next, the video scale adjustment unit 401 adds the video of each “explanation” material of the candidate exercise title extracted by the video metadata matching unit 406 to the video content of the exercise with the playback time m in step S1507 ( S1606). That is, the playback time of the video of the material that is the “explanation” of the candidate motion title is added to the playback time m of the motion picture content.

次に、映像尺調整部401は、再生時間mがオペレーション時間L以下である素材映像メタデータで運動の映像コンテンツを生成する(S1607)。   Next, the video scale adjustment unit 401 generates motion video content using material video metadata whose playback time m is equal to or shorter than the operation time L (S1607).

図7に示すように、例えば、機器属性データのIoT機器1004のIoT機器IDが「R010210」である電子レンジのオペレーション時間が40秒であるので、40秒で「意識型」の運動の映像コンテンツを生成する。   As shown in FIG. 7, for example, since the operation time of the microwave oven whose IoT device ID of the IoT device 1004 of the device attribute data is “R010210” is 40 seconds, the video content of the “conscious” exercise in 40 seconds. Is generated.

図6に示すように、映像尺調整部401は、候補運動タイトルが「肩回し」である主映像ID「0001」、候補運動タイトルが「ベントオーバーY」である主映像ID「0002」、及び、候補運動タイトル「90/90ストレッチ」である主映像ID「0003」のそれぞれの素材メタデータから映像コンテンツを生成する。   As shown in FIG. 6, the video scale adjustment unit 401 includes a main video ID “0001” whose candidate exercise title is “shoulder rotation”, a main video ID “0002” whose candidate exercise title is “bent over Y”, and The video content is generated from the respective material metadata of the main video ID “0003” which is the candidate exercise title “90/90 stretch”.

図5Bに示すように、具体的には、生成される映像コンテンツの最初に、素材映像メタデータの構成タイプが「タイトルコール」である素材映像ID「0001−01」(再生時間「2」)の素材の映像を配置する。次に、映像尺調整部401は、さらに、素材映像メタデータの構成タイプが「タイトルコール」である素材映像ID「0002−01」(再生時間「2」)の素材の映像を付加する。次に、映像尺調整部401は、さらに、素材映像メタデータの構成タイプが「タイトルコール」である素材映像ID「0003−01」(再生時間「2」)の素材の映像を付加する。ここまでの合計の再生時間が「6」であるので、さらに、素材映像メタデータの構成タイプが「解説」である素材映像ID「0001−02」(再生時間「12」)の素材の映像を付加する。映像尺調整部401は、さらに、素材映像メタデータの構成タイプが「解説」である素材映像ID「0002−02」(再生時間「10」)の素材の映像を付加し、素材映像メタデータの構成タイプが「解説」である素材映像ID「0003−02」(再生時間「10」)の素材の映像を付加する。運動の映像コンテンツは、合計の再生時間が「39」となり、オペレーション時間の「40」におさまる。このように、映像尺調整部401は、素材映像ID「0001−01」、「0001−02」、「0002−01」、「0002−02」、「0003−01」、「0003−02」の順になるように映像コンテンツを生成する。   As shown in FIG. 5B, specifically, at the beginning of the generated video content, the material video ID “0001-01” (reproduction time “2”) whose composition type of the material video metadata is “title call”. Place video of the material. Next, the video scale adjustment unit 401 further adds a video of the material with the material video ID “0002-01” (reproduction time “2”) whose configuration type of the material video metadata is “title call”. Next, the video scale adjustment unit 401 further adds the video of the material having the material video ID “0003-01” (reproduction time “2”) whose material video metadata has the configuration type “title call”. Since the total playback time so far is “6”, the video of the material with the material video ID “0001-02” (playback time “12”) whose composition type of the material video metadata is “commentary” is further displayed. Append. The video scale adjustment unit 401 further adds a video of the material having the material video ID “0002-02” (reproduction time “10”) whose composition type of the material video metadata is “commentary”. An image of a material having a material image ID “0003-02” (reproduction time “10”) having a configuration type of “commentary” is added. The video content of the exercise has a total playback time of “39” and falls within the operation time of “40”. As described above, the video scale adjustment unit 401 has the material video IDs “0001-01”, “0001-02”, “0002-01”, “0002-02”, “0003-01”, and “0003-02”. Video content is generated in order.

[作用効果]
次に、本実施の形態における情報処理方法、情報処理システムおよびクラウドサーバ1001の作用効果について説明する。
[Function and effect]
Next, the effects of the information processing method, the information processing system, and the cloud server 1001 according to the present embodiment will be described.

上述したように、本実施の形態に係る情報処理方法では、IoT機器1004から受信したユーザIDに紐付けられた、少なくとも最もスコアの高いユーザ属性データを記憶装置から抽出する。また、情報処理方法では、抽出した映像コンテンツの再生時間を運転時間以内に調節し、調節した映像コンテンツをクラウドサーバ1001がIoT機器1004へ配信する。IoT機器1004がクラウドサーバ1001から受信した映像コンテンツを出力することで、運動習慣のないユーザ1002であっても、ユーザ1002が日常的に使用するIoT機器1004を介して映像コンテンツを認識することができる。   As described above, in the information processing method according to the present embodiment, at least the user attribute data with the highest score associated with the user ID received from the IoT device 1004 is extracted from the storage device. In the information processing method, the playback time of the extracted video content is adjusted within the operation time, and the cloud server 1001 distributes the adjusted video content to the IoT device 1004. By outputting the video content received from the cloud server 1001 by the IoT device 1004, even if the user 1002 has no exercise habits, the user 1002 can recognize the video content via the IoT device 1004 that is routinely used. it can.

したがって、この情報処理方法では、ユーザ1002に応じた映像コンテンツを抽出することで、ユーザ1002に映像コンテンツを効率的に提供することができる。   Therefore, in this information processing method, the video content can be efficiently provided to the user 1002 by extracting the video content corresponding to the user 1002.

特に、この情報処理方法では、繰り返し映像コンテンツを配信すれば、ユーザ1002に繰り返しトレーニングの映像コンテンツを見せることができる。このため、ユーザ1002の嗜好にあった映像コンテンツを、ユーザ1002が日常的に利用するIoT機器1004に配信できるので、ユーザ1002が運動の映像コンテンツに触れる機会を増やすことができる。   In particular, in this information processing method, if video content is distributed repeatedly, the user 1002 can be shown video content for repeated training. For this reason, since the video content suitable for the user 1002 can be distributed to the IoT device 1004 that the user 1002 uses on a daily basis, the opportunity for the user 1002 to touch the motion video content can be increased.

また、ユーザ1002が使用するIoT機器1004の規定の運転を行う期間に合わせて、ユーザ1002の嗜好にあった映像コンテンツを配信することができるので、ユーザ1002の日常生活の隙間時間を運動意識の向上に役立てることができる。   In addition, since the video content suitable for the user's 1002 preference can be distributed in accordance with the prescribed operation of the IoT device 1004 used by the user 1002, the gap time in the daily life of the user 1002 can be reduced. It can be used for improvement.

情報処理システム及びクラウドサーバ1001においても、上述と同様の作用効果を奏する。   The information processing system and the cloud server 1001 also have the same effects as described above.

また、本実施の形態に係る情報処理方法では、抽出した機器属性データの場所情報がプライベートな場所を示す場合、参加型の映像コンテンツを抽出する。このため、ユーザ1002は、人目を気にしないプライベートな場所で、IoT機器1004から出力される運動の映像コンテンツにあわせて、IoT機器1004の設置場所で運動することができる。このため、情報処理方法では、ユーザ1002に運動習慣を定着させることができる。この情報処理方法では、ユーザ1002に映像コンテンツを効率的に提供することができる。   In addition, in the information processing method according to the present embodiment, when the location information of the extracted device attribute data indicates a private location, participatory video content is extracted. For this reason, the user 1002 can exercise at a place where the IoT device 1004 is installed in a private place where the IoT device 1004 is output in a private place where the user does not care. For this reason, in the information processing method, exercise habits can be fixed for the user 1002. In this information processing method, video content can be efficiently provided to the user 1002.

また、本実施の形態に係る情報処理方法では、抽出した機器属性データの場所情報がパブリックな場所を示す場合、意識型の映像コンテンツを抽出する。このため、ユーザ1002は、人目を気にするパブリックな場所で、IoT機器1004から出力される運動の映像コンテンツを視聴することで運動意識を高めることができる。この情報処理方法では、ユーザ1002に映像コンテンツを効率的に提供することができる。   In the information processing method according to the present embodiment, when the location information of the extracted device attribute data indicates a public location, conscious video content is extracted. For this reason, the user 1002 can raise exercise consciousness by viewing the video content of exercise output from the IoT device 1004 in a public place where attention is paid to the eyes. In this information processing method, video content can be efficiently provided to the user 1002.

また、本実施の形態に係る情報処理方法では、再生履歴データに記憶された映像コンテンツに紐付けられた第2の組のスコアを、現状のスコアから下げたスコアに更新する。このため、同じユーザに異なる映像コンテンツを提供することができる、つまり、同じユーザ1002に対し、同じ運動の映像コンテンツを続けて配信することが回避されるので、ユーザ1002の運動意識の低下を防ぐことができる。   In the information processing method according to the present embodiment, the second set of scores associated with the video content stored in the reproduction history data is updated to a score lower than the current score. For this reason, different video contents can be provided to the same user, that is, it is avoided to continuously deliver video content of the same exercise to the same user 1002, thus preventing a decrease in the exercise awareness of the user 1002. be able to.

また、本実施の形態に係る情報処理方法では、ユーザ1002が所有するウェアラブル機器1003で計測されたユーザ1002の活動量を含んだ第3の組に紐付けられたスコアに基づいて、映像コンテンツをマッチングテーブル210の中から抽出する。このため、活動量に基づき、運動の映像コンテンツを抽出するので、より効果的な映像コンテンツを提供することができる。   In the information processing method according to the present embodiment, the video content is obtained based on the score associated with the third set including the activity amount of the user 1002 measured by the wearable device 1003 owned by the user 1002. Extract from the matching table 210. For this reason, since motion video content is extracted based on the amount of activity, more effective video content can be provided.

また、本実施の形態に係る情報処理方法では、配信したことのある映像コンテンツをユーザ属性データに紐付けて、ユーザ属性データを更新する。このため、ユーザ1002が一度視聴したことのある運動の映像コンテンツを、後から見返すことができる。この情報処理方法では、ユーザ1002に映像コンテンツを効率的に提供することができる。   Further, in the information processing method according to the present embodiment, the video content that has been distributed is linked to the user attribute data, and the user attribute data is updated. For this reason, it is possible to look back on the motion picture content that the user 1002 has watched once. In this information processing method, video content can be efficiently provided to the user 1002.

(実施の形態2)
実施の形態2に係る情報処理方法について説明する。
(Embodiment 2)
An information processing method according to Embodiment 2 will be described.

本実施の形態の情報処理方法では、IoT機器1004の設置場所付近でユーザ1002が運動可能なスペースがあるか否かを判断する点で実施の形態1と異なる。このため、実施の形態2の情報処理方法では、実施の形態1の情報処理方法と共通する構成については実施の形態1と同様の符号が付されている。以下では、実施の形態1と異なる構成についてのみ説明して、実施の形態1と共通する構成については説明を省略する。   The information processing method of this embodiment is different from that of Embodiment 1 in that it is determined whether or not there is a space where the user 1002 can exercise near the place where the IoT device 1004 is installed. For this reason, in the information processing method of Embodiment 2, the same code | symbol as Embodiment 1 is attached | subjected about the structure which is common in the information processing method of Embodiment 1. FIG. Hereinafter, only the configuration different from the first embodiment will be described, and the description of the configuration common to the first embodiment will be omitted.

機器属性記憶部209には、1以上の、IoT機器IDとIoT機器1004の設置場所でユーザ1002が運動可能なスペースがあるか否かを示す運動可否情報とを紐つけた機器属性データが記憶される。運動可否情報は、図10の運動の可否を示す。   The device attribute storage unit 209 stores one or more device attribute data in which an IoT device ID and exercise availability information indicating whether or not there is a space in which the user 1002 can exercise at the installation location of the IoT device 1004 are linked. Is done. The exercise availability information indicates the availability of exercise in FIG.

機器属性データは、IoT機器ID、名称、設置場所、場所、及び、オペレーション時間の他に、運動の可否を有する。運動の可否は、IoT機器1004が設置されている場所において、その場で、ユーザ1002が運動することができるか否かを示す。   In addition to the IoT device ID, name, installation location, location, and operation time, the device attribute data includes the availability of exercise. The availability of exercise indicates whether or not the user 1002 can exercise at the place where the IoT device 1004 is installed.

IoT機器IDとIoT機器1004の設置場所でユーザ1002が運動可能なスペースがあるか否かの判断は、機器属性制御部404が機器属性記憶部209に予め記憶されている運動可否情報に基づいて行う。具体的には、機器属性制御部404は、IoT機器IDに紐付けられた機器属性データを1以上の機器属性データの中から抽出し、IoT機器1004の設置場所で運動可能であるか否かを運動可否情報に基づいて判断する。運動可否情報がユーザ1002にとってIoT機器1004の設置場所で運動可能であることを示す場合、機器属性制御部404は、IoT機器1004の設置場所でユーザ1002が運動可能な参加型の映像コンテンツを抽出する。また、抽出した機器属性データの運動可否情報がユーザ1002にとってIoT機器1004の設置場所で運動不可能であることを示す場合、機器属性制御部404は、ユーザ1002の視聴により運動意識を高めさせる意識型の映像コンテンツを抽出する。   The device attribute control unit 404 determines whether there is a space in which the user 1002 can exercise at the installation location of the IoT device ID and the IoT device 1004 based on exercise availability information stored in the device attribute storage unit 209 in advance. Do. Specifically, the device attribute control unit 404 extracts device attribute data associated with the IoT device ID from one or more device attribute data, and determines whether or not exercise is possible at the place where the IoT device 1004 is installed. Is determined based on exercise availability information. When the exercise availability information indicates that the user 1002 can exercise at the installation location of the IoT device 1004, the device attribute control unit 404 extracts participation-type video content that the user 1002 can exercise at the installation location of the IoT device 1004. To do. When the exercise availability information in the extracted device attribute data indicates that the user 1002 cannot exercise at the location where the IoT device 1004 is installed, the device attribute control unit 404 is configured to increase the awareness of exercise by viewing the user 1002. Type video content.

図18は、本実施の形態における映像コンテンツの配信の一例を示すフローチャートである。   FIG. 18 is a flowchart illustrating an example of video content distribution according to the present embodiment.

図3及び図18に示すように、通信部201は、IoT機器1004より、ユーザIDと機器属性データとを受信する。ユーザ属性制御部402は、受信したユーザIDに合致するユーザ属性データを、ユーザ属性記憶部208から取得する(S1401)。   As illustrated in FIGS. 3 and 18, the communication unit 201 receives a user ID and device attribute data from the IoT device 1004. The user attribute control unit 402 acquires user attribute data that matches the received user ID from the user attribute storage unit 208 (S1401).

受信したユーザIDが「12345」である場合、ユーザ属性データは、ユーザIDが「12345」であり、性別が「男性」であり、年齢が「40」であり、ウェアラブル機器IDが「P011234」であり、質問が「1.機能改善,2.人目は?」であり、回答が「1.肩こり,2.気にしない」であり、お気に入りが「0123450101」である。なお、受信したユーザIDが「NULL」である場合、ユーザ属性データを取得できないので、受信した性別、年代を利用する。   When the received user ID is “12345”, the user attribute data includes the user ID “12345”, the gender “male”, the age “40”, and the wearable device ID “P011234”. Yes, the question is “1. Function improvement, 2. What is the person?”, The answer is “1. Stiff shoulder, 2. Don't care”, and the favorite is “0123450101”. If the received user ID is “NULL”, the user attribute data cannot be acquired, so the received sex and age are used.

次に、機器属性制御部404は、受信した機器属性データが、クラウドサーバ1001の機器属性記憶部209に登録されていることを確認する。機器属性記憶部209の登録が確認されれば、機器属性制御部404は、機器属性データの「場所」を確認する(S1402)。   Next, the device attribute control unit 404 confirms that the received device attribute data is registered in the device attribute storage unit 209 of the cloud server 1001. If the registration of the device attribute storage unit 209 is confirmed, the device attribute control unit 404 confirms the “location” of the device attribute data (S1402).

機器属性データの場所が「プライベート」である場合(S1402でYESの場合)、S1404へ進む。具体的には、機器属性データのIoT機器IDが「A012345」である場合、図10の場所は「プライベート」である。   If the location of the device attribute data is “private” (YES in S1402), the process proceeds to S1404. Specifically, when the IoT device ID of the device attribute data is “A012345”, the location in FIG. 10 is “private”.

機器属性データの場所が「パブリック」である場合(S1402でNOの場合)、S1403へ進む。具体的には、機器属性データのIoT機器IDが「R010210」である場合、図10の場所は「パブリック」である。   If the location of the device attribute data is “public” (NO in S1402), the process proceeds to S1403. Specifically, when the IoT device ID of the device attribute data is “R010210”, the location in FIG. 10 is “public”.

次に、ユーザ属性制御部402は、ユーザが人目を気にするか否かを、ユーザ属性データにおける質問「人目は?」の回答に基づいて確認する(S1403)。   Next, the user attribute control unit 402 confirms whether or not the user cares about the eye based on the answer to the question “What is the eye?” In the user attribute data (S1403).

回答が「気にしない」である場合(S1403でNOの場合)に、S1404へ進む。また、回答が「気にする」である場合(S1403でYESの場合)に、S1406へ進む。   If the answer is “don't care” (NO in S1403), the process proceeds to S1404. If the answer is “care” (YES in S1403), the process advances to S1406.

機器属性データのIoT機器IDが「R010210」である場合、場所は「パブリック」である。ユーザ属性データのユーザIDが「12345」である場合、質問の「2.人目は?」の回答は「2.気にしない」である。   When the IoT device ID of the device attribute data is “R010210”, the location is “public”. When the user ID of the user attribute data is “12345”, the answer “2. What is the person?” Of the question is “2. Don't care”.

なお、受信したユーザIDが「NULL」である場合は、ユーザ属性データがないので、例えば、人目を「気にしない」とする。   When the received user ID is “NULL”, there is no user attribute data, and for example, it is assumed that the user does not care.

次に、機器属性制御部404は、機器属性データの運動の可否を運動可否情報に基づいて確認する(S1404)。機器属性制御部404は、IoT機器IDに紐付けられた機器属性データを1以上の機器属性データの中から抽出し、IoT機器1004の設置場所で運動可能なスペースがあるか否かを運動可否情報に基づいて判断する。   Next, the device attribute control unit 404 confirms whether or not exercise of the device attribute data is possible based on the exercise availability information (S1404). The device attribute control unit 404 extracts device attribute data associated with the IoT device ID from one or more device attribute data, and determines whether or not there is a space that can be exercised at the installation location of the IoT device 1004. Judgment based on information.

機器属性制御部404は、機器属性データの運動の可否が、「可」である場合(S1404でYESの場合)、ユーザ1002が運動の映像コンテンツを見ながらその場で運動可能な参加型の映像のコンテンツを抽出する処理を行う(S1405)。機器属性データの例をあげると、機器属性制御部404は、図10に示すように、IoT機器1004のIoT機器IDが「A012345」である複合機であれば、機器属性データのうち、名称が「複合機」であり、設置住所が「大阪府XXXX、X棟Y階北エリア」であり、場所が「プライベート」であり、運動の可否が「可」であり、オペレーション時間が「30」秒である機器属性データを、機器属性記憶部209から取得する。そして、複合機のディスプレイには、クラウドサーバ1001から「参加型」の運動の映像コンテンツが表示される。   The device attribute control unit 404, when the device attribute data exercise is “possible” (YES in S1404), the user 1002 can participate in the exercise while watching the exercise video content. The content is extracted (S1405). As an example of the device attribute data, as shown in FIG. 10, the device attribute control unit 404 is a multifunction device whose IoT device ID of the IoT device 1004 is “A012345”. “MFP”, installation address “Osaka Prefecture XXX, X Building Y Floor North Area”, location “Private”, exercise availability “Yes”, and operation time “30” seconds Is obtained from the device attribute storage unit 209. Then, the video content of the “participatory” exercise is displayed from the cloud server 1001 on the display of the multifunction peripheral.

一方、機器属性制御部404は、機器属性データの運動の可否が「不可」である場合(S1404でNOの場合)、ユーザ1002の運動意識を向上させるための「意識型」の運動の映像のコンテンツを抽出する処理を行う(S1406)。機器属性データの例をあげると、機器属性制御部404は、図10に示すように、IoT機器1004のIoT機器IDが「R010210」である電子レンジであれば、機器属性データのうち、名称が「電子レンジ」であり、設置住所が「大阪府XXXX、Z棟X階食堂」であり、場所が「パブリック」であり、運動の可否が「不可」であり、オペレーション時間が「40」秒である機器属性データを、機器属性記憶部209から取得する。そして、電子レンジのディスプレイには、「意識型」の運動の映像コンテンツが表示される。   On the other hand, when the device attribute data 404 indicates that the exercise of the device attribute data is “impossible” (NO in S1404), the device attribute control unit 404 displays an image of “consciousness-type” exercise for improving the exercise awareness of the user 1002. Processing for extracting content is performed (S1406). As an example of the device attribute data, as shown in FIG. 10, the device attribute control unit 404 has the name of the device attribute data as long as it is a microwave oven whose IoT device ID of the IoT device 1004 is “R010210”. "Microwave", installation address is "Osaka Prefecture XXXX, Z Building X Floor Cafeteria", location is "Public", exercise availability is "impossible", operation time is "40" seconds Certain device attribute data is acquired from the device attribute storage unit 209. The video content of the “conscious” exercise is displayed on the display of the microwave oven.

ステップS1405又はステップS1406を経て、次に、抽出された運動の映像コンテンツの映像メタデータは、通信部201を介してIoT機器1004へ送信される(S1407)。つまり、機器属性制御部404は、通信部201を介して、抽出された運動の映像コンテンツをIoT機器1004へ配信する。   After step S1405 or step S1406, the video metadata of the extracted motion video content is transmitted to the IoT device 1004 via the communication unit 201 (S1407). That is, the device attribute control unit 404 distributes the extracted motion video content to the IoT device 1004 via the communication unit 201.

IoT機器1004は、取得した映像メタデータから、クラウドサーバ1001上の映像コンテンツ記憶部203に記憶されている映像コンテンツを取得し、この映像コンテンツを再生する。   The IoT device 1004 acquires the video content stored in the video content storage unit 203 on the cloud server 1001 from the acquired video metadata, and reproduces this video content.

次に、再生履歴制御部403は、IoT機器1004へ配信した運動の映像コンテンツを構成する映像メタデータを、ユーザIDおよびIoT機器IDと共に、再生履歴記憶部211に記録することで、再生履歴データを更新する(S1408)。   Next, the playback history control unit 403 records the video metadata constituting the motion video content distributed to the IoT device 1004 in the playback history storage unit 211 together with the user ID and the IoT device ID, thereby playing the playback history data. Is updated (S1408).

再生履歴データとして、図7の日時「2016−10−29 20:00」に、ユーザID「12345」が利用したIoT機器ID「A012345」に対し、「参加型」の運動の映像コンテンツである主映像ID「0001」、素材映像ID「0001−01、0001−02、0001−03、0001−03、0001−03」を記録する。   As the playback history data, the main video content is “participatory” exercise content for the IoT device ID “A012345” used by the user ID “12345” at the date “2016-10-29 20:00” in FIG. Video ID “0001” and material video IDs “0001-01, 0001-02, 0001-03, 0001-03, 0001-03” are recorded.

[作用効果]
次に、本実施の形態における情報処理方法の作用効果について説明する。
[Function and effect]
Next, the effect of the information processing method in this Embodiment is demonstrated.

上述したように、本実施の形態に係る情報処理方法は、運動可否情報がユーザ1002にとってIoT機器1004の設置場所で運動可能であることを示す場合、IoT機器1004の設置場所でユーザ1002が運動可能な参加型の映像コンテンツを抽出する。このため、情報処理方法では、ユーザ1002に運動習慣を定着させることができる。この情報処理方法では、ユーザ1002に映像コンテンツを効率的に提供することができる。   As described above, in the information processing method according to the present embodiment, when the exercise availability information indicates that the user 1002 can exercise at the installation location of the IoT device 1004, the user 1002 exercises at the installation location of the IoT device 1004. Extract possible participatory video content. For this reason, in the information processing method, exercise habits can be fixed for the user 1002. In this information processing method, video content can be efficiently provided to the user 1002.

また、本実施の形態に係る情報処理方法は、運動可否情報がユーザ1002にとってIoT機器1004の設置場所で運動不可能であることを示す場合、ユーザ1002の視聴により運動意識を高めさせる意識型の映像コンテンツを抽出する。このため、ユーザ1002は、IoT機器1004から出力される運動の映像コンテンツを視聴することで運動意識を高めることができる。この情報処理方法では、ユーザ1002に映像コンテンツを効率的に提供することができる。   In addition, the information processing method according to the present embodiment is a conscious type that increases the consciousness of exercise by viewing the user 1002 when the exercise availability information indicates that the user 1002 cannot exercise at the installation location of the IoT device 1004. Extract video content. Therefore, the user 1002 can increase exercise awareness by viewing the exercise video content output from the IoT device 1004. In this information processing method, video content can be efficiently provided to the user 1002.

本実施の形態における他の作用効果についても、実施の形態1と同様の作用効果を奏する。   The other operational effects in the present embodiment also have the same operational effects as in the first embodiment.

(その他変形例)
以上、本開示の実施の形態1、2に係る情報処理方法、情報処理システムおよびサーバについて説明したが、本開示の実施の形態1、2は上述の実施の形態1、2に限定されるものではない。
(Other variations)
The information processing method, the information processing system, and the server according to the first and second embodiments of the present disclosure have been described above, but the first and second embodiments of the present disclosure are limited to the first and second embodiments described above. is not.

例えば、上記実施の形態1、2において、図15及び図18では、ステップS1403のユーザが人目を気にするか否かの判断を省いてもよい。つまり、図15では、ステップS1402でYESの場合にS1405へ進み、ステップS1402でNOの場合にS1406へ進んでもよい。図18では、ステップS1402でYESの場合にS1404へ進み、ステップS1402でNOの場合にS1406へ進んでもよい。このため、ステップS1403は、必須の構成要件ではない。   For example, in the first and second embodiments, in FIG. 15 and FIG. 18, the determination of whether or not the user in step S1403 cares about the eyes may be omitted. That is, in FIG. 15, the process may proceed to S1405 if YES in step S1402, and may proceed to S1406 if NO in step S1402. In FIG. 18, the process may proceed to S1404 if YES in step S1402, and may proceed to S1406 if NO in step S1402. For this reason, step S1403 is not an essential component.

また、上記実施の形態1、2において、図15及び図18では、ステップS1408の再生履歴データの更新を省いてもよい。このため、ステップS1408は、必須の構成要件ではない。   In the first and second embodiments, the update of the reproduction history data in step S1408 may be omitted in FIGS. For this reason, step S1408 is not an essential component.

また、上記実施の形態1、2において、図15では、ステップS1402〜S1406を省いてもよい。この場合、図16又は図17のフローを用いて映像コンテンツを作成してもよい。このため、図15のステップS1402〜S1406は、必須の構成要件ではない。   In the first and second embodiments, steps S1402 to S1406 may be omitted in FIG. In this case, video content may be created using the flow of FIG. 16 or FIG. For this reason, steps S1402 to S1406 in FIG. 15 are not essential constituent requirements.

また、上記実施の形態1、2において、図16及び図17では、ステップS1502及びステップS1503でスコア更新を行っているが、これらのステップを省いて、図16ではステップS1504に進んでもよく、図17ではステップS1604に進んでもよい。このため、図16及び図17のステップS1502及びステップS1503は、必須の構成要件ではない。   In the first and second embodiments, the score is updated in steps S1502 and S1503 in FIGS. 16 and 17, but these steps may be omitted and the process may proceed to step S1504 in FIG. In step 17, the process may proceed to step S1604. For this reason, step S1502 and step S1503 of FIG.16 and FIG.17 are not essential requirements.

また、上記実施の形態1、2において、IoT機器1004を利用するユーザ1002が単独である例を示したが、この限りではない。例えば、IoT機器1004がエレベーターである場合、複数のユーザ1002がエレベーターを利用する際、エレベーターに運動の映像コンテンツが配信され、エレベーターの内部に設置されたディスプレイに表示するようにしてもよい。このとき、エレベーターを利用する複数のユーザ1002を識別できない。その場合、同一フロアに勤務する複数のユーザを1つのグループとして扱い、グループの属性データとして、機能改善したい項目を予め設定しておき、エレベーター使用時に指定された階数に基づいてグループを特定し、設定しておいた機能改善したい項目、たとえば、腰痛であれば、腰痛に基づいて映像メタデータを抽出してもよい。   In the first and second embodiments, the example in which the user 1002 using the IoT device 1004 is single is shown, but this is not restrictive. For example, when the IoT device 1004 is an elevator, when a plurality of users 1002 use the elevator, motion video content may be distributed to the elevator and displayed on a display installed inside the elevator. At this time, a plurality of users 1002 who use the elevator cannot be identified. In that case, a plurality of users working on the same floor are treated as one group, and as the attribute data of the group, items to be improved in function are set in advance, and the group is specified based on the number of floors specified when the elevator is used, If it is a set item whose function is to be improved, for example, low back pain, video metadata may be extracted based on low back pain.

なお、本実施の形態において、映像メタデータマッチング部の処理は、マッチングデータの項目1とマッチングさせる候補が1つである場合について説明したが、複数であってもよい。具体的には、ユーザ属性データの質問が「機能改善」であり、ウェアラブル機器の属性の計測対象が「登った回数」であり、IoT機器1004からユーザIDの代わりに「性別」を受信した場合、映像メタデータマッチング部406は、マッチングテーブル210の項目1の「機能改善」、「登った回数」、「性別」に合致する候補運動タイトルを複数抽出し、それぞれのスコアを抽出する。   In the present embodiment, the processing of the video metadata matching unit has been described for the case where there is one candidate to be matched with item 1 of the matching data, but there may be a plurality of processes. Specifically, when the user attribute data question is “function improvement”, the attribute measurement target of the wearable device is “number of climbs”, and “sex” is received from the IoT device 1004 instead of the user ID The video metadata matching unit 406 extracts a plurality of candidate exercise titles that match “function improvement”, “number of climbs”, and “sex” of item 1 of the matching table 210, and extracts each score.

なお、本実施の形態では、運動の映像コンテンツは、ストレッチ、筋力トレーニング、ヨガなどの運動の動画またはこれらの運動を組み合わせた動画であるとしたが、リハビリテーション向けの動画や、老化予防のための体操の動画や、内蔵型肥満に着目した特定保健指導向けの動画であってもよい。   In this embodiment, the motion picture content is a motion video such as stretching, strength training, yoga, or a combination of these motions. However, a video for rehabilitation or for preventing aging is used. It may be a video of gymnastics or a video for specific health guidance focusing on built-in obesity.

なお、情報処理システムは、オフィスや店舗、住居に限らず、フィットネスクラブや、リハビリテーション施設、病院、医療センター、ゴルフ場・テニスコート・サッカー競技場・野球場などのスポーツ施設などであってもよい。また、車両に搭載されているカーナビであってもよい。   The information processing system is not limited to offices, stores, and residences, and may be a fitness club, a rehabilitation facility, a hospital, a medical center, or a sports facility such as a golf course, tennis court, soccer field, or baseball field. . Moreover, the car navigation system mounted in the vehicle may be sufficient.

なお、上記態様において説明された技術は、例えば、Iaas(インフラストラクチャー・アズ・ア・サービス)、Paas(プラットフォーム・アズ・ア・サービス)、Saas(ソフトウェア・アズ・ア・サービス)といったクラウドサービスの類型において実現されうる。しかし、上記態様において説明された技術が実現されるクラウドサービスの類型はこれらに限られるものでない。   In addition, the technology described in the above aspect is, for example, a cloud service such as Iaas (infrastructure as a service), Paas (platform as a service), or Saas (software as a service). It can be realized in a type. However, the types of cloud services in which the technology described in the above aspect is realized are not limited to these.

なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の情報処理システムなどを実現するソフトウェアは、次のようなプログラムである。   In each of the above embodiments, each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. Here, the software that realizes the information processing system of each of the above embodiments is a program as follows.

すなわち、このプログラムは、コンピュータに、ユーザが利用するIoT機器と、記憶装置を含み映像コンテンツを配信するサーバとを含むシステムの情報処理方法であって、前記記憶装置には、1以上の、ユーザを特定するユーザIDと前記ユーザの運動の目的を紐付けたユーザ属性データと、前記運動の目的と運動の映像コンテンツと優先順の組を、1以上含むマッチングテーブルと、が記憶され、前記情報処理方法は、前記ユーザが利用するIoT機器から前記ユーザIDと前記IoT機器を特定するIoT機器IDを受信し、前記1以上のユーザ属性データの中から、受信した前記ユーザIDに合致する第1のユーザ属性データを抽出し、前記マッチングテーブルの中から、前記第1のユーザ属性データの前記運動の目的に合致する組のうち前記優先順の高い前記映像コンテンツを抽出し、前記IoT機器へ抽出した前記映像コンテンツを出力する、情報処理方法を実行させる。   That is, this program is an information processing method for a system including an IoT device used by a user on a computer and a server that includes a storage device and distributes video content. The storage device includes at least one user. And a user attribute data that associates the user ID for identifying the user with the purpose of exercise of the user, and a matching table that includes at least one set of the purpose of exercise, the video content of the exercise, and a priority order, and the information is stored. The processing method receives the user ID and the IoT device ID that identifies the IoT device from the IoT device used by the user, and first matches the received user ID from the one or more user attribute data. The user attribute data is extracted, and matches the purpose of the exercise of the first user attribute data from the matching table. The extracts priority high the video content among the outputs of the video contents extracted to the IoT device, to execute the information processing method.

以上、一つまたは複数の態様に係る情報処理システムなどについて、実施の形態1、2に基づいて説明したが、本開示は、この実施の形態1、2に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態1、2に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。   As described above, the information processing system according to one or more aspects has been described based on the first and second embodiments, but the present disclosure is not limited to the first and second embodiments. Without departing from the gist of the present disclosure, one or a plurality of forms in which various modifications conceived by those skilled in the art have been made in the first and second embodiments and a combination of components in different embodiments are also possible. It may be included within the scope of the embodiments.

本開示にかかる、情報処理システム及び情報処理方法は、ユーザが日常的に利用するIoT機器が設置されているオフィスや店舗、住居などで有用である。   The information processing system and the information processing method according to the present disclosure are useful in an office, a store, a residence, or the like in which an IoT device that a user uses on a daily basis is installed.

100 情報処理システム
201 通信部
202 映像配信部
203 映像コンテンツ記憶部(記憶装置)
204 ユーザ管理部
206 映像抽出部
207 映像メタデータ記憶部(記憶装置)
208 ユーザ属性記憶部(記憶装置)
209、306 機器属性記憶部(記憶装置)
210 マッチングテーブル(記憶装置)
211 再生履歴記憶部(記憶装置)
302 表示部
1001 クラウドサーバ(サーバ)
1002 ユーザ
1003 ウェアラブル機器
1004 IoT機器
10001 運動の映像コンテンツ
10002 オペレーション時間(運転時間)
DESCRIPTION OF SYMBOLS 100 Information processing system 201 Communication part 202 Image | video delivery part 203 Image | video content memory | storage part (storage device)
204 User management unit 206 Video extraction unit 207 Video metadata storage unit (storage device)
208 User attribute storage unit (storage device)
209, 306 Device attribute storage unit (storage device)
210 Matching table (storage device)
211 Playback history storage unit (storage device)
302 Display unit 1001 Cloud server (server)
1002 User 1003 Wearable device 1004 IoT device 10001 Motion video content 10002 Operation time (driving time)

Claims (10)

ユーザの操作によって規定の運転を行うIoT(Internet of Things)機器に接続され、記憶装置に記憶された映像コンテンツを配信するサーバによる情報処理方法であって、
前記記憶装置には、
1以上の、ユーザを特定するユーザIDと当該ユーザが行う運動の目的とを紐付けた、ユーザ属性データと、
運動の目的と運動の映像コンテンツと当該映像コンテンツに振られた優先順位との第1の組を1以上含むマッチングテーブルと、が記憶され、
当該情報処理方法は、
前記IoT機器の前記規定の運転に掛かる運転時間を示す運転時間情報と、ユーザIDとを、前記IoT機器から受信し、
前記IoT機器から受信した前記ユーザIDに紐付けられたユーザ属性データを、1以上の前記ユーザ属性データの中から抽出し、
抽出した前記ユーザ属性データに含まれる前記運動の目的に合致する第1の組のうち、当該第1の組に紐付けられた前記優先順位に基づいて、前記映像コンテンツを前記マッチングテーブルの中から抽出し、
抽出した前記映像コンテンツの再生時間を前記運転時間以内に調整し、
前記調整した前記映像コンテンツを、前記規定の運転を行う前記IoT機器へ配信する
情報処理方法。
An information processing method by a server that is connected to an IoT (Internet of Things) device that performs a prescribed operation by a user's operation and distributes video content stored in a storage device,
In the storage device,
One or more user ID data that associates a user ID that identifies the user with the purpose of the exercise performed by the user;
A matching table including at least one first set of exercise purpose, exercise video content and priority assigned to the video content is stored;
The information processing method is as follows:
Receiving operation time information indicating an operation time required for the specified operation of the IoT device and a user ID from the IoT device;
User attribute data associated with the user ID received from the IoT device is extracted from the one or more user attribute data;
Of the first set that matches the purpose of the exercise included in the extracted user attribute data, the video content is selected from the matching table based on the priority order associated with the first set. Extract and
Adjust the playback time of the extracted video content within the driving time,
An information processing method for delivering the adjusted video content to the IoT device that performs the specified operation.
前記記憶装置には、さらに、1以上の、IoT機器IDと前記IoT機器の設置場所がユーザにとってプライベートな場所であるかユーザにとってパブリックな場所であるかを示す場所情報とを紐つけた機器属性データが記憶され、
当該情報処理方法は、
前記IoT機器IDに紐付けられた機器属性データを、1以上の機器属性データの中から抽出し、
前記IoT機器の設置場所が前記プライベートな場所であるか前記パブリックな場所であるかを判断し、抽出した前記機器属性データの前記場所情報が前記プライベートな場所を示す場合、前記IoT機器の設置場所でユーザが運動可能な参加型の映像コンテンツを抽出する
請求項1に記載の情報処理方法。
The storage device further includes one or more device attributes in which one or more IoT device IDs and location information indicating whether the installation location of the IoT device is a private location for the user or a public location for the user Data is stored,
The information processing method is as follows:
Device attribute data associated with the IoT device ID is extracted from one or more device attribute data;
It is determined whether the installation location of the IoT device is the private location or the public location, and when the location information of the extracted device attribute data indicates the private location, the installation location of the IoT device The information processing method according to claim 1, wherein participatory video content that the user can exercise is extracted.
抽出した前記機器属性データの前記場所情報が前記パブリックな場所を示す場合、前記ユーザの視聴により運動意識を高めさせる意識型の前記映像コンテンツを抽出する
請求項2に記載の情報処理方法。
3. The information processing method according to claim 2, wherein when the location information of the extracted device attribute data indicates the public location, the conscious-type video content that enhances exercise consciousness by viewing the user is extracted.
前記記憶装置には、さらに、1以上の、前記IoT機器IDと前記IoT機器の設置場所で前記ユーザが運動可能なスペースがあるか否かを示す運動可否情報とを紐つけた機器属性データが記憶され、
当該情報処理方法は、
前記IoT機器IDに紐付けられた機器属性データを1以上の機器属性データの中から抽出し、
前記IoT機器の設置場所で運動可能であるか否かを前記運動可否情報に基づいて判断し、前記運動可否情報がユーザにとって前記IoT機器の設置場所で運動可能であることを示す場合、前記IoT機器の設置場所でユーザが運動可能な参加型の前記映像コンテンツを抽出する
請求項1〜3のいずれか1項に記載の情報処理方法。
The storage device further includes device attribute data that associates one or more IoT device IDs with exercise availability information indicating whether or not there is a space where the user can exercise at the installation location of the IoT device. Remembered,
The information processing method is as follows:
Extracting device attribute data associated with the IoT device ID from one or more device attribute data,
If it is determined based on the exercise availability information whether the IoT device can be exercised, and if the exercise availability information indicates that the user can exercise at the IoT device installation location, the IoT The information processing method according to any one of claims 1 to 3, wherein the participatory video content that allows a user to exercise at a device installation location is extracted.
抽出した前記機器属性データの前記運動可否情報がユーザにとって前記IoT機器の設置場所で運動不可能であることを示す場合、ユーザの視聴により運動意識を高めさせる意識型の前記映像コンテンツを抽出する
請求項4に記載の情報処理方法。
When the exercise availability information of the extracted device attribute data indicates that it is impossible for the user to exercise at the place where the IoT device is installed, the conscious-type video content that enhances exercise awareness by the user's viewing is extracted. Item 5. The information processing method according to Item 4.
さらに、前記IoT機器へ前記映像コンテンツを配信する際に、前記ユーザIDと前記IoT機器IDと配信した映像コンテンツのIDとを含む再生履歴データが前記記憶装置に記憶され、
前記再生履歴データに記憶された前記映像コンテンツのIDに紐付けられた第2の組の前記優先順位を、現状の前記優先順位から下げた前記優先順位に更新する
請求項1〜5のいずれか1項に記載の情報処理方法。
Further, when distributing the video content to the IoT device, reproduction history data including the user ID, the IoT device ID, and the ID of the distributed video content is stored in the storage device,
The second set of priorities associated with the ID of the video content stored in the playback history data is updated to the priorities lowered from the current priorities. The information processing method according to item 1.
さらに、前記ユーザIDに紐付けられてユーザが行う運動による活動量を示す身体活動情報を、前記ユーザが装着するウェアラブル機器から受信し、
前記記憶装置には、
前記ユーザIDと前記身体活動情報とを紐付けた前記ユーザ属性データと、
前記身体活動情報と前記映像コンテンツと前記優先順位との第3の組を1以上含む前記マッチングテーブルと、がさらに記憶され、
当該情報処理方法は、前記ユーザ属性データに含まれる前記運動の目的、または、前記身体活動情報に合致する前記第3の組のうち、前記第3の組に紐付けられた前記優先順位に基づいて、前記映像コンテンツを前記マッチングテーブルの中から抽出する
請求項1〜6のいずれか1項に記載の情報処理方法。
Furthermore, physical activity information indicating the amount of activity due to exercise performed by the user associated with the user ID is received from the wearable device worn by the user,
In the storage device,
The user attribute data associated with the user ID and the physical activity information;
The matching table including one or more third sets of the physical activity information, the video content, and the priority order;
The information processing method is based on the priority associated with the third group among the third group that matches the purpose of the exercise included in the user attribute data or the physical activity information. The information processing method according to any one of claims 1 to 6, wherein the video content is extracted from the matching table.
抽出した前記映像コンテンツを前記IoT機器へ配信した場合、前記IoT機器から前記ユーザIDと前記ユーザIDに紐付けられ、再生された映像コンテンツのIDと、を含むユーザ属性データを受信し、
受信したユーザ属性データを、前記1以上のユーザ属性データの中から抽出し、
抽出したユーザ属性データを更新する
請求項1〜7のいずれか1項に記載の情報処理方法。
When the extracted video content is distributed to the IoT device, user attribute data including the user ID and the ID of the reproduced video content associated with the user ID is received from the IoT device,
Extracting the received user attribute data from the one or more user attribute data;
The information processing method according to claim 1, wherein the extracted user attribute data is updated.
ユーザの操作によって規定の運転を行うIoT機器と、記憶装置に記憶された映像コンテンツを配信するサーバとを含む情報処理システムであって、
前記記憶装置には、1以上の、ユーザを特定するユーザIDと当該ユーザが行う運動の目的とを紐付けた、ユーザ属性データと、
運動の目的と運動の映像コンテンツと前記映像コンテンツに振られた優先順位との第1の組を1以上含むマッチングテーブルと、が記憶され、
前記サーバは、
前記IoT機器の前記規定の運転に掛かる運転時間を示す運転時間情報と、ユーザIDとを、前記IoT機器から受信する通信部と、
前記IoT機器から受信した前記ユーザID紐付けられたユーザ属性データを、1以上のユーザ属性データの中から抽出するユーザ管理部と、
抽出した前記ユーザ属性データに含まれる前記運動の目的に合致する第1の組のうち、当該第1の組に紐付けられた前記優先順位に基づいて、前記映像コンテンツを前記マッチングテーブルの中から抽出し、かつ、抽出した前記映像コンテンツの再生時間を前記運転時間以内に調整する映像抽出部と、
前記調整した前記映像コンテンツを、前記規定の運転を行う前記IoT機器へ配信する映像配信部と、を備え、
前記IoT機器は、前記サーバから配信された前記映像コンテンツを取得し、前記映像コンテンツを表示する表示部を備える
情報処理システム。
An information processing system including an IoT device that performs a prescribed operation by a user operation, and a server that distributes video content stored in a storage device,
In the storage device, one or more user ID data that associates a user ID that identifies the user with the purpose of exercise performed by the user, and
A matching table including at least one first set of exercise purpose, exercise video content and priority assigned to the video content is stored;
The server
A communication unit that receives an operation time information indicating an operation time required for the specified operation of the IoT device and a user ID from the IoT device;
A user management unit that extracts the user attribute data associated with the user ID received from the IoT device from one or more user attribute data;
Of the first set that matches the purpose of the exercise included in the extracted user attribute data, the video content is selected from the matching table based on the priority order associated with the first set. A video extraction unit that extracts and adjusts the playback time of the extracted video content within the driving time;
A video distribution unit that distributes the adjusted video content to the IoT device that performs the specified operation,
The IoT device includes a display unit that acquires the video content distributed from the server and displays the video content.
ユーザの操作によって規定の運転を行うIoT機器に接続され、記憶装置に記憶された映像コンテンツを配信するサーバであって、
前記記憶装置には、
1以上の、ユーザを特定するユーザIDと当該ユーザが行う運動の目的とを紐付けた、ユーザ属性データと、
運動の目的と運動の映像コンテンツと当該映像コンテンツに振られた優先順位との第1の組を1以上含むマッチングテーブルと、が記憶され、
当該サーバは、
前記IoT機器の前記規定の運転に掛かる運転時間を示す運転時間情報と、ユーザIDとを、前記IoT機器から受信する通信部と、
前記IoT機器から受信した前記ユーザIDに紐付けられたユーザ属性データを、1以上の前記ユーザ属性データの中から抽出するユーザ管理部と、
抽出した前記ユーザ属性データに含まれる前記運動の目的に合致する第1の組のうち、当該第1の組に紐付けられた前記優先順位に基づいて、前記映像コンテンツを前記マッチングテーブルの中から抽出する映像抽出部と、を備え、
前記映像抽出部は、
抽出した前記映像コンテンツの再生時間を前記運転時間以内に調整し、
前記調整した前記映像コンテンツを、前記規定の運転を行う前記IoT機器へ配信する
サーバ。
A server that is connected to an IoT device that performs a prescribed operation by a user operation and distributes video content stored in a storage device,
In the storage device,
One or more user ID data that associates a user ID that identifies the user with the purpose of the exercise performed by the user;
A matching table including at least one first set of exercise purpose, exercise video content and priority assigned to the video content is stored;
The server
A communication unit that receives an operation time information indicating an operation time required for the specified operation of the IoT device and a user ID from the IoT device;
A user management unit that extracts user attribute data associated with the user ID received from the IoT device from the one or more user attribute data;
Of the first set that matches the purpose of the exercise included in the extracted user attribute data, the video content is selected from the matching table based on the priority order associated with the first set. An image extracting unit for extracting,
The video extraction unit
Adjust the playback time of the extracted video content within the driving time,
A server that distributes the adjusted video content to the IoT device that performs the specified operation.
JP2017161362A 2016-12-14 2017-08-24 Information processing method, information processing system and server Ceased JP2018098769A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711283856.4A CN108228719A (en) 2016-12-14 2017-12-07 Information processing method, information processing system and server

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016242784 2016-12-14
JP2016242784 2016-12-14

Publications (1)

Publication Number Publication Date
JP2018098769A true JP2018098769A (en) 2018-06-21

Family

ID=62631496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017161362A Ceased JP2018098769A (en) 2016-12-14 2017-08-24 Information processing method, information processing system and server

Country Status (2)

Country Link
JP (1) JP2018098769A (en)
CN (1) CN108228719A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020188908A1 (en) 2019-03-18 2020-09-24 株式会社Jvcケンウッド Information delivery device, information delivery method, and information delivery program
JP2021099772A (en) * 2019-12-23 2021-07-01 グーグル エルエルシーGoogle LLC Identifying physical activities performed by user of computing device based on media consumption
US12008485B2 (en) 2023-03-30 2024-06-11 Google Llc Identifying physical activities performed by a user of a computing device based on media consumption

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199462A (en) * 2020-01-09 2020-05-26 上海亚毅电子科技有限公司 Golf course management system and method based on SaaS platform
US20230186555A1 (en) * 2020-07-27 2023-06-15 Vrc Inc. Server and information processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005179006A (en) * 2003-12-19 2005-07-07 Tietech Co Ltd Elevator
JP2013154069A (en) * 2012-01-31 2013-08-15 Brother Industries Ltd Exercise support system, exercise support method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080222120A1 (en) * 2007-03-08 2008-09-11 Nikolaos Georgis System and method for video recommendation based on video frame features
CN103218440A (en) * 2013-04-22 2013-07-24 深圳Tcl新技术有限公司 Media file recommendation method and device based on identity recognition
US9409074B2 (en) * 2014-08-27 2016-08-09 Zepp Labs, Inc. Recommending sports instructional content based on motion sensor data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005179006A (en) * 2003-12-19 2005-07-07 Tietech Co Ltd Elevator
JP2013154069A (en) * 2012-01-31 2013-08-15 Brother Industries Ltd Exercise support system, exercise support method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020188908A1 (en) 2019-03-18 2020-09-24 株式会社Jvcケンウッド Information delivery device, information delivery method, and information delivery program
US11683549B2 (en) 2019-03-18 2023-06-20 Jvckenwood Corporation Information distribution apparatus, information distribution method, and information distribution program
JP2021099772A (en) * 2019-12-23 2021-07-01 グーグル エルエルシーGoogle LLC Identifying physical activities performed by user of computing device based on media consumption
JP7001763B2 (en) 2019-12-23 2022-01-20 グーグル エルエルシー Identification of physical activity performed by a user of a computing device based on media consumption
US11620543B2 (en) 2019-12-23 2023-04-04 Google Llc Identifying physical activities performed by a user of a computing device based on media consumption
US12008485B2 (en) 2023-03-30 2024-06-11 Google Llc Identifying physical activities performed by a user of a computing device based on media consumption

Also Published As

Publication number Publication date
CN108228719A (en) 2018-06-29

Similar Documents

Publication Publication Date Title
US11565176B2 (en) Methods and systems for cloud executing mini-games and sharing
US9264770B2 (en) Systems and methods for generating media asset representations based on user emotional responses
JP2018098769A (en) Information processing method, information processing system and server
US10579401B2 (en) Systems and methods for providing a virtual assistant to accommodate different sentiments among a group of users by correlating or prioritizing causes of the different sentiments
CN105430455B (en) information presentation method and system
JP4884918B2 (en) Virtual space providing server, virtual space providing system, and computer program
Rigby et al. Watching movies on netflix: investigating the effect of screen size on viewer immersion
US10674205B2 (en) Methods and systems for selecting a preferred viewpoint for media assets
KR101817652B1 (en) Method and apparatus for recieving game streamming data and method and server of transmitting game streaming data
JP2021516087A (en) Scaled VR Engagement and View at esports events
JP2023540856A (en) Video streaming via multiplex communication and display via smart mirror
US20140089017A1 (en) Systems and methods for operating an entertainment control system
JP5999425B2 (en) Information processing apparatus and information processing method
JP2018182546A (en) Information terminal device, distribution management device, system, program, and recording medium
WO2016098465A1 (en) Information processing system, server, program, and information processing method
US20140317647A1 (en) Content evaluation/playback device
CN116782986A (en) Identifying a graphics interchange format file for inclusion with content of a video game
US10917665B2 (en) Server device, and storage medium used in same
US11636151B2 (en) Methods and systems for disambiguating user input based on detection of ensembles of items
JP2013094385A (en) Execution screen publication device, execution screen publication method, client device, and cloud computing system
US20230021945A1 (en) Systems and methods for dynamically generating exercise playlist
JP2009077896A (en) Exercise support equipment, exercise support program, and exercise support system
JP2018005460A (en) Receiving device, information providing device, information providing system, information providing method, and program
KR101580629B1 (en) System and method for management game
JP2019118347A (en) Exercise supporting method and exercise supporting system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210615

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20220405