JP2015033052A - Training support system, server, terminal, camera, method, and program - Google Patents

Training support system, server, terminal, camera, method, and program Download PDF

Info

Publication number
JP2015033052A
JP2015033052A JP2013162486A JP2013162486A JP2015033052A JP 2015033052 A JP2015033052 A JP 2015033052A JP 2013162486 A JP2013162486 A JP 2013162486A JP 2013162486 A JP2013162486 A JP 2013162486A JP 2015033052 A JP2015033052 A JP 2015033052A
Authority
JP
Japan
Prior art keywords
terminal
camera
information
timing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013162486A
Other languages
Japanese (ja)
Other versions
JP6435595B2 (en
JP2015033052A5 (en
Inventor
加寿子 林
Kazuko Hayashi
加寿子 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013162486A priority Critical patent/JP6435595B2/en
Publication of JP2015033052A publication Critical patent/JP2015033052A/en
Publication of JP2015033052A5 publication Critical patent/JP2015033052A5/ja
Application granted granted Critical
Publication of JP6435595B2 publication Critical patent/JP6435595B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To easily photograph a picture during training with a wearable camera mounted.SOLUTION: During training with a list terminal 2 and a wearable camera 4 mounted, when the wearable camera 4 is made into a stand-by mode, synchronization with the list terminal 2 is established (Step S404) and then continuous photographing of pictures is started in a FIFO method (Step S408). When emotion information is received from the list terminal 2 (Step S410), a picture is identified in accordance with received timing from among the pictures which are continuously photographed to be saved (Step S414). Thereby, the wearable camera 4 can automatically photograph the picture at the timing in which the emotion information is generated in the list terminal 2.

Description

この発明は、例えばウエアブルカメラを装着してトレーニングしながら撮影するためのトレーニング支援システム、サーバー、端末、カメラ、方法並びにプログラムに関する。   The present invention relates to a training support system, a server, a terminal, a camera, a method, and a program for taking a picture while wearing a wearable camera and training, for example.

近年、ランニングや、ジョギング等のトレーニング人口が増加している。最近では、トレーニングをサポートするSNS(ソーシャル・ネットワーク・サービスシステム)も存在し、友人と情報を共有しながらトレーニングを楽しむことも一般的となってきている。このようなSNSサイトでは、GPSを備えた腕時計型のリスト端末を腕に装着してトレーニングし、タイムやコースをウエブサイトに登録することができる。更にウエアブルカメラも装着して景色等を撮影することもできる。   In recent years, the population of training such as running and jogging is increasing. Recently, there are SNSs (social network service systems) that support training, and it has become common to enjoy training while sharing information with friends. In such an SNS site, a wristwatch-type wrist terminal equipped with GPS can be worn for training, and the time and course can be registered on the website. You can also wear a wearable camera and take pictures of scenery.

従来から、トレーニング用の腕時計型端末を開示しているものがある(例えば、特許文献1参照)。
また、複数のユーザーの端末をネットワークに接続し、複数のユーザーの参加者情報、運動データ、コースや距離、地理的位置、成績等を見ることができるウエブサイトを開示しているものがある(例えば、特許文献2参照)。
更に、トレーニングSNSにおいてアバターを表示するものがある(例えば、特許文献3参照)。
更にまた、トレーニング中の生体情報や感情情報をトリガにしてカメラで撮影を行う技術を開示しているものがある(例えば、特許文献4参照)。
Conventionally, there has been a wristwatch type terminal for training (see, for example, Patent Document 1).
In addition, there is a website that can connect a plurality of users 'terminals to a network and view a plurality of users' participant information, exercise data, courses, distances, geographical positions, results, and the like ( For example, see Patent Document 2).
Furthermore, there is one that displays an avatar in the training SNS (see, for example, Patent Document 3).
Furthermore, there is a technique that discloses a technique for taking a picture with a camera using biological information or emotion information during training as a trigger (see, for example, Patent Document 4).

特表2012−524640号公報Special table 2012-524640 gazette 特表2011−516210号公報Special table 2011-516210 gazette 特表2011−518360号公報Special table 2011-518360 gazette 特開2006−080644号公報JP 2006-080644 A

しかしながら、先行文献記載の技術では、トレーニング中のユーザーの感情に応じた写真を適切に撮影しにくいという課題があった。   However, the technique described in the prior literature has a problem that it is difficult to appropriately take a photograph according to the emotion of the user during training.

この発明は、上記課題を解決するためになされたもので、トレーニング中のユーザーの感情に応じた写真を適切に撮影しやすいトレーニング支援システム、サーバー、カメラ、端末、方法並びにプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a training support system, a server, a camera, a terminal, a method, and a program that can easily take a photograph according to an emotion of a user during training. Objective.

請求項1記載の発明は、端末と、該端末と無線接続されるカメラと、を含むトレーニング支援システムにおいて、前記端末は、感情情報を取得する感情情報取得手段と、第1の無線通信手段と、前記感情情報を取得した時のタイミング情報を前記無線通信手段により前記カメラに通知する通知手段と、を備え、前記カメラは、前記前記第1の無線通信手段と対応している第2の無線通信手段と、前記第2の無線通信手段により前記タイミング情報を受信する受信手段と、前記受信したタイミング情報に応じて撮影処理を行う撮影手段と、を備えることを特徴とするトレーニング支援システムを提供するものである。   The invention described in claim 1 is a training support system including a terminal and a camera wirelessly connected to the terminal. The terminal includes emotion information acquisition means for acquiring emotion information, and first wireless communication means. Notification means for notifying the camera of timing information when the emotion information is acquired by the wireless communication means, wherein the camera corresponds to the first wireless communication means. A training support system comprising: a communication unit; a reception unit that receives the timing information by the second wireless communication unit; and a shooting unit that performs a shooting process according to the received timing information. To do.

請求項8記載の発明は、端末と、該端末と無線接続されるカメラと、を含むトレーニング支援システムにおけるサーバーにおいて、前記端末から感情情報と、前記感情情報を取得した時のタイミング情報を受信する感情情報受信手段と、前記カメラから撮影画像を受信する画像受信手段と、を備え、受信した前記感情情報に基づいて感情を示す画像を、前記タイミング情報に基づくタイミングで、前記撮影画像と共にタイムラインに表示させるタイムライン表示制御手段を備えることを特徴とするサーバーを提供するものである。   The invention described in claim 8 receives emotion information and timing information when the emotion information is acquired from the terminal in a server in a training support system including a terminal and a camera wirelessly connected to the terminal. An emotion information receiving means; and an image receiving means for receiving a photographed image from the camera. An image showing emotion based on the received emotion information is time-lined together with the photographed image at a timing based on the timing information. A server characterized by comprising a timeline display control means for displaying on the server is provided.

請求項10記載の発明は、端末と、該端末と無線接続されるカメラと、前記端末とカメラの間で無線通信を行う無線通信部手段とを含むトレーニング支援システムにおける端末のコンピュータが、感情情報を取得する感情情報取得処理と、前記無線通信手段による無線同期確立後に前記感情情報を取得した時のタイミング情報を前記カメラに通知する通知処理を実行し、前記カメラのコンピュータが、前記無線通信手段による無線同期確立後に前記前記タイミング情報を受信する受信処理と、前記受信したタイミング情報に応じて撮影を行う撮影処理と、を実行することを特徴とするトレーニング支援方法を提供するものである。   According to a tenth aspect of the present invention, there is provided a computer of a terminal in a training support system including a terminal, a camera wirelessly connected to the terminal, and a wireless communication unit that performs wireless communication between the terminal and the camera. And a notification process for notifying the camera of timing information when the emotion information is acquired after establishing wireless synchronization by the wireless communication means, and the computer of the camera performs the wireless communication means The present invention provides a training support method that executes a reception process for receiving the timing information after establishing wireless synchronization and a shooting process for performing shooting according to the received timing information.

請求項11記載の発明は、端末と、該端末と無線接続されるカメラと、を含むトレーニング支援システムにおけるサーバーのコンピュータを、前記端末から感情情報と、前記感情情報を取得した時のタイミング情報を受信する感情情報受信手段、前記カメラから撮影画像を受信する画像受信手段、受信した前記感情情報に基づいて感情を示す画像を、前記タイミング情報に基づくタイミングで、前記撮影された画像と共にタイムラインに表示させるタイムライン表示制御手段として機能させることを特徴とするプログラムを提供するものである。   According to an eleventh aspect of the present invention, a server computer in a training support system including a terminal and a camera wirelessly connected to the terminal receives emotion information and timing information when the emotion information is acquired from the terminal. An emotion information receiving means for receiving, an image receiving means for receiving a photographed image from the camera, and an image showing emotion based on the received emotion information at a timing based on the timing information together with the photographed image on a timeline A program characterized by functioning as timeline display control means for displaying is provided.

請求項12記載の発明は、感情情報を取得する手段を備えた端末と、該端末と無線接続されるカメラと、を含むトレーニング支援システムにおけるカメラであって、該カメラは、撮影手段と、前記端末が取得した感情情報を無線で受信する受信手段と、前記受信手段により受信した感情情報を判別する感情情報判別手段と、前記感情情報判別手段の判別結果に応じて前記撮影手段の撮影タイミングを制御するタイミング制御手段と、を備えることを特徴とするカメラを提供するものである。   The invention according to claim 12 is a camera in a training support system including a terminal having means for acquiring emotion information and a camera wirelessly connected to the terminal, the camera including photographing means, A receiving unit that wirelessly receives emotion information acquired by the terminal, an emotion information determining unit that determines emotion information received by the receiving unit, and a shooting timing of the shooting unit according to a determination result of the emotion information determining unit And a timing control means for controlling the camera.

この発明によれば、トレーニング中のユーザーの感情に応じた写真を適切に撮影することができる。   According to the present invention, it is possible to appropriately take a photo according to the emotion of the user during training.

本発明の一実施の形態に係るSNSシステムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the SNS system which concerns on one embodiment of this invention. 同実施の形態に係るSNSシステムのイメージを説明する図である。It is a figure explaining the image of the SNS system concerning the embodiment. 同実施の形態に係るサーバーの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the server which concerns on the same embodiment. 同実施の形態に係るリスト端末の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the wrist terminal which concerns on the same embodiment. 同実施の形態に係るスマホ端末の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the smart phone terminal which concerns on the embodiment. 同実施の形態に係るウエアブルカメラの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the wearable camera which concerns on the same embodiment. ユーザーの操作に沿ったリスト端末の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the wrist terminal according to a user's operation. 同実施の形態に係るリスト端末、ウエアブルカメラの外観イメージ図である。It is an appearance image figure of a wrist terminal and a wearable camera concerning the embodiment. 図7の計測処理ステップの詳細を示すフローチャートである。It is a flowchart which shows the detail of the measurement process step of FIG. 図9の感情情報取得ステップの詳細を示すフローチャートである。It is a flowchart which shows the detail of the emotion information acquisition step of FIG. 同実施の形態に係る気持ちスタンプの例である。It is an example of the feeling stamp which concerns on the same embodiment. 同実施の形態に係るウエアブルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the wearable camera which concerns on the embodiment. 同実施の形態に係るスマホ端末又はPCの表示形態を説明するための図である。It is a figure for demonstrating the display form of the smart phone terminal or PC which concerns on the embodiment. 同実施の形態に係るタイムラインを作成動作を説明するためのフローチャートである。It is a flowchart for demonstrating the production | generation operation | movement of the timeline based on the embodiment. 同実施の形態に係るタイムライン表示例を示すものである。3 shows a timeline display example according to the embodiment. 同実施の形態に係るタイムライン表示例を示すものである。3 shows a timeline display example according to the embodiment. 同実施の形態に係るタイムライン表示例を示すものである。3 shows a timeline display example according to the embodiment.

以下、図面を参照しながら本発明の実施の形態について説明する。明細書において、スマートフォンをスマホ、パーソナルコンピュータをPC、ソーシャル・ネットワーク・サービスシステムをSNSと略称する。また、タイムラインとは、SNS等において、自分や友人が投稿した内容や各投稿への返信、その他の情報等が時系列に並んで一覧表示されるものをいう。ソーシャルタイムラインとは、自分一人でなく他人と共有できるタイムラインのことをいう。一覧表示される情報のうち、絵や画像、図形等、視覚に訴えるものを総称してオブジェクトという。イベントとは、ユーザーまたはコンピュータが何らかの起動を行うことをいう。スタート、ゴール、撮影、等はイベントの一種である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the specification, a smartphone is abbreviated as a smartphone, a personal computer is abbreviated as a PC, and a social network service system is abbreviated as an SNS. In addition, the timeline refers to a content that is displayed in a chronological order as a list of contents posted by yourself or friends, replies to each post, other information, and the like in SNS. A social timeline is a timeline that you can share with others, not just yourself. Among the information displayed in a list, information that appeals visually, such as pictures, images, and figures, is collectively referred to as an object. An event means that a user or a computer performs some activation. Start, goal, shooting, etc. are types of events.

従来からトレーニング中に撮影するものはあったが、ユーザーが感動した場面や記録に残したい場面で立ち止まって撮影し、それをSNSやブログにアップすることが多かった。しかし、ウエアブルカメラによってトレーニングを中断することなく撮影するとなると、画角やピント、ボケなどが気になるという課題があった。
そこで本実施の形態では、まず撮影するタイミングを適切にすること、撮影は撮影指示が来る前から始めて(過去撮影という)、撮影指示が来た時に、タイミング的にも撮影品質的にも適切なものにすること、を目的としている。
Although there was something that was shot during training, it was often the case that the user stopped and shot the scene that he / she was impressed or wanted to record, and uploaded it to SNS or blog. However, when shooting with a wearable camera without interrupting training, there was a problem that the angle of view, focus, blur, etc. were a concern.
Therefore, in this embodiment, the timing for shooting is first set appropriately, and shooting is started before the shooting instruction is received (referred to as past shooting). When the shooting instruction is received, the timing and shooting quality are appropriate. It aims to make things.

図1は、本発明の一実施の形態に係るトレーニング支援システムの全体構成を示すブロック図である。
サーバー11を含むSNSサイト10は、インターネット500を介して会員のスマホ端末1−1、1−2、1−3、・・・、リスト端末2−1、2−2、2−3・・・及びPC3−1と接続される。また、リスト端末2−1、2−2、2−3、・・・は腕に装着可能な腕時計型のリスト端末であり、スマホ端末1−1、1−2、1−3と無線で接続可能である。
更に、リスト端末2−1、2−2、2−3、・・・は帽子型(頭部装着型)のウエアブルカメラ4−1、4−2、4−3、・・・と無線で接続される。以降、スマホ端末1−1、1−2、1−3、・・・、を代表してスマホ端末1、リスト端末2−1、2−2、2−3・・・を代表してリスト端末2、PC3−1、3−2、・・・を代表してPC3、ウエアブルカメラ4−1、4−2、4−3、・・・を代表してウエアブルカメラ4という。
FIG. 1 is a block diagram showing the overall configuration of a training support system according to an embodiment of the present invention.
The SNS site 10 including the server 11 is a member's smartphone terminals 1-1, 1-2, 1-3,..., List terminals 2-1, 2-2, 2-3,. And the PC 3-1. The wrist terminals 2-1, 2-2, 2-3,... Are wristwatch-type wrist terminals that can be worn on the wrist, and are wirelessly connected to the smartphone terminals 1-1, 1-2, 1-3. Is possible.
Further, the wrist terminals 2-1, 2-2, 2-3,... Connected. Hereinafter, the smartphone terminal 1-1, 1-2, 1-3,..., As a representative, the smartphone terminal 1, the wrist terminal 2-1, 2-2, 2-3,. 2, PC 3, 3-2,... Are represented as PC 3 and wearable cameras 4-1, 4-2, 4-3,.

スマホ端末1は、通信端末として機能するもので、アプリケーションプログラムをインストールして、SNSサイト10との連携を図る動作をする。また、リスト端末2にも比較的軽いアプリケーションプログラムをインストールしてスマホ端末1との連携を図るように動作する。すなわちスマホ端末1はリスト端末2とSNSサイト10を仲介するもので、小型PCやタブレット、無線ルーター等で代用することもできる。リスト端末2とサーバー11を直接接続して、スマホ端末1を経由しなくてもWi−Fiや電話回線により情報交換ができるルートも用意されている。ウエアブルカメラ4もリスト端末2だけでなくスマホ端末1やサーバー11と接続するよう構成しても構わない。   The smartphone terminal 1 functions as a communication terminal, and installs an application program and operates to cooperate with the SNS site 10. Further, a relatively light application program is installed in the wrist terminal 2 and operates so as to cooperate with the smartphone terminal 1. That is, the smartphone terminal 1 mediates between the wrist terminal 2 and the SNS site 10, and can be replaced by a small PC, a tablet, a wireless router, or the like. A route is also provided in which the wrist terminal 2 and the server 11 are directly connected and information can be exchanged via Wi-Fi or a telephone line without going through the smartphone terminal 1. The wearable camera 4 may be configured to be connected not only to the wrist terminal 2 but also to the smartphone terminal 1 or the server 11.

図2は、本実施の形態に係るSNSシステムの使用イメージを説明する図である。SNSサイト10を介して、直接又は間接的にトレーニングする会員が装着するリスト端末2、ウエアブルカメラ4、スマホ端末1、PC3が接続される。これにより、例えばSNSサイト10で作成したコース形状を、リスト端末2とウエアブルカメラ4を装着してトレーニングしている会員、あるいはリスト端末2とウエアブルカメラ4を装着してトレーニングしている他の会員に送ったり、会員のスマホ端末1やPC3に送ったりすることができる。なお、SNSサイト10としてクラウドサービスを用いることができる。
スマホ1には表示部340が、リスト端末2には表示部206が、PC3には表示部400がそれぞれ備えられており、ウエラブルカメラ4にはレンズ404が備えられている。このイメージを図面化したものが図8である。
FIG. 2 is a diagram for explaining a usage image of the SNS system according to the present embodiment. Via the SNS site 10, a wrist terminal 2, a wearable camera 4, a smartphone terminal 1, and a PC 3 worn by members who train directly or indirectly are connected. Thereby, for example, a member who is training the course shape created on the SNS site 10 by wearing the wrist terminal 2 and the wearable camera 4, or the person who is training by wearing the wrist terminal 2 and the wearable camera 4. Can be sent to other members' smartphones or to the member's smartphone terminal 1 or PC 3. A cloud service can be used as the SNS site 10.
The smartphone 1 includes a display unit 340, the wrist terminal 2 includes a display unit 206, the PC 3 includes a display unit 400, and the wearable camera 4 includes a lens 404. FIG. 8 is a drawing of this image.

図3は、サーバー11の概略構成を示すブロック図である。
同図において、102はCPUであり、システム全体を制御する。110はプログラムメモリであり、各種制御プログラムが記憶されている。CPU102はプログラムメモリ110のプログラムを実行することにより各種処理を行う。プログラムメモリ110には、全体を制御するOS(制御プログラム)111をはじめ、コース形状生成プログラム112、音声−文字変換プログラム113、生体情報分析プログラム114、顔認識プログラム115、タイムライン作成プログラム116、写真選択プログラム117等を記憶している。106は会員管理部であり、SNSシステムとして会員を管理する。友人関係やコミュニティ、掲示板等もここで管理しており、いわゆるSNS機能全般を司るものである。108は、ユーザーが複数回のトレーニングを行って、その結果を後で比較できるように、トレーニングの履歴を保存しておく履歴メモリである。
FIG. 3 is a block diagram illustrating a schematic configuration of the server 11.
In the figure, reference numeral 102 denotes a CPU which controls the entire system. A program memory 110 stores various control programs. The CPU 102 performs various processes by executing programs in the program memory 110. The program memory 110 includes an OS (control program) 111 for controlling the whole, a course shape generation program 112, a speech-to-character conversion program 113, a biological information analysis program 114, a face recognition program 115, a timeline creation program 116, a photograph A selection program 117 and the like are stored. A member management unit 106 manages members as an SNS system. Friends relations, communities, bulletin boards, etc. are also managed here, and they manage the so-called SNS function in general. A history memory 108 stores a training history so that the user can perform training a plurality of times and compare the results later.

120は、リスト端末2で収集された各種情報を記憶する収集情報メモリで、位置情報記憶エリア121、時刻情報記憶エリア122、時間情報記憶エリア123、感情情報記憶エリア124、地点情報記憶エリア125、生体情報記憶エリア126を含む。論理的には各会員に対応して記憶エリアが存在している。物理的には属性コードによって会員別に管理できる。130は、前記リスト端末2で収集された各種情報、特に位置情報を用いてユーザーが走った(移動した)コース形状を図形的に作成し、記憶するコース形状メモリである。コース形状は、プログラムメモリ110内のコース形状作成プログラム112により作成される。既にサーバー11内あるいはリスト端末2内に用意されているコースをユーザーが走っても、ユーザーが走った軌跡からコース形状を作成しても、どちらでも対応できるようになっている。   Reference numeral 120 denotes a collection information memory for storing various types of information collected by the wrist terminal 2, and includes a position information storage area 121, a time information storage area 122, a time information storage area 123, an emotion information storage area 124, a point information storage area 125, A biological information storage area 126 is included. Logically, there is a storage area corresponding to each member. Physically, each member can be managed by attribute code. A course shape memory 130 graphically creates and stores a course shape in which the user has run (moved) using various information collected by the wrist terminal 2, particularly position information. The course shape is created by the course shape creation program 112 in the program memory 110. Either the user can run a course already prepared in the server 11 or the wrist terminal 2, or a course shape can be created from the trajectory that the user ran, so that it can be used.

140は、多数の気持ちスタンプを記憶してある感情画像メモリである。気持ちスタンプはイラスト画像であり、「元気」「快調」「楽しい」「順調」「疲れた」「苦しい」等の様々な感情を表す画像が用意されている。   Reference numeral 140 denotes an emotion image memory in which a large number of feeling stamps are stored. The feeling stamp is an illustration image, and images representing various emotions such as “good”, “smooth”, “fun”, “smooth”, “tired”, and “suffering” are prepared.

150は、ユーザーがリスト端末2のマイクに向かって話した音声データを記憶する音声メモリであり、この音声データをプログラムメモリ110に記憶されている音声−文字変換プログラム113によって文字データに変換したものがコメントメモリ160に記憶される。コメントメモリ160には、このように音声入力したコメントが記憶されるが、SNS機能において、ユーザー(自分)がSNSサイト10へ投稿したコメント、友人(他のユーザー)がSNSサイト10へ投稿したコメントも記憶される。入力手段は音声、キーを問わない。また、リスト端末2だけでなくスマホ端末1、PC3からコメントを入力することができる。入力されたコメントは後述するようにタイムラインとして表示されるが、これはCPU102がタイムライン作成プログラム116を実行することによってなされる。タイムラインTLは、会員に対して閲覧可能に表示制御するが、表示を作成してスマホ1やPC3で閲覧可能にするように、このタイムライン作成プログラム116が実行する。
170は、ウエアブルカメラ4で撮影された画像データ(写真)を記憶する画像メモリである。タイムライン作成プログラム116がタイムラインに写真をアップする際は、この画像メモリ170に記憶された画像を用いる。
Reference numeral 150 denotes a voice memory that stores voice data spoken by the user to the microphone of the wrist terminal 2, and the voice data is converted into character data by the voice-character conversion program 113 stored in the program memory 110. Is stored in the comment memory 160. The comment input by voice is stored in the comment memory 160, but in the SNS function, a comment posted by the user (self) to the SNS site 10 or a comment posted by a friend (other user) to the SNS site 10. Is also remembered. The input means may be voice or key. A comment can be input not only from the list terminal 2 but also from the smartphone terminal 1 and the PC 3. The input comment is displayed as a timeline as will be described later. This is done by the CPU 102 executing the timeline creation program 116. The timeline TL is displayed and controlled so that it can be viewed by members, but this timeline creation program 116 executes so that the display can be created and viewed on the smartphone 1 or the PC 3.
Reference numeral 170 denotes an image memory for storing image data (photographs) taken by the wearable camera 4. When the timeline creation program 116 uploads a photograph to the timeline, the image stored in the image memory 170 is used.

図4は、リスト端末2の構成を示す概略ブロック図である。
同図において、202はCPUであり、リスト端末2全体を制御する。210はプログラムメモリであり、制御プログラム211及びアプリケーションプログラム212、同期プログラム213等が予め記憶されている。制御プログラム211はリスト端末全体を制御する基本的な制御プログラムであり、アプリケーションプログラム212は、スマホ端末1やサーバー11と協働するためのプログラムである。
また同期プログラム213は、タイミング制御回路208と協働してリスト端末2とウエアブルカメラ4の同期を取るためのプログラムである。
FIG. 4 is a schematic block diagram showing the configuration of the wrist terminal 2.
In the figure, reference numeral 202 denotes a CPU which controls the entire wrist terminal 2. A program memory 210 stores a control program 211, an application program 212, a synchronization program 213, and the like in advance. The control program 211 is a basic control program for controlling the entire wrist terminal, and the application program 212 is a program for cooperating with the smartphone terminal 1 and the server 11.
The synchronization program 213 is a program for synchronizing the wrist terminal 2 and the wearable camera 4 in cooperation with the timing control circuit 208.

206は表示部でありLCDとこれを駆動する駆動回路等から構成されている。204は、表示部206の表示を制御する表示制御部である。220は入力制御部であり、各種キーやスイッチからの入力信号を制御する。表示部206にはタッチパネル222が設けられており、基本的にリスト端末2の表示部206の表示画面上をタッチすることにより、操作を行う。タッチパネル222の入力制御も入力制御部22が行う。230はマイクであり、音声入力することができる。入力した音声データは音声メモリ240に記憶される。音声メモリ240には音声データのまま記憶されるが、この音声データはサーバー11へ送られて、音声メモリ150に記憶された後、音声−文字変換プログラム113によって文字データに変換され、文字データとしてコメントメモリ160に記憶される。   A display unit 206 includes an LCD and a drive circuit for driving the LCD. A display control unit 204 controls display on the display unit 206. An input control unit 220 controls input signals from various keys and switches. The display unit 206 is provided with a touch panel 222, which is basically operated by touching the display screen of the display unit 206 of the wrist terminal 2. The input control unit 22 also performs input control of the touch panel 222. Reference numeral 230 denotes a microphone, which can input voice. The input voice data is stored in the voice memory 240. Although the voice data is stored in the voice memory 240 as it is, the voice data is sent to the server 11 and stored in the voice memory 150. Then, the voice data is converted into character data by the voice-character conversion program 113, and as character data. Stored in the comment memory 160.

250は、GPS部であり、公知のGPS(Global Positioning System)を利用して現在位置を計測する。すなわちGPS部250は、複数の測位衛星(GPS衛星)から送られてくる電波をアンテナにより受信することによって、現在位置を示す緯度、経度からなる位置データを取得し、取得した位置データを、使用者の行動場所を示す位置情報としてCPU202に供給する。いわゆる絶対位置を測定する。   Reference numeral 250 denotes a GPS unit that measures the current position using a known GPS (Global Positioning System). That is, the GPS unit 250 obtains position data composed of latitude and longitude indicating the current position by receiving radio waves transmitted from a plurality of positioning satellites (GPS satellites) with an antenna, and uses the obtained position data. To the CPU 202 as position information indicating the person's action place. The so-called absolute position is measured.

252は、加速度、方位、高度等を検出するセンサーであり、3軸地磁気センサー、1軸加速度センサー及び1軸ジャイロ等で構成されている。したがって、GPS部250に加えて3軸地磁気センサー、1軸加速度センサー及び1軸ジャイロ等を用いてリスト端末2の進行方向を計測することをも可能で、これにより一層精度を上げることができる。前記GPS250とセンサー252を組み合わせることにより、リスト端末2の移動軌跡や時間を正確にトレースすることができる。センサー252からの各種収集情報は、バッファメモリ280に一旦蓄えられた後、サーバー11の収集情報メモリ120に記憶される。   Reference numeral 252 denotes a sensor that detects acceleration, azimuth, altitude, and the like, and includes a 3-axis geomagnetic sensor, a 1-axis acceleration sensor, a 1-axis gyro, and the like. Therefore, it is possible to measure the traveling direction of the wrist terminal 2 using a 3-axis geomagnetic sensor, a 1-axis acceleration sensor, a 1-axis gyro, and the like in addition to the GPS unit 250, thereby further improving accuracy. By combining the GPS 250 and the sensor 252, the movement trajectory and time of the wrist terminal 2 can be accurately traced. Various collection information from the sensor 252 is temporarily stored in the buffer memory 280 and then stored in the collection information memory 120 of the server 11.

254は生体センサーであり、脈拍(心拍)、血圧、体温等を計測するためのものである。計測された生体情報はバッファメモリ280に一旦蓄えられた語、サーバー11の収集情報メモリ120内の生体情報記憶エリア126に記憶される。
256は環境センサーであり、気温、気圧、湿度、紫外線量、騒音等を計測するためのものである。計測された環境情報はバッファメモリ280に一旦蓄えられた後、サーバー11の収集情報メモリ120内の環境情報記憶エリア127に記憶される。
258はスマホ端末1との間で、近接無線通信、例えばブルートゥース(登録商標)のリンクを行う無線I/F(インターフェース)であり、260はWi−Fi等でサーバー11とのリンクを行う通信I/Fである。
Reference numeral 254 denotes a biological sensor for measuring a pulse (heartbeat), blood pressure, body temperature, and the like. The measured biological information is stored in the biological information storage area 126 in the collected information memory 120 of the server 11, the words once stored in the buffer memory 280.
Reference numeral 256 denotes an environmental sensor for measuring temperature, atmospheric pressure, humidity, ultraviolet ray amount, noise, and the like. The measured environment information is temporarily stored in the buffer memory 280 and then stored in the environment information storage area 127 in the collected information memory 120 of the server 11.
Reference numeral 258 denotes a wireless I / F (interface) for performing close proximity wireless communication, for example, a Bluetooth (registered trademark) link with the smartphone terminal 1, and 260 is a communication I for performing a link with the server 11 by Wi-Fi or the like. / F.

290はウエアブルカメラ4と無線で接続され、ウエアブルカメラ4を制御するカメラ制御部である。ウエアブルカメラ4は前面にレンズ404を備える。カメラ制御部290の制御により周囲を撮影する。撮影された画像データは画像メモリ272に記憶される。後述する気持ちスタンプの選択時に連動して静止画を撮影するものであるが、音声コマンドによるリモコン操作等も可能であり、ドライブレコーダーのようにトレーニング中、ずっと動画を撮影し続けることも可能である。   A camera control unit 290 is wirelessly connected to the wearable camera 4 and controls the wearable camera 4. The wearable camera 4 includes a lens 404 on the front surface. The surroundings are photographed under the control of the camera control unit 290. The captured image data is stored in the image memory 272. It captures still images in conjunction with the selection of feeling stamps, which will be described later, but it can also be operated by remote control using voice commands, and can continue to shoot movies throughout training like a drive recorder. .

図5は、スマホ端末1の構成を示す概略ブロック図である。
同図において、340は表示部でありLCDとこれを駆動する駆動回路等から構成されている。354は表示部340の表示状態を制御する表示制御部である。356は入力制御部であり、各種キーやスイッチ、タッチパネル350を制御する。302はCPUであり、スマホ端末1全体を制御する。310はプログラムメモリであり、制御プログラム311及びアプリケーションプログラム312等が予め記憶されている。制御プログラム311はスマホ端末1全体を制御する基本的な制御プログラムであり、アプリケーションプログラム312は、リスト端末2や協働やサーバー11と協働するためのプログラムである。アプリケーションプログラム312は後からダウンロードすることが可能である。358はリスト端末2との間で、例えばブルートゥース(登録商標)等の近接無線でのリンクを行う無線I/Fであり、360はWi−Fi等でサーバー11とのリンクを行う通信I/Fである。
FIG. 5 is a schematic block diagram showing the configuration of the smartphone terminal 1.
In the figure, reference numeral 340 denotes a display unit, which includes an LCD and a drive circuit for driving the LCD. A display control unit 354 controls the display state of the display unit 340. Reference numeral 356 denotes an input control unit that controls various keys, switches, and the touch panel 350. A CPU 302 controls the entire smartphone terminal 1. A program memory 310 stores a control program 311 and an application program 312 in advance. The control program 311 is a basic control program for controlling the entire smartphone terminal 1, and the application program 312 is a program for cooperating with the wrist terminal 2, cooperation, and the server 11. The application program 312 can be downloaded later. Reference numeral 358 denotes a wireless I / F that establishes a link with the wrist terminal 2 using, for example, near-field wireless communication such as Bluetooth (registered trademark). It is.

図6は、ウエアブルカメラ4の構成を示す概略ブロック図である。ウエアブルカメラ4は、図2又は図8に示されるように帽子形状をしている。410はCCDやCMOSを有する撮像素子で、レンズ404から入射する被写体像を撮影する。412は撮像素子410のタイミングや露出、シャッター速度、フォーカス等を制御する撮像制御部である。420はウエアブルカメラ4全体を制御するCPUであり、プログラムメモリ430に記憶されたプログラムにより制御動作を行う。   FIG. 6 is a schematic block diagram showing the configuration of the wearable camera 4. The wearable camera 4 has a hat shape as shown in FIG. 2 or FIG. Reference numeral 410 denotes an image sensor having a CCD or a CMOS, which captures a subject image incident from the lens 404. An imaging control unit 412 controls the timing, exposure, shutter speed, focus, and the like of the image sensor 410. A CPU 420 controls the wearable camera 4 as a whole, and performs a control operation according to a program stored in the program memory 430.

プログラムメモリ430には、全体を制御する制御プログラム432と、特に撮影について制御する撮影制御プログラム434、リスト端末2との同期を制御する同期プログラム435、複数の写真の中から写真を選択する写真選択プログラム436が記憶されている。   The program memory 430 includes a control program 432 for controlling the whole, a shooting control program 434 for controlling shooting in particular, a synchronization program 435 for controlling synchronization with the wrist terminal 2, and a photo selection for selecting a photo from a plurality of photos. A program 436 is stored.

撮影制御プログラム434は、サーバー11の撮影制御に関する機能の一部をウエアブルカメラ4側にも備えているものである。すなわち、サーバー11又はリスト端末2が指示する撮影タイミングを、ウエアブルカメラ4が各種生体情報や感情情報を受け取って、その情報をもとにウエアブルカメラ4自身で判別し決定することもできる。つまり、感情情報や生体情報はリスト端末2で取得して単純にウエアブルカメラ4へ流すだけで、感情情報や生体情報の判別機能をリスト端末2ではなくウエアブルカメラ6に設けることができる。   The shooting control program 434 also includes a part of the functions related to shooting control of the server 11 on the wearable camera 4 side. In other words, the wearable camera 4 can receive various biological information and emotion information, and the wearable camera 4 can discriminate and determine the shooting timing instructed by the server 11 or the wrist terminal 2 based on the information. That is, the emotion information and the biological information can be provided in the wearable camera 6 instead of the wrist terminal 2 simply by acquiring the emotion information and the biological information from the wrist terminal 2 and simply flowing it to the wearable camera 4.

タイミング制御回路452は、同期プログラム435と協働してリスト端末2とウエアブルカメラ4の同期を取る。
440は撮像素子410で撮像した画像データを蓄積する画像メモリである。442はSDカードであり、ウエアブルカメラ4で撮影した写真を独自に保存し、他の再生装置で写真を再生することができる。
The timing control circuit 452 synchronizes the wrist terminal 2 and the wearable camera 4 in cooperation with the synchronization program 435.
Reference numeral 440 denotes an image memory that stores image data captured by the image sensor 410. Reference numeral 442 denotes an SD card, which can uniquely store a photograph taken by the wearable camera 4 and reproduce the photograph with another reproducing apparatus.

<リスト端末2とウエアブルカメラ4の無線同期>
450は無線I/Fで、例えばブルートゥース(登録商標)でリスト端末2と近接無性通信を行う。この無線I/F450を介してウエアブルカメラ4はリスト端末2、又はスマホ端末1、又はサーバー11から遠隔操作される。
<Wireless synchronization of wrist terminal 2 and wearable camera 4>
Reference numeral 450 denotes a wireless I / F, for example, proximity proximity communication with the wrist terminal 2 by Bluetooth (registered trademark). The wearable camera 4 is remotely operated from the wrist terminal 2, the smartphone terminal 1, or the server 11 via the wireless I / F 450.

トレーニング中、リスト端末2とウエアブルカメラ4は同期してお互いに無線で情報交換しているが、リスト端末2とウエアブルカメラ4は電力を最小限に抑え、且つ両者のタイミングがずれないようにしている。そのためにウエアブルカメラ4側のタイミング制御回路452と同期プログラム435、リスト端末2側のタイミング制御回路208と同期制プログラム213が互いに連携を取って、CPU420に対してインタラプトをかけて間欠的に同期をとりながら無線通信を行っている。   During the training, the wrist terminal 2 and the wearable camera 4 synchronize and exchange information with each other wirelessly. However, the wrist terminal 2 and the wearable camera 4 minimize power, and the timing of both does not shift. I have to. For this purpose, the timing control circuit 452 and the synchronization program 435 on the wearable camera 4 side, the timing control circuit 208 on the wrist terminal 2 side and the synchronization control program 213 cooperate with each other, interrupt the CPU 420, and synchronize intermittently. Wireless communication is taking place.

すなわち、リスト端末2とウエアブルカメラ4は常時接続している訳ではなく、互いに内部で計時している(相対時刻という)。リスト端末2ではタイミング制御回路208が、ウエアブルカメラ4ではタイミング制御回路452がそれぞれ相対時刻を計時している。   That is, the wrist terminal 2 and the wearable camera 4 are not always connected, but time is measured internally (referred to as relative time). The timing control circuit 208 in the wrist terminal 2 and the timing control circuit 452 in the wearable camera 4 each measure the relative time.

リスト端末2のタイミング制御回路208は無線I/F258を介して同時信号をウエアブルカメラ4の無線I/F450を介してタイミング制御回路452へ送信してウエアブルカメラ4との無線同期を確立する。その同期タイミングで、CPU202にインタラプト要求し、タイミング制御回路208は前記相対時刻のカウントを開始する。そして同期が確立している状態で、感情情報や気持ちスタンプの発生等のイベントが発生すると、ウエアブルカメラ4側でもCPU420にインタラプト要求し、タイミング制御回路452の相対時刻のカウントを開始し、リスト端末2からの撮影指示や気持ちスタンプの発生通知等のイベントを受信する。
従って、リスト端末2から気持ちスタンプの発生の通知を受けた時には、リスト端末2とウエアブルカメラ4は完全に同期しており時間のずれは無い。これらの同期制御は同期プログラム213並びに436に基づいて実行される。
The timing control circuit 208 of the wrist terminal 2 transmits a simultaneous signal to the timing control circuit 452 via the wireless I / F 450 of the wearable camera 4 via the wireless I / F 258 to establish wireless synchronization with the wearable camera 4. . At the synchronization timing, an interrupt request is sent to the CPU 202, and the timing control circuit 208 starts counting the relative time. When an event such as the generation of emotion information or a feeling stamp occurs while synchronization is established, the wearable camera 4 also makes an interrupt request to the CPU 420 and starts counting the relative time of the timing control circuit 452. An event such as a shooting instruction from the terminal 2 or a feeling stamp occurrence notification is received.
Therefore, when the notification of the generation of the feeling stamp is received from the wrist terminal 2, the wrist terminal 2 and the wearable camera 4 are completely synchronized and there is no time lag. These synchronization controls are executed based on the synchronization programs 213 and 436.

図8(a)はリスト端末2の正面図、同図(b)は斜視図を示し、表示部206時刻表示をしている例を示し、MENUアイコンが表示されている。このMENUアイコンを選択することにより、図7のメニュー画面表示ステップS10がスタートする。
図8(c)はウエアブルカメラ4の斜視図を示す。レンズ404は帽子形状の前面に付いているが、例えば帽子のつば(ブリム)の下部にユーザーに向くように取り付ければ、ユーザーの顔を常時撮影することができ、その時々のユーザーの感情の分析に使用することができる。
FIG. 8A shows a front view of the wrist terminal 2, FIG. 8B shows a perspective view, shows an example of displaying the time on the display unit 206, and a MENU icon is displayed. By selecting this MENU icon, the menu screen display step S10 of FIG. 7 starts.
FIG. 8C shows a perspective view of the wearable camera 4. The lens 404 is attached to the front of the hat shape. For example, if the lens 404 is attached to the lower part of the brim of the hat so as to face the user, the user's face can be photographed at all times, and analysis of the emotion of the user at that time Can be used for

次に、図面を参照しながら、本実施の形態の使用方法並びに動作について説明する。
<トレーニングモード>
<リスト端末2の動作>
ユーザーは、リスト端末2を腕に装着し、ウエアブルカメラ4を頭に装着し、トレーニングを開始する。予めコース、距離、目標タイム等を設定してもよいし、任意に走ってもよい。
図7は、ユーザーの操作に沿ったリスト端末2の動作を示すフローチャートである。
Next, the usage method and operation of the present embodiment will be described with reference to the drawings.
<Training mode>
<Operation of wrist terminal 2>
The user wears wrist terminal 2 on his arm and wearable camera 4 on his head, and starts training. The course, distance, target time, etc. may be set in advance, or may be run arbitrarily.
FIG. 7 is a flowchart showing the operation of the wrist terminal 2 in accordance with the user's operation.

まず、図7のフローチャートにおいて、ステップS10は、リスト端末2の表示部206にメニュー画面を表示している状態である。ここで、トレーニングモード、リプレイモードのいずれかを選択できる(ステップS12)。
リプレイモードを選択するとステップS24へ進み、リプレイ処理を実行する。リプレイ処理はトレーニング状況を再生するものであり、本実施の形態では詳述しない。もちろん、これ以外の選択肢を用意してもよい。この状態でトレーニングモードを選択すると、スタート画面表示へ進む(ステップS14)。
First, in the flowchart of FIG. 7, step S <b> 10 is a state in which a menu screen is displayed on the display unit 206 of the wrist terminal 2. Here, either the training mode or the replay mode can be selected (step S12).
If the replay mode is selected, the process proceeds to step S24 to execute the replay process. The replay process is for reproducing the training situation, and will not be described in detail in the present embodiment. Of course, other options may be prepared. If the training mode is selected in this state, the process proceeds to the start screen display (step S14).

スタートする時は、メニュー表示の中からSTARTメニューを選択する(ステップS16)。すると、ステップS18へ進み、計測処理を開始する。
トレーニング中、すなわち計測中にSTOPメニューが選択されると(ステップS20)、トレーニング終了と判断して、ステップS22へ進み、トレーニングの結果表示を行う。
When starting, the START menu is selected from the menu display (step S16). Then, it progresses to step S18 and starts a measurement process.
If the STOP menu is selected during training, that is, during measurement (step S20), it is determined that the training has ended, and the process proceeds to step S22 to display the training result.

図9は、図7におけるステップS18の計測処理の詳細を説明するためのフローチャートである。
トレーニング中、センサー252、生体センサー254、環境センサー256は適宜測定を行い、情報を収集している(ステップS100)。すなわち、GPS250により現在時刻と現在位置を取得する。現在時刻は、内蔵クロックから取得してもよい。
また、センサー252により、進行方向や加速度を得て前記現在位置を補正する。
生体センサー254により、体温、脈拍等の生体情報を取得する。
環境センサー256により、リスト端末2の周囲の気温、湿度等の環境情報を取得する。
それと共に、スタートしてからの走行時間(時間情報)を計算し記録している。
FIG. 9 is a flowchart for explaining details of the measurement process in step S18 in FIG.
During training, the sensor 252, the biosensor 254, and the environment sensor 256 appropriately measure and collect information (step S100). That is, the current time and current position are acquired by the GPS 250. The current time may be obtained from the built-in clock.
Further, the sensor 252 obtains the traveling direction and acceleration, and corrects the current position.
The biological sensor 254 acquires biological information such as body temperature and pulse.
Environmental information such as ambient temperature and humidity around the wrist terminal 2 is acquired by the environmental sensor 256.
At the same time, the running time (time information) from the start is calculated and recorded.

これらの収集情報は、バッファメモリ280を介して逐次、あるいは後で一括してサーバー11へ送られ、それぞれ、位置情報記憶エリア121、時刻情報記憶エリア122、時間情報記憶エリア123、生体情報記憶エリア126、環境情報記憶エリア127にそれぞれ記憶される。   The collected information is sent to the server 11 sequentially or collectively through the buffer memory 280, and the position information storage area 121, the time information storage area 122, the time information storage area 123, and the biological information storage area, respectively. 126 and the environment information storage area 127, respectively.

ステップS106は感情情報の入力があったかどうかを判断する。NOであればステップS110へ進む。
YESであればステップS108で感情情報を取得する。感情情報の取得処理については後述する。感情情報はサーバー11の感情情報エリア124に記憶される。感情情報は、サーバーの感情情報記憶エリア124に記憶される。
In step S106, it is determined whether emotion information has been input. If NO, the process proceeds to step S110.
If YES, emotion information is acquired in step S108. The emotion information acquisition process will be described later. Emotion information is stored in the emotion information area 124 of the server 11. Emotion information is stored in the emotion information storage area 124 of the server.

ステップS114では、リスト端末2のカメラ制御部290の制御によりウエアブルカメラ4により撮影を行う。具体的には気持ちスタンプが選択された時に、気持ちスタンプとセットでその場の撮影を行って写真を記録する。撮影された画像データは画像メモリ272にバッファとして記録された後、サーバー11の画像メモリ170に記憶される。
なお、動画を常時撮影している場合は、ステップS100の計測動作と並行して逐次撮影を継続している。
In step S <b> 114, shooting is performed by the wearable camera 4 under the control of the camera control unit 290 of the wrist terminal 2. Specifically, when a feeling stamp is selected, the photograph is recorded on the spot with the feeling stamp and set. The captured image data is recorded as a buffer in the image memory 272 and then stored in the image memory 170 of the server 11.
In addition, when the moving image is always photographed, sequential photographing is continued in parallel with the measurement operation in step S100.

図10は、図9におけるステップS108の感情情報取得処理の詳細を示すフローチャートである。以下に説明するように、ユーザーの感情情報は、生体センサー252の収集情報、ウエアブルカメラ4による撮影データ、気持ちスタンプの選択のいずれかにより得られる。   FIG. 10 is a flowchart showing details of the emotion information acquisition process in step S108 in FIG. As will be described below, the emotion information of the user is obtained by any one of information collected by the biometric sensor 252, data captured by the wearable camera 4, and selection of a feeling stamp.

ステップS204では、生体センサー254が収集した生体情報から、ユーザーの感情を判別する。脈拍等の生体情報からユーザーのストレス度合等を判別する方法は各種提案されており(例えば、特許第4641811号、特許5046286号参照)、ここでは詳述しない。
生体情報分析プログラム114は、この判別結果から、それに相応しい気持ちスタンプを後述する図11の中から選択する(ステップS208)。選択された気持ちスタンプはユーザーの感情画像となり、感情画像メモリ140に記憶される。
In step S204, the emotion of the user is determined from the biological information collected by the biological sensor 254. Various methods for discriminating a user's stress level from biological information such as a pulse have been proposed (see, for example, Japanese Patent No. 4641811 and Japanese Patent No. 5046286), and will not be described in detail here.
The biological information analysis program 114 selects a feeling stamp appropriate for the determination result from FIG. 11 described later (step S208). The selected feeling stamp becomes an emotion image of the user and is stored in the emotion image memory 140.

ステップS206では、ステップS114でウエアブルカメラ4によるユーザーの顔を被写体とする撮影があった時、撮影された画像データを、画像メモリ272をバッファとしてサーバー11の画像メモリ170に記憶し、顔認識プログラム115により感情を判別する。顔認識技術に人物の感情を判別する技術は各種提案されており、ここでは詳述しない。顔認識プログラム115は、この判別結果から、それに相応しい気持ちスタンプを後述する図11の中から選択する(ステップS208)。選択された気持ちスタンプはユーザーの感情画像となり、感情画像メモリ140に記憶される。   In step S206, when the wearable camera 4 has photographed the user's face in step S114, the photographed image data is stored in the image memory 170 of the server 11 using the image memory 272 as a buffer, and face recognition is performed. Emotion is discriminated by the program 115. Various techniques for discriminating human emotions have been proposed as face recognition techniques, and will not be described in detail here. The face recognition program 115 selects a feeling stamp appropriate for the determination result from FIG. 11 described later (step S208). The selected feeling stamp becomes an emotion image of the user and is stored in the emotion image memory 140.

ステップS208では、前述した生体情報分析プログラム114がユーザーの感情を判別した結果、又は顔認識プログラム115がユーザーの感情を判別した結果によって気持ちスタンプを選択する。図11に気持ちスタンプの例を示す。ユーザー自身がトレーニング中に任意の気持ちスタンプを選択してもよい。気持ちスタンプは例えば同図に示すように複数用意されており、A1〜A9はそれぞれ異なる感情を表現している気持ちスタンプである。これ以外にも多くの気持ちスタンプが用意されており、ユーザー自身が選択する際は表示部206のスクロール操作により気持ちスタンプ画面を表示させ、自分の感情に最も合っている気持ちスタンプを選択する。又は、前述したように、音声コマンドで「キリカエ」と発生して気持ちスタンプ画面に切り替え、「元気」「快調」「楽しい」「順調」「疲れた」「苦しい」等と発声すると、該当する気持ちスタンプが選択される。   In step S208, a feeling stamp is selected based on the result of the above-described biometric information analysis program 114 determining the user's emotion or the result of the face recognition program 115 determining the user's emotion. FIG. 11 shows an example of a feeling stamp. The user himself / herself may select any feeling stamp during training. For example, a plurality of feeling stamps are prepared as shown in the figure, and A1 to A9 are feeling stamps expressing different emotions. Many feeling stamps other than this are prepared, and when the user himself / herself selects, the feeling stamp screen is displayed by scrolling the display unit 206, and the feeling stamp most suitable for his / her feeling is selected. Or, as mentioned above, “Kirikae” is generated by voice command, and it switches to the feeling stamp screen, and when it says “Energetic” “Fair” “Fun” “Fair” “Fatigue” “Hard” etc., the corresponding feeling A stamp is selected.

生体情報分析プログラム114又は顔認識プログラム115がユーザーの感情を判別した結果によって気持ちスタンプを選択する場合は、ユーザーの感情の判別結果が予め設定されている感情状態となったと判別されたタイミングで選択される。
選択された気持ちスタンプは前述したようにユーザーの感情画像となるもので、感情画像メモリ140に記録される。
When the biometric information analysis program 114 or the face recognition program 115 selects a feeling stamp based on the result of determining the user's emotion, the selection is performed at a timing when it is determined that the determination result of the user's emotion is a preset emotion state. Is done.
The selected feeling stamp is a user's emotion image as described above, and is recorded in the emotion image memory 140.

<ウエアブルカメラ4の動作>
図12はウエアブルカメラ4の動作を説明するためのフローチャートである。まず、トレーニングを開始する前に、ウエアブルカメラ4をスタンバイモードにする(ステップS400)。これは、リスト端末2においてスタートメニューの選択(図6、ステップS12)がされるのと連動してスタンバイモードとなるが、ウエアブルカメラ4本体の操作スイッチ(図示せず)によって設定してもよいし、リスト端末2からリモコンのように遠隔操作で設定してもよい。
<Operation of wearable camera 4>
FIG. 12 is a flowchart for explaining the operation of the wearable camera 4. First, before starting training, wearable camera 4 is set to a standby mode (step S400). This is in the standby mode in conjunction with the selection of the start menu (FIG. 6, step S12) in the wrist terminal 2, but it can be set by an operation switch (not shown) of the wearable camera 4 main body. Alternatively, the wrist terminal 2 may be set by remote operation like a remote controller.

まず、リスト端末2から同期信号が送られてきたかどうかを検出する(ステップS402)。この同期信号は、無線通信における同期を取るための同期信号であって、ブルートゥース等の規格によって定められている。同期信号の受信を待って、リスト端末2とウエアブルカメラ6の同期が確立しているか否かを検出する(ステップS404)。同期が確立したことを検出すると、タイミング制御回路452は相対時刻のカウントを開始する(ステップS406)。この段階で、リスト端末2とウエアブルカメラ4の相対時刻は一致する。従って、汎用無線通信方式の同期信号を利用して、リスト端末2とウエアブルカメラ4内部のアプリケーション層の同期処理を実現することができる。   First, it is detected whether a synchronization signal is sent from the wrist terminal 2 (step S402). This synchronization signal is a synchronization signal for synchronization in wireless communication, and is defined by standards such as Bluetooth. Waiting for the reception of the synchronization signal, it is detected whether or not synchronization between wrist terminal 2 and wearable camera 6 is established (step S404). When detecting that synchronization is established, the timing control circuit 452 starts counting relative time (step S406). At this stage, the relative times of the wrist terminal 2 and the wearable camera 4 coincide. Therefore, it is possible to realize synchronization processing between the wrist terminal 2 and the application layer inside the wearable camera 4 by using the synchronization signal of the general-purpose wireless communication system.

そして、ステップS408で撮影制御プログラム436の制御により撮影を開始する。
例えば連写のように1秒間に複数枚撮影してもよいし、1分に1枚程度の撮影でも良い(ステップS402)。撮影した写真は画像メモリ440にFIFO(First In First Out)方式で一定期間保持される。
In step S408, shooting is started under the control of the shooting control program 436.
For example, a plurality of images may be captured per second as in continuous shooting, or approximately one image may be captured per minute (step S402). The photographed image is held in the image memory 440 for a certain period of time using a FIFO (First In First Out) method.

トレーニング中の自動撮影なので、ピントのボケやブレが発生する可能性が高い。そこで、複数枚の写真を撮影しておき、その中から最適な写真を選択できるようにしている。写真の選択は、写真選択プログラム436又はサーバー11の写真選択プログラム117の制御で行う。なお明細書中ではウエアブルカメラ4により撮影された画像(画像データ)を写真と称呼している。
ボケやブレの少ない写真を選択する技術はいくつか知られているので詳述はしない。
Since automatic shooting during training, there is a high possibility of out-of-focus and blurring. Therefore, a plurality of photographs are taken, and the optimum photograph can be selected from them. The selection of a photo is performed under the control of the photo selection program 436 or the photo selection program 117 of the server 11. In the specification, an image (image data) taken by the wearable camera 4 is referred to as a photograph.
Several techniques for selecting photos with less blur and blur are not described in detail.

なお、言うまでもないが図面に使用した写真はあくまで本実施の形態を説明するための例であって、実在の場所、コース等とは何の関係もないものであり、例示した写真のコンテンツ自体に意味は無い。
また、前述したようにサーバー11又はリスト端末2が指示する撮影タイミングを、ウエアブルカメラ4自身が各種生体情報や感情情報を受け取って、その情報をもとに自分自身で決定することもできる。
更に、図8で説明したようにレンズ404をユーザー自身の顔を撮影するように設置した場合は、ユーザーの顔の撮影情報を感情情報に使用することもできる。
Needless to say, the photos used in the drawings are merely examples for explaining the present embodiment, and have nothing to do with the actual place, course, etc. There is no meaning.
Further, as described above, the wearable camera 4 itself can receive various biological information and emotion information, and can determine the photographing timing instructed by the server 11 or the wrist terminal 2 by itself based on the information.
Further, when the lens 404 is installed so as to photograph the user's own face as described with reference to FIG. 8, the photographing information of the user's face can be used as emotion information.

次に、リスト端末2で、前述したいくつかの手法のいずれかにより気持ちスタンプが選択されると、感情情報として受信し(ステップS410)、ステップS408で撮影していた写真のうち、例えば受信したジャストタイミングの写真及びその前後の写真各5枚の計11枚を画像メモリ440に保存する(ステップS414)。このタイミングは、同期が確立しているので、タイミング制御回路452により管理されており、例えば気持ちスタンプが選択されたまさにその瞬間でも、1秒後でも、0.5秒前でも、正確に設定することが可能である。   Next, when the feeling stamp is selected by the wrist terminal 2 by any of the above-mentioned several methods, it is received as emotion information (step S410), and for example, received among the photographs taken in step S408. A total of 11 photos of just timing photos and 5 photos before and after the photos are stored in the image memory 440 (step S414). This timing is managed by the timing control circuit 452 because synchronization is established. For example, the timing is accurately set at the moment when the feeling stamp is selected, at 1 second, or 0.5 seconds before. It is possible.

なお、感情情報の受信以外にリスト端末2から撮影指示を受信した場合は(ステップS412)、ステップS414へ進んで写真の保存を行う。
また、保存した写真若しくは任意の写真はSDカード442に保存でき、他の再生装置で見ることができる。
保存した写真はリスト端末2に送信し(ステップS408)、リスト端末2の画像メモリ272に一旦記憶され、更にサーバー11に送られて画像メモリ170に記憶される。
ウエアブルカメラ4のスタンバイモードが終了すると(ステップS416)、撮影フローは終了する(ステップS418)。これは、開始と同様、ウエアブルカメラ4本体の操作スイッチ(図示せず)によって設定してもよいし、リスト端末2からリモコンのように遠隔操作で設定してもよい。
If a shooting instruction is received from the wrist terminal 2 other than the reception of emotion information (step S412), the process proceeds to step S414 to save the photograph.
In addition, the stored photo or an arbitrary photo can be stored in the SD card 442 and can be viewed on another playback device.
The stored photograph is transmitted to the wrist terminal 2 (step S408), temporarily stored in the image memory 272 of the wrist terminal 2, and further sent to the server 11 and stored in the image memory 170.
When the standby mode of the wearable camera 4 ends (step S416), the shooting flow ends (step S418). As with the start, this may be set by an operation switch (not shown) of the wearable camera 4 main body, or may be set by remote operation from the wrist terminal 2 like a remote control.

<タイムライン表示>
続いて、タイムラインの表示について説明する。
図14は、ユーザーの行動に沿ったタイムライン作成のためのサーバー11のフローチャートであり、図13は、PC3やスマホ端末1−2のタイムラインの表示例を示すものである。
図13(a)はスマホ端末1の表示部340の表示イメージを示すもので、上半分にコースCとトレーニング中のユーザーの現在位置Nを表示している。また、下半分には、タイムラインTLを表示する。図13(b)は、スマホ1を横長にして表示させた例で、左半分にコースCと現在位置Nを、右半分にタイムラインTLを表示している。
<Timeline display>
Next, timeline display will be described.
FIG. 14 is a flowchart of the server 11 for creating a timeline according to the user's behavior, and FIG. 13 shows a display example of the timeline of the PC 3 or the smartphone terminal 1-2.
FIG. 13 (a) shows a display image of the display unit 340 of the smartphone terminal 1, and the course C and the current position N of the training user are displayed in the upper half. In the lower half, a timeline TL is displayed. FIG. 13B shows an example in which the smartphone 1 is displayed horizontally, in which the course C and the current position N are displayed on the left half, and the timeline TL is displayed on the right half.

図13(b)では、ユーザーの現在位置Nの他に、同じコースを走っている友人Aの位置NAをアイコンで示している。すなわちユーザーが友人Aと出会った以降の表示例である。友人Aも同様のリスト端末2を装着してトレーニングしているという前提なので、SNSサイト10を介してお互いの位置を知ることができる。従って、競争したり、タイムを競ったり、一方がペースメーカーになったりすることもできる。タイムを比較表示することは勿論できるが、アイコンの表示形態を変えたり、相手(友人A)が近づいてくるとアイコンを点滅表示させたりして追い上げられていることを知らせることができる。
更に、サーバー11に履歴データ記憶部108には、過去のトレーニングデータが記憶されているので、自分の過去のトレーニング結果や友人Aのトレーニング結果を読み出して、バーチャルな相手と一緒にトレーニングしたり競争したりすることも可能である。
In FIG. 13B, in addition to the current position N of the user, the position NA of the friend A running on the same course is indicated by an icon. That is, it is a display example after the user meets the friend A. Since it is premised that the friend A is wearing the same wrist terminal 2 and training, the positions of each other can be known through the SNS site 10. Therefore, it is possible to compete, to compete for time, or to become a pacemaker. Of course, the time can be compared and displayed, but the icon display form can be changed, or when the other party (friend A) is approaching, the icon can be flashed to indicate that it is being chased.
Further, since the past training data is stored in the history data storage unit 108 in the server 11, the past training results and the training results of the friend A are read out, and training or competition with the virtual partner is performed. It is also possible to do.

しかして、タイムラインの一例は図15A、15B、15Cに示している。
以下、図14のサーバー11のCPU102が実行するフローチャートと図15A、15B、15Cのタイムラインの表示例を参照しながら、タイムライン表示について説明する。
まず、ステップS502で、ユーザー自身からのコメント投稿がないかどうかを待機する。ここでNOであれば、ステップS504に進み、友人からのコメント投稿がないかを待機する。友人とはSNSシステム10内で特定のフレンド関係となった他のユーザーである。ここでNOであれば、ステップS506に進み、リスト端末2で気持ちスタンプが発生するかどうかを待機する。気持ちスタンプは前述したように、トレーニング中のユーザーの感情情報を基に、その感情を表現している図11に示した気持ちスタンプのいずれかを選択して送信するものである。
ここでもNOであれば、ステップS508でSTOPメニューが選択されたか、すなわちトレーニング終了か否かを判断する。ここでもNOであれば、ステップS502に戻ってループを継続する。
Thus, examples of timelines are shown in FIGS. 15A, 15B, and 15C.
Hereinafter, the timeline display will be described with reference to the flowchart executed by the CPU 102 of the server 11 in FIG. 14 and the display examples of the timelines in FIGS. 15A, 15B, and 15C.
First, in step S502, it is waited whether there is no comment contribution from the user himself. If “NO” here, the process proceeds to a step S504 to wait for a comment post from a friend. A friend is another user who has a specific friend relationship within the SNS system 10. If “NO” here, the process proceeds to a step S506 to wait for a feeling stamp to be generated in the wrist terminal 2. As described above, the feeling stamp selects and transmits one of the feeling stamps shown in FIG. 11 expressing the feeling based on the emotion information of the user during training.
If “NO” here as well, it is determined in step S508 whether the STOP menu has been selected, that is, whether the training has ended. If “NO” again, the process returns to step S502 to continue the loop.

ステップS502で自分からのコメントを検出すると、コメントメモリ160に一旦記憶されて、ステップS510に進み、自分が投稿したタイムラインを図15A(1)のように流す。この処理はタイムライン作成プログラム116が行う。タイムスタンプは自動的に付与される。この表示は会員のスマホ端末1やPC3で閲覧可能とされる。
図15A(1)は、ユーザー自身(自分)が「明日、皇居にジョギングに行くよ」というコメントを投稿したものである。これを受けて友人Aの任意の端末から「気を付けてね」というコメントが投稿されると、ステップS504で友人のコメント有りを検出して図15A(2)のようにタイムライン表示する。同様に友人Bの「がんばって!」というコメントも図15A(3)のように表示される。自分が「コースはここだよ」というコメントを流し、地図をアップした状態が図15A(4)(5)である。コメントの文章と共に写真も投稿可能である。図15A(6)の「ぼくも行くかも」は友人Aのコメント、図15A(7)の「会えたらいいね」は自分のコメントを示す。任意の写真をタイムラインにアップできること、友人が任意のアイコンを作成できることは公知であるので詳述はしない。
When a comment from the user is detected in step S502, the comment is temporarily stored in the comment memory 160. Then, the process proceeds to step S510, and the timeline posted by the user is flowed as shown in FIG. 15A (1). This process is performed by the timeline creation program 116. The time stamp is automatically given. This display can be viewed on the member's smartphone terminal 1 or the PC 3.
FIG. 15A (1) shows a comment posted by the user himself (to himself) to go jogging to the Imperial Palace tomorrow. In response to this, when a comment “Be careful” is posted from an arbitrary terminal of the friend A, the presence of the comment of the friend is detected in step S504, and the timeline is displayed as shown in FIG. 15A (2). Similarly, the comment “Good luck!” Of friend B is also displayed as shown in FIG. 15A (3). 15A (4) and 15 (5) show the state where he / she made a comment “The course is here” and uploaded the map. Photos can be posted along with the comment text. In FIG. 15A (6), “I may also go” indicates the comment of friend A, and “I wish I can meet” in FIG. 15A (7) indicates my comment. Since it is well known that any photo can be uploaded to the timeline and a friend can create any icon, it will not be described in detail.

さて、リスト端末2とウエアブルカメラ4を装着してトレーニングするユーザー(自分)がリスト端末2のメニュー画面からSTARTメニューを選択してトレーニングをスタートすると、図15B(8)のようにタイムラインに「START」コメントがサーバー11から自動送信される。同図において、コメントの吹き出しを二重線で表現しているものはユーザーの投稿ではなくサーバー11の自動送信であることを示している。   Now, when a user (self) who wears the wrist terminal 2 and the wearable camera 4 and trains selects the START menu from the menu screen of the wrist terminal 2 and starts training, the timeline is displayed as shown in FIG. 15B (8). A “START” comment is automatically transmitted from the server 11. In the same figure, what is expressed by a double line in a comment balloon indicates that it is not a user's post but automatic transmission of the server 11.

そして、その時のユーザーの感情情報に合った気持ちスタンプA9が感情画像メモリ120から選択され、その時にウエアブルカメラ4で撮影し画像メモリ170に記憶された写真と共にタイムラインにアップされる(図14ステップS506、図15B(9))。
気持ちスタンプは、生体情報分析プログラム114の結果により自動判別されるか、ユーザー自身が選択することは前述のとおりである。
Then, a feeling stamp A9 that matches the emotion information of the user at that time is selected from the emotion image memory 120, and the photograph is taken by the wearable camera 4 at that time and is uploaded to the timeline together with the photograph stored in the image memory 170 (FIG. 14). Step S506, FIG. 15B (9)).
As described above, the feeling stamp is automatically determined based on the result of the biological information analysis program 114 or selected by the user himself / herself.

すなわち、トレーニングを開始すると、自動的にその時々のユーザーの感情に合わせて気持ちスタンプが自動的にタイムラインにアップされていくと共に、ウエアブルカメラ4で撮影した写真も一緒にアップされていく。従って、気持ちスタンプの発生タイミングとウエアブルカメラ4で撮影するタイミングは同期している。写真は一例として気持ちスタンプ発生タイミングの前後11枚を撮影しているが、写真選択プログラム117により、最もボケやブレの少ない写真が自動選択されてアップされる。ウエアブルカメラ4では、複数枚の写真を撮影し保存することができるので、ジャストタイミングの写真をアップするか、時間のずれを考慮して0.5秒くらい前に撮影した写真をアップしてもよい。   That is, when training is started, feeling stamps are automatically uploaded to the timeline according to the emotions of the user at the same time, and photographs taken with the wearable camera 4 are also uploaded together. Therefore, the generation timing of the feeling stamp and the timing of shooting with the wearable camera 4 are synchronized. As an example, 11 photographs are taken before and after the feeling stamp generation timing, and the photograph selection program 117 automatically selects and uploads the photograph with the least blur and blurring. The wearable camera 4 can take and save multiple photos, so you can either upload just-timed photos or take photos taken about 0.5 seconds ago to account for time lag. Also good.

図15B(10)で友人Cの「いいコースですね」というコメントがアップされ、図15B(11)では快調にトレーニングしている気持ちスタンプA1と写真P2がアップされる。
図15B(12)では、上り坂に差し掛かってきつくなってきた時の感情から自動又は手動で選択された気持ちスタンプA2と写真P3がアップされる。
図15B(13)では、友人Cのコメント「がんばってください」が表示される。
図15C(14)では、坂を上り終わってほっとしている気持ちスタンプA3と写真P4がアップされる。
In FIG. 15B (10), the comment “Friendly course” of friend C is uploaded, and in FIG. 15B (11), feeling stamp A1 and photograph P2 are being trained smoothly.
In FIG. 15B (12), the feeling stamp A2 and the photograph P3, which are automatically or manually selected from the feelings when approaching the uphill, are uploaded.
In FIG. 15B (13), the comment “Please do your best” of friend C is displayed.
In FIG. 15C (14), a feeling stamp A3 and a photograph P4 that are relieved after going up the hill are uploaded.

図15C(15)では、友人Bのコメント「よくがんばったね」が表示され、更に図15C(16)で友人Aがユーザー(自分)と出会って「合流したよ」というコメントを表示している。この時、図15C(17)のように、あいさつの感情を示す気持ちスタンプA6をアップすると共に、その時撮影した友人Aが写っている写真P5がアップされる。
図15C(16)では、満開の桜を見て感動している気持ちスタンプA7と、桜の写っている写真P6がアップされる。
しかして、トレーニングを終了するとメニュー表示からSTOPメニューを選択し、図14のステップS508でYESとなりトレーニングモードを終了する。
その際、図15C(19)に示すように、「GOAL」がサーバー11から自動送信される。
図25(20)ではゴールに到達した時の喜びの気持ちスタンプA4とその時撮影されたゴールの写真P7がアップされる。
In FIG. 15C (15), the comment “Good luck” of friend B is displayed, and in FIG. 15C (16), friend A meets the user (self) and displays the comment “Join”. At this time, as shown in FIG. 15C (17), the feeling stamp A6 indicating the greeting is increased, and the photograph P5 showing the friend A photographed at that time is also increased.
In FIG. 15C (16), a feeling stamp A7, which is impressed by seeing the cherry blossoms in full bloom, and a photograph P6 in which the cherry trees are reflected are uploaded.
When the training is finished, the STOP menu is selected from the menu display, and the training mode is finished in step S508 of FIG.
At this time, “GOAL” is automatically transmitted from the server 11 as shown in FIG.
In FIG. 25 (20), a joy stamp A4 when the goal is reached and a goal photograph P7 taken at that time are uploaded.

変形例として、苦しくなった時に「友だちに応援を頼む」を要求できる。そのために、例えばリスト端末2の「Cheer Me」(図示せず、音声入力でも良い)ボタンを押すと、スマホ端末1、サーバー11を経由して友人のスマホ端末1にメッセージが送られる。メッセージを受けた側(友人)は、アプリケーションプログラム上で「Cheer」コマンドを操作すると応援メッセージ(又は応援スタンプ)を返すことができる。従ってトレーニング中のユーザーはリアルタイムに応援を受け取ることができる。図15A、B、Cにおいて、応援メッセージがタイムライン中にインタラプト的にアップされてもよい。苦しくなったかどうかは、自己申告だけでなく、速度が落ちた、心拍数が上がった等の生体センサー254で収集される生体情報から自動判別して、走っているユーザー本人(自分)に通知してもよい。一定値に達した時に「応援をたのむ?」と端末2の表示部202上に通知する。   As a modified example, when it becomes difficult, it can request “a friend asks for support”. For this purpose, for example, when a “Cheer Me” (not shown, voice input) button of the wrist terminal 2 is pressed, a message is sent to the friend's smartphone terminal 1 via the smartphone terminal 1 and the server 11. The side (friend) who receives the message can return a support message (or support stamp) by operating the “Cheer” command on the application program. Therefore, the training user can receive support in real time. In FIGS. 15A, 15B, and 15C, the support message may be interrupted up during the timeline. Whether it is difficult or not is not only self-reported, but it is automatically determined from the biological information collected by the biological sensor 254, such as the speed has fallen and the heart rate has risen, and the running user himself / herself is notified. May be. When the value reaches a certain value, a message “Would you like to support me?” Is displayed on the display unit 202 of the terminal 2.

トレーニングが終了した時には、メニュー画面から「STOP」メニューを選択する。
リスト端末2が収集した各種情報は、電話回線経由で、又はスマホを一緒に持っている時はスマホ経由で、リアルタイムでサーバー11に送ってもよいし、10分に1回、1時間に1回等、定期的に送ってもよい。またトレーニング終了後に無線又は有線でサーバー11と接続して、一括して送ってもよい。基本的に、トレーニング中はSNSサイト10と接続している必要はなく、トレーニングが終わってから、例えばPC3と接続して、リスト端末2によりトレーニング中に収集した情報をサーバー11にアップロードすればよい。サーバー11は集まった情報を基にリプレイ処理(図7のステップS24)を実行することができる。
When the training is completed, the “STOP” menu is selected from the menu screen.
The various information collected by the wrist terminal 2 may be sent to the server 11 in real time via a telephone line or via a smartphone when the smartphone is held together, or once every 10 minutes and once per hour. It may be sent periodically such as times. In addition, after the training is completed, the server 11 may be connected to the server 11 wirelessly or by wire and may be sent collectively. Basically, it is not necessary to connect to the SNS site 10 during training. After the training is completed, for example, the information collected during the training by the wrist terminal 2 can be uploaded to the server 11 by connecting to the PC 3. . The server 11 can execute the replay process (step S24 in FIG. 7) based on the collected information.

なお、本発明は、上記実施の形態に限定されるものではなく、トレーニングとは広義の意味に解するものとする。すなわち、散策、観光、散歩、ウオーキング、ジョギング、マラソン、サイクリング、登山、マリンスポーツ等に適用することができ、また、ペットの散歩や、高齢者・徘徊老人にも応用することができる。トレーニングとワークアウトは同義である。   Note that the present invention is not limited to the above-described embodiment, and training is understood in a broad sense. That is, it can be applied to walking, sightseeing, walking, walking, jogging, marathon, cycling, mountain climbing, marine sports, etc., and it can also be applied to pet walking, elderly people, and elderly people. Training and workout are synonymous.

また、腕に装着してトレーニングする腕時計型のリスト端末を例にとって説明したが、これに限ることなく、頭に装着したり、腰に取り付けたり、あるいは手で持ってトレーニングしても構わない。ウエアブルカメラについても同様で、腰につけたり、メガネ型にしたり、手で持ってトレーニングすることも可能である。   In addition, although a wristwatch type wrist terminal that is worn on the arm and trained has been described as an example, the wrist-type wrist terminal is not limited thereto, and may be worn on the head, attached to the waist, or held by hand. The same applies to wearable cameras, which can be worn on the waist, in glasses, or held by hand.

<実施の形態並びに推考しうる変形例とその作用効果>
生体センサーの収集情報から、ユーザーの感情や体調を判別して、写真の撮影タイミング、写真の選択等、撮影制御に反映させることができる。
撮影された写真を画像処理するだけで、ユーザーの感情や体調を判別して、撮影制御に反映させることができる。
生体センサーの収集情報やその判別結果、写真を日々の生活行動履歴(ライフログ)として記録したり、SNSに投稿して共有したりすることができる。
ユーザーが、メール送信やコメントの書込み等の所定のイベントを発生した時に、その時点のユーザーの感情や体調を判別して、撮影制御に反映させることができる。
イベントが発生した時のユーザーの生体情報に基づいて、撮影制御に反映させることができる。
イベントが発生した前後における生体情報の変化に基づいて、ユーザーの感情や体調の時間的変化を判別して、撮影制御に反映させることができる。
ウエアブルカメラの再生画像に感情を示すオブジェクトを合成することができる。
撮影された写真を一見するだけで、相手の感情や状態を、分かりやすく且つ興趣性を持って伝達できる。
<Embodiments and Inferred Variations and Their Effects>
The user's emotion and physical condition can be discriminated from the collected information of the biometric sensor, and reflected in the shooting control such as the shooting timing of the photo and the selection of the photo.
The user's emotions and physical condition can be discriminated and reflected in shooting control simply by image processing of the shot photo.
The collected information of the biosensor, the determination result, and the photograph can be recorded as daily life activity history (life log), or can be posted to the SNS and shared.
When a user generates a predetermined event such as mail transmission or comment writing, the user's emotion and physical condition at that time can be determined and reflected in the imaging control.
Based on the user's biological information when the event occurs, it can be reflected in the imaging control.
Based on changes in biometric information before and after the occurrence of an event, temporal changes in the user's emotion and physical condition can be determined and reflected in imaging control.
It is possible to synthesize an object indicating emotion to the playback image of the wearable camera.
By just looking at the pictures taken, you can convey the emotions and conditions of the other party in an easy-to-understand and interesting way.

ウエアブルカメラの撮像シーン毎に、そのシーンにおけるそのときのユーザーの各種生体情報を記録してもよい。これにより撮影された動画データやシーンと対応付けて、シーンごとの撮影制御に反映させることができる。また撮像シーン毎に、その時のユーザーの感情や体調を判別して、撮影制御に反映させることができる。
撮影した動画やそのシーンと対応付けてユーザーの生体情報を記録し、再生画像(リプレイ画像)に合成してグラフやオブジェクトを表示してもよい。
どのようなトレーニングシーンであったのか、その各シーンや記録を達成した時に、どのように感動したのか、どのような感情や精神状態であったのか、撮影された写真を見ることによってユーザーの感動や状態データを確認したり、仲間や他人と伝達共有したりできる。
For each imaging scene of the wearable camera, various biological information of the user at that time in the scene may be recorded. Thus, it can be reflected in shooting control for each scene in association with moving image data and scenes shot. In addition, for each imaging scene, the emotion and physical condition of the user at that time can be determined and reflected in the imaging control.
The user's biometric information may be recorded in association with the captured moving image or its scene, and may be combined with a reproduced image (replay image) to display a graph or an object.
What kind of training scene it was, how it was impressed when each scene and record was achieved, what kind of emotion and mental state it was, and the impression of the user You can check the status data and share it with friends and others.

レンズを帽子形状外側に向ける例と、つばの下側に設ける例を説明したが、撮像部を複数設ければ外部の景色などを間欠的又は連続的に記録すると共に、景色と同時にユーザーの顔画像も撮像し、顔画像からユーザーの生体情報を抽出・判別することができる。
撮影した動画とユーザーの顔画像や生体情報とを対応付けてSDカードやサーバーにログ情報として蓄積することができる。
顔画像の動画からユーザーの生体情報を検出したり、生体情報の時系列データから、ログ情報に、その時のユーザーの感情や精神状態などの情報を合成したり、感情を示すオブジェクトを表示してもよい。
顔画像や生体センサーから抽出する生体情報は、呼吸の拍数、または呼吸間隔等の時系列変化データとしてもよい。
トレーニングや移動中、運転中など、集中力を要し、他の動作に気をとられたくないような時、手をふさがずに、カメラの撮影動作や機器の所定の機能動作などができるので、運動やスポーツなどに集中でき、撮影の失敗や事故なども抑制できる。
Although the example in which the lens is directed to the outer side of the hat shape and the example in which the lens is provided on the lower side of the collar has been described, if multiple imaging units are provided, external scenery etc. can be recorded intermittently or continuously, and the user's face at the same time as the scenery An image can also be taken and the user's biometric information can be extracted and discriminated from the face image.
The captured moving image can be stored in the SD card or server as log information in association with the user's face image or biometric information.
Detecting user's biometric information from a video of a face image, synthesizing information such as the user's emotion and mental state at that time from log data, and displaying objects indicating emotion Also good.
The biological information extracted from the face image or the biological sensor may be time-series change data such as the respiratory rate or the respiratory interval.
When you need concentration, such as training, moving, or driving, and you don't want to be distracted by other actions, you can take pictures of the camera or perform certain functions of the equipment without blocking your hands. , Can concentrate on exercise and sports, etc., and can also prevent shooting failures and accidents.

以上、この発明の実施形態について説明したが、この発明はこれらに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下に、本願出願時の特許請求の範囲を付記する。
<付記>
As mentioned above, although embodiment of this invention was described, this invention is not limited to these, The invention described in the claim and its equal range are included.
The claims appended at the time of filing this application will be appended below.
<Appendix>

[請求項1]
端末と、該端末と無線接続されるカメラと、を含むトレーニング支援システムにおいて、
前記端末は、
感情情報を取得する感情情報取得手段と、
第1の無線通信手段と、
前記感情情報を取得した時のタイミング情報を前記無線通信手段により前記カメラに通知する通知手段と、
を備え、
前記カメラは、
前記前記第1の無線通信手段と対応している第2の無線通信手段と、
前記第2の無線通信手段により前記タイミング情報を受信する受信手段と、
前記受信したタイミング情報に応じて撮影処理を行う撮影手段と、
を備えることを特徴とするトレーニング支援システム。
[請求項2]
前記カメラの撮影手段は、撮影指示前から撮影を行う過去撮影手段と、前記タイミング情報を受信した時、撮影した複数の画像の中から該タイミング情報に応じて1枚又は複数枚の画像を保存する保存手段とを含むことを特徴とする請求項1記載のトレーニング支援システム。
[請求項3]
前記端末はCPUを備え、
前記第1の無線通信手段は前記カメラに対し無線通信の同期を確立するための同期信号を送信すると共に、
前記無線通信の同期のタイミングで前記CPUにインタラプトをかけて前記CPUに前記通知手段を起動させる第1のタイミング制御手段を更に備え、
前記カメラは、
前記第2の無線通信手段により前記同期信号を受信して無線同期を確立し、
前記無線同期の確立に基づいてタイミング制御を行う第2のタイミング制御手段を更に備え、
前記撮影手段は前記第2のタイミング制御手段にタイミング制御されて撮影処理を行うことを特徴とする請求項1又は2記載のトレーニング支援システム。
[請求項4]
前記カメラは、前記無線通信の同期のタイミングで前記第2のタイミング制御手段が相対時刻の計時を開始し、
前記保存手段は、前記相対時刻を前記タイミング情報として前記1枚又は複数枚の画像を保存することを特徴とする請求項3記載のトレーニング支援システム。
[請求項5]
該システムはサーバーを含み、
前記カメラは、
前記撮影手段により撮影した画像又は保存手段に保存した画像を前記サーバーへ送信する画像送信手段を備えることを特徴とする請求項1乃至4いずれか記載のトレーニング支援システム。
[請求項6]
前記カメラ又はサーバーは、
前記撮影手段により撮影された画像又は保存手段に保存された画像のうち、ボケ又はブレの少ない画像を選択する画像選択手段を備えることを特徴とする請求項5記載のトレーニング支援システム。
[請求項7]
前記端末は、
前記感情情報と前記タイミング情報を前記サーバーへ送信する送信手段を備え、
前記サーバーは、
受信した前記感情情報に基づいて感情を示す画像を、前記タイミング情報に基づくタイミングで、前記撮影された画像と共にタイムラインに表示させるタイムライン表示制御手段を備えることを特徴とする請求項5又は6記載のトレーニング支援システム。
[請求項8]
端末と、該端末と無線接続されるカメラと、を含むトレーニング支援システムにおけるサーバーにおいて、
前記端末から感情情報と、前記感情情報を取得した時のタイミング情報を受信する感情情報受信手段と、
前記カメラから撮影画像を受信する画像受信手段と、
を備え、
受信した前記感情情報に基づいて感情を示す画像を、前記タイミング情報に基づくタイミングで、前記撮影画像と共にタイムラインに表示させるタイムライン表示制御手段を備えることを特徴とするサーバー。
[請求項9]
前記画像受信手段は複数の撮影画像を受信し、
前記複数の撮影画像の中からボケ又はブレの少ない画像を選択する画像選択手段を更に備え、
前記表示制御手段は前記画像選択手段が選択した画像をタイムラインに表示させることを特徴とする請求項8記載のサーバー。
[請求項10]
端末と、該端末と無線接続されるカメラと、前記端末とカメラの間で無線通信を行う無線通信部手段とを含むトレーニング支援システムにおける端末のコンピュータが、
感情情報を取得する感情情報取得処理と、
前記無線通信手段による無線同期確立後に前記感情情報を取得した時のタイミング情報を前記カメラに通知する通知処理を実行し、
前記カメラのコンピュータが、
前記無線通信手段による無線同期確立後に前記前記タイミング情報を受信する受信処理と、
前記受信したタイミング情報に応じて撮影を行う撮影処理と、
を実行することを特徴とするトレーニング支援方法。
[請求項11]
端末と、該端末と無線接続されるカメラと、を含むトレーニング支援システムにおけるサーバーのコンピュータを、
前記端末から感情情報と、前記感情情報を取得した時のタイミング情報を受信する感情情報受信手段、
前記カメラから撮影画像を受信する画像受信手段、
受信した前記感情情報に基づいて感情を示す画像を、前記タイミング情報に基づくタイミングで、前記撮影された画像と共にタイムラインに表示させるタイムライン表示制御手段
として機能させることを特徴とするプログラム。
[請求項12]
感情情報を取得する手段を備えた端末と、該端末と無線接続されるカメラと、を含むトレーニング支援システムにおけるカメラであって、
該カメラは、
撮影手段と、
前記端末が取得した感情情報を無線で受信する受信手段と、
前記受信手段により受信した感情情報を判別する感情情報判別手段と、
前記感情情報判別手段の判別結果に応じて前記撮影手段の撮影タイミングを制御するタイミング制御手段と、
を備えることを特徴とするカメラ。
[請求項13]
請求項1記載のトレーニング支援システムにおけるカメラ。
[請求項14]
請求項1記載のトレーニング支援システムにおける端末。
[Claim 1]
In a training support system including a terminal and a camera wirelessly connected to the terminal,
The terminal
Emotion information acquisition means for acquiring emotion information;
First wireless communication means;
Notification means for notifying the camera of the timing information when the emotion information is acquired by the wireless communication means;
With
The camera
Second wireless communication means corresponding to the first wireless communication means;
Receiving means for receiving the timing information by the second wireless communication means;
Photographing means for performing photographing processing according to the received timing information;
A training support system comprising:
[Claim 2]
The camera photographing means stores past photographing means for photographing before photographing instructions, and stores one or a plurality of images according to the timing information from a plurality of photographed images when the timing information is received. The training support system according to claim 1, further comprising: a storage unit that performs storage.
[Claim 3]
The terminal comprises a CPU;
The first wireless communication means transmits a synchronization signal for establishing synchronization of wireless communication to the camera,
A first timing control unit that interrupts the CPU at the timing of synchronization of the wireless communication and causes the CPU to start the notification unit;
The camera
Receiving the synchronization signal by the second wireless communication means to establish wireless synchronization;
Further comprising second timing control means for performing timing control based on establishment of the wireless synchronization;
The training support system according to claim 1, wherein the photographing unit performs photographing processing under timing control by the second timing control unit.
[Claim 4]
In the camera, the second timing control means starts measuring the relative time at the timing of synchronization of the wireless communication,
The training support system according to claim 3, wherein the storage unit stores the one or more images using the relative time as the timing information.
[Claim 5]
The system includes a server;
The camera
5. The training support system according to claim 1, further comprising an image transmission unit configured to transmit an image captured by the imaging unit or an image stored in the storage unit to the server.
[Claim 6]
The camera or server is
6. The training support system according to claim 5, further comprising image selection means for selecting an image with less blur or blur among images taken by the photographing means or images saved in the storage means.
[Claim 7]
The terminal
A transmission means for transmitting the emotion information and the timing information to the server;
The server
7. A timeline display control means for displaying an image indicating an emotion based on the received emotion information on a timeline together with the captured image at a timing based on the timing information. The training support system described.
[Claim 8]
In a server in a training support system including a terminal and a camera wirelessly connected to the terminal,
Emotion information from the terminal, and emotion information receiving means for receiving timing information when the emotion information is acquired;
Image receiving means for receiving a photographed image from the camera;
With
A server comprising: timeline display control means for displaying an image indicating an emotion based on the received emotion information on a timeline together with the captured image at a timing based on the timing information.
[Claim 9]
The image receiving means receives a plurality of captured images,
An image selecting means for selecting an image with less blur or blur from the plurality of captured images;
9. The server according to claim 8, wherein the display control unit displays the image selected by the image selection unit on a timeline.
[Claim 10]
A terminal computer in a training support system including a terminal, a camera wirelessly connected to the terminal, and a wireless communication unit that performs wireless communication between the terminal and the camera;
Emotion information acquisition processing for acquiring emotion information;
Performing notification processing for notifying the camera of timing information when the emotion information is acquired after establishing wireless synchronization by the wireless communication means;
The camera computer is
A receiving process for receiving the timing information after establishing wireless synchronization by the wireless communication means;
A shooting process for shooting according to the received timing information;
The training support method characterized by performing.
[Claim 11]
A server computer in a training support system including a terminal and a camera wirelessly connected to the terminal;
Emotion information receiving means for receiving emotion information and timing information when the emotion information is acquired from the terminal;
Image receiving means for receiving a photographed image from the camera;
A program for causing an image showing an emotion based on the received emotion information to function as timeline display control means for displaying on the timeline together with the photographed image at a timing based on the timing information.
[Claim 12]
A camera in a training support system including a terminal including means for acquiring emotion information and a camera wirelessly connected to the terminal,
The camera
Photographing means;
Receiving means for wirelessly receiving emotion information acquired by the terminal;
Emotion information determination means for determining emotion information received by the reception means;
Timing control means for controlling the photographing timing of the photographing means according to the determination result of the emotion information determining means;
A camera comprising:
[Claim 13]
The camera in the training support system according to claim 1.
[Claim 14]
A terminal in the training support system according to claim 1.

1−1、1−2 スマホ端末
2−1、2−2、2−3 リスト端末
3−1 PC
4−1、4−2、4−3 ウエアブルカメラ
10 SNSサイト
11 サーバー
102 CPU
106 会員管理部
108 履歴データメモリ
110 プログラムメモリ
111 OS(制御プログラム)
112 コース形状作成プログラム
113 音声−文字変換プログラム
114 生体情報分析プログラム
115 顔認識プログラム
116 タイムライン作成プログラム
120 収集情報メモリ
121 位置情報エリア
122 時刻情報エリア
123 時間情報エリア
124 感情情報エリア
125 地点情報エリア
126 生体情報記憶エリア
127 環境情報記憶エリア
130 コース形状メモリ
120 感情画像メモリ
150 音声メモリ
160 コメントメモリ
170 画像メモリ
202 CPU
204 表示制御部
206 表示部
208 タイミング制御回路
210 プログラムメモリ
211 制御プログラム
212 アプリケーションプログラム
213 同期プログラム
220 入力制御部
222 タッチパネル
230 音声メモリ
240 コメントメモリ
250 GPS
252 センサー
254 生体センサー
256 環境センサー
258 無線I/F
260 通信I/F
272 画像メモリ
280 バッファメモリ
290 カメラ制御部
300 表示画面
302 CPU
310 プログラムメモリ
311 制御プログラム
312 アプリケーションプログラム
340 表示部
354 表示制御部
356 入力部
358 無線I/F
360 通信I/F
404 レンズ
410 撮像素子
412 撮像制御部
420 CPU
430 プログラムメモリ
435 同期プログラム
436 写真選択プログラム
440 画像メモリ
450 無線I/F
452 タイミング制御回路
A1〜A9 気持ちスタンプ
C コース形状
N 現在位置
NA 友人の現在位置
TL タイムライン
1-1, 1-2 Smartphone terminals 2-1, 2-2, 2-3 List terminal 3-1 PC
4-1, 4-2, 4-3 Wearable Camera 10 SNS Site 11 Server 102 CPU
106 Member Management Unit 108 History Data Memory 110 Program Memory 111 OS (Control Program)
112 Course shape creation program 113 Voice-to-character conversion program 114 Biometric information analysis program 115 Face recognition program 116 Timeline creation program 120 Collection information memory 121 Location information area 122 Time information area 123 Time information area 124 Emotion information area 125 Point information area 126 Biometric information storage area 127 Environmental information storage area 130 Course shape memory 120 Emotion image memory 150 Voice memory 160 Comment memory 170 Image memory 202 CPU
204 Display control unit 206 Display unit 208 Timing control circuit 210 Program memory 211 Control program 212 Application program 213 Synchronization program 220 Input control unit 222 Touch panel 230 Audio memory 240 Comment memory 250 GPS
252 Sensor 254 Biosensor 256 Environmental sensor 258 Wireless I / F
260 Communication I / F
272 Image memory 280 Buffer memory 290 Camera control unit 300 Display screen 302 CPU
310 Program memory 311 Control program 312 Application program 340 Display unit 354 Display control unit 356 Input unit 358 Wireless I / F
360 Communication I / F
404 Lens 410 Imaging device 412 Imaging control unit 420 CPU
430 Program memory 435 Synchronization program 436 Photo selection program 440 Image memory 450 Wireless I / F
452 Timing control circuits A1 to A9 Feeling stamp C Course shape N Current position NA Friend's current position TL Timeline

Claims (14)

端末と、該端末と無線接続されるカメラと、を含むトレーニング支援システムにおいて、
前記端末は、
感情情報を取得する感情情報取得手段と、
第1の無線通信手段と、
前記感情情報を取得した時のタイミング情報を前記無線通信手段により前記カメラに通知する通知手段と、
を備え、
前記カメラは、
前記前記第1の無線通信手段と対応している第2の無線通信手段と、
前記第2の無線通信手段により前記タイミング情報を受信する受信手段と、
前記受信したタイミング情報に応じて撮影処理を行う撮影手段と、
を備えることを特徴とするトレーニング支援システム。
In a training support system including a terminal and a camera wirelessly connected to the terminal,
The terminal
Emotion information acquisition means for acquiring emotion information;
First wireless communication means;
Notification means for notifying the camera of the timing information when the emotion information is acquired by the wireless communication means;
With
The camera
Second wireless communication means corresponding to the first wireless communication means;
Receiving means for receiving the timing information by the second wireless communication means;
Photographing means for performing photographing processing according to the received timing information;
A training support system comprising:
前記カメラの撮影手段は、撮影指示前から撮影を行う過去撮影手段と、前記タイミング情報を受信した時、撮影した複数の画像の中から該タイミング情報に応じて1枚又は複数枚の画像を保存する保存手段とを含むことを特徴とする請求項1記載のトレーニング支援システム。   The camera photographing means stores past photographing means for photographing before photographing instructions, and stores one or a plurality of images according to the timing information from a plurality of photographed images when the timing information is received. The training support system according to claim 1, further comprising: a storage unit that performs storage. 前記端末はCPUを備え、
前記第1の無線通信手段は前記カメラに対し無線通信の同期を確立するための同期信号を送信すると共に、
前記無線通信の同期のタイミングで前記CPUにインタラプトをかけて前記CPUに前記通知手段を起動させる第1のタイミング制御手段を更に備え、
前記カメラは、
前記第2の無線通信手段により前記同期信号を受信して無線同期を確立し、
前記無線同期の確立に基づいてタイミング制御を行う第2のタイミング制御手段を更に備え、
前記撮影手段は前記第2のタイミング制御手段にタイミング制御されて撮影処理を行うことを特徴とする請求項1又は2記載のトレーニング支援システム。
The terminal comprises a CPU;
The first wireless communication means transmits a synchronization signal for establishing synchronization of wireless communication to the camera,
A first timing control unit that interrupts the CPU at the timing of synchronization of the wireless communication and causes the CPU to start the notification unit;
The camera
Receiving the synchronization signal by the second wireless communication means to establish wireless synchronization;
Further comprising second timing control means for performing timing control based on establishment of the wireless synchronization;
The training support system according to claim 1, wherein the photographing unit performs photographing processing under timing control by the second timing control unit.
前記カメラは、前記無線通信の同期のタイミングで前記第2のタイミング制御手段が相対時刻の計時を開始し、
前記保存手段は、前記相対時刻を前記タイミング情報として前記1枚又は複数枚の画像を保存することを特徴とする請求項3記載のトレーニング支援システム。
In the camera, the second timing control means starts measuring the relative time at the timing of synchronization of the wireless communication,
The training support system according to claim 3, wherein the storage unit stores the one or more images using the relative time as the timing information.
該システムはサーバーを含み、
前記カメラは、
前記撮影手段により撮影した画像又は保存手段に保存した画像を前記サーバーへ送信する画像送信手段を備えることを特徴とする請求項1乃至4いずれか記載のトレーニング支援システム。
The system includes a server;
The camera
5. The training support system according to claim 1, further comprising an image transmission unit configured to transmit an image captured by the imaging unit or an image stored in the storage unit to the server.
前記カメラ又はサーバーは、
前記撮影手段により撮影された画像又は保存手段に保存された画像のうち、ボケ又はブレの少ない画像を選択する画像選択手段を備えることを特徴とする請求項5記載のトレーニング支援システム。
The camera or server is
6. The training support system according to claim 5, further comprising image selection means for selecting an image with less blur or blur among images taken by the photographing means or images saved in the storage means.
前記端末は、
前記感情情報と前記タイミング情報を前記サーバーへ送信する送信手段を備え、
前記サーバーは、
受信した前記感情情報に基づいて感情を示す画像を、前記タイミング情報に基づくタイミングで、前記撮影された画像と共にタイムラインに表示させるタイムライン表示制御手段を備えることを特徴とする請求項5又は6記載のトレーニング支援システム。
The terminal
A transmission means for transmitting the emotion information and the timing information to the server;
The server
7. A timeline display control means for displaying an image indicating an emotion based on the received emotion information on a timeline together with the captured image at a timing based on the timing information. The training support system described.
端末と、該端末と無線接続されるカメラと、を含むトレーニング支援システムにおけるサーバーにおいて、
前記端末から感情情報と、前記感情情報を取得した時のタイミング情報を受信する感情情報受信手段と、
前記カメラから撮影画像を受信する画像受信手段と、
を備え、
受信した前記感情情報に基づいて感情を示す画像を、前記タイミング情報に基づくタイミングで、前記撮影画像と共にタイムラインに表示させるタイムライン表示制御手段を備えることを特徴とするサーバー。
In a server in a training support system including a terminal and a camera wirelessly connected to the terminal,
Emotion information from the terminal, and emotion information receiving means for receiving timing information when the emotion information is acquired;
Image receiving means for receiving a photographed image from the camera;
With
A server comprising: timeline display control means for displaying an image indicating an emotion based on the received emotion information on a timeline together with the captured image at a timing based on the timing information.
前記画像受信手段は複数の撮影画像を受信し、
前記複数の撮影画像の中からボケ又はブレの少ない画像を選択する画像選択手段を更に備え、
前記表示制御手段は前記画像選択手段が選択した画像をタイムラインに表示させることを特徴とする請求項8記載のサーバー。
The image receiving means receives a plurality of captured images,
An image selecting means for selecting an image with less blur or blur from the plurality of captured images;
9. The server according to claim 8, wherein the display control unit displays the image selected by the image selection unit on a timeline.
端末と、該端末と無線接続されるカメラと、前記端末とカメラの間で無線通信を行う無線通信部手段とを含むトレーニング支援システムにおける端末のコンピュータが、
感情情報を取得する感情情報取得処理と、
前記無線通信手段による無線同期確立後に前記感情情報を取得した時のタイミング情報を前記カメラに通知する通知処理を実行し、
前記カメラのコンピュータが、
前記無線通信手段による無線同期確立後に前記前記タイミング情報を受信する受信処理と、
前記受信したタイミング情報に応じて撮影を行う撮影処理と、
を実行することを特徴とするトレーニング支援方法。
A terminal computer in a training support system including a terminal, a camera wirelessly connected to the terminal, and a wireless communication unit that performs wireless communication between the terminal and the camera;
Emotion information acquisition processing for acquiring emotion information;
Performing notification processing for notifying the camera of timing information when the emotion information is acquired after establishing wireless synchronization by the wireless communication means;
The camera computer is
A receiving process for receiving the timing information after establishing wireless synchronization by the wireless communication means;
A shooting process for shooting according to the received timing information;
The training support method characterized by performing.
端末と、該端末と無線接続されるカメラと、を含むトレーニング支援システムにおけるサーバーのコンピュータを、
前記端末から感情情報と、前記感情情報を取得した時のタイミング情報を受信する感情情報受信手段、
前記カメラから撮影画像を受信する画像受信手段、
受信した前記感情情報に基づいて感情を示す画像を、前記タイミング情報に基づくタイミングで、前記撮影された画像と共にタイムラインに表示させるタイムライン表示制御手段
として機能させることを特徴とするプログラム。
A server computer in a training support system including a terminal and a camera wirelessly connected to the terminal;
Emotion information receiving means for receiving emotion information and timing information when the emotion information is acquired from the terminal;
Image receiving means for receiving a photographed image from the camera;
A program for causing an image showing an emotion based on the received emotion information to function as timeline display control means for displaying on the timeline together with the photographed image at a timing based on the timing information.
感情情報を取得する手段を備えた端末と、該端末と無線接続されるカメラと、を含むトレーニング支援システムにおけるカメラであって、
該カメラは、
撮影手段と、
前記端末が取得した感情情報を無線で受信する受信手段と、
前記受信手段により受信した感情情報を判別する感情情報判別手段と、
前記感情情報判別手段の判別結果に応じて前記撮影手段の撮影タイミングを制御するタイミング制御手段と、
を備えることを特徴とするカメラ。
A camera in a training support system including a terminal including means for acquiring emotion information and a camera wirelessly connected to the terminal,
The camera
Photographing means;
Receiving means for wirelessly receiving emotion information acquired by the terminal;
Emotion information determination means for determining emotion information received by the reception means;
Timing control means for controlling the photographing timing of the photographing means according to the determination result of the emotion information determining means;
A camera comprising:
請求項1記載のトレーニング支援システムにおけるカメラ。   The camera in the training support system according to claim 1. 請求項1記載のトレーニング支援システムにおける端末。   A terminal in the training support system according to claim 1.
JP2013162486A 2013-08-05 2013-08-05 Training support system, server, terminal, camera, method and program Active JP6435595B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013162486A JP6435595B2 (en) 2013-08-05 2013-08-05 Training support system, server, terminal, camera, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013162486A JP6435595B2 (en) 2013-08-05 2013-08-05 Training support system, server, terminal, camera, method and program

Publications (3)

Publication Number Publication Date
JP2015033052A true JP2015033052A (en) 2015-02-16
JP2015033052A5 JP2015033052A5 (en) 2016-09-23
JP6435595B2 JP6435595B2 (en) 2018-12-12

Family

ID=52518018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013162486A Active JP6435595B2 (en) 2013-08-05 2013-08-05 Training support system, server, terminal, camera, method and program

Country Status (1)

Country Link
JP (1) JP6435595B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016154288A (en) * 2015-02-20 2016-08-25 シャープ株式会社 Information processing apparatus, information processing system, information processing method, and information processing program
JP2022524511A (en) * 2018-03-05 2022-05-06 ヒンドサイト テクノロジーズ,エルエルシー Continuous Video Capture Glasses Inventor: Armaan Saini, Casey Speaker, and Vivek CiNii
JP2022530569A (en) * 2019-05-07 2022-06-29 インハンドプラス インコーポレーテッド Wearable device that detects events by utilizing camera modules and wireless communication devices

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136557A (en) * 1997-08-26 1999-05-21 Nikon Corp Electronic camera
JP2004213623A (en) * 2002-11-25 2004-07-29 Eastman Kodak Co Imaging method and system for health management and personal security
JP2005018262A (en) * 2003-06-24 2005-01-20 Canon Inc Information delivery control method, program for executing processing of the same, and storage medium with the program stored
JP2005191960A (en) * 2003-12-25 2005-07-14 Casio Comput Co Ltd Imaging apparatus, synchronous photography assisting apparatus, and program
JP2005303734A (en) * 2004-04-13 2005-10-27 Ntt Docomo Inc Communication equipment and server system
JP2006080644A (en) * 2004-09-07 2006-03-23 Toshiba Tec Corp Camera
JP2006180471A (en) * 2004-11-25 2006-07-06 Casio Comput Co Ltd Camera, photographed image selection/recording method and program
JP2008079917A (en) * 2006-09-28 2008-04-10 Osaka Seikei Gakuen Training system
JP2009049951A (en) * 2007-08-23 2009-03-05 Sony Corp Imaging apparatus and imaging method
JP2009302693A (en) * 2008-06-11 2009-12-24 Olympus Imaging Corp Imaging device and imaging method
JP2012120206A (en) * 2012-01-12 2012-06-21 Sony Corp Information processor, imaging control method, and program
JP2012169777A (en) * 2011-02-10 2012-09-06 Sony Corp Information processor, information processing method, and program
JP2012524640A (en) * 2009-04-26 2012-10-18 ナイキ インターナショナル リミテッド Exercise clock
JP2012199663A (en) * 2011-03-18 2012-10-18 Seiko Epson Corp Information communication terminal, biological information measurement instrument, and information communication system

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136557A (en) * 1997-08-26 1999-05-21 Nikon Corp Electronic camera
JP2004213623A (en) * 2002-11-25 2004-07-29 Eastman Kodak Co Imaging method and system for health management and personal security
JP2005018262A (en) * 2003-06-24 2005-01-20 Canon Inc Information delivery control method, program for executing processing of the same, and storage medium with the program stored
JP2005191960A (en) * 2003-12-25 2005-07-14 Casio Comput Co Ltd Imaging apparatus, synchronous photography assisting apparatus, and program
JP2005303734A (en) * 2004-04-13 2005-10-27 Ntt Docomo Inc Communication equipment and server system
JP2006080644A (en) * 2004-09-07 2006-03-23 Toshiba Tec Corp Camera
JP2006180471A (en) * 2004-11-25 2006-07-06 Casio Comput Co Ltd Camera, photographed image selection/recording method and program
JP2008079917A (en) * 2006-09-28 2008-04-10 Osaka Seikei Gakuen Training system
JP2009049951A (en) * 2007-08-23 2009-03-05 Sony Corp Imaging apparatus and imaging method
JP2009302693A (en) * 2008-06-11 2009-12-24 Olympus Imaging Corp Imaging device and imaging method
JP2012524640A (en) * 2009-04-26 2012-10-18 ナイキ インターナショナル リミテッド Exercise clock
JP2012169777A (en) * 2011-02-10 2012-09-06 Sony Corp Information processor, information processing method, and program
JP2012199663A (en) * 2011-03-18 2012-10-18 Seiko Epson Corp Information communication terminal, biological information measurement instrument, and information communication system
JP2012120206A (en) * 2012-01-12 2012-06-21 Sony Corp Information processor, imaging control method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016154288A (en) * 2015-02-20 2016-08-25 シャープ株式会社 Information processing apparatus, information processing system, information processing method, and information processing program
JP2022524511A (en) * 2018-03-05 2022-05-06 ヒンドサイト テクノロジーズ,エルエルシー Continuous Video Capture Glasses Inventor: Armaan Saini, Casey Speaker, and Vivek CiNii
JP2022530569A (en) * 2019-05-07 2022-06-29 インハンドプラス インコーポレーテッド Wearable device that detects events by utilizing camera modules and wireless communication devices
US11647167B2 (en) 2019-05-07 2023-05-09 Inhandplus Inc. Wearable device for performing detection of events by using camera module and wireless communication device
JP7327837B2 (en) 2019-05-07 2023-08-16 インハンドプラス インコーポレーテッド Wearable devices that detect events using camera modules and wireless communication devices

Also Published As

Publication number Publication date
JP6435595B2 (en) 2018-12-12

Similar Documents

Publication Publication Date Title
JP2015028686A (en) Method of generating social time line, social net work service system, server, terminal, and program
US10057485B2 (en) Imaging apparatus and methods for generating a guide display using imaging height posture information
JP6574937B2 (en) COMMUNICATION SYSTEM, CONTROL METHOD, AND STORAGE MEDIUM
US20220062703A1 (en) Information processing system
US10321091B2 (en) Information processing device and method of information processing
US20160225410A1 (en) Action camera content management system
US20190138696A1 (en) Systems and methods for sharing health and fitness stories
CN105389957A (en) Communication method, device and system of wearable device
KR20130088059A (en) Information processing apparatus, information processing method, and recording medium, for displaying information of object
JP6241495B2 (en) Training support apparatus, training support method, and program
JP6435595B2 (en) Training support system, server, terminal, camera, method and program
JP6375597B2 (en) Network system, server, program, and training support method
CN114079730B (en) Shooting method and shooting system
JP6638772B2 (en) Imaging device, image recording method, and program
JP2005303734A (en) Communication equipment and server system
JP6914480B2 (en) Indicator display device, indicator display method, program, and indicator display system
JP2020119335A (en) Program, camera work data generation method, and electronic apparatus
JP2009211341A (en) Image display method and display apparatus thereof
JP2019061386A (en) Information processing system, information processing apparatus, information processing method and program
CN107872637B (en) Image reproducing apparatus, image reproducing method, and recording medium
JP6598732B2 (en) Electronic device, control device, control program, and moving image display method
CN113452896B (en) Image display method and electronic equipment
US10904420B2 (en) Control device and control method for managing a captured image
JP6787072B2 (en) Image processing equipment, analysis system, image processing method and program
US20170374310A1 (en) Display apparatus, display method, storage medium and display system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160804

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181029

R150 Certificate of patent or registration of utility model

Ref document number: 6435595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150