JP2015028686A - Method of generating social time line, social net work service system, server, terminal, and program - Google Patents

Method of generating social time line, social net work service system, server, terminal, and program Download PDF

Info

Publication number
JP2015028686A
JP2015028686A JP2013157439A JP2013157439A JP2015028686A JP 2015028686 A JP2015028686 A JP 2015028686A JP 2013157439 A JP2013157439 A JP 2013157439A JP 2013157439 A JP2013157439 A JP 2013157439A JP 2015028686 A JP2015028686 A JP 2015028686A
Authority
JP
Japan
Prior art keywords
terminal
timeline
server
emotion
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013157439A
Other languages
Japanese (ja)
Inventor
加寿子 林
Kazuko Hayashi
加寿子 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013157439A priority Critical patent/JP2015028686A/en
Publication of JP2015028686A publication Critical patent/JP2015028686A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To convey a current feeling to a friend real time by assuring a training state to flow in a time line real time.SOLUTION: In a training support SNS system, a contribution of a training person (oneself) is uploaded to a time line TL (steps S502, S510), a comment which a friend has contributed, if any, is uploaded to the time line TL likewise (steps S504, S512), in response to occurrence of a feeling stamp representing a feeling of the training person (step S506), the feeling stamp is synchronized with a picture photographed with a wearable camera and is uploaded automatically to the time line TL (steps S512, S514).

Description

この発明は、ソーシャルタイムラインを作成する方法、ソーシャル・ネットワーク・サービスシステム、サーバー、端末並びにプログラムに関する。   The present invention relates to a method for creating a social timeline, a social network service system, a server, a terminal, and a program.

近年、ランニングや、ジョギング等のトレーニング人口が増加している。最近では、トレーニングをサポートするSNS(ソーシャル・ネットワーク・サービスシステム)も存在し、友人と情報を共有しながらトレーニングを楽しむことも一般的となってきている。このようなSNSサイトでは、GPSを備えた腕時計型のリスト端末を腕に装着してトレーニングし、タイムやコースをウエブサイトに登録することができる。   In recent years, the population of training such as running and jogging is increasing. Recently, there are SNSs (social network service systems) that support training, and it has become common to enjoy training while sharing information with friends. In such an SNS site, a wristwatch-type wrist terminal equipped with GPS can be worn for training, and the time and course can be registered on the website.

従来から、トレーニング用の腕時計型端末を開示しているものがある(例えば、特許文献1参照)。
また、複数のユーザーの端末をネットワークに接続し、複数のユーザーの参加者情報、運動データ、コースや距離、地理的位置、成績等を見ることができるウエブサイトを開示しているものがある(例えば、特許文献2参照)。
更に、トレーニングSNSにおいてアバターを表示するものがあり(例えば、特許文献3参照)、SNSにおいて、タイムラインを生成して表示するものもある(例えば、特許文献4参照)。
Conventionally, there has been a wristwatch type terminal for training (see, for example, Patent Document 1).
In addition, there is a website that can connect a plurality of users 'terminals to a network and view a plurality of users' participant information, exercise data, courses, distances, geographical positions, results, and the like ( For example, see Patent Document 2).
Furthermore, there are some which display an avatar in training SNS (for example, refer patent document 3), and there are also what generate | occur | produces and displays a timeline in SNS (for example, refer patent document 4).

特表2012−524640号公報Special table 2012-524640 gazette 特表2011−516210号公報Special table 2011-516210 gazette 特表2011−518360号公報Special table 2011-518360 gazette 特表2009−521752号公報JP-T 2009-521752

しかしながら、先行文献記載の技術では、トレーニングの記録をSNSで共有したり、コメントを付けたり、応援したり競争したりすることはできるが、感情をリアルタイムで友人と共有するにはツイート等の操作が必要であるという課題があった。   However, with the technology described in the prior literature, training records can be shared via SNS, commented on, cheered on, and competed, but to share emotions with friends in real time, operations such as tweets There was a problem that it was necessary.

この発明は、上記課題を解決するためになされたもので、ユーザーの状況を迅速に知ることを目的とする。   The present invention has been made in order to solve the above-described problems, and an object thereof is to quickly know a user's situation.

請求項1記載の発明は、端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおいて、前記端末は、感情情報を取得する感情情報取得手段と、前記感情情報取得手段により取得された感情情報を前記サーバーに送信する送信手段と、を備え、前記サーバーは、前記感情情報を受信する受信手段と、前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段と、前記タイムライン作成手段により作成したタイムラインを閲覧可能にする表示制御手段と、を備えることを特徴とするソーシャル・ネットワーク・サービスシステムを提供するものである。   The invention according to claim 1 is a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal, wherein the terminal acquires emotion information acquisition means for acquiring emotion information; Transmission means for transmitting emotion information acquired by the emotion information acquisition means to the server, the server based on the emotion information received by the reception means and reception means for receiving the emotion information. A social network service system comprising: timeline creation means for creating a timeline including an object representing emotion; and display control means for enabling browsing of the timeline created by the timeline creation means Is to provide.

請求項8記載の発明は、端末と、この端末と直接又は通信端末を介して接続されるサーバー及びカメラを含むソーシャル・ネットワーク・サービスシステムにおけるソーシャルタイムラインを生成する方法であって、前記端末は、感情情報を取得する取得処理と、前記取得された前記感情情報を前記サーバーに送信する送信処理とを実行し、前記カメラは、前記端末からの制御により画像を撮影する処理を実行し、前記サーバーは、前記感情情報及び前記撮影画像を受信する処理と、前記受信した感情情報を基に感情を表すオブジェクト及び前記受信した撮影画像を含むタイムラインを作成するタイムライン作成処理と、前記作成したタイムラインを閲覧可能にする表示制御処理とを実行することを特徴とする方法を提供するものである。   The invention according to claim 8 is a method for generating a social timeline in a social network service system including a terminal and a server and a camera connected to the terminal directly or via a communication terminal, wherein the terminal Performing an acquisition process of acquiring emotion information and a transmission process of transmitting the acquired emotion information to the server, the camera executing a process of capturing an image under control from the terminal, The server receives the emotion information and the captured image, creates a timeline including the object representing the emotion based on the received emotion information and the received captured image, and the created The present invention provides a method characterized by executing display control processing that enables browsing of a timeline.

請求項9記載の発明は、端末と、この端末から直接又は通信端末を介して送信される情報を受信してソーシャルタイムラインを生成するサーバーとを含むシステムにおける端末において、感情情報を取得する感情情報取得手段と、前記感情情報取得手段により取得された感情情報を前記サーバーに送信する送信手段と、を備え、前記感情情報取得手段は、感情に対応するスタンプ画像を選択するスタンプ選択手段を含み、前記送信手段は前記スタンプ選択手段により選択されたスタンプ画像を前記サーバーへ送信することによってソーシャルタイムラインにスタンプ画像をアップさせることを特徴とする端末を提供するものである。   The invention according to claim 9 is an emotion for acquiring emotion information in a terminal including a terminal and a server that receives information transmitted from the terminal directly or via a communication terminal and generates a social timeline. Information acquisition means, and transmission means for transmitting emotion information acquired by the emotion information acquisition means to the server, the emotion information acquisition means includes stamp selection means for selecting a stamp image corresponding to emotion The transmitting means provides a terminal characterized in that the stamp image selected by the stamp selecting means is transmitted to the server, thereby uploading the stamp image to the social timeline.

請求項12記載の発明は、端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおけるサーバーにおいて、前記端末から感情情報を受信する受信手段と、前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段と、前記作成したタイムラインを閲覧可能にする表示制御手段と、を備えることを特徴とするサーバーを提供するものである。   The invention according to claim 12 is a server in a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal, receiving means for receiving emotion information from the terminal, A timeline creating means for creating a timeline including an object representing emotion based on emotion information received by the receiving means; and a display control means for enabling browsing of the created timeline. Provide a server.

請求項15記載の発明は、端末と、この端末から直接又は通信端末を介して送信される情報を受信してソーシャルタイムラインを生成するサーバーとを含むシステムにおける端末のコンピュータを、感情情報を取得する感情情報取得手段、前記取得した感情情報に対応するスタンプ画像を選択するスタンプ選択手段、前記スタンプ選択手段で選択されたスタンプ画像を、感情を表すオブジェクトとして前記サーバーへ送信することによってソーシャルタイムラインにアップさせる手段として機能させることを特徴とするプログラムを提供するものである。   The invention according to claim 15 obtains emotion information from a terminal computer in a system including a terminal and a server that receives information transmitted from the terminal directly or via a communication terminal and generates a social timeline. A social timeline by sending the stamp image selected by the stamp selection means to the server as an object representing emotion. The present invention provides a program characterized in that it functions as a means for improving the performance of the program.

請求項16記載の発明は、端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおけるサーバーのコンピュータを、前記端末から感情情報を受信する受信手段、前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段、
作成したタイムラインを閲覧可能にする表示制御手段、として機能させることを特徴とするプログラムを提供するものである。
According to a sixteenth aspect of the present invention, there is provided a receiving unit for receiving emotion information from a terminal of a server computer in a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal. , Timeline creation means for creating a timeline including objects representing emotions based on emotion information received by the reception means;
The present invention provides a program characterized by functioning as display control means for enabling browsing of a created timeline.

この発明によれば、ユーザーの状況を迅速に知ることができる。   According to the present invention, the user's situation can be quickly known.

本発明の一実施の形態に係るSNSシステムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the SNS system which concerns on one embodiment of this invention. 同実施の形態に係るSNSシステムのイメージを説明する図である。It is a figure explaining the image of the SNS system concerning the embodiment. 同実施の形態に係るサーバーの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the server which concerns on the same embodiment. 同実施の形態に係るリスト端末の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the wrist terminal which concerns on the same embodiment. 同実施の形態に係るスマホ端末の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the smart phone terminal which concerns on the embodiment. 同実施の形態に係るウエアブルカメラの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the wearable camera which concerns on the same embodiment. ユーザーの操作に沿ったリスト端末の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the wrist terminal according to a user's operation. 同実施の形態に係るリスト端末、ウエアブルカメラの外観イメージ図である。It is an appearance image figure of a wrist terminal and a wearable camera concerning the embodiment. 図7の計測処理ステップの詳細を示すフローチャートである。It is a flowchart which shows the detail of the measurement process step of FIG. 図9の感情情報取得ステップの詳細を示すフローチャートである。It is a flowchart which shows the detail of the emotion information acquisition step of FIG. 同実施の形態に係る気持ちスタンプの例である。It is an example of the feeling stamp which concerns on the same embodiment. 同実施の形態に係るウエアブルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the wearable camera which concerns on the embodiment. 同実施の形態に係るスマホ端末又はPCの表示形態を説明するための図である。It is a figure for demonstrating the display form of the smart phone terminal or PC which concerns on the embodiment. 同実施の形態に係るサーバーがタイムラインを作成するフローチャートである。It is a flowchart which the server which concerns on the embodiment produces a timeline. 同実施の形態に係るタイムライン表示例を示すものである。3 shows a timeline display example according to the embodiment. 同実施の形態に係るタイムライン表示例を示すものである。3 shows a timeline display example according to the embodiment. 同実施の形態に係るタイムライン表示例を示すものである。3 shows a timeline display example according to the embodiment.

以下、図面を参照しながら本発明の実施の形態について説明する。明細書において、スマートフォンをスマホ、パーソナルコンピュータをPC、ソーシャル・ネットワーク・サービスシステムをSNSと略称する。また、タイムラインとは、SNS等において、自分や友人が投稿した内容や各投稿への返信、その他の情報等が時系列に並んで一覧表示されるものをいう。ソーシャルタイムラインとは、自分一人でなく他人と共有できるタイムラインのことをいう。一覧表示される情報のうち、絵や画像、図形等、視覚に訴えるものを総称してオブジェクトという。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the specification, a smartphone is abbreviated as a smartphone, a personal computer is abbreviated as a PC, and a social network service system is abbreviated as an SNS. In addition, the timeline refers to a content that is displayed in a chronological order as a list of contents posted by yourself or friends, replies to each post, other information, and the like in SNS. A social timeline is a timeline that you can share with others, not just yourself. Among the information displayed in a list, information that appeals visually, such as pictures, images, and figures, is collectively referred to as an object.

図1は、本発明の一実施の形態に係るトレーニング支援システムの全体構成を示すブロック図である。
サーバー11を含むSNSサイト10は、インターネット500を介して会員のスマホ端末1−1、1−2、1−3、・・・、リスト端末2−1、2−2、2−3・・・及びPC3−1と接続される。また、リスト端末2−1、2−2、2−3、・・・は腕に装着可能な腕時計型のリスト端末であり、スマホ端末1−1、1−2、1−3と無線で接続可能である。
更に、リスト端末2−1、2−2、2−3、・・・は帽子型(頭部装着型)のウエアブルカメラ4−1、4−2、4−3、・・・と無線で接続される。以降、スマホ端末1−1、1−2、1−3、・・・、を代表してスマホ端末1、リスト端末2−1、2−2、2−3・・・を代表してリスト端末2、PC3−1、3−2、・・・を代表してPC3、ウエアブルカメラ4−1、4−2、4−3、・・・を代表してウエアブルカメラ4という。
FIG. 1 is a block diagram showing the overall configuration of a training support system according to an embodiment of the present invention.
The SNS site 10 including the server 11 is a member's smartphone terminals 1-1, 1-2, 1-3,..., List terminals 2-1, 2-2, 2-3,. And the PC 3-1. The wrist terminals 2-1, 2-2, 2-3,... Are wristwatch-type wrist terminals that can be worn on the wrist, and are wirelessly connected to the smartphone terminals 1-1, 1-2, 1-3. Is possible.
Further, the wrist terminals 2-1, 2-2, 2-3,... Connected. Hereinafter, the smartphone terminal 1-1, 1-2, 1-3,..., As a representative, the smartphone terminal 1, the wrist terminal 2-1, 2-2, 2-3,. 2, PC 3, 3-2,... Are represented as PC 3 and wearable cameras 4-1, 4-2, 4-3,.

スマホ端末1は、通信端末として機能するもので、アプリケーションプログラムをインストールして、SNSサイト10との連携を図る動作をする。また、リスト端末2にも比較的軽いアプリケーションプログラムをインストールしてスマホ端末1との連携を図るように動作する。すなわちスマホ端末1はリスト端末2とSNSサイト10を仲介するもので、小型PCやタブレット、無線ルーター等で代用することもできる。リスト端末2とサーバー11を直接接続して、スマホ端末1を経由しなくてもWi−Fiや電話回線により情報交換ができるルートも用意されている。ウエアブルカメラ4もリスト端末2だけでなくスマホ端末1やサーバー11と接続するよう構成しても構わない。   The smartphone terminal 1 functions as a communication terminal, and installs an application program and operates to cooperate with the SNS site 10. Further, a relatively light application program is installed in the wrist terminal 2 and operates so as to cooperate with the smartphone terminal 1. That is, the smartphone terminal 1 mediates between the wrist terminal 2 and the SNS site 10, and can be replaced by a small PC, a tablet, a wireless router, or the like. A route is also provided in which the wrist terminal 2 and the server 11 are directly connected and information can be exchanged via Wi-Fi or a telephone line without going through the smartphone terminal 1. The wearable camera 4 may be configured to be connected not only to the wrist terminal 2 but also to the smartphone terminal 1 or the server 11.

図2は、本実施の形態に係るSNSシステムの使用イメージを説明する図である。SNSサイト10を介して、直接又は間接的にトレーニングする会員が装着するリスト端末2、ウエアブルカメラ4、スマホ端末1、PC3が接続される。これにより、例えばSNSサイト10で作成したコース形状を、リスト端末2とウエアブルカメラ4を装着してトレーニングしている会員、あるいはリスト端末2とウエアブルカメラ4を装着してトレーニングしている他の会員に送ったり、会員のスマホ端末1やPC3に送ったりすることができる。なお、SNSサイト10としてクラウドサービスを用いることができる。
スマホ1には表示部340が、リスト端末2には表示部206が、PC3には表示部400がそれぞれ備えられており、ウエラブルカメラ4にはレンズ404が備えられている。このイメージを図面化したものが図8である。
FIG. 2 is a diagram for explaining a usage image of the SNS system according to the present embodiment. Via the SNS site 10, a wrist terminal 2, a wearable camera 4, a smartphone terminal 1, and a PC 3 worn by members who train directly or indirectly are connected. Thereby, for example, a member who is training the course shape created on the SNS site 10 by wearing the wrist terminal 2 and the wearable camera 4, or the person who is training by wearing the wrist terminal 2 and the wearable camera 4. Can be sent to other members' smartphones or to the member's smartphone terminal 1 or PC 3. A cloud service can be used as the SNS site 10.
The smartphone 1 includes a display unit 340, the wrist terminal 2 includes a display unit 206, the PC 3 includes a display unit 400, and the wearable camera 4 includes a lens 404. FIG. 8 is a drawing of this image.

図3は、サーバー11の概略構成を示すブロック図である。
同図において、102はCPUであり、システム全体を制御する。110はプログラムメモリであり、各種制御プログラムが記憶されている。CPU102はプログラムメモリ110のプログラムを実行することにより各種処理を行う。プログラムメモリ110には、全体を制御するOS(制御プログラム)111をはじめ、コース形状生成プログラム112、音声−文字変換プログラム113、生体情報分析プログラム114、顔認識プログラム115、タイムライン作成プログラム116、写真選択プログラム117等を記憶している。106は会員管理部であり、SNSシステムとして会員を管理する。友人関係やコミュニティ、掲示板等もここで管理しており、いわゆるSNS機能全般を司るものである。108は、ユーザーが複数回のトレーニングを行って、その結果を後で比較できるように、トレーニングの履歴を保存しておく履歴メモリである。
FIG. 3 is a block diagram illustrating a schematic configuration of the server 11.
In the figure, reference numeral 102 denotes a CPU which controls the entire system. A program memory 110 stores various control programs. The CPU 102 performs various processes by executing programs in the program memory 110. The program memory 110 includes an OS (control program) 111 for controlling the whole, a course shape generation program 112, a speech-to-character conversion program 113, a biological information analysis program 114, a face recognition program 115, a timeline creation program 116, a photograph A selection program 117 and the like are stored. A member management unit 106 manages members as an SNS system. Friends relations, communities, bulletin boards, etc. are also managed here, and they manage the so-called SNS function in general. A history memory 108 stores a training history so that the user can perform training a plurality of times and compare the results later.

120は、リスト端末2で収集された各種情報を記憶する収集情報メモリで、位置情報記憶エリア121、時刻情報記憶エリア122、時間情報記憶エリア123、感情情報記憶エリア124、地点情報記憶エリア125、生体情報記憶エリア126を含む。論理的には各会員に対応して記憶エリアが存在している。物理的には属性コードによって会員別に管理できる。130は、前記リスト端末2で収集された各種情報、特に位置情報を用いてユーザーが走った(移動した)コース形状を図形的に作成し、記憶するコース形状メモリである。コース形状は、プログラムメモリ110内のコース形状作成プログラム112により作成される。既にサーバー11内あるいはリスト端末2内に用意されているコースをユーザーが走っても、ユーザーが走った軌跡からコース形状を作成しても、どちらでも対応できるようになっている。   Reference numeral 120 denotes a collection information memory for storing various types of information collected by the wrist terminal 2, and includes a position information storage area 121, a time information storage area 122, a time information storage area 123, an emotion information storage area 124, a point information storage area 125, A biological information storage area 126 is included. Logically, there is a storage area corresponding to each member. Physically, each member can be managed by attribute code. A course shape memory 130 graphically creates and stores a course shape in which the user has run (moved) using various information collected by the wrist terminal 2, particularly position information. The course shape is created by the course shape creation program 112 in the program memory 110. Either the user can run a course already prepared in the server 11 or the wrist terminal 2, or a course shape can be created from the trajectory that the user ran, so that it can be used.

140は、多数の気持ちスタンプを記憶してある感情画像メモリである。気持ちスタンプはイラスト画像であり、「元気」「快調」「楽しい」「順調」「疲れた」「苦しい」等の様々な感情を表す画像が用意されている。   Reference numeral 140 denotes an emotion image memory in which a large number of feeling stamps are stored. The feeling stamp is an illustration image, and images representing various emotions such as “good”, “smooth”, “fun”, “smooth”, “tired”, and “suffering” are prepared.

150は、ユーザーがリスト端末2のマイクに向かって話した音声データを記憶する音声メモリであり、この音声データをプログラムメモリ110に記憶されている音声−文字変換プログラム113によって文字データに変換したものがコメントメモリ160に記憶される。コメントメモリ160には、このように音声入力したコメントが記憶されるが、SNS機能において、ユーザー(自分)がSNSサイト10へ投稿したコメント、友人(他のユーザー)がSNSサイト10へ投稿したコメントも記憶される。入力手段は音声、キーを問わない。また、リスト端末2だけでなくスマホ端末1、PC3からコメントを入力することができる。入力されたコメントは後述するようにタイムラインとして表示されるが、これはCPU102がタイムライン作成プログラム116を実行することによってなされる。タイムラインTLは、会員に対して閲覧可能に表示制御するが、表示を作成してスマホ1やPC3で閲覧可能にするように、このタイムライン作成プログラム116が実行する。
170は、ウエアブルカメラ4で撮影された画像データ(写真)を記憶する画像メモリである。タイムライン作成プログラム116がタイムラインに写真をアップする際は、この画像メモリ170に記憶された画像を用いる。
Reference numeral 150 denotes a voice memory that stores voice data spoken by the user to the microphone of the wrist terminal 2, and the voice data is converted into character data by the voice-character conversion program 113 stored in the program memory 110. Is stored in the comment memory 160. The comment input by voice is stored in the comment memory 160, but in the SNS function, a comment posted by the user (self) to the SNS site 10 or a comment posted by a friend (other user) to the SNS site 10. Is also remembered. The input means may be voice or key. A comment can be input not only from the list terminal 2 but also from the smartphone terminal 1 and the PC 3. The input comment is displayed as a timeline as will be described later. This is done by the CPU 102 executing the timeline creation program 116. The timeline TL is displayed and controlled so that it can be viewed by members, but this timeline creation program 116 executes so that the display can be created and viewed on the smartphone 1 or the PC 3.
Reference numeral 170 denotes an image memory for storing image data (photographs) taken by the wearable camera 4. When the timeline creation program 116 uploads a photograph to the timeline, the image stored in the image memory 170 is used.

図4は、リスト端末2の構成を示す概略ブロック図である。
同図において、202はCPUであり、リスト端末2全体を制御する。210はプログラムメモリであり、制御プログラム211及びアプリケーションプログラム212等が予め記憶されている。制御プログラム211はリスト端末全体を制御する基本的な制御プログラムであり、アプリケーションプログラム212は、スマホ端末1やサーバー11と協働するためのプログラムである。
FIG. 4 is a schematic block diagram showing the configuration of the wrist terminal 2.
In the figure, reference numeral 202 denotes a CPU which controls the entire wrist terminal 2. A program memory 210 stores a control program 211, an application program 212, and the like in advance. The control program 211 is a basic control program for controlling the entire wrist terminal, and the application program 212 is a program for cooperating with the smartphone terminal 1 and the server 11.

206は表示部でありLCDとこれを駆動する駆動回路等から構成されている。204は、表示部206の表示を制御する表示制御部である。220は入力制御部であり、各種キーやスイッチからの入力信号を制御する。表示部206にはタッチパネル222が設けられており、基本的にリスト端末2の表示部206の表示画面上をタッチすることにより、操作を行う。タッチパネル222の入力制御も入力制御部22が行う。230はマイクであり、音声入力することができる。入力した音声データは音声メモリ240に記憶される。音声メモリ240には音声データのまま記憶されるが、この音声データはサーバー11へ送られて、音声メモリ150に記憶された後、音声−文字変換プログラム113によって文字データに変換され、文字データとしてコメントメモリ160に記憶される。   A display unit 206 includes an LCD and a drive circuit for driving the LCD. A display control unit 204 controls display on the display unit 206. An input control unit 220 controls input signals from various keys and switches. The display unit 206 is provided with a touch panel 222, which is basically operated by touching the display screen of the display unit 206 of the wrist terminal 2. The input control unit 22 also performs input control of the touch panel 222. Reference numeral 230 denotes a microphone, which can input voice. The input voice data is stored in the voice memory 240. Although the voice data is stored in the voice memory 240 as it is, the voice data is sent to the server 11 and stored in the voice memory 150. Then, the voice data is converted into character data by the voice-character conversion program 113, and as character data. Stored in the comment memory 160.

250は、GPS部であり、公知のGPS(Global Positioning System)を利用して現在位置を計測する。すなわちGPS部250は、複数の測位衛星(GPS衛星)から送られてくる電波をアンテナにより受信することによって、現在位置を示す緯度、経度からなる位置データを取得し、取得した位置データを、使用者の行動場所を示す位置情報としてCPU202に供給する。いわゆる絶対位置を測定する。   Reference numeral 250 denotes a GPS unit that measures the current position using a known GPS (Global Positioning System). That is, the GPS unit 250 obtains position data composed of latitude and longitude indicating the current position by receiving radio waves transmitted from a plurality of positioning satellites (GPS satellites) with an antenna, and uses the obtained position data. To the CPU 202 as position information indicating the person's action place. The so-called absolute position is measured.

252は、加速度、方位、高度等を検出するセンサーであり、3軸地磁気センサー、1軸加速度センサー及び1軸ジャイロ等で構成されている。したがって、GPS部250に加えて3軸地磁気センサー、1軸加速度センサー及び1軸ジャイロ等を用いてリスト端末2の進行方向を計測することをも可能で、これにより一層精度を上げることができる。前記GPS250とセンサー252を組み合わせることにより、リスト端末2の移動軌跡や時間を正確にトレースすることができる。センサー252からの各種収集情報は、バッファメモリ280に一旦蓄えられた後、サーバー11の収集情報メモリ120に記憶される。   Reference numeral 252 denotes a sensor that detects acceleration, azimuth, altitude, and the like, and includes a 3-axis geomagnetic sensor, a 1-axis acceleration sensor, a 1-axis gyro, and the like. Therefore, it is possible to measure the traveling direction of the wrist terminal 2 using a 3-axis geomagnetic sensor, a 1-axis acceleration sensor, a 1-axis gyro, and the like in addition to the GPS unit 250, thereby further improving accuracy. By combining the GPS 250 and the sensor 252, the movement trajectory and time of the wrist terminal 2 can be accurately traced. Various collection information from the sensor 252 is temporarily stored in the buffer memory 280 and then stored in the collection information memory 120 of the server 11.

254は生体センサーであり、脈拍(心拍)、血圧、体温等を計測するためのものである。計測された生体情報はバッファメモリ280に一旦蓄えられた語、サーバー11の収集情報メモリ120内の生体情報記憶エリア126に記憶される。
256は環境センサーであり、気温、気圧、湿度、紫外線量、騒音等を計測するためのものである。計測された環境情報はバッファメモリ280に一旦蓄えられた後、サーバー11の収集情報メモリ120内の環境情報記憶エリア127に記憶される。
258はスマホ端末1との間で、近接無線通信、例えばブルートゥース(登録商標)のリンクを行う無線I/F(インターフェース)であり、260はWi−Fi等でサーバー11とのリンクを行う通信I/Fである。
Reference numeral 254 denotes a biological sensor for measuring a pulse (heartbeat), blood pressure, body temperature, and the like. The measured biological information is stored in the biological information storage area 126 in the collected information memory 120 of the server 11, the words once stored in the buffer memory 280.
Reference numeral 256 denotes an environmental sensor for measuring temperature, atmospheric pressure, humidity, ultraviolet ray amount, noise, and the like. The measured environment information is temporarily stored in the buffer memory 280 and then stored in the environment information storage area 127 in the collected information memory 120 of the server 11.
Reference numeral 258 denotes a wireless I / F (interface) for performing close proximity wireless communication, for example, a Bluetooth (registered trademark) link with the smartphone terminal 1, and 260 is a communication I for performing a link with the server 11 by Wi-Fi or the like. / F.

290はウエアブルカメラ4と無線で接続され、ウエアブルカメラ4を制御するカメラ制御部である。ウエアブルカメラ4は前面にレンズ404を備える。カメラ制御部290の制御により周囲を撮影する。撮影された画像データは画像メモリ272に記憶される。後述する気持ちスタンプの選択時に連動して静止画を撮影するものであるが、音声コマンドによるリモコン操作等も可能であり、ドライブレコーダーのようにトレーニング中、ずっと動画を撮影し続けることも可能である。   A camera control unit 290 is wirelessly connected to the wearable camera 4 and controls the wearable camera 4. The wearable camera 4 includes a lens 404 on the front surface. The surroundings are photographed under the control of the camera control unit 290. The captured image data is stored in the image memory 272. It captures still images in conjunction with the selection of feeling stamps, which will be described later, but it can also be operated by remote control using voice commands, and can continue to shoot movies throughout training like a drive recorder. .

図5は、スマホ端末1の構成を示す概略ブロック図である。
同図において、340は表示部でありLCDとこれを駆動する駆動回路等から構成されている。354は表示部340の表示状態を制御する表示制御部である。356は入力制御部であり、各種キーやスイッチ、タッチパネル350を制御する。302はCPUであり、スマホ端末1全体を制御する。310はプログラムメモリであり、制御プログラム311及びアプリケーションプログラム312等が予め記憶されている。制御プログラム311はスマホ端末1全体を制御する基本的な制御プログラムであり、アプリケーションプログラム312は、リスト端末2や協働やサーバー11と協働するためのプログラムである。アプリケーションプログラム312は後からダウンロードすることが可能である。358はリスト端末2との間で、例えばブルートゥース(登録商標)等の近接無線でのリンクを行う無線I/Fであり、360はWi−Fi等でサーバー11とのリンクを行う通信I/Fである。
FIG. 5 is a schematic block diagram showing the configuration of the smartphone terminal 1.
In the figure, reference numeral 340 denotes a display unit, which includes an LCD and a drive circuit for driving the LCD. A display control unit 354 controls the display state of the display unit 340. Reference numeral 356 denotes an input control unit that controls various keys, switches, and the touch panel 350. A CPU 302 controls the entire smartphone terminal 1. A program memory 310 stores a control program 311 and an application program 312 in advance. The control program 311 is a basic control program for controlling the entire smartphone terminal 1, and the application program 312 is a program for cooperating with the wrist terminal 2, cooperation, and the server 11. The application program 312 can be downloaded later. Reference numeral 358 denotes a wireless I / F that establishes a link with the wrist terminal 2 using, for example, near-field wireless communication such as Bluetooth (registered trademark). It is.

図6は、ウエアブルカメラ4の構成を示す概略ブロック図である。ウエアブルカメラ4は、図2又は図8に示されるように帽子形状をしているが、内部構成は一般的なハンズフリーカメラと大きな相違はない。410はCCDやCMOSを有する撮像素子で、レンズ404から入射する被写体像を撮影する。412は撮像素子410のタイミングや露出、シャッター速度、フォーカス等を制御する撮像制御部である。420はウエアブルカメラ4全体を制御するCPUであり、プログラムメモリ430に記憶されたプログラムにより制御動作を行う。
プログラムメモリ430には、全体を制御する制御プログラム432と、特に撮影について制御する撮影制御プログラム434が記憶されている。この撮影制御プログラム434は、サーバー11の撮影制御に関する機能を一部ウエアブルカメラ4側にも備えているものである。すなわち、サーバー11又はリスト端末2が指示する撮影タイミングを、ウエアブルカメラ4自身が各種生体情報や感情情報を受け取って、その情報をもとに自分自身で決定することもできる。
440は撮像素子410で撮像した画像データを蓄積する画像メモリである。442はSDカードであり、ウエアブルカメラ4で撮影した写真を独自に保存し、他の再生装置で写真を再生することができる。
FIG. 6 is a schematic block diagram showing the configuration of the wearable camera 4. The wearable camera 4 has a hat shape as shown in FIG. 2 or FIG. 8, but the internal configuration is not significantly different from a general hands-free camera. Reference numeral 410 denotes an image sensor having a CCD or a CMOS, which captures a subject image incident from the lens 404. An imaging control unit 412 controls the timing, exposure, shutter speed, focus, and the like of the image sensor 410. A CPU 420 controls the wearable camera 4 as a whole, and performs a control operation according to a program stored in the program memory 430.
The program memory 430 stores a control program 432 for controlling the whole and a shooting control program 434 for controlling shooting in particular. This shooting control program 434 also has a part of functions related to shooting control of the server 11 on the wearable camera 4 side. In other words, the wearable camera 4 itself can receive various biological information and emotion information, and can determine the shooting timing instructed by the server 11 or the wrist terminal 2 by itself based on the information.
Reference numeral 440 denotes an image memory that stores image data captured by the image sensor 410. Reference numeral 442 denotes an SD card, which can uniquely store a photograph taken by the wearable camera 4 and reproduce the photograph with another reproducing apparatus.

450は無線I/Fで、リスト端末2と近接無性通信を行う。この無線I/F450を介してリスト端末2、又はスマホ端末1、又はサーバー11からウエアブルカメラ4は遠隔操作される。トレーニング中、リスト端末2とウエアブルカメラ4は同期してお互いに無線で情報交換しているが、リスト端末2とウエアブルカメラ4は電力を最小限に抑え、且つ両者のタイミングがずれないようにインタラプトにより間欠的に同期をとりながら無線通信を行っている。   Reference numeral 450 denotes a wireless I / F, which performs proximity proximity communication with the wrist terminal 2. The wearable camera 4 is remotely operated from the wrist terminal 2, the smartphone terminal 1, or the server 11 via the wireless I / F 450. During the training, the wrist terminal 2 and the wearable camera 4 synchronize and exchange information with each other wirelessly. However, the wrist terminal 2 and the wearable camera 4 minimize power, and the timing of both does not shift. Wireless communication is performed while intermittently synchronizing with interrupts.

図8(a)はリスト端末2の正面図、同図(b)は斜視図を示し、表示部206時刻表示をしている例を示し、MENUアイコンが表示されている。このMENUアイコンを選択することにより、図7のメニュー画面表示ステップS10がスタートする。
図8(c)はウエアブルカメラ4の斜視図を示す。レンズ404は帽子形状の前面に付いているが、例えば帽子のつば(ブリム)の下部にユーザーに向くように取り付ければ、ユーザーの顔を常時撮影することができ、その時々のユーザーの感情の分析に使用することができる。
FIG. 8A shows a front view of the wrist terminal 2, FIG. 8B shows a perspective view, shows an example of displaying the time on the display unit 206, and a MENU icon is displayed. By selecting this MENU icon, the menu screen display step S10 of FIG. 7 starts.
FIG. 8C shows a perspective view of the wearable camera 4. The lens 404 is attached to the front of the hat shape. For example, if the lens 404 is attached to the lower part of the brim of the hat so as to face the user, the user's face can be photographed at all times, and analysis of the user's emotions at that time Can be used for

次に、図面を参照しながら、本実施の形態の使用方法並びに動作について説明する。
<トレーニングモード>
<リスト端末2の動作>
ユーザーは、リスト端末2を腕に装着し、ウエアブルカメラ4を頭に装着し、トレーニングを開始する。予めコース、距離、目標タイム等を設定してもよいし、任意に走ってもよい。
図7は、ユーザーの操作に沿ったリスト端末2の動作を示すフローチャートである。
Next, the usage method and operation of the present embodiment will be described with reference to the drawings.
<Training mode>
<Operation of wrist terminal 2>
The user wears wrist terminal 2 on his arm and wearable camera 4 on his head, and starts training. The course, distance, target time, etc. may be set in advance, or may be run arbitrarily.
FIG. 7 is a flowchart showing the operation of the wrist terminal 2 in accordance with the user's operation.

まず、図7のフローチャートにおいて、ステップS10は、リスト端末2の表示部206にメニュー画面を表示している状態である。ここで、トレーニングモード、リプレイモードのいずれかを選択できる(ステップS12)。
リプレイモードを選択するとステップS24へ進み、リプレイ処理を実行する。リプレイ処理はトレーニング状況を再生するものであり、本実施の形態では詳述しない。もちろん、これ以外の選択肢を用意してもよい。この状態でトレーニングモードを選択すると、スタート画面表示へ進む(ステップS14)。
First, in the flowchart of FIG. 7, step S <b> 10 is a state in which a menu screen is displayed on the display unit 206 of the wrist terminal 2. Here, either the training mode or the replay mode can be selected (step S12).
If the replay mode is selected, the process proceeds to step S24 to execute the replay process. The replay process is for reproducing the training situation, and will not be described in detail in the present embodiment. Of course, other options may be prepared. If the training mode is selected in this state, the process proceeds to the start screen display (step S14).

スタートする時は、メニュー表示の中からSTARTメニューを選択する(ステップS16)。すると、ステップS18へ進み、計測処理を開始する。
トレーニング中、すなわち計測中にSTOPメニューが選択されると(ステップS20)、トレーニング終了と判断して、ステップS22へ進み、トレーニングの結果表示を行う。
When starting, the START menu is selected from the menu display (step S16). Then, it progresses to step S18 and starts a measurement process.
If the STOP menu is selected during training, that is, during measurement (step S20), it is determined that the training has ended, and the process proceeds to step S22 to display the training result.

図9は、図7におけるステップS18の計測処理の詳細を説明するためのフローチャートである。
トレーニング中、センサー252、生体センサー254、環境センサー256は適宜測定を行い、情報を収集している(ステップS100)。すなわち、GPS250により現在時刻と現在位置を取得する。現在時刻は、内蔵クロックから取得してもよい。
また、センサー252により、進行方向や加速度を得て前記現在位置を補正する。
生体センサー254により、体温、脈拍等の生体情報を取得する。
環境センサー256により、リスト端末2の周囲の気温、湿度等の環境情報を取得する。
それと共に、スタートしてからの走行時間(時間情報)を計算し記録している。
FIG. 9 is a flowchart for explaining details of the measurement process in step S18 in FIG.
During training, the sensor 252, the biosensor 254, and the environment sensor 256 appropriately measure and collect information (step S100). That is, the current time and current position are acquired by the GPS 250. The current time may be obtained from the built-in clock.
Further, the sensor 252 obtains the traveling direction and acceleration, and corrects the current position.
The biological sensor 254 acquires biological information such as body temperature and pulse.
Environmental information such as ambient temperature and humidity around the wrist terminal 2 is acquired by the environmental sensor 256.
At the same time, the running time (time information) from the start is calculated and recorded.

これらの収集情報は、バッファメモリ280を介して逐次、あるいは後で一括してサーバー11へ送られ、それぞれ、位置情報記憶エリア121、時刻情報記憶エリア122、時間情報記憶エリア123、生体情報記憶エリア126、環境情報記憶エリア127にそれぞれ記憶される。   The collected information is sent to the server 11 sequentially or collectively through the buffer memory 280, and the position information storage area 121, the time information storage area 122, the time information storage area 123, and the biological information storage area, respectively. 126 and the environment information storage area 127, respectively.

ステップS106は感情情報の入力があったかどうかを判断する。NOであればステップS110へ進む。
YESであればステップS108で感情情報を取得する。感情情報の取得処理については後述する。感情情報はサーバー11の感情情報エリア124に記憶される。感情情報は、サーバーの感情情報記憶エリア124に記憶される。
In step S106, it is determined whether emotion information has been input. If NO, the process proceeds to step S110.
If YES, emotion information is acquired in step S108. The emotion information acquisition process will be described later. Emotion information is stored in the emotion information area 124 of the server 11. Emotion information is stored in the emotion information storage area 124 of the server.

ステップS114では、リスト端末2のカメラ制御部290の制御によりウエアブルカメラ4により撮影を行う。具体的には気持ちスタンプが選択された時に、気持ちスタンプとセットでその場の撮影を行って写真を記録する。撮影された画像データは画像メモリ272にバッファとして記録された後、サーバー11の画像メモリ170に記憶される。
なお、動画を常時撮影している場合は、ステップS100の計測動作と並行して逐次撮影を継続している。
In step S <b> 114, shooting is performed by the wearable camera 4 under the control of the camera control unit 290 of the wrist terminal 2. Specifically, when a feeling stamp is selected, the photograph is recorded on the spot with the feeling stamp and set. The captured image data is recorded as a buffer in the image memory 272 and then stored in the image memory 170 of the server 11.
In addition, when the moving image is always photographed, sequential photographing is continued in parallel with the measurement operation in step S100.

図10は、図9におけるステップS108の感情情報取得処理の詳細を示すフローチャートである。以下に説明するように、ユーザーの感情情報は、生体センサー252の収集情報、ウエアブルカメラ4による撮影データ、気持ちスタンプの選択のいずれかにより得られる。   FIG. 10 is a flowchart showing details of the emotion information acquisition process in step S108 in FIG. As will be described below, the emotion information of the user is obtained by any one of information collected by the biometric sensor 252, data captured by the wearable camera 4, and selection of a feeling stamp.

ステップS204では、生体センサー254が収集した生体情報から、ユーザーの感情を判定する。脈拍等の生体情報からユーザーのストレス度合等を判定する方法は各種提案されており(例えば、特許第4641811号、特許5046286号参照)、ここでは詳述しない。
生体情報分析プログラム114は、この判定結果から、それに相応しい気持ちスタンプを後述する図11の中から選択する(ステップS208)。選択された気持ちスタンプはユーザーの感情画像となり、感情画像メモリ140に記憶される。
In step S204, the user's emotion is determined from the biological information collected by the biological sensor 254. Various methods for determining a user's stress level from biological information such as a pulse have been proposed (see, for example, Japanese Patent No. 4641811 and Japanese Patent No. 5046286), and will not be described in detail here.
The biological information analysis program 114 selects a feeling stamp suitable for the determination result from FIG. 11 described later (step S208). The selected feeling stamp becomes an emotion image of the user and is stored in the emotion image memory 140.

ステップS206では、ステップS114でウエアブルカメラ4によるユーザーの顔を被写体とする撮影があった時、撮影された画像データを、画像メモリ272をバッファとしてサーバー11の画像メモリ170に記憶し、顔認識プログラム115により感情を判定する。顔認識技術に人物の感情を判定する技術は各種提案されており、ここでは詳述しない。顔認識プログラム115は、この判定結果から、それに相応しい気持ちスタンプを後述する図11の中から選択する(ステップS208)。選択された気持ちスタンプはユーザーの感情画像となり、感情画像メモリ140に記憶される。   In step S206, when the wearable camera 4 has photographed the user's face in step S114, the photographed image data is stored in the image memory 170 of the server 11 using the image memory 272 as a buffer, and face recognition is performed. Emotion is judged by the program 115. Various techniques for determining the emotion of a person have been proposed as face recognition techniques, and will not be described in detail here. The face recognition program 115 selects a feeling stamp appropriate for the determination result from FIG. 11 described later (step S208). The selected feeling stamp becomes an emotion image of the user and is stored in the emotion image memory 140.

ステップS208では、前述した生体情報分析プログラム114がユーザーの感情を判定した結果、又は顔認識プログラム115がユーザーの感情を判定した結果によって気持ちスタンプを選択する。図11に気持ちスタンプの例を示す。ユーザー自身がトレーニング中に任意の気持ちスタンプを選択してもよい。気持ちスタンプは例えば同図に示すように複数用意されており、A1〜A9はそれぞれ異なる感情を表現している気持ちスタンプである。これ以外にも多くの気持ちスタンプが用意されており、ユーザー自身が選択する際は表示部206のスクロール操作により気持ちスタンプ画面を表示させ、自分の感情に最も合っている気持ちスタンプを選択する。又は、前述したように、音声コマンドで「キリカエ」と発生して気持ちスタンプ画面に切り替え、「元気」「快調」「楽しい」「順調」「疲れた」「苦しい」等と発声すると、該当する気持ちスタンプが選択される。   In step S208, a feeling stamp is selected based on the result of the above-described biometric information analysis program 114 determining the user's emotion or the result of the face recognition program 115 determining the user's emotion. FIG. 11 shows an example of a feeling stamp. The user himself / herself may select any feeling stamp during training. For example, a plurality of feeling stamps are prepared as shown in the figure, and A1 to A9 are feeling stamps expressing different emotions. Many feeling stamps other than this are prepared, and when the user himself / herself selects, the feeling stamp screen is displayed by scrolling the display unit 206, and the feeling stamp most suitable for his / her feeling is selected. Or, as mentioned above, “Kirikae” is generated by voice command, and it switches to the feeling stamp screen, and when it says “Energetic” “Fair” “Fun” “Fair” “Fatigue” “Hard” etc., the corresponding feeling A stamp is selected.

生体情報分析プログラム114又は顔認識プログラム115がユーザーの感情を判定した結果によって気持ちスタンプを選択する場合は、ユーザーの感情の判定結果が予め設定されている感情状態となったと判定されたタイミングで選択される。
選択された気持ちスタンプは前述したようにユーザーの感情画像となるもので、感情画像メモリ140に記録される。
When the biometric information analysis program 114 or the face recognition program 115 selects the feeling stamp based on the result of determining the user's emotion, the selection is performed at the timing when it is determined that the determination result of the user's emotion is a preset emotion state. Is done.
The selected feeling stamp is a user's emotion image as described above, and is recorded in the emotion image memory 140.

<ウエアブルカメラ4の動作>
図12はウエアブルカメラ4の動作を説明するためのフローチャートである。まず、トレーニングを開始する前に、ウエアブルカメラ4をスタンバイモードにする(ステップS100)。これは、ウエアブルカメラ4本体の操作スイッチ(図示せず)によって設定してもよいし、リスト端末2からリモコンのように遠隔操作で設定してもよい。基本的には、ウエアブルカメラ4とリスト端末2は無線による同期関係にあり、リスト端末2をマスターとしウエアブルカメラ4をスレーブとしてリスト端末2からリモート制御する。
<Operation of wearable camera 4>
FIG. 12 is a flowchart for explaining the operation of the wearable camera 4. First, before starting training, wearable camera 4 is set to a standby mode (step S100). This may be set by an operation switch (not shown) of the wearable camera 4 main body, or may be set by remote operation from the wrist terminal 2 like a remote control. Basically, the wearable camera 4 and the wrist terminal 2 are in a wireless synchronization relationship, and are remotely controlled from the wrist terminal 2 with the wrist terminal 2 as a master and the wearable camera 4 as a slave.

スタンバイモードになると、CPU420の制御により撮影を開始する。例えば連写のように1秒間に複数枚撮影してもよいし、1分に1枚程度の撮影でも良い(ステップS402)。撮影した写真は画像メモリ440にFIFO(First In First Out)方式で一定期間保持される。   When the standby mode is set, shooting is started under the control of the CPU 420. For example, a plurality of images may be captured per second as in continuous shooting, or approximately one image may be captured per minute (step S402). The photographed image is held in the image memory 440 for a certain period of time using a FIFO (First In First Out) method.

トレーニング中の自動撮影なので、ピントのボケやブレが発生する可能性が高い。そこで、複数枚の写真を撮影しておき、その中から最適な写真を選択できるようにしている。明細書中ではウエアブルカメラ4により撮影された画像(画像データ)を写真と称呼している。
最適な写真の選択は写真選択プログラム117によって行う。ボケやブレの少ない写真を選択する技術はいくつか知られているので詳述はしない。なお、言うまでもないが図面に使用した写真はあくまで本実施の形態を説明するための例であって、実在の場所、コース等とは何の関係もないものであり、例示した写真のコンテンツ自体に意味は無い。
なお、前述したようにサーバー11又はリスト端末2が指示する撮影タイミングを、ウエアブルカメラ4自身が各種生体情報や感情情報を受け取って、その情報をもとに自分自身で決定することもできる。
更に、図8で説明したようにレンズ404をユーザー自身の顔を撮影するように設置した場合は、ユーザーの顔の撮影情報を感情情報に使用することもできる。
Since automatic shooting during training, there is a high possibility of out-of-focus and blurring. Therefore, a plurality of photographs are taken, and the optimum photograph can be selected from them. In the specification, an image (image data) taken by the wearable camera 4 is called a photograph.
The optimal photo selection is performed by the photo selection program 117. Several techniques for selecting photos with less blur and blur are not described in detail. Needless to say, the photos used in the drawings are merely examples for explaining the present embodiment, and have nothing to do with the actual place, course, etc. There is no meaning.
Note that, as described above, the wearable camera 4 itself receives various biological information and emotion information and can determine the photographing timing instructed by the server 11 or the wrist terminal 2 by itself based on the information.
Further, when the lens 404 is installed so as to photograph the user's own face as described with reference to FIG. 8, the photographing information of the user's face can be used as emotion information.

次に、リスト端末2で、前述したいくつかの手法のいずれかにより気持ちスタンプが選択されると、その情報を受信し(ステップS404)、ステップS402で撮影していた写真のうち、例えば受信したタイミング及びその前後の写真各5枚の計11枚を画像メモリ440に保存する。また、保存した写真若しくは任意の写真はSDカード442に保存でき、他の再生装置で見ることができる。
保存した写真はリスト端末2に送信し(ステップS408)、リスト端末2の画像メモリ272に一旦記憶され、更にサーバー11に送られて画像メモリ170に記憶される。
Next, when the feeling stamp is selected by the wrist terminal 2 by any of the above-described several methods, the information is received (step S404), and for example, the photograph taken in step S402 is received. A total of 11 timings and 5 photos before and after that are stored in the image memory 440. In addition, the stored photo or an arbitrary photo can be stored in the SD card 442 and can be viewed on another playback device.
The stored photograph is transmitted to the wrist terminal 2 (step S408), temporarily stored in the image memory 272 of the wrist terminal 2, and further sent to the server 11 and stored in the image memory 170.

<タイムライン表示>
続いて、タイムラインの表示について説明する。
図14は、ユーザーの行動に沿ったタイムライン作成のためのサーバー11のフローチャートであり、図13は、PC3やスマホ端末1−2のタイムラインの表示例を示すものである。
図13(a)はスマホ端末1の表示部340の表示イメージを示すもので、上半分にコースCとトレーニング中のユーザーの現在位置Nを表示している。また、下半分には、タイムラインTLを表示する。図13(b)は、スマホ1を横長にして表示させた例で、左半分にコースCと現在位置Nを、右半分にタイムラインTLを表示している。
<Timeline display>
Next, timeline display will be described.
FIG. 14 is a flowchart of the server 11 for creating a timeline according to the user's behavior, and FIG. 13 shows a display example of the timeline of the PC 3 or the smartphone terminal 1-2.
FIG. 13 (a) shows a display image of the display unit 340 of the smartphone terminal 1, and the course C and the current position N of the training user are displayed in the upper half. In the lower half, a timeline TL is displayed. FIG. 13B shows an example in which the smartphone 1 is displayed horizontally, in which the course C and the current position N are displayed on the left half, and the timeline TL is displayed on the right half.

図13(b)では、ユーザーの現在位置Nの他に、同じコースを走っている友人Aの位置NAをアイコンで示している。すなわちユーザーが友人Aと出会った以降の表示例である。友人Aも同様のリスト端末2を装着してトレーニングしているという前提なので、SNSサイト10を介してお互いの位置を知ることができる。従って、競争したり、タイムを競ったり、一方がペースメーカーになったりすることもできる。タイムを比較表示することは勿論できるが、アイコンの表示形態を変えたり、相手(友人A)が近づいてくるとアイコンを点滅表示させたりして追い上げられていることを知らせることができる。
更に、サーバー11に履歴データ記憶部108には、過去のトレーニングデータが記憶されているので、自分の過去のトレーニング結果や友人Aのトレーニング結果を読み出して、バーチャルな相手と一緒にトレーニングしたり競争したりすることも可能である。
In FIG. 13B, in addition to the current position N of the user, the position NA of the friend A running on the same course is indicated by an icon. That is, it is a display example after the user meets the friend A. Since it is premised that the friend A is wearing the same wrist terminal 2 and training, the positions of each other can be known through the SNS site 10. Therefore, it is possible to compete, to compete for time, or to become a pacemaker. Of course, the time can be compared and displayed, but the icon display form can be changed, or when the other party (friend A) is approaching, the icon can be flashed to indicate that it is being chased.
Further, since the past training data is stored in the history data storage unit 108 in the server 11, the past training results and the training results of the friend A are read out, and training or competition with the virtual partner is performed. It is also possible to do.

しかして、タイムラインの一例は図15A、図15B、図15Cに示している。
以下、図14のサーバー11のCPU102が実行するフローチャートと図15A、図15B、図15Cのタイムラインの表示例を参照しながら、タイムライン表示について説明する。
まず、ステップS502で、ユーザー自身からのコメント投稿がないかどうかを待機する。ここでNOであれば、ステップS504に進み、友人からのコメント投稿がないかを待機する。友人とはSNSシステム10内で特定のフレンド関係となった他のユーザーである。ここでNOであれば、ステップS506に進み、リスト端末2で気持ちスタンプが発生するかどうかを待機する。気持ちスタンプは前述したように、トレーニング中のユーザーの感情情報を基に、その感情を表現している図11に示した気持ちスタンプのいずれかを選択して送信するものである。
ここでもNOであれば、ステップS508でSTOPメニューが選択されたか、すなわちトレーニング終了か否かを判断する。ここでもNOであれば、ステップS502に戻ってループを継続する。
An example of the timeline is shown in FIGS. 15A, 15B, and 15C.
The timeline display will be described below with reference to the flowchart executed by the CPU 102 of the server 11 in FIG. 14 and the display examples of the timelines in FIGS. 15A, 15B, and 15C.
First, in step S502, it is waited whether there is no comment contribution from the user himself. If “NO” here, the process proceeds to a step S504 to wait for a comment post from a friend. A friend is another user who has a specific friend relationship within the SNS system 10. If “NO” here, the process proceeds to a step S506 to wait for a feeling stamp to be generated in the wrist terminal 2. As described above, the feeling stamp selects and transmits one of the feeling stamps shown in FIG. 11 expressing the feeling based on the emotion information of the user during training.
If “NO” here as well, it is determined in step S508 whether the STOP menu has been selected, that is, whether the training has ended. If “NO” again, the process returns to step S502 to continue the loop.

ステップS502で自分からのコメントを検出すると、コメントメモリ160に一旦記憶されて、ステップS510に進み、自分が投稿したタイムラインを図15A(1)のように流す。この処理はタイムライン作成プログラム116が行う。タイムスタンプは自動的に付与される。この表示は会員のスマホ端末1やPC3で閲覧可能とされる。
図15A(1)は、ユーザー自身(自分)が「明日、皇居にジョギングに行くよ」というコメントを投稿したものである。これを受けて友人Aの任意の端末から「気を付けてね」というコメントが投稿されると、ステップS504で友人のコメント有りを検出して図15A(2)のようにタイムライン表示する。同様に友人Bの「がんばって!」というコメントも図15A(3)のように表示される。自分が「コースはここだよ」というコメントを流し、地図をアップした状態が図15A(4)(5)である。コメントの文章と共に写真も投稿可能である。図15A(6)の「ぼくも行くかも」は友人Aのコメント、図15A(7)の「会えたらいいね」は自分のコメントを示す。任意の写真をタイムラインにアップできること、友人が任意のアイコンを作成できることは公知であるので詳述はしない。
When a comment from the user is detected in step S502, the comment is temporarily stored in the comment memory 160. Then, the process proceeds to step S510, and the timeline posted by the user is flowed as shown in FIG. 15A (1). This process is performed by the timeline creation program 116. The time stamp is automatically given. This display can be viewed on the member's smartphone terminal 1 or the PC 3.
FIG. 15A (1) shows a comment posted by the user himself (to himself) to go jogging to the Imperial Palace tomorrow. In response to this, when a comment “Be careful” is posted from an arbitrary terminal of the friend A, the presence of the comment of the friend is detected in step S504, and the timeline is displayed as shown in FIG. 15A (2). Similarly, the comment “Good luck!” Of friend B is also displayed as shown in FIG. 15A (3). 15A (4) and 15 (5) show the state where he / she made a comment “The course is here” and uploaded the map. Photos can be posted along with the comment text. In FIG. 15A (6), “I may also go” indicates the comment of friend A, and “I wish I can meet” in FIG. 15A (7) indicates my comment. Since it is well known that any photo can be uploaded to the timeline and a friend can create any icon, it will not be described in detail.

さて、リスト端末2とウエアブルカメラ4を装着してトレーニングするユーザー(自分)がリスト端末2のメニュー画面からSTARTメニューを選択してトレーニングをスタートすると、図15B(8)のようにタイムラインに「START」コメントがサーバー11から自動送信される。同図において、コメントの吹き出しを二重線で表現しているものはユーザーの投稿ではなくサーバー11の自動送信であることを示している。   Now, when a user (self) who wears the wrist terminal 2 and the wearable camera 4 and trains selects the START menu from the menu screen of the wrist terminal 2 and starts training, the timeline is displayed as shown in FIG. 15B (8). A “START” comment is automatically transmitted from the server 11. In the same figure, what is expressed by a double line in a comment balloon indicates that it is not a user's post but automatic transmission of the server 11.

そして、その時のユーザーの感情情報に合った気持ちスタンプA9が感情画像メモリ120から選択され、その時にウエアブルカメラ4で撮影し画像メモリ170に記憶された写真と共にタイムラインにアップされる(図14ステップS506、図15B(9))。気持ちスタンプは、生体情報分析プログラム114の結果により自動判別されるか、ユーザー自身が選択することは前述のとおりである。   Then, a feeling stamp A9 that matches the emotion information of the user at that time is selected from the emotion image memory 120, and the photograph is taken by the wearable camera 4 at that time and is uploaded to the timeline together with the photograph stored in the image memory 170 (FIG. 14). Step S506, FIG. 15B (9)). As described above, the feeling stamp is automatically determined based on the result of the biological information analysis program 114 or selected by the user himself / herself.

すなわち、トレーニングを開始すると、自動的にその時々のユーザーの感情に合わせて気持ちスタンプが自動的にタイムラインにアップされていくと共に、ウエアブルカメラ4で撮影した写真も一緒にアップされていく。写真は一例として気持ちスタンプ発生タイミングの前後11枚を撮影しているが、写真選択プログラム117により、最もボケやブレの少ない写真が自動選択されてアップされる。従って、気持ちスタンプの発生タイミングとウエアブルカメラ4で撮影するタイミングは同期している。   That is, when training is started, feeling stamps are automatically uploaded to the timeline according to the emotions of the user at the same time, and photographs taken with the wearable camera 4 are also uploaded together. As an example, 11 photographs are taken before and after the feeling stamp generation timing, and the photograph selection program 117 automatically selects and uploads the photograph with the least blur and blurring. Therefore, the generation timing of the feeling stamp and the timing of shooting with the wearable camera 4 are synchronized.

図15B(10)で友人Cの「いいコースですね」というコメントがアップされ、図15B(11)では快調にトレーニングしている気持ちスタンプA1と写真P2がアップされる。
図15B(12)では、上り坂に差し掛かってきつくなってきた時の感情から自動又は手動で選択された気持ちスタンプA2と写真P3がアップされる。
図15B(13)では、友人Cのコメント「がんばってください」が表示される。
図15C(14)では、坂を上り終わってほっとしている気持ちスタンプA3と写真P4がアップされる。
In FIG. 15B (10), the comment “Friendly course” of friend C is uploaded, and in FIG. 15B (11), feeling stamp A1 and photograph P2 are being trained smoothly.
In FIG. 15B (12), the feeling stamp A2 and the photograph P3, which are automatically or manually selected from the feelings when approaching the uphill, are uploaded.
In FIG. 15B (13), the comment “Please do your best” of friend C is displayed.
In FIG. 15C (14), a feeling stamp A3 and a photograph P4 that are relieved after going up the hill are uploaded.

図15C(15)では、友人Bのコメント「よくがんばったね」が表示され、更に図15C(16)で友人Aがユーザー(自分)と出会って「合流したよ」というコメントを表示している。この時、図15C(17)のように、あいさつの感情を示す気持ちスタンプA6をアップすると共に、その時撮影した友人Aが写っている写真P5がアップされる。
図15C(16)では、満開の桜を見て感動している気持ちスタンプA7と、桜の写っている写真P6がアップされる。
しかして、トレーニングを終了するとメニュー表示からSTOPメニューを選択し、図14のステップS508でYESとなりトレーニングモードを終了する。
その際、図15C(19)に示すように、「GOAL」がサーバー11から自動送信される。
図15C(20)ではゴールに到達した時の喜びの気持ちスタンプA4とその時撮影されたゴールの写真P7がアップされる。
In FIG. 15C (15), the comment “Good luck” of friend B is displayed, and in FIG. 15C (16), friend A meets the user (self) and displays the comment “Join”. At this time, as shown in FIG. 15C (17), the feeling stamp A6 indicating the greeting is increased, and the photograph P5 showing the friend A photographed at that time is also increased.
In FIG. 15C (16), a feeling stamp A7, which is impressed by seeing the cherry blossoms in full bloom, and a photograph P6 in which the cherry trees are reflected are uploaded.
When the training is finished, the STOP menu is selected from the menu display, and the training mode is finished in step S508 of FIG.
At this time, “GOAL” is automatically transmitted from the server 11 as shown in FIG.
In FIG. 15C (20), a feeling of joy stamp A4 when reaching the goal and a photograph P7 of the goal photographed at that time are uploaded.

変形例として、苦しくなった時に「友だちに応援を頼む」を要求できる。そのために、例えばリスト端末2の「Cheer1 Me」(図示せず、音声入力でも良い)ボタンを押すと、スマホ端末1、サーバー11を経由して友人のスマホ端末1にメッセージが送られる。メッセージを受けた側(友人)は、アプリケーションプログラム上で「Cheer」コマンドを操作すると応援メッセージ(又は応援スタンプ)を返すことができる。従ってトレーニング中のユーザーはリアルタイムに応援を受け取ることができる。図15A、図15B、図15Cにおいて、応援メッセージがタイムライン中にインタラプト的にアップされてもよい。苦しくなったかどうかは、自己申告だけでなく、速度が落ちた、心拍数が上がった等の生体センサー254で収集される生体情報から自動判別して、走っているユーザー本人(自分)に通知してもよい。一定値に達した時に「応援をたのむ?」と端末2の表示部202上に通知する。   As a modified example, when it becomes difficult, it can request “a friend asks for support”. For this purpose, for example, when a “Cheer1 Me” (not shown, voice input) button on the wrist terminal 2 is pressed, a message is sent to the friend's smartphone terminal 1 via the smartphone terminal 1 and the server 11. The side (friend) who receives the message can return a support message (or support stamp) by operating the “Cheer” command on the application program. Therefore, the training user can receive support in real time. In FIG. 15A, FIG. 15B, and FIG. 15C, a support message may be interrupted up during the timeline. Whether it is difficult or not is not only self-reported, but it is automatically determined from the biological information collected by the biological sensor 254, such as the speed has fallen and the heart rate has risen, and the running user himself / herself is notified. May be. When the value reaches a certain value, a message “Would you like to support me?” Is displayed on the display unit 202 of the terminal 2.

トレーニングが終了した時には、メニュー画面から「STOP」メニューを選択する。
リスト端末2が収集した各種情報は、電話回線経由で、又はスマホを一緒に持っている時はスマホ経由で、リアルタイムでサーバー11に送ってもよいし、10分に1回、1時間に1回等、定期的に送ってもよい。またトレーニング終了後に無線又は有線でサーバー11と接続して、一括して送ってもよい。基本的に、トレーニング中はSNSサイト10と接続している必要はなく、トレーニングが終わってから、例えばPC3と接続して、リスト端末2によりトレーニング中に収集した情報をサーバー11にアップロードすればよい。サーバー11は集まった情報を基にリプレイ処理(図7のステップS24)を実行することができる。
When the training is completed, the “STOP” menu is selected from the menu screen.
The various information collected by the wrist terminal 2 may be sent to the server 11 in real time via a telephone line or via a smartphone when the smartphone is held together, or once every 10 minutes and once per hour. It may be sent periodically such as times. In addition, after the training is completed, the server 11 may be connected to the server 11 wirelessly or by wire and may be sent collectively. Basically, it is not necessary to connect to the SNS site 10 during training. After the training is completed, for example, the information collected during the training by the wrist terminal 2 can be uploaded to the server 11 by connecting to the PC 3. . The server 11 can execute the replay process (step S24 in FIG. 7) based on the collected information.

なお、本発明は、上記実施の形態に限定されるものではなく、トレーニングとは広義の意味に解するものとする。すなわち、散策、観光、散歩、ウオーキング、ジョギング、マラソン、サイクリング、登山、マリンスポーツ等に適用することができ、また、ペットの散歩や、高齢者・徘徊老人にも応用することができる。トレーニングとワークアウトは同義である。   Note that the present invention is not limited to the above-described embodiment, and training is understood in a broad sense. That is, it can be applied to walking, sightseeing, walking, walking, jogging, marathon, cycling, mountain climbing, marine sports, etc., and it can also be applied to pet walking, elderly people, and elderly people. Training and workout are synonymous.

また、腕に装着してトレーニングする腕時計型のリスト端末を例にとって説明したが、これに限ることなく、頭に装着したり、腰に取り付けたり、あるいは手で持ってトレーニングしても構わない。ウエアブルカメラについても同様で、腰につけたり、メガネ型にしたりすることも可能である。   In addition, although a wristwatch type wrist terminal that is worn on the arm and trained has been described as an example, the wrist-type wrist terminal is not limited thereto, and may be worn on the head, attached to the waist, or held by hand. The same applies to the wearable camera, and it can be worn on the waist or in glasses.

<実施の形態並びに推考しうる変形例の作用効果>
生体センサーの収集情報から、ユーザーの感情や体調を判定して、気持ちスタンプ等のオブジェクトの表情や種類に反映させることができる。
生体センサーの収集情報やその判定結果、オブジェクトを日々の生活行動履歴(ライフログ)として記録したり、SNSに投稿して共有したりすることができる。
ユーザーが、メール送信やコメントの書込み等の所定の行動を起こした時に、その時点のユーザーの感情や体調を判定して、オブジェクトの表情や種類に反映させることができる。
行動を起こした時のユーザーの生体情報に基づいて、自動的にオブジェクトの表情や種類に反映させることができる。
行動を起こした前後における生体情報の変化に基づいて、ユーザーの感情や体調の時間的変化を判定して、オブジェクトの表情や種類に反映させることができる。
オブジェクトの表情等を一見するだけで、相手の感情や状態を、分かりやすく且つ興趣性を持って伝達できる。
<Effects of Embodiment and Modified Examples that can be Inferred>
It is possible to determine the emotion and physical condition of the user from the collected information of the biometric sensor and reflect it on the facial expression and type of an object such as a feeling stamp.
The collection information of the biosensor, the determination result, and the object can be recorded as daily life activity history (life log), or can be posted to SNS and shared.
When a user takes a predetermined action such as sending an e-mail or writing a comment, the emotion and physical condition of the user at that time can be determined and reflected in the expression and type of the object.
Based on the user's biometric information when the action is taken, it can be automatically reflected in the expression and type of the object.
Based on changes in biological information before and after taking action, it is possible to determine temporal changes in the user's emotions and physical condition and reflect them in the expression and type of the object.
By simply looking at the facial expression of an object, it is possible to convey the emotion and state of the other party in an easy-to-understand manner and with interest.

ウエアブルカメラの撮像シーン毎に、その時のユーザーの感情や体調を判定して、オブジェクトの表情や種類に反映させることができる。
撮影された写真を画像処理するだけで、ユーザーの感情や体調を判定して、オブジェクトの表情や種類に反映させることができる。
撮影された動画データやシーンと対応付けて、シーンごとのオブジェクトの表情や種類に反映させることができる。
ウエアブルカメラの再生画像にオブジェクトを合成することができる。
どのようなトレーニングシーンであったのか、その各シーンや記録を達成した時に、どのように感動したのか、どのような感情や精神状態であったのか、ユーザーの感動や状態データを確認したり、仲間や他人と伝達共有したりできる。
For each imaging scene of the wearable camera, the emotion and physical condition of the user at that time can be determined and reflected in the expression and type of the object.
By simply processing the photographed image, it is possible to determine the emotion and physical condition of the user and reflect them in the expression and type of the object.
In association with captured moving image data and scenes, it can be reflected in the expression and type of objects for each scene.
An object can be combined with the playback image of the wearable camera.
You can check what kind of training scene you were, how you were impressed when you achieved each scene and record, what emotions and mental state you were, what your emotions and mental state were, You can communicate and share with friends and others.

以上、この発明の実施形態について説明したが、この発明はこれらに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下に、本願出願時の特許請求の範囲を付記する。
<付記>
As mentioned above, although embodiment of this invention was described, this invention is not limited to these, The invention described in the claim and its equal range are included.
The claims appended at the time of filing this application will be appended below.
<Appendix>

[請求項1]
端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおいて、
前記端末は、
感情情報を取得する感情情報取得手段と、
前記感情情報取得手段により取得された感情情報を前記サーバーに送信する送信手段と、
を備え、
前記サーバーは、
前記感情情報を受信する受信手段と、
前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段と、
前記タイムライン作成手段により作成したタイムラインを閲覧可能にする表示制御手段と、
を備えることを特徴とするソーシャル・ネットワーク・サービスシステム。
[請求項2]
前記感情情報取得手段は、生体センサーを有し、
前記タイムライン作成手段は、前記生体センサーで取得された生体情報を分析して感情を表すオブジェクトを作成することを特徴とする請求項1記載のソーシャル・ネットワーク・サービスシステム。
[請求項3]
前記感情情報取得手段は、感情に対応するオブジェクトを選択するオブジェクト選択手段を有し、
前記タイムライン作成手段は、前記オブジェクト選択手段で選択されたオブジェクトを、感情を表すオブジェクトとすることを特徴とする請求項1又は2記載のソーシャル・ネットワーク・サービスシステム。
[請求項4]
前記感情を表すオブジェクトは気持ちスタンプであることを特徴とする請求項3記載のソーシャル・ネットワーク・サービスシステム。
[請求項5]
当該システムは画像を撮影するカメラを更に備え、
前記サーバーは前記カメラで撮影した画像を直接または間接的に受信する画像受信手段を備え、
前記タイムライン作成手段は、前記オブジェクトと共に前記受信した画像をタイムラインにアップする手段を備えることを特徴とする請求項1乃至4いずれか記載のソーシャル・ネットワーク・サービスシステム
[請求項6]
前記端末は現在位置情報を取得して前記サーバーに送信する位置情報送信手段を備え、
前記サーバーは、前記現在位置情報を受信して地形図上に端末の現在位置を図示する現在位置図作成手段を備え、
前記タイムライン作成手段は、前記タイムラインと共に前記現在位置図をアップする手段を備えることを特徴とする請求項1乃至5いずれか記載のソーシャル・ネットワーク・サービスシステム。
[請求項7]
前記サーバーは前記端末の現在位置情報とともに、他の端末の現在位置情報を受信して、
現在位置図作成手段は、前記前記地形図上に前記他の端末の現在位置を図示する手段を含むことを特徴とする請求項6記載のソーシャル・ネットワーク・サービスシステム
[請求項8]
端末と、この端末と直接又は通信端末を介して接続されるサーバー及びカメラを含むソーシャル・ネットワーク・サービスシステムにおけるソーシャルタイムラインを生成する方法であって、
前記端末は、感情情報を取得する取得処理と、前記取得された前記感情情報を前記サーバーに送信する送信処理とを実行し、
前記カメラは、前記端末からの制御により画像を撮影する処理を実行し、
前記サーバーは、前記感情情報及び前記撮影画像を受信する処理と、前記受信した感情情報を基に感情を表すオブジェクト及び前記受信した撮影画像を含むタイムラインを作成するタイムライン作成処理と、前記作成したタイムラインを閲覧可能にする表示制御処理とを実行することを特徴とする方法。
[請求項9]
端末と、この端末から直接又は通信端末を介して送信される情報を受信してソーシャルタイムラインを生成するサーバーとを含むシステムにおける端末において、
感情情報を取得する感情情報取得手段と、
前記感情情報取得手段により取得された感情情報を前記サーバーに送信する送信手段と、
を備え、
前記感情情報取得手段は、感情に対応するスタンプ画像を選択するスタンプ選択手段を含み、
前記送信手段は前記スタンプ選択手段により選択されたスタンプ画像を前記サーバーへ送信することによってソーシャルタイムラインにスタンプ画像をアップさせることを特徴とする端末。
[請求項10]
前記スタンプ選択手段は、感情に対応するスタンプ画像を複数表示する手段と、前記スタンプ画像をユーザーに選択させる手段とを有することを特徴とする請求項8記載の端末。
[請求項11]
画像を撮影する手段を更に備え、前記送信手段は前記スタンプ選択手段により選択されたスタンプ画像と前記撮影された画像を前記サーバーへ送信することによってソーシャルタイムラインにスタンプ画像及び撮影画像をアップさせることを特徴とする請求項8又は9記載の端末。
[請求項12]
端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおけるサーバーにおいて、
前記端末から感情情報を受信する受信手段と、
前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段と、
前記作成したタイムラインを閲覧可能にする表示制御手段と、
を備えることを特徴とするサーバー。
[請求項13]
前記端末から現在位置情報を受信する位置情報受信手段を更に備え、
前記タイムライン作成手段は、前記タイムラインと共に、前記受信した現在位置情報を基に地形図上に端末の現在位置を図示する現在位置図を作成する手段を備えることを特徴とする請求項12記載のサーバー。
[請求項14]
前記タイムライン作成手段は、前記端末の現在位置と共に、他の端末の現在位置を前記地形図上に図示する手段を更に備えることを特徴とする請求項13記載のサーバー。
[請求項15]
端末と、この端末から直接又は通信端末を介して送信される情報を受信してソーシャルタイムラインを生成するサーバーとを含むシステムにおける端末のコンピュータを、
感情情報を取得する感情情報取得手段、
前記取得した感情情報に対応するスタンプ画像を選択するスタンプ選択手段、
前記スタンプ選択手段で選択されたスタンプ画像を、感情を表すオブジェクトとして前記サーバーへ送信することによってソーシャルタイムラインにアップさせる手段として機能させることを特徴とするプログラム。
[請求項16]
端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおけるサーバーのコンピュータを、
前記端末から感情情報を受信する受信手段、
前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段、
作成したタイムラインを閲覧可能にする表示制御手段、
として機能させることを特徴とするプログラム。
[Claim 1]
In a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal,
The terminal
Emotion information acquisition means for acquiring emotion information;
Transmitting means for transmitting emotion information acquired by the emotion information acquiring means to the server;
With
The server
Receiving means for receiving the emotion information;
Timeline creating means for creating a timeline including an object representing emotion based on emotion information received by the receiving means;
Display control means for enabling browsing of the timeline created by the timeline creating means;
A social network service system characterized by comprising:
[Claim 2]
The emotion information acquisition means has a biological sensor,
The social network service system according to claim 1, wherein the timeline creating unit creates an object representing emotion by analyzing the biological information acquired by the biological sensor.
[Claim 3]
The emotion information acquisition means includes an object selection means for selecting an object corresponding to the emotion,
The social network service system according to claim 1, wherein the timeline creation unit uses the object selected by the object selection unit as an object representing emotion.
[Claim 4]
4. The social network service system according to claim 3, wherein the object representing the emotion is a feeling stamp.
[Claim 5]
The system further comprises a camera for taking an image,
The server includes image receiving means for directly or indirectly receiving an image taken by the camera,
The social network service system according to any one of claims 1 to 4, wherein the timeline creation means includes means for uploading the received image together with the object to the timeline.
The terminal includes a position information transmission unit that acquires current position information and transmits the current position information to the server,
The server includes current position map creation means for receiving the current position information and illustrating the current position of the terminal on a topographic map,
6. The social network service system according to claim 1, wherein the timeline creating means includes means for uploading the current position map together with the timeline.
[Claim 7]
The server receives the current position information of the other terminal together with the current position information of the terminal,
7. The social network service system according to claim 6, wherein the current position map creating means includes means for illustrating a current position of the other terminal on the topographic map.
A method for generating a social timeline in a social network service system including a terminal and a server and a camera connected to the terminal directly or via a communication terminal,
The terminal performs an acquisition process of acquiring emotion information and a transmission process of transmitting the acquired emotion information to the server,
The camera executes a process of taking an image under control from the terminal,
The server is configured to receive the emotion information and the captured image, create a timeline including an object representing an emotion based on the received emotion information and the received captured image, and the creation And a display control process for enabling browsing of the selected timeline.
[Claim 9]
In a terminal in a system including a terminal and a server that receives information transmitted from the terminal directly or via a communication terminal and generates a social timeline,
Emotion information acquisition means for acquiring emotion information;
Transmitting means for transmitting emotion information acquired by the emotion information acquiring means to the server;
With
The emotion information acquisition means includes a stamp selection means for selecting a stamp image corresponding to the emotion,
The terminal according to claim 1, wherein the transmitting means transmits the stamp image selected by the stamp selecting means to the social timeline by transmitting the stamp image to the server.
[Claim 10]
9. The terminal according to claim 8, wherein the stamp selecting means includes means for displaying a plurality of stamp images corresponding to emotions, and means for causing the user to select the stamp images.
[Claim 11]
The image processing apparatus further includes means for capturing an image, and the transmission means transmits the stamp image selected by the stamp selection means and the captured image to the server to upload the stamp image and the captured image to the social timeline. The terminal according to claim 8 or 9, characterized in that.
[Claim 12]
In a server in a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal,
Receiving means for receiving emotion information from the terminal;
Timeline creating means for creating a timeline including an object representing emotion based on emotion information received by the receiving means;
Display control means for enabling browsing of the created timeline;
A server characterized by comprising:
[Claim 13]
Further comprising position information receiving means for receiving current position information from the terminal;
13. The timeline creating means comprises means for creating a current position map showing a current position of a terminal on a topographic map based on the received current position information together with the timeline. Server.
[Claim 14]
14. The server according to claim 13, wherein the timeline creation means further comprises means for showing the current position of the other terminal on the topographic map together with the current position of the terminal.
[Claim 15]
A terminal computer in a system including a terminal and a server that receives information transmitted from the terminal directly or via a communication terminal and generates a social timeline;
Emotion information acquisition means for acquiring emotion information,
Stamp selection means for selecting a stamp image corresponding to the acquired emotion information;
A program that causes a stamp image selected by the stamp selection means to function as a means for uploading to the social timeline by transmitting to the server as an object representing emotion.
[Claim 16]
A server computer in a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal;
Receiving means for receiving emotion information from the terminal;
Timeline creation means for creating a timeline including an object representing emotion based on emotion information received by the reception means;
Display control means that enables browsing of the created timeline,
A program characterized by functioning as

1−1、1−2 スマホ端末
2−1、2−2、2−3 リスト端末
3−1 PC
4−1、4−2、4−3 ウエアブルカメラ
10 SNSサイト
11 サーバー
102 CPU
106 会員管理部
108 履歴データメモリ
110 プログラムメモリ
111 OS(制御プログラム)
112 コース形状作成プログラム
113 音声−文字変換プログラム
114 生体情報分析プログラム
115 顔認識プログラム
116 タイムライン作成プログラム
120 収集情報メモリ
121 位置情報エリア
122 時刻情報エリア
123 時間情報エリア
124 感情情報エリア
125 地点情報エリア
126 生体情報記憶エリア
127 環境情報記憶エリア
130 コース形状メモリ
120 感情画像メモリ
150 音声メモリ
160 コメントメモリ
170 画像メモリ
202 CPU
204 表示制御部
206 表示部
210 プログラムメモリ
211 制御プログラム
212 アプリケーションプログラム
220 入力制御部
222 タッチパネル
230 音声メモリ
240 コメントメモリ
250 GPS
252 センサー
254 生体センサー
256 環境センサー
258 無線I/F
260 通信I/F
272 画像メモリ
280 バッファメモリ
290 カメラ制御部
300 表示画面
302 CPU
310 プログラムメモリ
311 制御プログラム
312 アプリケーションプログラム
340 表示部
354 表示制御部
356 入力部
358 無線I/F
360 通信I/F
404 レンズ
410 撮像素子
412 撮像制御部
420 CPU
430 プログラムメモリ
440 画像メモリ
450 無線I/F
A1〜A9 気持ちスタンプ
C コース形状
N 現在位置
NA 友人の現在位置
TL タイムライン
1-1, 1-2 Smartphone terminals 2-1, 2-2, 2-3 List terminal 3-1 PC
4-1, 4-2, 4-3 Wearable Camera 10 SNS Site 11 Server 102 CPU
106 Member Management Unit 108 History Data Memory 110 Program Memory 111 OS (Control Program)
112 Course shape creation program 113 Voice-to-character conversion program 114 Biometric information analysis program 115 Face recognition program 116 Timeline creation program 120 Collection information memory 121 Location information area 122 Time information area 123 Time information area 124 Emotion information area 125 Point information area 126 Biometric information storage area 127 Environmental information storage area 130 Course shape memory 120 Emotion image memory 150 Voice memory 160 Comment memory 170 Image memory 202 CPU
204 Display control unit 206 Display unit 210 Program memory 211 Control program 212 Application program 220 Input control unit 222 Touch panel 230 Audio memory 240 Comment memory 250 GPS
252 Sensor 254 Biosensor 256 Environmental sensor 258 Wireless I / F
260 Communication I / F
272 Image memory 280 Buffer memory 290 Camera control unit 300 Display screen 302 CPU
310 Program memory 311 Control program 312 Application program 340 Display unit 354 Display control unit 356 Input unit 358 Wireless I / F
360 Communication I / F
404 Lens 410 Imaging device 412 Imaging control unit 420 CPU
430 Program memory 440 Image memory 450 Wireless I / F
A1-A9 Feeling stamp C Course shape N Current position NA Friend's current position TL Timeline

Claims (16)

端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおいて、
前記端末は、
感情情報を取得する感情情報取得手段と、
前記感情情報取得手段により取得された感情情報を前記サーバーに送信する送信手段と、
を備え、
前記サーバーは、
前記感情情報を受信する受信手段と、
前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段と、
前記タイムライン作成手段により作成したタイムラインを閲覧可能にする表示制御手段と、
を備えることを特徴とするソーシャル・ネットワーク・サービスシステム。
In a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal,
The terminal
Emotion information acquisition means for acquiring emotion information;
Transmitting means for transmitting emotion information acquired by the emotion information acquiring means to the server;
With
The server
Receiving means for receiving the emotion information;
Timeline creating means for creating a timeline including an object representing emotion based on emotion information received by the receiving means;
Display control means for enabling browsing of the timeline created by the timeline creating means;
A social network service system characterized by comprising:
前記感情情報取得手段は、生体センサーを有し、
前記タイムライン作成手段は、前記生体センサーで取得された生体情報を分析して感情を表すオブジェクトを作成することを特徴とする請求項1記載のソーシャル・ネットワーク・サービスシステム。
The emotion information acquisition means has a biological sensor,
The social network service system according to claim 1, wherein the timeline creating unit creates an object representing emotion by analyzing the biological information acquired by the biological sensor.
前記感情情報取得手段は、感情に対応するオブジェクトを選択するオブジェクト選択手段を有し、
前記タイムライン作成手段は、前記オブジェクト選択手段で選択されたオブジェクトを、感情を表すオブジェクトとすることを特徴とする請求項1又は2記載のソーシャル・ネットワーク・サービスシステム。
The emotion information acquisition means includes an object selection means for selecting an object corresponding to the emotion,
The social network service system according to claim 1, wherein the timeline creation unit uses the object selected by the object selection unit as an object representing emotion.
前記感情を表すオブジェクトは気持ちスタンプであることを特徴とする請求項3記載のソーシャル・ネットワーク・サービスシステム。   4. The social network service system according to claim 3, wherein the object representing the emotion is a feeling stamp. 当該システムは画像を撮影するカメラを更に備え、
前記サーバーは前記カメラで撮影した画像を直接または間接的に受信する画像受信手段を備え、
前記タイムライン作成手段は、前記オブジェクトと共に前記受信した画像をタイムラインにアップする手段を備えることを特徴とする請求項1乃至4いずれか記載のソーシャル・ネットワーク・サービスシステム
The system further comprises a camera for taking an image,
The server includes image receiving means for directly or indirectly receiving an image taken by the camera,
The social network service system according to claim 1, wherein the timeline creation unit includes a unit that uploads the received image together with the object to the timeline.
前記端末は現在位置情報を取得して前記サーバーに送信する位置情報送信手段を備え、
前記サーバーは、前記現在位置情報を受信して地形図上に端末の現在位置を図示する現在位置図作成手段を備え、
前記タイムライン作成手段は、前記タイムラインと共に前記現在位置図をアップする手段を備えることを特徴とする請求項1乃至5いずれか記載のソーシャル・ネットワーク・サービスシステム。
The terminal includes a position information transmission unit that acquires current position information and transmits the current position information to the server,
The server includes current position map creation means for receiving the current position information and illustrating the current position of the terminal on a topographic map,
6. The social network service system according to claim 1, wherein the timeline creating means includes means for uploading the current position map together with the timeline.
前記サーバーは前記端末の現在位置情報とともに、他の端末の現在位置情報を受信して、
現在位置図作成手段は、前記前記地形図上に前記他の端末の現在位置を図示する手段を含むことを特徴とする請求項6記載のソーシャル・ネットワーク・サービスシステム。
The server receives the current position information of the other terminal together with the current position information of the terminal,
7. The social network service system according to claim 6, wherein the current position map creating means includes means for illustrating a current position of the other terminal on the topographic map.
端末と、この端末と直接又は通信端末を介して接続されるサーバー及びカメラを含むソーシャル・ネットワーク・サービスシステムにおけるソーシャルタイムラインを生成する方法であって、
前記端末は、感情情報を取得する取得処理と、前記取得された前記感情情報を前記サーバーに送信する送信処理とを実行し、
前記カメラは、前記端末からの制御により画像を撮影する処理を実行し、
前記サーバーは、前記感情情報及び前記撮影画像を受信する処理と、前記受信した感情情報を基に感情を表すオブジェクト及び前記受信した撮影画像を含むタイムラインを作成するタイムライン作成処理と、前記作成したタイムラインを閲覧可能にする表示制御処理とを実行することを特徴とする方法。
A method for generating a social timeline in a social network service system including a terminal and a server and a camera connected to the terminal directly or via a communication terminal,
The terminal performs an acquisition process of acquiring emotion information and a transmission process of transmitting the acquired emotion information to the server,
The camera executes a process of taking an image under control from the terminal,
The server is configured to receive the emotion information and the captured image, create a timeline including an object representing an emotion based on the received emotion information and the received captured image, and the creation And a display control process for enabling browsing of the selected timeline.
端末と、この端末から直接又は通信端末を介して送信される情報を受信してソーシャルタイムラインを生成するサーバーとを含むシステムにおける端末において、
感情情報を取得する感情情報取得手段と、
前記感情情報取得手段により取得された感情情報を前記サーバーに送信する送信手段と、
を備え、
前記感情情報取得手段は、感情に対応するスタンプ画像を選択するスタンプ選択手段を含み、
前記送信手段は前記スタンプ選択手段により選択されたスタンプ画像を前記サーバーへ送信することによってソーシャルタイムラインにスタンプ画像をアップさせることを特徴とする端末。
In a terminal in a system including a terminal and a server that receives information transmitted from the terminal directly or via a communication terminal and generates a social timeline,
Emotion information acquisition means for acquiring emotion information;
Transmitting means for transmitting emotion information acquired by the emotion information acquiring means to the server;
With
The emotion information acquisition means includes a stamp selection means for selecting a stamp image corresponding to the emotion,
The terminal according to claim 1, wherein the transmitting means transmits the stamp image selected by the stamp selecting means to the social timeline by transmitting the stamp image to the server.
前記スタンプ選択手段は、感情に対応するスタンプ画像を複数表示する手段と、前記スタンプ画像をユーザーに選択させる手段とを有することを特徴とする請求項8記載の端末。   9. The terminal according to claim 8, wherein the stamp selecting means includes means for displaying a plurality of stamp images corresponding to emotions, and means for causing the user to select the stamp images. 画像を撮影する手段を更に備え、前記送信手段は前記スタンプ選択手段により選択されたスタンプ画像と前記撮影された画像を前記サーバーへ送信することによってソーシャルタイムラインにスタンプ画像及び撮影画像をアップさせることを特徴とする請求項8又は9記載の端末。   The image processing apparatus further includes means for capturing an image, and the transmission means transmits the stamp image selected by the stamp selection means and the captured image to the server to upload the stamp image and the captured image to the social timeline. The terminal according to claim 8 or 9, characterized in that. 端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおけるサーバーにおいて、
前記端末から感情情報を受信する受信手段と、
前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段と、
前記作成したタイムラインを閲覧可能にする表示制御手段と、
を備えることを特徴とするサーバー。
In a server in a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal,
Receiving means for receiving emotion information from the terminal;
Timeline creating means for creating a timeline including an object representing emotion based on emotion information received by the receiving means;
Display control means for enabling browsing of the created timeline;
A server characterized by comprising:
前記端末から現在位置情報を受信する位置情報受信手段を更に備え、
前記タイムライン作成手段は、前記タイムラインと共に、前記受信した現在位置情報を基に地形図上に端末の現在位置を図示する現在位置図を作成する手段を備えることを特徴とする請求項12記載のサーバー。
Further comprising position information receiving means for receiving current position information from the terminal;
13. The timeline creating means comprises means for creating a current position map showing a current position of a terminal on a topographic map based on the received current position information together with the timeline. Server.
前記タイムライン作成手段は、前記端末の現在位置と共に、他の端末の現在位置を前記地形図上に図示する手段を更に備えることを特徴とする請求項13記載のサーバー。   14. The server according to claim 13, wherein the timeline creation means further comprises means for showing the current position of the other terminal on the topographic map together with the current position of the terminal. 端末と、この端末から直接又は通信端末を介して送信される情報を受信してソーシャルタイムラインを生成するサーバーとを含むシステムにおける端末のコンピュータを、
感情情報を取得する感情情報取得手段、
前記取得した感情情報に対応するスタンプ画像を選択するスタンプ選択手段、
前記スタンプ選択手段で選択されたスタンプ画像を、感情を表すオブジェクトとして前記サーバーへ送信することによってソーシャルタイムラインにアップさせる手段として機能させることを特徴とするプログラム。
A terminal computer in a system including a terminal and a server that receives information transmitted from the terminal directly or via a communication terminal and generates a social timeline;
Emotion information acquisition means for acquiring emotion information,
Stamp selection means for selecting a stamp image corresponding to the acquired emotion information;
A program that causes a stamp image selected by the stamp selection means to function as a means for uploading to the social timeline by transmitting to the server as an object representing emotion.
端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおけるサーバーのコンピュータを、
前記端末から感情情報を受信する受信手段、
前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段、
作成したタイムラインを閲覧可能にする表示制御手段、
として機能させることを特徴とするプログラム。
A server computer in a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal;
Receiving means for receiving emotion information from the terminal;
Timeline creation means for creating a timeline including an object representing emotion based on emotion information received by the reception means;
Display control means that enables browsing of the created timeline,
A program characterized by functioning as
JP2013157439A 2013-07-30 2013-07-30 Method of generating social time line, social net work service system, server, terminal, and program Pending JP2015028686A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013157439A JP2015028686A (en) 2013-07-30 2013-07-30 Method of generating social time line, social net work service system, server, terminal, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013157439A JP2015028686A (en) 2013-07-30 2013-07-30 Method of generating social time line, social net work service system, server, terminal, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016090002A Division JP6241495B2 (en) 2016-04-28 2016-04-28 Training support apparatus, training support method, and program

Publications (1)

Publication Number Publication Date
JP2015028686A true JP2015028686A (en) 2015-02-12

Family

ID=52492361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013157439A Pending JP2015028686A (en) 2013-07-30 2013-07-30 Method of generating social time line, social net work service system, server, terminal, and program

Country Status (1)

Country Link
JP (1) JP2015028686A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073842A1 (en) * 2015-10-30 2017-05-04 주식회사 인스파이어 Social network service method using growth image for free sympathy expression, and user terminal and server therefor
JP2019526861A (en) * 2016-08-22 2019-09-19 スノー コーポレーション Message sharing method for sharing image data reflecting each user's state via chat room, and computer program for executing the method
JP2022541493A (en) * 2019-07-17 2022-09-26 アップル インコーポレイテッド User interface for logging and coaching health events
JP2023072274A (en) * 2021-11-12 2023-05-24 サイボウズ株式会社 Position information notification system, position information notification method, and program
US11710563B2 (en) 2020-06-02 2023-07-25 Apple Inc. User interfaces for health applications
US11712179B2 (en) 2018-05-07 2023-08-01 Apple Inc. Displaying user interfaces associated with physical activities
US11842806B2 (en) 2019-06-01 2023-12-12 Apple Inc. Health application user interfaces
US11915805B2 (en) 2021-06-06 2024-02-27 Apple Inc. User interfaces for shared health-related data
US11950916B2 (en) 2018-03-12 2024-04-09 Apple Inc. User interfaces for health monitoring
JP7496514B2 (en) 2019-06-06 2024-06-07 パナソニックIpマネジメント株式会社 Content selection method, content selection device, and content selection program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185437A (en) * 2002-12-04 2004-07-02 Nippon Hoso Kyokai <Nhk> Program, server, client and method for body information reflecting chatting
JP2012004885A (en) * 2010-06-17 2012-01-05 Hoshun Ri Voice speech terminal device, voice speech system, and voice speech method
JP2012150742A (en) * 2011-01-21 2012-08-09 Yahoo Japan Corp Contribution information management apparatus, contribution information management method and contribution information management program
JP2013061889A (en) * 2011-09-14 2013-04-04 Namco Bandai Games Inc Program, information storage medium, terminal device, and server
JP2013059571A (en) * 2011-09-14 2013-04-04 Namco Bandai Games Inc Server system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185437A (en) * 2002-12-04 2004-07-02 Nippon Hoso Kyokai <Nhk> Program, server, client and method for body information reflecting chatting
JP2012004885A (en) * 2010-06-17 2012-01-05 Hoshun Ri Voice speech terminal device, voice speech system, and voice speech method
JP2012150742A (en) * 2011-01-21 2012-08-09 Yahoo Japan Corp Contribution information management apparatus, contribution information management method and contribution information management program
JP2013061889A (en) * 2011-09-14 2013-04-04 Namco Bandai Games Inc Program, information storage medium, terminal device, and server
JP2013059571A (en) * 2011-09-14 2013-04-04 Namco Bandai Games Inc Server system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JPN6015015803; 松村 太郎: 'ソーシャルコミュニケーションを増幅させる期待のアプリ つぶやきの感情をイラストで伝える!「Feel' Mac Fan 第19巻 第7号 , 20110701, P.93, 株式会社毎日コミュニケーションズ *
JPN6015015804; 倉掛 正治: '複数カメラを搭載したメガネ型携帯端末を用いた認識システムの構成と応用' Media Computing Conference 2013 2013年度 画像電子学会第41回年 , 20130622 *
JPN6015015805; 矢橋 司: 'ソーシャルメディアのワザ帳 <定期POST>' Mac Fan 第20巻 第1号 , 20120101, P.199, 株式会社マイナビ *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101739806B1 (en) * 2015-10-30 2017-06-05 주식회사 인스파이어 Method, user terminal and server for social network service using the Image of Growth for free sympathy expression
WO2017073842A1 (en) * 2015-10-30 2017-05-04 주식회사 인스파이어 Social network service method using growth image for free sympathy expression, and user terminal and server therefor
JP2019526861A (en) * 2016-08-22 2019-09-19 スノー コーポレーション Message sharing method for sharing image data reflecting each user's state via chat room, and computer program for executing the method
US11025571B2 (en) 2016-08-22 2021-06-01 Snow Corporation Message sharing method for sharing image data reflecting status of each user via chat room and computer program for executing same method
US11950916B2 (en) 2018-03-12 2024-04-09 Apple Inc. User interfaces for health monitoring
US11712179B2 (en) 2018-05-07 2023-08-01 Apple Inc. Displaying user interfaces associated with physical activities
US11842806B2 (en) 2019-06-01 2023-12-12 Apple Inc. Health application user interfaces
JP7496514B2 (en) 2019-06-06 2024-06-07 パナソニックIpマネジメント株式会社 Content selection method, content selection device, and content selection program
JP7329674B2 (en) 2019-07-17 2023-08-18 アップル インコーポレイテッド User interface for logging and coaching health events
US12002588B2 (en) 2019-07-17 2024-06-04 Apple Inc. Health event logging and coaching user interfaces
JP2022541493A (en) * 2019-07-17 2022-09-26 アップル インコーポレイテッド User interface for logging and coaching health events
US11710563B2 (en) 2020-06-02 2023-07-25 Apple Inc. User interfaces for health applications
US11915805B2 (en) 2021-06-06 2024-02-27 Apple Inc. User interfaces for shared health-related data
JP7319341B2 (en) 2021-11-12 2023-08-01 サイボウズ株式会社 LOCATION INFORMATION NOTIFICATION SYSTEM, LOCATION INFORMATION NOTIFICATION METHOD, AND PROGRAM
JP2023072274A (en) * 2021-11-12 2023-05-24 サイボウズ株式会社 Position information notification system, position information notification method, and program

Similar Documents

Publication Publication Date Title
JP2015028686A (en) Method of generating social time line, social net work service system, server, terminal, and program
JP6574937B2 (en) COMMUNICATION SYSTEM, CONTROL METHOD, AND STORAGE MEDIUM
US11779807B2 (en) Information processing system
US9639940B2 (en) Imaging apparatus and methods for generating a guide display showing a photographing technique for approximating a composition of a subject image to that of a sample image
US10321091B2 (en) Information processing device and method of information processing
JP2015116288A (en) Exercise information display system, exercise information display method, and exercise information display program
JP6241495B2 (en) Training support apparatus, training support method, and program
JP6375597B2 (en) Network system, server, program, and training support method
JP6435595B2 (en) Training support system, server, terminal, camera, method and program
JP6638772B2 (en) Imaging device, image recording method, and program
CN114079730B (en) Shooting method and shooting system
CN108431795A (en) Method and apparatus for information capture and presentation
JP2013021473A (en) Information processing device, information acquisition method, and computer program
JP6914480B2 (en) Indicator display device, indicator display method, program, and indicator display system
JP2009211341A (en) Image display method and display apparatus thereof
JP2019061386A (en) Information processing system, information processing apparatus, information processing method and program
KR102087290B1 (en) Method for operating emotional contents service thereof, service providing apparatus and electronic Device supporting the same
JP2013106070A (en) Portable electronic apparatus, control method thereof and program
JP7199808B2 (en) Imaging device and its control method
CN114697516A (en) Three-dimensional model reconstruction method, device and storage medium
JP6451110B2 (en) Imaging apparatus, image generation method, and program
CN113452896B (en) Image display method and electronic equipment
US10904420B2 (en) Control device and control method for managing a captured image
JP6598732B2 (en) Electronic device, control device, control program, and moving image display method
CN115690272A (en) Video generation method and electronic equipment

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160419