JP2015028686A - Method of generating social time line, social net work service system, server, terminal, and program - Google Patents
Method of generating social time line, social net work service system, server, terminal, and program Download PDFInfo
- Publication number
- JP2015028686A JP2015028686A JP2013157439A JP2013157439A JP2015028686A JP 2015028686 A JP2015028686 A JP 2015028686A JP 2013157439 A JP2013157439 A JP 2013157439A JP 2013157439 A JP2013157439 A JP 2013157439A JP 2015028686 A JP2015028686 A JP 2015028686A
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- timeline
- server
- emotion
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 39
- 230000008451 emotion Effects 0.000 claims description 143
- 238000004891 communication Methods 0.000 claims description 26
- 230000005540 biological transmission Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 abstract description 51
- 230000004044 response Effects 0.000 abstract description 2
- 230000001360 synchronised effect Effects 0.000 abstract description 2
- 210000000707 wrist Anatomy 0.000 description 58
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 241000167854 Bourreria succulenta Species 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 235000019693 cherries Nutrition 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000006996 mental state Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
この発明は、ソーシャルタイムラインを作成する方法、ソーシャル・ネットワーク・サービスシステム、サーバー、端末並びにプログラムに関する。 The present invention relates to a method for creating a social timeline, a social network service system, a server, a terminal, and a program.
近年、ランニングや、ジョギング等のトレーニング人口が増加している。最近では、トレーニングをサポートするSNS(ソーシャル・ネットワーク・サービスシステム)も存在し、友人と情報を共有しながらトレーニングを楽しむことも一般的となってきている。このようなSNSサイトでは、GPSを備えた腕時計型のリスト端末を腕に装着してトレーニングし、タイムやコースをウエブサイトに登録することができる。 In recent years, the population of training such as running and jogging is increasing. Recently, there are SNSs (social network service systems) that support training, and it has become common to enjoy training while sharing information with friends. In such an SNS site, a wristwatch-type wrist terminal equipped with GPS can be worn for training, and the time and course can be registered on the website.
従来から、トレーニング用の腕時計型端末を開示しているものがある(例えば、特許文献1参照)。
また、複数のユーザーの端末をネットワークに接続し、複数のユーザーの参加者情報、運動データ、コースや距離、地理的位置、成績等を見ることができるウエブサイトを開示しているものがある(例えば、特許文献2参照)。
更に、トレーニングSNSにおいてアバターを表示するものがあり(例えば、特許文献3参照)、SNSにおいて、タイムラインを生成して表示するものもある(例えば、特許文献4参照)。
Conventionally, there has been a wristwatch type terminal for training (see, for example, Patent Document 1).
In addition, there is a website that can connect a plurality of users 'terminals to a network and view a plurality of users' participant information, exercise data, courses, distances, geographical positions, results, and the like ( For example, see Patent Document 2).
Furthermore, there are some which display an avatar in training SNS (for example, refer patent document 3), and there are also what generate | occur | produces and displays a timeline in SNS (for example, refer patent document 4).
しかしながら、先行文献記載の技術では、トレーニングの記録をSNSで共有したり、コメントを付けたり、応援したり競争したりすることはできるが、感情をリアルタイムで友人と共有するにはツイート等の操作が必要であるという課題があった。 However, with the technology described in the prior literature, training records can be shared via SNS, commented on, cheered on, and competed, but to share emotions with friends in real time, operations such as tweets There was a problem that it was necessary.
この発明は、上記課題を解決するためになされたもので、ユーザーの状況を迅速に知ることを目的とする。 The present invention has been made in order to solve the above-described problems, and an object thereof is to quickly know a user's situation.
請求項1記載の発明は、端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおいて、前記端末は、感情情報を取得する感情情報取得手段と、前記感情情報取得手段により取得された感情情報を前記サーバーに送信する送信手段と、を備え、前記サーバーは、前記感情情報を受信する受信手段と、前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段と、前記タイムライン作成手段により作成したタイムラインを閲覧可能にする表示制御手段と、を備えることを特徴とするソーシャル・ネットワーク・サービスシステムを提供するものである。
The invention according to
請求項8記載の発明は、端末と、この端末と直接又は通信端末を介して接続されるサーバー及びカメラを含むソーシャル・ネットワーク・サービスシステムにおけるソーシャルタイムラインを生成する方法であって、前記端末は、感情情報を取得する取得処理と、前記取得された前記感情情報を前記サーバーに送信する送信処理とを実行し、前記カメラは、前記端末からの制御により画像を撮影する処理を実行し、前記サーバーは、前記感情情報及び前記撮影画像を受信する処理と、前記受信した感情情報を基に感情を表すオブジェクト及び前記受信した撮影画像を含むタイムラインを作成するタイムライン作成処理と、前記作成したタイムラインを閲覧可能にする表示制御処理とを実行することを特徴とする方法を提供するものである。
The invention according to
請求項9記載の発明は、端末と、この端末から直接又は通信端末を介して送信される情報を受信してソーシャルタイムラインを生成するサーバーとを含むシステムにおける端末において、感情情報を取得する感情情報取得手段と、前記感情情報取得手段により取得された感情情報を前記サーバーに送信する送信手段と、を備え、前記感情情報取得手段は、感情に対応するスタンプ画像を選択するスタンプ選択手段を含み、前記送信手段は前記スタンプ選択手段により選択されたスタンプ画像を前記サーバーへ送信することによってソーシャルタイムラインにスタンプ画像をアップさせることを特徴とする端末を提供するものである。
The invention according to
請求項12記載の発明は、端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおけるサーバーにおいて、前記端末から感情情報を受信する受信手段と、前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段と、前記作成したタイムラインを閲覧可能にする表示制御手段と、を備えることを特徴とするサーバーを提供するものである。
The invention according to
請求項15記載の発明は、端末と、この端末から直接又は通信端末を介して送信される情報を受信してソーシャルタイムラインを生成するサーバーとを含むシステムにおける端末のコンピュータを、感情情報を取得する感情情報取得手段、前記取得した感情情報に対応するスタンプ画像を選択するスタンプ選択手段、前記スタンプ選択手段で選択されたスタンプ画像を、感情を表すオブジェクトとして前記サーバーへ送信することによってソーシャルタイムラインにアップさせる手段として機能させることを特徴とするプログラムを提供するものである。
The invention according to
請求項16記載の発明は、端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおけるサーバーのコンピュータを、前記端末から感情情報を受信する受信手段、前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段、
作成したタイムラインを閲覧可能にする表示制御手段、として機能させることを特徴とするプログラムを提供するものである。
According to a sixteenth aspect of the present invention, there is provided a receiving unit for receiving emotion information from a terminal of a server computer in a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal. , Timeline creation means for creating a timeline including objects representing emotions based on emotion information received by the reception means;
The present invention provides a program characterized by functioning as display control means for enabling browsing of a created timeline.
この発明によれば、ユーザーの状況を迅速に知ることができる。 According to the present invention, the user's situation can be quickly known.
以下、図面を参照しながら本発明の実施の形態について説明する。明細書において、スマートフォンをスマホ、パーソナルコンピュータをPC、ソーシャル・ネットワーク・サービスシステムをSNSと略称する。また、タイムラインとは、SNS等において、自分や友人が投稿した内容や各投稿への返信、その他の情報等が時系列に並んで一覧表示されるものをいう。ソーシャルタイムラインとは、自分一人でなく他人と共有できるタイムラインのことをいう。一覧表示される情報のうち、絵や画像、図形等、視覚に訴えるものを総称してオブジェクトという。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the specification, a smartphone is abbreviated as a smartphone, a personal computer is abbreviated as a PC, and a social network service system is abbreviated as an SNS. In addition, the timeline refers to a content that is displayed in a chronological order as a list of contents posted by yourself or friends, replies to each post, other information, and the like in SNS. A social timeline is a timeline that you can share with others, not just yourself. Among the information displayed in a list, information that appeals visually, such as pictures, images, and figures, is collectively referred to as an object.
図1は、本発明の一実施の形態に係るトレーニング支援システムの全体構成を示すブロック図である。
サーバー11を含むSNSサイト10は、インターネット500を介して会員のスマホ端末1−1、1−2、1−3、・・・、リスト端末2−1、2−2、2−3・・・及びPC3−1と接続される。また、リスト端末2−1、2−2、2−3、・・・は腕に装着可能な腕時計型のリスト端末であり、スマホ端末1−1、1−2、1−3と無線で接続可能である。
更に、リスト端末2−1、2−2、2−3、・・・は帽子型(頭部装着型)のウエアブルカメラ4−1、4−2、4−3、・・・と無線で接続される。以降、スマホ端末1−1、1−2、1−3、・・・、を代表してスマホ端末1、リスト端末2−1、2−2、2−3・・・を代表してリスト端末2、PC3−1、3−2、・・・を代表してPC3、ウエアブルカメラ4−1、4−2、4−3、・・・を代表してウエアブルカメラ4という。
FIG. 1 is a block diagram showing the overall configuration of a training support system according to an embodiment of the present invention.
The
Further, the wrist terminals 2-1, 2-2, 2-3,... Connected. Hereinafter, the smartphone terminal 1-1, 1-2, 1-3,..., As a representative, the
スマホ端末1は、通信端末として機能するもので、アプリケーションプログラムをインストールして、SNSサイト10との連携を図る動作をする。また、リスト端末2にも比較的軽いアプリケーションプログラムをインストールしてスマホ端末1との連携を図るように動作する。すなわちスマホ端末1はリスト端末2とSNSサイト10を仲介するもので、小型PCやタブレット、無線ルーター等で代用することもできる。リスト端末2とサーバー11を直接接続して、スマホ端末1を経由しなくてもWi−Fiや電話回線により情報交換ができるルートも用意されている。ウエアブルカメラ4もリスト端末2だけでなくスマホ端末1やサーバー11と接続するよう構成しても構わない。
The
図2は、本実施の形態に係るSNSシステムの使用イメージを説明する図である。SNSサイト10を介して、直接又は間接的にトレーニングする会員が装着するリスト端末2、ウエアブルカメラ4、スマホ端末1、PC3が接続される。これにより、例えばSNSサイト10で作成したコース形状を、リスト端末2とウエアブルカメラ4を装着してトレーニングしている会員、あるいはリスト端末2とウエアブルカメラ4を装着してトレーニングしている他の会員に送ったり、会員のスマホ端末1やPC3に送ったりすることができる。なお、SNSサイト10としてクラウドサービスを用いることができる。
スマホ1には表示部340が、リスト端末2には表示部206が、PC3には表示部400がそれぞれ備えられており、ウエラブルカメラ4にはレンズ404が備えられている。このイメージを図面化したものが図8である。
FIG. 2 is a diagram for explaining a usage image of the SNS system according to the present embodiment. Via the
The
図3は、サーバー11の概略構成を示すブロック図である。
同図において、102はCPUであり、システム全体を制御する。110はプログラムメモリであり、各種制御プログラムが記憶されている。CPU102はプログラムメモリ110のプログラムを実行することにより各種処理を行う。プログラムメモリ110には、全体を制御するOS(制御プログラム)111をはじめ、コース形状生成プログラム112、音声−文字変換プログラム113、生体情報分析プログラム114、顔認識プログラム115、タイムライン作成プログラム116、写真選択プログラム117等を記憶している。106は会員管理部であり、SNSシステムとして会員を管理する。友人関係やコミュニティ、掲示板等もここで管理しており、いわゆるSNS機能全般を司るものである。108は、ユーザーが複数回のトレーニングを行って、その結果を後で比較できるように、トレーニングの履歴を保存しておく履歴メモリである。
FIG. 3 is a block diagram illustrating a schematic configuration of the
In the figure,
120は、リスト端末2で収集された各種情報を記憶する収集情報メモリで、位置情報記憶エリア121、時刻情報記憶エリア122、時間情報記憶エリア123、感情情報記憶エリア124、地点情報記憶エリア125、生体情報記憶エリア126を含む。論理的には各会員に対応して記憶エリアが存在している。物理的には属性コードによって会員別に管理できる。130は、前記リスト端末2で収集された各種情報、特に位置情報を用いてユーザーが走った(移動した)コース形状を図形的に作成し、記憶するコース形状メモリである。コース形状は、プログラムメモリ110内のコース形状作成プログラム112により作成される。既にサーバー11内あるいはリスト端末2内に用意されているコースをユーザーが走っても、ユーザーが走った軌跡からコース形状を作成しても、どちらでも対応できるようになっている。
Reference numeral 120 denotes a collection information memory for storing various types of information collected by the
140は、多数の気持ちスタンプを記憶してある感情画像メモリである。気持ちスタンプはイラスト画像であり、「元気」「快調」「楽しい」「順調」「疲れた」「苦しい」等の様々な感情を表す画像が用意されている。
150は、ユーザーがリスト端末2のマイクに向かって話した音声データを記憶する音声メモリであり、この音声データをプログラムメモリ110に記憶されている音声−文字変換プログラム113によって文字データに変換したものがコメントメモリ160に記憶される。コメントメモリ160には、このように音声入力したコメントが記憶されるが、SNS機能において、ユーザー(自分)がSNSサイト10へ投稿したコメント、友人(他のユーザー)がSNSサイト10へ投稿したコメントも記憶される。入力手段は音声、キーを問わない。また、リスト端末2だけでなくスマホ端末1、PC3からコメントを入力することができる。入力されたコメントは後述するようにタイムラインとして表示されるが、これはCPU102がタイムライン作成プログラム116を実行することによってなされる。タイムラインTLは、会員に対して閲覧可能に表示制御するが、表示を作成してスマホ1やPC3で閲覧可能にするように、このタイムライン作成プログラム116が実行する。
170は、ウエアブルカメラ4で撮影された画像データ(写真)を記憶する画像メモリである。タイムライン作成プログラム116がタイムラインに写真をアップする際は、この画像メモリ170に記憶された画像を用いる。
図4は、リスト端末2の構成を示す概略ブロック図である。
同図において、202はCPUであり、リスト端末2全体を制御する。210はプログラムメモリであり、制御プログラム211及びアプリケーションプログラム212等が予め記憶されている。制御プログラム211はリスト端末全体を制御する基本的な制御プログラムであり、アプリケーションプログラム212は、スマホ端末1やサーバー11と協働するためのプログラムである。
FIG. 4 is a schematic block diagram showing the configuration of the
In the figure,
206は表示部でありLCDとこれを駆動する駆動回路等から構成されている。204は、表示部206の表示を制御する表示制御部である。220は入力制御部であり、各種キーやスイッチからの入力信号を制御する。表示部206にはタッチパネル222が設けられており、基本的にリスト端末2の表示部206の表示画面上をタッチすることにより、操作を行う。タッチパネル222の入力制御も入力制御部22が行う。230はマイクであり、音声入力することができる。入力した音声データは音声メモリ240に記憶される。音声メモリ240には音声データのまま記憶されるが、この音声データはサーバー11へ送られて、音声メモリ150に記憶された後、音声−文字変換プログラム113によって文字データに変換され、文字データとしてコメントメモリ160に記憶される。
A
250は、GPS部であり、公知のGPS(Global Positioning System)を利用して現在位置を計測する。すなわちGPS部250は、複数の測位衛星(GPS衛星)から送られてくる電波をアンテナにより受信することによって、現在位置を示す緯度、経度からなる位置データを取得し、取得した位置データを、使用者の行動場所を示す位置情報としてCPU202に供給する。いわゆる絶対位置を測定する。
252は、加速度、方位、高度等を検出するセンサーであり、3軸地磁気センサー、1軸加速度センサー及び1軸ジャイロ等で構成されている。したがって、GPS部250に加えて3軸地磁気センサー、1軸加速度センサー及び1軸ジャイロ等を用いてリスト端末2の進行方向を計測することをも可能で、これにより一層精度を上げることができる。前記GPS250とセンサー252を組み合わせることにより、リスト端末2の移動軌跡や時間を正確にトレースすることができる。センサー252からの各種収集情報は、バッファメモリ280に一旦蓄えられた後、サーバー11の収集情報メモリ120に記憶される。
254は生体センサーであり、脈拍(心拍)、血圧、体温等を計測するためのものである。計測された生体情報はバッファメモリ280に一旦蓄えられた語、サーバー11の収集情報メモリ120内の生体情報記憶エリア126に記憶される。
256は環境センサーであり、気温、気圧、湿度、紫外線量、騒音等を計測するためのものである。計測された環境情報はバッファメモリ280に一旦蓄えられた後、サーバー11の収集情報メモリ120内の環境情報記憶エリア127に記憶される。
258はスマホ端末1との間で、近接無線通信、例えばブルートゥース(登録商標)のリンクを行う無線I/F(インターフェース)であり、260はWi−Fi等でサーバー11とのリンクを行う通信I/Fである。
290はウエアブルカメラ4と無線で接続され、ウエアブルカメラ4を制御するカメラ制御部である。ウエアブルカメラ4は前面にレンズ404を備える。カメラ制御部290の制御により周囲を撮影する。撮影された画像データは画像メモリ272に記憶される。後述する気持ちスタンプの選択時に連動して静止画を撮影するものであるが、音声コマンドによるリモコン操作等も可能であり、ドライブレコーダーのようにトレーニング中、ずっと動画を撮影し続けることも可能である。
A
図5は、スマホ端末1の構成を示す概略ブロック図である。
同図において、340は表示部でありLCDとこれを駆動する駆動回路等から構成されている。354は表示部340の表示状態を制御する表示制御部である。356は入力制御部であり、各種キーやスイッチ、タッチパネル350を制御する。302はCPUであり、スマホ端末1全体を制御する。310はプログラムメモリであり、制御プログラム311及びアプリケーションプログラム312等が予め記憶されている。制御プログラム311はスマホ端末1全体を制御する基本的な制御プログラムであり、アプリケーションプログラム312は、リスト端末2や協働やサーバー11と協働するためのプログラムである。アプリケーションプログラム312は後からダウンロードすることが可能である。358はリスト端末2との間で、例えばブルートゥース(登録商標)等の近接無線でのリンクを行う無線I/Fであり、360はWi−Fi等でサーバー11とのリンクを行う通信I/Fである。
FIG. 5 is a schematic block diagram showing the configuration of the
In the figure,
図6は、ウエアブルカメラ4の構成を示す概略ブロック図である。ウエアブルカメラ4は、図2又は図8に示されるように帽子形状をしているが、内部構成は一般的なハンズフリーカメラと大きな相違はない。410はCCDやCMOSを有する撮像素子で、レンズ404から入射する被写体像を撮影する。412は撮像素子410のタイミングや露出、シャッター速度、フォーカス等を制御する撮像制御部である。420はウエアブルカメラ4全体を制御するCPUであり、プログラムメモリ430に記憶されたプログラムにより制御動作を行う。
プログラムメモリ430には、全体を制御する制御プログラム432と、特に撮影について制御する撮影制御プログラム434が記憶されている。この撮影制御プログラム434は、サーバー11の撮影制御に関する機能を一部ウエアブルカメラ4側にも備えているものである。すなわち、サーバー11又はリスト端末2が指示する撮影タイミングを、ウエアブルカメラ4自身が各種生体情報や感情情報を受け取って、その情報をもとに自分自身で決定することもできる。
440は撮像素子410で撮像した画像データを蓄積する画像メモリである。442はSDカードであり、ウエアブルカメラ4で撮影した写真を独自に保存し、他の再生装置で写真を再生することができる。
FIG. 6 is a schematic block diagram showing the configuration of the
The program memory 430 stores a
450は無線I/Fで、リスト端末2と近接無性通信を行う。この無線I/F450を介してリスト端末2、又はスマホ端末1、又はサーバー11からウエアブルカメラ4は遠隔操作される。トレーニング中、リスト端末2とウエアブルカメラ4は同期してお互いに無線で情報交換しているが、リスト端末2とウエアブルカメラ4は電力を最小限に抑え、且つ両者のタイミングがずれないようにインタラプトにより間欠的に同期をとりながら無線通信を行っている。
図8(a)はリスト端末2の正面図、同図(b)は斜視図を示し、表示部206時刻表示をしている例を示し、MENUアイコンが表示されている。このMENUアイコンを選択することにより、図7のメニュー画面表示ステップS10がスタートする。
図8(c)はウエアブルカメラ4の斜視図を示す。レンズ404は帽子形状の前面に付いているが、例えば帽子のつば(ブリム)の下部にユーザーに向くように取り付ければ、ユーザーの顔を常時撮影することができ、その時々のユーザーの感情の分析に使用することができる。
FIG. 8A shows a front view of the
FIG. 8C shows a perspective view of the
次に、図面を参照しながら、本実施の形態の使用方法並びに動作について説明する。
<トレーニングモード>
<リスト端末2の動作>
ユーザーは、リスト端末2を腕に装着し、ウエアブルカメラ4を頭に装着し、トレーニングを開始する。予めコース、距離、目標タイム等を設定してもよいし、任意に走ってもよい。
図7は、ユーザーの操作に沿ったリスト端末2の動作を示すフローチャートである。
Next, the usage method and operation of the present embodiment will be described with reference to the drawings.
<Training mode>
<Operation of
The user wears
FIG. 7 is a flowchart showing the operation of the
まず、図7のフローチャートにおいて、ステップS10は、リスト端末2の表示部206にメニュー画面を表示している状態である。ここで、トレーニングモード、リプレイモードのいずれかを選択できる(ステップS12)。
リプレイモードを選択するとステップS24へ進み、リプレイ処理を実行する。リプレイ処理はトレーニング状況を再生するものであり、本実施の形態では詳述しない。もちろん、これ以外の選択肢を用意してもよい。この状態でトレーニングモードを選択すると、スタート画面表示へ進む(ステップS14)。
First, in the flowchart of FIG. 7, step S <b> 10 is a state in which a menu screen is displayed on the
If the replay mode is selected, the process proceeds to step S24 to execute the replay process. The replay process is for reproducing the training situation, and will not be described in detail in the present embodiment. Of course, other options may be prepared. If the training mode is selected in this state, the process proceeds to the start screen display (step S14).
スタートする時は、メニュー表示の中からSTARTメニューを選択する(ステップS16)。すると、ステップS18へ進み、計測処理を開始する。
トレーニング中、すなわち計測中にSTOPメニューが選択されると(ステップS20)、トレーニング終了と判断して、ステップS22へ進み、トレーニングの結果表示を行う。
When starting, the START menu is selected from the menu display (step S16). Then, it progresses to step S18 and starts a measurement process.
If the STOP menu is selected during training, that is, during measurement (step S20), it is determined that the training has ended, and the process proceeds to step S22 to display the training result.
図9は、図7におけるステップS18の計測処理の詳細を説明するためのフローチャートである。
トレーニング中、センサー252、生体センサー254、環境センサー256は適宜測定を行い、情報を収集している(ステップS100)。すなわち、GPS250により現在時刻と現在位置を取得する。現在時刻は、内蔵クロックから取得してもよい。
また、センサー252により、進行方向や加速度を得て前記現在位置を補正する。
生体センサー254により、体温、脈拍等の生体情報を取得する。
環境センサー256により、リスト端末2の周囲の気温、湿度等の環境情報を取得する。
それと共に、スタートしてからの走行時間(時間情報)を計算し記録している。
FIG. 9 is a flowchart for explaining details of the measurement process in step S18 in FIG.
During training, the
Further, the
The
Environmental information such as ambient temperature and humidity around the
At the same time, the running time (time information) from the start is calculated and recorded.
これらの収集情報は、バッファメモリ280を介して逐次、あるいは後で一括してサーバー11へ送られ、それぞれ、位置情報記憶エリア121、時刻情報記憶エリア122、時間情報記憶エリア123、生体情報記憶エリア126、環境情報記憶エリア127にそれぞれ記憶される。
The collected information is sent to the
ステップS106は感情情報の入力があったかどうかを判断する。NOであればステップS110へ進む。
YESであればステップS108で感情情報を取得する。感情情報の取得処理については後述する。感情情報はサーバー11の感情情報エリア124に記憶される。感情情報は、サーバーの感情情報記憶エリア124に記憶される。
In step S106, it is determined whether emotion information has been input. If NO, the process proceeds to step S110.
If YES, emotion information is acquired in step S108. The emotion information acquisition process will be described later. Emotion information is stored in the
ステップS114では、リスト端末2のカメラ制御部290の制御によりウエアブルカメラ4により撮影を行う。具体的には気持ちスタンプが選択された時に、気持ちスタンプとセットでその場の撮影を行って写真を記録する。撮影された画像データは画像メモリ272にバッファとして記録された後、サーバー11の画像メモリ170に記憶される。
なお、動画を常時撮影している場合は、ステップS100の計測動作と並行して逐次撮影を継続している。
In step S <b> 114, shooting is performed by the
In addition, when the moving image is always photographed, sequential photographing is continued in parallel with the measurement operation in step S100.
図10は、図9におけるステップS108の感情情報取得処理の詳細を示すフローチャートである。以下に説明するように、ユーザーの感情情報は、生体センサー252の収集情報、ウエアブルカメラ4による撮影データ、気持ちスタンプの選択のいずれかにより得られる。
FIG. 10 is a flowchart showing details of the emotion information acquisition process in step S108 in FIG. As will be described below, the emotion information of the user is obtained by any one of information collected by the
ステップS204では、生体センサー254が収集した生体情報から、ユーザーの感情を判定する。脈拍等の生体情報からユーザーのストレス度合等を判定する方法は各種提案されており(例えば、特許第4641811号、特許5046286号参照)、ここでは詳述しない。
生体情報分析プログラム114は、この判定結果から、それに相応しい気持ちスタンプを後述する図11の中から選択する(ステップS208)。選択された気持ちスタンプはユーザーの感情画像となり、感情画像メモリ140に記憶される。
In step S204, the user's emotion is determined from the biological information collected by the
The biological
ステップS206では、ステップS114でウエアブルカメラ4によるユーザーの顔を被写体とする撮影があった時、撮影された画像データを、画像メモリ272をバッファとしてサーバー11の画像メモリ170に記憶し、顔認識プログラム115により感情を判定する。顔認識技術に人物の感情を判定する技術は各種提案されており、ここでは詳述しない。顔認識プログラム115は、この判定結果から、それに相応しい気持ちスタンプを後述する図11の中から選択する(ステップS208)。選択された気持ちスタンプはユーザーの感情画像となり、感情画像メモリ140に記憶される。
In step S206, when the
ステップS208では、前述した生体情報分析プログラム114がユーザーの感情を判定した結果、又は顔認識プログラム115がユーザーの感情を判定した結果によって気持ちスタンプを選択する。図11に気持ちスタンプの例を示す。ユーザー自身がトレーニング中に任意の気持ちスタンプを選択してもよい。気持ちスタンプは例えば同図に示すように複数用意されており、A1〜A9はそれぞれ異なる感情を表現している気持ちスタンプである。これ以外にも多くの気持ちスタンプが用意されており、ユーザー自身が選択する際は表示部206のスクロール操作により気持ちスタンプ画面を表示させ、自分の感情に最も合っている気持ちスタンプを選択する。又は、前述したように、音声コマンドで「キリカエ」と発生して気持ちスタンプ画面に切り替え、「元気」「快調」「楽しい」「順調」「疲れた」「苦しい」等と発声すると、該当する気持ちスタンプが選択される。
In step S208, a feeling stamp is selected based on the result of the above-described biometric
生体情報分析プログラム114又は顔認識プログラム115がユーザーの感情を判定した結果によって気持ちスタンプを選択する場合は、ユーザーの感情の判定結果が予め設定されている感情状態となったと判定されたタイミングで選択される。
選択された気持ちスタンプは前述したようにユーザーの感情画像となるもので、感情画像メモリ140に記録される。
When the biometric
The selected feeling stamp is a user's emotion image as described above, and is recorded in the
<ウエアブルカメラ4の動作>
図12はウエアブルカメラ4の動作を説明するためのフローチャートである。まず、トレーニングを開始する前に、ウエアブルカメラ4をスタンバイモードにする(ステップS100)。これは、ウエアブルカメラ4本体の操作スイッチ(図示せず)によって設定してもよいし、リスト端末2からリモコンのように遠隔操作で設定してもよい。基本的には、ウエアブルカメラ4とリスト端末2は無線による同期関係にあり、リスト端末2をマスターとしウエアブルカメラ4をスレーブとしてリスト端末2からリモート制御する。
<Operation of
FIG. 12 is a flowchart for explaining the operation of the
スタンバイモードになると、CPU420の制御により撮影を開始する。例えば連写のように1秒間に複数枚撮影してもよいし、1分に1枚程度の撮影でも良い(ステップS402)。撮影した写真は画像メモリ440にFIFO(First In First Out)方式で一定期間保持される。
When the standby mode is set, shooting is started under the control of the
トレーニング中の自動撮影なので、ピントのボケやブレが発生する可能性が高い。そこで、複数枚の写真を撮影しておき、その中から最適な写真を選択できるようにしている。明細書中ではウエアブルカメラ4により撮影された画像(画像データ)を写真と称呼している。
最適な写真の選択は写真選択プログラム117によって行う。ボケやブレの少ない写真を選択する技術はいくつか知られているので詳述はしない。なお、言うまでもないが図面に使用した写真はあくまで本実施の形態を説明するための例であって、実在の場所、コース等とは何の関係もないものであり、例示した写真のコンテンツ自体に意味は無い。
なお、前述したようにサーバー11又はリスト端末2が指示する撮影タイミングを、ウエアブルカメラ4自身が各種生体情報や感情情報を受け取って、その情報をもとに自分自身で決定することもできる。
更に、図8で説明したようにレンズ404をユーザー自身の顔を撮影するように設置した場合は、ユーザーの顔の撮影情報を感情情報に使用することもできる。
Since automatic shooting during training, there is a high possibility of out-of-focus and blurring. Therefore, a plurality of photographs are taken, and the optimum photograph can be selected from them. In the specification, an image (image data) taken by the
The optimal photo selection is performed by the
Note that, as described above, the
Further, when the
次に、リスト端末2で、前述したいくつかの手法のいずれかにより気持ちスタンプが選択されると、その情報を受信し(ステップS404)、ステップS402で撮影していた写真のうち、例えば受信したタイミング及びその前後の写真各5枚の計11枚を画像メモリ440に保存する。また、保存した写真若しくは任意の写真はSDカード442に保存でき、他の再生装置で見ることができる。
保存した写真はリスト端末2に送信し(ステップS408)、リスト端末2の画像メモリ272に一旦記憶され、更にサーバー11に送られて画像メモリ170に記憶される。
Next, when the feeling stamp is selected by the
The stored photograph is transmitted to the wrist terminal 2 (step S408), temporarily stored in the
<タイムライン表示>
続いて、タイムラインの表示について説明する。
図14は、ユーザーの行動に沿ったタイムライン作成のためのサーバー11のフローチャートであり、図13は、PC3やスマホ端末1−2のタイムラインの表示例を示すものである。
図13(a)はスマホ端末1の表示部340の表示イメージを示すもので、上半分にコースCとトレーニング中のユーザーの現在位置Nを表示している。また、下半分には、タイムラインTLを表示する。図13(b)は、スマホ1を横長にして表示させた例で、左半分にコースCと現在位置Nを、右半分にタイムラインTLを表示している。
<Timeline display>
Next, timeline display will be described.
FIG. 14 is a flowchart of the
FIG. 13 (a) shows a display image of the
図13(b)では、ユーザーの現在位置Nの他に、同じコースを走っている友人Aの位置NAをアイコンで示している。すなわちユーザーが友人Aと出会った以降の表示例である。友人Aも同様のリスト端末2を装着してトレーニングしているという前提なので、SNSサイト10を介してお互いの位置を知ることができる。従って、競争したり、タイムを競ったり、一方がペースメーカーになったりすることもできる。タイムを比較表示することは勿論できるが、アイコンの表示形態を変えたり、相手(友人A)が近づいてくるとアイコンを点滅表示させたりして追い上げられていることを知らせることができる。
更に、サーバー11に履歴データ記憶部108には、過去のトレーニングデータが記憶されているので、自分の過去のトレーニング結果や友人Aのトレーニング結果を読み出して、バーチャルな相手と一緒にトレーニングしたり競争したりすることも可能である。
In FIG. 13B, in addition to the current position N of the user, the position NA of the friend A running on the same course is indicated by an icon. That is, it is a display example after the user meets the friend A. Since it is premised that the friend A is wearing the
Further, since the past training data is stored in the history
しかして、タイムラインの一例は図15A、図15B、図15Cに示している。
以下、図14のサーバー11のCPU102が実行するフローチャートと図15A、図15B、図15Cのタイムラインの表示例を参照しながら、タイムライン表示について説明する。
まず、ステップS502で、ユーザー自身からのコメント投稿がないかどうかを待機する。ここでNOであれば、ステップS504に進み、友人からのコメント投稿がないかを待機する。友人とはSNSシステム10内で特定のフレンド関係となった他のユーザーである。ここでNOであれば、ステップS506に進み、リスト端末2で気持ちスタンプが発生するかどうかを待機する。気持ちスタンプは前述したように、トレーニング中のユーザーの感情情報を基に、その感情を表現している図11に示した気持ちスタンプのいずれかを選択して送信するものである。
ここでもNOであれば、ステップS508でSTOPメニューが選択されたか、すなわちトレーニング終了か否かを判断する。ここでもNOであれば、ステップS502に戻ってループを継続する。
An example of the timeline is shown in FIGS. 15A, 15B, and 15C.
The timeline display will be described below with reference to the flowchart executed by the
First, in step S502, it is waited whether there is no comment contribution from the user himself. If “NO” here, the process proceeds to a step S504 to wait for a comment post from a friend. A friend is another user who has a specific friend relationship within the
If “NO” here as well, it is determined in step S508 whether the STOP menu has been selected, that is, whether the training has ended. If “NO” again, the process returns to step S502 to continue the loop.
ステップS502で自分からのコメントを検出すると、コメントメモリ160に一旦記憶されて、ステップS510に進み、自分が投稿したタイムラインを図15A(1)のように流す。この処理はタイムライン作成プログラム116が行う。タイムスタンプは自動的に付与される。この表示は会員のスマホ端末1やPC3で閲覧可能とされる。
図15A(1)は、ユーザー自身(自分)が「明日、皇居にジョギングに行くよ」というコメントを投稿したものである。これを受けて友人Aの任意の端末から「気を付けてね」というコメントが投稿されると、ステップS504で友人のコメント有りを検出して図15A(2)のようにタイムライン表示する。同様に友人Bの「がんばって!」というコメントも図15A(3)のように表示される。自分が「コースはここだよ」というコメントを流し、地図をアップした状態が図15A(4)(5)である。コメントの文章と共に写真も投稿可能である。図15A(6)の「ぼくも行くかも」は友人Aのコメント、図15A(7)の「会えたらいいね」は自分のコメントを示す。任意の写真をタイムラインにアップできること、友人が任意のアイコンを作成できることは公知であるので詳述はしない。
When a comment from the user is detected in step S502, the comment is temporarily stored in the
FIG. 15A (1) shows a comment posted by the user himself (to himself) to go jogging to the Imperial Palace tomorrow. In response to this, when a comment “Be careful” is posted from an arbitrary terminal of the friend A, the presence of the comment of the friend is detected in step S504, and the timeline is displayed as shown in FIG. 15A (2). Similarly, the comment “Good luck!” Of friend B is also displayed as shown in FIG. 15A (3). 15A (4) and 15 (5) show the state where he / she made a comment “The course is here” and uploaded the map. Photos can be posted along with the comment text. In FIG. 15A (6), “I may also go” indicates the comment of friend A, and “I wish I can meet” in FIG. 15A (7) indicates my comment. Since it is well known that any photo can be uploaded to the timeline and a friend can create any icon, it will not be described in detail.
さて、リスト端末2とウエアブルカメラ4を装着してトレーニングするユーザー(自分)がリスト端末2のメニュー画面からSTARTメニューを選択してトレーニングをスタートすると、図15B(8)のようにタイムラインに「START」コメントがサーバー11から自動送信される。同図において、コメントの吹き出しを二重線で表現しているものはユーザーの投稿ではなくサーバー11の自動送信であることを示している。
Now, when a user (self) who wears the
そして、その時のユーザーの感情情報に合った気持ちスタンプA9が感情画像メモリ120から選択され、その時にウエアブルカメラ4で撮影し画像メモリ170に記憶された写真と共にタイムラインにアップされる(図14ステップS506、図15B(9))。気持ちスタンプは、生体情報分析プログラム114の結果により自動判別されるか、ユーザー自身が選択することは前述のとおりである。
Then, a feeling stamp A9 that matches the emotion information of the user at that time is selected from the emotion image memory 120, and the photograph is taken by the
すなわち、トレーニングを開始すると、自動的にその時々のユーザーの感情に合わせて気持ちスタンプが自動的にタイムラインにアップされていくと共に、ウエアブルカメラ4で撮影した写真も一緒にアップされていく。写真は一例として気持ちスタンプ発生タイミングの前後11枚を撮影しているが、写真選択プログラム117により、最もボケやブレの少ない写真が自動選択されてアップされる。従って、気持ちスタンプの発生タイミングとウエアブルカメラ4で撮影するタイミングは同期している。
That is, when training is started, feeling stamps are automatically uploaded to the timeline according to the emotions of the user at the same time, and photographs taken with the
図15B(10)で友人Cの「いいコースですね」というコメントがアップされ、図15B(11)では快調にトレーニングしている気持ちスタンプA1と写真P2がアップされる。
図15B(12)では、上り坂に差し掛かってきつくなってきた時の感情から自動又は手動で選択された気持ちスタンプA2と写真P3がアップされる。
図15B(13)では、友人Cのコメント「がんばってください」が表示される。
図15C(14)では、坂を上り終わってほっとしている気持ちスタンプA3と写真P4がアップされる。
In FIG. 15B (10), the comment “Friendly course” of friend C is uploaded, and in FIG. 15B (11), feeling stamp A1 and photograph P2 are being trained smoothly.
In FIG. 15B (12), the feeling stamp A2 and the photograph P3, which are automatically or manually selected from the feelings when approaching the uphill, are uploaded.
In FIG. 15B (13), the comment “Please do your best” of friend C is displayed.
In FIG. 15C (14), a feeling stamp A3 and a photograph P4 that are relieved after going up the hill are uploaded.
図15C(15)では、友人Bのコメント「よくがんばったね」が表示され、更に図15C(16)で友人Aがユーザー(自分)と出会って「合流したよ」というコメントを表示している。この時、図15C(17)のように、あいさつの感情を示す気持ちスタンプA6をアップすると共に、その時撮影した友人Aが写っている写真P5がアップされる。
図15C(16)では、満開の桜を見て感動している気持ちスタンプA7と、桜の写っている写真P6がアップされる。
しかして、トレーニングを終了するとメニュー表示からSTOPメニューを選択し、図14のステップS508でYESとなりトレーニングモードを終了する。
その際、図15C(19)に示すように、「GOAL」がサーバー11から自動送信される。
図15C(20)ではゴールに到達した時の喜びの気持ちスタンプA4とその時撮影されたゴールの写真P7がアップされる。
In FIG. 15C (15), the comment “Good luck” of friend B is displayed, and in FIG. 15C (16), friend A meets the user (self) and displays the comment “Join”. At this time, as shown in FIG. 15C (17), the feeling stamp A6 indicating the greeting is increased, and the photograph P5 showing the friend A photographed at that time is also increased.
In FIG. 15C (16), a feeling stamp A7, which is impressed by seeing the cherry blossoms in full bloom, and a photograph P6 in which the cherry trees are reflected are uploaded.
When the training is finished, the STOP menu is selected from the menu display, and the training mode is finished in step S508 of FIG.
At this time, “GOAL” is automatically transmitted from the
In FIG. 15C (20), a feeling of joy stamp A4 when reaching the goal and a photograph P7 of the goal photographed at that time are uploaded.
変形例として、苦しくなった時に「友だちに応援を頼む」を要求できる。そのために、例えばリスト端末2の「Cheer1 Me」(図示せず、音声入力でも良い)ボタンを押すと、スマホ端末1、サーバー11を経由して友人のスマホ端末1にメッセージが送られる。メッセージを受けた側(友人)は、アプリケーションプログラム上で「Cheer」コマンドを操作すると応援メッセージ(又は応援スタンプ)を返すことができる。従ってトレーニング中のユーザーはリアルタイムに応援を受け取ることができる。図15A、図15B、図15Cにおいて、応援メッセージがタイムライン中にインタラプト的にアップされてもよい。苦しくなったかどうかは、自己申告だけでなく、速度が落ちた、心拍数が上がった等の生体センサー254で収集される生体情報から自動判別して、走っているユーザー本人(自分)に通知してもよい。一定値に達した時に「応援をたのむ?」と端末2の表示部202上に通知する。
As a modified example, when it becomes difficult, it can request “a friend asks for support”. For this purpose, for example, when a “Cheer1 Me” (not shown, voice input) button on the
トレーニングが終了した時には、メニュー画面から「STOP」メニューを選択する。
リスト端末2が収集した各種情報は、電話回線経由で、又はスマホを一緒に持っている時はスマホ経由で、リアルタイムでサーバー11に送ってもよいし、10分に1回、1時間に1回等、定期的に送ってもよい。またトレーニング終了後に無線又は有線でサーバー11と接続して、一括して送ってもよい。基本的に、トレーニング中はSNSサイト10と接続している必要はなく、トレーニングが終わってから、例えばPC3と接続して、リスト端末2によりトレーニング中に収集した情報をサーバー11にアップロードすればよい。サーバー11は集まった情報を基にリプレイ処理(図7のステップS24)を実行することができる。
When the training is completed, the “STOP” menu is selected from the menu screen.
The various information collected by the
なお、本発明は、上記実施の形態に限定されるものではなく、トレーニングとは広義の意味に解するものとする。すなわち、散策、観光、散歩、ウオーキング、ジョギング、マラソン、サイクリング、登山、マリンスポーツ等に適用することができ、また、ペットの散歩や、高齢者・徘徊老人にも応用することができる。トレーニングとワークアウトは同義である。 Note that the present invention is not limited to the above-described embodiment, and training is understood in a broad sense. That is, it can be applied to walking, sightseeing, walking, walking, jogging, marathon, cycling, mountain climbing, marine sports, etc., and it can also be applied to pet walking, elderly people, and elderly people. Training and workout are synonymous.
また、腕に装着してトレーニングする腕時計型のリスト端末を例にとって説明したが、これに限ることなく、頭に装着したり、腰に取り付けたり、あるいは手で持ってトレーニングしても構わない。ウエアブルカメラについても同様で、腰につけたり、メガネ型にしたりすることも可能である。 In addition, although a wristwatch type wrist terminal that is worn on the arm and trained has been described as an example, the wrist-type wrist terminal is not limited thereto, and may be worn on the head, attached to the waist, or held by hand. The same applies to the wearable camera, and it can be worn on the waist or in glasses.
<実施の形態並びに推考しうる変形例の作用効果>
生体センサーの収集情報から、ユーザーの感情や体調を判定して、気持ちスタンプ等のオブジェクトの表情や種類に反映させることができる。
生体センサーの収集情報やその判定結果、オブジェクトを日々の生活行動履歴(ライフログ)として記録したり、SNSに投稿して共有したりすることができる。
ユーザーが、メール送信やコメントの書込み等の所定の行動を起こした時に、その時点のユーザーの感情や体調を判定して、オブジェクトの表情や種類に反映させることができる。
行動を起こした時のユーザーの生体情報に基づいて、自動的にオブジェクトの表情や種類に反映させることができる。
行動を起こした前後における生体情報の変化に基づいて、ユーザーの感情や体調の時間的変化を判定して、オブジェクトの表情や種類に反映させることができる。
オブジェクトの表情等を一見するだけで、相手の感情や状態を、分かりやすく且つ興趣性を持って伝達できる。
<Effects of Embodiment and Modified Examples that can be Inferred>
It is possible to determine the emotion and physical condition of the user from the collected information of the biometric sensor and reflect it on the facial expression and type of an object such as a feeling stamp.
The collection information of the biosensor, the determination result, and the object can be recorded as daily life activity history (life log), or can be posted to SNS and shared.
When a user takes a predetermined action such as sending an e-mail or writing a comment, the emotion and physical condition of the user at that time can be determined and reflected in the expression and type of the object.
Based on the user's biometric information when the action is taken, it can be automatically reflected in the expression and type of the object.
Based on changes in biological information before and after taking action, it is possible to determine temporal changes in the user's emotions and physical condition and reflect them in the expression and type of the object.
By simply looking at the facial expression of an object, it is possible to convey the emotion and state of the other party in an easy-to-understand manner and with interest.
ウエアブルカメラの撮像シーン毎に、その時のユーザーの感情や体調を判定して、オブジェクトの表情や種類に反映させることができる。
撮影された写真を画像処理するだけで、ユーザーの感情や体調を判定して、オブジェクトの表情や種類に反映させることができる。
撮影された動画データやシーンと対応付けて、シーンごとのオブジェクトの表情や種類に反映させることができる。
ウエアブルカメラの再生画像にオブジェクトを合成することができる。
どのようなトレーニングシーンであったのか、その各シーンや記録を達成した時に、どのように感動したのか、どのような感情や精神状態であったのか、ユーザーの感動や状態データを確認したり、仲間や他人と伝達共有したりできる。
For each imaging scene of the wearable camera, the emotion and physical condition of the user at that time can be determined and reflected in the expression and type of the object.
By simply processing the photographed image, it is possible to determine the emotion and physical condition of the user and reflect them in the expression and type of the object.
In association with captured moving image data and scenes, it can be reflected in the expression and type of objects for each scene.
An object can be combined with the playback image of the wearable camera.
You can check what kind of training scene you were, how you were impressed when you achieved each scene and record, what emotions and mental state you were, what your emotions and mental state were, You can communicate and share with friends and others.
以上、この発明の実施形態について説明したが、この発明はこれらに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下に、本願出願時の特許請求の範囲を付記する。
<付記>
As mentioned above, although embodiment of this invention was described, this invention is not limited to these, The invention described in the claim and its equal range are included.
The claims appended at the time of filing this application will be appended below.
<Appendix>
[請求項1]
端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおいて、
前記端末は、
感情情報を取得する感情情報取得手段と、
前記感情情報取得手段により取得された感情情報を前記サーバーに送信する送信手段と、
を備え、
前記サーバーは、
前記感情情報を受信する受信手段と、
前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段と、
前記タイムライン作成手段により作成したタイムラインを閲覧可能にする表示制御手段と、
を備えることを特徴とするソーシャル・ネットワーク・サービスシステム。
[請求項2]
前記感情情報取得手段は、生体センサーを有し、
前記タイムライン作成手段は、前記生体センサーで取得された生体情報を分析して感情を表すオブジェクトを作成することを特徴とする請求項1記載のソーシャル・ネットワーク・サービスシステム。
[請求項3]
前記感情情報取得手段は、感情に対応するオブジェクトを選択するオブジェクト選択手段を有し、
前記タイムライン作成手段は、前記オブジェクト選択手段で選択されたオブジェクトを、感情を表すオブジェクトとすることを特徴とする請求項1又は2記載のソーシャル・ネットワーク・サービスシステム。
[請求項4]
前記感情を表すオブジェクトは気持ちスタンプであることを特徴とする請求項3記載のソーシャル・ネットワーク・サービスシステム。
[請求項5]
当該システムは画像を撮影するカメラを更に備え、
前記サーバーは前記カメラで撮影した画像を直接または間接的に受信する画像受信手段を備え、
前記タイムライン作成手段は、前記オブジェクトと共に前記受信した画像をタイムラインにアップする手段を備えることを特徴とする請求項1乃至4いずれか記載のソーシャル・ネットワーク・サービスシステム
[請求項6]
前記端末は現在位置情報を取得して前記サーバーに送信する位置情報送信手段を備え、
前記サーバーは、前記現在位置情報を受信して地形図上に端末の現在位置を図示する現在位置図作成手段を備え、
前記タイムライン作成手段は、前記タイムラインと共に前記現在位置図をアップする手段を備えることを特徴とする請求項1乃至5いずれか記載のソーシャル・ネットワーク・サービスシステム。
[請求項7]
前記サーバーは前記端末の現在位置情報とともに、他の端末の現在位置情報を受信して、
現在位置図作成手段は、前記前記地形図上に前記他の端末の現在位置を図示する手段を含むことを特徴とする請求項6記載のソーシャル・ネットワーク・サービスシステム
[請求項8]
端末と、この端末と直接又は通信端末を介して接続されるサーバー及びカメラを含むソーシャル・ネットワーク・サービスシステムにおけるソーシャルタイムラインを生成する方法であって、
前記端末は、感情情報を取得する取得処理と、前記取得された前記感情情報を前記サーバーに送信する送信処理とを実行し、
前記カメラは、前記端末からの制御により画像を撮影する処理を実行し、
前記サーバーは、前記感情情報及び前記撮影画像を受信する処理と、前記受信した感情情報を基に感情を表すオブジェクト及び前記受信した撮影画像を含むタイムラインを作成するタイムライン作成処理と、前記作成したタイムラインを閲覧可能にする表示制御処理とを実行することを特徴とする方法。
[請求項9]
端末と、この端末から直接又は通信端末を介して送信される情報を受信してソーシャルタイムラインを生成するサーバーとを含むシステムにおける端末において、
感情情報を取得する感情情報取得手段と、
前記感情情報取得手段により取得された感情情報を前記サーバーに送信する送信手段と、
を備え、
前記感情情報取得手段は、感情に対応するスタンプ画像を選択するスタンプ選択手段を含み、
前記送信手段は前記スタンプ選択手段により選択されたスタンプ画像を前記サーバーへ送信することによってソーシャルタイムラインにスタンプ画像をアップさせることを特徴とする端末。
[請求項10]
前記スタンプ選択手段は、感情に対応するスタンプ画像を複数表示する手段と、前記スタンプ画像をユーザーに選択させる手段とを有することを特徴とする請求項8記載の端末。
[請求項11]
画像を撮影する手段を更に備え、前記送信手段は前記スタンプ選択手段により選択されたスタンプ画像と前記撮影された画像を前記サーバーへ送信することによってソーシャルタイムラインにスタンプ画像及び撮影画像をアップさせることを特徴とする請求項8又は9記載の端末。
[請求項12]
端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおけるサーバーにおいて、
前記端末から感情情報を受信する受信手段と、
前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段と、
前記作成したタイムラインを閲覧可能にする表示制御手段と、
を備えることを特徴とするサーバー。
[請求項13]
前記端末から現在位置情報を受信する位置情報受信手段を更に備え、
前記タイムライン作成手段は、前記タイムラインと共に、前記受信した現在位置情報を基に地形図上に端末の現在位置を図示する現在位置図を作成する手段を備えることを特徴とする請求項12記載のサーバー。
[請求項14]
前記タイムライン作成手段は、前記端末の現在位置と共に、他の端末の現在位置を前記地形図上に図示する手段を更に備えることを特徴とする請求項13記載のサーバー。
[請求項15]
端末と、この端末から直接又は通信端末を介して送信される情報を受信してソーシャルタイムラインを生成するサーバーとを含むシステムにおける端末のコンピュータを、
感情情報を取得する感情情報取得手段、
前記取得した感情情報に対応するスタンプ画像を選択するスタンプ選択手段、
前記スタンプ選択手段で選択されたスタンプ画像を、感情を表すオブジェクトとして前記サーバーへ送信することによってソーシャルタイムラインにアップさせる手段として機能させることを特徴とするプログラム。
[請求項16]
端末と、この端末と直接又は通信端末を介して接続されるサーバーとを含むソーシャル・ネットワーク・サービスシステムにおけるサーバーのコンピュータを、
前記端末から感情情報を受信する受信手段、
前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段、
作成したタイムラインを閲覧可能にする表示制御手段、
として機能させることを特徴とするプログラム。
[Claim 1]
In a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal,
The terminal
Emotion information acquisition means for acquiring emotion information;
Transmitting means for transmitting emotion information acquired by the emotion information acquiring means to the server;
With
The server
Receiving means for receiving the emotion information;
Timeline creating means for creating a timeline including an object representing emotion based on emotion information received by the receiving means;
Display control means for enabling browsing of the timeline created by the timeline creating means;
A social network service system characterized by comprising:
[Claim 2]
The emotion information acquisition means has a biological sensor,
The social network service system according to
[Claim 3]
The emotion information acquisition means includes an object selection means for selecting an object corresponding to the emotion,
The social network service system according to
[Claim 4]
4. The social network service system according to
[Claim 5]
The system further comprises a camera for taking an image,
The server includes image receiving means for directly or indirectly receiving an image taken by the camera,
The social network service system according to any one of
The terminal includes a position information transmission unit that acquires current position information and transmits the current position information to the server,
The server includes current position map creation means for receiving the current position information and illustrating the current position of the terminal on a topographic map,
6. The social network service system according to
[Claim 7]
The server receives the current position information of the other terminal together with the current position information of the terminal,
7. The social network service system according to
A method for generating a social timeline in a social network service system including a terminal and a server and a camera connected to the terminal directly or via a communication terminal,
The terminal performs an acquisition process of acquiring emotion information and a transmission process of transmitting the acquired emotion information to the server,
The camera executes a process of taking an image under control from the terminal,
The server is configured to receive the emotion information and the captured image, create a timeline including an object representing an emotion based on the received emotion information and the received captured image, and the creation And a display control process for enabling browsing of the selected timeline.
[Claim 9]
In a terminal in a system including a terminal and a server that receives information transmitted from the terminal directly or via a communication terminal and generates a social timeline,
Emotion information acquisition means for acquiring emotion information;
Transmitting means for transmitting emotion information acquired by the emotion information acquiring means to the server;
With
The emotion information acquisition means includes a stamp selection means for selecting a stamp image corresponding to the emotion,
The terminal according to
[Claim 10]
9. The terminal according to
[Claim 11]
The image processing apparatus further includes means for capturing an image, and the transmission means transmits the stamp image selected by the stamp selection means and the captured image to the server to upload the stamp image and the captured image to the social timeline. The terminal according to
[Claim 12]
In a server in a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal,
Receiving means for receiving emotion information from the terminal;
Timeline creating means for creating a timeline including an object representing emotion based on emotion information received by the receiving means;
Display control means for enabling browsing of the created timeline;
A server characterized by comprising:
[Claim 13]
Further comprising position information receiving means for receiving current position information from the terminal;
13. The timeline creating means comprises means for creating a current position map showing a current position of a terminal on a topographic map based on the received current position information together with the timeline. Server.
[Claim 14]
14. The server according to
[Claim 15]
A terminal computer in a system including a terminal and a server that receives information transmitted from the terminal directly or via a communication terminal and generates a social timeline;
Emotion information acquisition means for acquiring emotion information,
Stamp selection means for selecting a stamp image corresponding to the acquired emotion information;
A program that causes a stamp image selected by the stamp selection means to function as a means for uploading to the social timeline by transmitting to the server as an object representing emotion.
[Claim 16]
A server computer in a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal;
Receiving means for receiving emotion information from the terminal;
Timeline creation means for creating a timeline including an object representing emotion based on emotion information received by the reception means;
Display control means that enables browsing of the created timeline,
A program characterized by functioning as
1−1、1−2 スマホ端末
2−1、2−2、2−3 リスト端末
3−1 PC
4−1、4−2、4−3 ウエアブルカメラ
10 SNSサイト
11 サーバー
102 CPU
106 会員管理部
108 履歴データメモリ
110 プログラムメモリ
111 OS(制御プログラム)
112 コース形状作成プログラム
113 音声−文字変換プログラム
114 生体情報分析プログラム
115 顔認識プログラム
116 タイムライン作成プログラム
120 収集情報メモリ
121 位置情報エリア
122 時刻情報エリア
123 時間情報エリア
124 感情情報エリア
125 地点情報エリア
126 生体情報記憶エリア
127 環境情報記憶エリア
130 コース形状メモリ
120 感情画像メモリ
150 音声メモリ
160 コメントメモリ
170 画像メモリ
202 CPU
204 表示制御部
206 表示部
210 プログラムメモリ
211 制御プログラム
212 アプリケーションプログラム
220 入力制御部
222 タッチパネル
230 音声メモリ
240 コメントメモリ
250 GPS
252 センサー
254 生体センサー
256 環境センサー
258 無線I/F
260 通信I/F
272 画像メモリ
280 バッファメモリ
290 カメラ制御部
300 表示画面
302 CPU
310 プログラムメモリ
311 制御プログラム
312 アプリケーションプログラム
340 表示部
354 表示制御部
356 入力部
358 無線I/F
360 通信I/F
404 レンズ
410 撮像素子
412 撮像制御部
420 CPU
430 プログラムメモリ
440 画像メモリ
450 無線I/F
A1〜A9 気持ちスタンプ
C コース形状
N 現在位置
NA 友人の現在位置
TL タイムライン
1-1, 1-2 Smartphone terminals 2-1, 2-2, 2-3 List terminal 3-1 PC
4-1, 4-2, 4-3
106
112 Course
204
252
260 Communication I / F
272
310
360 Communication I / F
430
A1-A9 Feeling stamp C Course shape N Current position NA Friend's current position TL Timeline
Claims (16)
前記端末は、
感情情報を取得する感情情報取得手段と、
前記感情情報取得手段により取得された感情情報を前記サーバーに送信する送信手段と、
を備え、
前記サーバーは、
前記感情情報を受信する受信手段と、
前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段と、
前記タイムライン作成手段により作成したタイムラインを閲覧可能にする表示制御手段と、
を備えることを特徴とするソーシャル・ネットワーク・サービスシステム。 In a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal,
The terminal
Emotion information acquisition means for acquiring emotion information;
Transmitting means for transmitting emotion information acquired by the emotion information acquiring means to the server;
With
The server
Receiving means for receiving the emotion information;
Timeline creating means for creating a timeline including an object representing emotion based on emotion information received by the receiving means;
Display control means for enabling browsing of the timeline created by the timeline creating means;
A social network service system characterized by comprising:
前記タイムライン作成手段は、前記生体センサーで取得された生体情報を分析して感情を表すオブジェクトを作成することを特徴とする請求項1記載のソーシャル・ネットワーク・サービスシステム。 The emotion information acquisition means has a biological sensor,
The social network service system according to claim 1, wherein the timeline creating unit creates an object representing emotion by analyzing the biological information acquired by the biological sensor.
前記タイムライン作成手段は、前記オブジェクト選択手段で選択されたオブジェクトを、感情を表すオブジェクトとすることを特徴とする請求項1又は2記載のソーシャル・ネットワーク・サービスシステム。 The emotion information acquisition means includes an object selection means for selecting an object corresponding to the emotion,
The social network service system according to claim 1, wherein the timeline creation unit uses the object selected by the object selection unit as an object representing emotion.
前記サーバーは前記カメラで撮影した画像を直接または間接的に受信する画像受信手段を備え、
前記タイムライン作成手段は、前記オブジェクトと共に前記受信した画像をタイムラインにアップする手段を備えることを特徴とする請求項1乃至4いずれか記載のソーシャル・ネットワーク・サービスシステム The system further comprises a camera for taking an image,
The server includes image receiving means for directly or indirectly receiving an image taken by the camera,
The social network service system according to claim 1, wherein the timeline creation unit includes a unit that uploads the received image together with the object to the timeline.
前記サーバーは、前記現在位置情報を受信して地形図上に端末の現在位置を図示する現在位置図作成手段を備え、
前記タイムライン作成手段は、前記タイムラインと共に前記現在位置図をアップする手段を備えることを特徴とする請求項1乃至5いずれか記載のソーシャル・ネットワーク・サービスシステム。 The terminal includes a position information transmission unit that acquires current position information and transmits the current position information to the server,
The server includes current position map creation means for receiving the current position information and illustrating the current position of the terminal on a topographic map,
6. The social network service system according to claim 1, wherein the timeline creating means includes means for uploading the current position map together with the timeline.
現在位置図作成手段は、前記前記地形図上に前記他の端末の現在位置を図示する手段を含むことを特徴とする請求項6記載のソーシャル・ネットワーク・サービスシステム。 The server receives the current position information of the other terminal together with the current position information of the terminal,
7. The social network service system according to claim 6, wherein the current position map creating means includes means for illustrating a current position of the other terminal on the topographic map.
前記端末は、感情情報を取得する取得処理と、前記取得された前記感情情報を前記サーバーに送信する送信処理とを実行し、
前記カメラは、前記端末からの制御により画像を撮影する処理を実行し、
前記サーバーは、前記感情情報及び前記撮影画像を受信する処理と、前記受信した感情情報を基に感情を表すオブジェクト及び前記受信した撮影画像を含むタイムラインを作成するタイムライン作成処理と、前記作成したタイムラインを閲覧可能にする表示制御処理とを実行することを特徴とする方法。 A method for generating a social timeline in a social network service system including a terminal and a server and a camera connected to the terminal directly or via a communication terminal,
The terminal performs an acquisition process of acquiring emotion information and a transmission process of transmitting the acquired emotion information to the server,
The camera executes a process of taking an image under control from the terminal,
The server is configured to receive the emotion information and the captured image, create a timeline including an object representing an emotion based on the received emotion information and the received captured image, and the creation And a display control process for enabling browsing of the selected timeline.
感情情報を取得する感情情報取得手段と、
前記感情情報取得手段により取得された感情情報を前記サーバーに送信する送信手段と、
を備え、
前記感情情報取得手段は、感情に対応するスタンプ画像を選択するスタンプ選択手段を含み、
前記送信手段は前記スタンプ選択手段により選択されたスタンプ画像を前記サーバーへ送信することによってソーシャルタイムラインにスタンプ画像をアップさせることを特徴とする端末。 In a terminal in a system including a terminal and a server that receives information transmitted from the terminal directly or via a communication terminal and generates a social timeline,
Emotion information acquisition means for acquiring emotion information;
Transmitting means for transmitting emotion information acquired by the emotion information acquiring means to the server;
With
The emotion information acquisition means includes a stamp selection means for selecting a stamp image corresponding to the emotion,
The terminal according to claim 1, wherein the transmitting means transmits the stamp image selected by the stamp selecting means to the social timeline by transmitting the stamp image to the server.
前記端末から感情情報を受信する受信手段と、
前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段と、
前記作成したタイムラインを閲覧可能にする表示制御手段と、
を備えることを特徴とするサーバー。 In a server in a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal,
Receiving means for receiving emotion information from the terminal;
Timeline creating means for creating a timeline including an object representing emotion based on emotion information received by the receiving means;
Display control means for enabling browsing of the created timeline;
A server characterized by comprising:
前記タイムライン作成手段は、前記タイムラインと共に、前記受信した現在位置情報を基に地形図上に端末の現在位置を図示する現在位置図を作成する手段を備えることを特徴とする請求項12記載のサーバー。 Further comprising position information receiving means for receiving current position information from the terminal;
13. The timeline creating means comprises means for creating a current position map showing a current position of a terminal on a topographic map based on the received current position information together with the timeline. Server.
感情情報を取得する感情情報取得手段、
前記取得した感情情報に対応するスタンプ画像を選択するスタンプ選択手段、
前記スタンプ選択手段で選択されたスタンプ画像を、感情を表すオブジェクトとして前記サーバーへ送信することによってソーシャルタイムラインにアップさせる手段として機能させることを特徴とするプログラム。 A terminal computer in a system including a terminal and a server that receives information transmitted from the terminal directly or via a communication terminal and generates a social timeline;
Emotion information acquisition means for acquiring emotion information,
Stamp selection means for selecting a stamp image corresponding to the acquired emotion information;
A program that causes a stamp image selected by the stamp selection means to function as a means for uploading to the social timeline by transmitting to the server as an object representing emotion.
前記端末から感情情報を受信する受信手段、
前記受信手段により受信した感情情報を基に感情を表すオブジェクトを含むタイムラインを作成するタイムライン作成手段、
作成したタイムラインを閲覧可能にする表示制御手段、
として機能させることを特徴とするプログラム。 A server computer in a social network service system including a terminal and a server connected to the terminal directly or via a communication terminal;
Receiving means for receiving emotion information from the terminal;
Timeline creation means for creating a timeline including an object representing emotion based on emotion information received by the reception means;
Display control means that enables browsing of the created timeline,
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013157439A JP2015028686A (en) | 2013-07-30 | 2013-07-30 | Method of generating social time line, social net work service system, server, terminal, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013157439A JP2015028686A (en) | 2013-07-30 | 2013-07-30 | Method of generating social time line, social net work service system, server, terminal, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016090002A Division JP6241495B2 (en) | 2016-04-28 | 2016-04-28 | Training support apparatus, training support method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015028686A true JP2015028686A (en) | 2015-02-12 |
Family
ID=52492361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013157439A Pending JP2015028686A (en) | 2013-07-30 | 2013-07-30 | Method of generating social time line, social net work service system, server, terminal, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015028686A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017073842A1 (en) * | 2015-10-30 | 2017-05-04 | 주식회사 인스파이어 | Social network service method using growth image for free sympathy expression, and user terminal and server therefor |
JP2019526861A (en) * | 2016-08-22 | 2019-09-19 | スノー コーポレーション | Message sharing method for sharing image data reflecting each user's state via chat room, and computer program for executing the method |
JP2022541493A (en) * | 2019-07-17 | 2022-09-26 | アップル インコーポレイテッド | User interface for logging and coaching health events |
JP2023072274A (en) * | 2021-11-12 | 2023-05-24 | サイボウズ株式会社 | Position information notification system, position information notification method, and program |
US11710563B2 (en) | 2020-06-02 | 2023-07-25 | Apple Inc. | User interfaces for health applications |
US11712179B2 (en) | 2018-05-07 | 2023-08-01 | Apple Inc. | Displaying user interfaces associated with physical activities |
US11842806B2 (en) | 2019-06-01 | 2023-12-12 | Apple Inc. | Health application user interfaces |
US11915805B2 (en) | 2021-06-06 | 2024-02-27 | Apple Inc. | User interfaces for shared health-related data |
US11950916B2 (en) | 2018-03-12 | 2024-04-09 | Apple Inc. | User interfaces for health monitoring |
JP7496514B2 (en) | 2019-06-06 | 2024-06-07 | パナソニックIpマネジメント株式会社 | Content selection method, content selection device, and content selection program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004185437A (en) * | 2002-12-04 | 2004-07-02 | Nippon Hoso Kyokai <Nhk> | Program, server, client and method for body information reflecting chatting |
JP2012004885A (en) * | 2010-06-17 | 2012-01-05 | Hoshun Ri | Voice speech terminal device, voice speech system, and voice speech method |
JP2012150742A (en) * | 2011-01-21 | 2012-08-09 | Yahoo Japan Corp | Contribution information management apparatus, contribution information management method and contribution information management program |
JP2013061889A (en) * | 2011-09-14 | 2013-04-04 | Namco Bandai Games Inc | Program, information storage medium, terminal device, and server |
JP2013059571A (en) * | 2011-09-14 | 2013-04-04 | Namco Bandai Games Inc | Server system |
-
2013
- 2013-07-30 JP JP2013157439A patent/JP2015028686A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004185437A (en) * | 2002-12-04 | 2004-07-02 | Nippon Hoso Kyokai <Nhk> | Program, server, client and method for body information reflecting chatting |
JP2012004885A (en) * | 2010-06-17 | 2012-01-05 | Hoshun Ri | Voice speech terminal device, voice speech system, and voice speech method |
JP2012150742A (en) * | 2011-01-21 | 2012-08-09 | Yahoo Japan Corp | Contribution information management apparatus, contribution information management method and contribution information management program |
JP2013061889A (en) * | 2011-09-14 | 2013-04-04 | Namco Bandai Games Inc | Program, information storage medium, terminal device, and server |
JP2013059571A (en) * | 2011-09-14 | 2013-04-04 | Namco Bandai Games Inc | Server system |
Non-Patent Citations (3)
Title |
---|
JPN6015015803; 松村 太郎: 'ソーシャルコミュニケーションを増幅させる期待のアプリ つぶやきの感情をイラストで伝える!「Feel' Mac Fan 第19巻 第7号 , 20110701, P.93, 株式会社毎日コミュニケーションズ * |
JPN6015015804; 倉掛 正治: '複数カメラを搭載したメガネ型携帯端末を用いた認識システムの構成と応用' Media Computing Conference 2013 2013年度 画像電子学会第41回年 , 20130622 * |
JPN6015015805; 矢橋 司: 'ソーシャルメディアのワザ帳 <定期POST>' Mac Fan 第20巻 第1号 , 20120101, P.199, 株式会社マイナビ * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101739806B1 (en) * | 2015-10-30 | 2017-06-05 | 주식회사 인스파이어 | Method, user terminal and server for social network service using the Image of Growth for free sympathy expression |
WO2017073842A1 (en) * | 2015-10-30 | 2017-05-04 | 주식회사 인스파이어 | Social network service method using growth image for free sympathy expression, and user terminal and server therefor |
JP2019526861A (en) * | 2016-08-22 | 2019-09-19 | スノー コーポレーション | Message sharing method for sharing image data reflecting each user's state via chat room, and computer program for executing the method |
US11025571B2 (en) | 2016-08-22 | 2021-06-01 | Snow Corporation | Message sharing method for sharing image data reflecting status of each user via chat room and computer program for executing same method |
US11950916B2 (en) | 2018-03-12 | 2024-04-09 | Apple Inc. | User interfaces for health monitoring |
US11712179B2 (en) | 2018-05-07 | 2023-08-01 | Apple Inc. | Displaying user interfaces associated with physical activities |
US11842806B2 (en) | 2019-06-01 | 2023-12-12 | Apple Inc. | Health application user interfaces |
JP7496514B2 (en) | 2019-06-06 | 2024-06-07 | パナソニックIpマネジメント株式会社 | Content selection method, content selection device, and content selection program |
JP7329674B2 (en) | 2019-07-17 | 2023-08-18 | アップル インコーポレイテッド | User interface for logging and coaching health events |
US12002588B2 (en) | 2019-07-17 | 2024-06-04 | Apple Inc. | Health event logging and coaching user interfaces |
JP2022541493A (en) * | 2019-07-17 | 2022-09-26 | アップル インコーポレイテッド | User interface for logging and coaching health events |
US11710563B2 (en) | 2020-06-02 | 2023-07-25 | Apple Inc. | User interfaces for health applications |
US11915805B2 (en) | 2021-06-06 | 2024-02-27 | Apple Inc. | User interfaces for shared health-related data |
JP7319341B2 (en) | 2021-11-12 | 2023-08-01 | サイボウズ株式会社 | LOCATION INFORMATION NOTIFICATION SYSTEM, LOCATION INFORMATION NOTIFICATION METHOD, AND PROGRAM |
JP2023072274A (en) * | 2021-11-12 | 2023-05-24 | サイボウズ株式会社 | Position information notification system, position information notification method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015028686A (en) | Method of generating social time line, social net work service system, server, terminal, and program | |
JP6574937B2 (en) | COMMUNICATION SYSTEM, CONTROL METHOD, AND STORAGE MEDIUM | |
US11779807B2 (en) | Information processing system | |
US9639940B2 (en) | Imaging apparatus and methods for generating a guide display showing a photographing technique for approximating a composition of a subject image to that of a sample image | |
US10321091B2 (en) | Information processing device and method of information processing | |
JP2015116288A (en) | Exercise information display system, exercise information display method, and exercise information display program | |
JP6241495B2 (en) | Training support apparatus, training support method, and program | |
JP6375597B2 (en) | Network system, server, program, and training support method | |
JP6435595B2 (en) | Training support system, server, terminal, camera, method and program | |
JP6638772B2 (en) | Imaging device, image recording method, and program | |
CN114079730B (en) | Shooting method and shooting system | |
CN108431795A (en) | Method and apparatus for information capture and presentation | |
JP2013021473A (en) | Information processing device, information acquisition method, and computer program | |
JP6914480B2 (en) | Indicator display device, indicator display method, program, and indicator display system | |
JP2009211341A (en) | Image display method and display apparatus thereof | |
JP2019061386A (en) | Information processing system, information processing apparatus, information processing method and program | |
KR102087290B1 (en) | Method for operating emotional contents service thereof, service providing apparatus and electronic Device supporting the same | |
JP2013106070A (en) | Portable electronic apparatus, control method thereof and program | |
JP7199808B2 (en) | Imaging device and its control method | |
CN114697516A (en) | Three-dimensional model reconstruction method, device and storage medium | |
JP6451110B2 (en) | Imaging apparatus, image generation method, and program | |
CN113452896B (en) | Image display method and electronic equipment | |
US10904420B2 (en) | Control device and control method for managing a captured image | |
JP6598732B2 (en) | Electronic device, control device, control program, and moving image display method | |
CN115690272A (en) | Video generation method and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151117 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160419 |