JP2015036836A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2015036836A
JP2015036836A JP2013167485A JP2013167485A JP2015036836A JP 2015036836 A JP2015036836 A JP 2015036836A JP 2013167485 A JP2013167485 A JP 2013167485A JP 2013167485 A JP2013167485 A JP 2013167485A JP 2015036836 A JP2015036836 A JP 2015036836A
Authority
JP
Japan
Prior art keywords
user
commentary
information
action
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013167485A
Other languages
English (en)
Other versions
JP6183047B2 (ja
JP2015036836A5 (ja
Inventor
小野 秀行
Hideyuki Ono
秀行 小野
正範 勝
Masanori Katsu
正範 勝
倉田 雅友
Masatomo Kurata
雅友 倉田
小形 崇
Takashi Ogata
崇 小形
荘太 松澤
Sota Matsuzawa
荘太 松澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2013167485A priority Critical patent/JP6183047B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to EP14755719.3A priority patent/EP3033728A1/en
Priority to CN201480032775.5A priority patent/CN105308641B/zh
Priority to US14/896,032 priority patent/US10601935B2/en
Priority to PCT/JP2014/003702 priority patent/WO2015022769A1/en
Publication of JP2015036836A publication Critical patent/JP2015036836A/ja
Publication of JP2015036836A5 publication Critical patent/JP2015036836A5/ja
Application granted granted Critical
Publication of JP6183047B2 publication Critical patent/JP6183047B2/ja
Priority to US16/790,736 priority patent/US10972562B2/en
Priority to US17/200,913 priority patent/US20210203736A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/043Real-time or near real-time messaging, e.g. instant messaging [IM] using or handling presence information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザが互いの行動を共有するにあたり、リアルタイム性を効果的に表現する。【解決手段】第1のユーザの行動の結果として生成される第1の情報を取得する機能と、上記第1の情報に基づいて、上記第1のユーザの行動についてのコメンタリーを生成する機能と、上記コメンタリーを含む第2の情報を上記第1のユーザとは異なる第2のユーザに公開するために出力する機能とを実現するように構成されるプロセッサを含む情報処理装置が提供される。【選択図】図2

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
ソーシャルメディアの普及に伴い、ユーザ同士がネットワークを介して互いの行動を共有することが一般的になりつつある。例えば、特許文献1には、画面上に表示される仮想空間において他のユーザを示すオブジェクトのポーズに、歩いている、走っている、座っている、立っている、電話している、といったような各ユーザの実際の行動を反映させるとともに、オブジェクトの表示位置によってユーザと各ユーザとの親密度や、各ユーザの実際の位置、行動の特徴や嗜好を表現する技術が記載されている。
特開2010−134802号公報
しかしながら、上記の特許文献1に記載されたような技術は、例えばリアルタイム性の表現について必ずしも十分とはいえなかった。共有される他のユーザの行動は、リアルタイムで発生しているものであるが、それが十分に表現されていないと、行動を参照するユーザが他のユーザの行動について十分な興味をもつことが難しい。
そこで、本開示では、ユーザが互いの行動を共有するにあたり、リアルタイム性を効果的に表現することを可能にする、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提案する。
本開示によれば、第1のユーザの行動の結果として生成される第1の情報を取得する機能と、上記第1の情報に基づいて、上記第1のユーザの行動についてのコメンタリーを生成する機能と、上記コメンタリーを含む第2の情報を上記第1のユーザとは異なる第2のユーザに公開するために出力する機能とを実現するように構成されるプロセッサを含む情報処理装置が提供される。
また、本開示によれば、プロセッサが、第1のユーザの行動の結果として生成される第1の情報を取得することと、上記第1の情報に基づいて、上記第1のユーザの行動についてのコメンタリーを生成することと、上記コメンタリーを含む第2の情報を上記第1のユーザとは異なる第2のユーザに公開するために出力することとを含む情報処理方法が提供される。
また、本開示によれば、第1のユーザの行動の結果として生成される第1の情報を取得する機能と、上記第1の情報に基づいて、上記第1のユーザの行動についてのコメンタリーを生成する機能と、上記コメンタリーを含む第2の情報を上記第1のユーザとは異なる第2のユーザに公開するために出力する機能とをコンピュータに実現させるためのプログラムが提供される。
以上説明したように本開示によれば、ユーザが互いの行動を共有するにあたり、リアルタイム性を効果的に表現することができる。
本開示の一実施形態に係るシステムの概略的な構成を示す図である。 本開示の一実施形態に係るシステムの概略的な機能構成を示すブロック図である。 本開示の一実施形態におけるリスト表示画面の例を示す図である。 本開示の一実施形態における仮想空間表示画面の例を示す図である。 本開示の一実施形態におけるリスト表示画面と仮想空間表示画面との関係について説明するための図である。 本開示の一実施形態における投稿履歴画面の例を示す図である。 本開示の一実施形態における行動まとめ画面の例を示す図である。 本開示の一実施形態においてユーザの行動認識に基づいて生成されるコメンタリーの表示例を示す図である。 本開示の一実施形態においてユーザの画像の投稿に基づいて生成されるコメンタリーの表示例を示す図である。 本開示の一実施形態において表示されるコメンタリーまとめ画像の第1の例を示す図である。 本開示の一実施形態において表示されるコメンタリーまとめ画像の第2の例を示す図である。 本開示の一実施形態において表示されるコメンタリーまとめ画像の第3の例を示す図である。 本開示の一実施形態において表示されるコメンタリーまとめ画像の第4の例を示す図である。 本開示の一実施形態において表示されるコメンタリーまとめ画像の第5の例を示す図である。 本開示の一実施形態において表示されるコメンタリーまとめ画像の第6の例を示す図である。 本開示の一実施形態におけるコメンタリー開始時のダイアログ表示の例を示す図である。 情報処理装置のハードウェア構成を説明するためのブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.システム構成
2.機能構成
3.行動共有の画面表示例
3−1.リスト表示画面
3−2.仮想空間表示画面
3−2.個別情報画面
4.行動認識に基づくコメンタリー
4−1.コメンタリーの表示例
4−2.叙述的コメンタリーの構成例
4−3.論評的コメンタリーの構成例
5.投稿に基づくコメンタリー
5−1.コメンタリーの表示例
6.コメンタリーのまとめ表現
7.コメンタリー開始および終了時の操作
8.ハードウェア構成
9.補足
(1.システム構成)
図1は、本開示の一実施形態に係るシステムの概略的な構成を示す図である。図1を参照すると、本実施形態に係るシステム10は、クライアント装置100と、サーバ装置200とを含む。単一のサーバ装置200、または協働する複数のサーバ装置200によってサーバ20が構成され、サーバ20は、ネットワークを介してクライアント装置100と通信し、クライアント装置100にサービスを提供する。クライアント装置100およびサーバ装置200は、いずれも、後述する情報処理装置のハードウェア構成によって実現されうる。
本実施形態において、クライアント装置100には、複数のクライアント装置100a,100b,100cが含まれる。これらのクライアント装置100は、いずれも異なるユーザによって所持および/または携帯されうる。後述するように、本実施形態では、例えばクライアント装置100bを利用して認識されたユーザの行動(ユーザBの行動とする)に基づいて生成されるオブジェクトが、他のクライアント装置100a,100cおよび/またはクライアント装置100bで仮想空間に表示されうる。このオブジェクトは、ユーザBを表示するオブジェクトでありうる。同様にして、クライアント装置100a,100cを利用して認識された各ユーザの行動(ユーザA、ユーザCの行動とする)に基づいて生成されるオブジェクトも、クライアント装置100a〜100cのそれぞれにおいて仮想空間に表示されうる。
このようにして、本実施形態では、各クライアント装置100において各ユーザの行動を示す情報に基づいて生成されるオブジェクトが配置されることによって、各ユーザが実際にいる場所にかかわらず、仮想空間において各ユーザの行動を共有することができる。
(2.機能構成)
図2は、本開示の一実施形態に係るシステムの概略的な機能構成を示すブロック図である。以下では、図1に示したシステム10において実現される機能について、機能群300,400,500に分けて説明する。
これらの機能群に含まれるそれぞれの機能を、クライアント装置100またはサーバ20のどちらで実現するかは自由である。例えば、機能群300,400がクライアント装置100で実現され、機能群500がサーバ20で実現されてもよい。あるいは、機能群300がクライアント装置100で実現され、機能群400,500がサーバ20で実現されてもよい。さらにいえば、各機能群に含まれる機能が、クライアント装置100とサーバ20とに分散して実現されてもよい。例えば、機能群300に含まれるセンサ310、カメラ330、および投稿機能340がクライアント装置100で実現され、行動認識機能320、および機能群400,500がサーバ20で実現されてもよい。
(機能群300)
機能群300は、ユーザの行動に基づいて情報を生成するための機能群である。機能群300は、センサ310と、行動認識機能320と、カメラ330と、投稿機能340とを含みうる。
センサ310は、例えば、クライアント装置100にかかる加速度を検出する加速度センサを含む。加速度センサによって、例えば、クライアント装置100を携帯しているユーザの運動状態などを認識することができる。センサ310は、加速度センサ以外にも、例えばジャイロセンサ、地磁気センサ、光センサ、音センサ、気圧センサなどの各種センサを含んでもよい。これらのセンサによって、例えば、クライアント装置100の姿勢や向き、周辺環境などを検出することができる。また、センサ310は、ユーザの位置情報を取得するためのGPSセンサやWi−Fi通信モジュールなどの測位手段を含んでもよい。
行動認識機能320は、センサ310の検出結果に基づいて、クライアント装置100のユーザの行動を認識する。センサの検出結果に基づく行動認識の技術については、例えば特開2010−198595号公報、および特開2011−81431号公報などに記載されている技術を利用することができるため、ここでは詳細な説明を省略する。行動認識機能320によって、例えば、ユーザが止まっている、歩いている、走っている、電車に乗っている、車に乗っているといったような行動が認識されうる。また、行動認識機能320は、加速度センサなどの検出結果と、ユーザの位置情報とに基づいて、ユーザが仕事をしているか、自宅にいるか、買い物をしているかといったようなより高度な行動を認識してもよい。ここで、行動認識機能320によって認識されたユーザの行動を示す情報は、行動共有サービス510に提供される。行動認識機能320は、例えばクライアント装置100またはサーバ装置200のプロセッサによって実現される。
カメラ330は、例えば、クライアント装置100に内蔵または外付けされており、ユーザの操作に従って撮像を実行する撮像装置である。投稿機能340は、例えばクライアント装置100の入力装置および出力装置によって実現され、ディスプレイに表示されたGUI(Graphical User Interface)などを介したユーザの入力操作に従って、ソーシャルメディア520にメッセージや画像などを投稿する。ここで、カメラ330は、投稿機能340と連携しており、ユーザがカメラ330を用いて取得した撮像画像が、投稿機能340によってソーシャルメディア520に投稿されてもよい。
(機能群400)
機能群400は、ユーザの行動の結果として生成された情報に基づいて、コメンタリーを含む公開情報を生成するための機能群である。機能群400は、アクティビティ取得機能410と、コメンタリー生成機能430と、画像生成機能450と、出力機能470とを含みうる。これらの機能は、例えば、クライアント装置100またはサーバ装置200のプロセッサによって実現されうる。また、機能群400は、アクティビティDB420と、語彙DB440と、画像DB460とを含みうる。これらの機能は、例えば、クライアント装置100またはサーバ装置200のメモリ、ストレージ装置、またはリムーバブル記録媒体などによって実現されうる。
アクティビティ取得機能410は、第1のユーザの行動の結果として生成される第1の情報を取得する。なお、本明細書において、第1のユーザは、アクティビティ取得機能410による情報の取得の対象になるクライアント装置100のユーザを意味しうる。より具体的には、例えば、アクティビティ取得機能410は、行動認識機能320から情報を取得する。上記の通り、行動認識機能320は、センサ310の検出結果に基づいて、クライアント装置100のユーザの行動を認識する。この行動認識結果が、第1のユーザの行動の結果として生成される第1の情報として、アクティビティ取得機能410によって取得されうる。なお、図示されているように、アクティビティ取得機能410は、行動認識機能320から直接的に情報を取得してもよいし、行動認識機能320によって行動共有サービス510に提供された情報を間接的に取得してもよい。
また、例えば、アクティビティ取得機能410は、ソーシャルメディア520から情報を取得してもよい。上記の通り、ソーシャルメディア520には、投稿機能340によって受け付けられたメッセージや画像などが投稿される。アクティビティ取得機能410は、ユーザの入力操作に従ってソーシャルメディア520に投稿されたメッセージや画像などを、第1のユーザの行動の結果として生成される第1の情報としてソーシャルメディア520から取得する。なお、図示されているように、アクティビティ取得機能410は、ソーシャルメディア520によって受け付けられた投稿の情報を間接的に取得してもよいし、投稿機能340によって投稿が実行されたときに、ソーシャルメディア520への情報の送信に並行して直接的に投稿機能340から情報を取得してもよい。
また、上記の通り、投稿機能340によってソーシャルメディア520に投稿される情報には、ユーザがカメラ330を用いて取得した撮像画像が含まれうる。アクティビティ取得機能410は、投稿された撮像画像についても、上記の第1の情報としてソーシャルメディア520、または投稿機能340から取得してもよい。また、アクティビティ取得機能410は、ユーザがカメラ330を用いて取得したがソーシャルメディア520には投稿しなかった画像の情報をカメラ330から取得してもよい。
この場合、後述するように、アクティビティ取得機能410によって取得された第1の情報に基づいて生成されたコメンタリーを含む第2の情報が他のユーザに公開されることになるため、カメラ330の撮像画像をコメンタリーの生成材料として使用することについて、クライアント装置100のユーザに同意を求める手順が実行されてもよい。なお、行動認識機能320から行動共有サービス510に提供される情報や、投稿機能340によってソーシャルメディア520に投稿される情報は、既に公開を前提としているため、アクティビティ取得機能410がこれらの情報を取得するにあたってユーザの同意は必要とされなくてもよい。ただし、例えば、行動共有サービス510におけるユーザの行動の公開範囲、またはソーシャルメディア520におけるユーザの投稿の公開範囲と、コメンタリーを含む第2の情報の公開範囲とが異なるような場合には、アクティビティ取得機能410が行動認識機能320やソーシャルメディア520などから情報を取得するときにも、ユーザの同意を求める手順が実行されてもよい。
アクティビティDB420には、アクティビティ取得機能410によって取得された第1の情報が一時的に、または継続的に蓄積される。後述するように、第1の情報に基づくコメンタリーは、リアルタイムで取得された情報に基づいて生成されるため、アクティビティDB420への第1の情報の蓄積は一時的なものであってもよい。しかし、例えば、ユーザの過去の行動の履歴から得られる統計的な情報にさらに基づいてコメンタリーを生成するような場合には、アクティビティDB420に継続的に格納された第1の情報の履歴が参照されうる。アクティビティDB420には、例えば、アクティビティ取得機能410によって取得された第1の情報のすべてが継続的に蓄積されていてもよいし、行動認識機能320(または行動共有サービス510)から提供された情報、またはソーシャルメディア520(または投稿機能340)から提供された情報に限定して蓄積されてもよい。また、アクティビティDB420は、必ずしもアクティビティ取得機能410に関連付けられていなくてもよい。例えば、行動認識機能320が認識結果をログとして記録するデータベースが、アクティビティDB420としても用いられてもよい。
コメンタリー生成機能430は、アクティビティ取得機能410によって取得された第1の情報に基づいて、第1のユーザの行動についてのコメンタリーを生成する。ここで、上記の通り、第1の情報は、第1のユーザの行動の結果として生成され、行動認識機能320による第1のユーザの行動認識結果や、第1のユーザによるソーシャルメディア520への投稿などを含みうる。本明細書において、コメンタリー(commentary)は、例えば、第三者的な視点から提供される、ユーザの行動についての叙述(description)および/または論評(comment)を意味しうる。コメンタリーは、ユーザの行動を三人称で叙述する部分を含むが、これにとどまらず、何らかの付加的な(additional)情報を含んでもよい。この付加的な情報は、例えばユーザの行動の叙述に対する単なる合いの手であってもよいし、ユーザの周辺環境やユーザの行動の履歴から得られる統計的な情報に基づく論評であってもよい。なお、こうしたコメンタリーのより具体的な例については後述する。
より具体的には、例えば、コメンタリー生成機能430は、所定の時間(例えば1分)ごとに起動されて、アクティビティ取得機能410によって取得されアクティビティDB420に少なくとも一時的に蓄積されたアクティビティを参照する。コメンタリー生成機能430は、所定の時間に取得されたアクティビティによって所定の条件が満たされた場合に、コメンタリーを生成する。例えば、コメンタリー生成機能430は、行動認識機能320によるユーザの行動認識結果によって示される第1のユーザの行動が変化した場合や、変化せずに所定の時間を超えて継続されている場合に、コメンタリーを生成しうる。また、コメンタリー生成機能430は、第1のユーザの行動が行動認識機能320によって一旦認識された後に事後的に修正された場合や、第1のユーザの行動が所定のパターンに合致した場合に、コメンタリーを生成してもよい。
ここで、第1のユーザの行動の所定のパターンは、例えば、認識された一連の行動(それぞれが独立した行動としても成立する)の発生順序および長さによって規定される。例えば、最初に乗り物(電車、バスなど)の乗車、次に10分未満の歩行/走行、次に10分未満の静止、次にまた乗り物(電車、バスなど)という順序で行動が認識された場合、認識された行動のパターンから、ユーザが乗り物を乗り換えていると推定することができる。従って、このパターンを予めDBに格納しておき、第1のユーザの認識された行動がパターンに一致した場合に、「乗り換え」の行動パターンが発生したことを検出することができる。
また、コメンタリー生成機能430は、投稿機能340によってソーシャルメディア520への投稿が実行されたり、カメラ330によって撮像が実行された場合に、コメンタリーを生成してもよい。投稿に基づくコメンタリーの生成は、上記の所定の時間ごとの起動の際に実行されてもよいし、投稿機能340による投稿などが実行された場合には、所定の時間ごとの起動とは別にコメンタリー生成機能430が起動されてコメンタリーを生成してもよい。
上記のようにコメンタリー生成機能430によって生成されるコメンタリーは、例えばテキストコメンタリーおよび/またはオーディオコメンタリーでありうる。図示された例では、続く画像生成機能450によってコメンタリーを含む画像を生成するために、コメンタリー生成機能430はテキストコメンタリーを生成する。テキストコメンタリーにおいる文言は、語彙DB440に格納された語彙に基づいて決定される。例えば、語彙DB440には、アクティビティ取得機能410などによって与えられる情報と、コメンタリーに含まれる文言との関係を示す情報が格納されていてもよい。例えばこの情報に基づいて、コメンタリー生成機能430は、コメンタリーにユーザの行動に対する付加的な情報を追加する。こうした付加的な情報についても、後述するコメンタリーのより具体的な例において例示される。
なお、ここで、ユーザの行動に基づくコメンタリーの生成は、ユーザによって指定された時間に限って実行されてもよい。つまり、コメンタリー生成機能430は、ユーザによって明示的に指定されたコメンタリーの開始時点と終了時点との間に限って動作してもよい。ユーザは、コメンタリーの開始時点と終了時点とをその都度操作によって指定してもよいし、開始時点でコメンタリーの持続時間を指定してもよいし、タイマーによって定期的に所定の時間のコメンタリーを実行するように設定してもよい。
画像生成機能450は、コメンタリー生成機能430によって生成されたコメンタリーを含む画像(以下、コメンタリー画像ともいう)を生成する。例えば、画像生成機能450は、コメンタリー生成機能430によって生成されたテキストコメンタリーを、仮想的な話者に関連付けて配置した画像を生成する。これによって、例えば、仮想的な話者がユーザの行動についての実況放送(running commentary)をしているような画像が生成されうる。
また、画像生成機能450は、所定の時間にコメンタリー生成機能430によって生成された複数のコメンタリーをまとめて表現する画像を生成してもよい。この場合、生成される画像は、動画像であってもよい。このようなまとめ画像は、例えばコメンタリー生成機能430が動作する所定の時間の終了時に生成されうる。つまり、まとめ画像は、ユーザ操作によって指定されたコメンタリーの終了時点や、タイマーによって指定されたコメンタリーの終了時点で生成されうる。あるいは、まとめ画像は、コメンタリーの途中で、所定の時間(例えば3時間など)ごと、またはまとめ画像のより具体的な例についても後述する。
画像DB460には、画像生成機能450によるコメンタリー画像の素材となる画像が格納されている。例えば、画像DB460には、コメンタリーの仮想的な話者を示す画像が格納されていてもよい。この場合、話者の画像は、例えばコメンタリーに与えられる付加的な情報などに応じて、表情などが変化してもよい。それゆえ、画像DB460には、複数の表情および/またはポーズの話者の画像が格納されていてもよい。また、画像DB460には、コメンタリーの内容と、複数の話者の画像のそれぞれとの関係を示す情報が格納されていてもよい。
出力機能470は、画像生成機能450によって生成された画像を含む情報(第2の情報)をソーシャルメディア520に出力する。ソーシャルメディア520において、第2の情報は、上記の第1のユーザとは異なる第2のユーザに公開されうる。ここで、第2の情報は、画像生成機能450によって生成された画像に加えて、コメンタリー生成機能430によって生成されたコメンタリーのテキストを含んでいてもよい。
(機能群500)
機能群500は、行動共有サービス510と、ソーシャルメディア520とを含む。これらの機能は、例えば、サーバ20と、クライアント装置100とに分散して実現され、複数のクライアント装置100のユーザの行動や投稿を共有する機能を提供する。
行動共有サービス510は、予め設定されたユーザ間で、互いの行動を示す行動情報を共有する機能を提供する。例えば、行動共有サービス510では、各ユーザの行動認識機能320から提供されたユーザの行動を示す情報が保持され、各ユーザの共有設定において共有可能とされた他のユーザに対して公開される。公開にあたって、各ユーザの行動は、例えばテキストで表現されてもよいし、後述するようなリスト表示画面や仮想空間表示画面においてユーザオブジェクトによって表現されてもよい。行動共有サービス510は、所定の期間(例えば1日)のユーザの行動をまとめた情報を生成してユーザ自身や他のユーザに公開する機能をさらに有してもよい。また、行動共有サービス510は、行動に関する所定の項目についてランキング情報を生成する機能を有してもよい。ランキング情報は、例えばデータを匿名化した上で、共有設定に関わらず全ユーザを対象に生成されてもよい。なお、こうしたまとめ情報やランキング情報の例についても後述する。例えば、行動共有サービス510は、まとめ情報やランキング情報を、ソーシャルメディア520に投稿された情報と関連付けてユーザに提示してもよい。また、例えば、行動共有サービス510は、仮想空間表示画面やまとめ情報などのスナップショットを、ソーシャルメディアに520に投稿可能であってもよい。
ソーシャルメディア520は、ユーザからの投稿を、予め設定された他のユーザに向けて、または全ユーザに向けて公開する機能を提供する。例えば、ソーシャルメディア520では、ユーザが投稿機能340によって投稿したメッセージや画像などを、ユーザがした設定に従って、ソーシャルメディア520を利用するすべてのユーザ、またはユーザが指定した一部のユーザに公開する。ソーシャルメディア520では、ユーザが投稿したメッセージや画像などに加えて、例えばユーザのプロフィールなども公開されうる。また、上記のように、ソーシャルメディア520には、出力機能470によって、第1のユーザの行動に対するコメンタリーを含む第2の情報として画像が出力される。この画像は、例えば第1のユーザによる投稿として扱われ、第1のユーザがした設定に従って、第1のユーザとは異なる第2のユーザに公開される。上記の通り、第2のユーザは、ソーシャルメディア520を利用するすべてのユーザであってもよく、第1のユーザが指定した一部のユーザであってもよい。
また、上述の通り、ソーシャルメディア520への第1のユーザの投稿自体が、アクティビティ取得機能410に向けて、第1のユーザの行動の結果として生成される第1の情報として提供される。ここで、ソーシャルメディア520における投稿のうち、行動共有サービス510や出力機能470によって間接的に投稿されたものについては、アクティビティ取得機能410に情報が提供されなくてもよい。
(3.行動共有の画面表示例)
続いて、本開示の一実施形態における行動共有の画面表示例について説明する。以下で例示される画面は、例えば、上記の行動共有サービス510によって提供されるデータに基づいて、クライアント装置100において表示される。
(3−1.リスト表示画面)
図3は、本開示の一実施形態におけるリスト表示画面の例を示す図である。図3を参照すると、クライアント装置100のディスプレイに表示されるリスト表示画面1100には、ユーザ情報1101、行動ステータス1103、およびユーザオブジェクト1105を含むリストと、行動情報利用設定ボタン1107と、投稿ボタン1109とが含まれる。
ユーザ情報1101は、例えば図示されているようにサムネイル画像、ユーザ名、およびユーザIDを含む。これらのうちのいずれかがユーザ情報1101として表示されてもよいし、これらに加えて他の情報がユーザ情報1101として表示されてもよい。ユーザ情報1101は、例えば行動共有サービス510のデータベースに登録されたユーザのアカウント情報に基づいて表示されうる。
行動ステータス1103は、行動認識機能320によって認識された各ユーザの行動を、テキストとして表現する。図示された例の行動ステータス1103によって示されているように、本実施形態では、例えば、立っている、走っている、歩いている、座っている、といったようなユーザの動きや、電車に乗っている、自動車に乗っている、といったような乗り物への搭乗、座って端末を見ている、端末を放置しているといった端末に関係した動作などが、ユーザの行動として認識されうる。なお、本開示の実施形態で認識可能な行動はこれらの例には限られず、例えば特開2010−198595号公報や特開2011−81431号公報などで紹介されているような、多種多様な行動を認識することが可能でありうる。
ユーザオブジェクト1105は、上記の行動認識機能320によって認識された各ユーザの行動を、そのポーズ(形状)または動きによって表現する。つまり、ユーザオブジェクト1105は、ユーザの行動を示す行動情報に基づいて生成され、表示部に表示されて当該ユーザを表す。図示された例によって示されているように、ユーザオブジェクト1105は、例えば人型であり、ユーザの行動(例えば立っている、走っている、など)に対応したポーズをとることによって、ユーザの行動を表現してもよい。あるいは、ユーザが乗り物に搭乗している場合、ユーザオブジェクト1105はその乗り物の形状で表示されてもよい。また、ユーザが端末を放置していたり、ユーザの行動が識別されない場合(不明)、ユーザオブジェクト1105は人や乗り物の形ではなく、正体不明の物体の形や、放置された端末装置の形であってもよい。
行動情報利用設定ボタン1107は、クライアント装置100のユーザが、行動認識機能320による行動認識のオン/オフ、および認識によって取得された行動情報を公開するか否かを設定するためのボタンである。図示された例の状態では「常に公開」となっているが、他に「オフ」(行動認識を利用しない)、「非公開」(行動認識は利用するが、共有設定がされたユーザを含めてだれにも公開しない)などの選択肢がありうる。また、行動情報を公開する場合も、例えば「毎日7:00〜21:00」や、「月〜金の24時間」、「土日の24時間」など、時間帯や曜日を限定した公開の設定が可能であってもよい。
投稿ボタン1109は、クライアント装置100のユーザがソーシャルメディア520にメッセージを投稿する機能を起動するためのボタンである。ユーザが投稿したメッセージは、後述する投稿履歴画面で表示される。このように、クライアント装置100での表示画面において、行動共有サービス510のための画面要素と、ソーシャルメディア520のための画面要素は混交していてもよい。
以上で説明したようなリスト表示画面1100によって、クライアント装置100のユーザは、多くのユーザの行動ステータス1103やユーザオブジェクト1105を一覧することができる。リスト表示画面1100では、例えば、行動ステータス1103やユーザオブジェクト1105、またはこれらを含むリストの行を選択することによって、各ユーザの個別情報画面が表示されてもよい。
(3−2.仮想空間表示画面)
図4は、本開示の一実施形態における仮想空間表示画面の例を示す図である。図4を参照すると、クライアント装置100のディスプレイに表示される仮想空間表示画面1200には、ユーザオブジェクト1201、ユーザ情報1203、乗り物オブジェクト1205、および仮想空間1207が含まれる。さらに、仮想空間表示画面1200には、行動情報利用設定ボタン1107および投稿ボタン1109も表示される。
なお、図4に示す仮想空間表示画面1200は、図3に示したリスト表示画面1100とは異なる時点での各ユーザの行動情報に基づいて表示されている。従って、図3に示す例における各ユーザの行動状態と、図4に示す各ユーザの行動状態とは必ずしも一致しない。
ユーザオブジェクト1201は、リスト表示画面1100に表示されたものと同様のオブジェクトである。つまり、ユーザオブジェクト1201は、各ユーザの行動を示す行動情報に基づいて生成され、表示部に表示されて当該ユーザを表す。仮想空間表示画面1200では、主にユーザオブジェクト1201によって各ユーザの行動が表示される。ここで、それぞれのユーザオブジェクト1201は、そのポーズ(形状)または動きに合った仮想空間1207内の位置に配置されうる。例えば、座っているユーザオブジェクト1201はベンチの付近に配置され、立っているユーザオブジェクト1201は路傍に配置される。また、リスト表示画面1100では各種の乗り物の形状であったユーザオブジェクト1201は、人型になって後述する乗り物オブジェクトの中に配置されてもよい。また、正体不明の物体の形や放置された端末の形のユーザオブジェクト1201は、空に浮かんで表示されてもよい。
ユーザ情報1203は、例えば図示されているようにユーザIDを含む。ユーザ情報として、この他に、またはこれに代えてユーザ名やサムネイル画像などが表示されてもよいが、本実施形態における仮想空間表示画面1200では、仮想空間1207や他のユーザオブジェクト1201の表示の邪魔にならないように、ユーザIDだけがユーザ情報1203として表示されている。
乗り物オブジェクト1205は、仮想空間1207に配置され、行動情報によって乗り物に乗っていることが示されるユーザのユーザオブジェクト1201を収容する。図示された例では、電車の乗り物オブジェクト1205と、自動車の乗り物オブジェクト1205とが仮想空間1207に配置されている。他にも、例えばバス、自転車、飛行機、エレベータなどの乗り物オブジェクト1205が表示されてもよい。乗り物オブジェクト1205は、仮想空間1207内のそれぞれの乗り物に応じた位置に配置されうる。例えば、バスや自動車、自転車などの乗り物オブジェクト1205は道路に配置され、電車の乗り物オブジェクト1205は線路上に配置され、エレベータの乗り物オブジェクト1205は建物の中に配置されうる。
仮想空間1207は、上記のユーザオブジェクト1201や乗り物オブジェクト1205などが配置される空間である。仮想空間1207は、例えば、予め用意されたいくつかのテーマの中からクライアント装置100のユーザが選択したテーマに基づいて構成されてもよい。また、仮想空間1207は、例えばさまざまなポーズ(形状)や動きのユーザオブジェクト1201や、さまざまな乗り物オブジェクト1205が配置されるための要素を含んでいてもよい。例えば、図示された例では、仮想空間1207に、座っているユーザオブジェクト1201が配置されるためのベンチや、車の乗り物オブジェクト1205が配置されるための道路などの要素が含まれる。
図示されているように、仮想空間表示画面1200にも、上記のリスト表示画面1100と同様の行動情報利用設定ボタン1107と投稿ボタン1109とが表示されうる。さらに、図示していないが、仮想空間表示画面1200には、ユーザオブジェクト1201やユーザ情報1203、乗り物オブジェクト1205を含む仮想空間1207のスナップショットを取得して、それを添付画像としてユーザがソーシャルメディア520にメッセージを投稿するための別の投稿ボタンが表示されてもよい。
以上で説明したような仮想空間表示画面1200によって、クライアント装置100のユーザは、各ユーザのユーザオブジェクト1201を同じ仮想空間1207の中に配置して観察することができ、他のユーザに対して、例えば、あたかも同じ町で生活しているかのような親近感を得られる。仮想空間表示画面1200では、例えば、ユーザオブジェクト1201やユーザ情報1203を選択することによって、各ユーザの個別情報画面が表示されてもよい。
図5は、本開示の一実施形態におけるリスト表示画面と仮想空間表示画面との関係について説明するための図である。図5に示されるように、本実施形態において、ユーザは、リスト表示画面1100に表示されたユーザオブジェクト1105を、いわゆるドラッグ&ドロップの操作によって仮想空間表示画面1200に移動させることによって、仮想空間表示画面1200にそのユーザのユーザオブジェクト1201を追加することができる。なお、図では、ドラッグ中のユーザオブジェクト1150が表示されている。このように、リスト表示画面1100から仮想空間表示画面1200までドラッグされている間、ユーザオブジェクト1150は、ユーザオブジェクト1105やユーザオブジェクト1201とは異なるポーズ(形状)または動きで表示されてもよい。
図示された例によって示されているように、本実施形態では、リスト表示画面1100で行動ステータス1103やユーザオブジェクト1105が表示されているユーザのうち、一部のユーザだけが、仮想空間表示画面1200においてユーザオブジェクト1201としても表示される。例えば仮想空間表示画面1200においてユーザオブジェクト1201が互いに干渉したり、仮想空間1207が見づらくなったりしないように、仮想空間表示画面1200に追加可能なユーザオブジェクト1201の数に上限が設定されてもよい。なお、他の実施形態では、リスト表示画面1100で行動ステータス1103やユーザオブジェクト1105が表示されたユーザのすべてを、仮想空間表示画面1200でもユーザオブジェクト1201として表示させることが可能であってもよい。
(3−2.個別情報画面)
図6は、本開示の一実施形態における投稿履歴画面の例を示す図である。図6を参照すると、クライアント装置100のディスプレイに表示される投稿履歴画面1300には、ユーザ情報1301、行動ステータス1303、ユーザオブジェクト1305、投稿メッセージ1307、行動アイコン1309、まとめボタン1311、および投稿履歴ボタン1313が含まれる。
投稿履歴画面1300は、本実施形態における個別情報画面の1つである。投稿履歴画面1300は、例えば、リスト表示画面1100で行動ステータス1103やユーザオブジェクト1105、またはこれらを含むリストの行を選択することによって表示されうる。また、投稿履歴画面1300は、仮想空間表示画面1200でユーザオブジェクト1201やユーザ情報1203を選択することによって表示されてもよい。
ユーザ情報1301は、上記で図3を参照して説明したリスト表示画面1100のユーザ情報1101と同様でありうる。ただし、投稿履歴画面1300は各ユーザの個別情報画面であるため、ユーザ情報1301は1人のユーザについて表示される。
行動ステータス1303およびユーザオブジェクト1305も、リスト表示画面1100の行動ステータス1103とユーザオブジェクト1105と同様でありうる。ただし、投稿履歴画面1300は各ユーザの個別情報画面であるため、行動ステータス1303およびユーザオブジェクト1305は1人のユーザについて表示される。
投稿メッセージ1307は、投稿履歴画面1300の表示対象になっているユーザが過去にソーシャルメディア520に投稿したメッセージである。投稿メッセージ1307は、例えば時系列で配列され、ユーザが表示をスクロールさせることによって順次表示される。
行動アイコン1309は、投稿メッセージ1307が投稿された時刻に最も近い時刻で認識されたユーザの行動を示すアイコンである。行動アイコン1309は、例えば、投稿メッセージ1307が投稿されたときに表示されていた(であろう)ユーザオブジェクト1105と同じものであってもよいし、その後のさらなる処理によって確定されたユーザの行動を示すアイコンであってもよい。この場合、行動アイコン1309は、投稿メッセージ1307が投稿されたときのユーザオブジェクト1105とは異なる行動を示しうる。
まとめボタン1311は、後述する行動まとめ画面1400に表示を切り替えるためのボタンである。本実施形態では、ユーザの個別情報画面として投稿履歴画面1300と行動まとめ画面1400とが表示されるが、まとめボタン1311と投稿履歴ボタン1313とを用いて、これらの画面を相互に切り替えることができる。従って、投稿履歴画面1300では、投稿履歴ボタン1313が選択された状態で表示されている。
以上で説明したような投稿履歴画面1300によって、クライアント装置100のユーザは、各ユーザの行動を、そのユーザが投稿したメッセージとともに参照することができる。
図7は、本開示の一実施形態における行動まとめ画面の例を示す図である。図7を参照すると、クライアント装置100のディスプレイに表示される行動まとめ画面1400には、ユーザ情報1301、行動ステータス1303、ユーザオブジェクト1305、行動アイコン1309、まとめボタン1311、および投稿履歴ボタン1313という投稿履歴画面1300と同様の要素に加えて、ランキング1401、まとめグラフ1403、およびエクササイズグラフ1405が表示される。
行動まとめ画面1400は、本実施形態における投稿履歴画面1300とは別の個別情報画面である。行動まとめ画面1400も、投稿履歴画面1300と同様に、例えば、リスト表示画面1100で行動ステータス1103やユーザオブジェクト1105、またはこれらを含むリストの行を選択することによって表示されうる。また、行動まとめ画面1400は、仮想空間表示画面1200でユーザオブジェクト1201やユーザ情報1203を選択することによって表示されてもよい。上述の通り、投稿履歴画面1300と、行動まとめ画面1400とは、まとめボタン1311と投稿履歴ボタン1313とを用いて相互に切り替えて表示させることが可能である。
ランキング1401は、例えば行動共有サービス510において生成されたランキング情報に基づいて表示される。ランキングは、例えば図示されている例の「24時間での歩数」、「24時間での徒歩時間」、および「24時間での電車の乗車時間」のように、ユーザの行動情報を統計処理することによって抽出される項目を含みうる。ランキング1401の更新間隔は自由に設定されうる。更新間隔は、必ずしもランキング項目のサンプル幅(上記の例では24時間)に関係がなくてもよい。例えば上記の例では、ランキング1401が1日(24時間)単位で更新されてもよく、また1時間単位で更新されてもよい。例えば10:00にランキング1401が更新される場合、「24時間」は前日の10:00から当日の10:00までを意味しうる。
まとめグラフ1403は、ユーザの1日の行動をまとめたグラフである。図示された例では、ある1日(図示された例では2013年3月4日)において認識されたユーザの行動の種類がグラフとして表示されている。エクササイズグラフ1405は、ユーザの1日の行動情報から推定される運動の状態を示すグラフである。図では途中で切れているが、例えばユーザが歩いた時間や走った時間を1時間ごとにグラフ化したものが、エクササイズグラフ1405として表示される。このように、ユーザの行動を所定の時間間隔でまとめて表現する情報は、図示された例のまとめグラフ1403やエクササイズグラフ1405には限られず、他にもどのような形のグラフであってもよい。また、ユーザの行動をまとめるための時間間隔も、1日には限られず、1週間や1カ月などより長い時間でもよく、また12時間、6時間などより短い時間であってもよい。
行動アイコン1309は、投稿履歴画面1300に表示されるものと同様にユーザの行動を示すアイコンである。ただし、行動まとめ画面1400では、まとめグラフ1403やエクササイズグラフ1405といった、ユーザの行動をまとめて表現する情報の対象になっている時間(図示された例であれば2013年3月4日)に認識されたユーザの行動を示すアイコンが行動アイコン1309として表示されうる。
以上で説明したような行動まとめ画面1400によって、クライアント装置100のユーザは、各ユーザの行動を所定の時間でまとめて表現した情報を参照することができる。
(4.行動認識に基づくコメンタリー)
続いて、本開示の一実施形態においてユーザの行動認識に基づいて生成されるコメンタリーについて、さらに説明する。上述の通り、本実施形態では、ユーザ間で互いの行動が共有されるのに加えて、各ユーザの行動に対するコメンタリーが生成され、コメンタリーに基づいて生成された画像を含む情報がソーシャルメディア520に投稿される。
(4−1.コメンタリーの表示例)
図8は、本開示の一実施形態においてユーザの行動認識に基づいて生成されるコメンタリーの表示例を示す図である。図8を参照すると、コメンタリー情報2100には、ユーザ情報2101、叙述部分テキスト2103、論評部分テキスト2105、タイトル2107、およびコメンタリー画像2109が含まれる。
コメンタリー情報2100は、上述のように出力機能470によって出力された情報(第2の情報)に基づいて、例えばソーシャルメディア520のタイムラインなどにおいて表示される。図示された例において、コメンタリー情報2100はメッセージと画像とを含む。他の例において、コメンタリー情報2100は、メッセージまたは画像のいずれかだけを含んでもよい。
ユーザ情報2101は、例えば図示されているようにサムネイル画像、ユーザ名、およびユーザIDを含む。これらのうちのいずれかがユーザ情報2101として表示されてもよいし、これらに加えて他の情報がユーザ情報2101として表示されてもよい。ユーザ情報が2101は、例えばソーシャルメディア520のデータベースに登録されたユーザのアカウント情報に基づいて表示されうる。
叙述部分テキスト2103は、コメンタリーに含まれる第1の部分であり、ユーザの行動に対する叙述的コメンタリーである。図示された例において、叙述部分テキスト2103は、「@jumpin_jackさんは まず 品川駅あたりから 歩きはじめましたね」のように、コメンタリーの対象であるユーザ名と、ユーザの現在地、およびユーザの行動をシンプルに叙述している。この文章は、例えば、「@jumpin_jackさんは」という主部に続いて、ユーザの状況やコメンタリーの履歴などによって選択または決定される前置き部2131(「まず」)、位置特定部2133(「品川駅あたりから」)、および行動特定部2135(「歩きはじめましたね」)を含む。なお、これらの各部のより具体的な例については後述する。
図示された例では、叙述部分テキスト2103には、付加的な情報はほとんど含まれていない。しかし、他の例では、叙述部分テキスト2103にも付加的な情報が含まれてもよい。例えば、叙述部分テキスト2103には、ユーザがある行動を所定の時間を超えて継続している場合、例えば行動特定部2135で、「1時間走っていますね」などのように、行動が継続されている時間の情報が含まれてもよい。また、例えば、ユーザが歩いている/走っている場合、単位時間あたりの歩数や、歩幅などに基づいて歩き方/走り方を推測し、それに対応する文言が行動特定部2135に追加されてもよい。例えば、単位時間あたりの歩数が少ない場合、ゆっくり歩いていると推定されるため、「『だらだら』歩いていますね」という行動特定部2135が生成されうる。また、単位時間あたりの歩数が多い場合、「『颯爽と』歩いていますね」という行動特定部2135が生成されうる。歩幅が狭く、単位時間あたりの歩数が多い場合、「『とことこ』歩いていますね」という行動特定部2135が生成されうる。なお、上記の例における歩数や歩幅の判定の閾値は、各ユーザの平均値などに基づいて個人化されていてもよい。
論評部分テキスト2105は、コメンタリーに含まれる第2の部分であり、ユーザの行動に対する論評的コメンタリーである。図示された例において、論評部分テキスト2105は、「ほんとですね」のように、叙述部分テキスト2103によるユーザの行動の叙述に対して、シンプルなコメントを加えている。この文章は、例えば、ユーザの状況やコメンタリーの履歴などによって選択または決定されるコメント部2151(「ほんとですね」)を含む。なお、コメント部2151のより具体的な例についても後述する。
図示された例において、論評部分テキスト2105は、叙述部分テキスト2103によって示されるユーザの行動に対して、コメントという形で付加的な情報を含んでいる。図示された例におけるコメントには実質的な意味はないが、他の例では、論評部分テキスト2105は、より意味深い付加的な情報を含んでもよい。例えば、論評部分テキスト2105には、ユーザの過去の行動の履歴から得られる統計的な情報に基づく情報を含んでもよい。例えば、現在のユーザの行動が所定の期間を超えて習慣的に継続されている場合、「1週間続いていますね」などのように、行動が継続されている期間の情報に基づいてコメント部2151が生成されてもよい。また、例えば、現在所定の時間を超えて継続されているユーザの行動について、過去の履歴における最長継続時間が記録されている場合、「これまでの最長は2012年9月17日の2時間26分ですね」のように、過去の最長継続時間などの情報に基づいてコメント部2151が生成されてもよい。
上記の叙述部分テキスト2103と論評部分テキスト2105とは、ダイアログを構成している。つまり、ある時点でのユーザの行動について生成されたコメンタリーは、叙述部分テキスト2103と、それに対応する論評部分テキスト2105とを含んでいる。なお、他の例では、ある時点でのユーザの行動について、叙述部分テキスト(1回目)、論評部分テキスト、叙述部分テキスト(2回目)、といったように、より長いダイアログを含むコメンタリーが生成されてもよい。
タイトル2107は、例えば後述するようにコメンタリー開始時のユーザの入力に基づいて設定され、図示されているようにコメンタリー画像2109のキャプションとして表示されてもよい。タイトル2107は、例えば図示されているようにユーザ情報のアイコンとともに表示されてもよく、また図示されているように日付や時刻とともに表示されてもよい。
コメンタリー画像2109は、上記の画像生成機能450によって生成された画像である。図示された例において、コメンタリー画像2109には、放送席にいるアナウンサーとコメンテータとをそれぞれ表現する第1の話者画像2111および第2の話者画像2113とが描かれ、彼らのダイアログとして第1の吹き出し2115および第2の吹き出し2117が描かれている。例えばこのようなコメンタリー画像2109をコメンタリー情報2100に含めることによって、あたかもユーザの行動が実況中継されているような雰囲気を出すことができ、これを閲覧する他のユーザに向けてリアルタイム性を効果的に表現することが可能になる。
ここで、第1の吹き出し2115および第2の吹き出し2117には、上記の叙述部分テキスト2103および論評部分テキスト2105にそれぞれ対応するテキストが表示される。なお、吹き出しにはスペースの制約があるため、それぞれの吹き出しに表示されるテキストは、叙述部分テキスト2103や論評部分テキスト2105に比べて短縮されていてもよい。図示された例では、第1の吹き出し2115に表示されているテキストについて、叙述部分テキスト2103における主部(「@jumpin_jackさんは」)が省略されている。
(4−2.叙述的コメンタリーの構成例)
(ユーザの行動が変化した場合)
上述のように、例えば、コメンタリー生成機能430は、行動認識機能320による行動認識結果によって示されるユーザの行動が変化した場合にコメンタリーを生成する。この場合には、行動認識機能320によってユーザの新たな行動が認識された場合に加え、行動認識機能320が一旦認識したユーザの行動を訂正した場合も含まれる。
例えば、コメンタリーの開始後、最初に認識されたユーザの行動について、コメンタリー生成機能430は、語彙DB440に格納された「まず」、「早々に」、「ひとまず」、「すぐに」などといったテキストを前置き部2131として選択する。また、コメンタリー生成機能430は、「自転車に乗り始めたようです」、「たたずみはじめました」のように、「〜し始めた」という意味をもつ文言で行動特定部2135を構成する。なお、位置特定部2133のテキストも、行動特定部2135が「自転車に乗り始めたようです」であれば「品川駅あたりから」になり、行動特定部2135が「たたずみはじめました」であれば「品川駅あたりで」になる、といったように、行動特定部2135によって表現される行動の内容、およびそれが「〜し始めた」という意味をもつ文言が否か、などに応じて、語尾が変化してもよい。
一方、コメンタリーの途中でユーザの行動が変化した場合、コメンタリー生成機能430は、語彙DB440に格納された「そして」、「さらに」、「次に」などといったテキストを前置き部2131として選択する。また、コメンタリー生成機能430は、「自転車のようです」、「たたずんでいます」のように、必ずしも「〜し始めた」という意味をもたない文言で行動特定部2135を構成する。位置特定部2133については最初に認識された行動の例と同様である。また、一旦認識したユーザの行動が訂正された場合、コメンタリー生成機能430は、語彙DB440に格納された「間違いで」、「違っていました」、「誤りでした」、「間違いでした」などといったテキストを前置き部2131として選択する。位置特定部2133および行動特定部2135については、行動が変化した場合の例と同様である。
(ユーザの行動が継続している場合)
また、例えば、コメンタリー生成機能430は、行動認識機能320によるユーザの行動認識結果によって示されるユーザの行動が変化せずに所定の時間を超えて継続されている場合にもコメンタリーを生成する。
この場合、コメンタリー生成機能430は、語彙DB440に格納された「まだ」、「しばらく」、「さっきから」などといったテキストを前置き部2131として選択する。ユーザの行動がさらに長く継続されている場合、コメンタリー生成機能430は、語彙DB440に格納された「ずいぶん長く」、「すごく長く」、「だいぶ長く」などといったテキストを前置き部2131として選択する。また、コメンタリー生成機能430は、「自転車に乗り続けています」、「歩き続けています」のように、「〜し続けている」という意味をもつ文言で行動特定部2135を構成する。位置特定部2133については、上記の行動が変化した場合の例と同様である。
ここで、位置特定部2133に含まれるユーザの現在地(具体的な場所の名前)は、例えば、センサ310に含まれるGPSセンサなどによって取得される緯度および経度の情報基づいて逆ジオコーディングを実行することによって取得される。ユーザの現在地は、例えば図示された例のように、駅名やランドマーク名、その他の地名などによって具体的に表現されてもよいし、「自宅」や「職場」などのように抽象的に表現されてもよい。ユーザは、現在地の表現方法を選択可能であってもよい。
(4−3.論評的コメンタリーの構成例)
上記で図8に示したコメンタリー情報2100で、論評部分テキスト2103として例示された論評的コメンタリーは、例えば上述した叙述的コメンタリーとは異なる条件に基づいて生成されうる。以下に、一例として、論評的コメンタリーの生成条件を示す。なお、ある例において、説明される生成条件は、説明される順番に優先的に適用されてもよい。
まず、論評的コメンタリーは、ユーザの行動が珍しいか否かに応じて生成されてもよい。例えば、ユーザの行動が珍しい場合(例えば、行動認識では認識が難しいエレベータに乗っていることが認識された場合や、電車、バス、車以外の乗り物に乗っていることが認識された場合など)、コメンタリー生成機能430は、語彙DB440に格納された「キター」、「これは…」、「おお、すごい…」などといったテキストをコメント部2151として選択してもよい。
次に、論評的コメンタリーは、ユーザの行動が所定のパターンに合致したことによってコメンタリーが生成されたが否かに応じて生成されてもよい。例えば、上述した「乗り換え」の行動パターンが発生したことによってコメンタリーが生成された場合、「乗り換えですね」、「乗り換えかな?」などといったコメント部2151が生成されうる。この場合、例えば、叙述的コメンタリーでは、認識されたユーザの行動がそのまま叙述されていてもよい。例えば、乗り換えの場合、乗り物、歩行、静止、乗り物という行動の変化に伴って順次コメンタリーが生成され、最後の「乗り物」で「乗り換え」の行動パターンが確定したときに、「乗り換えですね」などといったコメント部2151を含む論評的コメンタリーが生成される。
次に、論評的コメンタリーは、ユーザの継続時間に応じて生成されてもよい。例えば、ユーザの行動が所定の時間を超えて継続されていることによってコメンタリーが生成された場合、継続時間に応じて、「長いですね」などといったコメント部2151が生成されうる。ユーザの行動がさらに長い時間継続された場合、論評的コメンタリーが生成されず、コメンタリー情報2100に含まれるコメンタリー画像2109でも第2の話者画像2113が表示されなくなってもよい。なお、このような表示は、ユーザが同じ行動をあまりにも長く続けているために、コメンテータが飽きていなくなってしまったことを表現している。このような他の表現として、第2の話者画像2113がスマートフォンを操作し始める(コメント以外のことをしている)などの演出が表示されてもよい。
次に、論評的コメンタリーは、コメンタリーが生成された時間帯に応じて生成されてもよい。例えば、コメンタリーが朝に生成された場合、コメント部2151は、「朝ですね」「おはようございます」などのように、認識されたユーザの行動とは関係なく朝の挨拶などをするテキストであってもよい。また、例えば、コメンタリーが深夜に生成された場合、「こんばんは」、「あやしいですね」(例えば、ユーザが通常は深夜にしないような行動をしている場合)などといったコメント部2151が生成されうる。ここで、論評的コメンタリーの生成条件として用いられる時間帯は、例えば、朝が5:00〜9:59、昼が10:00〜14:59、夜が17:00〜22:59、深夜が23:00〜2:59といったように、24時間の中で間欠的に設定されてもよい。時間帯が設定されていない時間は、例えば場合によって時間帯の捉え方が異なる時間である。時間帯を必ずしも無理にすべての時間に設定しないことによって、時間帯に言及する場合の論評的コメンタリーをより自然に生成することができる。
上記のいずれの条件にもあてはまらないような場合、論評的コメンタリーは、「はい」、「そうですね」、「ほんとですね」のように、シンプルな合いの手として生成されてもよい。なお、ここで説明したそれぞれの場合において、論評的コメンタリーは、先に説明したような付加的な情報(統計的な情報に基づく情報など)をさらに含んでもよい。
なお、上記の例とは異なる例として、コメンタリーは、必ずしも叙述的な部分と論評的な部分とに分かれていなくてもよい。例えば、画像において、コメンタリーは、単一の話者に関連づけられた吹き出しによって表現され、その話者の一人語りとしてコメンタリーが進行してもよい。また、コメンタリーに含まれる情報は、上記の例には限られず、例えば、他のユーザのソーシャルメディア520への投稿に基づいて、「たった今、@Johnny_Bさんから『がんばれ』とお便りが」といったようなコメンタリーが生成されてもよい。また、例えば、他のサービスなどから取得されたユーザの環境情報(天候、気温など)に基づいて、「雨の中がんばるね」といったようなコメンタリーが生成されてもよい。
また、上記の例では、主にテキストコメンタリーが生成される場合について説明したが、他の例では、テキストコメンタリーに代えて、またはこれとともにオーディオコメンタリーが生成されてもよい。オーディオコメンタリーの内容は、例えば、上記の例において第1の吹き出し2115や第2の吹き出し2117に表示されたようなテキストであってもよいし、これらとは異なるテキストであってもよい。また、メッセージや画像の投稿先は必ずしもソーシャルメディア520でなくてよく、例えば既存とは異なる独自のサービスであってもよい。
(5.投稿に基づくコメンタリー)
続いて、本開示の一実施形態において、ユーザのソーシャルメディアへの投稿などに基づいて生成されるコメンタリーについて、さらに説明する。上述の通り、本実施形態では、ユーザがソーシャルメディアにメッセージや画像を投稿した場合および/またはクライアント装置100において画像が撮像された場合などにもコメンタリーが生成され、コメンタリーに基づいて生成された画像を含む情報がソーシャルメディア520に投稿されうる。
(5−1.コメンタリーの表示例)
図9は、本開示の一実施形態においてユーザの画像の投稿に基づいて生成されるコメンタリーの表示例を示す図である。図9を参照すると、コメンタリー情報2200には、上記の行動認識に基づくコメンタリーと同様のタイトル2107、およびコメンタリー画像2209が含まれる。コメンタリー画像2209には、第1の話者画像2211、第2の話者画像2213、第1の吹き出し2215、および第2の吹き出し2217に加えて、投稿された画像2219が含まれる。
コメンタリー情報2200も、出力機能470によって出力された情報(第2の情報)に基づいて、例えばソーシャルメディア520のタイムラインなどにおいて表示される。図示された例において、コメンタリー情報2200はタイトル2107とコメンタリー画像2209とを含む。他の例において、コメンタリー情報2200は、さらにユーザ情報2101や叙述部分テキスト2103、論評部分テキスト2105などを含んでもよい。
画像2219は、上記の通り、ユーザによってソーシャルメディア520に投稿された画像である。図示された例では、画像2219が、コメンタリー画像2209において第1の話者画像2211と第2の話者画像2213との中間付近に配置され、コメンタリー画像2209は、放送席にいるアナウンサーとコメンテータとが画像2219について会話している様子を表現している。このようなコメンタリー画像2209において、第1の話者画像2211および第2の話者画像2213は、例えば画像2219に注目しているように描かれてもよい。
また、第1の吹き出し2215および第2の吹き出し2217によって表示されるコメンタリーのテキストも、画像2219に関連して構成されうる。例えば、第1の吹き出し2215には、図示された例の「これが現場の写真です」の他に、例えば「これが証拠の品だ!」、「これが見つかったぞ!」、「こんなものが!」のように、画像2219の被写体が発見されたことを示す文言が表示される。また、第2の吹き出し2217には、図示された例の「これは…なんですかね」のように、第1の吹き出し2215の内容に対応して画像2219について言及する文言が表示される。
なお、別の例として、例えば、コメンタリー生成機能430が画像解析を実行して画像2219の被写体を特定できた場合には、その被写体に具体的に言及するコメンタリーが生成されてもよい。例えば、図9に示された例において、被写体がラーメンであることが特定された場合、第1の吹き出し2215には「これはラーメンですね」、第2の吹き出し2217には「おいしそうですねえ」などの文言が表示されてもよい。
(6.コメンタリーのまとめ表現)
続いて、本開示の一実施形態において、所定の時間に生成された複数のコメンタリーをまとめて表現する例について説明する。上述のように、本実施形態では、画像生成機能450によって、所定の時間に生成された複数のコメンタリーをまとめて表現する画像が生成されうる。このまとめ画像は、例えば、図8および図9を参照して説明したコメンタリー画像2109,2209を時系列で配列した動画(アニメーション)であってもよい。また、例えば、まとめ画像は、コメンタリー画像とは別に生成され、所定の時間に生成された複数のコメンタリーに含まれる情報を集約して表現する画像であってもよい。以下では、コメンタリー画像とは別に生成されるまとめ画像のいくつかの例について説明する。
(画像の第1の例)
図10は、本開示の一実施形態において表示されるコメンタリーまとめ画像の第1の例を示す図である。図10を参照すると、まとめ画像2300には、マップ2301、ルート表示2303、行動表示2305、および行動アイコン2307が含まれる。
図示された例において、マップ2301は実測に基づいた地理的なマップであり、外部のサービスから取得されてもよい。このようなマップを、本明細書では現実のマップともいう。ルート表示2303は、マップ2301上に、ユーザの位置情報の履歴に基づいて表示される。ここで、ルート表示2303は、コメンタリー生成機能430によってコメンタリーの生成時に使用された位置情報に基づいて表示されてもよいし、コメンタリーが生成されない間も含めて継続的に別途取得された位置情報に基づいて表示されてもよい。
行動表示2305は、例えば、ユーザの行動の変化や、ソーシャルメディア520への投稿に基づいてコメンタリーが生成された位置に表示される。図示された例において、行動表示2305は、行動表示2305a,2305bとして例示されている。行動表示2305aは、行動認識の結果に基づいて、ユーザの行動の変化を示すコメンタリーが生成された位置に表示されている。ここでは、上述したように、ユーザの行動が所定のパターンに合致したことによって、「乗り換えた」という一連の行動に対するラベルが設定されている。従って、行動表示2305aは、「歩行」や「静止」といった個々の行動ではなく、「乗り換え」という一連の行動に対して表示されている。一方、行動表示2305bは、ソーシャルメディア520への投稿に基づいてコメンタリーが生成された位置に表示されている。例えば、行動表示2305bには、投稿された画像2351の縮小画像が表示されてもよい。
行動アイコン2307は、例えば、ユーザの行動の継続に基づいてコメンタリーが生成された位置に表示される。図示された例において、行動アイコン2307は、ユーザが電車に乗っていたり、歩いていた状態が所定の時間(例えば5分)を超えたことによってコメンタリーが生成された位置に表示されている。コメンタリーの内容に応じた行動アイコン2307の画像データは、例えば画像DB460に格納される。
(画像の第2の例)
図11は、本開示の一実施形態において表示されるコメンタリーまとめ画像の第2の例を示す図である。図11を参照すると、まとめ画像2400には、マップ2401、ポイント表示2403、ルート表示2405、時刻アイコン2407、行動アイコン2409、および消費カロリー表示2411が含まれる。
図示された例において、マップ2401には、コメンタリーが生成されたときのユーザの位置としてポイント表示2403が表示されるものの、それ以外のマップ要素、例えば道路や鉄道などは表示されない。ポイント表示2403は、例えばコメンタリーが生成されたときのユーザの緯度および経度の情報に基づいて配置されるが、ルート表示2405は、ポイント表示2403の間のユーザの移動経路には必ずしも対応しない。ルート表示2405は、例えば、ポイント表示2403の間を手書き風の線で結ぶ。つまり、マップ2401においては、図10の例に示されたマップ2301と比較すると、ユーザの実際の移動経路という要素が捨象されているともいえる。このように、現実のマップに含まれる要素のうちの少なくとも一部が捨象されたマップを、本明細書では仮想的なマップともいう。
時刻アイコン2407は、少なくとも一部のポイント表示2403において、コメンタリーが生成された時刻を示す。行動アイコン2409は、コメンタリーにおいて表現されたユーザの行動を表現する。図示された例では、ルート表示2405に対応して歩行や電車への乗車を示す行動アイコン2409が示され、各ポイント表示2403において生成されたコメンタリーによって示されたユーザの行動が歩行や電車への乗車であったことを示している。
消費カロリー表示2411は、まとめ画像2400における付加的な情報として表示される。例えば、センサ310に含まれる加速度センサを用いれば、ユーザの運動状態が把握できるため、所定の時間におけるユーザの消費カロリーを推定することも可能である。
(画像の第3の例)
図12は、本開示の一実施形態において表示されるコメンタリーまとめ画像の第3の例を示す図である。図12を参照すると、まとめ画像2500には、マップ2501、ポイント表示2503、ルート表示2505、時刻アイコン2407、および行動アイコン1509が含まれる。
図示された例において、マップ2501では、コメンタリーが生成されたときのユーザの位置としてポイント表示2503が表示されるものの、それ以外のマップ要素、例えば道路や鉄道などは表示されない。また、ポイント表示2503は、必ずしもコメンタリーが生成されたときのユーザの緯度および経度の情報に基づいて配置されなくてもよい。つまり、マップ2501においては、図11の例に示されたマップ2401の例と比較して、ユーザの実際の移動経路だけではなく、コメンタリーの生成地点の緯度および経度という要素までもが捨象されているといえる。
このように現実の位置情報を捨象する効果として、マップ2501では、例えばルート表示2505を、それぞれの移動経路が十分に認識されるような長さで表現することが可能である。例えば、図示された例におけるルート表示2501のうち、ルート表示2501aは徒歩に対応するルート表示であり、ルート表示2501bは電車の乗車に対応するルート表示である。これらのルート表示が現実の位置情報に従って表示されると、ルート表示2501aがルート表示2501bに比べて短くなり、場合によってはルート表示2501aを認識することが困難になる(徒歩による移動速度よりも電車による移動速度の方がはるかに大きいため)。そこで、マップ2501に示された例のように現実の位置情報からある程度自由にポイント表示2503およびルート表示2505を配置できれば、ユーザのそれぞれの行動に対応したルート表示2505を認識することが容易になりうる。
また、マップ2501では、例えば行動アイコン2509a,2509bによって示されるように、二次元的な移動を伴う行動(例えば、行動アイコン2509aによって示される歩行)だけではなく、三次元的な移動を伴う行動(例えば、行動アイコン2509bによって示されるエレベータ)をも、二次元的なマップ上で表現することができる。
(画像の第4の例)
図13は、本開示の一実施形態において表示されるコメンタリーまとめ画像の第4の例を示す図である。図13を参照すると、まとめ画像2600には、マップ2601、地名表示2603、移動経路表示2605、および行動アイコン2607が含まれる。
図示された例において、マップ2601には、コメンタリー生成時のユーザの位置を示す地名表示2603が配列され、地名表示2603の間をつないで移動経路表示2605が表示される。地名表示2603は、それぞれの地名によって表される現実の位置関係には対応していない。つまり、マップ2601では、図12の例に示したマップ2501以上に、現実の位置情報が捨象されている。このような表示によって、例えば、コメンタリーが生成されたときのユーザの位置を、地名という形でわかりやすく提示することができる。つまり、マップ2601では、ユーザの位置情報をマップ上の図形としてではなく、主に文字情報として伝えることが目的とされている。行動アイコン2607は、地名表示2603の横に表示され、それぞれの位置でのコメンタリーによって表現されたユーザの行動を示す。
(画像の第5の例)
図14は、本開示の一実施形態において表示されるコメンタリーまとめ画像の第5の例を示す図である。図14を参照すると、まとめ画像2700には、まとめテキスト2701、地名表示2603、話者画像2705、および吹き出し2707が含まれる。
図示された例において、まとめ画像2700では、まとめテキスト2701として、所定の時間帯において生成されたコメンタリーの要約がテキストによって表現される。また、図13に示した例と同様に地名表示2603が表示されるが、地名表示2603は、図13の例のように二次元的に配列されるのではなく、新しいものが前になるように奥行きをもって配列される。また、まとめ画像2700では、さらに、話者画像2705が表示され、話者画像2705によって表示されるキャラクターの発言として、吹き出し2707に、例えばまとめテキスト2701と同様の内容が表現される。
(画像の第6の例)
図15は、本開示の一実施形態において表示されるコメンタリーまとめ画像の第6の例を示す図である。図15を参照すると、まとめ画像2800には、図14の例と同様のまとめテキスト2701、およびマップ2803が含まれる。
図示された例において、まとめ画像2800では、まとめテキスト2701として所定の時間帯において生成されたコメンタリーの要約がテキストによって表現される。さらに、マップ2803において、コメンタリー生成時のユーザの位置情報の履歴が示される。マップ2803には、上記の図11の例におけるマップ2401と同様に、ユーザの位置以外のマップ要素、例えば道路や鉄道などは表示されない。マップ2803では、ユーザの位置情報が、コメンタリー生成時の緯度および経度の情報に基づいて、2軸のグラフ上に点および点をつなぐ直線として表現される。
以上で説明したように、本実施形態では、ユーザの行動に基づくコメンタリーのまとめ画像として、さまざまな画像を生成することが可能である。これらの画像には、例えば、コメンタリー生成時のユーザの位置の変化を表現するためのマップが含まれる。マップは、例えば、現実の位置情報に基づいて表現されてもよいし、現実の位置情報の一部、例えば、コメンタリー生成地点間のユーザの移動経路やコメンタリー生成地点の緯度および経度の情報などが捨象されてもよい。このようにしてマップを生成することによって、例えば、移動距離に大きな差があるユーザの複数の行動をいずれも認識が容易なように表現したり、二次元的には表現が難しい高さ方向の移動についても表現したりすることが可能になりうる。また、マップにおいて現実の位置情報を捨象することによって、ユーザのプライバシーの保護につながる場合もある。
(7.コメンタリー開始および終了時の操作)
図16は、本開示の一実施形態におけるコメンタリー開始時のダイアログ表示の例を示す図である。図16を参照すると、ダイアログ2900は、タイトル入力欄2901、自動停止スイッチ2903、および注釈2905を含む。
上述のように、本実施形態では、ユーザの行動に基づくコメンタリーの生成が、ユーザによって指定された時間に限って実行されうる。この場合、ユーザは、例えば、上述したリスト表示画面1100や仮想空間表示画面1200、投稿履歴画面1300、行動まとめ画面1400などから呼び出されるメニューから、図示されたようなダイアログ1900を表示させる。なお、上記の各画面においてメニューを表示させるためのボタンなどの画面要素については、必ずしも図示されていない。
タイトル入力欄2901では、ユーザがコメンタリーのタイトルを自由に設定することが可能である。図示されたように、「(ユーザ名)+の実況中継」といったようなタイトルが、タイトル入力欄2901に初期設定されていてもよい。自動停止スイッチ2903は、ユーザがコメンタリーの生成を開始後所定の時間で自動的に終了させることを可能にするスイッチである。図示された例では、自動停止スイッチ2903(チェックボックス)をONにした場合、ダイアログ2900で「OK」が選択されてから所定の時間(1時間)経過後にコメンタリーの生成が自動的に停止される。なお、所定の時間は1時間には限らず、2時間、3時間、または30分など、任意の時間でありうる。
注釈2905は、ユーザに対して、コメンタリーの生成によってユーザの位置情報が公開されることを通知している。例えば、コメンタリーのテキストに位置情報を含めず、まとめ画像においても図12に示したようなマップを表示する場合には位置情報を抽象化することは可能であるが、そうではない場合には、図3〜図7を参照して説明したような行動共有のアプリケーション(位置情報が公開されない)とは異なりユーザの位置情報が公開されることについて、注釈2905のような形でユーザの承諾を得ることが望ましい。なお、上述の通り、コメンタリーは、ユーザの位置情報を使用することなく生成することも可能である。従って、例えば、位置情報を使用しないコメンタリーを生成する場合には、コメンタリーの生成を開始するにあたって必ずしもダイアログ2900による確認が実行されなくてもよい。また、例えば、ダイアログ2900において、コメンタリーの生成に位置情報を使用するか否かをユーザが選択可能であってもよい。
なお、例えばダイアログ2900で自動停止イッチ2903をONにしなかった場合には、別途実行されるユーザ操作によってコメンタリーの生成が終了される。この場合、例えば、上記の各画面から呼び出されるメニューから「コメンタリー終了」を意味する項目を選択することによって、コメンタリーの生成を終了させることが可能でありうる。また、ダイアログ2900で自動停止イッチ2903をONにしなかった場合でも、ある程度長い時間(例えば8時間、12時間など)が経過した場合には、自動的にコメンタリーの生成が終了されてもよい。
(8.ハードウェア構成)
次に、図17を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図17は、情報処理装置のハードウェア構成を説明するためのブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるクライアント装置100、またはサーバ装置200を実現しうる。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(9.補足)
本開示の実施形態は、例えば、上記で説明したような情報処理装置(クライアント装置またはサーバ装置)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)第1のユーザの行動の結果として生成される第1の情報を取得する機能と、
前記第1の情報に基づいて、前記第1のユーザの行動についてのコメンタリーを生成する機能と、
前記コメンタリーを含む第2の情報を前記第1のユーザとは異なる第2のユーザに公開するために出力する機能と
を実現するように構成されるプロセッサを備える情報処理装置。
(2)前記コメンタリーは、叙述的な第1の部分と、論評的な第2の部分とを含む、前記(1)に記載の情報処理装置。
(3)前記コメンタリーにおいて、前記第1の部分と前記第2の部分とによってダイアログが構成される、前記(2)に記載の情報処理装置。
(4)前記コメンタリーは、テキストコメンタリーであり、
前記第2の情報は、前記第1の部分および前記第2の部分を、それぞれの仮想的な話者に関連付けて配置した画像を含む、前記(3)に記載の情報処理装置。
(5)前記プロセッサは、さらに、所定の時間に生成された複数のコメンタリーに対応する前記画像を時系列で配列して動画像を生成する機能を実現するように構成される、前記(4)に記載の情報処理装置。
(6)前記コメンタリーは、前記第1のユーザの現在地の情報を含む、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記プロセッサは、さらに、所定の時間に生成された複数のコメンタリーに含まれる情報を集約して表現する画像を生成する機能を実現するように構成される、前記(1)に記載の情報処理装置。
(8)前記画像において、前記複数のコメンタリーの生成時の前記第1のユーザの位置情報は現実のまたは仮想的なマップ上に表現される、前記(7)に記載の情報処理装置。
(9)前記仮想的なマップは、現実のマップにおける位置関係の少なくとも一部を捨象することによって生成される、前記(8)に記載の情報処理装置。
(10)前記第1の情報は、前記第1のユーザの行動認識結果を含む、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)前記コメンタリーは、前記行動認識結果によって示される前記第1のユーザの行動が変化した場合に生成される、前記(10)に記載の情報処理装置。
(12)前記コメンタリーは、前記行動認識結果が事後的に修正された場合に生成される、前記(11)に記載の情報処理装置。
(13)前記コメンタリーは、前記行動認識結果によって示される前記第1のユーザの行動が所定の時間を超えて継続されている場合に生成される、前記(10)〜(12)のいずれか1項に記載の情報処理装置。
(14)前記コメンタリーは、前記行動認識結果によって示される前記第1のユーザの行動が所定のパターンに合致した場合に生成される、前記(10)〜(13)のいずれか1項に記載の情報処理装置。
(15)前記コメンタリーは、前記行動認識結果によって示される前記第1のユーザの行動の程度を示す文言を含む、前記(10)〜(14)のいずれか1項に記載の情報処理装置。
(16)前記第1の情報は、前記第1のユーザがネットワーク上に投稿したテキストまたは画像を含む、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)前記コメンタリーは、さらに、前記第1のユーザの行動の履歴に基づいて生成される、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(18)プロセッサが、
第1のユーザの行動の結果として生成される第1の情報を取得することと、
前記第1の情報に基づいて、前記第1のユーザの行動についてのコメンタリーを生成することと、
前記コメンタリーを含む第2の情報を前記第1のユーザとは異なる第2のユーザに公開するために出力することと
を含む情報処理方法。
(19)第1のユーザの行動の結果として生成される第1の情報を取得する機能と、
前記第1の情報に基づいて、前記第1のユーザの行動についてのコメンタリーを生成する機能と、
前記コメンタリーを含む第2の情報を前記第1のユーザとは異なる第2のユーザに公開するために出力する機能と
をコンピュータに実現させるためのプログラム。
10 システム
20 サーバ
100 クライアント装置
200 サーバ装置
300,400,500 機能群
310 センサ
320 行動認識機能
330 カメラ
340 投稿機能
410 アクティビティ取得機能
430 コメンタリー生成機能
450 画像生成機能
470 出力機能
510 行動共有サービス
520 ソーシャルメディア

Claims (19)

  1. 第1のユーザの行動の結果として生成される第1の情報を取得する機能と、
    前記第1の情報に基づいて、前記第1のユーザの行動についてのコメンタリーを生成する機能と、
    前記コメンタリーを含む第2の情報を前記第1のユーザとは異なる第2のユーザに公開するために出力する機能と
    を実現するように構成されるプロセッサを備える情報処理装置。
  2. 前記コメンタリーは、叙述的な第1の部分と、論評的な第2の部分とを含む、請求項1に記載の情報処理装置。
  3. 前記コメンタリーにおいて、前記第1の部分と前記第2の部分とによってダイアログが構成される、請求項2に記載の情報処理装置。
  4. 前記コメンタリーは、テキストコメンタリーであり、
    前記第2の情報は、前記第1の部分および前記第2の部分を、それぞれの仮想的な話者に関連付けて配置した画像を含む、請求項3に記載の情報処理装置。
  5. 前記プロセッサは、さらに、所定の時間に生成された複数のコメンタリーに対応する前記画像を時系列で配列して動画像を生成する機能を実現するように構成される、請求項4に記載の情報処理装置。
  6. 前記コメンタリーは、前記第1のユーザの現在地の情報を含む、請求項1に記載の情報処理装置。
  7. 前記プロセッサは、さらに、所定の時間に生成された複数のコメンタリーに含まれる情報を集約して表現する画像を生成する機能を実現するように構成される、請求項1に記載の情報処理装置。
  8. 前記画像において、前記複数のコメンタリーの生成時の前記第1のユーザの位置情報は現実のまたは仮想的なマップ上に表現される、請求項7に記載の情報処理装置。
  9. 前記仮想的なマップは、現実のマップにおける位置関係の少なくとも一部を捨象することによって生成される、請求項8に記載の情報処理装置。
  10. 前記第1の情報は、前記第1のユーザの行動認識結果を含む、請求項1に記載の情報処理装置。
  11. 前記コメンタリーは、前記行動認識結果によって示される前記第1のユーザの行動が変化した場合に生成される、請求項10に記載の情報処理装置。
  12. 前記コメンタリーは、前記行動認識結果が事後的に修正された場合に生成される、請求項11に記載の情報処理装置。
  13. 前記コメンタリーは、前記行動認識結果によって示される前記第1のユーザの行動が所定の時間を超えて継続されている場合に生成される、請求項10に記載の情報処理装置。
  14. 前記コメンタリーは、前記行動認識結果によって示される前記第1のユーザの行動が所定のパターンに合致した場合に生成される、請求項10に記載の情報処理装置。
  15. 前記コメンタリーは、前記行動認識結果によって示される前記第1のユーザの行動の程度を示す文言を含む、請求項10に記載の情報処理装置。
  16. 前記第1の情報は、前記第1のユーザがネットワーク上に投稿したテキストまたは画像を含む、請求項1に記載の情報処理装置。
  17. 前記コメンタリーは、さらに、前記第1のユーザの行動の履歴に基づいて生成される、請求項1に記載の情報処理装置。
  18. プロセッサが、
    第1のユーザの行動の結果として生成される第1の情報を取得することと、
    前記第1の情報に基づいて、前記第1のユーザの行動についてのコメンタリーを生成することと、
    前記コメンタリーを含む第2の情報を前記第1のユーザとは異なる第2のユーザに公開するために出力することと
    を含む情報処理方法。
  19. 第1のユーザの行動の結果として生成される第1の情報を取得する機能と、
    前記第1の情報に基づいて、前記第1のユーザの行動についてのコメンタリーを生成する機能と、
    前記コメンタリーを含む第2の情報を前記第1のユーザとは異なる第2のユーザに公開するために出力する機能と
    をコンピュータに実現させるためのプログラム。
JP2013167485A 2013-08-12 2013-08-12 情報処理装置、情報処理方法およびプログラム Active JP6183047B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2013167485A JP6183047B2 (ja) 2013-08-12 2013-08-12 情報処理装置、情報処理方法およびプログラム
CN201480032775.5A CN105308641B (zh) 2013-08-12 2014-07-11 信息处理设备、信息处理方法及程序
US14/896,032 US10601935B2 (en) 2013-08-12 2014-07-11 Information processing apparatus, information processing method, and program
PCT/JP2014/003702 WO2015022769A1 (en) 2013-08-12 2014-07-11 Information processing apparatus, information processing method, and program
EP14755719.3A EP3033728A1 (en) 2013-08-12 2014-07-11 Information processing apparatus, information processing method, and program
US16/790,736 US10972562B2 (en) 2013-08-12 2020-02-14 Information processing apparatus, information processing method, and program
US17/200,913 US20210203736A1 (en) 2013-08-12 2021-03-15 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013167485A JP6183047B2 (ja) 2013-08-12 2013-08-12 情報処理装置、情報処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2015036836A true JP2015036836A (ja) 2015-02-23
JP2015036836A5 JP2015036836A5 (ja) 2016-02-12
JP6183047B2 JP6183047B2 (ja) 2017-08-23

Family

ID=51399748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013167485A Active JP6183047B2 (ja) 2013-08-12 2013-08-12 情報処理装置、情報処理方法およびプログラム

Country Status (5)

Country Link
US (3) US10601935B2 (ja)
EP (1) EP3033728A1 (ja)
JP (1) JP6183047B2 (ja)
CN (1) CN105308641B (ja)
WO (1) WO2015022769A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163560A1 (ja) 2017-03-06 2018-09-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6183047B2 (ja) * 2013-08-12 2017-08-23 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9652685B2 (en) * 2014-09-30 2017-05-16 Disney Enterprises, Inc. Generating story graphs with large collections of online images
US9881166B2 (en) 2015-04-16 2018-01-30 International Business Machines Corporation Multi-focused fine-grained security framework
JP6453800B2 (ja) * 2016-03-28 2019-01-16 株式会社東芝 通信システム、サーバ装置、通信制御方法、及びプログラム
JP6914480B2 (ja) * 2016-06-27 2021-08-04 カシオ計算機株式会社 指標表示装置、指標表示方法、プログラム、及び指標表示システム
US10334160B2 (en) * 2016-09-28 2019-06-25 Casio Computer Co., Ltd. Imaging apparatus capable of automatic photography, image playback apparatus which plays back automatically photographed image, image playback method, and imaging method
JP6954198B2 (ja) * 2018-03-23 2021-10-27 株式会社Jvcケンウッド 端末装置、グループ通信システム、及びグループ通信方法
US20210011887A1 (en) * 2019-07-12 2021-01-14 Qualcomm Incorporated Activity query response system
US20230276102A1 (en) * 2020-11-16 2023-08-31 Arris Enterprises Llc Object-based video commenting

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001137536A (ja) * 1999-11-15 2001-05-22 Namco Ltd ゲーム装置、ゲーム処理方法および記録媒体
JP2004329357A (ja) * 2003-05-01 2004-11-25 Namco Ltd ゲーム情報、情報記憶媒体及びゲーム装置
JP2006345269A (ja) * 2005-06-09 2006-12-21 Sony Corp 情報処理装置および方法、並びにプログラム
JP2007249993A (ja) * 2007-05-01 2007-09-27 Murata Mach Ltd 文書管理サーバ装置
JP2008003655A (ja) * 2006-06-20 2008-01-10 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2010134802A (ja) * 2008-12-05 2010-06-17 Sony Corp 情報処理装置、及び情報処理方法
JP2012079073A (ja) * 2010-09-30 2012-04-19 Nifty Corp ブログサービス提供システム
JP2013097631A (ja) * 2011-11-02 2013-05-20 Zenrin Datacom Co Ltd 画像投稿支援装置、画像投稿支援方法および画像投稿支援プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090063995A1 (en) * 2007-08-27 2009-03-05 Samuel Pierce Baron Real Time Online Interaction Platform
US8904430B2 (en) * 2008-04-24 2014-12-02 Sony Computer Entertainment America, LLC Method and apparatus for real-time viewer interaction with a media presentation
JP5649808B2 (ja) * 2009-01-28 2015-01-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP5440080B2 (ja) 2009-10-02 2014-03-12 ソニー株式会社 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
US9532734B2 (en) * 2010-08-09 2017-01-03 Nike, Inc. Monitoring fitness using a mobile device
US8738321B2 (en) * 2010-09-30 2014-05-27 Fitbit, Inc. Methods and systems for classification of geographic locations for tracked activity
BR112013015089A2 (pt) * 2010-12-16 2016-08-09 Nike International Ltd métodos e sistemas para incentivar a atividade atlética
JP5485968B2 (ja) * 2011-10-31 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 実行画面公開装置、実行画面公開方法、クライアント装置、およびクラウドコンピューティングシステム
US20140115459A1 (en) * 2012-10-24 2014-04-24 Michael Norwood Help system
US20160198223A1 (en) * 2012-12-26 2016-07-07 Livingrid Ltd. A method and system for providing and managing a social platform that visualizes virtual crowd
US9294583B1 (en) * 2013-03-15 2016-03-22 Google Inc. Updating event posts
JP6183047B2 (ja) * 2013-08-12 2017-08-23 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20180095636A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001137536A (ja) * 1999-11-15 2001-05-22 Namco Ltd ゲーム装置、ゲーム処理方法および記録媒体
JP2004329357A (ja) * 2003-05-01 2004-11-25 Namco Ltd ゲーム情報、情報記憶媒体及びゲーム装置
JP2006345269A (ja) * 2005-06-09 2006-12-21 Sony Corp 情報処理装置および方法、並びにプログラム
JP2008003655A (ja) * 2006-06-20 2008-01-10 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2007249993A (ja) * 2007-05-01 2007-09-27 Murata Mach Ltd 文書管理サーバ装置
JP2010134802A (ja) * 2008-12-05 2010-06-17 Sony Corp 情報処理装置、及び情報処理方法
JP2012079073A (ja) * 2010-09-30 2012-04-19 Nifty Corp ブログサービス提供システム
JP2013097631A (ja) * 2011-11-02 2013-05-20 Zenrin Datacom Co Ltd 画像投稿支援装置、画像投稿支援方法および画像投稿支援プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163560A1 (ja) 2017-03-06 2018-09-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US11173931B2 (en) 2017-03-06 2021-11-16 Sony Corporation Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
CN105308641B (zh) 2022-04-15
WO2015022769A1 (en) 2015-02-19
US20200186608A1 (en) 2020-06-11
CN105308641A (zh) 2016-02-03
US10972562B2 (en) 2021-04-06
US20160134714A1 (en) 2016-05-12
JP6183047B2 (ja) 2017-08-23
EP3033728A1 (en) 2016-06-22
US20210203736A1 (en) 2021-07-01
US10601935B2 (en) 2020-03-24

Similar Documents

Publication Publication Date Title
JP6183047B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20210200423A1 (en) Information processing apparatus, method, and non-transitory computer readable medium that controls a representation of a user object in a virtual space
US10990613B2 (en) Information processing apparatus and information processing method
CN110780707B (zh) 信息处理设备、信息处理方法与计算机可读介质
US10187484B2 (en) Non-disruptive display of video streams on a client system
EP2996016B1 (en) Information processing device and application execution method
US10148885B2 (en) Post-capture selection of media type
US11406896B1 (en) Augmented reality storytelling: audience-side
EP3296944A1 (en) Information processing device, information processing method, and program
CN108293073B (zh) 沉浸式临场感
JP6443340B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6233412B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20170371524A1 (en) Information processing apparatus, picture processing method, and program
JP7060014B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2015190141A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20180014158A1 (en) Mobile Device Recommendation System and Method
JPWO2017051577A1 (ja) 感情誘導システム、および感情誘導方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170710

R151 Written notification of patent or utility model registration

Ref document number: 6183047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250