JP2019220194A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2019220194A
JP2019220194A JP2019132117A JP2019132117A JP2019220194A JP 2019220194 A JP2019220194 A JP 2019220194A JP 2019132117 A JP2019132117 A JP 2019132117A JP 2019132117 A JP2019132117 A JP 2019132117A JP 2019220194 A JP2019220194 A JP 2019220194A
Authority
JP
Japan
Prior art keywords
information
unit
recognition
situation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019132117A
Other languages
English (en)
Inventor
村田 誠
Makoto Murata
誠 村田
直樹 澁谷
Naoki Shibuya
直樹 澁谷
純子 高林
Junko Takabayashi
純子 高林
裕士 瀧本
Yuji Takimoto
裕士 瀧本
佐藤 浩司
Koji Sato
浩司 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2019220194A publication Critical patent/JP2019220194A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24575Query processing with adaptation to user needs using context
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザのおかれた状況を表わした情報を自動的に生成すること。【解決手段】本開示に係る情報処理装置は、ユーザのおかれた環境をセンサを通じてセンシングすることによって得られた環境情報を取得する情報取得部と、前記環境情報に含まれる画像に対して認識処理を行い、当該画像に含まれるオブジェクトの特徴量を参照して、当該画像に含まれる1つ又は複数のオブジェクトの認識結果として、前記オブジェクトの分類を出力する認識処理部と、前記認識結果としての前記分類に基づいて、当該画像から得られるコンテキストを表現するコンテキスト候補情報を生成する状況候補情報生成部とを備え、機械学習モデルは、事前に収集された複数の画像を学習することによって得られ、前記認識処理に使用される。【選択図】図2

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
近年、自分の行動を記録したり、自分の行動を特定多数、又は、不特定多数の人物に公開したりするためのツールとして、インターネットを利用したソーシャルネットワークサービス(Social Network Service:SNS)等が普及している。
ここで、ソーシャルネットワークサービスへの自身の行動の記録は、ユーザ自身が投稿するための記事を作成し、必要に応じて画像データ等を記事に添付したうえで、ソーシャルネットワークサービスを管理している管理サーバへとデータを送信することで行われる。そのため、現在行っている行動に夢中になって、投稿するための記事の作成を忘れてしまうなどといったことも生じうる。
かかる状況を減らすために、例えば下記の特許文献1には、ユーザの行動を自動的に認識し、得られた認識結果に基づいて、エンターテインメント性のある文章を自動的に生成する方法が開示されている。
特開2008−3655号公報
上記特許文献1に記載の方法を用いることで、「のんびりした歩行」や「せわしない動作」といった行動パターンを、時系列のデータとして得ることができる。しかしながら、この方法で得られる行動パターンは、比較的短時間に行われるユーザの動作や状態を主に表現したものである。そのため、「今日はデパートで買い物をした」、「昨日はホテルのレストランで食事をした」等のような、具体的な行動内容を行動パターンの履歴から推察することは難しい。また、上記特許文献1に記載の方法で得られる行動パターンを形成する個々の行動自体は、ユーザが目的を持って行っているものではないため、得られた行動パターンに基づいて生成された文章をソーシャルネットワークサービスに投稿したとしても、後から見返してみて面白いと思えるような文章にはなりづらい。
一方、ソーシャルネットワークサービスに投稿して面白いと思えるような記事は、ユーザが行った個々の行動が複雑に絡み合った結果生じた、ユーザを取り巻く様々な状況(コンテキスト)に関する記事である。そこで、ソーシャルネットワークサービスへの投稿に関してユーザの利便性を更に向上させるためには、ユーザを取り巻く状況を認識して、かかる状況の認識結果に基づいてユーザを取り巻く状況を表わした情報を自動的に生成可能な技術を実現することが望ましい。
そこで、本開示では、ユーザのおかれた状況を表わした情報を自動的に生成することが可能な、情報処理装置、情報処理方法及びプログラムを提案する。
本開示によれば、ユーザのおかれた環境をセンサを通じてセンシングすることによって得られた環境情報を取得する情報取得部と、前記環境情報に含まれる画像に対して認識処理を行い、当該画像に含まれるオブジェクトの特徴量を参照して、当該画像に含まれる1つ又は複数のオブジェクトの認識結果として、前記オブジェクトの分類を出力する認識処理部と、前記認識結果としての前記分類に基づいて、当該画像から得られるコンテキストを表現するコンテキスト候補情報を生成する状況候補情報生成部とを備え、機械学習モデルは、事前に収集された複数の画像を学習することによって得られ、前記認識処理に使用される、情報処理装置が提供される。
また、本開示によれば、ユーザのおかれた環境をセンサを通じてセンシングすることによって得られた環境情報を取得することと、前記環境情報に含まれる画像に対して認識処理を行い、当該画像に含まれるオブジェクトの特徴量を参照して、当該画像に含まれる1つ又は複数のオブジェクトの認識結果として、前記オブジェクトの分類を出力することと、前記認識結果としての前記分類に基づいて、当該画像から得られるコンテキストを表現するコンテキスト候補情報を生成することとを含み、機械学習モデルは、事前に収集された複数の画像を学習することによって得られ、前記認識処理に使用される、情報処理方法が提供される。
また、本開示によれば、コンピュータに、ユーザのおかれた環境をセンサを通じてセンシングすることによって得られた環境情報を取得する情報取得機能と、前記環境情報に含まれる画像に対して認識処理を行い、当該画像に含まれるオブジェクトの特徴量を参照して、当該画像に含まれる1つ又は複数のオブジェクトの認識結果として、前記オブジェクトの分類を出力する認識処理機能と、前記認識結果としての前記分類に基づいて、当該画像から得られるコンテキストを表現するコンテキスト候補情報を生成する状況候補情報生成機能とを実現させ、機械学習モデルは、事前に収集された複数の画像を学習することによって得られ、前記認識処理に使用される、プログラムが提供される。
以上説明したように本開示によれば、ユーザのおかれた状況を表わした情報を自動的に生成することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理システムを説明するための説明図である。 同実施形態に係る情報処理装置の構成の一例を示したブロック図である。 同実施形態に係る情報処理装置が有する認識処理部の構成の一例を示したブロック図である。 同実施形態に係る認識処理部が有する画像解析部の構成の一例を示したブロック図である。 同実施形態に係る認識処理部が有する音声解析部の構成の一例を示したブロック図である。 同実施形態に係る認識処理部が有する場所・行動解析部の構成の一例を示したブロック図である。 同実施形態に係る認識処理部で実施される場所・行動解析処理について説明するための説明図である。 同実施形態に係る認識処理部で実施される場所・行動解析処理について説明するための説明図である。 同実施形態に係る認識処理部で実施される場所・行動解析処理について説明するための説明図である。 同実施形態に係る認識処理部で実施される状況認識処理について説明するための説明図である。 同実施形態に係る認識処理部で実施される状況認識処理について説明するための説明図である。 同実施形態に係る認識処理部における認識結果を説明するための説明図である。 同実施形態に係る認識処理部における認識結果を説明するための説明図である。 同実施形態に係る情報処理装置が有する状況候補情報生成部で実施される状況候補情報生成処理について説明するための説明図である。 同実施形態に係る状況候補情報生成部で実施される状況候補情報生成処理について説明するための説明図である。 同実施形態に係る状況候補情報生成部で実施される状況候補情報生成処理について説明するための説明図である。 同実施形態に係る状況候補情報生成部で実施される状況候補情報生成処理について説明するための説明図である。 同実施形態に係る状況候補情報生成部で実施される状況候補情報生成処理について説明するための説明図である。 同実施形態に係る情報処理装置が有する情報更新部の構成の一例を示したブロック図である。 同実施形態に係る情報処理装置が有する外部機器連携部の構成の一例を示したブロック図である。 同実施形態に係る外部機器連携部で実施される外部機器連携処理について説明するための説明図である。 同実施形態に係る情報処理装置の変形例について説明するための説明図である。 同実施形態に係る情報処理装置の変形例について説明するための説明図である。 同実施形態に係る情報処理装置の表示画面の一例を説明するための説明図である。 同実施形態に係る情報処理装置における状況候補情報生成処理の流れの一例を説明するための説明図である。 同実施形態に係る情報処理装置における状況候補情報生成処理の流れの一例を説明するための説明図である。 同実施形態に係る情報処理方法の流れの一例を示した流れ図である。 本開示の実施形態に係る情報処理装置のハードウェア構成の一例を示したブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施の形態
1.1.情報処理システムについて
1.2.情報処理装置について
1.3.情報処理装置の変形例について
1.4.表示画面の一例について
1.5.状況候補情報の生成処理の流れの一例について
1.6.情報処理方法について
2.情報処理装置のハードウェア構成について
(第1の実施形態)
<情報処理システムについて>
まず、図1を参照しながら、本開示の第1の実施形態に係る情報処理装置を含む情報処理システムについて、簡単に説明する。図1は、本実施形態に係る情報処理システムの全体構成を模式的に示した説明図である。
本実施形態に係る情報処理システムは、インターネット、無線通信ネットワーク、移動体通信網等といった各種のネットワーク1に接続された1又は複数の情報処理装置10から構成される。図1に示した情報処理システムでは、ネットワーク1にN台の情報処理装置10A〜10N(以下、まとめて「情報処理装置10」と称することもある。)が接続されている。ここで、ネットワーク1に接続されている情報処理装置10の台数については、特に限定されるものではない。
本実施形態に係る情報処理システムには、ネットワーク1を介して、ソーシャルネットワークシステム等の各種情報投稿サービスを管理する情報投稿サーバ3が接続されている。また、ネットワーク1には、例えば、場所に関する情報を取得可能なサーバや、天気に関する情報を取得可能なサーバ等といった、各種のサービス提供サーバ5が接続されていてもよい。例えば、場所に関する情報を取得可能なサーバの例としては、GPS(Global Positioning System)サーバや、無線通信ネットワークを管理するサーバや、移動体通信網を管理するサーバ等がある。
本実施形態に係る情報処理装置10は、ネットワーク1を介して、情報投稿サーバ3や、サービス提供サーバ5等と、各種情報の送受信を行うことが可能である。
ここで、本実施形態に係る情報処理装置10の種別については、特に限定されるものではなく、公知の機器を用いて実現することが可能である。例えば、情報処理装置10は、携帯電話、スマートフォン、タブレット型端末、ノートパソコン等のような、ユーザが携帯可能な携帯情報端末であってもよい。また、情報処理装置10は、デジタルカメラ等の各種カメラや、カムコーダ等であってもよい。また、情報処理装置10は、メガネ、時計、各種アクセサリー等のような、ウェアラブル端末であってもよい。
また、本実施形態に係る情報処理装置10は、各種コンピュータや各種サーバ等といった情報処理サーバ20と連携しながら、以下で説明するような処理を実施することも可能である。
以上、図1を参照しながら、本実施形態に係る情報処理システムの構成について、簡単に説明した。
<情報処理装置について>
次に、図2〜図19を参照しながら、本実施形態に係る情報処理装置10について、詳細に説明する。
まず、図2を参照しながら、本実施形態に係る情報処理装置10の構成を説明する。図2は、本実施形態に係る情報処理装置10の構成の一例を模式的に示したブロック図である。
本実施形態に係る情報処理装置10は、図2に示したように、情報取得部101と、認識処理部103と、状況候補情報生成部105と、表示制御部107と、状況情報送信部109と、情報更新部111と、外部機器連携部113と、記憶部115と、を主に備える。
○情報取得部101
情報取得部101は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入力装置、通信装置、センサ等により実現される。情報取得部101は、情報処理装置10を携帯しているユーザの存在する位置を表す位置情報、ユーザのおかれた環境に関する画像情報、ユーザのおかれた環境に関する音声情報等の少なくとも何れかを含むユーザ環境情報を取得する。
情報取得部101は、所定の時間間隔で、各種の位置情報を取得したり、静止画像や動画像のような各種画像情報を取得したり、音声情報を取得したりする。例えば、情報取得部101は、GPSサーバ、Wi−Fi、Cell ID等を利用して、ユーザの存在する位置情報を取得することができる。また、情報取得部101は、情報処理装置10に設けられた各種のカメラを利用して、静止画像や動画像のような画像情報を取得することができる。また、情報取得部101は、情報処理装置10に設けられた各種のマイクを利用して、音声情報を取得することができる。
また、情報取得部101は、情報処理装置10に設けられている各種の生体センサを利用して、ユーザの発汗の有無、ユーザの体温や心拍、ユーザの体表や体内に存在する生体成分等を、ユーザ固有の生体情報として取得することもできる。
なお、情報取得部101は、ネットワーク1上に存在する各種のサービス提供サーバ5とデータの送受信を行うことで、各種のユーザ環境情報を取得することも可能である。
情報取得部101により取得された上記のような各種のユーザ環境情報は、後述する認識処理部103に随時出力されて、認識処理部103による各種の認識処理に利用される。また、情報取得部101は、後述する認識処理部103における認識処理により、ユーザのおかれた環境を特徴づける特徴量が所定の条件を満たした場合には、取得した位置情報や画像情報や音声情報等を、後述する状況候補情報の生成に利用する添付データとして記憶部115等に保存する。
また、情報取得部101によって取得された各種のユーザ環境情報は、後述する認識処理部103及び記憶部115以外にも、状況候補情報生成部105、表示制御部107、状況情報送信部109、情報更新部111、外部機器連携部113等に出力され、適宜利用される。
○認識処理部103
認識処理部103は、例えば、CPU、ROM、RAM、通信装置等により実現される。認識処理部103は、情報取得部101によって取得されたユーザ環境情報に基づき、当該ユーザ環境情報に含まれる位置情報、画像情報及び音声情報等の少なくとも何れかの解析処理を所定の時間間隔で行う。また、認識処理部103は、得られたユーザ環境に関する解析結果を利用して、ユーザのおかれた状況を認識する状況認識処理を実施する。
この認識処理部103は、図3に模式的に示したように、例えば、画像解析部121と、音声解析部123と、場所・行動解析部125と、状況認識部127と、を有する。
画像解析部121は、例えば、CPU、ROM、RAM、通信装置等により実現される。画像解析部121は、情報取得部101により取得された画像情報(すなわち、画像データ)を解析して、画像データに対応する画像の中に存在する顔、風景、料理、各種物体等を認識したり、画像シーンを分類したりする。
この画像解析部121は、図4に示したように、顔解析部131と、画像シーン分類部133と、風景認識部135、料理認識部137、物体認識部139等を更に有している。
顔解析部131は、例えば、CPU、ROM、RAM、通信装置等により実現される。顔解析部131は、画像データに対応する画像の中に人物の顔が含まれているか否かを認識する処理部である。顔解析部131によって画像データが随時解析されることにより、画像の中に顔が存在しているか否かを特徴づける顔検出特徴量が算出される。また、画像の中に顔が存在していた場合には、顔解析部131は、顔に該当する領域を特定したり、認識した顔に該当する人物が誰であるか等を特定したりする。顔解析部131によって算出される顔検出特徴量が所定の閾値以上である場合に、認識対象とした画像データが、記憶部115等に格納される。その他にも、顔解析部131は、顔の数、座標、角度を特定することもできるし、顔検出スコア、顔パーツ位置、笑顔の有無、生物、年齢、人種等といった各種属性を顔検出特徴量として算出することもできる。
画像シーン分類部133は、例えば、CPU、ROM、RAM、通信装置等により実現される。画像シーン分類部133は、画像データに対応する画像がどのようなシーンであるかを分類する処理部である。画像シーン分類部133によって画像データが随時解析されることにより、画像がどのようなシーンに分類されるかを示したシーン分類特徴量が算出される。また、画像シーン分類部133により画像データが随時解析されることで、ユーザが存在する場所(例えば、職場、飲食店等)や、状況(車を運転している、テレビを見ている等)が特定される。画像シーン分類部133によって算出されるシーン分類特徴量が所定の閾値以上である場合に、認識対象とした画像データが、記憶部115等に格納される。
風景認識部135は、例えば、CPU、ROM、RAM、通信装置等により実現される。風景認識部135は、画像データに対応する画像が風景を撮像したものであるか否かを認識する処理部である。風景認識部135によって画像データが随時解析されることにより、画像の中に風景が存在しているか否かを特徴づける風景検出特徴量が算出される。また、画像の中に風景が存在していた場合には、風景認識部135は、風景に該当する領域を特定したり、認識した風景に該当する場所を特定したりする。風景認識部135によって算出される風景検出特徴量が所定の閾値以上である場合に、認識対象とした画像データが、記憶部115等に格納される。その他にも、風景認識部135は、美しい風景としてのスコアを風景検出特徴量として算出することもできる。
料理認識部137は、例えば、CPU、ROM、RAM、通信装置等により実現される。料理認識部137は、画像データに対応する画像の中に料理に対応する部分が含まれているか否かを認識する処理部である。料理認識部137によって画像データが随時解析されることにより、画像の中に料理が存在しているか否かを特徴づける料理検出特徴量が算出される。また、画像の中に料理が存在していた場合には、料理認識部137は、料理に該当する領域を特定したり、認識した料理のカテゴリ(例えば、ご飯、味噌汁、カレーライス、パスタ、ケーキ・・・等)を特定したりする。料理認識部137によって算出される料理検出特徴量が所定の閾値以上である場合に、認識対象とした画像データが、記憶部115等に格納される。
物体認識部139は、例えば、CPU、ROM、RAM、通信装置等により実現される。物体認識部139は、画像データに対応する画像の中に存在する様々な物体を認識する処理部である。物体認識部139によって画像データが随時解析されることにより、画像の中に各種の物体が存在しているか否かを特徴づける物体検出特徴量が算出される。また、画像の中に物体が存在していた場合には、物体認識部139は、物体に該当する領域を特定したり、認識した物体の種類を特定したりする。物体認識部139によって算出される物体検出特徴量が所定の閾値以上である場合に、認識対象とした画像データが、記憶部115等に格納される。
以上説明したような各処理部による処理結果は、情報取得部101や、音声解析部123、場所・行動解析部125及び状況認識部127に対して、随時出力される。
なお、以上説明したような各処理部で実施される各種の解析・認識処理の詳細な方法については、特に限定されるものではなく、例えば特開2010−191934号公報等に開示されているような、公知の方法を利用することが可能である。また、画像解析部121は、ネットワーク1上に接続されている、画像認識サービスを提供するサービス提供サーバ5を利用して、上記のような画像認識処理を行ってもよい。
再び図3に戻って、本実施形態に係る認識処理部103が有する音声解析部123について説明する。
音声解析部123は、例えば、CPU、ROM、RAM、通信装置等により実現される。音声解析部123は、情報取得部101により取得された音声情報(すなわち、音声データ)を解析して、音声データを分類したり、音声データの内容を認識したりする。
この音声解析部123は、図5に示したように、音声分類部141及び音声認識部143等を更に有している。
音声分類部141は、例えば、CPU、ROM、RAM、通信装置等により実現される。音声分類部141は、情報取得部101により取得された音声データを解析し、音声データに関する特徴量を算出する。より具体的には、音声分類部141は、音声データが、会話なのか、笑い声なのか、歓声なのか、破裂音(擬音語)なのか、拍手のような称賛を表す音なのか、音楽なのか等といった、音声データの分類処理を行う。このような音声データの分類処理は、例えば、記憶部115等に予め格納されている音声解析用データベース等を参照したり、音声解析用のプログラム等を実行したりすることで実行可能である。
また、音声分類部141は、音声データの音量についても解析を行い、例えば音量を数値化して出力してもよい。また、音声分類部141は、音声データが会話や笑い声などのように、人間によって生じたものであれば、声を発した人物が、男性なのか、女性なのか、子供なのか、といった点についても解析を行うことが可能である。これらの解析は、例えば、音声を表したスペクトル等を参照して、該当する波形の振幅や、音声データの周波数等を解析することで行なうことが可能である。
なお、音声分類部141によって算出される音声データに関する各種の特徴量(例えば、会話検出用特徴量、笑い声検出用特徴量、歓声検出用特徴量、擬音語検出用特徴量、音楽検出用特徴量・・・等)が所定の閾値以上となった場合に、認識対象とした音声データが、記憶部115等に格納される。
音声認識部143は、例えば、CPU、ROM、RAM、通信装置等により実現される。音声認識部143は、音声データを公知の音声認識処理及び言語認識処理により解析して、音声データの内容をテキストデータ化したり、音声データの内容そのものを認識したりする。これにより、音声データの内容や、音声データに含まれる各種の単語を特定することができる。
以上説明したような各処理部による処理結果は、情報取得部101や、画像解析部121、場所・行動解析部125及び状況認識部127に対して随時出力される。
なお、以上説明したような各処理部で実施される各種の解析・認識処理の詳細な方法については、特に限定されるものではなく、例えば特開2010−191934号公報等に開示されているような、公知の方法を利用することが可能である。また、音声解析部123は、ネットワーク1上に接続されている、音声認識サービスを提供するサービス提供サーバ5を利用して、上記のような音声認識処理を行ってもよい。
再び図3に戻って、本実施形態に係る認識処理部103が有する場所・行動解析部125について説明する。
場所・行動解析部125は、例えば、CPU、ROM、RAM、通信装置等により実現される。場所・行動解析部125は、情報取得部101により取得された位置情報や、加速度センサ等からの出力情報を解析して、ユーザが存在している場所や、ユーザが行っている行動の内容を特定する。
この場所・行動解析部125は、図6に示したように、行動認識部151、場所情報取得部153及び天気情報取得部155等を更に有している。
行動認識部151は、例えば、CPU、ROM、RAM、通信装置等により実現される。行動認識部151は、情報取得部101により取得された位置情報や、加速度センサ等からの出力情報を解析して、ユーザの行動を特徴づける特徴量を算出する。また、行動認識部151は、算出した特徴量を更に利用して、ユーザが行っている行動の内容を認識する。これにより、行動認識部151は、ユーザが滞留しているのか、移動しているのか、といった判定や、ユーザどのような移動手段で移動しているのかといった判定を行うことができる。その結果、行動認識部151は、ユーザが歩いている、走っている、静止している、ジャンプしている、エレベータで移動している、車や電車や自転車で移動している、・・・等といったユーザの状態を把握することができる。
行動認識部151で実施される行動認識処理の一例を、図7を参照しながら簡単に説明する。図7は、行動解析処理の一例を模式的に示した説明図である。
行動認識部151は、まず、加速度・ジャイロ等のモーションセンサデータを利用し、かかるセンサデータに対して、平均、分散、周波数フィルタ応答等といった公知の信号処理を行うことで、センサデータから特徴量を抽出する。その上で、行動認識部151は、ブースティング法、ニューラルネットワーク、隠れマルコフモデル(Hidden Markov Model:HMM)法等といった、公知の機械学習・パターン認識技術を利用して、人の動きや姿勢、乗り物等を認識することができる。
また、行動認識部151は、認識精度を更に向上させるために、図7に示したように、画像データ及び音声データ(又は、画像解析部121や音声解析部123による解析結果)を利用してもよい。
行動認識部151によって実施される上記のような行動認識処理の詳細は、特に限定されるものではなく、例えば特開2010−198595号公報に開示されているような、公知の方法を利用することが可能である。また、行動認識部151は、ネットワーク1上に接続されている、行動認識サービスを提供するサービス提供サーバ5を利用して、上記のような行動認識処理を行ってもよい。
場所情報取得部153は、例えば、CPU、ROM、RAM、通信装置等により実現される。場所情報取得部153は、必要に応じて場所取得サービスを提供するサービス提供サーバ5等を利用しながら、情報取得部101により取得された位置情報や、気圧センサ等からの出力情報を解析して、ユーザの存在している場所を表わした場所情報を取得する。以下、場所情報取得部153で実施される場所情報の取得処理について、図8及び図9を参照しながら、具体的に説明する。図8及び図9は、場所情報の取得処理について説明するための説明図である。
場所情報取得部153は、情報取得部101によって取得された場所情報のうち、緯度・経度を表わした情報を基にして、記憶部115(又は、ネットワーク1上に存在する各種サーバ)等に格納されている場所データベースを検索する。この場所データベースとしては、図8に示したように、自宅、職場、学校等の個人的な場所を格納するプライベート場所データベース(以下、「DB」と略記する。)と、レストラン、喫茶店、駅、店舗、公園等といった公的な場所を格納するパブリック場所DBと、が存在することが好ましい。
次に、場所情報取得部153は、緯度・経度の誤差に応じて、(現在地の緯度・経度+半径数メートル〜数十メートル)の範囲内で、プライベート場所DB及びパブリック場所DBを参照しながら、図8に示したような場所候補リストを生成する。図8に示したように、各場所を表わすデータには、場所の名前とカテゴリとが関連付けられている。
場所情報取得部153は、かかる場所候補リストを生成する際、気圧センサ等からの出力を用いて、高度(より詳細には、建物等のフロア)の判定を行い、場所候補リストを絞り込んでもよい。
このようにして生成される場所候補リストは、都市部では通常一意には定まらず、図8に例示したように、数個から数十個のリストになる。
次に、場所情報取得部153は、場所を認識・確定させるために、図9に示したように、画像データ及び音声データ(又は、画像解析部121や音声解析部123による解析結果)を利用する。
例えば、場所情報取得部153は、画像データからシーンを分類する技術(例えば、事前に大量に収集した画像データから機械学習を用いて判別器を生成する等)によって、レストラン、喫茶店、駅、店舗、公園、自宅、職場、学校等のシーンを分類するとともに、各シーンのスコアを算出させる。この際に、画像シーン分類は、色・輝度以外にデプス・奥行き情報を特徴量として用いてもよい。また、場所情報取得部153は、音声を分類する技術(例えば、事前にサンプルを集めて機械学習により判別器を生成する等)によって、会話、笑い声、音楽などの音声シーンを分類するとともに、各音声シーンのスコアを算出させる。
次に、場所情報取得部153は、画像シーン分類スコア及び音声シーン分類スコアを、場所カテゴリ判別器に入力する。かかる場所カテゴリ判別器は、例えば、画像シーン分類スコアで「レストラン」が高く、音声分類スコアの「会話」が高かった場合、事前に統計学習された結果を元に、場所カテゴリを「レストラン」と判別する。
なお、場所情報取得部153は、上記のような判別器を利用した処理を行わずとも、同様の処理を実施している画像解析部121や音声解析部123と互いに連携して、画像解析部121及び音声解析部123による解析結果を適宜利用してもよい。
このようにして得られた場所カテゴリの判別結果を利用して、場所情報取得部153は、生成した場所候補リストをソートする。図9に示した例では、場所の判別結果が、「職場」から「○○喫茶」へと変わることとなる。
以上説明したような処理を行うことで、場所情報取得部153は、ユーザが存在する場所を表わした場所情報を取得することができる。
再び図6に戻って、天気情報取得部155について簡単に説明する。
天気情報取得部155は、例えば、CPU、ROM、RAM、通信装置等により実現される。天気情報取得部155は、天気情報取得サービスを提供するサービス提供サーバ5(例えば、天気予報提供サーバ)等を利用して、ユーザが存在している場所の天気、最高気温、最低気温、降水確率、風速、湿度、気圧等といった、各種の天気情報(気象情報)を取得する。このようにして取得された天気情報を利用して、場所・行動解析部125は、実施する解析処理の精度を高めることができる。
以上説明したような各処理部による処理結果は、情報取得部101や、画像解析部121、音声解析部123及び状況認識部127に対して随時出力される。
再び図3に戻って、本実施形態に係る認識処理部103が有する状況認識部127について説明する。
状況認識部127は、例えば、CPU、ROM、RAM、通信装置等により実現される。状況認識部127は、画像解析部121、音声解析部123及び場所・行動解析部125等によって得られたユーザ環境に関する各種の解析結果を利用して、ユーザのおかれた状況を認識する。
ここで、「ユーザのおかれた状況」とは、「時間」、「場所」及び「行動」に関する解析結果に基づいて更なる認識処理を行うことで推定される、「時間」、「場所」、「行動」が複合的に組み合わされたユーザの生活レベル行動を意味する。このような状況の一例として、例えば、食事、買い物、仕事、人と会う、旅行、遊び、スポーツ、移動、家事、芸術鑑賞、くつろぎ、睡眠、・・・等を挙げることができる。
具体的には、状況認識部127は、図10に模式的に示したように、画像解析結果、音声解析結果、時間解析結果、場所解析結果及び行動解析結果を利用し、ルールベース処理、時系列パターン認識処理等といった方法を適用することで、ユーザのおかれた状況を認識する。また、状況認識部127は、ユーザのおかれた状況が変化する毎に、後述する状況候補情報生成部105に対して、状況の認識結果を表わした情報を出力する。
ここで、図10に示した時間解析結果のうち、時刻に関する情報は、情報処理装置10が保持している時間情報を参照することで得ることができる。また、状況認識部127は、かかる時間情報と、一般的な事前知識を用いることで、現在時刻がどのような状況であるかを判断することができる。例えば、着目している日が月曜日〜金曜日であれば、着目している日をウィークデーと特定することができるし、土曜日・日曜日であれば、週末と特定することができる。また、着目している時刻が例えば6〜11時であれば朝であると判断し、12〜15時であれば昼であると判断し、16〜18時であれば夕方であると判断し、19〜翌5時であれば夜であると判断することができる。
更に、状況認識部127は、ユーザの行動履歴に基づいてユーザの普段の行動パターンを特定し、ユーザに特化した時刻の状況を判断することも可能である。例えば、普段の行動パターンに基づき、月〜金曜日の8〜9時であれば通勤時間であると判断し、月〜金曜日の9〜18時であれば勤務時間であると判断し、土曜日の20〜21時であれば夕食時間であると判断することができる。
また、図10に示した画像解析結果は、画像解析部121による解析結果を利用することが可能であり、図10に示した音声解析結果は、音声解析部123による解析結果を利用することができる。また、図10に示した場所解析結果及び行動解析結果は、場所・行動解析部125による解析結果を利用することができる。
ここで、状況認識部127が実施する状況認識処理のうち、ルールベース処理とは、「時間」、「場所」、「行動」に関する各解析結果に対して、IF−THENルールを適用し、条件の合致したルールに該当する状況を、ユーザのおかれた状況であると判断する処理である。このルールベース処理に基づいて、例えば、「勤務時間中に職場にいて、座った状態にあれば、ユーザは『仕事』をしている」、「昼時にレストランにいて、画像データ中に料理が存在しているという状態にあれば、ユーザは『食事』をしている」、「帰宅中にスーパーマーケットの中を歩いていれば、ユーザは『買い物』をしている」、「勤務地から遠く離れた場所にいれば、ユーザは『旅行』をしている」等のように判断を行うことができる。
また、状況認識部127が実施する状況認識処理のうち、時系列パターン認識処理とは、隠れマルコフモデル法等のような機械学習技術の一種であり、時間的なパターンのモデル化に適した手法である。この処理では、事前に大量の学習データを用いて、各状況を特徴づける確率モデルを学習させておき、状況認識部127への入力データを事前構築した確率モデルに代入することで、ユーザのおかれた状況を認識する手法である。
この手法を用いると、例えば図11に示したように、画像シーン分類結果が「レストラン→料理→顔」と推移するとともに、行動認識結果が「静止→静止→静止」と推移している場合には、状況認識部127は、確率モデルに基づいて、ユーザが「食事」をしていると判断する。また、画像シーン分類結果が「店舗→本→店舗」と推移するとともに、行動認識結果が「歩き→静止→歩き」と推移している場合には、状況認識部127は、確率モデルに基づいて、ユーザが「買い物」をしていると判断する。
このようにして得られる状況認識結果の一例を、図12A及び図12Bに示した。図12A及び図12Bに示したように、認識処理部103で得られる各種の認識結果は、画像解析部121、音声解析部123及び場所・行動解析部125による各解析処理結果と、これら解析処理結果を組み合わせることで得られる状況認識結果(すなわち、ハイレベルコンテクスト)から構成されている。
図12A及び図12Bに示したような状況認識結果を表わす情報は、状況認識部127から状況候補情報生成部105へと随時出力される。
○状況候補情報生成部105
再び図2に戻って、本実施形態に係る状況候補情報生成部105について、詳細に説明する。
状況候補情報生成部105は、認識処理部103による状況の認識結果を利用して、ユーザのおかれた状況を表す情報と、当該状況におけるユーザの感情を表す情報と、を少なくとも含む、ユーザのおかれた状況の候補を表した状況候補情報を生成する。以下、図13〜図16を参照しながら、状況候補情報生成部105による状況候補情報の生成処理について、具体的に説明する。
状況候補情報生成部105によって生成される状況候補情報は、図13にも示したように、状況を表わすテキストデータと、感情を表わすテキストデータから構成されるテキストデータを少なくとも含む。本実施形態に係る状況候補情報生成部105は、感情を表わす表現を付加することにより、表情豊かで自然な文章を生成することが可能となる。
また、状況候補情報には、図13にも示したように、解析に利用された画像データや音声データが含まれていてもよい。また、テキストデータ、画像データ、音声データ以外にも、ユーザがおかれた状況を表わす各種のデータが添付されていてもよい。
ここで、状況候補情報生成部105が自動的に生成する、状況を表わすテキストデータは、図14Aに示したように、「『いつ』『どこ』で『だれ』と『なに』を『どうする』。」という文章で成り立っている。ここで、状況を表わすテキストデータのうち「いつ」を表わす部分には、時間認識結果から得られた情報が適用され、「どこ」を表わす部分には、場所認識結果から得られた情報が適用される。また、状況を表わすテキストデータのうち「だれ」を表わす部分には、顔認識結果や音声認識結果から得られた情報が適用され、「なに」を表わす部分には、画像解析結果から得られた情報が適用される。更に、状況を表わすテキストデータのうち「どうする」を表わす部分には、行動認識結果から得られた情報だけでなく、その後複合的に認識した状況認識結果から得られた情報が適用される。
なお、情報投稿サーバ3への投稿を意図した文章を生成する場合、「いつ」に対応する時間認識結果は、それほど重要ではない場合が多い。そこで、「いつ」に対応する時間認識結果を文章中に適用するか否かについては、適宜判断すればよい。ただ、時間認識結果に着目することで、ある行動の前なのか、最中なのか、後なのかを把握できる場合がある。このような場合には、状況候補情報生成部105は、時間認識結果を利用して、自動生成する文章の時制(すなわち、現在形、過去形、未来形、完了形・・・等)を適切に選択することができる。
認識処理部103から出力されるユーザ環境の解析結果や状況認識結果には、「いつ」、「どこ」、「だれ」、「なに」、「どうする」といった、いわゆる5W1Hに該当する解析結果が存在しない場合も生じうる。そこで、状況候補情報生成部105は、図14Bに示したように、一部の解析結果が得られない場合には、自動生成する文章を適宜修正して、自然な文章を生成するようにすればよい。
一方、本実施形態に係る感情を表わす情報は、ユーザの感じる感情をN種類に簡略化して表現するとともに、状況に応じて文章候補を切り替えることで生成される。そこで、状況候補情報生成部105は、感情を表わすテキストデータを、図15に例示したような感情表現テーブルを用いて生成する。図15に示した感情表現テーブルでは、表の列方向がN種類(図15の場合は、3種類)に簡略化した感情に対応しており、表の行方向が状況認識結果に対応している。
感情をどの程度まで簡略化するかについては、特に限定されるものではなく、例えば図16に示したように、適宜設定すればよい。図16では、感情の程度をN種類に分類した場合や、感情の種類をN種類に分類した場合を例示している。
図16に例示したように感情をN種類に簡略化することで、例えば、N種類のボタンをユーザが選択する等のような最小限のユーザ入力、又は、発汗、心拍、体温センサ等の生体センサを用いた感情センシングにより、ユーザのその時点での感情を反映した文章を、適切に生成することが可能となる。
また、状況に応じて感情を表わす文章候補を切り替えることで、その状況に合わせた最適な表現を選択することが可能となり、自然な文章生成が可能となる。更に、図15に示したように、ひとつの状況に対して複数の文章候補を割り当てることで、文章のバリエーションを増やすことも可能となる。文章のバリエーションが増えることで、ユーザの飽きにくい文章を生成することも可能となる。
かかる感情表現テーブルは、公知の方法により事前に準備しておくことができる。また、感情表現テーブルは、ユーザがソーシャルネットワークサービスに投稿した文章や、ユーザの発言等を利用して、個人化してもよい。
状況候補情報生成部105は、以上のような方法により、ユーザをとりまく状況が変化するごとに、状況認識結果や感情表現テーブルに基づいて状況候補情報を生成する。その後、状況候補情報生成部105は、生成した状況候補情報を表示制御部107に出力して、ユーザに提示させる。
○表示制御部107
再び図2に戻って、本実施形態に係る情報処理装置10が備える表示制御部107について説明する。
表示制御部107は、例えば、CPU、ROM、RAM、出力装置、通信装置等により実現される。表示制御部107は、状況候補情報生成部105から出力された、状況候補情報を含む各種の処理結果を、情報処理装置10が備えるディスプレイ等の出力装置や情報処理装置10の外部に設けられた出力装置等に表示する際の表示制御を行う。これにより、表示制御部107によって表示制御が行われている表示画面には、認識処理部103による認識結果や、状況候補情報生成部105により生成された状況候補情報が、所定の表示画面における所定の領域に随時表示されることとなる。情報処理装置10のユーザは、情報処理装置10によって自動的に生成された状況候補情報等といった各種の処理結果を、その場で把握することが可能となる。
○状況情報送信部109
状況情報送信部109は、例えば、CPU、ROM、RAM、通信装置等により実現される。状況情報送信部109は、状況候補情報生成部105により生成された状況候補情報のうちユーザに選択されたものを、ユーザのおかれた状況を表した状況情報として、ソーシャルネットワークサービスを提供する情報投稿サーバ3に送信する。これにより、各種のソーシャルネットワークサービスには、ユーザが投稿を希望する状況情報のみが投稿されることとなる。その結果、ユーザは、自身をとりまく状況に関する情報を自身で準備することなく、簡便に投稿することが可能となる。
○情報更新部111
情報更新部111は、例えば、CPU、ROM、RAM、通信装置等により実現される。情報更新部111は、感情表現テーブルに含まれるユーザの感情を表わす表現を、認識処理部103によるユーザ環境に関する解析結果、ユーザによってなされた発言又は文章表現、及び、情報処理装置10に設けられたセンサからの出力の少なくとも何れかを利用して更新する。以下、図17を参照しながら、本実施形態に係る情報更新部111の構成の一例について、簡単に説明する。図17は、本実施形態に係る情報処理装置が有する情報更新部の構成の一例を示したブロック図である。
本実施形態に係る情報処理装置10では、状況候補情報生成部105が感情を表わすテキストデータの生成に利用する感情表現テーブルを、ユーザの発言内容を少なくとも用いることによって、ユーザ個人に特化した感情表現テーブルへとカスタマイズしていく。これにより、状況候補情報生成部105で自動的に生成される状況候補情報の内容が、あたかもユーザ自身が作成したかのようなリアリティのあるものとなる。
かかる情報更新部111は、図17に示したように、くせ抽出部161と、感情表現個人化部167と、を少なくとも有し、より好ましくは、状況判定/状況認識部163と、感情判定/感情認識部165の少なくとも何れかを更に有する。
くせ抽出部161は、例えば、CPU、ROM、RAM、通信装置等により実現される。くせ抽出部161は、ユーザによってなされた発言又は文章表現(すなわち、ユーザの音声もしくは音声をテキスト化したもの、又は、ユーザが作成した文章)による普段のユーザ発言から、よく使う単語、よく使う言い回し、方言、口癖等といったユーザのくせを抽出する。
ここで、くせ抽出に用いられるユーザの音声としては、情報処理装置10に設けられたマイクが取得した音声データや、電話での会話等が用いられる。また、ユーザによってなされた文章表現としては、ユーザが作成したメールや、ソーシャルネットワークサービスへの投稿内容等が用いられる。
これらのデータからユーザのくせを抽出する方法については、特に限定されるものではなく、各種の統計処理や、機械学習技術やパターン認識技術等を適宜適用すればよい。
くせ抽出部161が抽出したユーザのくせに関する情報は、感情表現個人化部167へと出力する。
状況判定/状況認識部163は、例えば、CPU、ROM、RAM、通信装置等により実現される。状況判定/状況認識部163は、ユーザによってなされた発言又は文章表現を利用し、予め登録した状況ごとの出現単語の辞書を用いて状況を判定したり、認識処理部103によるユーザ環境に関する解析結果を利用して、状況を認識したりする。これにより、状況判定/状況認識部163は、ユーザがどのような状況(例えば、食事中、仕事中等)において着目している発言又は文章表現をしたのかを特定することができる。状況判定/状況認識部163は、得られた状況に関する情報を感情表現個人化部167へと出力する。これにより、後述する感情表現個人化部167では、くせ抽出部161により抽出したユーザのくせに加えて、状況判定/状況認識部163が取得した状況に応じて、感情を個人化することが可能となる。
なお、状況を判定したり、認識したりする方法については、特に限定されるものではなく、公知の方法を用いてもよいし、ネットワーク1に接続されたサービス提供サーバ5と連携することで、かかる判定/認識処理を実施してもよい。また、認識処理部103と連携して、状況判定/状況認識部163の機能を実現してもよい。
感情判定/感情認識部165は、例えば、CPU、ROM、RAM、通信装置等により実現される。感情判定/感情認識部165は、ユーザによってなされた発言又は文章表現を利用し、予め登録した感情ごとの出現単語の辞書を用いて感情を判定したり、情報処理装置10に設けられたセンサからの出力(例えば、生体センサからの発汗、体温、心拍等に関する出力)を利用して、感情を認識したりする。これにより、感情判定/感情認識部165は、着目している発言又は文章表現をした際にどのような感情を有していたのか(例えば、嬉しかったのか、疲れていたのか等)を特定することができる。感情判定/感情認識部165は、得られた感情に関する情報を感情表現個人化部167へと出力する。これにより、後述する感情表現個人化部167では、くせ抽出部161により抽出したユーザのくせに加えて、感情判定/感情認識部165が取得した感情に応じて、感情を個人化することが可能となる。
なお、感情を判定したり、認識したりする方法については、特に限定されるものではなく、公知の方法を用いてもよいし、ネットワーク1に接続されたサービス提供サーバ5と連携することで、かかる判定/認識処理を実施してもよい。
感情表現個人化部167は、例えば、CPU、ROM、RAM等により実現される。感情表現個人化部167は、くせ抽出部161から出力されたユーザのくせに関する情報、好ましくは、状況や感情に関する情報を更に利用して、感情表現テーブルに関するデータベースに記載されている感情表現テーブルをカスタマイズする。これにより、くせ抽出部161から出力されたユーザのくせに関する情報のみを用いた場合には、「語尾に『な』を付ける癖がある」等といった知見に基づいて、感情表現テーブル全体の言い回しをカスタマイズすることができる。また、状況や感情に関する情報を更に利用する場合には、「食事中に嬉しいときは、『まじうまい!』という表現をよく使う」等といった知見に基づいて、感情表現テーブル全体の言い回しをカスタマイズすることができる。
○外部機器連携部113
再び図2に戻って、本実施形態に係る情報処理装置10が備える外部機器連携部113について説明する。
外部機器連携部113は、例えば、CPU、ROM、RAM、通信装置等により実現される。外部機器連携部113は、相互に通信が可能な他の情報処理装置10と連携して、状況候補情報生成部105による状況候補情報の生成結果の精度向上又は共有を行う。以下、図18及び図19を参照しながら、本実施形態に係る外部機器連携部113の構成の一例について、簡単に説明する。図18は、本実施形態に係る情報処理装置が有する外部機器連携部の構成の一例を示したブロック図であり、図19は、本実施形態に係る外部機器連携部で実施される外部機器連携処理について説明するための説明図である。
この外部機器連携部113は、図18に示したように、グループ化部171と、連携処理部173と、を有している。
グループ化部171は、例えば、CPU、ROM、RAM、通信装置等により実現される。グループ化部171は、認識処理部103による顔認識結果や、情報処理装置10の記憶部115等に格納されている、ユーザの知人・友人に関する各種情報が記載されたアドレス帳等を利用して、情報処理装置10が存在している場所に共に存在している他の情報処理装置10をグループ化する。場所を共有している情報処理装置10を所持している複数のユーザは、同じイベントに対して一緒に参加している可能性が高い(例えば、食事会に参加している等)ため、これらの情報処理装置10をグループ化することで、各情報処理装置10で生成された状況候補情報の生成結果の精度向上や共有を、効率良く行うことが可能となる。
連携処理部173は、例えば、CPU、ROM、RAM、通信装置等により実現される。連携処理部173は、グループ化部171によってグループ化された複数の情報処理装置10間で、状況候補情報の精度向上や共有を図る。
例えば、4人のユーザが食事をしている状況を想定する。この場合に、4人のユーザが所持している各情報処理装置10は、同一の食事内容を様々な方向から撮像しているはずであるから、グループ化された情報処理装置10間で情報のやり取りを行うことで、情報を共有したり、精度向上を図ったりすることが可能となる。
例えば図19に示したように、Aさん及びBさんが所持しているデバイスが「『うどん』を食べている」という状況認識結果を生成したのに対し、Cさんが所持しているデバイスは「『ラーメン』を食べている」という状況認識結果を生成し、Dさんが所持しているデバイスでは、何らかの事情で状況認識が行われなかったとする。この場合、各情報処理装置10の外部機器連携部113が互いに連携することで、例えば、Cさんのデバイスの認識結果を、多数決によって、「『うどん』を食べている」と状況認識精度を向上させたり、Dさんのデバイスに多数を占める状況認識結果を提供できたりするようになる。
この際、連携処理部173は、状況を表わすテキストの共有を図るだけでなく、画像データやその他各種のメタデータ等を共有するようにしてもよい。
○記憶部115
再び図2に戻って、本実施形態に係る情報処理装置10が備える記憶部115について説明する。
記憶部115は、例えば本実施形態に係る情報処理装置10が備えるRAMやストレージ装置等により実現される。記憶部115には、情報処理装置10によって生成された画像データや音声データ等といった、各種のコンテンツデータが格納される。また、記憶部115には、表示画面に表示される各種のオブジェクトデータが格納されている。ここで言うオブジェクトデータには、例えば、アイコン、ボタン、サムネイル等のグラフィカルユーザインターフェース(GUI)を構成する任意のパーツ類が含まれる。
また、記憶部115には、本実施形態に係る情報処理装置10が、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等、または、各種のデータベースやプログラム等が、適宜記録される。この記憶部115は、情報取得部101、認識処理部103、状況候補情報生成部105、表示制御部107、状況情報送信部109、情報更新部111、外部機器連携部113等が、自由にデータのリード/ライト処理を行うことが可能である。
以上、本実施形態に係る情報処理装置10の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
なお、上述のような本実施形態に係る情報処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
<情報処理装置の変形例について>
次に、図20A及び図20Bを参照しながら、以上説明したような本実施形態に係る情報処理装置10の変形例について、簡単に説明する。図20A及び図20Bは、本実施形態に係る情報処理装置の変形例について説明するための説明図である。なお、図20A及び図20Bでは、図2に示した情報処理装置10が備える各処理部のうち、主要なもののみを図示している。
以上の説明では、本実施形態に係る情報処理装置10が一つの筺体内に実現されている場合について説明したが、本実施形態に係る情報処理装置10の各処理部は、複数の機器に分散していてもよい。この場合、各処理部を所持している複数の機器が互いに連携することによって、システム全体として情報処理装置10の機能が実現されることとなる。
例えば図20Aに示した例では、情報処理装置10には情報取得部101のみが実装されており、認識処理部103及び状況候補情報生成部105は、ネットワーク1に接続されている情報処理サーバ20に実装されている。図20Aに示した例では、情報処理装置10の情報取得部101が取得した各種情報が、ネットワーク1を介して情報処理サーバ20へと伝送され、情報処理サーバ20により、認識処理部103及び状況候補情報生成部105の処理が実施されることとなる。
また、図20Bに示した例では、情報処理装置10には、情報取得部101と、認識処理部103のうちユーザ環境を解析する処理部である、画像解析部121、音声解析部123及び場所・行動解析部125と、が実装されている。また、ネットワーク1に接続された情報処理サーバ20には、認識処理部103のうち状況認識部127と、状況候補情報生成部105と、が実装されている。図20Bに示した例では、情報処理装置10の情報取得部101が各種情報を取得し、画像解析部121、音声解析部123及び場所・行動解析部125が、得られた各種情報を解析することで、ユーザ環境の解析結果を表わした情報を生成する。ユーザ環境の解析結果を表わした情報は、情報処理サーバ20の状況認識部127へと伝送されて、状況認識処理が実施された後、状況候補情報生成部105により状況候補情報が生成される。
<表示画面の一例について>
次に、図21を参照しながら、本実施形態に係る情報処理装置10の表示制御部107によって表示制御される表示画面の一例について、具体的に説明する。図21は、本実施形態に係る情報処理装置の表示画面の一例を説明するための説明図である。
表示制御部107によって制御される表示画面には、情報処理装置10が備えるカメラ等によって撮像される画像が随時表示されている。また、表示画面の一部には、認識処理部103によって実施された結果生成される、ユーザ環境に関する特徴量スコアを表示するための領域(特徴量スコア表示領域)や、状況認識結果を表示するための領域(認識結果表示領域)が設けられ、表示制御部107によって制御される。また、表示画面に映し出された画像中に顔が存在する場合には、顔に該当する部分に顔検出枠が表示され、料理や物体が存在する場合には、料理/物体検出枠が表示される。更に、認識処理部103によって生成された認識結果に基づいて状況候補情報生成部105によって状況候補情報が生成されると、生成された状況候補情報は、状況候補情報表示領域に随時表示される。
状況候補情報は、ユーザのおかれた状況が変化するごとに生成されるものであるため、生成された状況候補情報は、状況候補情報表示領域に複数表示されることとなる。表示制御部107は、生成された状況候補情報が複数存在することをユーザに示すために、図21に例示したように、状況候補情報表示領域を階層化したり、スクロールバーに対応するオブジェクトを表示させたりすることが好ましい。
また、表示制御部107は、特徴量スコア表示領域や認識結果表示領域は、ユーザに知覚させないようにしてもよい。
<状況候補情報の生成処理の流れの一例について>
次に、図22A及び図22Bを参照しながら、本実施形態に係る情報処理装置10で実施される状況候補情報の生成処理の流れの一例について、簡単に説明する。図22A及び図22Bは、本実施形態に係る情報処理装置における状況候補情報生成処理の流れの一例を説明するための説明図である。
本実施形態に係る情報処理装置10において、先だって説明したような機能を提供するアプリケーションが起動すると、図22Aの(a)に示したような表示画面が表示され、どのようなソーシャルネットワークサービスに対して、情報を投稿する意思があるかを確認する。ユーザが用いるアカウントを選択すると、選択結果に基づいて、該当するソーシャルネットワークサービスを提供する情報投稿サーバ3との間の接続を確立する準備が行われる。
本実施形態に係る情報処理装置10が、例えばユーザが身につけるメガネ型又はボタン等のアクセサリー型のウェアラブル端末であるとする。ユーザの移動に伴って、情報処理装置10は各種の画像データや音声データを取得していく。ここで、図22Aの(b)に示したように、情報処理装置10の位置取得センサからの位置情報により、「ユーザの存在する場所が○○駅である」旨が明らかになったとする。かかる場合、表示画面の状況候補情報表示領域には、「○○駅にいます」という状況候補情報が表示されるとともに、情報投稿サーバ3への投稿処理を開始するための投稿アイコンが表示される。ユーザによって投稿アイコンが選択された場合には、状況情報送信部109によって、表示されている状況候補情報が、状況情報として情報投稿サーバ3へと送信される。
次の瞬間に、図22Aの(c)に示したように、カメラがある人物を捕らえたものとする。この場合、得られた画像情報に基づいて認識処理部103によって認識処理が開始し、人物が特定された時点で、図中に示したように顔検出枠と認識結果とが表示される。引き続き、状況認識部127による状況認識結果が終了すると、図22Aの(d)に示したように、「Aさんと○○駅にいます」というテキストと、Aさんを写した画像データと、が関連付けられた状況候補情報が生成されることとなる。
また、カメラの視野範囲からAさんが居なくなると、図22Bの(e)に示したように、状況候補情報表示領域には、「○○駅にいます」という状況候補情報が生成されることとなる。
その後、ユーザが移動して、ある喫茶店に入店し、ケーキを注文したものとする。注文したケーキが届けられ、カメラの視野範囲にケーキが存在するようになると、図22Bの(f)に示したように、「○○駅でケーキを食べています」という状況候補情報が表示されるとともに、情報投稿サーバ3への投稿処理を開始するための投稿アイコンが表示される。同時に、表示画面には感情選択アイコンが表示され、ユーザによって現在の感情が選択される。
ユーザによって感情選択アイコンが操作されると、図22Bの(g)に示したように、感情を表わすテキストである「とても美味しい!」という表現が追記されることとなる。また、認識処理部103によって喫茶店の名称が特定されると、従来「○○駅」という場所を表わす記載が、より粒度の細かな「○○ケーキ店」へと変更されることとなる。更に、ケーキを写した画像データが、「○○ケーキ店でケーキを食べています。とても美味しい!」というテキストデータに関連付けられることとなる。状況候補情報は、このような流れで自動的に随時生成され、蓄積されていく。
また、表示制御部107は、表示画面上に認識結果(例えば、「○○ケーキ店」という名称や、「ケーキ」という物体の認識結果)を改めるためのグラフィカルキーボードを表示可能なようにして、認識結果を変更できるようにしてもよい。
<情報処理方法について>
次に、図23を参照しながら、本実施形態に係る情報処理方法の流れの一例について、簡単に説明する。図23は、本実施形態に係る情報処理方法の流れの一例を示した流れ図である。
本実施形態に係る情報処理装置10において、先だって説明したような機能を提供するアプリケーションが起動すると(ステップS101)、情報取得部101によって、位置情報、画像情報、音声情報等のユーザ環境情報が随時取得され、認識処理部103へと出力される。
認識処理部103は、随時取得される位置情報・画像情報・音声情報等を解析して(ステップS103)、得られたユーザ環境の解析結果に基づいて、状況認識処理を実施する(ステップS105)。状況認識部127によって生成された状況認識結果は、状況候補情報生成部105へと出力される。
状況候補情報生成部105は、得られた状況認識結果を少なくとも利用して、状況候補情報を生成する(ステップS107)。生成された状況候補情報は、表示制御部107によって、表示画面に随時表示される(ステップS109)。
ここで、情報処理装置10は、ユーザによって、投稿操作がなされたか否かを判断する(ステップS111)。ユーザによって投稿操作がなされなかった場合、情報処理装置10は、ステップS103に戻って、随時取得されるユーザ環境情報の解析を継続する。一方、ユーザによって投稿操作がなされた場合、状況情報送信部109は、ユーザによって選択された状況候補情報を、状況情報として情報投稿サーバ3へと送信することにより、投稿処理を行う(ステップS113)。
その後、情報処理装置10は、ユーザによって、アプリケーションの終了操作がなされたか否かを判断する(ステップS115)。ユーザによって終了操作がなされなかった場合、情報処理装置10は、ステップS103に戻って、随時取得されるユーザ環境情報の解析を継続する。一方、ユーザによって終了操作がなされた場合、情報処理装置10は処理を終了する。
以上、図23を参照しながら、本実施形態に係る情報処理装置10で実施される情報処理方法の流れについて、簡単に説明した。
(ハードウェア構成について)
次に、図24を参照しながら、本開示の実施形態に係る情報処理装置10のハードウェア構成について、詳細に説明する。図24は、本開示の実施形態に係る情報処理装置10のハードウェア構成を説明するためのブロック図である。
情報処理装置10は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置10は、更に、ホストバス907、ブリッジ909、外部バス911、インターフェース913、センサ914、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923および通信装置925を備える。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
センサ914は、ユーザの動きを検知するセンサや、現在位置を表す情報を取得するセンサ等の検出手段である。かかるセンサの一例として、加速度センサ、重力検知センサ、落下検出センサ等を含む3軸加速度センサ、角速度センサ、手振れ補正センサ、地磁気センサ等を含む3軸ジャイロセンサ等のモーションセンサや、GPSセンサ等を挙げることができる。また、センサ914は、ユーザに固有の生体情報、または、かかる生体情報を取得するために用いられる各種情報を検出する検出手段であってもよい。このような検出手段の一例として、例えば、ユーザの発汗を検知するセンサ、ユーザの体温や心拍を検知するセンサ、ユーザの体表や体内に存在する生体成分を検出するセンサ等を挙げることができる。さらに、センサ914は、上述のもの以外にも、温度計、照度計、湿度計などの様々な測定機器を備えていてもよい。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなどユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置10の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置10のユーザは、この入力装置915を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置およびランプなどの表示装置や、スピーカおよびヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置917は、例えば、情報処理装置10が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置10が行った各種処理により得られた結果を、テキストまたはイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種データなどを格納する。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD−DVDメディア、Blu−rayメディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ、または、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)または電子機器等であってもよい。
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS−232Cポート、光オーディオ端子、HDMI(High−Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置10は、外部接続機器929から直接各種データを取得したり、外部接続機器929に各種データを提供したりする。
通信装置925は、例えば、通信網931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線または無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信等であってもよい。
以上、本開示の実施形態に係る情報処理装置10の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの存在する位置を表す位置情報、ユーザのおかれた環境に関する画像情報及び当該環境に関する音声情報の少なくとも何れかを含むユーザ環境情報に基づき、当該ユーザ環境情報に含まれる前記位置情報、前記画像情報及び前記音声情報の少なくとも何れかの解析処理を所定の時間間隔で行い、得られたユーザ環境に関する解析結果を利用して、ユーザのおかれた状況を認識する認識処理部と、
前記認識処理部による前記状況の認識結果を利用して、前記ユーザのおかれた状況を表す情報と、当該状況における前記ユーザの感情を表す情報と、を少なくとも含む、ユーザのおかれた状況の候補を表した状況候補情報を生成する状況候補情報生成部と、
を備える、情報処理装置。
(2)
前記認識処理部は、ユーザのおかれた状況が変化する毎に、前記状況候補情報生成部に対して、前記状況の認識結果を表わした情報を出力する、(1)に記載の情報処理装置。
(3)
前記ユーザの感情を表す情報は、認識された前記状況ごとに予め設けられた感情表現テーブルを利用して生成される、(1)又は(2)に記載の情報処理装置。
(4)
前記状況候補情報生成部は、前記ユーザのおかれた状況に関連する前記画像情報及び前記音声情報の少なくとも何れか一方を、前記状況候補情報に含める、(1)〜(3)の何れか1つに記載の情報処理装置。
(5)
前記認識処理部による認識結果と、前記状況候補情報生成部により生成された前記状況候補情報を所定の表示画面における所定の領域に表示させる表示制御部を更に備える、(1)〜(4)の何れか1つに記載の情報処理装置。
(6)
前記認識処理部は、前記ユーザ環境に関する解析結果を利用して、当該解析結果の時間経過に基づく時系列パターン認識処理、又は、所定の条件処理に基づくルールベース処理により、前記状況を認識する、(1)〜(5)の何れか1つに記載の情報処理装置。
(7)
認識された前記状況ごとに予め設けられた感情表現テーブルに含まれるユーザの感情を表わす表現を、前記認識処理部によるユーザ環境に関する解析結果、ユーザによってなされた発言又は文章表現、及び、前記情報処理装置に設けられたセンサからの出力の少なくとも何れかを利用して更新する情報更新部を更に備える、(1)〜(6)の何れか1つに記載の情報処理装置。
(8)
相互に通信が可能な他の前記情報処理装置と連携して、前記状況候補情報生成部による前記状況候補情報の生成結果の精度向上又は共有を行う外部機器連携部を更に備える、(1)〜(7)の何れか1つに記載の情報処理装置。
(9)
前記状況候補情報生成部により生成された前記状況候補情報のうち前記ユーザに選択されたものを、ユーザのおかれた状況を表した状況情報として、ソーシャルネットワークサービスを提供する情報投稿サーバに送信する状況情報送信部を更に備える、(1)〜(8)の何れか1つに記載の情報処理装置。
(10)
前記情報処理装置は、ユーザが携帯する携帯情報端末、又は、ユーザが身につけるウェアラブル端末である、(1)〜(9)の何れか1つに記載の情報処理装置。
(11)
ユーザの存在する位置を表す位置情報、ユーザのおかれた環境に関する画像情報及び当該環境に関する音声情報の少なくとも何れかを含むユーザ環境情報に基づき、当該ユーザ環境情報に含まれる前記位置情報、前記画像情報及び前記音声情報の少なくとも何れかの解析処理を所定の時間間隔で行い、得られたユーザ環境に関する解析結果を利用して、ユーザのおかれた状況を認識することと、
前記状況の認識結果を利用して、前記ユーザのおかれた状況を表す情報と、当該状況における前記ユーザの感情を表す情報と、を少なくとも含む、ユーザのおかれた状況の候補を表した状況候補情報を生成することと、
を含む、情報処理方法。
(12)
コンピュータに、
ユーザの存在する位置を表す位置情報、ユーザのおかれた環境に関する画像情報及び当該環境に関する音声情報の少なくとも何れかを含むユーザ環境情報に基づき、当該ユーザ環境情報に含まれる前記位置情報、前記画像情報及び前記音声情報の少なくとも何れかの解析処理を所定の時間間隔で行い、得られたユーザ環境に関する解析結果を利用して、ユーザのおかれた状況を認識する認識処理機能と、
前記認識処理機能による前記状況の認識結果を利用して、前記ユーザのおかれた状況を表す情報と、当該状況における前記ユーザの感情を表す情報と、を少なくとも含む、ユーザのおかれた状況の候補を表した状況候補情報を生成する状況候補情報生成機能と、
を実現させるためのプログラム。
1 ネットワーク
3 情報投稿サーバ
5 サービス提供サーバ
10 情報処理装置
20 情報処理サーバ
101 情報取得部
103 認識処理部
105 状況候補情報生成部
107 表示制御部
109 状況情報送信部
111 情報更新部
113 外部機器連携部
115 記憶部

Claims (13)

  1. ユーザのおかれた環境をセンサを通じてセンシングすることによって得られた環境情報を取得する情報取得部と、
    前記環境情報に含まれる画像に対して認識処理を行い、当該画像に含まれるオブジェクトの特徴量を参照して、当該画像に含まれる1つ又は複数のオブジェクトの認識結果として、前記オブジェクトの分類を出力する認識処理部と、
    前記認識結果としての前記分類に基づいて、当該画像から得られるコンテキストを表現するコンテキスト候補情報を生成する状況候補情報生成部と、
    を備え、
    機械学習モデルは、事前に収集された複数の画像を学習することによって得られ、前記認識処理に使用される、
    情報処理装置。
  2. 前記環境情報を取得する前記センサとして、カメラをさらに備える、請求項1に記載の情報処理装置。
  3. 前記オブジェクトは、顔、風景、料理、又は、物体の少なくとも一つを含む、請求項1又は2に記載の情報処理装置。
  4. 前記認識処理部は、前記オブジェクトの分類として顔が含まれるとき、顔の数、顔の位置座標、笑顔の有無、年齢、人種の少なくとも一つを出力する、請求項3に記載の情報処理装置。
  5. 前記認識処理部は、前記認識結果として、前記分類と前記分類に対応するスコアとを出力する、請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記認識処理部は、前記オブジェクトの分類として顔が含まれるとき、当該顔に対応する人物名を前記認識結果として出力する、請求項3又は4に記載の情報処理装置。
  7. 生成したコンテキスト候補情報のうち、前記ユーザが選択した前記コンテキスト候補情報を、ソーシャルネットワークサービスに送信する送信部をさらに備える、請求項1〜6のいずれか1項に記載の情報処理装置。
  8. 前記コンテキスト候補情報には前記画像が含まれる、請求項1〜7のいずれか1項に記載の情報処理装置。
  9. 前記状況候補情報生成部は、前記環境情報が変化するごとに、前記コンテキスト候補情報を生成する、請求項1〜8のいずれか1項に記載の情報処理装置。
  10. ディスプレイのコンテキスト候補情報表示領域に、前記コンテキスト候補情報を表示させる表示制御部をさらに備える、請求項1〜9のいずれか1項に記載の情報処理装置。
  11. 前記表示制御部は、前記コンテキスト候補情報表示領域に、複数の前記コンテキスト候補情報を表示させる、請求項10に記載の情報処理装置。
  12. ユーザのおかれた環境をセンサを通じてセンシングすることによって得られた環境情報を取得することと、
    前記環境情報に含まれる画像に対して認識処理を行い、当該画像に含まれるオブジェクトの特徴量を参照して、当該画像に含まれる1つ又は複数のオブジェクトの認識結果として、前記オブジェクトの分類を出力することと、
    前記認識結果としての前記分類に基づいて、当該画像から得られるコンテキストを表現するコンテキスト候補情報を生成することと、
    を含み、
    機械学習モデルは、事前に収集された複数の画像を学習することによって得られ、前記認識処理に使用される、
    情報処理方法。
  13. コンピュータに、
    ユーザのおかれた環境をセンサを通じてセンシングすることによって得られた環境情報を取得する情報取得機能と、
    前記環境情報に含まれる画像に対して認識処理を行い、当該画像に含まれるオブジェクトの特徴量を参照して、当該画像に含まれる1つ又は複数のオブジェクトの認識結果として、前記オブジェクトの分類を出力する認識処理機能と、
    前記認識結果としての前記分類に基づいて、当該画像から得られるコンテキストを表現するコンテキスト候補情報を生成する状況候補情報生成機能と、
    を実現させ、
    機械学習モデルは、事前に収集された複数の画像を学習することによって得られ、前記認識処理に使用される、
    プログラム。
JP2019132117A 2014-05-22 2019-07-17 情報処理装置、情報処理方法及びプログラム Pending JP2019220194A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014106276 2014-05-22
JP2014106276 2014-05-22

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016520969A Division JP6558364B2 (ja) 2014-05-22 2015-03-17 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2019220194A true JP2019220194A (ja) 2019-12-26

Family

ID=54553755

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016520969A Active JP6558364B2 (ja) 2014-05-22 2015-03-17 情報処理装置、情報処理方法及びプログラム
JP2019132116A Active JP6777201B2 (ja) 2014-05-22 2019-07-17 情報処理装置、情報処理方法及びプログラム
JP2019132117A Pending JP2019220194A (ja) 2014-05-22 2019-07-17 情報処理装置、情報処理方法及びプログラム

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016520969A Active JP6558364B2 (ja) 2014-05-22 2015-03-17 情報処理装置、情報処理方法及びプログラム
JP2019132116A Active JP6777201B2 (ja) 2014-05-22 2019-07-17 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (4) US10311303B2 (ja)
EP (2) EP3147798A4 (ja)
JP (3) JP6558364B2 (ja)
CN (3) CN110083303A (ja)
WO (1) WO2015178078A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021110925A (ja) * 2020-01-14 2021-08-02 クリア電子株式会社 視力低下抑制眼鏡、視力低下抑制方法及びプログラム
JP2022133033A (ja) * 2021-03-01 2022-09-13 株式会社Nttドコモ 情報処理装置
JP2022133036A (ja) * 2021-03-01 2022-09-13 株式会社Nttドコモ 情報処理装置

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809116B (zh) * 2014-01-24 2018-10-19 腾讯科技(深圳)有限公司 一种收藏内容的方法、装置及终端
WO2015141251A1 (ja) * 2014-03-19 2015-09-24 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
US9760809B2 (en) * 2014-10-20 2017-09-12 Bae Systems Information And Electronic Systems Integration Inc. Systems and methods for multi-factor image recognition
JP6255368B2 (ja) * 2015-06-17 2017-12-27 Cocoro Sb株式会社 感情制御システム、システム及びプログラム
KR20170009037A (ko) * 2015-07-15 2017-01-25 삼성전자주식회사 영상 컨텐츠 제공 장치 및 영상 컨텐츠 제공 방법
JP6501404B2 (ja) * 2016-02-05 2019-04-17 Kddi株式会社 他端末からの情報を用いて自端末のユーザ状態を判定する端末、システム、プログラム及び方法
KR20180006137A (ko) * 2016-07-08 2018-01-17 엘지전자 주식회사 단말기 및 그 제어 방법
JP6662746B2 (ja) 2016-10-07 2020-03-11 ファナック株式会社 機械学習部を備えた作業補助システム
US10909371B2 (en) * 2017-01-19 2021-02-02 Samsung Electronics Co., Ltd. System and method for contextual driven intelligence
JP6794872B2 (ja) * 2017-02-21 2020-12-02 沖電気工業株式会社 音声取引システムおよび連携制御装置
KR102651253B1 (ko) * 2017-03-31 2024-03-27 삼성전자주식회사 사용자 감정 판단을 위한 전자 장치 및 이의 제어 방법
US10671840B2 (en) * 2017-05-04 2020-06-02 Intel Corporation Method and apparatus for person recognition using continuous self-learning
JP7073640B2 (ja) * 2017-06-23 2022-05-24 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
US9980100B1 (en) 2017-08-31 2018-05-22 Snap Inc. Device location based on machine learning classifications
WO2019098038A1 (ja) * 2017-11-15 2019-05-23 ソニー株式会社 情報処理装置、及び情報処理方法
JP6807824B2 (ja) * 2017-11-28 2021-01-06 日本電信電話株式会社 行動セグメント抽出装置及び方法
JP7094486B2 (ja) * 2017-12-27 2022-07-04 トヨタ自動車株式会社 情報提供装置
CN108307043A (zh) * 2017-12-28 2018-07-20 努比亚技术有限公司 语音消息转换方法、移动终端及计算机可读存储介质
CN111615698A (zh) * 2018-01-23 2020-09-01 索尼公司 信息处理装置、信息处理方法和记录介质
US11330408B2 (en) * 2018-03-08 2022-05-10 Sony Corporation Information processing apparatus, terminal device, and information processing method
KR102584459B1 (ko) * 2018-03-22 2023-10-05 삼성전자주식회사 전자 장치 및 이의 인증 방법
US11463441B2 (en) 2018-05-24 2022-10-04 People.ai, Inc. Systems and methods for managing the generation or deletion of record objects based on electronic activities and communication policies
US11924297B2 (en) 2018-05-24 2024-03-05 People.ai, Inc. Systems and methods for generating a filtered data set
US10565229B2 (en) 2018-05-24 2020-02-18 People.ai, Inc. Systems and methods for matching electronic activities directly to record objects of systems of record
CN110188886B (zh) * 2018-08-17 2021-08-20 第四范式(北京)技术有限公司 对机器学习过程的数据处理步骤进行可视化的方法和系统
WO2020071409A1 (ja) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報提供方法
CN112534421A (zh) * 2018-12-20 2021-03-19 谷歌有限责任公司 基于图像内容分析驱动的地理语义索引的地图搜索推荐系统
US11417236B2 (en) * 2018-12-28 2022-08-16 Intel Corporation Real-time language learning within a smart space
CN111753580A (zh) * 2019-03-27 2020-10-09 北京外号信息技术有限公司 光通信装置的识别方法和相应的电子设备
KR20210066366A (ko) 2019-11-28 2021-06-07 삼성전자주식회사 영상 복원 방법 및 장치
JP2021135960A (ja) * 2020-02-28 2021-09-13 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2021240651A1 (ja) * 2020-05-26 2021-12-02 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
KR102451299B1 (ko) * 2020-09-03 2022-10-06 고려대학교 세종산학협력단 동물의 상황인지를 통한 캡션 생성 시스템
US11783573B2 (en) * 2020-12-21 2023-10-10 Halliburton Energy Services, Inc. Contextual information displayable on wearable devices based on images captured during wellsite operations
JPWO2022149465A1 (ja) * 2021-01-08 2022-07-14
WO2023063596A1 (ko) * 2021-10-15 2023-04-20 머지리티 주식회사 사물 기반의 이미지 분석 서비스를 제공하기 위한 장치 및 방법
WO2024062913A1 (ja) * 2022-09-20 2024-03-28 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、および画像処理装置の作動プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193824A (ja) * 2000-04-13 2007-08-02 Fujifilm Corp 画像処理方法
JP2013101450A (ja) * 2011-11-08 2013-05-23 Sony Corp 情報処理装置及び方法、並びにプログラム
WO2013074233A1 (en) * 2011-11-15 2013-05-23 Facebook, Inc. Facial recognition using social networking information
JP2013145526A (ja) * 2012-01-16 2013-07-25 Toshiba Tec Corp 情報処理装置、店舗システム及びプログラム
JP2013164650A (ja) * 2012-02-09 2013-08-22 Nikon Corp 画像解析装置
JP2014038429A (ja) * 2012-08-14 2014-02-27 Zenrin Datacom Co Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2014081770A (ja) * 2012-10-16 2014-05-08 Sony Corp 端末装置、端末制御方法、情報処理装置、情報処理方法、およびプログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7921036B1 (en) * 2002-04-30 2011-04-05 Videomining Corporation Method and system for dynamically targeting content based on automatic demographics and behavior analysis
US7319780B2 (en) * 2002-11-25 2008-01-15 Eastman Kodak Company Imaging method and system for health monitoring and personal security
JP2006259641A (ja) * 2005-03-18 2006-09-28 Univ Waseda 音声認識装置及び音声認識用プログラム
JP4507992B2 (ja) * 2005-06-09 2010-07-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5041202B2 (ja) 2006-06-20 2012-10-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP4891802B2 (ja) * 2007-02-20 2012-03-07 日本電信電話株式会社 コンテンツ検索・推薦方法、コンテンツ検索・推薦装置およびコンテンツ検索・推薦プログラム
US8223374B2 (en) * 2008-06-27 2012-07-17 Kabushiki Kaisha Toshiba Maintenance system of image forming apparatus and maintenance method of the same
US8520979B2 (en) * 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
US8385971B2 (en) * 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
JP5326910B2 (ja) 2009-01-20 2013-10-30 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5649808B2 (ja) 2009-01-28 2015-01-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP5392833B2 (ja) * 2009-08-31 2014-01-22 日本電信電話株式会社 ストーリー生成システム、方法、およびプログラム
JP5440080B2 (ja) * 2009-10-02 2014-03-12 ソニー株式会社 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
WO2011152844A1 (en) * 2010-06-01 2011-12-08 Hewlett-Packard Development Company, L.P. Image clustering using a personal clothing model
US8655889B2 (en) * 2010-12-10 2014-02-18 Microsoft Corporation Autonomous mobile blogging
JP5708278B2 (ja) * 2011-06-08 2015-04-30 ソニー株式会社 情報処理装置および情報処理方法
WO2012176317A1 (ja) * 2011-06-23 2012-12-27 サイバーアイ・エンタテインメント株式会社 画像認識システムを組込んだ関連性検索によるインタレスト・グラフ収集システム
US20130038756A1 (en) 2011-08-08 2013-02-14 Samsung Electronics Co., Ltd. Life-logging and memory sharing
US20130129142A1 (en) 2011-11-17 2013-05-23 Microsoft Corporation Automatic tag generation based on image content
WO2013120851A1 (en) * 2012-02-13 2013-08-22 Mach-3D Sàrl Method for sharing emotions through the creation of three-dimensional avatars and their interaction through a cloud-based platform
WO2014071375A1 (en) * 2012-11-05 2014-05-08 Brilliant Mobile L.L.C. Media messaging methods, systems, and devices
US10402407B2 (en) * 2013-06-17 2019-09-03 Lenovo (Singapore) Pte. Ltd. Contextual smart tags for content retrieval
CN103390336A (zh) * 2013-06-27 2013-11-13 江苏梦兰神彩科技发展有限公司 一种具有自动发布微博的环境数据采集仪器
US9355123B2 (en) * 2013-07-19 2016-05-31 Nant Holdings Ip, Llc Fast recognition algorithm processing, systems and methods
CN103442199A (zh) * 2013-09-25 2013-12-11 上海云视科技有限公司 紧急状态下自动录音录像的方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193824A (ja) * 2000-04-13 2007-08-02 Fujifilm Corp 画像処理方法
JP2013101450A (ja) * 2011-11-08 2013-05-23 Sony Corp 情報処理装置及び方法、並びにプログラム
WO2013074233A1 (en) * 2011-11-15 2013-05-23 Facebook, Inc. Facial recognition using social networking information
JP2013145526A (ja) * 2012-01-16 2013-07-25 Toshiba Tec Corp 情報処理装置、店舗システム及びプログラム
JP2013164650A (ja) * 2012-02-09 2013-08-22 Nikon Corp 画像解析装置
JP2014038429A (ja) * 2012-08-14 2014-02-27 Zenrin Datacom Co Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2014081770A (ja) * 2012-10-16 2014-05-08 Sony Corp 端末装置、端末制御方法、情報処理装置、情報処理方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
上東 太一,甫足 創,柳井 啓司: "Multiple Kernel Learningによる50種類の食事画像の認識", 画像の認識・理解シンポジウム(MIRU2009), JPN6020021494, July 2009 (2009-07-01), JP, ISSN: 0004364475 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021110925A (ja) * 2020-01-14 2021-08-02 クリア電子株式会社 視力低下抑制眼鏡、視力低下抑制方法及びプログラム
JP2022133033A (ja) * 2021-03-01 2022-09-13 株式会社Nttドコモ 情報処理装置
JP2022133036A (ja) * 2021-03-01 2022-09-13 株式会社Nttドコモ 情報処理装置
JP7203132B2 (ja) 2021-03-01 2023-01-12 株式会社Nttドコモ 情報処理装置
JP7275175B2 (ja) 2021-03-01 2023-05-17 株式会社Nttドコモ 情報処理装置

Also Published As

Publication number Publication date
US10311303B2 (en) 2019-06-04
CN106462598A (zh) 2017-02-22
US20190236368A1 (en) 2019-08-01
US10853650B2 (en) 2020-12-01
JPWO2015178078A1 (ja) 2017-04-20
JP6777201B2 (ja) 2020-10-28
EP3147798A1 (en) 2017-03-29
US11244163B2 (en) 2022-02-08
WO2015178078A1 (ja) 2015-11-26
JP2019207720A (ja) 2019-12-05
EP3591577A1 (en) 2020-01-08
CN110780707B (zh) 2024-05-24
US20220122355A1 (en) 2022-04-21
JP6558364B2 (ja) 2019-08-14
CN110780707A (zh) 2020-02-11
US11763580B2 (en) 2023-09-19
US20200074179A1 (en) 2020-03-05
US20170032186A1 (en) 2017-02-02
CN110083303A (zh) 2019-08-02
EP3147798A4 (en) 2018-01-17

Similar Documents

Publication Publication Date Title
JP6777201B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11024070B2 (en) Device and method of managing user information based on image
KR101902117B1 (ko) 데이터 기반 자연 언어 이벤트 검출 및 분류
JP5904021B2 (ja) 情報処理装置、電子機器、情報処理方法、及びプログラム
CN106164962A (zh) 基于用户的显式声明的个性化推荐
CN109635130A (zh) 用于媒体探索的智能自动化助理
US11314475B2 (en) Customizing content delivery through cognitive analysis
TWI680400B (zh) 基於影像管理使用者資訊的裝置與方法
US11663261B2 (en) Defining a collection of media content items for a relevant interest
CN110147467A (zh) 一种文本描述的生成方法、装置、移动终端及存储介质
WO2016181670A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN105893771A (zh) 一种信息服务方法和装置、一种用于信息服务的装置
US20200234187A1 (en) Information processing apparatus, information processing method, and program
US9811535B1 (en) Creating social network groups
US11651280B2 (en) Recording medium, information processing system, and information processing method
US20220188363A1 (en) Information processing apparatus, information processing method, and program
WO2018051596A1 (ja) 情報処理装置
US20210110846A1 (en) Information processing apparatus, information processing method, and program
US20210082392A1 (en) Information processing device, information processing method, and program
WO2019054009A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201013