JP2017538975A - 顔アルバムに基づく音楽再生方法、装置および端末デバイス - Google Patents

顔アルバムに基づく音楽再生方法、装置および端末デバイス Download PDF

Info

Publication number
JP2017538975A
JP2017538975A JP2016520060A JP2016520060A JP2017538975A JP 2017538975 A JP2017538975 A JP 2017538975A JP 2016520060 A JP2016520060 A JP 2016520060A JP 2016520060 A JP2016520060 A JP 2016520060A JP 2017538975 A JP2017538975 A JP 2017538975A
Authority
JP
Japan
Prior art keywords
user
person
face album
album
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016520060A
Other languages
English (en)
Other versions
JP6474393B2 (ja
Inventor
陳志軍
侯文迪
龍飛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaomi Inc
Original Assignee
Xiaomi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaomi Inc filed Critical Xiaomi Inc
Publication of JP2017538975A publication Critical patent/JP2017538975A/ja
Application granted granted Critical
Publication of JP6474393B2 publication Critical patent/JP6474393B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/436Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/54Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/638Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Security & Cryptography (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Evolutionary Biology (AREA)
  • Processing Or Creating Images (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、顔アルバムに基づく音楽再生方法、装置および端末デバイスに関する。当該方法は、ユーザが目標顔アルバム中のピクチャを閲覧するためにトリガーした閲覧指令を取得するステップと、ユーザの特徴情報を取得するステップと、ユーザの特徴情報に基づきユーザと目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップと、あらかじめ設定された各人物関係と各音楽ジャンルとの対応関係に基づき、特定した人物関係に対応する目標音楽ジャンルを特定するステップと、目標顔アルバム中のピクチャおよび目標音楽ジャンルに対応する音楽を再生するステップと、を含む。ある顔アルバムを閲覧する時に、閲覧者と被閲覧者との人物関係に基づき、それに対応する音楽を自動的に選択し再生することができるため、ユーザの操作の煩雑さを低減し、ユーザの体験を向上させた。

Description

本発明は、通信技術分野に関し、特に顔アルバムに基づく音楽再生方法、装置および端末デバイスに関する。
ユーザはいつも携帯電話等の端末デバイスを利用して撮影し、撮影したピクチャを端末デバイスに保存する。ユーザが撮影した大量のピクチャを有効的に分類管理するために、関連技術では顔アルバムというアプリケーションを提供した。
顔アルバムとは、簡単に説明すると、ユーザが撮影した全てのピクチャに対して顔を識別して、同一顔を含む、つまり同一人物のピクチャを同一アルバムに入れることにより、顔によってピクチャを分類記憶し、管理することを実現したことを指す。
ユーザは各顔アルバム中のピクチャを閲覧する時に、雰囲気を際立たせるために、音楽を再生したくなる。例えば、ユーザは子供のピクチャを閲覧する時に、軽快で純真な音楽を選択して再生し、雰囲気を盛り上げる。しかし、音楽の選択はしばしば手動で行い、ユーザが複数の顔アルバムのピクチャを閲覧する時に、しばしば手動で選択し、音楽の再生を切り替える必要がある。
本発明は、顔アルバムに基づく音楽再生方法、装置および端末デバイスを提供し、ユーザが顔アルバム中のピクチャを閲覧する時に、自動的に音楽を選択して、ユーザの体験を向上させる。
本発明の実施例の第1の態様によれば、顔アルバムに基づく音楽再生方法を提供し、前記顔アルバムに基づく音楽再生方法は、
ユーザが目標顔アルバム中のピクチャを閲覧するためにトリガーした閲覧指令を取得するステップと、
前記ユーザの特徴情報を取得するステップと、
前記ユーザの特徴情報に基づき、前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップと、
あらかじめ設定された各人物関係と各音楽ジャンルとの対応関係に基づき、前記人物関係に対応する目標音楽ジャンルを特定するステップと、
前記目標顔アルバム中のピクチャおよび前記目標音楽ジャンルに対応する音楽を再生するステップと、を含む。
当該技術案は、下記の有益な効果を含んでも良い。つまり、ユーザがある顔アルバム中のピクチャを閲覧すべき時には、取得した当該ユーザの特徴情報に基づき当該ユーザと当該顔アルバムに対応する人物顔画像、つまり、被閲覧者との人物関係を特定することができる。これにより、当該人物関係に基づき、それに対応する音楽ジャンルに対応する音楽の自動選択および再生を実現することができる。ある顔アルバムを閲覧する時に、閲覧者と被閲覧者との人物関係に基づき、それに対応する音楽を自動選択および再生することができるため、ユーザの操作の煩雑さを低減し、ユーザの体験を向上させた。
第1の態様の第1の実施可能な形態において、前記ユーザの特徴情報を取得するステップは、
前記ユーザの指紋を取得するステップを含み、
前記ユーザの特徴情報に基づき前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップは、
前記指紋情報と予め設定された第1ユーザの指紋情報とをマッチングさせるステップと、
前記指紋情報と前記第1ユーザの指紋情報とが一致する場合には、前記ユーザが第1ユーザであると特定し、かつ、前記第1ユーザが前記目標顔アルバムのために設けた分類タグに基づき前記第1ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップと、
前記指紋情報と前記第1ユーザの指紋情報とが一致しない場合には、前記ユーザが第2ユーザであると特定し、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップと、を含む。
第1の態様の第1の実施可能な形態に基づき、第1の態様の第2の実施可能な形態において、前記ユーザが第2ユーザであると特定し、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップは、
前記第2ユーザの人物顔画像を取得するステップと、
前記第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像とをマッチングさせるステップと、
前記第2ユーザの人物顔画像と一致する顔アルバムが存在する場合には、一致する顔アルバムの分類タグおよび前記目標顔アルバムの分類タグに基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するステップと、を含む。
第1の態様の第3の実施可能な形態において、前記ユーザの特徴情報を取得するステップは、
前記ユーザの人物顔画像を取得するステップを含み、
前記ユーザの特徴情報に基づき前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップは、
前記人物顔画像と予め設定された第1ユーザの人物顔画像とをマッチングさせるステップと、
前記人物顔画像と前記第1ユーザの人物顔画像とが一致する場合には、前記ユーザが第1ユーザであると特定し、かつ、前記第1ユーザが前記目標顔アルバムのために設けた分類タグに基づき前記第1ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップと、
前記人物顔画像と前記第1ユーザの人物顔画像とが一致しない場合には、前記ユーザが第2ユーザであると特定し、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップと、を含む。
第1の態様の第3の実施可能な形態に基づき、第1の態様の第4の実施可能な形態において、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップは、
前記第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像とをマッチングさせるステップと、
前記第2ユーザの人物顔画像と一致する顔アルバムが存在する場合には、一致する顔アルバムの分類タグおよび前記目標顔アルバムの分類タグに基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するステップと、を含む。
第1の態様を実現する第2または第4の実施可能な形態に基づき、第1の態様の第5の実施可能な形態において、
前記一致する顔アルバムの分類タグおよび前記目標顔アルバムの分類タグに基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するステップは、
一致する顔アルバムの分類タグに基づき、前記第1ユーザと前記第2ユーザとの人物関係を特定するステップと、
前記第1ユーザと前記被閲覧者との人物関係、および前記第1ユーザと前記第2ユーザとの人物関係に基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するステップと、を含む。
当該技術案は下記の有益な効果を含んでも良い。つまり、閲覧ユーザの人物顔画像、指紋などの特徴情報を取得することにより、閲覧ユーザに対し身分識別を行い、閲覧者が顔アルバムの作成者、つまり、顔アルバムの存在する端末デバイスの所有者でない場合には、当該閲覧者の人物顔画像の採集および各顔アルバムに対応する人物顔画像とのマッチング処理により、当該閲覧者がある顔アルバムに属する場合に、当該一致する顔アルバムの分類タグおよび閲覧される目標顔アルバムの分類タグに基づき、端末デバイスの所有者を媒介として、当該閲覧者と被閲覧者との人物関係を得ることができ、これにより人物関係に基づいた音楽の自動選択および再生を実現することができる。
第1の態様を実現する第2または第4の実施可能な形態に基づき、第1の態様の第6の実施可能な形態において、前記顔アルバムに基づく音楽再生方法は、
前記第2ユーザの人物顔画像と一致する顔アルバムが存在しない場合には、前記第2ユーザの人物特徴を取得するステップと、
前記人物特徴情報および前記第1ユーザと前記被閲覧者との人物関係に基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するステップと、をさらに含み、
前記人物特徴情報は年齢層特徴情報および/または性別特徴情報を含む。
当該技術案は下記の有益な効果を含んでも良い。つまり、閲覧者が端末デバイスの所有者ではなく、かつ当該閲覧者が端末デバイスに保存されたある顔アルバムに属しない場合には、閲覧者の人物顔画像の特徴を取得することにより、取得した人物特徴情報および端末デバイスの所有者と被閲覧者との人物関係に基づき、端末デバイスの所有者を媒介とし、当該閲覧者と被閲覧者との人物関係を得ることができるため、人物関係に基づく音楽の自動選択および再生を実現することができる。
第1の態様の第7の実施可能な形態において、前記顔アルバムに基づく音楽再生方法は、
前記目標顔アルバム中のピクチャを撮影時間または保存時間の前後順位に従いソートするステップをさらに含む。
本発明の実施例の第2の態様によれば、顔アルバムに基づく音楽再生装置は、
ユーザが目標顔アルバム中のピクチャを閲覧するためにトリガーした閲覧指令を取得するための第1取得モジュールと、
前記ユーザの特徴情報を取得するための第2取得モジュールと、
前記ユーザの特徴情報に基づき前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するための第1特定モジュールと、
あらかじめ設定された各人物関係と各音楽ジャンルとの対応関係に基づき、前記第1特定モジュールが特定した前記人物関係に対応する目標音楽ジャンルを特定するための第2特定モジュールと、
前記目標顔アルバム中のピクチャおよび前記第2特定モジュールが特定した前記目標音楽ジャンルに対応する音楽を再生するための再生モジュールと、を備える。
当該技術案は、下記の有益な効果を含んでも良い。つまり、ユーザがある顔アルバム中のピクチャを閲覧すべき時には、取得した当該ユーザの特徴情報に基づき当該ユーザと当該顔アルバムに対応する人物顔画像、つまり、被閲覧者との人物関係を特定することができる。これにより、当該人物関係に基づき、それに対応する音楽ジャンルに対応する音楽の自動選択および再生を実現することができる。ある顔アルバムを閲覧する時に、閲覧者と被閲覧者との人物関係に基づき、それに対応する音楽を自動選択および再生することができるため、ユーザの操作の煩雑さを低減し、ユーザの体験を向上させた。
第2の態様の第1の実施可能な形態において、前記第2取得モジュールは、
前記ユーザの指紋情報を取得するための第1取得サブモジュールを備え、
前記第1特定モジュールは、
前記第1取得サブモジュールが取得した前記指紋情報と予め設定された第1ユーザの指紋情報とをマッチングさせるための第1マッチングサブモジュールと、
前記指紋情報と前記第1ユーザの指紋情報とが一致する場合には、前記ユーザが第1ユーザであると特定し、かつ前記第1ユーザが前記目標顔アルバムのために設けた分類タグに基づき前記第1ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するための第1特定サブモジュールと、
前記指紋情報と前記第1ユーザの指紋情報とが一致しない場合には、前記ユーザが第2ユーザであると特定し、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するための第2特定サブモジュールと、を備える。
第2の態様の第1の実施可能な形態に基づき、第2の態様の第2の実施可能な形態において、前記第2特定サブモジュールは、
前記第2ユーザの人物顔画像を取得するための第1取得手段と、
前記第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像とをマッチングさせるためのマッチング手段と、
前記第2ユーザの人物顔画像と一致する顔アルバムが存在する場合には、一致する顔アルバムの分類タグおよび前記目標顔アルバムの分類タグに基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するための第1特定手段と、を備える。
第2の態様の第3の実施可能な形態において、前記第2取得モジュールは、
前記ユーザの人物顔画像を取得するため第2取得サブモジュールを備え、
前記第1特定モジュールは、
前記第2取得サブモジュールが取得した前記人物顔画像と予め設定されたの第1ユーザの人物顔画像とをマッチングさせる第2マッチングサブモジュールと、
前記人物顔画像と前記第1ユーザの人物顔画像とが一致する場合には、前記ユーザが第1ユーザであると特定し、かつ前記第1ユーザが前記目標顔アルバムのために設けた分類タグに基づき前記第1ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するための前記第1特定サブモジュールと、
前記人物顔画像と前記第1ユーザの人物顔画像とが一致しない場合には、前記ユーザが第2ユーザであると特定し、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するための前記第2特定サブモジュールと、を備える。
第2の態様の第3の実施可能な形態に基づき、第2の態様の第4の実施可能な形態において、前記第2特定サブモジュールは、
前記第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像とをマッチングさせるためのマッチング手段と、
前記マッチング手段がマッチングにより前記第2ユーザの人物顔画像と一致する顔アルバムを得た場合には、一致する顔アルバムの分類タグおよび前記目標顔アルバムの分類タグに基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するための第1特定手段と、を備える。
第2の態様を実現する第2または第4の実施可能な形態に基づき、第2の態様の第5の実施可能な形態において、前記第1特定手段は、
一致する顔アルバムの分類タグに基づき、前記第1ユーザと前記第2ユーザとの人物関係を特定するための第1特定ユニットと、
前記第1特定サブモジュールが特定した前記第1ユーザと前記被閲覧者との人物関係、および前記第1特定ユニットが特定した前記第1ユーザと前記第2ユーザとの人物関係に基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するための第2特定ユニットと、を備える。
当該技術案は下記の有益な効果を含んでも良い。つまり、閲覧ユーザの人物顔画像、指紋などの特徴情報を取得することにより、閲覧ユーザに対し身分識別を行い、閲覧者が顔アルバムの作成者、つまり、顔アルバムの存在する端末デバイスの所有者でない場合には、当該閲覧者の人物顔画像の採集および各顔アルバムに対応する人物顔画像とのマッチング処理により、当該閲覧者がある顔アルバムに属する場合に、当該一致する顔アルバムの分類タグおよび閲覧される目標顔アルバムの分類タグに基づき、端末デバイスの所有者を媒介として、当該閲覧者と被閲覧者との人物関係を得ることができ、これにより人物関係に基づいた音楽の自動選択および再生を実現することができる。
第2の態様を実現する第2または第4の実施可能な形態に基づき、第2の態様の第6の実施可能な形態において、前記第2特定サブモジュールは、
前記マッチング手段が前記第2ユーザの人物顔画像と一致する顔アルバムをマッチングにより得られなかった場合には、前記第2ユーザの人物特徴情報を取得するための第2取得手段と、
前記第2取得手段が取得した前記人物特徴情報および前記第1特定サブモジュールが特定した前記第1ユーザと前記被閲覧者との人物関係に基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するための第2特定手段と、をさらに備え、
前記人物特徴情報は年齢層特徴情報および/または性別特徴情報を含む。
当該技術案は下記の有益な効果を含んでも良い。つまり、閲覧者が端末デバイスの所有者ではなく、かつ当該閲覧者が端末デバイスに保存されたある顔アルバムに属しない場合には、閲覧者の人物顔画像の特徴を取得することにより、取得した人物特徴情報および端末デバイスの所有者と被閲覧者との人物関係に基づき、端末デバイスの所有者を媒介とし、当該閲覧者と被閲覧者との人物関係を得ることができるため、人物関係に基づく音楽の自動選択および再生を実現することができる。
第2の態様の第7の実施可能な形態において、前記顔アルバムに基づく音楽再生装置は、
前記目標顔アルバム中のピクチャを撮影および保存時間の前後順位に従いソートするためのソートモジュールをさらに備える。
本発明の実施例の第3の態様によれば、端末デバイスを提供し、当該端末デバイスは、
プロセッサと、
プロセッサの実行可能な指令を記憶するためのメモリと、を含み、
前記プロセッサは、
ユーザが目標顔アルバム中のピクチャを閲覧するためにトリガーした閲覧指令を取得し、
前記ユーザの特徴情報を取得し、
前記ユーザの特徴情報に基づき前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定し、
あらかじめ設定された各人物関係と各音楽ジャンルとの対応関係に基づき、前記人物関係に対応する目標音楽ジャンルを特定し、
前記目標顔アルバム中のピクチャおよび前記目標音楽ジャンルに対応する音楽を再生する。
上述した一般的な記述および後続する詳細な記述は、単に例示的および解釈的なものであり、本発明を制限できるものでないと理解されるべきである。
ここでの図面は、明細書を構成する一部として見なされ、本発明に適した実施例を示し、かつ、明細書の文字記載とともに本発明の仕組みを解釈するために用いられる
一実施例にかかる顔アルバムに基づく音楽再生方法の実施例1を示すフローチャートである。 一実施例にかかる顔アルバムに基づく音楽再生方法の実施例2を示すフローチャートである。 一実施例にかかる顔アルバムに基づく音楽再生方法の実施例3を示すフローチャートである。 一実施例にかかる顔アルバムに基づく音楽再生方法の実施4を示すフローチャートである。 一実施例にかかる顔アルバムに基づく音楽再生装置の実施例1を示すブロック図である。 一実施例にかかる顔アルバムに基づく音楽再生装置の実施例3を示すブロック図である。 一実施例にかかる顔アルバムに基づく音楽再生装置の実施例3を示すブロック図である。 一実施例にかかる顔アルバムに基づく音楽再生装置の実施例4を示すブロック図である。 一実施例にかかる端末デバイスを示すブロック図である。 一実施例にかかる別の端末デバイスを示すブロック図である。
上記図面により、本発明の明確な実施例を示しており、後続する記述は更に詳細である。これらの図面および文字記載はいかなる形態で本発明の思想範囲を制限するためではなく、特定の実施例を照することにより当業者に本発明の概念を説明するためである。
次に、実施例を詳細に説明し、例示が図に示されている。以下の記述が図に係る場合、別途にて示さない限り、異なる図面における同じ符号は、同じまたは類似する要素を示す。以下の実施例に記述される実施形態は、本発明と一致する全ての実施形態を代表するとは限らない。逆に、それらは、添付する特許請求の範囲に記載されているように、本発明の一部の態様と一致する装置および方法の例に過ぎない。
図1は一実施例にかかる顔アルバムに基づく音楽再生方法の実施例1を示すフローチャートであり、当該方法は顔アルバムに基づく音楽再生装置が実行してもよい。当該顔アルバムに基づく音楽再生装置はアプリケーションAPPであってもよく、端末デバイスであってもよい。図1に示すように、当該方法は下記のステップを含む。
ステップ101では、ユーザが目標顔アルバム中のピクチャを閲覧するためにトリガーした閲覧指令を取得する。
ステップ102では、ユーザの特徴情報を取得する。
ステップ103では、ユーザの特徴情報に基づき、ユーザと目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定する。
ステップ104では、あらかじめ設定された各人物関係と各音楽ジャンルとの対応関係に基づき、ユーザと被閲覧者との人物関係に対応する目標音楽ジャンルを特定する。
ステップ105では、目標顔アルバム中のピクチャおよび目標音楽ジャンルに対応する音楽を再生する。
本実施例において、ある端末デバイス内の目標顔アルバム中のピクチャを閲覧する上記ユーザは当該端末の所有者である可能性もあり、当該端末デバイスの所有者でない可能性もあり、例えば所有者の親族である可能性もある。そこで、端末デバイスがユーザにより目標顔アルバム閲覧をクリックしてトリガーされた閲覧指令を取得した時に、当該ユーザの特徴情報の取得をトリガーする。
ただし、当該ユーザの特徴情報は、例えば、人物顔画像、指紋等のユーザの身分を識別するための特徴情報であってもよい。当該特徴情報に基づき当該ユーザ、すなわち閲覧者の身分を分かることができる。
これにより、当該ユーザの特徴情報に基づき、当該ユーザと目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定することができる。簡単に例を挙げると、当該ユーザの特徴情報により、当該ユーザが端末デバイスの所有者である、または当該ユーザが端末デバイスの所有者でないと表明した時に、それぞれあらかじめ設定されたユーザの身分に基づき、つまり、端末デバイスの所有者であるかどうかおよび被閲覧者との人物関係に基づき、ユーザが端末デバイスの所有者である場合には、被閲覧者との関係はA種の人物関係に属し、ユーザが端末デバイスの所有者でない場合には、被閲覧者との関係はB種の人物関係に属すると大まかに認める。
さらに、あらかじめ設定された各種の人物関係に対応する音楽ジャンルに基づき、現在の閲覧ユーザと被閲覧者との人物関係に対応する音楽ジャンルを特定する。目標顔アルバム中のピクチャを再生するとともに、当該目標音楽ジャンルに対応する音楽を再生する。
本実施例では、ユーザがある顔アルバム中のピクチャを閲覧すべきである時には、当該ユーザの特徴情報に基づき当該ユーザと当該顔アルバムに対応する人物顔画像、つまり、被閲覧者との人物関係を特定することができる。これにより、当該人物関係に基づき、対応音楽ジャンルの音楽の自動選択および再生を実現することができる。ある顔アルバムを閲覧する時に、閲覧者と被閲覧者との人物関係に基づき、それに対応する音楽を自動選択および再生することができるため、ユーザの操作の煩雑さを低減し、ユーザの体験を向上させた。
前記実施例に記述した通りに、取得したユーザの特徴情報に基づき閲覧ユーザの身分を特定することができる。以下はユーザの特徴情報が人物顔画像であることを例にして、図2に示す実施例に合わせ、どのようにユーザの身分を特定し、およびどのようにユーザの身分に基づき被閲覧者との人物関係を特定するかを説明する。
図2は一実施例にかかる顔アルバムに基づく音楽再生方法の実施例3を示すフローチャートであり、図2に示すように、当該方法は下記ステップを含む。
ステップ201では、ユーザが目標顔アルバム中のピクチャを閲覧するためにトリガーした閲覧指令を取得する。
ステップ202では、ユーザの特徴情報を取得し、当該特徴情報はユーザの人物顔画像を含む。
ステップ203では、取得した人物顔画像と予め設定されたの第1ユーザの人物顔画像とをマッチングさせる。
ステップ204では、取得した人物顔画像と第1ユーザの人物顔画像とが一致する場合には、ユーザが第1ユーザであると特定し、第1ユーザが目標顔アルバムのために設けた分類タグに基づき第1ユーザと目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定する。
ステップ205では、取得した人物顔画像と第1ユーザの人物顔画像とが一致しない場合には、ユーザが第2ユーザであると特定し、第2ユーザと目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定する。
ステップ206では、あらかじめ設定された各人物関係と各音楽ジャンルとの対応関係に基づき、ユーザと被閲覧者との人物関係に対応する目標音楽ジャンルを特定する。
ステップ207では、目標顔アルバム中のピクチャおよび目標音楽ジャンルに対応する音楽を再生する。
本実施例では、第1ユーザとは、上記目標顔アルバムを含んだ複数の顔アルバムが保存された端末デバイスの所有者を指し、つまり、当該端末デバイスの所有者は閲覧者として、端末デバイスに保存された複数の顔アルバム中から閲覧したい目標顔アルバムを抽出し、端末デバイスに上記閲覧指令を出すようにトリガーすることができる。
ユーザが第1ユーザであるかどうかの身分識別の手順について、ユーザがトリガーした閲覧指令を受信してから、当該ユーザの人物顔画像を撮影して取得し、当該人物顔画像と端末デバイスにあらかじめ記憶された第1ユーザの人物顔画像とを特徴マッチングさせることにより、当該ユーザが第1ユーザであるかどうかを特定することができる。もし当該ユーザが第1ユーザでない場合には、当該ユーザが第2ユーザであると特定する。
ただし、取得した人物顔画像とあらかじめ設定された第1ユーザの人物顔画像とをマッチングさせる手順において、まず各人物顔画像の特徴点、例えば、輪郭、目、鼻、口、耳等の特徴点を抽出してもよい。さらに、撮影した人物顔画像の特徴点と第1ユーザの人物顔の特徴点とに対し類似度を測り、もし類似度が所定の閾値より大きい場合には、一致すると認め、ユーザが第1ユーザであると特定し、さもないと、第2ユーザであると認める。
上記は人物顔画像をユーザの特徴情報にし、第1ユーザと第2ユーザとを区別する根拠にしたが、好ましくは、さらにユーザの指紋情報をユーザの特徴情報にし、第1ユーザと第2ユーザとを区別する根拠にしてもよい。
具体的には、ユーザが閲覧指令をトリガーした後に、当該トリガー動作が目標顔アルバムをクリックすることにより出された動作である可能性があるため、ユーザのトリガー動作に基づき当該ユーザの指紋情報を採取することができる。さらに、得られた指紋情報と予め設定された第1ユーザの指紋情報とをマッチングさせ、当該指紋情報と第1ユーザの指紋情報とが一致する場合には、当該ユーザが第1ユーザであると特定し、かつ、第1ユーザが目標顔アルバムのために設けた分類タグに基づき第1ユーザと目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定する。当該指紋情報と第1ユーザの指紋情報とが一致しない場合には、当該ユーザが第2ユーザであると特定し、第2ユーザと目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定する。
本実施例では、ユーザが第1ユーザである場合に、どのように第1ユーザと被閲覧者との人物関係を特定するかに対して説明し、第2ユーザと被閲覧者との人物関係の特定については、後続する実施例で詳細に記述する。
端末デバイスに複数の顔アルバムを保存し、第1ユーザが各顔アルバムを作成するたびに、顔アルバムごとに分類タグを設けてもよく、当該タグは各顔アルバムの名称、例えば、子供、父母、妻等であってもよい。これにより、当該分類タグに基づき第1ユーザと顔アルバムに対応する被閲覧者との父子、夫婦等の人物関係を特定することができる。
無論、上記は非常に簡単で直観的な例に過ぎず、実際応用では、当該分類タグは複数次元の分類を示してもよい。例を挙げると、まず全ての顔アルバムを家族、友達、同僚により粗分類し、また各粗分類においてさらに細かい分類を行い、例えば、「家族」という粗分類において、「子供」、「父母」等の細分類を行い、「友達」という粗分類において、「張三」、「李四」等の名称で区別する細分類を行う。このように、各顔アルバムの分類タグは粗分類+細分類の二つの主な次元で構成される。
第1ユーザがある顔アルバム中のピクチャの閲覧をトリガーした後に、当該目標顔アルバムの分類タグに基づき、当該第1ユーザと被閲覧者との人物関係を特定することができる。例えば、第1ユーザが「家族」―「わが息子」という分類タグの顔アルバムをクリックして閲覧する時に、当該分類タグに基づき第1ユーザと当該顔アルバム中の子供とは親子関係であると特定することができる。
本実施例では、各人物関係と各種の音楽ジャンルとの対応関係をあらかじめ設けてもよい。例えば、親子関係には軽快で純真な音楽ジャンルを対応させ、カップル関係には甘ったるいラブソングのような音楽ジャンルを対応させる。
これにより、第1ユーザと被閲覧者との人物関係を特定した後に、上記あらかじめ設定された対応関係に基づき、それに対応する目標音楽ジャンルをマッチングさせる。各種の音楽ジャンルに一曲の音楽のみバインディングされた場合には、目標顔アルバム中のピクチャを再生するとともに、直接当該音楽を再生することができる。無論、各種の音楽ジャンルに複数曲の音楽がバインディングされた場合には、あらかじめ設定された再生モード、例えば、シャッフル再生モード、リピート再生モードで音楽を選択し再生することができる。
本実施例では、第1ユーザが撮影したピクチャを顔アルバムに分類して保存し、かつ各顔アルバムに分類タグを設けた場合に、第1ユーザがある顔アルバム中のピクチャを閲覧すべき時に、当該分類タグに基づき当該第1ユーザと当該顔アルバムに対応する人物顔画像、つまり、被閲覧者との人物関係を特定することができる。これにより、当該人物関係に基づきそれに対応する音楽ジャンルの音楽の自動選択および再生を実現することができる。ある顔アルバムを閲覧する時に、閲覧者と被閲覧者との人物関係に基づきそれに対応する音楽を自動選択および再生することができるため、ユーザの操作の煩雑さを低減し、ユーザの体験を向上させた。
上記実施例に記述したように、第1ユーザとは上記目標顔アルバムを含んだ複数の顔アルバムを記憶している端末デバイスの所有者を指し、各顔アルバムの分類タグは当該第1ユーザが各顔アルバムに対応する人との人物関係により設けたものであるため、当該分類タグは第1ユーザと各顔アルバムに対応する人物との人物関係を表すことができる。しかし、閲覧者が当該第1ユーザでない場合には、当該分類タグは閲覧者と被閲覧者との人物関係を直接表すことができない。このような場合に基づき、以下の図3および図4に示す実施例を提供した。
図3および図4に示す実施例を具体的に紹介する前に、まず閲覧者が第1ユーザであるか、それとも第2ユーザであるかを区別する根拠を説明する。
前記実施例で記述したように、ユーザの特徴情報に基づきユーザが第1ユーザであるか、それとも第2ユーザであるかを識別することができる。好ましくは、実際応用において、以下の形態により第1ユーザ、第2ユーザの区別を実現してもよい。
顔アルバムの閲覧操作のインターフェースに、例えば、本人閲覧、他人閲覧、本人と他人と共同閲覧を含んだ閲覧者のオプションをもうけてもよい。これにより、もし、閲覧者が「本人閲覧」を選択した場合には、閲覧者が第1ユーザであることを示し、もし、閲覧者が「他人閲覧」を選択した場合には、閲覧者が第2ユーザであることを示し、もし閲覧者が「共同閲覧」を選択した場合には、閲覧者には第1ユーザがいる可能性があり、同時に第2ユーザもいる可能性もある。共同閲覧の場合については、第2ユーザ閲覧の場合の処理と似ていて、以下に説明する。
図3は一実施例にかかる顔アルバムに基づく音楽再生方法の実施例3を示すフローチャートであり、図3に示すように、上記ステップ205における第2ユーザと目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定する方法を以下の形態により実現してもよい。
ステップ301では、ユーザが第2ユーザであると特定した時に、第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像とをマッチングさせる。
ステップ302では、第2ユーザの人物顔画像と一致する顔アルバムが存在する場合には、一致する顔アルバムの分類タグおよび目標顔アルバムの分類タグに基づき、第2ユーザと目標顔アルバムに対応する被閲覧者との人物関係を特定する。
本実施例では、閲覧者は端末デバイスの所有者、つまり、第1ユーザのみではなく、第2ユーザである場合には、上記第2ユーザの人物顔画像は、人物顔画像をユーザの特徴情報としてユーザの身分を識別する手順から取得したものであってもよい。しかし、指紋情報をユーザの特徴情報としてユーザを識別する手順では、現在ユーザが第2ユーザであると特定してから、端末デバイスをトリガーし当該第2ユーザの人物顔画像を撮影する際に得られるものであってもよい。例えば、端末デバイスのフロントカメラで撮影してもよい。
特に、閲覧者が数人を含む場合、つまり、上記共同閲覧に対応する場合には、撮影したピクチャの中に数人の人物顔画像が含まれいて、人物顔識別技術、例えばAdaboost技術により、人物顔識別処理を行い、各人の人物顔画像を得ることができる。
さらに、得られた第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像とをマッチングさせ、つまり、類似度を測る。マッチングの順において、まず各人物顔画像の特徴点、例えば、輪郭、目、鼻、口、耳等の特徴点を抽出してもよい。さらに、撮影した人物顔画像の特徴点と各顔アルバムに対応する人物顔画像の特徴点に対して類似度を測り、もし類似度が所定の閾値より大きければ、一致すると認める。
特に、各顔アルバムに対応する人物顔画像の特徴点を、あらかじめ抽出かつ記憶してもよい。上記マッチング処理を行う必要がある時に、撮影した人物顔画像の特徴点をリアルタイムに抽出するだけでよいため、マッチング処理の効率を向上させることができる。
第2ユーザの人物顔画像がある顔アルバムにマッチングされた時に、当該第2ユーザの顔アルバムが第1ユーザの端末デバイスにも保存されていることを説明するため、当該マッチングして得られた顔アルバムは第1ユーザが設けた分類タグも有する。これにより、当該分類タグおよび被閲覧者の目標顔アルバムの分類タグを組み合わせて、第2ユーザと被閲覧者との人物関係を特定することができる。
具体的には、第1ユーザと被閲覧者との人物関係を特定する方法と似ていて、一致する顔アルバムの分類タグに基づき、第1ユーザと第2ユーザとの人物関係を特定することができ、さらに、第1ユーザと被閲覧者との人物関係、および第1ユーザと第2ユーザとの人物関係に基づき、第2ユーザと被閲覧者との人物関係を特定することができる。
例を挙げると、閲覧者をBとし、かつBを第2ユーザとし、第1ユーザをAとし、被閲覧者をCとする。ただし、もし第1ユーザAが被閲覧者Cに対応する目標顔アルバムのために設けた分類タグが「子供」である場合には、第1ユーザと被閲覧者Cとの人物関係が親子関係であり、もし人物顔画像のマッチング処理により、第2ユーザBがタグ「友達−張三」の顔アルバムに対応する場合には、第1ユーザAと第2ユーザBとの人物関係が友達関係であると特定する。これにより、第2ユーザBと被閲覧者Cとの人物関係が目上目下関係であると特定することができる。
好ましくは、本実施例では、図2に示す実施例に加えて、ステップ207の前に、さらに以下のステップを含んでもよい。
ステップ303では、目標顔アルバムを撮影または保存した時間の前後順位従って、ソートする。
本実施例では、閲覧者が目標顔アルバム中のピクチャを閲覧する時に、スライドショーの形態で再生してもよく、ピクチャを再生する前後の順位は、ピクチャの撮影時間の前後順位に従い決めてもよく、または、ピクチャを目標顔アルバムに保存した時間の前後順位に従い決めてもよい。
それ相応に、ステップ207の再生手順は以下の通りである。
ステップ304では、順位に従い目標顔アルバム中のピクチャを再生し、かつ目標音楽ジャンルに対応する音楽を再生する。
本実施例では、閲覧者が顔アルバムの作成者、つまり、顔アルバムの存在する端末デバイスの所有者でない場合には、当該閲覧者の人物顔画像の採集および各顔アルバムに対応する人物顔画像とのマッチング処理により、当該閲覧者がある顔アルバムに属する場合に、当該一致する顔アルバムの分類タグおよび閲覧される目標顔アルバムの分類タグに基づき、端末デバイスの所有者を媒介として、当該閲覧者と被閲覧者との人物関係を得ることができ、これにより人物関係に基づいた音楽の自動選択および再生を実現することができる。
図4は一実施例にかかる顔アルバムに基づく音楽再生方法の実施例4を示すフローチャートであり、図4に示すように、上記ステップ301の後に、当該方法は以下のステップを含んでもよい。
ステップ401では、第2ユーザの人物顔画像と一致する顔アルバムが存在しない場合には、第2ユーザの人物特徴情報を取得する。
ステップ402では、人物特徴情報および第1ユーザと被閲覧者との人物関係に基づき、第2ユーザと被閲覧者との人物関係を特定する。
ステップ402の後に、後続する関連ステップを実行する。
第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像との特徴を対照し、一致する顔アルバムが見つからない場合には、当該第2ユーザの人物顔画像の特定特徴点を抽出することにより、当該第2ユーザの人物特徴情報、例えば、性別、年齢層等を得ることができる。ただし、上記特定特徴点とは、例えば、髪、首、目じり、鼻と口との間の区域等を指す。
本実施例では、あらかじめ大量の人物顔画像を統計分析することにより、上記特定の特徴点と性別、年齢層等の人物特徴情報との対応関係を得てもよい。
第2ユーザの人物特徴情報に基づき当該第2ユーザが50〜60代年齢層内の女性であると特定し、目標顔アルバムの分類タグに基づき特定した第1ユーザと被閲覧者との人物関係が親子関係であるとすると、第2ユーザと被閲覧者との人物関係が目上目下関係であると認めてもよい。
なお、本実施例では、人物関係の特定結果の正確率を確保するために、端末デバイスに第1ユーザの人物特徴情報、例えば、性別、年齢をあらかじめ記憶してもよい。これにより、第2ユーザの人物特徴情報、第1ユーザの人物特徴情報および第1ユーザと被閲覧者との人物関係を組み合わせて第2ユーザと被閲覧者との人物関係を特定することができる。
または、被閲覧者、つまり各顔アルバムに対応する人物顔画像の人物特徴情報をさらにあらかじめ記憶してもよい。これにより、第2ユーザの人物特徴情報、被閲覧者の人物特徴情報および第1ユーザと被閲覧者との人物関係を組み合わせて第2ユーザと被閲覧者との人物関係を特定することができる。
例を挙げると、第2ユーザの人物特徴情報に基づき当該第2ユーザが20〜25代年齢層内の女性であると特定し、あらかじめの第1ユーザの人物特徴情報は第1ユーザが23歳の女性であると示し、目標顔アルバムの分類タグに基づき特定した第1ユーザと被閲覧者との人物関係が夫婦関係であるとすると、第2ユーザと被閲覧者との人物関係が友達であると認めてもよい。
さらに例を挙げると、第2ユーザの人物特徴情報に基づき当該第2ユーザが20〜25代年齢層内の女性であると特定し、あらかじめの被閲覧者の人物特徴情報は被閲覧者が23歳の女性であると示し、目標顔アルバムの分類タグに基づき特定した第1ユーザと被閲覧者との人物関係が夫婦関係であるとすると、第2ユーザと被閲覧者との人物関係は友達関係であると認める。
本実施例では、閲覧者が端末デバイスの所有者ではなく、かつ当該閲覧者が端末デバイスに保存されたある顔アルバムに属しない場合には、閲覧者の人物顔画像の特徴を取得することにより、取得した人物特徴情報および端末デバイスの所有者と被閲覧者との人物関係に基づき、端末デバイスの所有者を媒介とし、当該閲覧者と被閲覧者との人物関係を得ることができるため、人物関係に基づく音楽の自動選択および再生を実現することができる。
図5は一実施例にかかる顔アルバムに基づく音楽再生装置の実施例1を示すブロック図であり、図5に示すように、当該装置は第1取得モジュール11、第2取得モジュール12、第1特定モジュール13、第2特定モジュール14、再生モジュール15を備える。
第1取得モジュール11は、ユーザが目標顔アルバム中のピクチャを閲覧するためにトリガーした閲覧指令を取得するように構成される。
第2取得モジュール12は、前記ユーザの特徴情報を取得するように構成される。
第1特定モジュール13は、前記ユーザの特徴情報に基づき前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するように構成される。
第2特定モジュール14は、あらかじめ設定された各人物関係と各音楽ジャンルとの対応関係に基づき、前記第1特定モジュールが特定した前記人物関係に対応する目標音楽ジャンルを特定するように構成される。
再生モジュール15は、前記目標顔アルバム中のピクチャおよび前記第2特定モジュールが特定した前記目標音楽ジャンルに対応する音楽を再生するように構成される。
本実施例にかかる音楽再生装置は、図1に示す方法の実施例の技術案を実施するために用いてもよい。
本実施例では、ある端末デバイス中の目標顔アルバム中のピクチャを閲覧する上記ユーザは当該端末デバイスの所有者である可能性もあり、当該端末デバイスの所有者でない可能性もあり、例えば、所有者の親族である可能性もある。そこで、第1取得モジュール11がユーザにより目標顔アルバムを閲覧する時にトリガーされた閲覧指令を取得した時に、第2取得モジュール12をトリガーして当該ユーザの特徴情報を取得するようにする。
ただし、当該ユーザの特徴情報は、例えば、人物顔画像、指紋等のユーザの身分を識別するための特徴情報であってもよい。当該特徴情報に基づき、当該ユーザ、つまり、閲覧者の身分を分かることができる。
これにより、第1特定モジュール13は当該ユーザの特徴情報に基づき当該ユーザと目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定することができる。簡単に例を挙げると、当該ユーザの特徴情報が当該ユーザは端末デバイスの所有者であり、または、当該ユーザは端末デバイスの所有者でないと示した場合、それぞれあらかじめ設定されたユーザの身分、つまり、端末デバイスの所有者であるかどうかおよび被閲覧者との人物関係に基づき、ユーザが端末デバイスの所有者である場合には、被閲覧者とはA種の人物関係であり、ユーザが端末デバイスの所有者でない場合には、被閲覧者とはB種の人物関係であると大まかに考える。
さらに、第2特定モジュール14はあらかじめ設定された各人物関係に対応する音楽ジャンルに基づき、現在閲覧のユーザと被閲覧者との人物関係にに対応する目標音楽ジャンルを特定する。再生モジュール15は目標顔アルバム中のピクチャを再生するとともに、当該目標音楽ジャンルに対応する音楽を再生する。
本実施例では、ユーザがある顔アルバム中のピクチャを閲覧すべき時には、当該ユーザの特徴情報に基づき当該ユーザと当該顔アルバムに対応する人物顔画像、つまり、被閲覧者との人物関係を特定することができる。これにより、当該人物関係に基づきそれに対応する音楽ジャンルの音楽の自動選択および再生を実現することができる。ある顔アルバムを閲覧する時に、閲覧者と被閲覧者との人物関係に基づきそれに対応する音楽を自動選択および再生することができるため、ユーザの操作の煩雑さを低減し、ユーザの体験を向上させた。
図6は一実施例にかかる顔アルバムに基づく音楽再生装置の実施例2を示すブロック図であり、図6に示すように、図5に示す実施例に加えて、前記第2取得モジュール12は、第1取得サブモジュール121または第2取得サブモジュール122を備える。
第1取得サブモジュール121は、前記ユーザの指紋を取得するように構成される。
第2取得サブモジュール122は、前記ユーザの人物顔画像を取得するように構成される。
好ましくは、前記第1特定モジュール13は、第1マッチングサブモジュール131および第1特定サブモジュール132または第2特定サブモジュール133を備える。
第1マッチングサブモジュール131は、前記第1取得サブモジュール121が取得した前記指紋情報と予め設定された第1ユーザの指紋情報とをマッチングさせるように構成される。
第1特定サブモジュール132は、前記指紋情報と前記第1ユーザの指紋情報とが一致する場合には、前記ユーザが第1ユーザであると特定し、かつ前記第1ユーザが前記目標顔アルバムのために設けた分類タグに基づき前記第1ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するように構成される。
第2特定サブモジュール133は、前記指紋情報と前記第1ユーザの指紋情報が一致しない場合には、前記ユーザが第2ユーザであると特定し、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するように構成される。
好ましくは、前記第1特定モジュール13は、第2マッチングサブモジュール134および第1特定サブモジュール131または第2特定サブモジュール132を備える。
第2マッチングサブモジュール134は、前記第2取得サブモジュール122が取得した前記人物顔画像と予め設定されたの第1ユーザの人物顔画像とをマッチングさせるように構成される。
前記第1特定サブモジュール131は、前記人物顔画像と前記第1ユーザの人物顔画像が一致する場合には、前記ユーザが第1ユーザであると特定し、かつ前記第1ユーザが前記目標顔アルバムのために設けた分類タグに基づき前記第1ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するように構成される。
前記第2特定サブモジュール132は、前記人物顔画像と前記第1ユーザの人物顔画像とが一致しない場合には、前記ユーザが第2ユーザであると特定し、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するように構成される。
本実施例にかかる顔アルバムに基づく音楽再生装置は図2に示す方法の実施例の技術案を実施するために用いてもよい。
本実施例では、第1ユーザとは、上記目標顔アルバムを含んだ複数の顔アルバムが保存された端末デバイスの所有者を指し、つまり、当該端末デバイスの所有者は閲覧者として、端末デバイスに保存した複数の顔アルバム中から閲覧したい目標顔アルバムを抽出し、端末デバイスに上記閲覧指令を出すようにトリガーすることができる。
ユーザが第1ユーザであるかどうかの身分識別の手順について、ユーザがトリガーした閲覧指令を受信してから、第2取得サブモジュール122は撮影により当該ユーザの人物顔画像を取得し、第2マッチングサブモジュール134は当該人物顔画像と端末デバイスにあらかじめ記憶された第1ユーザの人物顔画像とを特徴マッチングさせることにより、当該ユーザが第1ユーザであるかどうかを特定することができる。もし当該ユーザが第1ユーザでない場合には、当該ユーザが第2ユーザであると特定する。
ただし、第2マッチングサブモジュール134は取得した人物顔画像と予め設定されたの第1ユーザの人物顔画像とをマッチングさせる手順において、まず各人物顔画像の特徴点、例えば、輪郭、目、鼻、口、耳等の特徴点を抽出してもよい。さらに、撮影した人物顔画像の特徴点と第1ユーザの人物顔画像の特徴点とに対し類似度を測り、もし類似度が所定の閾値より大きい場合には、一致すると認め、第1特定サブモジュール132はユーザが第1ユーザであると特定し、さもないと、第2特定サブモジュール133は第2ユーザであると認める。
上記は人物顔画像をユーザの特徴情報にし、第1ユーザと第2ユーザとを区別する根拠にしたが、好ましくは、さらにユーザの指紋情報をユーザの特徴情報にし、第1ユーザと第2ユーザとを区別する根拠にしてもよい。
具体的には、ユーザが閲覧指令をトリガーした後に、当該トリガー動作が目標顔アルバムをクリックすることにより出されたものである可能性があるため、第1取得サブモジュール121はユーザのトリガー動作に基づき当該ユーザの指紋情報を採取することができる。さらに、第1マッチングサブモジュール131は得られた指紋情報と予め設定されたの第1ユーザの指紋情報とをマッチングさせ、当該指紋情報と第1ユーザの指紋情報とが一致する場合には、第1特定サブモジュール132は当該ユーザが第1ユーザであると特定し、かつ、第1ユーザが目標顔アルバムのために設けた分類タグに基づき第1ユーザと目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定する。当該指紋情報と第1ユーザの指紋情報とが一致しない場合には、当該ユーザが第2ユーザであると特定し、第2ユーザと目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定する。
本実施例では、ユーザが第1ユーザである場合に、どのように第1ユーザと被閲覧者との人物関係を特定するかに対して詳細に説明し、第2ユーザと被閲覧者との人物関係については、後続する実施例で詳細に記述する。
端末デバイスに複数の顔アルバムを保存し、第1ユーザが各顔アルバムを作成するたびに、顔アルバムごとに分類タグを設けてもよく、当該タグは各顔アルバムの名称、例えば、子供、父母、妻等であってもよい。これにより、当該分類タグに基づき第1ユーザと顔アルバムに対応する被閲覧者との父子、夫婦等の人物関係を特定することができる。
無論、上記は非常に簡単で直観的な例に過ぎず、実際応用では、当該分類タグは複数次元の分類を示してもよい。例を挙げると、まず全ての顔アルバムを家族、友達、同僚により粗分類し、また各粗分類においてさらに細かい分類を行い、例えば、「家族」という粗分類において、「子供」、「父母」等の細分類を行い、「友達」という粗分類において、「張三」、「李四」等の名称で区別する細分類を行う。このように、各顔アルバムの分類タグは粗分類+細分類の二つの主な次元で構成される。
第1ユーザがある顔アルバム中のピクチャの閲覧をトリガーした後に、当該目標顔アルバムの分類タグに基づき、当該第1ユーザと被閲覧者との人物関係を特定することができる。例えば、第1ユーザが「家族」―「わが息子」という分類タグの顔アルバムをクリックして閲覧する時に、当該分類タグに基づき第1ユーザと当該顔アルバム中の子供とは親子関係であると特定することができる。
本実施例では、各人物関係と各種の音楽ジャンルとの対応関係をあらかじめ設けてもよい。例えば、親子関係には軽快で純真な音楽ジャンルを対応させ、カップル関係には甘ったるいラブソングのような音楽ジャンルを対応させる。
これにより、第1ユーザと被閲覧者との人物関係を特定した後に、上記あらかじめ設定された対応関係に基づき、それに対応する目標音楽ジャンルをマッチングさせる。各種の音楽ジャンルに一曲の音楽のみバインディングされた場合には、目標顔アルバム中のピクチャを再生するとともに、直接当該音楽を再生することができる。無論、各種の音楽ジャンルに複数曲の音楽がバインディングされた場合には、あらかじめ設定された再生モード、例えば、シャッフル再生モード、リピート再生モードで音楽を選択し再生することができる。
本実施例では、第1ユーザが撮影したピクチャを顔アルバムに分類して保存し、かつ各顔アルバムに分類タグを設けた場合に、第1ユーザがある顔アルバム中のピクチャを閲覧すべき時に、当該分類タグに基づき当該第1ユーザと当該顔アルバムに対応する人物顔画像、つまり、被閲覧者との人物関係を特定することができる。これにより、当該人物関係に基づきそれに対応する音楽ジャンルの音楽の自動選択および再生を実現することができる。ある顔アルバムを閲覧する時に、閲覧者と被閲覧者との人物関係に基づきそれに対応する音楽を自動選択および再生することができるため、ユーザの操作の煩雑さを低減し、ユーザの体験を向上させた。
図7は一実施例にかかる顔アルバムに基づく音楽再生装置の実施例3を示すブロック図であり、図7に示すように、上記図6に示す実施例に加えて、
上記第2特定サブモジュール133は、第1取得手段1330、マッチング手段1331、第1特定手段1332を備える。
第1取得手段1330は、前記第2ユーザの人物顔画像を取得するように構成される。
マッチング手段1331は、前記第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像とをマッチングさせるように構成される。
第1特定手段1332は、前記マッチング手段1331がマッチングにより前記第2ユーザの人物顔画像と一致する顔アルバムを得た場合には、一致する顔アルバムの分類タグおよび前記目標顔アルバムの分類タグに基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するように構成される。
ただし、前記第1特定手段1332は、第1特定ユニット13321、第2特定ユニット13322を含む。
第1特定ユニット13321は、一致した顔アルバムの分類タグに基づき、前記第1ユーザと前記第2ユーザとの人物関係を特定するように構成される。
第2特定ユニット13322は、前記第1特定サブモジュール132が特定した前記第1ユーザと前記被閲覧者との人物関係、および前記第1特定サブユニット13321が特定した前記第1ユーザと前記第2ユーザとの人物関係に基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するように構成される。
好ましくは、当該顔アルバムに基づく音楽再生装置は、ソートモジュール22をさらに備える。
ソートモジュール22は前記目標顔アルバム中のピクチャを撮影または保存した時間の前後順位に従いソートするように構成される。
本実施例にかかる顔アルバムに基づく音楽再生装置は図3に示す方法の実施例の技術案の実施に用いてもよい。
本実施例では、閲覧者が端末デバイスの所有者、つまり、第1ユーザのみではなく、第2ユーザである場合には、上記第2ユーザの人物顔画像は、人物顔画像をユーザの特徴情報としてユーザの身分を識別する手順から取得したものであってもよい。しかし、指紋情報をユーザの特徴情報としてユーザを識別する手順では、現在ユーザが第2ユーザであると特定してから、第1取得手段1330をトリガーして当該第2ユーザの人物顔画像を撮影する際に得られるものであってもよい。例えば、端末デバイスのフロントカメラで撮影してもよい。
特に、閲覧者が数人を含む場合、つまり、上記共同閲覧に対応する場合には、撮影したピクチャの中に数人の人物顔画像が含まれいて、人物顔識別技術、例えばAdaboost技術により、人物顔識別処理を行い、各人の人物顔画像を得ることができる。
さらに、得られた第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像とをマッチングさせ、つまり、類似度を測る。マッチングの順において、まず各人物顔画像の特徴点、例えば、輪郭、目、鼻、口、耳等の特徴点を抽出してもよい。さらに、撮影した人物顔画像の特徴点と各顔アルバムに対応する人物顔画像の特徴点に対して類似度を測り、もし類似度が所定の閾値より大きければ、一致すると認める。
特に、各顔アルバムに対応する人物顔画像の特徴点を、あらかじめ抽出かつ記憶してもよい。上記マッチング処理を行う必要がある時に、撮影した人物顔画像の特徴点をリアルタイムに抽出するだけでよいため、マッチング処理の効率を向上させることができる。
第2ユーザの人物顔画像がある顔アルバムにマッチングされた時に、当該第2ユーザの顔アルバムが第1ユーザの端末デバイスにも保存されていることを説明するため、当該マッチングして得られた顔アルバムは第1ユーザが設けた分類タグも有する。これにより、第1特定手段1332は当該分類タグおよび被閲覧者の目標顔アルバムの分類タグを組み合わせて、第2ユーザと被閲覧者との人物関係を特定することができる。
具体的には、第1ユーザと被閲覧者との人物関係を特定する方法と似ていて、第1特定ユニット13321は一致する顔アルバムの分類タグに基づき、第1ユーザと第2ユーザとの人物関係を特定することができ、さらに、第2特定ユニット13322は第1ユーザと被閲覧者との人物関係、および第1ユーザと第2ユーザとの人物関係に基づき、第2ユーザと被閲覧者との人物関係を特定することができる。
例を挙げると、閲覧者をBとし、かつBを第2ユーザとし、第1ユーザをAとし、被閲覧者をCとする。ただし、もし第1ユーザAが被閲覧者Cに対応する目標顔アルバムのために設けた分類タグが「子供」である場合には、第1ユーザと被閲覧者Cとの人物関係が親子関係であり、もし人物顔画像のマッチング処理により、第2ユーザBがタグ「友達−張三」の顔アルバムに対応する場合には、第1ユーザAと第2ユーザBとの人物関係が友達関係であると特定する。これにより、第2ユーザBと被閲覧者Cとの人物関係が目上目下関係であると特定することができる。
本実施例では、閲覧者が目標顔アルバム中のピクチャを閲覧する時に、スライドショーの形態で再生してもよく、ピクチャを再生する前後の順位は、ソートモジュール22がピクチャの撮影時間の前後順位に従い決めてもよく、または、ピクチャを目標顔アルバムに保存した時間の前後順位に従い決めてもよい。
本実施例では、閲覧者が顔アルバムの作成者、つまり、顔アルバムの存在する端末デバイスの所有者でない場合には、当該閲覧者の人物顔画像の採集および各顔アルバムに対応する人物顔画像とのマッチング処理により、当該閲覧者がある顔アルバムに属する場合に、当該一致する顔アルバムの分類タグおよび閲覧される目標顔アルバムの分類タグに基づき、端末デバイスの所有者を媒介として、当該閲覧者と被閲覧者との人物関係を得ることができ、これにより人物関係に基づいた音楽の自動選択および再生を実現することができる。
図8は一実施例にかかる顔アルバムに基づく音楽再生装置の実施例3を示すブロック図であり、図8に示すように、上記図6に示す実施例に加えて、前記第2特定サブモジュール133は、取得手段1333、第2特定手段1334を備える。
取得手段1333は、前記マッチング手段が前記第2ユーザの人物顔画像と一致する顔アルバムをマッチングにより得られなかった場合には、前記第2ユーザの人物特徴情報を取得するように構成される。
第2特定手段1334は、前記取得手段が取得した前記人物特徴情報および前記第1特定サブモジュールが特定した前記第1ユーザと前記被閲覧者との人物関係に基づき、前記第2ユーザと前記被閲覧者との人物関係を特定し、前記人物特徴情報は年齢層特徴情報および/または性別特徴情報を含む。
本実施例にかかる顔アルバムに基づく音楽再生装置は図4に示す方法の実施例の技術案の実行し用いてもよい。
第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像との特徴を対照し、一致する顔アルバムが見つからない場合には、取得手段1333は当該第2ユーザの人物顔画像の特定特徴点を抽出することにより、当該第2ユーザの人物特徴情報、例えば、性別、年齢層等を得ることができる。ただし、上記特定特徴点とは、例えば、髪、首、目じり、鼻と口との間の区域等を指す。
本実施例では、あらかじめ大量の人物顔画像を統計分析することにより、上記特定の特徴点と性別、年齢層等の人物特徴情報との対応関係を得てもよい。
第2ユーザの人物特徴情報に基づき当該第2ユーザが50〜60代年齢層内の女性であると特定し、目標顔アルバムの分類タグに基づき特定した第1ユーザと被閲覧者との人物関係が親子関係であるとすると、第2特定手段1334は第2ユーザと被閲覧者との人物関係が目上目下関係であると認めてもよい。
なお、本実施例では、人物関係の特定結果の正確率を確保するために、端末デバイスに第1ユーザの人物特徴情報、例えば、性別、年齢をあらかじめ記憶してもよい。これにより、第2ユーザの人物特徴情報、第1ユーザの人物特徴情報および第1ユーザと被閲覧者との人物関係を組み合わせて第2ユーザと被閲覧者との人物関係を特定することができる。
または、被閲覧者、つまり各顔アルバムに対応する人物顔画像の人物特徴情報をさらにあらかじめ記憶してもよい。これにより、第2特定手段1324は第2ユーザの人物特徴情報、被閲覧者の人物特徴情報および第1ユーザと被閲覧者との人物関係を組み合わせて第2ユーザと被閲覧者との人物関係を特定することができる。
例を挙げると、第2ユーザの人物特徴情報に基づき当該第2ユーザが20〜25代年齢層内の女性であると特定し、あらかじめの第1ユーザの人物特徴情報は第1ユーザが23歳の女性であると示し、目標顔アルバムの分類タグに基づき特定した第1ユーザと被閲覧者との人物関係が夫婦関係であるとすると、第2ユーザと被閲覧者との人物関係が友達であると認めてもよい。
さらに例を挙げると、第2ユーザの人物特徴情報に基づき当該第2ユーザが20〜25代年齢層内の女性であると特定し、あらかじめの被閲覧者の人物特徴情報は被閲覧者が23歳の女性であると示し、目標顔アルバムの分類タグに基づき特定した第1ユーザと被閲覧者との人物関係が夫婦関係であるとすると、第2ユーザと被閲覧者との人物関係は友達関係であると認める。
本実施例では、閲覧者が端末デバイスの所有者ではなく、かつ当該閲覧者が端末デバイスに保存されたある顔アルバムに属しない場合には、閲覧者の人物顔画像の特徴を取得することにより、取得した人物特徴情報および端末デバイスの所有者と被閲覧者との人物関係に基づき、端末デバイスの所有者を媒介とし、当該閲覧者と被閲覧者との人物関係を得ることができるため、人物関係に基づく音楽の自動選択および再生を実現することができる。
上記実施例中の顔アルバムに基づく音楽再生装置については、そのうちの各モジュール、サブモジュールが操作を実行する具体的な形態は当該方法に関する実施例において詳細に説明したため、ここで繰り返し説明しない。
以上は顔アルバムに基づく音楽再生装置の内部機能および構成を記述した。図9に示すように、実際において、当該顔アルバムに基づく音楽再生装置は端末デバイスに実現されてもよい。前記端末デバイスは、
プロセッサと、
プロセッサの実行可能な指令を記憶するためのメモリと、を含み、
ただし、前記プロセッサは、
ユーザが目標顔アルバム中のピクチャを閲覧するためにトリガーした閲覧指令を取得し、
前記ユーザの特徴情報を取得し、
前記ユーザの特徴情報に基づき前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定し、
あらかじめ設定された各人物関係と各音楽ジャンルとの対応関係に基づき、前記人物関係に対応する目標音楽ジャンルを特定し、
前記目標顔アルバム中のピクチャおよび前記目標音楽ジャンルに対応する音楽を再生するように構成される。
本実施例では、当該ユーザがある顔アルバム中のピクチャを閲覧すべき時には、当該ユーザの特徴情報に基づき当該ユーザと当該顔アルバムに対応する人物顔画像、つまり、被閲覧者との人物関係を特定することができる。これにより、当該人物関係に基づき、それに対応する音楽ジャンルに対応する音楽の自動選択および再生を実現することができる。ある顔アルバムを閲覧する時に、閲覧者と被閲覧者との人物関係に基づき、それに対応する音楽を自動選択および再生することができるため、ユーザの操作の煩雑さを低減し、ユーザの体験を向上させた。
図10は、一実施例にかかる別の端末デバイスを示すブロック図である。例えば、端末デバイス800は携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信機器、ゲームコンソール、タブレットデバイス、医療設備、フィットネス機器、PDAなどであってもよい。
図10を参照すると、端末デバイス800は、処理ユニット802、メモリ804、電源ユニット806、マルチメディアユニット808、オーディオユニット810、入力/出力(I/O)インターフェース812、センサユニット814、および、通信ユニット816のうちの1つまたは複数を含んでもよい。
処理ユニット802は、通常は、表示、電話発呼、データ通信、カメラ操作および記録操作に関連する操作のような、端末デバイス800の全般操作を制御する。処理ユニット802は、上記方法の全部または一部のステップを実施させるように、指令を実行するための1つまたは複数のプロセッサ820を含んでもよい。また、処理ユニット802は、処理ユニット802と他のユニットとの間の相互作用を容易にするように、1つ又は複数のモジュールを含んでもよい。例えば、処理ユニット802は、マルチメディアユニット808と処理ユニット802との間の相互作用を容易にするように、マルチメディアモジュールを含んでもよい。
メモリ804は、各タイプのデータを記憶して端末デバイス800での操作をサポートするように構成される。これらのデータの例示は、端末デバイス800で操作するための任意のアプリケーションもしくは方法の指令、連絡人データ、電話帳データ、メッセージ、ピクチャ、ビデオなどを含む。メモリ804は、如何なる種別の揮発性もしくは不揮発性記憶装置またはそれらの組合せで実現されてもよい。例えば、静的ランダムアクセスメモリ(SRAM)、電気的に消去可能なプログラマブル読み出し専用メモリ(EEPROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM)、プログラマブル読み出し専用メモリ(PROM)、読み出し専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクであってもよい。
電源ユニット806は、端末デバイス800のユニットのそれぞれに電力を供給する。電源ユニット806は、電源管理システム、1つまたは複数の電源、並びに、端末デバイス800用の電力を生成、管理および配分するに関する他のユニットを含んでもよい。
マルチメディアユニット808は、前記端末デバイス800とユーザとの間に1つの出力インターフェースを供給するスクリーンを含む。一部の実施例では、スクリーンは、液晶ディスプレイ(LCD)およびタッチパネル(TP)を含んでもよい。スクリーンは、タッチパネルを含む場合、ユーザからの入力信号を受信するように、タッチスクリーンとして実現されてもよい。タッチパネルは、タッチ、スライドおよびタッチパネルでのジェスチャを感知するように、1つまたは複数のタッチセンサを含む。前記タッチセンサは、タッチあるいはスライド動作の境界を感知するだけではなく、前記タッチあるいはスライド操作と関連する持続時間および圧力をさらに検出することができる。一部の実施例では、マルチメディアユニット808は、1つのフロントカメラおよび/またはバックカメラを含む。端末デバイス800が操作モード、例えば、撮影モードあるいはビデオモードであるとき、フロントカメラおよび/またはバックカメラは、外部のマルチメディアデータを受信することができる。フロントカメラおよびバックカメラのそれぞれは、1つの固定の光学レンズシステムであってもよいし、焦点距離および光学ズーム能力を有するものであってもよい。
オーディオユニット810は、オーディオ信号を出力および/または入力するように構成される。例えば、オーディオユニット810は、マイク(MIC)を備え、端末デバイス800が操作モード、例えば、発呼モード、記録モードおよび音声識別モードであるとき、マイクは、外部オーディオ信号を受信するように構成される。受信されたオーディオ信号は、さらに、メモリ804に格納される、または、通信ユニット816を介して送信されることができる。一部の実施例では、オーディオユニット810は、オーディオ信号を出力するためのスピーカをさらに含む。
I/Oインターフェース812は、処理ユニット802とペリフェラルインターフェースモジュールとの間でインターフェースを供給するものであり、前記ペリフェラルインターフェースモジュールは、キーボード、クリックホイール、ボタンなどであってもよい。これらのボタンには、ホームページボタン、ボリュームボタン、起動ボタンおよびロックボタンが含まれてもよいが、それらに限定されない。
センサユニット814は、様々な側面での状態推定を端末デバイス800に供給するための1つまたは複数のセンサを含む。例えば、センサユニット814は、端末デバイス800のオン/オフ状態、ユニットの相対位置を検出することができ、前記ユニットは、例えば、端末デバイス800のディスプレイおよびキーパッドである。センサユニット814は、さらに、端末デバイス800もしくは端末デバイス800の1つのユニットの位置変更、ユーザと端末デバイス800との接触の存在もしくは非存在、端末デバイス800の方位もしくは加速/減速および端末デバイス800の温度変化をさらに検出することができる。センサユニット814は、如何なる物理的接触もないとき、近辺にある物体の存在を検出するための近接センサを含んでもよい。センサユニット814は、さらに、イメージングアプリケーションに使用される光センサ、例えばCMOSまたはCCD画像センサを含んでもよい。一部の実施例では、当該センサユニット814は、さらに、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサまたは温度センサを含んでもよい。
通信ユニット816は、端末デバイス800と他の機器間の無線または有線方式の通信ができるように構成される。端末デバイス800は、通信規格に基づく無線ネットワーク、例えば、WiFi、2Gもしくは3G、またはそれらの組合せにアクセスすることができる。ある実施例では、通信ユニット816は、外部ブロードキャスト管理システムからのブロードキャスト信号またはブロードキャスト関連情報をブロードキャストチャネルを介して受信する。ある実施例では、前記通信ユニット816は、さらに、短距離通信を容易にするように、ニアフィールド通信(NFC)モジュールを含む。例えば、NFCモジュールは、無線周波数識別(RFID)技術、赤外データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(登録商標)(BT)技術および他の技術によって実現されてもよい。
実施例では、端末デバイス800は、上記方法を実行するための1つ又は複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子部品によって実現されてもよい。
実施例では、指令を含む非一時的コンピュータ読み取り可能な記憶媒体、例えば、指令を含むメモリ804をさらに提供し、上記指令が端末デバイス800のプロセッサ820によって実行されることで上述方法を実施させることができる。例えば、前記非一時的コンピュータ読み取り可能な記憶媒体は、ROM、ランダムアクセスメモリ(RAM)、CD-ROM、磁気テープ、フロッピー(登録商標)ディスクおよび光データ記憶機器などであってもよい。
非一時的コンピュータ読み取り可能な記憶媒体であり、前記記憶媒体中の指令が携帯端末のプロセッサにより実行されることで、携帯端末が顔アルバムに基づく音楽再生方法を実行することができるようにする。前記方法は、
ユーザが目標顔アルバム中のピクチャを閲覧するためにトリガーした閲覧指令を取得するステップと、
前記ユーザの特徴情報を取得するステップと、
前記ユーザの特徴情報に基づき前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップと、
あらかじめ設定された各人物関係と各音楽ジャンルとの対応関係に基づき、前記人物関係に対応する目標音楽ジャンルを特定するステップと、
前記目標顔アルバム中のピクチャおよび前記目標音楽ジャンルに対応する音楽を再生するステップと、を含む。
当業者は明細書を考慮し、ここに公開された開示を実践した後、本発明の他の実施案を容易に想到する。本願は、本発明の如何なる変形、用途または適合もカバーすることを意図する。これらの変形、用途または適合は、本発明の一般的な仕組みに従い、かつ、本発明に公開されていない当分野における公知常識または慣用技術手段を含む。明細書および実施例は単なる例示と見なされ、本発明の本当の範囲および思想は添付する特許請求の範囲によって与えられる。
本発明が以上で記載され、且つ図面に示された正確な構造に限定されるものでなく、その要旨を逸脱しない範囲で様々な補正や変更も可能であることは理解されるべきである。本発明の範囲は、添付する特許請求の範囲のみによって限定される。
本発明は、出願番号が2015108457448であり、出願日が2015年11月26日である中国特許出願を基に提出するものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容は、参照のため本願に援用される。

Claims (17)

  1. ユーザが目標顔アルバム中のピクチャを閲覧するためにトリガーした閲覧指令を取得するステップと、
    前記ユーザの特徴情報を取得するステップと、
    前記ユーザの特徴情報に基づき、前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップと、
    あらかじめ設定された各人物関係と各音楽ジャンルとの対応関係に基づき、前記人物関係に対応する目標音楽ジャンルを特定するステップと、
    前記目標顔アルバム中のピクチャおよび前記目標音楽ジャンルに対応する音楽を再生するステップと、を含むことを特徴とする顔アルバムに基づく音楽再生方法。
  2. 前記ユーザの特徴情報を取得するステップは、
    前記ユーザの指紋を取得するステップを含み、
    前記ユーザの特徴情報に基づき前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップは、
    前記指紋情報と予め設定された第1ユーザの指紋情報とをマッチングさせるステップと、
    前記指紋情報と前記第1ユーザの指紋情報とが一致する場合には、前記ユーザが前記第1ユーザであると特定し、かつ、前記第1ユーザが前記目標顔アルバムのために設けた分類タグに基づき前記第1ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップと、
    前記指紋情報と前記第1ユーザの指紋情報とが一致しない場合には、前記ユーザが第2ユーザであると特定し、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップと、を含むことを特徴とする請求項1に記載の顔アルバムに基づく音楽再生方法。
  3. 前記ユーザが前記第2ユーザであると特定し、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップは、
    前記第2ユーザの人物顔画像を取得するステップと、
    前記第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像とをマッチングさせるステップと、
    前記第2ユーザの人物顔画像と一致する顔アルバムが存在する場合には、一致する顔アルバムの分類タグおよび前記目標顔アルバムの分類タグに基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するステップと、を含むことを特徴とする請求項2に記載の顔アルバムに基づく音楽再生方法。
  4. 前記ユーザの特徴情報を取得するステップは、
    前記ユーザの人物顔画像を取得するステップを含み、
    前記ユーザの特徴情報に基づき前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップは、
    前記人物顔画像と予め設定された第1ユーザの人物顔画像とをマッチングさせるステップと、
    前記人物顔画像と前記第1ユーザの人物顔画像とが一致する場合には、前記ユーザが前記第1ユーザであると特定し、かつ、前記第1ユーザが前記目標顔アルバムのために設けた分類タグに基づき前記第1ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップと、
    前記人物顔画像と前記第1ユーザの人物顔画像とが一致しない場合には、前記ユーザが第2ユーザであると特定し、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップと、を含むことを特徴とする請求項1に記載の顔アルバムに基づく音楽再生方法。
  5. 前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するステップは、
    前記第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像とをマッチングさせるステップと、
    前記第2ユーザの人物顔画像と一致する顔アルバムが存在する場合には、一致する顔アルバムの分類タグおよび前記目標顔アルバムの分類タグに基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するステップと、を含むことを特徴とする請求項4に記載の顔アルバムに基づく音楽再生方法。
  6. 前記一致する顔アルバムの分類タグおよび前記目標顔アルバムの分類タグに基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するステップは、
    一致する顔アルバムの分類タグに基づき、前記第1ユーザと前記第2ユーザとの人物関係を特定するステップと、
    前記第1ユーザと前記被閲覧者との人物関係、および前記第1ユーザと前記第2ユーザとの人物関係に基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するステップと、を含むことを特徴とする請求項3または5に記載の顔アルバムに基づく音楽再生方法。
  7. 前記第2ユーザの人物顔画像と一致する顔アルバムが存在しない場合には、前記第2ユーザの人物特徴を取得するステップと、
    前記人物特徴情報および前記第1ユーザと前記被閲覧者との人物関係に基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するステップと、をさらに含み、
    前記人物特徴情報は年齢層特徴情報および/または性別特徴情報を含むことを特徴とする請求項3または5に記載の顔アルバムに基づく音楽再生方法。
  8. 前記目標顔アルバム中のピクチャを撮影時間または保存時間の前後順位に従いソートするステップをさらに含むことを特徴とする請求項1に記載の顔アルバムに基づく音楽再生方法。
  9. ユーザが目標顔アルバム中のピクチャを閲覧するためにトリガーした閲覧指令を取得するための第1取得モジュールと、
    前記ユーザの特徴情報を取得するための第2取得モジュールと、
    前記ユーザの特徴情報に基づき前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するための第1特定モジュールと、
    あらかじめ設定された各人物関係と各音楽ジャンルとの対応関係に基づき、前記第1特定モジュールが特定した前記人物関係に対応する目標音楽ジャンルを特定するための第2特定モジュールと、
    前記目標顔アルバム中のピクチャおよび前記第2特定モジュールが特定した前記目標音楽ジャンルに対応する音楽を再生するための再生モジュールと、を備えることを特徴とする顔アルバムに基づく音楽再生装置。
  10. 前記第2取得モジュールは、
    前記ユーザの指紋情報を取得するための第1取得サブモジュールを備え、
    前記第1特定モジュールは、
    前記第1取得サブモジュールが取得した前記指紋情報と予め設定された第1ユーザの指紋情報とをマッチングさせるための第1マッチングサブモジュールと、
    前記指紋情報と前記第1ユーザの指紋情報とが一致する場合には、前記ユーザが前記第1ユーザであると特定し、かつ前記第1ユーザが前記目標顔アルバムのために設けた分類タグに基づき前記第1ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するための第1特定サブモジュールと、
    前記指紋情報と前記第1ユーザの指紋情報とが一致しない場合には、前記ユーザが第2ユーザであると特定し、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するための第2特定サブモジュールと、を備えることを特徴とする請求項9に記載の顔アルバムに基づく音楽再生装置。
  11. 前記第2特定サブモジュールは、
    前記第2ユーザの人物顔画像を取得するための第1取得手段と、
    前記第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像とをマッチングさせるためのマッチング手段と、
    前記第2ユーザの人物顔画像と一致する顔アルバムが存在する場合には、一致する顔アルバムの分類タグおよび前記目標顔アルバムの分類タグに基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するための第1特定手段と、を備えることを特徴とする請求項10に記載の顔アルバムに基づく音楽再生装置。
  12. 前記第2取得モジュールは、
    前記ユーザの人物顔画像を取得するための第2取得サブモジュールを備え、
    前記第1特定モジュールは、
    前記第2取得サブモジュールが取得した前記人物顔画像と予め設定された第1ユーザの人物顔画像とをマッチングさせる第2マッチングサブモジュールと、
    前記人物顔画像と前記第1ユーザの人物顔画像とが一致する場合には、前記ユーザが前記第1ユーザであると特定し、かつ前記第1ユーザが前記目標顔アルバムのために設けた分類タグに基づき前記第1ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するための前記第1特定サブモジュールと、
    前記人物顔画像と前記第1ユーザの人物顔画像とが一致しない場合には、前記ユーザが第2ユーザであると特定し、前記第2ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定するための前記第2特定サブモジュールと、を備えることを特徴とする請求項9に記載の顔アルバムに基づく音楽再生装置。
  13. 前記第2特定サブモジュールは、
    前記第2ユーザの人物顔画像と各顔アルバムに対応する人物顔画像とをマッチングさせるためのマッチング手段と、
    前記マッチング手段がマッチングにより前記第2ユーザの人物顔画像と一致する顔アルバムを得た場合には、一致する顔アルバムの分類タグおよび前記目標顔アルバムの分類タグに基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するための第1特定手段と、を備えることを特徴とする請求項12に記載の顔アルバムに基づく音楽再生装置。
  14. 前記第1特定手段は、
    一致する顔アルバムの分類タグに基づき、前記第1ユーザと前記第2ユーザとの人物関係を特定するための第1特定ユニットと、
    前記第1特定サブモジュールが特定した前記第1ユーザと前記被閲覧者との人物関係、および前記第1特定ユニットが特定した前記第1ユーザと前記第2ユーザとの人物関係に基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するための第2特定ユニットと、を備えることを特徴とする請求項11または13に記載の顔アルバムに基づく音楽再生装置。
  15. 前記第2特定サブモジュールは、
    前記マッチング手段が前記第2ユーザの人物顔画像と一致する顔アルバムをマッチングにより得られなかった場合には、前記第2ユーザの人物特徴情報を取得するための第2取得手段と、
    前記第2取得手段が取得した前記人物特徴情報および前記第1特定サブモジュールが特定した前記第1ユーザと前記被閲覧者との人物関係に基づき、前記第2ユーザと前記被閲覧者との人物関係を特定するための第2特定手段と、をさらに備え、
    前記人物特徴情報は年齢層特徴情報および/または性別特徴情報を含むことを特徴とする請求項11または13に記載の顔アルバムに基づく音楽再生装置。
  16. 前記目標顔アルバム中のピクチャを撮影および保存時間の前後順位に従いソートするためのソートモジュールをさらに備えることを特徴とする請求項9に記載の顔アルバムに基づく音楽再生装置。
  17. プロセッサと、
    プロセッサの実行可能な指令を記憶するためのメモリと、を含み、
    前記プロセッサは、
    ユーザが目標顔アルバム中のピクチャを閲覧するためにトリガーした閲覧指令を取得し、
    前記ユーザの特徴情報を取得し、
    前記ユーザの特徴情報に基づき前記ユーザと前記目標顔アルバム中のピクチャに対応する被閲覧者との人物関係を特定し、
    あらかじめ設定された各人物関係と各音楽ジャンルとの対応関係に基づき、前記人物関係に対応する目標音楽ジャンルを特定し、
    前記目標顔アルバム中のピクチャおよび前記目標音楽ジャンルに対応する音楽を再生するように構成されることを特徴とする端末デバイス。
JP2016520060A 2015-11-26 2015-12-29 顔アルバムに基づく音楽再生方法、装置および端末デバイス Active JP6474393B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510845744.8A CN105447150B (zh) 2015-11-26 2015-11-26 基于面孔相册的音乐播放方法、装置和终端设备
CN201510845744.8 2015-11-26
PCT/CN2015/099608 WO2017088257A1 (zh) 2015-11-26 2015-12-29 基于面孔相册的音乐播放方法、装置和终端设备

Publications (2)

Publication Number Publication Date
JP2017538975A true JP2017538975A (ja) 2017-12-28
JP6474393B2 JP6474393B2 (ja) 2019-02-27

Family

ID=55557326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016520060A Active JP6474393B2 (ja) 2015-11-26 2015-12-29 顔アルバムに基づく音楽再生方法、装置および端末デバイス

Country Status (8)

Country Link
US (1) US9953221B2 (ja)
EP (1) EP3173969B1 (ja)
JP (1) JP6474393B2 (ja)
KR (1) KR101985955B1 (ja)
CN (1) CN105447150B (ja)
MX (1) MX364534B (ja)
RU (1) RU2635238C1 (ja)
WO (1) WO2017088257A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105871905B (zh) * 2016-05-26 2019-09-13 北京小米移动软件有限公司 认证方法和装置
CN106594610A (zh) * 2016-12-15 2017-04-26 上海亚明照明有限公司 一种具有图像识别功能的智能灯以及一种路灯
KR20190081701A (ko) 2017-12-29 2019-07-09 삼성전자주식회사 사진촬영에 음악을 링크하는 전자 장치 및 이의 제어 방법
CN108172244B (zh) * 2018-01-24 2019-11-15 北京华毅东方展览有限公司 一种展览音响智能控制的方法
US10872115B2 (en) * 2018-03-19 2020-12-22 Motorola Mobility Llc Automatically associating an image with an audio track
CN109168154B (zh) * 2018-06-28 2021-07-20 维沃移动通信有限公司 一种用户行为信息收集方法、装置及移动终端
CN110377772A (zh) * 2019-06-26 2019-10-25 华为技术有限公司 一种内容查找方法、相关设备及计算机可读存储介质
CN110572489A (zh) * 2019-09-09 2019-12-13 北京安云世纪科技有限公司 一种新建联系人的方法及装置
CN111930235A (zh) * 2020-08-10 2020-11-13 南京爱奇艺智能科技有限公司 基于vr设备的展示方法、装置以及电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005276178A (ja) * 2004-02-17 2005-10-06 Microsoft Corp デジタルファイルおよびデータのための高速可視的ソート
JP2006155095A (ja) * 2004-11-26 2006-06-15 Fuji Photo Film Co Ltd 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム
JP2006164229A (ja) * 2004-11-09 2006-06-22 Canon Inc 情報再生装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2006261933A (ja) * 2005-03-16 2006-09-28 Casio Comput Co Ltd 画像処理装置及びプログラム
US20090119333A1 (en) * 2007-11-02 2009-05-07 Sundstrom Robert J Methods, Systems, And Computer Readable Media For Associating Information With A Digital Image
JP2011118710A (ja) * 2009-12-04 2011-06-16 Sony Computer Entertainment Inc 楽曲推薦システム、情報処理装置、および情報処理方法
JP2013083689A (ja) * 2011-10-06 2013-05-09 Kddi Corp 閲覧者と被写体人物との関係に応じて表示サイズを決定する画面出力装置、プログラム及び方法
JP2013120414A (ja) * 2011-12-06 2013-06-17 Canon Inc 情報処理装置、情報処理装置の制御方法、プログラム
JP2014174782A (ja) * 2013-03-11 2014-09-22 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2351981C2 (ru) * 2003-10-11 2009-04-10 Майкрософт Корпорейшн Расширяемое создание и редактирование объединенных наборов
JP2008311822A (ja) * 2007-06-13 2008-12-25 Funai Electric Co Ltd コンテンツ再生装置
US8094891B2 (en) * 2007-11-01 2012-01-10 Sony Ericsson Mobile Communications Ab Generating music playlist based on facial expression
CN102256030A (zh) * 2010-05-20 2011-11-23 Tcl集团股份有限公司 可匹配背景音乐的相册演示系统及其背景音乐匹配方法
CN102045439A (zh) * 2010-09-29 2011-05-04 深圳市五巨科技有限公司 一种移动终端浏览相册的方法和装置
CN103369102B (zh) * 2012-03-26 2016-08-03 宇龙计算机通信科技(深圳)有限公司 来电铃声控制方法和移动终端
TWI603213B (zh) * 2014-01-23 2017-10-21 國立交通大學 基於臉部辨識的音樂選取方法、音樂選取系統及電子裝置
EP3143550A1 (en) * 2014-05-12 2017-03-22 Intelligent Digital Avatars, Inc. Systems and methods for dynamically collecting and evaluating potential imprecise characteristics for creating precise characteristics
CN103986835A (zh) * 2014-05-23 2014-08-13 深圳市中兴移动通信有限公司 一种移动终端及其多用户场景切换的方法和装置
CN104268150A (zh) * 2014-08-28 2015-01-07 小米科技有限责任公司 一种基于图片内容播放音乐的方法及装置
CN104268547A (zh) * 2014-08-28 2015-01-07 小米科技有限责任公司 一种基于图片内容播放音乐的方法及装置
CN105069073B (zh) * 2015-07-30 2019-12-13 小米科技有限责任公司 联系人信息推荐方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005276178A (ja) * 2004-02-17 2005-10-06 Microsoft Corp デジタルファイルおよびデータのための高速可視的ソート
JP2006164229A (ja) * 2004-11-09 2006-06-22 Canon Inc 情報再生装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2006155095A (ja) * 2004-11-26 2006-06-15 Fuji Photo Film Co Ltd 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム
JP2006261933A (ja) * 2005-03-16 2006-09-28 Casio Comput Co Ltd 画像処理装置及びプログラム
US20090119333A1 (en) * 2007-11-02 2009-05-07 Sundstrom Robert J Methods, Systems, And Computer Readable Media For Associating Information With A Digital Image
JP2011118710A (ja) * 2009-12-04 2011-06-16 Sony Computer Entertainment Inc 楽曲推薦システム、情報処理装置、および情報処理方法
JP2013083689A (ja) * 2011-10-06 2013-05-09 Kddi Corp 閲覧者と被写体人物との関係に応じて表示サイズを決定する画面出力装置、プログラム及び方法
JP2013120414A (ja) * 2011-12-06 2013-06-17 Canon Inc 情報処理装置、情報処理装置の制御方法、プログラム
JP2014174782A (ja) * 2013-03-11 2014-09-22 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
CN105447150A (zh) 2016-03-30
US20170154220A1 (en) 2017-06-01
KR20170074822A (ko) 2017-06-30
KR101985955B1 (ko) 2019-06-05
EP3173969B1 (en) 2020-05-06
US9953221B2 (en) 2018-04-24
RU2635238C1 (ru) 2017-11-09
JP6474393B2 (ja) 2019-02-27
CN105447150B (zh) 2019-04-16
MX364534B (es) 2019-04-29
MX2016005795A (es) 2017-11-30
EP3173969A1 (en) 2017-05-31
WO2017088257A1 (zh) 2017-06-01

Similar Documents

Publication Publication Date Title
JP6474393B2 (ja) 顔アルバムに基づく音楽再生方法、装置および端末デバイス
CN104615769B (zh) 图片分类方法及装置
KR101680714B1 (ko) 실시간 동영상 제공 방법, 장치, 서버, 단말기기, 프로그램 및 기록매체
WO2017084182A1 (zh) 图片处理方法及装置
CN104717366B (zh) 联系人头像的推荐方法及装置
JP6263263B2 (ja) 関連ユーザー確定方法および装置
WO2015196709A1 (zh) 信息获取方法及装置
WO2022037307A1 (zh) 信息推荐方法、装置及电子设备
JP2017531975A (ja) 写真共有方法、装置、プログラム及び記録媒体
CN104820675A (zh) 相册显示方法及装置
CN104572905A (zh) 照片索引创建方法、照片搜索方法及装置
CN106776890A (zh) 视频播放进度的调整方法及装置
CN106331761A (zh) 直播列表显示方法及装置
CN112672208B (zh) 视频播放方法、装置、电子设备、服务器及系统
WO2017080084A1 (zh) 字体添加方法及装置
CN106550252A (zh) 信息的推送方法、装置及设备
CN105335714A (zh) 照片处理方法、装置和设备
CN106547850A (zh) 表情注释方法及装置
CN106604101A (zh) 直播互动的方法及装置
CN106331328A (zh) 信息提示的方法及装置
CN105426904A (zh) 照片处理方法、装置和设备
CN113032627A (zh) 视频分类方法、装置、存储介质及终端设备
CN112087653A (zh) 一种数据处理方法、装置和电子设备
CN108491535B (zh) 信息的分类存储方法及装置
CN112396675A (zh) 图像处理方法、装置及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180315

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181227

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190129

R150 Certificate of patent or registration of utility model

Ref document number: 6474393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250