JP2020507159A - ピクチャプッシュの方法、移動端末および記憶媒体 - Google Patents

ピクチャプッシュの方法、移動端末および記憶媒体 Download PDF

Info

Publication number
JP2020507159A
JP2020507159A JP2019539943A JP2019539943A JP2020507159A JP 2020507159 A JP2020507159 A JP 2020507159A JP 2019539943 A JP2019539943 A JP 2019539943A JP 2019539943 A JP2019539943 A JP 2019539943A JP 2020507159 A JP2020507159 A JP 2020507159A
Authority
JP
Japan
Prior art keywords
user
mood
picture
image
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019539943A
Other languages
English (en)
Inventor
バイ、ジャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2020507159A publication Critical patent/JP2020507159A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/38Creation or generation of source code for implementing user interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • Educational Technology (AREA)
  • Physiology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Fuzzy Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)

Abstract

ピクチャプッシュの方法、端末装置および記憶媒体が提供される。当該方法は以下を含む。画面が点灯するとき、ユーザの顔の表情を含むイメージが取得される。イメージが分析され、ユーザの気分タイプを確定される。ユーザの気分タイプに応じて、目標ピクチャがプッシュされる。

Description

本開示は、端末の分野に関し、特に、ピクチャプッシュの方法、移動端末、および記憶媒体に関する。
現在、科学技術の発展に伴い、人々の物質的な生活は非常に充実してきており、スマート端末も普及している。
人々はスマート端末を通して仕事をし、娯楽やゲームをすることができる。特に、サーバはピクチャを非周期的に端末にプッシュすることができる。しかしながら、サーバがユーザの状態を知らないので、プッシュされたピクチャは、ユーザによって端末の壁紙として使われる可能性は低い。さらに、プッシュされたピクチャからお気に入りのピクチャを選択することはユーザにとって困難であり、一般に、ユーザはウェブページにアクセスし、自分のスタイルに合ったピクチャを選択する。ウェブページでピクチャを選択するのは多くの時間がかかるため、ユーザにとって不便である。
本開示の実施形態は、ユーザのお気に入りのピクチャをよりプッシュすることで、ユーザがピクチャを選択する時間が短縮されるように、ユーザの気分のタイプに合わせる目標ピクチャをプッシュすることができるピクチャプッシュの方法、移動端末、および記憶媒体を開示する。
本開示の実施形態の第1の態様は、ピクチャプッシュの方法を開示し、当該方法は以下を含む。
画面が点灯するとき、ユーザの表情を含むイメージが取得される。イメージが分析され、ユーザの気分タイプを確定する。そして、ユーザの気分タイプに応じて目標ピクチャがプッシュされる。
本開示の第2の態様は、プログラムコードを格納するように構成されるメモリと、メモリとカプリングされる少なくとも1つのプロセッサとを備える移動端末を開示する。プログラムコードは、少なくとも1つのプロセッサによって実行されるとき、少なくとも1つのプロセッサと共に動作可能で、取得ユニット、分析ユニット、確定ユニット、獲得ユニット、およびプッシュユニットを実行する。取得ユニットは、画面が点灯するとき、ユーザの表情を含むイメージを取得するように構成される。分析ユニットは、イメージを分析してユーザの気分タイプを確定するように構成される。確定ユニットは、ユーザの気分タイプに応じてプッシュされるべきピクチャのタイプを確定するように構成される。獲得ユニットは、ピクチャギャラリーからプッシュされるべきピクチャのタイプに合わせる目標ピクチャを獲得するように構成される。プッシュユニットは、目標ピクチャをユーザにプッシュするように構成される。
本開示の第3の態様は、カメラと汎用プロセッサとを備える移動端末を開示する。カメラは、画面が点灯するとき、ユーザの表情を含むイメージを取得するように構成される。汎用プロセッサは、以下のように構成される。イメージを分析して、ユーザの気分タイプを確定する;ユーザの気分タイプに応じてプッシュされるべきピクチャのタイプを確定する;ピクチャギャラリーからプッシュされるべきピクチャのタイプに合わせる目標ピクチャを獲得する;目標ピクチャをユーザにプッシュする。
本開示の実施形態における技術案をより明確に説明するために、以下は、実施形態を説明するために必要とされる添付の図面を簡単に紹介する。明らかに、以下の説明における添付の図面は本開示のいくつかの実施形態を示す。当業者はまた、創造的な努力なしにもこれらの添付の図面に基づいて他の図面を獲得することができる。
図1Aは本開示の一実施形態によるピクチャプッシュの方法を示す概略フローチャートである。 図1Bは本開示の一実施形態によるピクチャプッシュの方法を示す概略フローチャートである。 図2は本開示の実施形態によるピクチャプッシュの別の方法を示す概略フローチャートである。 図3は本開示の一実施形態によるピクチャプッシュの別の方法を示す概略フローチャートである。 図4は本開示の一実施形態による移動端末を示す概略ブロック図である。 図5は本開示の一実施形態による別の移動端末を示す概略ブロック図である。 図6は本開示の一実施形態による別の移動端末を示す概略ブロック図である。 図7は本開示の一実施形態による移動端末を示す概略物理的構造図である。 図8は本開示の一実施形態による別の移動端末を示す概略物理的構造図である。
本開示の実施形態における添付の図面を参照しながら、本開示の実施形態における技術案を以下に明確かつ完全に説明する。明らかに、記載される実施形態は、本開示の全ての実施形態よりもむしろいくつかのものにすぎない。創造的な努力なしにも本開示の実施形態に基づいて当業者によって獲得される他のすべての実施形態は、本開示の保護範囲内に入るものとする。
本開示の一実施形態によるピクチャプッシュの方法、移動端末、及び記憶媒体は、ユーザの気分タイプに合わせる目標ピクチャをプッシュすることができるので、ユーザのお気に入りのピクチャよりプッシュし、ユーザがピクチャを選択する時間が短縮される。以下、本開示の実施の形態を詳細に説明する。
本開示の実施形態によれば、ピクチャのプッシュ方法が提供され、当該方法以下を含む。
画面が点灯するとき、ユーザの表情を含むイメージが取得される。イメージが分析され、ユーザの気分タイプを確定する。そして、ユーザの気分タイプに応じて目標ピクチャがプッシュされる。
一実施形態として、目標ピクチャは、以下のようにユーザの気分タイプに応じてプッシュされる。プッシュされるべきピクチャのタイプは、ユーザの気分タイプに応じて確定される。プッシュされるべきピクチャのタイプに合わせる目標ピクチャがピクチャギャラリから獲得される。そして目標ピクチャがユーザにプッシュされる。
一実施形態として、イメージは、以下のように分析されて、ユーザの気分タイプを確定する。イメージをテンプレートと比較して、目の位置と口の位置を確定する;目の形状および口の形状は分析されて、ユーザの気分タイプを確定する。
一実施形態として、以下のように、イメージが分析されて、ユーザの気分タイプを確定する。イメージをテンプレートと比較して、複数の顔の特徴の位置を確定する;顔の特徴の形状は分析され、複数の候補気分タイプを確定する;そして、候補気分タイプのうち最も割合が高い気分タイプをユーザの気分タイプとして確定する。
一実施形態として、以下のように、イメージが分析されて、ユーザの気分タイプを確定する。イメージをユーザの気分モデルと比較して、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定する;そして、目標の気分ピクチャに準じて、ユーザの気分タイプが確定される。
一実施形態として、本方法は、イメージをユーザの気分モデルと比較して、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定する前に、以下をさらに含んでもよい。ユーザの予め設定された数の表情イメージが取得される;予め設定された機械学習スキームに従って表情イメージについて学習し、ユーザの気分モデルを獲得する。
一実施形態として、本方法は、目標ピクチャをユーザにプッシュした後に以下をさらに含んでもよい。ユーザの選択結果が記録される;そして、ユーザの選択結果に応じてユーザの気分モデルが更新される。
本開示の実施態様によれば、プログラムコードを格納するように構成されるメモリと、メモリとカプリングされる少なくとも1つのプロセッサとを備える移動端末が提供される。プログラムコードは、少なくとも1つのプロセッサによって実行されるとき、少なくとも1つのプロセッサと共に動作可能で、以下のことを実行する。
取得ユニットは、画面が点灯するとき、ユーザの表情を含むイメージを取得するように構成される。分析ユニットは、イメージを分析してユーザの気分タイプを確定するように構成される。確定ユニットは、ユーザの気分タイプに応じてプッシュされるべきピクチャのタイプを確定するように構成される。獲得ユニットは、ピクチャギャラリーをスクリーニングして、プッシュされるべきピクチャのタイプに合わせる目標ピクチャを獲得するように構成される。プッシュユニットは、目標ピクチャをユーザにプッシュするように構成される。
一実施形態として、分析ユニットは、第1の比較ユニットと分析ユニットとを備える。
第1の比較ユニットは、イメージをテンプレートと比較して、目の位置と口の位置とを確定するように構成される。
分析ユニットは、目の形状および口の形状を分析し、ユーザの気分タイプを確定するように構成される。
一実施態様として、分析ユニットは、第3の比較ユニット、第1の確定ユニット、および第2の確定ユニットを備える。
第3の比較ユニットは、イメージをテンプレートと比較して複数の顔の特徴の位置を確定するように構成される。
第1の確定ユニットは、顔の特徴の形状を分析して複数の候補気分タイプを確定するように構成される。
第2の確定ユニットは、候補気分タイプのうち最も割合が高い気分タイプをユーザの気分タイプとして確定するように構成される。
一実施態様として、分析ユニットは、第2の比較ユニットと確定ユニットとを備える。
第2の比較ユニットは、イメージをユーザの気分モデルと比較して、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定するように構成される。
確定ユニットは、目標の気分ピクチャに準じてユーザの気分タイプを確定するように構成される。
一実施態様として、移動端末は、学習ユニットをさらに含んでもよい。
取得ユニットはさらに、ユーザの予め設定された数の表情イメージを取得するように構成される。
学習ユニットは、予め設定された機械学習スキームに従って表情イメージについて学習してユーザの気分モデルを獲得するように構成される。
一実施形態として、移動端末は、記録ユニットと更新ユニットとをさらに備えてもよい。
記録ユニットは、ユーザの選択結果を記録するように構成される。
更新ユニットは、ユーザの選択結果に応じてユーザの気分モデルを更新するように構成される。
本開示の実施形態によれば、カメラと汎用プロセッサとを備える別の移動端末が提供される。
カメラは、画面が点灯するときに、ユーザの表情を含むイメージを取得するように構成される。
汎用プロセッサは、以下のように構成される。イメージを分析して、ユーザの気分タイプを確定する;ユーザの気分タイプに応じてプッシュされるべきピクチャのタイプを確定する;ピクチャギャラリーをスクリーニングし、プッシュされるべきピクチャのタイプに合わせる目標ピクチャを獲得する;そして目標ピクチャをユーザにプッシュする。
一実施形態として、イメージを分析してユーザの気分タイプを確定するように構成される汎用プロセッサは、イメージとテンプレートとを比較して目の位置および口の位置を確定し、目の形状および口の形状を分析しユーザの気分タイプを確定するように構成される。
一実施形態として、イメージを分析してユーザの気分タイプを確定するように構成される汎用プロセッサは、イメージをユーザの気分モデルと比較して、ユーザの気分モデルからイメージに合わせる目標の気分ピクチャを確定し、そして、目標の気分ピクチャに準じてユーザの気分タイプを確定するように構成される
一実施形態として、汎用プロセッサはさらに、ユーザの予め設定された数の表情イメージを取得し、予め設定された機械学習スキームに従って表情イメージについて学習してユーザ気分モデルを獲得するように構成される。
一実施形態として、汎用プロセッサは、アプリケーションプロセッサおよび人工知能(AI)ユニットを含み、AIユニットはアプリケーションプロセッサと集積されている。
AIユニットは、ユーザの予め設定された数の表情イメージを取得し、予め設定された機械学習スキームに従って表情イメージについて学習してユーザの気分モデルを獲得するように構成される。
一実施形態として、AIユニットはさらに、イメージをユーザの気分モデルと比較して、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定し、目標の気分ピクチャに準じてユーザの気分タイプを確定するように構成される。
一実施形態として、汎用プロセッサはアプリケーションプロセッサと人工知能(AI)ユニットとを含み、AIユニットはアプリケーションプロセッサから分離されている。
AIユニットは、ユーザの予め設定された数の表情イメージを取得し、予め設定された機械学習スキームに従って表情イメージについて学習してユーザの気分モデルを獲得するように構成される。
一実施形態として、AIユニットはさらに、イメージをユーザの気分モデルと比較して、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定し、目標の気分ピクチャに準じてユーザの気分タイプを確定するように構成される。
第1の実施形態
図1Aは本開示の第1の実施形態によるピクチャプッシュの方法を示す概略フローチャートである。本実施形態は、ユーザが端末の壁紙を変更したい状況に適用されるので、この方法は、表示画面を有する端末によって実行してもよい。端末は、スマートフォンやタブレットPCなどの電子端末であってもよい。図1Aに示すように、方法はブロック110で始まる。
ブロック110で、画面が点灯するとき、ユーザの表情を含むイメージが取得される。
本開示の少なくとも1つの実施形態では、端末は、携帯電話、タブレットコンピュータ、携帯情報端末(PDA)、およびモバイルインターネットデバイス(MID)などの様々な種類の端末を含んでもよい。本開示はこれらに限定されない。
イメージは、ユーザの目、鼻、頬、唇、眉毛などを示すことに留意されたい。
この方法を端末で実行すると、端末の画面が点灯するときにイメージが取得される。
ブロック120において、イメージが分析されて、ユーザの気分タイプを確定する。
気分タイプは、ユーザの気分の分類である。一般的な気分のタイプには、良い気分、普通の気分、または悪い気分が含まれてもよい。
イメージを部分的に分析してユーザの気分タイプを確定することもできるし(例えば、目と口の形状を分析するだけなど)、イメージを完全に分析してユーザの気分タイプを確定することもできる(例えば、イメージをモデルと直接比較してユーザの気分タイプを確定するなど)。
ブロック130で、ユーザの気分タイプに応じて目標ピクチャがプッシュされる。
端末は、ユーザの気分タイプに応じて目標ピクチャを確定し、目標ピクチャをユーザにプッシュすることができる。
上記の技術案を介して、ユーザの気分タイプに合わせる目標ピクチャをプッシュすることができ、それにより、ユーザのお気に入りのイメージをよりプッシュし、ユーザがイメージを選択する時間を短縮することができる。
第2の実施形態
図1Bは本開示の第2の実施形態によるピクチャプッシュの方法を示す概略フローチャートである。本実施形態は、ユーザが端末の壁紙を変更したい状況に適用されるので、この方法は、表示画面を有する端末によって実行してもよい。端末は、スマートフォンやタブレットPCなどの電子端末としてもよい。図1Bに示すように、方法はブロック101で始まる。
ブロック101で、画面が点灯するときに、ユーザの表情を含むイメージが取得される。
本開示の少なくとも1つの実施形態では、端末は、携帯電話、タブレットコンピュータ、携帯情報端末(PDA)、およびモバイルインターネットデバイス(MID)などの様々な種類の端末を含んでもよい。開示はこれらに限定されない。
イメージは、ユーザの目、鼻、頬、唇、眉毛などを示すことに留意されたい。
この方法を端末で実行すると、端末の画面が点灯するときにイメージが取得される。
ブロック102において、イメージが分析されて、ユーザの気分タイプを確定する。
気分タイプは、ユーザの気分の分類である。一般的な気分のタイプには、良い気分、普通の気分、または悪い気分が含まれる。
イメージを部分的に分析してユーザの気分タイプを確定することもできるし(例えば、目と口の形状を分析するだけなど)、イメージを完全に分析してユーザの気分タイプを確定することもできる(例えばイメージをモデルと直接比較してユーザの気分タイプを確定するなど)。
実施形態として、以下のように、イメージが分析され、ユーザの気分タイプを確定する。イメージは、テンプレートと比較され、目の位置および口の位置を確定する;そして、目の形状と口の形状は分析され、ユーザの気分タイプを確定する。
例えば、テンプレートは、人間の顔の特徴の分割を含み、イメージに含まれる顔の特徴は、口がどこにあるか、目がどこにあるか、眉がどこにあるか、および頬がどこにあるかなど、テンプレートとイメージを比較することによってマークされる。
目の形状は以下のように分析される:目の形状は予め設定された目の形状と比較されてユーザの気分タイプを確定する。当然のことながら、予め設定された目の形状は全てマークされており、例えば、予め設定された曲がった目の形状は良い気分としてマークされている。目の形状が曲がった目の形状に合わせる場合、ユーザが良い気分であることを意味する。
口の形状は以下のように分析される:口の形状は予め設定された口の形状と比較されてユーザの気分タイプを確定する。
上向きの口元を有する口の形状は、一般に、良い気分としてマークされることが理解されるだろう。口の形状が上向きの口元を有する口の形状に合わせる場合、ユーザが良い気分であることを示す。口の形状が唇をしっかりと閉じていることであれば、ユーザが普通の気分であるか、または気分が悪いことを示している。
目の形状の分析結果が口の分析結果と異なる場合、眉毛の形状をさらに分析して分析結果を取得してもよいことが理解されよう。分析結果の割合が統計される。複数の部位を分析した後、半分以上の部位はユーザが気分良いことを示せば、出力されるべき最終結果は、ユーザは気分が良いことである。
一実施形態として、イメージは、以下のように分析され、ユーザの気分タイプを確定する。イメージは、ユーザの気分モデルと比較されて、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定する;そして、目標の気分ピクチャに準じて、ユーザの気分タイプが確定される。
ユーザの気分モデルは複数の顔イメージを含み、各顔イメージは気分タイプでマークされていることに留意されたい。イメージと第1のイメージとの間のマッチング度が予め設定された閾値(例えば95%)よりも大きい場合、第1のイメージに対応する気分タイプはユーザの気分タイプである。第1のイメージは、ユーザの気分モデル内の任意のイメージである。
そして、イメージがユーザの気分モデルと比較されて、イメージに合わせるユーザの気分モデルから目標の気分ピクチャが確定される前に、本方法はさらに以下を含む。ユーザの予め設定された数の表情イメージが取得される;予め設定された機械学習スキームに従って表情イメージについて学習し、ユーザの気分モデルを獲得する。
例えば、端末は、端末のピクチャギャラリーからユーザの表情を含むイメージを取得してもよく、その後、端末は一部のイメージをサーバに送信し、受信したイメージをサーバに気分タイプでマークさせる。端末は、サーバからマーク付きイメージを受信し、マーク付きイメージおよび予め設定された機械学習スキームに従って残りの取得イメージについて学習し、ユーザの気分モデルを獲得する。ユーザ気分モデルはユーザピクチャギャラリであてもよく、ユーザピクチャギャラリ内のすべてのイメージは気分タイプでマークされることが理解されたい。
一般的な予め設定された学習スキームは、いくつかの例を挙げると、分類アルゴリズム、教師付き学習アルゴリズム、ベイズのアルゴリズムなどがある。
ブロック103において、プッシュされるべきピクチャのタイプは、ユーザの気分タイプに応じて確定される。
例えば、ユーザの気分タイプが、ユーザが良い気分である場合、プッシュされるべきピクチャは屋外の風景ピクチャであってもよい。ユーザの気分タイプが、ユーザが悪い気分である場合、プッシュされるべきピクチャは、面白いピクチャまたはユーモラスなピクチャであってもよい。
ブロック104で、プッシュされるべきピクチャのタイプに合わせる目標ピクチャが、ピクチャギャラリーから獲得される。
端末に保存されているピクチャを選別してもよい。もちろん、端末はクラウドデータセンターにピクチャ取得リクエストを送信してもよい。そのピクチャ取得リクエストは、ピクチャタイプを含む。クラウドデータセンターは、インターネットで検索してピクチャタイプに属するピクチャを取得し、取得したピクチャを端末に返す。クラウドデータセンタによって返されたピクチャを受信した後、端末は、ユーザが閲覧するためにデスクトップにサムネイルをポップアップすることができ、それにより、ユーザにピクチャを選択する利便性を提供する。
ブロック105で、目標ピクチャがユーザにプッシュされる。
一実施形態として、目標ピクチャがユーザにプッシュされた後、本方法はさらに以下を含む。ユーザの選択結果が記録される;ユーザの気分モデルは、ユーザの選択結果に準じて更新される。
上記のことからわかるように、本開示の実施形態によって提供される技術案を実施することで、画面が点灯するときにユーザの表情を含むイメージが取得される。イメージが分析され、ユーザの気分タイプを確定する。プッシュされるべきピクチャのタイプは、ユーザの気分タイプに応じて確定される。ピクチャギャラリーがスクリーニングされ、プッシュされるべきピクチャのタイプに合わせる目標ピクチャを獲得する。そして目標ピクチャがユーザにプッシュされる。上記の技術案によって、ユーザの気分タイプに合わせる目標ピクチャをプッシュすることができ、それにより、ユーザのお気に入りのイメージをよりプッシュし、ユーザがイメージを選択する時間を短縮することができる。
第3の実施形態
第3の実施形態は、第2の実施形態に基づいてピクチャプッシュの方法を提供する。この方法では、以下のようにして、ユーザの表情を含むイメージを部分的に分析し、ユーザの気分タイプを確定する。イメージをテンプレートと比較して、目の位置と口の位置を確定する;そして、目の形状と口の形状を分析し、ユーザの気分タイプを確定する。
図2を参照する。図2は、本開示の一実施形態によるピクチャプッシュの方法を示す概略フローチャートである。図2に示すように、ピクチャプッシュの方法はブロック201で始まる。
ブロック201において、画面が点灯するときに、ユーザの表情を含むイメージが取得される。
本開示の少なくとも1つの実施形態では、端末は、携帯電話、タブレットコンピュータ、携帯情報端末(PDA)、およびモバイルインターネットデバイス(MID)などの様々な種類の端末を含んでもよい。本開示はこれらに限定されない。
ブロック202において、イメージはテンプレートと比較されて目の位置および口の位置を確定する。
ブロック203において、目の形状および口の形状が分析されて、ユーザの気分タイプが確定される。
一般的な気分のタイプには、良い気分、普通の気分、または悪い気分が含まれる。
例えば、テンプレートは、人間の顔の特徴の分割を含み、イメージに含まれる顔の特徴は、例えば、口がどこにあるか、目がどこにあるか、眉がどこにあるか、および頬がどこにあるかなど、テンプレートとイメージを比較することによってマークされる
目の形状は以下のように分析される:目の形状は予め設定された目の形状と比較されてユーザの気分タイプを確定する。当然のことながら、予め設定された目の形状は全てマークされており、例えば、予め設定された曲がった目の形状は良い気分としてマークされている。目の形状が曲がった目の形状に合わせる場合、ユーザが良い気分であることを意味する。
口の形状は以下のように分析される:口の形状は予め設定された口の形状と比較されてユーザの気分タイプを確定する。
上向きの口元を有する口の形状は、一般に、良い気分としてマークされることが理解されるだろう。口の形状が上向きの口元を有する口の形状に合わせる場合、ユーザが良い気分であることを示す。口の形状が唇をしっかりと閉じていることであれば、ユーザが普通の気分であるか、または気分が悪いことを示している。
目の形状の分析結果が口の分析結果と異なる場合、眉毛の形状をさらに分析して分析結果を取得してもよいことが理解されよう。分析結果の割合が統計される。複数の部位を分析した後、半分以上の部位はユーザが気分良いことを示せば、出力されるべき最終結果は、ユーザは気分が良いことである。
ブロック204において、プッシュされるべきピクチャのタイプは、ユーザの気分タイプに応じて確定される。
例えば、ユーザの気分タイプはユーザが良い気分である場合、プッシュされるべきピクチャは屋外の風景ピクチャであってもよい。ユーザの気分タイプは、ユーザが悪い気分である場合、プッシュされるべきピクチャは、面白いピクチャまたはユーモラスなピクチャであってもよい。
ブロック205において、プッシュされるべきピクチャのタイプに合わせる目標ピクチャがピクチャギャラリから獲得される。
その中、端末に保存されているピクチャを選別してもよい。もちろん、端末はクラウドデータセンターにピクチャ取得リクエストを送信してもよい。そのピクチャ取得リクエストは、ピクチャタイプを含む。クラウドデータセンターは、インターネットで検索してピクチャタイプに属するピクチャを取得し、取得したピクチャを端末に返す。クラウドデータセンタによって返されたピクチャを受信した後、端末は、ユーザが閲覧するためにデスクトップにサムネイルをポップアップすることができ、それにより、ユーザにピクチャを選択する利便性を提供する。
ブロック206で、目標ピクチャがユーザにプッシュされる。
図2に記載の方法では、イメージをテンプレートと比較して、目の位置および口の位置を確定する。目の形状と口の形状を分析して、ユーザの気分タイプを確定する。顔の特徴を含むイメージを部分的に分析してユーザの気分タイプを確定し、ユーザの気分タイプに合わせるピクチャを推薦することによって、ユーザが現在の気分に合わせるピクチャを取得することは便利である。
第4の実施形態
第4の実施形態は、第2の実施形態に基づいてピクチャプッシュの方法を提供する。この方法では、以下のようにして、ユーザの表情を含むイメージを完全に分析し、ユーザの気分タイプを確定する。イメージをユーザの気分モデルと比較して、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定する;そして、目標の気分ピクチャに準じて、ユーザの気分タイプが確定される。
図3を参照する。図3は、本開示の実施形態によって開示されるピクチャプッシュの方法を示す概略フローチャートである。図3に示すように、ピクチャプッシュの方法はブロック301で始まる。
ブロック301で、画面が点灯するときに、ユーザの表情を含むイメージが取得される。
ブロック302で、ユーザの予め設定された数の表情イメージが取得される。
ブロック303において、予め設定された機械学習スキームに従って表情イメージについて学習し、ユーザの気分モデルを獲得する。
一般的な予め設定された学習スキームは、いくつかの例を挙げると、分類アルゴリズム、教師付き学習アルゴリズム、ベイズのアルゴリズムなどがある。
例えば、端末は、端末のピクチャギャラリーからユーザの表情を含むイメージを取得してもよく、その後、端末は一部のイメージをサーバに送信し、受信したイメージをサーバに気分タイプでマークさせる。端末は、サーバからマーク付きイメージを受信し、マーク付きイメージおよび予め設定された機械学習スキームに従って残りの取得イメージについて学習し、ユーザの気分モデルを獲得する。ユーザ気分モデルはユーザピクチャギャラリであてもよく、ユーザピクチャギャラリ内のすべてのイメージは気分タイプでマークされることが理解されたい。
ブロック304において、イメージはユーザの気分モデルと比較されて、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定する。
ユーザの気分モデルは複数の顔イメージを含み、各顔イメージは気分タイプでマークされていることに留意されたい。イメージと第1のイメージとの間のマッチング度が予め設定された閾値(例えば95%)よりも大きい場合、第1のイメージに対応する気分タイプはユーザの気分タイプである。第1のイメージは、ユーザの気分モデル内の任意のイメージである。
ブロック305で、目標の気分ピクチャに準じてユーザの気分タイプが確定される。
ブロック306において、プッシュされるべきピクチャのタイプは、ユーザの気分タイプに応じて確定される。
ブロック307において、プッシュされるべきピクチャのタイプに合わせる目標ピクチャがピクチャギャラリから獲得される。
ブロック308で、目標ピクチャがユーザにプッシュされる。
ブロック309で、ユーザの選択結果が記録され、ユーザの気分モデルが、ユーザの選択結果に応じて更新される。
図3に記載の方法では、イメージをユーザの気分モデルと比較して、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定する。ユーザの気分タイプは目標の気分ピクチャに準じて確定される。顔の特徴を含むイメージを全体的に分析してユーザの気分タイプを確定し、ユーザの気分タイプに合わせるピクチャを推薦することによって、ユーザが現在の気分に合わせるピクチャを取得することは便利である。
第5の実施形態
上述した実施形態に基づいて、第5の実施形態により移動端末が提供される。この実施形態によって提供される移動端末は、ブロック101からブロック105に記載された方法を実行するために使用してもよい。
図4を参照する。図4は、本開示の一実施形態による移動端末を示す概略ブロック図である。図4に記載の移動端末は、取得ユニット401(カメラなど)、分析ユニット402(プロセッサなど)、確定ユニット403(プロセッサなど)、獲得ユニット404(プロセッサなど)、およびプッシュユニット405(表示画面など)を備えてもよい。また、分析ユニット402、確定ユニット403、獲得ユニット404を1つのプロセッサに集積してもよい。
取得ユニット401は、画面が点灯するときに、ユーザの表情を含むイメージを取得するように構成される。分析ユニット402は、イメージを分析してユーザの気分タイプを確定するように構成される。確定ユニット403は、ユーザの気分タイプに応じてプッシュされるべきピクチャのタイプを確定するように構成される。獲得ユニット404は、ピクチャギャラリをスクリーニングし、プッシュされるべきピクチャのタイプに合わせる目標ピクチャを獲得するように構成される。プッシュユニット405は、目標ピクチャをユーザにプッシュするように構成される。
第6の実施形態
上述した実施形態に基づいて、他の移動端末が第6の実施形態によって提供される。この実施形態によって提供される移動端末は、ブロック201からブロック206に記載された方法を実行するために使用してもよい。
図5を参照する。図5は、本開示の一実施形態による別の移動端末を示す概略ブロック図である。図5に示す移動端末は、取得ユニット501(カメラなど)および分析ユニット502(プロセッサなど)をさらに備えてもよい。取得ユニット501は、画面が点灯するとき、ユーザの表情を含むイメージを取得するように構成される。分析ユニット502は、イメージを分析してユーザの気分タイプを確定するように構成される。
その中、分析ユニット502は、第1の比較サブユニット5021(マルチコアプロセッサのマイクロプロセッサコアなど)および分析サブユニット5022(マルチコアプロセッサのマイクロプロセッサコアなど)を備える。第1の比較サブユニット5021は、イメージをテンプレートと比較し、目の位置および口の位置を確定するように構成される。分析サブユニット5022は、目の形状および口の形状を分析し、ユーザの気分タイプを確定するように構成される。
移動端末は、確定ユニット503、獲得ユニット504(プロセッサなど)、およびプッシュユニット505(表示画面など)をさらに備えてもよい。確定ユニット503は、ユーザの気分タイプに応じてプッシュされるべきピクチャのタイプを確定するように構成される。獲得ユニット504は、ピクチャギャラリをスクリーニングし、プッシュされるべきピクチャのタイプに合わせる目標ピクチャを獲得するように構成される。プッシュユニット505は、目標ピクチャをユーザにプッシュするように構成される。
第7の実施形態
上述した実施形態に基づいて、移動端末は第7の実施形態によって提供される。この実施形態によって提供される移動端末は、ブロック301からブロック309に記載された方法を実行するために使用してもよい。
図6を参照する。図6は、本開示の一実施形態による別の移動端末を示す概略ブロック図である。図6に示す移動端末は、取得ユニット601(カメラなど)、学習ユニット602(インテリジェントマイクロプロセッサなど)、および分析ユニット603(マルチコアプロセッサなど)を備える。取得ユニット601は、画面が点灯するとき、ユーザの表情を含むイメージを取得するように構成される。取得ユニット601はさらに、ユーザの予め設定された数の表情イメージを取得するように構成される。学習ユニット602は、予め設定された機械学習スキームに従って表情イメージについて学習してユーザの気分モデルを取得するように構成される。分析ユニット603は、イメージを分析してユーザの気分タイプを確定するように構成される。
その中、分析ユニット603は、第2の比較サブユニット6031(マルチコアプロセッサのマイクロプロセッサコアなど)および確定サブユニット6032(マルチコアプロセッサのマイクロプロセッサコアなど)を備える。第2の比較サブユニット6031は、イメージをユーザの気分モデルと比較して、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定するように構成される。確定サブユニット6032は、目標の気分ピクチャに準じてユーザの気分タイプを確定するように構成される。
移動端末は、確定ユニット604(プロセッサなど)、獲得ユニット605(プロセッサなど)、プッシュユニット606(表示画面など)、記録ユニット607(メモリなど)、および更新ユニット608(プロセッサなど)をさらに備えてもよい。確定ユニット604は、ユーザの気分タイプに応じてプッシュされるべきピクチャのタイプを確定するように構成される。獲得ユニット605は、ピクチャギャラリをスクリーニングし、プッシュされるべきピクチャのタイプに合わせる目標ピクチャを獲得するように構成される。プッシュユニット606は、目標ピクチャをユーザにプッシュするように構成される。記録ユニット607は、ユーザの選択結果を記録するように構成される。更新ユニット608は、ユーザの選択結果に応じてユーザの気分モデルを更新するように構成される。
第8の実施形態
上述した実施形態に基づいて、移動端末は第8の実施形態によって提供される。この実施形態によって提供される移動端末は、少なくとも1つのプロセッサとメモリとを備えてもよく、プロセッサは、メモリに格納されたプログラムコードを呼び出して、ピクチャプッシュの方法を実行してもよい。
図7を参照する。図7は、本開示の実施形態による移動端末を示す概略構造図である。図7に示すように、移動端末は、少なくとも1つのプロセッサ710(CPUなど)、メモリ720、少なくとも1つの通信バス730、入力装置740(カメラ、タッチパッドなど)および出力装置750(表示画面、スピーカなど)を備えてもよい。その中、通信バス730は、これらのコンポネント間の通信接続を実現するように構成される。メモリ720は、高速RAMメモリまたは少なくとも1つのディスクメモリなどの不揮発性メモリとしてもよい。一実施形態として、メモリ720は、プロセッサ710から遠く離れた少なくとも1つの記憶装置としてもよい。プロセッサ710は、図4〜図6に記載の移動端末を組み合わせてもよい。グループプログラムコードはメモリ720に格納される。プロセッサ710は、メモリ720に格納されるプログラムコードを呼び出して、以下の動作を実行する。
画面が点灯するとき、ユーザの表情を含むイメージが取得される。イメージが分析され、ユーザの気分タイプを確定する。プッシュされるべきピクチャのタイプは、ユーザの気分タイプに応じて確定される。ピクチャギャラリーがスクリーニングされ、プッシュされるべきピクチャのタイプに合わせる目標のピクチャを獲得する。そして目標ピクチャがユーザにプッシュされる。
一実施形態として、イメージは以下のように分析され、ユーザの気分タイプを確定する。イメージはテンプレートと比較され、目の位置および口の位置を確定する。そして、目の形状と口の形状が分析され、ユーザの気分タイプを確定する。
一実施形態として、イメージは以下のように分析され、ユーザの気分タイプを確定する。イメージは、ユーザの気分モデルと比較されて、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定する。そして、目標の気分ピクチャに準じて、ユーザの気分タイプが確定される。
一実施形態として、イメージがユーザの気分モデルと比較されて、イメージに合わせるユーザの気分モデルから目標の気分ピクチャが確定される前に、動作はさらに以下を含む:ユーザの予め設定された数の表情イメージが取得される;予め設定された機械学習スキームに従って表情イメージについて学習され、ユーザの気分モデルを獲得する。
一実施形態として、目標ピクチャがユーザにプッシュされた後、動作はさらに以下を含む:ユーザの選択結果が記録される;ユーザの気分モデルは、ユーザの選択結果に応じて更新される。
本開示の実施形態では、画面が点灯するときに、ユーザの表情を含むイメージが取得される。イメージが分析され、ユーザの気分タイプを確定する。プッシュされるべきピクチャのタイプは、ユーザの気分タイプに応じて確定される。ピクチャギャラリーがスクリーニングされ、プッシュされるべきピクチャのタイプに合わせる目標のピクチャを獲得する。そして目標ピクチャがユーザにプッシュされる。上記の技術案によって、ユーザの気分タイプに合わせる目標ピクチャをプッシュすることができ、それにより、ユーザのお気に入りのイメージをよりプッシュし、ユーザがイメージを選択する時間を短縮することができる。
第9の実施形態
上述した実施形態に基づいて、移動端末は第9の実施形態によって提供される。この実施形態によって提供される移動端末は、汎用プロセッサとメモリとを含んでもよく、汎用プロセッサは、メモリに格納されたプログラムコードを呼び出して、ピクチャプッシュの方法を実行することができる。
図8を参照する。図8は、本開示の実施形態による別の移動端末を示す概略構造図である。図8に示すように、移動端末は、ベースバンド処理用大規模集積回路810(ベースバンド処理用LSI)、汎用プロセッサ820、音声処理用集積回路830(音声処理用IC)、タッチコントローラ840、ジャイロセンサ850、通信バス860、メモリ870、およびカメラ880を備えてもよい。その中、通信バス860は、これらのコンポネント間の通信接続を実現するように構成される。メモリ870は、高速RAMメモリまたは少なくとも1つのディスクメモリなどの不揮発性メモリとしてもよい。カメラ880は、画面が点灯するときに、ユーザの表情を含むイメージを取得するように構成される。汎用プロセッサ820は、図3から図6で説明した移動端末を組み合わせてもよい。グループプログラムコードはメモリ870に格納される。汎用プロセッサ820はメモリ870に格納されたプログラムコードを呼び出して、以下の動作を実行する。
カメラ880によって取得されたイメージは、ユーザの気分タイプを確定するために分析される。プッシュされるべきピクチャのタイプは、ユーザの気分タイプに応じて確定される。ピクチャギャラリーがスクリーニングされ、プッシュされるべきピクチャのタイプに合わせる目標のピクチャを獲得する。そして目標ピクチャがユーザにプッシュされる。
一実施形態として、イメージが分析されユーザの気分タイプを確定するのは、以下の手順を含む:イメージはテンプレートと比較され、目の位置および口の位置を確定する;そして、目の形状と口の形状を分析して、ユーザの気分タイプを確定する。
一実施形態として、イメージが分析され、ユーザの気分タイプを確定するのは、以下の手順を含む:イメージはユーザの気分モデルと比較され、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定する;そして、目標の気分ピクチャに準じて、ユーザの気分タイプが確定される。
一実施形態として、イメージがユーザの気分モデルと比較されて、イメージに合わせるユーザの気分モデルから目標の気分ピクチャが確定される前に、動作はさらに以下の手順を含む:ユーザの予め設定された数の表情イメージが取得される;予め設定された機械学習スキームに従って表情イメージについて学習され、ユーザの気分モデルを獲得する。
一実施形態として、汎用プロセッサは、アプリケーションプロセッサと人工知能(AI)ユニットとを備え、AIユニットはアプリケーションプロセッサと集積され、AIユニットはユーザの予め設定された数の表情イメージを取得するように構成される。そして、予め設定された機械学習スキームに従って表情イメージについて学習して、ユーザの気分モデルを獲得する。
さらに、AIユニットはさらに、イメージをユーザの気分モデルと比較して、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定し、目標の気分ピクチャに準じてユーザの気分タイプを確定するように構成される。
一実施形態として、汎用プロセッサはアプリケーションプロセッサと人工知能(AI)ユニットとを備え、AIユニットはアプリケーションプロセッサから分離され、AIユニットはユーザの予め設定された数の表情イメージを取得するように構成される。そして、予め設定された機械学習スキームに従って表情イメージについて学習して、ユーザの気分モデルを獲得する。
なお、AIユニットはさらに、イメージをユーザの気分モデルと比較して、イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定し、目標の気分ピクチャに準じてユーザの気分タイプを確定するように構成される。
AIユニットは、人工知能の応用を実現するための専用の処理ユニットである。AIユニットは、ビッグデータ分析、ディープラーニング、および他の人工知能処理を実行することができ、それは移動端末の処理性能を大幅に改善し、ユーザのより個人化されたニーズを満たすことができる。ディープラーニングの観点では、AIユニットは、ニューラルネットワークモデルを訓練するために大量のサンプルを取得し、ニューラルネットワークモデルを使用することによって分類を実行することができる。例えば、AIユニットはテンソル処理ユニット(TPU)としてもよく、その計算性能は毎秒180兆回の浮動小数点演算に達することができる。
AIユニットの特定の形態はハードウェアおよび/またはソフトウェアであってもよい。AIユニットがハードウェア形態を含む場合、プロセッサはAIユニットと集積されでもよいか、またはAIユニットから分離されてもよく、ここで制限しない。
AIユニットがアプリケーションプロセッサと集積されている場合、アプリケーションプロセッサがシングルコアプロセッサであれば、AIユニットはアプリケーションプロセッサ内のインテリジェントマイクロ処理回路としてもよい。アプリケーションプロセッサがマルチコアプロセッサであれば、AIユニットは、マルチコアプロセッサ内のインテリジェントマイクロプロセッサコア、またはマイクロプロセッサコア内のインテリジェントマイクロ処理回路としてもよい。
AIユニットがアプリケーションプロセッサから分離されている場合、AIユニットは、アプリケーションプロセッサ以外のアプリケーションプロセッサプラットフォームアーキテクチャの任意のコプロセッサ(ベースバンドプロセッサなど)、またはアプリケーションプロセッサ以外のアプリケーションプロセッサプラットフォームアーキテクチャの新しく設置されたインテリジェントマイクロプロセッサ、またはアプリケーションプロセッサプラットフォームから独立して新しく設置されたインテリジェントプロセッシングプラットフォームとしてもよい。インテリジェントプロセッシングプラットフォームは、少なくとも1つの専用インテリジェントプロセッサを含み、インテリジェントプロセッシングプラットフォームは、アプリケーションプロセッサプラットフォームとの通信接続を有し、任意選択で、インテリジェントプロセッシングプラットフォームは、アプリケーションプロセッサプラットフォームはメモリ、周辺機器などとの直接通信接続を有してもよい。
一実施形態として、目標ピクチャがユーザにプッシュされた後、方法はさらに以下の手順を含む:ユーザの選択結果が記録される;ユーザの気分モデルは、ユーザの選択結果に応じて更新される。
当業者であれば、上述した実施形態の様々な方法の全部または一部を関連ハードウェアに指示するためのプログラムによって達成することができ、そのプログラムをコンピュータ可読メモリに格納してもよいことを理解するであろう。コンピュータ可読メモリは、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、プログラム可能読み出し専用メモリ(PROM)、消去可能プログラマブル読み出し専用メモリ(EPROM)、ワンタイムプログラマブル読み出し専用メモリ、メモリ(OTPROM)、電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)、コンパクトディスク読み出し専用メモリ(CD−ROM)、または他の光ディスクメモリ、ディスクメモリ、磁気テープメモリ、または任意の他のコンピュータ可読データを持つまたは格納するように設定されているメディアを含んでもよい。
本開示の実施例によって開示されるピクチャプッシュの方法および移動端末は、上で詳細に説明されており、本開示の原理および実施形態を例示するために特定の例が本明細書で使用される。上述の実施例の説明は、本開示の方法および中心的な考案を理解するだけに使われる。一方、当業者であれば、本開示の考案に従って、具体的な実施形態および適用範囲が変更されることになり、要約すると、本明細書の内容は本開示に対する限定として解釈されるべきではない。

Claims (15)

  1. 画面が点灯するとき、ユーザの表情を含むイメージを取得することと、
    前記イメージを分析し、ユーザの気分タイプを確定することと、
    前記ユーザの気分タイプに応じ、目標ピクチャをプッシュすることとを、含む、
    ピクチャプッシュの方法。
  2. 前記ユーザの気分タイプに応じ、目標ピクチャをプッシュすることは、
    前記ユーザの気分タイプに応じ、プッシュされるべきピクチャのタイプを確定することと、
    ピクチャギャラリーから前記プッシュされるべきピクチャのタイプに合わせる目標ピクチャを獲得することと、
    前記目標ピクチャをユーザにプッシュすることとを、含む、
    請求項1に記載の方法。
  3. 前記イメージを分析し、ユーザの気分タイプを確定することは、
    前記イメージをテンプレートと比較し、目の位置および口の位置を確定することと、
    目の形状および口の形状を分析し、前記ユーザの気分タイプを確定することとを、含む、
    請求項1または2に記載の方法。
  4. 前記イメージを分析し、ユーザの気分タイプを確定することは、
    前記イメージをテンプレートと比較し、複数の顔の特徴の位置を確定することと、
    前記顔の特徴の形状を分析し、複数の候補気分タイプを確定することと、
    前記候補気分タイプの中で最も割合が高い気分タイプを前記ユーザの気分タイプとして確定することとを、含む、
    請求項1または2に記載の方法。
  5. 前記イメージを分析し、ユーザの気分タイプを確定することは、
    前記イメージをユーザの気分モデルと比較し、前記イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定することと、
    前記目標の気分ピクチャに準じ、前記ユーザの気分タイプを確定することとを、含む、
    請求項1または2に記載の方法。
  6. 前記イメージをユーザの気分モデルと比較し、前記イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定する前に、前記方法は さらに、
    ユーザの予め設定された数の表情イメージを取得することと、
    予め設定された機械学習スキームに従い前記表情イメージについて学習し、前記ユーザの気分モデルを獲得することとを、含む、
    請求項5に記載の方法。
  7. 前記目標ピクチャを前記ユーザにプッシュした後に、前記方法はさらに、
    ユーザの選択結果を記録することと、
    前記ユーザの選択結果に応じ、前記ユーザの気分モデルを更新することとを、含む、
    請求項5または6に記載の方法。
  8. プログラムコードを格納するように構成されるメモリと、
    前記メモリとカプリングされる少なくとも1つのプロセッサとを、備える、
    移動端末であって、
    前記プログラムコードは、前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサと共に動作可能で、請求項1から請求項7のいずれか1つに記載の方法を実行する、
    移動端末。
  9. 画面が点灯するとき、ユーザの表情を含むイメージを取得するように構成されるカメラと、
    前記イメージを分析しユーザの気分タイプを確定し、前記ユーザの気分タイプに応じプッシュされるべきピクチャのタイプを確定し、ピクチャギャラリーから前記プッシュされるべきピクチャのタイプに合わせる目標ピクチャを獲得し、前記目標ピクチャをユーザにプッシュするように構成される汎用プロセッサとを、備える、
    移動端末。
  10. 前記イメージを分析しユーザの気分タイプを確定するように構成される前記汎用プロセッサは、
    前記イメージをテンプレートと比較し目の位置および口の位置を確定し、
    目の形状および口の形状を分析し前記ユーザの気分タイプを確定する、ように構成される、
    請求項9に記載の移動端末。
  11. 前記イメージを分析しユーザの気分タイプを確定するように構成される前記汎用プロセッサは、
    前記イメージをユーザの気分モデルと比較し、前記イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定し、
    前記目標の気分ピクチャに準じ前記ユーザの気分タイプを確定する、ように構成される、
    請求項9に記載の移動端末。
  12. 前記汎用プロセッサはさらに、
    ユーザの予め設定された数の表情イメージを取得し、
    予め設定された機械学習スキームに従って前記表情イメージについて学習し、前記ユーザの気分モデルを獲得する、ように構成される、
    請求項11に記載の移動端末。
  13. 前記汎用プロセッサは、アプリケーションプロセッサと人工知能(AI)ユニットとを備え、前記AIユニットは前記アプリケーションプロセッサと集積され、前記AIユニットは、
    ユーザの予め設定された数の表情イメージを取得し、
    予め設定された機械学習スキームに従って前記表情イメージについて学習し、前記ユーザの気分モデルを獲得する、ように構成される、
    請求項12に記載の移動端末。
  14. 前記汎用プロセッサは、アプリケーションプロセッサと人工知能(AI)ユニットとを備え、前記AIユニットは前記アプリケーションプロセッサから分離され、前記AIユニットは、
    ユーザの予め設定された数の表情イメージを取得し、
    予め設定された機械学習スキームに従って前記表情イメージについて学習し、前記ユーザの気分モデルを獲得する、ように構成される、
    請求項12に記載の移動端末。
  15. 前記AIユニットはさらに、
    前記イメージを前記ユーザの気分モデルと比較し、前記イメージに合わせるユーザの気分モデルから目標の気分ピクチャを確定し、
    前記目標の気分ピクチャに準じ前記ユーザの気分タイプを確定する、ように構成される、
    請求項13または14に記載の移動端末。
JP2019539943A 2017-05-31 2018-04-04 ピクチャプッシュの方法、移動端末および記憶媒体 Pending JP2020507159A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710401789.5 2017-05-31
CN201710401789.5A CN107193571A (zh) 2017-05-31 2017-05-31 界面推送的方法、移动终端及存储介质
PCT/CN2018/081931 WO2018219038A1 (en) 2017-05-31 2018-04-04 Method for pushing picture, mobile terminal, and storage medium

Publications (1)

Publication Number Publication Date
JP2020507159A true JP2020507159A (ja) 2020-03-05

Family

ID=59876110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019539943A Pending JP2020507159A (ja) 2017-05-31 2018-04-04 ピクチャプッシュの方法、移動端末および記憶媒体

Country Status (6)

Country Link
US (1) US10719695B2 (ja)
EP (1) EP3410258B1 (ja)
JP (1) JP2020507159A (ja)
CN (1) CN107193571A (ja)
AU (1) AU2018278562B2 (ja)
WO (1) WO2018219038A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3260968A4 (en) * 2015-03-27 2018-02-14 Huawei Technologies Co. Ltd. Method and apparatus for displaying electronic picture, and mobile device
CN107193571A (zh) * 2017-05-31 2017-09-22 广东欧珀移动通信有限公司 界面推送的方法、移动终端及存储介质
CN108427500A (zh) * 2018-02-23 2018-08-21 广东欧珀移动通信有限公司 锁屏杂志推送方法及相关产品
US10950104B2 (en) * 2019-01-16 2021-03-16 PANASONIC l-PRO SENSING SOLUTIONS CO., LTD. Monitoring camera and detection method
WO2020207041A1 (en) * 2019-04-10 2020-10-15 Guangdong Oppo Mobile Telecommunications Corp., Ltd. System and method for dynamically recommending inputs based on identification of user emotions
CN111783587A (zh) * 2020-06-22 2020-10-16 腾讯数码(天津)有限公司 一种互动方法、装置和存储介质
CN112364241A (zh) * 2020-10-27 2021-02-12 北京五八信息技术有限公司 信息推送的方法、装置、电子设备及存储介质
CN112836732B (zh) * 2021-01-25 2024-04-19 深圳市声扬科技有限公司 数据标注的校验方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056388A (ja) * 2003-07-18 2005-03-03 Canon Inc 画像処理装置、画像処理方法、撮像装置
JP2005242566A (ja) * 2004-02-25 2005-09-08 Canon Inc 画像合成装置及び方法
JP2006287749A (ja) * 2005-04-01 2006-10-19 Canon Inc 撮像装置、及びその制御方法
JP2008186303A (ja) * 2007-01-30 2008-08-14 Canon Inc 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2009253931A (ja) * 2008-04-11 2009-10-29 Casio Comput Co Ltd 電子データ編集装置、電子データ編集方法及びプログラム
JP2011176564A (ja) * 2010-02-24 2011-09-08 Kyocera Corp 携帯端末装置
CN102946491A (zh) * 2012-11-23 2013-02-27 广东欧珀移动通信有限公司 一种根据用户心情自动调整壁纸的方法及系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6931147B2 (en) * 2001-12-11 2005-08-16 Koninklijke Philips Electronics N.V. Mood based virtual photo album
WO2005113099A2 (en) * 2003-05-30 2005-12-01 America Online, Inc. Personalizing content
CN1940806A (zh) * 2005-09-30 2007-04-04 联想(北京)有限公司 具有表情识别功能的计算机登录系统和方法
KR101708682B1 (ko) * 2010-03-03 2017-02-21 엘지전자 주식회사 영상표시장치 및 그 동작 방법.
CN101958971A (zh) * 2010-09-01 2011-01-26 深圳市同洲电子股份有限公司 移动终端的主题变化方法、装置及移动终端
CN102479024A (zh) * 2010-11-24 2012-05-30 国基电子(上海)有限公司 手持装置及其用户界面构建方法
CN102300163A (zh) * 2011-09-22 2011-12-28 宇龙计算机通信科技(深圳)有限公司 信息推送方法、移动终端和系统
CN102929660A (zh) * 2012-10-09 2013-02-13 广东欧珀移动通信有限公司 一种终端设备心情主题的控制方法及其终端设备
KR102327779B1 (ko) * 2014-02-21 2021-11-18 삼성전자주식회사 이미지 처리 방법 및 장치
US10387717B2 (en) * 2014-07-02 2019-08-20 Huawei Technologies Co., Ltd. Information transmission method and transmission apparatus
CN104202718A (zh) * 2014-08-05 2014-12-10 百度在线网络技术(北京)有限公司 一种向用户提供信息的方法与装置
CN105534534A (zh) * 2015-12-09 2016-05-04 浙江大学 一种基于实时功能磁共振的情绪识别方法、装置及系统
CN105956059A (zh) * 2016-04-27 2016-09-21 乐视控股(北京)有限公司 基于情绪识别的信息推荐方法和装置
CN106126017A (zh) * 2016-06-20 2016-11-16 北京小米移动软件有限公司 智能识别方法、装置和终端设备
CN106708394A (zh) * 2016-12-23 2017-05-24 维沃移动通信有限公司 一种移动终端的系统主题切换方法及移动终端
CN107193571A (zh) * 2017-05-31 2017-09-22 广东欧珀移动通信有限公司 界面推送的方法、移动终端及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056388A (ja) * 2003-07-18 2005-03-03 Canon Inc 画像処理装置、画像処理方法、撮像装置
JP2005242566A (ja) * 2004-02-25 2005-09-08 Canon Inc 画像合成装置及び方法
JP2006287749A (ja) * 2005-04-01 2006-10-19 Canon Inc 撮像装置、及びその制御方法
JP2008186303A (ja) * 2007-01-30 2008-08-14 Canon Inc 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2009253931A (ja) * 2008-04-11 2009-10-29 Casio Comput Co Ltd 電子データ編集装置、電子データ編集方法及びプログラム
JP2011176564A (ja) * 2010-02-24 2011-09-08 Kyocera Corp 携帯端末装置
CN102946491A (zh) * 2012-11-23 2013-02-27 广东欧珀移动通信有限公司 一种根据用户心情自动调整壁纸的方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
降旗淳平: "サプライヤー動向 Supplier", 日経デジタルマーケティング 第108号, JPN6020027716, 25 September 2016 (2016-09-25), JP, pages 26, ISSN: 0004660054 *

Also Published As

Publication number Publication date
EP3410258A1 (en) 2018-12-05
CN107193571A (zh) 2017-09-22
WO2018219038A1 (en) 2018-12-06
US20180349686A1 (en) 2018-12-06
EP3410258B1 (en) 2020-08-26
US10719695B2 (en) 2020-07-21
AU2018278562A1 (en) 2019-07-11
AU2018278562B2 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
JP2020507159A (ja) ピクチャプッシュの方法、移動端末および記憶媒体
US20200412975A1 (en) Content capture with audio input feedback
US11521339B2 (en) Machine learning in augmented reality content items
CN111506758B (zh) 物品名称确定方法、装置、计算机设备及存储介质
AU2015241053A1 (en) Automated selective upload of images
KR102045575B1 (ko) 스마트 미러 디스플레이 장치
CN110162604B (zh) 语句生成方法、装置、设备及存储介质
US20200412864A1 (en) Modular camera interface
US11943283B2 (en) Dynamically assigning storage locations for messaging system data
CN110942046B (zh) 图像检索方法、装置、设备及存储介质
US11983461B2 (en) Speech-based selection of augmented reality content for detected objects
CN110728319B (zh) 一种图像生成方法、装置以及计算机存储介质
CN111897996A (zh) 话题标签推荐方法、装置、设备及存储介质
CN112330533A (zh) 混血人脸图像生成方法、模型训练方法、装置和设备
KR20230013280A (ko) 클라이언트 애플리케이션 콘텐츠 분류 및 발견
CN108055461B (zh) 自拍角度的推荐方法、装置、终端设备及存储介质
KR20180111242A (ko) 채색 가능한 콘텐트를 제공하는 전자 장치 및 그 방법
US11876634B2 (en) Group contact lists generation
US20220326846A1 (en) Electronic device and method to provide sticker based on content input
CN108334821B (zh) 一种图像处理方法及电子设备
CN113486260B (zh) 互动信息的生成方法、装置、计算机设备及存储介质
CN112381709B (zh) 图像处理方法、模型训练方法、装置、设备和介质
KR20210095291A (ko) 스토리를 생성하는 전자 장치 및 그의 동작 방법
CN111079472A (zh) 图像对比方法和装置
CN117112087A (zh) 一种桌面卡片的排序方法、电子设备以及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211111

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211111

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211122

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211126

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20211217

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20211221

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220218

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220408

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220422

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20220825

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220826

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220902

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220927

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220927