JP7030078B2 - 端末装置に適用される情報生成方法および装置 - Google Patents
端末装置に適用される情報生成方法および装置 Download PDFInfo
- Publication number
- JP7030078B2 JP7030078B2 JP2019105064A JP2019105064A JP7030078B2 JP 7030078 B2 JP7030078 B2 JP 7030078B2 JP 2019105064 A JP2019105064 A JP 2019105064A JP 2019105064 A JP2019105064 A JP 2019105064A JP 7030078 B2 JP7030078 B2 JP 7030078B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- user
- user attribute
- attribute information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
なお、出願当初の特許請求の範囲の記載は以下の通りである。
請求項1:
端末装置に適用される情報生成方法であって、
ターゲットカメラによって取得されたビデオフレーム画像をリアルタイムに取得するステップであって、前記ターゲットカメラの撮影範囲がターゲットスクリーンの前方領域をカバーしており、前記端末装置と前記ターゲットカメラとが有線またはローカルエリアネットワークで接続されているステップと、
取得されたビデオフレーム画像を処理対象画像として記憶するステップと、
前記処理対象画像を事前訓練されたユーザ属性認識モデルに入力して、前記処理対象画像に含まれるユーザ画像に対応するユーザのユーザ属性情報を取得するステップであって、前記ユーザ属性認識モデルは、画像とユーザ属性情報との間の対応関係を表現するステップと、
を含む端末装置に適用される情報生成方法。
請求項2:
前記方法は、第1端末装置によって送信されたユーザ属性情報取得要求の受信に応答して、得られたユーザ属性情報を前記第1端末装置に送信するステップを更に含む、請求項1に記載の方法。
請求項3:
前記ユーザ属性情報は、ユーザ画像位置情報と、性別、年齢、頭部姿勢情報、眼部情報、鼻部情報、口部情報、耳部情報および顔面表情情報のうちの少なくとも1つと、を含む請求項2に記載の方法。
請求項4:
前記ユーザ属性情報は、更にユーザ画像情報を含み、
前記方法は、得られた各ユーザ属性情報について、該ユーザ属性情報のうちのユーザ画像位置情報に基づいて、前記処理対象画像からユーザ画像を抽出し、抽出されたユーザ画像に基づいて該ユーザ属性情報のうちのユーザ画像情報を確定するステップを更に含む請求項3に記載の方法。
請求項5:
前記抽出されたユーザ画像に基づいて該ユーザ属性情報のうちのユーザ画像情報を確定するステップは、
抽出されたユーザ画像をBase64で符号化した文字列を該ユーザ属性情報のうちのユーザ画像情報として確定することを含む請求項4に記載の方法。
請求項6:
前記方法は、得られた各ユーザ属性情報について、該ユーザ属性情報をJsonデータフォーマットのユーザ属性情報にパッケージ化するステップを更に含む請求項5に記載の方法。
請求項7:
前記得られたユーザ属性情報を前記第1端末装置に送信するステップは、
パッケージ化されたJsonデータフォーマットのユーザ属性情報を前記第1端末装置に送信することを含む請求項6に記載の方法。
請求項8:
前記ターゲットカメラによって取得されたビデオフレーム画像をリアルタイムに取得するステップは、
前記ターゲットカメラによって取得されたビデオフレーム画像を予め設定されたフレーム数毎にリアルタイムに取得することを含む請求項1~7のいずれか1項に記載の方法。
請求項9:
端末装置に適用される情報生成装置であって、
ターゲットカメラによって取得されたビデオフレーム画像をリアルタイムに取得するように構成される取得ユニットであって、前記ターゲットカメラの撮影範囲がターゲットスクリーンの前方領域をカバーしており、前記端末装置と前記ターゲットカメラとが有線またはローカルエリアネットワークで接続される取得ユニットと、
取得されたビデオフレーム画像を処理対象画像として記憶するように構成される記憶ユニットと、
前記処理対象画像を事前訓練されたユーザ属性認識モデルに入力して、前記処理対象画像に含まれるユーザ画像に対応するユーザのユーザ属性情報を取得するように構成される入力ユニットであって、前記ユーザ属性認識モデルは、画像とユーザ属性情報との間の対応関係を表現する入力ユニットと、を備える端末装置に適用される情報生成装置。
請求項10:
前記装置は、第1端末装置によって送信されたユーザ属性情報取得要求の受信に応答して、得られたユーザ属性情報を前記第1端末装置に送信するように構成される送信ユニットを更に備える、請求項9に記載の装置。
請求項11:
前記ユーザ属性情報は、ユーザ画像位置情報と、性別、年齢、頭部姿勢情報、眼部情報、鼻部情報、口部情報、耳部情報および顔面表情情報のうちの少なくとも1つと、を含む請求項10に記載の装置。
請求項12:
前記ユーザ属性情報は、更にユーザ画像情報を含み、
前記装置は、得られた各ユーザ属性情報について、該ユーザ属性情報のうちのユーザ画像位置情報に基づいて、前記処理対象画像からユーザ画像を抽出し、抽出されたユーザ画像に基づいて該ユーザ属性情報のうちのユーザ画像情報を確定するように構成される抽出ユニットを更に備える請求項11に記載の装置。
請求項13:
前記抽出ユニットは、更に抽出されたユーザ画像をBase64で符号化した文字列を該ユーザ属性情報のうちのユーザ画像情報として確定するように構成される請求項12に記載の装置。
請求項14:
前記装置は、得られた各ユーザ属性情報について、該ユーザ属性情報をJsonデータフォーマットのユーザ属性情報にパッケージ化するように構成されるパッケージ化ユニットを更に備える請求項13に記載の装置。
請求項15:
前記送信ユニットは、更にパッケージ化されたJsonデータフォーマットのユーザ属性情報を前記第1端末装置に送信するように構成される請求項14に記載の装置。
請求項16:
前記取得ユニットは、更に前記ターゲットカメラによって取得されたビデオフレーム画像を予め設定されたフレーム数毎にリアルタイムに取得するように構成される請求項9~15のいずれか1項に記載の装置。
請求項17:
端末装置であって、
1つまたは複数のプロセッサと、
1つまたは複数のプログラムが記憶される記憶装置と、を備え、
前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに請求項1~8のいずれか1項に記載の方法を実現させる、端末装置。
請求項18:
コンピュータプログラムが記憶されるコンピュータ可読媒体であって、
前記コンピュータプログラムがプロセッサによって実行されると、請求項1~8のいずれか1項に記載の方法を実現する、コンピュータ可読媒体。
Claims (17)
- 端末装置に適用される情報生成方法であって、
ターゲットカメラによって取得されたビデオフレーム画像をリアルタイムに取得するステップであって、前記ターゲットカメラの撮影範囲がターゲットスクリーンの前方領域をカバーしており、前記端末装置と前記ターゲットカメラとが有線またはローカルエリアネットワークで接続されているステップと、
取得されたビデオフレーム画像を処理対象画像として記憶するステップと、
前記処理対象画像を事前訓練されたユーザ属性認識モデルに入力して、前記処理対象画像に含まれるユーザ画像に対応するユーザのユーザ属性情報を取得するステップであって、前記ユーザ属性認識モデルは、画像とユーザ属性情報との間の対応関係を表現するように構成され、前記処理対象画像に複数のユーザのユーザ画像が含まれるステップと、
第1端末装置によって送信されたユーザ属性情報取得要求の受信に応答して、得られたユーザ属性情報を前記第1端末装置に送信するステップと
を含み、
前記第1端末装置は、
前記複数のユーザのユーザ属性情報に基づいて、前記複数のユーザの視聴者構成を解析するステップと、
前記解析された視聴者構成に基づいて、大多数のユーザの特徴に適する、ターゲットスクリーンに再生されるコンテンツを決定するステップと
を実行するように配置される、端末装置に適用される情報生成方法。 - 前記ユーザ属性情報は、ユーザ画像位置情報と、性別、年齢、頭部姿勢情報、眼部情報、鼻部情報、口部情報、耳部情報および顔面表情情報のうちの少なくとも1つと、を含む請求項1に記載の方法。
- 前記ユーザ属性情報は、更にユーザ画像情報を含み、
前記方法は、得られた各ユーザ属性情報について、該ユーザ属性情報のうちのユーザ画像位置情報に基づいて、前記処理対象画像からユーザ画像を抽出し、抽出されたユーザ画像に基づいて該ユーザ属性情報のうちのユーザ画像情報を確定するステップを更に含む請求項2に記載の方法。 - 前記抽出されたユーザ画像に基づいて該ユーザ属性情報のうちのユーザ画像情報を確定するステップは、
抽出されたユーザ画像をBase64で符号化した文字列を該ユーザ属性情報のうちのユーザ画像情報として確定することを含む請求項3に記載の方法。 - 前記方法は、得られた各ユーザ属性情報について、該ユーザ属性情報をJsonデータフォーマットのユーザ属性情報にパッケージ化するステップを更に含む請求項4に記載の方法。
- 前記得られたユーザ属性情報を前記第1端末装置に送信するステップは、
パッケージ化されたJsonデータフォーマットのユーザ属性情報を前記第1端末装置に送信することを含む請求項5に記載の方法。 - 前記ターゲットカメラによって取得されたビデオフレーム画像をリアルタイムに取得するステップは、
前記ターゲットカメラによって取得されたビデオフレーム画像を予め設定されたフレーム数毎にリアルタイムに取得することを含む請求項1~6のいずれか1項に記載の方法。 - 端末装置に適用される情報生成装置であって、
ターゲットカメラによって取得されたビデオフレーム画像をリアルタイムに取得するように構成される取得ユニットであって、前記ターゲットカメラの撮影範囲がターゲットスクリーンの前方領域をカバーしており、前記端末装置と前記ターゲットカメラとが有線またはローカルエリアネットワークで接続される取得ユニットと、
取得されたビデオフレーム画像を処理対象画像として記憶するように構成される記憶ユニットと、
前記処理対象画像を事前訓練されたユーザ属性認識モデルに入力して、前記処理対象画像に含まれるユーザ画像に対応するユーザのユーザ属性情報を取得するように構成される入力ユニットであって、前記ユーザ属性認識モデルは、画像とユーザ属性情報との間の対応関係を表現するように構成され、前記処理対象画像に複数のユーザのユーザ画像が含まれる入力ユニットと、
第1端末装置によって送信されたユーザ属性情報取得要求の受信に応答して、得られたユーザ属性情報を前記第1端末装置に送信するように構成される送信ユニットと
を備え、
前記複数のユーザのユーザ属性情報に基づいて、前記複数のユーザの視聴者構成を解析するステップと、
前記解析された視聴者構成に基づいて、大多数のユーザの特徴に適する、ターゲットスクリーンに再生されるコンテンツを決定するステップと
を実行するように配置される、端末装置に適用される情報生成装置。 - 前記ユーザ属性情報は、ユーザ画像位置情報と、性別、年齢、頭部姿勢情報、眼部情報、鼻部情報、口部情報、耳部情報および顔面表情情報のうちの少なくとも1つと、を含む請求項8に記載の装置。
- 前記ユーザ属性情報は、更にユーザ画像情報を含み、
前記装置は、得られた各ユーザ属性情報について、該ユーザ属性情報のうちのユーザ画像位置情報に基づいて、前記処理対象画像からユーザ画像を抽出し、抽出されたユーザ画像に基づいて該ユーザ属性情報のうちのユーザ画像情報を確定するように構成される抽出ユニットを更に備える請求項9に記載の装置。 - 前記抽出ユニットは、更に抽出されたユーザ画像をBase64で符号化した文字列を該ユーザ属性情報のうちのユーザ画像情報として確定するように構成される請求項10に記載の装置。
- 前記装置は、得られた各ユーザ属性情報について、該ユーザ属性情報をJsonデータフォーマットのユーザ属性情報にパッケージ化するように構成されるパッケージ化ユニットを更に備える請求項11に記載の装置。
- 前記送信ユニットは、更にパッケージ化されたJsonデータフォーマットのユーザ属性情報を前記第1端末装置に送信するように構成される請求項12に記載の装置。
- 前記取得ユニットは、更に前記ターゲットカメラによって取得されたビデオフレーム画像を予め設定されたフレーム数毎にリアルタイムに取得するように構成される請求項8~13のいずれか1項に記載の装置。
- 端末装置であって、
1つまたは複数のプロセッサと、
1つまたは複数のプログラムが記憶される記憶装置と、を備え、
前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに請求項1~7のいずれか1項に記載の方法を実現させる、端末装置。 - コンピュータプログラムが記憶されるコンピュータ可読媒体であって、
前記コンピュータプログラムがプロセッサによって実行されると、請求項1~7のいずれか1項に記載の方法を実現する、コンピュータ可読媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサによって実行されると、請求項1~7のいずれか一項に記載の方法を実現する、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810778514.8A CN108985228A (zh) | 2018-07-16 | 2018-07-16 | 应用于终端设备的信息生成方法和装置 |
CN201810778514.8 | 2018-07-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020013553A JP2020013553A (ja) | 2020-01-23 |
JP7030078B2 true JP7030078B2 (ja) | 2022-03-04 |
Family
ID=64548705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019105064A Active JP7030078B2 (ja) | 2018-07-16 | 2019-06-05 | 端末装置に適用される情報生成方法および装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11087140B2 (ja) |
JP (1) | JP7030078B2 (ja) |
CN (1) | CN108985228A (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832662B (zh) * | 2017-09-27 | 2022-05-27 | 百度在线网络技术(北京)有限公司 | 一种获取图片标注数据的方法和系统 |
CN109640157B (zh) * | 2018-12-28 | 2021-07-27 | 北京字节跳动网络技术有限公司 | 用于处理信息的方法和装置 |
CN111309423B (zh) * | 2020-02-13 | 2023-11-21 | 北京百度网讯科技有限公司 | 终端界面图像的配置方法、装置、设备及介质 |
CN113379820A (zh) * | 2020-03-09 | 2021-09-10 | 北京京东振世信息技术有限公司 | 信息处理方法及装置 |
CN113691729B (zh) * | 2021-08-27 | 2023-08-22 | 维沃移动通信有限公司 | 图像处理方法及装置 |
KR102563455B1 (ko) * | 2023-03-16 | 2023-08-08 | 주식회사 그레이즈 | 복수 시설의 출입 관제 방법 및 이를 위한 컴퓨터 판독 가능한 기록매체 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004227158A (ja) | 2003-01-21 | 2004-08-12 | Omron Corp | 情報提供装置および情報提供方法 |
JP2007181070A (ja) | 2005-12-28 | 2007-07-12 | Shunkosha:Kk | コンテンツ注目評価装置及びコンテンツ注目評価方法 |
JP2012058476A (ja) | 2010-09-08 | 2012-03-22 | Sharp Corp | コンテンツ出力システム、出力制御装置、出力制御方法、及びコンピュータプログラム |
US20130290108A1 (en) | 2012-04-26 | 2013-10-31 | Leonardo Alves Machado | Selection of targeted content based on relationships |
JP2015002477A (ja) | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
JP2015064513A (ja) | 2013-09-26 | 2015-04-09 | カシオ計算機株式会社 | 表示装置、コンテンツ表示方法及びプログラム |
JP2016042346A (ja) | 2014-08-18 | 2016-03-31 | 富士ゼロックス株式会社 | 人のソーシャルタイプを決定する方法、システム及びプログラム |
JP2017199148A (ja) | 2016-04-26 | 2017-11-02 | 富士通株式会社 | 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101237563B (zh) * | 2007-01-31 | 2011-06-01 | 华为技术有限公司 | 节目受众信息获取方法和装置 |
JP4858400B2 (ja) * | 2007-10-17 | 2012-01-18 | ソニー株式会社 | 情報提供システム、情報提供装置、情報提供方法 |
US8756184B2 (en) * | 2009-12-01 | 2014-06-17 | Hulu, LLC | Predicting users' attributes based on users' behaviors |
JP5423740B2 (ja) * | 2011-08-23 | 2014-02-19 | 日本電気株式会社 | 映像提供装置、映像利用装置、映像提供システム、映像提供方法、および、コンピュータ・プログラム |
CN104112209A (zh) * | 2013-04-16 | 2014-10-22 | 苏州和积信息科技有限公司 | 显示终端的受众统计方法和系统 |
US9280701B2 (en) * | 2014-05-08 | 2016-03-08 | Shutterfly, Inc. | Grouping face images using statistic distribution estimate |
US10257495B1 (en) * | 2014-12-31 | 2019-04-09 | Morphotrust Usa, Llc | Three dimensional composite images of digital identifications |
US10306311B1 (en) * | 2016-03-24 | 2019-05-28 | Massachusetts Mutual Life Insurance Company | Intelligent and context aware reading systems |
CN105894333A (zh) * | 2016-04-27 | 2016-08-24 | 昆明理工大学 | 一种基于显示屏广告观看量的大数据采集、处理系统及方法 |
CN106126687A (zh) * | 2016-06-29 | 2016-11-16 | 北京小米移动软件有限公司 | 界面主题的推荐方法、装置、终端及服务器 |
CN106658178B (zh) * | 2017-01-03 | 2020-02-07 | 京东方科技集团股份有限公司 | 一种显示控制装置及其控制方法 |
US10474899B2 (en) * | 2017-04-03 | 2019-11-12 | Facebook, Inc. | Social engagement based on image resemblance |
CN113095124B (zh) * | 2017-06-07 | 2024-02-06 | 创新先进技术有限公司 | 一种人脸活体检测方法、装置以及电子设备 |
CN107844781A (zh) * | 2017-11-28 | 2018-03-27 | 腾讯科技(深圳)有限公司 | 人脸属性识别方法及装置、电子设备及存储介质 |
US10503970B1 (en) * | 2017-12-11 | 2019-12-10 | State Farm Mutual Automobile Insurance Company | Method and system for identifying biometric characteristics using machine learning techniques |
US10475106B1 (en) * | 2019-01-16 | 2019-11-12 | Capital One Services, Llc | Generating a product recommendation based on a user reaction |
JP7211266B2 (ja) * | 2019-05-27 | 2023-01-24 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、及び情報処理プログラム |
-
2018
- 2018-07-16 CN CN201810778514.8A patent/CN108985228A/zh active Pending
-
2019
- 2019-06-05 JP JP2019105064A patent/JP7030078B2/ja active Active
- 2019-06-06 US US16/433,383 patent/US11087140B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004227158A (ja) | 2003-01-21 | 2004-08-12 | Omron Corp | 情報提供装置および情報提供方法 |
JP2007181070A (ja) | 2005-12-28 | 2007-07-12 | Shunkosha:Kk | コンテンツ注目評価装置及びコンテンツ注目評価方法 |
JP2012058476A (ja) | 2010-09-08 | 2012-03-22 | Sharp Corp | コンテンツ出力システム、出力制御装置、出力制御方法、及びコンピュータプログラム |
US20130290108A1 (en) | 2012-04-26 | 2013-10-31 | Leonardo Alves Machado | Selection of targeted content based on relationships |
JP2015002477A (ja) | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
JP2015064513A (ja) | 2013-09-26 | 2015-04-09 | カシオ計算機株式会社 | 表示装置、コンテンツ表示方法及びプログラム |
JP2016042346A (ja) | 2014-08-18 | 2016-03-31 | 富士ゼロックス株式会社 | 人のソーシャルタイプを決定する方法、システム及びプログラム |
JP2017199148A (ja) | 2016-04-26 | 2017-11-02 | 富士通株式会社 | 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20200019789A1 (en) | 2020-01-16 |
CN108985228A (zh) | 2018-12-11 |
JP2020013553A (ja) | 2020-01-23 |
US11087140B2 (en) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7030078B2 (ja) | 端末装置に適用される情報生成方法および装置 | |
CN109145784B (zh) | 用于处理视频的方法和装置 | |
US10949655B2 (en) | Emotion recognition in video conferencing | |
US10992839B2 (en) | Electronic device and method for controlling the electronic device | |
US11343532B2 (en) | System and method for vision-based joint action and pose motion forecasting | |
CN110166827B (zh) | 视频片段的确定方法、装置、存储介质及电子装置 | |
WO2018121777A1 (zh) | 人脸检测方法、装置和电子设备 | |
US10902262B2 (en) | Vision intelligence management for electronic devices | |
CN108830235B (zh) | 用于生成信息的方法和装置 | |
WO2020000879A1 (zh) | 图像识别方法和装置 | |
WO2018033156A1 (zh) | 视频图像的处理方法、装置和电子设备 | |
CN111476871B (zh) | 用于生成视频的方法和装置 | |
WO2018033154A1 (zh) | 手势控制方法、装置和电子设备 | |
CN109740018B (zh) | 用于生成视频标签模型的方法和装置 | |
JP6807389B2 (ja) | メディアコンテンツのパフォーマンスの即時予測のための方法及び装置 | |
CN108235116B (zh) | 特征传播方法和装置、电子设备和介质 | |
JP2019527395A (ja) | コンテンツを効果的に配信するための動的クリエイティブの最適化 | |
CN110288705B (zh) | 生成三维模型的方法和装置 | |
US10939143B2 (en) | System and method for dynamically creating and inserting immersive promotional content in a multimedia | |
KR102377992B1 (ko) | Ai 기반 템플릿 조합을 통한 사용자 맞춤형 광고 컨텐츠 제공 플랫폼을 제공하는 방법, 이를 위한 프로그램 및 시스템 | |
CN112527115A (zh) | 用户形象生成方法、相关装置及计算机程序产品 | |
US11436826B2 (en) | Augmented reality experience for shopping | |
CN111797273A (zh) | 用于调整参数的方法和装置 | |
US11631119B2 (en) | Electronic product recognition | |
CN113283376B (zh) | 人脸活体检测方法、人脸活体检测装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190807 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210330 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210827 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7030078 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |