JP7378625B2 - 人間の社会的行動の分類を決定するための方法およびシステム - Google Patents
人間の社会的行動の分類を決定するための方法およびシステム Download PDFInfo
- Publication number
- JP7378625B2 JP7378625B2 JP2022533058A JP2022533058A JP7378625B2 JP 7378625 B2 JP7378625 B2 JP 7378625B2 JP 2022533058 A JP2022533058 A JP 2022533058A JP 2022533058 A JP2022533058 A JP 2022533058A JP 7378625 B2 JP7378625 B2 JP 7378625B2
- Authority
- JP
- Japan
- Prior art keywords
- human subject
- social
- time
- score
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 230000011273 social behavior Effects 0.000 title claims description 9
- 238000001514 detection method Methods 0.000 claims description 98
- 230000009471 action Effects 0.000 claims description 50
- 230000000694 effects Effects 0.000 claims description 46
- 230000003993 interaction Effects 0.000 claims description 39
- 238000004458 analytical method Methods 0.000 claims description 27
- 230000006399 behavior Effects 0.000 claims description 23
- 230000003542 behavioural effect Effects 0.000 claims description 23
- 241000282412 Homo Species 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 230000001815 facial effect Effects 0.000 claims description 3
- 238000003909 pattern recognition Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 claims description 2
- 230000001953 sensory effect Effects 0.000 claims description 2
- 230000036544 posture Effects 0.000 description 17
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 210000004247 hand Anatomy 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000004931 aggregating effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001144 postural effect Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000036528 appetite Effects 0.000 description 1
- 235000019789 appetite Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000035943 smell Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/167—Personality evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0269—Targeted advertisements based on user profile or attribute
- G06Q30/0271—Personalized advertisement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0269—Targeted advertisements based on user profile or attribute
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Psychology (AREA)
- Multimedia (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
Description
Tint=f(Tother,Tear,Tface) (1)
上式で、
Tother=他の人々と対面する際に対象者によって費やされた時間
(Tear)=電話機が耳に当てられた状態で費やされた時間
(Tface)=電話機と対面することで、例えば自分の電話機画面を読むかまたは見ることで費やされた時間
f=荷重和または他の数学演算子
Claims (20)
- 事前定義済みの閉じられた環境における人間対象者にソーシャルスタイルクラスを割り当てるためのシステムであって、
前記人間対象者の画像およびビデオデータをリアルタイムで取り込むように構成された画像取込み構成要素と、
前記画像およびビデオデータを分析することによって前記人間対象者の姿勢検出および追跡をリアルタイムで実施するように構成された姿勢検出構成要素と、
前記姿勢検出構成要素によって検出された姿勢のシーケンスを関係付けて前記人間対象者のアクションを検出するように構成されたアクション検出構成要素と、
前記アクション検出構成要素によって検出されたアクションのシーケンスを関係付けて前記人間対象者のアクティビティを検出するように構成されたアクティビティ検出構成要素と、
ソーシャルスタイル分類構成要素と
を備え、前記ソーシャルスタイル分類構成要素は、
前記姿勢検出、アクション検出、およびアクティビティ検出構成要素の出力に基づいて前記人間対象者の平均速度(s)を第1のソーシャル属性として決定することであって、前記平均速度(s)は、前記人間対象者による1つまたは複数の種類の動きに関して計算され、所与の時における前記人間対象者の関節の位置に基づいて時間の経過に伴って決定される、該決定することと、
対話時間(Tint)を第2のソーシャル属性として決定することであって、前記対話時間(Tint)は前記事前定義済みの閉じられた環境で前記人間対象者が1人または複数の他の人間対象者と対話することによって費やされた平均時間であり、前記対話時間(Tint)は、前記姿勢検出構成要素の出力を使用して測定される、該決定することと、
分析時間(Tanal)を第3のソーシャル属性として決定することであって、前記分析時間(Tanal)は前記人間対象者がアイテムを分析することによって費やされた平均時間であり、前記分析時間(Tanal)は、手および腕の関節の動きに焦点を合わせて、指定されたアクティビティを検出することによって決定され、前記姿勢検出、アクション検出、およびアクティビティ検出構成要素の出力を用いることによって、前記人間対象者の手に保持されている異なるオブジェクトを区別する、該決定することと、
前記第1、第2、および第3のソーシャル属性の値と、行動属性空間と、に基づいて前記人間対象者にソーシャルスタイルクラスを自動的に割り当てることであって、前記第1、第2、および第3のソーシャル属性は、それぞれ、x、y、およびz軸由来であり、前記ソーシャルスタイル分類構成要素は、前記行動属性空間における前記第1、第2、および第3のソーシャル属性の決定された位置に基づいて前記ソーシャルスタイルクラスを割り当てる、該割り当てることと
を行うように構成されたことを特徴とするシステム。 - 前記画像取込み構成要素は、各カメラの視野内で1人または複数の顧客が取り込まれるのを可能にするように前記1人または複数の顧客に対して相対的に高い高さで位置決めされた、1つまたは複数の頭上カメラを備えたことを特徴とする請求項1に記載のシステム。
- 前記対話時間は、前記人間対象者によって前記1人または複数の他の人間対象者と対面する際に費やされた時間と、電話機は前記人間対象者の耳に当てられた状態で費やされた時間と、前記人間対象者の電話機と対面することで費やされた時間とに基づいて決定され、前記1人または複数の他の人間対象者と対面することで費やされた前記時間は、前記姿勢検出構成要素の出力と、人間対話アクティビティを対応する継続時間に基づいて選択するための時間しきい値とに基づいて決定され、前記電話機は前記耳に当てられた状態で費やされた前記時間が、前記姿勢検出構成要素の出力に基づいて決定され、前記人間対象者は前記電話機と対面することによって費やされた前記時間は、前記姿勢検出構成要素からの出力と、前記電話機の存在を識別するためのオブジェクト認識プロセスとを使用して決定されることを特徴とする請求項1に記載のシステム。
- 前記分析時間は、前記姿勢検出構成要素と前記アクション検出構成要素と前記アクティビティ検出構成要素との出力を、前記人間対象者の手に保持された1つまたは複数のオブジェクトを検出するように構成された1つまたは複数のオブジェクト認識アルゴリズムと組み合わせることによって決定されることを特徴とする請求項1に記載のシステム。
- 前記ソーシャルスタイル分類構成要素は、ドライバとアナリティカルとエミアブルとエクスプレッシブとからなるソーシャルスタイルクラスのグループから、1つのソーシャルスタイルクラスを前記人間対象者に割り当てるように構成されたことを特徴とする請求項1に記載のシステム。
- 前記ソーシャルスタイル分類構成要素は、前記人間対象者についてクラススコアのセットを計算するように構成され、前記セットは、第1、第2、および第3のソーシャル属性についての第1、第2、および第3のクラススコアをそれぞれ含むことを特徴とする請求項5に記載のシステム。
- 第1の前記ソーシャルスタイルクラスであるドライバは、高い(s)スコア、低い(Tint)スコア、および低い(Tanal)スコアを有し、第2の前記ソーシャルスタイルクラスであるエクスプレッシブは、高い(s)スコア、高い(Tint)スコア、および低い(Tanal)スコアを有し、第3の前記ソーシャルスタイルクラスであるエミアブルは、低い(s)スコア、高い(Tint)スコア、および低い(Tanal)スコアを有し、第4の前記ソーシャルスタイルクラスであるアナリティカルは、低い(s)スコア、低い(Tint)スコア、および高い(Tanal)スコアを有することを特徴とする請求項6に記載のシステム。
- 前記ソーシャルスタイル分類構成要素は、前記人間対象者にソーシャルスタイルクラスをリアルタイムで割り当てるために、前記人間対象者についてのクラススコアのセットをリアルタイムで計算するように構成され、前記セットは、第1、第2、および第3のソーシャル属性についての第1、第2、および第3のリアルタイムクラススコアをそれぞれ含むことを特徴とする請求項5に記載のシステム。
- 前記ソーシャルスタイル分類構成要素は、前記人間対象者にソーシャルスタイルクラスを割り当てるために、前記人間対象者に対するセッションベースの粗いパターン認識と顔認識とのうちの少なくとも一方を実施するように構成されたことを特徴とする請求項1に記載のシステム。
- 前記事前定義済みの閉じられた環境は、前記人間対象者によって選ばれ得る複数の物理的ルートを含み、前記ソーシャルスタイル分類構成要素は、前記事前定義済みの閉じられた環境をナビゲートする間に、前記人間対象者によって選ばれた物理的ルートに基づいて、前記人間対象者にソーシャルススタイルクラスを自動的に割り当てるように構成され、多数の人を含む短いルートを選択した人間対象者は人間指向に分類され、人のいない長いルートを選択した人間対象者はタスク指向に分類されることを特徴とする請求項1に記載のシステム。
- 前記ソーシャルスタイル分類構成要素は、感覚的入力を使用して前記人間対象者の行動特性を観察し、人工知能(AI)を使用して前記人間対象者の行動特性を決定して行動タイプを策定し、特定の環境における前記人間対象者のリアルタイムの観察された行動に基づいて前記人間対象者の社会的行動類型を策定するように構成されたことを特徴とする請求項1に記載のシステム。
- 事前定義済みの閉じられた環境における人間対象者にソーシャルスタイルクラスを割り当てる方法であって、
画像取込み構成要素によって、前記人間対象者の画像およびビデオデータをリアルタイムで取り込むステップと、
姿勢検出構成要素によって、前記画像およびビデオデータを分析することによって前記人間対象者の姿勢検出および追跡をリアルタイムで実施するステップと、
アクション検出構成要素によって、検出された姿勢のシーケンスを関係付けることによって前記人間対象者のアクションを検出するステップと、
アクティビティ検出構成要素によって、検出されたアクションのシーケンスを関係付けることによって前記人間対象者のアクティビティを検出するステップと、
ソーシャルスタイル分類構成要素によって、前記姿勢検出、アクション検出、およびアクティビティ検出に基づいて前記人間対象者の平均速度(s)を第1のソーシャル属性として決定するステップであって、前記平均速度(s)は、前記人間対象者による1つまたは複数の種類の動きに関して計算され、所与の時における前記人間対象者の関節の位置に基づいて時間の経過に伴って決定される、該ステップと、
前記ソーシャルスタイル分類構成要素によって、対話時間(Tint)を第2のソーシャル属性として決定するステップであって、前記対話時間(Tint)は前記事前定義済みの閉じられた環境で前記人間対象者が1人または複数の他の人間対象者と対話することによって費やされた平均時間であり、電話機が前記人間対象者の耳に当てられた状態で費やされた時間と前記人間対象者の電話機と対面することで費やされた時間とに基づいて決定され、前記対話時間(Tint)は、前記姿勢検出に基づいて測定される、該ステップと、
前記ソーシャルスタイル分類構成要素によって、分析時間(Tanal)を第3のソーシャル属性として決定するステップであって、前記分析時間は前記人間対象者がアイテムを分析することによって費やされた平均時間であり、前記分析時間(Tanal)は、手および腕の関節の動きに焦点を合わせて、指定されたアクティビティを検出することによって決定され、前記姿勢検出、アクション検出、およびアクティビティ検出構成要素の出力を用いることによって、前記人間対象者の手に保持されている異なるオブジェクトを区別する、該ステップと、
前記ソーシャルスタイル分類構成要素によって、前記第1、第2、および第3のソーシャル属性の値と、行動属性空間と、に基づいて前記人間対象者にソーシャルスタイルクラスを自動的に割り当てるステップであって、前記第1、第2、および第3のソーシャル属性は、それぞれ、x、y、およびz軸由来であり、前記ソーシャルスタイル分類構成要素は、前記行動属性空間における前記第1、第2、および第3のソーシャル属性の決定された位置に基づいて前記ソーシャルスタイルクラスを割り当てる、該ステップとを含むことを特徴とする方法。 - 他の人間対象者と対面することで費やされた前記時間は、前記姿勢検出と、人間対話アクティビティを対応する継続時間に基づいて選択するための時間しきい値とに基づいて決定され、前記電話機は前記耳に当てられた状態で費やされた前記時間が、前記姿勢検出に基づいて決定され、前記人間対象者が電話機と対面することによって費やされた前記時間は、前記姿勢検出と、前記電話機の存在を識別するためのオブジェクト認識プロセスとを使用して決定されることを特徴とする請求項12に記載の方法。
- 前記分析時間は、前記姿勢検出と前記アクション検出と前記アクティビティ検出との出力を、前記人間対象者の手に保持された1つまたは複数のオブジェクトを検出するように構成された1つまたは複数のオブジェクト認識アルゴリズムと組み合わせることによって決定されることを特徴とする請求項12に記載の方法。
- ドライバとアナリティカルとエミアブルとエクスプレッシブとからなるソーシャルスタイルクラスのグループから、1つのソーシャルスタイルクラスを前記人間対象者に割り当てるステップをさらに含むことを特徴とする請求項12に記載の方法。
- 前記人間対象者についてクラススコアのセットを計算するステップをさらに含み、前記セットは、第1、第2、および第3のソーシャル属性についての第1、第2、および第3のクラススコアをそれぞれ含むことを特徴とする請求項15に記載の方法。
- 第1の前記ソーシャルスタイルクラスであるドライバは、高い(s)スコア、低い(Tint)スコア、および低い(Tanal)スコアを有し、第2の前記ソーシャルスタイルクラスであるエクスプレッシブは、高い(s)スコア、高い(Tint)スコア、および低い(Tanal)スコアを有し、第3の前記ソーシャルスタイルクラスであるエミアブルは、低い(s)スコア、高い(Tint)スコア、および低い(Tanal)スコアを有し、第4の前記ソーシャルスタイルクラスであるアナリティカルは、低い(s)スコア、低い(Tint)スコア、および高い(Tanal)スコアを有することを特徴とする請求項16に記載の方法。
- 前記人間対象者にソーシャルスタイルクラスをリアルタイムで割り当てるために、前記人間対象者についてのクラススコアのセットをリアルタイムで計算するステップをさらに含み、前記セットは、第1、第2、および第3のソーシャル属性についての第1、第2、および第3のリアルタイムクラススコアをそれぞれ含むことを特徴とする請求項15に記載の方法。
- 前記事前定義済みの閉じられた環境は、前記人間対象者によって選ばれ得る複数の物理的ルートを含み、前記ソーシャルスタイル分類構成要素は、前記事前定義済みの閉じられた環境をナビゲートする間に、前記人間対象者によって選ばれた物理的ルートに基づいて前記人間対象者にソーシャルスタイルクラスを自動的に割り当てるように構成され、多数の人を含む短いルートを選択した人間対象者は人間指向に分類され、人のいない長いルートを選択した人間対象者はタスク指向に分類されることを特徴とする請求項12に記載の方法。
- 事前定義済みの閉じられた環境における人間対象者にソーシャルスタイルクラスを割り当てるためのコンピュータプログラム可能製品であって、前記コンピュータプログラム可能製品は命令のセットを備え、命令の前記セットはプロセッサによって実行されたとき、前記プロセッサに、
前記人間対象者の画像およびビデオデータをリアルタイムで取り込むことと、
前記画像およびビデオデータを分析することによって前記人間対象者の姿勢検出および追跡をリアルタイムで実施することと、
検出された姿勢のシーケンスを関係付けることによって前記人間対象者のアクションを検出することと、
検出されたアクションのシーケンスを関係付けることによって前記人間対象者のアクティビティを検出することと、
前記姿勢検出、アクション検出、およびアクティビティ検出に基づいて前記人間対象者の平均速度(s)を第1のソーシャル属性として決定することであって、前記平均速度(s)は、前記人間対象者による1つまたは複数の種類の動きに関して計算され、所与の時における前記人間対象者の関節の位置に基づいて時間の経過に伴って決定される、該決定することと、
対話時間(Tint)を第2のソーシャル属性として決定することであって、前記対話時間(Tint)は前記事前定義済みの閉じられた環境で前記人間対象者が1人または複数の他の人間対象者と対話することによって費やされた平均時間であり、前記対話時間(Tint)は、前記姿勢検出構成要素の出力を使用して測定される、該決定することと、
分析時間(Tanal)を第3のソーシャル属性として決定することであって、前記分析時間(Tanal)は前記人間対象者がアイテムを分析することによって費やされた平均時間であり、前記分析時間(Tanal)は、手および腕の関節の動きに焦点を合わせて、指定されたアクティビティを検出することによって決定され、前記姿勢検出、アクション検出、およびアクティビティ検出構成要素の出力を用いることによって、前記人間対象者の手に保持されている異なるオブジェクトを区別する、該決定することと、
前記第1、第2、および第3のソーシャル属性の値と、行動属性空間と、に基づいて前記人間対象者にソーシャルスタイルクラスを自動的に割り当てることであって、前記第1、第2、および第3のソーシャル属性は、それぞれ、x、y、およびz軸由来であり、前記ソーシャルスタイル分類構成要素は、前記行動属性空間における前記第1、第2、および第3のソーシャル属性の決定された位置に基づいて前記ソーシャルスタイルクラスを割り当てる、該割り当てることと
を行わせることを特徴とするコンピュータプログラム可能製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/699,839 | 2019-12-02 | ||
US16/699,839 US11284824B2 (en) | 2019-12-02 | 2019-12-02 | Method and system for determining a human social behavior classification |
PCT/IB2020/060058 WO2021111208A1 (en) | 2019-12-02 | 2020-10-27 | Method and system for determining a human social behavior classification |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023505455A JP2023505455A (ja) | 2023-02-09 |
JP7378625B2 true JP7378625B2 (ja) | 2023-11-13 |
Family
ID=73060031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022533058A Active JP7378625B2 (ja) | 2019-12-02 | 2020-10-27 | 人間の社会的行動の分類を決定するための方法およびシステム |
Country Status (11)
Country | Link |
---|---|
US (1) | US11284824B2 (ja) |
EP (1) | EP4070263A1 (ja) |
JP (1) | JP7378625B2 (ja) |
KR (1) | KR20220088492A (ja) |
CN (1) | CN114761983A (ja) |
AU (1) | AU2020396361A1 (ja) |
BR (1) | BR112022008013A2 (ja) |
CA (1) | CA3157958A1 (ja) |
CO (1) | CO2022006461A2 (ja) |
MX (1) | MX2022006649A (ja) |
WO (1) | WO2021111208A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7324809B2 (ja) * | 2021-08-26 | 2023-08-10 | イーデザイン損害保険株式会社 | 自動車保険事故対応時における接客最適化補助システム |
JP7315049B1 (ja) * | 2022-02-22 | 2023-07-26 | 富士通株式会社 | 情報処理プログラム、情報処理方法、および情報処理装置 |
CN117216419B (zh) * | 2023-11-08 | 2024-02-09 | 江西为易科技有限公司 | 基于ai技术的数据分析方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014219937A (ja) | 2013-05-10 | 2014-11-20 | パナソニック株式会社 | 嗜好判断システム |
US20150278590A1 (en) | 2014-03-25 | 2015-10-01 | Wipro Limited | System and method for determining the characteristics of human personality and providing real-time recommendations |
JP2016189073A (ja) | 2015-03-30 | 2016-11-04 | 株式会社国際電気通信基礎技術研究所 | 個性推定装置、個性推定プログラムおよび個性推定方法 |
JP2019056597A (ja) | 2017-09-20 | 2019-04-11 | ヤフー株式会社 | 移動体制御装置、移動体制御方法、及び移動体制御プログラム |
JP6567729B1 (ja) | 2018-05-28 | 2019-08-28 | 株式会社リクルートマネジメントソリューションズ | コールセンタ装置、特定方法及びプログラム |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US6678413B1 (en) * | 2000-11-24 | 2004-01-13 | Yiqing Liang | System and method for object identification and behavior characterization using video analysis |
US7930204B1 (en) * | 2006-07-25 | 2011-04-19 | Videomining Corporation | Method and system for narrowcasting based on automatic analysis of customer behavior in a retail store |
ES2522589T3 (es) * | 2007-02-08 | 2014-11-17 | Behavioral Recognition Systems, Inc. | Sistema de reconocimiento conductual |
EP2915101A4 (en) * | 2012-11-02 | 2017-01-11 | Itzhak Wilf | Method and system for predicting personality traits, capabilities and suggested interactions from images of a person |
US9037578B2 (en) * | 2012-12-03 | 2015-05-19 | Wellclub, Llc | Content suggestion engine |
EP2976434B1 (en) * | 2013-03-18 | 2017-08-02 | Life Technologies Corporation | Methods and systems for analyzing biological reaction systems |
US20150006224A1 (en) * | 2013-06-27 | 2015-01-01 | International Business Machines Corporation | Information media enhanced sales |
US9449218B2 (en) | 2014-10-16 | 2016-09-20 | Software Ag Usa, Inc. | Large venue surveillance and reaction systems and methods using dynamically analyzed emotional input |
US10013659B2 (en) * | 2014-11-07 | 2018-07-03 | Conduent Business Services, Llc | Methods and systems for creating a classifier capable of predicting personality type of users |
US9305216B1 (en) * | 2014-12-15 | 2016-04-05 | Amazon Technologies, Inc. | Context-based detection and classification of actions |
US10380486B2 (en) * | 2015-01-20 | 2019-08-13 | International Business Machines Corporation | Classifying entities by behavior |
GB201501510D0 (en) * | 2015-01-29 | 2015-03-18 | Apical Ltd | System |
US9996739B2 (en) | 2016-02-19 | 2018-06-12 | Conduent Business Services, Llc | System and method for automatic gait cycle segmentation |
US10339775B2 (en) * | 2016-06-21 | 2019-07-02 | BroadPath, Inc. | Method for collecting and sharing live video feeds of employees within a distributed workforce |
GB201613138D0 (en) * | 2016-07-29 | 2016-09-14 | Unifai Holdings Ltd | Computer vision systems |
US11482082B2 (en) | 2016-09-18 | 2022-10-25 | Ncr Corporation | Non-scan loss verification at self-checkout terminal |
US10198818B2 (en) * | 2016-10-12 | 2019-02-05 | Intel Corporation | Complexity reduction of human interacted object recognition |
US20180300557A1 (en) | 2017-04-18 | 2018-10-18 | Amazon Technologies, Inc. | Object analysis in live video content |
-
2019
- 2019-12-02 US US16/699,839 patent/US11284824B2/en active Active
-
2020
- 2020-10-27 MX MX2022006649A patent/MX2022006649A/es unknown
- 2020-10-27 CN CN202080084183.3A patent/CN114761983A/zh active Pending
- 2020-10-27 JP JP2022533058A patent/JP7378625B2/ja active Active
- 2020-10-27 AU AU2020396361A patent/AU2020396361A1/en not_active Abandoned
- 2020-10-27 BR BR112022008013A patent/BR112022008013A2/pt not_active Application Discontinuation
- 2020-10-27 EP EP20801030.6A patent/EP4070263A1/en active Pending
- 2020-10-27 KR KR1020227018064A patent/KR20220088492A/ko not_active Application Discontinuation
- 2020-10-27 CA CA3157958A patent/CA3157958A1/en active Pending
- 2020-10-27 WO PCT/IB2020/060058 patent/WO2021111208A1/en unknown
-
2022
- 2022-05-17 CO CONC2022/0006461A patent/CO2022006461A2/es unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014219937A (ja) | 2013-05-10 | 2014-11-20 | パナソニック株式会社 | 嗜好判断システム |
US20150278590A1 (en) | 2014-03-25 | 2015-10-01 | Wipro Limited | System and method for determining the characteristics of human personality and providing real-time recommendations |
JP2016189073A (ja) | 2015-03-30 | 2016-11-04 | 株式会社国際電気通信基礎技術研究所 | 個性推定装置、個性推定プログラムおよび個性推定方法 |
JP2019056597A (ja) | 2017-09-20 | 2019-04-11 | ヤフー株式会社 | 移動体制御装置、移動体制御方法、及び移動体制御プログラム |
JP6567729B1 (ja) | 2018-05-28 | 2019-08-28 | 株式会社リクルートマネジメントソリューションズ | コールセンタ装置、特定方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP4070263A1 (en) | 2022-10-12 |
CA3157958A1 (en) | 2021-06-10 |
KR20220088492A (ko) | 2022-06-27 |
CO2022006461A2 (es) | 2022-05-31 |
AU2020396361A1 (en) | 2022-05-19 |
CN114761983A (zh) | 2022-07-15 |
MX2022006649A (es) | 2022-07-04 |
WO2021111208A1 (en) | 2021-06-10 |
JP2023505455A (ja) | 2023-02-09 |
US11284824B2 (en) | 2022-03-29 |
US20210161451A1 (en) | 2021-06-03 |
BR112022008013A2 (pt) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7378625B2 (ja) | 人間の社会的行動の分類を決定するための方法およびシステム | |
US10074129B2 (en) | Virtual reality system including smart objects | |
JP5650499B2 (ja) | 商品に対する消費者の購買嗜好を収集するためのコンピュータにより実施される方法 | |
JP6724827B2 (ja) | 人物動向記録装置 | |
US20190108561A1 (en) | Purchase Intent Determination And Real Time In-store Shopper Assistance | |
Liciotti et al. | Shopper analytics: A customer activity recognition system using a distributed RGB-D camera network | |
JP4972491B2 (ja) | 顧客動作判定システム | |
US20100149093A1 (en) | Virtual reality system including viewer responsiveness to smart objects | |
US20120089488A1 (en) | Virtual reality system including smart objects | |
US20110010266A1 (en) | Virtual reality system for environment building | |
US20160379225A1 (en) | Emotional engagement detector | |
Popa et al. | Semantic assessment of shopping behavior using trajectories, shopping related actions, and context information | |
US10825031B2 (en) | System for observing and analyzing customer opinion | |
EP2136329A2 (en) | Comprehensive computer implemented system and method for adapting the content of digital signage displays | |
Pfeiffer et al. | Classification of goal-directed search and exploratory search using mobile eye-tracking | |
CN113887884A (zh) | 商超服务系统 | |
WO2008081411A1 (en) | Virtual reality system including smart objects | |
Merad et al. | Purchase behavior analysis through gaze and gesture observation | |
KR20200103144A (ko) | 소비자의 소비 행태 및 비정형적 정보를 활용한 빅데이터 기반의 마케팅 캠페인 플랫폼 | |
Borges et al. | Are you lost? using facial recognition to detect customer emotions in retail stores | |
US20220253893A1 (en) | System and Method of Tracking the Efficacy of Targeted Adaptive Digital Advertising | |
WO2024018548A1 (ja) | 生成プログラム、生成方法および情報処理装置 | |
Della Sciucca et al. | Shoppers detection analysis in an intelligent retail environment | |
WO2024018545A1 (ja) | 生成プログラム、生成方法および情報処理装置 | |
JP2021176079A (ja) | 商品配置提案プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220602 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220602 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7378625 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |