JP2019061479A - 情報処理装置、情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2019061479A
JP2019061479A JP2017185276A JP2017185276A JP2019061479A JP 2019061479 A JP2019061479 A JP 2019061479A JP 2017185276 A JP2017185276 A JP 2017185276A JP 2017185276 A JP2017185276 A JP 2017185276A JP 2019061479 A JP2019061479 A JP 2019061479A
Authority
JP
Japan
Prior art keywords
color
data
measurement information
information processing
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017185276A
Other languages
English (en)
Other versions
JP6690622B2 (ja
Inventor
太 山本
Futoshi Yamamoto
太 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017185276A priority Critical patent/JP6690622B2/ja
Priority to US16/059,842 priority patent/US10783376B2/en
Priority to CN201810913220.1A priority patent/CN109558782B/zh
Publication of JP2019061479A publication Critical patent/JP2019061479A/ja
Application granted granted Critical
Publication of JP6690622B2 publication Critical patent/JP6690622B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】情報を視認容易にする。【解決手段】情報処理装置は、運動している少なくとも1つの物体に係る動画のデータを動画データとして取得する動画データ取得部と、前記物体の測定情報を示すデータを測定情報データとして取得する測定情報データ取得部と、前記動画に含まれる前記測定情報データに対応する前記物体を解析対象物として特定する物体特定部と、前記解析対象物に係る色を物体色として特定する色特定部と、前記色特定部により特定された前記物体色を前記測定情報データの色として決定する決定部とを備える。【選択図】図3

Description

本発明は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。
センサを装着した被験者を動画撮影し、撮像した動画とセンサが取得した情報をグラフ表示する運動フォーム評価装置がある(例えば、特許文献1)。
しかしながら、特許文献1の技術では、解析対象が複数有る場合は、グラフ表示された情報を見ただけで解析対象を把握することはできなかった。
特開2009−106323号公報
本発明は、情報を視認容易にすることを目的とする。
本発明の一態様によれば、情報処理装置は、運動している少なくとも1つの物体に係る動画のデータを動画データとして取得する動画データ取得部と、前記物体の測定情報を示すデータを測定情報データとして取得する測定情報データ取得部と、前記動画に含まれる前記測定情報データに対応する前記物体を解析対象物として特定する物体特定部と、前記解析対象物に係る色を物体色として特定する色特定部と、前記色特定部により特定された前記物体色を前記測定情報データの色として決定する決定部とを備える。
本発明によれば、情報を視認容易にすることができる。
一実施形態に係る情報処理システムの概略を説明するための図である。 一実施形態係る情報処理システムの構成例の概略を示すブロック図である。 一実施形態に係る情報処理システムのコンピュータの動作の一例の概略を示すフローチャートである。 一実施形態に係る表示画像の一例の概略を示す図である。 一実施形態に係る表示画像の一例の概略を示す図である。 一実施形態に係る表示画像の一例の概略を示す図である。
[情報処理システムの概要]
本発明の一実施形態に係る情報表示システムについて、図面を参照して説明する。図1は、本実施形態に係る情報処理システム1の概略を説明するための図である。情報処理システム1は、情報処理装置としてコンピュータ10と、モーションセンサであるウェアラブルセンサ30と、カメラ60とを備える。
ウェアラブルセンサ30は、例えば運動する人物など、動く物体に取り付けられる。ウェアラブルセンサ30は、取り付けられた物体の位置、姿勢、運動等を検出するための各種センサを備える。ウェアラブルセンサ30で取得される物体の位置、姿勢、運動等を示すデータを運動データと称することにする。コンピュータ10は、ウェアラブルセンサ30から運動データを取得し、物体の運動等の解析等を行う。例えば、ウェアラブルセンサ30が人物の腰の中央部に取り付けられたとき、ウェアラブルセンサ30が取得したデータに基づいて、当該人物の各種の動きが解析され得る。
カメラ60は、ウェアラブルセンサ30が取り付けられた物体の動きを撮影し、当該物体に係る動画を取得する。カメラ60で得られる動画のデータを動画データと称することにする。コンピュータ10は、カメラ60から動画データを取得し、物体についての解析等を行う。
コンピュータ10は、動画を解析してウェアラブルセンサ30が取り付けられた物体を解析対象物として特定する。また、コンピュータ10は、解析対象物の例えば代表的な色を物体色として特定する。また、コンピュータ10は、ウェアラブルセンサ30で取得されたデータに基づいて行った解析結果を運動表示画像として表示する。運動表示画像は、例えばグラフ等を含む。このとき、グラフ等の表示色を、特定された解析対象物に係る物体色と関連付けられた色とする。
例えば、図1は、黒色の服を着た男性101と、赤色の服を着た女性102とがダンスをしている場面である。男性101は、第1のウェアラブルセンサ30aを装着している。女性102は、第2のウェアラブルセンサ30bを装着している。第1のウェアラブルセンサ30aは、男性101の動きに関するデータを取得する。第2のウェアラブルセンサ30bは、女性102の動きに関するデータを取得する。カメラ60は、男性101及び女性102の動きを撮影する。コンピュータ10は、第1のウェアラブルセンサ30aで取得された黒色の服を着た男性101の動きの解析結果を、例えば黒色の線等で表示する。また、コンピュータ10は、第2のウェアラブルセンサ30bで取得された赤色の服を着た女性102の動きの解析結果を、例えば赤色の線等で表示する。
[情報処理システムの構成]
図2は、情報処理システム1の構成例の概要を示すブロック図である。図2を参照して情報処理システムの構成について説明する。
〈コンピュータの構成〉
コンピュータ10は、例えばパーソナルコンピュータ(PC)、タブレット型の電子端末等であり得る。コンピュータ10は、バスライン19を介して互いに接続されたCentral Processing Unit(CPU)11と、Read Only Memory(ROM)12と、Random Access Memory(RAM)13と、ストレージ14と、入力装置15と、表示装置16と、インターフェース(I/F)17とを備える。
CPU11は、各種信号処理等を行う。ROM12は、BIOS等を記録している。RAM13は、CPU11の主記憶装置として機能する。RAM13には、例えば、Dynamic RAM(DRAM)、Static RAM(SRAM)等が用いられ得る。ストレージ14には、例えば、Hard Disk Drive(HDD)、Solid State Drive(SSD)等が用いられる。ストレージ14には、CPU11で用いられるプログラム、パラメータ等各種情報が記録されている。また、ストレージ14は、ウェアラブルセンサ30及びカメラ60等から取得したデータを保管する。RAM13及びストレージ14は、これに限らず各種記憶装置に置換され得る。
入力装置15は、例えばキーボード、マウス等である。表示装置16は、これに限らないが例えば液晶ディスプレイ等である。I/F17は、コンピュータ10の外部の機器との接続に用いられる。この接続には、Universal Serial Bus(USB)等の有線による通信が用いられてもよいし、Bluetooth(登録商標)又はWi-Fi(登録商標)といった無線通信が用いられてもよい。
〈ウェアラブルセンサの構成〉
本実施形態に係るモーションセンサであるウェアラブルセンサ30は、バスライン39を介して互いに接続された角速度センサ41と、加速度センサ42と、磁気センサ43と、気圧センサ44と、GPSセンサ45と、プロセッサ31と、RAM32と、フラッシュメモリ33と、入力装置34と、インターフェース(I/F)35とを備える。ウェアラブルセンサ30は、当該ウェアラブルセンサを装着した人などの動き等の履歴を記録する。
角速度センサ41は、例えばMEMS角速度センサが3軸方向に設けられた構成を有し、各軸周りの角速度を検出する。加速度センサ42は、例えばMEMS加速度センサが3軸方向に設けられた構成を有し、各軸方向の加速度を検出する。加速度センサ42の検出結果に基づけば、重力方向が求められる。磁気センサ43は、例えば3軸磁気センサであり、磁気方向を検出する。例えば、磁気センサ43が地磁気を検出することで、方位が検出され得る。気圧センサ44は、静電容量、圧電抵抗、又はひずみゲージ等を用いた気圧センサであり、ウェアラブルセンサ30の周囲の気圧を検出する。GPSセンサ45は、GPS衛星の信号を受信し、ウェアラブルセンサ30の位置情報を作成する。GPSセンサ45は、GPS衛星に限らず、他の航法衛星の信号を用いてもよい。
角速度センサ41で検出された角速度を時間経過に沿って積算することで、すなわち時間経過に沿って姿勢を回転させてトラッキングしていくことで、ウェアラブルセンサ30の姿勢は高精度で求められ得る。ただし、角速度センサ41の検出値は誤差を有している。このため、検出結果を積算すると誤差も蓄積され、算出される姿勢は正しい値から離れていく。そこで、角速度センサ41との位置関係が固定された加速度センサ42及び磁気センサ43を用いて計測された重力方向及び磁気方向に基づいて、算出されるウェアラブルセンサ30の姿勢の誤差が評価され、当該姿勢が補正される。また、ウェアラブルセンサ30の高さは、GPSセンサ45の検出値及び/又は気圧センサ44の検出値を用いて求められ得る。また、ウェアラブルセンサ30の位置は、GPSセンサ45の検出値を用いて求められ得る。このようにウェアラブルセンサ30は、その位置、姿勢、運動等に係る情報を取得する。
プロセッサ31は、例えばCentral Processing Unit(CPU)、Application Specific Integrated Circuit(ASIC)、Field Programmable Gate Array(FPGA)等といった集積回路であり、各種信号処理等を行う。RAM32は、プロセッサ31の主記憶装置として機能する。フラッシュメモリ33には、プロセッサ31で用いられるプログラム、パラメータ等各種情報も記録されている。また、フラッシュメモリ33には、角速度センサ41、加速度センサ42、磁気センサ43、気圧センサ44及びGPSセンサ45により検出され、プロセッサ31で処理された角速度情報、加速度情報、磁気情報、気圧情報、位置情報等が記録される。さらに、フラッシュメモリ33には、角速度情報、加速度情報、磁気情報、気圧情報、位置情報等に基づいて得られた解析結果等が記録されてもよい。RAM32及びフラッシュメモリ33は、これに限らず各種記憶装置に置換され得る。
入力装置34は、例えばスイッチ等、ユーザの入力を受け付ける装置であり、例えばウェアラブルセンサ30の起動や計測の開始及び終了の指示が入力される。I/F35は、ウェアラブルセンサ30の外部とデータの送受信を行うためのインターフェースである。ウェアラブルセンサ30は、I/F35を介して、コンピュータ10等と接続する。
ウェアラブルセンサ30に接続される外部の装置、例えば、コンピュータ10は、ウェアラブルセンサ30に記録された任意の期間の気圧、角速度、加速度、磁気方向及び位置に係る情報、解析結果等を読み出して、これらに基づいて解析を行い、ウェアラブルセンサ30の位置及び姿勢等を算出したり、各種情報を表示したりする。このようなモーションセンサであるウェアラブルセンサ30によれば、解析対象物の種々の運動が計測され得る。
〈カメラの構成〉
本実施形態に係るカメラ60は、動画撮影を行うカメラである。カメラ60は、CPU61と、ROM62と、RAM63と、画像処理回路64と、記録媒体65と、I/F66と、撮像光学系71と、撮像素子72と、姿勢センサ73と、入力装置74と、表示装置75とを備える。
CPU61は、制御プログラムに従って動作し、カメラ60の各部の動作を制御する。ROM62は、カメラ60の制御プログラム、各種パラメータ等を記憶している。RAM63は、CPU61の主記憶装置等として機能する。画像処理回路64は、例えばASIC等を含み、カメラ60で得られた画像データに基づいて、各種画像処理を行う。記録媒体65は、カメラ60で得られた動画データを保存する。記録媒体65は、カメラ60に対して着脱自在であってもよい。I/F66は、カメラ60の外部とデータの送受信を行うためのインターフェースである。カメラ60は、例えばI/F66を介して、コンピュータ10と接続する。
撮像光学系71は、被写体像を撮像素子72の撮像面に結像させる。撮像素子72は、撮像面に結像した画像に基づいて、画像データを生成する。姿勢センサ73は、例えば加速度センサを含む。姿勢センサ73は、カメラ60の姿勢を検出し、姿勢情報を出力する。入力装置74は、例えば録画ボタン、ズームボタン、各種設定ボタン等といった入力部を含む。表示装置75は、例えば液晶ディスプレイを含む。表示装置75は、例えばライブビュー画像、各種設定画面等を表示する。
[情報処理システムの動作]
情報処理システム1の動作について説明する。以下の説明では、例として図1に示す状況を参照する。図1に示す状況とは、黒色の服を着た男性101と、赤色の服を着た女性102とがダンスをしている状況である。男性101は、第1のウェアラブルセンサ30aを装着しており、女性102は、第2のウェアラブルセンサ30bを装着している。説明では、第1のウェアラブルセンサ30aと第2のウェアラブルセンサ30bとを合わせてウェアラブルセンサ30と称するものとする。カメラ60は、男性101と女性102との動きを動画撮影する。コンピュータ10がウェアラブルセンサ30で取得された運動データとカメラ60で取得された動画データとを取得し、これらを解析する。
コンピュータ10の動作の一例を、図3に示すフローチャート参照して説明する。ステップS1において、コンピュータ10は、カメラ60を用いた撮影により得られた動画データを取得する。ステップS2において、コンピュータ10は、ウェアラブルセンサ30で記録した運動データを取得する。
ステップS3において、コンピュータ10は、動画データを解析し、動画中の解析対象物の候補となる対象物体を特定する。解析対象物とは、例えばウェアラブルセンサ30を装着している運動している物体である。例えば図1に示すように、人物がウェアラブルセンサ30を装着しているとき、解析対象物は人物となる。このとき、コンピュータ10は、解析対象物の候補となる物体、すなわち人物を、対象物体として動画中で特定する。例えば、コンピュータ10は、人型のテンプレートを用いたフィルタリング処理によって、画像中から人物を抽出する。例えばテンプレートを用いた方法によれば、対象物体は画像中から容易に抽出され得る。図1に示す例では、男性101と女性102との2人の人物が抽出される。
ステップS4において、コンピュータ10は、動画データに基づいて、特定した対象物体の画像中の動きを特定する。図1に示す例では、男性101の動きと女性102の動きとを特定する。動きの特定には、例えばオプティカルフローに係る技術などが用いられ得る。すなわち、画像に基づいて、例えば動画中の動きベクトルが特定される。
ステップS5において、コンピュータ10は、ステップS2で取得した運動データの解析を行う。コンピュータ10は、当該解析に、例えば、加速度データ、角速度データ、磁気方向データ、衛星測位データ及び気圧データのうち少なくとも何れか1つを用いる。コンピュータ10は、例えば、位置、加速度、回転などといった注目する値を算出する。
なお、本実施形態では、ステップS2において、ウェアラブルセンサ30から取得した運動データを、ステップS5において、コンピュータ10が運動データの解析を行ったが、ウェアラブルセンサ30が運動データの解析までを行い、コンピュータ10がその解析結果を取得してもよい。
ステップS6において、コンピュータ10は、ステップS4で取得した画像における対象物体の動きと、ステップS5で取得した注目するデータとを比較して対応関係を特定する。例えば、ステップS4で取得した画像中の動きベクトルと、ステップS5で取得した、例えば加速度、角速度、磁気方向等といったウェアラブルセンサ30の動きとが比較され、対応関係が特定される。
このとき、カメラ60の姿勢センサ73で得られた姿勢情報に基づいてカメラの向き、すなわち、縦位置又は横位置等を表すカメラ姿勢データが作成され、このカメラ姿勢データを用いて、必要に応じて画像中の動きベクトルの回転等の補正が行われてもよい。すなわち、カメラ60の姿勢とウェアラブルセンサ30の座標との位置関係の初期設定が予め行われてもよい。このようにカメラ60の姿勢を考慮することで、対応関係の特定が正確に行われ得る。
コンピュータ10は、対応関係が取れた対象物体を解析対象物として特定する。例えば図1に示す例では、第1のウェアラブルセンサ30aのデータが男性101の動きを記録したデータであり、第2のウェアラブルセンサ30bのデータが女性102の動きを記録したデータであることが特定される。このように、ステップS3乃至ステップS6の処理によれば、例えばユーザが指定するなどしなくても、また、画像中にウェアラブルセンサ30が写っていなくても、画像中の対応物体の何れが解析対象物であるかが特定され得る。
ステップS7において、コンピュータ10は、動画データに基づいて、ステップS6で特定した解析対象物に係る色を物体色として特定する。物体色は、例えば解析対象物の面積を色毎に比較して、最も面積が広い色と同じ色又は近似する色に決定してもよい。物体色は、最も面積が広い色に代えて、例えば所定の面積よりも大きな面積を有している色の中から所定の規則(例えば位置に基づく、複数の物体色を決定する場合には他の物体色を考慮するなど)で選択される等、面積を用いた他の規則によって決定されてもよい。
ここで近似する色とは、例えば色相環に基づいて決定され得る。また、例えば図1に示す例のように、解析対象物が複数ある場合には、識別されやすいように、色相の差が所定値よりも大きくなるように物体色が決定されることが好ましい。したがって、解析対象物に複数の色が含まれている場合、各々の色についての色相の差が大きくなるように物体色が決定され得る。図1に示す例では、例えば男性101の黒色と、女性102の赤色とが特定される。
ステップS8において、コンピュータ10は、ステップS6で取得された運動の解析結果を表示する画像を作成する。ここで、ステップS7で特定された物体色に係る色を、ステップS5により解析された運動データの色として決定し、解析結果を示す色と解析対象物に係る色とを対応させた画像が作成される。ステップS9において、コンピュータ10は、表示装置16に作成した画像を表示させる。
ステップS9で表示される表示画像の一例を図4に示す。図4に示す例において、表示画像200は、グラフ領域201と、画像領域205とを含む。グラフ領域201は、ウェアラブルセンサ30の検出値に基づいて得られた解析結果をグラフ表示する領域である。画像領域205は、カメラ60で得られた動画、当該動画を編集した動画、又は当該動画から抽出した静止画等を表示する領域である。
図4に示す例において、画像領域205には、男性101の画像である男性画像251と、女性102の画像である女性画像252とが含まれることになる。グラフ領域201には、男性101が装着した第1のウェアラブルセンサ30aで取得されたデータに基づく解析結果である第1のデータ表示210と、女性102が装着した第2のウェアラブルセンサ30bで取得されたデータに基づく解析結果である第2のデータ表示220とが含まれる。
本実施形態では、第1のデータ表示210は、対応する男性101に係る色で表示され、第2のデータ表示220は、対応する女性102に係る色で表示される。すなわち、第1のデータ表示210のマーカ211及び線212は、それぞれ黒色で表される。第2のデータ表示220のマーカ221及び線222は、それぞれ赤色で表される。
このように、コンピュータ10は、運動している少なくとも1つの物体に係る動画のデータを動画データとして取得する動画データ取得部、物体の測定情報を示すデータを測定情報データとして取得する測定情報データ取得部、動画に含まれる前記運動データに対応する運動を示す物体を解析対象物として特定する物体特定部、解析対象物に係る色を物体色として特定する色特定部、及び特定された物体色を運動データの色として決定する決定部としての機能を発揮する。
本実施形態のような表示がされることによって、画像領域205に表示された画像中の解析対象物と、グラフ領域201に示される解析結果の表示との対応関係を、表示画像200を見る人は、直感的かつ一目瞭然に容易に認識することができるようになる。
なお、図4には、表示画像200にグラフ領域201と画像領域205とが含まれている例を示したが、表示画像200には、画像領域205が含まれておらずグラフ領域201のみが含まれていてもよい。表示画像200を見る人は、解析対象物である人物の画像を他の表示画面で確認しながらグラフ領域201を見ることもあり得るし、当該人物が写っている写真を見ながらグラフ領域201を見ることもあり得るし、記憶している当該人物のことを思い出しながらグラフ領域201を見ることもあり得る。また、グラフ等をリアルタイムに表示する場合には、解析対象物の動きを見ながら、グラフ領域201を見ることもあり得る。したがって、表示画像200にグラフ領域201のみが含まれている場合であっても、表示の色と解析対象物の色とが関連付けられている本実施形態に係る表示は、グラフ領域201を見る人にとって、識別性が高く有益である。
また、図4に示す表示画像200のグラフ領域201には、凡例が示されているが、本実施形態に係る表示によれば、凡例は必ずしもなくてもよい。表示の色と解析対象物の色とが関連付けられているので、凡例を見るまでもなく、例えばグラフの何れの線が何のデータを示しているのかが認識され得る。
ここでは、人物、すなわち、解析対象物が2人の場合を例に挙げたが、1人であっても、3人以上であってもよい。解析対象物が1人であり動画中の人物も1人の場合には、動画中の人物とセンサで計測した人物との対応関係は、動き等を解析するまでもなく取ることができる。また、解析対象物が1人であり、動画中の人物すなわち対象物体が複数人である場合には、複数の対象物体の中から解析対象物が選択されることになる。解析対象物が複数であっても、本実施形態によれば、解析対象物と表示画像200に示される解析結果との対応関係を、表示画像200を見る人は、容易に認識することができる。
[表示画像のバリエーション]
表示画像のいくつかのバリエーションの例を示す。
〈第1のバリエーション〉
第1のバリエーションに係る表示画像の一例を図5に示す。この例において、表示画像300は、グラフ領域301と、画像領域305とを含む。画像領域305には、第1の人物352を写した第1の画像350と、第2の人物362を写した第2の画像360とが含まれる。図5に示す例は、ゴルフのスイングの解析を行う場合の例である。例えば、第1の人物352と第2の人物362とは同一人物であり、異なる日に動画撮影及び運動データの収集が行われてもよい。また、第1の人物352と第2の人物362とは異なる人物であり、同時に又は異なるタイミングで、動画撮影及び運動データの収集が行われてもよい。
第1の画像350において、第1の人物352が上半身353に身に着けた服の色は白色であり、第1の人物352が下半身354に身に着けた服の色は黄色である。第2の画像360において、第2の人物362が上半身363に身に着けた服の色は赤色であり、第2の人物362が下半身364に身に着けた服の色は黒色である。
グラフ領域には、第1の人物352に係るデータである第1のデータ表示310と、第2の人物362に係るデータである第2のデータ表示320とが示されている。第1のデータ表示310においては、マーカ311内部の色は、第1の人物352が上半身353に身に着けた服の色である白色であり、線312及びマーカ311の輪郭線は、第1の人物352が下半身354に身に着けた服の色である黄色である。第2のデータ表示320においては、マーカ321内部の色は、第2の人物362が上半身363に身に着けた服の色である赤色であり、線322及びマーカ321の輪郭線は、第2の人物362が下半身364に身に着けた服の色である黒色である。
第1のバリエーションのように、例えば人物の上半身と下半身といったように、解析対象物のうち2つ以上の領域の色を抽出し、2色以上の色で解析結果を表してもよい。このような表現によれば、色情報が増加し、多数のデータを表示する場合や、解析対象物に同じ色が含まれている場合等にも、識別性のよい表示が実現され得る。
上述の例では物体色として解析対象物に占める面積が広い色を採用する例を示したが、第1のバリエーションのように、解析対象物を表す色として種々の方法で物体色が決定される。上半身の色及び下半身の色は、例えば上半身の型及び下半身の型のテンプレートを用いて特定され得る。また、服の色に限らず、キャップ、グローブ、シューズ等の色が物体色として抽出されてもよい。また、身に着けている物の色に限らず、例えば髪の毛の色、使用している道具等の色などが物体色として抽出されてもよい。
〈第2のバリエーション〉
上述の例では、運動データの解析結果をグラフで表示し、グラフのマーカ及び線の色を解析対象物の色と関連付けていた。しかしながらこれに限らない。第2のバリエーションに係る表示画像の一例を図6に示す。表示画像400は、例えば図6に示すように、人型モデルを用いた表示であってもよい。図6は、図1に示す場面の解析結果を示す例である。
表示画像400には、男性101の解析結果を示す第1の人型モデル410と、女性102の解析結果を示す第2の人型モデル420とが含まれている。第1の人型モデル410は、男性101の動きを模式的に示し、第2の人型モデル420は、女性102の動きを模式的に示す。ここで、第1の人型モデル410の色は、男性101の服の色と同じ黒色であり、第2の人型モデル420の色は、女性102の服の色と同じ赤色である。
例えば人型のモデルは、図6に示すような人型を棒で表現したモデルに限らない。解析結果は、各種表現形態を用いたアニメーション等によって表示され得る。解析対象物が人でないときには、当該解析対象物の形状が表示され得ることはもちろんである。
例えば人型のモデル等の各種の画像、アニメーション等によって解析結果が示される場合にも、解析対象物の色と関連付けられた色で表現されるので、識別性のよい表示が実現され得る。
〈第3のバリエーション〉
表示画像は、グラフや人型モデル等といった図形に限らない。表示画像に含まれる解析結果を示すものは、表であってもよい。表示態様が表である場合、表中の文字色を解析対象物の色と関連付けることで、識別性のよい表示が実現され得る。
解析結果を表す画像を運動表示画像としたときに、上述の図4のグラフ領域201、図5のグラフ領域301、図6の表示画像400、及び第3のバリエーションの表のように、運動表示画像は各種の表示形態を取り得る。表示画像において、例えば図4及び図5に示すように、運動表示画像と動画とが並べて表示されることは、解析結果と動画とを一覧できるので、好ましい。
[解析対象物の特定方法のバリエーション]
解析対象物の特定方法のバリエーションについて説明する。上述の例では、動画データから画像の動きベクトルを求め、この動きベクトルとウェアラブルセンサ30の検出値の解析結果とを比較して対応関係を特定する方法を示した。しかしながら、対応関係の求め方はこれに限らない。
例えば、ウェアラブルセンサ30には、個体毎に異なるマーカが設けられていてもよい。この場合、画像中に検出される当該ウェアラブルセンサ30を示すマーカの画像に基づいて、解析対象物が特定され得る。すなわち、図3にフローチャートを示して説明したステップS3乃至ステップS6のように運動データを比較することなく、画像のみに基づいて解析対象物が特定され得る。ただし、この方法の場合、カメラ60を用いてマーカを撮影する必要がある。
ウェアラブルセンサ30に設けられるマーカは、ウェアラブルセンサ30を特定するための専用のマーカであってもよいし、他の機能を担っているものをマーカとして用いてもよい。例えば、ウェアラブルセンサ30が、運動データの送信に可視光通信を用いている場合、通信に用いる可視光が上述のマーカの機能を担い得る。この場合、可視光はウェアラブルセンサ30のIDを表す発光パターンを示してもよい。
このように、ウェアラブルセンサ30にマーカが設けられることで、解析対象物とウェアラブルセンサ30とを対応付けるために、例えばオプティカルフローを求める等の複雑な画像解析等を必要としなくなる。
また、ウェアラブルセンサ30とは別に、ウェアラブルセンサ30が装着された解析対象物に解析対象物を特定するためのマーカが取り付けられてもよい。動画中に写ったこのようなマーカによっても、解析対象物は特定され得る。
[運動データのバリエーション]
上述の例では、ウェアラブルセンサ30を用いて取得されたデータを運動データとして用いる場合を例に挙げて説明した。しかしながら、これに限らない。
運動データは、カメラ60で得られた動画に基づいて取得されてもよい。この場合、情報処理システム1は、ウェアラブルセンサ30を必要としない。情報処理システム1は、動画データ及び運動データとしての役割を担う動画を撮影するカメラ60と、動画データ及び運動データの解析を行うコンピュータ10とを備えることになる。
また、運動データは、例えば距離画像センサで取得されたデータであってもよい。この場合、情報処理システム1は、ウェアラブルセンサ30に代えて、距離画像センサを備えることになる。
これらの場合、動画データに基づいて、解析対象物が特定されるので、図3を参照して説明したステップS3乃至ステップS6の処理は、動画又は距離画像センサの出力に基づいて運動データを解析することと、画像に基づいて解析対象物を特定することとに置き換えられる。
このように、本実施形態に係る情報処理システム1は、ウェアラブルセンサ30に限らず、解析対象物の運動を解析するためのデータを取得できる種々の機器に適用され得る。
[解析対象物のバリエーション]
上述の例では、人物を解析対象物とする例を示した。しかしながら、解析対象物は、人物に限らず、どのような物体であってもよい。解析対象物は、例えば、ロボット、自動車等の物であってもよい。解析対象物は、例えば、競走馬など動物であってもよい。
また、上述の例では、1つの解析対象物としての1人の人物に1つのウェアラブルセンサ30が装着される例を示したが、これに限らない。1人に複数のウェアラブルセンサ30が装着されてもよい。すなわち、1人につき複数箇所の運動が解析されてもよい。例えば、人物の上半身と下半身とにそれぞれウェアラブルセンサ30が装着されてもよい。この場合、上半身についての解析結果は上半身の服の色で表示され、下半身についての解析結果は下半身の服の色で表示されてもよい。この例では、解析対象物は、1人の人物の上半身と下半身とであり、1人の人物について2つあるということになる。このように、1つの対象物体に複数の解析対象物があってもよい。この場合であっても1つの対象物体に複数ある解析対象物の各々の色と、解析対象物の各々の解析結果とは、それぞれ対応付けられる。
[システム構成のバリエーション]
情報処理システム1において、例えばカメラ60とコンピュータ10との機能の両方を担うカメラ付きの情報処理装置が、カメラ60とコンピュータ10とに代えて用いられてもよい。
上述の場合の何れの場合にも、本実施形態によれば、ユーザにとって認識されやすい表示画像が提供され得る。また、上述の各バリエーションは、互いに組み合わせて適用され得ることはもちろんである。
また、上記実施形態ではデータとして運動データを対象として説明したが、対象とするデータは、脈拍や心拍といった生体情報の様なデータであってもよい。
なお、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
運動している少なくとも1つの物体に係る動画のデータを動画データとして取得する動画データ取得部と、
前記物体の測定情報を示すデータを測定情報データとして取得する測定情報データ取得部と、
前記動画に含まれる前記測定情報データに対応する前記物体を解析対象物として特定する物体特定部と、
前記解析対象物に係る色を物体色として特定する色特定部と、
前記色特定部により特定された前記物体色を前記測定情報データの色として決定する決定部と
を備える情報処理装置。
[2]
前記測定情報データは、センサを用いて取得されたデータである、[1]に記載の情報処理装置。
[3]
前記物体特定部は、
前記動画を解析して前記物体に係る動きベクトルを特定し、
前記測定情報データに含まれる前記センサで取得された加速度データ、角速度データ、磁気方向データ、衛星測位データ及び気圧データのうち少なくとも何れか1つに基づいて取得された前記物体の動きの情報と、前記動きベクトルとを比較して、前記解析対象物を特定する、
[2]に記載の情報処理装置。
[4]
前記物体は、前記センサに対応するマーカを備え、
前記動画には、前記マーカに係る画像が含まれており、
前記物体特定部は、前記画像に含まれる前記マーカに基づいて前記解析対象物を特定する、
[2]に記載の情報処理装置。
[5]
前記マーカは、前記センサに備えられている、
[4]に記載の情報処理装置。
[6]
前記測定情報データは、前記動画を解析して取得したデータである、[1]に記載の情報処理装置。
[7]
前記測定情報データは、距離画像センサで取得されたデータである、[1]に記載の情報処理装置。
[8]
前記測定情報データ取得部は、複数の測定情報データを取得し、
前記物体特定部は、前記複数の測定情報データ毎に前記解析対象物を特定する、
[1]乃至[7]のうち何れか一に記載の情報処理装置。
[9]
前記色特定部は、複数の前記解析対象物毎に、各々の色相の広がりが所定値よりも大きくなるように前記物体色を決定する、[8]に記載の情報処理装置。
[10]
前記色特定部は、前記解析対象物の色毎の面積を特定し、前記面積に基づいて決定した色と同じ色又は近似する色を前記物体色として特定する、[1]乃至[9]のうち何れか一に記載の情報処理装置。
[11]
前記物体特定部は、前記物体の形に応じたテンプレートを用いたフィルタリング処理を用いて、前記動画に含まれる少なくとも1つの物体を識別する、[1]乃至[10]のうち何れか一に記載の情報処理装置。
[12]
前記色特定部は、前記物体色として前記解析対象物に複数色を特定し、
前記決定部は、前記複数色を前記測定情報データの色として決定する、
[1]乃至[11]のうち何れか一に記載の情報処理装置。
[13]
前記測定情報データを、前記決定部により決定された前記物体色を用いて表示する測定情報表示画像を作成する表示作成部を備える、
[1]乃至[12]のうち何れか一に記載の情報処理装置。
[14]
前記色特定部は、前記物体色として前記解析対象物に2色を特定し、
前記表示作成部は、
前記測定情報データを表すグラフを含む前記測定情報表示画像を作成し、
前記2色のうち、一方を前記解析対象物の前記測定情報データを表すグラフのマーカの色とし、他方を前記解析対象物の前記測定情報データを表すグラフの線の色とする、
[13]に記載の情報処理装置。
[15]
前記表示作成部は、
前記測定情報データを表す表を含む前記測定情報表示画像を作成し、
前記物体色を前記解析対象物の前記測定情報データを表す文字の色とする、
[13]に記載の情報処理装置。
[16]
前記表示作成部は、
前記測定情報データを表す人型モデルを含む前記測定情報表示画像を作成し、
前記物体色を前記解析対象物の前記測定情報データを表す人型モデルの色とする、
[13]に記載の情報処理装置。
[17]
前記表示作成部は、
前記測定情報データが表す測定情報を形状で示すアニメーションの画像を含む前記測定情報表示画像を作成し、
前記物体色を前記解析対象物の前記測定情報データを表す前記アニメーションの画像の色とする、
[13]に記載の情報処理装置。
[18]
前記表示作成部は、前記測定情報表示画像と前記動画とを含む表示画像を作成する、[13]乃至[17]のうち何れか一に記載の情報処理装置。
[19]
[1]乃至[18]のうち何れか一に記載の情報処理装置と、
前記動画を撮影するカメラと、を含み、
前記情報処理装置の前記動画データ取得部は、前記カメラにより撮影された動画のデータを前記動画データとして取得する情報処理システム。
[20]
前記カメラは、前記カメラの縦位置と横位置とを特定し、カメラ姿勢データを作成する姿勢特定部を備え、
前記物体特定部は、前記解析対象物の特定に前記カメラ姿勢データを用いる、
[19]に記載の情報処理システム。
[21]
運動している少なくとも1つの物体に係る動画のデータを動画データとして取得することと、
前記物体の測定情報を示すデータを測定情報データとして取得することと、
前記動画に含まれる前記測定情報データに対応する前記物体を解析対象物として特定することと、
前記解析対象物に係る色を物体色として特定することと、
特定された前記物体色を前記測定情報データの色として決定することと
を含む情報処理方法。
[22]
運動している少なくとも1つの物体に係る動画のデータを動画データとして取得することと、
前記物体の測定情報を示すデータを測定情報データとして取得することと、
前記動画に含まれる前記測定情報データに対応する前記物体を解析対象物として特定することと、
前記解析対象物に係る色を物体色として特定することと、
特定された前記物体色を前記測定情報データの色として決定することと
をコンピュータに実行させるためのプログラム。
1…情報処理システム、10…コンピュータ、11…Central Processing Unit(CPU)、12…Read Only Memory(ROM)、13…Random Access Memory(RAM)、14…ストレージ、15…入力装置、16…表示装置、17…インターフェース(I/F)、19…バスライン、30…ウェアラブルセンサ、30a…第1のウェアラブルセンサ、30b…第2のウェアラブルセンサ、31…プロセッサ、32…RAM、33…フラッシュメモリ、34…入力装置、35…I/F、39…バスライン、41…角速度センサ、42…加速度センサ、43…磁気センサ、44…気圧センサ、45…GPSセンサ、60…カメラ、61…CPU、62…ROM、63…RAM、64…画像処理回路、65…記録媒体、66…I/F、71…撮像光学系、72…撮像素子、73…姿勢センサ、74…入力装置、75…表示装置。
本発明の一態様によれば、情報処理装置は、運動している少なくとも1つの物体に係る動画のデータを動画データとして取得する動画データ取得手段と、前記物体の測定情報を示すデータを測定情報データとして取得する測定情報データ取得手段と、前記動画に含まれる前記測定情報データに対応する前記物体を解析対象物として特定する物体特定手段と、前記解析対象物に係る色を物体色として特定する色特定手段と、前記色特定手段により特定された前記物体色を前記測定情報データを表示する際表示色として決定する決定手段を備える。

Claims (22)

  1. 運動している少なくとも1つの物体に係る動画のデータを動画データとして取得する動画データ取得部と、
    前記物体の測定情報を示すデータを測定情報データとして取得する測定情報データ取得部と、
    前記動画に含まれる前記測定情報データに対応する前記物体を解析対象物として特定する物体特定部と、
    前記解析対象物に係る色を物体色として特定する色特定部と、
    前記色特定部により特定された前記物体色を前記測定情報データの色として決定する決定部と
    を備える情報処理装置。
  2. 前記測定情報データは、センサを用いて取得されたデータである、請求項1に記載の情報処理装置。
  3. 前記物体特定部は、
    前記動画を解析して前記物体に係る動きベクトルを特定し、
    前記測定情報データに含まれる前記センサで取得された加速度データ、角速度データ、磁気方向データ、衛星測位データ及び気圧データのうち少なくとも何れか1つに基づいて取得された前記物体の動きの情報と、前記動きベクトルとを比較して、前記解析対象物を特定する、
    請求項2に記載の情報処理装置。
  4. 前記物体は、前記センサに対応するマーカを備え、
    前記動画には、前記マーカに係る画像が含まれており、
    前記物体特定部は、前記画像に含まれる前記マーカに基づいて前記解析対象物を特定する、
    請求項2に記載の情報処理装置。
  5. 前記マーカは、前記センサに備えられている、
    請求項4に記載の情報処理装置。
  6. 前記測定情報データは、前記動画を解析して取得したデータである、請求項1に記載の情報処理装置。
  7. 前記測定情報データは、距離画像センサで取得されたデータである、請求項1に記載の情報処理装置。
  8. 前記測定情報データ取得部は、複数の測定情報データを取得し、
    前記物体特定部は、前記複数の測定情報データ毎に前記解析対象物を特定する、
    請求項1乃至7のうち何れか1項に記載の情報処理装置。
  9. 前記色特定部は、複数の前記解析対象物毎に、各々の色相の広がりが所定値よりも大きくなるように前記物体色を決定する、請求項8に記載の情報処理装置。
  10. 前記色特定部は、前記解析対象物の色毎の面積を特定し、前記面積に基づいて決定した色と同じ色又は近似する色を前記物体色として特定する、請求項1乃至9のうち何れか1項に記載の情報処理装置。
  11. 前記物体特定部は、前記物体の形に応じたテンプレートを用いたフィルタリング処理を用いて、前記動画に含まれる少なくとも1つの物体を識別する、請求項1乃至10のうち何れか1項に記載の情報処理装置。
  12. 前記色特定部は、前記物体色として前記解析対象物に複数色を特定し、
    前記決定部は、前記複数色を前記測定情報データの色として決定する、
    請求項1乃至11のうち何れか1項に記載の情報処理装置。
  13. 前記測定情報データを、前記決定部により決定された前記物体色を用いて表示する測定情報表示画像を作成する表示作成部を備える、
    請求項1乃至12のうち何れか1項に記載の情報処理装置。
  14. 前記色特定部は、前記物体色として前記解析対象物に2色を特定し、
    前記表示作成部は、
    前記測定情報データを表すグラフを含む前記測定情報表示画像を作成し、
    前記2色のうち、一方を前記解析対象物の前記測定情報データを表すグラフのマーカの色とし、他方を前記解析対象物の前記測定情報データを表すグラフの線の色とする、
    請求項13に記載の情報処理装置。
  15. 前記表示作成部は、
    前記測定情報データを表す表を含む前記測定情報表示画像を作成し、
    前記物体色を前記解析対象物の前記測定情報データを表す文字の色とする、
    請求項13に記載の情報処理装置。
  16. 前記表示作成部は、
    前記測定情報データを表す人型モデルを含む前記測定情報表示画像を作成し、
    前記物体色を前記解析対象物の前記測定情報データを表す人型モデルの色とする、
    請求項13に記載の情報処理装置。
  17. 前記表示作成部は、
    前記測定情報データが表す測定情報を形状で示すアニメーションの画像を含む前記測定情報表示画像を作成し、
    前記物体色を前記解析対象物の前記測定情報データを表す前記アニメーションの画像の色とする、
    請求項13に記載の情報処理装置。
  18. 前記表示作成部は、前記測定情報表示画像と前記動画とを含む表示画像を作成する、請求項13乃至17のうち何れか1項に記載の情報処理装置。
  19. 請求項1乃至18のうち何れか1項に記載の情報処理装置と、
    前記動画を撮影するカメラと、を含み、
    前記情報処理装置の前記動画データ取得部は、前記カメラにより撮影された動画のデータを前記動画データとして取得する情報処理システム。
  20. 前記カメラは、前記カメラの縦位置と横位置とを特定し、カメラ姿勢データを作成する姿勢特定部を備え、
    前記物体特定部は、前記解析対象物の特定に前記カメラ姿勢データを用いる、
    請求項19に記載の情報処理システム。
  21. 運動している少なくとも1つの物体に係る動画のデータを動画データとして取得することと、
    前記物体の測定情報を示すデータを測定情報データとして取得することと、
    前記動画に含まれる前記測定情報データに対応する前記物体を解析対象物として特定することと、
    前記解析対象物に係る色を物体色として特定することと、
    特定された前記物体色を前記測定情報データの色として決定することと
    を含む情報処理方法。
  22. 運動している少なくとも1つの物体に係る動画のデータを動画データとして取得することと、
    前記物体の測定情報を示すデータを測定情報データとして取得することと、
    前記動画に含まれる前記測定情報データに対応する前記物体を解析対象物として特定することと、
    前記解析対象物に係る色を物体色として特定することと、
    特定された前記物体色を前記測定情報データの色として決定することと
    をコンピュータに実行させるためのプログラム。
JP2017185276A 2017-09-26 2017-09-26 情報処理装置、情報処理システム、情報処理方法及びプログラム Active JP6690622B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017185276A JP6690622B2 (ja) 2017-09-26 2017-09-26 情報処理装置、情報処理システム、情報処理方法及びプログラム
US16/059,842 US10783376B2 (en) 2017-09-26 2018-08-09 Information processing apparatus
CN201810913220.1A CN109558782B (zh) 2017-09-26 2018-08-10 信息处理装置、信息处理系统、信息处理方法以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017185276A JP6690622B2 (ja) 2017-09-26 2017-09-26 情報処理装置、情報処理システム、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019061479A true JP2019061479A (ja) 2019-04-18
JP6690622B2 JP6690622B2 (ja) 2020-04-28

Family

ID=65806811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017185276A Active JP6690622B2 (ja) 2017-09-26 2017-09-26 情報処理装置、情報処理システム、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US10783376B2 (ja)
JP (1) JP6690622B2 (ja)
CN (1) CN109558782B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018085575A (ja) * 2016-11-21 2018-05-31 カシオ計算機株式会社 画像処理装置、解析システム、画像処理方法及びプログラム
JP7170295B2 (ja) * 2019-06-21 2022-11-14 パナソニックIpマネジメント株式会社 動物情報管理システム、及び、動物情報管理方法
CN110853124B (zh) * 2019-09-17 2023-09-08 Oppo广东移动通信有限公司 生成gif动态图的方法、装置、电子设备及介质
EP4258988A1 (en) 2020-12-14 2023-10-18 Universiteit Twente Footwear sensors for human movement measurement

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10276351A (ja) * 1997-03-31 1998-10-13 Mitsubishi Electric Corp スポーツ競技表示装置
JP2004080163A (ja) * 2002-08-12 2004-03-11 Seiko Epson Corp 軌跡監視装置、軌跡監視機能を有するプログラム及び、軌跡監視機能を有するプログラムを記録したコンピュータ読み取り可能な情報記録媒体
WO2016017121A1 (ja) * 2014-07-28 2016-02-04 パナソニックIpマネジメント株式会社 拡張現実表示システム、端末装置および拡張現実表示方法
WO2016139906A1 (ja) * 2015-03-04 2016-09-09 パナソニックIpマネジメント株式会社 人物追跡方法および人物追跡装置
JP2017526898A (ja) * 2014-05-21 2017-09-14 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー アミューズメントパーク要素の自動化のための光学追跡システム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63262127A (ja) 1987-04-20 1988-10-28 三洋電機株式会社 運動計測デ−タ表示装置
JP2001025584A (ja) 1999-07-14 2001-01-30 Mitsubishi Electric Corp フライング防止システム
JP2009106323A (ja) 2007-10-26 2009-05-21 Yamaha Corp 運動フォーム評価装置および運動フォーム評価プログラム
JP5047007B2 (ja) * 2008-03-03 2012-10-10 三洋電機株式会社 撮像装置
US20090278937A1 (en) * 2008-04-22 2009-11-12 Universitat Stuttgart Video data processing
US20120020518A1 (en) * 2009-02-24 2012-01-26 Shinya Taguchi Person tracking device and person tracking program
JP2010263273A (ja) * 2009-04-30 2010-11-18 Seiko Epson Corp ロボットシステムおよびロボットシステムの制御方法
US9007376B2 (en) * 2010-03-29 2015-04-14 Casio Computer Co., Ltd. Graph display apparatus and graph display method
US10702216B2 (en) * 2010-06-08 2020-07-07 Styku, LLC Method and system for body scanning and display of biometric data
US20120158238A1 (en) * 2010-07-14 2012-06-21 Marcus Isaac Daley Location based automobile inspection
JP5532026B2 (ja) * 2011-08-10 2014-06-25 カシオ計算機株式会社 表示装置、表示方法及びプログラム
CN103356610B (zh) * 2012-04-06 2016-09-28 北京以岭药业有限公司 四氢紫堇萨明在制备治疗老年性痴呆药物中的应用
WO2014009776A1 (en) * 2012-07-12 2014-01-16 Intellisense Zrt. A method for determining of selected properties of a selected object by analyzing selected parameters of an electronically accessible image
JP2015061579A (ja) * 2013-07-01 2015-04-02 株式会社東芝 動作情報処理装置
WO2015189893A1 (ja) * 2014-06-09 2015-12-17 株式会社日立製作所 個体識別装置、および個体識別方法
WO2016004330A1 (en) * 2014-07-03 2016-01-07 Oim Squared Inc. Interactive content generation
JP6350069B2 (ja) * 2014-07-22 2018-07-04 富士ゼロックス株式会社 情報処理システム、情報処理装置およびプログラム
US20160188977A1 (en) * 2014-12-24 2016-06-30 Irobot Corporation Mobile Security Robot
JP6587435B2 (ja) * 2015-06-29 2019-10-09 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
CN107037962B (zh) * 2015-10-23 2020-06-16 株式会社摩如富 图像处理装置、电子设备以及图像处理方法
CN106713733B (zh) * 2015-11-17 2022-08-09 清华大学 一种记录物体运动信息的装置及方法
JP6888250B2 (ja) * 2015-12-28 2021-06-16 カシオ計算機株式会社 画像処理装置、測定装置、画像処理システム、画像処理方法及びプログラム
JP6723814B2 (ja) * 2016-04-28 2020-07-15 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10276351A (ja) * 1997-03-31 1998-10-13 Mitsubishi Electric Corp スポーツ競技表示装置
JP2004080163A (ja) * 2002-08-12 2004-03-11 Seiko Epson Corp 軌跡監視装置、軌跡監視機能を有するプログラム及び、軌跡監視機能を有するプログラムを記録したコンピュータ読み取り可能な情報記録媒体
JP2017526898A (ja) * 2014-05-21 2017-09-14 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー アミューズメントパーク要素の自動化のための光学追跡システム
WO2016017121A1 (ja) * 2014-07-28 2016-02-04 パナソニックIpマネジメント株式会社 拡張現実表示システム、端末装置および拡張現実表示方法
WO2016139906A1 (ja) * 2015-03-04 2016-09-09 パナソニックIpマネジメント株式会社 人物追跡方法および人物追跡装置

Also Published As

Publication number Publication date
US20190095718A1 (en) 2019-03-28
CN109558782A (zh) 2019-04-02
JP6690622B2 (ja) 2020-04-28
US10783376B2 (en) 2020-09-22
CN109558782B (zh) 2023-08-01

Similar Documents

Publication Publication Date Title
CN109558782B (zh) 信息处理装置、信息处理系统、信息处理方法以及记录介质
CN100489833C (zh) 位置姿势测量方法、位置姿势测量装置
US9805265B2 (en) Surveillance camera control device and video surveillance system
KR101768958B1 (ko) 고품질 콘텐츠 제작을 위한 하이브리드 모션캡쳐 시스템
US20150378433A1 (en) Detecting a primary user of a device
JP6852673B2 (ja) センサ装置、センサシステム及び情報処理装置
JP6562437B1 (ja) 監視装置、及び、監視方法
JP2010534316A (ja) 対象物の動きを捕捉するシステム及び方法
JP2018026131A (ja) 動作解析装置
CN107168515A (zh) 一种vr一体机中手柄的定位方法和装置
CN109242887A (zh) 一种基于多摄像机和imu的实时人体上肢动作捕捉方法
US11237057B2 (en) Temperature processing apparatus and temperature processing method
KR101636171B1 (ko) 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템
JPWO2019222255A5 (ja)
US12038744B2 (en) System of obtaining exercise video utilizing drone and method of obtaining exercise video utilizing drone
JP3462754B2 (ja) 監視装置
KR101795474B1 (ko) 골프자세 교정방법 및 이를 이용한 골프자세 교정시스템
JP7562398B2 (ja) 位置管理システム
JP2023131905A (ja) 行動推定システム、行動推定方法、プログラム
JP7342409B2 (ja) 観察状態表示システム、観察状態表示方法及びプログラム
JP2020201183A (ja) カメラ位置調整方法
JP2018082770A (ja) 運動解析装置、運動解析方法及びプログラム
KR102030606B1 (ko) 적외선 카메라를 이용한 실시간 보행검사 장치 및 방법
Bujang et al. Development of a motion capture system using Kinect
KR102475471B1 (ko) 운동 영상에 기초하여 운동 데이터를 제공하는 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181003

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200323

R150 Certificate of patent or registration of utility model

Ref document number: 6690622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150