JP2022084582A - ジェスチャ埋め込みビデオ - Google Patents
ジェスチャ埋め込みビデオ Download PDFInfo
- Publication number
- JP2022084582A JP2022084582A JP2022020305A JP2022020305A JP2022084582A JP 2022084582 A JP2022084582 A JP 2022084582A JP 2022020305 A JP2022020305 A JP 2022020305A JP 2022020305 A JP2022020305 A JP 2022020305A JP 2022084582 A JP2022084582 A JP 2022084582A
- Authority
- JP
- Japan
- Prior art keywords
- video
- gesture
- bookmark
- videos
- notifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 73
- 230000014509 gene expression Effects 0.000 claims abstract description 17
- 230000009471 action Effects 0.000 claims description 38
- 230000033001 locomotion Effects 0.000 claims description 26
- 230000004044 response Effects 0.000 claims description 18
- 230000000977 initiatory effect Effects 0.000 claims 3
- 238000003860 storage Methods 0.000 abstract description 14
- 238000012549 training Methods 0.000 description 25
- 238000009877 rendering Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 10
- 239000000463 material Substances 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000013139 quantization Methods 0.000 description 8
- 230000003542 behavioural effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000002085 persistent effect Effects 0.000 description 5
- 230000011664 signaling Effects 0.000 description 5
- 238000001356 surgical procedure Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 238000009958 sewing Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009194 climbing Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 239000012212 insulator Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
- H04N21/2387—Stream processing in response to a playback request from an end-user, e.g. for trick-play
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Television Signal Processing For Recording (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Image Analysis (AREA)
Abstract
Description
ビデオストリームを得る受信機と、
サンプルセットを得るセンサであって、上記サンプルセットの構成要素は、ジェスチャの構成部分であり、上記サンプルセットは、上記ビデオストリームに対する時間に対応する、センサと、
上記ビデオストリームのエンコードされたビデオに上記ジェスチャの表現および上記時間を埋め込むエンコーダと
を備える、ビデオ内埋め込みジェスチャに関するシステムである。
上記センサが加速度計またはジャイロメータのうち少なくとも一方である
ことをオプションで含む。
上記ジェスチャの上記表現が、上記サンプルセットの正規化されたバージョン、上記サンプルセットの上記構成要素の量子化、ラベル、インデックス、またはモデルのうち少なくとも1つである
ことをオプションで含む。
上記モデルが、上記モデルに関してセンサパラメータを提供する入力定義を含み、上記モデルは、入力された上記パラメータに関する値が上記ジェスチャを表現しているかをシグナリングする真または偽の出力を提供する
ことをオプションで含む。
上記ジェスチャの上記表現および上記時間を埋め込むことが、メタデータデータ構造を上記エンコードされたビデオに追加することを含む
ことをオプションで含む。
上記メタデータデータ構造が、上記ジェスチャの上記表現が第1列に示され、対応する時間が同じ行の第2列に示されるテーブルである
ことをオプションで含む。
上記ジェスチャの上記表現および上記時間を埋め込むことが、メタデータデータ構造を上記エンコードされたビデオに追加することを含み、
上記データ構造が、上記ビデオのフレームに対してエンコードした1つのエントリを含む
ことをオプションで含む。
上記エンコードされたビデオから上記ジェスチャの上記表現および上記時間を抽出するデコーダと、
上記ジェスチャの上記表現と、上記ビデオストリームのレンダリング中に得られた第2サンプルセットとを一致するか比較する比較器と、
上記比較器からの上記一致するとの結果に応じて上記時間の上記エンコードされたビデオから上記ビデオストリームをレンダリングする再生機と
をオプションで含む。
上記ジェスチャが、上記エンコードされたビデオ内の複数の種々のジェスチャのうち1つである
ことをオプションで含む。
上記ジェスチャが、上記ビデオ内にエンコードされた上記ジェスチャの複数の同じ上記表現のうち1つであり、
上記システムが、上記第2サンプルセットの等価物が得られた回数をトラッキングするカウンタを備え、
上記再生機が、上記カウンタに基づき上記時間を選択する
ことをオプションで含む。
新たなジェスチャに関するトレーニングセットのインディケーションを受信するユーザインタフェースと、
上記トレーニングセットに基づき第2ジェスチャの表現を生成するトレーナと
を含み、
上記センサが、上記インディケーションの受信に応じて上記トレーニングセットを得る
ことをオプションで含む。
ジェスチャ表現のライブラリが上記エンコードされたビデオ内にエンコードされ、
上記ライブラリが、上記ジェスチャおよび上記新たなジェスチャと、対応する時間を上記エンコードされたビデオ内に有さないジェスチャとを含む
ことをオプションで含む。
上記センサが第1デバイスの第1筐体内にあり、
上記受信機と上記エンコーダとが、第2デバイスの第2筐体内にあり、
上記第1デバイスと上記第2デバイスとが、両デバイスのオペレーション中に通信接続される
ことをオプションで含む。
ビデオストリームを受信機により得る段階と
センサを測定してサンプルセットを得る段階であって、上記サンプルセットの構成要素は、ジェスチャの構成部分であり、上記サンプルセットは、上記ビデオストリームに対する時間に対応する、段階と、
上記ビデオストリームのエンコードされたビデオに上記ジェスチャの表現および上記時間をエンコーダにより埋め込む段階と
を備える、ビデオ内埋め込みジェスチャに関する方法である。
上記センサが加速度計またはジャイロメータのうち少なくとも一方である
ことをオプションで含む。
ことをオプションで含む。
上記モデルが、上記モデルに関してセンサパラメータを提供する入力定義を含み、上記モデルは、入力された上記パラメータに関する値が上記ジェスチャを表現しているかをシグナリングする真または偽の出力を提供する
ことをオプションで含む。
上記ジェスチャの上記表現および上記時間を埋め込む段階が、メタデータデータ構造を上記エンコードされたビデオに追加する段階を有する
ことをオプションで含む。
上記メタデータデータ構造が、上記ジェスチャの上記表現が第1列に示され、対応する時間が同じ行の第2列に示されるテーブルである
ことをオプションで含む。
上記ジェスチャの上記表現および上記時間を埋め込む段階が、メタデータデータ構造を上記エンコードされたビデオに追加する段階を有し、
上記データ構造が、上記ビデオのフレームに対してエンコードした1つのエントリを含む
ことをオプションで含む。
上記エンコードされたビデオから上記ジェスチャの上記表現および上記時間を抽出する段階と、
上記ジェスチャの上記表現と、上記ビデオストリームのレンダリング中に得られた第2サンプルセットとを一致するか比較する段階と、
上記比較器からの上記一致するとの結果に応じて上記時間の上記エンコードされたビデオから上記ビデオストリームをレンダリングする段階と
をオプションで含む。
上記ジェスチャが、上記エンコードされたビデオ内の複数の種々のジェスチャのうち1つである
ことをオプションで含む。
上記ジェスチャが、上記ビデオ内にエンコードされた上記ジェスチャの複数の同じ上記表現のうち1つであり、
上記方法が、上記第2サンプルセットの等価物が得られた回数をカウンタによりトラッキングする段階を備え、
上記レンダリングする段階において、上記カウンタに基づき上記時間が選択される
ことをオプションで含む。
新たなジェスチャに関するトレーニングセットのインディケーションをユーザインタフェースから受信する段階と、
上記インディケーションの受信に応じて、上記トレーニングセットに基づき第2ジェスチャの表現を作成する段階と
をオプションで含む。
ジェスチャ表現のライブラリを上記エンコードされたビデオ内にエンコードする段階を含み、
上記ライブラリが、上記ジェスチャと、上記新たなジェスチャと、対応する時間を上記エンコードされたビデオ内に有さないジェスチャとを含む
ことをオプションで含む。
上記センサが第1デバイスの第1筐体内にあり、
上記受信機と上記エンコーダとが、第2デバイスの第2筐体内にあり、
上記第1デバイスと上記第2デバイスとが、両デバイスのオペレーション中に通信接続される
ことをオプションで含む。
マシンにより実行された場合に、方法14から26のいずれかを上記マシンに実施させる命令を含む少なくとも1つのマシン可読媒体である。
ビデオストリームを受信機により得る手段と
センサを測定してサンプルセットを得る手段であって、上記サンプルセットの構成要素は、ジェスチャの構成部分であり、上記サンプルセットは、上記ビデオストリームに対する時間に対応する、手段と、
上記ビデオストリームのエンコードされたビデオに上記ジェスチャの表現および上記時間をエンコーダにより埋め込む手段と
を備える、ビデオ内埋め込みジェスチャに関するシステムである。
上記センサが加速度計またはジャイロメータのうち少なくとも一方である
ことをオプションで含む。
上記ジェスチャの上記表現が、上記サンプルセットの正規化されたバージョン、上記サンプルセットの上記構成要素の量子化、ラベル、インデックス、またはモデルのうち少なくとも1つである
ことをオプションで含む。
上記モデルが、上記モデルに関してセンサパラメータを提供する入力定義を含み、上記モデルは、入力された上記パラメータに関する値が上記ジェスチャを表現しているかをシグナリングする真または偽の出力を提供する
ことをオプションで含む。
上記ジェスチャの上記表現および上記時間を埋め込む上記手段が、メタデータデータ構造を上記エンコードされたビデオに追加する手段を含む
ことをオプションで含む。
上記メタデータデータ構造が、上記ジェスチャの上記表現が第1列に示され、対応する時間が同じ行の第2列に示されるテーブルである
ことをオプションで含む。
上記ジェスチャの上記表現および上記時間を埋め込む上記手段が、メタデータデータ構造を上記エンコードされたビデオに追加する手段を有し、
上記データ構造が、上記ビデオのフレームに対してエンコードした1つのエントリを含む
ことをオプションで含む。
上記エンコードされたビデオから上記ジェスチャの上記表現および上記時間を抽出する手段と、
上記ジェスチャの上記表現と、上記ビデオストリームのレンダリング中に得られた第2サンプルセットとを一致するか比較する手段と、
上記比較器からの上記一致するとの結果に応じて上記時間の上記エンコードされたビデオから上記ビデオストリームをレンダリングする手段と
をオプションで含む。
上記ジェスチャが、上記エンコードされたビデオ内の複数の種々のジェスチャのうち1つである
ことをオプションで含む。
上記ジェスチャが、上記ビデオ内にエンコードされた上記ジェスチャの複数の同じ上記表現のうち1つであり、
上記システムが、上記第2サンプルセットの等価物が得られた回数をカウンタによりトラッキングする手段を備え、
上記レンダリングする手段が、上記カウンタに基づき上記時間を選択する
ことをオプションで含む。
新たなジェスチャに関するトレーニングセットのインディケーションをユーザインタフェースから受信する手段と、
上記インディケーションの受信に応じて、上記トレーニングセットに基づき第2ジェスチャの表現を作成する手段と
をオプションで含む。
ジェスチャ表現のライブラリを上記エンコードされたビデオ内にエンコードする手段を含み、
上記ライブラリが、上記ジェスチャと、上記新たなジェスチャと、対応する時間を上記エンコードされたビデオ内に有さないジェスチャとを含む
ことをオプションで含む。
上記センサが第1デバイスの第1筐体内にあり、
上記受信機と上記エンコーダとが、第2デバイスの第2筐体内にあり、
上記第1デバイスと上記第2デバイスとが、両デバイスのオペレーション中に通信接続される
ことをオプションで含む。
ビデオ内埋め込みジェスチャに関する命令を含む少なくとも1つのマシン可読媒体であって、マシンに実行された場合に上記命令は、上記マシンに、
ビデオストリームを得ることと、
サンプルセットを得ることであって、上記サンプルセットの構成要素は、ジェスチャの構成部分であり、上記サンプルセットは、上記ビデオストリームに対する時間に対応する、ことと、
上記ビデオストリームのエンコードされたビデオに上記ジェスチャの表現および上記時間を埋め込むことと
を実行させる少なくとも1つのマシン可読媒体である。
上記センサが加速度計またはジャイロメータのうち少なくとも一方である
ことをオプションで含む。
上記ジェスチャの上記表現が、上記サンプルセットの正規化されたバージョン、上記サンプルセットの上記構成要素の量子化、ラベル、インデックス、またはモデルのうち少なくとも1つである
ことをオプションで含む。
上記モデルが、上記モデルに関してセンサパラメータを提供する入力定義を含み、上記モデルは、入力された上記パラメータに関する値が上記ジェスチャを表現しているかをシグナリングする真または偽の出力を提供する
ことをオプションで含む。
上記ジェスチャの上記表現および上記時間を埋め込むことが、メタデータデータ構造を上記エンコードされたビデオに追加することを有する
ことをオプションで含む。
上記メタデータデータ構造が、上記ジェスチャの上記表現が第1列に示され、対応する時間が同じ行の第2列に示されるテーブルである
ことをオプションで含む。
上記ジェスチャの上記表現および上記時間を埋め込むことが、メタデータデータ構造を上記エンコードされたビデオに追加することを有し、
上記データ構造が、上記ビデオのフレームに対してエンコードした1つのエントリを含む
ことをオプションで含む。
上記命令が上記マシンに、
上記エンコードされたビデオから上記ジェスチャの上記表現および上記時間を抽出させ、
上記ジェスチャの上記表現と、上記ビデオストリームのレンダリング中に得られた第2サンプルセットとを一致するか比較させ、
上記比較器からの上記一致するとの結果に応じて上記時間の上記エンコードされたビデオから上記ビデオストリームをレンダリングさせる
ことをオプションで含む。
上記ジェスチャが、上記エンコードされたビデオ内の複数の種々のジェスチャのうち1つである
ことをオプションで含む。
上記ジェスチャが、上記ビデオ内にエンコードされた上記ジェスチャの複数の同じ上記表現のうち1つであり、
上記命令が上記マシンに、上記第2サンプルセットの等価物が得られた回数をトラッキングするカウンタを実装させ、
上記再生機が、上記カウンタに基づき上記時間を選択する
ことをオプションで含む。
上記命令が上記マシンに
新たなジェスチャに関するトレーニングセットのインディケーションを受信するユーザインタフェースを実装させ、
上記トレーニングセットに基づき第2ジェスチャの表現を生成させ、
上記センサが、上記インディケーションの受信に応じて上記トレーニングセットを得る
ことをオプションで含む。
ジェスチャ表現のライブラリが上記エンコードされたビデオ内にエンコードされ、
上記ライブラリが、上記ジェスチャおよび上記新たなジェスチャと、対応する時間を上記エンコードされたビデオ内に有さないジェスチャとを含む
ことをオプションで含む。
上記センサが第1デバイスの第1筐体内にあり、
上記受信機と上記エンコーダとが、第2デバイスの第2筐体内にあり、
上記第1デバイスと上記第2デバイスとが、両デバイスのオペレーション中に通信接続される
ことをオプションで含む。
[項目1]
ビデオストリームを得る受信機と、
サンプルセットを得るセンサであって、上記サンプルセットの構成要素は、ジェスチャの構成部分であり、上記サンプルセットは、上記ビデオストリームに対する時間に対応する、センサと、
上記ビデオストリームのエンコードされたビデオに上記ジェスチャの表現および上記時間を埋め込むエンコーダと
を備える、ビデオ内埋め込みジェスチャに関するシステム。
[項目2]
上記センサは加速度計またはジャイロメータのうち少なくとも一方である、項目1に記載のシステム。
[項目3]
上記ジェスチャの上記表現は、上記サンプルセットの正規化されたバージョン、上記サンプルセットの上記構成要素の量子化、ラベル、インデックス、またはモデルのうち少なくとも1つである、項目1に記載のシステム。
[項目4]
上記モデルは、上記モデルに関してセンサパラメータを提供する入力定義を含み、上記モデルは、入力された上記パラメータに関する値が上記ジェスチャを表現しているかをシグナリングする真または偽の出力を提供する、項目3に記載のシステム。
[項目5]
上記エンコードされたビデオから上記ジェスチャの上記表現および上記時間を抽出するデコーダと、
上記ジェスチャの上記表現と、上記ビデオストリームのレンダリング中に得られた第2サンプルセットとを一致するか比較する比較器と、
上記比較器からの上記一致するとの結果に応じて上記時間の上記エンコードされたビデオから上記ビデオストリームをレンダリングする再生機と
を備える、項目1に記載のシステム。
[項目6]
上記ジェスチャは、上記エンコードされたビデオ内の複数の種々のジェスチャのうち1つである、項目5に記載のシステム。
[項目7]
上記ジェスチャは、上記ビデオ内にエンコードされた上記ジェスチャの複数の同じ上記表現のうち1つであり、
上記システムは、上記第2サンプルセットの等価物が得られた回数をトラッキングするカウンタを備え、
上記再生機は、上記カウンタに基づき上記時間を選択した、
項目5に記載のシステム。
[項目8]
新たなジェスチャに関するトレーニングセットのインディケーションを受信するユーザインタフェースと、
上記トレーニングセットに基づき第2ジェスチャの表現を生成するトレーナと
を備え、
上記センサは、上記インディケーションの受信に応じて上記トレーニングセットを得る、
項目1に記載のシステム。
[項目9]
ジェスチャ表現のライブラリが上記エンコードされたビデオ内にエンコードされ、
上記ライブラリは、上記ジェスチャおよび上記新たなジェスチャと、対応する時間を上記エンコードされたビデオ内に有さないジェスチャとを含む、
項目8に記載のシステム。
[項目10]
上記センサは第1デバイスの第1筐体内にあり、
上記受信機と上記エンコーダとは、第2デバイスの第2筐体内にあり、
上記第1デバイスと上記第2デバイスとは、両デバイスのオペレーション中に通信接続される、
項目1に記載のシステム。
[項目11]
ビデオストリームを受信機により得る段階と
センサを測定してサンプルセットを得る段階であって、上記サンプルセットの構成要素は、ジェスチャの構成部分であり、上記サンプルセットは、上記ビデオストリームに対する時間に対応する、段階と、
上記ビデオストリームのエンコードされたビデオに上記ジェスチャの表現および上記時間をエンコーダにより埋め込む段階と
を備える、ビデオ内埋め込みジェスチャに関する方法。
[項目12]
上記センサは加速度計またはジャイロメータのうち少なくとも一方である、項目11に記載の方法。
[項目13]
上記ジェスチャの上記表現は、上記サンプルセットの正規化されたバージョン、上記サンプルセットの上記構成要素の量子化、ラベル、インデックス、またはモデルのうち少なくとも1つである、項目11に記載の方法。
[項目14]
上記モデルは、上記モデルに関してセンサパラメータを提供する入力定義を含み、上記モデルは、入力された上記パラメータに関する値が上記ジェスチャを表現しているかをシグナリングする真または偽の出力を提供する、項目13に記載の方法。
[項目15]
上記ジェスチャの上記表現および上記時間を埋め込む段階は、メタデータデータ構造を上記エンコードされたビデオに追加する段階を有する、項目11に記載の方法。
[項目16]
上記メタデータデータ構造は、ジェスチャの上記表現が第1列に示され、対応する時間が同じ行の第2列に示されるテーブルである、項目15に記載の方法。
[項目17]
上記ジェスチャの上記表現および上記時間を埋め込む段階は、メタデータデータ構造を上記エンコードされたビデオに追加する段階を有し、
上記データ構造は、上記ビデオのフレームに対してエンコードしている1つのエントリを含む、
項目11に記載の方法。
[項目18]
上記エンコードされたビデオから上記ジェスチャの上記表現および上記時間を抽出する段階と、
上記ジェスチャの上記表現と、上記ビデオストリームのレンダリング中に得られた第2サンプルセットとを一致するか比較する段階と、
上記比較器からの上記一致するとの結果に応じて上記時間の上記エンコードされたビデオから上記ビデオストリームをレンダリングする段階と
を備える、項目11に記載の方法。
[項目19]
上記ジェスチャは、上記エンコードされたビデオ内の複数の種々のジェスチャのうち1つである、項目18に記載の方法。
[項目20]
上記ジェスチャは、上記ビデオ内にエンコードされた上記ジェスチャの複数の同じ上記表現のうち1つであり、
上記第2サンプルセットの等価物が得られた回数をカウンタによりトラッキングする段階を備え、
上記レンダリングする段階において、上記カウンタに基づき上記時間が選択された、
項目18に記載の方法。
[項目21]
新たなジェスチャに関するトレーニングセットのインディケーションをユーザインタフェースから受信する段階と、
上記インディケーションの受信に応じて、上記トレーニングセットに基づき第2ジェスチャの表現を作成する段階と
を備える、項目11に記載の方法。
[項目22]
ジェスチャ表現のライブラリを上記エンコードされたビデオ内にエンコードする段階を備え、
上記ライブラリは、上記ジェスチャと、上記新たなジェスチャと、対応する時間を上記エンコードされたビデオ内に有さないジェスチャとを含む、
項目21に記載の方法。
[項目23]
上記センサは第1デバイスの第1筐体内にあり、
上記受信機と上記エンコーダとは、第2デバイスの第2筐体内にあり、
上記第1デバイスと上記第2デバイスとは、両デバイスのオペレーション中に通信接続される、
項目11に記載の方法。
[項目24]
方法11から23のいずれかを実装する手段を備えるシステム。
[項目25]
マシンにより実行された場合に、方法11から23のいずれかを上記マシンに実施させる命令を備える少なくとも1つのマシン可読媒体。
Claims (25)
- システムであって、
カメラを有する第1デバイスと、
1または複数のセンサを有する第2デバイスであって、前記第2デバイスはウェアラブルデバイスであり、
前記1または複数のセンサに関連付けられたセンサデータに基づいてジェスチャを検出し、
前記ジェスチャとビデオブックマーク付けに関連付けられた予め定められた動作ジェスチャとが一致するか比較し、
前記ジェスチャと、前記ビデオブックマーク付けに関連付けられた前記予め定められた動作ジェスチャとが一致するとの結果に応じて、ビデオブックマークを、前記第1デバイスと前記第2デバイスとの間の無線接続を介して前記第1デバイスに通知する
ための前記第2デバイスと
を備え、
前記第1デバイスは
前記カメラを用いてビデオをキャプチャし、
前記第2デバイスが前記第1デバイスに前記ビデオブックマークを通知することに応じて、前記ビデオに関連付けられた1または複数のビデオの特徴に、前記ビデオのマーク付けされた部分を生成するためのマーク付けを行う
システム。 - 前記1または複数のセンサは、加速度計を有する
請求項1に記載のシステム。 - 前記1または複数のセンサは、ジャイロスコープを有する
請求項1または2に記載のシステム。 - 前記予め定められた動作ジェスチャは、前記ビデオブックマークの始まりに関連付けられる
請求項1から3のいずれか一項に記載のシステム。 - 前記1または複数のビデオの特徴は、前記ビデオの1または複数のビデオフレームを有する
請求項1から4のいずれか一項に記載のシステム。 - 前記ビデオに関連付けられた前記1または複数のビデオの特徴に前記ビデオの前記マーク付けされた部分を生成するためのマーク付けを行うことは、前記ジェスチャの表現を前記ビデオの前記1または複数のビデオフレーム内に埋め込むことを含む
請求項5に記載のシステム。 - マーク付けされた前記1または複数のビデオの特徴に基づいて前記ビデオの前記マーク付けされた部分を見つけ出し、前記ビデオの前記マーク付けされた部分を再生するための再生機を更に備える
請求項1から6のいずれか一項に記載のシステム。 - 前記ジェスチャは第1ジェスチャであり、前記予め定められた動作ジェスチャは第1の予め定められた動作ジェスチャであり、前記ビデオブックマークを前記第1デバイスに通知することは、前記ビデオブックマークの開始を前記第1デバイスに通知することを含み、前記第2デバイスが前記第1デバイスに前記ビデオブックマーク付けを通知することに応じて、前記ビデオに関連付けられた前記1または複数のビデオの特徴に前記ビデオの前記マーク付けされた部分を生成するためのマーク付けを行うことは、前記1または複数のビデオの特徴にマーク付けを始めることを含み、
前記第2デバイスは更に、
前記1または複数のセンサに関連付けられた前記センサデータに基づいて第2ジェスチャを検出し、
前記第2ジェスチャと、前記第1の予め定められた動作ジェスチャまたは前記ビデオブックマーク付けに関連付けられた第2の予め定められた動作ジェスチャとが一致するか比較し、
前記第1デバイスと前記第2デバイスとの間の無線接続を介して、前記ビデオブックマークの終わりを前記第1デバイスに通知し、
前記第1デバイスは更に、前記第2デバイスが前記第1デバイスに前記ビデオブックマークの前記終わりを通知することに応じて、前記ビデオに関連付けられた前記1または複数のビデオの特徴の前記マーク付けを停止する
請求項1から7のいずれか一項に記載のシステム。 - 方法であって、
第1デバイスのカメラを用いて前記第1デバイスでビデオをキャプチャする段階と、
ウェアラブルデバイスであり、1または複数のセンサを有する第2デバイスで、前記1または複数のセンサに関連付けられたセンサデータに基づいてジェスチャを検出する段階と、
前記第2デバイスで、前記ジェスチャとビデオブックマーク付けに関連付けられた予め定められた動作ジェスチャとが一致するか比較する段階と、
前記第2デバイスによって、前記第1デバイスと前記第2デバイスとの間の無線接続を介して、前記第1デバイスに、前記ジェスチャと前記ビデオブックマーク付けに関連付けられた前記予め定められた動作ジェスチャとが一致するとの結果に応じてビデオブックマークを通知する段階と、
前記第1デバイスで、前記第2デバイスが前記第1デバイスに前記ビデオブックマークを通知することに応じて、前記ビデオに関連付けられた1または複数のビデオの特徴に前記ビデオのマーク付けされた部分を生成するためのマーク付けを行う段階と
を備える、方法。 - 前記1または複数のセンサは、加速度計を有する
請求項9に記載の方法。 - 前記1または複数のセンサは、ジャイロスコープを有する
請求項9または10に記載の方法。 - 前記予め定められた動作ジェスチャは、前記ビデオブックマークの始まりに関連付けられる
請求項9から11のいずれか一項に記載の方法。 - 前記1または複数のビデオの特徴は、前記ビデオの1または複数のビデオフレームを有する
請求項9から12のいずれか一項に記載の方法。 - 前記ビデオに関連付けられた前記1または複数のビデオの特徴に前記ビデオの前記マーク付けされた部分を生成するためのマーク付けを行う段階は、前記ジェスチャの表現を前記ビデオの前記1または複数のビデオフレーム内に埋め込む段階を含む
請求項13に記載の方法。 - 再生機によって、マーク付けされた前記1または複数のビデオの特徴に基づいて前記ビデオの前記マーク付けされた部分を見つけ出す段階と、
前記再生機によって、前記ビデオの前記マーク付けされた部分を再生する段階と
をさらに備える、請求項9から14のいずれか一項に記載の方法。 - 前記ジェスチャは第1ジェスチャであり、前記予め定められた動作ジェスチャは第1の予め定められた動作ジェスチャであり、前記ビデオブックマークを前記第1デバイスに通知する前記段階は、前記ビデオブックマークの開始を前記第1デバイスに通知する段階を含み、前記第2デバイスが前記第1デバイスに前記ビデオブックマーク付けを通知することに応じて、前記ビデオに関連付けられた前記1または複数のビデオの特徴に前記ビデオの前記マーク付けされた部分を生成するためのマーク付けを行う前記段階は、前記1または複数のビデオの特徴にマーク付けを始める段階を含み、
前記方法は更に、
前記第2デバイスで、前記1または複数のセンサに関連付けられた前記センサデータに基づいて第2ジェスチャを検出する段階と、
前記第2デバイスで、前記第2ジェスチャと、前記第1の予め定められた動作ジェスチャまたは前記ビデオブックマーク付けに関連付けられた第2の予め定められた動作ジェスチャとが一致するか比較する段階と、
前記第2デバイスによって、前記第1デバイスと前記第2デバイスとの間の無線接続を介して、前記ビデオブックマークの終わりを前記第1デバイスに通知する段階と、
前記第1デバイスで、前記第2デバイスが前記第1デバイスに前記ビデオブックマークの前記終わりを通知することに応じて、前記ビデオに関連付けられた前記1または複数のビデオの特徴の前記マーク付けを停止する段階と
を備える、請求項9から15のいずれか一項に記載の方法。 - 1または複数のプログラムであって、
第1デバイスおよび第2デバイスにより実行されたとき、前記第1デバイスおよび前記第2デバイスに
前記第1デバイスのカメラを用いて前記第1デバイスでビデオをキャプチャさせ、
前記第2デバイスはウェアラブルデバイスであり、1または複数のセンサを有し、前記第2デバイスで、前記1または複数のセンサに関連付けられたセンサデータに基づいてジェスチャを検出させ、
前記第2デバイスで、前記ジェスチャとビデオブックマーク付けに関連付けられた予め定められた動作ジェスチャとが一致するか比較させ、
前記第2デバイスによって、前記第1デバイスと前記第2デバイスとの間の無線接続を介して、前記第1デバイスに、前記ジェスチャと前記ビデオブックマーク付けに関連付けられた前記予め定められた動作ジェスチャとが一致するとの結果に応じてビデオブックマークを通知させ、
前記第1デバイスで、前記第2デバイスが前記第1デバイスに前記ビデオブックマーク付けを通知することに応じて、前記ビデオに関連付けられた1または複数のビデオの特徴に前記ビデオのマーク付けされた部分を生成するためのマーク付けを行わせる
1または複数のプログラム。 - 前記1または複数のセンサは、加速度計を有する
請求項17に記載の1または複数のプログラム。 - 前記1または複数のセンサは、ジャイロスコープを有する
請求項17または18に記載の1または複数のプログラム。 - 前記予め定められた動作ジェスチャは、前記ビデオブックマークの始まりに関連付けられる
請求項17から19のいずれか一項に記載の1または複数のプログラム。 - 前記1または複数のビデオの特徴は、前記ビデオの1または複数のビデオフレームを有する
請求項17から20のいずれか一項に記載の1または複数のプログラム。 - 前記ビデオに関連付けられた前記1または複数のビデオの特徴に前記ビデオの前記マーク付けされた部分を生成するためのマーク付けを行うことは、前記ジェスチャの表現を前記ビデオの前記1または複数のビデオフレーム内に埋め込むことを含む
請求項21に記載の1または複数のプログラム。 - 前記プログラムは、実行されたとき更に、第3デバイスに
マーク付けされた前記1または複数のビデオの特徴に基づいて前記ビデオの前記マーク付けされた部分を見つけ出させ、
前記ビデオの前記マーク付けされた部分を再生させる
請求項17から22のいずれか一項に記載の1または複数のプログラム。 - 前記ジェスチャは第1ジェスチャであり、前記予め定められた動作ジェスチャは第1の予め定められた動作ジェスチャであり、前記ビデオブックマークを前記第1デバイスに通知することは、前記ビデオブックマークの開始を前記第1デバイスに通知することを含み、前記第2デバイスが前記第1デバイスに前記ビデオブックマーク付けを通知することに応じて、前記ビデオに関連付けられた前記1または複数のビデオの特徴に前記ビデオの前記マーク付けされた部分を生成するためのマーク付けを行うことは、前記1または複数のビデオの特徴にマーク付けを始めることを含み、
前記プログラムは、実行されたとき更に、前記第1デバイスおよび前記第2デバイスに
前記第2デバイスで、前記1または複数のセンサに関連付けられた前記センサデータに基づいて第2ジェスチャを検出させ、
前記第2デバイスで、前記第2ジェスチャと、前記第1の予め定められた動作ジェスチャまたは前記ビデオブックマーク付けに関連付けられた第2の予め定められた動作ジェスチャとが一致するか比較させ、
前記第2デバイスによって、前記第1デバイスに、前記ビデオブックマークの終わりを前記第1デバイスと前記第2デバイスとの間の無線接続を介して通知させ、
前記第1デバイスで、前記第2デバイスが前記第1デバイスに前記ビデオブックマークの前記終わりを通知することに応じて、前記ビデオに関連付けられた前記1または複数のビデオの特徴に前記ビデオの前記マーク付けされた部分を生成するための前記マーク付けを停止させる
請求項17から23のいずれか一項に記載の1または複数のプログラム。 - 請求項17から24のいずれか一項に記載の1または複数のプログラムを格納した、非一時的コンピュータ可読記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022020305A JP7393086B2 (ja) | 2016-06-28 | 2022-02-14 | ジェスチャ埋め込みビデオ |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2016/039791 WO2018004536A1 (en) | 2016-06-28 | 2016-06-28 | Gesture embedded video |
JP2018560756A JP7026056B2 (ja) | 2016-06-28 | 2016-06-28 | ジェスチャ埋め込みビデオ |
JP2022020305A JP7393086B2 (ja) | 2016-06-28 | 2022-02-14 | ジェスチャ埋め込みビデオ |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018560756A Division JP7026056B2 (ja) | 2016-06-28 | 2016-06-28 | ジェスチャ埋め込みビデオ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022084582A true JP2022084582A (ja) | 2022-06-07 |
JP7393086B2 JP7393086B2 (ja) | 2023-12-06 |
Family
ID=60787484
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018560756A Active JP7026056B2 (ja) | 2016-06-28 | 2016-06-28 | ジェスチャ埋め込みビデオ |
JP2022020305A Active JP7393086B2 (ja) | 2016-06-28 | 2022-02-14 | ジェスチャ埋め込みビデオ |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018560756A Active JP7026056B2 (ja) | 2016-06-28 | 2016-06-28 | ジェスチャ埋め込みビデオ |
Country Status (5)
Country | Link |
---|---|
US (1) | US20180307318A1 (ja) |
JP (2) | JP7026056B2 (ja) |
CN (1) | CN109588063B (ja) |
DE (1) | DE112016007020T5 (ja) |
WO (1) | WO2018004536A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213623A (ja) * | 2002-11-25 | 2004-07-29 | Eastman Kodak Co | 健康管理及び個人セキュリティのための画像生成方法、及び画像生成システム |
JP2016072673A (ja) * | 2014-09-26 | 2016-05-09 | カシオ計算機株式会社 | システム並びに装置、制御方法 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8223851B2 (en) * | 2007-11-23 | 2012-07-17 | Samsung Electronics Co., Ltd. | Method and an apparatus for embedding data in a media stream |
EP2890149A1 (en) * | 2008-09-16 | 2015-07-01 | Intel Corporation | Systems and methods for video/multimedia rendering, composition, and user-interactivity |
WO2012006356A2 (en) * | 2010-07-06 | 2012-01-12 | Mark Lane | Apparatus, system, and method for an improved video stream |
US9195345B2 (en) * | 2010-10-28 | 2015-11-24 | Microsoft Technology Licensing, Llc | Position aware gestures with visual feedback as input method |
US9251503B2 (en) * | 2010-11-01 | 2016-02-02 | Microsoft Technology Licensing, Llc | Video viewing and tagging system |
JP5906515B2 (ja) * | 2011-09-12 | 2016-04-20 | インテル・コーポレーション | ジェスチャーを用いてマルチメディアクリップを取り込むこと |
US9646313B2 (en) * | 2011-12-13 | 2017-05-09 | Microsoft Technology Licensing, Llc | Gesture-based tagging to view related content |
US9024958B2 (en) * | 2012-01-30 | 2015-05-05 | Lenovo (Singapore) Pte. Ltd. | Buffering mechanism for camera-based gesturing |
US9654762B2 (en) * | 2012-10-01 | 2017-05-16 | Samsung Electronics Co., Ltd. | Apparatus and method for stereoscopic video with motion sensors |
US8761448B1 (en) * | 2012-12-13 | 2014-06-24 | Intel Corporation | Gesture pre-processing of video stream using a markered region |
US9104240B2 (en) * | 2013-01-09 | 2015-08-11 | Intel Corporation | Gesture pre-processing of video stream with hold-off period to reduce platform power |
US9829984B2 (en) * | 2013-05-23 | 2017-11-28 | Fastvdo Llc | Motion-assisted visual language for human computer interfaces |
EP2849437B1 (en) * | 2013-09-11 | 2015-11-18 | Axis AB | Method and apparatus for selecting motion videos |
US20150187390A1 (en) * | 2013-12-30 | 2015-07-02 | Lyve Minds, Inc. | Video metadata |
WO2015131157A1 (en) * | 2014-02-28 | 2015-09-03 | Vikas Gupta | Gesture operated wrist mounted camera system |
EP2919458A1 (en) * | 2014-03-11 | 2015-09-16 | Axis AB | Method and system for playback of motion video |
JP6010062B2 (ja) * | 2014-03-17 | 2016-10-19 | 京セラドキュメントソリューションズ株式会社 | キューポイント制御装置およびキューポイント制御プログラム |
CN106104633A (zh) * | 2014-03-19 | 2016-11-09 | 英特尔公司 | 面部表情和/或交互驱动的化身装置和方法 |
US10356312B2 (en) * | 2014-03-27 | 2019-07-16 | Htc Corporation | Camera device, video auto-tagging method and non-transitory computer readable medium thereof |
CN104038717B (zh) * | 2014-06-26 | 2017-11-24 | 北京小鱼在家科技有限公司 | 一种智能录制系统 |
CN104581351A (zh) * | 2015-01-28 | 2015-04-29 | 上海与德通讯技术有限公司 | 音频或视频的录制方法及其播放方法、电子装置 |
-
2016
- 2016-06-28 WO PCT/US2016/039791 patent/WO2018004536A1/en active Application Filing
- 2016-06-28 DE DE112016007020.9T patent/DE112016007020T5/de active Pending
- 2016-06-28 JP JP2018560756A patent/JP7026056B2/ja active Active
- 2016-06-28 US US15/531,300 patent/US20180307318A1/en not_active Abandoned
- 2016-06-28 CN CN201680086211.9A patent/CN109588063B/zh active Active
-
2022
- 2022-02-14 JP JP2022020305A patent/JP7393086B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213623A (ja) * | 2002-11-25 | 2004-07-29 | Eastman Kodak Co | 健康管理及び個人セキュリティのための画像生成方法、及び画像生成システム |
JP2016072673A (ja) * | 2014-09-26 | 2016-05-09 | カシオ計算機株式会社 | システム並びに装置、制御方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2019527488A (ja) | 2019-09-26 |
CN109588063A (zh) | 2019-04-05 |
US20180307318A1 (en) | 2018-10-25 |
DE112016007020T5 (de) | 2019-03-21 |
WO2018004536A1 (en) | 2018-01-04 |
JP7026056B2 (ja) | 2022-02-25 |
CN109588063B (zh) | 2021-11-23 |
JP7393086B2 (ja) | 2023-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6716650B2 (ja) | 一人称視点でのディープラーニングベースのハンドジェスチャー認識のためのシステムおよび方法 | |
US9870798B2 (en) | Interactive real-time video editor and recorder | |
KR102091848B1 (ko) | 전자 장치에서 사용자의 감정 정보를 제공하기 위한 장치 및 방법 | |
US9779775B2 (en) | Automatic generation of compilation videos from an original video based on metadata associated with the original video | |
CN106463152B (zh) | 自动组织视频以适应显示时间 | |
RU2617691C2 (ru) | Автоматический цифровой сбор и маркировка динамичных видеоизображений | |
US20160080835A1 (en) | Synopsis video creation based on video metadata | |
CN108337532A (zh) | 演出片段的标注方法、视频播放方法、装置及系统 | |
US20160071549A1 (en) | Synopsis video creation based on relevance score | |
KR101304480B1 (ko) | 멀티미디어 컨텐츠 부호화방법 및 장치와, 부호화된멀티미디어 컨텐츠 응용방법 및 시스템 | |
KR101406843B1 (ko) | 멀티미디어 컨텐츠 부호화방법 및 장치와, 부호화된멀티미디어 컨텐츠 응용방법 및 시스템 | |
JP4289326B2 (ja) | 情報処理装置および方法、撮影装置、並びにプログラム | |
CN111726536A (zh) | 视频生成方法、装置、存储介质及计算机设备 | |
CN109640125B (zh) | 视频内容处理方法、装置、服务器及存储介质 | |
KR101345284B1 (ko) | 멀티미디어 컨텐츠 부호화/재생 방법 및 장치 | |
WO2014179749A1 (en) | Interactive real-time video editor and recorder | |
CN114637890A (zh) | 在图像画面中显示标签的方法、终端设备及存储介质 | |
US20140226955A1 (en) | Generating a sequence of video clips based on meta data | |
US20180232384A1 (en) | Methods and apparatus for information capture and presentation | |
CN114080258B (zh) | 一种运动模型生成方法及相关设备 | |
CN111563879B (zh) | 一种应用画面显示质量的检测方法及装置 | |
JP7026056B2 (ja) | ジェスチャ埋め込みビデオ | |
CN114079730A (zh) | 一种拍摄方法和拍摄系统 | |
JP2009211341A (ja) | 画像の表示方法およびその表示装置 | |
WO2015127385A1 (en) | Automatic generation of compilation videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7393086 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |