JP6498674B2 - マルチメディア資産の中のオブジェクトを注釈付けするための方法 - Google Patents
マルチメディア資産の中のオブジェクトを注釈付けするための方法 Download PDFInfo
- Publication number
- JP6498674B2 JP6498674B2 JP2016540648A JP2016540648A JP6498674B2 JP 6498674 B2 JP6498674 B2 JP 6498674B2 JP 2016540648 A JP2016540648 A JP 2016540648A JP 2016540648 A JP2016540648 A JP 2016540648A JP 6498674 B2 JP6498674 B2 JP 6498674B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- detector model
- multimedia
- region
- multimedia asset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 29
- 239000012634 fragment Substances 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 19
- 230000011218 segmentation Effects 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000007726 management method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000007619 statistical method Methods 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000012800 visualization Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 201000011243 gastrointestinal stromal tumor Diseases 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 3
- 241000405217 Viola <butterfly> Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000284212 Euproctis actor Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/87—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
- H04N21/8586—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
マルチメディア資産の中のオブジェクトを注釈付けするための方法であって、前記マルチメディア資産が、少なくとも1つのフレームを含む、方法によって達成され、前記方法が:
− 前記オブジェクトを分類することにより、前記マルチメディア資産の画像の中の前記オブジェクトのカテゴリを決定するステップと、
− 前記オブジェクトの前記カテゴリに基づいて、前記カテゴリと関連付けられる少なくとも1つのオブジェクト検出器モデルから適切なオブジェクト検出器モデルを選定するステップと、
− 選定された前記オブジェクト検出器モデルに基づいて、前記マルチメディア資産の前記画像の中の前記オブジェクトの場所を決定するステップであって、前記オブジェクト検出器モデルが、前記オブジェクトに対応する、決定するステップと、
− 前記画像内の前記オブジェクトの前記場所に基づいて、および任意選択で、前記オブジェクト検出器に基づいて、前記マルチメディア資産の前記フレームの中の検出された前記オブジェクトをセグメント化するステップと、
− 前記フレームの中のセグメント化されている前記オブジェクトをハイパーリンクで注釈付けするステップと
を含む。
− 前記オブジェクトを分類することにより、前記マルチメディア資産の画像の中の前記オブジェクトのカテゴリを決定するように構成されているカテゴリ化手段と、
− 前記オブジェクトの前記カテゴリに基づいて、適切なオブジェクト検出器モデルを選定するように構成されているモデル管理手段と、
− 選定された前記オブジェクト検出器モデルに基づいて、前記マルチメディア資産の前記画像の中の前記オブジェクトの場所を決定するように構成されているオブジェクト検出手段であって、前記オブジェクト検出器モデルが、前記オブジェクトに対応する、オブジェクト検出手段と、
− 前記フレーム内の前記オブジェクトの前記場所に基づいて、および任意選択で、前記オブジェクト検出器に基づいて、前記マルチメディア資産の前記画像の中の前記オブジェクトをセグメント化するように構成されているオブジェクトセグメント化手段と、
− 前記画像内のセグメント化されている前記オブジェクトをハイパーリンクで注釈付けするように構成されているオブジェクト注釈付け手段と
を備える。
http://en.wikipedia.org/wiki/Viola%E2%80%93Jones_object_detection_framework
− 前記オブジェクトの少なくとも1つのフラグメントを含んだ前記フレームまたは画像の領域を選定することであって、前記オブジェクトが、カテゴリと関連付けられる、選定することと、
− 前記オブジェクトの少なくとも前記フラグメントを含んだ前記画像またはフレームの前記領域の中の前記画像に関する情報に基づいて、オブジェクト検出器モデルを抽出することであって、前記領域の中の前記画像に関する前記情報が、前記オブジェクト検出手段ODMから得られる、抽出することと
を行うようにさらに構成されている。
Claims (9)
- マルチメディア資産の中のオブジェクトを注釈付けするための方法であって、前記マルチメディア資産が、少なくとも1つの画像を含み、前記方法が、
− 前記オブジェクトを分類することにより、前記マルチメディア資産の画像の中の前記オブジェクトのカテゴリを決定するステップと、
− 前記オブジェクトの前記カテゴリに基づいて、前記カテゴリと関連付けられる少なくとも1つのオブジェクト検出器モデルから適切なオブジェクト検出器モデルを選定するステップと、
− 選定された前記オブジェクト検出器モデルに基づいて、前記マルチメディア資産の前記画像の中の前記オブジェクトの場所を決定するステップであって、前記オブジェクト検出器モデルが、前記オブジェクトに対応する、決定するステップと、
− 前記画像内の前記オブジェクトの前記場所に基づいて、および任意選択で、前記選定されたオブジェクト検出器モデルに基づいて、前記マルチメディア資産の前記画像の中の検出された前記オブジェクトをセグメント化するステップと、
− 前記画像の中のセグメント化されている前記オブジェクトを、ハイパーリンクにより、かつ、セグメント化されている前記オブジェクトを提示するための条件を加えることにより、注釈付けするステップと
を含む、方法。 - − 前記オブジェクトの少なくともフラグメントを含んだ前記画像の領域を選定するステップと、
− 前記オブジェクトの少なくとも前記フラグメントを含んだ前記画像の前記領域の中の画像情報に基づいて、オブジェクト検出器モデルを抽出するステップであって、前記領域の中の前記画像が、選定された前記オブジェクト検出器モデルに基づいて、前記マルチメディア資産の前記画像の中の前記オブジェクトの場所を決定する前記ステップ中に得られる、抽出するステップと
をさらに含む、請求項1に記載の方法。 - 前記オブジェクトの少なくともフラグメントを含んだ前記画像の領域を検出するステップと、
前記オブジェクトの少なくとも前記フラグメントを含んだ前記画像の前記領域から抽出される画像情報に基づいて、前記オブジェクトに対応する前記選定されたオブジェクト検出器モデルをトレーニングするステップとをさらに含む、請求項1または2に記載の方法。 - 前記マルチメディア資産の複数の画像のうちのそれぞれの画像の中の前記オブジェクトの前記場所を追跡するステップをさらに含む、請求項1から3のいずれか一項に記載の方法。
- 前記ハイパーリンクが、URLであり、代替として、前記画像にオーバーレイで追加の情報を表示することである、請求項1に記載の方法。
- マルチメディア資産の中のオブジェクトを注釈付けするためのマルチメディア注釈付けデバイス(MAD)であって、前記マルチメディア資産が、少なくとも1つの画像を含み、前記マルチメディア注釈付けデバイス(MAD)が、
− 前記オブジェクトを分類することにより、前記マルチメディア資産の画像の中の前記オブジェクトのカテゴリを決定するように構成されたカテゴリ化手段(CM)と、
− 前記オブジェクトの前記カテゴリに基づいて、適切なオブジェクト検出器モデルを選定するように構成されたモデル管理手段(MSM)と、
− 選定された前記オブジェクト検出器モデルに基づいて、前記マルチメディア資産の前記画像の中の前記オブジェクトの場所を決定するように構成されたオブジェクト検出手段(ODM)であって、前記オブジェクト検出器モデルが、前記オブジェクトに対応する、オブジェクト検出手段(ODM)と、
− 前記画像内の前記オブジェクトの前記場所に基づいて、および任意選択で、前記選定されたオブジェクト検出器モデルに基づいて、前記マルチメディア資産の前記画像の中の前記オブジェクトをセグメント化するように構成されたオブジェクトセグメント化手段(OSM)と、
− 前記画像内のセグメント化されている前記オブジェクトを、ハイパーリンクにより、かつ、セグメント化されている前記オブジェクトを提示するための条件を加えることにより、注釈付けするように構成されたオブジェクト注釈付け手段(OAM)と
を備える、マルチメディア注釈付けデバイス(MAD)。 - 前記モデル管理手段(MSM)が、
− 前記オブジェクトの少なくとも1つのフラグメントを含んだ前記画像の領域を選定することであって、前記オブジェクトが、カテゴリと関連付けられる、選定することと、
− 前記オブジェクトの少なくとも前記フラグメントを含んだ前記画像の前記領域の中の前記画像に関する情報に基づいて、オブジェクト検出器モデルを抽出することであって、前記領域の中の前記画像に関する前記情報が、前記オブジェクト検出手段(ODM)から得られる、抽出することと
を行うようにさらに構成されている、請求項6に記載のマルチメディア注釈付けデバイス(MAD)。 - 前記モデル管理手段(MSM)が、
− 前記オブジェクトの少なくとも1つのフラグメントを含んだ前記画像の領域を検出し、
− 前記オブジェクトの少なくとも前記フラグメントを含んだ前記画像の前記領域から抽出される画像情報に基づいて、前記オブジェクトに対応する前記選定されたオブジェクト検出器モデルをトレーニングする
ようにさらに構成されている、請求項6または7に記載のマルチメディア注釈付けデバイス(MAD)。 - 請求項6から8のいずれか一項に記載のマルチメディア注釈付けデバイス(MAD)を備えるデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP13306744.7A EP2887259A1 (en) | 2013-12-17 | 2013-12-17 | Method for annotating an object in a multimedia asset |
EP13306744.7 | 2013-12-17 | ||
PCT/EP2014/077333 WO2015091192A1 (en) | 2013-12-17 | 2014-12-11 | Method for annotating an object in a multimedia asset |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016540320A JP2016540320A (ja) | 2016-12-22 |
JP6498674B2 true JP6498674B2 (ja) | 2019-04-10 |
Family
ID=50031119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016540648A Expired - Fee Related JP6498674B2 (ja) | 2013-12-17 | 2014-12-11 | マルチメディア資産の中のオブジェクトを注釈付けするための方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9866894B2 (ja) |
EP (1) | EP2887259A1 (ja) |
JP (1) | JP6498674B2 (ja) |
WO (1) | WO2015091192A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180011828A1 (en) * | 2016-07-08 | 2018-01-11 | Yen4Ken, Inc | Method and system for recommending multimedia segments in multimedia content for annotation |
US10691969B2 (en) * | 2017-11-06 | 2020-06-23 | EagleSens Systems Corporation | Asynchronous object ROI detection in video mode |
KR101866363B1 (ko) * | 2017-11-24 | 2018-06-12 | 공간정보기술 주식회사 | 사용자 기반 조건에 따른 3차원(3d) 모델링 생성과 제공 시스템 |
CN108446722B (zh) * | 2018-03-06 | 2021-04-30 | 中国船舶重工集团公司第七二四研究所 | 一种基于雷达视频数据分布特征的目标长效稳定跟踪方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008067139A (ja) | 2006-09-08 | 2008-03-21 | Softbank Telecom Corp | 映像コンテンツ配信システム、配信方法、および、コンテンツ供給サーバ |
US8170392B2 (en) * | 2007-11-21 | 2012-05-01 | Shlomo Selim Rakib | Method and apparatus for generation, distribution and display of interactive video content |
US9195898B2 (en) * | 2009-04-14 | 2015-11-24 | Qualcomm Incorporated | Systems and methods for image recognition using mobile devices |
JP2011059898A (ja) * | 2009-09-08 | 2011-03-24 | Fujifilm Corp | 画像解析装置、画像解析方法およびプログラム |
US9158971B2 (en) * | 2014-03-03 | 2015-10-13 | Xerox Corporation | Self-learning object detectors for unlabeled videos using multi-task learning |
-
2013
- 2013-12-17 EP EP13306744.7A patent/EP2887259A1/en not_active Withdrawn
-
2014
- 2014-12-11 WO PCT/EP2014/077333 patent/WO2015091192A1/en active Application Filing
- 2014-12-11 US US15/105,868 patent/US9866894B2/en not_active Expired - Fee Related
- 2014-12-11 JP JP2016540648A patent/JP6498674B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US9866894B2 (en) | 2018-01-09 |
WO2015091192A1 (en) | 2015-06-25 |
EP2887259A1 (en) | 2015-06-24 |
US20160323627A1 (en) | 2016-11-03 |
JP2016540320A (ja) | 2016-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10642892B2 (en) | Video search method and apparatus | |
EP3267362B1 (en) | Machine learning image processing | |
US10742340B2 (en) | System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto | |
US10621755B1 (en) | Image file compression using dummy data for non-salient portions of images | |
CN113010703B (zh) | 一种信息推荐方法、装置、电子设备和存储介质 | |
US10311913B1 (en) | Summarizing video content based on memorability of the video content | |
US9087242B2 (en) | Video synthesis using video volumes | |
CN110446063B (zh) | 视频封面的生成方法、装置及电子设备 | |
EP2568429A1 (en) | Method and system for pushing individual advertisement based on user interest learning | |
JP6498674B2 (ja) | マルチメディア資産の中のオブジェクトを注釈付けするための方法 | |
Wong et al. | Smartannotator an interactive tool for annotating indoor rgbd images | |
CN111783712A (zh) | 一种视频处理方法、装置、设备及介质 | |
JP6787831B2 (ja) | 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法 | |
KR20220000758A (ko) | 영상 검출 장치 및 그 동작 방법 | |
US10163036B2 (en) | System and method of analyzing images using a hierarchical set of models | |
CN114064974A (zh) | 信息处理方法、装置、电子设备、存储介质及程序产品 | |
de Abreu et al. | Toward content-driven intelligent authoring of mulsemedia applications | |
CN105324787A (zh) | 用户的基于手势的广告简档 | |
CN115935049A (zh) | 基于人工智能的推荐处理方法、装置及电子设备 | |
CN117112814A (zh) | 虚假媒体内容挖掘及识别系统及其识别方法 | |
CN112052352A (zh) | 视频排序方法、装置、服务器及存储介质 | |
CN111739649A (zh) | 一种用户画像捕捉方法、装置及系统 | |
CN112233054B (zh) | 基于关系三元组的人-物交互图像生成方法 | |
KR20230051995A (ko) | 실감형 확장현실 콘텐츠 관리 플랫폼 | |
CN113705154A (zh) | 基于视频的内容交互方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160815 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190313 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6498674 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |