JP6092527B2 - ユーザ凝視データに基づいた時空間データのセグメント化 - Google Patents
ユーザ凝視データに基づいた時空間データのセグメント化 Download PDFInfo
- Publication number
- JP6092527B2 JP6092527B2 JP2012114262A JP2012114262A JP6092527B2 JP 6092527 B2 JP6092527 B2 JP 6092527B2 JP 2012114262 A JP2012114262 A JP 2012114262A JP 2012114262 A JP2012114262 A JP 2012114262A JP 6092527 B2 JP6092527 B2 JP 6092527B2
- Authority
- JP
- Japan
- Prior art keywords
- segmentation
- frame
- interest
- region
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Description
Claims (16)
- 時空間データを複数のフレームとして見ているユーザの目の動きをモニタすることによって生成された凝視データを受信するように構成された受信ユニットであって、前記凝視データは、フレーム全体にわたるユーザの凝視に基づく固定位置を含む、受信ユニットと、
固定位置に基づいて前記フレーム中から第1のフレームと第2のフレームを選択するように構成された選択ユニットと、
前記第1および第2のフレームに関連した興味ある領域に基づいて、前記第1および第2のフレームから第1および第2のオブジェクトをそれぞれ特定するために、前記第1および第2のフレームにセグメント化を実施するように構成されたセグメント化ユニットであって、前記興味ある領域は前記固定位置を取り囲む領域である、セグメント化ユニットと、
前記第1および第2のオブジェクトがユーザに対して特定されたセグメント化タスクに関連するか否かを決定するように構成された決定ユニットと、および
前記第1および第2のオブジェクトが前記セグメント化タスクに関連すると決定された場合に、前記第1のオブジェクトを前記第2のオブジェクトに関連させる関連データを生成するように構成された生成ユニットと、を備える、セグメント化装置。 - 請求項1に記載の装置において、
前記受信ユニットは、それぞれがユーザの凝視の期間を示す継続時間を含む複数の固定位置候補を含む凝視データを受信するように構成されており、さらに
前記固定位置は、閾値よりも長い継続時間を有する固定位置候補である、セグメント化装置。 - 請求項2に記載の装置において、前記第1および第2のフレームは、前記固定位置の1個の継続時間の間に表示されたフレームである、セグメント化装置。
- 請求項2に記載の装置において、前記興味ある領域の面積が前記固定位置の前記継続時間によって決定され、さらに、
前記興味ある領域の面積は前記固定位置の前記継続時間が増加すると減少する、セグメント化装置。 - 請求項1に記載の装置において、前記セグメント化ユニットは、
第1の場所に位置する興味ある領域によって前記第1のフレームをセグメント化し、さらに、
前記第1の場所とは異なる場所である第2の場所に位置する興味ある領域によって前記第2のフレームをセグメント化することよって、前記セグメント化を実施するように構成されている、セグメント化装置。 - 請求項5に記載の装置において、
前記固定位置は第1および第2の固定位置を含み、さらに、
前記第1の場所は前記第1の固定位置を取り囲む領域であり、且つ、前記第2の場所は前記第2の固定位置を取り囲む領域である、セグメント化装置。 - 請求項1に記載の装置において、前記セグメント化ユニットは、同じ場所に位置する興味ある領域によって前記第1および第2のフレームをセグメント化することにより、前記セグメント化を実施する、セグメント化装置。
- 請求項1に記載の装置において、前記セグメント化ユニットは、前記第2のフレームをセグメント化するために使用される興味ある領域の面積が、前記第1のフレームをセグメント化するために使用される興味ある領域の面積よりも小さくなるように、前記第2のフレームをセグメント化するために使用される興味ある領域の面積を調整することによって、前記セグメント化を実施する、セグメント化装置。
- 請求項1に記載の装置において、前記セグメント化ユニットは、前記第2のフレームをセグメント化するために使用される興味ある領域の面積が前記第1のオブジェクトのサイズに基づくように、前記第2のフレームをセグメント化するために使用される興味ある領域の面積を調整することによって、前記セグメント化を実施する、セグメント化装置。
- 請求項1に記載の装置において、前記セグメント化ユニットは、
前記第1のオブジェクトが前記セグメント化タスクに関連しないと前記決定ユニットが決定したことに応答して、前記第1のフレームの興味ある領域を初期面積から縮小された面積まで縮小し、さらに、
前記第1のオブジェクトが前記セグメント化タスクに関連しないと前記決定ユニットが決定したことに応答して、前記縮小された面積を有する前記興味ある領域に基づいて、第3のオブジェクトをセグメント化するために、前記第1のフレームをセグメント化する、セグメント化装置。 - 請求項1に記載の装置において、
前記セグメント化ユニットは、オブジェクト認識アルゴリズムを前記第1おおび第2のフレームに適用することによって、セグメント化を実施し、さらに、
前記生成ユニットは、前記オブジェクト認識アルゴリズムの出力に基づいて前記関連データを生成し、ここで前記オブジェクト認識アルゴリズムの出力は前記第1および第2のオブジェクトのタイプまたはクラスおよび位置データを含む、セグメント化装置。 - 請求項1に記載の装置において、前記複数のフレームは、ライダーまたは別の飛行時間型センサによって提供されるデータから生成される、セグメント化装置。
- 請求項1に記載の装置において、
前記セグメント化ユニットは、前記第1および第2のオブジェクトのタイプまたはクラスをそれぞれ特定するために、前記第1および第2のオブジェクトの特徴を分析することによって、セグメント化を実施し、さらに、
前記決定ユニットは、前記第1および第2のオブジェクトのそれぞれのタイプまたはクラスが、セグメント化タスクに関連した既定のタイプまたはクラスであるとして特定された場合、前記第1および第2のオブジェクトが前記セグメント化タスクに関連すると決定する、セグメント化装置。 - 時空間データを複数のフレームとしてみているユーザの目の動きをモニタすることによって生成された凝視データを受信する手段であって、前記凝視データは、フレーム全体にわたるユーザの凝視に基づく固定位置を含む、受信する手段と、
前記固定位置に基づいて、前記フレームの第1のフレームと第2のフレームを選択する手段と、
前記第1および第2のフレームに関連する興味ある領域に基づいて、前記第1および第2のフレームからそれぞれ第1および第2のオブジェクトを特定するために、前記第1および第2のフレームにセグメント化を実施する手段であって、前記興味ある領域は前記固定位置を取り囲む領域である、セグメント化を実施する手段と、
前記第1および第2のオブジェクトが、ユーザに対して特定されたセグメント化タスクに関連しているか否かを決定する手段と、さらに、
前記第1および第2のオブジェクトが前記セグメント化タスクに関連すると決定された場合に、前記第1のオブジェクトを前記第2のオブジェクトに関連させるための関連データを生成する手段と、を備えるセグメント化装置。 - ユーザに対してセグメント化タスクを特定し、
時空間データを複数のフレームとして見ているユーザの目の動きをモニタすることによって生成された凝視データであって、前記フレーム全体にわたるユーザの凝視に基づく固定位置を含む、凝視データを受信し、
前記固定位置に基づいて、前記フレームの第1および第2のフレームを選択し、
前記第1および第2のフレームに関連する興味ある領域であって、前記固定位置を取り囲む興味ある領域に基づいて、前記第1および第2のフレームからそれぞれ第1および第2のオブジェクトを特定するために、前記第1および第2のフレーム上でセグメント化を実施し、
前記第1および第2のオブジェクトが、前記セグメント化タスクに関連するか否かを決定し、さらに、
前記第1および第2のオブジェクトが前記セグメント化タスクに関連すると決定された場合に、前記第1のオブジェクトを前記第2のオブジェクトに関連させるための関連データを生成する、方法。 - プロセッサによって実行された場合、前記プロセッサに請求項15に記載の方法を実行させるための命令が符号化されている、持続性のコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/219,251 | 2011-08-26 | ||
US13/219,251 US8379981B1 (en) | 2011-08-26 | 2011-08-26 | Segmenting spatiotemporal data based on user gaze data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013045445A JP2013045445A (ja) | 2013-03-04 |
JP6092527B2 true JP6092527B2 (ja) | 2017-03-08 |
Family
ID=46045721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012114262A Expired - Fee Related JP6092527B2 (ja) | 2011-08-26 | 2012-05-18 | ユーザ凝視データに基づいた時空間データのセグメント化 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8379981B1 (ja) |
EP (1) | EP2562684A3 (ja) |
JP (1) | JP6092527B2 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120288140A1 (en) * | 2011-05-13 | 2012-11-15 | Carnegie Mellon University | Method and system for selecting a video analysis method based on available video representation features |
US9111351B2 (en) * | 2011-12-15 | 2015-08-18 | Sony Corporation | Minimizing drift using depth camera images |
US9996150B2 (en) * | 2012-12-19 | 2018-06-12 | Qualcomm Incorporated | Enabling augmented reality using eye gaze tracking |
EP2940985A4 (en) * | 2012-12-26 | 2016-08-17 | Sony Corp | IMAGE PROCESSING DEVICE, AND IMAGE PROCESSING METHOD AND PROGRAM |
US9367117B2 (en) * | 2013-08-29 | 2016-06-14 | Sony Interactive Entertainment America Llc | Attention-based rendering and fidelity |
WO2015072604A1 (ko) * | 2013-11-15 | 2015-05-21 | 엘지전자(주) | 투명 디스플레이 장치와 그의 제어방법 |
US9760779B2 (en) | 2014-03-20 | 2017-09-12 | Sony Corporation | Generating trajectory data for video data |
WO2016029939A1 (en) * | 2014-08-27 | 2016-03-03 | Metaio Gmbh | Method and system for determining at least one image feature in at least one image |
WO2016080873A1 (en) * | 2014-11-18 | 2016-05-26 | Telefonaktiebolaget L M Ericsson (Publ) | Method and apparatus for video processing based on physiological data |
CN109491508B (zh) * | 2018-11-27 | 2022-08-26 | 北京七鑫易维信息技术有限公司 | 一种确定注视对象的方法和装置 |
CN109741338A (zh) * | 2018-12-13 | 2019-05-10 | 北京爱奇艺科技有限公司 | 一种人脸分割方法、装置及设备 |
CN110348296B (zh) * | 2019-05-30 | 2022-04-12 | 北京市遥感信息研究所 | 一种基于人机融合的目标识别方法 |
US11490968B2 (en) * | 2020-07-29 | 2022-11-08 | Karl Storz Se & Co. Kg | Devices, systems, and methods for labeling objects of interest during a medical procedure |
CN112906594B (zh) * | 2021-03-03 | 2022-06-03 | 杭州海康威视数字技术股份有限公司 | 一种布防区域生成方法、装置、设备及存储介质 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3724859B2 (ja) * | 1995-10-16 | 2005-12-07 | 富士通株式会社 | 画像表示システム |
JPH10320109A (ja) * | 1997-05-19 | 1998-12-04 | Canon Inc | 表示装置、拡大表示支援方法、および音声化支援方法 |
JPH11288341A (ja) * | 1998-04-01 | 1999-10-19 | Canon Inc | ナビゲーション装置及び方法 |
AUPP603798A0 (en) | 1998-09-18 | 1998-10-15 | Canon Kabushiki Kaisha | Automated image interpretation and retrieval system |
US20020176604A1 (en) | 2001-04-16 | 2002-11-28 | Chandra Shekhar | Systems and methods for determining eye glances |
US20050018911A1 (en) | 2003-07-24 | 2005-01-27 | Eastman Kodak Company | Foveated video coding system and method |
JP4720107B2 (ja) | 2004-05-27 | 2011-07-13 | 日産自動車株式会社 | ドライバモデルおよび同モデルを備えた車両挙動制御システムのアシスト機能評価装置 |
US8155446B2 (en) | 2005-11-04 | 2012-04-10 | Eyetracking, Inc. | Characterizing dynamic regions of digital media data |
WO2007089198A1 (en) * | 2006-02-01 | 2007-08-09 | Tobii Technology Ab | Generation of graphical feedback in a computer system |
US8406457B2 (en) | 2006-03-15 | 2013-03-26 | Omron Corporation | Monitoring device, monitoring method, control device, control method, and program |
KR100820639B1 (ko) | 2006-07-25 | 2008-04-10 | 한국과학기술연구원 | 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법 |
US8358840B2 (en) | 2007-07-16 | 2013-01-22 | Alexander Bronstein | Methods and systems for representation and matching of video content |
US20090290753A1 (en) | 2007-10-11 | 2009-11-26 | General Electric Company | Method and system for gaze estimation |
JP4735676B2 (ja) | 2008-08-06 | 2011-07-27 | 株式会社デンソー | 走行支援装置 |
US20100054526A1 (en) | 2008-09-03 | 2010-03-04 | Dean Eckles | Method, apparatus and computer program product for providing gaze information |
US9683853B2 (en) | 2009-01-23 | 2017-06-20 | Fuji Xerox Co., Ltd. | Image matching in support of mobile navigation |
US8175376B2 (en) | 2009-03-09 | 2012-05-08 | Xerox Corporation | Framework for image thumbnailing based on visual similarity |
US8384532B2 (en) | 2009-04-02 | 2013-02-26 | GM Global Technology Operations LLC | Lane of travel on windshield head-up display |
US9507418B2 (en) * | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
-
2011
- 2011-08-26 US US13/219,251 patent/US8379981B1/en not_active Expired - Fee Related
-
2012
- 2012-03-26 EP EP12161241.0A patent/EP2562684A3/en not_active Ceased
- 2012-05-18 JP JP2012114262A patent/JP6092527B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP2562684A2 (en) | 2013-02-27 |
EP2562684A3 (en) | 2013-08-28 |
US8379981B1 (en) | 2013-02-19 |
US20130051612A1 (en) | 2013-02-28 |
JP2013045445A (ja) | 2013-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6092527B2 (ja) | ユーザ凝視データに基づいた時空間データのセグメント化 | |
CN110737266B (zh) | 一种自动驾驶控制方法、装置、车辆和存储介质 | |
JP2021504856A (ja) | 前方衝突制御方法および装置、電子機器、プログラムならびに媒体 | |
US20190374151A1 (en) | Focus-Based Tagging Of Sensor Data | |
US8831281B2 (en) | Summary view of video objects sharing common attributes | |
Zakaria et al. | Lane detection in autonomous vehicles: A systematic review | |
KR20200110702A (ko) | 기본 미리 보기 영역 및 시선 기반 운전자 주의 산만 검출 | |
US20150116493A1 (en) | Method and system for estimating gaze direction of vehicle drivers | |
US20130120125A1 (en) | Method and system for lane departure warning | |
CN104408743A (zh) | 图像分割方法和装置 | |
US11995878B2 (en) | Method of processing information from an event-based sensor | |
KR20190062184A (ko) | 보행자 상태 기반의 보행자와 차량간 충돌 경고 시스템 및 그 방법 | |
US9280703B2 (en) | Apparatus and method for tracking hand | |
CN111091038A (zh) | 训练方法、计算机可读介质和检测消失点的方法及装置 | |
CN109034136A (zh) | 图像处理方法、装置、摄像设备及存储介质 | |
CN111989915B (zh) | 用于图像中的环境的自动视觉推断的方法、介质、及系统 | |
CN110832497A (zh) | 用于自治系统的对象过滤和统一表示形式的系统和方法 | |
CN111178286B (zh) | 姿态轨迹预测方法、装置及电子设备 | |
JP6255944B2 (ja) | 画像解析装置、画像解析方法及び画像解析プログラム | |
US8588583B2 (en) | Systems and methods for interactive video frame selection | |
Azimjonov et al. | Vision-based vehicle tracking on highway traffic using bounding-box features to extract statistical information | |
CN111950339A (zh) | 视频处理 | |
US20120189161A1 (en) | Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus | |
Aditya et al. | Collision detection: An improved deep learning approach using SENet and ResNext | |
KR101492366B1 (ko) | 차량 사고 감지 방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160517 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6092527 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |