WO2022195969A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- WO2022195969A1 WO2022195969A1 PCT/JP2021/043868 JP2021043868W WO2022195969A1 WO 2022195969 A1 WO2022195969 A1 WO 2022195969A1 JP 2021043868 W JP2021043868 W JP 2021043868W WO 2022195969 A1 WO2022195969 A1 WO 2022195969A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- imaging device
- moving object
- information
- information processing
- imaging devices
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 92
- 238000003672 processing method Methods 0.000 title description 4
- 238000003384 imaging method Methods 0.000 claims abstract description 353
- 238000005259 measurement Methods 0.000 claims abstract description 30
- 238000012545 processing Methods 0.000 claims description 93
- 238000001514 detection method Methods 0.000 claims description 40
- 238000012937 correction Methods 0.000 claims description 34
- 238000006243 chemical reaction Methods 0.000 claims description 32
- 230000010354 integration Effects 0.000 claims description 29
- 230000008859 change Effects 0.000 claims description 22
- 238000000034 method Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 12
- 230000001360 synchronised effect Effects 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 9
- 238000012935 Averaging Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000036544 posture Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 210000000746 body region Anatomy 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Definitions
- the clocks built into the multiple imaging devices may be synchronized. For example, when generating a wider image by integrating images captured by each of a plurality of imaging devices, by synchronizing the times of the plurality of captured images, the captured images acquired by each of the plurality of imaging devices can be seamlessly integrated. Also, when images captured by multiple imaging devices are sequentially switched in chronological order for live video distribution, etc., by sharing a genlock (generator locking) signal and matching the scanning timing of multiple imaging devices, multiple images can be captured. Synchronization of times of captured images is performed.
- each of the plurality of imaging devices is based on the velocity information included in the distance measurement information of the corresponding moving object measured using the light whose frequency is continuously modulated by each of the plurality of imaging devices.
- an information processing device that synchronizes the time of
- the light emitted from the light source 10 is, for example, infrared rays or near-infrared rays. That is, the distance measuring device 1 may be LiDAR (Light Detection and Raging).
- FMCW-LiDAR Radio Detection and Raging
- FMCW-Radar Radio Detection and Raging
- FMCW-LiDAR is more suitable as a continuous frequency modulation rangefinder. .
- the still object processing unit 150 extracts feature points in the still object region of the captured image and acquires the depth of the extracted feature points. If the depth of the extracted feature point is not measured by a distance measuring device, the stationary object processing unit 150 may obtain the depth of the feature point by interpolating the depth image. Feature points to be extracted may be corners of the outline of a stationary object existing in the stationary object region.
- FIG. 5A and 5B are schematic diagrams for explaining the operation of the moving object processing units 160 and 260.
- FIG. 5A and 5B are schematic diagrams for explaining the operation of the moving object processing units 160 and 260.
- the velocity is measured by the Doppler effect, so the velocity of the velocity component on the equidistant plane is not detected from the rangefinder, and the user approaches or leaves the rangefinder. Only directional velocity is detected.
- the moving object processing unit 260 can derive the representative velocity norm 510B by averaging the velocities from the moving object region including the pedestrian 510 on the captured image 211. . Further, the moving object processing unit 260 can derive a representative velocity norm 520B by averaging the velocities from the moving object region including the pedestrian 520 on the captured image 211 .
- the representative velocity norms 510B and 520B are the velocity component V2 in the direction perpendicular to the imaging plane of the second imaging device 200 in the true velocity V of the moving object.
- a range finder that uses continuously frequency-modulated light measures velocity by the Doppler effect, so velocity components on a plane equidistant from the range finder are not detected. Only velocity is detected.
- pedestrians 510 and 520, roadside trees 530, and buildings 540 and 550 are present as objects in the outside world.
- pedestrians 510 and 520 are recognized as moving objects
- roadside trees 530 and buildings 540 and 550 are recognized as stationary objects.
- the relative orientation detection unit 310 derives the depth of the derived feature point by performing interpolation or the like from the depth image. Furthermore, the relative orientation detection unit 310 uses the coordinates and depth of the feature points corresponding to each other in each of the captured images and the camera parameters of the first imaging device 100 and the second imaging device 200 to obtain the The relative orientations of the first imaging device 100 and the second imaging device 200 can be derived. Derivation of the relative attitude using these information is a so-called PnP (Perspective-n-Point) problem, so it is solved by using a known method such as the DLT (Direct Linear Transform) method or the EPnP (Efficient PnP) method. be able to.
- PnP Perspective-n-Point
- the viewpoint conversion processing unit 320 clusters the point group having the velocity component on the unit sphere, thereby obtaining the three-dimensional coordinates of the center of gravity of the moving object from the representative angle and depth of the moving object region. can. Therefore, for example, the viewpoint conversion processing unit 320 performs coordinate conversion of the three-dimensional coordinates of the moving object acquired by the second imaging device 200 using the relative orientations of the first imaging device 100 and the second imaging device 200. , the three-dimensional coordinates of the moving object viewed from the first imaging device 100 can be derived.
- the velocity of the moving object is measured for each frame of the images captured by the first imaging device 100 and the second imaging device 200, and thus becomes a discrete numerical value in the time direction. Therefore, in order to detect the time lag with high accuracy in a time shorter than the frame sampling interval of the captured image, it is desirable that the velocity of the moving object measured by the rangefinder is interpolated in the time direction. Further, when a plurality of moving objects are detected by each of the first imaging device 100 and the second imaging device 200, temporal changes in velocity may be extracted for each of the plurality of moving objects.
- the time correction unit 330 first obtains the cross-correlation between the waveforms D1 and D2 while gradually shifting the time of the waveform D1, thereby deriving the time shift with the highest correlation.
- the time correction unit 330 changes the scale of the waveform D1 in the time direction and obtains the cross-correlation between the waveforms D1 and D2 while shifting the time in the same manner as described above, thereby deriving the scale with the highest correlation. do.
- the time correction unit 330 can derive the time shift and scale with the highest correlation.
- the time correction unit 330 derives the time shift and the scale shift in the time direction for each waveform of the speed change of the moving object that satisfies such conditions, and takes a weighted average in which the moving object with greater speed variance is weighted more. By doing so, the time shift and the scale shift can be derived.
- the time correction unit 330 may further obtain the cross-correlation of each moving object again after reflecting the time shift and the scale shift derived above, thereby improving the accuracy of the correction of the time shift and the scale shift. .
- the information processing device 300 determines whether or not the time difference between the first imaging device 100 and the second imaging device 200 has been adjusted (that is, whether or not the times are synchronized). Confirm (S103). If the time lag has been adjusted (S103/Yes), steps S104 to S108 are skipped. After that, the model integration unit 340 restores point cloud data from the depth images acquired by each of the first imaging device 100 and the second imaging device 200, and synthesizes the restored point cloud data (S109). . This allows the model integration unit 340 to generate more accurate point cloud data.
- the model integration unit 340 corrects the time of the depth image and velocity image acquired by each of the first imaging device 100 and the second imaging device 200 using the derived time lag (S209 ). Furthermore, the model integration unit 340 corrects changes in position and orientation due to movement of the first imaging device 100 and the second imaging device 200 with respect to the corrected depth image. After that, the model integration unit 340 restores point cloud data from the depth image, and synthesizes the restored point cloud data (S211). This allows the model integration unit 340 to generate more accurate point cloud data.
- the information processing apparatus 300 can integrate point cloud data from multiple viewpoints without adjusting the time in advance.
- each of the plurality of imaging devices includes an imaging element that acquires the captured image of the moving object, and a ranging sensor that acquires the ranging information of the moving object. or the information processing device according to claim 1.
- the ranging sensor acquires the ranging information of the moving object when the moving object appears in the captured image.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
1.背景技術
1.1.時刻同期
1.2.周波数連続変調方式の測距装置
2.第1の実施形態
2.1.構成例
2.2.動作例
3.第2の実施形態
3.1.構成例
3.2.動作例
4.ハードウェア
5.まとめ
(1.1.時刻同期)
まず、本開示に係る技術の背景について説明する。例えば、ライブ映像配信などでは、一般的に、複数の撮像装置で同時に収録を行い、撮像装置の各々で取得される撮像画像をスイッチャなどの機器で統合して配信することが行われている。このような場合、撮像装置の各々で取得された撮像画像を切り替えた際に走査タイミングのずれによる黒い帯状のノイズが入らないようにするためには、複数の撮像装置の時刻を同期させることが求められる。
続いて、図1~図3を参照して、本開示に係る技術にて使用される周波数連続変調方式の測距装置について説明する。図1は、周波数連続変調方式の測距装置の概要を示す説明図である。図2は、測距装置から被写体に出射される光の周波数の時間変化を模式的に示すグラフ図である。図3は、被写体で反射された後、測距装置にて受光される光の周波数の時間変化を模式的に示すグラフ図である。
(2.1.構成例)
次に、図4を参照して、本開示の第1の実施形態に係る情報処理システムについて説明する。図4は、本開示の第1の実施形態に係る情報処理システム3の機能構成を示すブロック図である。
第1の撮像装置100は、画像処理部110と、測距処理部120と、認識部130と、判定部140と、静止物体処理部150と、動物体処理部160とを備える。同様に、第2の撮像装置200は、画像処理部210と、測距処理部220と、認識部230と、判定部240と、静止物体処理部250と、動物体処理部260とを備える。第1の撮像装置100と第2の撮像装置200とは実質的に同様であるため、以下では、第1の撮像装置100の各構成についてのみ説明し、第2の撮像装置200の各構成の説明は省略する。
情報処理装置300は、相対姿勢検出部310と、視点変換処理部320と、時刻補正部330と、モデル統合部340とを備える。
次に、図12を参照して、本実施形態に係る情報処理システム3の動作例について説明する。図12は、本実施形態に係る情報処理システム3の動作の一例を説明するフローチャート図である。以下では、情報処理装置300が第2の撮像装置200の時刻を第1の撮像装置100の時刻に同期させる場合を例示して説明を行う。
(3.1.構成例)
続いて、図13を参照して、本開示の第2の実施形態に係る情報処理システムについて説明する。図13は、本開示の第2の実施形態に係る情報処理システム4の機能構成を示すブロック図である。
次に、図14を参照して、本実施形態に係る情報処理システム4の動作例について説明する。図14は、本実施形態に係る情報処理システム4の動作の一例を説明するフローチャート図である。以下では、情報処理装置300が第2の撮像装置200の時刻を第1の撮像装置100の時刻に同期させる場合を例示して説明を行う。
さらに、図15を参照して、本実施形態に係る情報処理装置300のハードウェアについて説明する。図15は、本実施形態に係る情報処理装置300のハードウェアであるコンピュータ装置900の構成例を示すブロック図である。
本開示に係る技術によれば、速度付きの点群データの各点の位置及び速度を用いることで、測距装置が搭載された複数の撮像装置の時刻を同期させることが可能である。したがって、本実施形態に係る情報処理装置300は、事前に時刻合わせをせずとも、複数視点での点群データを統合することが可能である。
(1)
複数の撮像装置の各々で周波数連続変調された光を用いて測定された互いに対応する動物体の測距情報に含まれる速度情報に基づいて、前記複数の撮像装置の各々の時刻を同期させる、情報処理装置。
(2)
前記複数の撮像装置の相対姿勢に基づいて、互いに対応する前記動物体の前記速度情報を同一視点からの速度情報に変換する視点変換処理部と、
互いに対応する前記動物体の前記同一視点からの速度情報の時刻変化に基づいて、前記複数の撮像装置の各々の時刻を同期させる時刻補正部と、
を備える、前記(1)に記載の情報処理装置。
(3)
前記動物体の前記速度情報は、前記動物体を含む領域を代表する速度ノルムである、前記(2)に記載の情報処理装置。
(4)
前記視点変換処理部は、前記複数の撮像装置の相対姿勢と、前記撮像装置から前記動物体までの距離とに基づいて前記動物体の対応関係を検出する、前記(2)又は(3)に記載の情報処理装置。
(5)
前記時刻補正部は、互いに対応する前記動物体の前記同一視点からの前記速度情報の時刻変化が一致するように、前記複数の撮像装置の各々の時刻ずれ又は周期ずれを補正する、前記(2)~(4)のいずれか一項に記載の情報処理装置。
(6)
前記複数の撮像装置の各々で撮像された互いに対応する静止物体の撮像画像に基づいて、前記複数の撮像装置の相対姿勢を検出する相対姿勢検出部をさらに備える、前記(2)~(5)のいずれか一項に記載の情報処理装置。
(7)
前記相対姿勢検出部は、前記撮像画像に含まれる前記静止物体の特徴点の対応関係に基づいて、前記静止物体の対応関係を検出する、前記(6)に記載の情報処理装置。
(8)
前記相対姿勢検出部は、互いに対応する前記静止物体の前記撮像装置の各々から前記特徴点までの距離、及び前記撮像画像の各々における前記特徴点の位置の対応関係に基づいて、前記複数の撮像装置の相対姿勢を検出する、前記(7)に記載の情報処理装置。
(9)
前記動物体と、前記静止物体とは、前記撮像画像に含まれる物体を機械学習モデルにて画像認識することで判定される、前記(6)~(8)のいずれか一項に記載の情報処理装置。
(10)
前記複数の撮像装置の推定された自己位置に基づいて、前記複数の撮像装置の相対姿勢を検出する相対姿勢検出部をさらに備える、前記(2)~(5)のいずれか一項に記載の情報処理装置。
(11)
前記測距情報は、前記撮像装置から前記動物体までの距離に関する情報を前記撮像装置にて取得された撮像画像に投影したデプス画像を含む、前記(2)~(10)のいずれか一項に記載の情報処理装置。
(12)
前記測距情報は、前記動物体及び前記撮像装置を結ぶ直線方向における前記動物体の速度に関する情報を前記撮像画像に投影した速度画像を含む、前記(11)に記載の情報処理装置。
(13)
前記複数の撮像装置の各々で測定された前記測距情報を互いに時刻同期して統合するモデル統合部をさらに備える、前記(1)~(12)のいずれか一項に記載の情報処理装置。
(14)
前記測距情報は、前記速度情報を含むポイントクラウドデータである、前記(1)~(13)のいずれか一項に記載の情報処理装置。
(15)
周波数連続変調された前記光は、赤外線又は近赤外線である、前記(1)~(14)のいずれか一項に記載の情報処理装置。
(16)
前記複数の撮像装置の各々は、前記動物体の撮像画像を取得する撮像素子と、前記動物体の前記測距情報を取得する測距センサとを有する、前記(1)~(15)のいずれか一項に記載の情報処理装置。
(17)
前記測距センサは、前記撮像画像に前記動物体が映った場合に、前記動物体の前記測距情報を取得する、前記(16)に記載の情報処理装置。
(18)
演算装置によって、複数の撮像装置の各々で周波数連続変調された光を用いて測定された互いに対応する動物体の測距情報に含まれる速度情報に基づいて、前記複数の撮像装置の各々の時刻を同期させる、情報処理方法。
(19)
コンピュータを、
複数の撮像装置の各々で周波数連続変調された光を用いて測定された互いに対応する動物体の測距情報に含まれる速度情報に基づいて、前記複数の撮像装置の各々の時刻を同期させる情報処理装置として機能させる、プログラム。
2 被写体
3,4 情報処理システム
10 光源
20 光スプリッタ
30 二次元スキャナ
40 光ミキサ
50 信号処理回路
100 第1の撮像装置
110,210 画像処理部
120,220 測距処理部
130,230 認識部
140,240 判定部
150,250 静止物体処理部
160,260 動物体処理部
170,270 自己位置推定部
200 第2の撮像装置
300 情報処理装置
310 相対姿勢検出部
320 視点変換処理部
330 時刻補正部
340 モデル統合部
Claims (19)
- 複数の撮像装置の各々で周波数連続変調された光を用いて測定された互いに対応する動物体の測距情報に含まれる速度情報に基づいて、前記複数の撮像装置の各々の時刻を同期させる、情報処理装置。
- 前記複数の撮像装置の相対姿勢に基づいて、互いに対応する前記動物体の前記速度情報を同一視点からの速度情報に変換する視点変換処理部と、
互いに対応する前記動物体の前記同一視点からの速度情報の時刻変化に基づいて、前記複数の撮像装置の各々の時刻を同期させる時刻補正部と、
を備える、請求項1に記載の情報処理装置。 - 前記動物体の前記速度情報は、前記動物体を含む領域を代表する速度ノルムである、請求項2に記載の情報処理装置。
- 前記視点変換処理部は、前記複数の撮像装置の相対姿勢と、前記撮像装置から前記動物体までの距離とに基づいて前記動物体の対応関係を検出する、請求項2に記載の情報処理装置。
- 前記時刻補正部は、互いに対応する前記動物体の前記同一視点からの前記速度情報の時刻変化が一致するように、前記複数の撮像装置の各々の時刻ずれ又は周期ずれを補正する、請求項2に記載の情報処理装置。
- 前記複数の撮像装置の各々で撮像された互いに対応する静止物体の撮像画像に基づいて、前記複数の撮像装置の相対姿勢を検出する相対姿勢検出部をさらに備える、請求項2に記載の情報処理装置。
- 前記相対姿勢検出部は、前記撮像画像に含まれる前記静止物体の特徴点の対応関係に基づいて、前記静止物体の対応関係を検出する、請求項6に記載の情報処理装置。
- 前記相対姿勢検出部は、互いに対応する前記静止物体の前記撮像装置の各々から前記特徴点までの距離、及び前記撮像画像の各々における前記特徴点の位置の対応関係に基づいて、前記複数の撮像装置の相対姿勢を検出する、請求項7に記載の情報処理装置。
- 前記動物体と、前記静止物体とは、前記撮像画像に含まれる物体を機械学習モデルにて画像認識することで判定される、請求項6に記載の情報処理装置。
- 前記複数の撮像装置の推定された自己位置に基づいて、前記複数の撮像装置の相対姿勢を検出する相対姿勢検出部をさらに備える、請求項2に記載の情報処理装置。
- 前記測距情報は、前記撮像装置から前記動物体までの距離に関する情報を前記撮像装置にて取得された撮像画像に投影したデプス画像を含む、請求項2に記載の情報処理装置。
- 前記測距情報は、前記動物体及び前記撮像装置を結ぶ直線方向における前記動物体の速度に関する情報を前記撮像画像に投影した速度画像を含む、請求項11に記載の情報処理装置。
- 前記複数の撮像装置の各々で測定された前記測距情報を互いに時刻同期して統合するモデル統合部をさらに備える、請求項1に記載の情報処理装置。
- 前記測距情報は、前記速度情報を含むポイントクラウドデータである、請求項1に記載の情報処理装置。
- 周波数連続変調された前記光は、赤外線又は近赤外線である、請求項1に記載の情報処理装置。
- 前記複数の撮像装置の各々は、前記動物体の撮像画像を取得する撮像素子と、前記動物体の前記測距情報を取得する測距センサとを有する、請求項1に記載の情報処理装置。
- 前記測距センサは、前記撮像画像に前記動物体が映った場合に、前記動物体の前記測距情報を取得する、請求項16に記載の情報処理装置。
- 演算装置によって、複数の撮像装置の各々で周波数連続変調された光を用いて測定された互いに対応する動物体の測距情報に含まれる速度情報に基づいて、前記複数の撮像装置の各々の時刻を同期させる、情報処理方法。
- コンピュータを、
複数の撮像装置の各々で周波数連続変調された光を用いて測定された互いに対応する動物体の測距情報に含まれる速度情報に基づいて、前記複数の撮像装置の各々の時刻を同期させる情報処理装置として機能させる、プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21931712.0A EP4311221A1 (en) | 2021-03-17 | 2021-11-30 | Information processing device, information processing method, and program |
CN202180095469.6A CN116982321A (zh) | 2021-03-17 | 2021-11-30 | 信息处理装置、信息处理方法和程序 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163162221P | 2021-03-17 | 2021-03-17 | |
US63/162,221 | 2021-03-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022195969A1 true WO2022195969A1 (ja) | 2022-09-22 |
Family
ID=83320085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/043868 WO2022195969A1 (ja) | 2021-03-17 | 2021-11-30 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4311221A1 (ja) |
CN (1) | CN116982321A (ja) |
WO (1) | WO2022195969A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011155477A (ja) * | 2010-01-27 | 2011-08-11 | Canon Inc | 映像処理装置、映像処理方法及びプログラム |
WO2017134770A1 (ja) * | 2016-02-03 | 2017-08-10 | 三菱電機株式会社 | 映像同期装置 |
JP2019135446A (ja) | 2018-02-05 | 2019-08-15 | 日本電気株式会社 | 画像処理装置、測距装置、撮像装置、画像処理方法及びプログラム |
-
2021
- 2021-11-30 WO PCT/JP2021/043868 patent/WO2022195969A1/ja active Application Filing
- 2021-11-30 CN CN202180095469.6A patent/CN116982321A/zh active Pending
- 2021-11-30 EP EP21931712.0A patent/EP4311221A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011155477A (ja) * | 2010-01-27 | 2011-08-11 | Canon Inc | 映像処理装置、映像処理方法及びプログラム |
WO2017134770A1 (ja) * | 2016-02-03 | 2017-08-10 | 三菱電機株式会社 | 映像同期装置 |
JP2019135446A (ja) | 2018-02-05 | 2019-08-15 | 日本電気株式会社 | 画像処理装置、測距装置、撮像装置、画像処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN116982321A (zh) | 2023-10-31 |
EP4311221A1 (en) | 2024-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3469306B1 (en) | Geometric matching in visual navigation systems | |
US10242454B2 (en) | System for depth data filtering based on amplitude energy values | |
Long et al. | Unifying obstacle detection, recognition, and fusion based on millimeter wave radar and RGB-depth sensors for the visually impaired | |
CN104885098B (zh) | 基于移动装置的文本检测及跟踪 | |
US10068344B2 (en) | Method and system for 3D capture based on structure from motion with simplified pose detection | |
US9646384B2 (en) | 3D feature descriptors with camera pose information | |
TWI574223B (zh) | 運用擴增實境技術之導航系統 | |
US10154190B2 (en) | Balancing exposure and gain at an electronic device based on device motion and scene distance | |
CN109059895A (zh) | 一种基于手机摄像头和传感器的多模态室内测距及定位方法 | |
KR102398478B1 (ko) | 전자 디바이스 상에서의 환경 맵핑을 위한 피쳐 데이터 관리 | |
Cui et al. | Real-time short-range human posture estimation using mmwave radars and neural networks | |
CN111724412A (zh) | 确定运动轨迹的方法、装置及计算机存储介质 | |
Xu et al. | FollowUpAR: Enabling follow-up effects in mobile AR applications | |
Jiang et al. | VisBLE: Vision-enhanced BLE device tracking | |
JP2001266128A (ja) | 奥行き情報取得方法,装置および奥行き情報取得プログラムを記録した記録媒体 | |
Voges et al. | Finding timestamp offsets for a multi-sensor system using sensor observations | |
WO2022195969A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR101273634B1 (ko) | 모바일 기기를 이용하는 증강현실 환경에서 복수 객체 추적방법 및 이를 이용한 시스템 | |
WO2022228461A1 (zh) | 一种基于激光雷达的三维超声成像方法和系统 | |
Meers et al. | Face recognition using a time-of-flight camera | |
CN114612521A (zh) | 一种多目标多相机跟踪方法、系统、设备及存储介质 | |
Shojaeipour et al. | Robot path obstacle locator using webcam and laser emitter | |
KR20130078064A (ko) | 홍채 검출 장치 및 방법 | |
KR20120032950A (ko) | 비컨을 구비한 마커를 포함하는 음원 위치 측정 장치 및 이를 이용한 음원 위치 오차 개선 방법 | |
Zhou et al. | RAV4D: A Radar-Audia-Visual Dataset for Indoor Multi-Person Tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21931712 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 202180095469.6 Country of ref document: CN |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2021931712 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2021931712 Country of ref document: EP Effective date: 20231017 |