JP7469008B2 - 経路案内のためのコンテンツ提供方法および装置 - Google Patents

経路案内のためのコンテンツ提供方法および装置 Download PDF

Info

Publication number
JP7469008B2
JP7469008B2 JP2019154778A JP2019154778A JP7469008B2 JP 7469008 B2 JP7469008 B2 JP 7469008B2 JP 2019154778 A JP2019154778 A JP 2019154778A JP 2019154778 A JP2019154778 A JP 2019154778A JP 7469008 B2 JP7469008 B2 JP 7469008B2
Authority
JP
Japan
Prior art keywords
information
user terminal
frame
route guidance
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019154778A
Other languages
English (en)
Other versions
JP2020042025A (ja
Inventor
ドンウォン イ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Line Plus Corp
Original Assignee
Line Plus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Plus Corp filed Critical Line Plus Corp
Publication of JP2020042025A publication Critical patent/JP2020042025A/ja
Application granted granted Critical
Publication of JP7469008B2 publication Critical patent/JP7469008B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3623Destination input or retrieval using a camera or code reader, e.g. for optical or magnetic codes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)

Description

実施形態は、経路案内のためのコンテンツをユーザ端末に提供する方法に関し、より詳細には、出発地から目的地へのユーザ端末の移動に伴ってユーザ端末の位置に対応する映像がユーザ端末に表示されるようにする動画形態のコンテンツを経路案内のためのコンテンツとして提供する方法に関する。
ユーザから所定の目的地に対する経路案内要求を受信し、経路要求に含まれる出発地から目的地までの最適経路を検索し、検索された最適経路をユーザ端末に提供して表示されるようにするサービスが広く利用されている。このようなサービスは、地理的位置および場所に関するデータを提供するマップアプリケーションによって提供される。一方、地理的位置および場所と関連し、該当の位置および場所が撮影された映像(image)を提供するストリートビューアプリケーションも広く知られている。
しかし、ユーザが未知の目的地に向かう場合、ユーザは該当の目的地までの経路や周辺の地物を熟知していないため、マップアプリケーションが提供する経路案内サービスだけでは、迅速かつ正確に目的地までたどり着くことは難しい。また、ストリートビューアプリケーションが提供するストリートビューサービス(またはロードビューサービス)は、特定の位置や場所に関するイメージを提供するだけであるため、目的地を探索するための参照資料として活用できるだけであり、目的地に迅速かつ正確に到達のために活用するには困難がある。
したがって、ユーザが未知の目的地に向かう場合でも、ユーザが該当の目的地に対して案内された最適経路に沿って正しく移動しているのかをユーザが直観的に確認できるようにする経路案内のためのコンテンツ提供方法が求められている。
特許文献1(登録日2014年03月27日)は、モバイルデバイスにユーザが所望する種類の移動経路に関する情報を伝達できるようにする移動経路案内方法および装置に関し、移動経路の設定に必要な事項を入力するための入力ウィンドウに入力された情報に基づいて移動経路を検索してユーザに提供することにより、ユーザの目的に合った移動経路の設定および提供を可能にする技術を開示している。
上述した情報は、理解を助けるためのものに過ぎず、従来技術の一部を形成しない内容を含むこともあるし、従来技術が当業者に提示することのできる内容を含まないこともある。
韓国登録特許第10-1381380号
一実施形態は、撮影位置と関連する位置情報、撮影のために使用された装置の姿勢情報、および進行方向情報を含む映像情報を取得しておき、ユーザ端末からの経路案内要求に従って、適切な映像情報を含む経路案内のためのコンテンツをユーザ端末に提供する方法を提供することを目的とする。
一実施形態は、出発地および目的地を含む経路案内要求に従ってユーザ端末に動画形態の経路案内のためのコンテンツが提供され、このようなコンテンツを利用し、ユーザ端末の出発地から目的地への移動に伴ってユーザ端末で、ユーザ端末の位置および姿勢に対応する適切な映像を表示する方法を提供することを目的とする。
一実施形態は、複数の撮影者が撮影した映像情報を分析および加工することによって生成された経路案内のためのコンテンツを、経路案内を要求したユーザ端末に提供し、経路内の位置にユーザ端末が位置したときに該当の位置に対して最適化されたフレームをユーザ端末に表示する方法を提供することを目的とする。
一側面において、サーバが実行する経路案内のためのコンテンツ提供方法であって、撮影位置と関連する位置情報、撮影のために使用された装置と関連する姿勢情報、および進行方向情報を含む映像情報を取得する映像情報取得段階、および前記位置情報と関連する経路案内要求に従って、前記映像情報を含む経路案内のためのコンテンツを提供するコンテンツ提供段階を含む、経路案内のためのコンテンツ提供方法が提供される。
前記映像情報は、複数のフレームを含んでよい。
前記位置情報、前記姿勢情報、および前記進行方向情報は、前記複数のフレームそれぞれが撮影された時点(timing)と関連する情報であってよい。
前記位置情報は、撮影位置のGPS情報を含んでよい。
前記進行方向情報は、前記撮影のために使用された装置の進行方向を含んでよい。
前記姿勢情報は、前記撮影のために使用された装置のロール(roll)角度、ピッチ(pitch)角度、および前記進行方向にヨー(yaw)角度のうちの少なくとも1つを含んでよい。
前記コンテンツ提供段階は、ユーザ端末から前記経路案内要求を受信する段階、および動画形態の前記コンテンツを前記ユーザ端末に送信する段階を含んでよい。
前記コンテンツは、前記ユーザ端末の出発地から目的地への移動に伴って前記ユーザ端末の位置に対応する映像が前記ユーザ端末に表示されるように、前記ユーザ端末に提供されてよい。
前記コンテンツ提供段階は、前記出発地から前記目的地までの最適経路を決定する段階、前記映像情報に含まれる複数のフレームそれぞれと関連する位置情報、姿勢情報、および進行方向情報に基づき、前記最適経路内の位置に対して少なくとも1つの候補フレームを決定する段階、前記候補フレームに基づき、前記位置に対して決定された最適フレームを含む前記動画形態のコンテンツを生成する段階、および前記動画形態のコンテンツを前記ユーザ端末に提供する段階を含んでよい。
前記候補フレームは複数であり、前記最適フレームは、複数の候補フレームを合成することによって生成された再構成フレームであってよい。
前記再構成フレームは、前記位置と関連する3次元映像を含んでよい。
前記最適経路内の位置は複数であり、前記候補フレームおよび前記最適フレームは、前記最適経路内の複数の位置それぞれに対して決定されてよい。
前記動画形態のコンテンツは、前記ユーザ端末が前記最適経路に沿って移動するにあたり、前記ユーザ端末が前記複数の位置のうち第1位置に位置したときに前記第1位置と関連する最適フレームが前記ユーザ端末に表示されるように、前記ユーザ端末に提供されてよい。
前記動画形態のコンテンツは、前記動画形態のコンテンツのフレームと共に、前記フレームの中心または前記ユーザ端末の画面の中心には第1ガイド情報が、前記フレームと関連する進行方向情報および姿勢情報のうちの少なくとも一方と前記ユーザ端末の姿勢情報および進行方向情報のうちの少なくとも一方に基づいて決定された位置には第2ガイド情報が、前記ユーザ端末に表示されるように、前記ユーザ端末に提供されてよい。
前記第1ガイド情報は、前記ユーザ端末の位置または姿勢を示す情報であってよい。
前記第2ガイド情報は、前記ユーザ端末の所期の位置または姿勢への操作を誘導する情報であってよい。
前記候補フレームまたは前記最適フレームは、前記位置に対応する位置情報と関連し、前記位置から前記目的地に向かう道路または道を正面から撮影した進行方向情報および姿勢情報と関連するフレームを含んでよい。
前記映像情報を取得する段階は、複数の撮影者によって撮影された映像情報を取得してよい。
前記候補フレームは、前記複数の撮影者によって撮影された映像情報に含まれる複数のフレームそれぞれと関連する位置情報、姿勢情報、および進行方向情報に基づき、前記最適経路内の位置に対して決定されてよい。
他の側面において、ユーザ端末が実行する経路案内のためのコンテンツ提供方法であって、経路案内要求をサーバに送信する送信段階、前記サーバから、出発地から目的地までの経路内に存在する少なくとも1つの位置と関連する映像情報を含むコンテンツを受信する受信段階であって、前記映像情報は、撮影位置と関連する位置情報、撮影のために使用された装置と関連する姿勢情報、および進行方向情報を含む受信段階、および前記コンテンツを利用し、前記ユーザ端末の前記出発地から前記目的地への移動に伴って前記ユーザ端末の位置に対応する映像を表示する表示段階を含む、経路案内のためのコンテンツ提供方法が提供される。
前記表示段階は、前記コンテンツに含まれる複数のフレームから前記ユーザ端末の位置に対応するフレームを決定する決定段階であって、前記フレームは、前記フレームと関連する位置情報と前記ユーザ端末の位置情報との比較結果に基づいて決定される決定段階、および前記ユーザ端末が前記位置に位置したときに前記決定されたフレームを表示するフレーム表示段階を含んでよい。
前記決定されたフレームは、複数の候補フレームを合成して生成された再構成フレームであってよい。
前記フレーム表示段階は、前記決定されたフレームと共に、前記表示される決定されたフレームの中心または前記ユーザ端末の画面の中心に第1ガイド情報を表示する段階を含んでよい。
前記第1ガイド情報は、前記ユーザ端末の位置または姿勢を示す情報であってよい。
前記フレーム表示段階は、前記決定されたフレームおよび前記第1ガイド情報と共に、前記決定されたフレームと関連する進行方向情報および姿勢情報のうちの少なくとも一方と前記ユーザ端末の姿勢情報および進行方向情報のうちの少なくとも一方に基づいて決定された位置に第2ガイド情報を表示する第2ガイド情報表示段階を含んでよい。
前記第2ガイド情報は、前記ユーザ端末の所期の位置または姿勢への操作を誘導する情報であってよい。
前記ユーザ端末の所期の位置または姿勢への操作は、前記第1ガイド情報の表示位置と前記第2ガイド情報の表示位置を一致させる前記ユーザ端末の操作であってよい。
前記第2ガイド情報表示段階は、前記決定されたフレームと関連する進行方向角度(heading angle)と前記ユーザ端末の進行方向角度とを比べることによって方向差角度を計算する段階、前記決定されたフレームと関連する姿勢情報と前記ユーザ端末の姿勢情報とを比べることによって姿勢差角度を計算する段階、および前記方向差角度および前記姿勢差角度に基づいて前記第2ガイド情報の表示位置を決定し、決定された表示位置に前記第2ガイド情報を表示する段階を含んでよい。
前記姿勢差角度は、前記決定されたフレームと関連するロール(roll)角度およびピッチ(pitch)角度のうちの少なくとも1つと、前記ユーザ端末と関連するロール(roll)角度およびピッチ(pitch)角度のうちの少なくとも1つとの比較に基づいて生成されてよい。
前記フレーム表示段階は、前記方向差角度および前記姿勢差角度のうちの少なくとも一方が所定の値以上となる場合、通知メッセージを表示する段階を含んでよい。
前記映像情報は、前記経路内に存在する少なくとも1つの位置を複数の撮影者が撮影した映像情報を含んでよい。
前記映像情報は、ストリートビューまたはロードビューサービスを提供するサーバから取得した前記経路内に存在する少なくとも1つの位置と関連する映像情報を含んでよい。
撮影位置と関連する位置情報、撮影のために使用された装置の姿勢情報、および進行方向情報を含む映像情報が経路案内のためのコンテンツとしてユーザ端末に提供されることにより、ユーザは、ユーザ端末に表示された映像を確認しながら、目的地に対して案内を受けた最適経路に沿って正しく移動しているのかを直観的に確認することができる。すなわち、ユーザは、ユーザ端末に表示された映像と該当の位置の実際の地物とを容易に比べることができ、表示された映像が案内する位置から外れた場合には通知メッセージ(例えば、警報など)を受け取ることができる。
複数の撮影者によって撮影された映像情報を経路案内のためのコンテンツ生成に使用することにより、経路案内が要求された経路内の位置に対して(目的地への経路を識別するために)最適化されたフレームの映像をユーザ端末に表示することができる。
一実施形態における、撮影によって取得した映像情報に基づく経路案内のためのコンテンツを、経路案内を要求したユーザ端末に提供する方法を示した図である。 一実施形態における、撮影を実行する装置、経路案内のためのコンテンツを生成するサーバ、および経路案内のためのコンテンツの提供を受けるユーザ端末の構成を示した構造図である。 一実施形態における、撮影を実行する装置が映像情報を取得(生成)してサーバに送信する方法を示したフローチャートである。 一実施形態における、サーバが映像情報を取得し、経路案内を要求したユーザ端末に経路案内のためのコンテンツを提供する方法を示したフローチャートである。 一実施形態における、ユーザ端末がサーバに経路案内要求を送信し、サーバから経路案内のためのコンテンツの提供を受ける方法を示したフローチャートである。 一実施形態における、ユーザ端末が、目的地への移動に伴い、ユーザ端末の位置に対応する経路案内のための映像を表示する方法を示したフローチャートである。 一実施形態における、ユーザ端末が経路案内のための映像を表示するにあたり、ガイド情報を共に表示する方法を示したフローチャートである。 一実施形態における、撮影を実行する装置による映像情報の取得方法を示した図である。 一実施形態における、サーバが、経路案内が要求された経路内の位置に相応しい候補フレームをマッチングさせる方法を示した図である。 一実施形態における、サーバが複数の撮影者によって撮影された映像情報を分析および加工することによって経路案内のための最適映像を生成する方法を示した図である。 一実施形態における、ユーザ端末が、ユーザ端末の位置に相応しい再生フレームをマッチングさせる方法を示した図である。 一実施形態における、経路案内のための映像と共にガイド情報をユーザ端末に表示する方法を示した図である。
以下、添付の図面を参照しながら、実施形態について詳しく説明する。各図面に提示された同じ参照符号は、同じ部材を示す。
以下の詳細な説明において、ユーザ端末、サーバ、およびその他の装置に含まれる構成によって実行される機能および/または動作は、説明の便宜上、該当の構成ではなく、該当の構成を含む上位の構成やユーザ端末、サーバ、およびその他の装置によって実行されるものと記載されてよい。
また、以下の詳細な説明において、経路案内のためのコンテンツの提供を受けたユーザ端末に表示される映像は、映像のフレームを示してよい。すなわち、「映像」および「フレーム」という用語は、互いに代替されて使用されてよく、「映像」という用語は、複数のフレームを含む映像の他にも、1つのフレームを指称するものとして使用されてよい。
図1は、一実施形態における、撮影によって取得された映像情報に基づく経路案内のためのコンテンツを、経路案内を要求したユーザ端末に提供する方法を示した図である。
図1では、撮影のために使用される装置110が場所または位置160を撮影することによって生成された映像情報がサーバ(ストリートビューサーバ)120に伝達され、映像情報を含む経路案内のためのコンテンツが、経路案内を要求したユーザ端末130に提供される方法について説明する。
装置110は、場所または位置160に存在する地物(例えば、道路、道、または建物など)を撮影する装置であって、カメラを含んでよい。図に示すように、装置110は、スマートフォンであってよい。装置110は、場所または位置160に存在する地物を撮影することによって映像情報を生成してよい。映像情報は、撮影された映像の他にも、撮影時点(timing)において装置110と関連する位置情報、姿勢情報、および進行方向情報を含んでよい。
装置110の具体的な構成とその機能、および動作については、図2を参照しながらさらに詳しく説明する。
装置110は、生成した映像情報を、ネットワーク(例えば、インターネット)を介してサーバ120に送信してよい。サーバ120は、装置110から取得した映像情報をデータベース125に記録してよい。データベース125は、図に示すようにサーバ120と個別に存在してもよいし、図に示すものとは異なるようにサーバ120の内部に存在してもよい。
サーバ120は、ユーザ端末130からの所定の目的地への経路案内要求に従って目的地への最適経路を決定し、決定された最適経路に関する情報をユーザ端末130に提供してよい。すなわち、サーバ120は、ユーザ端末130に経路案内サービスを提供する装置であってよい。また、サーバ120は、ユーザ端末130からの要求に従い、ユーザ端末130にストリートビューサービスまたはロードビューサービスを提供する装置であってよい。
サーバ120の具体的な構成とその機能、および動作については、図2を参照しながらさらに詳しく説明する。
サーバ120は、装置110から取得した映像情報を利用して経路案内のためのコンテンツを生成してよい。経路案内のためのコンテンツは、上記映像情報を含んでよい。サーバ120は、ユーザ端末130から経路案内要求を受信した場合、経路案内のためのコンテンツを生成して(または、予め生成されたコンテンツを)ユーザ端末130に提供してよい。
経路案内のためのコンテンツは、サーバ120が決定した最適経路をユーザ端末130に案内するためのコンテンツであってよい。
ユーザ端末130は、提供を受けた経路案内のためのコンテンツを利用してユーザ端末130のユーザを目的地まで案内してよい。ユーザ端末130は、そのコンテンツを利用しながら、ユーザ端末130が目的地に移動することに伴ってユーザ端末130の位置に対応する映像150を表示してよい。ユーザ端末130に表示される映像150は、目的地を案内するためのガイド情報(例えば、目的地への方向を示す情報として矢印および/またはテキストを含む情報、目的地への道路/道を視覚的に区別して示すための情報など)を含んでよい。
ユーザ端末130が目的地に移動することによる位置変化に伴ってユーザ端末130に表示される映像も変化するという点において、映像情報を含む経路案内のためのコンテンツは、動画形態のコンテンツであってよい。
ユーザ端末130が、サーバ120から映像情報を含む経路案内のためのコンテンツの提供を受け、これを利用してユーザを目的地まで案内することにより、ユーザは、ユーザ端末130に表示された映像と現在地の地物とを比較できるようになり、これにより、ユーザは、目的地に対して案内を受けた最適経路に沿って正しく移動しているのかを直観的に確認することが可能となる。
装置110、サーバ120、およびユーザ端末130の具体的な機能および動作と、サーバ120による経路案内のためのコンテンツの提供、およびユーザ端末130での経路案内のためのコンテンツの再生(表示)については、図2~図12を参照しながらさらに詳しく説明する。
図2は、一実施形態における、撮影を実行する装置、経路案内のためのコンテンツを生成するサーバ、および経路案内のためのコンテンツの提供を受けるユーザ端末の構成を示した構造図である。
図2を参照しながら、図1で説明した装置110、サーバ120、およびユーザ端末130の構成についてさらに詳しく説明する。
装置110は、場所または位置160に存在する地物を撮影できるように構成された、いかなる装置であってもよい。例えば、装置110は、カメラ116を含むスマートフォン、PC(personal computer)、ノート型PC(laptop computer)、ラップトップコンピュータ(laptop computer)、タブレット(tablet)、IoT(Internet Of Things)機器、またはウェアラブルコンピュータ(wearable computer)など、ユーザが使用する端末であってよい。
装置110は、通信部112、制御部114、カメラ116、およびセンサ部118を含んでよい。
通信部112は、装置110がサーバ120や他の装置と通信するための装置であってよい。すなわち、通信部112は、サーバ120などとの間でデータおよび/または情報を送信/受信できるようにする、装置110のネットワークインタフェースカード、ネットワークインタフェースチップ、およびネットワーキングインタフェースポートなどのようなハードウェアモジュールであってもよいし、ネットワークデバイスドライバ(driver)またはネットワーキングプログラムのようなソフトウェアモジュールであってもよい。
制御部114は、装置110の構成要素を管理してよく、装置110が使用するプログラムまたはアプリケーションを実行させてよい。例えば、制御部114は、受信した撮影命令に従ってカメラ116を制御して場所または位置160に存在する地物を撮影するようにしたり、撮影による映像情報を生成したりしてよい。制御部114は、映像情報を生成するために要求されるプログラムまたはアプリケーションを実行させてよく、該プログラムまたはアプリケーションの実行およびデータの処理などに必要な演算を処理してよい。制御部114は、装置110の少なくとも1つのプロセッサまたはプロセッサ内の少なくとも1つのコア(core)であってよい。
カメラ116は、撮影を実行するための構成であって、イメージセンサを含んでよい。
センサ部118は、撮影時点における装置110と関連する位置情報、姿勢情報、および進行方向情報を取得するための装置であってよい。進行方向情報は、装置110の進行方向(すなわち、進行方向を示す情報を含む)を含んでよい。また、センサ部118は、撮影時点における装置110と関連する速度情報を取得してよい。
位置情報は、撮影位置のGPS情報として、緯度情報、経度情報、および高度情報を含んでよい。例えば、センサ部118は、撮影時点における装置110と関連する位置情報を取得するためのGPSモジュールおよび高度センサを含んでよい。姿勢情報は、装置110のロール(roll)角度、ピッチ(pitch)角度、およびヨー(yaw)角度のうちの少なくとも1つを含んでよい。姿勢情報は、装置110のロール(roll)角度、ピッチ角度、およびヨー角度をすべて含んでよい。姿勢情報は、姿勢方位基準装置(AHRS:Attitude Heading Reference System)情報を含んでよい。また、姿勢情報は、装置110と関連するオイラー角(euler angle)および/またはクォータニオン情報を含んでよい。
姿勢情報は、装置110の角度情報を含んでよい。角度情報は、装置の進行方向角度(heading angle)(向首角)を含んでよい。進行方向角度は、装置110のヨー(yaw)角度に対応してよい。ヨー角度は、進行方向情報が示す装置110の進行方向に対するヨー角度であってよい。すなわち、ヨー角度は、装置110の進行方向に対して撮影者(ユーザ)が眺める方向(すなわち、装置100(装置100のカメラ)が向く方向)の角度をさらに考慮したものであってよい。
センサ部118は、地磁気センサ、加速度センサ、およびジャイロセンサを含んでよく、姿勢情報および/または進行方向情報は、このようなセンサのうちの少なくとも1つが取得した値から計算されてよい。速度情報も、センサ部118の構成のうちの少なくとも1つが取得した値から計算されてよい。
制御部114の映像情報生成部115は、カメラ116が撮影した映像に、センサ部118が取得した情報を関連させることによって映像情報を生成してよい。生成された映像情報は、通信部112を経てサーバ120に送信されてよい。映像情報生成部115は、ソフトウェアモジュールおよび/またはハードウェアモジュールで実現されてよい。
また、図に示されてはいないが、装置110は、データまたは情報を記録するための装置として格納部を備えてよい。格納部は、生成された映像情報を記録してよい。すなわち、サーバ120に送信される映像情報は、格納部に予め記録されていた映像情報であってよい。
サーバ120は、装置110から映像情報を取得し、映像情報を含む経路案内のためのコンテンツを、経路案内を要求したユーザ端末130に提供する装置であってよい。例えば、サーバ120は、ユーザ端末130に経路案内サービスを提供する装置であってよい。また、サーバ120は、ユーザ端末130からの要求に従って、ユーザ端末130にストリートビューサービスまたはロードビューサービスを提供する装置であってよい。
サーバ120は、制御部220および通信部210を含んでよい。以下で記載する詳細な説明において、制御部220および通信部210に対して、装置110の制御部114および通信部112と重複する内容については、その説明を省略する。
通信部210は、サーバ120が装置110やユーザ端末130と通信するための装置であって、装置110やユーザ端末130との間でデータおよび/または情報を送信/受信できるようにする装置であってよい。
制御部220は、サーバ120の構成要素を管理してよく、ユーザ端末130からの経路案内要求に従って、最適経路を計算し、取得した映像情報に基づいて経路案内のためのコンテンツを生成してユーザ端末130に提供する構成であってよい。制御部220は、サーバ120の少なくとも1つのプロセッサまたはプロセッサ内の少なくとも1つのコア(core)であってよい。
制御部220は、映像情報取得部222およびコンテンツ提供部224を含んでよい。制御部220の構成222および224のそれぞれは、1つ以上のソフトウェアモジュールおよび/またはハードウェアモジュールによって実現されてよい。
映像情報取得部222は、装置110による撮影位置と関連する位置情報、装置110の姿勢情報、および装置110と関連する進行方向情報を含む映像情報を取得してよい。また、映像情報取得部222は、装置110ではなく、ストリートビュー(またはロードビュー)映像を記録しているデータベース(例えば、データベース125)から映像情報を取得してもよい。データベースから取得される映像情報は、装置110からの映像情報と同じように、経路案内のためのコンテンツを構成するために使用されてよく、装置110からの映像情報に対する補助的な情報(すなわち、装置110からの映像情報を補うためのデータ)として使用されてもよい。データベースから取得される映像情報も、撮影時点における位置情報、姿勢情報、および進行方向情報を含んでよい。
すなわち、経路案内のためのコンテンツを生成するために使用される映像情報は、装置110から取得される映像情報の他にも、ストリートビューまたはロードビューサービスを提供するサーバ(例えば、データベース125)から取得される(案内される経路内の位置と関連する)映像情報を含んでよい。
コンテンツ提供部224は、例えば、ユーザ端末130からの位置情報と関連する経路案内要求に従って、映像情報を含む経路案内のためのコンテンツをユーザ端末130に提供してよい。ユーザは、目的地への移動に伴い、ユーザ端末130に表示される経路案内のためのコンテンツに含まれる映像を参照しながら、迅速かつ正確に目的地に向かうことが可能となる。
ユーザ端末130は、サーバ120に対して経路案内を要求し、サーバ120から経路案内のためのコンテンツの提供を受ける、いかなる電子装置であってもよい。例えば、ユーザ端末130は、装置110と同じように、スマートフォン、PC(personal computer)、ノート型PC(laptop computer)、ラップトップコンピュータ(laptop computer)、タブレット(tablet)、IoT(Internet Of Things)機器、またはウェアラブルコンピュータ(wearable computer)など、ユーザが使用する端末であってよい。
ユーザ端末130は、通信部230、制御部240、表示部250、およびセンサ部260を含んでよい。ユーザ端末130は、装置110と類似する装置であってよく、通信部230、制御部240、およびセンサ部260に対して、装置110の通信部112、制御部114、およびセンサ部118と重複する内容については、その説明を省略する。
通信部230は、ユーザ端末130がサーバ120や他のユーザ端末と通信するための装置であって、サーバ120などとの間でデータおよび/または情報を送信/受信できるようにする装置であってよい。
制御部240は、ユーザ端末130の構成要素を管理してよく、経路案内要求を生成し、通信部230を経てサーバ120に経路案内要求を送信し、サーバ120からの経路案内のためのコンテンツを表示部250に表示する構成であってよい。制御部240は、ユーザ端末130の少なくとも1つのプロセッサまたはプロセッサ内の少なくとも1つのコア(core)であってよい。
制御部240は、ユーザに経路案内を提供するためのアプリケーションまたはプログラム(例えば、地図アプリケーション、ナビゲーションアプリケーション、ストリートビューまたはロードビューアプリケーションなど)を実行させてよい。
制御部240は、経路案内要求部242およびコンテンツ提供部244を含んでよい。制御部240の構成242および244のそれぞれは、1つ以上のソフトウェアモジュールおよび/またはハードウェアモジュールによって実現されてよい。
経路案内要求部242は、ユーザが入力または選択した目的地(目的地と同じように、ユーザが入力または選択した目的地であるか、ユーザ端末130の現在地)と出発地を含む経路案内要求を生成してよく、生成された経路案内要求をサーバに送信してよい。
コンテンツ提供部244は、通信部230を経てサーバ120から経路案内のためのコンテンツを受信してよく、該当のコンテンツに含まれる映像を表示部250に表示してよい。経路案内のためのコンテンツは、出発地から目的地までの経路内に存在する少なくとも1つの位置と関連する映像情報を含んでよい。
コンテンツ提供部244は、受信した経路案内のためのコンテンツに含まれる映像(映像のフレーム)のうち、ユーザ端末130の現在地に対応するフレームを表示部250に表示してよい。すなわち、コンテンツ提供部244は、受信したコンテンツを利用しながら、ユーザ端末130が出発地から目的地に移動することに伴ってユーザ端末130の位置に対応する映像を表示部250に表示してよい。
表示部250は、ユーザ端末130のユーザが入力したデータを出力する装置であって、経路案内のためのコンテンツに含まれる映像を表示する装置であってよい。例えば、表示部250は、タッチスクリーンを含んでよく、この場合、表示部は、ユーザから設定および要求の入力を受けるための入力部の機能を備えるように構成されてよい。
センサ部260は、上述したセンサ部118と類似するように構成されてよい。すなわち、センサ部260は、ユーザ端末130と関連する位置情報、姿勢情報、および進行方向情報を取得するものであってよい。
制御部240は、ユーザ端末130の位置に対応する映像を表示部250に表示するにあたり、センサ部260で取得された情報を考慮することにより、ユーザに、目的地に対するより直観的な経路案内を提供することが可能となる。
装置110による映像情報の生成、サーバ120による経路案内のためのコンテンツの提供、およびユーザ端末130による映像の表示方法については、図3~図12を参照しながらさらに詳しく説明する。
以上、図1を参照しながら説明した技術的特徴は、図2にもそのまま適用可能であるため、重複する説明は省略する。
図3は、一実施形態における、撮影を実行する装置が映像情報を取得(生成)してサーバに送信する方法を示したフローチャートである。
段階310において、装置110は、カメラ116を利用して所定の位置または場所の地物を撮影してよい。地物は、位置または場所内またはその付近の道路、道、または建物などを含んでよい。
段階320において、装置110は、段階310における撮影と関連し、撮影位置と関連する位置情報、装置110の姿勢情報、および装置110と関連する進行方向情報を取得してよい。段階320で取得する情報は、センサ部118によって取得されてよい。位置情報、姿勢情報、および進行方向情報は、撮影がなされた時点(timing)と関連する情報(すなわち、撮影がなされた時点に取得した情報)であってよい。
段階330において、装置110は、カメラ116を利用して撮影された映像と段階320で取得した位置情報、姿勢情報、および進行方向情報とを互いに関連させることによって映像情報を生成してよい。例えば、位置情報、姿勢情報、および進行方向情報は、撮影された映像に含まれる各フレームと関連してよい。
また、位置情報、姿勢情報、および進行方向情報を、所定の時間間隔(例えば、1秒または5秒)で取得して撮影された映像と関連させてもよいし、映像に含まれるフレームのうち所定のキーフレームだけに対して関連させてもよい。
したがって、生成された映像情報は、位置情報、姿勢情報、および進行方向情報を含むようになる。生成された映像情報は複数のフレームを含んでよく、位置情報、姿勢情報、および進行方向情報は、複数のフレームそれぞれが撮影された時点の情報であってよい。また、映像情報は、センサ部118によって取得された装置110の速度情報を含んでよい。速度情報も、類似の方式によって映像情報のフレームと関連させてよい。
段階340において、装置110は、生成された映像情報を、通信部112を経てサーバ120に送信してよい。例えば、装置110は、映像情報をサーバ120にアップロードしてよい。
一例として、装置110は、SNSアカウントと関連してよく、サーバ120は、SNSサービスを提供するサーバであってよい。このとき、装置110は、自身のSNSアカウントに該当するタイムラインに映像情報をアップロードしてよい。
映像情報に含まれる映像は、複数の場所または位置に存在する地物を撮影したものであってよい。例えば、映像情報に含まれる映像は、装置110のユーザが特定の目的地(例えば、ブロガーであるユーザが紹介しようとする場所)に向かって移動する経路内に存在する場所または位置に存在する地物を撮影したものであってよい。このような映像は、ユーザが移動しながら撮影した動画を含んでよい。これにより、ユーザは、自身が撮影した動画を経路案内のためのコンテンツとしてSNSサービスにアップロードしてよい。
サーバ120に送信された映像情報を利用ながら、サーバ120が経路案内のためのコンテンツを生成および提供する方法については、図4~図12を参照しながらさらに詳しく説明する。
以上、図1および図2を参照しながら上述した技術的特徴についての説明は、図3にもそのまま適用可能であるため、重複する説明は省略する。
図4は、一実施形態における、サーバが映像情報を取得し、経路案内を要求したユーザ端末に経路案内のためのコンテンツを提供する方法を示したフローチャートである。
段階410において、サーバ120の映像情報取得部222は、通信部210を経て撮影位置と関連する位置情報、撮影のために使用された装置の姿勢情報、および撮影のために使用された装置と関連する進行方向情報を含む映像情報を取得してよい。上述したように、映像情報は、装置110によって撮影および生成されて受信された情報であってよい。
サーバ120は、複数の撮影者が撮影した映像情報を取得してよい。サーバ120が取得した映像情報は、データベース125に記録されて管理されてよい。
段階420において、サーバ120のコンテンツ提供部224は、段階410で取得した映像情報を含むコンテンツを、経路案内のためのコンテンツとして提供してよい。例えば、コンテンツ提供部224は、ユーザ端末130から位置情報と関連する経路案内要求を受信することにより、該当の位置情報を含む映像情報を含んだコンテンツを、経路案内のためのコンテンツとしてユーザ端末130に提供してよい。
すなわち、ユーザ端末130からの経路要求に従って、該当の経路要求と関連する位置を撮影した映像を含む経路案内のためのコンテンツが、ユーザ端末130に提供されてよい。
段階420については、段階422~段階429を参照しながらさらに詳しく説明する。
段階422において、コンテンツ提供部224は、通信部210を経てユーザ端末130から出発地および目的地を含む経路案内要求を受信してよい。ユーザ端末130からの経路案内要求には目的地(および出発地)が含まれていないこともあるが、このとき、経路案内要求は、サーバ120に対する動画形態のコンテンツの要求であってよい。
段階424において、コンテンツ提供部224は、経路案内要求に含まれる出発地から目的地までの最適経路を決定してよい。最適経路は複数であってよく、ユーザ端末130による選択によって最終的に決定されてよい。
段階426において、コンテンツ提供部224は、段階410で取得した映像情報に含まれる複数のフレームそれぞれと関連する位置情報、姿勢情報、および進行方向情報に基づき、段階424で決定された最適経路内の少なくとも1つの位置に対して少なくとも1つの候補フレームを決定してよい。候補フレームは、最適経路内の複数の位置に対してそれぞれ決定(割り当て)されてよい。各位置に対する候補フレームは、複数であってよい。
候補フレーム(または後述する最適フレーム)は、それが決定される位置に対応する位置情報と関連するものであり、前記位置から目的地に向かう道路または道を正面(または、ほぼ正面を包括する)から撮影した進行方向情報および姿勢情報と関連するフレームを含んでよい。すなわち、最適経路内の特定の位置に対して決定される候補フレームは、その特定の位置で撮影された映像であって、その特定の位置から目的地に向かう道路または道を正面(または、ユーザが道路または道を最も容易に識別できるようにする形態)から撮影した映像を含んでよい。また、候補フレームは、複数のフレームのうち、このような基準に最も適合する所定の数のフレームを含んでよい。
一方、上述したように、経路案内のためのコンテンツを生成するための映像情報は、最適経路内に存在する少なくとも1つの位置を複数の撮影者が撮影した映像情報を含むものであってよい。複数の撮影者が撮影した映像情報に基づいて候補フレームが決定される場合、候補フレームは、複数の撮影者が撮影した映像情報に含まれる複数のフレームそれぞれと関連する位置情報、姿勢情報、および進行方向情報に基づき、最適経路内の各位置に対して決定されてよい。
最適経路内の位置に対して候補フレームを割り当てる(マッチングさせる)方法については、図9を参照しながらさらに詳しく説明する。
段階428において、コンテンツ提供部224は、最適経路内の位置に対して決定された候補フレームに基づいて最適フレームを決定してよく、最適フレームを含む動画形態のコンテンツを生成してよい。最適経路内のある位置に対して候補フレームが複数である場合、最適フレームは、複数の候補フレームのうちからコンテンツ提供部224が相応しいフレームとして選択したフレームであってよい。また、最適フレームは、複数の候補フレームを合成して生成された再構成フレームであってよい。再構成フレームは、該当の位置と関連する3次元映像(あるいは、拡張現実またはVR映像)を含んでよい。再構成フレームを生成する方法については、図10を参照しながらさらに詳しく説明する。
段階429において、コンテンツ提供部224は、生成された動画形態のコンテンツを、通信部210を経てユーザ端末130に送信してよい。ユーザ端末130に提供されるコンテンツは、ユーザ端末130の出発地から目的地への移動に伴ってユーザ端末130の位置に対応する映像がユーザ端末130に表示されるように提供されるという点において、動画形態のコンテンツに該当するものと見なしてよい。
段階424で決定された最適経路内の複数の位置それぞれに対し、候補フレームおよび対応する最適フレームが決定されてよい。このとき、動画形態のコンテンツは、ユーザ端末130が最適経路に沿って移動するにあたり、ユーザ端末130が最適経路内の複数の位置のうち第1位置に位置したときに、第1位置(第1位置に該当する位置情報)と関連する最適フレームがユーザ端末130に表示されるように、ユーザ端末130に提供されてよい。これにより、ユーザは、ユーザ端末130に表示された映像と現在地の地物とを比べることにより、目的地に対して案内を受けた最適経路に沿って正しく移動しているのかを直観的に確認することが可能となる。
一方、動画形態のコンテンツは、ユーザ端末130に表示される映像に該当するフレームと共に、表示されるフレームの中心(すなわち、ユーザ端末130の画面の中心)には第1ガイド情報が、前記フレームと関連する進行方向情報および姿勢情報のうちの少なくとも一方とユーザ端末130の姿勢情報および進行方向情報のうちの少なくとも一方に基づいて決定された位置には第2ガイド情報が表示されるように、ユーザ端末130に提供されてよい。
第1ガイド情報は、ユーザ端末130の位置または姿勢を示す情報であってよく、第2ガイド情報は、ユーザ端末130の所期の位置または姿勢への操作を誘導する情報であってよい。第1ガイド情報および第2ガイド情報の具体的な例については、図12を参照しながらさらに詳しく説明する。
以上、図1~図3を参照しながら上述した技術的特徴についての説明は、図4にもそのまま適用可能であるため、重複する説明は省略する。
図5は、一実施形態における、ユーザ端末がサーバに経路案内要求を送信し、サーバから経路案内のためのコンテンツの提供を受ける方法を示したフローチャートである。
図5~図7を参照しながら、ユーザ端末130の観点から見た、経路案内のためのコンテンツの提供について説明する。
段階510において、ユーザ端末130の経路案内要求部242は、通信部230を経て経路案内要求をサーバ120に送信してよい。経路案内要求には、ユーザ端末130によって設定された出発地および目的地が含まれてよい。
また、このような経路案内要求には特別な目的地(および出発地)が含まれていないこともある。このとき、経路案内要求は、サーバ120に対する動画形態のコンテンツの要求であってよい。動画形態のコンテンツは、例えば、上述したように、SNSサービスにアップロードされた経路案内のためのコンテンツ(動画)であってよい。経路案内要求は、例えば、SNSサービスにアップロードされた動画をユーザがユーザ端末130にダウンロードするために選択することによってなされてよい。
段階520において、ユーザ端末130のコンテンツ提供部244は、通信部230により、サーバ120から、出発地から目的地までの経路内に存在する少なくとも1つの位置と関連する映像情報を含むコンテンツを受信してよい。経路は、図4を参照しながら説明した最適経路に対応してよい。映像情報を含むコンテンツは、上述した経路案内のためのコンテンツに対応してよい。サーバ120から受信したコンテンツに含まれる映像情報は、上述した装置110による撮影によって生成されたものであって、撮影位置と関連する位置情報、撮影のために使用された装置110と関連する姿勢情報、および進行方向情報を含んでよい。出発地および/または目的地は、ユーザ端末130によって設定されたものであってよい。
経路案内要求に特別な目的地が含まれない、サーバ120に対する動画形態のコンテンツの要求である場合、目的地は、動画形態のコンテンツに含まれている目的地であってよい。ここで、出発地は、ユーザ端末130の現在地であってよい。すなわち、ユーザ端末130は、他のユーザがSNSサービスにアップロードした動画を、経路案内のための動画形態のコンテンツとして受信(ダウンロード)してよい。受信した動画を利用しながら、ユーザ端末130は、ユーザ端末130の出発地から、その動画に含まれる目的地への移動に伴って、ユーザ端末130の位置に対応する映像を表示してよい。したがって、ユーザは、他のユーザがSNSサービスにアップロードした動画と実際に移動中の経路とを比べながら、目的地に移動することが可能となる。
段階530において、コンテンツ提供部244は、受信したコンテンツを利用し、ユーザ端末130の出発地から目的地への移動に伴ってユーザ端末130の位置に対応する映像を表示部250に表示してよい。
一例として、ユーザ端末130のユーザがAレストランを目的地とし、現在地(出発地)からAレストランまでの経路案内要求をサーバ120に送信した場合、ユーザ端末130は、Aレストランまでの経路を撮影した映像情報を含むコンテンツを、最適経路の案内のためのコンテンツとしてサーバ120から受信し、このようなコンテンツを利用することで、Aレストランまでの移動過程で撮影された映像による経路案内をユーザに提供してよい。このとき、映像情報は、以前にAレストランを訪問したことのあるユーザが撮影してサーバ120にアップロードしたものであってよい。
図6を参照しながら、段階530についてさらに詳しく説明する。
図6は、一実施形態における、ユーザ端末が目的地への移動に伴い、ユーザ端末の位置に対応する経路案内のための映像を表示する方法を示したフローチャートである。
段階610において、コンテンツ提供部244は、段階520で受信したコンテンツに含まれる複数のフレームから、ユーザ端末130の位置に対応するフレームを決定してよい。決定されたフレームは、ユーザ端末130が前記位置に位置したときにユーザ端末130に表示される「再生フレーム」であってよい。コンテンツ提供部244は、複数のフレームと関連する位置情報とユーザ端末の位置情報とを比べることにより、ユーザ端末130の位置に対応するフレームを決定してよい。すなわち、複数のフレームのうち、その撮影位置がユーザ端末の(現在)位置に該当するか、その位置に最も近いフレームが、前記位置の再生フレームとして決定されてよい。ユーザ端末130の位置に相応しい再生フレームをマッチングさせる方法については、図11を参照しながらさらに詳しく説明する。
段階620において、コンテンツ提供部244は、ユーザ端末130が該当の位置に位置したときに、再生フレーム(段階610で決定されたフレーム)を表示部250に表示してよい。したがって、ユーザ端末130がサーバ120から目的地までの経路の案内を受けるにあたり、ユーザ端末130が経路内の位置に位置することにより、該当の位置の地物を撮影した映像がユーザ端末130に表示されてよい。
一方、表示部250に表示される再生フレーム(段階610で決定されたフレーム)は、図4を参照しながら上述した最適フレーム、または複数の候補フレームを合成して生成された再構成フレームであってよい。
段階622において、コンテンツ提供部244は、表示部250において、再生フレームと共に、再生フレームの中心に第1ガイド情報を表示してよい。第1ガイド情報は、ユーザ端末130の位置または姿勢を示す情報であってよい。第1ガイド情報は、ユーザ端末130の基準位置を示す情報であってよい。
段階624において、コンテンツ提供部244は、表示部250において、再生フレームおよび第1ガイド情報と共に、再生フレームと関連する進行方向情報および姿勢情報のうちの少なくとも一方とユーザ端末130の姿勢情報および進行方向情報のうちの少なくとも一方に基づいて決定された位置に第2ガイド情報を表示してよい。
第2ガイド情報は、ユーザ端末130の所期の位置または姿勢への操作を誘導する情報であってよく、第2ガイド情報によって誘導されるユーザ端末130の所期の位置または姿勢への操作は、第1ガイド情報の表示位置と第2ガイド情報の表示位置とを一致させるユーザ端末130の操作であってよい。
第1ガイド情報および第2ガイド情報は、再生フレームと重なって表示されてよい。
第1ガイド情報および第2ガイド情報の具体的な例については、図12を参照しながらさらに具体的に説明する。
図7を参照しながら、第2ガイド情報を表示する方法についてさらに詳しく説明する。図7は、一実施形態における、ユーザ端末が経路案内のための映像を表示するにあたり、第2ガイド情報を共に表示する方法を示したフローチャートである。
段階710において、コンテンツ提供部244は、再生フレームと関連する進行方向角度(heading angle)とユーザ端末130の進行方向角度(heading angle)とを比べることによって方向差角度を計算してよい。すなわち、方向差角度は、再生フレームの撮影時の進行方向角度とユーザ端末130の進行方向角度との差を示してよい。例えば、方向差角度は、再生フレームの撮影時の再生フレームと関連する進行方向に対するヨー角度(すなわち、進行方向情報による進行方向に対する姿勢情報によるヨー角度)とユーザ端末130のヨー角度(ユーザ端末130の進行方向に対するユーザ端末130のヨー角度)との差を示してよい。
段階710において、コンテンツ提供部244は、再生フレームと関連する姿勢情報とユーザ端末130の姿勢情報とを比べることによって姿勢差角度を計算してよい。再生フレームと関連する姿勢情報およびユーザ端末130の姿勢情報はそれぞれ、ロール(roll)角度、ピッチ(pitch)角度、およびヨー(yaw)角度のうちの少なくとも1つを含んでよい。例えば、姿勢差角度は、再生フレームの撮影時のロール角度および/またはピッチ角度と、ユーザ端末130のロール角度および/またはピッチ角度との差を示してよい。姿勢差角度は、ピッチ角度差およびロール角度差をそれぞれ含んでよい。
段階730において、コンテンツ提供部244は、計算された方向差角度および姿勢差角度に基づき、第2ガイド情報の表示位置を決定してよい。第2ガイド情報の表示位置は、再生フレームの中心に表示される第1ガイド情報の表示位置を基準にして決定されてよい。例えば、第2ガイド情報の表示位置は、第1ガイド情報の表示位置から方向差角度および姿勢差角度に対応する値だけ移動した位置が決定されてよい。すなわち、第1ガイド情報の表示位置から方向差角度に該当する値だけ横(x軸)に移動し、姿勢差角度(ピッチ角度差および/またはロール角度差)に該当する値だけ縦(y軸)に移動した位置が、第2ガイド情報の表示位置として決定されてよい。一実施形態において、姿勢差角度は、ピッチ角度の差であってよい。
段階740において、コンテンツ提供部244は、決定された表示位置に第2ガイド情報を表示してよい。第1ガイド情報および第2ガイド情報は、再生フレームと重なって表示されてよい。
ユーザは、表示された第1ガイド情報および第2ガイド情報を参照しながらユーザ端末130を操作することにより(すなわち、動きとして)、第2ガイド情報が再生フレームの中心に表示されるようにしてよく、これにより、第1ガイド情報および第2ガイド情報の表示位置を一致させてよい。これにより、再生フレームの撮影時の進行方向情報および姿勢情報にユーザ端末の進行方向情報および姿勢情報をマッチングさせるようになり、ユーザは、表示された再生フレームと該当の位置の実際の地物とを容易に比較することが可能となる。
段階750において、コンテンツ提供部244は、計算された方向差角度および姿勢差角度のうちの少なくとも一方が所定の値以上となる場合、通知メッセージを表示部250に表示してよい。すなわち、図には示されていないが、コンテンツ提供部244は、計算された方向差角度および姿勢差角度のうちの少なくとも一方が所定の値以上であるかを判定し、通知メッセージを表示するかを決定してよい。
通知メッセージは、テキストメッセージ、および/または例えば、矢印のような記号を含んでよい。通知メッセージは、ユーザ端末130が操作されなければならない方向を指示するものであってよい。通知メッセージは、ユーザ端末130に表示される再生フレームと重なって表示されてよい。
通知メッセージは、視覚的な形態で出力される他にも、効果音や音声のようなサウンドで出力されてもよい。
また、通知メッセージは、案内される経路上の位置(緯度および経度)からユーザ端末130が所定の値以上だけ外れた場合に表示されてよい。通知メッセージは、ユーザ端末130が経路からどの方向に外れているのか、および/またはどのくらい外れているのかを示す矢印のような記号および/またはテキストを含んでよい。
一方、コンテンツ提供部244は、ユーザ端末130のセンサ部260によって取得されるユーザ端末130の位置情報および/または速度情報と、経路案内のためのコンテンツが含む映像情報の位置情報および/または速度情報とを比べることにより、ユーザ端末130に表示される映像(再生フレーム)の再生速度を調節してよい。例えば、経路に沿って移動するユーザ端末130が移動を止めた場合、表示される映像の再生も止められてよい(すなわち、停止画像がユーザ端末130に表示される)。
以上、図1~図4を参照しながら上述した技術的特徴についての説明は、図5~図7にもそのまま適用可能であるため、重複する説明は省略する。
図8は、一実施形態における、撮影を実行する装置による映像情報の取得方法を示した図である。
図8は、装置110がカメラ116を利用して場所または位置の地物を撮影する方法を示している。
θは、装置110の進行方向角度として、装置110と関連する進行方向情報が示す方向に対する装置110のヨー角度であってよい。装置110と関連する姿勢情報は、図に示すように、装置110のヨー回転、ロール回転、およびピッチ回転によって決定される角度(複数)を含んでよい。
装置110は、撮影時点(timing)における進行方向情報および姿勢情報と、その位置情報を撮影した映像とを関連させることにより、上述した映像情報を生成してよい。一方、装置110が移動しながら地物を撮影する場合(すなわち、動画撮影を実行する場合)、装置110の速度情報も映像と関連させてよく、生成される映像情報には速度情報が含まれてよい。
以上、図1~図7を参照しながら上述した技術的特徴についての説明は、図8にもそのまま適用可能であるため、重複する説明は省略する。
図9は、一実施形態における、サーバにおいて、経路案内が要求された経路内の位置に相応しい候補フレームをマッチングさせる方法を示した図である。
図9を参照しながら、サーバ120が取得して管理している映像情報(例えば、複数の撮影者が撮影した映像情報)に含まれる複数のフレームを所定の経路内の位置にマッチングさせる方法について説明する。図に示された経路は、ユーザ端末130が要求した目的地に対する最適経路であってよい。サーバ120は、所定のマッチングアルゴリズムを使用して経路内の各位置に相応しいフレームをマッチングさせてよい。
サーバ120は、各フレームと関連する位置情報(緯度、経度、高度)、進行方向情報(進行方向)、および姿勢情報(ロール角度、ピッチ角度、ヨー角度)をインデックス(index)として目的地内の各位置と比べることにより、各位置に相応しいフレームをマッチングさせてよい。例えば、サーバ120は、緯度および経度が一致する(または類似する)位置およびフレームを互いにマッチングさせてよい。
緯度および経度値を使用して2つの地点の距離を計算する方法としては、球(地球)の上に位置する2つの点の距離を計算する方法が適用されてよい。すなわち、地球の中心からの夾角を2つの点の内積を利用して求めた後、弧の長さを計算することによって2つの点の距離を計算してよい。または、vincenty方法(https://www.ngs.noaa.gov/PUBS_LIB/inverse.pdf参照)を適用して2つの点の距離を計算してよい。
すなわち、サーバ120は、DB内のフレームのうちから、ユーザ端末130によって要求された経路内の位置に最も符合して経路案内提供時のユーザ端末130の方向および姿勢と最大限に一致するフレームを選択することにより、ユーザ端末130で自然な映像が再生されるようにすることが可能となる。
以上、図1~図8を参照しながら上述した技術的特徴についての説明は、図9にもそのまま適用可能であるため、重複する説明は省略する。
図10は、一実施形態における、サーバが複数の撮影者によって撮影された映像情報を分析および加工することによって経路案内のための最適映像を生成する方法を示した図である。
図10を参照しながら、上述した複数の候補フレーム(候補映像)に基づいて最適フレーム(最適映像)を生成する方法についてさらに詳しく説明する。図に示された最適映像は、ユーザ端末130に表示される再生フレームに対応してよい。
図に示すように、複数の候補フレームは、複数の撮影者の装置110-1~110-Nによって撮影されたものであってよい。例えば、装置110-1~110-Nによって場所または位置160の地物が多数の角度から撮影されたものであってよい。
装置110-1~110-Nによって撮影された映像に基づいて生成された映像情報に基づき、経路内の位置160に対する候補映像1~Nが決定されてよい。
サーバ120は、候補映像1~Nを分解、合成、および再構成することにより、最適映像に対応する再構成映像を生成してよい。最適映像は、ユーザ端末130のユーザが位置160に位置したときに、ユーザ端末130が最適映像と位置160の地物とを最も容易に比較できるようにする映像であってよい。最適映像は、候補映像に含まれる歪曲または欠陥が補正された映像であってよい。
候補映像1~Nの分解、合成、および再構成は、例えば、マシンラーニング、ディープラーニング、または人工神経網を基盤とした学習による映像処理方法を使用し、サーバ120または外部サーバによって実行されてよい。
したがって、サーバ120が取得した映像情報が多少不完全であって最適映像を含んでいない場合でも、サーバ120は、このような不完全な映像情報に含まれる映像を分解、合成、および再構成することにより、最適映像を含む経路案内のためのコンテンツを生成することが可能となる。
以上、図1~図9を参照しながら上述した技術的特徴についての説明は、図10にもそのまま適用可能であるため、重複する説明は省略する。
図11は、一実施形態における、ユーザ端末が、ユーザ端末の位置に相応しい再生フレームをマッチングさせる方法を示した図である。
図11を参照しながら、ユーザ端末130の経路に沿った移動に伴ってユーザ端末130の位置に対応する適切な再生フレームが決定される方法についてさらに詳しく説明する。
図に示された経路は、ユーザ端末130が要求した目的地に対する最適経路であってよい。
ユーザ端末130は、経路案内のためのコンテンツが含むフレームの位置情報(緯度および経度)をユーザ端末130の位置情報と比べることにより、ユーザ端末130の位置に相応しい再生フレームを決定してよい。
緯度および経度値を利用して2つの地点の距離を計算する方法としては、例えば、上述したvincenty方法(https://www.ngs.noaa.gov/PUBS_LIB/inverse.pdf参照)が適用されてよい。
すなわち、ユーザ端末130は、自身の位置に最も符合する再生フレームを表示することが可能となり、ユーザは、表示された再生フレームを参照しながら、該当の位置の地物と容易に比べることが可能となる。
以上、図1~図10を参照しながら上述した技術的特徴についての説明は、図11にもそのまま適用可能であるため、重複する説明は省略する。
図12は、一実施形態における、経路案内のための映像と共にガイド情報をユーザ端末に表示する方法を示した図である。
図12は、経路案内のためのコンテンツに含まれる再生フレームがユーザ端末130に表示された状態を示している。図に示すように、ユーザ端末130には、第1ガイド情報1210と第2ガイド情報1220が再生フレームに重なって表示されてよい。第1ガイド情報1210は、再生フレームの中心(すなわち、ユーザ端末130の画面の中心)に位置するものであって、ユーザ端末130を動かしてもその表示位置は維持されてよい。
第2ガイド情報1220は、図7を参照しながら説明したように、方向差角度および姿勢差角度の値だけ第1ガイド情報1210から離れた位置に表示されてよい。
ユーザは、ユーザ端末130を動かして第1ガイド情報1210および第2ガイド情報1220の表示位置を一致させてよい。これにより、ユーザは、表示された再生フレームと該当の位置の実際の地物とをより容易に比べることが可能となる。
なお、図には示されていないが、ユーザ端末130には、目的地までの全体経路が再生フレームと共に表示されてもよい。全体経路は、例えば、マップアプリケーションが提供する経路のような形態で表示されてよい。これにより、ユーザは、再生フレームと実際の地物とを比べると同時に、目的地までの全体的な経路を確認することが可能となる。
以上、図1~図11を参照しながら上述した技術的特徴についての説明は、図12にもそのまま適用可能であるため、重複する説明は省略する。
上述した実施形態において、サーバ120およびその構成によって実行される動作は、ユーザ端末130によって実行されるものとして実現されてもよい。例えば、サーバ120は、映像情報を記録および管理するだけであって、経路案内のためのコンテンツを生成するための全般的な動作は、ユーザ端末およびその構成によって実行されるものとして実現されてもよい。
言い換えれば、サーバ120によって実行される少なくとも一部の動作は、クライアントに該当するユーザ端末130によっても実行可能である。
これとは反対に、ユーザ端末130によって実行される少なくとも一部の動作は、クライアントに該当するサーバ120によっても実行可能である。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ記録媒体または装置、または送信される信号波に永久的または一時的に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含んでよい。媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであっても、コンピュータソフトウェアの当業者に公知されて使用可能なものであってもよい。コンピュータ読み取り可能な媒体の例には、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令が記録されて実行されるように特別に構成されたハードウェア装置が含まれる。プログラム命令の例には、コンパイラによって生成されるもののような機械語コードだけでなく、インタプリタなどを使用してコンピュータによって実行されることのできる高級言語コードが含まれる。上述したハードウェア装置は、実施形態の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成されてよく、その逆も同じである。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって代替されたり置換されたとしても、適切な結果を達成することができる。
110:装置
120:サーバ
125:データベース
130:ユーザ端末

Claims (19)

  1. サーバが実行する経路案内のためのコンテンツ提供方法であって、
    撮影位置と関連する位置情報、撮影のために使用された装置と関連する姿勢情報、および進行方向情報を含む映像情報を取得する映像情報取得段階、および
    ユーザ端末から受信した前記位置情報と関連する経路案内要求に従って、前記映像情報を含む経路案内のための動画形態のコンテンツを提供するコンテンツ提供段階
    を含
    前記動画形態のコンテンツは、前記動画形態のコンテンツのフレームと共に、前記フレームの中心または前記ユーザ端末の画面の中心に第1ガイド情報が表示されるように、前記ユーザ端末に提供され、前記第1ガイド情報は、前記ユーザ端末の位置または姿勢を示す情報である、
    経路案内のためのコンテンツ提供方法。
  2. 前記映像情報は、複数のフレームを含み、
    前記位置情報、前記姿勢情報、および前記進行方向情報は、前記複数のフレームそれぞれが撮影された時点(timing)と関連する情報である、
    請求項1に記載の経路案内のためのコンテンツ提供方法。
  3. 前記位置情報は、前記撮影位置のGPS情報を含み、
    前記進行方向情報は、前記撮影のために使用された装置の進行方向を含み、
    前記姿勢情報は、前記撮影のために使用された装置のロール(roll)角度、ピッチ(pitch)角度、および前記進行方向に対するヨー(yaw)角度のうちの少なくとも1つを含む、
    請求項1に記載の経路案内のためのコンテンツ提供方法。
  4. 前記動画形態のコンテンツは、前記ユーザ端末の出発地から目的地への移動に伴って前記ユーザ端末の位置に対応する映像を前記ユーザ端末に表示するように、前記ユーザ端末に提供される、
    請求項1に記載の経路案内のためのコンテンツ提供方法。
  5. 前記コンテンツ提供段階は、
    前記出発地から前記目的地までの最適経路を決定する段階、
    前記映像情報に含まれる複数のフレームそれぞれと関連する位置情報、姿勢情報、および進行方向情報に基づき、前記最適経路内の位置に対して少なくとも1つの候補フレームを決定する段階、
    前記候補フレームに基づき、前記位置に対して決定された最適フレームを含む前記動画形態のコンテンツを生成する段階、および
    前記動画形態のコンテンツを前記ユーザ端末に提供する段階
    を含む、請求項4に記載の経路案内のためのコンテンツ提供方法。
  6. 前記候補フレームは複数であり、
    前記最適フレームは、複数の候補フレームを合成することによって生成された再構成フレームである、
    請求項5に記載の経路案内のためのコンテンツ提供方法。
  7. 前記再構成フレームは、前記位置と関連する3次元映像を含む、
    請求項6に記載の経路案内のためのコンテンツ提供方法。
  8. 前記最適経路内の位置は複数であり、
    前記候補フレームおよび前記最適フレームは、前記最適経路内の複数の位置それぞれに対して決定され、
    前記動画形態のコンテンツは、前記ユーザ端末が前記最適経路に沿って移動するにあたり、前記ユーザ端末が前記複数の位置のうち第1位置に位置したときに前記第1位置と関連する最適フレームが前記ユーザ端末に表示されるように、前記ユーザ端末に提供される、
    請求項5に記載の経路案内のためのコンテンツ提供方法。
  9. 前記動画形態のコンテンツは、
    前記動画形態のコンテンツのフレームと共に、記フレームと関連する進行方向情報および姿勢情報のうちの少なくとも一方と前記ユーザ端末の姿勢情報および進行方向情報のうちの少なくとも一方に基づいて決定された位置に第2ガイド情報が前記ユーザ端末に表示されるように、前記ユーザ端末に提供され、
    前記第2ガイド情報は、前記ユーザ端末の所期の位置または姿勢への操作を誘導する情報である、
    請求項に記載の経路案内のためのコンテンツ提供方法。
  10. 前記候補フレームまたは前記最適フレームは、前記位置に対応する位置情報と関連し、前記位置から前記目的地に向かう道路または道を正面から撮影した進行方向情報および姿勢情報と関連するフレームを含む、
    請求項5に記載の経路案内のためのコンテンツ提供方法。
  11. 前記映像情報取得段階は、複数の撮影者によって撮影された映像情報を取得し、
    前記候補フレームは、前記複数の撮影者によって撮影された映像情報に含まれる複数のフレームそれぞれと関連する位置情報、姿勢情報、および進行方向情報に基づいて前記最適経路内の位置に対して決定される、
    請求項5に記載の経路案内のためのコンテンツ提供方法。
  12. ユーザ端末が実行する経路案内のためのコンテンツ提供方法であって、
    経路案内要求をサーバに送信する送信段階、
    前記サーバから、出発地から目的地までの経路内に存在する少なくとも1つの位置と関連する映像情報を含むコンテンツを受信する受信段階であって、前記映像情報は、撮影位置と関連する位置情報、撮影のために使用された装置と関連する姿勢情報、および進行方向情報を含む、受信段階、および
    前記コンテンツを使用し、前記ユーザ端末の前記出発地から前記目的地への移動に伴って前記ユーザ端末の位置に対応する映像を表示する表示段階
    を含み、
    前記表示段階において、前記映像は、前記ユーザ端末の位置に対応するフレームと共に表示され、表示される前記フレームの中心または前記ユーザ端末の画面の中心に第1ガイド情報が表示され、前記第1ガイド情報は、前記ユーザ端末の位置または姿勢を示す情報である、
    経路案内のためのコンテンツ提供方法。
  13. 前記表示段階は、
    前記コンテンツに含まれる複数のフレームから前記ユーザ端末の位置に対応する前記フレームを決定する決定段階であって、前記フレームは、前記フレームと関連する位置情報と前記ユーザ端末の位置情報との比較結果に基づいて決定される決定段階、および
    前記ユーザ端末が前記位置に位置したときに前記決定されたフレームを表示するフレーム表示段階
    を含む、請求項12に記載の経路案内のためのコンテンツ提供方法。
  14. 前記決定されたフレームは、複数の候補フレームを合成して生成された再構成フレームである、
    請求項13に記載の経路案内のためのコンテンツ提供方法。
  15. 前記フレーム表示段階は、
    前記決定されたフレームおよび前記第1ガイド情報と共に、前記決定されたフレームと関連する進行方向情報および姿勢情報のうちの少なくとも一方と前記ユーザ端末の姿勢情報および進行方向情報のうちの少なくとも一方に基づいて決定された位置に第2ガイド情報を表示する第2ガイド情報表示段階
    を含み、
    前記第2ガイド情報は、前記ユーザ端末の所期の位置または姿勢への操作を誘導する情報であり、
    前記ユーザ端末の所期の位置または姿勢への操作は、前記第1ガイド情報の表示位置と前記第2ガイド情報の表示位置とを一致させる前記ユーザ端末の操作である、
    請求項13に記載の経路案内のためのコンテンツ提供方法。
  16. 前記第2ガイド情報表示段階は、
    前記決定されたフレームと関連する進行方向角度(heading angle)と前記ユーザ端末の進行方向角度とを比べることによって方向差角度を計算する段階、
    前記決定されたフレームと関連する姿勢情報と前記ユーザ端末の姿勢情報とを比べることによって姿勢差角度を計算する段階、および
    前記方向差角度および前記姿勢差角度に基づいて前記第2ガイド情報の表示位置を決定し、決定された表示位置に前記第2ガイド情報を表示する段階
    を含み、
    前記姿勢差角度は、前記決定されたフレームと関連するロール(roll)角度およびピッチ(pitch)角度のうちの少なくとも1つと前記ユーザ端末と関連するロール(roll)角度およびピッチ(pitch)角度のうちの少なくとも1つとの比較に基づいて生成される、
    請求項15に記載の経路案内のためのコンテンツ提供方法。
  17. 前記フレーム表示段階は、
    前記方向差角度および前記姿勢差角度のうちの少なくとも一方が所定の値以上となる場合、通知メッセージを表示する段階
    を含む、
    請求項16に記載の経路案内のためのコンテンツ提供方法。
  18. 前記映像情報は、前記経路内に存在する少なくとも1つの位置を複数の撮影者が撮影した映像情報を含む、
    請求項12に記載の経路案内のためのコンテンツ提供方法。
  19. 前記映像情報は、ストリートビューまたはロードビューサービスを提供するサーバから取得した前記経路内に存在する少なくとも1つの位置と関連する映像情報を含む、
    請求項12に記載の経路案内のためのコンテンツ提供方法。
JP2019154778A 2018-09-10 2019-08-27 経路案内のためのコンテンツ提供方法および装置 Active JP7469008B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180107572A KR102566039B1 (ko) 2018-09-10 2018-09-10 경로 안내를 위한 콘텐츠 제공 방법 및 장치
KR10-2018-0107572 2018-09-10

Publications (2)

Publication Number Publication Date
JP2020042025A JP2020042025A (ja) 2020-03-19
JP7469008B2 true JP7469008B2 (ja) 2024-04-16

Family

ID=69798111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019154778A Active JP7469008B2 (ja) 2018-09-10 2019-08-27 経路案内のためのコンテンツ提供方法および装置

Country Status (2)

Country Link
JP (1) JP7469008B2 (ja)
KR (1) KR102566039B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021225085A1 (ja) * 2020-05-08 2021-11-11 株式会社ミックウェア 情報処理システム、情報処理方法、情報処理プログラム、およびサーバ

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005005927A1 (ja) 2003-07-10 2005-01-20 Apricot Co., Ltd. 道案内システムおよび道案内方法
WO2008044309A1 (en) 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method
JP2010028492A (ja) 2008-07-21 2010-02-04 Denso Corp 撮影情報閲覧システム
JP2014085192A (ja) 2012-10-23 2014-05-12 Jvc Kenwood Corp ナビゲーションシステム、映像サーバ、映像管理方法、映像管理プログラム、及び映像提示端末
KR101862685B1 (ko) 2017-02-02 2018-05-31 주식회사 올포랜드 위치 기반 동영상 데이터 생성 및 검색 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100682976B1 (ko) * 2004-12-16 2007-02-15 한국전자통신연구원 영상기반 경로정보 생성 시스템 및 그 방법
KR20150054282A (ko) * 2013-11-11 2015-05-20 주식회사 케이티 길 안내 영상 제공 시스템, 길 안내 영상 제공 방법 및 길 안내 영상 재생 디바이스

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005005927A1 (ja) 2003-07-10 2005-01-20 Apricot Co., Ltd. 道案内システムおよび道案内方法
WO2008044309A1 (en) 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method
JP2010028492A (ja) 2008-07-21 2010-02-04 Denso Corp 撮影情報閲覧システム
JP2014085192A (ja) 2012-10-23 2014-05-12 Jvc Kenwood Corp ナビゲーションシステム、映像サーバ、映像管理方法、映像管理プログラム、及び映像提示端末
KR101862685B1 (ko) 2017-02-02 2018-05-31 주식회사 올포랜드 위치 기반 동영상 데이터 생성 및 검색 방법

Also Published As

Publication number Publication date
KR102566039B1 (ko) 2023-08-10
JP2020042025A (ja) 2020-03-19
KR20200029153A (ko) 2020-03-18

Similar Documents

Publication Publication Date Title
US11854149B2 (en) Techniques for capturing and displaying partial motion in virtual or augmented reality scenes
US9699375B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US11080908B2 (en) Synchronized display of street view map and video stream
CN109561282B (zh) 一种用于呈现地面行动辅助信息的方法与设备
KR101806957B1 (ko) 관심 지점의 자동 업데이트를 위한 방법 및 시스템
CN113806306B (zh) 媒体文件处理方法、装置、设备、可读存储介质及产品
CN112907652B (zh) 相机姿态获取方法、视频处理方法、显示设备和存储介质
JP7469008B2 (ja) 経路案内のためのコンテンツ提供方法および装置
CN109891188B (zh) 移动平台、摄像路径生成方法、程序、以及记录介质
US20240007738A1 (en) Method and Device for Image Frame Selection
CN111818265A (zh) 基于增强现实模型的交互方法、装置、电子设备及介质
GB2513865A (en) A method for interacting with an augmented reality scene
CN107168521B (zh) 观影指引方法、装置及头戴式显示设备
JP2024016765A (ja) 処理装置、処理プログラム及び処理方法
JP2016133701A (ja) 情報提供システム、及び情報提供方法
CN112887793B (zh) 视频处理方法、显示设备和存储介质
CN114117092A (zh) 远程协作方法、装置、电子设备和计算机可读介质
US20220166917A1 (en) Information processing apparatus, information processing method, and program
KR102407522B1 (ko) 실시간 3차원 모델 구축 방법 및 시스템
KR101934799B1 (ko) 파노라마 영상을 이용하여 새로운 컨텐츠를 생성하는 방법 및 시스템
KR20170139202A (ko) 파노라마 영상을 이용하여 새로운 컨텐츠를 생성하는 방법 및 시스템
KR102147485B1 (ko) 촬영 가이드 방법 및 시스템
JPWO2018179312A1 (ja) 画像生成装置及び画像生成方法
KR20180097913A (ko) 사용자 단말의 사용자 인터페이스를 이용하는 촬영 동작 가이드 방법 및 시스템
US10075543B2 (en) Control display of information acquired from social networking service on electronic book content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240404

R150 Certificate of patent or registration of utility model

Ref document number: 7469008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150