JP2021018480A - Image display apparatus, image display system, and image display method - Google Patents
Image display apparatus, image display system, and image display method Download PDFInfo
- Publication number
- JP2021018480A JP2021018480A JP2019132082A JP2019132082A JP2021018480A JP 2021018480 A JP2021018480 A JP 2021018480A JP 2019132082 A JP2019132082 A JP 2019132082A JP 2019132082 A JP2019132082 A JP 2019132082A JP 2021018480 A JP2021018480 A JP 2021018480A
- Authority
- JP
- Japan
- Prior art keywords
- display
- display unit
- information
- image
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、複数の表示部間で画像表示を切り換える画像表示装置、画像表示システムおよび画像表示方法に関する。 The present invention relates to an image display device, an image display system, and an image display method for switching image display between a plurality of display units.
この種の装置として、従来、携帯端末のディスプレイと移動ロボットのディスプレイとのいずれか一方に特定のキャラクタ画像を表示させるようにした装置が知られている(例えば特許文献1参照)。特許文献1記載の装置では、ユーザが命令を入力する命令モードで、携帯端末のディスプレイにキャラクタ画像を表示させ、ユーザを道案内する誘導モードで、ユーザの近くにいるロボットのディスプレイにキャラクタ画像を表示させる。
As a device of this type, conventionally, a device in which a specific character image is displayed on either a display of a mobile terminal or a display of a mobile robot is known (see, for example, Patent Document 1). In the device described in
しかしながら、上記特許文献1記載の装置では、ユーザによって選択されるモードが誘導モードから命令モードに変わるとロボットのディスプレイから携帯端末のディスプレイへとキャラクタ画像が移動されるため、キャラクタ画像が移動するときにユーザによるモード選択操作が必要となり、キャラクタ画像に対する移動指令として違和感がある。
However, in the device described in
本発明の一態様は、ユーザが携帯する第1機器に設けられる第1表示部と、第2機器に設けられる第2表示部とのいずれかに、ユーザの識別IDに紐付けられたオブジェクト画像を表示させる画像表示装置である。画像表示装置は、第2機器に対する第1機器の相対位置情報と、第1機器の姿勢情報および第1機器に入力される音声情報の少なくとも一方を含む第1機器の操作情報と、を取得する情報取得部と、情報取得部により取得された第2機器に対する第1機器の相対位置情報と第1機器の操作情報とに基づいて、第1機器が第2機器を基準とする所定範囲内にあり、かつ、第1機器に対する姿勢変化および音声入力の少なくとも一方の操作である所定操作が行われたか否かを判定する操作判定部と、操作判定部により所定操作が行われたと判定されると、第2表示部に表示されたオブジェクト画像が第2表示部から第1表示部に移動して表示されるように第1表示部および第2表示部を制御する表示制御部と、を備える。 One aspect of the present invention is an object image associated with a user's identification ID on either the first display unit provided on the first device carried by the user or the second display unit provided on the second device. It is an image display device for displaying. The image display device acquires the relative position information of the first device with respect to the second device, the posture information of the first device, and the operation information of the first device including at least one of the voice information input to the first device. Based on the information acquisition unit, the relative position information of the first device with respect to the second device acquired by the information acquisition unit, and the operation information of the first device, the first device is within a predetermined range with respect to the second device. If there is, and it is determined by the operation determination unit that determines whether or not a predetermined operation that is at least one of the posture change and the voice input for the first device has been performed, and the operation determination unit that the predetermined operation has been performed. , A display control unit that controls the first display unit and the second display unit so that the object image displayed on the second display unit is moved from the second display unit to the first display unit and displayed.
本発明の他の態様は、画像表示装置と、第1表示部を有し、ユーザが携帯する第1機器と、第2表示部を有する第2機器と、を備える画像表示システムである。第1機器および第2機器は、絶対位置を検出するGPSセンサ、第1機器と第2機器と間の距離を検出する測距センサ、または、第1機器と第2機器との間で電波を送受信する送受信部をさらに有する。第1機器は、姿勢検出センサおよび音声検出センサの少なくとも一方をさらに有する。 Another aspect of the present invention is an image display system including an image display device, a first device having a first display unit and carried by a user, and a second device having a second display unit. The first device and the second device are a GPS sensor that detects an absolute position, a distance measuring sensor that detects the distance between the first device and the second device, or a radio wave between the first device and the second device. It further has a transmission / reception unit for transmission / reception. The first device further includes at least one of a posture detection sensor and a voice detection sensor.
本発明のさらに他の態様は、ユーザが携帯する第1機器に設けられる第1表示部と、第2機器に設けられる第2表示部とのいずれかに、ユーザの識別IDに紐付けられたオブジェクト画像を表示させる画像表示方法である。画像表示方法は、コンピュータによりそれぞれ実行される、第2機器に対する第1機器の相対位置情報と、第1機器の姿勢情報および第1機器に入力される音声情報の少なくとも一方を含む第1機器の操作情報と、を取得する情報取得ステップと、情報取得ステップで取得された第2機器に対する第1機器の相対位置情報と第1機器の操作情報とに基づいて、第1機器が第2機器を基準とする所定範囲内にあり、かつ、第1機器に対する姿勢変化および音声入力の少なくとも一方の操作である所定操作が行われたか否かを判定する操作判定ステップと、操作判定ステップで所定操作が行われたと判定されると、第2表示部に表示されたオブジェクト画像が第2表示部から第1表示部に移動して表示されるように第1表示部および第2表示部を制御する表示制御ステップと、を含む。 In still another aspect of the present invention, the user's identification ID is associated with either the first display unit provided on the first device carried by the user or the second display unit provided on the second device. This is an image display method for displaying an object image. The image display method of the first device includes at least one of the relative position information of the first device with respect to the second device, the posture information of the first device, and the audio information input to the first device, which are executed by the computer. The first device sets the second device based on the operation information, the information acquisition step for acquiring the information, the relative position information of the first device with respect to the second device acquired in the information acquisition step, and the operation information of the first device. An operation determination step for determining whether or not a predetermined operation is performed, which is within a predetermined range as a reference and is at least one operation of a posture change and a voice input to the first device, and a predetermined operation in the operation determination step are performed. A display that controls the first display unit and the second display unit so that the object image displayed on the second display unit moves from the second display unit to the first display unit and is displayed when it is determined that the image has been performed. Includes control steps and.
本発明によれば、第1機器の第1表示部と第2機器の第2表示部との間で、ユーザにとって違和感なくオブジェクト画像を移動させることができる。 According to the present invention, the object image can be moved between the first display unit of the first device and the second display unit of the second device without any discomfort for the user.
以下、図1A〜図7を参照して本発明の一実施形態について説明する。本発明の実施形態に係る画像表示装置は、それぞれ表示部(ディスプレイ)を有する互いに独立した複数の機器に適用することができるが、以下では、ユーザが携帯する携帯端末と車両に搭載された表示機器とに適用する例を説明する。 Hereinafter, an embodiment of the present invention will be described with reference to FIGS. 1A to 7. The image display device according to the embodiment of the present invention can be applied to a plurality of independent devices each having a display unit (display), but in the following, a display mounted on a mobile terminal carried by a user and a vehicle. An example of applying to a device will be described.
近年、車両やロボット等の各種機器のシェアリングサービスが普及している。このようなシェアリングサービスではユーザが個人で所有しない機器を利用するため、ユーザが個人で所有する機器を利用する場合と比べて、機器に対するユーザの信頼や愛着が低下する懸念がある。その結果、機器を利用するときのユーザの満足度が低下する、あるいは、ユーザによる機器の取り扱いが粗雑になる等のおそれがある。 In recent years, sharing services for various devices such as vehicles and robots have become widespread. Since such a sharing service uses a device that the user does not own, there is a concern that the user's trust and attachment to the device may decrease as compared with the case where the user uses the device that the user owns. As a result, the satisfaction level of the user when using the device may decrease, or the handling of the device by the user may become rough.
このような問題を解消するため、本実施形態では、シェアリングサービスの事業者等により、各種機器のディスプレイに表示されてユーザを支援する各ユーザ専属のAIエージェントが提供されるように構成される。ここで、エージェントは、事業者等のサーバにおいて予めシェアリングサービスに登録したユーザの識別IDに紐付けて管理され、ユーザが利用する機器のディスプレイ上に各ユーザ固有のオブジェクト画像として表示される。オブジェクト画像は、エージェント画像やアバタ画像、キャラクタ画像等とも称される。 In order to solve such a problem, in the present embodiment, the sharing service provider or the like is configured to provide an AI agent dedicated to each user that is displayed on the display of various devices to support the user. .. Here, the agent is managed in association with the identification ID of the user registered in advance in the sharing service on the server of the business operator or the like, and is displayed as an object image unique to each user on the display of the device used by the user. The object image is also referred to as an agent image, an avatar image, a character image, or the like.
図1A〜図1Cは、エージェントを表すオブジェクト画像の一例を示す図であり、ユーザが携帯する携帯端末10のタッチパネル式のディスプレイ11に表示されたオブジェクト画像12を示す。図1Aの例に示すように、オブジェクト画像12は、円形の輪郭に感情を表現する目等が配置された画像により構成され、柔らかく弾力がある質感のものとしてディスプレイ11上で軽く弾むような態様で表示される。このようなオブジェクト画像12の表示態様は、コントローラ(サーバ装置(具体的には、図4のサーバ装置30))により制御される。
1A to 1C are diagrams showing an example of an object image representing an agent, showing the
オブジェクト画像12の表示態様は、エージェント(オブジェクト画像12)に対するユーザの接し方に応じて変化するように制御される。例えば、ユーザがタッチパネルを介してディスプレイ11上に表示されたオブジェクト画像12に触れるときのタッチ操作の押圧力やフリック操作の速さ、連続的に触れるときのタッチ操作やフリック操作の時間間隔等に応じて変化するように制御される。すなわち、コントローラは、予め設定された標準的な操作の強さや速さ、時間間隔等を基準としてユーザの操作が緩慢であるか機敏であるかを評価し、評価結果に応じてオブジェクト画像12の表示態様を変更する。
The display mode of the
具体的には、オブジェクト画像12に触れるときのユーザの操作が弱い、遅い、あるいは時間間隔が長い場合は、ユーザの操作が緩慢であると評価される。この場合のオブジェクト画像12は、図1Bに示すように、ディスプレイ11上でゆっくり揺れ動くような緩慢な態様に変更されるとともに、ディスプレイ11下方に垂れ下がった形状に変化するように表示が制御される。オブジェクト画像12が動く速度や形状変化の程度は、標準的な操作に対するユーザの操作の緩慢さの程度に応じて変化する。
Specifically, when the user's operation when touching the
一方、オブジェクト画像12に触れるときのユーザの操作が強い、速い、あるいは時間間隔が短い場合は、ユーザの操作が機敏であると評価される。この場合のオブジェクト画像12は、図1Cに示すように、ディスプレイ11上を素早く飛び回るような機敏な態様に変更されるとともに、移動方向に延びた形状に変化するように表示が制御される。オブジェクト画像12が動く速度や形状変化の程度は、標準的な操作に対するユーザの操作の機敏さの程度に応じて変化する。
On the other hand, when the user's operation when touching the
タッチパネルを介してオブジェクト画像12に触れるときのユーザの操作に代え、または、それに加え、オブジェクト画像12として表されるエージェントに対するユーザの音声操作に基づいて、オブジェクト画像12の表示態様を制御するように構成してもよい。すなわち、ユーザによる音声入力の声量や速度、言葉遣い等によってオブジェクト画像12の表示態様を制御するように構成してもよい。
Instead of the user's operation when touching the
オブジェクト画像12の表示態様は、機器の利用状態によっても変化するように制御される。例えば、携帯端末10に搭載されたカメラやマイク、指紋センサ等を介して、紐付けられたユーザが認識されると、オブジェクト画像12が嬉しそうな表情に変化するように制御される。また、紐付けられたユーザ以外の者が認識されると、オブジェクト画像12が怪訝な表情に変化するように制御される。さらに、オブジェクト画像12の表示態様は、電話の着信やメッセージの受信があるとディスプレイ11をノックするように制御され、音声操作や電話中のユーザの発言に合わせて頷くように制御される。
The display mode of the
このように生命感を感じさせ、ユーザに寄り添った表示態様のオブジェクト画像12を、利用中の機器のディスプレイ上に表示するように構成することで、ユーザ専属のエージェントが機器内に実在しているかのような存在感(実在感)をユーザに感じさせることができる。そして、このようなオブジェクト画像12を介して、利用中の機器に対するユーザの信頼や愛着を高めることができる。
By configuring the
ところで、このようなオブジェクト画像12を表示してエージェントを利用する機器を変更する場合は、エージェントの実在感を損なわないよう、単一の機器に単一のオブジェクト画像12を表示することが好ましい。すなわち、それまで利用していた機器のディスプレイからオブジェクト画像12の表示を消去するとともに、次に利用する機器のディスプレイにオブジェクト画像12を表示するように切り換え、オブジェクト画像12を移動させることが好ましい。
By the way, when displaying such an
このとき、オブジェクト画像12が瞬間的に消去、表示されたり、利用する機器を切り換える操作が煩雑であったりすると、エージェントの実在感が損なわれ、ユーザが違和感を抱く。そこで、本実施形態では、ユーザが違和感を抱くことがない直感的な操作により、複数の機器のディスプレイ間でオブジェクト画像12を移動させるように構成する。
At this time, if the
図2は、本発明の実施形態に係る画像表示装置を有する画像表示システムの全体構成を概略的に示す図である。図2に示すように、画像表示システム100は、ユーザ1が携帯する携帯端末10と、車両2に搭載された表示機器20と、サーバ装置30とを有する。
FIG. 2 is a diagram schematically showing an overall configuration of an image display system including an image display device according to an embodiment of the present invention. As shown in FIG. 2, the
携帯端末10、表示機器20およびサーバ装置30は、インターネット網や携帯電話網等に代表される公衆無線通信網を含むネットワーク4に接続され、ネットワーク4を介して互いに通信可能である。なお、ネットワーク4には、所定の管理地域ごとに設けられた閉鎖的な通信網、例えば無線LAN、Wi−Fi(登録商標)等も含まれる。
The
携帯端末10は、ユーザ1により携帯して使用されるスマートフォンやタブレット端末、携帯電話、さらにはウェアラブル端末等、表示部としてのディスプレイを有する各種携帯端末により構成される。例えば携帯端末10は、全体が略矩形状の薄型に構成され、一の面のほぼ全体にわたってディスプレイが設けられる(図1A〜図1C参照)。携帯端末10はユーザ固有の端末であり、携帯端末10には、画像表示システム100を利用するユーザ1に紐付けられた識別ID(ユーザID)が付与される。
The
表示機器20は、例えば目的地までの経路誘導を行うナビゲーション機能を有するナビゲーション装置により構成される。図3は、車室内の前部に、運転者に面して配置されるインストルメントパネル5の一部を示す斜視図である。図3には車両2の前後方向および左右方向を矢印で示す。図3に示すように、インストルメントパネル5の左右方向中央部には、全体が略矩形状を呈する表示機器20のディスプレイ21が固定的に配置される。ユーザ1が表示機器20でエージェントを利用する場合、ディスプレイ21にはオブジェクト画像12が表示される。
The
図4は、本発明の実施形態に係る画像表示システム100の要部構成を示すブロック図である。図4に示すように、携帯端末10は、タッチパネル式のディスプレイ11と、GPS衛星からの信号に基づいて携帯端末10の絶対位置P1(緯度、経度)を検出するGPS装置13と、携帯端末10の姿勢および姿勢変化を検出するセンサ群14と、音声を入力するマイク15と、ネットワーク4を介して通信を行う通信部16と、携帯端末10の各部を制御する制御部17と、ユーザID等の各種情報を記憶する記憶部18とを有する。携帯端末10は、さらにキーボードやマイク、カメラ、スピーカ等を有するものであってもよい。
FIG. 4 is a block diagram showing a configuration of a main part of the
タッチパネル式のディスプレイ11は、図1A〜図1Cに示すような全体が略矩形状を呈する液晶ディスプレイ等の表示部と、表示部と一体的に設けられたタッチセンサ110とにより構成される。
The touch
ディスプレイ11の画面表示は、ネットワーク4を介してサーバ装置30により制御されてもよく、携帯端末10にインストールされたアプリケーションを介して携帯端末10側で制御部17により制御されてもよい。ディスプレイ11の画面表示がサーバ装置30側で制御される場合は、通信部16がサーバ装置30から送信された表示制御信号を受信し、受信された表示制御信号に基づいて制御部17が画像信号を生成してディスプレイ11に送信する。
The screen display of the
タッチセンサ110は、ディスプレイ11に対するユーザ1によるタッチ操作の有無、タッチ操作の押圧力、ディスプレイ11上におけるタッチ操作の位置、フリック操作の方向および速さ等の画面操作を検出する。
The
センサ群14は、3軸加速度センサや3軸ジャイロ(角速度)センサ等により構成されて、携帯端末10の姿勢および姿勢変化を検出する。より具体的には、センサ群14は、水平方向に対する携帯端末10の傾き、携帯端末10の動きの方向、移動量、速度、加速度等を検出する。
The
通信部16は、タッチセンサ110により検出される画面操作の情報(画面操作情報)と、センサ群14により検出される携帯端末10の姿勢および姿勢変化の情報(姿勢情報)と、マイク15を介して入力される音声情報とを、ネットワーク4を介してサーバ装置30に送信する。また、通信部16は、GPS装置13により検出される携帯端末10の絶対位置P1の情報(位置情報)を、ネットワーク4を介してサーバ装置30に送信する。
The
図4に示すように、車両2には、表示機器20の他にも、GPS衛星からの信号に基づいて車両2(表示機器20)の絶対位置P2(緯度、経度)を検出するGPS装置24や、車両2の走行速度を検出する車速センサ25等が設けられる。GPS装置24および車速センサ25からの信号は、表示機器20に入力される。
As shown in FIG. 4, in addition to the
表示機器20は、各種情報を表示する液晶ディスプレイ等のディスプレイ21(図3)と、ネットワーク4を介して通信を行う通信部22と、表示機器20の各部を制御する制御部23とを有する。図示は省略するが、表示機器20は、各種指令や情報を入力する入力部、各種情報を記憶する記憶部をさらに有する。ディスプレイ21の画面表示も、ディスプレイ11の画面表示と同様に、ネットワーク4を介してサーバ装置30により制御されてもよく、表示機器20にインストールされたアプリケーションを介して表示機器20側で制御部23により制御されてもよい。
The
GPS装置24により検出される車両2の絶対位置P2の情報(位置情報)および車速センサ25により検出される車両2の走行速度の情報(車速情報)は、通信部22によりネットワーク4を介してサーバ装置30に送信される。
The information on the absolute position P2 of the
サーバ装置30は、本実施形態の画像表示装置を構成する。サーバ装置30は、例えば単一のサーバとして、あるいは機能ごとに別々のサーバから構成される分散サーバとして構成される。クラウドサーバと呼ばれるクラウド環境に作られた分散型の仮想サーバとしてサーバ装置30を構成することもできる。サーバ装置30は、通信部31と、動作回路としてのCPUなどの演算部32と、ROM,RAMなどの記憶部33と、その他の周辺回路(インターフェース回路等)とを含んで構成される。
The
通信部31は、ネットワーク4を介して携帯端末10および表示機器20とそれぞれ通信を行う。記憶部33は、演算部32で実行される制御プログラムや、プログラムで用いられる各種閾値等を記憶する。記憶部33には、ユーザIDに対応付けられたオブジェクト画像12の情報なども記憶される。演算部32は、機能的構成として情報取得部321と、操作判定部322と、表示制御部323とを有する。
The
情報取得部321は、通信部31を介して、携帯端末10および表示機器20から送信されたGPS装置13,24からの信号に基づく位置情報を取得し、これにより表示機器20に対する携帯端末10の相対位置情報を取得する。また、表示機器20から送信された車速センサ25からの信号に基づく車両2の車速情報を取得する。さらに、携帯端末10から送信されたセンサ群14、マイク15、タッチセンサ110からの信号に基づく携帯端末10の姿勢情報、音声情報および画面操作情報を取得する。
The
操作判定部322は、情報取得部321により取得された各種情報に基づいて、携帯端末10が表示機器20を基準とする所定範囲内にあり、かつ、ユーザ1による携帯端末10に対する所定操作が行われたか否かを判定する。
Based on various information acquired by the
所定範囲は、表示機器20の搭載された車両2の乗車空間に対応した範囲(例えば、車両2の絶対位置P2から3m以内)に設定される。操作判定部322は、情報取得部321により取得された表示機器20に対する携帯端末10の相対位置情報に基づいて、携帯端末10が表示機器20を基準とする所定範囲内にあるか否かを判定する。これにより、携帯端末10が車両2内にあることが判定できる。
The predetermined range is set to a range corresponding to the riding space of the
所定操作は、オブジェクト画像12を表示する機器を表示機器20から携帯端末10に変更するユーザ1の意図を反映した操作である。このような所定操作には、ユーザ1が携帯端末10を利用するときの予備動作や、表示機器20で利用中のエージェントに対して携帯端末10に戻るよう呼びかける音声操作が含まれる。
The predetermined operation is an operation that reflects the intention of the
図5A,5Bは、操作判定部322により判定される所定操作の一例を概略的に示す斜視図であり、ユーザ1が携帯端末10を利用するときの予備動作の一つである携帯端末10を起こす操作の一例を示す。車両2に乗車し、オブジェクト画像12を表示して表示機器20を利用しているユーザ1が車両2の利用を終えて、あるいは車両2の停車中に一時的に携帯端末10を利用するときは、図5A,5Bに示すような携帯端末10を起こす操作が行われる。
5A and 5B are perspective views schematically showing an example of a predetermined operation determined by the
図5A,5Bに示すようにユーザ1が携帯端末10を起こす操作を行うと、携帯端末10の姿勢が水平方向から鉛直方向へと変化する。操作判定部322は、情報取得部321により取得された携帯端末10の姿勢情報に基づいて、ユーザ1により携帯端末10を起こす操作が行われたか否かを判定することで、オブジェクト画像12を表示する機器を表示機器20から携帯端末10に変更するユーザ1の意図を判定する。
When the
操作判定部322は、携帯端末10を起こす操作に代えて、ユーザ1が自身の方向に携帯端末10を引き寄せる操作が行われたか否かを判定してもよい。すなわち、携帯端末10が腕時計型のウェアラブル端末等により構成される場合は、携帯端末10を引き寄せる操作が行われる。携帯端末10を引き寄せる操作は、情報取得部321により取得された携帯端末10および表示機器20の位置情報および携帯端末10の姿勢情報に基づいて、表示機器20から離間する方向への所定加速度以上の携帯端末10の動きとして判定することができる。あるいは、情報取得部321により取得された携帯端末10の姿勢情報に基づいて、重力方向において上方への所定加速度以上の携帯端末10の動きとして判定してもよい。
The
操作判定部322は、携帯端末10を起こす操作や引き寄せる操作に代えて、あるいは、これらの操作に加えて、ユーザ1がエージェントに対して携帯端末10に戻るよう呼びかける音声操作やノック音を発する操作が行われたか否かを判定することもできる。例えば、情報取得部321により取得された音声情報に基づいて、携帯端末10のマイク15を介して「戻って来て」、「帰って来て」等のユーザ1による音声が入力されたか否かを判定する。あるいは、携帯端末10の本体やその周辺にある車両2の内外装部材(例えば、乗用車内のセンターコンソールや二輪車の燃料タンク等)を音が鳴るようにノックする音声、指を鳴らす音声等が所定間隔で所定回数、入力されたか否かを判定する。
The
表示制御部323は、操作判定部322によりユーザ1による所定操作が行われたと判定されると、ディスプレイ21に表示されたオブジェクト画像12がディスプレイ21からディスプレイ11に移動して表示されるようにディスプレイ11,21の表示を制御する。
When the
図6A〜6Cは、ディスプレイ21からディスプレイ11に移動して表示されるときのオブジェクト画像12の表示態様の一例を示す図であり、ディスプレイ11に表示された直後のオブジェクト画像12を示す。表示制御部323は、まず、記憶部33に記憶されたユーザIDとオブジェクト画像12との対応関係の情報から、携帯端末10からの信号に含まれるユーザIDに対応するオブジェクト画像12の表示形態(形状、動く速度等)を特定する。
6A to 6C are diagrams showing an example of the display mode of the
さらに表示制御部323は、オブジェクト画像12が表示機器20のディスプレイ21から消去された後、携帯端末10のディスプレイ11上に車両2の表示機器20から携帯端末10へと飛び移って来たような態様で表示されるように、ディスプレイ11,21の表示を制御する表示制御信号を生成する。
Further, the
表示制御部323により生成された表示制御信号は、通信部31を介して携帯端末10と表示機器20とにそれぞれ送信される。携帯端末10は、サーバ装置30から表示制御信号を受信すると、制御部17での処理により、表示制御信号に基づいて画像信号を生成してディスプレイ11の表示を制御する。表示機器20は、サーバ装置30から表示制御信号を受信すると、制御部23での処理により、表示制御信号に基づいて画像信号を生成してディスプレイ21の表示を制御する。これによりディスプレイ11,21の表示が制御される。
The display control signal generated by the
このように表示制御部323は、オブジェクト画像12が、あたかもユーザ1が携帯端末10を利用するときの予備動作に連動して、あるいはユーザ1の呼びかけに応じて携帯端末10に戻って来たかのようにディスプレイ11の表示を制御する。ディスプレイ11に表示された直後のオブジェクト画像12は、図6A,6Bの例に示すように、ディスプレイ11の表示画面の上方から下方、すなわち、画面上における仮想の重力方向の上方から下方に向けて落下するような態様で表示される。
In this way, the
オブジェクト画像12の表示態様には、エージェント(オブジェクト画像12)に対するユーザ1の接し方に応じて変化した質感や特性(緩慢、機敏)が反映される。例えば、操作が緩慢なユーザ1に対応するオブジェクト画像12は、図6Bの例に示すように、ディスプレイ11上方から、ゆっくり垂れ下がりながら落下するような態様で表示される。
The display mode of the
オブジェクト画像12は、水平方向に対する携帯端末10の傾きに応じて、重力方向の上方から下方に向けて落下するような態様で表示されてもよい。例えば、携帯端末10が腕時計型のウェアラブル端末により構成される場合等、ディスプレイ11が重力方向の上方に向いている場合には、図6Cの例に示すように、ディスプレイ11面に落下してつぶれるような態様でオブジェクト画像12が表示されてもよい。
The
また、表示制御部323は、停車中の車両2が再び走行を開始すると、ディスプレイ11に表示されたオブジェクト画像12がディスプレイ11からディスプレイ21に移動して表示されるようにディスプレイ11,21の表示を制御する。すなわち、情報取得部321により取得された車速情報に基づいて車両2が走行を開始したと判定されると、オブジェクト画像12の表示を携帯端末10のディスプレイ11から表示機器20のディスプレイ21に切り換え、オブジェクト画像12を移動させる。
Further, the
さらに表示制御部323は、車両2の停車中に携帯端末10が所定範囲内から所定範囲外に移動すると、ディスプレイ21に表示されたオブジェクト画像12がディスプレイ21からディスプレイ11に移動して表示されるようにディスプレイ11,21の表示を制御する。すなわち、情報取得部321により取得された表示機器20に対する携帯端末10の相対位置情報に基づいて携帯端末10が所定範囲外に移動したと判定されると、オブジェクト画像12の表示を表示機器20のディスプレイ21から携帯端末10のディスプレイ11に切り換え、オブジェクト画像12を移動させる。
Further, when the
図7は、本発明の実施形態に係る画像表示装置による処理の一例を示すフローチャートであり、予め記憶されたプログラムに従いサーバ装置30の演算部32(CPU)で実行される処理の一例を示す。このフローチャートに示す処理は、例えば、サーバ装置30の電源オン時に開始され、所定周期で繰り返される。
FIG. 7 is a flowchart showing an example of processing by the image display device according to the embodiment of the present invention, and shows an example of processing executed by the calculation unit 32 (CPU) of the
図7に示すように、まずステップS1で、通信部31を介して取得したGPS装置13,24、車速センサ25、センサ群14、マイク15、タッチセンサ110からの信号を読み込む。すなわち、表示機器20に対する携帯端末10の相対位置情報、車両2の車速情報、携帯端末10の姿勢情報、音声情報および画面操作情報を取得する。このとき、携帯端末10から送信された情報に含まれるユーザIDの情報も取得する。
As shown in FIG. 7, first, in step S1, the signals from the
次いでステップS2で、表示機器20のディスプレイ21にオブジェクト画像12が表示されているか否かを判定する。ステップS2で肯定されるとステップS3に進み、否定されるとステップS1に戻る。次いでステップS3で、ステップS1で取得された車両2の車速情報に基づいて、車両2が停車中であるか否かを判定する。ステップS3で肯定されるとステップS4に進み、否定されるとステップS1に戻る。
Next, in step S2, it is determined whether or not the
次いでステップS4で、ステップS1で取得された表示機器20に対する携帯端末10の相対位置情報に基づいて、携帯端末10が表示機器20を基準とする所定範囲内にあるか否かを判定する。ステップS4で肯定されるとステップS5に進み、否定されるとステップS5をスキップしてステップS6に進む。ステップS5では、ユーザ1による携帯端末10に対する所定操作が行われたか否かを判定する。ステップS5で肯定されるとステップS6に進み、否定されるとステップS1に戻る。
Next, in step S4, it is determined whether or not the
ステップS6では、オブジェクト画像12の表示を表示機器20のディスプレイ21から携帯端末10のディスプレイ11に切り換える。これにより、ユーザ1が車両2の停車中に一時的に携帯端末10を利用するとき、直感的で違和感のない操作によりディスプレイ11,21間の表示を切り換え、オブジェクト画像12を移動させることができる。また、ユーザ1が車両2の利用を終えて車両2から離れたときは自動的にディスプレイ11,21間の表示が切り換えられるため、エージェントの戻し忘れを防止することができる。
In step S6, the display of the
次いで、ステップS7で各種情報を取得し、ステップS8で、ステップS7で取得された表示機器20に対する携帯端末10の相対位置情報に基づいて携帯端末10が所定範囲内にあるか否かを判定する。ステップS8で肯定されるとステップS9に進み、否定されると、ユーザ1が車両2の利用を終えて車両2から離れたと判定し、処理を終了する。
Next, various information is acquired in step S7, and in step S8, it is determined whether or not the
次いでステップS9で、ステップS7で取得された車両2の車速情報に基づいて車両2が走行を開始したか否かを判定する。ステップS9で肯定されるとステップS10に進み、否定されるとステップS7に戻る。ステップS10では、オブジェクト画像12の表示を携帯端末10のディスプレイ11から表示機器20のディスプレイ21に切り換える。これにより、ユーザ1が携帯端末10の一時的な利用を終えて車両2の運転を再開したときは自動的にディスプレイ11,21間の表示が切り換えられるため、ユーザ1の運転操作を妨げることなく再度、表示機器20にオブジェクト画像12を移動させることができる。
Next, in step S9, it is determined whether or not the
本実施形態によれば以下のような作用効果を奏することができる。
(1)画像表示装置を構成するサーバ装置30は、ユーザ1が携帯する携帯端末10に設けられるディスプレイ11と、表示機器20に設けられるディスプレイ21とのいずれかに、ユーザ1の識別IDに紐付けられたオブジェクト画像12を表示させる。画像表示装置は、表示機器20に対する携帯端末10の相対位置情報と、携帯端末10の姿勢情報および携帯端末10に入力される音声情報の少なくとも一方を含む携帯端末10の操作情報と、を取得する情報取得部321と、情報取得部321により取得された表示機器20に対する携帯端末10の相対位置情報と携帯端末10の操作情報とに基づいて、携帯端末10が表示機器20を基準とする所定範囲内にあり、かつ、携帯端末10に対する姿勢変化および音声入力の少なくとも一方の操作である所定操作が行われたか否かを判定する操作判定部322と、操作判定部322により所定操作が行われたと判定されると、ディスプレイ21に表示されたオブジェクト画像12がディスプレイ21からディスプレイ11に移動して表示されるようにディスプレイ11およびディスプレイ21を制御する表示制御部323とを備える(図4)。
According to this embodiment, the following effects can be obtained.
(1) The
この構成により、ユーザ1の意図を反映した直観的な操作によってオブジェクト画像12を表示するディスプレイ11,21を切り換えることが可能となり、ユーザ1に違和感を与えることなくオブジェクト画像12を移動させることができる。また、各ユーザ1に固有のオブジェクト画像12をディスプレイ21に表示させることで、ユーザ1が個人で所有しないシェアリング車両2に対しても、ユーザ1の信頼や愛着を高めることができ、車両2を利用するときのユーザの満足度を向上することができる。
With this configuration, it is possible to switch the
(2)所定操作は、携帯端末10の姿勢を水平方向から鉛直方向に変化させる姿勢変化の操作を含む。すなわち、ユーザ1がスマートフォン型等の携帯端末10を利用するときの予備動作の一つである携帯端末10を起こす姿勢変化の操作に連動して、オブジェクト画像12を表示するディスプレイ11,21が切り換えられ、オブジェクト画像12が移動される。このためユーザ1は、携帯端末10を操作してオブジェクト画像12の表示をオフからオンに切り換えるのではなく、携帯端末10を利用するときの予備動作に連動してエージェントが車両2の表示機器20から戻って来たように感じることができる。
(2) The predetermined operation includes a posture change operation for changing the posture of the mobile terminal 10 from the horizontal direction to the vertical direction. That is, the
(3)所定操作は、携帯端末10を表示機器20から離間する方向に所定加速度以上で動かす姿勢変化の操作、または、携帯端末10を重力方向において上方に所定加速度以上で動かす姿勢変化の操作を含む。すなわち、ユーザ1が腕時計型のウェアラブル端末等の携帯端末10を利用するときの予備動作の一つである携帯端末10を引き寄せる姿勢変化の操作に連動して、オブジェクト画像12を表示するディスプレイ11,21を切り換えることもできる。
(3) The predetermined operation is an operation of changing the posture in which the
(4)所定操作は、携帯端末10に所定の音声を入力する音声入力の操作を含む。すなわち、携帯端末10を利用するときの予備動作(姿勢変化の操作)に代えて、あるいは、それに加えて、ユーザ1の声やノック音による呼びかけ(音声入力の操作)に応じて、オブジェクト画像12を表示するディスプレイ11,21を切り換えることもできる。これにより、ユーザ1が手を離せない状況でもオブジェクト画像12を表示するディスプレイ11,21を切り換えることができる。あるいは、予備動作と呼びかけとを組み合わせて切り換えを行うことで、ユーザ1が意図しないオブジェクト画像12の移動を防止することができる。また、ノック音で呼びかけの有無を判定することにより、車両2に同乗者がいる場合にエージェントへの声がけを気恥ずかしく感じるユーザ1にとっても利用しやすい構成とすることができる。
(4) The predetermined operation includes a voice input operation for inputting a predetermined voice to the
(5)ディスプレイ11の表示画面には予め重力方向に拘らず上下方向が規定される。表示制御部323は、ディスプレイ21に表示されたオブジェクト画像12がディスプレイ21からディスプレイ11に移動して表示されるようにディスプレイ11,21を制御するとき、ディスプレイ11の表示画面の上方から下方に向けて、または、重力方向の上方から下方に向けて、オブジェクト画像12が落下するような態様で表示されるようにディスプレイ11を制御する。すなわち、オブジェクト画像12が携帯端末10のディスプレイ11に瞬間的に表示されるのではなく、あたかも携帯端末10に飛び移って来たような態様で表示される。このため、エージェントの実在感が損なわれることがなく、ユーザ1が違和感を抱くことなくエージェントが戻って来たことを直感的に把握することができる。
(5) The vertical direction is defined in advance on the display screen of the
(6)表示機器20は、車両2に搭載される(図3)。所定範囲は、車両2の乗車空間に対応した範囲である。これにより、ユーザ1の操作に応じた車両2の表示機器20のディスプレイ21から携帯端末10のディスプレイ11へのオブジェクト画像12の移動が、携帯端末10が車両2内にあるときに制限される。このため、車両2側で利用中のエージェントが、車両2外の携帯端末10の姿勢変化等に応じ、ユーザ1の意図に反して移動することを防止することができる。また、オブジェクト画像12の移動に乗車中のユーザ1によるエージェントを呼び戻す操作が必要となるため、ユーザ1にとってのエージェントの実在感が高められる。
(6) The
(7)表示機器20は車両2に搭載される(図3)。情報取得部321は、さらに車両2の車速情報を取得する。表示制御部323は、情報取得部321により取得された車両2の速度情報に基づいて車両2が停車中であるか否かおよび車両2が走行を開始したか否かを判定し、車両2の停車中であると判定すると、操作判定部322により所定操作が行われたと判定されることを条件として、ディスプレイ21に表示されたオブジェクト画像12がディスプレイ21からディスプレイ11に移動して表示されるようにディスプレイ11,21を制御し、その後、車両2が走行を開始したと判定すると、ディスプレイ11に表示されたオブジェクト画像12がディスプレイ11からディスプレイ21に移動して表示されるようにディスプレイ11,21を制御する。これにより、ユーザ1が携帯端末10の一時的な利用を終えて車両2の運転を再開したときは自動的にディスプレイ11,21間の表示が切り換えられるため、ユーザ1の運転操作を妨げることない。
(7) The
(8)表示制御部323は、情報取得部321により取得された表示機器20に対する携帯端末10の相対位置情報に基づいて携帯端末10が所定範囲内から所定範囲外に移動したか否かを判定し、携帯端末10が所定範囲内から所定範囲外に移動したと判定すると、ディスプレイ21に表示されたオブジェクト画像12がディスプレイ21からディスプレイ11に移動して表示されるようにディスプレイ11,21を制御する。これにより、ユーザ1が車両2の利用を終えて車両2から離れたときは自動的にディスプレイ11,21間の表示が切り換えられるため、エージェントの戻し忘れを防止することができる。
(8) The
なお、上記実施形態では、サーバ装置30が携帯端末10のディスプレイ11と表示機器20のディスプレイ21とのいずれかにオブジェクト画像12を表示させるようにしたが、画像表示装置がオブジェクト画像を表示させる第1機器および第2機器の構成はこれに限らない。例えば、第2機器がロボットやデジタルサイネージ、第1機器とは別の携帯端末等であってもよい。
In the above embodiment, the
上記実施形態では、図1A〜1C、図3等で全体が略矩形状を呈するディスプレイ11,21を例示したが、第1表示部、第2表示部は、このようなものに限定されない。例えば、車両のインストルメントパネル全体が表示部を構成してもよく、車両やロボット等が全体として表示部を構成してもよい。すなわち、車両やロボット等の外装面を、透光性を有する材質によって構成して全体が光る電球のように構成してもよく、外装面を有機EL(エレクトロルミネッセンス)等の曲面ディスプレイで構成してもよい。
In the above embodiment, the
上記実施形態では、情報取得部321がGPS装置13,24からの信号に基づく携帯端末10および表示機器20(車両2)の位置情報を取得し、これにより表示機器20に対する携帯端末10の相対位置情報を取得するようにしたが、情報取得部が取得する相対位置情報はこのようなものに限らない。例えば、携帯端末10や車両2に搭載されたカメラの画像を解析することにより検出される表示機器20に対する携帯端末10の相対位置の情報を取得してもよい。また、携帯端末10と車両2とが互いに送受信する赤外線や無線通信の電波が届く範囲内にあるか否かの情報を、表示機器20に対する携帯端末10の相対位置の情報として取得してもよい。
In the above embodiment, the
上記実施形態では、ディスプレイ11,21に所定形状の画像としてオブジェクト画像12を表示したが、画像の形態はいかなるものでもよい。感情を表現する目等を有しない形態でもよい。
In the above embodiment, the
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the above-described embodiments and modifications as long as the features of the present invention are not impaired. It is also possible to arbitrarily combine one or a plurality of the above-described embodiments and the modified examples, and it is also possible to combine the modified examples.
2 車両、10 携帯端末、11,21 ディスプレイ、12 オブジェクト画像、13 GPS装置、14 センサ群、15 マイク、17 制御部、20 表示機器、23 制御部、24 GPS装置、25 車速センサ、30 サーバ装置、100 画像表示システム、321 情報取得部、322 操作判定部、323 表示制御部 2 vehicles, 10 mobile terminals, 11,21 displays, 12 object images, 13 GPS devices, 14 sensor groups, 15 microphones, 17 control units, 20 display devices, 23 control units, 24 GPS devices, 25 vehicle speed sensors, 30 server devices. , 100 Image display system, 321 Information acquisition unit, 322 Operation judgment unit, 323 Display control unit
Claims (10)
前記第2機器に対する前記第1機器の相対位置情報と、前記第1機器の姿勢情報および前記第1機器に入力される音声情報の少なくとも一方を含む前記第1機器の操作情報と、を取得する情報取得部と、
前記情報取得部により取得された前記第2機器に対する前記第1機器の相対位置情報と前記第1機器の操作情報とに基づいて、前記第1機器が前記第2機器を基準とする所定範囲内にあり、かつ、前記第1機器に対する姿勢変化および音声入力の少なくとも一方の操作である所定操作が行われたか否かを判定する操作判定部と、
前記操作判定部により前記所定操作が行われたと判定されると、前記第2表示部に表示された前記オブジェクト画像が前記第2表示部から前記第1表示部に移動して表示されるように前記第1表示部および前記第2表示部を制御する表示制御部と、を備えることを特徴とする画像表示装置。 An image display device that displays an object image associated with a user's identification ID on either the first display unit provided on the first device carried by the user or the second display unit provided on the second device. There,
Acquires the relative position information of the first device with respect to the second device, and the operation information of the first device including at least one of the posture information of the first device and the voice information input to the first device. Information acquisition department and
Based on the relative position information of the first device with respect to the second device and the operation information of the first device acquired by the information acquisition unit, the first device is within a predetermined range based on the second device. An operation determination unit that determines whether or not a predetermined operation, which is at least one of the posture change and the voice input for the first device, has been performed.
When the operation determination unit determines that the predetermined operation has been performed, the object image displayed on the second display unit is moved from the second display unit to the first display unit and displayed. An image display device including the first display unit and a display control unit that controls the second display unit.
前記所定操作は、前記第1機器の姿勢を水平方向から鉛直方向に変化させる姿勢変化の操作を含むことを特徴とする画像表示装置。 In the image display device according to claim 1,
The predetermined operation is an image display device including an operation of changing the posture of the first device from the horizontal direction to the vertical direction.
前記所定操作は、前記第1機器を前記第2機器から離間する方向に所定加速度以上で動かす操作、または、前記第1機器を重力方向において上方に前記所定加速度以上で動かす姿勢変化の操作を含むことを特徴とする画像表示装置。 In the image display device according to claim 1,
The predetermined operation includes an operation of moving the first device in a direction away from the second device at a predetermined acceleration or more, or an operation of changing the posture of moving the first device upward in the gravity direction at a predetermined acceleration or more. An image display device characterized by this.
前記所定操作は、前記第1機器に所定の音声を入力する音声入力の操作を含むことを特徴とする画像表示装置。 In the image display device according to any one of claims 1 to 3,
The predetermined operation is an image display device including a voice input operation for inputting a predetermined voice to the first device.
前記第1表示部の表示画面には予め重力方向に拘らず上下方向が規定され、
前記表示制御部は、前記第2表示部に表示された前記オブジェクト画像が前記第2表示部から前記第1表示部に移動して表示されるように前記第1表示部および前記第2表示部を制御するとき、前記第1表示部の表示画面の上方から下方に向けて、または、重力方向の上方から下方に向けて、前記オブジェクト画像が落下するような態様で表示されるように前記第1表示部を制御することを特徴とする画像表示装置。 In the image display device according to any one of claims 1 to 4.
The display screen of the first display unit is defined in advance in the vertical direction regardless of the direction of gravity.
The display control unit has the first display unit and the second display unit so that the object image displayed on the second display unit is displayed by moving from the second display unit to the first display unit. The object image is displayed in such a manner that the object image falls from the upper side to the lower side of the display screen of the first display unit or from the upper side to the lower side in the direction of gravity. 1 An image display device characterized by controlling a display unit.
前記第2機器は、車両に搭載され、
前記所定範囲は、前記車両の乗車空間に対応した範囲であることを特徴とする画像表示装置。 In the image display device according to any one of claims 1 to 5,
The second device is mounted on the vehicle and
An image display device characterized in that the predetermined range is a range corresponding to the riding space of the vehicle.
前記第2機器は車両に搭載され、
前記情報取得部は、さらに前記車両の速度情報を取得し、
前記表示制御部は、前記情報取得部により取得された前記車両の速度情報に基づいて前記車両が停車中であるか否かおよび前記車両が走行を開始したか否かを判定し、前記車両が停車中であると判定すると、前記操作判定部により前記所定操作が行われたと判定されることを条件として、前記第2表示部に表示された前記オブジェクト画像が前記第2表示部から前記第1表示部に移動して表示されるように前記第1表示部および前記第2表示部を制御し、その後、前記車両が走行を開始したと判定すると、前記第1表示部に表示された前記オブジェクト画像が前記第1表示部から前記第2表示部に移動して表示されるように前記第1表示部および前記第2表示部を制御することを特徴とする画像表示装置。 In the image display device according to any one of claims 1 to 6.
The second device is mounted on the vehicle and
The information acquisition unit further acquires the speed information of the vehicle,
The display control unit determines whether or not the vehicle is stopped and whether or not the vehicle has started traveling based on the speed information of the vehicle acquired by the information acquisition unit, and the vehicle determines whether or not the vehicle has started traveling. When it is determined that the vehicle is stopped, the object image displayed on the second display unit is displayed from the second display unit to the first display unit, provided that the operation determination unit determines that the predetermined operation has been performed. When the first display unit and the second display unit are controlled so as to move to the display unit and displayed, and then it is determined that the vehicle has started traveling, the object displayed on the first display unit is determined. An image display device characterized in that the first display unit and the second display unit are controlled so that an image is displayed by moving from the first display unit to the second display unit.
前記表示制御部は、前記情報取得部により取得された前記第2機器に対する前記第1機器の相対位置情報に基づいて前記第1機器が前記所定範囲内から前記所定範囲外に移動したか否かを判定し、前記第1機器が前記所定範囲内から前記所定範囲外に移動したと判定すると、前記第2表示部に表示された前記オブジェクト画像が前記第2表示部から前記第1表示部に移動して表示されるように前記第1表示部および前記第2表示部を制御することを特徴とする画像表示装置。 In the image display device according to any one of claims 1 to 7.
The display control unit determines whether or not the first device has moved from within the predetermined range to outside the predetermined range based on the relative position information of the first device with respect to the second device acquired by the information acquisition unit. When it is determined that the first device has moved from within the predetermined range to outside the predetermined range, the object image displayed on the second display unit is transferred from the second display unit to the first display unit. An image display device characterized in that the first display unit and the second display unit are controlled so as to be moved and displayed.
第1表示部を有し、ユーザが携帯する第1機器と、
第2表示部を有する第2機器と、を備える画像表示システムであって、
前記第1機器および前記第2機器は、絶対位置を検出するGPSセンサ、前記第1機器と前記第2機器と間の距離を検出する測距センサ、または、前記第1機器と前記第2機器との間で電波を送受信する送受信部をさらに有し、
前記第1機器は、姿勢検出センサおよび音声検出センサの少なくとも一方をさらに有することを特徴とする画像表示システム。 The image display device according to any one of claims 1 to 8.
A first device having a first display unit and carried by a user,
An image display system including a second device having a second display unit.
The first device and the second device are a GPS sensor that detects an absolute position, a distance measuring sensor that detects a distance between the first device and the second device, or the first device and the second device. It also has a transmitter / receiver that transmits / receives radio waves to and from.
The first device is an image display system, further comprising at least one of a posture detection sensor and a voice detection sensor.
前記第2機器に対する前記第1機器の相対位置情報と、前記第1機器の姿勢情報および前記第1機器に入力される音声情報の少なくとも一方を含む前記第1機器の操作情報と、を取得する情報取得ステップと、
前記情報取得ステップで取得された前記第2機器に対する前記第1機器の相対位置情報と前記第1機器の操作情報とに基づいて、前記第1機器が前記第2機器を基準とする所定範囲内にあり、かつ、前記第1機器に対する姿勢変化および音声入力の少なくとも一方の操作である所定操作が行われたか否かを判定する操作判定ステップと、
前記操作判定ステップで前記所定操作が行われたと判定されると、前記第2表示部に表示された前記オブジェクト画像が前記第2表示部から前記第1表示部に移動して表示されるように前記第1表示部および前記第2表示部を制御する表示制御ステップと、を含むことを特徴とする画像表示方法。 An image display method in which an object image associated with a user's identification ID is displayed on either the first display unit provided on the first device carried by the user or the second display unit provided on the second device. There are, each executed by the computer,
Acquires the relative position information of the first device with respect to the second device, and the operation information of the first device including at least one of the posture information of the first device and the voice information input to the first device. Information acquisition steps and
Based on the relative position information of the first device with respect to the second device and the operation information of the first device acquired in the information acquisition step, the first device is within a predetermined range based on the second device. An operation determination step for determining whether or not a predetermined operation, which is at least one of the posture change and the voice input for the first device, has been performed.
When it is determined that the predetermined operation has been performed in the operation determination step, the object image displayed on the second display unit is moved from the second display unit to the first display unit and displayed. An image display method including a display control step for controlling the first display unit and the second display unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019132082A JP2021018480A (en) | 2019-07-17 | 2019-07-17 | Image display apparatus, image display system, and image display method |
CN202010642901.6A CN112241237A (en) | 2019-07-17 | 2020-07-06 | Image display device, image display system, and image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019132082A JP2021018480A (en) | 2019-07-17 | 2019-07-17 | Image display apparatus, image display system, and image display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021018480A true JP2021018480A (en) | 2021-02-15 |
Family
ID=74170859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019132082A Pending JP2021018480A (en) | 2019-07-17 | 2019-07-17 | Image display apparatus, image display system, and image display method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021018480A (en) |
CN (1) | CN112241237A (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006154926A (en) * | 2004-11-25 | 2006-06-15 | Denso Corp | Electronic equipment operation system using character display and electronic apparatuses |
JP2006195578A (en) * | 2005-01-11 | 2006-07-27 | Toyota Motor Corp | Vehicle agent apparatus and agent system |
US20070287478A1 (en) * | 2006-04-18 | 2007-12-13 | Samsung Electronics Co. Ltd. | System and method for transferring character between portable communication devices |
JP2009250703A (en) * | 2008-04-03 | 2009-10-29 | Toyota Motor Corp | On-board machine, and system and method for route guidance |
JP2019061341A (en) * | 2017-09-25 | 2019-04-18 | Kddi株式会社 | Terminal device, program, and system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0454677A (en) * | 1990-06-25 | 1992-02-21 | Seiko Epson Corp | Portable computer |
JP2015128918A (en) * | 2014-01-06 | 2015-07-16 | 株式会社東海理化電機製作所 | Operation device |
CN106716340B (en) * | 2014-09-29 | 2019-10-25 | 夏普株式会社 | Portable terminal, the control method of portable terminal and control program |
-
2019
- 2019-07-17 JP JP2019132082A patent/JP2021018480A/en active Pending
-
2020
- 2020-07-06 CN CN202010642901.6A patent/CN112241237A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006154926A (en) * | 2004-11-25 | 2006-06-15 | Denso Corp | Electronic equipment operation system using character display and electronic apparatuses |
JP2006195578A (en) * | 2005-01-11 | 2006-07-27 | Toyota Motor Corp | Vehicle agent apparatus and agent system |
US20070287478A1 (en) * | 2006-04-18 | 2007-12-13 | Samsung Electronics Co. Ltd. | System and method for transferring character between portable communication devices |
JP2009250703A (en) * | 2008-04-03 | 2009-10-29 | Toyota Motor Corp | On-board machine, and system and method for route guidance |
JP2019061341A (en) * | 2017-09-25 | 2019-04-18 | Kddi株式会社 | Terminal device, program, and system |
Also Published As
Publication number | Publication date |
---|---|
CN112241237A (en) | 2021-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109391792B (en) | Video communication method, device, terminal and computer readable storage medium | |
US8886399B2 (en) | System and method for controlling a vehicle user interface based on gesture angle | |
JP6426025B2 (en) | Information processing device | |
JP6282188B2 (en) | Information processing device | |
KR20170120145A (en) | Systems and methods for providing context-sensitive haptic notification frameworks | |
KR20150138060A (en) | Haptic notification manager | |
WO2021082483A1 (en) | Method and apparatus for controlling vehicle | |
KR20150137799A (en) | Mobile terminal and method for controlling the same | |
CN110913066A (en) | Display method and electronic equipment | |
JP2017114191A (en) | On-vehicle device | |
CN111078088B (en) | Interface control method, electronic device, and computer-readable storage medium | |
WO2022213733A1 (en) | Method and apparatus for acquiring flight route, and computer device and readable storage medium | |
CN108362303B (en) | Navigation method and mobile terminal | |
CN115357311A (en) | Travel information sharing method and device, computer equipment and storage medium | |
CN107920331B (en) | Vehicle positioning method, terminal, server and computer storage medium | |
WO2014151054A2 (en) | Systems and methods for vehicle user interface | |
JP2021018480A (en) | Image display apparatus, image display system, and image display method | |
CN112717409B (en) | Virtual vehicle control method, device, computer equipment and storage medium | |
JP2020201624A (en) | Image displaying device, image displaying system and image displaying method | |
JP6798608B2 (en) | Navigation system and navigation program | |
JP2020201625A (en) | Service providing server, service providing system and service providing method | |
JP7108716B2 (en) | Image display device, image display system and image display method | |
JP6284648B2 (en) | Tactile sensation control system and tactile sensation control method | |
KR102295245B1 (en) | Terminal and event progress control method thereof | |
US20240105052A1 (en) | Information management device, information management method and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221104 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230214 |