WO2021053791A1 - オブジェクトの表示を変更する表示制御装置 - Google Patents

オブジェクトの表示を変更する表示制御装置 Download PDF

Info

Publication number
WO2021053791A1
WO2021053791A1 PCT/JP2019/036767 JP2019036767W WO2021053791A1 WO 2021053791 A1 WO2021053791 A1 WO 2021053791A1 JP 2019036767 W JP2019036767 W JP 2019036767W WO 2021053791 A1 WO2021053791 A1 WO 2021053791A1
Authority
WO
WIPO (PCT)
Prior art keywords
specific point
display
objects
control device
display control
Prior art date
Application number
PCT/JP2019/036767
Other languages
English (en)
French (fr)
Inventor
大樹 蝦名
下谷 光生
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2021546135A priority Critical patent/JP7150188B2/ja
Priority to PCT/JP2019/036767 priority patent/WO2021053791A1/ja
Publication of WO2021053791A1 publication Critical patent/WO2021053791A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Definitions

  • the present invention relates to a display control device that displays an image including a plurality of objects on the screen of the display device, and more particularly to a technique for a user to select one of the displayed objects.
  • a map is displayed on the screen of a display device such as a navigation device, and an object displayed on the map (for example, a figure representing a feature such as a road or a building, or a POI (Point Of Interest) such as a store or a tourist spot) is displayed.
  • a display device such as a navigation device
  • an object displayed on the map for example, a figure representing a feature such as a road or a building, or a POI (Point Of Interest) such as a store or a tourist spot
  • a map display system is known in which a user can select an icon or the like by touch operation.
  • Patent Document 1 when the number of objects displayed in an overlapping manner is large, it becomes difficult to adjust the pressing force of the touch in order to select a desired object. This problem is partly due to the fact that the user cannot see in advance what kind of objects are overlapped and how many.
  • the present invention has been made to solve the above problems, and an object of the present invention is to provide a display control device that allows a user to easily select a desired object regardless of the number of objects displayed in an overlapping manner. And.
  • the display control device has a display processing unit that displays a plurality of objects on the screen of the display device, and a preliminary operation detection that detects a preliminary operation of a specific point designation operation for a user to specify a specific point on the screen.
  • the specific point estimation unit that estimates the specific point specified by the specific point designation operation from the preliminary movement, and the estimated specific point that is the specific point estimated from the preliminary operation.
  • an object display position control unit that shifts the display positions of the plurality of objects from each other, an operation reception unit that accepts a specific point designation operation, and an object that selects an object displayed at a specific point specified by the specific point designation operation. It includes a selection unit.
  • the display control device when the user performs a preliminary operation of the specific point designation operation, the display positions of the plurality of objects displayed overlapping each other are shifted from each other, and each of the plurality of objects can be visually recognized. Become. Therefore, the user can easily select a desired object by the specific point designation operation, and this effect can be obtained even when the number of overlapping displayed objects is large.
  • FIG. It is a figure which shows the structure of the map display system including the display control device which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the map displayed on the display device. It is a figure for demonstrating an example of operation of the display control apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating an example of operation of the display control apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating an example of operation of the display control apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the map displayed on the display device. It is a figure for demonstrating an example of operation of the display control apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which shows the structure of the map display system including the display control device which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the map displayed on the display device. It is a figure for demonstrating an example of operation of the display control apparatus which concerns on
  • FIG. It is a figure for demonstrating an example of operation of the display control apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating an example of operation of the display control apparatus which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the display control device which concerns on Embodiment 1.
  • FIG. It is a figure which shows the hardware configuration example of the display control device.
  • FIG. shows the hardware configuration example of the display control device.
  • FIG. It is a figure for demonstrating an example of operation of the display control apparatus which concerns on Embodiment 2.
  • FIG. It is a flowchart which shows the operation of the display control device which concerns on Embodiment 2.
  • FIG. It is a flowchart which shows the operation of the display control device which concerns on Embodiment 2.
  • FIG. 1 is a diagram showing a configuration of a map display system 100 including a display control device 10 according to a first embodiment of the present invention.
  • Examples of the map display system 100 include a navigation device, a mobile phone having an application for displaying a map, a smartphone, and the like.
  • the map display system 100 includes a display control device 10, a map database 20, a display device 21, a touch sensor 22, and a space sensor 23 connected to the display control device 10.
  • the map database 20 is a storage medium in which map data is stored.
  • the map database 20 may be a server that provides map data to the display control device 10 by communication.
  • the display device 21 is a means for the display control device 10 to display a map based on map data, and is composed of, for example, a liquid crystal display device.
  • the touch sensor 22 is arranged on the screen of the display control device 10 and detects the position (coordinates) of the indicator that touches the screen of the display control device 10. That is, the display control device 10 and the display device 21 constitute a so-called touch panel.
  • the space sensor 23 is a sensor that detects the position of the indicator in the space around the screen of the display device 21.
  • the indicator is assumed to be the user's finger
  • the touch operation performed by the user by touching the screen of the display device 21 with the finger is defined as the operation of the screen of the display device 21.
  • an operation performed by the user in the preparatory stage of the touch operation specifically, an operation of bringing a finger close to the screen of the display device 21 is defined as a preliminary operation of the touch operation.
  • the touch sensor 22 is a sensor for detecting an operation on the screen of the display device 21, and the space sensor 23 is a sensor for detecting a preliminary operation of the operation on the screen of the display device 21.
  • the display control device 10 includes a display processing unit 11, an operation reception unit 12, an object selection unit 13, a preliminary motion detection unit 14, a specific point estimation unit 15, and an object display position control unit 16. ..
  • the display processing unit 11 displays a map image based on the map data stored in the map database 20 on the screen of the display device 21.
  • An image of a map is composed of a plurality of objects such as a figure representing a feature such as a road or a building, and an icon representing a POI such as a store or a tourist spot.
  • the operation reception unit 12 receives the user's operation on the screen of the display device 21 detected by the touch sensor 22. There are no restrictions on the user's operations accepted by the operation reception unit 12, for example, an operation of selecting an area to be displayed as a map, an operation of setting the direction and scale of the map to be displayed, an operation of scrolling the displayed map, and a display. An operation of selecting an arbitrary object on the map can be considered.
  • the display control device 10 Since the display control device 10 according to the present embodiment is characterized by an operation in which the user selects an object (object selection operation), the configuration and operation of the display control device 10 related to the object selection operation will be described below.
  • the object is selected by the user touching the object to be selected on the map displayed on the screen of the display device 21. That is, the substance of the object selection operation is an operation in which the user specifies a specific point on the screen, and in the object selection, the display control device 10 specifies the object displayed at the specific point specified by the user. Realized by.
  • an operation in which the user specifies a specific point on the screen as an object selection operation is referred to as a "specific point specification operation”.
  • the object selection unit 13 selects an object according to a specific point designation operation as an object selection operation. That is, the object selection unit 13 determines which object is displayed at the specific point on the screen designated by the user's specific point designation operation, and selects the object displayed at the specific point as the object selected by the user. Select as.
  • the preparatory movement detection unit 14 detects the preparatory movement of the user's specific point designation operation based on the position of the indicator (user's finger) detected by the space sensor 23. In the present embodiment, when the distance between the user's finger and the screen of the display device 21 becomes equal to or less than a predetermined threshold value, the preliminary movement detecting unit 14 detects the movement of the finger as a preliminary movement. ..
  • the preparatory movement detection method is not limited to this. For example, the preparatory movement detection unit 14 detects the direction and speed of the movement of the user's finger, and the user's finger moves to the screen of the display device 21 at a certain speed or higher. When approaching, the movement of the finger may be detected as a preliminary movement.
  • the specific point estimation unit 15 estimates the specific point actually specified by the specific point designation operation from the preliminary operation of the specific point designation operation detected by the preliminary operation detection unit 14.
  • the preliminary motion detection unit 14 estimates the point closest to the user's fingertip on the screen of the display device 21 as a specific point.
  • the method for estimating a specific point is not limited to this, and for example, the specific point estimation unit 15 detects the trajectory of the user's finger and specifies a point on the extension line of the trajectory of the user's finger on the screen of the display device 21. It may be estimated as a point.
  • the specific point estimated by the specific point estimation unit 15 is referred to as an "estimated specific point".
  • the estimated specific point does not have to be pinpoint and may have a certain area.
  • the object display position control unit 16 confirms whether or not a plurality of objects are displayed overlapping the estimated specific points estimated by the specific point estimation unit 15, and displays the plurality of objects overlapping the estimated specific points. For example, the display processing unit 11 is instructed to shift the display positions of the plurality of objects from each other to eliminate the overlap of the plurality of objects.
  • the object display position control unit 16 does not necessarily have to completely eliminate the overlap between the objects, and it is sufficient that the overlap can be reduced.
  • the object display position control unit 16 may at least eliminate the overlap between the objects at the estimated specific point, and the overlap between the objects may remain in the area other than the estimated specific point.
  • the object selection unit 13 selects the object based on the display position of the object after the shift. That is, if the object after the display position is shifted is displayed at the specific point specified by the user, the object selection unit 13 selects the object.
  • the map as shown in FIG. 2 is displayed on the screen of the display device 21 in a state where the user has not performed the specific point designation operation as the object selection operation and the preliminary operation thereof.
  • the map of FIG. 2 includes an object 31 of an elevated road and an object 32 of a road (underpass road) passing under the object 31, and the object 31 of the elevated road is displayed overlapping on the object 32 of the underpass road. Has been done.
  • the preliminary motion detecting unit 14 detects it as a preliminary motion of the specific point designation operation. Then, the specific point estimation unit 15 determines the point on the screen closest to the user's fingertip as the estimated specific point, and the object display position control unit 16 determines whether or not a plurality of objects are displayed overlapping the estimated specific point. To confirm.
  • the object display position control unit 16 instructs the display processing unit 11 to shift the display positions of the object 31 on the elevated road and the object 32 on the underpass road.
  • the object 31 on the elevated road and the object 32 on the underpass road are displayed at positions shifted from each other.
  • the user can visually recognize each of the object 31 of the elevated road and the object 32 of the underpass road, and can distinguish between them, so that the specific point designation operation for one of them can be easily performed. That is, the user can select one of the objects 31 of the elevated road and the object 32 of the underpass displayed without overlapping by touching them.
  • the display processing unit 11 displays them in a display mode in which the vertical relationship before the display position is shifted can be understood.
  • the uppermost object on the overlap may be displayed in a brighter color, and the vertical relationship of the objects before the display position may be shifted may be expressed in a color. In that case, for example, as shown in FIG. 5, the object 31 on the upper elevated road and the object 32 on the lower elevated road are displayed in different colors.
  • icons that are objects representing POI such as stores and tourist spots are displayed on the map
  • the icons are displayed overlapping when the scale of the map is small or when the POI is densely packed in a narrow area. May be done.
  • the map as shown in FIG. 6 is displayed on the screen of the display device 21 in a state where the user has not performed the specific point designation operation as the object selection operation and the preliminary operation thereof.
  • five icons A to E are displayed overlapping in one section.
  • the preliminary motion detecting unit 14 detects it as a preliminary motion of the specific point designation operation. Then, the specific point estimation unit 15 determines the point on the screen closest to the user's fingertip as the estimated specific point, and the object display position control unit 16 determines whether or not a plurality of objects are displayed overlapping the estimated specific point. Confirm. At this time, if the icons A to E are overlapped and displayed at the estimated specific point (the position closest to the user's fingertip) as shown in FIG. 7, the object display position control unit 16 displays the icons A to E. Instruct the display processing unit 11 to shift the position. As a result, as shown in FIG. 8, the icons A to E are displayed without overlapping.
  • the user can visually recognize each of the icons A to E and distinguish them, so that a specific point designation operation for one of them can be easily performed. That is, the user can select one of them by touching any of the icons A to E displayed without overlapping.
  • Congestion of icons representing POI is likely to occur, for example, when POIs (stores, etc.) exist on multiple floors of the same building.
  • POIs stores, etc.
  • the display processing unit 11 shifts the display position of the icons A to E, the icons A to E are displayed as shown in FIG. It may be displayed in groups for each floor. This improves user convenience.
  • FIG. 10 is a flowchart showing the operation of the display control device 10 according to the first embodiment, and shows the operation related to the object selection operation.
  • the operation of the display control device 10 related to the object selection operation will be described with reference to the flowchart of FIG.
  • step S101 When the display control device 10 is activated, the display processing unit 11 displays a map image based on the map data stored in the map database 20 on the screen of the display device 21 (step S101). After that, the preliminary motion detecting unit 14 confirms whether or not the preliminary motion of the specific point designation operation by the user is detected based on the output of the space sensor 23 (step S102). If the preliminary operation of the specific point designation operation is not detected (NO in step S102), the process returns to step S101.
  • the specific point estimation unit 15 estimates the specific point designated by the specific point designation operation from the detected preliminary operation (YES in step S102). Step S103). Then, the object display position control unit 16 confirms whether or not a plurality of objects are displayed overlapping the estimated specific points that are the specific points estimated by the specific point estimation unit 15 (step S104). At this time, if a plurality of objects are displayed overlapping at the estimated specific point (YES in step S104), the object display position control unit 16 shifts the display positions of the plurality of objects to the display processing unit 11. The display processing unit 11 gives an instruction and shifts the display position of the plurality of objects according to the instruction (step S105).
  • step S105 is skipped. Further, although omitted in FIG. 10, when the indicator (here, the user's finger) moves and the estimated specific point also moves after step S105 is executed, or when the indicator moves from the screen of the display device 21. When the estimated specific point disappears as it moves away, the display position of the object shifted in step S105 is returned to the original position.
  • the indicator here, the user's finger
  • the operation receiving unit 12 confirms whether or not the specific point designation operation as the object selection operation is detected based on the output of the touch sensor 22 (step S106). If the specific point designation operation is detected (YES in step S106), the object selection unit 13 selects the object displayed at the specific point designated by the specific point designation operation as the object selected by the user (YES). Step S107). If the specific point designation operation is not detected (NO in step S106), step S107 is skipped.
  • the preliminary motion detection unit 14 confirms whether or not the indicator has moved away from the screen of the display device 21 based on the output of the space sensor 23 (step S108). Specifically, it is confirmed whether or not the indicator has come out of the detection range of the preliminary movement. If the indicator moves away from the screen of the display device 21 (YES in step S108), the preparatory movement detection unit 14 determines that the preparatory movement has been completed or interrupted, and returns to step S101. If the indicator stays near the screen of the display device 21 (NO in step S108), the preparatory movement detection unit 14 determines that the preparatory movement is continuing, and returns to step S103.
  • the display control device 10 when the user performs the preliminary operation of the specific point designation operation as the object selection operation, the display is superimposed on the estimated specific point estimated from the preliminary operation.
  • the display positions of the plurality of objects that have been set are shifted from each other, and each of the plurality of objects becomes visible. Therefore, the user can easily select a desired object by the specific point designation operation. This effect can be obtained even when the number of overlapping objects is large.
  • FIG. 11 and 12 are diagrams showing an example of the hardware configuration of the display control device 10, respectively.
  • Each function of the component of the display control device 10 shown in FIG. 1 is realized by, for example, the processing circuit 50 shown in FIG. That is, the display control device 10 displays a plurality of objects on the screen of the display device 21, detects a preliminary operation of the specific point designation operation for the user to specify a specific point on the screen, and specifies a specific point from the preliminary operation. Estimates the specific point specified by the operation, and when multiple objects are displayed overlapping the estimated specific point, which is the specific point estimated from the preliminary operation, the display positions of the multiple objects are shifted from each other and specified.
  • a processing circuit 50 for accepting a point designation operation and selecting an object displayed at a specific point designated by the specific point designation operation is provided.
  • the processing circuit 50 may be dedicated hardware, or is a processor (Central Processing Unit (CPU), processing unit, arithmetic unit, microprocessor, microprocessor, etc.) that executes a program stored in the memory. It may be configured by using a DSP (also called a Digital Signal Processor)).
  • CPU Central Processing Unit
  • DSP also called a Digital Signal Processor
  • the processing circuit 50 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable). GateArray), or a combination of these, etc.
  • the functions of the components of the display control device 10 may be realized by individual processing circuits, or these functions may be collectively realized by one processing circuit.
  • FIG. 12 shows an example of the hardware configuration of the display control device 10 when the processing circuit 50 is configured by using the processor 51 that executes the program.
  • the functions of the components of the display control device 10 are realized by software (software, firmware, or a combination of software and firmware).
  • the software or the like is described as a program and stored in the memory 52.
  • the processor 51 realizes the functions of each part by reading and executing the program stored in the memory 52. That is, the display control device 10 reserves a process of displaying a plurality of objects on the screen of the display device 21 and a specific point designation operation for the user to specify a specific point on the screen when executed by the processor 51.
  • the result is a process of shifting the display positions of the plurality of objects from each other, a process of accepting a specific point specification operation, and a process of selecting an object displayed at a specific point specified by the specific point specification operation.
  • a memory 52 for storing a program to be executed is provided. In other words, it can be said that this program causes the computer to execute the procedure and method of operation of the components of the display control device 10.
  • the memory 52 is, for example, non-volatile such as RAM (RandomAccessMemory), ROM (ReadOnlyMemory), flash memory, EPROM (ErasableProgrammableReadOnlyMemory), EPROM (ElectricallyErasableProgrammableReadOnlyMemory), or the like.
  • Volatile semiconductor memory HDD (HardDiskDrive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (DigitalVersatileDisc) and its drive device, etc., or any storage medium that will be used in the future. You may.
  • the present invention is not limited to this, and a configuration in which a part of the components of the display control device 10 is realized by dedicated hardware and another part of the components is realized by software or the like may be used.
  • the function is realized by the processing circuit 50 as dedicated hardware, and for some other components, the processing circuit 50 as the processor 51 is stored in the memory 52. It is possible to realize the function by reading and executing it.
  • the display control device 10 can realize each of the above-mentioned functions by hardware, software, or a combination thereof.
  • FIG. 13 is a diagram showing a configuration of a map display system 100 including a display control device 10 according to a second embodiment of the present invention.
  • the configuration of the map display system 100 of FIG. 13 is a configuration in which the object display position control unit 16 of the display control device 10 is replaced with the object display format control unit 17 with respect to the configuration of FIG.
  • the object display format control unit 17 displays a screen display format when a plurality of objects are displayed overlapping the estimated specific points, which are the specific points estimated by the object display position control unit 16 from the preliminary operation of the specific point designation operation. Instructs the display processing unit 11 to switch the plurality of objects to a distinguishable display format.
  • the display processing unit 11 displays a two-dimensional display format map on the screen of the display device 21, and a plurality of objects are displayed at the estimated specific points of the map.
  • the display format of the map is switched to the three-dimensional display format.
  • the two-dimensional map as shown in FIG. 2 shown above is displayed on the screen of the display device 21.
  • the preliminary motion detecting unit 14 detects it as a preliminary motion of the specific point designation operation.
  • the specific point estimation unit 15 determines the point on the screen closest to the user's fingertip as the estimated specific point
  • the object display position control unit 16 determines whether or not a plurality of objects are displayed overlapping the estimated specific point. To confirm.
  • the object display format control unit 17 instructs the display processing unit 11 to switch the map display format from the two-dimensional display format to the three-dimensional display format.
  • a three-dimensional map as shown in FIG. 14 is displayed on the screen of the display device 21, and the object 31 on the elevated road and the object 32 on the underpass road can be distinguished from each other.
  • the user can visually recognize each of the object 31 of the elevated road and the object 32 of the underpass road, and can distinguish between them, so that the specific point designation operation for one of them can be easily performed. That is, the user can select one of the objects 31 of the elevated road and the object 32 of the underpass road displayed in a distinguishable manner on the map in the three-dimensional display format by touching them.
  • FIG. 15 is a flowchart showing the operation of the display control device 10 according to the second embodiment, and shows the operation related to the object selection operation.
  • the operation of the display control device 10 related to the object selection operation will be described with reference to the flowchart of FIG.
  • the display processing unit 11 displays a map image based on the map data stored in the map database 20 on the screen of the display device 21 (step S201).
  • the display processing unit 11 displays the map on the screen of the display device 21 in a two-dimensional display format.
  • the preliminary motion detecting unit 14 confirms whether or not the preliminary motion of the specific point designation operation by the user is detected based on the output of the space sensor 23 (step S202). If the preliminary operation of the specific point designation operation is not detected (NO in step S202), the process returns to step S201.
  • the specific point estimation unit 15 estimates the specific point designated by the specific point designation operation from the detected preliminary operation (YES in step S202). Step S203). Then, the object display format control unit 17 confirms whether or not a plurality of objects are displayed overlapping the estimated specific points, which are the specific points estimated by the specific point estimation unit 15 (step S204). At this time, if a plurality of objects are displayed overlapping at the estimated specific point (YES in step S204), the object display format control unit 17 changes the display format of the map to a display format in which the plurality of objects can be distinguished.
  • the display processing unit 11 is instructed to switch, and the display processing unit 11 shifts the display positions of the plurality of objects according to the instruction (step S205).
  • the object display format control unit 17 switches the map to the three-dimensional display format on the screen of the display device 21.
  • step S205 is skipped. Further, although omitted in FIG. 15, when the indicator (here, the user's finger) moves and the estimated specific point also moves after step S205 is executed, or when the indicator moves from the screen of the display device 21. When the estimated specific point disappears as it moves away, the display format changed in step S205 is returned to the original format.
  • the indicator here, the user's finger
  • the operation receiving unit 12 confirms whether or not the specific point designation operation as the object selection operation is detected based on the output of the touch sensor 22 (step S206). If the specific point designation operation is detected (YES in step S206), the object selection unit 13 selects the object displayed at the specific point designated by the specific point designation operation as the object selected by the user (YES). Step S207). If the specific point designation operation is not detected (NO in step S206), step S207 is skipped.
  • the preliminary motion detection unit 14 confirms whether or not the indicator has moved away from the screen of the display device 21 based on the output of the space sensor 23 (step S208). Specifically, it is confirmed whether or not the indicator has come out of the detection range of the preliminary movement. If the indicator moves away from the screen of the display device 21 (YES in step S208), the preparatory movement detection unit 14 determines that the preparatory movement has been completed or interrupted, and returns to step S201. If the indicator stays near the screen of the display device 21 (NO in step S208), the preparatory movement detection unit 14 determines that the preparatory movement is continuing, and returns to step S203.
  • the display control device 10 when the user performs the preliminary operation of the specific point designation operation as the object selection operation, the display is superimposed on the estimated specific point estimated from the preliminary operation.
  • the display format of the screen is switched so that the plurality of objects that have been displayed can be distinguished, and each of the plurality of objects can be visually recognized. Therefore, the user can easily select a desired object by the specific point designation operation. This effect can be obtained even when the number of overlapping objects is large.
  • the display control device 10 shown in FIG. 13 can also be realized by the hardware configuration as shown in FIGS. 11 and 12.
  • the display control device 10 of FIG. 13 when the display control device 10 of FIG. 13 is configured by the processing circuit 50 shown in FIG. 11, the display control device 10 displays a plurality of objects on the screen of the display device 21, and the user specifies a specific point on the screen. Detects the preparatory movement of the specific point designation operation to perform, estimates the specific point specified by the specific point designation operation from the preliminary movement, and multiple objects overlap the estimated specific point which is the specific point estimated from the preliminary movement.
  • the display format of the screen is switched to a display format that can distinguish the plurality of objects, the specific point designation operation is accepted, and the object displayed at the specific point designated by the specific point designation operation.
  • the processing circuit 50 for selecting the object is provided.
  • the display control device 10 of FIG. 13 when the display control device 10 of FIG. 13 is configured by the processing circuit 50 and the processor 51 shown in FIG. 12, the display control device 10 has a plurality of objects on the screen of the display device 21 when executed by the processor 51.
  • a memory 52 for storing a program to be executed as a result of a process of accepting a designated operation and a process of selecting an object displayed at a specific point designated by the specific point designation operation is provided.
  • the display control device 10 can also realize each of the above-mentioned functions by hardware, software, or a combination thereof.
  • the display control device 10 is applied to the map display system 100 , but the application of the display control device 10 is not limited to this. That is, the display control device 10 is widely applicable to a system that displays an image including a plurality of objects.
  • each embodiment can be freely combined, and each embodiment can be appropriately modified or omitted within the scope of the invention.
  • Map display system 10 Display control device, 11 Display processing unit, 12 Operation reception unit, 13 Object selection unit, 14 Preliminary motion detection unit, 15 Specific point estimation unit, 16 Object display position control unit, 17 Object display format control unit , 20 map database, 21 display device, 22 touch sensor, 23 space sensor, 31 elevated road object, 32 elevated road object, AE icon, 50 processing circuit, 51 processor, 52 memory.

Abstract

表示制御装置(10)において、表示処理部(11)は、表示装置(21)の画面に複数のオブジェクトを表示する。予備動作検出部(14)は、ユーザが画面上の特定点を指定するための特定点指定操作の予備動作を検出する。特定点推定部(15)は、予備動作から特定点指定操作で指定される特定点を推定する。オブジェクト表示位置制御部(16)は、予備動作から推定された特定点に複数のオブジェクトが重なって表示されている場合に、その複数のオブジェクトの表示位置を互いにずらすように、表示処理部(11)へ指示する。

Description

[規則37.2に基づきISAが決定した発明の名称] オブジェクトの表示を変更する表示制御装置
 本発明は、表示装置の画面に複数のオブジェクトを含む画像を表示する表示制御装置に関し、特に、表示されたオブジェクトのいずれかをユーザが選択するための技術に関するものである。
 例えばナビゲーション装置など、表示装置の画面に地図を表示し、地図上に表示されたオブジェクト(例えば、道路や建物などの地物を表す図形、店舗や観光地などのPOI(Point Of Interest)を表すアイコンなど)をユーザがタッチ操作で選択することが可能な地図表示システムが知られている。
 高架道路とその下を通る道路のように、互いに高さの異なる地物が重なるように存在する場合、地図上でそれらのオブジェクトは重なって表示される。下記の特許文献1には、表示装置の画面のユーザがタッチした位置に、高さの異なる複数の道路のオブジェクトが重なって表示されている場合に、当該タッチの押圧力が弱ければ上側の道路が選択され、当該タッチの押圧力が強ければ下側の道路が選択されるように構成された地図表示システムが開示されている。
特開2018-010536号公報
 特許文献1の技術では、重なって表示されたオブジェクトの数が多い場合に、所望のオブジェクトを選択するためにタッチの押圧力を加減することが難しくなる。この問題は、どのようなオブジェクトが幾つ重なっているのかを、ユーザが事前に視認できないことが一因となっている。
 本発明は以上のような課題を解決するためになされたものであり、重なって表示されたオブジェクトの数に関わらず、ユーザが所望のオブジェクトを容易に選択できる表示制御装置を提供することを目的とする。
 本発明に係る表示制御装置は、表示装置の画面に複数のオブジェクトを表示する表示処理部と、ユーザが画面上の特定点を指定するための特定点指定操作の予備動作を検出する予備動作検出部と、予備動作から特定点指定操作で指定される特定点を推定する特定点推定部と、予備動作から推定された特定点である推定特定点に複数のオブジェクトが重なって表示されている場合に、その複数のオブジェクトの表示位置を互いにずらすオブジェクト表示位置制御部と、特定点指定操作を受け付ける操作受付部と、特定点指定操作によって指定された特定点に表示されているオブジェクトを選択するオブジェクト選択部と、を備えるものである。
 本発明に係る表示制御装置によれば、ユーザが特定点指定操作の予備動作を行うと、重なって表示されていた複数のオブジェクトの表示位置を互いにずれ、それら複数のオブジェクトの個々が視認可能になる。よって、ユーザは、特定点指定操作で所望のオブジェクトを容易に選択でき、この効果は、重なって表示されたオブジェクトの数が多い場合でも同様に得られる。
 本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る表示制御装置を含む地図表示システムの構成を示す図である。 表示装置に表示される地図の例を示す図である。 実施の形態1に係る表示制御装置の動作の例を説明するための図である。 実施の形態1に係る表示制御装置の動作の例を説明するための図である。 実施の形態1に係る表示制御装置の動作の例を説明するための図である。 表示装置に表示される地図の例を示す図である。 実施の形態1に係る表示制御装置の動作の例を説明するための図である。 実施の形態1に係る表示制御装置の動作の例を説明するための図である。 実施の形態1に係る表示制御装置の動作の例を説明するための図である。 実施の形態1に係る表示制御装置の動作を示すフローチャートである。 表示制御装置のハードウェア構成例を示す図である。 表示制御装置のハードウェア構成例を示す図である。 実施の形態2に係る表示制御装置を含む地図表示システムの構成を示す図である。 実施の形態2に係る表示制御装置の動作の例を説明するための図である。 実施の形態2に係る表示制御装置の動作を示すフローチャートである。
 <実施の形態1>
 図1は、本発明の実施の形態1に係る表示制御装置10を含む地図表示システム100の構成を示す図である。地図表示システム100の例としては、例えば、ナビゲーション装置、地図表示用のアプリケーションを有する携帯電話やスマートフォンなどがある。
 図1のように、地図表示システム100は、表示制御装置10と、それに接続された地図データベース20、表示装置21、タッチセンサ22および空間センサ23とを備えている。
 地図データベース20は、地図データが記憶された記憶媒体である。地図データベース20は、通信によって表示制御装置10に地図データを提供するサーバであってもよい。
 表示装置21は、表示制御装置10が地図データに基づく地図を表示するための手段であり、例えば液晶表示装置などで構成される。タッチセンサ22は、表示制御装置10の画面上に配置され、表示制御装置10の画面にタッチした指示体の位置(座標)を検出する。すなわち、表示制御装置10および表示装置21は、いわゆるタッチパネルを構成している。
 空間センサ23は、表示装置21の画面の周囲の空間における指示体の位置を検出するセンサである。空間センサ23の種類に制約はなく、例えば、赤外線センサ、静電容量センサ、ToF(Time of Flight)センサ、画像センサ(カメラ)などを用いることができる。
 本実施の形態では、指示体はユーザの指であるものとし、ユーザが表示装置21の画面に指を接触させて行うタッチ操作を、表示装置21の画面の操作として定義する。また、ユーザがタッチ操作の準備段階で行う動作、具体的には、表示装置21の画面に指を近づける動作を、タッチ操作の予備動作として定義する。タッチセンサ22は、表示装置21の画面に対する操作を検出するためのセンサであり、空間センサ23は、表示装置21の画面に対する操作の予備動作を検出するためのセンサである。
 図1に示すように、表示制御装置10は、表示処理部11、操作受付部12、オブジェクト選択部13、予備動作検出部14、特定点推定部15およびオブジェクト表示位置制御部16を備えている。
 表示処理部11は、地図データベース20に記憶された地図データに基づく地図の画像を、表示装置21の画面に表示する。地図の画像は、例えば、道路や建物などの地物を表す図形、店舗や観光地などのPOIを表すアイコンなど、複数のオブジェクトにより構成される。
 操作受付部12は、タッチセンサ22により検出される表示装置21の画面に対するユーザの操作を受け付ける。操作受付部12が受け付けるユーザの操作に制約はなく、例えば、地図として表示する地域を選択する操作、表示する地図の向きや縮尺を設定する操作、表示された地図をスクロールさせる操作、表示された地図上で任意のオブジェクトを選択する操作、などが考えられる。
 本実施の形態に係る表示制御装置10は、ユーザがオブジェクトを選択する操作(オブジェクト選択操作)に特徴があるため、以下では、オブジェクト選択操作に関する表示制御装置10の構成および動作について説明する。
 オブジェクトの選択は、ユーザが、表示装置21の画面に表示された地図上で、選択したいオブジェクトにタッチすることにより行われる。つまり、オブジェクト選択操作の実体は、ユーザが画面上の特定点を指定する操作であり、オブジェクトの選択は、表示制御装置10が、ユーザが指定した特定点に表示されているオブジェクトを特定することによって実現される。以下、オブジェクト選択操作としてユーザが画面上の特定点を指定する操作を「特定点指定操作」という。
 オブジェクト選択部13は、オブジェクト選択操作としての特定点指定操作に従って、オブジェクトを選択する。すなわち、オブジェクト選択部13は、ユーザの特定点指定操作によって指定された画面上の特定点にどのオブジェクトが表示されているかを判断し、特定点に表示されているオブジェクトを、ユーザが選択したオブジェクトとして選択する。
 予備動作検出部14は、空間センサ23が検出した指示体(ユーザの指)の位置に基づいて、ユーザの特定点指定操作の予備動作を検出する。本実施の形態では、予備動作検出部14は、ユーザの指と表示装置21の画面との間の距離が予め定められた閾値以下になると、その指の動きを予備動作として検出するものとする。ただし、予備動作の検出方法はこれに限られず、例えば、予備動作検出部14が、ユーザの指の動きの方向や速度を検出し、ユーザの指が表示装置21の画面へ一定以上の速度で接近したときに、その指の動きを予備動作として検出してもよい。
 特定点推定部15は、予備動作検出部14が検出した特定点指定操作の予備動作から、実際に特定点指定操作で指定される特定点を推定する。本実施の形態では、予備動作検出部14は、表示装置21の画面におけるユーザの指先から最も近い点を、特定点として推定するものとする。ただし、特定点の推定方法はこれに限られず、例えば、特定点推定部15が、ユーザの指の軌道を検出し、表示装置21の画面におけるユーザの指の軌道の延長線上の点を、特定点として推定してもよい。以下、特定点推定部15が推定した特定点を「推定特定点」という。推定特定点は、ピンポイントである必要はなく、一定の面積を持っていてもよい。
 オブジェクト表示位置制御部16は、特定点推定部15が推定した推定特定点に、複数のオブジェクトが重なって表示されているかどうかを確認し、推定特定点に複数のオブジェクトが重なって表示されていれば、その複数のオブジェクトの表示位置を互いにずらして当該複数のオブジェクトの重なりを無くすように表示処理部11へ指示する。
 オブジェクトの大きさ、形状、重なり方などによっては、オブジェクト同士の重なりを完全に無くすことが困難な場合もある。そのため、オブジェクト表示位置制御部16は、必ずしもオブジェクト同士の重なりを完全に無くさなくてもよく、その重なりを少なくできればよい。あるいは、オブジェクト表示位置制御部16は、少なくとも推定特定点におけるオブジェクト同士の重なりを無くすことができればよく、推定特定点以外の領域でオブジェクト同士の重なりが残ってもよい。
 なお、オブジェクト表示位置制御部16によって地図を構成するオブジェクトの表示位置がずらされた場合、オブジェクト選択部13は、ずらされた後のオブジェクトの表示位置に基づいて、オブジェクトを選択する。すなわち、ユーザが指定した特定点に、表示位置がずらされた後のオブジェクトが表示されていれば、オブジェクト選択部13は、当該オブジェクトを選択する。
 ここで、表示制御装置10の動作の幾つかの例を示す。例えば、ユーザがオブジェクト選択操作としての特定点指定操作およびその予備動作を行っていない状態で、表示装置21の画面に図2のような地図が表示されていると仮定する。図2の地図には、高架道路のオブジェクト31とその下を通る道路(高架下道路)のオブジェクト32とが含まれており、高架道路のオブジェクト31が高架下道路のオブジェクト32上に重なって表示されている。
 図2の状態から、ユーザが表示装置21の画面に指を近づけると、予備動作検出部14はそれを特定点指定操作の予備動作として検出する。そして、特定点推定部15が、ユーザの指先から最も近い画面上の点を推定特定点として定め、オブジェクト表示位置制御部16が、その推定特定点に複数のオブジェクトが重なって表示されているかどうかを確認する。
 このとき、図3のように、推定特定点(ユーザの指先から最も近い位置)に、高架道路のオブジェクト31と高架下道路のオブジェクト32とが重なって表示されていれば、オブジェクト表示位置制御部16は、高架道路のオブジェクト31と高架下道路のオブジェクト32の表示位置をずらすように表示処理部11へ指示する。その結果、図4のように、高架道路のオブジェクト31と高架下道路のオブジェクト32とが互いにずれた位置に表示される。
 図4の状態では、ユーザは、高架道路のオブジェクト31および高架下道路のオブジェクト32の個々を視認でき、両者を区別できるため、そのうちの1つに対する特定点指定操作を容易に行うことができる。すなわち、ユーザは、重ならずに表示された高架道路のオブジェクト31および高架下道路のオブジェクト32のいずれかにタッチすることで、それらの一方を選択することができる。
 表示処理部11は、重なって表示されていた高架道路のオブジェクト31と高架下道路のオブジェクト32とを互いにずらして表示する際、表示位置をずらす前の上下関係が分かる表示態様でそれらを表示してもよい。例えば、重なりの上側のオブジェクトほど明るい色で表示するなど、表示位置をずらす前のオブジェクトの上下関係を色で表してもよい。その場合、例えば図5のように、上側の高架道路のオブジェクト31と下側の高架下道路のオブジェクト32とが互いに異なる色で表示される。
 また、地図上に店舗や観光地などのPOIを表すオブジェクトであるアイコンを表示させたとき、地図の縮尺が小さい場合や、POIが狭いエリアに密集している場合に、アイコン同士が重なって表示されることがある。例えば、ユーザがオブジェクト選択操作としての特定点指定操作およびその予備動作を行っていない状態で、表示装置21の画面に図6のような地図が表示されていると仮定する。図6において、表示装置21の画面に表示された地図には、1つの区画内に5つのアイコンA~Eが重なって表示されている。
 図6の状態から、ユーザが表示装置21の画面に指を近づけると、予備動作検出部14はそれを特定点指定操作の予備動作として検出する。そして、特定点推定部15が、ユーザの指先から最も近い画面上の点を推定特定点として定め、オブジェクト表示位置制御部16が、推定特定点に複数のオブジェクトが重なって表示されているかどうかを確認する。このとき、図7のように、推定特定点(ユーザの指先から最も近い位置)に、アイコンA~Eが重なって表示されていれば、オブジェクト表示位置制御部16は、アイコンA~Eの表示位置をずらすように表示処理部11へ指示する。その結果、図8のように、アイコンA~Eが重ならずに表示される。
 図8の状態では、ユーザは、アイコンA~Eの個々を視認でき、それらを区別できるため、そのうちの1つに対する特定点指定操作を容易に行うことができる。すなわち、ユーザは、重ならずに表示されたアイコンA~Eのいずれかにタッチすることで、それらのうちの1つを選択することができる。
 POIを表すアイコンの密集は、例えば、同じ建物の複数のフロアにPOI(店舗など)が存在するときに生じやすい。例えば図6の示したアイコンA~Eに対応する店舗が同じ建物内にある場合、表示処理部11が、アイコンA~Eの表示位置をずらす際に、図9のようにアイコンA~Eをフロアごとにグループ分けして表示してもよい。これによりユーザの利便性が向上する。
 図10は、実施の形態1に係る表示制御装置10の動作を示すフローチャートであり、オブジェクト選択操作に関する動作を示している。以下、図10のフローチャートを参照しつつ、オブジェクト選択操作に関する表示制御装置10の動作を説明する。
 表示制御装置10が起動すると、表示処理部11が、地図データベース20に記憶された地図データに基づく地図の画像を、表示装置21の画面に表示する(ステップS101)。その後、予備動作検出部14は、空間センサ23の出力に基づいて、ユーザによる特定点指定操作の予備動作が検出されたか否かを確認する(ステップS102)。特定点指定操作の予備動作が検出されなければ(ステップS102でNO)、ステップS101へ戻る。
 ユーザによる特定点指定操作の予備動作が検出されると(ステップS102でYES))、特定点推定部15は、検出された予備動作から、特定点指定操作で指定される特定点を推定する(ステップS103)。そして、オブジェクト表示位置制御部16が、特定点推定部15が推定した特定点である推定特定点に複数のオブジェクトが重なって表示されているか否かを確認する(ステップS104)。このとき、推定特定点に複数のオブジェクトが重なって表示されていれば(ステップS104でYES)、オブジェクト表示位置制御部16は、その複数のオブジェクトの表示位置を互いにずらすように表示処理部11へ指示し、表示処理部11がその指示に応じて当該複数のオブジェクトの表示位置をずらす(ステップS105)。
 なお、推定特定点に複数のオブジェクトが重なって表示されてなければ(ステップS104でNO)、ステップS105はスキップされる。また、図10では省略されているが、ステップS105が実行された後に、指示体(ここではユーザの指)が移動して推定特定点も移動した場合や、指示体が表示装置21の画面から遠ざかって推定特定点が消滅した場合には、ステップS105でずらされたオブジェクトの表示位置は元の位置に戻される。
 その後、操作受付部12は、タッチセンサ22の出力に基づいて、オブジェクト選択操作としての特定点指定操作が検出されたか否かを確認する(ステップS106)。特定点指定操作が検出されれば(ステップS106でYES)、オブジェクト選択部13が、その特定点指定操作によって指定された特定点に表示されているオブジェクトを、ユーザが選択したオブジェクトとして選択する(ステップS107)。特定点指定操作が検出されなければ(ステップS106でNO)、ステップS107はスキップされる。
 その後、予備動作検出部14は、空間センサ23の出力に基づき、指示体が表示装置21の画面から遠ざかったか否かを確認する(ステップS108)。具体的には、指示体が予備動作の検出範囲から出たか否かが確認される。指示体が表示装置21の画面から遠ざかれば(ステップS108でYES)、予備動作検出部14は、予備動作が終了または中断したと判断し、ステップS101へ戻る。指示体が表示装置21の画面の近くに留まっていれば(ステップS108でNO)、予備動作検出部14は、予備動作が継続されている判断し、ステップS103へ戻る。
 以上のように、実施の形態1に係る表示制御装置10によれば、ユーザがオブジェクト選択操作としての特定点指定操作の予備動作を行うと、予備動作から推定された推定特定点に重なって表示されていた複数のオブジェクトの表示位置を互いにずれ、それら複数のオブジェクトの個々が視認可能になる。よって、ユーザは、特定点指定操作によって所望のオブジェクトを容易に選択できる。この効果は、重なって表示されたオブジェクトの数が多い場合でも同様に得られる。
 図11および図12は、それぞれ表示制御装置10のハードウェア構成の例を示す図である。図1に示した表示制御装置10の構成要素の各機能は、例えば図11に示す処理回路50により実現される。すなわち、表示制御装置10は、表示装置21の画面に複数のオブジェクトを表示し、ユーザが画面上の特定点を指定するための特定点指定操作の予備動作を検出し、予備動作から特定点指定操作で指定される特定点を推定し、予備動作から推定された特定点である推定特定点に複数のオブジェクトが重なって表示されている場合に、その複数のオブジェクトの表示位置を互いにずらし、特定点指定操作を受け付け、特定点指定操作によって指定された特定点に表示されているオブジェクトを選択する、ための処理回路50を備える。処理回路50は、専用のハードウェアであってもよいし、メモリに格納されたプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる)を用いて構成されていてもよい。
 処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。表示制御装置10の構成要素の各々の機能が個別の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。
 図12は、処理回路50がプログラムを実行するプロセッサ51を用いて構成されている場合における表示制御装置10のハードウェア構成の例を示している。この場合、表示制御装置10の構成要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせ)により実現される。ソフトウェア等はプログラムとして記述され、メモリ52に格納される。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、表示制御装置10は、プロセッサ51により実行されるときに、表示装置21の画面に複数のオブジェクトを表示する処理と、ユーザが画面上の特定点を指定するための特定点指定操作の予備動作を検出する処理と、予備動作から特定点指定操作で指定される特定点を推定する処理と、予備動作から推定された特定点である推定特定点に複数のオブジェクトが重なって表示されている場合に、その複数のオブジェクトの表示位置を互いにずらす処理と、特定点指定操作を受け付ける処理と、特定点指定操作によって指定された特定点に表示されているオブジェクトを選択する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。換言すれば、このプログラムは、表示制御装置10の構成要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。
 ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
 以上、表示制御装置10の構成要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、表示制御装置10の一部の構成要素を専用のハードウェアで実現し、別の一部の構成要素をソフトウェア等で実現する構成であってもよい。例えば、一部の構成要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の構成要素についてはプロセッサ51としての処理回路50がメモリ52に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 以上のように、表示制御装置10は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 <実施の形態2>
 図13は、本発明の実施の形態2に係る表示制御装置10を含む地図表示システム100の構成を示す図である。図13の地図表示システム100の構成は、図1の構成に対し、表示制御装置10のオブジェクト表示位置制御部16を、オブジェクト表示形式制御部17に置き換えたものである。
 オブジェクト表示形式制御部17は、オブジェクト表示位置制御部16が特定点指定操作の予備動作から推定した特定点である推定特定点に複数のオブジェクトが重なって表示されている場合に、画面の表示形式をその複数のオブジェクトを区別可能な表示形式に切り替えるように表示処理部11へ指示する。
 例えば地図の場合、2次元表示形式の地図では重なって表示されたオブジェクトを区別できなくても、その地図を3次元表示形式に変換すればそれらのオブジェクトを区別できるようになる。そこで、本実施の形態のオブジェクト表示形式制御部17は、表示処理部11が表示装置21の画面に2次元表示形式の地図を表示しており、且つ、その地図の推定特定点に複数のオブジェクトが重なって表示されている場合に、当該地図の表示形式を3次元表示形式に切り替える。
 例えば、ユーザがオブジェクト選択操作としての特定点指定操作およびその予備動作を行っていない状態で、表示装置21の画面に、先に示した図2のような2次元の地図が表示されていると仮定する。図2の状態から、ユーザが表示装置21の画面に指を近づけると、予備動作検出部14はそれを特定点指定操作の予備動作として検出する。そして、特定点推定部15が、ユーザの指先から最も近い画面上の点を推定特定点として定め、オブジェクト表示位置制御部16が、その推定特定点に複数のオブジェクトが重なって表示されているかどうかを確認する。
 このとき、図3のように、推定特定点(ユーザの指先から最も近い位置)に、高架道路のオブジェクト31と高架下道路のオブジェクト32とが重なって表示されていれば、オブジェクト表示形式制御部17は、地図の表示形式を、2次元表示形式から3次元表示形式に切り替えるように表示処理部11へ指示する。その結果、表示装置21の画面には、図14のような3次元の地図が表示され、高架道路のオブジェクト31と高架下道路のオブジェクト32とを区別できるようになる。
 図14の状態では、ユーザは、高架道路のオブジェクト31および高架下道路のオブジェクト32の個々を視認でき、両者を区別できるため、そのうちの1つに対する特定点指定操作を容易に行うことができる。すなわち、ユーザは、3次元表示形式の地図において、区別可能に表示された高架道路のオブジェクト31および高架下道路のオブジェクト32のいずれかにタッチすることで、それらの一方を選択することができる。
 図15は、実施の形態2に係る表示制御装置10の動作を示すフローチャートであり、オブジェクト選択操作に関する動作を示している。以下、図15のフローチャートを参照しつつ、オブジェクト選択操作に関する表示制御装置10の動作を説明する。
 表示制御装置10が起動すると、表示処理部11が、地図データベース20に記憶された地図データに基づく地図の画像を、表示装置21の画面に表示する(ステップS201)。本実施の形態では、表示処理部11は、表示装置21の画面に地図を2次元表示形式で表示する。その後、予備動作検出部14は、空間センサ23の出力に基づいて、ユーザによる特定点指定操作の予備動作が検出されたか否かを確認する(ステップS202)。特定点指定操作の予備動作が検出されなければ(ステップS202でNO)、ステップS201へ戻る。
 ユーザによる特定点指定操作の予備動作が検出されると(ステップS202でYES))、特定点推定部15は、検出された予備動作から、特定点指定操作で指定される特定点を推定する(ステップS203)。そして、オブジェクト表示形式制御部17が、特定点推定部15が推定した特定点である推定特定点に複数のオブジェクトが重なって表示されているか否かを確認する(ステップS204)。このとき、推定特定点に複数のオブジェクトが重なって表示されていれば(ステップS204でYES)、オブジェクト表示形式制御部17は、地図の表示形式を、その複数のオブジェクトが区別可能な表示形式に切り替えるように表示処理部11へ指示し、表示処理部11がその指示に応じて当該複数のオブジェクトの表示位置をずらす(ステップS205)。本実施の形態では、オブジェクト表示形式制御部17は、表示装置21の画面に地図を3次元表示形式に切り替える。
 なお、推定特定点に複数のオブジェクトが重なって表示されてなければ(ステップS204でNO)、ステップS205はスキップされる。また、図15では省略されているが、ステップS205が実行された後に、指示体(ここではユーザの指)が移動して推定特定点も移動した場合や、指示体が表示装置21の画面から遠ざかって推定特定点が消滅した場合には、ステップS205で変更された表示形式は元の形式に戻される。
 その後、操作受付部12は、タッチセンサ22の出力に基づいて、オブジェクト選択操作としての特定点指定操作が検出されたか否かを確認する(ステップS206)。特定点指定操作が検出されれば(ステップS206でYES)、オブジェクト選択部13が、その特定点指定操作によって指定された特定点に表示されているオブジェクトを、ユーザが選択したオブジェクトとして選択する(ステップS207)。特定点指定操作が検出されなければ(ステップS206でNO)、ステップS207はスキップされる。
 その後、予備動作検出部14は、空間センサ23の出力に基づき、指示体が表示装置21の画面から遠ざかったか否かを確認する(ステップS208)。具体的には、指示体が予備動作の検出範囲から出たか否かが確認される。指示体が表示装置21の画面から遠ざかれば(ステップS208でYES)、予備動作検出部14は、予備動作が終了または中断したと判断し、ステップS201へ戻る。指示体が表示装置21の画面の近くに留まっていれば(ステップS208でNO)、予備動作検出部14は、予備動作が継続されている判断し、ステップS203へ戻る。
 以上のように、実施の形態2に係る表示制御装置10によれば、ユーザがオブジェクト選択操作としての特定点指定操作の予備動作を行うと、予備動作から推定された推定特定点に重なって表示されていた複数のオブジェクトが区別可能なように画面の表示形式が切り替わり、それら複数のオブジェクトの個々が視認可能になる。よって、ユーザは、特定点指定操作によって所望のオブジェクトを容易に選択できる。この効果は、重なって表示されたオブジェクトの数が多い場合でも同様に得られる。
 なお、図13に示した表示制御装置10も、図11および図12のようなハードウェア構成で実現できる。例えば、図13の表示制御装置10を図11に示す処理回路50により構成した場合、表示制御装置10は、表示装置21の画面に複数のオブジェクトを表示し、ユーザが画面上の特定点を指定するための特定点指定操作の予備動作を検出し、予備動作から特定点指定操作で指定される特定点を推定し、予備動作から推定された特定点である推定特定点に複数のオブジェクトが重なって表示されている場合に、前記画面の表示形式をその複数のオブジェクトを区別可能な表示形式に切り替え、特定点指定操作を受け付け、特定点指定操作によって指定された特定点に表示されているオブジェクトを選択する、ための処理回路50を備える。
 また例えば、図13の表示制御装置10を図12に示す処理回路50およびプロセッサ51により構成した場合、表示制御装置10は、プロセッサ51により実行されるときに、表示装置21の画面に複数のオブジェクトを表示する処理と、ユーザが画面上の特定点を指定するための特定点指定操作の予備動作を検出する処理と、予備動作から特定点指定操作で指定される特定点を推定する処理と、予備動作から推定された特定点である推定特定点に複数のオブジェクトが重なって表示されている場合に、前記画面の表示形式をその複数のオブジェクトを区別可能な表示形式に切り替える処理と、特定点指定操作を受け付ける処理と、特定点指定操作によって指定された特定点に表示されているオブジェクトを選択する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。
 このように、実施の形態2に係る表示制御装置10も、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 以上の説明では、表示制御装置10が地図表示システム100に適用される例を示したが、表示制御装置10の適用はそれに限られない。すなわち、表示制御装置10は、複数のオブジェクトを含む画像を表示するシステムに広く適用可能である。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 100 地図表示システム、10 表示制御装置、11 表示処理部、12 操作受付部、13 オブジェクト選択部、14 予備動作検出部、15 特定点推定部、16 オブジェクト表示位置制御部、17 オブジェクト表示形式制御部、20 地図データベース、21 表示装置、22 タッチセンサ、23 空間センサ、31 高架道路のオブジェクト、32 高架下道路のオブジェクト、A~E アイコン、50 処理回路、51 プロセッサ、52 メモリ。

Claims (8)

  1.  表示装置の画面に複数のオブジェクトを表示する表示処理部と、
     ユーザが前記画面上の特定点を指定するための特定点指定操作の予備動作を検出する予備動作検出部と、
     前記予備動作から前記特定点指定操作で指定される特定点を推定する特定点推定部と、
     前記予備動作から推定された特定点である推定特定点に複数のオブジェクトが重なって表示されている場合に、その複数のオブジェクトの表示位置を互いにずらすオブジェクト表示位置制御部と、
     前記特定点指定操作を受け付ける操作受付部と、
     前記特定点指定操作によって指定された特定点に表示されているオブジェクトを選択するオブジェクト選択部と、
    を備える表示制御装置。
  2.  前記表示処理部は、重なって表示されていた複数のオブジェクトを互いにずらして表示する際、表示位置をずらす前の上下関係が分かる表示態様で当該複数のオブジェクトを表示する、
    請求項1に記載の表示制御装置。
  3.  前記表示処理部は、前記画面に地図を表示し、
     前記複数のオブジェクトは、前記地図上の地物またはPOI(Point Of Interest)を示すものである、
    請求項1に記載の表示制御装置。
  4.  表示装置の画面に複数のオブジェクトを表示する表示処理部と、
     ユーザが前記画面上の特定点を指定するための特定点指定操作の予備動作を検出する予備動作検出部と、
     前記予備動作から前記特定点指定操作で指定される特定点を推定する特定点推定部と、
     前記予備動作から推定された特定点である推定特定点に複数のオブジェクトが重なって表示されている場合に、前記画面の表示形式をその複数のオブジェクトを区別可能な表示形式に切り替えるオブジェクト表示形式制御部と、
     前記特定点指定操作を受け付ける操作受付部と、
     前記特定点指定操作によって指定された特定点に表示されているオブジェクトを選択するオブジェクト選択部と、
    を備える表示制御装置。
  5.  前記表示処理部は、前記画面に地図を表示し、
     前記複数のオブジェクトは、前記地図上の地物またはPOI(Point Of Interest)を示すものである、
    請求項4に記載の表示制御装置。
  6.  オブジェクト表示形式制御部は、前記画面に表示された2次元表示形式の前記地図の前記推定特定点に複数のオブジェクトが重なって表示されている場合に、前記地図を3次元表示形式に切り替える、
    請求項5に記載の表示制御装置。
  7.  表示制御装置の表示処理部が、表示装置の画面に複数のオブジェクトを表示し、
     前記表示制御装置の予備動作検出部が、ユーザが前記画面上の特定点を指定するための特定点指定操作の予備動作を検出し、
     前記表示制御装置の特定点推定部が、前記予備動作から前記特定点指定操作で指定される特定点を推定し、
     前記予備動作から推定された特定点である推定特定点に複数のオブジェクトが重なって表示されている場合に、前記表示制御装置のオブジェクト表示位置制御部が、その複数のオブジェクトの表示位置を互いにずらし、
     前記表示制御装置の操作受付部が、前記特定点指定操作を受け付け、
     前記表示制御装置のオブジェクト選択部が、前記特定点指定操作によって指定された特定点に表示されているオブジェクトを選択する、
    表示制御方法。
  8.  表示制御装置の表示処理部が、表示装置の画面に複数のオブジェクトを表示し、
     前記表示制御装置の予備動作検出部が、ユーザが前記画面上の特定点を指定するための特定点指定操作の予備動作を検出し、
     前記表示制御装置の特定点推定部が、前記予備動作から前記特定点指定操作で指定される特定点を推定し、
     前記予備動作から推定された特定点である推定特定点に複数のオブジェクトが重なって表示されている場合に、前記表示制御装置のオブジェクト表示形式制御部が、前記画面の表示形式をその複数のオブジェクトを区別可能な表示形式に切り替え、
     前記表示制御装置の操作受付部が、前記特定点指定操作を受け付け、
     前記表示制御装置のオブジェクト選択部が、前記特定点指定操作によって指定された特定点に表示されているオブジェクトを選択する、
    表示制御方法。
PCT/JP2019/036767 2019-09-19 2019-09-19 オブジェクトの表示を変更する表示制御装置 WO2021053791A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021546135A JP7150188B2 (ja) 2019-09-19 2019-09-19 オブジェクトの表示を変更する表示制御装置
PCT/JP2019/036767 WO2021053791A1 (ja) 2019-09-19 2019-09-19 オブジェクトの表示を変更する表示制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/036767 WO2021053791A1 (ja) 2019-09-19 2019-09-19 オブジェクトの表示を変更する表示制御装置

Publications (1)

Publication Number Publication Date
WO2021053791A1 true WO2021053791A1 (ja) 2021-03-25

Family

ID=74884451

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/036767 WO2021053791A1 (ja) 2019-09-19 2019-09-19 オブジェクトの表示を変更する表示制御装置

Country Status (2)

Country Link
JP (1) JP7150188B2 (ja)
WO (1) WO2021053791A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000298679A (ja) * 1999-04-15 2000-10-24 Minolta Co Ltd マップ上に複数のオブジェクトを配置する情報処理装置及びそのオブジェクト配置方法
JP2003114130A (ja) * 2001-08-02 2003-04-18 Alpine Electronics Inc ナビゲーション装置
US20090055774A1 (en) * 2007-08-08 2009-02-26 Steffen Joachim Method For Operating A Navigation System
JP2011099969A (ja) * 2009-11-05 2011-05-19 Japan Radio Co Ltd 地図表示システムにおけるアイコン表示方法
JP2012032852A (ja) * 2010-07-28 2012-02-16 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
JP2015187642A (ja) * 2014-03-26 2015-10-29 株式会社ゼンリンデータコム 地図表示システム及び地図表示プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000298679A (ja) * 1999-04-15 2000-10-24 Minolta Co Ltd マップ上に複数のオブジェクトを配置する情報処理装置及びそのオブジェクト配置方法
JP2003114130A (ja) * 2001-08-02 2003-04-18 Alpine Electronics Inc ナビゲーション装置
US20090055774A1 (en) * 2007-08-08 2009-02-26 Steffen Joachim Method For Operating A Navigation System
JP2011099969A (ja) * 2009-11-05 2011-05-19 Japan Radio Co Ltd 地図表示システムにおけるアイコン表示方法
JP2012032852A (ja) * 2010-07-28 2012-02-16 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
JP2015187642A (ja) * 2014-03-26 2015-10-29 株式会社ゼンリンデータコム 地図表示システム及び地図表示プログラム

Also Published As

Publication number Publication date
JPWO2021053791A1 (ja) 2021-03-25
JP7150188B2 (ja) 2022-10-07

Similar Documents

Publication Publication Date Title
JP6138641B2 (ja) 地図情報表示装置、地図情報表示方法、及び地図情報表示プログラム
KR101998941B1 (ko) 사용자 인터페이스 및 타일의 의미 스케일을 조정하기 위한 방법
JP5102412B1 (ja) 情報端末、情報端末の制御方法、及び、プログラム
EP1873621A1 (en) Driving method and input method for touch panel
JP6123879B2 (ja) 表示装置および表示方法ならびにそのプログラム、端末装置
CN105549853A (zh) 一种用于在触摸终端上确定目标操作对象的方法与设备
JP5461035B2 (ja) 入力装置
US20190113358A1 (en) Display processing device and display processing program
KR20150135840A (ko) 사용자 인터페이스 제공 장치 및 방법
JP4783075B2 (ja) ナビゲーション装置
JP6177660B2 (ja) 入力装置
KR20150099221A (ko) 사용자 인터페이스를 제공하는 방법 및 이를 수행하기 위한 플렉시블 디바이스
KR101459447B1 (ko) 터치스크린을 이용한 항목 선택 방법 및 시스템
WO2021053791A1 (ja) オブジェクトの表示を変更する表示制御装置
US20170123610A1 (en) User terminal, electronic device, and control method thereof
JP2010122795A (ja) 電子機器及びその制御方法
JP6210055B2 (ja) 情報処理システム、情報処理装置、情報処理方法
CN111183409B (zh) 显示控制装置、显示控制方法、记录介质及电子设备
JP6991320B2 (ja) 表示制御装置および表示制御方法
JP5726333B2 (ja) 地図表示装置および地図表示方法
JP5916690B2 (ja) 地図表示装置
JP2012173980A (ja) 表示装置、表示方法、及び表示プログラム
JP2018195025A (ja) 情報処理装置、情報処理システム、及び情報処理方法
US20230137170A1 (en) Icon display controlling device and icon display controlling program
US20240036701A1 (en) A computer a software module arrangement, a circuitry arrangement, a user equipment and a method for an improved and extended user interface

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19945509

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021546135

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19945509

Country of ref document: EP

Kind code of ref document: A1