WO2018025339A1 - 表示装置及び表示方法 - Google Patents

表示装置及び表示方法 Download PDF

Info

Publication number
WO2018025339A1
WO2018025339A1 PCT/JP2016/072745 JP2016072745W WO2018025339A1 WO 2018025339 A1 WO2018025339 A1 WO 2018025339A1 JP 2016072745 W JP2016072745 W JP 2016072745W WO 2018025339 A1 WO2018025339 A1 WO 2018025339A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
boundary line
changed
display area
Prior art date
Application number
PCT/JP2016/072745
Other languages
English (en)
French (fr)
Inventor
俊夫 上村
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to PCT/JP2016/072745 priority Critical patent/WO2018025339A1/ja
Publication of WO2018025339A1 publication Critical patent/WO2018025339A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Definitions

  • the present invention relates to a display device and a display method for displaying a plurality of images by dividing a display screen into a plurality of regions.
  • Patent Document 1 There is Patent Document 1 as background art, which is described as follows. “When 4 seconds have passed since the opening screen was displayed, the video processing function unit 57 generates a multi-screen (D102) and displays it on the touch panel 21” (paragraph 0055), “multi-screen (D102). When the operation processing function unit 51 detects that the “navi” button displayed on the screen is pressed, the AV area is gradually hidden and the navigation area is displayed on the entire screen. (Paragraph 0058) and “AV + Navi” button, the video processing function unit 57 switches the display from the full navigation screen (D103) to the multi-screen (D102).
  • Patent Document 1 switching between multi-screen display between a navigation screen and an AV screen, navigation full-screen display, and AV full-screen display is performed using a corresponding screen selection button.
  • Patent Document 1 does not take into consideration that the user arbitrarily changes the size of each screen in multi-screen display, and that the display scale of the image is changed in accordance with the change of the screen size. Furthermore, it is impossible to meet the need for realizing a screen configuration desired by the user with an intuitive and simple operation and providing a user-friendly screen.
  • an object of the present invention is to provide a display device and a display method for realizing a desired screen configuration with an intuitive and simple operation when a plurality of images are displayed by dividing a screen.
  • a desired screen configuration when a screen is divided and a plurality of images are displayed, a desired screen configuration can be realized by an intuitive and simple operation.
  • FIG. 1 is a block diagram illustrating a configuration example of a display device according to the present invention.
  • 6 is a flowchart showing image control processing of the display device.
  • FIG. 6 is a diagram illustrating a rule of image arrangement change processing (touching a boundary line) in the first embodiment.
  • FIG. 6 is a diagram illustrating a specific example of image arrangement change processing (two-image display) according to the first embodiment.
  • FIG. 6 is a diagram illustrating a specific example of image arrangement change processing (two-image display) according to the first embodiment.
  • FIG. 6 is a diagram illustrating a specific example of image arrangement change processing (two-image display) according to the first embodiment.
  • FIG. 6 is a diagram illustrating a specific example of image arrangement change processing (two-image display) according to the first embodiment.
  • FIG. 6 is a diagram illustrating a specific example of image arrangement change processing (two-image display) according to the first embodiment.
  • FIG. 6 is a diagram illustrating a specific example of image arrangement change processing (three-image display) according to the first embodiment.
  • FIG. 6 is a diagram illustrating a specific example of image arrangement change processing (three-image display) according to the first embodiment.
  • FIG. 6 is a diagram illustrating a specific example of image arrangement change processing (four-image display) according to the first embodiment.
  • FIG. 6 is a diagram illustrating a specific example of image arrangement change processing (four-image display) according to the first embodiment.
  • FIG. 6 is a diagram illustrating a specific example of image arrangement change processing (four-image display) according to the first embodiment.
  • FIG. 6 is a diagram illustrating a specific example of image arrangement change processing (four-image display) according to the first embodiment.
  • FIG. 10 is a diagram illustrating a rule of image arrangement change processing (touching a boundary point) in the second embodiment.
  • FIG. 10 is a diagram illustrating a specific example of image arrangement change processing (3-image display) according to the second embodiment.
  • FIG. 10 is a diagram illustrating a specific example of image arrangement change processing (3-image display) according to the second embodiment.
  • FIG. 10 is a diagram illustrating a specific example of image arrangement change processing (four-image display) according to the second embodiment.
  • FIG. 10 is a diagram illustrating a specific example of image arrangement change processing (four-image display) according to the second embodiment.
  • FIG. 10 is a diagram illustrating a specific example of image arrangement change processing (four-image display) according to the second embodiment.
  • FIG. 10 is a diagram illustrating a specific example of image arrangement change processing (four-image display) according to the second embodiment.
  • FIG. 10 is a diagram illustrating a specific example of image arrangement change processing (four-image display) according to the second embodiment.
  • FIG. 10 is a diagram describing a rule of image arrangement change processing (change of display direction) in the third embodiment.
  • FIG. 10 is a diagram illustrating a specific example of image arrangement change processing (two-image display) according to the third embodiment.
  • FIG. 10 is a diagram illustrating a specific example of image arrangement change processing (two-image display) according to the third embodiment.
  • FIG. 1 is a block diagram showing a configuration example of a display device according to the present invention.
  • the display device targeted by the present invention corresponds to various devices having an image display function, such as a television device, a navigation device, a tablet terminal, a smartphone, and a personal computer.
  • the display device 1 includes an image generation unit 11 that generates a plurality of images, an image display unit 12 that displays a plurality of images on one screen, an operation detection unit 13 that detects a user operation, and an operation detection unit 13. And an image arrangement control unit 14 that controls arrangement parameters of a plurality of images displayed on the image display unit 12 in accordance with the user operation and the type of image detected in step (b).
  • the image generation unit 11 includes a plurality of image generation units, and in this example, includes first to fourth image generation units 111 to 114.
  • Each image generation unit reads out data from a storage device (not shown) to generate a display image (for example, navigation image, video image, album image), and receives a television broadcast to generate a display image (for example, a TV image, Teletext images), images that generate images by inputting various information from external devices (for example, those that acquire data from a network) (for example, text information, video images, album images, WEB images), etc. And not limiting.
  • each of the first to fourth image generation units 111 to 114 determines in advance which type of image to generate.
  • the first image generation unit 111 generates a television image
  • the second image generation unit 112 generates a navigation image (hereinafter abbreviated as “navigation image”).
  • the “television image” here includes not only images received by television broadcasting but also moving images and still images that can be acquired from various video media.
  • the image display unit 12 displays a plurality of images generated by the image generation unit 11, and uses, for example, a liquid crystal panel.
  • the operation detection unit 13 is a device that detects a user's operation. For example, a touch panel that detects an operation of a user's finger is provided integrally with the image display unit 12.
  • the image arrangement control unit 14 controls the arrangement of a plurality of images to be displayed according to a user operation detected by the operation detection unit 13.
  • the image arrangement parameters here include “display area”, “display scale”, “display direction”, and the like.
  • the “display area” is the size (vertical dimension, horizontal dimension) of an area for displaying one image.
  • “Display scale” corresponds to a scale in a general map book, and is a value obtained by comparing the size of an arbitrary object in an image in a display state with the size of an object in a reference display state.
  • the “display direction” is the relationship between the vertical and horizontal directions of the display image with respect to the vertical and horizontal directions of the image display unit 12. Also, the “aspect ratio” is controlled in relation to the “display area”.
  • the “aspect ratio” is the aspect ratio of the entire image to be displayed (including the non-displayed portion of the image). When the aspect ratio changes, the aspect ratio of the object in the image changes. When the size of the entire image and the size of the display area match like a television image, the aspect ratio is equal to the aspect ratio of the display area.
  • a typical example of the image layout changing operation is performed by touching and dragging near the “boundary line” or “boundary point” of the image area.
  • FIG. 2A is a diagram for explaining an operation of touching the boundary line of the image area.
  • the “side” portion of the rectangle is referred to as a “boundary line”.
  • the user touches the boundary line 30a at the right end with the finger 40, for example.
  • the technology related to the touch operation uses the conventional technology.
  • the center of gravity of the touch range of the fingertip is set as the touch position, and the boundary line can be selected by selecting a boundary line when the touch position is close to the boundary line. Thereafter, the finger 40 is dragged in the direction of the arrow 41 and untouched.
  • the operation detection unit 13 detects the drag amount of the finger 40, and the image arrangement control unit 14 moves the boundary line 30 a to the position 31 a according to the drag amount and changes it to a new display area 31. Since the operation on the boundary line is to translate one “side” of the quadrangle in the orthogonal direction, this operation is used when the image area is enlarged or reduced in one direction (horizontal direction or vertical direction). .
  • FIG. 2B is a diagram for explaining an operation of touching the boundary point of the image area.
  • the rectangular “vertex” portion of the display area 30 is referred to as a “boundary point”.
  • the user touches the boundary point 30b at the lower right corner with the finger 40, drags it in the oblique direction indicated by the arrow 41, and untouchs it.
  • the image arrangement control unit 14 moves the boundary point 30b to the position 31b according to the drag amount, and changes to the new display area 31.
  • two “sides” in this example, the right side and the lower side
  • this operation can be performed in two directions (horizontal and vertical). Used when enlarging or reducing in the direction).
  • the “boundary lines” or “boundary points” of the plurality of images overlap at the same position or are close enough to fit within the fingertip area. .
  • it is possible to capture the “boundary line” or “boundary point” of multiple images with a single touch operation it is possible to change the arrangement of multiple images at the same time and realize simple and intuitive operations. .
  • FIG. 3 is a flowchart showing image control processing in the display device.
  • the main points of this processing are as follows. (1) The touch operation position is detected and an image to be changed is determined. (2) The drag amount is detected and the display area of the target image is changed. (3) Change the aspect ratio, display scale, display direction, etc. according to the type of image. Hereinafter, it demonstrates along a flow.
  • the operation detection unit 13 determines where the touch position is. If the touch position is an image boundary line, the process proceeds to S203, and an image in contact with the boundary line is set as a change target image. If there are two images in contact with the boundary line, both images are targeted. Subsequently, in S204, the drag amount (one of ⁇ X and ⁇ Y) in the orthogonal direction of the boundary line is detected. That is, even if a drag operation is performed in the direction parallel to the boundary line, no response is made.
  • the process proceeds to S205, and an image including the boundary point is set as a change target image. For example, two or more images including boundary points can be targeted.
  • the drag amount at the boundary point is detected as a vector amount (both ⁇ X and ⁇ Y).
  • the image arrangement control unit 14 enlarges or reduces the display area based on the drag amount ( ⁇ X, ⁇ Y) detected in S204 or S206 with respect to the target image determined in S203 or S205.
  • the image arrangement control unit 14 determines the type of image for each image whose area has been changed.
  • the type of image can be determined based on which generation unit 111 to 114 of the image generation unit 11 outputs the image. If it is a television image, the process proceeds to S209, and if it is a navigation image, the process proceeds to S211. In the case of other images, the process proceeds to S213.
  • the area is corrected so that the aspect ratio is constant for the TV image. For example, even when the drag amount is only in the horizontal direction ( ⁇ X), the area is expanded / reduced in the vertical direction, and the aspect ratio is kept constant.
  • the display scale of the television image is changed according to the changed area.
  • the image display unit 12 displays each image based on the image arrangement changed by the image arrangement control unit 14.
  • the above image control process includes various processes according to the present invention. Hereinafter, it will be specifically described by dividing it into Examples 1 to 3.
  • FIG. 4 is a diagram describing rules for image layout change processing in the first embodiment.
  • the operation for changing the image arrangement is an operation of touching the vicinity of the boundary line between two images, dragging as it is, and then untouching.
  • a new boundary line between the two images is determined according to the drag amount (movement amount) in the orthogonal direction of the image boundary line in the changing operation, and the display area of each image is enlarged or reduced. It is processing to do. At this time, the area is not enlarged or reduced in the direction parallel to the image boundary line (that is, the direction orthogonal to the drag direction).
  • the image type is a television image
  • the area is enlarged or reduced in the direction parallel to the image boundary line (that is, other than orthogonal to the image boundary line so as to keep the aspect ratio of the display area constant). Also move around the borders).
  • the scale changing process of each image is displayed with the display scale enlarged or reduced in accordance with the size of the display area after the change.
  • the display scale is not changed for images other than television images. In this embodiment, the display direction changing process is not performed.
  • FIG. 5A shows a state in which two images are displayed on the screen 300 by dividing the television image 310 and the navigation image 320 into two in the horizontal direction.
  • FIG. 5B shows a state in which the finger 400 is dragged (moved) in the right direction of the screen 300 as indicated by an arrow 410 from the state shown in FIG.
  • the drag amount at this time is a distance ⁇ X moved in a direction orthogonal to the boundary line.
  • the boundary line of each image is moved by the drag amount, the television image 310 is enlarged by ⁇ X in the horizontal direction, and the navigation image 320 is reduced by ⁇ X in the horizontal direction. Further, the television image 310 is enlarged in the vertical direction in order to make the aspect ratio constant.
  • the display scale of each image is enlarged for the television image 310 in accordance with the enlargement of the display area. That is, the entire image is enlarged.
  • the display size of the object in the image is not changed.
  • FIG. 5C shows a state where the finger 400 is further dragged to the right end of the screen 300 as indicated by an arrow 410 from the state of FIG. 5B and then untouched to perform a change operation.
  • the television image 310 is enlarged on the entire surface of the screen 300, and the navigation image 320 is further reduced to be in a non-display state.
  • the display scale of the television image 310 is enlarged in accordance with the enlargement of the display area.
  • FIG. 5D shows a state where the finger 400 is further dragged to the center of the screen 300 as indicated by an arrow 410 from the state of FIG. 5C and then untouched to perform a change operation.
  • the display area is displayed with the television image 310 reduced and the navigation image 320 enlarged, and the display returns to the same display as in the initial state of FIG. 5A.
  • the television image 310 is also reduced in the vertical direction so that the aspect ratio is constant. Further, the display scale of the television image 310 is reduced in accordance with the display area reduction.
  • FIGS. 6A and 6B a specific example of the image arrangement changing process in the three-image display state will be described with reference to FIGS. 6A and 6B.
  • the three-image display there are a plurality of boundary lines in contact with the two images.
  • the change process is performed only on the two images in contact with the touched boundary line.
  • FIG. 6A shows a three-image display state in which a television image 310 is arranged in the upper left half of the screen 300, a program information image 330 is arranged in the lower left half, and a navigation image 320 is arranged in the right half.
  • the user is in a state of touching the finger 400 near the boundary between the two images of the television image 310 and the navigation image 320 to change the image arrangement.
  • FIG. 6B shows a state where the finger 400 is dragged to the right of the screen 300 from the state of FIG.
  • the television image 310 in contact with the boundary line is enlarged and the navigation image 320 is reduced.
  • the television image 310 is also enlarged in the vertical direction so as to keep the aspect ratio constant.
  • the program information image 330 on the lower left side that is not in contact with the touched boundary line is also reduced in the vertical direction.
  • Each display scale is enlarged as the television image 310 is enlarged in accordance with the enlargement of the display area, and the navigation image 320 and the program information image 330 are not changed.
  • the program information image 330 that is not in contact with the touched boundary line is not subject to area change except for the influence of the adjacent television image 310. Therefore, when there is an optimal value for the display width of the image as in the program information image 330, there is an effect that the image layout can be changed while maintaining the optimal value.
  • FIGS. 7A and 7B a specific example of the image arrangement changing process in the four-image display state will be described with reference to FIGS. 7A and 7B.
  • an example is shown in which four images are displayed: a television image, a weather information image, a news image, and a mail image.
  • the change process is performed only on the image in contact with the touched boundary line.
  • FIG. 7A shows a four-image display state in which the television image 310 is arranged on the upper left side of the screen 300, the weather information image 350 is arranged on the lower left side, the news image 360 is arranged on the upper right side, and the mail image 370 is arranged on the lower right side.
  • the user is in a state of touching the finger 400 near the boundary between the news image 360 and the mail image 370 to change the image arrangement.
  • FIG. 7B shows a state where the finger 400 is dragged downward from the screen 300 and then untouched from the state of FIG. 7A to perform a change operation.
  • the news image 360 is enlarged in the vertical direction and the mail image 370 is reduced in the vertical direction.
  • the display area does not change.
  • the aspect ratio and the display scale are not changed in the news image 360 and the mail image 370 whose areas have been changed. Thereby, a lot of information can be displayed about news image 360 by a user's liking.
  • Example 1 The effects of Example 1 are as follows.
  • the size of two images in contact with the boundary line can be changed simultaneously by a single touch and drag operation near the boundary line of the image.
  • the image type is a television image
  • the aspect ratio of the image is maintained constant, and the display scale is changed according to the area size.
  • a normal TV image displays the entire image, but by performing the above change processing, part of the display image is displayed at the maximum scale without protruding from the screen when the area is changed, and the aspect ratio is constant. Can be displayed in an easy-to-view state.
  • FIG. 8 is a diagram describing rules for image layout change processing in the second embodiment.
  • the difference from the first embodiment (FIG. 4) is that the position touched for the change operation is set as the boundary point of the image. In this case, a plurality of images belonging to the touched boundary point are to be changed. Further, the movement amount of the boundary point is treated as a vector, and the drag amount in both the horizontal direction ⁇ X and the vertical direction ⁇ Y is detected. Based on the drag amounts ⁇ X and ⁇ Y, the display area is enlarged or reduced.
  • FIG. 9A shows a three-image display state in which a television image 310 is arranged in the upper left half of the screen 300, a broadcast program guide image 340 is arranged in the lower left half, and a navigation image 320 is arranged in the right half.
  • the user is in a state of touching the finger 400 near the boundary point between the television image 310 and the program guide image 340 in order to change the image arrangement.
  • This touch position is also a boundary line with the navigation image 320 in the right half. Therefore, the change operation for the boundary line described in the first embodiment is also performed at the same time.
  • FIG. 9B shows a state in which the finger 400 is dragged in the lower right direction of the screen 300 (indicated by an arrow 410) from the state of FIG.
  • the drag amount at this time is represented by a vector amount ( ⁇ X, ⁇ Y) including the moving direction of the finger 400.
  • ⁇ X, ⁇ Y the boundary point of each image is moved by the drag amount ( ⁇ X, ⁇ Y)
  • the television image 310 is expanded by horizontal ⁇ X and vertical ⁇ Y
  • the program guide image 340 is expanded by horizontal ⁇ X and reduced by vertical ⁇ Y. is doing.
  • the navigation image 320 is reduced by the horizontal ⁇ X by the boundary line moving operation.
  • the vertical size H2 is corrected according to the horizontal size W2 (or even if the horizontal size W2 is corrected according to the vertical size H2). Good).
  • the television image 310 is enlarged in accordance with the enlargement of the display area, and the navigation image 320 and the program guide image 340 are not changed.
  • FIGS. 10A to 10C a specific example of the image arrangement changing process in the four-image display state will be described with reference to FIGS. 10A to 10C.
  • a television image a weather information image, a news image, and a mail image are displayed.
  • FIG. 10A shows a four-image display state in which a screen 300 is divided into four, a television image 310 is arranged on the upper left side, a weather information image 350 is arranged on the lower left side, a news image 360 is arranged on the upper right side, and a mail image 370 is arranged on the lower right side. It is.
  • the user can change the four images simultaneously by touching the finger 400 near the boundary point of the four images to change the image arrangement.
  • FIG. 10B shows a state where the finger 400 is dragged in the lower right direction of the screen 300 (indicated by an arrow 410) from the state shown in FIG.
  • the boundary point of each image is moved by the drag amount ( ⁇ X, ⁇ Y)
  • the television image 310 is expanded by horizontal ⁇ X and vertical ⁇ Y
  • the weather information image 350 is expanded by horizontal ⁇ X
  • the vertical ⁇ Y is reduced. is doing.
  • the news image 360 is reduced by horizontal ⁇ X and enlarged by vertical ⁇ Y
  • the mail image 370 is reduced by horizontal ⁇ X and vertical ⁇ Y.
  • the vertical size H2 is corrected in accordance with the horizontal size W2.
  • the display scale of the television image 310 is enlarged in accordance with the enlargement of the display area.
  • FIG. 10C shows a state in which the finger 400 is dragged in the upper left direction of the screen 300 from the state of FIG.
  • the television image 310 is reduced
  • the weather information image 350 is enlarged vertically and reduced horizontally
  • the news image 360 is reduced vertically and enlarged horizontally
  • the mail image 370 is enlarged.
  • the mail image 370 can be enlarged to display a lot of information.
  • Example 2 The effects of Example 2 are as follows.
  • the size of a plurality of images in contact with the boundary point can be changed simultaneously by a single touch and drag operation near the boundary point of the image.
  • the vertical and horizontal dimensions of the image can be changed at the same time by handling the drag amount as a vector amount.
  • FIG. 11 is a diagram describing the rules of the image layout change process in the third embodiment.
  • the difference from the first embodiment (FIG. 4) and the second embodiment (FIG. 8) is that a process for changing the display direction of the image is added.
  • the width after the area change is equal to or smaller than a predetermined value.
  • This is a process of displaying in the head-up direction. For example, normally, the north direction is displayed in the north up direction, and when the display area becomes a predetermined width or less, the heading up is displayed in which the traveling direction is displayed in the upward direction. Thereby, even if a display area becomes narrow, it can display preferentially the information of the advancing direction.
  • FIGS. 12A and 12B a specific example of the image arrangement changing process in the third embodiment will be described with reference to FIGS. 12A and 12B.
  • a two-image display state including a navigation image will be described.
  • FIG. 12A shows a state in which the screen 300 is divided into left and right and a television image 310 and a navigation image 320 are displayed.
  • the navigation image 320 is displayed in the north-up direction as indicated by the compass 321.
  • the user is in a state of touching the finger 400 near the boundary between the two images for the image arrangement changing operation.
  • FIG. 12B shows a state in which the change operation is performed by dragging the finger 400 to the right of the screen 300 as indicated by an arrow 410 and then untouching from the state of FIG. 12A.
  • the area of the television image 310 is enlarged while maintaining the aspect ratio, and the width of the area of the navigation image 320 is reduced in the horizontal direction.
  • the area width W3 of the navigation image 320 is equal to or smaller than a predetermined width (for example, 1/4 of the width of the screen 300)
  • the head-up with the traveling direction (indicated by reference numeral 322) as the upward direction of the navigation image 320 Switch the display to the direction of.
  • the predetermined width is not limited to this and may be set as appropriate, and may be determined according to the scale of the navigation image.
  • the third embodiment when the map information in the traveling direction is requested with priority as in a navigation image, it is possible to provide important information in an easy-to-see state even when the screen width is reduced.
  • the number of displayed images on the image display unit 12 is not limited to 2 to 4 as shown in the above embodiment, and the image arrangement can be changed even when the number is larger than this.
  • the start of the image arrangement changing operation is not limited to the touch operation, but may be a long press operation or a tap operation. In this case, when the display device receives an operation start, it is desirable to perform feedback to the user by changing the color of the target image boundary line, blinking, or the like.
  • the operation detection device of the operation detection unit 13 is not limited to the touch panel, and other pointing devices such as a mouse and switch devices such as a remote controller can change the image arrangement.
  • the touch operation position can be simultaneously received for both the boundary line of the image and the boundary point of the image. Further, the operation on the boundary point of the image is not limited to the movement in the oblique direction, but may be movement in the horizontal direction or the horizontal method.
  • the font size of the text information may be changed to be displayed in accordance with the size of the display area after the image layout is changed. As a result, the user can view the image with a desired character size.
  • the display device is configured by combining a display device such as a television or a navigation device with a portable device such as a smartphone, and displaying a display equivalent to the display device on the portable device. It is also possible to perform an image layout change operation of the display device by transmitting the result to the display device.
  • Each of the above-described configurations, functions, processing units, processing means, and the like may be realized in hardware by designing a part or all of them with, for example, an integrated circuit.
  • Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.
  • Information such as programs, tables, and files for realizing each function can be stored in a recording device such as a memory, a hard disk, an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

1つの画面上に複数の画像を表示する表示装置1において、操作検出部13は、ユーザの操作位置が画像の表示領域の境界線であることを検出したとき、前記境界線に直交する方向のユーザの操作量を検出し、画像配置制御部14は、前記境界線に接する少なくとも1つの画像を変更対象とし、検出した操作量に基づいて、変更対象とした画像の表示領域の前記境界線を該境界線に直交する方向に移動させる。さらに画像配置制御部は、変更対象とした画像の種類が動画像あるいは静止画像である場合、表示領域のアスペクト比が一定となるよう領域サイズを修正し、修正した表示領域のサイズに合わせて画像の表示縮尺を変更する。

Description

表示装置及び表示方法
 本発明は、表示画面を複数の領域に分割して複数の画像を表示する表示装置及び表示方法に関する。
 背景技術には特許文献1があり、次のように記載されている。「オープニング画面が表示されてから4秒経つと、映像処理機能部57は、・・・マルチ画面(D102)を生成し、タッチパネル21に表示する。」(段落0055)、「マルチ画面(D102)に表示されている「ナビ」ボタンが押されたことを操作処理機能部51が検知すると、AV領域を徐々に隠し、ナビ領域を全画面に表示する。」(段落0058)、「「AV+ナビ」ボタンが押されると、映像処理機能部57は、ナビ全画面(D103)からマルチ画面(D102)へ表示を切り替える。」(段落0059)、「マルチ画面(D102)に表示されている「AV」ボタンが押されたことを操作処理機能部51が検知すると、ナビ領域を徐々に隠し、AV領域を全画面に表示する。」(段落0060)、「「AV+ナビ」ボタンが押されると、映像処理機能部57は、AV全画面(D104)からマルチ画面(D102)へ表示を切り替える。」(段落0061)。
特開2010-66227号公報
 特許文献1は、ナビ画面とAV画面とのマルチ画面表示、ナビ全画面表示、AV全画面表示の切り替えを、夫々に対応する画面選択ボタンで行うものである。
 しかし、特許文献1に記載の技術では、マルチ画面表示において各画面のサイズをユーザが任意に変更すること、また画面サイズの変更に伴い画像の表示縮尺を変更することについては考慮されていない。
  さらに、ユーザの所望する画面構成を直感的かつ簡単操作で実現し、かつ、ユーザの見やすい画面を提供するというニーズへ対応することができない。
 以上を鑑みて、本発明の目的は、画面を分割して複数の画像を表示する際、所望の画面構成を直感的かつ簡単な操作で実現する表示装置及び表示方法を提供することである。
 上記課題を解決するために、例えば、請求の範囲に記載の構成と方法を採用する。
 本発明によれば、画面を分割して複数の画像を表示する際、所望の画面構成を直感的かつ簡単な操作で実現することができる。
本発明に係る表示装置の構成例を示すブロック図。 画像配置変更のため画像領域の境界線にタッチする操作を説明する図。 画像配置変更のため画像領域の境界点にタッチする操作を説明する図。 表示装置の画像制御処理を示すフローチャート。 実施例1における画像配置変更処理(境界線にタッチ)のルールを記載した図。 実施例1の画像配置変更処理(2画像表示)の具体例を示す図。 実施例1の画像配置変更処理(2画像表示)の具体例を示す図。 実施例1の画像配置変更処理(2画像表示)の具体例を示す図。 実施例1の画像配置変更処理(2画像表示)の具体例を示す図。 実施例1の画像配置変更処理(3画像表示)の具体例を示す図。 実施例1の画像配置変更処理(3画像表示)の具体例を示す図。 実施例1の画像配置変更処理(4画像表示)の具体例を示す図。 実施例1の画像配置変更処理(4画像表示)の具体例を示す図。 実施例2における画像配置変更処理(境界点にタッチ)のルールを記載した図。 実施例2の画像配置変更処理(3画像表示)の具体例を示す図。 実施例2の画像配置変更処理(3画像表示)の具体例を示す図。 実施例2の画像配置変更処理(4画像表示)の具体例を示す図。 実施例2の画像配置変更処理(4画像表示)の具体例を示す図。 実施例2の画像配置変更処理(4画像表示)の具体例を示す図。 実施例3における画像配置変更処理(表示方向の変更)のルールを記載した図。 実施例3の画像配置変更処理(2画像表示)の具体例を示す図。 実施例3の画像配置変更処理(2画像表示)の具体例を示す図。
 本発明の実施形態を図面を用いて説明する。以下、本発明に係るいくつかの実施例を説明するが、始めに共通事項である表示装置の基本構成と基本動作について説明する。
 図1は、本発明に係る表示装置の構成例を示すブロック図である。本発明で対象とする表示装置は、テレビジョン装置、ナビゲーション装置、タブレット端末、スマートフォン、パーソナルコンピュータなど、画像表示機能を有する各種の装置が該当する。
 表示装置1は、複数の画像を生成する画像生成部11と、1つの画面上に複数の画像を表示する画像表示部12と、ユーザの操作を検出する操作検出部13と、操作検出部13で検出されたユーザの操作と画像の種類に応じて、画像表示部12にて表示する複数の画像の配置パラメータを制御する画像配置制御部14と、を備えている。
 画像生成部11は複数の画像生成部からなり、この例では、第1~第4画像生成部111~114を備えている。各画像生成部は、図示しない記憶装置からデータを読み出して表示画像を生成するもの(例えばナビゲーション画像、ビデオ画像、アルバム画像)、テレビ放送を受信して表示画像を生成するもの(例えばテレビ画像、文字放送画像)、外部装置(例えばネットワークからのデータを取得するもの)から各種情報を入力して画像を生成するもの(例えばテキスト情報、ビデオ画像、アルバム画像、WEB画像)など、生成方法は任意であり限定するものではない。ただし、第1~第4画像生成部111~114の各々は、いずれの種類の画像を生成するのかを予め決められている。例えば、第1画像生成部111はテレビ画像を生成し、第2画像生成部112はナビゲーション画像(以下、「ナビ画像」と略す)を生成するものと決められている。なお、ここでいう「テレビ画像」は、テレビ放送で受信される画像だけでなく、様々な映像メディアから取得可能な動画像や静止画像を含むものとする。
 画像表示部12は画像生成部11で生成された複数の画像を表示するもので、例えば液晶パネルを用いる。操作検出部13はユーザの操作を検出するデバイスであり、例えばユーザの指の操作を検出するタッチパネルを画像表示部12に一体で設けたものである。
 画像配置制御部14は操作検出部13で検出したユーザの操作に応じて、表示する複数の画像の配置を制御する。ここでいう画像の配置パラメータには、「表示領域」と「表示縮尺」と「表示方向」等を含んでいる。「表示領域」とは1つの画像を表示する領域のサイズ(縦寸法、横寸法)である。「表示縮尺」とは一般の地図帳での縮尺に相当し、表示状態での画像内の任意のオブジェクトの大きさを基準表示状態でのオブジェクトの大きさと比較した値である。「表示方向」とは画像表示部12の縦横方向に対する表示画像の縦横方向の関係である。また、「表示領域」に関連して「アスペクト比」についても制御する。「アスペクト比」は表示対象である画像全体(画像のうち非表示となる部分も含む)の縦横比であり、アスペクト比が変化すると画像内のオブジェクトの縦横比が変化することになる。テレビ画像のように、画像全体のサイズと表示領域のサイズとが一致する場合は、アスペクト比は表示領域の縦横比に等しい。これらの用語については、以降の表示例で具体的に説明する。
 次に、画像配置変更処理のためにユーザの行う基本操作を図2Aと図2Bで説明する。画像配置の変更操作の典型例は、画像領域の「境界線」または「境界点」付近をタッチしてドラッグすることで行う。
 図2Aは、画像領域の境界線にタッチする操作を説明する図である。簡単のため画像の表示領域30を四角形としたとき、四角形の「辺」の部分を「境界線」と呼ぶことにする。ここでユーザは、例えば右端にある境界線30aを指40でタッチする。その際、タッチ操作に関する技術は、従来技術を利用している。例えば、指先のタッチ範囲の重心をタッチ位置とし、境界線の選択は、タッチ位置が境界線に近い場合、境界線を選択したこととする等の技術を利用できる。その後、指40を矢印41の方向にドラッグし、アンタッチする。操作検出部13は指40のドラッグ量を検出し、画像配置制御部14は、ドラッグ量に応じて境界線30aを31aの位置まで移動し、新しい表示領域31に変更する。境界線に対する操作は四角形の1つの「辺」をその直交方向に平行移動することであるから、この操作は、画像領域を1方向(横方向又は縦方向)に拡大または縮小させる場合に用いられる。
 図2Bは、画像領域の境界点にタッチする操作を説明する図である。以下では、表示領域30の四角形の「頂点」の部分を「境界点」と呼ぶことにする。ここでユーザは、例えば右下隅にある境界点30bを指40でタッチし、矢印41で示す斜め方向にドラッグし、アンタッチする。その結果、画像配置制御部14はドラッグ量に応じて、境界点30bを31bの位置まで移動し、新しい表示領域31に変更する。境界点に対する操作の場合、境界点を起点とする2つの「辺」(この例では右辺と下辺)をそれぞれ平行移動させることができるので、この操作は、画像領域を2方向(横方向及び縦方向)に拡大または縮小させる場合に用いられる。
 1つの画面に複数の画像を配置して表示する場合、複数の画像の「境界線」または「境界点」が同位置に重なり、あるいは指先の面積に収まる程度に近接して存在することになる。その場合、1回のタッチ操作で複数の画像の「境界線」または「境界点」を捉えることができるので、複数の画像の配置変更を同時に行えるとともに、簡単でかつ直感的な操作を実現できる。
 図3は、表示装置における画像制御処理を示すフローチャートである。この処理の要点は、次の通りである。
(1)タッチ操作位置を検出して、変更対象となる画像を決定する。
(2)ドラッグ量を検出して、対象画像の表示領域を変更する。
(3)画像の種類に応じて、アスペクト比、表示縮尺、表示方向等を変更する。
以下、フローに沿って説明する。
 S201にて操作検出部13はタッチパネルによりユーザの操作を検出すると、S202にてタッチ位置はどこかを判定する。タッチ位置が画像の境界線であればS203へ進み、境界線に接する画像を変更対象画像とする。境界線に接する2つの画像があれば、両方の画像を対象とする。続いてS204にて境界線の直交方向へのドラッグ量(ΔX、ΔYの一方)を検出する。つまり、境界線の平行方向へドラッグ操作が行われても、これには応答しない。
 S202の判定で、タッチ位置が画像の境界点であればS205へ進み、境界点を含む画像を変更対象画像とする。例えば、境界点を含む2つ以上の画像を対象とすることができる。続いてS206にて境界点のドラッグ量をベクトル量(ΔX、ΔYの両方)として検出する。
 S207にて画像配置制御部14は、S203またはS205で決定した対象画像に対し、S204またはS206で検出したドラッグ量(ΔX、ΔY)に基づいて、表示領域を拡大または縮小を行う。
 S208にて画像配置制御部14は、領域変更した各画像について、画像の種類を判定する。画像の種類は、画像生成部11のどの生成部111~114から出力されたものかにより判定することができる。テレビ画像である場合はS209へ進み、ナビ画像である場合はS211へ進む。その他の画像の場合はS213へ進む。
 S209では、テレビ画像に対し、アスペクト比一定となるように領域を修正する。例えば、ドラッグ量が横方向(ΔX)のみであった場合でも、領域の縦方向の拡大/縮小を行い、縦横比を一定に維持する。S210では、変更後の領域に合わせてテレビ画像の表示縮尺を変更する。
 S211では、ナビ画像に対し、変更後の領域幅(横方向)が所定値以下かどうかを判定する。所定値以下の場合はS212へ進み、ナビ画像をヘッドアップの向き(進行方向が画面の上方向)に画像を配置する。
 S213にて、画像表示部12は、画像配置制御部14により変更された画像配置に基づき、各画像を表示する。
 なお、テレビ画像の場合、S209におけるアスペクト比一定のための領域修正は必須ではなく、S210の表示縮尺変更のみを実行しても良い。
 上記の画像制御処理は本発明に係る各種の処理を含んでいる。以下、実施例1~3に分けて具体的に説明する。
 実施例1では、画像の境界線をタッチして画像配置を変更する場合について説明する。
  図4は、実施例1における画像配置変更処理のルールを記載した図である。画像配置の変更操作は、2つの画像の境界線付近をタッチし、そのままドラッグし、その後アンタッチする操作である。各画像の領域変更処理は、変更操作における画像境界線の直交方向へのドラッグ量(移動量)に応じて、2つの画像の新たな境界線が決定され、各画像の表示領域を拡大あるいは縮小する処理である。このとき、画像境界線と平行な方向(すなわちドラッグ方向と直交する方向)には領域の拡大あるいは縮小は行わない。ただし、画像の種類がテレビ画像の場合は、表示領域のアスペクト比を一定に保つように、画像境界線と平行な方向にも領域の拡大あるいは縮小を行う(すなわち、画像境界線に直交する他の境界線についても移動する)。各画像の縮尺変更処理は、テレビ画像の場合には、変更後の表示領域のサイズに合わせて、表示縮尺を拡大あるいは縮小させて表示する。テレビ画像以外の画像では、表示縮尺の変更は行わない。また、本実施例では表示方向の変更処理は行わない。
 次に、実施例1の画像配置変更処理による画像表示の具体例を説明する。まず、テレビ画像とナビ画像の2画像表示の場合を図5A~図5Dで説明する。
 図5Aは、画面300上にテレビ画像310とナビ画像320とを水平方向に2分して2画像表示した状態である。表示装置では、例えばこの状態を初期表示状態として設定しておく。この状態でのテレビ画像310の表示領域のサイズを、縦H1、横W1とすると、アスペクト比As=H1/W1となる。ユーザは画像配置の変更操作のため、2つの画像の境界線付近に指400をタッチした状態である。
 図5Bは、図5Aの状態から、指400を画面300の右方向に矢印410のようにドラッグ(移動)し、その後アンタッチして、変更操作を行った状態を示す。このときのドラッグ量は、境界線に直交する方向に移動した距離ΔXとする。この変更操作の結果、各画像の境界線がドラッグ量だけ移動し、テレビ画像310が横方向にΔXだけ拡大し、ナビ画像320が横方向にΔXだけ縮小する。さらにテレビ画像310についてはアスペクト比を一定にするため、縦方向にも拡大する。
 テレビ画像310の表示領域のサイズを、縦H2、横W2とすると、横W2は、
      W2=W1+ΔX
に拡大する。一方縦H2については、そのアスペクト比As=H2/W2が一定を保つように変化するので、
      As=H2/W2=H1/W1
      H2=As×W2=H1+(H1/W1)×ΔX
に拡大する。
 また、各画像の表示縮尺は、テレビ画像310については表示領域拡大に合わせて拡大させる。すなわち画像全体を拡大する。一方、ナビ画像320については、画像内のオブジェクトの表示サイズは変更しない。
 図5Cは、図5Bの状態から、さらに指400を画面300の右端まで矢印410のようにドラッグし、その後アンタッチして、変更操作を行った状態を示す。この変更操作の結果、表示領域は、テレビ画像310が画面300の全面に拡大し、ナビ画像320はさらに縮小して非表示状態となる。ここで、画面300のサイズを縦H0、横W0としたとき、そのアスペクト比As=H0/W0は、テレビ画像310のアスペクト比As=H1/W1=H2/W2に等しい場合を示している。また、テレビ画像310の表示縮尺は、表示領域拡大に合わせて拡大している。
 図5Dは、図5Cの状態から、さらに指400を画面300の中央まで矢印410のようにドラッグし、その後アンタッチして、変更操作を行った状態を示す。この変更操作の結果、表示領域は、テレビ画像310が縮小し、ナビ画像320が拡大して表示され、図5Aの初期状態と同様の表示に戻る。その際、テレビ画像310はアスペクト比が一定となるよう縦方向にも縮小している。また、テレビ画像310の表示縮尺は、表示領域縮小に合わせて縮小している。
 これにより、テレビ画像を含む2画像表示において、直感的かつ簡単な操作で、さらにテレビ画像については見やすい形を維持して画像配置の変更を行うことができる。
 次に、3画像表示状態における画像配置変更処理の具体例を図6Aと図6Bで説明する。ここでは、テレビ画像とナビ画像と番組情報画像の3画像を表示する例である。3画像表示の場合、2つの画像に接する境界線は複数存在することになるが、画像配置変更処理では、タッチされた境界線に接する2つの画像に対してのみ変更処理が行われる。
 図6Aは、画面300上の左上半分にテレビ画像310を、左下半分に番組情報画像330を、右半分にナビ画像320を配置した3画像表示状態である。ユーザは画像配置変更のため、テレビ画像310とナビ画像320との2つの画像の境界線付近に指400をタッチした状態である。
 図6Bは、図6Aの状態から、指400を画面300の右方向にドラッグし、その後アンタッチして、画像配置変更操作を行った状態を示す。この変更操作の結果、各表示領域は、境界線に接するテレビ画像310が拡大し、ナビ画像320が縮小している。その際、テレビ画像310はアスペクト比を一定に保つように縦方向にも拡大する結果、タッチされた境界線に接していない左下側の番組情報画像330についても、縦方向に縮小されることになる。また、各表示縮尺は、テレビ画像310が表示領域拡大に合わせて拡大し、ナビ画像320と番組情報画像330は変更しない。
 このように、タッチされた境界線に接していない番組情報画像330については、隣接するテレビ画像310による影響を除けば、領域変更の対象にはならない。よって、番組情報画像330のように画像の表示幅等に最適値がある場合には、その最適値を維持して画像配置を変更できる効果がある。
 さらに、4画像表示状態における画像配置変更処理の具体例を図7Aと図7Bで説明する。ここでは、テレビ画像と天気情報画像とニュース画像とメール画像の4画像を表示する例とする。この場合にも、2つの画像に接する境界線は複数存在するが、画像配置変更処理では、タッチされた境界線に接する画像に対してのみ変更処理を行う。
 図7Aは、画面300上の左上側にテレビ画像310を、左下側に天気情報画像350を、右上側にニュース画像360を、右下側にメール画像370を配置した4画像表示状態である。ユーザは画像配置変更のため、ニュース画像360とメール画像370の境界線付近に指400をタッチした状態である。
 図7Bは、図7Aの状態から、指400を画面300の下方向にドラッグし、その後アンタッチして、変更操作を行った状態を示す。この変更操作の結果、各表示領域は、ニュース画像360が縦方向に拡大し、メール画像370が縦方向に縮小している。タッチされた境界線に接していないテレビ画像310と天気情報画像350については、表示領域が変化しない。また、領域が変更されたニュース画像360とメール画像370において、アスペクト比や表示縮尺は変更しない。これにより、ユーザの好みにより、ニュース画像360について多くの情報を表示させることができる。
 実施例1の効果は、以下の通りである。画像の境界線付近への1回のタッチ&ドラッグ操作で、境界線に接する2つの画像のサイズを同時に変更できる。特に、画像の種類がテレビ画像については、表示領域を変更するとき、画像のアスペクト比が一定に維持されるとともに、表示縮尺は領域サイズに合わせて変更される。通常のテレビ画像では画像全体が表示されるが、上記の変更処理を行うことで、領域変更に伴い表示画像の一部が画面からはみ出さずに最大の縮尺で表示され、かつアスペクト比が一定で見やすい状態で表示することができる。
 実施例2では、画像の境界点をタッチして画像配置を変更する場合について説明する。
  図8は、実施例2における画像配置変更処理のルールを記載した図である。実施例1(図4)と異なる点は、変更操作のためにタッチする位置を画像の境界点としたことである。この場合、タッチした境界点に属する複数の画像が変更対象となる。また、境界点の移動量をベクトルとして扱い、横方向ΔXと縦方向ΔYの両方向のドラッグ量を検出する。ドラッグ量ΔX、ΔYに基づき、表示領域を拡大あるいは縮小する。
 次に、実施例2の画像配置変更処理による画像表示の具体例を説明する。まず、テレビ画像を含む3画像表示の場合を図9Aと図9Bで説明する。
 図9Aは、画面300上の左上半分にテレビ画像310を、左下半分に放送番組表画像340を、右半分にナビ画像320を配置した3画像表示状態である。ユーザは画像配置の変更操作のため、テレビ画像310と番組表画像340の境界点付近に指400をタッチした状態である。なお、このタッチ位置は、右半分のナビ画像320との境界線でもある。よって、実施例1で述べた境界線に対する変更操作も同時に行われる。
 図9Bは、図9Aの状態から、指400を画面300の右下方向にドラッグし(矢印410で示す)、その後アンタッチして、変更操作を行った状態を示す。このときのドラッグ量は、指400の移動方向を含めてベクトル量(ΔX,ΔY)で表す。この変更操作の結果、各画像の境界点がドラッグ量(ΔX,ΔY)だけ移動し、テレビ画像310が横ΔX、縦ΔYだけ拡大し、番組表画像340は横ΔXだけ拡大、縦ΔYだけ縮小している。またナビ画像320については、境界線の移動操作により、横ΔXだけ縮小する。
 このときテレビ画像310については、アスペクト比を一定に維持するため、横方向サイズW2に合わせて縦方向サイズH2を修正する(あるいは、縦方向サイズH2に合わせて横方向サイズW2を修正してもよい)。これにより、アスペクト比As=H1/W1=H2/W2を一定に維持する。また、各表示縮尺については、テレビ画像310が表示領域拡大に合わせて拡大し、ナビ画像320と番組表画像340は変更しない。
 次に、4画像表示状態における画像配置変更処理の具体例を図10A~図10Cで説明する。ここでは、テレビ画像と天気情報画像とニュース画像とメール画像との4画像を表示する例とする。
 図10Aは、画面300を4分割し、左上側にテレビ画像310を、左下側に天気情報画像350を、右上側にニュース画像360を、右下側にメール画像370を配置した4画像表示状態である。ユーザは画像配置変更のため、4つの画像の境界点付近に指400をタッチすることで、4つの画像に対して同時に変更を加えることができる。
 図10Bは、図10Aの状態から、指400を画面300の右下方向にドラッグし(矢印410で示す)、その後アンタッチして、変更操作を行った状態を示す。この変更操作の結果、各画像の境界点がドラッグ量(ΔX,ΔY)だけ移動し、テレビ画像310は横ΔX、縦ΔYだけ拡大し、天気情報画像350は横ΔXだけ拡大、縦ΔYだけ縮小している。ニュース画像360は横ΔXだけ縮小、縦ΔYだけ拡大し、メール画像370は横ΔX、縦ΔYだけ縮小している。このときテレビ画像310については、アスペクト比を一定にするため、横方向サイズW2に合わせて縦方向サイズH2を修正している。また、テレビ画像310の表示縮尺は、表示領域拡大に合わせて拡大している。
 図10Cは、図10Bの状態から、指400を画面300の左上方向にドラッグし、その後アンタッチして、変更操作を行った状態を示す。この変更操作の結果、テレビ画像310が縮小し、天気情報画像350が縦方向に拡大し横方向に縮小し、ニュース画像360が縦方向に縮小し横方向に拡大し、メール画像370が拡大している。この場合、メール画像370を拡大して多くの情報を表示することができる。
 実施例2の効果は、以下の通りである。画像の境界点付近への1回のタッチ&ドラッグ操作で、境界点に接する複数の画像のサイズを同時に変更できる。その際、ドラッグ量をベクトル量で扱うことで、画像の縦寸法と横寸法を同時に変更することができる。
 実施例3では、画像配置の変更処理において、さらに画像の向きを変更する場合について説明する。
  図11は、実施例3における画像配置変更処理のルールを記載した図である。実施例1(図4)、実施例2(図8)と異なる点は、画像の表示方向を変更する処理を追加したことで、ナビ画像の場合、領域変更後の幅が所定値以下の場合、ヘッドアップの向きに表示する処理である。例えば、通常は北方向を上方向に表示するノースアップとし、表示領域が所定幅以下になったとき、進行方向を上方向に表示するヘッドアップに切換える。これにより、表示領域が狭くなっても、進行方向の情報を優先して表示することができる。
 以下、実施例3における画像配置変更処理の具体例を図12Aと図12Bで説明する。ここでは、ナビ画像を含む2画像表示状態で説明する。
 図12Aは、画面300を左右に分割し、テレビ画像310とナビ画像320とを表示した状態である。ナビ画像320はその方位計321が示すように、ノースアップの向きで表示されている。そしてユーザは画像配置変更操作のため、2つの画像の境界線付近に指400をタッチした状態である。
 図12Bは、図12Aの状態から、指400を画面300の右方向に矢印410のようにドラッグし、その後アンタッチして、変更操作を行った状態を示す。この変更操作の結果、テレビ画像310の領域はアスペクト比を維持して拡大し、ナビ画像320の領域は横方向の幅が縮小する。そして、ナビ画像320の領域幅W3が所定幅(例えば画面300の幅の1/4)以下になった場合、ナビ画像320について、進行方向(符号322で示す)を画面の上向きとするヘッドアップの向きに表示を切り替える。なお、所定幅はこれに限らず適宜設定すればよく、またナビ画像の縮尺に応じて決定してもよいことは言うまでもない。
 実施例3によれば、ナビ画像のように進行方向の地図情報が優先して要求される場合、画面幅が縮小しても重要な情報を見やすい状態で提供することができる。
 上記した各実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 さらに各実施例の変形例として、下記の構成が挙げられる。
  [変形例1]画像表示部12での表示画像数は、上記実施例で示した2~4個に限らず、これ以上の数でも画像配置変更が可能である。
 [変形例2]画像配置変更操作の開始は、タッチ操作に限らず、長押し操作、タップ操作でもよい。この場合、表示装置が操作開始を受け付けた時に、対象となる画像境界線の色を変える、点滅させる等を行うことで、ユーザへのフィードバックを行うことが望ましい。
 [変形例3]操作検出部13の操作検出デバイスは、タッチパネルに限らず、マウス等の他のポインティングデバイスやリモコン等のスイッチデバイスでも画像配置変更が可能である。
 [変形例4]タッチ操作位置は、画像の境界線と画像の境界点の両方に対して同時に受け付けることが可能である。また、画像の境界点に対する操作は、斜め方向の移動に限らず、水平方向や水平方法への移動でもよい。
 [変形例5]上記実施例では、画像の種類がテレビ画像の場合、アスペクト比一定とするための領域修正を行うものとした。ただし、テレビ画像全体を表示しない場合においては、変更後の領域に合わせて表示縮尺を変更するだけでもよい。ただし、表示縮尺については、縦方向と横方向を同じ倍率で変更する。これにより、画像内オブジェクトの縦横比は不変となる。
 [変形例6]画像の種類がテキスト情報を含む画像である場合、画像配置変更後の表示領域の大きさに合わせて、テキスト情報のフォントサイズを変更して表示させるようにしてもよい。これにより、ユーザは好みの文字サイズで画像を見ることができる。
 [変形例7]表示装置の構成は、テレビやナビ等の表示装置とスマートフォン等の携帯装置を組み合わせてシステムにおいて、表示装置と同等の表示を携帯装置に表示し、携帯装置で画像配置変更操作を行い、その結果を表示装置に送信することで表示装置の画像配置変更操作を行うことも可能である。
 [変形例8]上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
 1…表示装置、
 11…画像生成部、
 12…画像表示部、
 13…操作検出部、
 14…画像配置制御部、
 300…画面、
 310…テレビ画像、
 320…ナビゲーション画像(ナビ画像)、
 330…番組情報画像、
 340…番組表画像、
 350…天気情報画像、
 360…ニュース画像、
 370…メール画像、
 400…指。

Claims (8)

  1.  1つの画面上に複数の画像を表示する表示装置において、
     前記複数の画像をそれぞれの表示領域に表示する画像表示部と、
     前記画像の表示領域に対するユーザの操作を検出する操作検出部と、
     前記操作検出部で検出されたユーザの操作に応じて、前記画像の表示領域と表示状態を変更する画像配置制御部と、を備え、
     前記操作検出部は、ユーザの操作位置が前記表示領域の境界線であることを検出したとき、該境界線に直交する方向のユーザの操作量を検出し、
     前記画像配置制御部は、前記境界線に接する少なくとも1つの前記画像を変更対象とし、前記検出した操作量に基づいて、前記変更対象とした画像の表示領域の前記境界線を該境界線に直交する方向に移動させるとともに、
     前記画像配置制御部は、前記変更対象とした画像の種類が動画像あるいは静止画像である場合、前記境界線の移動量に合わせて該画像の表示縮尺を変更することを特徴とする表示装置。
  2.  請求項1に記載の表示装置において、
     前記操作検出部は、ユーザの操作位置が前記表示領域の境界点であることを検出したとき、ユーザの操作方向と操作量を検出し、
     前記画像配置制御部は、前記境界点を含む少なくとも1つの前記画像を変更対象とし、前記検出した操作方向と操作量に基づいて、前記変更対象とした画像の表示領域の前記境界点を移動させることを特徴とする表示装置。
  3.  請求項2に記載の表示装置において、
     前記画像配置制御部は、前記変更対象とした画像の種類が動画像あるいは静止画像である場合、該画像の表示領域のアスペクト比が一定となるよう前記境界線に直交する他の境界線についても移動させることを特徴とする表示装置。
  4.  請求項2に記載の表示装置において、
     前記画像配置制御部は、前記変更対象とした画像の種類がナビゲーション画像であり、該画像の幅が所定幅以下でノースアップの向きに表示されている場合、該画像をヘッドアップの向きに変更して表示させることを特徴とする表示装置。
  5.  請求項2に記載の表示装置において、
     前記画像配置制御部は、前記変更対象とした画像の種類がテキスト情報を含む画像である場合、該画像の表示領域の大きさに合わせて前記テキスト情報のフォントサイズを変更して表示させることを特徴とする表示装置。
  6.  1つの画面上に複数の画像を表示する表示方法において、
     前記複数の画像をそれぞれの表示領域に表示する画像表示ステップと、
     前記画像の表示領域に対するユーザの操作を検出する操作検出ステップと、
     前記操作検出ステップで検出されたユーザの操作に応じて、前記画像の表示領域と表示状態を変更する画像配置制御ステップと、を備え、
     前記操作検出ステップでは、ユーザの操作位置が前記表示領域の境界線であることを検出したとき、該境界線に直交する方向のユーザの操作量を検出し、
     前記画像配置制御ステップでは、前記境界線に接する少なくとも1つの前記画像を変更対象とし、前記検出した操作量に基づいて、前記変更対象とした画像の表示領域の前記境界線を該境界線に直交する方向に移動させるとともに、
     前記画像配置制御ステップでは、前記変更対象とした画像の種類が動画像あるいは静止画像である場合、前記境界線の移動量に合わせて該画像の表示縮尺を変更することを特徴とする表示方法。
  7.  請求項6に記載の表示方法において、
     前記操作検出ステップでは、ユーザの操作位置が前記表示領域の境界点であることを検出したとき、ユーザの操作方向と操作量を検出し、
     前記画像配置制御ステップでは、前記境界点を含む少なくとも1つの前記画像を変更対象とし、前記検出した操作方向と操作量に基づいて、前記変更対象とした画像の表示領域の前記境界点を移動させることを特徴とする表示方法。
  8.  請求項7に記載の表示方法において、
     前記画像配置制御ステップでは、前記変更対象とした画像の種類が動画像あるいは静止画像である場合、該画像の表示領域のアスペクト比が一定となるよう前記境界線に直交する他の境界線についても移動させることを特徴とする表示方法。
PCT/JP2016/072745 2016-08-03 2016-08-03 表示装置及び表示方法 WO2018025339A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/072745 WO2018025339A1 (ja) 2016-08-03 2016-08-03 表示装置及び表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/072745 WO2018025339A1 (ja) 2016-08-03 2016-08-03 表示装置及び表示方法

Publications (1)

Publication Number Publication Date
WO2018025339A1 true WO2018025339A1 (ja) 2018-02-08

Family

ID=61073553

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/072745 WO2018025339A1 (ja) 2016-08-03 2016-08-03 表示装置及び表示方法

Country Status (1)

Country Link
WO (1) WO2018025339A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108958514A (zh) * 2018-06-29 2018-12-07 联想(北京)有限公司 一种电子设备
JP2020194107A (ja) * 2019-05-29 2020-12-03 セイコーエプソン株式会社 表示装置の制御方法、及び表示装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134159A (ja) * 1997-10-28 1999-05-21 Yamatake Corp 画面ウィンドウの表示方法
JP2006521033A (ja) * 2003-03-19 2006-09-14 シンクウェア システムズ コーポレーション 移動通信端末機を用いたナビゲーションシステムおよび方法
JP2008028936A (ja) * 2006-07-25 2008-02-07 Sharp Corp 映像表示装置、映像表示方法、映像表示プログラム、および記録媒体
JP2010231653A (ja) * 2009-03-27 2010-10-14 Softbank Mobile Corp 表示装置、表示方法、およびプログラム
JP2015088085A (ja) * 2013-11-01 2015-05-07 シャープ株式会社 表示装置及び表示方法
JP2016509724A (ja) * 2013-01-29 2016-03-31 グーグル インコーポレイテッド インテリジェントなウィンドウのサイズ設定及び制御方法、そのシステム、並びにコンピュータ読み取り可能媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134159A (ja) * 1997-10-28 1999-05-21 Yamatake Corp 画面ウィンドウの表示方法
JP2006521033A (ja) * 2003-03-19 2006-09-14 シンクウェア システムズ コーポレーション 移動通信端末機を用いたナビゲーションシステムおよび方法
JP2008028936A (ja) * 2006-07-25 2008-02-07 Sharp Corp 映像表示装置、映像表示方法、映像表示プログラム、および記録媒体
JP2010231653A (ja) * 2009-03-27 2010-10-14 Softbank Mobile Corp 表示装置、表示方法、およびプログラム
JP2016509724A (ja) * 2013-01-29 2016-03-31 グーグル インコーポレイテッド インテリジェントなウィンドウのサイズ設定及び制御方法、そのシステム、並びにコンピュータ読み取り可能媒体
JP2015088085A (ja) * 2013-11-01 2015-05-07 シャープ株式会社 表示装置及び表示方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108958514A (zh) * 2018-06-29 2018-12-07 联想(北京)有限公司 一种电子设备
JP2020194107A (ja) * 2019-05-29 2020-12-03 セイコーエプソン株式会社 表示装置の制御方法、及び表示装置
JP7331465B2 (ja) 2019-05-29 2023-08-23 セイコーエプソン株式会社 表示装置の制御方法、及び表示装置

Similar Documents

Publication Publication Date Title
KR102339674B1 (ko) 디스플레이 장치 및 방법
US8581938B2 (en) Information processing apparatus, information processing method and program for magnifying a screen and moving a displayed content
JP4533943B2 (ja) 情報処理装置、表示制御方法およびプログラム
US8743150B2 (en) Display processing device and display control method
US9747010B2 (en) Electronic content visual comparison apparatus and method
JP2007122718A (ja) ビューポートを介して画像をパンするための方法、内部にビューポートを表示しているグラフィカルユーザインタフェースおよびもう一つのコンピューティングデバイスと対話するように構成されたコンピューティングデバイス
US20150234551A1 (en) Display control apparatus, display control method, and program
CN110716687B (zh) 在便携设备上显示画面的方法和装置
KR101932718B1 (ko) 화면 상의 디스플레이창의 크기를 변경하는 디바이스 및 방법
JP2004192573A (ja) 情報処理装置及び情報表示方法
US10656790B2 (en) Display apparatus and method for displaying a screen in display apparatus
KR20150095540A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
CN110574000B (zh) 显示装置
JP2014241030A (ja) グラフ表示装置およびプログラムおよびサーバ装置
JP2011107781A (ja) 表示制御装置、及びその制御方法
EP3278203B1 (en) Enhancement to text selection controls
JP6333779B2 (ja) 表示制御装置、表示制御方法、及びそれをコンピュータで実行するためのコンピュータ・プログラム
JP2002244635A (ja) 画像表示装置
US20160266703A1 (en) Display device, image processing apparatus, non-transitory computer readable medium, and display control method
WO2018025339A1 (ja) 表示装置及び表示方法
JP2009098990A (ja) 表示装置
JP5906344B1 (ja) 情報処理装置、情報表示プログラムおよび情報表示方法
US20180173411A1 (en) Display device, display method, and non-transitory computer readable recording medium
US20160034113A1 (en) Display apparatus, display control method, and record medium
JP2005293292A (ja) 情報処理装置及びカーソル制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16911600

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16911600

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP