WO2011074595A1 - 携帯情報端末、表示制御方法、およびプログラム - Google Patents

携帯情報端末、表示制御方法、およびプログラム Download PDF

Info

Publication number
WO2011074595A1
WO2011074595A1 PCT/JP2010/072524 JP2010072524W WO2011074595A1 WO 2011074595 A1 WO2011074595 A1 WO 2011074595A1 JP 2010072524 W JP2010072524 W JP 2010072524W WO 2011074595 A1 WO2011074595 A1 WO 2011074595A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
divided
display
images
dividing line
Prior art date
Application number
PCT/JP2010/072524
Other languages
English (en)
French (fr)
Inventor
浩史 大竹
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US13/514,797 priority Critical patent/US9218155B2/en
Priority to EP10837621.1A priority patent/EP2515224B1/en
Priority to CN201080057612.4A priority patent/CN102713830B/zh
Priority to JP2011546141A priority patent/JP5811847B2/ja
Publication of WO2011074595A1 publication Critical patent/WO2011074595A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/14Electronic books and readers

Definitions

  • the present invention relates to a display control method for a portable information terminal having a plurality of display screens.
  • Mobile information terminals represented by mobile phones, PDAs (Personal Digital Assistants), and electronic notebooks generally include a display unit that displays text and images on a display screen such as a liquid crystal display.
  • Some portable information terminals include a plurality of display screens on the display unit.
  • Patent Document 1 discloses a portable information terminal that has a foldable folding structure having a plurality of housings and includes a display screen in each of the plurality of housings.
  • the portable information terminal disclosed in Patent Document 1 is small and portable when closed, and can provide a large screen when opened.
  • one image may be divided and displayed on two display screens.
  • the image is divided by a dividing line determined to fit the size of each display screen. For example, if the two display screens have the same size, the center line of the original image becomes the dividing line.
  • Patent Document 2 a technique for alleviating the difficulty in viewing due to the gap between the display screens has been proposed (see Patent Document 2).
  • the display device described in Patent Document 2 divides an image when a single image is divided into two display panels and the characters are divided by a gap in the display screen when the image is simply divided at the center. The image is shifted so that the position to be placed is not on the character.
  • the entire image includes various individual images having different sizes, and the configuration of the entire image is further complicated.
  • An object of the present invention is to provide a technique for improving the difficulty in viewing an image when an image is divided into a plurality of display screens in an information processing apparatus having a plurality of display screens.
  • the portable information terminal of the present invention provides: Display means having a plurality of display screens;
  • the display unit divides an entire image including two or more rows in which individual images are arranged in a direction in which the plurality of display screens are arranged into a plurality of divided images by a dividing line passing through a gap between the individual images in each row.
  • the display control method of the present invention is a display control method in a portable information terminal having a plurality of display screens,
  • the control means divides an entire image including two or more rows in which individual images are arranged in a direction in which the plurality of display screens are arranged into a plurality of divided images by dividing lines passing through the gaps between the individual images in each of the rows.
  • the control means displays each of the divided images on each of the display screens.
  • the display control program of the present invention is a display control program for causing a computer to execute display control in a portable information terminal having a plurality of display screens, A procedure of dividing an entire image including two or more rows in which individual images are arranged in a direction in which the plurality of display screens are arranged into a plurality of divided images by a dividing line passing through a gap between the individual images in each row; Displaying each of the divided images on each of the display screens; Is executed on the computer.
  • FIG. 1A It is a figure which shows the example of the whole image containing a some separate image. It is a figure for demonstrating the dividing line 502 of the whole image shown to FIG. 1A. It is a figure which shows the divided images 503 and 504 divided
  • FIG. 9A It is a figure which shows the divided images 503 and 504 divided
  • the portable information terminal has two display screens, and displays various images on the two display screens in accordance with application processing and user operation input.
  • This portable information terminal can display one image divided into two so as to fit each of two display screens.
  • the entire image that the portable information terminal intends to display is referred to as an entire image
  • two images that are divided in order to display the entire image on two display screens are referred to as divided images.
  • characters and photographs included in the entire image are called individual images.
  • FIG. 1A is a diagram illustrating an example of an entire image including a plurality of individual images.
  • the entire image includes a plurality of lines of text composed of characters using a proportional font.
  • Each character corresponds to an individual image, and a square in the figure represents the individual image.
  • the portable information terminal defines a dividing line 502 so as to pass through a gap between characters in each row as shown in FIG. 1B.
  • the left and right divided images 503 and 504 are divided.
  • the portable information terminal detects a line composed of individual images in the entire image, detects a gap between the individual image and the individual image for each line, and detects the individual image and the individual image in each line.
  • a dividing line 502 is defined so as to pass through the gap. Then, the portable information terminal divides the entire image by the dividing line 502 and displays the obtained divided images 503 and 504 on each display screen as shown in FIG. 1C.
  • the entire image including a plurality of individual images is divided into two divided images by a dividing line passing through the gap between the individual images that form rows in the direction in which the two display screens are arranged. Since the images are displayed on the two display screens, it is possible to prevent individual images such as characters and photographs from being divided and difficult to see.
  • FIG. 2A is a block diagram showing a schematic configuration of the portable information terminal of the present embodiment.
  • the portable information terminal of this embodiment has two displays 131 and 132 and a control unit 100.
  • the control unit 100 divides the entire image including a plurality of individual images into two divided images 503 and 504 by a dividing line 502 passing through the gap between the individual images that form rows in the direction in which the two displays 131 and 132 are arranged. For example, if the displays 131 and 132 are arranged side by side, the row is in the horizontal direction.
  • the control unit 100 displays the two divided images 503 and 504 on the displays 131 and 132, respectively.
  • the portable information terminal can scroll the entire image divided into two divided images 503 and 504 and displayed on the two display screens in an interlocking manner.
  • the portable information terminal brings the two divided images 503 and 504 close to each other and combines them.
  • the portable information terminal scrolls the entire image while maintaining the combination, and when the operation input for scrolling is completed, a new dividing line 502 is defined for the entire image at that time, and the dividing line 502
  • the divided images 503 and 504 obtained by dividing the whole image are displayed on each display screen.
  • FIG. 2B is a block diagram showing a detailed configuration of the portable information terminal in the present embodiment.
  • the portable information terminal 10 in this embodiment includes a control unit 100, a display control unit 110, an input control unit 120, a display unit 130, an input unit 140, and a storage unit 150.
  • the display unit 130 is a display device having two left displays 131 and a right display 132 arranged adjacent to each other. It is assumed that the left display 131 and the right display 132 are the same size. In a normal use state in which the left display 131 and the right display 132 are arranged side by side, it is assumed that the left display 131 is on the left side and the right display 132 is on the right side.
  • the input unit 140 is a touch panel type input device that is configured integrally with the left display 131 and the right display 132 of the display unit 130 and detects an operation input by a user.
  • the input unit 140 may be a touch panel type that is not integral with the display unit 130, or may be a push button type instead of a touch panel type.
  • the display control unit 110 includes a left screen display control unit 111 and a right screen display control unit 112 corresponding to the left display 131 and the right display 132, respectively.
  • the left screen display control unit 111 and the right screen display control unit 112 are provided with respective divided images 503 and 504 from the control unit 100.
  • the left screen display control unit 111 and the right screen display control unit 112 display the given divided images 503 and 504 on the displays 131 and 132, respectively.
  • the input control unit 120 receives the operation input detected by the input unit 140 and notifies the control unit 100 of the operation input as input information.
  • the storage unit 150 includes a read only memory, a random access memory, and a frame buffer.
  • the read-only memory stores various control programs executed by the control unit 100 or the display control unit 110 and fixed data used by the control unit 100 or the display control unit 110 for processing.
  • the random access memory temporarily stores data when the control unit 100 or the display control unit 110 executes a control program or an application program.
  • the frame buffer temporarily stores the entire image to be displayed on the display unit 310.
  • the control unit 100 controls each unit in the portable information terminal 10 by executing a control program stored in the read-only memory of the storage unit 150.
  • control unit 100 executes an application based on input information from the input control unit 120 or other events. As the application is executed, the control unit 100 displays an image on the display unit 130. At that time, the control unit 100 divides the entire image of the frame buffer into two divided images 503 and 504, and the divided images 503 and 504 are displayed on the left screen display control unit 111 and the right screen display control unit 112 of the display control unit 110. To give.
  • the control unit 100 detects a line composed of the individual images in the entire image, detects a gap between the individual image and the individual image for each line, and separates the individual image and the individual image in each line.
  • the entire image is divided by a dividing line 502 determined so as to pass through the gap between the images.
  • control unit 100 scrolls and displays the divided images 503 and 504 displayed on the two display screens according to the control input from the input control unit 120.
  • the control unit 100 brings the divided images closer to each other and combines them as the divided images 503 and 504 are scrolled.
  • the dividing lines in the scroll after being combined are straight lines regardless of whether or not the individual images in the entire image are divided.
  • the control unit 100 newly defines a dividing line 502 for the entire image at that time, and a divided image 503 obtained by dividing the entire image by the dividing line 502. , 504 are displayed on each display screen.
  • a process when the image is divided and displayed on the left display 131 and the right display 132 is referred to as a divided display process, and a process when the image is scrolled from the state where the image is divided and displayed is referred to as a linked scroll process. I will decide.
  • FIG. 3 is a flowchart showing the split display process by the control unit 100.
  • FIG. 4 is a diagram for explaining the coordinate system of the entire image.
  • the x-axis is taken in the direction in which the left display 131 and the right display 132 are arranged, and the y-axis is taken in the direction orthogonal to the x-axis.
  • the image data is stored in the order from left to right and from top to bottom. Therefore, here, the upper left is the origin O, the x axis is the right direction, and the y axis is the lower direction.
  • the entire image has a width in the x-axis direction of 2 W and a height in the y-axis direction of H.
  • the dividing line 502 is determined and divided in the range of W ⁇ L ⁇ x ⁇ W + L in the entire image.
  • the range of W ⁇ L ⁇ x ⁇ W + L is referred to as a divided region.
  • the display widths of the left display 131 and the right display 132 are W + L or more.
  • the dividing line 502 is defined in the dividing area so that the individual image is not divided. If the width 2L of the divided area is increased, the text becomes difficult to read or characters and images become smaller. Therefore, the width 2L is set to an appropriate value in consideration of them. Further, the width 2L of this divided area may be set from an application.
  • the control unit 100 converts a divided area portion of the entire image to generate a grayscale image (monochrome image) (step S201).
  • a grayscale image may be generated by summing the values of each color component of the original color image, or by generating a sum by weighting the values of each color component according to the characteristics of the human eye. May be.
  • the control unit 100 generates a binary image from the grayscale image (step S202).
  • the control part 100 produces
  • the control part 100 produces
  • a pixel having a pixel value of 1 appears in a portion where there is an individual image such as a character or a photograph.
  • the control unit 100 uses the binary image to estimate the position of the individual image and the row constituted by the individual image, as will be described later.
  • the control unit 100 calculates the sum of the pixel values of the binary image in the x-axis direction for each y coordinate (step S203).
  • the graph shown on the left side in FIG. 5 shows the calculation result. In a region where a character string or an image exists, the sum of the pixel values is a non-zero value.
  • This range is estimated to be a range in which there are individual images or rows of a plurality of individual images.
  • step S205 If a y-coordinate range Y1 ⁇ y ⁇ Y2 in which the sum of pixel values is not 0 is detected (Y in step S205), then the control unit 100 determines that WL ⁇ x ⁇ W ⁇ L as shown in FIG. 6A. In the range of Y1 ⁇ y ⁇ Y2, the sum of the pixel values of the binary image in the y-axis direction is calculated for each x coordinate (step S206). The lower graph in FIG. 6A shows the sum of the pixel values of the binary image in the y-axis direction. It is estimated that an individual image exists in a range where the sum of pixel values is not 0, and a range where the sum of pixel values is 0 is a gap between the individual image and the individual image.
  • control unit 100 determines that the individual image having a size over the width 2L of the divided region is not present. It is determined that it exists, and the process proceeds to image division processing. The image division process will be described later.
  • control unit 100 has the value of a [i] or b [i] closest to W. i is set to m (step S209).
  • control unit 100 sets a dividing line in the gap between the individual images and the closest to the center in the x-axis direction of the entire image.
  • This image dividing process is a process for setting a dividing line for dividing a large image such as a photograph existing in a rectangular area of W ⁇ L ⁇ x ⁇ W + L and Y1 ⁇ y ⁇ Y2 at an appropriate position.
  • the control unit 100 acquires a grayscale image of the rectangular area and binarizes it to generate a binary image (step S213).
  • all values other than 0 are set to 1.
  • the binarization here is performed by comparing the pixel value of the grayscale image with a predetermined threshold as an example.
  • control unit 100 performs template matching on the binary image in the rectangular area using an image prepared in advance for an avoidance target such as a human face, car, or building as a template image (step S214).
  • an avoidance target such as a human face, car, or building as a template image
  • an object that is not desirably divided into two is set as the avoidance target.
  • a priority is defined for the avoidance object, and a priority is given to the template image of each avoidance object. This priority may be set in accordance with the degree of undesirable division. For example, it may be possible to set the priority of the human face higher than the priority of the building.
  • step S21-7 A straight line having the value of x closest to W is set as a dividing line (step S217).
  • a thick rectangle representing the range of the avoidance target is drawn in the rectangle representing the individual image.
  • the dividing line is set to divide the individual image at a position that avoids the range of the avoidance target.
  • step S216 If it is determined in step S216 that there is no x-coordinate range where there is no avoidance object, the control unit 100 avoids the exclusion from the avoidance object corresponding to the template image having a low priority (step S218). Repeat until an x-coordinate range where no object is present appears.
  • the control unit 100 updates the detection target to the range of y> Y2 (step S219), which is shown in the left graph of FIG. Then, a range of y coordinates in which the sum of pixel values in the x-axis direction with respect to each y coordinate in the binary image of the divided region is not 0 is searched (step S204), and a series of processing is repeated in the same manner.
  • control unit 100 sets a dividing line for each range in the y-axis direction. Then, the process of connecting the dividing lines is performed (step S220). In this connection process, the control unit 100 combines the dividing lines set in the y-axis direction so as to be continuous lines in the range of 0 ⁇ y ⁇ H.
  • control unit 100 first extends both ends of each dividing line to the center so that the y coordinates of the adjacent dividing lines coincide with each other. Subsequently, the control unit 100 couples the adjacent tips of adjacent dividing lines with a straight line parallel to the x axis. Thereby, the dividing line 502 is completed.
  • FIG. 8 is a diagram for explaining processing when a photograph showing two persons is divided by a dividing line.
  • the left display 131 and the right display are respectively obtained from the portion included in the divided image 503 and the portion included in the divided image 504 on condition that the object to be deleted is not included in the portion to be deleted.
  • a portion corresponding to the interval 132 is deleted.
  • the human face is the avoidance target.
  • the hatched part is the part to be deleted.
  • FIG. 9A is a diagram showing an example of the dividing line 502 determined as described above.
  • FIG. 9A shows an example in which a dividing line 502 is set in an entire image in which a large image such as a photograph is embedded in a plurality of sentences.
  • the hatched rectangle in the figure represents a large individual image. However, this individual image is not arranged over the width 2L of the divided area.
  • the control unit 100 When determining the dividing line 502 over 0 ⁇ y ⁇ H, the control unit 100 divides the entire image into two divided images 503 and 504 by the dividing line 502 and displays them on the left display 131 and the right display 132, respectively. To do. Specifically, the control unit 100 displays the left divided image 503 included in the range of 0 ⁇ x ⁇ W + L on the left display 131 and the right side included in the range of W ⁇ L ⁇ x ⁇ 2W. Are displayed on the right display 132.
  • FIG. 9B is a diagram showing a state in which the divided images 503 and 504 divided by the dividing line 502 are displayed on the left display 131 and the right display 132. The hatched individual images are not divided by the dividing lines because they do not extend over the width 2L of the divided areas.
  • FIG. 10 is a flowchart showing a linked scroll process for scrolling the screen by a drag operation on the touch panel.
  • step S301 When the entire image is divided by the dividing line 502 and displayed on the left display 131 and the right display 132 (step S301), when the user performs a drag operation on the touch panel (step S302), the control unit 100 performs processing by the application. As a result, the frame buffer holding the entire image data is updated (step S303).
  • control unit 100 performs the following processing.
  • Step S305 the control unit 100 brings the image displayed on the right display 132 closer to the image displayed on the left display 131 and combines them ( Step S306).
  • the display at this time is referred to as a left-justified display.
  • Step S307 the control unit 100 brings the image displayed on the left display 131 closer to the image displayed on the right display 132 and combines them ( Step S308).
  • Step S307 the control unit 100 determines the dividing line 502 in the updated entire image (Step S309), and the division.
  • the entire image is divided by the line 502, and the divided images 503 and 504 are displayed on the left display 131 and the right display 132 (step S310). For example, this is the case of a drag operation directed upward or downward.
  • control unit 100 may newly set a dividing line only for a portion that newly appears in the updated entire image. Even if the drag operation is directed upward or downward, the entire image may be divided by straight dividing lines during high-speed scrolling.
  • control unit 100 determines whether or not the drag operation has ended (step S311). If the drag operation has not ended, the control unit 100 returns to step S303.
  • the control unit 100 determines whether left-aligned display is being performed (step S312). If left-aligned display is being performed, the control unit 100 newly determines a dividing line 502 for the updated entire image and divides the entire image (step S313). Then, the control unit 100 moves the divided image 504 on the right side of the dividing line 502 to the right display 132 (Step S314).
  • the control unit 100 determines whether right-justified display is being performed (step S315). If right-aligned display is being performed, the control unit 100 newly determines a dividing line 502 for the updated entire image and divides the entire image (step S316). Then, the control unit 100 moves the divided image 503 on the left side of the dividing line to the left display 131 (step S317).
  • control unit 100 ends the processing.
  • FIGS. 11A to 11C are diagrams showing how the screen display changes while the drag operation for scrolling is being performed.
  • a leftward scroll is illustrated, but a rightward scroll is similar to this, except that the left and right are reversed.
  • the control unit 100 when scroll operation input is performed from the state where the divided images 503 and 504 are displayed on the left display 131 and the right display 132, respectively, the control unit 100, as shown in FIG. 11B, Along with scrolling, the distance between the divided image 503 and the divided image 504 is reduced and combined. During scrolling after combining, as shown in FIG. 11C, the control unit 100 scrolls the images in an interlocking manner while combining the divided images 503 and 504.
  • FIGS. 12A to 12C are diagrams showing changes in the screen display when the drag operation for scrolling is completed.
  • control unit 100 determines a new dividing line 502 as shown in FIG. 12A, moves the divided image 504 on the right side of the dividing line 502 to the right as shown in FIG. As shown, the divided image 504 is displayed on the right display 132.
  • the input unit 140 of the portable information terminal is a touch panel type integrally formed with the displays 131 and 132, but it is assumed that the entire image can be scrolled by a touch operation on either display.
  • the screen display change until the divided images 503 and 504 are combined may be the same or different depending on the drag operation to the left display 131 and the drag operation to the right display 132. Also good.
  • the screen display on the right display 132 is moved at a faster speed than the screen display on the left display 131.
  • the two divided images may be combined.
  • the right display 132 moves the screen display while the screen display of the left display 131 is fixed, so that the two divided images are combined. It may be.
  • FIG. 13 is a diagram showing a software configuration of the portable information terminal of this embodiment.
  • the application 101, middleware 102, and division processing program 104 are software that implements the processing of the control unit 100 in the functional block diagram of FIG. 2B.
  • the middleware 102 includes a drawing middleware 103.
  • Each of the left screen display control program 111a and the right screen display control program 112a is a software program that realizes the processes of the left screen display control unit 111 and the right screen display control unit 112 in the functional block diagram of FIG. 2B.
  • the division processing program 104, the left screen display control program 111a, and the right screen display control program 112a are control programs and are arranged in the read-only memory of the storage unit 150.
  • the frame buffer 151 is disposed in the random access memory of the storage unit 150.
  • the application 101 writes the data of the entire image to be displayed in the frame buffer 151 via the drawing middleware 103.
  • the division processing program 104 reads the entire image data from the frame buffer 151 and divides the entire image into two divided images 503 and 504 by the method described above.
  • the left screen display control program 111a and the right screen display control program 112a display the divided images 503 and 504 on the left display 131 and the right display 132, respectively.
  • the dividing line is set at a position closest to the center among the gaps between the individual images regardless of the character type of each individual image.
  • the present invention is not limited to this. is not.
  • the control unit 100 may set a dividing line in the gap immediately after that.
  • the dividing line is set at the position closest to the center among the gaps between the individual images regardless of the mutual relationship of the dividing lines for each row.
  • Dependencies may be given.
  • the control unit 100 may set the dividing line in the gap whose x coordinate is closest to the dividing line of the row above it.
  • the dividing line is set at the position closest to the center among the gaps between the individual images in the divided area, regardless of the width of the gap between the individual images. It is not limited. As another example, the control unit 100 may set a dividing line in a wide gap among gaps between individual images.
  • a dividing line may be set at the boundary between the words.
  • the control unit 100 detects the gap between the characters by the above-described method, recognizes the character, recognizes the word from the character array, and forms the boundary of the word in the gap between the character and the character.
  • a dividing line may be set as a candidate.
  • the position for setting the dividing line is determined under a single condition that the dividing line is set at the position closest to the center among the gaps between the individual images.
  • the present invention is limited to this. It is not a thing.
  • the points of each gap are integrated by weighting multiple conditions such as the proximity of the gap between the individual images and the center, whether it is immediately after the punctuation mark, the width of the gap, etc.
  • a dividing line may be set at a high gap.
  • the dividing line 502 is determined by the processing by the dividing processing program 104 without the application 101 being involved, but the present invention is not limited to this.
  • the application 101 may designate a part or all of the range of 0 ⁇ y ⁇ H as to which gap between the individual images is set.
  • the division processing program may set a division line in the gap designated by the application 101 among the gaps between the individual images.
  • the application 101 may be able to set the division processing program 104 for prohibiting the setting of the dividing line.
  • the division processing program 104 may set the dividing line in a gap other than the setting of the dividing line prohibited among the gaps between the individual images.
  • the feature of the area where the setting of the dividing line is prohibited may be set in the dividing process program 104, and the dividing process program 104 may not set the dividing line in the area corresponding to the feature.
  • the pop-up display can be prevented from being divided into two.
  • the process of setting the dividing line 502 in the gap between the individual images is always executed, but the present invention is not limited to this.
  • whether to enable or disable the process of setting a dividing line in the gap between individual images may be switched according to the user's desire, designation from an application, application type, and the like.
  • the control unit 100 divides the entire image by the center line when displaying one entire image divided into the left display 131 and the right display 132. do it.
  • an animation process may be performed so that the user can recognize the division process when the entire image display is divided into two divided images 503 and 504 at the time of screen switching or scrolling.
  • the display of the entire image is divided into two divided images 503 and 504
  • the display of both or one of the two displays 131 and 132 may be vibrated so that the spring springs.
  • the moving image when a moving image is included as an individual image in the entire image, the moving image is also identified as an individual image like a still image, and a dividing line is set so that the individual image is not divided as much as possible. .
  • the control unit 100 sets a dividing line for dividing the individual image so as not to divide the range where the avoidance target exists by template matching.
  • the control unit 100 sets a dividing line based on the distribution of the amount of motion in the individual image so as to avoid a portion with large motion. May be. The amount of motion of each part in the individual image can be obtained from the motion compensation information.
  • the present invention is not limited to this.
  • the present invention can be similarly applied to the case where the two displays 131 and 132 are used in a line. Whether the two displays 131 and 132 are arranged vertically or horizontally, a line including a plurality of individual images is detected in the same direction as the two displays 131 and 132 are arranged.
  • the dividing line may be set so as to pass through the gap between the individual images.
  • the two displays 131 and 132 are used so that they are arranged horizontally, and the entire image includes vertically written text, or the two displays 131, 132 are used so that they are aligned vertically, and the entire image is written vertically. It may be possible to include In this case, the method described above in the present embodiment may be used as it is, or another method may be used only for that portion.
  • the control unit 100 detects a portion of vertically written text included in the entire image, and sets a dividing line between lines in the portion. It may be.
  • the line of the vertically written sentence portion can be detected by applying the above-described method for detecting the line in the x-axis direction in the y-axis direction.
  • the width 2L of the divided area in this embodiment may be set to 2W, and the entire screen of the two displays 131 and 132 may be set as the divided area.
  • the dividing line 502 may be set near the left end of the left display 131 or may be set near the right end of the right display 132.
  • the horizontal portion of the dividing line 502 becomes longer, and the two large images above and below the horizontal portion are displayed on the left and right displays. It can also be arranged at 131, 132.
  • control unit 100 allows the entire image to be viewed naturally between the divided image 503 and the outer edge of the left display 131 and between the divided image 504 and the outer edge of the right display 132. It may be displayed in the same color as the background.
  • control unit 100 can distinguish the dividing line 502, or between the dividing line 502 and the outer edge of the display 131, 132, or both so as to be easily recognized by the user. It may be displayed.
  • the control unit 100 adjusts the distance between individual images that change by dividing and displaying the divided images 503 and 504 obtained by dividing the entire image by the dividing line 502 on the left display 131 and the right display 132.
  • the divided images 503 and 504 may be processed.
  • the divided image 504 may be subjected to image processing so that the individual image in the right divided image 504 is moved to the left side.
  • the image processing may be performed on the divided image 503 so that the individual images in the left divided image 503 are also moved to the right side.
  • the present invention is not limited to this, and can be similarly applied to the case where there are three or more displays.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Digital Computer Display Output (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

 携帯情報端末は表示手段と制御手段を有する。表示手段は、複数のディスプレイ画面を有する。制御手段は、複数のディスプレイ画面が並ぶ方向に個別画像が並んだ行を2行以上含む全体画像を、それぞれの行において個別画像同士の間隙を通る分割線で複数の分割画像に分割し、表示手段のディスプレイ画面のそれぞれに分割画像のそれぞれを表示する。

Description

携帯情報端末、表示制御方法、およびプログラム
 本発明は、複数のディスプレイ画面を有する携帯情報端末の表示制御方法に関する。
 携帯電話機、PDA(Personal Digital Assistant)、電子手帳に代表される携帯情報端末は、一般に、液晶等のディスプレイ画面によってテキストや画像を表示する表示部を備えている。そして、一部の携帯情報端末は表示部に複数のディスプレイ画面を備えている。例えば、特許文献1には、複数の筐体を有する開閉可能な折りたたみ型構造で、複数の筐体のそれぞれにディスプレイ画面を備える携帯情報端末が開示されている。特許文献1に開示された携帯情報端末は、閉じた状態では小型で携帯性がよく、開いた状態では大型画面を提供することができる。
 この種の携帯情報端末では、1つの画像を2つのディスプレイ画面に合わせて分割して表示することがある。一般的に、画像を分割して2つのディスプレイ画面に表示する場合、画像を、各ディスプレイ画面のサイズに合うように定めた分割線で分割する。例えば、2つのディスプレイ画面が同サイズであれば、元の画像の中央線が分割線となる。
 1つの画像を複数に分割して表示することにより、画像に含まれる文字やアイコンや写真などを大きく表示することができる。しかし、ディスプレイ画面とディスプレイ画面の間に間隙が存在するため、元の画像に含まれている文字やアイコンや写真などが分断されて見づらくなることがある。
 それに対して、ディスプレイ画面の間隙による見づらさを緩和するための技術が提案されている(特許文献2参照)。特許文献2に記載された表示装置は、1つの画像を2つの表示パネルに分割して表示する際、画像を中央で単純に分割すると文字がディスプレイ画面の隙間によって分断される場合、画像を分割する位置が文字上にならないように画像をシフトする。
特開2009-76038号公報 特開2002-006822号公報
 しかしながら、実際にディスプレイ画面に表示しようとする画像は、文字や写真など複数の個別の画像から構成されるものもあり、それら個別の画像の配置が複雑になっている場合も多い。例えば、表示形態としてプロポーショナルフォントを使用した複数行にわたる文章では列方向の文字の位置が行毎に異なる。このような複雑な画像に、特許文献2に開示された技術を用いても、全ての行で文字が切れないように画像をシフトすることができない場合があった。
 また、全体の画像の中に個別の画像として文字だけでなく写真のような画像が含まれることもある。その場合、全体の画像に、大きさが異なる様々な個別の画像が含まれることになり、全体の画像の構成は更に複雑となる。
 本発明の目的は、複数のディスプレイ画面を有する情報処理装置において画像を複数のディスプレイ画面に分割して表示するときの画像の見づらさを改善するための技術を提供することである。
 上記目的を達成するために、本発明の携帯情報端末は、
 複数のディスプレイ画面を有する表示手段と、
 前記複数のディスプレイ画面が並ぶ方向に個別画像が並んだ行を2行以上含む全体画像を、それぞれの前記行において個別画像同士の間隙を通る分割線で複数の分割画像に分割し、前記表示手段の前記ディスプレイ画面のそれぞれに該分割画像のそれぞれを表示する制御手段と、
を有する。
 本発明の表示制御方法は、複数のディスプレイ画面を有する携帯情報端末における表示制御方法であって、
 制御手段が、前記複数のディスプレイ画面が並ぶ方向に個別画像が並んだ行を2行以上含む全体画像を、それぞれの前記行において個別画像同士の間隙を通る分割線で複数の分割画像に分割し、
 前記制御手段が、前記ディスプレイ画面のそれぞれに該分割画像のそれぞれを表示するものである。
 本発明の表示制御プログラムは、複数のディスプレイ画面を有する携帯情報端末における表示制御をコンピュータに実行させるための表示制御プログラムであって、
 前記複数のディスプレイ画面が並ぶ方向に個別画像が並んだ行を2行以上含む全体画像を、それぞれの前記行において個別画像同士の間隙を通る分割線で複数の分割画像に分割する手順と、
 前記ディスプレイ画面のそれぞれに該分割画像のそれぞれを表示する手順と、
をコンピュータに実行させる。
複数の個別画像を含む全体画像の例を示す図である。 図1Aに示した全体画像の分割線502について説明するための図である。 図1Bに示した分割線で分割された分割画像503,504を示す図である。 本実施形態における携帯情報端末の概略構成を示すブロック図である。 本実施形態における携帯情報端末の詳細構成を示すブロック図である。 制御部100による分割表示処理を示すフローチャートである。 全体画像の座標系について説明するための図である。 各y座標に対するx軸方向における2値画像の画素値の和の計算について説明するための図である。 各行において個別画像の間隙に分割線を設定する処理を説明するための図である。 各行において個別画像の間隙に分割線を設定する処理を説明するための図である。 各行において個別画像の間隙に分割線を設定する処理を説明するための図である。 個別画像を分割する分割線の一例を示す図である。 2人の人物が写った写真を分割線で分割する場合の処理を説明するための図である。 分割線502の一例を示す図である。 図9Aに示した分割線502で分割された分割画像503、504を示す図である。 タッチパネルへのドラッグ操作により画面をスクロールする連動スクロール処理を示すフローチャートである。 スクロールのためのドラッグ操作がされている間の画面表示の変化の様子を示す図である。 スクロールのためのドラッグ操作がされている間の画面表示の変化の様子を示す図である。 スクロールのためのドラッグ操作がされている間の画面表示の変化の様子を示す図である。 スクロールのためのドラッグ操作が終了したときの画面表示の変化の様子を示す図である。 スクロールのためのドラッグ操作が終了したときの画面表示の変化の様子を示す図である。 スクロールのためのドラッグ操作が終了したときの画面表示の変化の様子を示す図である。 本実施形態の携帯情報端末のソフトウェア構成を示す図である。 分割画像503と分割画像504の間における個別画像間の距離の調整の様子を示す図である。
 本実施形態の携帯情報端末は、2つのディスプレイ画面を有し、アプリケーションの処理や利用者による操作入力に応じて様々な画像を2つのディスプレイ画面に表示する。この携帯情報端末は、1つの画像を2つのディスプレイ画面のそれぞれに合うように2つに分割して表示することができる。
 ここでは、携帯情報端末が表示しようとする全体の画像を全体画像と呼び、全体画像を2つのディスプレイ画面に表示するために分割した2つの画像を分割画像と呼ぶことにする。また、全体画像の中に含まれる文字や写真などを個別画像と呼ぶことにする。
 図1Aは、複数の個別画像を含む全体画像の例を示す図である。ここでは、全体画像の中にプロポーショナルフォントを使用した文字で構成された複数行にわたる文章が含まれている例を示す。各文字が個別画像に相当し、図中の四角形が個別画像を表している。
 図1Aの全体画像は、各行の行方向の文字の位置が行同士で一致していない。このように全体画像内に個別画像が複雑に配置されている場合、いずれの個別画像も分断されないように全体画像を直線の分割線501で2つに分割するのは困難である。
 本実施形態の携帯情報端末は、このような全体画像に対して、図1Bに示すように、各行において文字と文字の間隙を通るように分割線502を定め、その分割線502で全体画像を左右2つの分割画像503、504分割する。
 具体的には、本実施形態の携帯情報端末は、全体画像において個別画像で構成される行を検出し、行毎に個別画像と個別画像の間隙を検出し、各行において個別画像と個別画像の間隙を通るように分割線502を定める。そして、携帯情報端末は、全体画像を分割線502で分割し、得られた分割画像503、504を図1Cに示すように各ディスプレイ画面に表示する。
 本実施形態の携帯情報端末によれば、複数の個別画像を含む全体画像を、2つのディスプレイ画面が並ぶ方向に行をなす個別画像同士の間隙を通る分割線で2つの分割画像に分割して2つのディスプレイ画面に表示するので、文字や写真などの個別画像が分断されて見づらくなるのを防止することができる。
 図2Aは、本実施形態の携帯情報端末の概略構成を示すブロック図である。図2Aを参照すると、本実施形態の携帯情報端末は、2つのディスプレイ131、132と制御部100とを有している。
 制御部100は、複数の個別画像を含む全体画像を、2つのディスプレイ131、132が並ぶ方向に行をなす個別画像同士の間隙を通る分割線502で2つの分割画像503、504に分割する。例えばディスプレイ131、132が横に並んでいれば、行は横方向となる。そして、制御部100は、2つの分割画像503、504をディスプレイ131、132のそれぞれに表示する。
 また、本実施形態の携帯情報端末は、2つの分割画像503、504に分割して2つのディスプレイ画面に表示した全体画像を連動的にスクロールすることができる。携帯情報端末は、全体画像をスクロールするための操作入力が行われると、スクロールに伴って2つの分割画像503、504を近づけていき結合する。携帯情報端末は、結合後は結合を維持したままで全体画像をスクロールし、スクロールのための操作入力が終わると、そのときの全体画像に対して新たに分割線502を定め、その分割線502で全体画像を分割して得られた分割画像503、504を各ディスプレイ画面に表示する。
 以下、本実施形態の携帯情報端末について詳細に説明する。
 図2Bは本実施形態における携帯情報端末の詳細構成を示すブロック図である。
 図2Bに示すように、本実施形態における携帯情報端末10は、制御部100、表示制御部110、入力制御部120、表示部130、入力部140及び記憶部150を有する。
 表示部130は、互いに隣り合って配置される2つの左ディスプレイ131および右ディスプレイ132を有する表示装置である。左ディスプレイ131と右ディスプレイ132は同サイズであるものとする。左ディスプレイ131と右ディスプレイ132を横に並べた通常の使用状態では、左ディスプレイ131が左側にきて、右ディスプレイ132が右側にくるものとする。
 入力部140は、表示部130の左ディスプレイ131および右ディスプレイ132と一体的に構成された、利用者による操作入力を検出するタッチパネル式の入力装置であるものとする。ただし、これは一例であり、他の例として入力部140は表示部130と一体的でないタッチパネル式であってもよく、またタッチパネル式ではなく押しボタン式であってもよい。
 表示制御部110は、左ディスプレイ131および右ディスプレイ132のそれぞれに対応する左画面表示制御部111および右画面表示制御部112を有している。左画面表示制御部111および右画面表示制御部112には、制御部100からそれぞれの分割画像503、504が与えられる。左画面表示制御部111および右画面表示制御部112は、与えられた分割画像503、504をそれぞれディスプレイ131、132に表示する。
 入力制御部120は、入力部140で検出された操作入力を受け付け、その操作入力を入力情報として制御部100に通知する。
 記憶部150には、リードオンリメモリ、ランダムアクセスメモリ、およびフレームバッファが含まれている。リードオンリメモリは、制御部100あるいは表示制御部110が実行する各種の制御プログラムや制御部100あるいは表示制御部110が処理に用いる固定的なデータを格納する。ランダムアクセスメモリは、制御部100あるいは表示制御部110が制御プログラムやアプリケーションプログラムを実行するときに一時的にデータ格納する。フレームバッファは、表示部310に表示する全体画像を一時的に格納する。
 制御部100は、記憶部150のリードオンリメモリに格納されている制御プログラムを実行することにより携帯情報端末10内の各部を制御する。
 また、制御部100は、入力制御部120からの入力情報あるいはその他のイベントに基づいてアプリケーションを実行する。アプリケーションの実行に伴い、制御部100は表示部130に画像を表示する。その際、制御部100は、フレームバッファの全体画像を2つの分割画像503、504に分割し、その分割画像503、504を表示制御部110の左画面表示制御部111および右画面表示制御部112に与える。
 全体画像を2つに分割するとき、制御部100は、全体画像内の個別画像で構成される行を検出し、行毎に個別画像と個別画像の間隙を検出し、各行において個別画像と個別画像の間隙を通るように定めた分割線502で全体画像を分割する。
 また、制御部100は、2つのディスプレイ画面に表示した分割画像503、504を、入力制御部120からの制御入力に従って連動的にスクロール表示する。
 スクロールの操作入力が行われると、制御部100は、分割画像503、504をスクロールするのに伴って分割画像同士を近づけていき結合する。結合した後のスクロール中の分割線は、全体画像の中の個別画像を分断するか否かに関わらず直線である。その後、スクロールのための操作入力が終わると、制御部100は、そのときの全体画像に対して新たに分割線502を定め、その分割線502で全体画像を分割して得られた分割画像503、504を各ディスプレイ画面に表示する。
 画像を分割して左ディスプレイ131と右ディスプレイ132に表示するときの処理を分割表示処理と呼び、2つに分割して表示している状態から画像をスクロールするときの処理を連動スクロール処理と呼ぶことにする。
 (分割表示処理)
 まず、分割表示処理について説明する。
 図3は、制御部100による分割表示処理を示すフローチャートである。図4は、全体画像の座標系について説明するための図である。
 図4に示す例では、左ディスプレイ131と右ディスプレイ132の並びの方向にx軸をとり、x軸に直交する方向にy軸をとる。画像データは左から右へそして上から下への順序で保持される場合が多いので、ここでは左上を原点Oとし、x軸を右方向とし、y軸を下方向としている。全体画像は、x軸方向の幅が2Wであり、y軸方向の高さがHである。
 本実施形態では、全体画像におけるW-L≦x≦W+Lの範囲で分割線502を決定し分割を行う。以下、このW-L≦x≦W+Lの範囲を分割領域と呼ぶことにする。左ディスプレイ131および右ディスプレイ132の表示幅はW+L以上である。
 左ディスプレイ131と右ディスプレイ132が同サイズなので個別画像を考慮しなければx=Wが分割線となるが、本実施形態では個別画像を分断しないようにし、分割領域内に分割線502を定める。分割領域の幅2Lを大きくとると、文章がかえって読みにくくなったり、文字や画像が小さくなったりするので、それらを考慮して幅2Lは適切な値に設定される。また、この分割領域の幅2Lはアプリケーションから設定することができることにしてもよい。
 図3を参照すると、まず、制御部100は、全体画像の分割領域の部分を変換してグレースケール画像(モノクロ画像)を生成する(ステップS201)。グレースケール画像は、元のカラー画像の各色成分の値の和をとることにより生成してもよく、また、人間の目の特性に従って各色成分の値に重み付けをして和をとることにより生成してもよい。
 次に、制御部100は、グレースケール画像から2値画像を生成する(ステップS202)。その際、制御部100は、まず、グレースケール画像のy軸方向に隣接した画素の差分を画像化することにより差分画像を生成する。具体的には、制御部100は、(x,y)の画素値と、(x,y+1)の画素値の差の絶対値を、(x,y)の画素値とする。次に、制御部100は、差分画像において0以外の値を有する画素の値を1にする2値化により、2値画像を生成する。
 この2値画像では、文字や写真などの個別画像がある部分に画素値が1の画素が現れる。制御部100は、この2値画像を用いて、後述のように個別画像とそれによって構成される行の位置を推定することになる。
 制御部100は、図5のように、各y座標に対して、x軸方向における2値画像の画素値の和を計算する(ステップS203)。図5において左側に示したグラフがその計算結果を示している。文字列や画像が存在する領域では、この画素値の和が0でない値となる。
 この計算結果を基に、制御部100は、画素値の和が0でないy座標の範囲をy=0からy軸の正方向に探索し、検出したy座標の範囲をY1≦y≦Y2とする(ステップS204)。この範囲が個別画像あるいは複数の個別画像からなる行が存在する範囲と推定される。
 画素値の和が0でないy座標の範囲Y1≦y≦Y2が検出されれば(ステップS205のY)、続いて、制御部100は、図6Aに示すように、W-L≦x≦W+LかつY1≦y≦Y2の範囲において、各x座標に対して、y軸方向における2値画像の画素値の和を計算する(ステップS206)。図6Aの下側のグラフが、y軸方向における2値画像の画素値の和を示している。この画素値の和が0でない範囲に個別画像が存在し、画素値の和が0である範囲が個別画像と個別画像の間隙であると推定される。
 ここで、制御部100は、図6Bのように、その画素値の和が0でない範囲をa[i]≦x<b[i](i=1,2,・・・,N)とし、その画素値の和が0である範囲をb[i]≦x<a[i+1](i=1,2,・・・,N)とする(ステップS207)。また、便宜的にa[0]=b[0]=W-Lとし、a[N+1]=b[N+1]=W+Lとする。
 もし、ここで画素値の和が0である範囲がW-L≦x≦W+Lにおいて存在しなければ(ステップS208のN)、制御部100は、分割領域の幅2Lにわたる大きさの個別画像が存在すると判断し、画像分割処理に進む。画像分割処理については後述する。
 画素値の和が0である範囲がW-L≦x≦W+Lにおいて存在すれば(ステップS208のY)、制御部100は、a[i]またはb[i]の値がWに最も近くなるiをmとする(ステップS209)。
 更に、制御部100は、図6Cに示すように、全体画像のx軸方向の中央に最も近い、個別画像と個別画像の間隙に分割線を設定する。
 具体的には、制御部100は、全体画像のx軸方向の中央であるWと、a[m],b[m]との関係がW<(a[m]+b[m])/2であれば(ステップS210のY)、x=(b[m-1]+a[m])/2の位置に、Y1≦y≦Y2の範囲における分割線を設定する(ステップS211)。また、W≧(a[m]+b[m])/2であれば(ステップS210のN)、制御部100は、x=(b[m]+a[m+1])/2の位置に分割線を設定する(ステップS212)。
 次に、分割領域の幅にわたる個別画像を分割するための画像分割処理について説明する。この画像分割処理は、W-L≦x≦W+L,Y1≦y≦Y2の矩形領域に存在する写真のような大きな画像を適切な位置で分割する分割線を設定する処理である。
 上述したように、各x座標に対するy軸方向における2値画像の画素値の和が0である範囲がW-L≦x≦W+Lにおいて存在しないとき(ステップS208のN)、この画像分割処理が行われる。
 まず、制御部100は、前処理として、その矩形領域のグレースケール画像を取得し、それを2値化することにより2値画像を生成する(ステップS213)。なお、先の2値化は0以外の値を全て1にするものであったが、ここでの2値化は一例としてグレースケール画像の画素値を所定の閾値と比較することにより行う。
 次に、制御部100は、人の顔、車、建物等の回避対象物について予め用意された画像をテンプレート画像として、矩形領域の2値画像に対してテンプレートマッチングを行う(ステップS214)。このテンプレートマッチングにより回避対象物が存在する範囲が特定される。
 なお、回避対象物としては、2つに分割されるのが望ましくない物体が設定される。また、回避対象物には優先度が定義され、各回避対象物のテンプレート画像に優先度が付与される。この優先度は、分割されるのが望ましくない度合いに応じて設定すればよい。例えば、建物の優先度よりも人の顔の優先度を高く設定することが考えられる。
 制御部100は、回避対象物が存在しないx座標の範囲をc[i]≦x<d[i](i=1,2,・・・,K)とし(ステップS215)、c[i]≦x<d[i]の範囲が1つ以上存在するか否か判定する(ステップS216)。
 c[i]≦x<d[i]の範囲が1つ以上存在すれば、制御部100は、図7に示すように、x=(c[i]+d[i])/2のうち、xの値が最もWに近い直線を分割線とする(ステップS217)。図7には、個別画像を表す四角形の中に、回避対象物の範囲を表す太線の四角形が描かれている。分割線は回避対象物の範囲を避ける位置で個別画像を分割するように設定されている。
 ステップS216の判定において、回避対象物が存在しないx座標の範囲が存在しなければ、制御部100は、優先度が低いテンプレート画像に対応する回避対象物から除外すること(ステップS218)を、回避対象物が存在しないx座標の範囲が現れるまで繰り返す。
 以上のようなY1≦y≦Y2の範囲に対する一連の処理が終わると、制御部100は、検出対象をy>Y2の範囲に更新し(ステップS219)、図5の左側のグラフに示された、分割領域の2値画像における各y座標に対するx軸方向の画素値の和が0でないy座標の範囲を探索し(ステップS204)、同様のように一連の処理を繰り返す。
 もし、そのようなx軸方向の画素値の和が0でないy座標の範囲が検出されなければ(ステップS205のN)、制御部100は、y軸方向の範囲毎に分割線を設定する処理を完了し、次に、それらの分割線を連結する処理を行う(ステップS220)。この連結処理においては、制御部100は、y軸方向にとびとびに設定された分割線を、0≦y<Hの範囲で連続した線になるように結合する。
 具体的には、制御部100は、まず、個々の分割線の両端を、隣接する分割線同士のy座標が一致するように中央まで延長する。続いて、制御部100は、隣接する分割線の隣接する側の先端同士をx軸に平行な直線で結合する。これにより分割線502が完成する。
 なお、画像分割処理により個別画像を分割するような分割線が設定されている場合には、その個別画像から左ディスプレイ131と右ディスプレイ132の間隔に相当する部分を削除することにしてもよい。これにより、分割して表示する画像を見かけ上は元の画像と同じバランスで表示することができる。ただし、その場合に更に、左ディスプレイ131と右ディスプレイ132の間隔に相当する部分であっても回避対象物の領域を含む場合には削除しないことにしてもよい。
 図8は、2人の人物が写った写真を分割線で分割する場合の処理を説明するための図である。この写真を分割する場合、削除する部分に回避対象物が含まれないことを条件として、写真の分割画像503に含まれる部分と分割画像504に含まれる部分のそれぞれから、左ディスプレイ131と右ディスプレイ132の間隔に相当する部分が削除される。この例では人物の顔が回避対象物である。ハッチングが施された部分が削除される部分である。
 図9Aは、以上のようにして決定された分割線502の一例を示す図である。図9Aには、複数にわたる文章の中に写真のような大きな画像が埋め込まれた全体画像に分割線502を設定した例が示されている。図中のハッチングが施された四角形は大きな個別画像を表している。ただし、この個別画像は分割領域の幅2Lにわたって配置されてはいない。
 0≦y≦Hにわたる分割線502を決定し終えると、制御部100は、その分割線502によって全体画像を2つの分割画像503、504に分割し、それぞれを左ディスプレイ131および右ディスプレイ132に表示する。具体的には、制御部100は、0≦x≦W+Lの範囲に含まれている左側の分割画像503を左ディスプレイ131に表示し、W-L≦x≦2Wの範囲に含まれている右側の分割画像504を右ディスプレイ132に表示する。図9Bは、分割線502で分割された分割画像503、504を左ディスプレイ131および右ディスプレイ132に表示した様子を示す図である。なお、ハッチングが施された個別画像は分割領域の幅2Lにわたってはいないので、分割線で分割されていない。
 (連動スクロール処理)
 次に連動スクロール処理について説明する。
 連動スクロール処理においては、全体画像を分割線502で分割した分割画像503、504を左ディスプレイ131、132にそれぞれ表示している状態から、スクロールの操作入力が行われると、スクロールに伴って分割画像の距離を近づけていき結合する。スクロールの操作入力が終わると、全体画像をその時点の新たな分割線502で分割し、各ディスプレイ画面に表示する。
 図10は、タッチパネルへのドラッグ操作により画面をスクロールする連動スクロール処理を示すフローチャートである。
 全体画像を分割線502で分割し、左ディスプレイ131および右ディスプレイ132の表示している状態で(ステップS301)、利用者がタッチパネルをドラッグ操作すると(ステップS302)、制御部100は、アプリケーションによる処理として、全体画像データを保持するフレームバッファを更新する(ステップS303)。
 続いて、制御部100は、全体画像を分割線502で分割して表示している状態であれば(ステップS304)、以下の処理を行う。
 ドラッグ操作が左方向に向かうものであれば(ステップS305のY)、制御部100は、右ディスプレイ132に表示していた画像を左ディスプレイ131に表示している画像に近づけていき、結合する(ステップS306)。結合した後のスクロール中は、制御部100は、x=W+Lの直線を分割線として全体画像を分割する。このときの表示を左寄せ表示と呼ぶことにする。
 ドラッグ操作が右方向に向かうものであれば(ステップS307のY)、制御部100は、左ディスプレイ131に表示していた画像を右ディスプレイ132に表示している画像に近づけていき、結合する(ステップS308)。結合した後のスクロール中は、制御部100は、x=W-Lの直線を分割線として全体画像を分割する。このときの表示を右寄せ表示と呼ぶことにする。
 また、ドラッグ操作が左方向に向かうものでも右方向に向かうものでもなければ(ステップS307のN)、制御部100は、更新された全体画像における分割線502を決定し(ステップS309)、その分割線502で全体画像を分割し、分割画像503、504を左ディスプレイ131および右ディスプレイ132に表示する(ステップS310)。例えば上方向または下方向に向かうドラッグ操作の場合がこれに当たる。
 そのとき、制御部100は、更新された全体画像に新たに現れた部分についてのみ新たに分割線を設定することにしてもよい。また、ドラッグ操作が上方向または下方向に向かうものであっても高速スクロール中は、全体画像を直線の分割線で分割することにしてもよい。
 続いて、制御部100は、ドラッグ操作が終了しているか否か判定する(ステップS311)。ドラッグ操作が終了していなければ、制御部100はステップS303に戻る。
 一方、ドラッグ操作が終了していれば、制御部100は、左寄せ表示を行っているか否か判定する(ステップS312)。左寄せ表示を行っているのであれば、制御部100は、更新された全体画像に新たに分割線502を決定して全体画像を分割する(ステップS313)。そして、制御部100は、分割線502の右側の分割画像504を右ディスプレイ132に移動させる(ステップS314)。
 一方、左寄せ表示を行っているのでなければ、制御部100は、右寄せ表示を行っているか否か判定する(ステップS315)。右寄せ表示を行っているのであれば、制御部100は、更新された全体画像に新たに分割線502を決定して全体画像を分割する(ステップS316)。そして、制御部100は、分割線の左側の分割画像503を左ディスプレイ131に移動させる(ステップS317)。
 以上の処理により、全体画像が2つに分割して表示された状態になったら、制御部100は処理を終了する。
 図11A~11Cは、スクロールのためのドラッグ操作がされている間の画面表示の変化の様子を示す図である。ここでは左向きのスクロールを例示するが、右向きのスクロールも左右が逆になるだけで、これと同様である。
 図11Aに示すように、分割画像503、504を左ディスプレイ131、右ディスプレイ132にそれぞれ表示している状態から、スクロールの操作入力が行われると、制御部100は、図11Bに示すように、スクロールに伴って分割画像503と分割画像504の距離を近づけていき、結合する。結合した後のスクロール中、制御部100は、図11Cに示すように、分割画像503と分割画像504を結合したままで連動的に画像をスクロールさせる。
 図12A~12Cは、スクロールのためのドラッグ操作が終了したときの画面表示の変化の様子を示す図である。
 ドラッグ操作が終了すると、制御部100は、図12Aに示すように新たな分割線502を決定し、図12Bに示すように分割線502の右側の分割画像504を右側に移動し、図12Cに示すように分割画像504を右ディスプレイ132に表示する。
 なお、本実施形態の携帯情報端末の入力部140はディスプレイ131、132と一体的に構成されたタッチパネル式であるが、いずれのディスプレイへのタッチ操作によっても全体画像のスクロールが行えるものとする。そして、例えば、分割画像503、504が結合するまで画面表示の変化を、左ディスプレイ131へのドラッグ操作による場合と右ディスプレイ132へのドラッグ操作による場合とで同じにしてもよく、あるいは異ならせてもよい。
 画面表示の変化を異ならせる場合の例として、左ディスプレイ131へ左方向のドラッグ操作が行われた場合には、右ディスプレイ132の画面表示を左ディスプレイ131の画面表示よりも早い速度で移動することにより、2つの分割画像を結合することにしてもよい。そして、右ディスプレイ132へ左方向のドラッグ操作が行われた場合には、左ディスプレイ131の画面表示を固定したままで右ディスプレイ132が画面表示を移動することにより、2つの分割画像を結合することにしてもよい。
 次に、本実施形態の携帯情報端末におけるソフトウェア構成について説明する。
 図13は、本実施形態の携帯情報端末のソフトウェア構成を示す図である。アプリケーション101、ミドルウェア102、および分割処理プログラム104は、図2Bの機能ブロック図における制御部100の処理を実現するソフトウェアである。ミドルウェア102には描画ミドルウェア103が含まれている。左画面表示制御プログラム111aおよび右画面表示制御プログラム112aのそれぞれは、図2Bの機能ブロック図における左画面表示制御部111および右画面表示制御部112のそれぞれの処理を実現するソフトウェアプログラムである。
 分割処理プログラム104、左画面表示制御プログラム111a、および右画面表示制御プログラム112aは制御プログラムであり、記憶部150のリードオンリメモリに配置される。フレームバッファ151は記憶部150のランダムアクセスメモリに配置される。
 アプリケーション101は、表示しようとする全体画像のデータを、描画ミドルウェア103を介してフレームバッファ151に書き込む。分割処理プログラム104は、上述した手法により、フレームバッファ151から全体画像のデータを読み出し、全体画像を2つの分割画像503、504に分割する。左画面表示制御プログラム111a、右画面表示制御プログラム112aは、それぞれの分割画像503、504を左ディスプレイ131、右ディスプレイ132に表示する。
 このソフトウェア構成により、アプリケーションが画像を2つのディスプレイ131、132に分割して表示することを意識する必要は無く、1つの画面に表示するのと同じ汎用的な処理を行えばよい。
 なお、本実施形態では、各個別画像の文字の種類によらず、個別画像間の間隙のうち中央に最も近い位置に分割線を設定することにしたが、本発明はこれに限定されるものではない。他の例として、制御部100は、個別画像の文字が句読点である場合には、その直後の間隙に分割線を設定することにしてもよい。
 また、本実施形態では、行毎の分割線の相互関係によらず、個別画像間の間隙のうち中央に最も近い位置に分割線を設定することにしたが、行毎の分割線の位置に依存関係を持たせてもよい。例えば、制御部100は、ある行の分割線を設定するとき、x座標が、その上の行の分割線に最も近い間隙に分割線を設定することにしてもよい。
 また、本実施形態では、個別画像間の間隙の幅によらず、分割領域内の個別画像間の間隙のうち中央に最も近い位置に分割線を設定することにしたが、本発明はこれに限定されるものではない。他の例として、制御部100は、個別画像間の間隙のうち幅の広い間隙に分割線を設定することにしてもよい。
 また、本実施形態では、複数文字で構成される単語により文章が記述される言語である場合、単語と単語の境界に分割線を設定することにしてもよい。その場合、制御部100は、例えば、上述した手法により文字と文字の間隙を検出するとともに文字を認識し、文字の配列から単語を認識し、文字と文字の間隙のうち単語の境界をなすものを候補として分割線を設定することにすればよい。
 また、本実施形態では、個別画像間の間隙のうち中央に最も近い位置に分割線を設定するという単一の条件で分割線を設定する位置を決定したが、本発明はこれに限定されるものではない。他の例として、個別画像間の間隙と中央との近さ、句読点の直後かどうか、間隙の幅の広さなど複数の条件にそれぞれ重みづけをして各間隙のポイントを積算し、ポイントが高い間隙に分割線を設定することにしてもよい。
 また、本実施形態では、アプリケーション101が関与することなく分割処理プログラム104による処理で分割線502が決定されるものとしたが、本発明はこれに限定されるものではない。どの個別画像間の間隙に分割線を設定するかを0≦y≦Hの範囲の一部あるいは全部についてアプリケーション101から指定できるものとしてもよい。その場合、分割処理プログラムは、指定された部分については、個別画像間の間隙のうちアプリケーション101から指定されたものに分割線を設定すればよい。
 あるいは、個別画像間の間隙のうち、分割線の設定を禁止するものをアプリケーション101から分割処理プログラム104に対して設定することができてもよい。その場合、分割処理プログラム104は、個別画像間の間隙のうち、分割線の設定が禁止された以外の間隙に分割線を設定すればよい。
 また、分割線の設定を禁止する領域の特徴を分割処理プログラム104に設定しておき、分割処理プログラム104は、その特徴に該当する領域に分割線を設定しないようにしてもよい。例えば、ポップアップ表示の特徴を設定しておくことにより、ポップアップ表示が2つに分断されないようにすることができる。
 また、本実施形態では、個別画像の間隙に分割線502を設定する処理を常時実行するものとしたが、本発明はこれに限定されるものではない。他の例として、個別画像の間隙に分割線を設定する処理を有効にするか無効にするかを、利用者の所望、アプリケーションからの指定、アプリケーションの種別などに応じて切り替え可能としてもよい。個別画像の間隙に分割線を設定する処理が無効になっている場合、制御部100は、1つの全体画像を左ディスプレイ131と右ディスプレイ132に分割して表示するときには全体画像を中央線で分割すればよい。
 また、本実施形態では、画面切り替え時やスクロールの終了時、全体画像の表示を2つの分割画像503、504に分割するときに利用者が分割処理を認識できるようなアニメーション処理を施してもよい。例えば、全体画像の表示を2つの分割画像503、504に分割するとき、2つのディスプレイ131、132の両方あるいはいずれか一方の表示をバネが弾むように振動させることにしてもよい。
 また、本実施形態では、全体画像に個別画像として動画が含まれている場合、動画も静止画と同様に個別画像として識別され、その個別画像をできる限り分断しないように分割線を設定される。そして、個別画像が分割領域の幅にわたる場合、制御部100は、テンプレートマッチングにより回避対象物が存在する範囲を分断しないように個別画像を分割する分割線を設定する。これらに加えて更に、制御部100は、分割する個別画像が動画である場合には、個別画像内の動き量の分布に基づき、動きの大きい部分を回避するように分割線を設定することにしてもよい。個別画像内の各部の動き量は動き補償の情報から得ることができる。
 また、本実施形態の説明においては、便宜的に、2つのディスプレイ131、132が横になるように用いる場合を例示したが、本発明はこれに限定されるものではない。2つのディスプレイ131、132が縦に並ぶように用いる場合にも本発明を同様に適用することができる。2つのディスプレイ131、132の並びが縦であっても横であっても、2つのディスプレイ131、132が並ぶ方向と同じ方向に複数の個別画像を含む行を検出し、その行に含まれている個別画像間の間隙を通るように分割線を設定すればよい。
 また、2つのディスプレイ131、132が横に並ぶように用いられ、全体画像に縦書きの文章が含まれる場合や、2つのディスプレイ131、132が縦に並ぶように用いられ、全体画像に縦書きの文章が含まれる場合も考えられる。その場合に本実施形態で上述した手法をそのまま用いてもよいし、その部分にだけ他の手法を用いてもよい。例えば、2つのディスプレイ131、132が横に並ぶように用いられている場合、制御部100は、全体画像に含まれる縦書き文章の部分を検出し、その部分では行間に分割線を設定することにしてもよい。縦書き文章部分の行は、例えば、上述したx軸方向の行を検出する手法をy軸方向に適用することにより検出することができる。
 また、本実施形態における分割領域の幅2Lを2Wに設定し、2つのディスプレイ131、132の画面全体を分割領域としてもよい。その場合、分割線502が左ディスプレイ131の左端付近に設定されたり、右ディスプレイ132の右端付近に設定されたりすることもありうる。そして、全体画像において上下の2つの大きな画像が左右方向に入り組んで配置されている場合、分割線502の水平方向の部分が長くなり、その水平部分の上下にある2つの大きな画像が左右のディスプレイ131、132に配置されることもありうる。
 また、本実施形態の制御部100は、分割画像503と左ディスプレイ131の外縁との間や、分割画像504と右ディスプレイ132の外縁との間を、利用者に自然に見えるように、全体画像における背景と同じ色で表示することにしてもよい。
 あるいは、本実施形態の制御部100は、分割線502、または分割線502とディスプレイ131、132の外縁の間、あるいはその両方を、利用者が認識し易いよう、他の部分と区別できるように表示することにしてもよい。
 また、本実施形態では、制御部100は、全体画像を分割線502で分割した分割画像503、504を左ディスプレイ131と右ディスプレイ132に分けて表示することにより変化する個別画像間の距離を調整するように分割画像503、504に処理を施してもよい。例えば、図14に示すように、右側の分割画像504内の個別画像を左側に寄せるように分割画像504に画像処理を施してもよい。また更に、左側の分割画像503内の個別画像も同様に右側に寄せるように分割画像503に画像処理を施してもよい。
 また、本実施形態では、ディスプレイが2つの場合を例示したが、本発明はこれに限定されるものではなく、ディスプレイが3つ以上の場合にも同様に適用することができる。
 以上、実施形態を参照して本発明を説明したが、本発明はそれらの実施形態に限定されるものではない。クレームに定義された本発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2009年12月18日に出願された日本出願特願2009-287432を基礎として優先権の利益を主張するものであり、その開示の全てを引用によってここに取り込む。

Claims (17)

  1.  複数のディスプレイ画面を有する表示手段と、
     前記複数のディスプレイ画面が並ぶ方向に個別画像が並んだ行を2行以上含む全体画像を、それぞれの前記行において個別画像同士の間隙を通る分割線で複数の分割画像に分割し、前記表示手段の前記ディスプレイ画面のそれぞれに該分割画像のそれぞれを表示する制御手段と、
    を有する携帯情報端末。
  2.  前記制御手段は、前記全体画像内の所定の分割領域内の間隙に前記分割線を定める、
    請求項1に記載の携帯情報端末。
  3.  前記制御手段は、前記行において前記間隙が複数存在する場合、前記ディスプレイ画面のそれぞれの幅によって定まる初期分割線に近い間隙を他の間隙より優先して前記分割線を定める、
    請求項1または2に記載の携帯情報端末。
  4.  前記制御手段は、前記行において前記間隙が複数存在する場合、個別画像同士の間隔が大きい間隙を他の間隙より優先して前記分割線を定める、
    請求項1から3のいずれか1項に記載の携帯情報端末。
  5.  前記制御手段は、前記行に前記間隙が存在しない場合、前記個別画像に含まれる特定部分を分断しない位置で該個別画像を分割するように分割線を定める、
    請求項1から4のいずれか1項に記載の携帯情報端末。
  6.  前記制御手段は、前記個別画像が動画像である場合、該個別画像内の動き量の分布に基づいて前記特定部分を定める、
    請求項5に記載の携帯情報端末。
  7.  前記制御手段は、前記全体画像を前記分割線で分割し、更に、分割画像間を跨いで隣り合う個別画像間の距離を行毎に調整した分割画像を前記ディスプレイ画面に表示する、
    請求項1から6のいずれか1項に記載の携帯情報端末。
  8.  前記制御手段は、前記個別画像が分割された前記分割画像を、該個別画像から前記ディスプレイ画面の間隔に相当する部分を削除して、前記ディスプレイ画面に表示する、
    請求項5または6に記載の携帯情報端末。
  9.  利用者による操作入力を検出する入力手段を更に有し、
     前記制御手段は、前記分割線で分割された前記分割画像が前記ディスプレイ画面に表示されているとき、前記入力手段に対して前記全体画像をスクロールするための操作入力が行われると、該スクロールに伴って前記分割画像同士を近づけて結合する、
    請求項1から8のいずれか1項に記載の携帯情報端末。
  10.  前記制御手段は、前記分割画像を結合した後に前記スクロールが終了すると、新たに分割線を定めて前記全体画像を分割し、得られた分割画像を前記ディスプレイ画面に表示する、
    請求項9に記載の携帯情報端末。
  11.  前記制御手段は、前記スクロールの終了時、該スクロールの移動先側にあった第1のディスプレイ画面内の所定の分割領域に前記新たな分割線を定めて全体画像を分割し、前記第1のディスプレイ画面に表示すべき分割画像を該第1のディスプレイ画面に固定し、前記スクロールの移動元側にあった第2のディスプレイ画面に表示すべき分割画像を該第2のディスプレイ画面に移動させるように、前記分割画像を表示する、
    請求項10に記載の携帯情報端末。
  12.  前記制御手段は、前記分割領域における隣接画素間の画素値の差分を2値化した2値画像に基づいて該分割領域内の前記行と該行に含まれる個別画像とを検出し、該行毎に個別画像間の間隙を通る分割線を設定し、該行毎の分割線を1本に接続する、
    請求項2に記載の携帯情報端末。
  13.  複数のディスプレイ画面を有する携帯情報端末における表示制御方法であって、
     制御手段が、前記複数のディスプレイ画面が並ぶ方向に個別画像が並んだ行を2行以上含む全体画像を、それぞれの前記行において個別画像同士の間隙を通る分割線で複数の分割画像に分割し、
     前記制御手段が、前記ディスプレイ画面のそれぞれに該分割画像のそれぞれを表示する、
    表示制御方法。
  14.  前記制御手段が、前記全体画像内の所定の分割領域内の間隙に前記分割線を定める、
    請求項13に記載の表示制御方法。
  15.  前記制御手段は、前記行に前記間隙が存在しない場合、前記個別画像に含まれる特定部分を分断しない位置で該個別画像を分割するように分割線を定める、
    請求項13または14に記載の表示制御方法。
  16.  前記制御手段は、前記分割線で分割された前記分割画像が前記ディスプレイ画面に表示されているとき、前記全体画像をスクロールするための操作入力が行われると、該スクロールに伴って前記分割画像同士を近づけて結合する、
    請求項13から15のいずれか1項に記載の表示制御方法。
  17.  複数のディスプレイ画面を有する携帯情報端末における表示制御をコンピュータに実行させるための表示制御プログラムであって、
     前記複数のディスプレイ画面が並ぶ方向に個別画像が並んだ行を2行以上含む全体画像を、それぞれの前記行において個別画像同士の間隙を通る分割線で複数の分割画像に分割する手順と、
     前記ディスプレイ画面のそれぞれに該分割画像のそれぞれを表示する手順と、
    をコンピュータに実行させるための表示制御プログラム。
PCT/JP2010/072524 2009-12-18 2010-12-15 携帯情報端末、表示制御方法、およびプログラム WO2011074595A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US13/514,797 US9218155B2 (en) 2009-12-18 2010-12-15 Portable information terminal, display control method, and program
EP10837621.1A EP2515224B1 (en) 2009-12-18 2010-12-15 Portable information terminal, display control method, and program
CN201080057612.4A CN102713830B (zh) 2009-12-18 2010-12-15 便携式信息终端、显示控制方法和程序
JP2011546141A JP5811847B2 (ja) 2009-12-18 2010-12-15 携帯情報端末および表示制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009287432 2009-12-18
JP2009-287432 2009-12-18

Publications (1)

Publication Number Publication Date
WO2011074595A1 true WO2011074595A1 (ja) 2011-06-23

Family

ID=44167346

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/072524 WO2011074595A1 (ja) 2009-12-18 2010-12-15 携帯情報端末、表示制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US9218155B2 (ja)
EP (1) EP2515224B1 (ja)
JP (1) JP5811847B2 (ja)
CN (2) CN104391666B (ja)
WO (1) WO2011074595A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159716A (ja) * 2011-02-01 2012-08-23 Sharp Corp マルチディスプレイシステム
JP2015139004A (ja) * 2014-01-20 2015-07-30 キヤノン株式会社 映像投影装置、映像投影方法、およびコンピュータプログラム
JP2020080040A (ja) * 2018-11-13 2020-05-28 富士通クライアントコンピューティング株式会社 情報処理装置および情報処理プログラム
CN115022703A (zh) * 2020-02-17 2022-09-06 视联动力信息技术股份有限公司 一种滚动字幕显示方法及装置
WO2022224752A1 (ja) * 2021-04-23 2022-10-27 株式会社デンソー 車両用表示システム、表示システム、表示方法、及び表示プログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6056301B2 (ja) * 2012-09-14 2017-01-11 セイコーエプソン株式会社 印刷装置および印刷システム
JP5925656B2 (ja) * 2012-09-28 2016-05-25 富士フイルム株式会社 画像表示制御装置、画像表示装置、プログラム及び画像表示方法
CN103838460A (zh) * 2012-11-27 2014-06-04 联想(北京)有限公司 终端设备
CN103985373B (zh) * 2014-05-07 2016-08-24 青岛海信电器股份有限公司 一种应用于拼接显示设备的图像处理方法及装置
KR102510395B1 (ko) * 2015-12-01 2023-03-16 삼성디스플레이 주식회사 표시 장치 시스템
CN107195223A (zh) * 2016-03-14 2017-09-22 丽水学院 显示器阅读视野分割器
JP7102121B2 (ja) * 2017-10-06 2022-07-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN109658427B (zh) * 2017-10-11 2023-04-07 中兴通讯股份有限公司 图像处理方法及装置
CN109710199A (zh) * 2017-10-25 2019-05-03 中兴通讯股份有限公司 拼接屏幕的字符显示方法、装置、终端设备及存储介质
CN110389732B (zh) * 2018-04-23 2023-03-10 杭州海康威视数字技术股份有限公司 图像分块方法、装置、电子设备及存储介质
CN109036231B (zh) * 2018-07-30 2021-04-23 Tcl华星光电技术有限公司 显示面板检测方法及显示面板辅助检测装置
CN109828709A (zh) * 2019-01-31 2019-05-31 维沃移动通信有限公司 一种信息显示方法和终端

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61147290A (ja) * 1984-03-30 1986-07-04 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション 表示変更装置
JPH02281328A (ja) * 1989-04-24 1990-11-19 Oki Electric Ind Co Ltd 画面制御装置
JPH07199881A (ja) * 1993-12-28 1995-08-04 Hitachi Ltd ディスプレイ制御システム
JPH09305259A (ja) * 1996-05-13 1997-11-28 Hitachi Ltd 情報処理装置及びその操作方法
WO2001052031A1 (fr) * 2000-01-12 2001-07-19 Sony Corporation Appareil et procede d'affichage d'images
JP2002006822A (ja) 2000-06-26 2002-01-11 Minolta Co Ltd 表示装置及びその駆動方法
JP2009076038A (ja) 2007-08-29 2009-04-09 Nintendo Co Ltd 撮像装置
JP2009287432A (ja) 2008-05-28 2009-12-10 Sanden Corp 可変容量圧縮機の容量制御システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000010655A (ja) 1998-06-22 2000-01-14 Toshiba Corp 携帯型情報装置
JP2000181872A (ja) * 1998-12-11 2000-06-30 Canon Inc 携帯処理装置及び方法
JP2001184187A (ja) 1999-12-24 2001-07-06 Minolta Co Ltd 情報表示装置
US7441207B2 (en) * 2004-03-18 2008-10-21 Microsoft Corporation Method and system for improved viewing and navigation of content
JP2006053678A (ja) 2004-08-10 2006-02-23 Toshiba Corp ユニバーサルヒューマンインタフェースを有する電子機器
JP4386447B2 (ja) * 2005-09-26 2009-12-16 富士フイルム株式会社 画像分割装置および方法並びにプログラム
KR100827228B1 (ko) * 2006-05-01 2008-05-07 삼성전자주식회사 터치 기능을 갖는 영역 분할 수단을 제공하는 장치 및 그방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61147290A (ja) * 1984-03-30 1986-07-04 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション 表示変更装置
JPH02281328A (ja) * 1989-04-24 1990-11-19 Oki Electric Ind Co Ltd 画面制御装置
JPH07199881A (ja) * 1993-12-28 1995-08-04 Hitachi Ltd ディスプレイ制御システム
JPH09305259A (ja) * 1996-05-13 1997-11-28 Hitachi Ltd 情報処理装置及びその操作方法
WO2001052031A1 (fr) * 2000-01-12 2001-07-19 Sony Corporation Appareil et procede d'affichage d'images
JP2002006822A (ja) 2000-06-26 2002-01-11 Minolta Co Ltd 表示装置及びその駆動方法
JP2009076038A (ja) 2007-08-29 2009-04-09 Nintendo Co Ltd 撮像装置
JP2009287432A (ja) 2008-05-28 2009-12-10 Sanden Corp 可変容量圧縮機の容量制御システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2515224A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159716A (ja) * 2011-02-01 2012-08-23 Sharp Corp マルチディスプレイシステム
JP2015139004A (ja) * 2014-01-20 2015-07-30 キヤノン株式会社 映像投影装置、映像投影方法、およびコンピュータプログラム
JP2020080040A (ja) * 2018-11-13 2020-05-28 富士通クライアントコンピューティング株式会社 情報処理装置および情報処理プログラム
CN115022703A (zh) * 2020-02-17 2022-09-06 视联动力信息技术股份有限公司 一种滚动字幕显示方法及装置
CN115022703B (zh) * 2020-02-17 2024-05-17 视联动力信息技术股份有限公司 一种滚动字幕显示方法及装置
WO2022224752A1 (ja) * 2021-04-23 2022-10-27 株式会社デンソー 車両用表示システム、表示システム、表示方法、及び表示プログラム
JP7563287B2 (ja) 2021-04-23 2024-10-08 株式会社デンソー 車両用表示システム、表示システム、表示方法、及び表示プログラム

Also Published As

Publication number Publication date
JP5811847B2 (ja) 2015-11-11
JPWO2011074595A1 (ja) 2013-04-25
EP2515224A4 (en) 2014-11-19
US20120242685A1 (en) 2012-09-27
CN102713830B (zh) 2015-01-21
US9218155B2 (en) 2015-12-22
CN102713830A (zh) 2012-10-03
EP2515224A1 (en) 2012-10-24
CN104391666A (zh) 2015-03-04
CN104391666B (zh) 2018-05-29
EP2515224B1 (en) 2021-11-10

Similar Documents

Publication Publication Date Title
JP5811847B2 (ja) 携帯情報端末および表示制御方法
US9563606B2 (en) Image display apparatus, control method therefor, and storage medium
US10013147B2 (en) Image display apparatus
US9304679B2 (en) Electronic device and handwritten document display method
EP3842909A1 (en) Book display program and book display device
KR20150106330A (ko) 화상 표시 장치 및 화상 표시 방법
JP5299125B2 (ja) 文書処理装置及びプログラム
US9678646B2 (en) Electronic device and computer-readable recording medium storing information display program
US10832442B2 (en) Displaying smart guides for object placement based on sub-objects of reference objects
KR20200087742A (ko) 윈도우 영역 조정 방법 및 그에 따른 전자 장치
US10846878B2 (en) Multi-axis equal spacing smart guides
JP6213380B2 (ja) 表示装置、画像形成装置、表示制御プログラム及び画像形成プログラム
JP6152633B2 (ja) 表示制御装置及びプログラム
KR101730381B1 (ko) 문맥 정보에 기초하여 스크롤을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
JP2021043680A (ja) 情報処理装置及び情報処理プログラム
JP2001309160A (ja) オーバレイ表示制御装置
JP7553861B1 (ja) キャプチャプログラムおよび情報処理装置
JPWO2013175520A1 (ja) 文字描画装置
US9063654B2 (en) Terminal apparatus and method for supporting smart touch operation
KR20170055906A (ko) 정보처리 장치, 정보처리방법 및 기록매체
KR101388119B1 (ko) 정보 처리 장치, 정보 처리 장치의 제어 방법, 및 프로그램
WO2014132418A1 (ja) 表示処理装置、表示処理方法及びプログラム
JP2009181253A (ja) 文書処理装置及びプログラム
JP2016001365A (ja) 表示装置および表示方法
JP2015045691A (ja) マルチ画面表示装置および電子機器

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080057612.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10837621

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011546141

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13514797

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2010837621

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 6205/CHENP/2012

Country of ref document: IN