WO2021111793A1 - 信号処理装置、画像表示装置、および信号処理方法 - Google Patents

信号処理装置、画像表示装置、および信号処理方法 Download PDF

Info

Publication number
WO2021111793A1
WO2021111793A1 PCT/JP2020/041221 JP2020041221W WO2021111793A1 WO 2021111793 A1 WO2021111793 A1 WO 2021111793A1 JP 2020041221 W JP2020041221 W JP 2020041221W WO 2021111793 A1 WO2021111793 A1 WO 2021111793A1
Authority
WO
WIPO (PCT)
Prior art keywords
processing
unit
image signal
start timing
timing
Prior art date
Application number
PCT/JP2020/041221
Other languages
English (en)
French (fr)
Inventor
将嗣 林
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to JP2021562514A priority Critical patent/JPWO2021111793A1/ja
Priority to CN202080082612.3A priority patent/CN114747226A/zh
Publication of WO2021111793A1 publication Critical patent/WO2021111793A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • the present disclosure relates to a signal processing device, an image display device, and a signal processing method.
  • Image display devices such as television receivers perform controls such as frame control and image quality control in order to display high-quality images.
  • controls such as frame control and image quality control in order to display high-quality images.
  • a wide variety of functions such as connecting to the Internet have been added, and the number of signal paths that image display devices must support has become enormous.
  • software that realizes these controls and functions is becoming more and more important.
  • the processing related to the image output is set to start after a fixed time elapses from the start timing of the processing for the input image, and the length of the fixed time assumes the case where the processing for the input image is delayed most. Has been decided.
  • responsiveness of the image display device is also becoming important. For example, when a game image is displayed, responsiveness to an operation on the game is emphasized. In addition, responsiveness from the instruction to execute the function to the execution of the instruction is also emphasized. That is, the longer the fixed time is, the less responsive the image is, and the lower the evaluation of the image display device is.
  • the present disclosure provides a signal processing device and the like for achieving both high image quality and responsiveness.
  • the signal processing device on one aspect of the present disclosure includes a first processing unit, an image signal storage unit, a second processing unit, a detection unit, and a determination unit.
  • the first processing unit performs the first processing on the image signal.
  • the image signal storage unit stores the image signal for which the first processing has been performed.
  • the second processing unit carries out a second processing including at least a processing of reading an image signal stored from the image signal storage unit.
  • the detection unit detects the end of the first process.
  • the determination unit determines whether or not to advance the scheduled start timing of the second process, at least based on the end timing of the first process. Further, when it is decided to carry out the advance movement, the second processing unit starts the second processing before the scheduled start timing.
  • the signal processing device may be configured such that the second processing is started at the scheduled start timing of the processing.
  • a calculation unit for calculating the length of the difference time from the end timing of the first process to the scheduled start timing of the second process is further provided, and the determination unit executes the advance movement based on the length of the difference time.
  • the signal processing device may be configured to determine the pros and cons of the signal processing device.
  • the detection unit detects the end of the first process and the start of the second process and notifies the determination unit, and after the determination unit receives the notification of the end of the first process, the first 2.
  • the signal processing device may be configured such that when a predetermined time elapses before receiving the notification of the start of the second process, the execution of the scheduled start timing of the second process is decided ahead of schedule.
  • a calculation unit for calculating the length of time required from the start timing of the first process to the end timing of the first process is further provided, and the detection unit detects the start and end of the first process, and the above-mentioned
  • the signal processing device may be configured such that the calculation unit is notified and the determination unit determines whether or not to advance the scheduled start timing of the second process based on the required time.
  • the detection unit detects the start and end of the first process and notifies the determination unit, and before the predetermined time elapses after the determination unit receives the notification of the start of the first process.
  • the signal processing device may be configured such that, when the notification of the end of the first process is received, the execution of the scheduled start timing of the second process is decided ahead of schedule.
  • the signal processing apparatus is configured to further include a timing determining unit for determining the start timing of the second processing, such that the second processing unit starts the second processing at the determined start timing. May be good.
  • the timing determination unit determines the start timing of the second process between the timing at which a predetermined time has elapsed from the scheduled start timing of the first process and the scheduled start timing of the second process.
  • the signal processing device may be configured in the above.
  • An information detection unit that detects image signal information used when displaying an image based on the image signal from the image signal is further provided, and the determination unit further starts the schedule of the second process based on the image signal information.
  • the signal processing device may be configured to determine whether or not to advance the timing.
  • a user interface unit that generates or receives operation information related to an operation performed on the signal processing device is further provided, and the determination unit further advances the scheduled start timing of the second process based on the operation information.
  • the signal processing device may be configured to determine the pros and cons.
  • the timing determination unit determines the current cycle of the second processing.
  • the signal processing device may be configured such that the scheduled start timing of the above is the same as the scheduled start timing of the cycle preceding the second process.
  • a third process unit that performs a third process including at least a process of reading the image signal stored from the image signal storage unit is further provided, and the detection unit completes the second process.
  • the determination unit determines whether or not to advance the scheduled start timing of the third process based on at least the end timing of the second process, and the third process unit determines whether or not to advance the scheduled start timing of the third process.
  • the signal processing device may be configured such that when it is decided to carry out the timing ahead of schedule, the third process is started before the scheduled start timing of the third process.
  • the first processing unit that performs the first processing on the image signal
  • An image signal storage unit that stores the image signal for which the first processing has been performed
  • an image signal storage unit that stores the image signal for which the first processing has been performed
  • a second processing unit that performs a second processing including at least a processing for reading an image signal stored from the image signal storage unit, and a second processing unit.
  • a display unit that displays the image signal on which the second processing has been performed, and A detection unit that detects the end of the first process, A determination unit that determines whether or not to advance the scheduled start timing of the second process based on at least the end timing of the first process.
  • a step of detecting the end of the first process performed on the image signal, and At least based on the end timing of the first process, the scheduled start timing of the second process including at least the process of reading the stored image signal from the image signal storage unit that stores the image signal in which the first process is performed is advanced.
  • a step of determining whether or not to execute the process, and a step of starting the second process before the scheduled start timing when the implementation of the advance operation is decided.
  • the block diagram which shows the structural example of the image display apparatus which concerns on one Embodiment of this disclosure.
  • FIG. 1 is a block diagram showing a configuration example of an image display device according to an embodiment of the present disclosure.
  • the image display device 100 of FIG. 1 controls a UI (user interface) unit 110, an input processing unit (first processing unit) 120, an image signal storage unit 130, an output processing unit (second processing unit) 140, and the like.
  • a unit 150 and a synchronization signal generation unit 160 are provided.
  • the input processing unit 120 includes an image signal receiving unit 121, an information detecting unit 122, and a preprocessing unit 123.
  • the output processing unit 140 includes an image processing unit 141 and a display unit 142.
  • the control unit 150 includes a detection unit 151, a calculation unit 152, a determination unit 153, and a timing determination unit 154.
  • a first storage unit that stores information that the image display device 100 should permanently hold, such as selectable image quality settings
  • a second storage unit that temporarily stores information input to the image display device 100, and the like. It is possible to have it.
  • the image display device 100 is a device that performs image processing on the image represented by the input image signal and displays the image-processed image.
  • the image display device 100 is realized by a television receiver that receives broadcast waves from each broadcasting station and displays an image.
  • the image display device 100 is realized by a computer that receives an image signal from a communication network and displays an image, for example, a personal computer, a tablet, a smartphone, or the like.
  • the term "image” is a concept that includes both still images and moving images. Therefore, the "image” in the present disclosure may be replaced with a still image or a moving image if there is no particular problem. That is, the image displayed on the image display device 100 may be a moving image or a still image. The concept of "image” is also included in "image”. Further, the image displayed on the image display device 100 may be an image called a stereoscopic image, a 3D image, or the like, which can make the viewer feel three-dimensional.
  • the image display device 100 displays an image.
  • a series of processes of the image display device 100 of the present disclosure may be distributed to a plurality of devices.
  • a series of processing on an image signal is performed by a personal computer, but the image may be finally displayed on a display device such as a monitor.
  • the image display device 100 may be divided into a device for processing an image and a device for displaying an image.
  • the image display device 100 corresponds to a system including both a computer for processing an image and a monitor for displaying the image.
  • the image display device 100 and the device for processing the above-mentioned image can be said to be a signal processing device from the viewpoint of processing signals related to the image, and image processing from the viewpoint of performing processing such as processing on the image. It can be said to be a device.
  • the UI unit 110 is a user interface that generates information regarding operations performed on the image display device 100.
  • the generated information is output to the control unit 150.
  • the information is described as operation information.
  • the UI unit 110 is realized by, for example, operating members such as a keyboard, buttons, dials, and a touch panel. Operation information is generated by operating these operating members by the user of the image display device 100.
  • the UI unit 110 may not generate the operation information but only receive the operation information from the operation member.
  • a receiver that receives a wireless signal including operation information from an operation member separated from the image display device 100, such as a wireless keyboard and a remote controller, may also correspond to the UI unit 110.
  • a plurality of image quality settings are registered in advance in the image display device 100, and the user may select a desired image quality setting via the UI unit 110.
  • the desired image quality setting corresponds to the operation information.
  • which of the plurality of buttons included in the UI unit 110 is pressed corresponds to the operation information, and the desired image quality setting is determined by the control unit 150 based on the operation information and the display screen. May be good.
  • the input processing unit (first processing unit) 120 processes the input image signal and writes it in the image signal storage unit 130.
  • An example of the components included in the input processing unit 120 will be described below.
  • the image signal receiving unit 121 receives the image signal.
  • the image signal receiving unit 121 is realized by a tuner of a television receiver or the like.
  • the image signal receiving unit 121 may receive the image signal via either a wired line or a wireless line.
  • An image generation unit (not shown) exists in the image display device 100, and the image signal reception unit 121 may receive an image signal related to the image generated by the image generation unit. That is, the transmission source of the image signal may be inside the image display device 100 or outside the image display device 100.
  • the information detection unit 122 detects image information related to the image signal from the image signal received by the image signal reception unit 121. For example, information regarding a format such as 4K broadcasting or 8K broadcasting is included in the image signal, and the image display device 100 may change the image quality setting suitable for the format. Further, information on the optimum frame rate is included in the image signal, and the writing and reading of the image signal to the image signal storage unit 130 may be adjusted to the frame rate.
  • the information detected from the image signal is referred to as image signal information. As described above, the image signal information is assumed to be various kinds of information. In the present disclosure, image signal information is sent to the control unit 150, and the control unit 150 or a component instructed by the control unit 150 performs processing based on the image signal information. However, the image signal information may be sent directly from the information detection unit 122 to a component that performs processing based on the image signal information.
  • the pre-processing unit 123 processes the image signal and then writes the processed image signal to the image signal storage unit 130.
  • the processing performed by the pre-processing unit 123 is for carrying out the processing of the image processing unit 141, and is performed before the processing of the image processing unit 141. Therefore, the process is referred to as pretreatment.
  • the preprocessing unit 123 may receive the image signal directly from the image signal receiving unit 121, or may receive the image signal via the information detecting unit 122 or the like.
  • the processing such as writing the image signal by the input processing unit 120 needs to be completed before the processing such as reading the image signal by the output processing unit 140 starts in order to output the image without disturbance.
  • the process of the input processing unit 120 that needs to cooperate with the process related to the image output is defined as an input task (first process).
  • the input task is not always executed only by the input processing unit 120, and there are some that are executed by the control unit 150. It is assumed that there are a plurality of input tasks, but when there are a plurality of input tasks, the plurality of input tasks are collectively defined as an input task (first process). Each grouped input task is described as a part of the input task.
  • the tasks included in the input task differ depending on the situation. For example, when the image signal information reveals a change in the image format, a task related to the changed format is executed.
  • the time required for the input task also differs depending on the situation. For example, when the image quality setting for displaying an image with high image quality is set, the processing time of each task increases as compared with the case where the normal image quality setting is set.
  • the image signal storage unit 130 is a memory that holds (captures) an image signal that has been preprocessed by the preprocessing unit 123 in frame units.
  • the image signal storage unit 130 is generally represented by names such as a frame memory, a frame buffer, and a VRAM (Video Random Access Memory), but is not limited thereto.
  • the image signal held in the image signal storage unit 130 is read out by the output processing unit 140.
  • the output processing unit (second processing unit) 140 reads an image signal from the image signal storage unit 130, processes the read image signal, and then displays the image.
  • An example of the components included in the output processing unit 140 will be described below.
  • the image processing unit 141 reads out the image signal held in the image signal storage unit 130 and performs various processes on the image signal. Examples of the image processing performed by the image processing unit 141 include I / P (Interlace / Progressive) conversion, enlargement / reduction display processing, cropping processing, colorimetry processing, image quality control processing, and the like. Further, superimposition processing such as superimposing an OSD (On Screen Display) image on an image signal subjected to image processing, which is a kind of image processing, may be performed.
  • I / P Interlace / Progressive
  • enlargement / reduction display processing cropping processing
  • colorimetry processing colorimetry processing
  • image quality control processing image quality control processing
  • superimposition processing such as superimposing an OSD (On Screen Display) image on an image signal subjected to image processing, which is a kind of image processing, may be performed.
  • the display unit 142 displays an image corresponding to the image signal from the image processing unit 141.
  • the display unit 142 is realized by, for example, a display panel.
  • the input image is displayed at the timing when the image signal is input from the image processing unit 141 to the display unit 142, although there is a processing delay of the display unit 142.
  • Processing such as reading out an image signal by the output processing unit 140 needs to be started after processing such as writing an image signal by the input processing unit 120 is completed in order to output the image without disturbance.
  • the processing of the output processing unit 140 that needs to cooperate with the processing for the input image is defined as an output task (second processing).
  • the output task is not limited to being executed only by the output processing unit 140, and there are some that are executed by the control unit 150. If there are a plurality of output tasks, the plurality of output tasks are collectively defined as an output task (second process). Each grouped output task is described as a part of the output task. Further, in that case, the process of reading the image signal is included in at least the output task.
  • the output task is started at a timing based on a signal such as a vertical sync signal (V sync). That is, the start timing of the output task is specified by a signal such as a vertical synchronization signal (V sync).
  • V sync vertical sync signal
  • the start timing of the output task is separated from the scheduled start timing of the input task by a predetermined fixed time. In other words, the scheduled start timing of the output task is set at the timing when a fixed time has elapsed from the scheduled start timing of the input task.
  • the fixed time is referred to as a fixed delay.
  • the length of the fixed delay is appropriately determined in consideration of the specifications of the image display device 100, the content of the input task, and the like.
  • FIG. 2 is a diagram for explaining the start timings of the input task and the output task.
  • Blocks A, B, and C are tasks within the input task.
  • the input task is periodically executed every time a period corresponding to one frame elapses.
  • blocks D and E are each task in the output task.
  • the output task is also executed periodically like the input task. The period between the scheduled start timing of the input task and the scheduled start timing of the output task within the same cycle corresponds to the fixed delay.
  • each task in the input task and the output task is the same in the next cycle (next frame), but it is not always the same.
  • the tasks that are periodically performed are performed, so that the tasks may be the same as shown in FIG.
  • a temporary task related to the switching is performed, so that the task may be different.
  • the tasks in the input task differ depending on the situation, and the end timing of the input task is not always the same in each cycle. Therefore, the length of the fixed delay is sufficiently set so that the end timing of the input task does not come after the start timing of the output task. As a result, the image can be output without distortion. On the other hand, the responsiveness is reduced because the output task is not started until the fixed delay elapses.
  • the control unit 150 performs various controls on other components of the image display device 100. As one of the controls, the control unit 150 determines to advance the scheduled start timing of the output task. Advancement of the scheduled start timing of the output task means that the output task is executed before the scheduled start timing. By moving forward, the responsiveness of the image display device 100 is improved. The components for carrying out control related to advancement are described below.
  • the detection unit 151 monitors the input task and detects the end of the input task. If necessary, the start of the input task may be detected. Further, if necessary, the output task may also be monitored and the start or end of the output task may be detected.
  • Monitoring of the input task and the output task can be realized, for example, by using the function of the OS started on the computer when the image display device 100 is realized by the computer. Further, a general method may be used to detect the start or end of the task. For example, the detection may be based on a specific event when the task starts or ends, or may be based on the creation or disappearance of a process corresponding to the monitored task on the OS. ..
  • the process of detecting the end of the input task by the detection unit 151 also corresponds to the task in the input task. Therefore, the timing for detecting the end of the input task is actually performed before the end of the input task. For example, the task for detection is executed in parallel with other tasks or periodically, and the end of the task other than the detection task (the end of task C in FIG. 2) is detected. Then, after the detection is notified to the determination unit 153 or the like, the task for detection ends, so that the input task ends.
  • the calculation unit 152 calculates the length of the difference time from the detected end timing of the input task to the scheduled start timing of the output task.
  • the scheduled start timing of the output task the one detected by the detection unit 151 may be used. Alternatively, it may be obtained from a predetermined fixed delay length or the end timing of the input task.
  • calculation unit 152 may calculate the time from the scheduled start timing of the input task to the end timing of the detected input task, that is, the required time of the input task.
  • the determination unit 153 determines whether or not to advance the scheduled start timing of the output task. The determination is made at least based on the end timing of the input task.
  • the determination unit 153 may determine whether or not to carry out ahead of schedule based on the length of the difference time. For example, if the length of the difference time is equal to or greater than the threshold value, it may be decided to carry out the advancement. Alternatively, the determination unit 153 may make a determination based on the time required for the input task. If the required time of the input task is equal to or less than the threshold value, it may be decided to carry out the advancement, assuming that the difference time is sufficiently long. Since the length of the difference time and the required time are calculated based on the end timing of the input task, the judgment based on the length of the difference time or the required time can also be said to be the judgment based on the end timing of the input task.
  • the determination unit 153 may receive a notification of the end of the input task and a notification of the start of the output task from the detection unit 151. Then, if a predetermined time elapses after receiving the notification of the end of the input task and before receiving the notification of the start of the output task, it is determined that the difference time is sufficiently long and the advancement is performed. May be good. In that case, since the processing result of the calculation unit 152 is not used, the calculation unit 152 may be omitted.
  • the determination unit 153 may determine whether or not to carry out the advance advance based on at least one of the operation information from the UI unit 110 and the image signal information from the image signal reception unit 121. For example, when the determination unit 153 receives the setting change instruction from the operation information or the image signal information, it may determine that the time required for the input task increases with the setting change, and may determine that the advancement is not performed. Alternatively, a rule may be set in advance that the setting change A is not carried out ahead of schedule, but the setting change B may be carried out ahead of schedule. Further, when a plurality of tasks occur, predetermined values may be added to each of the plurality of tasks, and if the total value exceeds the threshold value, it may be determined not to be executed.
  • FIG. 3 is a diagram for explaining the advancement of the scheduled start timing of the output task.
  • the length of the difference time is the maximum length of time that can be advanced.
  • the timing determination unit 154 determines the start timing of the output task when it is determined that the advancement is to be performed.
  • the length of time related to the advancement may be appropriately changed. For example, a time shorter than the difference time by a predetermined margin may be determined as a time that can be advanced. That is, the time when a predetermined margin has elapsed from the expected end timing of the input task may be determined as the start timing of the output task.
  • the output task is advanced from the expected end timing of the input task to the time when a predetermined margin has elapsed.
  • the thick black line on the start timing of the output task represents the interrupt processing of the output.
  • the timing of the output interrupt is also advanced in the same manner as the output task. Therefore, it was mentioned above that the length from the start timing of the output task to the scheduled start timing of the output task should be shorter than the length of the difference time, but to be precise, from the start timing of the output task to the interrupt of the output task. It is preferable that the length of is shorter than the length of the difference time.
  • the advance may be carried out for a predetermined fixed time. Further, the timing determination unit 154 may adjust the length of time related to advancement based on at least one of the operation information and the image signal information.
  • the length of time related to advancement may be determined from the past achievements of advancement. For example, when the advance is carried out in the previous cycle, the advance time may be different for each cycle, such as making the advance time shorter than the previous time in the current cycle. Also, if the input task of the current cycle is the same input task as the previous cycle, or if the required time of the input task of the current cycle is the same as the required time of the input task of the previous cycle, the current cycle is advanced. The length may be the same as the length of the previous cycle ahead of schedule. The start timing of the output task is determined according to the advance time determined in this way.
  • FIG. 4 is a diagram showing an example of transition between the end timing of the input task and the start timing of the output task.
  • the horizontal axis shows the frame (cycle) number, and the vertical axis shows the elapsed time from the start timing of the input task.
  • the dotted graph shows the end timing of the input task.
  • the solid line graph shows the start timing of the output task.
  • the timing determination unit starts the current cycle of the output task when a predetermined condition is satisfied.
  • the scheduled timing may be the same as the scheduled start timing of the previous cycle of the output task.
  • the predetermined condition may be, for example, that the difference time of the current cycle or the processing time of the current cycle of the input task is equal to or less than the predetermined threshold value.
  • the difference between the difference time between the current cycle and the previous cycle, or the difference between the required time between the current cycle and the previous cycle of the input task may be equal to or less than a predetermined threshold value.
  • the synchronization signal generation unit 160 generates a signal indicating the start timing of the output task determined by the timing determination unit 154 and transmits it to the output processing unit 140.
  • the output processing unit 140 can recognize the start timing of the output task regardless of whether the advance is executed or not. That is, the output processing unit 140 can start the output task before the scheduled start timing of the output task when it is decided to execute the output task ahead of schedule. Further, the output processing unit 140 can start the output task at the scheduled start timing of the output task when it is determined not to carry out the advance.
  • FIG. 5 is a flowchart of an example of adjusting the start timing of the output task. Here, the case where the scheduled start timing is determined based on the difference time is shown.
  • the detection unit 151 detects the end of the input task (S101). After that, the detection unit 151 detects the start of the output task (S102). Upon receiving these detections, the calculation unit 152 calculates the difference time (S103).
  • control unit 150 receives the operation information from the UI unit 110 (S104) and the image signal information from the information detection unit 122 (S105). Then, the determination unit 153 determines whether or not to carry out the advance advance based on the difference time, the operation information, the image signal information, and the like (S106).
  • the timing determination unit 154 determines the task start timing to a timing earlier than the scheduled start timing (S108). When it is determined not to carry out the advance (NO in S107), the timing determination unit 154 determines the task start timing to the initial scheduled start timing (S109).
  • the synchronization signal generation unit 160 generates a synchronization signal indicating the determined task start timing (S110).
  • the synchronization signal is transmitted to the output processing unit 140, and the output processing unit 140 starts an output task based on the synchronization signal (S111). In this way, the start timing of the output task is adjusted.
  • this flowchart is an example, and it is not always necessary to carry out the advance processing according to this flow.
  • the process of S103 may be omitted.
  • the determination unit 153 does not use the operation information or the image signal information
  • the processing of S104 or S105 may be omitted.
  • the processing result of each processing may be sequentially stored in another storage unit different from the image signal storage unit 130, and each component may acquire the processing result via the storage unit. ..
  • FIG. 6 is a diagram illustrating the advancement of the scheduled start timing of the output task when there is further interrupt output.
  • the further interrupt output will be simply referred to as an interrupt output, and the output of FIG. 3 will be referred to as a normal output.
  • the interrupt output is performed before the normal output. Therefore, the timing at which the first fixed delay elapses from the scheduled start timing of the input task is defined as the scheduled start timing of the output task related to the output of the interrupt. Further, the timing at which the second fixed delay elapses from the scheduled start timing of the output task related to the output of the interrupt is defined as the scheduled start timing of the normal output task.
  • the output task related to interrupt output will be referred to as an interrupt output task.
  • interrupt output may be processed by the output processing unit 140.
  • the image display device 100 may include an interrupt output processing unit (third processing unit) that executes interrupt output in addition to the output processing unit 140.
  • the advancement of the interrupt output task is the same as when the interrupt output task is regarded as the normal output task in FIG.
  • the advancement of the normal output task is the same as when the interrupt output task is regarded as the input task. Therefore, when there is an interrupt output, the detection unit 151 of the control unit 150 also monitors the task of the output processing unit 140 or the interrupt output processing unit. It should be noted that the advancement of the interrupt output task and the advancement of the output task are performed independently, and it is not necessary to make the length of the advancement the same by all means.
  • a high-quality image can be output without disturbance and the responsiveness can be improved. ..
  • the image display device 100 of the present disclosure does not impose a load.
  • complicated processing such as monitoring an image signal on a line-by-line basis and detecting a line for which writing has not been completed is not required. Therefore, the image display device 100 of the present disclosure is excellent from the viewpoint of the load of the image display device 100.
  • the processing of the device according to the embodiment of the present disclosure can be realized by software (program) executed by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like. It should be noted that, instead of executing all the processes of the device by software, some processes may be executed by hardware such as a dedicated circuit.
  • processing procedure described in the above-described embodiment may be regarded as a method having a series of these procedures.
  • it may be regarded as a program for causing a computer to perform these series of procedures, or as a recording medium for storing the program.
  • the type of recording medium is not particularly limited as it does not affect the embodiments of the present disclosure.
  • the present disclosure may also have the following structure.
  • the first processing unit that performs the first processing on the image signal, An image signal storage unit that stores the image signal for which the first processing has been performed, and an image signal storage unit.
  • a second processing unit that performs a second processing including at least a processing for reading an image signal stored from the image signal storage unit, and a second processing unit.
  • a detection unit that detects the end of the first process,
  • a determination unit that determines whether or not to advance the scheduled start timing of the second process based on at least the end timing of the first process. With A signal processing device in which the second processing unit starts the second processing before the scheduled start timing when the execution of the advance is decided.
  • the scheduled start timing of the second process is separated from the scheduled start timing of the first process by a predetermined fixed time.
  • the signal processing apparatus according to the above [1], wherein the second processing unit starts the second processing at a scheduled start timing of the second processing when it is determined not to carry out the advancement.
  • a calculation unit for calculating the length of the difference time from the end timing of the first process to the scheduled start timing of the second process is further provided.
  • the signal processing device according to the above [1] or [2], wherein the determination unit determines whether or not to carry out the advance movement based on the length of the difference time.
  • the detection unit detects the end of the first process and the start of the second process, and notifies the calculation unit.
  • the signal processing device according to the above [3], wherein the calculation unit calculates the length of the difference time based on a notification from the detection unit.
  • the detection unit detects the end of the first process and notifies the determination unit.
  • the determination unit calculates the length of the difference time based on the detected end timing of the first process and the scheduled start timing of the second process given in advance.
  • the detection unit detects the end of the first process and the start of the second process, and notifies the determination unit. When a predetermined time has elapsed from the time when the determination unit receives the notification of the end of the first process or the time when the notification of the start of the second process is received from the end timing of the first process.
  • the signal processing apparatus which determines the execution of the scheduled start timing of the second processing ahead of schedule.
  • a calculation unit for calculating the length of time required from the start timing of the first process to the end timing of the first process is further provided.
  • the detection unit detects the start and end of the first process and notifies the calculation unit.
  • the signal processing device according to the above [1] or [2], wherein the determination unit determines whether or not to advance the scheduled start timing of the second process based on the required time.
  • the detection unit detects the start and end of the first process and notifies the determination unit.
  • the scheduled start timing of the second process is advanced.
  • the signal processing apparatus according to the above [1] or [2].
  • a timing determination unit for determining the start timing of the second process is further provided.
  • the signal processing apparatus according to any one of [1] to [8] above, wherein the second processing unit starts the second processing at a determined start timing.
  • the timing determination unit determines the start timing of the second process between the timing at which a predetermined time has elapsed from the scheduled start timing of the first process and the scheduled start timing of the second process [9]. ]
  • the signal processing apparatus according to.
  • the signal processing apparatus according to any one of [9] and [10] above, wherein the second processing unit starts a task related to the second processing or the second processing unit based on the synchronization signal.
  • An information detection unit for detecting image signal information used when displaying an image based on the image signal from the image signal is further provided.
  • the signal processing device according to any one of [1] to [11] above, wherein the determination unit determines whether or not to advance the scheduled start timing of the second process based on the image signal information.
  • a user interface unit for generating or receiving operation information regarding the operation performed on the signal processing device is provided.
  • the signal processing device according to any one of [1] to [12] above, wherein the determination unit determines whether or not to advance the scheduled start timing of the second process based on the operation information.
  • the timing determination unit determines the current cycle of the second processing.
  • the signal processing apparatus according to any one of [1] to [13] above, wherein the scheduled start timing of the second process is the same as the scheduled start timing of the previous cycle of the second process.
  • a third processing unit that performs a third processing including at least a processing for reading the image signal stored from the image signal storage unit is further provided.
  • the detection unit detects the end of the second process and The determination unit determines whether or not to advance the scheduled start timing of the third process, at least based on the end timing of the second process.
  • the third processing unit decides to advance the scheduled start timing of the third processing, the third processing starts the third processing before the scheduled start timing of the third processing [1] to The signal processing apparatus according to any one of [14].
  • the first processing unit that performs the first processing on the image signal
  • An image signal storage unit that stores the image signal for which the first processing has been performed, and an image signal storage unit.
  • a second processing unit that performs a second processing including at least a processing for reading an image signal stored from the image signal storage unit, and a second processing unit.
  • a display unit that displays the image signal on which the second processing has been performed, and A detection unit that detects the end of the first process, A determination unit that determines whether or not to advance the scheduled start timing of the second process based on at least the end timing of the first process.
  • a step of detecting the end of the first process performed on the image signal, and At least based on the end timing of the first process, the scheduled start timing of the second process including at least the process of reading the stored image signal from the image signal storage unit that stores the image signal in which the first process is performed is advanced.
  • a signal processing method comprising.
  • Image display device 110 UI unit 120 Input processing unit (first processing unit) 121 Image signal receiving unit 122 Information detection unit 123 Preprocessing unit 130 Image signal storage unit 140 Output processing unit (second processing unit) 141 Image processing unit 142 Display unit 150 Control unit 151 Detection unit 152 Calculation unit 153 Judgment unit 154 Timing determination unit 160 Synchronous signal generation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本開示の一側面の信号処理装置は、第1処理部と、画像信号記憶部と、第2処理部と、検知部と、判定部と、を備える。前記第1処理部は、画像信号に対して第1処理を実施する。前記画像信号記憶部は、前記第1処理が実施された画像信号を記憶する。前記第2処理部は、前記画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第2処理を実施する。前記検知部は、前記第1処理の終了を検知する。前記判定部は、少なくとも前記第1処理の終了タイミングに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する。また第2処理部は、前記前倒しの実施が決定された場合に、前記予定開始タイミングよりも前に前記第2処理を開始する。

Description

信号処理装置、画像表示装置、および信号処理方法
 本開示は、信号処理装置、画像表示装置、および信号処理方法に関する。
 テレビジョン受像機などの画像表示装置では、高画質な画像を表示するために、フレーム制御、画質制御といった制御が行われている。近年では、画像に対する制御に加え、インターネットへの接続などといった多種多様な機能が追加され、画像表示装置が対応すべき信号パスも膨大になっている。このように、画像表示装置の処理が多様化かつ複雑化しているため、これらの制御および機能を実現するソフトウェアがますます重要となっている。
 画像を乱れなく出力するためには、入力画像に対する処理が確実に完了してから画像出力に関する処理を実施する必要がある。そのため、画像出力に関する処理は、入力画像に対する処理の開始タイミングから固定時間経過後に開始されるように設定されており、当該固定時間の長さは、入力画像に対する処理が最も遅れた場合を想定して決定されている。
特開2008-252585号公報
 近年、ソフトウェアにより実施される処理が多様化かつ複雑化したため、入力画像に対する処理の時間が長くなり、固定時間の長さもより長くなる傾向にある。
 しかし、画像表示装置の応答性も重要となってきている。例えば、ゲーム画像が表示される場合では、ゲームに対する操作に対する応答性が重視される。また、機能の実施が指示されてから、当該指示が実施されるまでの応答性も重視される。すなわち、固定時間の長さが長い程、応答性が失われ、画像表示装置に対する評価が下がることになる。
 本開示は、高画質と応答性を両立するための信号処理装置などを提供する。
 本開示の一側面の信号処理装置は、第1処理部と、画像信号記憶部と、第2処理部と、検知部と、判定部と、を備える。前記第1処理部は、画像信号に対して第1処理を実施する。前記画像信号記憶部は、前記第1処理が実施された画像信号を記憶する。前記第2処理部は、前記画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第2処理を実施する。前記検知部は、前記第1処理の終了を検知する。前記判定部は、少なくとも前記第1処理の終了タイミングに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する。また第2処理部は、前記前倒しの実施が決定された場合に、前記予定開始タイミングよりも前に前記第2処理を開始する。
 前記第2処理の予定開始タイミングは、前記第1処理の予定開始タイミングから所定の固定時間ほど離れており、前記第2処理部が、前記前倒しを実施しないと決定された場合に、前記第2処理の予定開始タイミングに前記第2処理を開始する、といったように前記信号処理装置が構成されていてもよい。
 前記第1処理の終了タイミングから前記第2処理の予定開始タイミングまでの差分時間の長さを算出する算出部をさらに備え、前記判定部が、前記差分時間の長さに基づき、前記前倒しの実施の是非を判定する、といったように前記信号処理装置が構成されていてもよい。
 前記検知部が、前記第1処理の終了および前記第2処理の開始を検知して、前記判定部に通知し、前記判定部が、前記第1処理の終了の通知を受信してから前記第2処理の開始の通知を受信するまでに所定時間が経過した場合に、前記第2処理の予定開始タイミングの前倒しの実施を決定する、といったように前記信号処理装置が構成されていてもよい。
 前記第1処理の開始タイミングから前記第1処理の終了タイミングまでの所要時間の長さを算出する算出部をさらに備え、前記検知部が、前記第1処理の開始および終了を検知して、前記算出部に通知し、前記判定部が、前記所要時間に基づいて、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する、といったように前記信号処理装置が構成されていてもよい。
 前記検知部が、前記第1処理の開始および終了を検知して、前記判定部に通知し、前記判定部が、前記第1処理の開始の通知を受信してから所定時間が経過する前に、前記第1処理の終了の通知を受信した場合に、前記第2処理の予定開始タイミングの前倒しの実施を決定する、といったように前記信号処理装置が構成されていてもよい。
 前記第2処理の開始タイミングを決定するタイミング決定部をさらに備え、前記第2処理部が、決定された開始タイミングに前記第2処理を開始する、といったように前記信号処理装置が構成されていてもよい。
 前記タイミング決定部が、前記第1処理の予定開始タイミングから所定時間が経過したタイミングと、前記第2処理の予定開始タイミングと、の間に、前記第2処理の開始タイミングを決定する、といったように前記信号処理装置が構成されていてもよい。
 前記画像信号に基づく画像を表示する際に用いられる画像信号情報を前記画像信号から検出する情報検出部をさらに備え、前記判定部が、前記画像信号情報にさらに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する、といったように前記信号処理装置が構成されていてもよい。
 前記信号処理装置に対して行われた操作に関する操作情報を生成または受信するユーザインターフェイス部をさらに備え、前記判定部が、前記操作情報にさらに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する、といったように前記信号処理装置が構成されていてもよい。
 前記タイミング決定部は、前記第1処理の今周期の処理時間が、前記第1処理の前周期の処理時間よりも伸びた場合において、所定の条件を満たすときは、前記第2処理の今周期の開始予定タイミングを、前記第2処理の前周期の開始予定タイミングと同じする、といったように前記信号処理装置が構成されていてもよい。
 前記第2処理の後に、前記画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第3処理を実施する第3処理部をさらに備え、前記検知部が、前記第2処理の終了を検知し、前記判定部が、少なくとも前記第2処理の終了タイミングに基づき、前記第3処理の予定開始タイミングの前倒しの実施是非を判定し、前記第3処理部が、前記第3処理の予定開始タイミングの前倒しの実施が決定された場合に、前記第3処理の予定開始タイミングよりも前に前記第3処理を開始する、といったように前記信号処理装置が構成されていてもよい。
 本開示の他の一態様では、
 画像信号に対して第1処理を実施する第1処理部と、
 前記第1処理が実施された画像信号を記憶する画像信号記憶部と、
 前記画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第2処理を実施する第2処理部と、
 前記第2処理が実施された画像信号を表示する表示部と、 
 前記第1処理の終了を検知する検知部と、
 少なくとも前記第1処理の終了タイミングに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する判定部と、
 を備え、
 前記第2処理部が、前記前倒しの実施が決定された場合に、前記予定開始タイミングよりも前に前記第2処理を開始する
 画像表示装置が提供される。
 本開示の他の一態様では、
 画像信号に対して実施される第1処理の終了を検知するステップと、
 少なくとも前記第1処理の終了タイミングに基づき、前記第1処理が実施された画像信号を記憶する画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第2処理の予定開始タイミングの前倒しの実施是非を判定するステップと
 前記前倒しの実施が決定された場合に、前記予定開始タイミングよりも前に前記第2処理を開始するステップと、
 を備える信号処理方法が提供される。
本開示の一実施形態に係る画像表示装置の構成例を示すブロック図。 入力タスクおよび出力タスクの開始タイミングについて説明する図。 出力タスクの予定開始タイミングの前倒しについて説明する図。 入力タスクの終了タイミングと、出力タスクの開始タイミングと、の推移の一例を示す図。 出力タスクの開始タイミングの調整の一例のフローチャート。 さらに割り込みの出力がある場合の出力タスクの予定開始タイミングの前倒しを説明する図。
 以下、図面を参照して、本開示の実施形態について説明する。
 図1は、本開示の一実施形態に係る画像表示装置の構成例を示すブロック図である。図1の画像表示装置100は、UI(ユーザインターフェイス)部110と、入力処理部(第1処理部)120と、画像信号記憶部130と、出力処理部(第2処理部)140と、制御部150と、同期信号生成部160と、を備える。入力処理部120は、画像信号受信部121と、情報検出部122と、前処理部123と、を備える。出力処理部140は、画像処理部141と、表示部142と、を備える。制御部150は、検知部151と、算出部152と、判定部153と、タイミング決定部154と、を備える。
 なお、本開示の実施形態には、図示または説明されていない構成要素または機能が存在し得る。以下の説明は、図示または説明されていない構成要素または機能を除外するものではない。例えば、選択可能な画質設定など、画像表示装置100が永続的に保持すべき情報を記憶する第1記憶部、画像表示装置100に入力された情報を一時的に記憶する第2記憶部などを備えていることが考えられる。
 画像表示装置100は、入力された画像信号が表す画像に対して画像処理を実施し、画像処理された画像を表示する装置である。例えば、画像表示装置100は、各放送局からの放送波を受信して画像を表示するテレビジョン受像機により実現される。また、例えば、画像表示装置100は、通信ネットワークから画像信号を受信して画像を表示するコンピュータ、例えば、パーソナルコンピュータ、タブレット、スマートフォンなど、により実現される。
 なお、本開示において、「画像」という用語は、静止画および動画の両方を包括する概念である。ゆえに、本開示中の「画像」は、特に問題がなければ、静止画または動画に置き換えられてもよい。つまり、画像表示装置100に表示される画像は、動画でも静止画でもよい。また、「映像」という概念も「画像」に含まれる。また、画像表示装置100に表示される画像は、立体視画像、3D画像などと称される、閲覧者に立体的と感じさせることが可能な画像でもよい。
 なお、本開示では、一般的な態様として、画像表示装置100が画像を表示することを想定している。しかし、本開示の画像表示装置100の一連の処理が、複数の装置に分散されて行われてもよい。例えば、画像信号に対する一連の処理がパーソナルコンピュータで行われるが、最終的に、モニタなどの表示装置に画像が表示される場合もあり得る。このように、画像表示装置100が、画像を処理する装置と、画像を表示する装置と、に分けられていてもよい。このような場合、画像表示装置100は、画像を処理するコンピュータと、画像を表示するモニタと、の両方を含むシステムに該当する。
 また、画像表示装置100および前述の画像を処理する装置は、画像に関する信号を処理するという観点からすれば信号処理装置と言え、画像に対し加工などの処理を実施するという観点からすれば画像処理装置と言える。
 UI部110は、画像表示装置100に対して行われた操作に関する情報を生成するユーザインターフェイスである。生成された情報は、制御部150に出力される。当該情報を操作情報と記載する。
 UI部110は、例えば、キーボード、ボタン、ダイヤル、タッチパネルなどの操作部材により実現される。これらの操作部材が画像表示装置100のユーザにより操作されることにより、操作情報が生成される。
 あるいは、UI部110は、操作情報を生成せず、操作部材から操作情報を受信するだけでもよい。例えば、ワイヤレスキーボード、リモートコントローラなど、画像表示装置100から分離している操作部材から、操作情報を含む無線信号を受信する受信器も、UI部110に該当し得る。
 例えば、複数の画質設定が画像表示装置100に予め登録されおり、ユーザは、UI部110を介して、所望の画質設定を選択することが有り得る。この場合、所望の画質設定が操作情報に該当する。あるいは、UI部110が備える複数のボタンのうちのいずれのボタンが押下されたかが操作情報に該当し、所望の画質設定は、操作情報と、表示画面と、に基づいて制御部150により判断されてもよい。
 入力処理部(第1処理部)120は、入力された画像信号に対して処理を実施し、画像信号記憶部130に書き込む。以下に、入力処理部120に含まれる構成要素の一例を記載する。
 画像信号受信部121は、画像信号を受信する。例えば、画像信号受信部121は、テレビ受像機のチューナなどにより実現される。なお、画像信号受信部121は、有線回線および無線回線のいずれを介して画像信号を受信してもよい。なお、画像表示装置100内に図示されていない画像生成部が存在し、画像信号受信部121は、当該画像生成部により生成された画像に関する画像信号を受信してもよい。すなわち、画像信号の送信源は、画像表示装置100の内部にあってもよいし、画像表示装置100の外部にあってもよい。
 情報検出部122は、画像信号受信部121により受信された画像信号から、当該画像信号に関する画像の情報を検出する。例えば、4K放送、8K放送といったフォーマットに関する情報が画像信号に含まれており、画像表示装置100が当該フォーマットに適した画質設定に変更することが有り得る。また、最適なフレームレートに関する情報が画像信号に含まれており、画像信号記憶部130に対する画像信号の書き込みおよび読み出しを、当該フレームレートに合わせることが有り得る。画像信号から検出された情報を画像信号情報と記載する。このように、画像信号情報は、様々な情報であることが想定される。本開示では、画像信号情報が制御部150に送られ、制御部150、または、制御部150により指示された構成要素が、画像信号情報に基づく処理を実施するものとする。但し、情報検出部122から直接画像信号情報に基づく処理を実施する構成要素に画像信号情報が送られてもよい。
 前処理部123は、画像信号に対して処理を行った上で、処理が行われた画像信号を画像信号記憶部130に書き込む。前処理部123により行われる処理は、画像処理部141の処理を実施するためのものであり、画像処理部141の処理の前に行われる。ゆえに、当該処理を前処理と記載する。なお、前処理部123は、画像信号を、画像信号受信部121から直に受け取ってもよいし、情報検出部122などを介して受け取ってもよい。
 入力処理部120による画像信号の書き込みなどの処理は、画像を乱れなく出力するために、出力処理部140による画像信号の読み出しなどの処理が開始する前に完了する必要がある。このように、画像出力に関する処理と連携を取る必要がある入力処理部120の処理を、入力タスク(第1処理)と規定する。なお、入力タスクは、入力処理部120だけが実施するとは限らず、制御部150が実施するものも存在する。なお、入力タスクは複数あることが想定されるが、複数の入力タスクがある場合は、複数の入力タスクをまとめてその全体を入力タスク(第1処理)と規定する。まとめられた各入力タスクは、入力タスク内の一部のタスクとして説明する。
 入力タスクに含まれるタスクは状況に応じて異なる。例えば、画像信号情報により画像のフォーマットの変更が判明した場合、変更後のフォーマットに係るタスクが実施される。また、入力タスクの所要時間も状況に応じて異なる。例えば、画像を高画質に表示する画質設定が設定されている場合、通常の画質設定が設定されている場合に比べて、各タスクの処理時間が増加する。
 画像信号記憶部130は、前処理部123による前処理が施された画像信号をフレーム単位で保持する(キャプチャする)メモリである。画像信号記憶部130は、一般には、フレームメモリ、フレームバッファ、VRAM(Video Random Acess Memory)といった名称で表されるが、これらに限られるわけではない。画像信号記憶部130に保持された画像信号は、出力処理部140により読み出される。
 出力処理部(第2処理部)140は、画像信号記憶部130から画像信号を読み出し、読み出された画像信号に対して処理を行った上で当該画像を表示する。以下に、出力処理部140に含まれる構成要素の一例を記載する。
 画像処理部141は、画像信号記憶部130に保持された画像信号を読み出し、当該画像信号に対して各種の処理を実施する。画像処理部141により実施される画像処理としては、例えば、I/P(Interlace/Progressive)変換、拡大縮小表示処理、切り出し処理、カラリメトリ処理、画質制御処理などが挙げられる。また、画像処理の一種である、画像処理が施された画像信号にOSD(On Screen Display)画像を重畳させるといった重畳処理も行われてもよい。
 表示部142は、画像処理部141からの画像信号に対応する画像を表示する。表示部142は、例えば、表示パネルにより実現される。入力された画像は、表示部142の処理遅延はあるものの、画像信号が画像処理部141から表示部142に入力されたタイミングで、表示される。
 出力処理部140による画像信号の読み出しなどの処理は、画像を乱れなく出力するために、入力処理部120による画像信号の書き込みなどの処理が完了してから開始する必要がある。このように、入力画像に対する処理と連携を取る必要がある出力処理部140の処理を、出力タスク(第2処理)と規定する。なお、出力タスクも、出力処理部140だけが実施するとは限らず、制御部150が実施するものも存在する。なお、複数の出力タスクがある場合は、複数の出力タスクをまとめてその全体を出力タスク(第2処理)と規定する。まとめられた各出力タスクは、出力タスク内の一部のタスクとして説明する。また、その場合、画像信号を読み出す処理は、少なくとも出力タスクに含まれる。
 出力タスクは、垂直同期信号(Vsync)などの信号に基づくタイミングで開始される。つまり、出力タスクの開始タイミングは、垂直同期信号(Vsync)などの信号により指定される。出力タスクの開始タイミングは、入力タスクの予定開始タイミングから所定の固定時間ほど離れている。言い換えると、入力タスクの予定開始タイミングから固定時間経過したタイミングに、出力タスクの予定開始タイミングが設定される。当該固定時間を固定遅延と記載する。固定遅延の長さは、画像表示装置100のスペック、入力タスクの内容などを考慮して、適宜に定められる。
 図2は、入力タスクおよび出力タスクの開始タイミングについて説明する図である。ブロックA、B、およびCは、入力タスク内の各タスクである。図2に示すように、入力タスクは、1フレームに相当する期間が経過する度に、周期的に実施される。また、ブロックDおよびEは、出力タスク内の各タスクである。出力タスクも、入力タスクと同様、周期的に実施される。同一周期内の、入力タスクの予定開始タイミングと出力タスクの予定開始タイミングとの間の期間が固定遅延に該当する。
 なお、図2では、入力タスクおよび出力タスク内の各タスクは、次の周期(次のフレーム)においても同じであるが、必ず同じであるわけではない。例えば、画質設定の切り替えなどが暫くない安定状態の場合には、定期的に実施されるタスクだけが行われるため、図2のように同じタスクの場合もあり得る。例えば、画質設定の切り替え直後などでは、切り替えに関する一時的なタスクが行われるため、異なるタスクの場合もある。
 入力タスク内のタスクは状況に応じて異なり、入力タスクの終了タイミングも各周期で同じとは限らない。そのため、入力タスクの終了タイミングが出力タスクの開始タイミングよりも後にならないように、固定遅延の長さが十分に取られている。これにより、画像を乱れなく出力することができる。その一方で、固定遅延が経過するまで出力タスクが開始されないため、応答性は低下する。
 制御部150は、画像表示装置100の他の構成要素に対する各種制御を実施する。当該制御の一つとして、制御部150は、出力タスクの予定開始タイミングの前倒しを決定する。出力タスクの予定開始タイミングの前倒しは、出力タスクが、その予定開始タイミングよりも前に、実施されることを意味する。前倒しにより、画像表示装置100の応答性が向上する。以下に、前倒しに関する制御を実施するための構成要素について記載する。
 検知部151は、入力タスクを監視し、入力タスクの終了を検知する。なお、必要に応じて、入力タスクの開始を検知してもよい。また、必要に応じて、出力タスクも監視対象とし、出力タスクの開始または終了を検知してもよい。
 入力タスクおよび出力タスクの監視は、例えば、画像表示装置100がコンピュータにより実現される場合、コンピュータ上で起動するOSの機能を用いることにより実現できる。また、タスクの開始または終了の検知は、一般的な手法を用いればよい。例えば、当該検知が、タスクが開始または終了する際の特定のイベントに基づいて行われてもよいし、OS上の監視対象のタスクに対応するプロセスの生成または消滅に基づいて行われてもよい。
 なお、検知部151が入力タスクの終了を検知する処理も、入力タスク内のタスクに該当する。そのため、入力タスクの終了を検知するタイミングは、実際には、入力タスクの終了よりも前に行われる。例えば、検知のためのタスクが、他のタスクと並行して、または、定期的に実施され、検知のタスク以外のタスクの終了(図2ではタスクCの終了)が検知される。そして、検知が判定部153などに通知されてから、検知のためのタスクが終了することにより、入力タスクが終了する。
 算出部152は、検知された入力タスクの終了タイミングから出力タスクの予定開始タイミングまでの差分時間の長さを算出する。出力タスクの予定開始タイミングは、検知部151により検知されたものを用いてもよい。あるいは、予め定められている、固定遅延の長さまたは入力タスクの終了タイミングから、求められてもよい。
 また、算出部152は、入力タスクの予定開始タイミングから検知された入力タスクの終了タイミングまでの時間、つまり、入力タスクの所要時間を算出してもよい。
 判定部153は、出力タスクの予定開始タイミングの前倒しの実施是非を判定する。当該判定は、少なくとも、入力タスクの終了タイミングに基づいて行われる。
 例えば、判定部153は、差分時間の長さに基づき、前倒しの実施是非を判定してもよい。例えば、差分時間の長さが閾値以上であれば、前倒しを実施すると決定してもよい。あるいは、判定部153は、入力タスクの所要時間に基づいて判定してもよい。入力タスクの所要時間が閾値以下であれば、差分時間の長さが十分にあるとして、前倒しを実施すると決定してもよい。差分時間の長さおよび所要時間は、入力タスクの終了タイミングに基づいて算出されるため、差分時間の長さまたは所要時間に基づく判定も、入力タスクの終了タイミングに基づく判定と言える。
 また、判定部153は、検知部151から、入力タスクの終了の通知と、出力タスクの開始の通知と、を受け取ってもよい。そして、入力タスクの終了の通知を受け取ってから、出力タスクの開始の通知を受け取る前に、所定時間が経過した場合は、差分時間の長さが十分にあるとして、前倒しを実施すると決定してもよい。その場合、算出部152の処理結果を用いないため、算出部152は省略されてもよい。
 また、判定部153は、UI部110からの操作情報、および、画像信号受信部121からの画像信号情報、の少なくともいずれかにさらに基づいて、前倒しの実施是非を判定してもよい。例えば、判定部153は、操作情報または画像信号情報から設定変更の指示を受け取った場合に、設定変更に伴い入力タスクの所要時間が増加すると判断し、前倒しを行わないと判定してもよい。あるいは、設定変更Aが行われる場合は前倒しを実施しないが、設定変更Bが行われる場合は前倒しを実施してもよい、とするルールが予め定められていてもよい。また、複数のタスクが発生する場合、複数のタスクそれぞれに予め定められた値を足し合わせ、値の総和が閾値を超える場合は、実施しないと判定してもよい。
 図3は、出力タスクの予定開始タイミングの前倒しについて説明する図である。検知部151が入力タスクの終了を検知することにより、差分時間の長さが判明する。差分時間の長さは、前倒しが可能な時間の最大長となる。但し、入力タスクに予期しないタスクが発生し、入力タスクの終了が予想よりも遅れることも考えられる。そのため、実際には、マージンを設け、前倒しに係る時間の長さ、つまり出力タスクの開始タイミングから出力タスクの予定開始タイミングまでの長さを、差分時間の長さよりも短くするほうが好ましい。
 タイミング決定部154は、前倒しを実施すると判定された場合に、出力タスクの開始タイミングを決定する。前倒しを実施すると判定された場合に、前倒しに係る時間の長さは、適宜に変えてよい。例えば、差分時間よりも所定のマージンだけ短い時間を前倒し可能な時間と決定してもよい。すなわち、入力タスクの予想終了タイミングから所定のマージンが経過した時点を、出力タスクの開始タイミングとして決定してもよい。図3では、入力タスクの予想終了タイミングから所定のマージンを経過した時点まで、出力タスクが前倒しされている。なお、出力タスクの開始タイミング上にある黒い太線は、出力の割り込み処理を表す。出力の割り込みのタイミングで出力タスクが登録されて実施されるため、出力の割り込みのタイミングも出力タスクと同様に前倒しされる。そのため、出力タスクの開始タイミングから出力タスクの予定開始タイミングまでの長さを、差分時間の長さよりも短くするほうが好ましいと上述したが、正確には、出力タスクの開始タイミングから出力タスクの割り込みまでの長さを、差分時間の長さよりも短くするほうが好ましい。あるいは、所定の固定時間だけ前倒しを実施するとしてもよい。また、タイミング決定部154は、操作情報および画像信号情報の少なくともいずれかに基づいて、前倒しに係る時間の長さを調整してもよい。
 あるいは、過去の前倒しの実績から、前倒しに係る時間の長さを決定してもよい。例えば、前周期において前倒しを実施した場合は、今周期では、前倒しの時間を前回よりも短くするなど、前倒しの時間が周期ごとに異なっていてもよい。また、今周期の入力タスクが前周期と同じ入力タスクであった場合、今周期の入力タスクの所要時間が前周期の入力タスクの所要時間と同じであった場合などでは、今周期の前倒しの長さを、前周期の前倒しの長さと同じにするとしてもよい。このようにして決定された前倒しの時間に応じて、出力タスクの開始タイミングが決定される。
 図4は、入力タスクの終了タイミングと、出力タスクの開始タイミングと、の推移の一例を示す図である。横軸はフレーム(周期)の番号を示し、縦軸が入力タスクの開始タイミングからの経過時間を示す。点線のグラフが入力タスクの終了タイミングを示す。実線のグラフが出力タスクの開始タイミングを示す。
 図4の原点において様々な処理が開始されており、入力タスクの終了タイミングは当初遅いが、徐々にタスクが減少していくため、入力タスクの終了タイミングは早まる。言い換えると、入力タスクの終了タイミングのグラフは、当初大きいが徐々に小さくなる。また、出力タスクの開始タイミングも、前倒しによって徐々に早くなる。そして、図4の安定期間では、出力タスクは、入力タスクの終了タイミングから所定のマージンαだけ遅れて開始されている。なお、ここでは、設定変更があるレジスタしか制御しないようにし、不要なタスクは生成されないようにしている。
 なお、入力タイミングの終了タイミングが前周期より遅れても、突発的である、または、マージンに比べて十分に小さい、といった場合では、前倒しの長さを前周期と同じままにしてもよい。例えば、図4に示す安定期間において、入力タスクの終了タイミングが一瞬上昇したフレームがあるが、対応する出力タスクの開始タイミングは、前フレームと同じままである。このように、タイミング決定部は、入力タスクの今周期の所要時間が、入力タスクの前周期の所要時間よりも伸びた場合においても、所定の条件を満たすときは、出力タスクの今周期の開始予定タイミングを、出力タスクの前周期の開始予定タイミングと同じにしてもよい。所定の条件は、例えば、今周期の差分時間、または、入力タスクの今周期の処理時間が所定閾値以下であるというものでもよい。あるいは、今周期と前周期の差分時間の差分、または、入力タスクの今周期と前周期との所要時間の差分が所定閾値以下であるというものでもよい。
 同期信号生成部160は、タイミング決定部154により決定された出力タスクの開始タイミングを示す信号を生成し、出力処理部140に送信する。これにより、前倒しを実施する場合でも実施しない場合でも、出力処理部140は出力タスクの開始タイミングを認識することができる。すなわち、出力処理部140は、前倒しの実施が決定された場合に、出力タスクの予定開始タイミングよりも前に出力タスクを開始することができる。また、出力処理部140は、前倒しを実施しないと決定された場合に、出力タスクの予定開始タイミングに出力タスクを開始することができる。
 次に、各構成要素による処理の流れについて説明する。図5は、出力タスクの開始タイミングの調整の一例のフローチャートである。ここでは、差分時間に基づいて予定開始タイミングを決定する場合が示されている。
 検知部151が入力タスクの終了を検知する(S101)。その後、検知部151が出力タスクの開始を検知する(S102)。これらの検知を受けて、算出部152が差分時間を算出する(S103)。
 一方、制御部150は、UI部110から操作情報を受信し(S104)、情報検出部122から画像信号情報を受信する(S105)。そして、判定部153が、差分時間、操作情報、画像信号情報などに基づいて、前倒しの実施是非を判定する(S106)。
 前倒しを実施すると判定された場合(S107のYES)は、タイミング決定部154が、タスク開始タイミングを予定開始タイミングよりも前のタイミングに決定する(S108)。前倒しを実施しないと判定された場合(S107のNO)は、タイミング決定部154は、タスク開始タイミングを当初の予定開始タイミングに決定する(S109)。
 同期信号生成部160は、決定されたタスク開始タイミングを示す同期信号を生成する(S110)。同期信号は出力処理部140に送信され、出力処理部140が同期信号に基づいて出力タスクを開始する(S111)。このようにして、出力タスクの開始タイミングが調整される。
 なお、このフローチャートは一例であり、前倒しの処理が本フローの通りに必ず行われる必要はない。例えば、差分時間に基づかずに前倒しを決定する場合では、S103の処理は省略されてよい。また、操作情報または画像信号情報を判定部153が用いない場合は、S104またはS105の処理が省略されてよい。また、各処理の処理結果は、図示されていないが、画像信号記憶部130とは異なる他の記憶部に逐次記憶され、各構成要素は当該記憶部を介して処理結果を取得してもよい。
 なお、さらに割り込みの出力がある場合も考えられる。図6は、さらなる割り込みの出力がある場合の出力タスクの予定開始タイミングの前倒しを説明する図である。以降では、さらなる割り込み出力を単に割り込み出力と記載し、図3の出力を通常の出力と記載する。割り込み出力は、通常の出力よりも前に実施される。そのため、入力タスクの予定開始タイミングから第1の固定遅延が経過したタイミングを、割り込みの出力に関する出力タスクの予定開始タイミングと定めておく。また、割り込みの出力に関する出力タスクの予定開始タイミングから第2の固定遅延が経過したタイミングを通常の出力タスクの予定開始タイミングと定める。以降、割り込みの出力に関する出力タスクを割込出力タスクと記載する。
 なお、割り込みの出力は、出力処理部140が処理してもよい。あるいは、図示しないが、画像表示装置100が、出力処理部140とは別に、割り込みの出力を実施する割込出力処理部(第3処理部)を備えていてもよい。
 割込出力タスクの前倒しは、割込出力タスクを図3の通常の出力タスクとみなした場合と同じである。一方、通常の出力タスクの前倒しは、割込出力タスクを入力タスクとみなした場合と同じである。ゆえに、割り込みの出力がある場合、制御部150の検知部151は、出力処理部140または割込出力処理部のタスクに対しても監視を行う。なお、割込出力タスクの前倒しと出力タスクの前倒しとは独立して行われ、前倒しの実施是非、前倒しの長さを同じにする必要はない。
 以上のように、本実施形態によれば、ソフトウェアによって様々な処理を実施可能な画像表示装置100において、高画質な画像を乱れなく出力することができ、かつ、応答性を改善することができる。
 また、画像出力に関する処理の開始タイミングを決定するために複雑な処理を行わせると、ソフトウェアにさらなる負荷をかけることになり、好ましくないが、本開示の画像表示装置100は、負荷を掛けることなく、出力タスクの開始タイミングを決定することもできる。例えば、差分時間を算出する場合、入力タスクの終了タイミングおよび出力タスクの開始タイミングを検知するが、これらの処理は、画像表示装置100を実現するコンピュータ上で起動するOSの機能を用いるだけでよい。例えば、画像信号をライン単位で監視し、書き込みが完了していないラインを検出するといった複雑な処理は必要としない。そのため、画像表示装置100の負荷の観点からも、本開示の画像表示装置100は優れている。
 本開示の実施形態における装置の処理は、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)等が実行するソフトウェア(プログラム)により実現できる。なお、当該装置の全ての処理をソフトウェアで実行するのではなく、一部の処理が、専用の回路などのハードウェアにより実行されてもよい。
 なお、上述の実施形態は本開示を具現化するための一例を示したものであり、その他の様々な形態で本開示を実施することが可能である。例えば、本開示の要旨を逸脱しない範囲で、種々の変形、置換、省略またはこれらの組み合わせが可能である。そのような変形、置換、省略等を行った形態も、本開示の範囲に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
 また、上述の実施の形態において説明した処理の手順は、これら一連の手順を有する方法として捉えてもよい。あるいは、これら一連の手順をコンピュータに実施させるためのプログラム、または、当該プログラムを記憶する記録媒体として捉えてもよい。記録媒体の種類は、本開示の実施形態に影響を及ぼすものではないため、特に限られるものではない。
 なお、本開示は以下のような構成を取ることもできる。
 [1]
 画像信号に対して第1処理を実施する第1処理部と、
 前記第1処理が実施された画像信号を記憶する画像信号記憶部と、
 前記画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第2処理を実施する第2処理部と、
 前記第1処理の終了を検知する検知部と、
 少なくとも前記第1処理の終了タイミングに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する判定部と、
 を備え、
 前記第2処理部が、前記前倒しの実施が決定された場合に、前記予定開始タイミングよりも前に前記第2処理を開始する
 信号処理装置。
 [2]
 前記第2処理の予定開始タイミングが、前記第1処理の予定開始タイミングから所定の固定時間ほど離れており、
 前記第2処理部が、前記前倒しを実施しないと決定された場合に、前記第2処理の予定開始タイミングに前記第2処理を開始する
 上記[1]に記載の信号処理装置。
 [3]
 前記第1処理の終了タイミングから前記第2処理の予定開始タイミングまでの差分時間の長さを算出する算出部
 をさらに備え、
 前記判定部が、前記差分時間の長さに基づき、前記前倒しの実施是非を判定する
 上記[1]または[2]に記載の信号処理装置。
 [4]
 前記検知部が、前記第1処理の終了および前記第2処理の開始を検知して、前記算出部に通知し、
 前記算出部が、前記検知部からの通知に基づいて前記差分時間の長さを算出する
 上記[3]に記載の信号処理装置。
 [5]
 前記検知部が、前記第1処理の終了を検知して、前記判定部に通知し、
 前記判定部が、検知された前記第1処理の終了のタイミングと、予め与えられた前記第2処理の予定開始タイミングと、に基づいて、前記差分時間の長さを算出する
 上記[3]に記載の信号処理装置。
 [6]
 前記検知部が、前記第1処理の終了および前記第2処理の開始を検知して、前記判定部に通知し、
 前記判定部が、前記第1処理の終了の通知を受信してから、または、前記第1処理の終了タイミングから、前記第2処理の開始の通知を受信するまでに、所定時間が経過した場合に、前記第2処理の予定開始タイミングの前倒しの実施を決定する
 上記[1]または[2]に記載の信号処理装置。
 [7]
 前記第1処理の開始タイミングから前記第1処理の終了タイミングまでの所要時間の長さを算出する算出部
 をさらに備え、
 前記検知部が、前記第1処理の開始および終了を検知して、前記算出部に通知し、
 前記判定部が、前記所要時間に基づいて、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する
 上記[1]または[2]に記載の信号処理装置。
 [8]
 前記検知部が、前記第1処理の開始および終了を検知して、前記判定部に通知し、
 前記判定部が、前記第1処理の開始の通知を受信してから所定時間が経過する前に、前記第1処理の終了の通知を受信した場合に、前記第2処理の予定開始タイミングの前倒しの実施を決定する
 上記[1]または[2]に記載の信号処理装置。
 [9]
 前記第2処理の開始タイミングを決定するタイミング決定部
 をさらに備え、
 前記第2処理部が、決定された開始タイミングに前記第2処理を開始する
 上記[1]から[8]のいずれかに記載の信号処理装置。
 [10]
 前記タイミング決定部が、前記第1処理の予定開始タイミングから所定時間が経過したタイミングと、前記第2処理の予定開始タイミングと、の間に、前記第2処理の開始タイミングを決定する
 上記[9]に記載の信号処理装置。
 [11]
 決定された開始タイミングを示す同期信号を生成する同期信号生成部をさらに備え、
 前記第2処理部が、前記同期信号に基づき、前記第2処理または第2処理部に関するタスクを開始する
 上記[9]または[10]のいずれかに記載の信号処理装置。
 [12]
 前記画像信号に基づく画像を表示する際に用いられる画像信号情報を前記画像信号から検出する情報検出部
 をさらに備え、
 前記判定部が、前記画像信号情報にさらに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する
 上記[1]ないし[11]のいずれかに記載の信号処理装置。
 [13]
 前記信号処理装置に対して行われた操作に関する操作情報を生成または受信するユーザインターフェイス部
 をさらに備え、
 前記判定部が、前記操作情報にさらに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する
 上記[1]ないし[12]のいずれかに記載の信号処理装置。
 [14]
 前記タイミング決定部は、前記第1処理の今周期の処理時間が、前記第1処理の前周期の処理時間よりも伸びた場合において、所定の条件を満たすときは、前記第2処理の今周期の開始予定タイミングを、前記第2処理の前周期の開始予定タイミングと同じにする
 上記[1]ないし[13]のいずれかに記載の信号処理装置。
 [15]
 前記第2処理の後に、前記画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第3処理を実施する第3処理部
 をさらに備え、
 前記検知部が、前記第2処理の終了を検知し、
 前記判定部が、少なくとも前記第2処理の終了タイミングに基づき、前記第3処理の予定開始タイミングの前倒しの実施是非を判定し、
 前記第3処理部が、前記第3処理の予定開始タイミングの前倒しの実施が決定された場合に、前記第3処理の予定開始タイミングよりも前に前記第3処理を開始する
 上記[1]ないし[14]のいずれかに記載の信号処理装置。
 [16]
 画像信号に対して第1処理を実施する第1処理部と、
 前記第1処理が実施された画像信号を記憶する画像信号記憶部と、
 前記画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第2処理を実施する第2処理部と、
 前記第2処理が実施された画像信号を表示する表示部と、
 前記第1処理の終了を検知する検知部と、
 少なくとも前記第1処理の終了タイミングに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する判定部と、
 を備え、
 前記第2処理部が、前記前倒しの実施が決定された場合に、前記予定開始タイミングよりも前に前記第2処理を開始する
 画像表示装置。
 [17]
 画像信号に対して実施される第1処理の終了を検知するステップと、
 少なくとも前記第1処理の終了タイミングに基づき、前記第1処理が実施された画像信号を記憶する画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第2処理の予定開始タイミングの前倒しの実施是非を判定するステップと
 前記前倒しの実施が決定された場合に、前記予定開始タイミングよりも前に前記第2処理を開始するステップと、
 を備える信号処理方法。
 100 画像表示装置
 110 UI部
 120 入力処理部(第1処理部)
 121 画像信号受信部
 122 情報検出部
 123 前処理部
 130 画像信号記憶部
 140 出力処理部(第2処理部)
 141 画像処理部
 142 表示部
 150 制御部
 151 検知部
 152 算出部
 153 判定部
 154 タイミング決定部
 160 同期信号生成部

Claims (14)

  1.  画像信号に対して第1処理を実施する第1処理部と、
     前記第1処理が実施された画像信号を記憶する画像信号記憶部と、
     前記画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第2処理を実施する第2処理部と、
     前記第1処理の終了を検知する検知部と、
     少なくとも前記第1処理の終了タイミングに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する判定部と、
     を備え、
     前記第2処理部が、前記前倒しの実施が決定された場合に、前記予定開始タイミングよりも前に前記第2処理を開始する
     信号処理装置。
  2.  前記第2処理の予定開始タイミングが、前記第1処理の予定開始タイミングから所定の固定時間ほど離れており、
     前記第2処理部が、前記前倒しを実施しないと決定された場合に、前記第2処理の予定開始タイミングに前記第2処理を開始する
     請求項1に記載の信号処理装置。
  3.  前記第1処理の終了タイミングから前記第2処理の予定開始タイミングまでの差分時間の長さを算出する算出部
     をさらに備え、
     前記判定部が、前記差分時間の長さに基づき、前記前倒しの実施是非を判定する
     請求項1に記載の信号処理装置。
  4.  前記検知部が、前記第1処理の終了および前記第2処理の開始を検知して、前記判定部に通知し、
     前記判定部が、前記第1処理の終了の通知を受信してから前記第2処理の開始の通知を受信するまでに所定時間が経過した場合に、前記第2処理の予定開始タイミングの前倒しの実施を決定する
     請求項1に記載の信号処理装置。
  5.  前記第1処理の開始タイミングから前記第1処理の終了タイミングまでの所要時間の長さを算出する算出部
     をさらに備え、
     前記検知部が、前記第1処理の開始および終了を検知して、前記算出部に通知し、
     前記判定部が、前記所要時間に基づいて、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する
     請求項1に記載の信号処理装置。
  6.  前記検知部が、前記第1処理の開始および終了を検知して、前記判定部に通知し、
     前記判定部が、前記第1処理の開始の通知を受信してから所定時間が経過する前に、前記第1処理の終了の通知を受信した場合に、前記第2処理の予定開始タイミングの前倒しの実施を決定する
     請求項1に記載の信号処理装置。
  7.  前記第2処理の開始タイミングを決定するタイミング決定部
     をさらに備え、
     前記第2処理部が、決定された開始タイミングに前記第2処理を開始する
     請求項1に記載の信号処理装置。
  8.  前記タイミング決定部が、前記第1処理の予定開始タイミングから所定時間が経過したタイミングと、前記第2処理の予定開始タイミングと、の間に、前記第2処理の開始タイミングを決定する
     請求項7に記載の信号処理装置。
  9.  前記画像信号に基づく画像を表示する際に用いられる画像信号情報を前記画像信号から検出する情報検出部
     をさらに備え、
     前記判定部が、前記画像信号情報にさらに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する
     請求項1に記載の信号処理装置。
  10.  前記信号処理装置に対して行われた操作に関する操作情報を生成または受信するユーザインターフェイス部
     をさらに備え、
     前記判定部が、前記操作情報にさらに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する
     請求項1に記載の信号処理装置。
  11.  前記タイミング決定部は、前記第1処理の今周期の処理時間が、前記第1処理の前周期の処理時間よりも伸びた場合において、所定の条件を満たすときは、前記第2処理の今周期の開始予定タイミングを、前記第2処理の前周期の開始予定タイミングと同じにする
     請求項7に記載の信号処理装置。
  12.  前記第2処理の後に、前記画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第3処理を実施する第3処理部
     をさらに備え、
     前記検知部が、前記第2処理の終了を検知し、
     前記判定部が、少なくとも前記第2処理の終了タイミングに基づき、前記第3処理の予定開始タイミングの前倒しの実施是非を判定し、
     前記第3処理部が、前記第3処理の予定開始タイミングの前倒しの実施が決定された場合に、前記第3処理の予定開始タイミングよりも前に前記第3処理を開始する
     請求項1に記載の信号処理装置。
  13.  画像信号に対して第1処理を実施する第1処理部と、
     前記第1処理が実施された画像信号を記憶する画像信号記憶部と、
     前記画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第2処理を実施する第2処理部と、
     前記第2処理が実施された画像信号を表示する表示部と、
     前記第1処理の終了を検知する検知部と、
     少なくとも前記第1処理の終了タイミングに基づき、前記第2処理の予定開始タイミングの前倒しの実施是非を判定する判定部と、
     を備え、
     前記第2処理部が、前記前倒しの実施が決定された場合に、前記予定開始タイミングよりも前に前記第2処理を開始する
     画像表示装置。
  14.  画像信号に対して実施される第1処理の終了を検知するステップと、
     少なくとも前記第1処理の終了タイミングに基づき、前記第1処理が実施された画像信号を記憶する画像信号記憶部から記憶された画像信号を読み出す処理を少なくとも含む第2処理の予定開始タイミングの前倒しの実施是非を判定するステップと
     前記前倒しの実施が決定された場合に、前記予定開始タイミングよりも前に前記第2処理を開始するステップと、
     を備える信号処理方法。
PCT/JP2020/041221 2019-12-04 2020-11-04 信号処理装置、画像表示装置、および信号処理方法 WO2021111793A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021562514A JPWO2021111793A1 (ja) 2019-12-04 2020-11-04
CN202080082612.3A CN114747226A (zh) 2019-12-04 2020-11-04 信号处理装置、图像显示装置以及信号处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-219588 2019-12-04
JP2019219588 2019-12-04

Publications (1)

Publication Number Publication Date
WO2021111793A1 true WO2021111793A1 (ja) 2021-06-10

Family

ID=76221201

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/041221 WO2021111793A1 (ja) 2019-12-04 2020-11-04 信号処理装置、画像表示装置、および信号処理方法

Country Status (3)

Country Link
JP (1) JPWO2021111793A1 (ja)
CN (1) CN114747226A (ja)
WO (1) WO2021111793A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022118672A1 (ja) * 2020-12-02 2022-06-09 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法、および表示システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010220156A (ja) * 2009-03-19 2010-09-30 Nec Corp 映像再生装置および方法並びにプログラム
WO2014065378A1 (ja) * 2012-10-24 2014-05-01 オリンパスメディカルシステムズ株式会社 検査管理装置及び検査管理システム
JP2015189038A (ja) * 2014-03-27 2015-11-02 キヤノン株式会社 データ処理装置とその制御方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010220156A (ja) * 2009-03-19 2010-09-30 Nec Corp 映像再生装置および方法並びにプログラム
WO2014065378A1 (ja) * 2012-10-24 2014-05-01 オリンパスメディカルシステムズ株式会社 検査管理装置及び検査管理システム
JP2015189038A (ja) * 2014-03-27 2015-11-02 キヤノン株式会社 データ処理装置とその制御方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022118672A1 (ja) * 2020-12-02 2022-06-09 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法、および表示システム

Also Published As

Publication number Publication date
JPWO2021111793A1 (ja) 2021-06-10
CN114747226A (zh) 2022-07-12

Similar Documents

Publication Publication Date Title
US8582033B2 (en) Movie reproduction system and movie reproduction method for reducing delay time of reproduced movie
JP2005318610A (ja) シーケンス適合同期信号生成器
US9304733B2 (en) Display apparatus, display synchronization apparatus, display synchronization system, and method for synchronizing of display apparatus
KR101486254B1 (ko) 프레임 레이트 변환 설정방법 및 이를 적용한 디스플레이 장치
JP4691193B1 (ja) 映像表示装置および映像処理方法
WO2021111793A1 (ja) 信号処理装置、画像表示装置、および信号処理方法
JP2012169727A (ja) 映像信号処理装置および映像信号処理方法
CN106941591B (zh) 半导体装置、视频显示系统以及视频信号的输出方法
JP2010016734A (ja) 遠隔装置、遠隔制御方法、プログラム、および表示制御装置
KR20080011026A (ko) 영상처리장치 및 영상처리방법
US9377875B2 (en) Information processing apparatus, control method, and recording medium
US10212316B2 (en) Video processing apparatus
JP5625266B2 (ja) 映像処理装置および映像表示装置
JPWO2009084128A1 (ja) 同期信号変換回路およびそれを備える信号処理システム、並びに同期信号変換方法
JP2012129576A (ja) 放送受信装置
US8743133B2 (en) Image processing system, image processing method, and program
JP6385057B2 (ja) 制御装置及び制御方法
JP2019186767A (ja) 映像処理装置、映像処理方法、テレビジョン受像機、制御プログラム、及び記録媒体
WO2022118672A1 (ja) 信号処理装置、信号処理方法、および表示システム
US20080258972A1 (en) Antenna System
JP2014175870A (ja) 映像処理装置及びその制御方法、タイミングジェネレータ、同期信号生成方法
JP5896642B2 (ja) 映像処理装置、映像処理方法、及びプログラム
JP2006140627A (ja) 映像信号処理装置,テレビジョン受像機
JP2016163334A (ja) 同期信号生成装置、同期信号生成方法、映像処理装置、およびプログラム
JP6464902B2 (ja) 情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20896053

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021562514

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20896053

Country of ref document: EP

Kind code of ref document: A1