2017년 11월 26일 일요일

YUV

참조: Link

YUV is a color encoding system typically used as part of a color image pipeline. It encodes a color image or video taking human perception into account, allowing reduced bandwidth for chrominance components, thereby typically enabling transmission errors or compression artifacts to be more efficiently masked by the human perception than using a "direct" RGB-representation. Other color encodings have similar properties, and the main reason to implement or investigate properties of Y′UV would be for interfacing with analog or digital television or photographic equipment that conforms to certain Y′UV standards.
YUV는 일반적으로 컬러 이미지 파이프 라인의 일부로 사용되는 컬러 인코딩 시스템입니다. 이는 인간의 인식을 고려한 컬러 이미지 또는 비디오를 인코딩하여 크로 미 넌스 구성 요소의 대역폭을 줄임으로써 전송 오류 또는 압축 아티팩트를 일반적으로 "직접"RGB 표현을 사용하는 것보다 인간의 인식으로보다 효율적으로 마스킹 할 수있게합니다. 다른 컬러 인코딩은 유사한 속성을 가지고 있으며 Y'UV의 속성을 구현하거나 조사하는 주된 이유는 특정 Y'UV 표준을 준수하는 아날로그 또는 디지털 TV 또는 사진 장비와 인터페이스하기위한 것입니다.

The scope of the terms Y′UV, YUV, YCbCr, YPbPr, etc., is sometimes ambiguous and overlapping. Historically, the terms YUV and Y′UV were used for a specific analog encoding of color information in television systems, while YCbCr was used for digital encoding of color information suited for video and still-image compression and transmission such as MPEG and JPEG. Today, the term YUV is commonly used in the computer industry to describe file-formats that are encoded using YCbCr.
용어 Y'UV, YUV, YCbCr, YPbPr 등의 범위는 때로는 모호하며 중복됩니다. 역사적으로, YUV 및 Y'UV는 텔레비전 시스템에서 컬러 정보의 특정 아날로그 인코딩에 사용되었고, YCbCr은 비디오 및 MPEG 및 JPEG와 같은 정지 이미지 압축 및 전송에 적합한 컬러 정보의 디지털 인코딩에 사용되었습니다. 오늘날 YUV라는 용어는 YCbCr을 사용하여 인코딩 된 파일 형식을 설명하기 위해 컴퓨터 업계에서 일반적으로 사용됩니다.

The Y′UV model defines a color space in terms of one luma (Y′) and two chrominance (UV) components. The Y′UV color model is used in the PAL composite color video (excluding PAL-N) standard. Previous black-and-white systems used only luma (Y′) information. Color information (U and V) was added separately via a sub-carrier so that a black-and-white receiver would still be able to receive and display a color picture transmission in the receiver's native black-and-white format.
Y'UV 모델은 하나의 휘도 (Y ') 및 2 개의 색차 (UV) 성분으로 색 공간을 정의합니다. Y'UV 컬러 모델은 PAL 합성 컬러 비디오 (PAL-N 제외) 표준에 사용됩니다. 이전의 흑백 시스템은 루마 (Y ') 정보 만 사용했습니다. 컬러 정보 (U 및 V)는 서브 캐리어를 통해 개별적으로 추가되어, 흑백 수신기는 여전히 수신기의 네이티브 흑백 포맷의 컬러 화상 전송을 수신하고 디스플레이 할 수있게됩니다.

Y′ stands for the luma component (the brightness) and U and V are the chrominance (color) components; luminance is denoted by Y and luma by Y′ – the prime symbols (') denote gamma compression,[1] with "luminance" meaning perceptual (color science) brightness, while "luma" is electronic (voltage of display) brightness.
Y '는 휘도 성분 (밝기)을 나타내며 U와 V는 색차 성분 (색)을 나타냅니다. 휘도는 Y로 표시되고 luma는 Y '로 표시됩니다. - 소수점 기호 (')는 감마 압축을 나타내며, '휘도'는 지각 (색 과학) 밝기를 의미하고 '루마'는 전자식 밝기입니다.

The YPbPr color model used in analog component video and its digital version YCbCr used in digital video are more or less derived from it, and are sometimes called Y′UV. (CB/PB and CR/PR are deviations from grey on blue–yellow and red–cyan axes, whereas U and V are blue–luminance and red–luminance differences respectively.) The Y′IQ color space used in the analog NTSC television broadcasting system is related to it, although in a more complex way. The YDbDr color space used in the analog SECAM and PAL-N television broadcasting systems, are also related.
아날로그 컴포넌트 비디오에 사용 된 YPbPr 컬러 모델디지털 비디오에 사용되는 YCbCr 디지털 버전은 다소 차이가 있으며 Y'UV라고도합니다. (CB / PB 및 CR / PR은 청색 - 황색 및 적색 - 시안 축상의 회색으로부터의 편차이고, U 및 V는 각각 청색 - 휘도 및 적색 - 휘도 차이이다.) 아날로그 NTSC 텔레비전에서 사용되는 Y'IQ 색 공간 방송 시스템은 좀 더 복잡한 방식으로 관련되어있다. 아날로그 SECAM 및 PAL-N 텔레비전 방송 시스템에 사용되는 YDbDr 색 공간 또한 관련되어 있습니다.

As for etymology, Y, Y′, U, and V are not abbreviations. The use of the letter Y for luminance can be traced back to the choice of XYZ primaries. This lends itself naturally to the usage of the same letter in luma (Y′), which approximates a perceptually uniform correlate of luminance. Likewise, U and V were chosen to differentiate the U and V axes from those in other spaces, such as the x and y chromaticity space. See the equations below or compare the historical development of the math.
어원에 관해서는 Y, Y ', U, V는 원래 단어를 축약한 것이 아닙니다. 휘도에 문자 Y를 사용하는 것은 XYZ 기본 색의 선택으로 거슬러 올라갈 수 있습니다. 이것은 휘도의 지각 적으로 일정한 상관 관계를 근사화하는 luma (Y ')에서 같은 문자를 사용하는 데 자연스럽게 적합합니다. 마찬가지로 U 및 V는 x 및 y 색도 공간과 같은 다른 공간의 U 및 V 축을 구분하기 위해 선택되었습니다. 아래의 방정식을 보거나 수학의 역사적 발전을 비교하십시오.

역사
Y′UV was invented when engineers wanted color television in a black-and-white infrastructure. They needed a signal transmission method that was compatible with black-and-white (B&W) TV while being able to add color. The luma component already existed as the black and white signal; they added the UV signal to this as a solution.

The UV representation of chrominance was chosen over straight R and B signals because U and V are color difference signals. In other words, the U and V signals tell the television to shift the color of a certain pixel without altering its brightness. Or the U and V signals tell the monitor to make one color brighter at the cost of the other and by how much it should be shifted. The higher the (or the lower when negative) the U and V values are, the more the saturated (colorful) the pixel gets. The closer the U and V values get to zero, the lesser it shifts the color meaning that the red, green and blue lights will be more equally bright, producing a greyer pixel. This is the benefit of using color difference signals, i.e. instead of telling how much red there is to a color, it tells by how much it is more red than green or blue. In turn this meant that when the U and V signals would be zero or absent, it would just display a greyscale image. If R and B were to have been used, these would have non-zero values even in a B&W scene, requiring all three data-carrying signals. This was important in the early days of color television, because old black and white TV signals had no U and V signals present, meaning the color TV would just display it as B&W TV out of the box. In addition, black and white receivers could take the Y′ signal and ignore the U- and V-color signals, making Y′UV backward-compatible with all existing black-and-white equipment, input and output. If the color-TV standard wouldn't have used color difference signals, it could mean a color TV would make funny colors out of a B&W broadcast or it would need additional circuitry to translate the B&W signal to color. It was necessary to assign a narrower bandwidth to the chrominance channel because there was no additional bandwidth available. If some of the luminance information arrived via the chrominance channel (as it would have if RB signals were used instead of differential UV signals), B&W resolution would have been compromised.
Y'UV는 엔지니어가 컬러 텔레비전을 흑백 인프라로 원할 때 발명되었습니다. 컬러를 추가 할 수있는 흑백 (B & W) TV와 호환되는 신호 전송 방법이 필요했습니다. 루마 성분은 이미 흑백 신호로 존재합니다. 그들은 솔루션에 자외선 신호를 추가했습니다.

U와 V는 색차 신호이기 때문에 직선의 R과 B 신호보다 색차의 UV 표현이 선택되었습니다. 즉, U 및 V 신호는 텔레비전에 밝기를 변경하지 않고 특정 픽셀의 색상을 이동 시키도록 지시합니다. 또는 U 및 V 신호는 모니터가 다른 색상의 비용으로 한 색상을 더 밝게 만들고 이동해야하는 정도를 알려줍니다. U 및 V 값이 높을수록 (또는 음수 일 때 더 낮아짐) 픽셀이 더 포화 된 (색상이 다양해질수록). U와 V 값이 0에 가까울수록 빨강, 녹색 및 파랑 조명이 더 밝아 져 회색 픽셀이 생성된다는 의미의 색상이 조금씩 이동합니다. 이는 색상 차이 신호를 사용하는 이점입니다. 즉, 색상에 빨간색이 얼마나 많은지 알려주지 않고 녹색 또는 파란색보다 더 많이 빨간색으로 표시합니다. 이것은 U 및 V 신호가 0이거나 없을 때 그레이 스케일 이미지 만 표시한다는 것을 의미합니다. R과 B를 사용하면 B & W 장면에서도 3 가지 데이터 운반 신호가 모두 필요하므로 0이 아닌 값을 갖게됩니다. 오래된 흑백 TV 신호에는 U 및 V 신호가 없으므로 컬러 TV 초기에는 중요했습니다. 즉, 컬러 TV는 B & W TV를 그대로 상자에 넣어 표시합니다. 또한 흑백 수신기는 Y '신호를 받아 U 및 V 색상 신호를 무시할 수 있으므로 기존의 모든 흑백 장비, 입력 및 출력과 Y'UV의 역 호환이 가능합니다. 컬러 TV 표준이 색차 신호를 사용하지 않는다면 컬러 TV가 흑백 방송에서 재미있는 색상을 만들거나 흑백 신호를 색상으로 변환하는 추가 회로가 필요하다는 것을 의미 할 수 있습니다. 사용 가능한 추가 대역폭이 없었기 때문에 색차 채널에 더 좁은 대역폭을 할당해야했습니다. 휘도 정보 중 일부가 색차 채널을 통해 도착한 경우 (차동 UV 신호 대신 RB 신호가 사용 된 것처럼) B & W 해상도가 손상되었을 수 있습니다.


Y'UV 는 RGB 와 서로 계산될 수 있다.
Y는 휘도
Y'는 루마
UV 는 색차

R, G, B 는 색의 값

그러면 왜 센서에서 바로 받은 값인 RGB를 사용하지 않고 Y'UV를 사용하느냐?


Conversion to/from RGB


Numerical approximations


Luminance/chrominance systems in general
The primary advantage of luma/chroma systems such as Y′UV, and its relatives Y′IQ and YDbDr, is that they remain compatible with black and white analog television (largely due to the work of Georges Valensi). The Y′ channel saves all the data recorded by black and white cameras, so it produces a signal suitable for reception on old monochrome displays. In this case, the U and V are simply discarded. If displaying color, all three channels are used, and the original RGB information can be decoded.
Y'UV 및 그 친척 Y'IQ 및 YDbDr과 같은 루마 / 크로마 시스템의 주요 이점은 흑백 아날로그 TV와 호환이 가능하다는 것입니다 (주로 Georges Valensi의 작업으로 인해). Y '채널은 흑백 카메라로 기록 된 모든 데이터를 저장하므로 오래된 흑백 디스플레이의 수신에 적합한 신호를 생성합니다. 이 경우 U와 V는 단순히 버려집니다. 색상을 표시하면 세 개의 채널이 모두 사용되고 원본 RGB 정보가 디코딩 될 수 있습니다.

Another advantage of Y′UV is that some of the information can be discarded in order to reduce bandwidth. The human eye has fairly little spatial sensitivity to color: the accuracy of the brightness information of the luminance channel has far more impact on the image detail discerned than that of the other two. Understanding this human shortcoming, standards such as NTSC and PAL reduce the bandwidth of the chrominance channels considerably. (Bandwidth is in the temporal domain, but this translates into the spatial domain as the image is scanned out.)
Y'UV의 또 다른 이점은 대역폭을 줄이기 위해 일부 정보를 삭제할 수 있다는 것입니다. 인간의 눈은 색에 대한 공간 감도가 거의 없습니다. 휘도 채널의 밝기 정보의 정확도는 다른 두 가지보다 더 세부적인 이미지 세부 사항에 훨씬 더 많은 영향을 미칩니다. NTSC 및 PAL과 같은 표준에서는 이러한 인간적인 단점을 이해하여 색차 채널의 대역폭을 상당히 줄입니다. (대역폭은 시간 영역에 있지만 이미지가 스캔되면 공간 영역으로 변환됩니다.)

Therefore, the resulting U and V signals can be substantially "compressed". In the NTSC (Y′IQ) and PAL systems, the chrominance signals had significantly narrower bandwidth than that for the luminance. Early versions of NTSC rapidly alternated between particular colors in identical image areas to make them appear adding up to each other to the human eye, while all modern analogue and even most digital video standards use chroma subsampling by recording a picture's color information at reduced resolution. Only half the horizontal resolution compared to the brightness information is kept (termed 4:2:2 chroma subsampling), and often the vertical resolution is also halved (giving 4:2:0). The 4:x:x standard was adopted due to the very earliest color NTSC standard which used a chroma subsampling of 4:1:1 (where the horizontal color resolution is quartered while the vertical is full resolution) so that the picture carried only a quarter as much color resolution compared to brightness resolution. Today, only high-end equipment processing uncompressed signals uses a chroma subsampling of 4:4:4 with identical resolution for both brightness and color information.
따라서, 결과적인 U 및 V 신호는 실질적으로 "압축"될 수있다. NTSC (Y'IQ) 및 PAL 시스템에서 색차 신호는 휘도보다 신호 대역폭이 상당히 좁습니다. 초기 버전의 NTSC는 동일한 이미지 영역에서 특정 색상을 신속하게 번갈아 가며 서로 눈을 가깝게 보이게하는 반면 현대의 모든 아날로그 및 대부분의 디지털 비디오 표준은 축소 된 해상도로 사진의 색상 정보를 기록하여 크로마 하위 샘플링을 사용합니다. 밝기 정보에 비해 수평 해상도의 절반 만 유지됩니다 (4 : 2 : 2 크로마 하위 샘플링이라고 함). 종종 수직 해상도도 절반으로 감소합니다 (4 : 2 : 0 제공). 4 : 1 : 1의 크로마 서브 샘플링을 사용하는 가장 초기의 컬러 NTSC 표준 (가로 해상도는 4 배, 세로 해상도는 4 등분)으로 인해 4 : x : x 표준이 채택되었습니다. 밝기 해상도보다 4 분의 1 컬러 해상도. 오늘날, 비 압축 신호를 처리하는 고급 장비 만이 밝기 및 색상 정보 모두에 대해 동일한 해상도로 4 : 4 : 4의 채도 서브 샘플링을 사용합니다.

The I and Q axes were chosen according to bandwidth needed by human vision, one axis being that requiring the most bandwidth, and the other (fortuitously at 90 degrees) the minimum. However, true I and Q demodulation was relatively more complex, requiring two analog delay lines, and NTSC receivers rarely used it.
I 및 Q 축은 인간의 시력에 필요한 대역폭에 따라 선택되었으며, 한 축은 가장 많은 대역폭을 필요로하고, 다른 축은 (최소 90도에서 우연히) 최소값을 필요로합니다. 그러나 사실 I 및 Q 복조는 상대적으로 더 복잡하여 두 개의 아날로그 지연 라인이 필요했으며 NTSC 리시버는 거의 사용하지 않았습니다.

However, this color space conversion is lossy, particularly obvious in crosstalk from the luma to the chroma-carrying wire, and vice versa, in analogue equipment (including RCA connectors to transfer a digital signal, as all they carry is analogue composite video, which is either YUV, YIQ, or even CVBS). Furthermore, NTSC and PAL encoded color signals in a manner that causes high bandwidth chroma and luma signals to mix with each other in a bid to maintain backward compatibility with black and white television equipment, which results in dot crawl and cross color artifacts. When the NTSC standard was created in the 1950s, this was not a real concern since the quality of the image was limited by the monitor equipment, not the limited-bandwidth signal being received. However today′s modern television is capable of displaying more information than is contained in these lossy signals. To keep pace with the abilities of new display technologies, attempts were made since the late 1970s to preserve more of the Y′UV signal while transferring images, such as SCART (1977) and S-Video (1987) connectors.
그러나이 색 공간 변환은 손실이 많습니다. 아날로그 장비 (디지털 신호를 전송하는 RCA 커넥터 포함, 루마에서 크로마 전송 와이어로의 크로스 토크에서 특히나 그 반대의 경우도 마찬가지 임)는 아날로그 합성 비디오입니다. YUV, YIQ 또는 CVBS 임). 또한 NTSC 및 PAL은 고 대역폭 크로마 및 루마 신호가 흑백 TV 장비와의 역 호환성을 유지하기 위해 서로 섞여서 도트 크롤 및 크로스 컬러 아티팩트를 발생시키는 방식으로 색상 신호를 인코딩했습니다. 1950 년대에 NTSC 표준이 만들어 졌을 때 이미지의 품질이 제한된 대역폭 신호가 아닌 모니터 장비에 의해 제한 되었기 때문에 이것은 실제 관심사가 아니 었습니다. 그러나 오늘날의 현대 TV는 이러한 손실 신호에 포함 된 것보다 많은 정보를 표시 할 수 있습니다. 새로운 디스플레이 기술의 능력에 발 맞추어 1970 년대 말 SCART (1977) 및 S-Video (1987) 커넥터와 같은 이미지를 전송하는 동안 Y'UV 신호를 더 많이 보존하려는 시도가있었습니다.

Instead of Y′UV, Y′CbCr was used as the standard format for (digital) common video compression algorithms such as MPEG-2. Digital television and DVDs preserve their compressed video streams in the MPEG-2 format, which uses a full Y′CbCr color space, although retaining the established process of chroma subsampling. The professional CCIR 601 digital video format also uses Y′CbCr at the common chroma subsampling rate of 4:2:2, primarily for compatibility with previous analog video standards. This stream can be easily mixed into any output format needed.
Y'UV 대신 Y'CbCr이 MPEG-2와 같은 (디지털) 공통 비디오 압축 알고리즘의 표준 형식으로 사용되었습니다. 디지털 텔레비전과 DVD는 압축 된 비디오 스트림을 MPEG-2 형식으로 보존합니다.이 형식은 확립 된 채도 서브 샘플링 프로세스를 유지하면서도 전체 Y'CbCr 색 공간을 사용합니다. 전문가 용 CCIR 601 디지털 비디오 형식은 이전 아날로그 비디오 표준과의 호환성을 위해 4 : 2 : 2의 공통 크로마 하위 샘플링 속도로 Y'CbCr을 사용합니다. 이 스트림은 필요한 모든 출력 형식으로 쉽게 혼합 될 수 있습니다.

Y′UV is not an absolute color space. It is a way of encoding RGB information, and the actual color displayed depends on the actual RGB colorants used to display the signal. Therefore, a value expressed as Y′UV is only predictable if standard RGB colorants are used (i.e. a fixed set of primary chromaticities, or particular set of red, green, and blue).
Y'UV는 절대 색 공간이 아닙니다. 이것은 RGB 정보를 인코딩하는 방법이며, 실제 표시되는 색은 신호를 표시하는 데 사용되는 실제 RGB 색소에 따라 다릅니다. 따라서,  Y'UV로 표현 된 값은 표준 RGB 색소가 사용되는 경우 (즉, 1 차 색도의 고정 된 세트 또는 적색, 녹색 및 청색의 특정 세트) 에만 예측 가능합니다.

Furthermore, the range of colors and brightnesses (known as the color gamut) of RGB (whether it be BT.601 or Rec.709) is far smaller than the range of colors and brightnesses allowed by Y′UV. This can be very important when converting from Y′UV (or Y′CbCr) to RGB, since the formulas above can produce "invalid" RGB values – i.e., values below 0% or very far above 100% of the range (e.g., outside the standard 16–235 luma range (and 16–240 chroma range) for TVs and HD content, or outside 0–255 for standard definition on PCs). Unless these values are dealt with they will usually be "clipped" (i.e., limited) to the valid range of the channel affected. This changes the hue of the color, which is very undesirable, so it is therefore often considered better to desaturate the offending colors such that they fall within the RGB gamut.[9] Likewise, when RGB at a given bit depth is converted to YUV at the same bit depth, several RGB colors can become the same Y′UV color, resulting in information loss.
또한 RGB (BT.601이든 Rec.709이든)의 색상과 밝기 (색상 영역으로 알려짐)의 범위는 Y'UV가 허용하는 색상 및 밝기의 범위보다 훨씬 작습니다. 위의 공식은 범위의 0 % 이하 또는 100 %를 훨씬 초과하는 값 (예 : 0 %)을 생성 할 수 있기 때문에 Y'UV (또는 Y'CbCr)에서 RGB로 변환 할 때 매우 중요 할 수 있습니다. TV 및 HD 컨텐츠의 표준 16-235 루마 범위 (및 16-240 크로마 범위)를 벗어나거나 PC의 표준 정의를위한 0-255 범위를 벗어납니다. 이 값을 처리하지 않으면 영향을받는 채널의 유효 범위에 대해 일반적으로 "클리핑"(즉, 제한)됩니다. 이렇게하면 색상의 색조가 바뀌므로 매우 바람직하지 않습니다. 따라서 RGB 색상 영역에 해당하는 색상을 채도 감소시키는 것이 더 좋습니다. [9] 마찬가지로 특정 비트 심도의 RGB가 동일한 비트 심도에서 YUV로 변환되면 여러 RGB 색상이 동일한 Y'UV 색상이되어 정보가 손실 될 수 있습니다.


Relation with Y′CbCr
Y′UV is often used as a term for YCbCr. However, they are completely different formats with different scale factors.
Y'UV는 종종 YCbCr의 용어로 사용됩니다. 그러나, 그들은 다른 스케일 팩터와 완전히 다른 포맷입니다.

Nevertheless, the relationship between them in the standard case is simple. In particular, the Y channel is the same in both, both Cb and U are proportional to (B-Y), and both Cr and V are proportional to (R-Y).
그럼에도 불구하고, 표준 경우에 그들 사이의 관계는 간단합니다. 특히 Y 채널은 둘 다 동일하며 Cb와 U는 (B-Y)에 비례하고 Cr과 V는 (R-Y)에 비례합니다.


Types of sampling


Converting between Y′UV and RGB



Y′UV444 to RGB888 conversion
Y′UV420p is a planar format, meaning that the Y′, U, and V values are grouped together instead of interspersed. The reason for this is that by grouping the U and V values together, the image becomes much more compressible. When given an array of an image in the Y′UV420p format, all the Y′ values come first, followed by all the U values, followed finally by all the V values.

The Y′V12 format is essentially the same as Y′UV420p, but it has the U and V data switched: the Y′ values are followed by the V values, with the U values last. As long as care is taken to extract U and V values from the proper locations, both Y′UV420p and Y′V12 can be processed using the same algorithm.

As with most Y′UV formats, there are as many Y′ values as there are pixels. Where X equals the height multiplied by the width, the first X indices in the array are Y′ values that correspond to each individual pixel. However, there are only one fourth as many U and V values. The U and V values correspond to each 2 by 2 block of the image, meaning each U and V entry applies to four pixels. After the Y′ values, the next X/4 indices are the U values for each 2 by 2 block, and the next X/4 indices after that are the V values that also apply to each 2 by 2 block.

Translating Y′UV420p to RGB is a more involved process compared to the previous formats. Lookup of the Y′, U and V values can be done using the following method:
Y'UV420p는 평면 형식이므로 Y ', U 및 V 값이 산재되어있는 대신 함께 그룹화됩니다. 그 이유는 U와 V 값을 함께 그룹화하면 이미지가 훨씬 압축 될 수 있기 때문입니다. Y'UV420p 형식의 이미지 배열이 주어지면 모든 Y 값이 먼저오고 그 다음에는 모든 U 값이옵니다. 마지막으로 모든 V 값이옵니다.

Y'V12 형식은 기본적으로 Y'UV420p와 동일하지만 U 및 V 데이터가 전환됩니다. Y 값 뒤에는 V 값이 나오고 U 값이 마지막에옵니다. 올바른 위치에서 U 및 V 값을 추출하는 데주의를 기울이는 한 동일한 알고리즘을 사용하여 Y'UV420p 및 Y'V12를 모두 처리 할 수 ​​있습니다.

대부분의 Y'UV 형식과 마찬가지로 픽셀만큼 많은 Y '값이 있습니다. X가 높이에 폭을 곱한 값인 경우 배열의 첫 번째 X 인덱스는 각 픽셀에 해당하는 Y '값입니다. 그러나 U와 V 값이 4 분의 1에 불과합니다. U 및 V 값은 이미지의 각 2 x 2 블록에 해당합니다. 즉, 각 U 및 V 항목은 4 개의 픽셀에 적용됩니다. Y '값 다음에 다음 X / 4 인덱스는 각 2 x 2 블록에 대한 U 값이고 그 다음 X / 4 인덱스는 각 2 x 2 블록에도 적용되는 V 값입니다.

Y'UV420p를 RGB로 변환하는 것은 이전 형식에 비해 더 복잡한 프로세스입니다. Y ', U 및 V 값의 검색은 다음 방법을 사용하여 수행 할 수 있습니다.
Y'UV420p는 평면 형식이므로 Y ', U 및 V 값이 산재되어있는 대신 함께 그룹화됩니다. 그 이유는 U와 V 값을 함께 그룹화하면 이미지가 훨씬 압축 될 수 있기 때문입니다. Y'UV420p 형식의 이미지 배열이 주어지면 모든 Y 값이 먼저오고 그 다음에는 모든 U 값이옵니다. 마지막으로 모든 V 값이옵니다.

Y'V12 형식은 기본적으로 Y'UV420p와 동일하지만 U 및 V 데이터가 전환됩니다. Y 값 뒤에는 V 값이 나오고 U 값이 마지막에옵니다. 올바른 위치에서 U 및 V 값을 추출하는 데주의를 기울이는 한 동일한 알고리즘을 사용하여 Y'UV420p 및 Y'V12를 모두 처리 할 수 ​​있습니다.

대부분의 Y'UV 형식과 마찬가지로 픽셀만큼 많은 Y '값이 있습니다. X가 높이에 폭을 곱한 값인 경우 배열의 첫 번째 X 인덱스는 각 픽셀에 해당하는 Y '값입니다. 그러나 U와 V 값이 4 분의 1에 불과합니다. U 및 V 값은 이미지의 각 2 x 2 블록에 해당합니다. 즉, 각 U 및 V 항목은 4 개의 픽셀에 적용됩니다. Y '값 다음에 다음 X / 4 인덱스는 각 2 x 2 블록에 대한 U 값이고 그 다음 X / 4 인덱스는 각 2 x 2 블록에도 적용되는 V 값입니다.

Y'UV420p를 RGB로 변환하는 것은 이전 형식에 비해 더 복잡한 프로세스입니다. Y ', U 및 V 값의 검색은 다음 방법을 사용하여 수행 할 수 있습니다.


2017년 11월 23일 목요일

kiss goodbye

Baby不要再哭泣 這一幕多麼熟
Baby bu yao zai ku qi, zhe yi mu duo yao shou xi
Baby, don't cry anymore, this scene is so familiar

緊握著妳的手彼此 都捨不得分
jin wo zhao ni de shou bi ci, dou she bu de fen chi
Tightly holding your hand, we are both unwilling to separate
緊: 진할 진
握: 쥘 악
著: 나타날 저
妳: 너 니
的: 관형어 뒤에 쓰여, 관형어와 중심어 사이가 종속 관계임을 나타냄
手: 손 수
彼: 저 피
此: 이 차

都: 모두
捨: 버릴 사
不: 아닐 부
得: 얻을 득
分: 나눌 분
離: 떠날 리


此: 서로
不得: 얻을 수 없다, Bùdé
離: 분리 된, Fēnlí不得離: 분리 없다.

每一次想開口 但不如保持安靜
mei yi ci xiang kai kou dan bu ru bao chi an jing
Every time I want to say something I instead preserve the silence

給我一分鐘專心好好欣賞妳的
gei wo yi fen zhong zhuan xin, hao hao xin shang ni de mei
Give me a minute to concentrate on admiring your beauty


幸福搭配悲傷 同時在我心交叉
xing fu da pei bei shang, tong shi zai wo xin jiao cha
Happiness complements sorrow, crossing paths within my heart at the same time

挫折的眼淚不能測試愛的重量
cuo zhe de yan lei bu neng ce shi ai de zhong liang
Tears of frustration cannot measure the weight of love

付出的愛收不回 還欠妳的我不能
fu chu de ai shou bu hui, hai qian ni de wo bu neng gei
I can’t withdraw the love I already gave and I can't give you all the love I owe you 

別把我心也帶走去跟隨
bie ba wo xin ye dai zou, qu gen sui
Don't take along my heart to follow you


*
每一次和妳分開 深深地被妳打
mei yi ci he ni fen kai, shen shen de bei ni da bai
Every time we part ways, I am deeply defeated by you

每一次放棄妳的溫柔 痛苦難以釋懷
mei yi ci fang qi ni de wen rou, tong ku nan yi shi huai
Every time I give up your tenderness, it is hard to release my pain 

每一次和妳分開 每一次Kiss You Goodbye
mei yi ci he ni fen kai, mei yi ci kiss you Goodbye
Every time we part ways, Every time I kiss you goodbye

愛情的滋味此刻我終於最明白
ai qing de zi wei ci ke wo zhong yu zui ming bai (wo zhong yu ming bai)
at that moment I finally fully understand the taste of love


幸福搭配悲傷 同時在我心交叉
xing fu da pei bei shang, tong shi zai wo xin jiao cha
Happiness complements sorrow, crossing paths within my heart at the same time

挫折的眼淚不能測試愛的重量
cuo zhe de yan lei bu neng ce shi ai de zhong liang
Tears of frustration cannot measure the weight of love 

付出的愛收不回 還欠妳的我不能
fu chu de ai shou bu hui, dan qian ni de wo bu neng gei
I cannot withdraw the love I already gave and I can't give you all the love I owe you

我才明白愛最真實的滋
wo cai ming bai ai zui zhen shi de zi wei
I finally understand the truest taste of love

2017년 11월 19일 일요일

Compiler 관련

Compiler: LX51

Segment
Prefix
Memory
Class
Description
?BA?DATABit-addressable data in internal data memory
?BI?BITBit data in internal data memory
?CO?CONSTConstant data in program memory
?DT?DATADATA memory
?FC?HCONSTFar constant data in program memory
?FD?HDATAHDATA memory for far variables
?ID?IDATAIDATA memory
?PD?XDATAPaged data in XDATA memory
?PR?CODEExecutable program code
?PR?ECODEExecutable program code in far memory
?XD?XDATAXDATA memory

Example
    - PDATA (first 256 bytes of XDATA)
    - Link

.m51 file

ACTIVE MEMORY CLASSES OF MODULE:  SERDES_CTL_SW_NIOCAM_RELIABILITY_UART_PROGRAM_171114.OMF.CRBUILD (EXTINT)

BASE        START       END         USED      MEMORY CLASS
LX51 LINKER/LOCATER V4.66.30.0                         11/20/2017  10:47:23  PAGE 2
==========================================================
C:000000H   C:000000H   C:003FFEH   00111CH   CODE
C:000000H   C:000000H   C:003FFEH   000E3CH   CONST
C:000000H   C:000000H   C:003FFEH             ECODE

B00:0000H   C:000000H   C:003FFEH             HCONST

X:000000H   X:000000H   X:0007FFH   0000C1H   XDATA
X:000000H   X:000000H   X:0007FFH             HDATA

I:000020H.0 I:000020H.0 I:00002FH.7 000000H.5 BIT
I:000000H   I:000000H   I:00007FH   000032H   DATA
I:000000H   I:000000H   I:0000FFH   000001H   IDATA

CODE: 111C hex를 사용 4380 byte
CONST: E3C hex를 사용 3644 byte
XDATA: C1 hex 를 사용 193 byte

XDATA는 내가 직접 선언해서 쓸 수 있다(directly)

그 외의
DATA 는 모두 Internal DATA(Internal RAM) 으로 각 심볼마다 어떤 
메모리를 사용했는지 알 수 있다.

2017년 11월 18일 토요일

Color space and bits per pixel

Color model name describes the video color representation. YIQ was used in NTSC television. It corresponds closely to the YUV scheme used in NTSC and PAL television and the YDbDr scheme used by SECAM television.
색상 모델 이름은 비디오 색상 표현을 설명합니다. YIQ는 NTSC 텔레비전에서 사용되었습니다. NTSC 및 PAL TV에서 사용되는 YUV 체계 및 SECAM 텔레비전에서 사용되는 YDbDr 체계와 밀접하게 일치합니다.

The number of distinct colors a pixel can represent depends on the number of bits per pixel (bpp). A common way to reduce the amount of data required in digital video is by chroma subsampling (e.g., 4:4:4, 4:2:2, 4:2:0/4:1:1). Because the human eye is less sensitive to details in color than brightness, the luminance data for all pixels is maintained, while the chrominance data is averaged for a number of pixels in a block and that same value is used for all of them. For example, this results in a 50% reduction in chrominance data using 2 pixel blocks (4:2:2) or 75% using 4 pixel blocks(4:2:0). This process does not reduce the number of possible color values that can be displayed, it reduces the number of distinct points at which the color changes.
픽셀이 표현할 수있는 고유 한 색상의 수는 픽셀 당 비트 수 (bpp)에 따라 다릅니다. 디지털 비디오에 필요한 데이터의 양을 줄이는 일반적인 방법은 크로마 하위 샘플링 (예 : 4 : 4 : 4, 4 : 2 : 2, 4 : 2 : 0/4 : 1 : 1)입니다. 인간의 눈은 밝기보다 색의 디테일에 덜 민감하기 때문에 모든 픽셀의 휘도 데이터가 유지되고 블록의 픽셀 수에 대해 색차 데이터가 평균화되고 모든 값에 동일한 값이 사용됩니다. 예를 들어, 2 픽셀 블록 (4 : 2 : 2) 또는 4 픽셀 블록 (4 : 2 : 0)을 사용하는 75 %를 사용하여 색차 데이터를 50 % 감소시킵니다. 이 프로세스는 표시 할 수있는 가능한 색상 값의 수를 줄이지 않으며 색상이 변하는 고유 한 포인트의 수를 줄입니다.

NTSC: YIQ
NTSC, PAL: YUV
SECAM: YDbDr

Terminology
Chroma: 채도
luminance: 휘도
-> 일정한 범위를 가진 광원(光源)의 광도(光度)를, 그 광원의 면적으로 나눈 양. 그 자체가 발광하고 있는 광원뿐만 아니라, 조명되어 빛나는 2차적인 광원에 대해서도 밝기를 나타내는 양으로 쓴다.
다만 이와 같은 정의는 광원의 면과 수직인 방향에서 관찰했을 때의 휘도이고, 광원의 면을 비스듬한 방향에서 본 경우는 그 방향에서 본 겉보기의 면적으로 나눈다.
YUV:


The Components of Color
Hue, Chroma, Value, Temperature
Link

Chroma subsampling
Link

YUV: Link
Y: luminance(휘도, 광원의 단위 면적당 밝기의 정도)
UV: chrominance(색차, 임의의 색과 그 색과 같은 휘도를 가진 기준색과의 차로, 색차 신호로서 얻어진다.)
 -> U = B′ − Y′ (blue − luma).
 -> V = R′ − Y′ (red − luma).

YCbCr: Link
Y: 휘도 성분
Cb: 색차 성분
Cr: 색차 성분
RGB 정보를 인코딩 하는 방식


참조 Why YUV is preferred over RGB

YCbCr is a consumer video format and this is the way HD is encoded. RGB is the traditional computer format. One is not superior to the other because each has it's own strengths and weaknesses.
CbCr은 소비자 비디오 형식이며 이것이 HD가 인코딩되는 방식입니다. RGB는 전통적인 컴퓨터 형식입니다. 하나는 자기 자신의 강점과 약점을 가지고 있기 때문에 다른 하나보다 우월하지 않습니다.

YCbCr is preferred because it is the native format. However many displays (almost all DVI inputs) only except RGB. If your display is HDMI it will likely except YCbCr if not switch to RGB. Auto should use YCbCr whenever possible. YCbCr is the digital counterpart to analog YPbPr component video. (YCbCr converted to analog is YPbPr). Digital RGB converted to analog is usually referred to as VGA. SD and HD DVDs are encoded in 8bit YCbCr 4:2:0. After/during decoding it's upsampled to YCbCr 4:2:2. If RGB output is required the YCbCr is upsampled again to 4:4:4 (sometimes done only once 4:2:0 -> 4:4:4) and a standard and simple transform converts to RGB 4:4:4. If done properly, you'll never notice the difference between the two. The advantage of YCbCr 4:2:2 is that it can be sent as 10bit (or 12bit) video via HDMI (all versions). RGB 4:4:4 is restricted to 8bit (except for the new deep color formats). However, if your display takes 8bit video and then upsamples to 10bit or higher for display, you may only need 8bit video. RGB is also the only format used with DVI(with a few exceptions).
YCbCr이 기본 형식이기 때문에 YCbCr이 좋습니다. 그러나 RGB를 제외한 많은 디스플레이 (거의 모든 DVI 입력). 디스플레이가 HDMI 인 경우 RGB로 전환하지 않으면 YCbCr을 제외 할 가능성이 높습니다. 가능한 경우 자동으로 YCbCr을 사용해야합니다. YCbCr은 아날로그 YPbPr 컴포넌트 비디오의 디지털 대응 물입니다. (아날로그로 변환 된 YCbCr은 YPbPr 임). 아날로그로 변환 된 디지털 RGB는 일반적으로 VGA라고합니다. SD 및 HD DVD는 8 비트 YCbCr 4 : 2 : 0으로 인코딩됩니다. 디코딩 중 / 디코딩 중 YCbCr 4 : 2 : 2로 업 샘플링됩니다. RGB 출력이 필요한 경우 YCbCr은 다시 4 : 4 : 4로 업 샘플링되며 (때때로 4 : 2 : 0 -> 4 : 4 : 4 한 번만 수행됨) 표준 및 단순 변환이 RGB 4 : 4 : 4로 변환됩니다. 제대로 완료되면 두 가지의 차이를 알 수 없습니다. YCbCr 4 : 2 : 2의 이점은 HDMI (모든 버전)를 통해 10 비트 (또는 12 비트) 비디오로 전송 될 수 있다는 것입니다. RGB 4 : 4 : 4는 8 비트로 제한됩니다 (새로운 짙은 색상 형식 제외). 그러나 디스플레이가 8 비트 비디오를 취한 다음 디스플레이를 위해 10 비트 이상으로 업 샘플링하면 8 비트 비디오 만 필요할 수 있습니다. RGB는 DVI와 함께 사용되는 유일한 형식이기도합니다 (몇 가지 예외가 있음).

YUV is a color spacetypically used as part of a color image pipeline.It encodes a color image or video taking human perception into account, allowing reduced bandwidth for chrominance components, thereby typically enabling transmission errors or compression artifacts to be more efficiently masked by the human perception than using a "direct"RGB-representation. Other color spaces have similar properties, and the main reason to implement or investigate properties of Y'UV would be for interfacing with analog or digital television or photographic equipment that conforms to certain Y'UV standards.
YUV는 컬러 이미지 파이프 라인의 일부로 공간적으로 사용되는 컬러입니다. 이는 인간의 인식을 고려한 컬러 이미지 또는 비디오를 인코딩하므로 크로 미 넌스 구성 요소의 대역폭이 줄어들어 일반적으로 전송 오류 또는 압축 아티팩트가 인간에 의해보다 효율적으로 가려집니다 "직접적인"RGB 표현을 사용하는 것보다 다른 색 공간은 유사한 속성을 가지고 있으며 Y'UV의 속성을 구현하거나 조사하는 주요 이유는 특정 Y'UV 표준을 준수하는 아날로그 또는 디지털 TV 또는 사진 장비와 인터페이스하기위한 것입니다.

The scope of the terms Y'UV, YUV, YCbCr ,YPbPr , etc., is sometimes ambiguous andoverlapping. Historically, the terms YUV and Y'UV were used for a specific analog encoding of color information in television systems, while YCbCr was used for digital encoding of color information suited for video and still-image compression and transmission such as MPEG and JPEG. Today, the term YUV is commonly used in the computer industry to describe file-formats that are encoded using YCbCr. The Y'UV model defines a color space in terms of one luma(Y') and two chrominance (UV) components. The Y'UV color model is used in the PAL and SECAM composite color video standards. Previous black-and-white systems used only luma (Y')information. Color information (U and V) was added separately via a sub-carrier  so that a black-and-white receiver would still be able to receive and display a color picture transmission in the receiver's native  black-and-white format. Y' stands for the luma component (the brightness) and U and V are the chrominance (color) components; luminance is denoted by Y and luma by Y' – the prime symbols (')denote gamma compression, with "luminance" meaning perceptual (color science) brightness, while "luma" is electronic (voltage of display) brightness
용어 Y'UV, YUV, YCbCr, YPbPr 등의 범위는 때로는 모호하고 중복됩니다. 역사적으로, YUV 및 Y'UV는 텔레비전 시스템에서 컬러 정보의 특정 아날로그 인코딩에 사용되었고, YCbCr은 비디오 및 MPEG 및 JPEG와 같은 정지 이미지 압축 및 전송에 적합한 컬러 정보의 디지털 인코딩에 사용되었습니다. 오늘날 YUV라는 용어는 YCbCr을 사용하여 인코딩 된 파일 형식을 설명하기 위해 컴퓨터 업계에서 일반적으로 사용됩니다. Y'UV 모델은 하나의 휘도 (Y ') 및 2 개의 색차 (UV) 성분으로 색 공간을 정의합니다. Y'UV 컬러 모델은 PAL 및 SECAM 합성 컬러 비디오 표준에 사용됩니다. 이전의 흑백 시스템은 루마 (Y ') 정보 만 사용했습니다. 컬러 정보 (U 및 V)는 서브 캐리어를 통해 개별적으로 추가되어, 흑백 수신기는 여전히 수신기의 네이티브 흑백 포맷의 컬러 화상 전송을 수신하고 디스플레이 할 수있게된다. Y '는 휘도 성분 (밝기)을 나타내고 U 및 V는 색차 성분 (색)을 나타냅니다. 

휘도는 Y로 표시하고"휘도"는 지각 (색 과학) 밝기를 의미,
luma는 Y '로 표시 - 프라임 기호 (')는 감마 압축을 나타내며, "루마"는 전자 (표시의 전압) 밝기

Video

Video is an electronic medium for the recording, copying, playback, broadcasting, and display of moving visual media.[1]
비디오는 움직이는 영상 매체의 녹화, 복사, 재생, 방송 및 표시를위한 전자 매체입니다. [1]

Video was first developed for mechanical television systems, which were quickly replaced by cathode ray tube (CRT) systems which were later replaced by flat panel displays of several types.
비디오는 기계식 TV 시스템 용으로 처음 개발되었으며, 나중에 CRT (Cathode Ray Tube) 시스템으로 대체되었으며 나중에 여러 유형의 평면 패널 디스플레이로 대체되었습니다.

Video systems vary in display resolution, aspect ratio, refresh rate, color capabilities and other qualities. Analog and digital variants exist and can be carried on a variety of media, including radio broadcast, magnetic tape, optical discs, computer files, and network streaming.
비디오 시스템은 디스플레이 해상도(resolution), 종횡비(aspect ratio), 주사율(refresh rate), 색상 기능(color capabilities) 및 기타 품질이 다릅니다. 아날로그 및 디지털 변형이 존재하며 라디오 방송, 자기 테이프, 광학 디스크, 컴퓨터 파일 및 네트워크 스트리밍을 비롯한 다양한 미디어에서 수행 할 수 있습니다.

History
Video technology was first developed for mechanical television systems, which were quickly replaced by cathode ray tube (CRT) television systems, but several new technologies for video display devices have since been invented. Video was originally exclusively a live technology. Charles Ginsburg led an Ampex research team developing one of the first practical video tape recorder (VTR). In 1951 the first video tape recorder captured live images from television cameras by converting the camera's electrical impulses and saving the information onto magnetic video tape.
비디오 기술은 처음에는 음극선 관 (CRT) 텔레비전 시스템으로 빠르게 대체 된 기계식 텔레비전 시스템 용으로 개발되었지만 이후 비디오 디스플레이 장치 용 몇 가지 신기술이 발명되었습니다. 비디오는 원래 독점적으로 라이브 기술이었습니다. Charles Ginsburg는 최초의 실용적인 비디오 테이프 레코더 (VTR) 중 하나를 개발하는 Ampex 연구 팀을 이끌었습니다. 1951 년 최초의 비디오 테이프 레코더는 카메라의 전기 충격을 변환하고 정보를 자기 비디오 테이프에 저장함으로써 텔레비전 카메라의 라이브 이미지를 캡처했습니다.

Video recorders were sold for US $50,000 in 1956, and videotapes cost US $300 per one-hour reel.[2] However, prices gradually dropped over the years; in 1971, Sony began selling videocassette recorder (VCR) decks and tapes into the consumer market.[3]
비디오 레코더는 1956 년에 5 만 달러에 판매되었으며 비디오 테이프는 1 시간짜리 릴당 300 달러를 소비했습니다. [2] 그러나 가격은 점차 하락했습니다.. Sony는 1971 년 VCR (비디오 카세트 레코더) 데크와 테이프를 소비자 시장에 판매하기 시작했습니다.

The use of digital techniques in video created digital video, which allows higher quality and, eventually, much lower cost than earlier analog technology. After the invention of the DVD in 1997 and Blu-ray Disc in 2006, sales of videotape and recording equipment plummeted. Advances in computer technology allows even inexpensive personal computers and smartphones to capture, store, edit and transmit digital video, further reducing the cost of video production, allowing program-makers and broadcasters to move to tapeless production. The advent of digital broadcasting and the subsequent digital television transition is in the process of relegating analog video to the status of a legacy technology in most parts of the world. As of 2015, with the increasing use of high-resolution video cameras with improved dynamic range and color gamuts, and high-dynamic-range digital intermediate data formats with improved color depth, modern digital video technology is converging with digital film technology.
비디오에서 디지털 기술을 사용하여 디지털 비디오를 만들었으므로 이전 아날로그 기술보다 높은 품질과 궁극적으로 훨씬 저렴한 비용이 가능합니다. 1997 년 DVD 및 2006 년 Blu-ray Disc가 발명 된 후 비디오 테이프 및 녹화 장비 판매가 급감했습니다. 컴퓨터 기술의 발달로 저가의 개인용 컴퓨터와 스마트 폰도 디지털 비디오를 캡처, 저장, 편집 및 전송할 수 있으므로 비디오 제작 비용이 추가로 절감되어 프로그램 제작자와 방송사가 테이프리스 제작으로 이동할 수 있습니다. 디지털 방송의 출현과 그 이후의 디지털 TV 전환은 아날로그 비디오를 세계의 대부분 지역의 레거시 기술 상태로 이관하는 과정에 있습니다. 2015 년에 향상된 동적 범위와 색상 영역을 가진 고해상도 비디오 카메라와 향상된 색상 깊이를 가진 높은 동적 범위 디지털 중간 데이터 형식의 사용이 증가함에 따라 최신 디지털 비디오 기술은 디지털 필름 기술로 수렴하고 있습니다.

Characteristics of video streams

Number of frames per second
Frame rate, the number of still pictures per unit of time of video, ranges from six or eight frames per second (frame/s) for old mechanical cameras to 120 or more frames per second for new professional cameras. PAL standards (Europe, Asia, Australia, etc.) and SECAM (France, Russia, parts of Africa etc.) specify 25 frame/s, while NTSC standards (USA, Canada, Japan, etc.) specify 29.97 frame/s.[4] Film is shot at the slower frame rate of 24 frames per second, which slightly complicates the process of transferring a cinematic motion picture to video. The minimum frame rate to achieve a comfortable illusion of a moving image is about sixteen frames per second.[5]
비디오의 단위 시간당 스틸 사진의 수인 프레임 속도는 새로운 전문 카메라의 경우 기존 기계식 카메라의 경우 초당 6 또는 8 프레임 (프레임 / 초)에서 초당 120 프레임 이상까지 다양합니다. NTSC 표준 (미국, 캐나다, 일본 등)이 29.97 프레임 / 초를 지정하는 반면 PAL 표준 (유럽, 아시아, 호주 등) 및 SECAM (프랑스, 러시아, 아프리카 일부 등)은 25 프레임 / 초를 지정합니다. [4] 필름은 초당 24 프레임의 느린 프레임 속도로 촬영되므로 동영상 동영상을 비디오로 전송하는 과정이 약간 복잡해집니다. 움직이는 이미지를 편안하게 표현하기위한 최소 프레임 속도는 초당 약 16 프레임입니다. [5]

Interlaced vs progressive
Video can be interlaced or progressive. Interlacing was invented as a way to reduce flicker in early mechanical and CRT video displays without increasing the number of complete frames per second, which would have sacrificed image detail to remain within the limitations of a narrow channel bandwidth. The horizontal scan lines of each complete frame are treated as if numbered consecutively, and captured as two fields: an odd field (upper field) consisting of the odd-numbered lines and an even field (lower field) consisting of the even-numbered lines. Analog display devices reproduce each frame in the same way, effectively doubling the frame rate as far as perceptible overall flicker is concerned. When the image capture device acquires the fields one at a time, rather than dividing up a complete frame after it is captured, the frame rate for motion is effectively doubled as well, resulting in smoother, more lifelike reproduction of rapidly moving parts of the image when viewed on an interlaced CRT display.
비디오는 인터레이스 또는 프로그레시브 일 수 있습니다. 인터레이스는 초당 전체 프레임 수를 늘리지 않고 초기 기계 및 CRT 비디오 디스플레이의 깜박 거림을 줄이는 방법으로 개발되었으므로 좁은 채널 대역폭의 한계 내에서 이미지 세부 사항을 유지할 수 있습니다. 각각의 완전한 프레임의 수평 주사선은 연속적으로 번호가 매겨진 것처럼 다루어지며, 홀수 번째 라인으로 구성된 홀수 필드 (윗 필드)와 짝수 번째 라인으로 구성된 짝수 필드 (아래 필드)의 두 필드로 캡처됩니다. . 아날로그 디스플레이 장치는 각 프레임을 동일한 방식으로 재생하므로 인식 할 수있는 전체 깜박임에 관해서는 프레임 속도를 효과적으로 배가시킵니다. 인터레이스 CRT 디스플레이에서 볼 때,이미지 캡처 장치가 필드를 한 번에 하나씩 가져 오면 캡처 한 후 전체 프레임을 분할하지 않고 모션의 프레임 속도를 효과적으로 두 배로 늘리면 이미지의 빠르게 움직이는 부분을 더 부드럽고 사실처럼 재현합니다

NTSC, PAL and SECAM are interlaced formats. Abbreviated video resolution specifications often include an i to indicate interlacing. For example, PAL video format is often described as 576i50, where 576 indicates the total number of horizontal scan lines, i indicates interlacing, and 50 indicates 50 fields (half-frames) per second.
NTSC, PAL 및 SECAM은 인터레이스 형식입니다. 약식 비디오 해상도 사양에는 종종 인터레이스를 나타내는 i가 포함됩니다. 예를 들어, PAL 비디오 형식은 종종 576i50으로 설명되며, 576은 총 수평 주사선 수, i는 인터레이스, 50은 초당 50 필드 (1/2 프레임)를 나타냅니다.

In progressive scan systems, each refresh period updates all scan lines in each frame in sequence. When displaying a natively progressive broadcast or recorded signal, the result is optimum spatial resolution of both the stationary and moving parts of the image.
프로그레시브 스캔 시스템에서, 각 리프레시주기는 각 프레임의 모든 스캔 라인을 순서대로 업데이트합니다. 네이티브 프로그레시브 방송이나 녹화 된 신호를 표시 할 때 결과는 정지 영상과 움직이는 부분의 최적 공간 해상도입니다.

When displaying a natively interlaced signal on a progressive scan device, overall spatial resolution is degraded by simple line doubling—artifacts such as flickering or "comb" effects in moving parts of the image which appear unless special signal processing eliminates them. A procedure known as deinterlacing can optimize the display of an interlaced video signal from an analog, DVD or satellite source on a progressive scan device such as an LCD television, digital video projector or plasma panel. Deinterlacing cannot, however, produce video quality that is equivalent to true progressive scan source material.
프로그레시브 스캔 장치에 네이티브 인터레이스 신호를 표시 할 때 특수 신호 처리로 인해 이미지가 제거되지 않으면 나타나는 이미지의 움직이는 부분의 깜박임이나 "빗"효과와 같은 단순한 라인 증감 - 아티팩트로 전반적인 공간 해상도가 저하됩니다. 디인터레이싱으로 알려진 절차는 LCD TV, 디지털 비디오 프로젝터 또는 플라즈마 패널과 같은 프로그레시브 스캔 장치에서 아날로그, DVD 또는 위성 소스의 인터레이스 비디오 신호 디스플레이를 최적화 할 수 있습니다. 그러나 디인터레이싱은 진정한 프로그레시브 스캔 소스 자료와 동일한 비디오 품질을 생성 할 수 없습니다.

Aspect ratio
Aspect ratio describes the dimensions of video screens and video picture elements. All popular video formats are rectilinear, and so can be described by a ratio between width and height. The screen aspect ratio of a traditional television screen is 4:3, or about 1.33:1. High definition televisions use an aspect ratio of 16:9, or about 1.78:1. The aspect ratio of a full 35 mm film frame with soundtrack (also known as the Academy ratio) is 1.375:1.
화면 비율은 비디오 화면과 비디오 그림 요소의 크기를 나타냅니다. 모든 인기있는 비디오 포맷은 직선형이므로 폭과 높이의 비율로 설명 할 수 있습니다. 기존의 TV 화면의 화면 종횡비는 4 : 3 또는 약 1.33 : 1입니다. 고화질 TV는 종횡비가 16 : 9 또는 약 1.78 : 1입니다. 사운드 트랙 (아카데미 비율이라고도 함)이있는 전체 35mm 필름 프레임의 종횡비는 1.375 : 1입니다.

Pixels on computer monitors are usually square, but pixels used in digital video often have non-square aspect ratios, such as those used in the PAL and NTSC variants of the CCIR 601 digital video standard, and the corresponding anamorphic widescreen formats. Therefore, a 720 by 480 pixel NTSC DV image displayes with the 4:3 aspect ratio (the traditional television standard) if the pixels are thin, and displays at the 16:9 aspect ratio (the anamorphic widescreen format) if the pixels are fat.
컴퓨터 모니터의 픽셀은 일반적으로 사각형이지만 디지털 비디오에 사용되는 픽셀은 CCIR 601 디지털 비디오 표준의 PAL 및 NTSC 변형과 해당 아나모픽 와이드 스크린 형식에서 사용되는 것과 같이 정사각형이 아닌 비례 비율을 사용하는 경우가 많습니다. 따라서 720 x 480 픽셀 NTSC DV 이미지는 픽셀이 얇은 경우 4 : 3 종횡비 (일반 TV 표준)로 표시되고 픽셀이 뚱뚱한 경우 16 : 9 종횡비 (아나모픽 와이드 스크린 형식)로 표시됩니다 .

The popularity of viewing video on mobile phones has led to the growth of vertical video. Mary Meeker, a partner at Silicon Valley venture capital firm Kleiner Perkins Caufield & Byers, highlighted the growth of vertical video viewing in her 2015 Internet Trends Report – growing from 5% of video viewing in 2010 to 29% in 2015. Vertical video ads like Snapchat’s are watched in their entirety 9X more than landscape video ads.[6] The format was rapidly taken up by leading social platforms and media publishers such as Mashable[7] In October 2015 video platform Grabyo launched technology to help video publishers adapt horizotonal 16:9 video into mobile formats such as vertical and square.[8]
휴대 전화에서 동영상을 시청하는 인기로 인해 수직 동영상이 증가했습니다. 실리콘 밸리 벤처 캐피털 회사 인 Kleiner Perkins Caufield & Byers의 파트너 인 Mary Meeker는 2015 년 인터넷 동향 보고서에서 수직 비디오 시청의 성장을 강조했습니다. 2010 년 비디오 시청의 5 %에서 2015 년 29 %로 증가했습니다. Snapchat은 풍경 비디오 광고보다 9 배 더 많이 시청됩니다. [6] 형식은 Mashable과 같은 주요 소셜 플랫폼 및 미디어 게시자에 의해 빠르게 채택되었습니다. [10] 2015 년 10 월 비디오 플랫폼 Grabyo는 비디오 게시자가 수평 및 정사각형과 같은 모바일 형식에 수평 적 16 : 9 비디오를 적응시키는 기술을 선보였습니다.

Color space and bits per pixel
Color model name describes the video color representation. YIQ was used in NTSC television. It corresponds closely to the YUV scheme used in NTSC and PAL television and the YDbDr scheme used by SECAM television.
색상 모델 이름은 비디오 색상 표현을 설명합니다. YIQ는 NTSC 텔레비전에서 사용되었습니다. NTSC 및 PAL TV에서 사용되는 YUV 체계 및 SECAM 텔레비전에서 사용되는 YDbDr 체계와 밀접하게 일치합니다.

The number of distinct colors a pixel can represent depends on the number of bits per pixel (bpp). A common way to reduce the amount of data required in digital video is by chroma subsampling (e.g., 4:4:4, 4:2:2, 4:2:0/4:1:1). Because the human eye is less sensitive to details in color than brightness, the luminance data for all pixels is maintained, while the chrominance data is averaged for a number of pixels in a block and that same value is used for all of them. For example, this results in a 50% reduction in chrominance data using 2 pixel blocks (4:2:2) or 75% using 4 pixel blocks(4:2:0). This process does not reduce the number of possible color values that can be displayed, it reduces the number of distinct points at which the color changes.
픽셀이 표현할 수있는 고유 한 색상의 수는 픽셀 당 비트 수 (bpp)에 따라 다릅니다. 디지털 비디오에 필요한 데이터의 양을 줄이는 일반적인 방법은 크로마 하위 샘플링 (예 : 4 : 4 : 4, 4 : 2 : 2, 4 : 2 : 0/4 : 1 : 1)입니다. 인간의 눈은 밝기보다 색의 디테일에 덜 민감하기 때문에 모든 픽셀의 휘도 데이터가 유지되고 블록의 픽셀 수에 대해 색차 데이터가 평균화되고 모든 값이 동일한 값으로 사용됩니다. 예를 들어, 2 픽셀 블록 (4 : 2 : 2) 또는 4 픽셀 블록 (4 : 2 : 0)을 사용하는 75 %를 사용하여 색차 데이터를 50 % 줄입니다. 이 프로세스는 표시 할 수있는 가능한 색상 값의 수를 줄이지 않으며 색상이 변하는 고유 한 포인트의 수를 줄입니다.

Video quality

Video quality can be measured with formal metrics like PSNR or with subjective video quality using expert observation.
비디오 품질은 PSNR과 같은 공식 통계 또는 전문가 관찰을 통한 주관적인 비디오 품질로 측정 할 수 있습니다.

The subjective video quality of a video processing system is evaluated as follows:
비디오 처리 시스템의 주관적인 비디오 품질은 다음과 같이 평가됩니다.

Choose the video sequences (the SRC) to use for testing.
Choose the settings of the system to evaluate (the HRC).
Choose a test method for how to present video sequences to experts and to collect their ratings.
Invite a sufficient number of experts, preferably not fewer than 15.
Carry out testing.
Calculate the average marks for each HRC based on the experts' ratings.
Many subjective video quality methods are described in the ITU-T recommendation BT.500. One of the standardized method is the Double Stimulus Impairment Scale (DSIS). In DSIS, each expert views an unimpaired reference video followed by an impaired version of the same video. The expert then rates the impaired video using a scale ranging from "impairments are imperceptible" to "impairments are very annoying".

테스트에 사용할 비디오 시퀀스 (SRC)를 선택하십시오.
평가할 시스템의 설정을 선택하십시오 (HRC).
전문가에게 비디오 시퀀스를 표시하고 등급을 수집하는 방법에 대한 테스트 방법을 선택하십시오.
충분한 수의 전문가를 초빙하십시오.
테스트를 수행하십시오.
전문가 등급에 따라 각 HRC의 평균 점수를 계산하십시오.
많은 주관적인 비디오 품질 방법은 ITU-T 권고 BT.500에 기술되어있다. 표준화 된 방법 중 하나는 Double Stimulus Impairment Scale (DSIS)입니다. DSIS에서 각 전문가는 손상되지 않은 참조 비디오와 손상되지 않은 비디오를 봅니다. 그런 다음 전문가는 "손상이인지 할 수 없음"에서 "손상이 매우 성가심"까지의 범위를 사용하여 손상된 비디오에 등급을 매 깁니다.

Video compression method (digital only)
Uncompressed video delivers maximum quality, but with a very high data rate. A variety of methods are used to compress video streams, with the most effective ones using a Group Of Pictures (GOP) to reduce spatial and temporal redundancy. Broadly speaking, spatial redundancy is reduced by registering differences between parts of a single frame; this task is known as intraframe compression and is closely related to image compression. Likewise, temporal redundancy can be reduced by registering differences between frames; this task is known as interframe compression, including motion compensation and other techniques. The most common modern standards are MPEG-2, used for DVD, Blu-ray and satellite television, and MPEG-4, used for AVCHD, Mobile phones (3GP) and Internet.
비 압축 비디오는 최고 품질이지만 매우 높은 데이터 전송률이 필요합니다. 비디오 스트림을 압축하기 위해 다양한 방법이 사용되며, GOP (Group of Pictures)를 사용하여 공간 및 시간 중복성을 줄이는 가장 효과적인 방법이 사용됩니다. 대체로, 공간 중복성은 단일 프레임의 부분들 사이의 차이점을 등록함으로써 감소됩니다. 이 작업은 인트라 프레임 압축이라고하며 이미지 압축과 밀접한 관련이 있습니다. 마찬가지로, 시간적 중복은 프레임들 간의 차이를 등록함으로써 감소 될 수있다. 이 작업은 모션 보정 및 기타 기술을 포함한 프레임 간 압축이라고합니다. 가장 일반적인 표준은 AVCHD, 휴대폰 (3GP) 및 인터넷에 사용되는 DVD, 블루 레이 및 위성 TV 및 MPEG-4에 사용되는 MPEG-2입니다.

Stereoscopic
Stereoscopic video can be created using several different methods:

Two channels: a right channel for the right eye and a left channel for the left eye. Both channels may be viewed simultaneously by using light-polarizing filters 90 degrees off-axis from each other on two video projectors. These separately polarized channels are viewed wearing eyeglasses with matching polarization filters.
One channel with two overlaid color-coded layers. This left and right layer technique is occasionally used for network broadcast, or recent "anaglyph" releases of 3D movies on DVD. Simple Red/Cyan plastic glasses provide the means to view the images discretely to form a stereoscopic view of the content.
One channel with alternating left and right frames for the corresponding eye, using LCD shutter glasses that read the frame sync from the VGA Display Data Channel to alternately block the image to each eye, so the appropriate eye sees the correct frame. This method is most common in computer virtual reality applications such as in a Cave Automatic Virtual Environment, but reduces effective video framerate to one-half of normal (for example, from 120 Hz to 60 Hz).
Blu-ray Discs greatly improve the sharpness and detail of the two-color 3D effect in color-coded stereo programs. See articles Stereoscopy and 3-D film.
2 개의 채널 : 오른쪽 눈을위한 오른쪽 채널과 왼쪽 눈을위한 왼쪽 채널. 두 채널은 두 개의 비디오 프로젝터에서 서로 90도 축이 아닌 편광 필터를 사용하여 동시에 볼 수 있습니다. 이 개별적으로 편광 된 채널은 일치하는 편광 필터가있는 착용 안경으로 보입니다.
하나의 채널에 2 개의 겹쳐진 색으로 구분 된 레이어가 있습니다. 이 왼쪽 및 오른쪽 레이어 기법은 네트워크 방송이나 DVD의 3D 영화의 최근 "애너 글리프"릴리스에 사용됩니다. 단순한 적색 / 청록색 플라스틱 안경은이 미지를 입체적으로 볼 수있는 수단을 제공합니다.
이미지를 각 눈으로 교대로 차단하기 위해 VGA 디스플레이 데이터 채널에서 프레임 동기화를 읽는 LCD 셔터 글래스를 사용하여 적절한 눈으로 올바른 프레임을 볼 수 있도록 해당 눈에 대해 왼쪽 및 오른쪽 프레임을 번갈아 사용하는 하나의 채널. 이 방법은 동굴 자동 가상 환경에서와 같이 컴퓨터 가상 현실 응용 프로그램에서 가장 일반적이지만 유효 비디오 프레임 속도를 정상의 절반 (예 : 120Hz에서 60Hz)으로 줄입니다.
블루 레이 디스크는 색으로 구분 된 스테레오 프로그램에서 2 색 3D 효과의 선명도와 세부 사항을 크게 향상시킵니다. 스테레오 스코피 (Stereoscopy) 및 3-D 필름을 참조하십시오.

Formats
Different layers of video transmission and storage each provide their own set of formats to choose from.
다양한 비디오 전송 및 저장 계층은 각각 자신이 선택할 수있는 형식 집합을 제공합니다.

For transmission, there is a physical connector and signal protocol ("video connection standard" below). A given physical link can carry certain "display standards" that specify a particular refresh rate, display resolution, and color space.
전송에는 물리적 커넥터 및 신호 프로토콜 (아래 "비디오 연결 표준")이 있습니다. 주어진 물리적 링크는 특정 재생 빈도, 디스플레이 해상도 및 색 공간을 지정하는 특정 "디스플레이 표준"을 전달할 수 있습니다.

Many analog and digital recording formats are in use, and digital video clips can also be stored on a computer file system as files, which have their own formats. In addition to the physical format used by the data storage device or transmission medium, the stream of ones and zeros that is sent must be in a particular digital video compression format, of which a number are available.
많은 아날로그 및 디지털 레코딩 포맷이 사용되고 있으며 디지털 비디오 클립을 파일 형식으로 컴퓨터 파일 시스템에 저장할 수도 있습니다. 데이터 저장 장치 또는 전송 매체에 의해 사용되는 물리적 포맷 이외에, 전송되는 1과 0의 스트림은 특정 디지털 비디오 압축 포맷이어야하며, 그 중 숫자가 이용 가능해야한다.

Analog video
Analog video is a video signal transferred by an analog signal. An analog color video signal contains luminance, brightness (Y) and chrominance (C) of an analog television image. When combined into one channel, it is called composite video as is the case, among others with NTSC, PAL and SECAM.

Analog video may be carried in separate channels, as in two channel S-Video (YC) and multi-channel component video formats.

Analog video is used in both consumer and professional television production applications.
아날로그 비디오는 아날로그 신호로 전송되는 비디오 신호입니다. 아날로그 컬러 비디오 신호는 아날로그 텔레비전 이미지의 휘도, 밝기 (Y) 및 색차 (C)를 포함합니다. 하나의 채널로 합쳐지면 NTSC, PAL 및 SECAM의 경우와 마찬가지로 컴포지트 비디오라고도합니다.

아날로그 비디오는 2 채널 S-Video (YC) 및 다중 채널 컴포넌트 비디오 형식에서와 같이 별도의 채널로 전송 될 수 있습니다.

아날로그 비디오는 소비자 및 전문 TV 프로덕션 응용 프로그램에서 모두 사용됩니다.

Digital video
Digital video signal formats with higher quality have been adopted, including serial digital interface (SDI), Digital Visual Interface (DVI), High-Definition Multimedia Interface (HDMI) and DisplayPort Interface, though analog video interfaces are still used and widely available. There exist different adaptors and variants.
아날로그 비디오 인터페이스가 여전히 사용되고 광범위하게 이용 가능하지만 직렬 디지털 인터페이스 (SDI), DVI (Digital Visual Interface), HDMI (High-Definition Multimedia Interface) 및 DisplayPort 인터페이스를 포함하여 고품질의 디지털 비디오 신호 형식이 채택되었습니다. 다른 어댑터와 변형이 존재합니다.

Transport medium
Video can be transmitted or transported in a variety of ways. Wireless broadcast as an analog or digital signal. Coaxial cable in a closed circuit system can be sent as analog interlaced 1 volt peak to peak with a maximum horizontal line resolution up to 480. Broadcast or studio cameras use a single or dual coaxial cable system using a progressive scan format known as SDI serial digital interface and HD-SDI for High Definition video. The distances of transmission are somewhat limited depending on the manufacturer the format may be proprietary. SDI has a negligible lag and is uncompressed. There are initiatives to use the SDI standards in closed circuit surveillance systems, for Higher Definition images, over longer distances on coax or twisted pair cable. Due to the nature of the higher bandwidth needed, the distance the signal can be effectively sent is a half to a third of what the older interlaced analog systems supported.[9]
비디오는 다양한 방식으로 전송되거나 전송 될 수 있습니다. 아날로그 또는 디지털 신호로 무선 브로드 캐스트. 폐회로 시스템의 동축 케이블은 최대 수평 라인 해상도가 480까지 인 아날로그 인터레이스 1V 피크 - 피크로 전송할 수 있습니다. 방송 또는 스튜디오 카메라는 SDI 직렬 디지털로 알려진 프로그레시브 스캔 형식을 사용하는 단일 또는 이중 동축 케이블 시스템을 사용합니다 인터페이스 및 HD-SDI를 지원합니다. 전송 거리는 제조업체에 따라 다소 제한적이며 형식은 독점적 일 수 있습니다. SDI는 무시할 수있는 지연이 있으며 압축되지 않습니다. SDI 표준을 폐회로 감시 시스템에서 사용하기위한 이니셔티브가 있습니다. 동축 케이블 또는 트위스트 페어 케이블에서 더 긴 거리에서 고화질 이미지를 얻을 수 있습니다. 필요한 더 높은 대역폭의 특성으로 인해 신호가 효과적으로 전송 될 수있는 거리는 이전 인터레이스 아날로그 시스템이 지원하는 것의 1/3이다.
















2017년 11월 17일 금요일

시리얼 통신방법에 대해 알고 싶을 때

시리얼 통신(뿐만아니라 모든 통신)은 표준이 있고, 그 표준은 그 기술을 사용하는 모든 업체에서 쓰고 있다.
그렇기 때문에 Major 업체의 문서(Datasheet)를 보면 이해가 쉬울 때가 많다.

유명한 반도체 회사로는
아트멜
ST마이크로일렉트로닉스
텍사스 인스트루먼트
프리스케일 세미컨덕터
아날로그 디바이시스
마이크로칩 테크날로지

등이 있다. 반도체 회사의 순위는 Link 참조

나의 경우 I2C 통신의 세부 Interrupt 의 동작을 알고 싶었고

필요한 내용을 찾는 순서는

1. atmel 홈페이지(Link)에 들어간다.
2. 제품 페이지(Link)로 들어간다.
3. Serial 통신이므로 Memory 항목의 Serial 페이지(Link)로 들어가면
4. Serial EEPROM - I2C 관련 페이지가 있고 문서(Link) 링크로 가면
5. 다양한 제품의 문서가 있는데 제일 위의 문서를 열고
    1) Device Addressing
    2) Write Operations
    3) Read Operations
부분을 보고 이해하면 된다.





2017년 11월 16일 목요일

Camera interface

The CAMIF, also the Camera Interface block is the hardware block that interfaces with different image sensor interfaces and provides a standard output that can be used for subsequent image processing.

A typical Camera Interface would support at least a parallel interface although these days many camera interfaces are beginning to support the MIPI CSI interface.

The camera interface's parallel interface consists of the following lines :-

8 to 12 bits parallel data line

These are parallel data lines that carry pixel data. The data transmitted on these lines change with every Pixel Clock (PCLK).

Horizontal Sync (HSYNC)
This is a special signal that goes from the camera sensor or ISP to the camera interface. An HSYNC indicates that one line of the frame is transmitted.

Vertical Sync (VSYNC)
This signal is transmitted after the entire frame is transferred. This signal is often a way to indicate that one entire frame is transmitted.

Pixel Clock (PCLK)
This is the pixel clock and it would change on every pixel.
NOTE: The above lines are all treated as input lines to the Camera Interface hardware.

Example
Let us suppose that a sensor is transmitting a VGA frame 640x480. The video frame is of a format RGB888. Let's assume that we have a camera sensor transmitting 8 bits per pixel clock (PCLK). This means to transfer one pixel of data, 3 PCLKs would be required. The HSYNC would be fired by the sensor after every 640 x 3, 1920 PCLKs. A VSYNC would be fired by the sensor after the entire frame is transmitted i.e. after 1920x480, 921600 PCLKs.
센서가 VGA 프레임 640x480을 전송한다고 가정 해 봅시다. 비디오 프레임은 RGB888 형식입니다. 우리가 픽셀 클록 (PCLK) 당 8 비트(0~255)를 전송하는 카메라 센서를 가지고 있다고 가정 해 봅시다. 이것은 한 픽셀의 데이터를 전송하는 것을 의미하며, 3 개의 PCLK(R, G, B 세가지 색을 모두 전달할 경우?)가 필요합니다. HSYNC는 640 x 3, 1920 PCLK마다 센서에 의해 발사됩니다. VSYNC는 전체 프레임이 전송 된 후 즉 1920x480, 921600 PCLK 이후에 센서에 의해 시작됩니다.

The camera interface's hardware block (that could be a part of any SOC) would constantly monitor the above lines to see if the sensor has transmitted anything. A typical camera interface would come with some internal buffering and would also have an associated DMA to transfer the image to the destination memory. The buffer would capture the incoming pixels to temporarily buffer them, and using the DMA the pixels would be transferred (probably line by line) through multiple burst DMA transfers to a destination address in the memory (pre programmed by the camera interface driver programmer). The camera interface's programmer interface might also give a facility of issuing hardware interrupts upon the receipt of the HSYNC, VSYNC signals to the host micro-controller. This could serve as a useful trigger for DMA reprogramming if required.
카메라 인터페이스의 하드웨어 블록 (SOC의 일부일 수 있음)은 센서가 아무 것도 전송하지 않았는지 확인하기 위해 위의 라인을 지속적으로 모니터링합니다. 전형적인 카메라 인터페이스는 약간의 내부 버퍼링을 가지며 이미지를 대상 메모리로 전송하는 관련 DMA를 갖습니다. 버퍼는 들어오는 픽셀을 캡처하여 일시적으로 버퍼에 저장하고, DMA를 사용하면 메모리의 대상 주소 (카메라 인터페이스 드라이버 프로그래머가 사전 프로그래밍 한)로 다중 버스트 DMA 전송을 통해 픽셀이 전송됩니다. 카메라 인터페이스의 프로그래머 인터페이스는 호스트 마이크로 컨트롤러에 대한 HSYNC, VSYNC 신호 수신시 하드웨어 인터럽트를 발행하는 기능을 제공 할 수도 있습니다. 필요할 경우 DMA 재 프로그래밍을위한 유용한 트리거 역할을 할 수 있습니다.

카메라에서의 PLL
pclk 이 기본으로 Data 라인까지 정상적이라면 PLL 이 Lock 된다.