2017년 11월 18일 토요일

Video

Video is an electronic medium for the recording, copying, playback, broadcasting, and display of moving visual media.[1]
비디오는 움직이는 영상 매체의 녹화, 복사, 재생, 방송 및 표시를위한 전자 매체입니다. [1]

Video was first developed for mechanical television systems, which were quickly replaced by cathode ray tube (CRT) systems which were later replaced by flat panel displays of several types.
비디오는 기계식 TV 시스템 용으로 처음 개발되었으며, 나중에 CRT (Cathode Ray Tube) 시스템으로 대체되었으며 나중에 여러 유형의 평면 패널 디스플레이로 대체되었습니다.

Video systems vary in display resolution, aspect ratio, refresh rate, color capabilities and other qualities. Analog and digital variants exist and can be carried on a variety of media, including radio broadcast, magnetic tape, optical discs, computer files, and network streaming.
비디오 시스템은 디스플레이 해상도(resolution), 종횡비(aspect ratio), 주사율(refresh rate), 색상 기능(color capabilities) 및 기타 품질이 다릅니다. 아날로그 및 디지털 변형이 존재하며 라디오 방송, 자기 테이프, 광학 디스크, 컴퓨터 파일 및 네트워크 스트리밍을 비롯한 다양한 미디어에서 수행 할 수 있습니다.

History
Video technology was first developed for mechanical television systems, which were quickly replaced by cathode ray tube (CRT) television systems, but several new technologies for video display devices have since been invented. Video was originally exclusively a live technology. Charles Ginsburg led an Ampex research team developing one of the first practical video tape recorder (VTR). In 1951 the first video tape recorder captured live images from television cameras by converting the camera's electrical impulses and saving the information onto magnetic video tape.
비디오 기술은 처음에는 음극선 관 (CRT) 텔레비전 시스템으로 빠르게 대체 된 기계식 텔레비전 시스템 용으로 개발되었지만 이후 비디오 디스플레이 장치 용 몇 가지 신기술이 발명되었습니다. 비디오는 원래 독점적으로 라이브 기술이었습니다. Charles Ginsburg는 최초의 실용적인 비디오 테이프 레코더 (VTR) 중 하나를 개발하는 Ampex 연구 팀을 이끌었습니다. 1951 년 최초의 비디오 테이프 레코더는 카메라의 전기 충격을 변환하고 정보를 자기 비디오 테이프에 저장함으로써 텔레비전 카메라의 라이브 이미지를 캡처했습니다.

Video recorders were sold for US $50,000 in 1956, and videotapes cost US $300 per one-hour reel.[2] However, prices gradually dropped over the years; in 1971, Sony began selling videocassette recorder (VCR) decks and tapes into the consumer market.[3]
비디오 레코더는 1956 년에 5 만 달러에 판매되었으며 비디오 테이프는 1 시간짜리 릴당 300 달러를 소비했습니다. [2] 그러나 가격은 점차 하락했습니다.. Sony는 1971 년 VCR (비디오 카세트 레코더) 데크와 테이프를 소비자 시장에 판매하기 시작했습니다.

The use of digital techniques in video created digital video, which allows higher quality and, eventually, much lower cost than earlier analog technology. After the invention of the DVD in 1997 and Blu-ray Disc in 2006, sales of videotape and recording equipment plummeted. Advances in computer technology allows even inexpensive personal computers and smartphones to capture, store, edit and transmit digital video, further reducing the cost of video production, allowing program-makers and broadcasters to move to tapeless production. The advent of digital broadcasting and the subsequent digital television transition is in the process of relegating analog video to the status of a legacy technology in most parts of the world. As of 2015, with the increasing use of high-resolution video cameras with improved dynamic range and color gamuts, and high-dynamic-range digital intermediate data formats with improved color depth, modern digital video technology is converging with digital film technology.
비디오에서 디지털 기술을 사용하여 디지털 비디오를 만들었으므로 이전 아날로그 기술보다 높은 품질과 궁극적으로 훨씬 저렴한 비용이 가능합니다. 1997 년 DVD 및 2006 년 Blu-ray Disc가 발명 된 후 비디오 테이프 및 녹화 장비 판매가 급감했습니다. 컴퓨터 기술의 발달로 저가의 개인용 컴퓨터와 스마트 폰도 디지털 비디오를 캡처, 저장, 편집 및 전송할 수 있으므로 비디오 제작 비용이 추가로 절감되어 프로그램 제작자와 방송사가 테이프리스 제작으로 이동할 수 있습니다. 디지털 방송의 출현과 그 이후의 디지털 TV 전환은 아날로그 비디오를 세계의 대부분 지역의 레거시 기술 상태로 이관하는 과정에 있습니다. 2015 년에 향상된 동적 범위와 색상 영역을 가진 고해상도 비디오 카메라와 향상된 색상 깊이를 가진 높은 동적 범위 디지털 중간 데이터 형식의 사용이 증가함에 따라 최신 디지털 비디오 기술은 디지털 필름 기술로 수렴하고 있습니다.

Characteristics of video streams

Number of frames per second
Frame rate, the number of still pictures per unit of time of video, ranges from six or eight frames per second (frame/s) for old mechanical cameras to 120 or more frames per second for new professional cameras. PAL standards (Europe, Asia, Australia, etc.) and SECAM (France, Russia, parts of Africa etc.) specify 25 frame/s, while NTSC standards (USA, Canada, Japan, etc.) specify 29.97 frame/s.[4] Film is shot at the slower frame rate of 24 frames per second, which slightly complicates the process of transferring a cinematic motion picture to video. The minimum frame rate to achieve a comfortable illusion of a moving image is about sixteen frames per second.[5]
비디오의 단위 시간당 스틸 사진의 수인 프레임 속도는 새로운 전문 카메라의 경우 기존 기계식 카메라의 경우 초당 6 또는 8 프레임 (프레임 / 초)에서 초당 120 프레임 이상까지 다양합니다. NTSC 표준 (미국, 캐나다, 일본 등)이 29.97 프레임 / 초를 지정하는 반면 PAL 표준 (유럽, 아시아, 호주 등) 및 SECAM (프랑스, 러시아, 아프리카 일부 등)은 25 프레임 / 초를 지정합니다. [4] 필름은 초당 24 프레임의 느린 프레임 속도로 촬영되므로 동영상 동영상을 비디오로 전송하는 과정이 약간 복잡해집니다. 움직이는 이미지를 편안하게 표현하기위한 최소 프레임 속도는 초당 약 16 프레임입니다. [5]

Interlaced vs progressive
Video can be interlaced or progressive. Interlacing was invented as a way to reduce flicker in early mechanical and CRT video displays without increasing the number of complete frames per second, which would have sacrificed image detail to remain within the limitations of a narrow channel bandwidth. The horizontal scan lines of each complete frame are treated as if numbered consecutively, and captured as two fields: an odd field (upper field) consisting of the odd-numbered lines and an even field (lower field) consisting of the even-numbered lines. Analog display devices reproduce each frame in the same way, effectively doubling the frame rate as far as perceptible overall flicker is concerned. When the image capture device acquires the fields one at a time, rather than dividing up a complete frame after it is captured, the frame rate for motion is effectively doubled as well, resulting in smoother, more lifelike reproduction of rapidly moving parts of the image when viewed on an interlaced CRT display.
비디오는 인터레이스 또는 프로그레시브 일 수 있습니다. 인터레이스는 초당 전체 프레임 수를 늘리지 않고 초기 기계 및 CRT 비디오 디스플레이의 깜박 거림을 줄이는 방법으로 개발되었으므로 좁은 채널 대역폭의 한계 내에서 이미지 세부 사항을 유지할 수 있습니다. 각각의 완전한 프레임의 수평 주사선은 연속적으로 번호가 매겨진 것처럼 다루어지며, 홀수 번째 라인으로 구성된 홀수 필드 (윗 필드)와 짝수 번째 라인으로 구성된 짝수 필드 (아래 필드)의 두 필드로 캡처됩니다. . 아날로그 디스플레이 장치는 각 프레임을 동일한 방식으로 재생하므로 인식 할 수있는 전체 깜박임에 관해서는 프레임 속도를 효과적으로 배가시킵니다. 인터레이스 CRT 디스플레이에서 볼 때,이미지 캡처 장치가 필드를 한 번에 하나씩 가져 오면 캡처 한 후 전체 프레임을 분할하지 않고 모션의 프레임 속도를 효과적으로 두 배로 늘리면 이미지의 빠르게 움직이는 부분을 더 부드럽고 사실처럼 재현합니다

NTSC, PAL and SECAM are interlaced formats. Abbreviated video resolution specifications often include an i to indicate interlacing. For example, PAL video format is often described as 576i50, where 576 indicates the total number of horizontal scan lines, i indicates interlacing, and 50 indicates 50 fields (half-frames) per second.
NTSC, PAL 및 SECAM은 인터레이스 형식입니다. 약식 비디오 해상도 사양에는 종종 인터레이스를 나타내는 i가 포함됩니다. 예를 들어, PAL 비디오 형식은 종종 576i50으로 설명되며, 576은 총 수평 주사선 수, i는 인터레이스, 50은 초당 50 필드 (1/2 프레임)를 나타냅니다.

In progressive scan systems, each refresh period updates all scan lines in each frame in sequence. When displaying a natively progressive broadcast or recorded signal, the result is optimum spatial resolution of both the stationary and moving parts of the image.
프로그레시브 스캔 시스템에서, 각 리프레시주기는 각 프레임의 모든 스캔 라인을 순서대로 업데이트합니다. 네이티브 프로그레시브 방송이나 녹화 된 신호를 표시 할 때 결과는 정지 영상과 움직이는 부분의 최적 공간 해상도입니다.

When displaying a natively interlaced signal on a progressive scan device, overall spatial resolution is degraded by simple line doubling—artifacts such as flickering or "comb" effects in moving parts of the image which appear unless special signal processing eliminates them. A procedure known as deinterlacing can optimize the display of an interlaced video signal from an analog, DVD or satellite source on a progressive scan device such as an LCD television, digital video projector or plasma panel. Deinterlacing cannot, however, produce video quality that is equivalent to true progressive scan source material.
프로그레시브 스캔 장치에 네이티브 인터레이스 신호를 표시 할 때 특수 신호 처리로 인해 이미지가 제거되지 않으면 나타나는 이미지의 움직이는 부분의 깜박임이나 "빗"효과와 같은 단순한 라인 증감 - 아티팩트로 전반적인 공간 해상도가 저하됩니다. 디인터레이싱으로 알려진 절차는 LCD TV, 디지털 비디오 프로젝터 또는 플라즈마 패널과 같은 프로그레시브 스캔 장치에서 아날로그, DVD 또는 위성 소스의 인터레이스 비디오 신호 디스플레이를 최적화 할 수 있습니다. 그러나 디인터레이싱은 진정한 프로그레시브 스캔 소스 자료와 동일한 비디오 품질을 생성 할 수 없습니다.

Aspect ratio
Aspect ratio describes the dimensions of video screens and video picture elements. All popular video formats are rectilinear, and so can be described by a ratio between width and height. The screen aspect ratio of a traditional television screen is 4:3, or about 1.33:1. High definition televisions use an aspect ratio of 16:9, or about 1.78:1. The aspect ratio of a full 35 mm film frame with soundtrack (also known as the Academy ratio) is 1.375:1.
화면 비율은 비디오 화면과 비디오 그림 요소의 크기를 나타냅니다. 모든 인기있는 비디오 포맷은 직선형이므로 폭과 높이의 비율로 설명 할 수 있습니다. 기존의 TV 화면의 화면 종횡비는 4 : 3 또는 약 1.33 : 1입니다. 고화질 TV는 종횡비가 16 : 9 또는 약 1.78 : 1입니다. 사운드 트랙 (아카데미 비율이라고도 함)이있는 전체 35mm 필름 프레임의 종횡비는 1.375 : 1입니다.

Pixels on computer monitors are usually square, but pixels used in digital video often have non-square aspect ratios, such as those used in the PAL and NTSC variants of the CCIR 601 digital video standard, and the corresponding anamorphic widescreen formats. Therefore, a 720 by 480 pixel NTSC DV image displayes with the 4:3 aspect ratio (the traditional television standard) if the pixels are thin, and displays at the 16:9 aspect ratio (the anamorphic widescreen format) if the pixels are fat.
컴퓨터 모니터의 픽셀은 일반적으로 사각형이지만 디지털 비디오에 사용되는 픽셀은 CCIR 601 디지털 비디오 표준의 PAL 및 NTSC 변형과 해당 아나모픽 와이드 스크린 형식에서 사용되는 것과 같이 정사각형이 아닌 비례 비율을 사용하는 경우가 많습니다. 따라서 720 x 480 픽셀 NTSC DV 이미지는 픽셀이 얇은 경우 4 : 3 종횡비 (일반 TV 표준)로 표시되고 픽셀이 뚱뚱한 경우 16 : 9 종횡비 (아나모픽 와이드 스크린 형식)로 표시됩니다 .

The popularity of viewing video on mobile phones has led to the growth of vertical video. Mary Meeker, a partner at Silicon Valley venture capital firm Kleiner Perkins Caufield & Byers, highlighted the growth of vertical video viewing in her 2015 Internet Trends Report – growing from 5% of video viewing in 2010 to 29% in 2015. Vertical video ads like Snapchat’s are watched in their entirety 9X more than landscape video ads.[6] The format was rapidly taken up by leading social platforms and media publishers such as Mashable[7] In October 2015 video platform Grabyo launched technology to help video publishers adapt horizotonal 16:9 video into mobile formats such as vertical and square.[8]
휴대 전화에서 동영상을 시청하는 인기로 인해 수직 동영상이 증가했습니다. 실리콘 밸리 벤처 캐피털 회사 인 Kleiner Perkins Caufield & Byers의 파트너 인 Mary Meeker는 2015 년 인터넷 동향 보고서에서 수직 비디오 시청의 성장을 강조했습니다. 2010 년 비디오 시청의 5 %에서 2015 년 29 %로 증가했습니다. Snapchat은 풍경 비디오 광고보다 9 배 더 많이 시청됩니다. [6] 형식은 Mashable과 같은 주요 소셜 플랫폼 및 미디어 게시자에 의해 빠르게 채택되었습니다. [10] 2015 년 10 월 비디오 플랫폼 Grabyo는 비디오 게시자가 수평 및 정사각형과 같은 모바일 형식에 수평 적 16 : 9 비디오를 적응시키는 기술을 선보였습니다.

Color space and bits per pixel
Color model name describes the video color representation. YIQ was used in NTSC television. It corresponds closely to the YUV scheme used in NTSC and PAL television and the YDbDr scheme used by SECAM television.
색상 모델 이름은 비디오 색상 표현을 설명합니다. YIQ는 NTSC 텔레비전에서 사용되었습니다. NTSC 및 PAL TV에서 사용되는 YUV 체계 및 SECAM 텔레비전에서 사용되는 YDbDr 체계와 밀접하게 일치합니다.

The number of distinct colors a pixel can represent depends on the number of bits per pixel (bpp). A common way to reduce the amount of data required in digital video is by chroma subsampling (e.g., 4:4:4, 4:2:2, 4:2:0/4:1:1). Because the human eye is less sensitive to details in color than brightness, the luminance data for all pixels is maintained, while the chrominance data is averaged for a number of pixels in a block and that same value is used for all of them. For example, this results in a 50% reduction in chrominance data using 2 pixel blocks (4:2:2) or 75% using 4 pixel blocks(4:2:0). This process does not reduce the number of possible color values that can be displayed, it reduces the number of distinct points at which the color changes.
픽셀이 표현할 수있는 고유 한 색상의 수는 픽셀 당 비트 수 (bpp)에 따라 다릅니다. 디지털 비디오에 필요한 데이터의 양을 줄이는 일반적인 방법은 크로마 하위 샘플링 (예 : 4 : 4 : 4, 4 : 2 : 2, 4 : 2 : 0/4 : 1 : 1)입니다. 인간의 눈은 밝기보다 색의 디테일에 덜 민감하기 때문에 모든 픽셀의 휘도 데이터가 유지되고 블록의 픽셀 수에 대해 색차 데이터가 평균화되고 모든 값이 동일한 값으로 사용됩니다. 예를 들어, 2 픽셀 블록 (4 : 2 : 2) 또는 4 픽셀 블록 (4 : 2 : 0)을 사용하는 75 %를 사용하여 색차 데이터를 50 % 줄입니다. 이 프로세스는 표시 할 수있는 가능한 색상 값의 수를 줄이지 않으며 색상이 변하는 고유 한 포인트의 수를 줄입니다.

Video quality

Video quality can be measured with formal metrics like PSNR or with subjective video quality using expert observation.
비디오 품질은 PSNR과 같은 공식 통계 또는 전문가 관찰을 통한 주관적인 비디오 품질로 측정 할 수 있습니다.

The subjective video quality of a video processing system is evaluated as follows:
비디오 처리 시스템의 주관적인 비디오 품질은 다음과 같이 평가됩니다.

Choose the video sequences (the SRC) to use for testing.
Choose the settings of the system to evaluate (the HRC).
Choose a test method for how to present video sequences to experts and to collect their ratings.
Invite a sufficient number of experts, preferably not fewer than 15.
Carry out testing.
Calculate the average marks for each HRC based on the experts' ratings.
Many subjective video quality methods are described in the ITU-T recommendation BT.500. One of the standardized method is the Double Stimulus Impairment Scale (DSIS). In DSIS, each expert views an unimpaired reference video followed by an impaired version of the same video. The expert then rates the impaired video using a scale ranging from "impairments are imperceptible" to "impairments are very annoying".

테스트에 사용할 비디오 시퀀스 (SRC)를 선택하십시오.
평가할 시스템의 설정을 선택하십시오 (HRC).
전문가에게 비디오 시퀀스를 표시하고 등급을 수집하는 방법에 대한 테스트 방법을 선택하십시오.
충분한 수의 전문가를 초빙하십시오.
테스트를 수행하십시오.
전문가 등급에 따라 각 HRC의 평균 점수를 계산하십시오.
많은 주관적인 비디오 품질 방법은 ITU-T 권고 BT.500에 기술되어있다. 표준화 된 방법 중 하나는 Double Stimulus Impairment Scale (DSIS)입니다. DSIS에서 각 전문가는 손상되지 않은 참조 비디오와 손상되지 않은 비디오를 봅니다. 그런 다음 전문가는 "손상이인지 할 수 없음"에서 "손상이 매우 성가심"까지의 범위를 사용하여 손상된 비디오에 등급을 매 깁니다.

Video compression method (digital only)
Uncompressed video delivers maximum quality, but with a very high data rate. A variety of methods are used to compress video streams, with the most effective ones using a Group Of Pictures (GOP) to reduce spatial and temporal redundancy. Broadly speaking, spatial redundancy is reduced by registering differences between parts of a single frame; this task is known as intraframe compression and is closely related to image compression. Likewise, temporal redundancy can be reduced by registering differences between frames; this task is known as interframe compression, including motion compensation and other techniques. The most common modern standards are MPEG-2, used for DVD, Blu-ray and satellite television, and MPEG-4, used for AVCHD, Mobile phones (3GP) and Internet.
비 압축 비디오는 최고 품질이지만 매우 높은 데이터 전송률이 필요합니다. 비디오 스트림을 압축하기 위해 다양한 방법이 사용되며, GOP (Group of Pictures)를 사용하여 공간 및 시간 중복성을 줄이는 가장 효과적인 방법이 사용됩니다. 대체로, 공간 중복성은 단일 프레임의 부분들 사이의 차이점을 등록함으로써 감소됩니다. 이 작업은 인트라 프레임 압축이라고하며 이미지 압축과 밀접한 관련이 있습니다. 마찬가지로, 시간적 중복은 프레임들 간의 차이를 등록함으로써 감소 될 수있다. 이 작업은 모션 보정 및 기타 기술을 포함한 프레임 간 압축이라고합니다. 가장 일반적인 표준은 AVCHD, 휴대폰 (3GP) 및 인터넷에 사용되는 DVD, 블루 레이 및 위성 TV 및 MPEG-4에 사용되는 MPEG-2입니다.

Stereoscopic
Stereoscopic video can be created using several different methods:

Two channels: a right channel for the right eye and a left channel for the left eye. Both channels may be viewed simultaneously by using light-polarizing filters 90 degrees off-axis from each other on two video projectors. These separately polarized channels are viewed wearing eyeglasses with matching polarization filters.
One channel with two overlaid color-coded layers. This left and right layer technique is occasionally used for network broadcast, or recent "anaglyph" releases of 3D movies on DVD. Simple Red/Cyan plastic glasses provide the means to view the images discretely to form a stereoscopic view of the content.
One channel with alternating left and right frames for the corresponding eye, using LCD shutter glasses that read the frame sync from the VGA Display Data Channel to alternately block the image to each eye, so the appropriate eye sees the correct frame. This method is most common in computer virtual reality applications such as in a Cave Automatic Virtual Environment, but reduces effective video framerate to one-half of normal (for example, from 120 Hz to 60 Hz).
Blu-ray Discs greatly improve the sharpness and detail of the two-color 3D effect in color-coded stereo programs. See articles Stereoscopy and 3-D film.
2 개의 채널 : 오른쪽 눈을위한 오른쪽 채널과 왼쪽 눈을위한 왼쪽 채널. 두 채널은 두 개의 비디오 프로젝터에서 서로 90도 축이 아닌 편광 필터를 사용하여 동시에 볼 수 있습니다. 이 개별적으로 편광 된 채널은 일치하는 편광 필터가있는 착용 안경으로 보입니다.
하나의 채널에 2 개의 겹쳐진 색으로 구분 된 레이어가 있습니다. 이 왼쪽 및 오른쪽 레이어 기법은 네트워크 방송이나 DVD의 3D 영화의 최근 "애너 글리프"릴리스에 사용됩니다. 단순한 적색 / 청록색 플라스틱 안경은이 미지를 입체적으로 볼 수있는 수단을 제공합니다.
이미지를 각 눈으로 교대로 차단하기 위해 VGA 디스플레이 데이터 채널에서 프레임 동기화를 읽는 LCD 셔터 글래스를 사용하여 적절한 눈으로 올바른 프레임을 볼 수 있도록 해당 눈에 대해 왼쪽 및 오른쪽 프레임을 번갈아 사용하는 하나의 채널. 이 방법은 동굴 자동 가상 환경에서와 같이 컴퓨터 가상 현실 응용 프로그램에서 가장 일반적이지만 유효 비디오 프레임 속도를 정상의 절반 (예 : 120Hz에서 60Hz)으로 줄입니다.
블루 레이 디스크는 색으로 구분 된 스테레오 프로그램에서 2 색 3D 효과의 선명도와 세부 사항을 크게 향상시킵니다. 스테레오 스코피 (Stereoscopy) 및 3-D 필름을 참조하십시오.

Formats
Different layers of video transmission and storage each provide their own set of formats to choose from.
다양한 비디오 전송 및 저장 계층은 각각 자신이 선택할 수있는 형식 집합을 제공합니다.

For transmission, there is a physical connector and signal protocol ("video connection standard" below). A given physical link can carry certain "display standards" that specify a particular refresh rate, display resolution, and color space.
전송에는 물리적 커넥터 및 신호 프로토콜 (아래 "비디오 연결 표준")이 있습니다. 주어진 물리적 링크는 특정 재생 빈도, 디스플레이 해상도 및 색 공간을 지정하는 특정 "디스플레이 표준"을 전달할 수 있습니다.

Many analog and digital recording formats are in use, and digital video clips can also be stored on a computer file system as files, which have their own formats. In addition to the physical format used by the data storage device or transmission medium, the stream of ones and zeros that is sent must be in a particular digital video compression format, of which a number are available.
많은 아날로그 및 디지털 레코딩 포맷이 사용되고 있으며 디지털 비디오 클립을 파일 형식으로 컴퓨터 파일 시스템에 저장할 수도 있습니다. 데이터 저장 장치 또는 전송 매체에 의해 사용되는 물리적 포맷 이외에, 전송되는 1과 0의 스트림은 특정 디지털 비디오 압축 포맷이어야하며, 그 중 숫자가 이용 가능해야한다.

Analog video
Analog video is a video signal transferred by an analog signal. An analog color video signal contains luminance, brightness (Y) and chrominance (C) of an analog television image. When combined into one channel, it is called composite video as is the case, among others with NTSC, PAL and SECAM.

Analog video may be carried in separate channels, as in two channel S-Video (YC) and multi-channel component video formats.

Analog video is used in both consumer and professional television production applications.
아날로그 비디오는 아날로그 신호로 전송되는 비디오 신호입니다. 아날로그 컬러 비디오 신호는 아날로그 텔레비전 이미지의 휘도, 밝기 (Y) 및 색차 (C)를 포함합니다. 하나의 채널로 합쳐지면 NTSC, PAL 및 SECAM의 경우와 마찬가지로 컴포지트 비디오라고도합니다.

아날로그 비디오는 2 채널 S-Video (YC) 및 다중 채널 컴포넌트 비디오 형식에서와 같이 별도의 채널로 전송 될 수 있습니다.

아날로그 비디오는 소비자 및 전문 TV 프로덕션 응용 프로그램에서 모두 사용됩니다.

Digital video
Digital video signal formats with higher quality have been adopted, including serial digital interface (SDI), Digital Visual Interface (DVI), High-Definition Multimedia Interface (HDMI) and DisplayPort Interface, though analog video interfaces are still used and widely available. There exist different adaptors and variants.
아날로그 비디오 인터페이스가 여전히 사용되고 광범위하게 이용 가능하지만 직렬 디지털 인터페이스 (SDI), DVI (Digital Visual Interface), HDMI (High-Definition Multimedia Interface) 및 DisplayPort 인터페이스를 포함하여 고품질의 디지털 비디오 신호 형식이 채택되었습니다. 다른 어댑터와 변형이 존재합니다.

Transport medium
Video can be transmitted or transported in a variety of ways. Wireless broadcast as an analog or digital signal. Coaxial cable in a closed circuit system can be sent as analog interlaced 1 volt peak to peak with a maximum horizontal line resolution up to 480. Broadcast or studio cameras use a single or dual coaxial cable system using a progressive scan format known as SDI serial digital interface and HD-SDI for High Definition video. The distances of transmission are somewhat limited depending on the manufacturer the format may be proprietary. SDI has a negligible lag and is uncompressed. There are initiatives to use the SDI standards in closed circuit surveillance systems, for Higher Definition images, over longer distances on coax or twisted pair cable. Due to the nature of the higher bandwidth needed, the distance the signal can be effectively sent is a half to a third of what the older interlaced analog systems supported.[9]
비디오는 다양한 방식으로 전송되거나 전송 될 수 있습니다. 아날로그 또는 디지털 신호로 무선 브로드 캐스트. 폐회로 시스템의 동축 케이블은 최대 수평 라인 해상도가 480까지 인 아날로그 인터레이스 1V 피크 - 피크로 전송할 수 있습니다. 방송 또는 스튜디오 카메라는 SDI 직렬 디지털로 알려진 프로그레시브 스캔 형식을 사용하는 단일 또는 이중 동축 케이블 시스템을 사용합니다 인터페이스 및 HD-SDI를 지원합니다. 전송 거리는 제조업체에 따라 다소 제한적이며 형식은 독점적 일 수 있습니다. SDI는 무시할 수있는 지연이 있으며 압축되지 않습니다. SDI 표준을 폐회로 감시 시스템에서 사용하기위한 이니셔티브가 있습니다. 동축 케이블 또는 트위스트 페어 케이블에서 더 긴 거리에서 고화질 이미지를 얻을 수 있습니다. 필요한 더 높은 대역폭의 특성으로 인해 신호가 효과적으로 전송 될 수있는 거리는 이전 인터레이스 아날로그 시스템이 지원하는 것의 1/3이다.
















댓글 없음:

댓글 쓰기