rtsp協議范例6篇

前言:中文期刊網精心挑選了rtsp協議范文供你參考和學習,希望我們的參考范文能激發你的文章創作靈感,歡迎閱讀。

rtsp協議

rtsp協議范文1

ID:GoStop

綽號:邪惡蜘蛛王

姓名:金東猛

生日:1984 年10 月15 日

種族:Undead

曾效力戰隊:WCB、T.MH、Mouz、NiP、One、eSTRO

狀態:退役(時間不詳)

個人榮譽:

2005 WEG 第二賽季 亞軍

2005 CKCG 中韓對抗賽 亞軍

2005 WEG 第三賽季 亞軍

2006 IEF 大師賽 亞軍

2006 WCG 韓國區 冠軍

蜘蛛王

ROC 1.06(ROC即魔獸爭霸3:混亂之治),GoStop聲名鵲起,雖然對ROC這個時代來說有些晚,但怎么說也怕上了亞洲戰網NO.1的位置。雖然師從當時ROC 最強不死MyOnlyStar,但他既沒有走像ReX.Jyoung那樣雙光環大師的道路,也不是WCB_Jackson 式的恐懼魔王圍人流,更不是Lucifer的NC秒殺流,他要自創一條道路,一條別人沒有走過的路,一條帶領地穴惡魔崛起之路。

之前沒有用過ZZ(指蜘蛛,下同)嗎?有,T-S.Topspeed,但他的戰術絕不能稱之為ZZ流,他是壓40人口(ROC的低維修費界限為40人口),家里豎塔防御,DK(死亡騎士)和ZZ 乘著飛艇MF完島礦后開礦,然后一路坐飛艇MF,保證MF效率,保證經濟,最后高科技什么冰龍憎惡都出來,大決戰。而GoStop要的不是這樣把ZZ僅僅作為一個過度兵種,而是要當主力兵種來使用!要能成為和狗抗衡的,成為UD主要戰術體系的兵種!

可那還是在ROC,沒有雕車、沒有骷髏、沒有鉆地,就靠著DK帶隊,能行嗎?路是人走出來的,GoStop堅定地邁出了先行者的步伐。機會終于來了,TFT無疑是最佳契機,新增的元素武裝了ZZ流,一下子讓ZZ流活了起來,和狗并駕齊驅的時候到了!簡直呼之欲出,GoStop開始了Asia BN上的肆虐,在那個遺留著濃重ROC氣味的年代,ZZ流像是一股風暴一般,一方面掃除著ROC的殘留,一方面讓人猝不及防,打慣了狗無法面對ZZ,踩著光環,有各方保障的ZZ讓人體會到了比ROC的鹿海更恐怖的HitAnd Run。雖然BN上Sweet 一直壓著GoStop雄居榜首,可無法壓住ZZ流的影響力。眾人都開始研究ZZ流,而中國國內的平臺上無論大小UD菜鳥,動不動就是ZZ流,可見GoStop的影響力,人們同時也注意著他,注意著這位以獨特的ZZ擠身鬼王行列的男人,注意著他會把地穴惡魔引向何方,注意著他能帶著地穴惡魔取得多大的輝煌。

“我開始了War3生涯,并且把我的一切都給了自己喜歡的War3去努力去超過所有的人。我決定做一個職業選手。”

MBCPL3 8強,慨嘆Human Master Swain銳不可擋和少年奇才ReiGn的強勁內戰,ESWC2004 第5名,望洋興嘆FoV橫空出世,誰都知道TFT1.12-1.14時代UD的絕對主導地位,版本對比賽成績有著重大影響,難道要眼看著有利于UD的版本卻被別人撈冠軍嗎? 1.15、 1.16、1.17……自己仿佛被真空了一般,要無所作為地等著退役的來臨么?萬年老二WEG2005第二賽季, 主辦方終于給了GoStop機會,大展拳腳的時刻到了。GoStop也不是當初那個只會用ZZ的UD了,當他殺入決賽時,眼看GoStop來者不善,眾人都替Moon捏一把汗, 雖然Moon依舊保持著2005年從MBC PL5到 WEG第一賽季,再到第二賽季決賽前讓人感到不可思議,簡直有如神話一般的不敗戰績,但官方依舊推測,Moon只有45%的希望勝出,沒有1.17 Bug版本,Moon此時NvU也沒強到后來幾乎也能當一把“打鬼隊長”的地步,決賽的確充滿了懸念。Moon 依舊開礦,依舊在危險中走過每一步,雙方大戰5盤,GoStop

也打破了Moon的不敗神話,可惜,是2:3落敗,沒有能夠取得冠軍……

CKCG,8 強2:0 xiaOt,4 強戰2:0Check,又一次面對Moon,GoStop 卻被2:0了……

一次失利不算什么,這點失落總是經得起的,況且和以前最好成績相比,已有了很多突破—還是世界性大賽上。WEG2005第三賽季,作為上屆亞軍,GoStop理所當然出現在大名單之中,同時出現的還有Lucifer、Moon,以及成為GoStop最后攔路虎的Sweet。

小組賽擊敗Lucifer,四強擊敗ElackDuck,雖然最后要對付的是Sweet,但相必GoStop對這次冠軍是志在必得了,Moon都已經被淘汰了,Sweet都未必在GoStop的眼里。決賽開始的確如GoStop所料,2:0 領先,進行得很順利,還有3 個賽點,不出意料的話總能拿下冠軍的。可接下來的事情讓GoStop越發心驚,Sweet使用和Lucifer對戰時用過的,飛艇載靈車陰礦,連搬兩盤后,2:2,GoStop依舊有希望,的確,GoStop最后一盤是優勢,雖然被逼成這樣在奪冠有些難看,但能奪冠總是好的……可惜,最后的結果讓GoStop如同做了個噩夢一般,簡直比噩夢還難受,成就了Sweet——雖然Sweet對冠軍也是如此渴望。

最后Sweet哭了,但不是難過,可能有委屈,更多的是高興。而在一旁的GoStop沒有哭只是低著頭,抿著嘴,旁邊的女生不知是GS 的Fans 還是誰,說完了以后男主持人

把話筒遞GoStop,GoStop 還能說什么呢?

又是亞軍,又是亞軍!又是看著別人封頂,又是成全了別人,何況是在如此優勢的情況下,機會少嗎?不少。怪自己沒把握住嗎?未必,有時是命運太殘酷了,給你的機會雖多,你卻一個也把握不住,只好眼睜睜地看它從手中流走。GoStop 當時含糊地說了兩個詞,再也說不下去了,又低下了頭,此刻他或許還后悔不該把頭發減了,留著長發此刻正好遮擋自己的淚水。

看到這里覺得GoStop真的很可憐,GoStop良久低著頭,狠狠地不斷抿嘴,他不想像Sweet一樣哭出來,難道因為失敗者沒有資格哭么?實在忍不住了,GoStop猛地把頭仰起,不停地眨眼睛,他甚至雙手死死地反在背后,就是沒有去擦一下眼淚,意思很明顯,

他有他的堅強的尊嚴,他不但不想讓眼淚流下來,而且不想讓在場所有人知道他很難過。GoStop能做到這樣沒哭出來已很不容易了,他不可能再說什么,他什么也說不出,他此刻只想找個地方大哭一場……殘忍終于沒再進行下去。當場所有人都懂的……

悲劇延續,IEF2006,一路擊敗Lucifer、Susiria等人的GoStop再次來到決賽的賽場,這次他碰上了巔峰期的Sky,1:2惜敗,之后也奠定了GoStop 萬年老二的稱號。

T.MH—One—NiP—Mouz—eSTRO, 是不是所有UD選手中Lucifer的東家找得最好? 那

GoStop當初又何必離開T.MH呢……

rtsp協議范文2

關鍵詞:FPGA;網絡攝像頭;RTSP;Sobel;異構

中圖分類號:TN911 文獻標識碼:A 文章編號:1009-3044(2016)34-0219-03

Abstract:In order to achieve high-efficiency, high-precision image processing for capturing the video stream of IP camera, a data-driven heterogeneous system with Sobel edge detection is designed to support RTSP protocol.The system can get 1080P, H.264 encoded video streams from sixteen IP cameras at the same time and also can process real-time Sobel edge detection of video streams base on arm from Hisilicon and ZC702 FPGA form Xilinx. Experimental results show that the system has low delay of capturing video streams and can real-time edge detection for a large number of high-definition images at the same time.

Key words:FPGA; IPC; RTSP; Sobel; heterogeneous

1 概述

實時圖像處理是實現實時物體檢測中的重要一環,其廣泛應用于諸多領域,比如先進駕駛輔助系統(Advanced Driver Assistance System, ADAS)、工I機器人、智能安防等。圖像處理技術的主要關鍵點是超高的實時性和結果的準確性。而邊緣提取是圖像處理中最基礎的一步,由Irwin Sobel提出的Sobel算法又是眾多邊緣檢測算法中較簡單高效的一種,對噪聲具有平滑作用[1],較為適合在嵌入式系統中應用。

異構處理系統是隨著計算機技術的飛速發展出現的一種能夠突破單一平臺發展瓶頸,有效解決能耗高、擴展性低等問題的一種技術。近年來,基于CPU和GPU的異構圖像處理系統應用正蓬勃發展。本文實現的Sobel邊緣檢測的異構系統是一種數據驅動(Data-Drivern)型圖像處理應用系統。主要使用現場可編程門陣列(Field Programmable Gate Array, FPGA)對Sobel算法進行硬件實現,并對海思解碼芯片hi3536為載體的開發板進行編程,使其能獲取到網絡攝像頭(Internet Protocol Camra,IPC)的實時視頻流,為硬件加速器提供數據。該系統的最高性能可達同時對16路1080P、60幀的視頻進行邊緣提取。

2 Sobel算法

在圖像中邊緣的像素值會發生顯著的變化,表示這一變化的方法就是導數,所以一般我們用來尋找圖像邊緣的方法是對圖像進行求導,即使用一個卷積核對圖像進行平面卷積處理,這樣可實現圖像求導的近似計算。

Sobel邊緣檢測算法在實現過程中,通過把檢測水平邊緣和豎直邊緣的2個Sobel算子作為卷積核分別與圖像中的每個像素點做卷積運算,分別得到該圖像在水平方向上的梯度Gx和豎直方向上的梯度Gy。Sobel算子如圖1所示。

對于圖像上的每一個像素點,結合以上兩個卷積處理后的結果可求出該點上的近似梯度:

我們也可以對其做出一個近似的轉換:G = |Gx| + |Gy|。

梯度值的大變化預示著圖像中內容的顯著變化??稍O定一個合適的閾值T,如果G≥T 就可以認為該點為邊緣點。判別出圖像中所有邊緣點后,我們可以把輸入的灰度圖像轉換為只包含邊緣信息的二值化圖像,即圖上一點A(x,y),它的梯度值G(x,y)若大于等于閾值T,則將該點的值置為1;反之,則置為0。

2 圖像邊緣提取異構系統的實現

本異構系統由深圳海思公司的hi3536芯片和Xilinx公司的ZC702型號的FPGA組合搭建而成。hi3536芯片主要負責獲取IPC的視頻流數據并實時解碼,FPGA主要負責對輸入的圖像進行Sobel算法的加速運算。通過使用本文編寫的能夠兼容大部分主流IPC的RTSP協議接口,再利用海思hi3536芯片的解碼能力,完成最高可同時接收并解碼16路H264或H265編碼、分辨率為1080P60幀的實時視頻流,再把解碼后得到的YUV格式圖像通過AXI-Stream總線直接傳遞到FPGA上的Sobel加速處理模塊,實現從前端IPC進行數據采集后實時傳遞給硬件加速模塊的完整鏈路。這樣,使得整套系統更方便地接入到監控系統中,大幅提升系統的實用性。該模塊整體的架構如圖2所示。

2.1 基于ARM的前端數據采集模塊

為了更加體現本異構系統的實用性,FPGA上的Sobel加速處理模塊的圖像輸入并不是由上位機選送事先采集好一張或多張圖片[2],而是采集于實際環境中的IPC。RTSP(Real Time Streaming Protocol,實時流媒體協議)[3] 是目前監控行業內廣泛采用的流媒體協議,所以為了能夠把我們的異構系統對接進絕大部分已存在的IPC監控系統,我們選用RTSP協議作為與IPC的對接接口。但由于現存的一些包含RTSP代碼的開源項目存在圖像延遲較高、圖像質量不穩定以及代碼可控性較差等問題,所以我們基于文獻[3]和Ffmpeg[4]中的RTSP部分,編寫了一個RTSP的客戶端程序,并主要通過調整視頻緩存塊(Cache Block)和協議解析速度, 針對1080P視頻流的傳輸延遲進行優化。使用本文編寫的RTSP客戶端代碼,在不損失視頻質量和視頻流暢度的前提下,相比Ffmpeg等,大大降低了對RTSP協議解析和幀緩存帶來的圖像延遲,又提高了對視頻流獲取的可控性。在千兆局域網內,測試同時連接16路1080P、30fps(Frames Per Second,每秒傳輸幀數)的IPC,所有畫面延遲都基本穩定在160ms到175ms之間,配合海思hi3536的強大解碼性能,從IPC采集圖像數據到傳到Sobel加速處理模塊,之間的延遲可穩定在200ms以內。

如圖3是Ffmpeg中的RTSP客戶端、本文中使用的RTSP客戶端分別運行在電腦端和ARM端時,三者在畫面延遲方面的對比結果。其中,Ffmpeg在使用時,調用了參數“-fflags nobuffer”,不做流緩沖。延遲測試方式為將一臺運行著計時秒表的電腦主機A作為信號源接入到一臺支持RTSP協議的H.264編碼設備上,利用該編碼設備將主機A的畫面進行網絡轉播,再由接受測試的三種RTSP客戶終端同時接收下視頻流數據,各自解碼后分別顯示在三塊顯示器上。同時拍攝下三塊顯示器上的畫面以及主機A直接輸出的畫面,再記錄照片中四塊顯示器上的秒表讀數,進行差值分析。由于海思hi3536芯片對H264、H265編碼的視頻流的高性能解碼能力,所以在實際使用中不需要做任何的視頻數據緩存,相比于在電腦端運行的本文RTSP客戶端,進一步加快了視頻流的實時性。

通過網絡獲取到的視頻流是H264或H265編碼的原始數據,如果需要對圖像進行識別,至少需要把原始數據解碼為YUV格式的圖像數據。因為海思半導體公司在全球視頻監控領域的核心地位[5],這里我們選用基于該公司型號為hi3536的解碼專用芯片的開發板,板上具有全雙工千兆網口,且對于1080P的圖像分辨率最高的解a性能是同時16路、60幀的H.264/H.265實時解碼。通過研究海思芯片的SDK(Software Development Kit,軟件開發工具包),結合經過交叉編譯后的本文中的RTSP客戶端函數庫,編寫了運行在ARM上的可接收IPC視頻流的多線程解碼程序,同時接收視頻流數為可調參數,最大值不能超過16。解碼后得到的就是YUV420格式的視頻流。由于受限于海思解碼芯片的能力,對于本程序,只測試了同時接收16路1080P視頻流情況下的圖像穩定性和畫面延遲。測試結果證明本程序完全可以支持這種使用情況。而由于之后的圖像處理需要的是YUV格式的灰度圖像數據,本程序的最后部分,是對最多16路解碼后的圖像數據提取YUV中的Y分量,即亮度分量,將其通過AXI-Stream總線異步發送至FPGA上預先設計好并通過驗證的Soble加速處理內核上。該前端數據采集模塊整體的架構如圖4所示。

2.2 基于FPGA的Sobel硬件加速處理模塊

本異構系統在FPGA上實現Sobel邊緣檢測功能,并且輸入圖像的大小以及Sobel邊緣提取的閾值T都是可配置的。該模塊有下列幾個主要部分:與ARM數據交互模塊,數據接收模塊,梯度計算模塊和最后的閾值比較輸出模塊。如圖5是Sobel加速處理模塊的整體架構框圖。各個模塊均使用Verilog語言實現[6],并使用Synopsis公司的VCS工具進行功能仿真。該加速模塊實現了數據驅動的工作方式,所謂數據驅動,指的是當系統處于工作狀態時,只要有數據輸入系統,Sobel加速處理模塊就能夠對輸入的數據進行實時處理后輸出結果,數據輸入停止時,處理工作也會暫停。下面逐個介紹不同的功能模塊

2.1.1 FIFO模塊

與ARM的數據交互是通過AXI-Stream總線實現的[7],AXI-Stream總線是AXI4總線的簡化版,而AXI4總線是由ARM公司研發推出的AMBA(Advanced Microcontroller Bus Architecture)片上總線。AXI-Stream總線由于整個通道只有數據傳輸通道,而不需要傳輸地址的通道,所以相對AXI總線來說要簡便很多。我們使用AXI-Stream總線向ARM和DDR申請數據,這樣就可以大大提高數據的傳輸效率。并且為了防止數據出現遺漏或者丟失,我們采用FIFO(First-In First-Out,先入先出)存儲器去同步數據的信號。

Sobel加速處理模塊被設計為數據驅動的工作形式,當系統被配置為工作模式時,只要AXI-Stream總線上有數據傳輸,加速器模塊就會進行計算,這樣減少了由上位機的控制和交互的時間成本。

2.1.2 數據排列模塊

數據排列(Ram Array)模塊用于接收數據并將其分別存放在不同的緩存中,方便后續的梯度計算模塊進行數據的讀取和并行計算。輸入為AXI-Stream總線串行輸入的數據流,輸出的數據則被調整成便于梯度計算模塊進行并行卷積計算的格式。同時,數據排列模塊是一個可配置處理圖像大小的模塊,圖像的長寬都可由上位機進行配置,這樣使得整個系統處理的圖像大小都是可控的。該模塊所支持的最大圖像分辨率為2048×2048。

2.1.3 梯度計算模塊

梯度計算模塊是一個進行卷積計算的模塊?;谖墨I[8]中提出的方案,本文使用了并行計算的方式,并采用數據移位(shift)的方法進行乘法計算,左移一位即乘以2,這樣可以大量減少硬件資源的使用,大幅提高Sobel邊緣檢測中水平方向和Q直方向的梯度向量的計算速度。該模塊邏輯圖如圖5(b)所示。所以在這種計算結構下,使用3個時鐘周期就可以計算出一個3×3卷積框中最后的梯度值,并將梯度值傳輸給閾值比較模塊進行最后結果的運算。

2.1.4 閾值比較輸出模塊

從梯度計算模塊輸出的計算完的梯度值,會在閾值比較模塊中與設定好的閾值T進行對比。并且在這個模塊中存在一個狀態機用于控制輸出的值,如果梯度值大于等于閾值T,則輸出1;反之輸出0。由于卷積的原因,圖像的長寬會分別下降1個像素點,所以為了使得上位機收到的還是規整的圖片,我們還在這個模塊中對這缺失的一行一列進行了補0操作,以保證最后輸出圖像的尺寸依舊與原圖的尺寸相同。

如圖6是對本文中的Sobel加速處理模塊使用VCS工具進行行為級仿真得出的波形圖。

3 結論

圖像邊緣提取是圖像處理、物體識別中很重要的一環,本文以Sobel邊緣提取為例,通過利用本文中編寫的RTSP客戶端協議和基于FPGA實現的Sobel硬件加速器,實現了一個通過網線就可接入到監控系統等各個擁有IPC的網絡中,并對高畫質視頻流進行高實時性高精度的邊緣提取的數據驅動型異構系統。本設計采用模塊化的方式,且對接IPC的路數、圖像分辨率等參數均為可調參數,并專門優化了硬件資源占用率。在實際測試中也達到了設計初時的目標,有助于進一步開發可接入監控系統的人臉識別、車牌識別等物體識別異構系統。

參考文獻:

[1] Tsai M Y, Yost M G, Wu C F, et al. Line profile reconstruction: validation and comparison of reconstruction methods[J]. Atmospheric Environment, 2001, 35(28):4791-4799.

[2] 張麗紅, 凌朝東. 基于FPGA的Sobel邊緣檢測應用[J]. 電子技術應用, 2011, 37(8):26-29.

[3] Schulzrinne H, Rao A, Lanphier R. Real Time Streaming Protocol (RTSP)[J]. Rfc, 1998.

[4] Surhone L M, Tennoe M T, Henssonow S F, et al. Ffmpeg[Z]. 2010.

[5] 康毅. 海思IVE技術開啟智能視頻監控新紀元[J]. 中國公共安全:學術版, 2014(22):204-204.

[6] 夏宇聞. Verilog數字系統設計教程[J]. 2003(6):51-51.

rtsp協議范文3

關鍵詞:流媒體技術; 傳輸協議; 廣播傳輸

具有傳輸穩定、信號傳輸質量高等優點的傳統廣播傳輸系統,如電纜、光纖、微波和衛星等,它們在廣播傳輸系統中發揮了巨大的作用,但是其傳輸靈活性差與系統造價高等缺點限制了廣播傳輸系統的發展。此時,流媒體技術隨著網絡技術與數字技術的發展應運而生,具有造價低廉和較強靈活性等優點,較好地克服了傳統廣播傳輸系統的缺點,但是由于是新興技術,在質量和穩定性上仍然存在不足之處,不過這會隨著技術進步而較好地得到解決。因此流媒體具有較好的發展前景。

1 流媒體技術簡介

1.1何為流媒體技術及其原理

流媒體(Streaming Media)技術包含狹義和廣義兩種說法。狹義上來說,流媒體技術是一種具有非傳統式的下載回放媒體格式的技術,能從互聯網上獲得多媒體流,如音頻、視頻等,具有邊獲取邊播放的可以有效縮短時間的優點。廣義上來說,流媒體技術是一種流媒體系統,可使視頻、音頻等多媒體流形成連續而穩定的傳輸流和回放流的一系列方法、協議、技術的總稱。是一種新興的網絡傳輸技術,在互聯網上實時順序地傳輸和播放視頻、音頻等多媒體內容的連續時基數據流,流媒體技術包括流媒體數據采集、視頻、音頻編碼、解碼、存儲、傳輸、播放等領域。它能從Internet上獲取音頻和視頻等連續的流媒體,客戶可邊接收邊播放。瀏覽者可邊下載邊收聽、收看多媒體文件,而無需等整個文件下載完畢后才能播放,使時間大大減少,且不占用客戶硬盤空間。

流媒體技術的原理及過程簡介如下:首先,根據用戶選擇的某一流媒體服務后,web服務器與Web瀏覽器之間通過HTTP/TCP協議交換控制信息,以便從原始信息中檢索所需要傳輸的實時數據;然后,客戶機上的web瀏覽器會啟動程序A/V Helper,使用HTTP從Web服務器檢索相關實時數據等參數,并對Helper程序進行初始化,A/V服務器及A/V Helper程序立即運行實時流控制協議RTSP,以交換所需的A/V傳輸控制信息,并通過使用RTP/UDP協議傳輸給A/V客戶程序A/V數據,這些數據一旦抵達用戶客戶端,A/V客戶程序即可播放輸出音視頻或者動畫。

1.2 流媒體技術的優點

流媒體技術具有以下優點。

 1.2.1 節約時間

相對于傳統媒體格式來說,流媒體格式可使音頻、視頻文件分成一個個數據包存在服務器中,然后服務器再按順序將此數據包向客戶發出,然后客戶再以流的形式接受,而且只要有數據達到客戶的服務器上,即可解析并進行播放,因此有效節省等待時間,換句話來說,就是不需要等到完全下載后才可觀看。因而用于廣播傳輸系統中,更加有利于廣播傳輸的速度,更加受人們歡迎。

 1.2.2 對系統緩存要求低。

每個包的傳輸時間會因為異步傳輸的斷斷續續而產生不一致的情況,動態變化的互聯網會產生數據選擇不同路由的可能性,很可能產生后傳輸的包先到,而先傳輸的數據后到的現象。因此即使是流媒體技術,也需要緩沖來補償抖動和延遲的時間,從而保證各個包的正確傳輸順序。但是相對而言,流媒體技術不需將所有數據內容都保存在緩沖中,所以對系統緩存的容量明顯降低。

 1.2.3 流媒體技術具有RTSP實時流協議

RTSP實時流協議建立在實時傳輸協議RTP和實時傳輸控制協議RTCP上,提供了一起基于互聯網的一整套數據流式服務,使得實時傳送點播數據的可能性加大。并且提供了諸如快進、快退、暫停、定位、支持單播和組播等音視頻的流式錄音機模式遠程控制功能。它提供多種服務功能,在操作和語法上與HTTP相似,因此更能被人們所接受。正因為RTSP實時流協議具有多方面的優點,從而使得流媒體技術的應用范圍擴大。正因為RTSP實時流協議,使得互聯網上更適合實時傳輸音視頻和動畫,也增加了在廣播傳輸中的應用。

2  流媒體在廣播傳輸中的應用

在互聯網上,流媒體具有十分廣泛的應用,因此各大電臺網站都采用了網上流式媒體形式的音頻直播。流媒體技術開始在很多領域,包括在廣播傳輸領域替代傳統的傳輸方式,這都得益于流媒體傳輸的靈動性、可節約時間、對系統緩存要求低等優點。目前已經使用了流媒體技術的美國有線新聞網,在阿富汗和伊拉克戰爭期間現場報導戰爭音視頻,這給戰地記者第一時間取得戰爭的直接畫面,這對流媒體技術的發展帶來好處,但由于這項技術剛使用不久,圖像質量并不能達到人們要求。

隨著基于Real System網上音頻直播流媒體系統的開發,使越來越多的聽眾喜歡在互聯網上收聽廣播電臺的節目,Real System是由服務器端Real Server、媒體內容制作工具Real Producer和客戶端軟件Client Software這三部分組成。用于傳送不同多媒體文件的流媒體文件包括以下四種:RealAudio、RealVideo、RealFlash和RealPresentation?;赗eal System網上音頻直播流媒體系統采用SureStream技術,這種技術的網絡自適應性比較強,可以自動并持續調整數據流來滿足不同網絡帶寬的要求。在用媒體內容制作工具Real Producer制作流式媒體播放文件時,先將實時輸入或源文件變為流式文件,然后將此文件上傳到服務器中供用戶下載點播。除了Real System之外,微軟公司還開發了MPEG-4音視頻壓縮技術,以此實現了質量較高的雙向音視頻傳輸,從而實現了遠程機房的視頻監控和廣播電臺的備份音視頻傳輸。

隨著技術的發展和應用軟件的逐步開發,流媒體技術會在廣播傳輸系統中得到越來越廣泛的應用。

3  結語

流媒體技術在不同領域的應用越來越廣泛,在廣播傳輸系統中的應用也無例外。流媒體技術將隨著音視頻壓縮算法和網絡數字技術的進一步發展而逐步得到改進和完善。目前正隨著無線高速網絡技術的發展和流媒體技術靈活性的增強使流媒體的應用更加廣泛。而且值得我們關注的是這一技術將在未來給我們提高戶外實時采訪和異地直播等更加靈活的廣播傳輸手段。

參考文獻

[1] 宋玉紅.淺析流媒體技術[J].吉林省經濟管理干部學院學報,2009,23(1):63-66.

[2] 聶希蕓.流媒體技術淺析[J].價值工程,2011,30(11):174.

[3] 李斌寧.流媒體技術及其應用淺析[J].教學與管理(理論版),2005 (8):93-94.

[4] 三維流媒體技術的發展及其對媒體傳播的影響[J].新聞界,2009 (5):19-21.

rtsp協議范文4

關鍵詞:安卓;WiFidisplay;RTP實時傳輸

中圖分類號:TP319 文獻標識碼:A 文章編號:16727800(2013)009010403

作者簡介:陳子安(1987-),男,中國科學技術大學軟件學院碩士研究生,研究方向為音視頻編解碼、嵌入式Android系統。

1WiFidisplay sink端基本架構

1.1WiFidisplay概述

WiFidisplay技術,是基于WiFi direct實現用戶設備之間實時共享資源(圖片、視頻、音樂等)的技術。這種共享無需任何硬件連接(HDMI線),即可通過WiFi實時顯示在電視、投影等大屏幕上。

從技術層面來看,WiFidisplay平臺的應用主要是通過一個發送端(即Source,可以傳送多媒體內容的WiFi終端,例如智能手機或平板電腦)和一個接收端(即Sink,可以接收并顯示多媒體內容的WiFi設備,例如平板電視或投影機產品),建立一個點對點的連接,從而將手機拍攝的照片、影片或是網絡上的高清視頻內容完整地播放在擁有大屏幕的電視上;相反地,用戶也可以通過手機或平板,直接觀看電視或電腦屏幕上的內容[1] 。

由圖1所示,android4.2在framework層通過wifip2p Manager提供了對wifidirect的支持。WFDSink是java層的實現,通過調用WifiP2pManager并在WifiP2pManager中加入detect 具有流媒體傳輸能力的source的功能,完成source端和sink端wifi連接的建立[2] 。WFDRTSPClient通過實現RTSP協議完成與source端的session建立。Session是一個基于RTP的會話,主要完成source端和sink端的能力交互,檢測各自允許支持的最高音頻傳輸格式和視頻傳輸格式,并確認source端和sink端均支持HDCP協議(Highbandwidth Digitalcontent Copy Protection)。

source端通過建立的session將實時流媒體(或抓取的界面)以TS流的方式(transport stream)傳送到sink端,sink端的WfdRealtime player 對傳送的TS流先進行demux處理(為了提高傳輸過程的帶寬利用率,音視頻的傳輸都會在發送端先進行編碼復用,因此接收端需要解復用),然后分別送到AV decoder里面進行解碼,最后通過渲染并送入android的HWC Surface Flinger和Audio Flinger里呈現出來。

2WiFidisplay sink 端具體實現

Sink端系統主要分為WFDClient、Wifidirect_service、Wfdsession、WFDAVmanager、wfdrtspclient幾個模塊。

WFDClient 負責與Service端進行交互,查詢WiFi display的狀態,發送建立Session,連接Source的指令以及與用戶的信息交互。

Wifidirect_service主要用于建立于Source端的wifi_direct連接,實現物理層的通信。Wfdsession將會在WiFidirect建立并完成Capatibility Negotiation之后建立流媒體傳輸的Session,建立Session的過程需要WFDrtspclient與Source端的rtsp通信。

WFDAVmanager與Android的Surfaceflinger和Audioflinger直接talk,實現WFD udp的數據接收,TS流解析,AV decoder以及AV renderer。

整個sink端的系統流程如圖2所示。

2.1RTP/RTSP流傳輸協議實現

本文選用開源框架live555作為RTP/RTSP協議的實現框架。但由于live555不能觀看實時采集的視頻,不支持子目錄的播放,因此在live555框架的基礎上增加了live source、H264LiveStreamParser和H264VideoLiveMediaServerSubsession3個模塊,如圖3所示。

LiveSouree是實現doGetNextFrame接口的實時視頻流的Source。由圖3所示,LiveSouree繼承了MediaSouree的功能,同時doGetNextFrame是MediaSource的純虛函數,它允許其他的模塊通過這個接口得到幀。

H264Videosink要求H264LivestreamParser通過MediaSource的接口每隔一段固定的時間段就傳遞數據給它。H264Livestreamparser是Livesouree的helper模塊,它實現了doGetNextFrame,并且在doGetNextFrame的功能被其他模塊調用時獲得數據,比如RTPSink。H264 Livestream Parser為了達到與source行為一起工作的目的,還實現其他的細節處理功能。

H264VideoLiveMediaServerSubsession是一個用于管理Souree和Sink的類。

當一個用戶連接到Media服務端時,H264 VideoLiveMediaServerSubsession對象被創建,直到連接斷開才消失,當用戶要從一個指定時間開始播放時,可以調用Seekstreamsource方法定位到指定的幀。H264 VideoLiveMediaServerSunsession創建的時候要創建LiveSource作為視頻源。

2.2Demux (解復用)實現

Android并不支持對于MPEG TS流(MPEG定義的實時流傳輸標準)的復用和解復用功能[3] 。而根據MPEG TS的協議要求,TS流的Media Data傳輸都是以復用后的Packet形式存在。因此在實現Sink端的時候,必須對Source端傳輸過來的TS Packet進行Demux(解復用)。

解復用的實現方法是遵循MPEG TS協議的包格式進行字段解析。TS流信息都是二進制編碼,可根據標準中定義的包格式中各標識符字段的含義提取節目表(PAT表、PMT表),從而解析出各節目對應的音視頻流。

Demux實現的基本流程是:先接收一個負載為PAT(Program Association Table)的數據包,在整個數據包里找到一個PMT包的ID。然后再接收一個含有PMT的數據包,在這個數據包里找到有關填入數據類型的ID[4] 。之后就在接收到的TS包里找含有這個ID的負載內容,這個內容就是填入的信息。得到了PMT表的信息,就可以區分出TS Packet中的每一段數據分別屬于哪一個節目的哪一路視頻或者音頻,這樣就可以根據這些節目的信息分別將同屬于一路節目的視頻和音頻送入對應的Decoder進行解碼。

2.3AV decoder

AV decode 將實現對上述支持的音視頻格式的解碼。由于Android自帶的Open Core不能支持上述的所有音視頻格式的解碼,需要自己編寫Video Decoder和Audio Decoder。

Audio Decoder主要完成Audio的解碼工作,包括與Audiotrack,Audioflinger的交互,Audio Decoder需要根據被解碼的音頻文件的格式、比特率,以及Audio Track的Buffer、Demux向Audio Decoder傳送數據的速度等等一系列參數確定可用的最小Buffer Size。Audio Flinger向上對Audio Decoder提供調用接口,向下通過與Driver通信控制相應硬件,對于不同的格式,應該采取硬件解碼還是軟件解碼,通過Audio Flinger獲取硬件參數后如何確定解碼算法,以及他們之間的Pipline交互,都是需要實現的部分。

Audio Decoder 首先獲得編碼的音頻數據流,然后以幀為單位解碼每一幀數據,這里需要根據對應音頻的幀格式實現對應的變換算法,完成頻譜包絡解碼,同時進行比特分配對尾數進行反量化處理,然后對頻譜包絡解碼進行指數變換并和反量化后的信號合成濾波器組進行濾波,采樣恢復,得到PCM數據[5] 。再將PCM數據劃分聲道,并做均衡、劃分音量等級等等一系列處理,然后調用Player播放。在播放過程中要完成與Player的交互,包括每一路音頻的速率控制、暫停、快進、快退、回放等操作Decoder的相應處理。

Video Decoder 跟Audio Decoder的流程大致類似,不同的是Video Deocder除了需要與Player交互實現Video的播放各種功能以外,還需要與Graphics交互實現畫面的呈現,WiFidisplay需要播放實時流,它是一個界面的完整展現[6] 。Source端的界面抓取后傳輸過來,經過Video Decoder解碼數據之后要送入圖形圖像處理模塊進行顯示,Video Decode需要根據圖像輸出的分辨率、刷新率等實時地調整送入Surface Flinger的數據速率,以及馬賽克的處理、丟幀的處理等等。

3結語

WiFidisplay新一代的智能移動平臺將徹底脫離“有線”傳輸高清數字信號的時代。本文基于ARM架構的嵌入式平臺實現了WiFidisplay Sink端的功能,經過測試可與當前市面上主流的Source端配對良好并實時地傳輸Source發送的多媒體數據,具有良好的用戶體驗和可擴展性。

參考文獻:

[1]宋碧蓮,吳華平. 流媒體技術研究及其系統平臺的設計與比較[J].計算機應用研究,2004,21(1): 204207.

[2]ROB GORDON.Essential JNI:Java native interface,prentice hall PTR[J].12 million words,1998.

[3]ABHYUDAI SHANKER,SOMYA LAL.Android porting concepts[C]//2011 3rd.International Conference on Electronics Computer Technology,Kanyakumari.2011:916.

[4]陸其明. Directshow開發指南[M].北京:清華大學出版社,2010.

rtsp協議范文5

1、bt文件的打開方法:1.打開迅雷軟件(沒有迅雷的可以先下載迅雷軟件);2.點擊左上角處的新建按鈕,彈出新建任務對話框;3.點擊“打開BT種子文件”選項,打開選擇種子文件對話框;4.找到種子所在的位置,選擇種子文件,點擊打開!出現BT任務,文件設置選項對話框,選擇文件下載的存儲位置,和所須下載的文件。在復選框前打勾的表示要下載的文件。之后點擊“立即下載”按鈕;5.文件開始下載(注意事項:如果迅雷文件已設置好直接關聯BT種子文件,可以直接找到種子文件雙擊,跳到步驟4)。

2、bt的解釋:BitTorrent(簡稱BT)是一個文件分發協議,它通過URL識別內容并且和網絡無縫結合。它對比HTTP/FTP協議,MMS/RTSP流媒體協議等下載方式的優勢在于,一個文件的下載者們下載的同時也在不斷互相上傳數據,使文件源(可以是服務器源也可以是個人源,一般特指第一個做種者或種子的第一者)可以在增加很有限的負載之情況下支持大量下載者同時下載,所以BT等P2P傳輸方式也有”下載的人越多,下載的速度越快“這種說法。

(來源:文章屋網 )

rtsp協議范文6

視頻分辨率演進和UHD

UHD(超高清)是高清(HD)、全高清(Full HD)的下一代技術。其分辨率在業界有多種定義,按照國際電信聯盟(ITU)的“超高清UHD”標準的建議,將屏幕的物理分辨率達到3840×2160(4K×2K)及以上的顯示稱之為超高清,是普通Full HD(1920×1080)寬、高的2倍,面積的4倍。而嚴格意義上的4K分辨率(4096×2160)則由“數字影院創導(DCI)”組織提倡。另外,4K分辨率還包括Full Aperture 4K(4096×3112)、Academy 4K(3656×2664)等多種標準。上述多種分辨率技術通常情況下統一稱作4K分辨率。

業界大規模用于商業用途的視頻分辨率以標清(SD)為代表,傳統數字影院則以2K為代表。4K的概念早在上世紀90年代就已經提出,但在經歷了SD標清和HD高清的多年發展之后,4K分辨率的視頻在2014年才逐步走進大眾的視線。

HEVC編碼和4K網絡帶寬要求

由于UHD的超高分辨率要求,傳統主流的視頻壓縮標準協議H.264(AVC)在面對UHD視頻時局限性凸顯,而面向更高清晰度、更高幀率、更高壓縮率視頻應用的HEVC(H.265)協議標準應運而生,剛好滿足UHD的發展要求。

HEVC協議標準于2013年2月正式在業界,相對于H.264,HEVC(H.265)在很多方面有革命性的變化。HEVC的技術亮點主要在于其使用更加靈活的編碼結構來提高編碼效率,包括編碼單元(Coding Unit)、預測單元(Predict Unit)和變換單元(Transform Unit)。

業界專家經反復質量比較和測試證明,在相同的圖像質量下,相比于H.264,通過H.265編碼的視頻大小將減少大約39%-44%。

雖然上述結果令人欣喜,但真正的4K影片不但要考慮分辨率,同時需要考慮4K技術更高的色彩空間覆蓋率(數字量化從8bit提升到10-12bit)、更高的幀率(從30fps最高提高到120fps),因此在采用同等H.264編碼情況下,真正的能夠達到4K影片質量效果的影片碼率將是普通HD影片碼率的12-15倍左右??紤]HEVC的高壓縮效率,專業4K影片的碼率將達到40Mbps-50Mpbs,在降低一定的幀率和損失部分色彩清晰度的情況下,4K影片的碼率可以降低到30Mbps。由于視頻編碼碼率的波動性和互聯網網絡帶寬的不穩定性,一般意義上要想達到上述要求的互聯網網絡帶寬要求達到50Mbps,這給4K影片的普及帶來一定的門檻。

中興通訊EyeWill 2.0提供商用保障

中興通訊10多年來致力于為用戶提供高視頻質量和豐富體驗的IPTV/OTT端到端整體解決方案,建設了目前全球最大的IPTV/OTT系統平臺,其EyeWill品牌的端到端系統解決方案采用了先進的融合CDN、開放性強的業務管理平臺、適配性高的終端客戶端軟件,通過靈活的CDN多級架構部署、高效的在線轉碼能力、綜合的多樣化業務管理、豐富的客戶端內容展現等,系統具備高性能、高可靠性和高集成度等特點,為支撐UHD的高質量內容服務保駕護航。

中興通訊EyeWill系統滿足端到端的各類視頻應用,支持UHD的端到端點播內容服務,包括以下功能:業務平臺支持對4K內容套餐的靈活設置;內容管理系統支持4K內容的引入;內容分發網絡(CDN)支持多種協議方式的4K內容服務,主要有RTSP和HTTP協議;電子節目單系統(EPG)支持對4K內容的展現,可以設置4K專區獨立運營;多款型號的機頂盒支持4K內容的解碼和播放;Android智能移動終端的多屏客戶端支持HEVC內容的解碼,充分降低網絡帶寬要求。

除了上述的功能外,EyeWill 2.0系統采用多種先進技術以滿足UHD的商用需求,如低碼超清、網絡狀況識別和UHD碼率自適應、兼容多種編碼格式等。

端到端低碼超清技術

中興通訊推出低碼超清解決方案,引入編碼優化算法,在原來HEVC編碼的UHD基礎上,進一步壓縮碼率,使較高質量的4K內容能夠壓縮到15Mbps-20Mbps左右,一般質量的4K內容甚至可以壓縮到8Mbps-12Mbps,為終端用戶在較低帶寬基礎上觀看較高質量4K內容創造了條件。

端到端支持碼率自適應和動態編碼技術

EyeWill 2.0支持多終端類型接入和多屏互動,同時支持在線轉碼/編碼服務能力,可以根據終端的網絡帶寬質量,實現不同碼率內容的實時在線編碼和服務。對于UHD內容,將來在具備直播內容源的條件下,中興通訊EyeWill 2.0系統同樣支持對UHD內容在保持相同原有分辨率的情況下,輸出不同質量和碼率的內容。

端到端兼容H.264/H.265編碼以及RTSP/HLS服務能力

EyeWill 2.0系統同時兼容傳統的H.264編碼的內容和UHD的H.265編碼。在內容服務上,也能同時支持RTSP和HLS的服務。因此,EyeWill 2.0系統兼容運營商原有由中興通訊建設的IPTV或OTT系統,這為運營商低成本改造現網網絡支持UHD創造了條件。

相關精選

亚洲精品一二三区-久久