和通用競爭,Ford推首全電動車CUV

目前福特所販售的電動車皆為「合規車(compliance cars)」,也就是各大車廠為了符合美國州政府零排放規定而以一般汽車為基底改造而成的電動車。近日,福特技術長Raj Nair 表示他們將於2020 年推出首款全電動車,這款電動車將進行量產且定價相對低廉。

福特進入電動車市場的時間點明顯晚於其主要競爭對手—通用汽車。通用汽車已推出價格優惠又續航力充足的Chevy Bolt 電動車,而福特將「以量取勝」。Nair 在Business Insider 的訪問中強調,「這將是一款大眾化的電動車,我們必須同時達成高續航力與價格實惠的目標,否則這只會是一款瞄準小眾市場的奢侈品。」

這款交叉型(CUV)全電動車將於2020 年推出,Nair 保證福特的全電動車將以充電一次行駛超過480 公里的續航力以及交叉型車款的多功能特性來取得市場青睞。在交叉型與小型SUV 車款方面,Tesla 將於2019 至2020 年間推出Model Y。

除了這款全電動車之外,福特也承認他們正計畫推出其他類似的車款,但多半為油電混合車。這款電動車將於福特Flat Rock 工廠進行生產,並在2020 年於北美、歐洲與亞洲推出。

(合作媒體:。圖片出處:Ford Europe)

 

首圖來源:Ford Europe)

本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理

【其他文章推薦】

※為什麼 USB CONNECTOR 是電子產業重要的元件?

網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

※台北網頁設計公司全省服務真心推薦

※想知道最厲害的網頁設計公司"嚨底家"!

※推薦評價好的iphone維修中心

江申中國廠獲Tesla訂單,營收增新動能

裕隆集團汽車零組件廠江申雖因國內景氣不佳,大型商用車、巴士需求平緩,致營收缺乏動能,但在中國大陸轉投資廠接單風光下,公司去年繳出稅後淨利大增2成的好成績,EPS 7.21元則改寫歷史新高紀錄;而今年第1季,雖然營收、獲利大致持平,但江申總經理麥少保表示,福州福享、廣州NTN和襄陽NTN今年均接單暢旺,尤其,廣州NTN還正式出貨美國電動車大廠特斯拉(Tesla) Model 3的轉動軸訂單,襄陽NTN也開始交瀋陽華晨寶馬,而福享也接到寧德能源的電動車電池盒訂單,將成為挹注今年業外成長的動能。

江申為裕隆集團旗下汽車零組件廠商,是台灣最大的大貨車架、巴士車架、以及小貨車車架、木床的供應商,公司18日參加集團法說會,由總經理麥少保說明今年度業績展望,其中,廣州NTN接獲特斯拉訂單成為法說會中的焦點。

由於江申營收僅反映台灣廠業績,但台灣廠的獲利佔比卻不及1成,逾9成的獲利主要來自轉投資大陸廠的收益,包括廣州NTN、襄陽NTN、福州福享、廈門金龍江申等;其中,光廣州NTN的獲利佔比在第1季達75%,是主要獲利重心,因此,法人在觀察江申展望時,多聚焦大陸廠接單情形。

江申第1季營收2.62億元、年增1.55%,毛利率9.48%、年減0.86個百分點,營業淨利98萬元、年減76.27%,業外淨利則為1.29億元、年增0.78%,稅前盈餘1.3億元、年減1.52%,稅後淨利1.33億元、年增1.53%,EPS 1.82元,優於去年同期的1.79元。

從江申的財報觀察,江申台灣廠第1季幾乎損平,獲利遭匯兌侵蝕;而廣州NTN貢獻9790萬元,年增23.89%;襄陽NTN貢獻2103萬元,年增36.74%;福享貢獻1452萬元,年減47.03%;廈門金龍江申則虧損428萬元,較去年同期的淨利230萬由盈轉虧。

麥少保說明,第1季來台的陸客減少,導致大巴士需求下滑,但江申營收有持平表現,是因為大客戶國瑞新導入日本Hino的底盤公車,並接獲新店客戶、桃園、新竹客運等訂單,對江申來說形成營收支撐;今年營收將平穩。

至於大陸轉投資部份,福州福享今年首季獲利衰退,主因去年有馬瑞利的模具收入,拉高獲利基期,若扣除該一次性收入來看,福享的本業獲利實際是成長的。

麥少保進一步表示,福州福享受惠於東南汽車推出SUV車的策略符合市場需求,DX7、DX3熱賣,接單明顯成長;再加上該廠也接福建奔馳訂單,在該品牌推出VS20廂型車款後賣得不錯,也成為今年動能。

值得留意的是,福州福享新接獲香港投資的電動車鋰電池大廠寧德新能源的電池盒訂單,麥少保預估,該業務將成為福享未來營運很重要的一環。該客戶訂單今年第1季佔比是5%,全年預估會佔5~10%。

最受關注的廣州NTN,麥少保則說,該廠的產能已達到40萬支/月的高峰,接單也不錯,主因東風日產的天籟、奇駿、SANTRA都賣得不錯,並持續有日產外銷訂單,雖然該廠有北京瑞韓現代訂單下滑影響,但由於外銷接單成長,因此該廠仍能維持成長。

他也首度證實,廣州NTN今年開始出貨Tesla Model 3傳動軸零件訂單,目前1個月訂單約為2萬個,並透露,只要是外銷訂單通常獲利都不錯。

而成長最大的襄陽NTN,則是因應廣州NTN產能不足而設,目前產能15萬支/月,年底目標18萬支/月。麥少保表示,4月起該廠正式交貨瀋陽華晨寶馬(BMW),同時也交廣州NTN交貨不足的天籟、奇駿車款,業績隨著擴產而有較大的動能。

不過,受到電動車騙補事件影響,廈門金龍今年首季繳出虧損成績單,麥少保也直言,大陸電動車很多人做,但今年普遍業績不好,今年該廠的業績將較去年差。

法人則預期,江申今年台灣廠營收將與過去2年相當,動能不強,但轉投資中國大陸在廣州NTN有訂單加入,襄陽NTN也因擴產、接單擴量,再加上福州福享有東南汽車DX7、DX3熱賣,可望使營運逐季增溫,下半年更優於上半年。

法人估,江申台灣營收將持穩,但大陸獲利成長下,全年獲利有機會較去年成長1成,EPS則有機會向8元扣關,再次創下史上最佳紀錄。

(本文內容由授權使用。圖片出處:Tesla)

本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理

【其他文章推薦】

USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

台北網頁設計公司這麼多該如何選擇?

※智慧手機時代的來臨,RWD網頁設計為架站首選

※評比南投搬家公司費用收費行情懶人包大公開

※回頭車貨運收費標準

德國將蓋鋰電池廠制衡Tesla,鋰電池成本望下滑

特斯拉(Tesla)懷著超級工廠大夢,準備在電池領域一統江湖,歐洲強國也不甘示弱,德國總理梅克爾(Angela Merkel)參加德國戴姆勒汽車(Daimler)斥資5 億歐元興建的鋰電池工廠的動土典禮,這項歐洲大陸的超級電池工廠計畫,將挑戰Tesla 在綠色電力領域的領導地位。

彭博報導,德國電池工廠位於柏林南部130 公里處,突顯主要汽車製造商和電力公司進入儲能的行動,這項技術對推動下一代綠色車輛,以及在需要時儲存風力與太陽能電力上至關重要。報導認為,隨著汽車製造商與電力公司同步發展,電池成本可能會迅速下滑。

彭博分析師認為,電池成本下降與能源密度增加,預計2030 年就可以看到電動車比燃料汽車更便宜的情況。根據彭博新能源財經(BNEF)數據,全球電池製造產能將在2021 年翻倍,達到2.78 億度,現在約1.03 億度,屆時歐洲市場佔比將從現在的2.5% 提高一倍。

瑞典、匈牙利和波蘭計劃中的大型工廠,以及戴姆勒在德國的電池組裝廠,預計會為福斯與雷諾等汽車製造商提供需求,屆時鋰離子電池成本將降低43%,使電動汽車成為主流。

對於公用事業而言,便宜的電池可以降低儲存單元的成本,儲存單元可將變動型再生能源如風能與太陽能的電力傳送至電網。義大利國家電力公司Enel SpA 將電池與風力發電場配套使用,電網管理人員對電力輸出的預測準度因此提高30%。

1990 年代初期消費類電子產品如電腦和手機使用的鋰離子電池,已經跨界應用於運輸和電力行業,但礙於成本,鋰電池在電網和汽車上的應用才剛剛開始,電池的興起對於電動汽車的消費者來說最為明顯,大多數主要汽車製造商將充電式電動車訂為未來10 年的中期計劃。

目前電池業務仍由亞洲電子製造商所主導。根據BNEF,韓國LG 和三星SDI 是頂級供應商,亞洲有望繼續保持領先地位,中國另有8 個工廠正在興建。

汽車製造商採取行動確保電池供應源,戴姆勒的工廠將是歐洲最大的工廠,供應旗下汽車與梅賽德斯賓士,並與屋頂太陽能安裝商Vivint Solar 合資生產家庭能源儲存系統。

2017 年1 月Tesla 的工廠完成三分之一,完工後每年產能可達35 千兆瓦,足以支持每年生產50 萬輛電動車,這將使Tesla 成為繼LG 化學之後的第2 大供應商,特斯拉也在計畫興建更多超級工廠。

戴姆勒的投資規模較小,且尚未披露產能目標。福斯正在與電池廠商討論投資項目,並計劃在德國興建原型組裝廠以開發自己的技術。位於斯德哥爾摩的創業公司NorthVolt AB 宣布計劃在2023 年在瑞典設立一家40 億歐元的電池廠。鋰電池產量大增可望降低所有應用的電池成本,讓家庭和電網的儲存更加實惠。

未來10 年電動汽車價格可望能與汽油或柴油車競爭,由於電池組是充電電動車中最昂貴的部分,佔總成本的三分之一,預計到2021 年,鋰離子電池將便宜43%,從目前的每千瓦273 美元降至156 美元。

鋰電池普及是可以預見的事,但問題是儲存對消費者或大型公用事業而言是否有利可圖仍然是一個懸而未決的問題。即使如此,電動汽車廠商也正在尋找未來,根據BNEF,2030 年前充電式電動車可能佔新車銷售的五分之一,即2,100 萬台。梅克爾訪問戴姆勒工廠展現了德國政府計劃2030 年讓600 萬輛電動汽車上路的決心。

(合作媒體:。圖片出處:Tesla)

本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理

【其他文章推薦】

網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

※想知道購買電動車哪裡補助最多?台中電動車補助資訊懶人包彙整

南投搬家公司費用,距離,噸數怎麼算?達人教你簡易估價知識!

※教你寫出一流的銷售文案?

※超省錢租車方案

電動車發展腳步快,石油恐2040年前觸頂

Thomson Reuters報導,嘉能可(Glencore)董事長Tony Hayward 22日表示,電動車的快速進步意味著石油需求可能會在2040年以前觸頂,深海鑽油、加拿大油砂等高成本原油生產商恐將先被淘汰出局,擁有生產成本優勢的石油輸出國組織(OPEC)相對較不受衝擊。Hayward曾任英國石油公司(BP Plc)執行長。

嘉能可執行長Ivan Glasenberg表示,石油需求可能提前觸頂對嘉能可有利、因為旗下投資組合並沒有太多的原油。Glasenberg指出,如果電動車在2035年拿下90-95%的市占率,全球年度銅需求量可望較目前的2,300萬噸呈現倍增。德國總理梅克爾(Angela Merkel)22日指出,鋰電池技術已經進步到可以讓電動車擁有1千公里的續航力、遠高於目前的200-300公里,德國必須大舉投資以確保產業繼續保有優勢。

戴姆勒(Daimler AG)董事長Deiter Zetsche 22日表示,預估到2022年旗下將有超過10款的純電動轎車系列。戴姆勒旗下全資子公司ACCUMOTIVE 22日在德國卡門茨(Kamenz)為第二座電池工廠舉行奠基儀式、邀請梅克爾出席。這座工廠耗資5億歐元、預計在2018年年中正式營運。

英國金融時報去年8月報導,麥格理集團全球能源策略師Vikas Dwivedi指出,沙烏地阿拉伯對電動車的長期發展存有戒心,這可能就是它為何宣布將讓沙烏地阿拉伯國家石油公司(Saudi Aramco)初次公開發行(IPO)的原因之一。

通用汽車(General Motors)Chevrolet Bolt電動車續航力達238英里(383公里)、建議零售價37,495美元起(註:最多可取得7,500美元的聯邦折抵稅額、扣除後入手價相當於29,995美元)。美聯社報導,IHS Markit汽車業分析師Stephanie Brinley指出,Bolt續航力遠高於美國平均來回通勤距離(40英里),但有時人們回家後可能忘了或沒有足夠時間進行充電,這是電動車主得多加費心的地方。

(本文內容由授權使用。圖片出處:public domain CC0)

本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理

【其他文章推薦】

網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

※Google地圖已可更新顯示潭子電動車充電站設置地點!!

※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

※別再煩惱如何寫文案,掌握八大原則!

網頁設計最專業,超強功能平台可客製化

WireShark——IP協議包分析(Ping分析IP協議包)

   互聯網協議 IP 是 Internet Protocol 的縮寫,中文縮寫為“網協”。IP 協議是位於 OSI 模型中第三層的協議,其主要目的就是使得網絡間能夠互聯通信。前面介紹了 ARP 協議, 該協議用在第二層處理單一網絡中的通信。與其類似,第三層則負責跨網絡通信的地址。在 這層上工作的不止一個協議,但是最普遍的就是互聯網協議(IP)

1. IP協議介紹

   互聯網協議地址(Internet Protocol Address,又譯為網際協議地址),縮寫為 IP 地址(IP Address)。在上一章介紹了 ARP 協議,通過分析包可以發現它是依靠 MAC 地址發送數據 的。但是,這樣做有一個重大的缺點。當 ARP 以廣播方式發送數據包時,需要確保所有設 備都要接收到該數據包。這樣,不僅傳輸效率低,而且局限在發送者所在的子網絡。也就是 說,如果兩台計算機不在同一個子網絡,廣播是傳不過去的。這種設計是合理的,否則互聯 網上每一台計算機都會受到所有包,將會導致網絡受到危害。 互聯網是無數子網共同組成的一個巨型網絡。

 

   圖中就是一個簡單的互聯網環境,這裏列出了兩個子網絡。如果想要所有電腦都在同 一個子網絡內,這幾乎是不可能的。所以,需要找一種方法來區分那些 MAC 地址屬於同一 個子網絡,那些不是。如果是同一個子網絡,就採用廣播方式發送。否則就採用路由發 送。這也是在 OSI 七層模型中網絡層產生的原因。

   它的作用就是引進一套新的地址,使得用戶能夠區分不同的計算機是否屬於同一個子網 絡。這套地址就叫做網絡地址,簡稱網址。但是,人們一般叫做是 IP 地址。這樣 每台計算機就有了兩種地址,一種是是 MAC 地址,另一種是網絡地址(IP 地址)。但是, 這兩種地址之間沒有任何聯繫,MAC 地址是綁定在網卡上的,網絡地址是管理員分配的, 它們只是隨機組合在一起。

2. IP地址

   IP 地址是 IP 協議提供的一種統一的地址格式。它為互聯網上的每一個網絡和每一台主 機分配一個邏輯地址,以此來屏蔽物理地址的差異。IP 地址分為 IPv4IP 協議的第四版) 和 IPv6IP 協議第六版)兩大類。目前,最廣泛使用的是 IPv4。在該版本中規定,該地址 是由 32 個二進制位組成,用來標識連接到網絡的設備。由於讓用戶記住一串 32 位長的 01 字符確實比較困難,所以 IP 地址採用點分四組的表示法。

   在點分四組表示法中,以 ABCD 的形式構成 IP 地址的四組 1 0。它們分別轉 換為十進制 0 255 之間的數,如圖 3.2 所示。

 

    3.2 显示了 IPv4 地址 11000000.10101000.00000000.00000001,進行了點分四組的表 示法。從圖 3.2 中,可以看到這樣一串 32 位長的数字很不容易記住或者表示。但是採用點 分四組的表示法,就可以將以上一個很長的字符串表示為 192.168.0.1。這樣,用戶就比較容 易記住。

3. IP地址的構成

   IP 地址之所以會被分成四個單獨的部分,是因為每個 IP 地址都包含兩個部分,分別是 網絡地址和主機地址。網絡地址用來標識設備所連接到的局域網,而主機地址則標識這個網 絡中的設備本身。例如,IP 地址 172.16.254.1 是一個 32 位的地址。假設它的網絡部分是前 24 位(192.168.254),那麼主機部分就是后 8 位(1)。處於同一個子網絡的計算機,它們 IP 地址的網絡部分必定是相同的。也就是說 172.16.254.2 應該與 172.16.254.1 處在同一個子 網絡。

   但是,只查看 IP 地址是無法判斷網絡部分的。這時候就需要使用另一個參數子網掩 碼來判斷。所謂的子網掩碼就是表示子網絡特徵的一個參數。它在形式上等同於 IP 地址,也是一個 32 位二進制数字。它的網絡部分全部為 1,主機部分全部為 0

   下面以IP地址10.10.1.22為例,其二進制形式為00001010.00001010.00000001.00010110。 為了能夠區分出 IP 地址的每一個部分,將使用子網掩碼來表示。在本例中,10.10.1.22 的子 網掩碼是 11111111.11111111.00000000.00000000。這就意味着 IP 地址的前一半(10.10 或者 00001010.00001010)是網絡地址,而後一半(1.22 或者 00000001.00010110)表示是該網絡 上的主機,如圖 3.3 所示。

 

    11111111.11111111.0000000.000000,可以被寫成 255.255.0.0

   IP 地址和子網掩碼為簡便起見,通常會被些成無類型域間選路(Classless Inter Domain RoutingCIDR)的形式。在這種形式下,一個完整的 IP 地址後面會有一個左斜杠(/), 以及一個用來表示 IP 地址中網絡部分位數的数字。例如,IP 地址 10.10.1.22 和網絡掩碼 255.255.0.0,在 CIDR 表示法下就會被寫成 10.10.1.22/16 的形式。

4. 捕獲IP數據包

1)什麼是 IP 數據報

   TCP/IP 協議定義了一個在因特網上傳輸的包,稱為 IP 數據報(IP Datagram)。IP 數據 報是一個與硬件無關的虛擬包,由首部(header)和數據兩部分組成。首部部分主要包括版 本、長度、IP 地址等信息。數據部分一般用來傳送其它的協議,如 TCP、UDP、ICMP 等。

  IP 數據報的“首部”部分的長度為 20 到 60 個字節,整個數據報的總長度最大為 65535 字節。因此,理論上一個數據報的“數據”部分,最長為 65515 字節。由於以太網數據報的 “數據”部分,最長只有 1500 字節。因此如果 IP 數據報超過了 1500 字節,就需要分割成 幾個以太網數據報分開發送了。

2)TTL

   捕獲 IP 協議包和其它包有點區別,因為在 IP 協議中涉及到一個 TTLtime-to-live,生 存時間)值問題。TTL 值指定數據包被路由器丟棄之前允許通過的網段數量。當數據包每 經過一個路由器,其 TTL 值將會減一。關於 TTL 的詳細信息,在後面進行介紹。下面將介 紹捕獲 IP 協議包,Wireshark 的位置。

   為了證明 TTL 值的變化,本例中選擇使用三個路由器來捕獲數據包。捕獲 IP 協議數據 包的實驗環境,如圖 3.4 所示。

 

   從圖中,可以看到使用兩個路由器,將三台主機分割成兩個網段。這三台主機的 IP 地址,在圖 3.4 中已經標出。在本例中,Wireshark 可以在 PC1 PC2 任意一台主機上運行。 但是,不可以在 PC3 上運行。因為,在後面將會分別分析同網段和不同網段中 IP 協議包。 如果在 PC3 上捕獲數據包,只能捕獲同網段的 IP 數據包。

3) 捕獲數據包

① 訪問一個網頁

   打開瀏覽器,訪問 http://www.baidu.com 網站,將捕獲到如圖所示的界面。

 

   從該界面的 Protocol 列,可以看到捕獲到有 DNSTCPHTTP 等協議的包。在這些包 中,都包含由 IP 頭部的詳細信息。但是,這樣可能會影響對 IP 協議包的分析。

② 執行 ping 命令

   為了不受很多協議的影響,這裏通過執行 ping 命令僅捕獲 ICMP 協議的數據包。此時 在主機 PC1 上執行 ping 命令,分別 pingPC2 PC3。執行命令如下所示:

C:\Users\Administrator>ping 192.168.5.4 C:\Users\Administrator>ping 192.168.6.103

   執行以上命令后,捕獲到的數據包如圖所示。

 

  捕獲到的 IP 協議包

   從該界面的 Protocol 列,可以看到都是 ICMP 協議的包,而且每個包的顏色也都是相同 的。雖然從該界面看到捕獲到的數據包很多,但是只需要分析其中兩個包,就可以很清楚的 理解 IP 協議包格式。此時,用戶還可以使用 IP 的显示過濾器對數據包進行過濾。如過濾僅 显示主機 PC3192.168.6.103)的數據包,輸入過濾器 ip.addr==192.168.6.103,显示界面如圖所示。

 

   從該界面可以看到,以上數據包都是發送/來自 192.168.6.103 的數據包。

4) 捕獲 IP 分片數據包

   在上面提到說,如果一個數據包超過 1500 個字節時,就需要將該包進行分片發送。通 常情況下,是不會出現這種情況的。但是為了幫助用戶更清晰的理解 IP 協議,下面通過使 用 ICMP 包,來產生 IP 分片數據包。本節將介紹如何捕獲到 IP 分片數據包。

   使用 ICMP 包進行測試時,如果不指定包的大小可能無法查看到被分片的數據包。由於 IP 首部佔用 20 個字節,ICMP 首部占 8 個字節,所以捕獲到 ICMP 包大小最大為 1472 字節。 但是一般情況下,ping 命令默認的大小都不會超過 1472 個字節。這樣,發送的 ICMP 報文 就可以順利通過,不需要經過分片后再傳輸。如果想要捕獲到 IP 分片包,需要指定發送的 ICMP 包必須大於 1472 字節。

   捕獲 IP 分片的數據包。具體操作步驟如下所示:

     1)啟動 Wireshark 捕獲工具。  

     2)在 Wireshark 主界面的菜單欄中依次選擇 Capture|Options,或者單擊工具欄中的 (显示捕獲選項)圖標打開 Wireshark 捕獲選項窗口,如圖所示。

 

捕獲選項界面

   3)在該界面設置捕獲接口、捕獲過濾器及捕獲文件的位置。這裏將捕獲的數據保存 到 ip-fragment.pcapng 捕獲文件中,如圖 3.10 所示。以上信息配置完后,單擊 Start 按鈕開始 捕獲數據包,如圖 所示。

 

開始捕獲數據包

   此時在主機 PC1 上執行 ping 命令,以產生 ICMP 數據包。執行命令如下所示:

C:\Users\lyw>ping 192.168.5.4 -l 3000

   在該命令中,使用-l 選項指定捕獲包的大小為 3000 字節。執行以上命令后,將显示如 下所示的信息:

正在 Ping 192.168.5.4 具有 3000 字節的數據:

來自 192.168.5.4 的回復: 字節=3000 時間=5ms TTL=64

來自 192.168.5.4 的回復: 字節=3000 時間=5ms TTL=64

來自 192.168.5.4 的回復: 字節=3000 時間=5ms TTL=64

來自 192.168.5.4 的回復: 字節=3000 時間=5ms TTL=64

   從以上輸出信息中,可以看到捕獲到每個包的大小都為 3000 字節。這時候,返回到 Wireshark 界面停止捕獲數據,將显示如圖所示的界面。

 

    IP 分片數據包

   從該界面可以很清楚的看到,和前面捕獲到的數據包不同。在該界面 Protocol 列,显示 了 IPv4 協議的包。這是因為發送的數據包過大,所以經過了分片后發送的。

5、IP數據報首部格式

    IP 地址和目的 IP 地址都是 IPv4 數據報首部最重要的組成部分。但是,在首部固定 部分的後面還有一些可選字段,並且其長度是可變的。下面將詳細介紹 IP 數據報首部格式, 如表 3-1 所示。

3-1  IP數據報首部格式  

IP協議

偏移位

03

47

815

1618

1931

0

版本

首部長度

服務類型

總長度

32

標識符

標記

分段偏移

64

存活時間

1

首部校驗和

 

96

IP地址

128

目的IP地址

160

選項

160192+

數據

在表 3-1 中,每個字段代表的含義如下所示:

   · 版本號:指 IP 協議所使用的版本。通信雙方使用的 IP 協議版本必須一致。目前廣 泛使用的 IP 協議版本號為 4,即 IPv4

   · 首部長度:IP 的首部長度,可表示的最大十進制數值是 15。注意,該字段所表示 的單位是 32 位字長(4 個字節)。因此,當 IP 首部長度為 1111(即十進制的 15) 時,首部長度就達到 60 字節。當 IP 分組的首部長度不是 4 字節的整數倍時,必須利用最後的填充字段加以填充。

   · 服務類型:優先級標誌位和服務類型標誌位,被路由器用來進行流量的優先排序。

   · 總長度:指 IP 首部和數據報中數據之後的長度,單位為字節。總長度字段為 16 位, 因此數據報的最大長度為 216-1=65535 字節。

   · 標識符:一個唯一的標識数字,用來識別一個數據報或者被分片數據包的次序。

   · 標識:用來標識一個數據報是否是一組分片數據報的一部分。標誌字段中的最低位 記為 MFMore Fragment)。MF=1 即表示後面還有分片的數據報。MF=0 表 示這已是若干數據包分片中的最後一個。標誌字段中間的一位記為 DFDon’t Fragment),意思是不能分片。只有當 DF=0 時,才允許分片。

   · 分片偏移:一個數據報是一個分片,這個域中的值就會被用來將數據報以正確的順 序重新組裝。

   · 存活時間:用來定義數據報的生存周期,以經過路由器的條數/秒數進行描述。

   · 協議:用來識別在數據包序列中上層協議數據報的類型。如,ICMP則協議值為1,TCP協議值為6,UDP協議值為17;更多的請自行百度

   · 首部校驗和:一個錯誤檢測機制,用來確認 IP 首部的內容有沒有被損壞或者篡改。

   · IP 地址:發出數據報的主機的 IP 地址。

   · 目的 IP 地址:數據報目的地的 IP 地址。

   · 選項:保留作額外的 IP 選項。它包含着源站選路和時間戳的一些選項。

   · 數據:使用 IP 傳遞的實際數據

1)存活時間 TTL

   存活時間(TTL)值定義了在該數據報被丟棄之前,所能經歷的時間,或者能夠經過的 最大路由數目。TTL 在數據報被創建時就會被定義,而且通常在每次被發往一個路由器的 時候減 1。

   例如,如果一個數據報的存活時間是 2,那麼當它到達第一個路由器的時候,其 TTL 會被減為 1,並會被發向第二個路由。這個路由接着會將 TTL 減為 0。這時,如果這個數據 報的最終目的地不在這個網絡中,那麼這個數據報就會被丟棄,如圖 3.13 所示。

    3.13就是數據報經過路由器后,TTL 值的變化。由於 TTL 的值在技術上還是基於時間的,一個非常繁忙的路由器可能會將 TTL 的值減去不止 1。但是通常情況下,還是可以 認為一個路由器設備在多數情況下只會將 TTL 的值減去 1

   了解 TTL 值的變化是非常重要的。一般用戶通常所關心的一個數據報的生存周期,只 是其從源前往目的地所花去的時間。但是考慮到一個數據報想要通過互聯網發往一台主機需 要經過數十個路由器。在這個數據報的路徑上,它可能會碰到被錯誤配置的路由器,而失去 其到達最終目的地的路徑。在這種情況下,這個路由器可能會做很多事情,其中一件就是將 數據報發向一個網絡,而產生一個死循環。如果出現死循環這種情況,可能導致一個程序或 者整個操作系統崩潰。同樣的,如果數據報在網絡上傳輸時,數據報可能會在路由器直接持 續循環,隨着循環數據報的增多,網絡中可用的帶寬將會減少,直至拒絕服務(DoS)的情 況出現。IP 首部中的 TTL 域,就是為了防止出現這種潛在的問題。

2)IP分片

   數據報分片是將一個數據流分為更小的片段,是 IP 用於解決跨越不同類型網絡時可靠 傳輸的一個特性。一個數據報的分片主要是基於第二層數據鏈路層所使用的最大傳輸單元 (Maximum Transmission UnitMTU)的大小,以及使用這些二層協議的設備配置情況。 在多數情況下,第二層所使用的數據鏈路協議是以太網,以太網的 MTU 1500。也就是說, 以太網的網絡上能傳輸的最大數據報大小是 1500 字節(不包括 14 字節的以太網頭本身)。

   當一個設備準備傳輸一個 IP 數據報時,它將會比較這個數據報的大小,以及將要把這 個數據報傳送出去的網絡接口 MTU,用於決定是否需要將這個數據報分片。如果數據報的 大小大於 MTU,那麼這個數據報就會被分片。將一個數據報分片包括下列幾個步驟,如下 所示:

      1)設備將數據分為若干個可成功進行傳輸的數據報。

      2)每個 IP 首部的總長度域會被設置為每個分片的片段長度。

      3)更多分片標誌將會在數據流的所有數據報中設置為 1,除了最後一個數據報。

      4IP 頭中分片部分的分片偏移將會被設置。

      5)數據報被發送出去

6、分析 IP 數據包

   通過前面對 IP 協議的詳細介紹及數據包的捕獲,現在就可以來分析 IP 數據包了。

1)分析IP首部

這裏以捕獲文件的第一幀為例,介紹 IP 數據包首部,如圖 3.14 所示。

 

   在該圖中從 Packet Details 面板中,可以看到有 IPv4 協議的包。這裏就詳細介紹在該包 中的詳細信息,如下所示:

Frame 1: 74 bytes on wire (592 bits), 74 bytes captured (592 bits) on interface 0

   以上信息表示是第一幀信息,其大小為 74 個字節。

Ethernet II, Src: Elitegro_3f:c3:e5 (00:19:21:3f:c3:e5), Dst: Giga-Byt_eb:46:8d (50:e5:49:eb:46:8d)

   以上信息表示是以太網幀頭部信息。其中,源 MAC 地址為 00:19:21:3f:c3:e5,目標 MAC 地址為 50:e5:49:eb:46:8d

Internet Protocol Version 4, Src: 192.168.5.2 (192.168.5.2), Dst: 192.168.5.4 (192.168.5.4)

   以上信息表示IPv4包頭部信息。其中源IP地址為192.168.5.2,目標IP地址為192.168.5.4。 在該包首部中還有很多其它字段的信息,下面將介紹該包中展開的所有信息。如下所示:

 

   以上信息包括 IP 包首部的所有字段,對應到包首部格式中,如表 3-2 所示。

    3-2  IP包首部格式

IP協議

偏移位

03

47

815

1618

1931

0

4

20

0x00

60

32

0x050e

0x00

0

64

64

ICMP(1)

0xea5c

96

192.168.5.2

128

192.168.5.4

160

 

160192+

 

   在該包中最後一行信息如下所示:

Internet Control Message Protocol

以上信息表示 ICMP 協議包信息。關於該協議的分析,在後面進行介紹。

2)分析IP數據包中TTL的變化

   前面介紹過 TTL 值是經過路由器后才發送變化。也就是說如果在同一網段中傳輸數據 包時,TTL 值是不變的。只有與非同網段的主機進行通信時,該數據包的 TTL 值才會發生 變化。下面通過分析捕獲文件,來確定 TTL 值是否是這樣變化的。

① 分析同網段中數據包的 TTL 值

   這裏同樣以捕獲文件為例,分析同網段 TTL 值的變化。在 ip.pcapng 捕獲文 件中,1~8 幀都是主機 PC1192.168.5.2)和 PC2192.168.5.4)之間的通信。這八幀可以 說是 4 個完整的數據包,也就是通過 ICMP 協議的發送和響應包。這裏以 ip.pcapng 捕獲文 件中的 34 幀為例,分析這兩個包中的 TTL 值。其中,34 幀的信息如圖 3.15 所示。

 

   從該界面的 Packet List 面板中,Info 列可以看到 34 幀包信息分別是 Echopingrequest (請求)和 Echopingreply(響應)。也就是說 192.168.5.2PC1)發給 192.168.5.4 的 包是一個請求包,192.168.5.4PC2)的包是一個響應包。其中,這兩台主機是在同一個網 絡中,所以這兩個包的 TTL 值應該相同。下面分別來看這兩個包中 IP 包首部的相信信息。

    第三幀的 IP 包首部信息如下所示:

Internet Protocol Version 4, Src: 192.168.5.2 (192.168.5.2), Dst: 192.168.5.4 (192.168.5.4)                   

   Version: 4          #IP 協議版本號

   Header length: 20 bytes       #首部長度

   Differentiated Services Field: 0x00 (DSCP 0x00: Default; ECN: 0x00: Not-ECT (Not ECN-Capable Transport))            #服務標識符     

   Total Length: 60         #總長度    

   Identification: 0x050f (1295)      #標識符    

   Flags: 0x00         #標誌        

       0… …. = Reserved bit: Not set     #保留位        

       .0.. …. = Don’t fragment: Not set     #不進行分片        

       ..0. …. = More fragments: Not set     #更多分片     

   Fragment offset: 0        #分片偏移     

   Time to live: 64         #生存期     

   Protocol: ICMP (1)        #協議    

   Header checksum: 0xea5b [validation disabled]   #首部校驗和     

   Source: 192.168.5.2 (192.168.5.2)     #IP 地址     

   Destination: 192.168.5.4 (192.168.5.4)    #目標 IP 地址     

   [Source GeoIP: Unknown]       #IP 地理位置    

   [Destination GeoIP: Unknown]      #目標 IP 地理位置

   以上信息是第三針中 IPv4 首部的詳細信息。從中可以看到,該包中的 TTL 值是 64。 第四幀的 IP 包首部信息如下所示

Internet Protocol Version 4, Src: 192.168.5.4 (192.168.5.4), Dst: 192.168.5.2 (192.168.5.2)     

   Version: 4          #IP 協議版本號     

   Header length: 20 bytes       #首部長度     

   Differentiated Services Field: 0x00 (DSCP 0x00: Default; ECN: 0x00: Not-ECT (Not ECN-Capable Transport))            #服務標識符     

   Total Length: 60         #總長度     

   Identification: 0xc71d (50973)      #標識符     

   Flags: 0x00         #標誌         

      0… …. = Reserved bit: Not set     #保留位         

      .0.. …. = Don’t fragment: Not set     #不進行分片         

      ..0. …. = More fragments: Not set     #更多分片     

   Fragment offset: 0        #分片偏移     

   Time to live: 64         #生存期     

   Protocol: ICMP (1)        #協議     

   Header checksum: 0x284d [validation disabled]   #首部校驗和         

      [Good: False]         

      [Bad: False]     

   Source: 192.168.5.4 (192.168.5.4)     #IP 地址     

   Destination: 192.168.5.2 (192.168.5.2)    #目標 IP 地址     

   [Source GeoIP: Unknown]       #IP 地理位置     

   [Destination GeoIP: Unknown]      #目標 IP 地理位置

   從以上信息中,可以看到每個字段的信息都和第三幀 IP 包首部的信息都相同。這兩個 包中的生存期(TTL),沒有發生變化。這是因為,主機 PC1 PC2 在同一個網段內,它 們之間傳輸的數據不需要經過路由器。

② 分析不同網段中數據包的 TTL 值

   下面以捕獲文件為例,分析不同網段 TTL 值的變化。在 ip.pcapng 捕獲文件 中,9-16 幀是兩台(PC1 PC3)不同網段主機之間通信的數據包,如圖 3.16 所示。

   在該界面显示的包同樣是四個完整的 ICMP 包,一個是請求包,一個是響應包。這裏分 析 910 幀中 IPv4 首部的詳細信息,如下所示。

    9 IPv4 首部信息,如下所示:

Internet Protocol Version 4, Src: 192.168.5.2 (192.168.5.2), Dst: 192.168.6.103 (192.168.6.103)

   Version: 4          #IP 協議版本號     

   Header length: 20 bytes       #首部長度     

   Differentiated Services Field: 0x00 (DSCP 0x00: Default; ECN: 0x00: Not-ECT (Not ECN-Capable Transport))            #服務標識符     

   Total Length: 60         #總長度     

   Identification: 0x0512 (1298)     #標識符     

   Flags: 0x00         #標誌         

      0… …. = Reserved bit: Not set     #保留位         

      .0.. …. = Don’t fragment: Not set     #不進行分片         

      ..0. …. = More fragments: Not set     #更多分片     

   Fragment offset: 0        #分片偏移     

   Time to live: 64         #生存期     

   Protocol: ICMP (1)        #協議     

   Header checksum: 0xe8f5 [validation disabled]     #首部校驗和         

      [Good: False]         

      [Bad: False]     

   Source: 192.168.5.2 (192.168.5.2)   #IP 地址     

   Destination: 192.168.6.103 (192.168.6.103)    #目標 IP 地址     

   [Source GeoIP: Unknown]       #IP 地理位置     

   [Destination GeoIP: Unknown]      #目標 IP 地理位置

   以上包信息,是主機 PC1 發送給 PC3 IP 包首部信息。其中,TTL 值為 64

    10 IPv4 首部信息,如下所示:

Internet Protocol Version 4, Src: 192.168.6.103 (192.168.6.103), Dst: 192.168.5.2 (192.168.5.2)

   Version: 4          #IP 協議版本號     

   Header length: 20 bytes       #首部長度     

   Differentiated Services Field: 0x00 (DSCP 0x00: Default; ECN: 0x00: Not-ECT (Not ECN-Capable Transport))            #服務標識符     

   Total Length: 60         #總長度     

   Identification: 0xa206 (41478)      #標識符     

   Flags: 0x00         #標誌         

      0… …. = Reserved bit: Not set     #保留位         

      .0.. …. = Don’t fragment: Not set     #不進行分片         

      ..0. …. = More fragments: Not set     #更多分片     

   Fragment offset: 0        #分片偏移     

   Time to live: 63         #生存期     

   Protocol: ICMP (1)        #協議     

   Header checksum: 0x4d01 [validation disabled]    #首部校驗和         

      [Good: False]         

      [Bad: False]     

   Source: 192.168.6.103 (192.168.6.103)    #IP 地址     

   Destination: 192.168.5.2 (192.168.5.2)    #目標 IP 地址     

   [Source GeoIP: Unknown]       #IP 地理位置     

   [Destination GeoIP: Unknown]      #目標 IP 地理位置

   以上包信息,是主機 PC3 發送給 PC1 IP 包首部信息。從以上信息中,可以看到該 IPv4 首部中 TTL 值為 63。由此可以說明,PC3 發送回 PC1 的數據包經過了一個路由器。

③ IP 分片數據包分析

   下面以捕獲文件為例,詳細分析 IP 分片。打開 ip-fragment.pcapng 捕獲文件,显示界面如圖 3.17 所示。

 

   在該捕獲文件中,也是捕獲了四個 ping 包。1~6 幀是一個完整的 ping 包,其中 1~3 幀 是 ping 請求包,4~6 幀是 ping 響應包。也就是說,將第一個 ping 請求包,分為了 1~3 個數 據包。下面將詳細分析 1~3 幀的詳細信息。

1 幀數據包

    1 幀數據包詳細信息如圖 3.18 所示。

 

   從該界面的 Packet Details 面板中,可以看到有四行信息。分別如下所示:

Frame 1: 1514 bytes on wire (12112 bits), 1514 bytes captured (12112 bits) on interface 0

   以上信息表示第 1 幀數據包的信息,其大小為 1514 字節。

Ethernet II, Src: Elitegro_3f:c3:e5 (00:19:21:3f:c3:e5), Dst: Giga-Byt_eb:46:8d (50:e5:49:eb:46:8d)

   以上信息表示以太網幀頭部信息。其中源 MAC 地址為 00:19:21:3f:c3:e5,目標 MAC 地 址為 50:e5:49:eb:46:8d

Internet Protocol Version 4, Src: 192.168.5.2 (192.168.5.2), Dst: 192.168.5.4 (192.168.5.4)

   以上信息表示 IPv4 頭部信息。在該頭部包括了具體的詳細信息。展開該行信息,內容 如下所示:

Internet Protocol Version 4, Src: 192.168.5.2 (192.168.5.2), Dst: 192.168.5.4 (192.168.5.4)     

   Version: 4         #IP 協議版本     

   Header length: 20 bytes      #首部長度     

   Differentiated Services Field: 0x00 (DSCP 0x00: Default; ECN: 0x00: Not-ECT (Not ECN-Capable Transport))           #服務標識符         

      0000 00.. = Differentiated Services Codepoint: Default (0x00)         

      …. ..00 = Explicit Congestion Notification: Not-ECT (Not ECN-Capable Transport) (0x00)     

   Total Length: 1500       #總長度    

   Identification: 0x05a3 (1443)     #標識符     

   Flags: 0x01 (More Fragments)     #標誌         

      0… …. = Reserved bit: Not set    #保留位         

      .0.. …. = Don’t fragment: Not set    #不能分片。這裏的值為 0,表示可以進行 分片         

      ..1. …. = More fragments: Set    #更多分片。這裏的值為 1,表示還有分片 的數據包     

   Fragment offset: 0       #分片偏移     

   Time to live: 64        #生存期     

   Protocol: ICMP (1)       #協議     

   Header checksum: 0xc427 [validation disabled]  #首部校驗和         

      [Good: False]         

      [Bad: False]     

   Source: 192.168.5.2 (192.168.5.2)    #IP 地址    

   Destination: 192.168.5.4 (192.168.5.4)   #目標 IP 地址   

   [Source GeoIP: Unknown]      #IP 地理位置    

   [Destination GeoIP: Unknown]     #目標 IP 地理位置     

   Reassembled IPv4 in frame: 3     #重組 IPv4

Data (1480 bytes)        #數據     

   Data: 0800cfd0000100016162636465666768696a6b6c6d6e6f70…     

   [Length: 1480]        #長度為 1480 字節

   以上信息是第 1 IPv4 首部的詳細信息。從以上更多分片和分片偏移域部分,可以判定該數據包是分片數據包的一部分。這是后被分片的數據包,就會有一個大於 0 的分片偏移 或者就是設定了更多標誌為。從以上信息,可以看到更多分片標誌位被設定,也就是接收設 備應該等待接收序列中的另一個數據包。分片偏移為 0,表示這個數據包是這一系列分片中 的第一個包。所以,後面至少還有一個包。接下來看第二幀包信息。以上信息對應的 IPv4 首部格式中,显示結果如表 3-3 所示

 

⑵ 第 2 幀數據包

    2 幀數據包詳細信息如圖 3.19 所示。

 

    Wireshark Packet Details 面板中,可以看到有四行詳細信息。而且包大小,和第一 個數據包的大小相同。下面將分析該包的詳細信息,如下所示。

Frame 2: 1514 bytes on wire (12112 bits), 1514 bytes captured (12112 bits) on interface 0

   以上信息表示,這是第 2 幀的詳細信息。其中,該包的大小為 1514 個字節。

Ethernet II, Src: Elitegro_3f:c3:e5 (00:19:21:3f:c3:e5), Dst: Giga-Byt_eb:46:8d (50:e5:49:eb:46:8d)

   以上信息表示以太網幀頭部信息。其中,源 MAC 地址為 00:19:21:3f:c3:e5,目標 MAC 地址為 50:e5:49:eb:46:8d

Internet Protocol Version 4, Src: 192.168.5.2 (192.168.5.2), Dst: 192.168.5.4 (192.168.5.4)

以上信息表示 IPv4 首部的詳細信息。下面將詳細分析該包中每個字段的值,如下所示:

Internet Protocol Version 4, Src: 192.168.5.2 (192.168.5.2), Dst: 192.168.5.4 (192.168.5.4)     

   Version: 4         #IP 協議版本     

   Header length: 20 bytes      #首部長度     

   Differentiated Services Field: 0x00 (DSCP 0x00: Default; ECN: 0x00: Not-ECT (Not ECN-Capable Transport))           #服務標識符         

      0000 00.. = Differentiated Services Codepoint: Default (0x00)         

      …. ..00 = Explicit Congestion Notification: Not-ECT (Not ECN-Capable Transport) (0x00)     

   Total Length: 1500       #總長度    

   Identification: 0x05a3 (1443)     #標識符     

   Flags: 0x01 (More Fragments)     #標誌         

      0… …. = Reserved bit: Not set    #保留位         

      .0.. …. = Don’t fragment: Not set    #不能分片。這裏的值為 0,表示可以進行 分片         

      ..1. …. = More fragments: Set    #更多分片。這裏的值為 1,表示還有分片 的數據包     

   Fragment offset: 1480       #分片偏移    

   Time to live: 64        #生存期     

   Protocol: ICMP (1)       #協議     

   Header checksum: 0xc36e [validation disabled]  #首部校驗和         

      [Good: False]         

      [Bad: False]     

   Source: 192.168.5.2 (192.168.5.2)    #IP 地址    

   Destination: 192.168.5.4 (192.168.5.4)   #目標 IP 地址   

   [Source GeoIP: Unknown]      #IP 地理位置    

   [Destination GeoIP: Unknown]     #目標 IP 地理位置     

   Reassembled IPv4 in frame: 3     #重組 IPv4

Data (1480 bytes)        #數據     

   Data:  6162636465666768696a6b6c6d6e6f707172737475767761…     

   [Length: 1480]        #長度為 1480 字節

   根據以上信息介紹,可以看到在該包的 IPv4 首部也設定了更多分片的標誌為。而且可 以看到,這裏的分片偏移值為 1480。該值是由最大傳輸單元(MTU1500,減去 IP 首部的 20 個字節得到的。以上信息對應到 IPv4 首部格式中,显示信息如表 3-4 所示。

IP協議

偏移位

03

47

815

1618

1931

0

4

20

0x00

1500

32

0x05a3

0x01

1480

64

64

ICMP(1)

0xc36e

96

192.168.5.2

128

192.168.5.4

160

 

160192+

1480

⑶ 第 3 幀數據包

    3 幀數據包詳細信息如圖 3.20 所示。

 

    Wireshark Packet Details 界面可以看到,該包中显示了四行信息,並且該包的協議 為 ICMP。下面將詳細分析該包中的信息。

Frame 3: 82 bytes on wire (656 bits), 82 bytes captured (656 bits) on interface 0

   以上信息表示這是第 3 幀的詳細信息,其中包大小為 82 個字節。

Ethernet II, Src: Elitegro_3f:c3:e5 (00:19:21:3f:c3:e5), Dst: Giga-Byt_eb:46:8d (50:e5:49:eb:46:8d)

   以上信息表示以太網幀頭部的詳細信息。其中,源 MAC 地址為 00:19:21:3f:c3:e5,目 標 MAC 地址為 50:e5:49:eb:46:8d

Internet Protocol Version 4, Src: 192.168.5.2 (192.168.5.2), Dst: 192.168.5.4 (192.168.5.4)

   以上信息表示 IPv4 首部信息,這裏着重分析該部分的詳細信息。如下所示:

Internet Protocol Version 4, Src: 192.168.5.2 (192.168.5.2), Dst: 192.168.5.4 (192.168.5.4)     

   Version: 4         #IP 協議版本     

   Header length: 20 bytes      #首部長度     

   Differentiated Services Field: 0x00 (DSCP 0x00: Default; ECN: 0x00: Not-ECT (Not ECN-Capable Transport))           #服務標識符         

      0000 00.. = Differentiated Services Codepoint: Default (0x00)         

      …. ..00 = Explicit Congestion Notification: Not-ECT (Not ECN-Capable Transport) (0x00)     

   Total Length: 68   #總長度    

   Identification: 0x05a3 (1443)     #標識符     

   Flags: 0x01 (More Fragments)     #標誌         

      0… …. = Reserved bit: Not set    #保留位         

      .0.. …. = Don’t fragment: Not set    #不能分片。       

        ..0. …. = More fragments: Not set     #更多分片。  

   Fragment offset: 2960        #分片偏移    

   Time to live: 64        #生存期     

   Protocol: ICMP (1)       #協議     

   Header checksum: 0xe84d [validation disabled]  #首部校驗和         

      [Good: False]         

      [Bad: False]     

   Source: 192.168.5.2 (192.168.5.2)    #IP 地址    

   Destination: 192.168.5.4 (192.168.5.4)   #目標 IP 地址   

   [Source GeoIP: Unknown]      #IP 地理位置    

   [Destination GeoIP: Unknown]     #目標 IP 地理位置     

   [3 IPv4 Fragments (3008 bytes): #1(1480), #2(1480), #3(48)] #三個 IPv4 分片,共 3000 個字 節         

      [Frame: 1, payload: 0-1479 (1480 bytes)]    #1 幀加載了 1480 個字節         

      [Frame: 2, payload: 1480-2959 (1480 bytes)]   #2 幀加載了 1480 個字節        

      [Frame: 3, payload: 2960-3007 (48 bytes)]    #3 幀加載了 48 個字節         

      [Fragment count: 3]        #分片數為 3        

      [Reassembled IPv4 length: 3008]     #重組 IPv4 長度為 3008         

      [Reassembled IPv4 data: 0800cfd0000100016162636465666768696a6b6c6d6e6f70…]              #重組 IPv4 數據

   根據以上信息的描述,可以看到該數據包沒有設定更多分片標誌位,也就表示該數據包 是整個數據流中的最後一個分片。並且其分片偏移設定為 2960,是由 1480+(1500-20)得出 的結果。這些分片可以被認為是同一個數據序列的一部分,因為它們 IP 首部中的標誌位於 擁有相同的值。以上信息對應到 IP 首部格式,如表 3-5 所示

IP協議

偏移位

03

47

815

1618

1931

0

4

20

0x00

68

32

0x05a3

0x00

2960

64

64

ICMP(1)

0xe84d

96

192.168.5.2

128

192.168.5.4

160

 

160192+

 

在該包中最後一行信息如下所示:

Internet Control Message Protocol

以上信息表示 ICMP 協議包信息。 

本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

【其他文章推薦】

※帶您來了解什麼是 USB CONNECTOR  ?

※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

※如何讓商品強力曝光呢? 網頁設計公司幫您建置最吸引人的網站,提高曝光率!

※綠能、環保無空污,成為電動車最新代名詞,目前市場使用率逐漸普及化

※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

※教你寫出一流的銷售文案?

打個總結:Web性能優化

前段時間優化一個公司歷史老項目的Web性能,卻引出了一系列的問題,讓我反思良多。
我通過Chrome的Lighthouse工具可以看出一些性能參數和問題反饋,我逐一對其進行優化。
根據資源請求的不同,大致可以分為前端資源性能和後端程序性能兩個方面。
先分析一下前端資源吧:

  1. Defer offscreen images。

Chrome給出的建議是:

Consider lazy-loading offscreen and hidden images after all critical resources have finished loading to lower time to interactive. Learn more.

意思是可以考慮延遲加載一些圖片或者隱藏一些圖片在所有關鍵資源完成加載后再考慮加載,通過延遲加載來降低交互時間。
lazy-load的實現方法很多,開源框架推薦:lazysizes。
當然也可以使用npm方式安裝:

npm install lazysizes
使用方式很簡單,先引入lazysize到需要的頁面:

<script src="lazysizes.min.js" async=""></script>

然後給需要被lazyload的img標籤上加新的屬性,如下:

<img
    data-sizes="auto"
    data-src="image2.jpg"
    data-srcset="image1.jpg 300w,
    image2.jpg 600w,
    image3.jpg 900w" class="lazyload" />

特別要注意,有時候太多background方式加載的圖片也會影響性能,lazysizes也可以處理這樣的圖片。方法如下,使用data-bg屬性即可:

<div class="lazyload" data-bg="/path/to/image.jpg"></div>
  1. Reduce JavaScript execution time

解決這個問題方法很多,第一個想到的就是壓縮資源。
比如壓縮js和css文件,可以考慮使用webpack工具或者gulp來壓縮大資源文件,合併一些文件資源請求。
還可以通過預加載來提高響應速度,可以在最重要的js資源文件的引入上加入預加載,代碼如下:

<link rel="preload" as="style" href="css/style.css">

通過增加preload
最後還可以異步加載資源,異步不會阻塞主進程,代碼調整也很小:

<script src="xxx" async></script>

除此之外JavaScript的執行時間過長還有可能是有大量邏輯運算,有很多頁面把一些邏輯判斷和計算都交給前端去計算,這樣也不利於渲染,建議還是把複雜邏輯和計算盡可能交給後端去處理,讓前端渲染更加“輕量”。
3. Backend response
數據接口返回有時候也很拖累響應時間,因為一些前端結構需要根據返回的數據進行組裝新的頁面結構。
這裏可以考慮找到性能真正的瓶頸,到底是數據庫查詢導致的慢,還是業務邏輯不清晰導致的冗餘,或者其他原因。
我遇到的是因為老項目的數據庫操作類不是單例,會每次產生一個數據庫連接句柄,且該頁面複雜又多的sql查詢。
我勇敢地修改着10多年歷史的代碼,編寫了單例模式的操作類,然後增加了必要的緩存機制。
然而後面我遇到了問題,首先單例類在一些特殊情形下不滿足之前的代碼需求,導致奇特的數據庫報錯,而async屬性導致一些js文件無法同步加載到位,而有一些依賴這些資源的php文件執行報錯。
最終在同事的幫助下,恢復了服務,我也再一次體會到了任何一種性能提升都要謹慎,特別是對一個古老的項目。
前人不敢動的代碼,可能是深淵。

PS:我的公眾號 成都有娃兒會同步發布該文章,也可以關注哦!

本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

【其他文章推薦】

※為什麼 USB CONNECTOR 是電子產業重要的元件?

網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

※台北網頁設計公司全省服務真心推薦

※想知道最厲害的網頁設計公司"嚨底家"!

新北清潔公司,居家、辦公、裝潢細清專業服務

※推薦評價好的iphone維修中心

設計模式入門

最近想學設計模式,網上說 HeadFirst 設計模式書挺好的,我來此再鞏固一篇。

故事是這樣的:小明是一個剛畢業的小伙子,他來到了一個遊戲公司實習,項目經理分配了一個實習任務給小明:

設計一個遊戲角色,角色屬性包括(攻擊力,防禦力,敏捷度…等等),以及兩個召喚師技能(閃現和引燃)。

小明想這麼簡單的嗎,如是他用了一天的時間寫好了如下代碼

public class GameRole {
    
    private int atk; // 攻擊力
    private int def; // 防禦力
    private int dex; // 敏捷度
    
    public void flash_move() {
        System.out.println("指定方向瞬移一段距離");
    }
    
    public void ignite() {
        System.out.println("使其處於燃燒狀態 5 s");
    }
}

項目經理看到小明這麼快就完成了任務,表揚了一下小明,小明心裏樂開了花。然後項目經理又布置了一項任務給小明:
再設計兩個角色,他們的召喚師技能分別為(閃現,治療),(閃現,傳送)。

小明心想這難不倒我,然後他仍然只花了一天的時間就寫好了如下代碼:

public class GameRole {
    
    private int atk; // 攻擊力
    private int def; // 防禦力
    private int dex; // 敏捷度
    
    public void flash_move() {
        System.out.println("指定方向瞬移一段距離");
    }
    
    public void ignite() {
        System.out.println("使附近100碼內隊友恢復30%的血量");
    }
}

public class GameRole {
    
    private int atk; // 攻擊力
    private int def; // 防禦力
    private int dex; // 敏捷度
    
    public void flash_move() {
        System.out.println("指定方向瞬移一段距離");
    }
    
    public void ignite() {
        System.out.println("傳送至己方非英雄單位位置處");
    }
}

小明興高采烈的跑去給項目經理看了,項目經理看到小明過來了,心裏覺得這小伙子不錯麻,這麼快就做完了。

然後項目經理便看了他的代碼,這不看不要緊,一看便指着小明罵道:你真是一個糟糕的程序員!!!然後便讓小明改代碼去了。

小明此時還不太明白,我功能都實現了啊,沒啥毛病阿,然後小明不明所以的便問了辦公室的職員,職員告訴他,你代碼冗餘度太高了。

小明一看發現果然如此,然後便花了一天的時間改成如下代碼:

public abstract class GameRole {
    
    private int atk; // 攻擊力
    private int def; // 防禦力
    private int dex; // 敏捷度
  
  // 省略 Getter and Setter method
public void flash_move() { System.out.println("指定方向瞬移一段距離"); } public abstract void skill(); }
public class Role_One extends GameRole { @Override public void skill() { // TODO Auto-generated method stub System.out.println("使其處於燃燒狀態 5 s"); } }
public class Role_Two extends GameRole { @Override public void skill() { // TODO Auto-generated method stub System.out.println("使附近100碼內隊友恢復30%的血量"); } }
public class Role_Three extends GameRole { @Override public void skill() { // TODO Auto-generated method stub System.out.println("傳送至己方非英雄單位位置處"); } }

這次小明覺得冗餘度確實降低了,然後便給項目經理看,項目經理看后覺得確實還行,便又分配了一個任務:
(遊戲用戶希望能自由選擇召喚師技能就好了),所以任務是召喚師技能任意搭配。

小明心想:我寫的這種代碼似乎不用改耶,可以交差了,於是小明便偷懶了两天,然後便上報給項目經理了。

項目經理一看,這代碼沒有變化啊,便問小明,你代碼就這?小明回答是的,然後小明又被罵的狗血淋頭。

不明所以的小明又去問問辦公室的職員,你仔細想想,如果有100個(閃現,引燃),100個(閃現,治療),100個(傳送,治療)呢?

小明突然恍然大悟,那還是有好高的冗餘度啊,經過三天思考後,小明想出了最終答案:

public abstract class GameRole {
private int atk; // 攻擊力 private int def; // 防禦力 private int dex; // 敏捷度 private Skills skill_One; private Skills skill_Two;
  // 省略 Getter and Setter method
} public class Role_Demo extends GameRole { }
public interface Skills {
    public void skill();
}

public class Flush_Move implements Skills {
    @Override
    public void skill() {
        // TODO Auto-generated method stub
        System.out.println("指定方向瞬移一段距離");
    }
}

public class Ignite implements Skills {
    @Override
    public void skill() {
        // TODO Auto-generated method stub
        System.out.println("使其處於燃燒狀態 5 s");
    }
}

public class Treat implements Skills {

    @Override
    public void skill() {
        // TODO Auto-generated method stub
        System.out.println("使附近100碼內隊友恢復30%的血量");
    }
}
public class Main {
    public static void main(String[] args) {
        // TODO Auto-generated method stub
        Role_Demo role = new Role_Demo();
        role.setSkill_One(new Flush_Move());
        role.setSkill_Two(new Ignite());
        role.getSkill_One().skill();
        role.getSkill_Two().skill();
    }
}

小明寫完了,這次小明怕又被罵,便去問問職員小花了,小花說寫的不錯嗎,於是小明膽戰心驚的去交差了。

項目經理看到小明過來,看着小明的囧樣,內心是想笑的,然後看了看代碼發現這回沒啥問題了,便放心的交給它最後一個任務:

給每個英雄添加四個不相同的技能:

小明經過幾次寫代碼的經歷后,一天便寫出來了:

public abstract class GameRole {
    private int atk; // 攻擊力
    private int def; // 防禦力
    private int dex; // 敏捷度
    private Skills skill_One;
    private Skills skill_Two;
    
    // 省略 Getter and Setter method
    
    public abstract void Skill_One();
    public abstract void Skill_Two();
    public abstract void Skill_Three();
    public abstract void Skill_Four();
}

public class Role_Demo extends GameRole {

    @Override
    public void Skill_One() {
        // TODO Auto-generated method stub
    }

    @Override
    public void Skill_Two() {
        // TODO Auto-generated method stub    
    }

    @Override
    public void Skill_Three() {
        // TODO Auto-generated method stub    
    }

    @Override
    public void Skill_Four() {
        // TODO Auto-generated method stub    
    }
}

經過這幾次任務,小明感覺寫的代碼更漂亮,更優雅了,腰也不酸了,背也不疼了。小明上交任務后,項目經理也露出了滿意的笑容!

最後,小明成功通過了實習,然而項目經理給他分配了下一項任務……

本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理
【其他文章推薦】

USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

台北網頁設計公司這麼多該如何選擇?

※智慧手機時代的來臨,RWD網頁設計為架站首選

※評比南投搬家公司費用收費行情懶人包大公開

※幫你省時又省力,新北清潔一流服務好口碑

※回頭車貨運收費標準

容器技術之Docker-swarm

  前文我聊到了docker machine的簡單使用和基本原理的說明,回顧請參考https://www.cnblogs.com/qiuhom-1874/p/13160915.html;今天我們來聊一聊docker集群管理工具docker swarm;docker swarm是docker 官方的集群管理工具,它可以讓跨主機節點來創建,管理docker 集群;它的主要作用就是可以把多個節點主機的docker環境整合成一個大的docker資源池;docker swarm面向的就是這個大的docker 資源池在上面管理容器;在前面我們都只是在單台主機上的創建,管理容器,但是在生產環境中通常一台物理機上的容器實在是不能夠滿足當前業務的需求,所以docker swarm提供了一種集群解決方案,方便在多個節點上創建,管理容器;接下來我們來看看docker swarm集群的搭建過程吧;

  docker swarm 在我們安裝好docker時就已經安裝好了,我們可以使用docker info來查看

[root@node1 ~]# docker info
Client:
 Debug Mode: false

Server:
 Containers: 0
  Running: 0
  Paused: 0
  Stopped: 0
 Images: 0
 Server Version: 19.03.11
 Storage Driver: overlay2
  Backing Filesystem: xfs
  Supports d_type: true
  Native Overlay Diff: true
 Logging Driver: json-file
 Cgroup Driver: cgroupfs
 Plugins:
  Volume: local
  Network: bridge host ipvlan macvlan null overlay
  Log: awslogs fluentd gcplogs gelf journald json-file local logentries splunk syslog
 Swarm: inactive
 Runtimes: runc
 Default Runtime: runc
 Init Binary: docker-init
 containerd version: 7ad184331fa3e55e52b890ea95e65ba581ae3429
 runc version: dc9208a3303feef5b3839f4323d9beb36df0a9dd
 init version: fec3683
 Security Options:
  seccomp
   Profile: default
 Kernel Version: 3.10.0-693.el7.x86_64
 Operating System: CentOS Linux 7 (Core)
 OSType: linux
 Architecture: x86_64
 CPUs: 4
 Total Memory: 3.686GiB
 Name: docker-node01
 ID: 4HXP:YJ5W:4SM5:NAPM:NXPZ:QFIU:ARVJ:BYDG:KVWU:5AAJ:77GC:X7GQ
 Docker Root Dir: /var/lib/docker
 Debug Mode: false
 Registry: https://index.docker.io/v1/
 Labels:
  provider=generic
 Experimental: false
 Insecure Registries:
  127.0.0.0/8
 Live Restore Enabled: false

[root@node1 ~]# 

  提示:從上面的信息可以看到,swarm是處於非活躍狀態,這是因為我們還沒有初始化集群,所以對應的swarm選項的值是處於inactive狀態;

  初始化集群

[root@docker-node01 ~]# docker swarm init --advertise-addr 192.168.0.41
Swarm initialized: current node (ynz304mbltxx10v3i15ldkmj1) is now a manager.

To add a worker to this swarm, run the following command:

    docker swarm join --token SWMTKN-1-6difxlq3wc8emlwxzuw95gp8rmvbz2oq62kux3as0e4rbyqhk3-2m9x12n102ca4qlyjpseobzik 192.168.0.41:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.

[root@docker-node01 ~]# 

  提示:從上面反饋的信息可以看到,集群初始化成功,並且告訴我們當前節點為管理節點,如果想要其他節點加入到該集群,可以在對應節點上運行docker swarm join –token SWMTKN-1-6difxlq3wc8emlwxzuw95gp8rmvbz2oq62kux3as0e4rbyqhk3-2m9x12n102ca4qlyjpseobzik 192.168.0.41:2377 這個命令,就把對應節點當作work節點加入到該集群,如果想要以管理節點身份加入到集群,我們需要在當前終端運行docker swarm join-token manager命令

[root@docker-node01 ~]# docker swarm join-token manager
To add a manager to this swarm, run the following command:

    docker swarm join --token SWMTKN-1-6difxlq3wc8emlwxzuw95gp8rmvbz2oq62kux3as0e4rbyqhk3-dqjeh8hp6cp99bksjc03b8yu3 192.168.0.41:2377

[root@docker-node01 ~]# 

  提示:我們執行docker swarm join-token manager命令,它返回了一個命令,並告訴我們添加一個管理節點,在對應節點上執行docker swarm join –token SWMTKN-1-6difxlq3wc8emlwxzuw95gp8rmvbz2oq62kux3as0e4rbyqhk3-dqjeh8hp6cp99bksjc03b8yu3 192.168.0.41:2377命令即可;

  到此docker swarm集群就初始化完畢,接下來我們把其他節點加入到該集群

  把docker-node02以work節點身份加入集群

[root@node2 ~]# docker swarm join --token SWMTKN-1-6difxlq3wc8emlwxzuw95gp8rmvbz2oq62kux3as0e4rbyqhk3-2m9x12n102ca4qlyjpseobzik 192.168.0.41:2377
This node joined a swarm as a worker.
[root@node2 ~]# 

  提示:沒有報錯就表示加入集群成功;我們可以使用docker info來查看當前的docker 環境詳細信息

  提示:從上面的信息可以看到,在docker-node02這台主機上docker swarm 已經激活,並且可以看到管理節點的地址;除了以上方式可以確定docker-node02以及加入到集群;我們還可以在管理節點上運行docker node ls 查看集群節點信息;

  查看集群節點信息

  提示:在管理節點上運行docker node ls 就可以列出當前集群里有多少節點已經成功加入進來;

  把docker-node03以管理節點身份加入到集群

  提示:可以看到docker-node03已經是集群的管理節點,所以可以在docker-node03這個節點執行docker node ls 命令;到此docker swarm集群就搭建好了;接下來我們來說一說docker swarm集群的常用管理

  有關節點相關管理命令

  docker node ls :列出當前集群上的所有節點

[root@docker-node01 ~]# docker node ls
ID                            HOSTNAME            STATUS              AVAILABILITY        MANAGER STATUS      ENGINE VERSION
ynz304mbltxx10v3i15ldkmj1 *   docker-node01       Ready               Active              Leader              19.03.11
tzkm0ymzjdmc1r8d54snievf1     docker-node02       Ready               Active                                  19.03.11
aeo8j7zit9qkoeeft3j0q1h0z     docker-node03       Ready               Active              Reachable           19.03.11
[root@docker-node01 ~]# 

  提示:該命令只能在管理節點上執行;

  docker node inspect :查看指定節點的詳細信息;

[root@docker-node01 ~]# docker node inspect docker-node01
[
    {
        "ID": "ynz304mbltxx10v3i15ldkmj1",
        "Version": {
            "Index": 9
        },
        "CreatedAt": "2020-06-20T05:57:17.57684293Z",
        "UpdatedAt": "2020-06-20T05:57:18.18575648Z",
        "Spec": {
            "Labels": {},
            "Role": "manager",
            "Availability": "active"
        },
        "Description": {
            "Hostname": "docker-node01",
            "Platform": {
                "Architecture": "x86_64",
                "OS": "linux"
            },
            "Resources": {
                "NanoCPUs": 4000000000,
                "MemoryBytes": 3958075392
            },
            "Engine": {
                "EngineVersion": "19.03.11",
                "Labels": {
                    "provider": "generic"
                },
                "Plugins": [
                    {
                        "Type": "Log",
                        "Name": "awslogs"
                    },
                    {
                        "Type": "Log",
                        "Name": "fluentd"
                    },
                    {
                        "Type": "Log",
                        "Name": "gcplogs"
                    },
                    {
                        "Type": "Log",
                        "Name": "gelf"
                    },
                    {
                        "Type": "Log",
                        "Name": "journald"
                    },
                    {
                        "Type": "Log",
                        "Name": "json-file"
                    },
                    {
                        "Type": "Log",
                        "Name": "local"
                    },
                    {
                        "Type": "Log",
                        "Name": "logentries"
                    },
                    {
                        "Type": "Log",
                        "Name": "splunk"
                    },
                    {
                        "Type": "Log",
                        "Name": "syslog"
                    },
                    {
                        "Type": "Network",
                        "Name": "bridge"
                    },
                    {
                        "Type": "Network",
                        "Name": "host"
                    },
                    {
                        "Type": "Network",
                        "Name": "ipvlan"
                    },
                    {
                        "Type": "Network",
                        "Name": "macvlan"
                    },
                    {
                        "Type": "Network",
                        "Name": "null"
                    },
                    {
                        "Type": "Network",
                        "Name": "overlay"
                    },
                    {
                        "Type": "Volume",
                        "Name": "local"
                    }
                ]
            },
            "TLSInfo": {
                "TrustRoot": "-----BEGIN CERTIFICATE-----\nMIIBaTCCARCgAwIBAgIUeBd/eSZ7WaiyLby9o1yWpjps3gwwCgYIKoZIzj0EAwIw\nEzERMA8GA1UEAxMIc3dhcm0tY2EwHhcNMjAwNjIwMDU1MjAwWhcNNDAwNjE1MDU1\nMjAwWjATMREwDwYDVQQDEwhzd2FybS1jYTBZMBMGByqGSM49AgEGCCqGSM49AwEH\nA0IABMsYxnGoPbM4gqb23E1TvOeQcLcY56XysLuF8tYKm56GuKpeD/SqXrUCYqKZ\nHV+WSqcM0fD1g+mgZwlUwFzNxhajQjBAMA4GA1UdDwEB/wQEAwIBBjAPBgNVHRMB\nAf8EBTADAQH/MB0GA1UdDgQWBBTV64kbvS83eRHyI6hdJeEIv3GmrTAKBggqhkjO\nPQQDAgNHADBEAiBBB4hLn0ijybJWH5j5rtMdAoj8l/6M3PXERnRSlhbcawIgLoby\newMHCnm8IIrUGe7s4CZ07iHG477punuPMKDgqJ0=\n-----END CERTIFICATE-----\n",
                "CertIssuerSubject": "MBMxETAPBgNVBAMTCHN3YXJtLWNh",
                "CertIssuerPublicKey": "MFkwEwYHKoZIzj0CAQYIKoZIzj0DAQcDQgAEyxjGcag9sziCpvbcTVO855BwtxjnpfKwu4Xy1gqbnoa4ql4P9KpetQJiopkdX5ZKpwzR8PWD6aBnCVTAXM3GFg=="
            }
        },
        "Status": {
            "State": "ready",
            "Addr": "192.168.0.41"
        },
        "ManagerStatus": {
            "Leader": true,
            "Reachability": "reachable",
            "Addr": "192.168.0.41:2377"
        }
    }
]
[root@docker-node01 ~]#

  docker node ps :列出指定節點上運行容器的清單

[root@docker-node01 ~]# docker node ps 
ID                  NAME                IMAGE               NODE                DESIRED STATE       CURRENT STATE       ERROR               PORTS
[root@docker-node01 ~]# docker node ps docker-node01
ID                  NAME                IMAGE               NODE                DESIRED STATE       CURRENT STATE       ERROR               PORTS
[root@docker-node01 ~]# 

  提示:類似docker ps 命令,我上面沒有運行容器,所以看不到對應信息;默認不指定節點名稱表示查看當前節點上的運行容器清單;

  docker node rm :刪除指定節點

[root@docker-node01 ~]# docker node ls
ID                            HOSTNAME            STATUS              AVAILABILITY        MANAGER STATUS      ENGINE VERSION
ynz304mbltxx10v3i15ldkmj1 *   docker-node01       Ready               Active              Leader              19.03.11
tzkm0ymzjdmc1r8d54snievf1     docker-node02       Ready               Active                                  19.03.11
aeo8j7zit9qkoeeft3j0q1h0z     docker-node03       Ready               Active              Reachable           19.03.11
[root@docker-node01 ~]# docker node rm docker-node03
Error response from daemon: rpc error: code = FailedPrecondition desc = node aeo8j7zit9qkoeeft3j0q1h0z is a cluster manager and is a member of the raft cluster. It must be demoted to worker before removal
[root@docker-node01 ~]# docker node rm docker-node02
Error response from daemon: rpc error: code = FailedPrecondition desc = node tzkm0ymzjdmc1r8d54snievf1 is not down and can't be removed
[root@docker-node01 ~]# 

  提示:刪除節點前必須滿足,被刪除的節點不是管理節點,其次就是要刪除的節點必須是down狀態;

  docker swarm leave:離開當前集群

[root@docker-node03 ~]# docker ps 
CONTAINER ID        IMAGE               COMMAND                  CREATED             STATUS              PORTS               NAMES
e7958ffa16cd        nginx               "/docker-entrypoint.…"   28 seconds ago      Up 26 seconds       80/tcp              n1
[root@docker-node03 ~]# docker swarm leave 
Error response from daemon: You are attempting to leave the swarm on a node that is participating as a manager. Removing this node leaves 1 managers out of 2. Without a Raft quorum your swarm will be inaccessible. The only way to restore a swarm that has lost consensus is to reinitialize it with `--force-new-cluster`. Use `--force` to suppress this message.
[root@docker-node03 ~]# docker swarm leave -f
Node left the swarm.
[root@docker-node03 ~]# 

  提示:管理節點默認是不允許離開集群的,如果強制使用-f選項離開集群,會導致在其他管理節點無法正常管理集群;

[root@docker-node01 ~]# docker node ls
Error response from daemon: rpc error: code = Unknown desc = The swarm does not have a leader. It's possible that too few managers are online. Make sure more than half of the managers are online.
[root@docker-node01 ~]#

  提示:我們在docker-node01上現在就不能使用docker node ls 來查看集群節點列表了;解決辦法重新初始化集群;

[root@docker-node01 ~]# docker node ls 
Error response from daemon: rpc error: code = Unknown desc = The swarm does not have a leader. It's possible that too few managers are online. Make sure more than half of the managers are online.
[root@docker-node01 ~]# docker swarm init --advertise-addr 192.168.0.41
Error response from daemon: This node is already part of a swarm. Use "docker swarm leave" to leave this swarm and join another one.
[root@docker-node01 ~]# docker swarm init --force-new-cluster 
Swarm initialized: current node (ynz304mbltxx10v3i15ldkmj1) is now a manager.

To add a worker to this swarm, run the following command:

    docker swarm join --token SWMTKN-1-6difxlq3wc8emlwxzuw95gp8rmvbz2oq62kux3as0e4rbyqhk3-2m9x12n102ca4qlyjpseobzik 192.168.0.41:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.

[root@docker-node01 ~]# docker node ls
ID                            HOSTNAME            STATUS              AVAILABILITY        MANAGER STATUS      ENGINE VERSION
ynz304mbltxx10v3i15ldkmj1 *   docker-node01       Ready               Active              Leader              19.03.11
tzkm0ymzjdmc1r8d54snievf1     docker-node02       Unknown             Active                                  19.03.11
aeo8j7zit9qkoeeft3j0q1h0z     docker-node03       Down                Active                                  19.03.11
rm3j7cjvmoa35yy8ckuzoay46     docker-node03       Unknown             Active                                  19.03.11
[root@docker-node01 ~]# 

  提示:重新初始化集群不能使用docker swarm init –advertise-addr 192.168.0.41這種方式初始化,必須使用docker swarm init –force-new-cluster,該命令表示使用從當前狀態強制創建一個集群;現在我們就可以使用docker node rm 把down狀態的節點從集群刪除;

  刪除down狀態的節點

[root@docker-node01 ~]# docker node ls
ID                            HOSTNAME            STATUS              AVAILABILITY        MANAGER STATUS      ENGINE VERSION
ynz304mbltxx10v3i15ldkmj1 *   docker-node01       Ready               Active              Leader              19.03.11
tzkm0ymzjdmc1r8d54snievf1     docker-node02       Ready               Active                                  19.03.11
aeo8j7zit9qkoeeft3j0q1h0z     docker-node03       Down                Active                                  19.03.11
rm3j7cjvmoa35yy8ckuzoay46     docker-node03       Down                Active                                  19.03.11
[root@docker-node01 ~]# docker node rm aeo8j7zit9qkoeeft3j0q1h0z rm3j7cjvmoa35yy8ckuzoay46
aeo8j7zit9qkoeeft3j0q1h0z
rm3j7cjvmoa35yy8ckuzoay46
[root@docker-node01 ~]# docker node ls
ID                            HOSTNAME            STATUS              AVAILABILITY        MANAGER STATUS      ENGINE VERSION
ynz304mbltxx10v3i15ldkmj1 *   docker-node01       Ready               Active              Leader              19.03.11
tzkm0ymzjdmc1r8d54snievf1     docker-node02       Ready               Active                                  19.03.11
[root@docker-node01 ~]# 

  docker node promote:把指定節點提升為管理節點

[root@docker-node01 ~]# docker node ls
ID                            HOSTNAME            STATUS              AVAILABILITY        MANAGER STATUS      ENGINE VERSION
ynz304mbltxx10v3i15ldkmj1 *   docker-node01       Ready               Active              Leader              19.03.11
tzkm0ymzjdmc1r8d54snievf1     docker-node02       Ready               Active                                  19.03.11
[root@docker-node01 ~]# docker node promote docker-node02
Node docker-node02 promoted to a manager in the swarm.
[root@docker-node01 ~]# docker node ls
ID                            HOSTNAME            STATUS              AVAILABILITY        MANAGER STATUS      ENGINE VERSION
ynz304mbltxx10v3i15ldkmj1 *   docker-node01       Ready               Active              Leader              19.03.11
tzkm0ymzjdmc1r8d54snievf1     docker-node02       Ready               Active              Reachable           19.03.11
[root@docker-node01 ~]# 

  docker node demote:把指定節點降級為work節點

[root@docker-node01 ~]# docker node ls
ID                            HOSTNAME            STATUS              AVAILABILITY        MANAGER STATUS      ENGINE VERSION
ynz304mbltxx10v3i15ldkmj1 *   docker-node01       Ready               Active              Leader              19.03.11
tzkm0ymzjdmc1r8d54snievf1     docker-node02       Ready               Active              Reachable           19.03.11
[root@docker-node01 ~]# docker node demote docker-node02
Manager docker-node02 demoted in the swarm.
[root@docker-node01 ~]# docker node ls
ID                            HOSTNAME            STATUS              AVAILABILITY        MANAGER STATUS      ENGINE VERSION
ynz304mbltxx10v3i15ldkmj1 *   docker-node01       Ready               Active              Leader              19.03.11
tzkm0ymzjdmc1r8d54snievf1     docker-node02       Ready               Active                                  19.03.11
[root@docker-node01 ~]# 

  docker node update:更新指定節點

[root@docker-node01 ~]# docker node ls
ID                            HOSTNAME            STATUS              AVAILABILITY        MANAGER STATUS      ENGINE VERSION
ynz304mbltxx10v3i15ldkmj1 *   docker-node01       Ready               Active              Leader              19.03.11
tzkm0ymzjdmc1r8d54snievf1     docker-node02       Ready               Active                                  19.03.11
[root@docker-node01 ~]# docker node update docker-node01 --availability drain 
docker-node01
[root@docker-node01 ~]# docker node ls
ID                            HOSTNAME            STATUS              AVAILABILITY        MANAGER STATUS      ENGINE VERSION
ynz304mbltxx10v3i15ldkmj1 *   docker-node01       Ready               Drain               Leader              19.03.11
tzkm0ymzjdmc1r8d54snievf1     docker-node02       Ready               Active                                  19.03.11
[root@docker-node01 ~]# 

  提示:以上命令把docker-node01的availability屬性更改為drain,這樣更改后docker-node01的資源就不會被調度到用來運行容器;

  為docker swarm集群添加圖形界面

[root@docker-node01 docker]# docker run --name v1 -d -p 8888:8080 -e HOST=192.168.0.41 -e PORT=8080 -v /var/run/docker.sock:/var/run/docker.sock docker-registry.io/test/visualizer
Unable to find image 'docker-registry.io/test/visualizer:latest' locally
latest: Pulling from test/visualizer
cd784148e348: Pull complete 
f6268ae5d1d7: Pull complete 
97eb9028b14b: Pull complete 
9975a7a2a3d1: Pull complete 
ba903e5e6801: Pull complete 
7f034edb1086: Pull complete 
cd5dbf77b483: Pull complete 
5e7311667ddb: Pull complete 
687c1072bfcb: Pull complete 
aa18e5d3472c: Pull complete 
a3da1957bd6b: Pull complete 
e42dbf1c67c4: Pull complete 
5a18b01011d2: Pull complete 
Digest: sha256:54d65cbcbff52ee7d789cd285fbe68f07a46e3419c8fcded437af4c616915c85
Status: Downloaded newer image for docker-registry.io/test/visualizer:latest
3c15b186ff51848130393944e09a427bd40d2504c54614f93e28477a4961f8b6
[root@docker-node01 docker]# docker ps 
CONTAINER ID        IMAGE                                COMMAND             CREATED             STATUS                            PORTS                    NAMES
3c15b186ff51        docker-registry.io/test/visualizer   "npm start"         6 seconds ago       Up 5 seconds (health: starting)   0.0.0.0:8888->8080/tcp   v1
[root@docker-node01 docker]# 

  提示:我上面的命令是從私有倉庫中下載的鏡像,原因是互聯網下載太慢了,所以我提前下載好,放在私有倉庫中;有關私有倉庫的搭建使用,請參考https://www.cnblogs.com/qiuhom-1874/p/13061984.html或者https://www.cnblogs.com/qiuhom-1874/p/13058338.html;在管理節點上運行visualizer容器后,我們就可以直接訪問該管理節點地址的8888端口,就可以看到當前容器的情況;如下圖

  提示:從上面的信息可以看到當前集群有一個管理節點和兩個work節點;現目前集群里沒有運行任何容器;

  在docker swarm運行服務

[root@docker-node01 ~]# docker service create --name myweb docker-registry.io/test/nginx:latest
i0j6wvvtfe1360ibj04jxulmd
overall progress: 1 out of 1 tasks 
1/1: running   [==================================================>] 
verify: Service converged 
[root@docker-node01 ~]# docker service ls
ID                  NAME                MODE                REPLICAS            IMAGE                                  PORTS
i0j6wvvtfe13        myweb               replicated          1/1                 docker-registry.io/test/nginx:latest   
[root@docker-node01 ~]# docker service ps myweb
ID                  NAME                IMAGE                                  NODE                DESIRED STATE       CURRENT STATE            ERROR               PORTS
99y8towew77e        myweb.1             docker-registry.io/test/nginx:latest   docker-node03       Running             Running 1 minutes ago                       
[root@docker-node01 ~]#

  提示:docker service create 表示在當前swarm集群環境中創建一個服務;以上命令表示在swarm集群上創建一個名為myweb的服務,用docker-registry.io/test/nginx:latest鏡像;默認情況下只啟動一個副本;

  提示:可以看到當前集群中運行了一個myweb的容器,並且運行在docker-node03這台主機上;

  在swarm 集群上創建多個副本服務

[root@docker-node01 ~]# docker service create --replicas 3 --name web docker-registry.io/test/nginx:latest
mbiap412jyugfpi4a38mb5i1k
overall progress: 3 out of 3 tasks 
1/3: running   [==================================================>] 
2/3: running   [==================================================>] 
3/3: running   [==================================================>] 
verify: Service converged 
[root@docker-node01 ~]# docker service ls
ID                  NAME                MODE                REPLICAS            IMAGE                                  PORTS
i0j6wvvtfe13        myweb               replicated          1/1                 docker-registry.io/test/nginx:latest   
mbiap412jyug        web                 replicated          3/3                 docker-registry.io/test/nginx:latest   
[root@docker-node01 ~]#docker service ps web
ID                  NAME                IMAGE                                  NODE                DESIRED STATE       CURRENT STATE            ERROR               PORTS
1rt0e7u4senz        web.1               docker-registry.io/test/nginx:latest   docker-node02       Running             Running 28 seconds ago                       
31ll0zu7udld        web.2               docker-registry.io/test/nginx:latest   docker-node02       Running             Running 28 seconds ago                       
l9jtbswl2x22        web.3               docker-registry.io/test/nginx:latest   docker-node03       Running             Running 32 seconds ago                       
[root@docker-node01 ~]# 

  提示:–replicas選項用來指定期望運行的副本數量,該選項會在集群上創建我們指定數量的副本,即便我們集群中有節點宕機,它始終會創建我們指定數量的容器在集群上運行着;

  測試:把docker-node03關機,看看我們運行的服務是否會遷移到節點2上呢?

  docker-node03關機前

  docker-node03關機后

  提示:從上面的截圖可以看到,當節點3宕機后,節點3上跑的所有容器,會全部遷移到節點2上來;這就是創建容器時用–replicas選項的作用;總結一點,創建服務使用副本模式,該服務所在節點故障,它會把對應節點上的服務遷移到其他節點上;這裏需要提醒一點的是,只要集群上的服務副本滿足我們指定的replicas的數量,即便故障的節點恢復了,它是不會把服務遷移回來的;

[root@docker-node01 ~]# docker service ps web
ID                  NAME                IMAGE                                  NODE                DESIRED STATE       CURRENT STATE             ERROR               PORTS
1rt0e7u4senz        web.1               docker-registry.io/test/nginx:latest   docker-node02       Running             Running 15 minutes ago                        
31ll0zu7udld        web.2               docker-registry.io/test/nginx:latest   docker-node02       Running             Running 15 minutes ago                        
t3gjvsgtpuql        web.3               docker-registry.io/test/nginx:latest   docker-node02       Running             Running 6 minutes ago                         
l9jtbswl2x22         \_ web.3           docker-registry.io/test/nginx:latest   docker-node03       Shutdown            Shutdown 23 seconds ago                       
[root@docker-node01 ~]# 

  提示:我們在管理節點查看服務列表,可以看到它遷移服務就是把對應節點上的副本停掉,然後在其他節點創建一個新的副本;

  服務伸縮

[root@docker-node01 ~]# docker service ls
ID                  NAME                MODE                REPLICAS            IMAGE                                  PORTS
i0j6wvvtfe13        myweb               replicated          1/1                 docker-registry.io/test/nginx:latest   
mbiap412jyug        web                 replicated          3/3                 docker-registry.io/test/nginx:latest   
[root@docker-node01 ~]# docker service scale myweb=3 web=5
myweb scaled to 3
web scaled to 5
overall progress: 3 out of 3 tasks 
1/3: running   [==================================================>] 
2/3: running   [==================================================>] 
3/3: running   [==================================================>] 
verify: Service converged 
overall progress: 5 out of 5 tasks 
1/5: running   [==================================================>] 
2/5: running   [==================================================>] 
3/5: running   [==================================================>] 
4/5: running   [==================================================>] 
5/5: running   [==================================================>] 
verify: Service converged 
[root@docker-node01 ~]# docker service ls
ID                  NAME                MODE                REPLICAS            IMAGE                                  PORTS
i0j6wvvtfe13        myweb               replicated          3/3                 docker-registry.io/test/nginx:latest   
mbiap412jyug        web                 replicated          5/5                 docker-registry.io/test/nginx:latest   
[root@docker-node01 ~]# docker service ps myweb web
ID                  NAME                IMAGE                                  NODE                DESIRED STATE       CURRENT STATE            ERROR               PORTS
j7w490h2lons        myweb.1             docker-registry.io/test/nginx:latest   docker-node02       Running             Running 12 minutes ago                       
1rt0e7u4senz        web.1               docker-registry.io/test/nginx:latest   docker-node02       Running             Running 21 minutes ago                       
99y8towew77e        myweb.1             docker-registry.io/test/nginx:latest   docker-node03       Shutdown            Shutdown 5 minutes ago                       
en5rk0jf09wu        myweb.2             docker-registry.io/test/nginx:latest   docker-node03       Running             Running 31 seconds ago                       
31ll0zu7udld        web.2               docker-registry.io/test/nginx:latest   docker-node02       Running             Running 21 minutes ago                       
h1hze7h819ca        myweb.3             docker-registry.io/test/nginx:latest   docker-node03       Running             Running 30 seconds ago                       
t3gjvsgtpuql        web.3               docker-registry.io/test/nginx:latest   docker-node02       Running             Running 12 minutes ago                       
l9jtbswl2x22         \_ web.3           docker-registry.io/test/nginx:latest   docker-node03       Shutdown            Shutdown 5 minutes ago                       
od3ti2ixpsgc        web.4               docker-registry.io/test/nginx:latest   docker-node03       Running             Running 31 seconds ago                       
n1vur8wbmkgz        web.5               docker-registry.io/test/nginx:latest   docker-node03       Running             Running 31 seconds ago                       
[root@docker-node01 ~]# 

  提示:docker service scale 命令用來指定服務的副本數量,從而實現動態伸縮;

  服務暴露

[root@docker-node01 ~]# docker service ls
ID                  NAME                MODE                REPLICAS            IMAGE                                  PORTS
i0j6wvvtfe13        myweb               replicated          3/3                 docker-registry.io/test/nginx:latest   
mbiap412jyug        web                 replicated          5/5                 docker-registry.io/test/nginx:latest   
[root@docker-node01 ~]# docker service update  --publish-add 80:80 myweb 
myweb
overall progress: 3 out of 3 tasks 
1/3: running   [==================================================>] 
2/3: running   [==================================================>] 
3/3: running   [==================================================>] 
verify: Service converged 
[root@docker-node01 ~]#

  提示:docker swarm集群中的服務暴露和docker裏面的端口暴露原理是一樣的,都是通過iptables 規則表或LVS規則實現的;

  提示:我們可以在管理節點上看到對應80端口已經處於監聽狀態,並且在iptables規則表中多了一項訪問本機80端口都DNAT到172.18.0.2的80上了;其實不光是在管理節點,在work節點上相應的iptables規則也都發生了變化;如下

  提示:從上面的規則來看,我們訪問節點地址的80端口,都會DNAT到172.18.0.2的80;

  提示:從上面是显示結果看,我們不難得知在docker-node02運行myweb容器的內部地址是10.0.0.7,那為什麼我們訪問172.18.0.2是能夠訪問到容器內部的服務呢?

  測試:我們在docker-node02追蹤查看nginx容器的訪問日誌,看看到容器的IP地址是那個?

[root@docker-node02 ~]# docker ps
CONTAINER ID        IMAGE                                  COMMAND                  CREATED             STATUS              PORTS               NAMES
2134e1b2c689        docker-registry.io/test/nginx:latest   "/docker-entrypoint.…"   24 minutes ago      Up 24 minutes       80/tcp              nginx.1.ych7y3ugxp6o592pbz5k2i412
[root@docker-node02 ~]# docker logs -f nginx.1.ych7y3ugxp6o592pbz5k2i412 
/docker-entrypoint.sh: /docker-entrypoint.d/ is not empty, will attempt to perform configuration
/docker-entrypoint.sh: Looking for shell scripts in /docker-entrypoint.d/
/docker-entrypoint.sh: Launching /docker-entrypoint.d/10-listen-on-ipv6-by-default.sh
10-listen-on-ipv6-by-default.sh: Getting the checksum of /etc/nginx/conf.d/default.conf
10-listen-on-ipv6-by-default.sh: Enabled listen on IPv6 in /etc/nginx/conf.d/default.conf
/docker-entrypoint.sh: Launching /docker-entrypoint.d/20-envsubst-on-templates.sh
/docker-entrypoint.sh: Configuration complete; ready for start up
10.0.0.3 - - [21/Jun/2020:02:37:11 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "-"
172.18.0.1 - - [21/Jun/2020:02:38:35 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "-"
10.0.0.2 - - [21/Jun/2020:02:53:32 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "-"
10.0.0.2 - - [21/Jun/2020:02:53:58 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "-"
^C
[root@docker-node02 ~]# 

  提示:我們在管理節點上訪問172.18.0.2在node2節點上看到的日誌是10.0.0.2的ip訪問到nginx服務;這是為什麼呢?其實原因就是在每個節點上都有一個ingress-sbox容器,該容器的地址就10.0.0.2;不同節點上的ingress-sbox的地址都不同,所以我們訪問不同節點地址,在nginx上看到地址也就不同;如下圖所示

  提示:訪問不同的節點地址,在nginx日誌上記錄的IP各不相同

  提示:從上面的截圖可以了解到每個節點的ingress-sbox容器的地址各不相同,但他們都把網關指向10.0.0.1,這意味着各個節點容器通信就可以基於這個網關來進行,從而實現了swarm集群上的容器間通信能夠基於ingress網絡進行;現在還有一個問題就是172.18.0.0/18的網絡是怎麼和10.0.0.0/24的網絡通信的?

  提示:從上面的截圖可以看到,在管理節點上有兩個網絡名稱空間,一個id為0,而id為0的網絡名稱空間中有veth0和vxlan0這兩個網卡;而veth0和vxlan0都是橋接到br0上的,br0的地址就是10.0.0.1/24;vxlan的vlan id為4096;結合上面nginx的日誌,不難想到

我們訪問管理節點上的80,通過iptables規則把流量轉發給docker-gwbridge網絡上;現在我們還不清楚docker-gwbridge網絡上那個名稱空間的網絡,但是我們清楚知道在容器內部有兩張網卡,一張是eth0,一張是eth1,而eth1就是橋接到docker-gwbridge網絡上,這也就意味着容docker-gwbridge網絡的名稱空間和容器內部的eth1網絡名稱空間相同;

  提示:從上面的截圖看,1-u5mwgfq7rb這個名稱的網絡名稱空間有三張網卡,分別是eth0,eth1和vxlan0,它們都是橋接在br0這個網卡上;而上面管理節點也在1-u5mwgfq7rb這個網絡名稱空間,並且它們中的vxlan0的vlan id都是4096,這意味着管理節點上的vxlan0可以同node2上的vxlan0直接通信(相同網絡名稱空間中的相同VLAN id是可以直接通信的),而vxlan0又是直接橋接到br0這塊網卡,所以我們在nginx日誌中能夠看到ingress-sbox容器的地址在訪問nginx;這其中的原因是ingress-sbox的網關就是br0;其實node3也是相同邏輯,不同節點上的容器間通信都是走vxlan0,與外部通信走eth1—->然後通過SNAT走docker-gwbridge—->物理網卡出去;

  提示:一個容器上有兩個網絡,一個是eth0 ingress網絡,一個是eth1屬於docker-gwbridge網絡,兩者都屬於同一容器中的網絡名稱空間,所以我們訪問172.18.0.2就會通過ingress-sbox容器把源地址更改為docker-gwbridge上的ingress-sbox的地址,從而我們在看nginx日誌,就會看到10.0.0.2的地址;ingress-sbox容器作用我們可以理解為做SNAT的作用;

  測試:訪問管理節點的80服務看看是否能夠訪問到nginx提供的頁面呢?

[root@docker-node02 ~]# docker ps
CONTAINER ID        IMAGE                                  COMMAND                  CREATED             STATUS              PORTS               NAMES
b829991d6966        docker-registry.io/test/nginx:latest   "/docker-entrypoint.…"   About an hour ago   Up About an hour    80/tcp              myweb.1.ilhkslrlnreyo6xx5j2h9isjb
8c2965fbdc27        docker-registry.io/test/nginx:latest   "/docker-entrypoint.…"   2 hours ago         Up 2 hours          80/tcp              web.2.pthe8da2n45i06oee4n7h4krd
b019d663e48e        docker-registry.io/test/nginx:latest   "/docker-entrypoint.…"   2 hours ago         Up 2 hours          80/tcp              web.3.w26gqpoyysgplm7qwhjbgisiv
a7c1afd76f1f        docker-registry.io/test/nginx:latest   "/docker-entrypoint.…"   2 hours ago         Up 2 hours          80/tcp              web.1.ho0d7u3wensl0kah0ioz1lpk5
[root@docker-node02 ~]# docker exec -it myweb.1.ilhkslrlnreyo6xx5j2h9isjb  bash
root@b829991d6966:/# cd /usr/share/nginx/html/
root@b829991d6966:/usr/share/nginx/html# ls
50x.html  index.html
root@b829991d6966:/usr/share/nginx/html# echo "this is docker-node02 index page" >index.html
root@b829991d6966:/usr/share/nginx/html# cat index.html
this is docker-node02 index page
root@b829991d6966:/usr/share/nginx/html# 

  提示:以上是在docker-node02節點上對運行的nginx容器的主頁進行了修改,接下我們訪問管理節點的80端口,看看是否能夠訪問得到work節點上的容器,它們會有什麼效果?是輪詢?還是一直訪問一個容器?

  提示:可以看到我們訪問管理節點的80端口,會輪詢的訪問到work節點上的容器;用瀏覽器測試可能存在緩存的問題,我們可以用curl命令測試比較準確;如下

[root@docker-node03 ~]# docker ps
CONTAINER ID        IMAGE                                  COMMAND                  CREATED             STATUS              PORTS               NAMES
f43fdb9ec7fc        docker-registry.io/test/nginx:latest   "/docker-entrypoint.…"   2 hours ago         Up 2 hours          80/tcp              myweb.3.pgdjutofb5thlk02aj7387oj0
4470785f3d00        docker-registry.io/test/nginx:latest   "/docker-entrypoint.…"   2 hours ago         Up 2 hours          80/tcp              myweb.2.uwxbe182qzq00qgfc7odcmx87
7493dcac95ba        docker-registry.io/test/nginx:latest   "/docker-entrypoint.…"   2 hours ago         Up 2 hours          80/tcp              web.4.rix50fhlmg6m9txw9urk66gvw
118880d300f4        docker-registry.io/test/nginx:latest   "/docker-entrypoint.…"   2 hours ago         Up 2 hours          80/tcp              web.5.vo7c7vjgpf92b0ryelb7eque0
[root@docker-node03 ~]# docker exec -it myweb.2.uwxbe182qzq00qgfc7odcmx87 bash
root@4470785f3d00:/# cd /usr/share/nginx/html/
root@4470785f3d00:/usr/share/nginx/html# echo "this is myweb.2 index page" > index.html 
root@4470785f3d00:/usr/share/nginx/html# cat index.html
this is myweb.2 index page
root@4470785f3d00:/usr/share/nginx/html# exit
exit
[root@docker-node03 ~]# docker exec -it myweb.3.pgdjutofb5thlk02aj7387oj0 bash
root@f43fdb9ec7fc:/# cd /usr/share/nginx/html/
root@f43fdb9ec7fc:/usr/share/nginx/html# echo "this is myweb.3 index page" >index.html 
root@f43fdb9ec7fc:/usr/share/nginx/html# cat index.html
this is myweb.3 index page
root@f43fdb9ec7fc:/usr/share/nginx/html# exit
exit
[root@docker-node03 ~]# 

  提示:為了訪問方便看得出效果,我們把myweb.2和myweb.3的主頁都更改了內容

[root@docker-node01 ~]# for i in {1..10} ; do curl 192.168.0.41; done
this is myweb.3 index page
this is docker-node02 index page
this is myweb.2 index page
this is myweb.3 index page
this is docker-node02 index page
this is myweb.2 index page
this is myweb.3 index page
this is docker-node02 index page
this is myweb.2 index page
this is myweb.3 index page
[root@docker-node01 ~]# 

  提示:通過上面的測試,我們在使用–publish-add 暴露服務時,就相當於在管理節點創建了一個load balance;

本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

【其他文章推薦】

網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

※想知道購買電動車哪裡補助最多?台中電動車補助資訊懶人包彙整

南投搬家公司費用,距離,噸數怎麼算?達人教你簡易估價知識!

※教你寫出一流的銷售文案?

※超省錢租車方案

【Spring註解驅動開發】如何使用@Bean註解指定初始化和銷毀的方法?看這一篇就夠了!!

寫在前面

在【String註解驅動開發專題】中,前面的文章我們主要講了有關於如何向Spring容器中註冊bean的知識,大家可以到【String註解驅動開發專題】中系統學習。接下來,我們繼續肝Spring,只不過從本篇文章開始,我們就進入Spring容器中有關Bean的生命周期的學習。

項目工程源碼已經提交到GitHub:https://github.com/sunshinelyz/spring-annotation

Bean的生命周期

通常意義上講的bean的名稱周期,指的是bean從創建到初始化,經過一系列的流程,最終銷毀的過程。只不過,在Spring中,bean的生命周期是由Spring容器來管理的。在Spring中,我們可以自己來指定bean的初始化和銷毀的方法。當我們指定了bean的初始化和銷毀方法時,當容器在bean進行到當前生命周期的階段時,會自動調用我們自定義的初始化和銷毀方法。

如何定義初始化和銷毀方法?

我們已經知道了由Spring管理bean的生命周期時,我們可以指定bean的初始化和銷毀方法,那具體該如何定義這些初始化和銷毀方法呢?接下來,我們就介紹第一種定義初始化和銷毀方法的方式: 通過@Bean註解指定初始化和銷毀方法。

如果是使用XML文件的方式配置bean的話,可以在 標籤中指定bean的初始化和銷毀方法,如下所示。

<bean id = "person" class="io.mykit.spring.plugins.register.bean.Person" init-method="init" destroy-method="destroy">
    <property name="name" value="binghe"></property>
    <property name="age" value="18"></property>
</bean>

這裏,需要注意的是,在我們寫的Person類中,需要存在init()方法和destroy()方法。而且Spring中規定,這裏的init()方法和destroy()方法必須是無參方法,但可以拋異常。

如果我們使用註解的方式,該如何實現指定bean的初始化和銷毀方法呢?接下來,我們就一起來搞定它!!

首先,創建一個名稱為Student的類,這個類的實現比較簡單,如下所示。

package io.mykit.spring.plugins.register.bean;
/**
 * @author binghe
 * @version 1.0.0
 * @description 測試bean的初始化和銷毀方法
 */
public class Student {
    
    public Student(){
        System.out.println("Student類的構造方法");
    }

    public void init(){
        System.out.println("初始化Student對象");
    }

    public void destroy(){
        System.out.println("銷毀Student對象");
    }
}

接下來,我們將Student類對象通過註解的方式註冊到Spring容器中,具體的做法就是新建一個LifeCircleConfig類作為Spring的配置類,將Student類對象通過LifeCircleConfig類註冊到Spring容器中,LifeCircleConfig類的代碼如下所示。

package io.mykit.spring.plugins.register.config;

import io.mykit.spring.plugins.register.bean.Student;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;

/**
 * @author binghe
 * @version 1.0.0
 * @description Bean的生命周期
 */
@Configuration
public class LifeCircleConfig {
    @Bean
    public Student student(){
        return new Student();
    }
}

接下來,我們就新建一個BeanLifeCircleTest類來測試容器中的Student對象,BeanLifeCircleTest類的部分代碼如下所示。

package io.mykit.spring.test;

import io.mykit.spring.plugins.register.config.LifeCircleConfig;
import org.junit.Test;
import org.springframework.context.annotation.AnnotationConfigApplicationContext;

/**
 * @author binghe
 * @version 1.0.0
 * @description 測試bean的生命周期
 */
public class BeanLifeCircleTest {

    @Test
    public void testBeanLifeCircle01(){
        //創建IOC容器
        AnnotationConfigApplicationContext context = new AnnotationConfigApplicationContext(LifeCircleConfig.class);
        System.out.println("容器創建完成...");
    }
}

在前面的文章中,我們說過:對於單實例bean對象來說,在Spring容器創建完成后,就會對單實例bean進行實例化。那麼,我們先來運行下BeanLifeCircleTest類中的testBeanLifeCircle01()方法,輸出的結果信息如下所示。

Student類的構造方法
容器創建完成...

可以看到,在Spring容器創建完成時,自動調用單實例bean的構造方法,對單實例bean進行了實例化操作。

總之:對於單實例bean來說,在Spring容器啟動的時候創建對象;對於多實例bean來說,在每次獲取bean的時候創建對象。

現在,我們在Student類中指定了init()方法和destroy()方法,那麼,如何讓Spring容器知道Student類中的init()方法是用來執行對象的初始化操作,而destroy()方法是用來執行對象的銷毀操作呢?如果是使用XML文件配置的話,我們可以使用如下配置來實現。

<bean id="student" class="io.mykit.spring.plugins.register.bean.Student" init-method="init" destroy-method="destroy"></bean>

如果我們在@Bean註解中該如何實現呢?其實就更簡單了,我們來看下@Bean註解的源碼,如下所示。

package org.springframework.context.annotation;

import java.lang.annotation.Documented;
import java.lang.annotation.ElementType;
import java.lang.annotation.Retention;
import java.lang.annotation.RetentionPolicy;
import java.lang.annotation.Target;

import org.springframework.beans.factory.annotation.Autowire;
import org.springframework.beans.factory.support.AbstractBeanDefinition;
import org.springframework.core.annotation.AliasFor;

@Target({ElementType.METHOD, ElementType.ANNOTATION_TYPE})
@Retention(RetentionPolicy.RUNTIME)
@Documented
public @interface Bean {

	@AliasFor("name")
	String[] value() default {};

	@AliasFor("value")
	String[] name() default {};

	@Deprecated
	Autowire autowire() default Autowire.NO;

	boolean autowireCandidate() default true;

	String initMethod() default "";

	String destroyMethod() default AbstractBeanDefinition.INFER_METHOD;

}

看到@Bean註解的源碼,相信小夥伴們會有種豁然開朗的感覺:沒錯,就是使用@Bean註解的initMethod屬性和destroyMethod屬性來指定bean的初始化方法和銷毀方法。

所以,我們在LifeCircleConfig類中的@Bean註解中指定initMethod屬性和destroyMethod屬性,如下所示。

@Bean(initMethod = "init", destroyMethod = "destroy")
public Student student(){
    return new Student();
}

此時,我們再來運行BeanLifeCircleTest類中的testBeanLifeCircle01()方法,輸出的結果信息如下所示。

Student類的構造方法
初始化Student對象
容器創建完成...

從輸出結果可以看出,在Spring容器中,先是調用了Student類的構造方法來創建Student對象,接下來調用了Student對象的init()方法來進行初始化。

那小夥伴們可能會問,運行上面的代碼沒有打印出bean的銷毀方法中的信息啊,那什麼時候執行bean的銷毀方法呢? 這個問題問的很好, bean的銷毀方法是在容器關閉的時候調用的。

接下來,我們在BeanLifeCircleTest類中的testBeanLifeCircle01()方法中,添加關閉容器的代碼,如下所示。

@Test
public void testBeanLifeCircle01(){
    //創建IOC容器
    AnnotationConfigApplicationContext context = new AnnotationConfigApplicationContext(LifeCircleConfig.class);
    System.out.println("容器創建完成...");
    context.close();
}

我們再來運行BeanLifeCircleTest類中的testBeanLifeCircle01()方法,輸出的結果信息如下所示。

Student類的構造方法
初始化Student對象
容器創建完成...
銷毀Student對象

可以看到,此時輸出了對象的銷毀方法中的信息,說明執行了對象的銷毀方法。

指定初始化和銷毀方法的使用場景

一個典型的使用場景就是對於數據源的管理。例如,在配置數據源時,在初始化的時候,對很多的數據源的屬性進行賦值操作;在銷毀的時候,我們需要對數據源的連接等信息進行關閉和清理。此時,我們就可以在自定義的初始化和銷毀方法中來做這些事情!

初始化和銷毀方法調用的時機

  • bean對象的初始化方法調用的時機:對象創建完成,如果對象中存在一些屬性,並且這些屬性也都賦值好之後,會調用bean的初始化方法。對於單實例bean來說,在Spring容器創建完成后,Spring容器會自動調用bean的初始化和銷毀方法;對於單實例bean來說,在每次獲取bean對象的時候,調用bean的初始化和銷毀方法。
  • bean對象的銷毀方法調用的時機:對於單實例bean來說,在容器關閉的時候,會調用bean的銷毀方法;對於多實例bean來說,Spring容器不會管理這個bean,也不會自動調用這個bean的銷毀方法。不過,小夥伴們可以手動調用多實例bean的銷毀方法。

前面,我們已經說了單實例bean的初始化和銷毀方法。接下來,我們來說下多實例bean的初始化和銷毀方法。我們將Student對象變成多實例bean來驗證下。接下來,我們在LifeCircleConfig類的student()方法上通過@Scope註解將Student對象設置成多實例bean,如下所示。

@Scope("prototype")
@Bean(initMethod = "init", destroyMethod = "destroy")
public Student student(){
    return new Student();
}

接下來,我們再來運行BeanLifeCircleTest類中的testBeanLifeCircle01()方法,輸出的結果信息如下所示。

容器創建完成...

可以看到,當我們將Student對象設置成多實例bean,並且沒有獲取bean實例對象時,Spring容器並沒有執行bean的構造方法、初始化方法和銷毀方法。

說到這,我們就在BeanLifeCircleTest類中的testBeanLifeCircle01()方法中添加一行獲取Student對象的代碼,如下所示。

@Test
public void testBeanLifeCircle01(){
    //創建IOC容器
    AnnotationConfigApplicationContext context = new AnnotationConfigApplicationContext(LifeCircleConfig.class);
    System.out.println("容器創建完成...");
    context.getBean(Student.class);
    context.close();
}

此時,我們再來運行BeanLifeCircleTest類中的testBeanLifeCircle01()方法,輸出的結果信息如下所示。

容器創建完成...
Student類的構造方法
初始化Student對象

可以看到,此時,結果信息中輸出了構造方法和初始化方法中的信息。但是當容器關閉時,並沒有輸出bean的銷毀方法中的信息。

這是因為 將bean設置成多實例時,Spring不會自動調用bean對象的銷毀方法。至於多實例bean對象何時銷毀,那就是程序員自己的事情了!!Spring容器不再管理多實例bean。

好了,咱們今天就聊到這兒吧!別忘了給個在看和轉發,讓更多的人看到,一起學習一起進步!!

項目工程源碼已經提交到GitHub:https://github.com/sunshinelyz/spring-annotation

寫在最後

如果覺得文章對你有點幫助,請微信搜索並關注「 冰河技術 」微信公眾號,跟冰河學習Spring註解驅動開發。公眾號回復“spring註解”關鍵字,領取Spring註解驅動開發核心知識圖,讓Spring註解驅動開發不再迷茫。

本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

【其他文章推薦】

網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

※Google地圖已可更新顯示潭子電動車充電站設置地點!!

※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

※別再煩惱如何寫文案,掌握八大原則!

網頁設計最專業,超強功能平台可客製化

一文搞懂:Adaboost及手推算法案例

boosting

Boosting 算法的特點在於:將表現一般的弱分類器通過組合變成更好的模型。代表自然就是我們的隨即森林了。

GBDT和Adaboost是boost算法中比較常見的兩種,這裏主要講解Adaboost。

Adaboost

Adaboost算法的核心就是兩個權重。對於數據有一個權重,權重大的數據計算的損失就大;然後對於每一個弱分類器有一個權重,這個權重就是每一個弱分類器最終投票的比重。

【先給出Adaboost關鍵的公式】
\(\alpha_1=\frac{1}{2}ln(\frac{1-\epsilon_1}{\epsilon_1})\) 分類器的投票權重
\(W_i=W_ie^{-\alpha_i y_i \hat{h}(x_i)}\) 更新樣本的權重

【隨即森林中最終投票每一個弱分類器的比重相同】

大概流程就是,現在有一個數據集,然後每個數據的比重都相同,然後訓練了好幾個不同的弱分類器。

  1. 挑選錯誤率最低的弱分類器,然後通過【某種算法】得到這個弱分類器最終投票的比重,然後通過【某種算法】更新每一個數據的比重;
  2. 因為每一個數據的比重更新了,所以再選擇一個錯誤率最低的弱分類器,然後通過【某種算法】得到這個弱分類器最終投票的比重,然後通過【某種算法】更新每一個數據的比重;
  3. 重複這個過程。

算法的流程:

這裏給一個具體計算的例子:
假設這裡有10個數據:

加號和減號分別代表不同的類別。然後每個類別有5個樣本。

下面會給出3個弱分類器:

這三個分類器分別是\(h_1(x),h_2(x),h_3(x)\)
圖中畫圈的數據就是分類錯誤的數據。可以發現每個弱分類器都分錯了3個。下面開始Adaboost的算法。

先計算三個弱分類器的錯誤率,因為一開始每個樣本的權重都是0.1,每個分類器又都錯了3個樣本,所以錯誤率都是0.3。這裏就隨機選取第一個分類器作為錯誤率最低的那個好了。
我們這裏通過第一個【某種算法】計算第一個弱分類器在最終的投票權重:
\(\alpha_1=\frac{1}{2}ln(\frac{1-\epsilon_1}{\epsilon_1})=0.5*ln(\frac{0.7}{0.3})=0.4236\)

然後通過這個\(\alpha_1=0.4236\)來更新每一個樣本的權重。這也就是上面提到的第二個【某種算法】:
\(W(i)=W(i)*e^{-\alpha y_i \hat {h}(x_i)}\)

這啥意思的,現在假設第一個樣本+1,這個樣本的權重是0.1(更新前),然後這個樣本在第一個分類器中是非類正確的,所以\(y_i \hat{h}(x_i)=1\),所以這個樣本更新后的權重就是\(0.1e^{-0.4236}=0.0655\)

當然,對於+3這個樣本,第一個分類器就分類錯誤,所以\(y_i \hat{h}(x_i)=-1\),所以呢這個樣本更新后的權重就是:\(0.1e^{0.4236}=0.1527\)

下面經過第一個分類器之後的樣本的權重:

然後再計算每一個分類器的基於更新之後樣本權重的錯誤率:

這一次選的是第二個分類器,然後計算它的\(\alpha_2\),然後再更新每一個樣本的權重值:

然後是再尋找錯誤率最低的分類器:

到這一步的時候,我們已經有了\(\alpha_1,\alpha_2,\alpha_3\),所以我們的adaboost已經得到了所有分類器的投票權重,所以最終的模型投票公式就是:

喜歡的話請關注我們的微信公眾號~【你好世界煉丹師】。

  • 公眾號主要講統計學,數據科學,機器學習,深度學習,以及一些參加Kaggle競賽的經驗。
  • 公眾號內容建議作為課後的一些相關知識的補充,飯後甜點。
  • 此外,為了不過多打擾,公眾號每周推送一次,每次4~6篇精選文章。

微信搜索公眾號:你好世界煉丹師。期待您的關注。

本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

【其他文章推薦】

網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

南投搬家公司費用需注意的眉眉角角,別等搬了再說!

新北清潔公司,居家、辦公、裝潢細清專業服務

※教你寫出一流的銷售文案?