ãã客æ·ç«¯éè¿è°ç¨FileSystem对象ï¼å¯¹åºäºHDFSæ件系ç»ï¼è°ç¨DistributedFileSystem对象ï¼çopen()æ¹æ³æ¥æå¼æ件ï¼ä¹å³å¾ä¸ç第ä¸æ¥ï¼ï¼DistributedFileSysteméè¿RPCï¼Remote Procedure Callï¼è°ç¨è¯¢é®NameNodeæ¥å¾å°æ¤æ件æå¼å§å 个blockçæ件ä½ç½®ï¼ç¬¬äºæ¥ï¼ã对æ¯ä¸ä¸ªblockæ¥è¯´ï¼namenodeè¿åæ¥ææ¤blockå¤ä»½çæænamenodeçå°åä¿¡æ¯ï¼æé群çææç½ç»ä¸ä¸å®¢æ·ç«¯è·ç¦»çè¿è¿æåºï¼å ³äºå¨Hadoopé群ä¸å¦ä½è¿è¡ç½ç»ææ请çä¸é¢ä»ç»ï¼ãå¦æ客æ·ç«¯æ¬èº«å°±æ¯ä¸ä¸ªdatanodeï¼å¦å®¢æ·ç«¯æ¯ä¸ä¸ªmapreduceä»»å¡ï¼å¹¶ä¸æ¤datanodeæ¬èº«å°±ææéæ件blockçè¯ï¼å®¢æ·ç«¯ä¾¿ä»æ¬å°è¯»åæ件ã
ãã以ä¸æ¥éª¤å®æåï¼DistributedFileSystemä¼è¿åä¸ä¸ªFSDataInputStreamï¼æ¯ææ件seekï¼ï¼å®¢æ·ç«¯å¯ä»¥ä»FSDataInputStreamä¸è¯»åæ°æ®ãFSDataInputStreamå è£ äºä¸ä¸ªDFSInputSteamç±»ï¼ç¨æ¥å¤çnamenodeådatanodeçI/Oæä½ã
ãã客æ·ç«¯ç¶åæ§è¡read()æ¹æ³ï¼ç¬¬ä¸æ¥ï¼ï¼DFSInputStreamï¼å·²ç»åå¨äºæ¬²è¯»åæ件çå¼å§å 个blockçä½ç½®ä¿¡æ¯ï¼è¿æ¥å°ç¬¬ä¸ä¸ªdatanodeï¼ä¹å³æè¿çdatanodeï¼æ¥è·åæ°æ®ãéè¿éå¤è°ç¨read()æ¹æ³ï¼ç¬¬åã第äºæ¥ï¼ï¼æ件å çæ°æ®å°±è¢«æµå¼çéå°äºå®¢æ·ç«¯ãå½è¯»å°è¯¥blockçæ«å°¾æ¶ï¼DFSInputStreamå°±ä¼å ³éæå该blockçæµï¼è½¬èæ¾å°ä¸ä¸ä¸ªblockçä½ç½®ä¿¡æ¯ç¶åéå¤è°ç¨read()æ¹æ³ç»§ç»å¯¹è¯¥blockçæµå¼è¯»åãè¿äºè¿ç¨å¯¹äºç¨æ·æ¥è¯´é½æ¯éæçï¼å¨ç¨æ·çæ¥è¿å°±æ¯ä¸é´æçæµå¼è¯»åæ´ä¸ªæ件ã
ããå½ç个æ件读åå®æ¯æ¶ï¼å®¢æ·ç«¯è°ç¨FSDataInputSteamä¸çcloseï¼ï¼æ¹æ³å ³éæ件è¾å ¥æµï¼ç¬¬å æ¥ï¼ã
ããå¦æå¨è¯»æ个blockæ¯DFSInputStreamæ£æµå°é误ï¼DFSInputSteamå°±ä¼è¿æ¥ä¸ä¸ä¸ªdatanode以è·åæ¤blockçå ¶ä»å¤ä»½ï¼åæ¶ä»ä¼è®°å½ä¸ä»¥åæ£æµå°çåæçdatanode以å 以ååæ ç¨çéå¤è¯»å该datanodeãDFSInputSteamä¹ä¼æ£æ¥ä»datanode读åæ¥çæ°æ®çæ ¡éªåï¼å¦æåç°ææ°æ®æåï¼å®ä¼æåæçblockæ¥åç»namenodeåæ¶éæ°è¯»åå ¶ä»datanodeä¸çå ¶ä»blockå¤ä»½ã
ããè¿ç§è®¾è®¡æ¨¡å¼çä¸ä¸ªå¥½å¤æ¯ï¼æ件读åæ¯éå¸è¿ä¸ªé群çdatanodeçï¼namenodeåªæ¯æä¾æ件blockçä½ç½®ä¿¡æ¯ï¼è¿äºä¿¡æ¯æéç带宽æ¯å¾å°çï¼è¿æ ·ä¾¿ææçé¿å äºåç¹ç¶é¢é®é¢ä»èå¯ä»¥æ´å¤§çæ©å é群çè§æ¨¡ã
ããHadoopä¸çç½ç»ææ
ããå¨Hadoopé群ä¸å¦ä½è¡¡é两个èç¹çè¿è¿å¢ï¼è¦ç¥éï¼å¨é«éå¤çæ°æ®æ¶ï¼æ°æ®å¤çéççå¯ä¸éå¶å ç´ å°±æ¯æ°æ®å¨ä¸åèç¹é´çä¼ è¾é度ï¼è¿æ¯ç±å¸¦å®½çå¯æå®ä¹å¼èµ·çãæ以æ们æ带宽ä½ä¸ºè¡¡é两个èç¹è·ç¦»å¤§å°çæ åã
ããä½æ¯è®¡ç®ä¸¤ä¸ªèç¹ä¹é´ç带宽æ¯æ¯è¾å¤æçï¼èä¸å®éè¦å¨ä¸ä¸ªéæçé群ä¸æè½è¡¡éï¼ä½Hadoopé群ä¸è¬æ¯éçæ°æ®å¤ççè§æ¨¡å¨æååçï¼ä¸ä¸¤ä¸¤èç¹ç´æ¥ç¸è¿çè¿æ¥æ°æ¯èç¹æ°çå¹³æ¹ï¼ãäºæ¯Hadoop使ç¨äºä¸ä¸ªç®åçæ¹æ³æ¥è¡¡éè·ç¦»ï¼å®æé群å çç½ç»è¡¨ç¤ºæä¸ä¸ªæ ç»æï¼ä¸¤ä¸ªèç¹ä¹é´çè·ç¦»å°±æ¯ä»ä»¬ç¦»å ±åç¥å èç¹çè·ç¦»ä¹åãæ ä¸è¬ææ°æ®ä¸å¿(datacenter)ï¼æºæ¶(rack)ï¼è®¡ç®èç¹(datanode)çç»æç»ç»ã计ç®èç¹ä¸çæ¬å°è¿ç®é度æå¿«ï¼è·¨æ°æ®ä¸å¿ç计ç®é度ææ ¢ï¼ç°å¨è·¨æ°æ®ä¸å¿çHadoopé群ç¨çè¿å¾å°ï¼ä¸è¬é½æ¯å¨ä¸ä¸ªæ°æ®ä¸å¿å åè¿ç®çï¼ã
ããåå¦æ个计ç®èç¹n1å¤å¨æ°æ®ä¸å¿c1çæºæ¶r1ä¸ï¼å®å¯ä»¥è¡¨ç¤ºä¸º/c1/r1/n1ï¼ä¸é¢æ¯ä¸åæ åµä¸ä¸¤ä¸ªèç¹çè·ç¦»ï¼
ãã• distance(/d1/r1/n1, /d1/r1/n1) = 0 (processes on the same node)
ãã• distance(/d1/r1/n1, /d1/r1/n2) = 2 (different nodes on the same rack)
ãã• distance(/d1/r1/n1, /d1/r2/n3) = 4 (nodes on different racks in the same data center)
ãã• distance(/d1/r1/n1, /d2/r3/n4) = 6 (nodes in different data centers)
ããå¦ä¸å¾æ示ï¼
ããHadoop
ããåæ件
ããç°å¨æ们æ¥çä¸ä¸Hadoopä¸çåæ件æºå¶è§£æï¼éè¿åæ件æºå¶æ们å¯ä»¥æ´å¥½çäºè§£ä¸ä¸Hadoopä¸çä¸è´æ§æ¨¡åã
ããHadoop
ããä¸å¾ä¸ºæ们å±ç¤ºäºä¸ä¸ªå建ä¸ä¸ªæ°æ件并åå ¶ä¸åæ°æ®çä¾åã
ããé¦å 客æ·ç«¯éè¿DistributedFileSystemä¸çcreate()æ¹æ³ææä¸ä¸ªæ¬²å建çæ件çæ件åï¼ç¬¬ä¸æ¥ï¼ï¼DistributedFileSystemåéè¿RPCè°ç¨åNameNodeç³è¯·å建ä¸ä¸ªæ°æ件ï¼ç¬¬äºæ¥ï¼è¿æ¶è¯¥æ件è¿æ²¡æåé ç¸åºçblockï¼ãnamenodeæ£æ¥æ¯å¦æååæ件åå¨ä»¥åç¨æ·æ¯å¦æç¸åºçå建æéï¼å¦ææ£æ¥éè¿ï¼namenodeä¼ä¸ºè¯¥æ件å建ä¸ä¸ªæ°çè®°å½ï¼å¦åçè¯æ件å建失败ï¼å®¢æ·ç«¯å¾å°ä¸ä¸ªIOExceptionå¼å¸¸ãDistributedFileSystemè¿åä¸ä¸ªFSDataOutputStream以ä¾å®¢æ·ç«¯åå ¥æ°æ®ï¼ä¸FSDataInputStream类似ï¼FSDataOutputStreamå°è£ äºä¸ä¸ªDFSOutputStreamç¨äºå¤çnamenodeä¸datanodeä¹é´çéä¿¡ã
ããå½å®¢æ·ç«¯å¼å§åæ°æ®æ¶ï¼ç¬¬ä¸æ¥ï¼ï¼DFSOutputStreamæåå ¥çæ°æ®åæå ï¼packetï¼, æ¾å ¥ä¸ä¸ªä¸é´éåââæ°æ®éåï¼data queueï¼ä¸å»ãDataStreamerä»æ°æ®éåä¸åæ°æ®ï¼åæ¶ånamenodeç³è¯·ä¸ä¸ªæ°çblockæ¥åæ¾å®å·²ç»åå¾çæ°æ®ãnamenodeéæ©ä¸ç³»ååéçdatanodeï¼ä¸ªæ°ç±æ件çreplicaæ°å³å®ï¼ææä¸ä¸ªç®¡é线ï¼pipelineï¼ï¼è¿éæ们å设replica为3ï¼æ以管é线ä¸å°±æä¸ä¸ªdatanodeãDataSteamerææ°æ®æµå¼çåå ¥å°ç®¡é线ä¸ç第ä¸ä¸ªdatanodeä¸ï¼ç¬¬åæ¥ï¼ï¼ç¬¬ä¸ä¸ªdatanodeåææ¥æ¶å°çæ°æ®è½¬å°ç¬¬äºä¸ªdatanodeä¸ï¼ç¬¬åæ¥ï¼ï¼ä»¥æ¤ç±»æ¨ã
ããDFSOutputStreamåæ¶ä¹ç»´æ¤çå¦ä¸ä¸ªä¸é´éåââ确认éåï¼ack queueï¼ï¼ç¡®è®¤éåä¸çå åªæå¨å¾å°ç®¡é线ä¸ææçdatanodeç确认以åæä¼è¢«ç§»åºç¡®è®¤éåï¼ç¬¬äºæ¥ï¼ã
ããå¦ææ个datanodeå¨åæ°æ®çæ¶åå½æäºï¼ä¸é¢è¿äºå¯¹ç¨æ·éæçæ¥éª¤ä¼è¢«æ§è¡ï¼
ãã1ï¼ç®¡éçº¿å ³éï¼ææ确认éåä¸çæ°æ®ä¼è¢«æªå°æ°æ®éåçé¦é¨éæ°åéï¼è¿æ ·å¯ä»¥ç¡®ä¿ç®¡é线ä¸å½æçdatanodeä¸æµçdatanodeä¸ä¼å 为å½æçdatanodeè丢失æ°æ®å ã
ãã2ï¼å¨è¿å¨æ£å¸¸è¿è¡çdatanodeä¸çå½åblockä¸åä¸ä¸ªæ å¿ï¼è¿æ ·å½å½æçdatanodeéæ°å¯å¨ä»¥ånamenodeå°±ä¼ç¥é该datanodeä¸åªä¸ªblockæ¯åæå½æºæ¶æ®çä¸çå±é¨æåblockï¼ä»èå¯ä»¥æå®å æã
ãã3ï¼å·²ç»å½æçdatanodeä»ç®¡é线ä¸è¢«ç§»é¤ï¼æªåå®çblockçå ¶ä»æ°æ®ç»§ç»è¢«åå ¥å°å ¶ä»ä¸¤ä¸ªè¿å¨æ£å¸¸è¿è¡çdatanodeä¸å»ï¼namenodeç¥éè¿ä¸ªblockè¿å¤å¨under-replicatedç¶æï¼ä¹å³å¤ä»½æ°ä¸è¶³çç¶æï¼ä¸ï¼ç¶åä»ä¼å®æä¸ä¸ªæ°çreplicaä»èè¾¾å°è¦æ±çå¤ä»½æ°ï¼åç»çblockåå ¥æ¹æ³ååé¢æ£å¸¸æ¶åä¸æ ·ã
ããæå¯è½ç®¡é线ä¸çå¤ä¸ªdatanodeå½æï¼è½ç¶ä¸å¤ªç»å¸¸åçï¼ï¼ä½åªè¦dfs.replication.minï¼é»è®¤ä¸º1ï¼ä¸ªreplica被å建ï¼æ们就认为该å建æåäºãå©ä½çreplicaä¼å¨ä»¥åå¼æ¥å建以达å°æå®çreplicaæ°ã
ããå½å®¢æ·ç«¯å®æåæ°æ®åï¼å®ä¼è°ç¨close()æ¹æ³ï¼ç¬¬å æ¥ï¼ãè¿ä¸ªæä½ä¼å²æ´ï¼flushï¼ææå©ä¸çpackageå°pipelineä¸ï¼çå¾ è¿äºpackage确认æåï¼ç¶åéç¥namenodeåå ¥æ件æåï¼ç¬¬ä¸æ¥ï¼ãè¿æ¶ånamenodeå°±ç¥é该æ件ç±åªäºblockç»æï¼å 为DataStreamerånamenode请æ±åé æ°blockï¼namenodeå½ç¶ä¼ç¥éå®åé è¿åªäºblcokç»ç»å®æ件ï¼ï¼å®ä¼çå¾ æå°çreplicaæ°è¢«å建ï¼ç¶åæåè¿åã
ããreplicaæ¯å¦ä½åå¸ç
ããHadoopå¨å建æ°æ件æ¶æ¯å¦ä½éæ©blockçä½ç½®çå¢ï¼ç»¼åæ¥è¯´ï¼è¦èè以ä¸å ç´ ï¼å¸¦å®½ï¼å æ¬å带宽å读带宽ï¼åæ°æ®å®å ¨æ§ãå¦ææ们æä¸ä¸ªå¤ä»½å ¨é¨æ¾å¨ä¸ä¸ªdatanodeä¸ï¼è½ç¶å¯ä»¥é¿å äºå带宽çæ¶èï¼ä½å ä¹æ²¡ææä¾æ°æ®åä½å¸¦æ¥çå®å ¨æ§ï¼å 为å¦æè¿ä¸ªdatanodeå½æºï¼é£ä¹è¿ä¸ªæ件çæææ°æ®å°±å ¨é¨ä¸¢å¤±äºãå¦ä¸ä¸ªæ端æ åµæ¯ï¼å¦ææä¸ä¸ªåä½å¤ä»½å ¨é¨æ¾å¨ä¸åçæºæ¶ï¼çè³æ°æ®ä¸å¿éé¢ï¼è½ç¶è¿æ ·æ°æ®ä¼å®å ¨ï¼ä½åæ°æ®ä¼æ¶èå¾å¤ç带宽ãHadoop 0.17.0ç»æ们æä¾äºä¸ä¸ªé»è®¤replicaåé çç¥ï¼Hadoop 1.X以åå 许replicaçç¥æ¯å¯ææçï¼ä¹å°±æ¯ä½ å¯ä»¥èªå·±å¶å®èªå·±éè¦çreplicaåé çç¥ï¼ãreplicaçé»è®¤åé çç¥æ¯æ第ä¸ä¸ªå¤ä»½æ¾å¨ä¸å®¢æ·ç«¯ç¸åçdatanodeä¸ï¼å¦æ客æ·ç«¯å¨é群å¤è¿è¡ï¼å°±éæºéåä¸ä¸ªdatanodeæ¥åæ¾ç¬¬ä¸ä¸ªreplicaï¼ï¼ç¬¬äºä¸ªreplicaæ¾å¨ä¸ç¬¬ä¸ä¸ªreplicaä¸åæºæ¶çä¸ä¸ªéæºdatanodeä¸ï¼ç¬¬ä¸ä¸ªreplicaæ¾å¨ä¸ç¬¬äºä¸ªreplicaç¸åæºæ¶çéæºdatanodeä¸ãå¦æreplicaæ°å¤§äºä¸ï¼åéåçreplicaå¨é群ä¸éæºåæ¾ï¼Hadoopä¼å°½éé¿å è¿å¤çreplicaåæ¾å¨åä¸ä¸ªæºæ¶ä¸ãéåreplicaçæ¾ç½®ä½ç½®åï¼ç®¡é线çç½ç»ææç»æå¦ä¸æ示ï¼
ããHadoop
ããæ»ä½æ¥è¯´ï¼ä¸è¿°é»è®¤çreplicaåé çç¥ç»äºæ们å¾å¥½çå¯ç¨æ§ï¼blocksæ¾ç½®å¨ä¸¤ä¸ªrackä¸ï¼è¾ä¸ºå®å ¨ï¼ï¼å带宽ä¼åï¼åæ°æ®åªéè¦è·¨è¶ä¸ä¸ªrackï¼ï¼è¯»å¸¦å®½ä¼åï¼ä½ å¯ä»¥ä»ä¸¤ä¸ªæºæ¶ä¸éæ©è¾è¿çä¸ä¸ªè¯»åï¼ã
ããä¸è´æ§æ¨¡å
ããHDFSæäºå°æ¹ä¸ºäºæ§è½å¯è½ä¼ä¸ç¬¦åPOSIXï¼æ¯çï¼ä½ 没æçéï¼POSIXä¸ä» ä» åªéç¨äºlinux/unixï¼ Hadoop 使ç¨äºPOSIXç设计æ¥å®ç°å¯¹æ件系ç»æ件æµç读å ï¼ï¼æ以å®çèµ·æ¥å¯è½ä¸ä½ æææçä¸åï¼è¦æ³¨æã
ããå建äºä¸ä¸ªæ件以åï¼å®æ¯å¯ä»¥å¨å½å空é´ï¼namespaceï¼ä¸å¯ä»¥çå°çï¼
ããPath p = new Path("p");
ããfs.create(p);
ããassertThat(fs.exists(p), is(true));
ããä½æ¯ä»»ä½åæ¤æ件ä¸åå ¥çæ°æ®å¹¶ä¸è½ä¿è¯æ¯å¯è§çï¼å³ä½¿ä½ flushäºå·²ç»åå ¥çæ°æ®ï¼æ¤æ件çé¿åº¦å¯è½ä»ç¶ä¸ºé¶ï¼
ããPath p = new Path("p");
ããOutputStream out = fs.create(p);
ããout.write("content".getBytes("UTF-8"));
ããout.flush();
ããassertThat(fs.getFileStatus(p).getLen(), is(0L));
ããè¿æ¯å 为ï¼å¨Hadoopä¸ï¼åªæ满ä¸ä¸ªblockæ°æ®éçæ°æ®è¢«åå ¥æ件åï¼æ¤æ件ä¸çå 容ææ¯å¯è§çï¼å³è¿äºæ°æ®ä¼è¢«åå ¥å°ç¡¬çä¸å»ï¼ï¼æ以å½åæ£å¨åçblockä¸çå 容æ»æ¯ä¸å¯è§çã
ããHadoopæä¾äºä¸ç§å¼ºå¶ä½¿bufferä¸çå 容å²æ´å°datanodeçæ¹æ³ï¼é£å°±æ¯FSDataOutputStreamçsync()æ¹æ³ãè°ç¨äºsync()æ¹æ³åï¼Hadoopä¿è¯ææå·²ç»è¢«åå ¥çæ°æ®é½è¢«å²æ´å°äºç®¡é线ä¸çdatanodeä¸ï¼å¹¶ä¸å¯¹ææ读è é½å¯è§äºï¼
ããPath p = new Path("p");
ããFSDataOutputStream out = fs.create(p);
ããout.write("content".getBytes("UTF-8"));
ããout.flush();
ããout.sync();
ããassertThat(fs.getFileStatus(p).getLen(), is(((long) "content".length())));
ããè¿ä¸ªæ¹æ³å°±åPOSIXä¸çfsyncç³»ç»è°ç¨ï¼å®å²æ´ç»å®æ件æ述符ä¸çææç¼å²æ°æ®å°ç£çä¸ï¼ãä¾å¦ï¼ä½¿ç¨java APIåä¸ä¸ªæ¬å°æ件ï¼æ们å¯ä»¥ä¿è¯å¨è°ç¨flush()ååæ¥ååå¯ä»¥çå°å·²åå ¥çå 容ï¼
ããFileOutputStream out = new FileOutputStream(localFile);
ããout.write("content".getBytes("UTF-8"));
ããout.flush(); // flush to operating system
ããout.getFD().sync(); // sync to disk ï¼getFD()è¿åä¸è¯¥æµæ对åºçæ件æ述符ï¼
ããassertThat(localFile.length(), is(((long) "content".length())));
ããå¨HDFSä¸å ³éä¸ä¸ªæµéå¼çè°ç¨äºsync()æ¹æ³ï¼
ããPath p = new Path("p");
ããOutputStream out = fs.create(p);
ããout.write("content".getBytes("UTF-8"));
ããout.close();
ããassertThat(fs.getFileStatus(p).getLen(), is(((long) "content".length())));
ããç±äºHadoopä¸çä¸è´æ§æ¨¡åéå¶ï¼å¦ææ们ä¸è°ç¨sync()æ¹æ³çè¯ï¼æ们å¾å¯è½ä¼ä¸¢å¤±å¤å¤§ä¸ä¸ªblockçæ°æ®ãè¿æ¯é¾ä»¥æ¥åçï¼æ以æ们åºè¯¥ä½¿ç¨sync()æ¹æ³æ¥ç¡®ä¿æ°æ®å·²ç»åå ¥ç£çãä½é¢ç¹è°ç¨sync()æ¹æ³ä¹æ¯ä¸å¥½çï¼å 为ä¼é æå¾å¤é¢å¤å¼éãæ们å¯ä»¥ååå ¥ä¸å®éæ°æ®åè°ç¨sync()æ¹æ³ä¸æ¬¡ï¼è³äºè¿ä¸ªå ·ä½çæ°æ®é大å°å°±è¦æ ¹æ®ä½ çåºç¨ç¨åºèå®äºï¼å¨ä¸å½±åä½ çåºç¨ç¨åºçæ§è½çæ åµä¸ï¼è¿ä¸ªæ°æ®éåºè¶å¤§è¶å¥½ã
可以只用一行代码来运行MapReduce作业:JobClient.runJon(conf),Job作业运行时参与的四个实体:
1.JobClient 写代码,配置作业,提交作业。
2.JobTracker:初始化作业,分配作业,协调作业运行。这是一个java程序,主类是JobTracker。
3.TaskTracker:运行作业划分后的任务,即分配数据分配上执行Map或Reduce任务。
4.HDFS:保存作业数据、配置信息等,保存作业结果。
Map/Reduce 作业总体执行流程:
代码编写 ----> 作业配置 ----> 作业提交 ----> Map任务分配和执行 ----> 处理中间结果 ----> Reduce任务分配与执行 ----> 输出结果
而对于每个作业的执行,又包含:
输入准备 ----> 任务执行 ----> 输出结果
作业提交JobClient:
JobClient的runJob方法产生一个Jobclient实例并调用其submitJob方法,然后runJob开始循环吗,并在循环中调用getTaskCompetionEvents方法,获得TaskCompletionEvent实例,每秒轮询作业进度(后面有介绍进度和状态更新),把进度写到控制台,作业完成后显示作业计数器,若失败,则把错误记录到控制台。
submitJob方法作业提交的过程:
1.向JobTracker请求一个新的JobId。
2.检查作业相关路径,如果路径不正确就会返回错误。
3.计算作业输入分片及其划分信息。
4.将作业运行需要的资源(jar文件、配置文件等)复制到Shared HDFS,并
复制多个副本(参数控制,默认值为10)供tasktracker访问,也会将计算的分片复制到HDFS。
5.调用JobTracker对象的submitJob()方法来真正提交作业,告诉JobTracker作业准备执行。
作业的初始化JobTracker:
JobTracker收到submitJob方法调用后,会把调用放入到一个内部队列,由作业调度器(Job scheduler)进行调度并对其初始化。Job初始化即创建一个作业对象。
当作业被调度后,JobTracker会创建一个代表这个作业的JobInProgress对象,并将任务和记录信息封装在这个对象中,以便跟踪任务状态和进程。
初始化过程就是JobInProgress对象的initTasks方法进行初始化的。
初始化步骤:
1.从HDFS中读取作业对应的job.split信息,为后面的初始化做好准备。
2.创建并初始化map和reduce任务。根据数据分片信息中的个数确定map task的个数,然后为每个map task生成一个TaskInProgress对象来处理数据分片,先将其放入nonRunningMapCache,以便JobTracker分配任务的时候使用。接下来根据JobConf中的mapred.reduce.tasks属性利用setNumReduceTasks()方法设置reduce task的数量,然后同map task创建方式。
3.最后就是创建两个初始化task,进行map和reduce的初始化。
任务的分配JobTracker:
消息传递HeartBeat: tasktracker运行一个简单循环定期发送心跳(heartbeat)给JobTracker。由心跳告知JobTracker自己是否存活,同时作为消息通道传递其它信息(请求新task)。作为心跳的一部分,tasktracker会指明自己是否已准备好运行新的任务,如果是,jobtracker会分配它一个任务。
分配任务所属于的作业:在Jobtracker分配任务前需先确定任务所在的作业。后面会介绍到各种作业调度算法,默认是一个FIFO的作业调度。
分配Map和Reduce任务:tasktracker有固定数量的任务槽,一个tasktracker可以同时运行多个Map和Reduce任务,但其准确的数量由tasktracker的核的数量和内存大小决定。默认调度器会先填满Map任务槽,再填Reduce任务槽。jobtracker会选择距离离分片文件最近的tasktracker,最理想情况下,任务是数据本地化(data-local)的,当然也可以是机架本地化(rack-local),如果不是本地化的,那么他们就需要从其他机架上检索数据。Reduce任务分配很简单,jobtracker会简单的从待运行的reduce任务列表中选取下一个来执行,不用考虑数据本地化。
任务的执行TaskTracker:
TaskTracker收到新任务后,就要在本地运行任务了,运行任务的第一步就是通过localizedJob将任务本地化所需要的注入配置、数据、程序等信息进行本地化。
1.本地化数据:从共享文件系统将job.split 、job.jar (在分布式缓存中)复制本地,将job配置信息写入job.xml。
2.新建本地工作目录:tasktracker会加压job.jar文件到本工作目录。
3.调用launchTaskForJob方法发布任务(其中会新建TaskRunner实例运行任务),如果是Map任务就启用MapTaskRunner,对于Reduce就是ReduceTaskRunner。
在这之后,TaskRunner会启用一个新的JVM来运行每个Map/Reduce任务,防止程序原因而导致tasktracker崩溃,但不同任务间重用JVM还是可以的,后续会讲到任务JVM重用。
对于单个Map,任务执行的简单流程是:
1.分配任务执行参数
2.在Child临时文件中添加map任务信息(Child是运行Map和Reduce任务的主进程)
3.配置log文件夹,配置map任务的通信和输出参数
4.读取input split,生成RecordReader读取数据
5.为Map生成MapRunnable,依次从RecordReader中接收数据,并调用Map函数进行处理。
6.最后将map函数的输出调用collect收集到MapOutputBuffer(参数控制其大小)中。
Streaming和Pipes:
Streaming和Pipes都运行特殊的Map和Reduce任务,目的是运行用户提供的可执行程序并与之通信。
Streaming:使用标准输入输出Streaming与进程进行通信。
Pipes:用来监听套接字,会发送一个端口号给C++程序,两者便可建立链接。
进度和状态更新:
一个作业和它的任务都有状态(status),其中包括:运行成功失败状态、Map/Reduce进度、作业计数器值、状态消息。
状态消息与客户端的通信:
1.对于Map任务Progress的追踪:progress是已经处理完的输入所占的比例。
2.对于Reduce:稍复杂,reduce任务分三个阶段(每个阶段占1/3),复制、排序和Reduce处理,若reduce已执行一半的输入的话,那么任务进度便是1/3+1/3+1/6=5/6。
3.任务计数器:任务有一组计数器,负责对任务运行各个事件进行计数。
4.任务进度报告:如果任务报告了进度,便会设置一个标记以表明状态将被发送到tasktracker。有一个独立线程每隔三秒检查一次此标记,如果已设置,则告知tasktracker当前状态。
5.tasktracker进度报告:tasktracker会每隔5秒(这个心跳是由集群大小决定,集群越大时间会越长)发送heartbeat到jobtracker,并且tasktracker运行的所有状态都会在调用中被发送到jobtracker。
6.jobtracker合并各任务报告:产生一个表明所有运行作业机器所含任务状态的全局视图。
前面提到的JobClient就是通过每秒查询JobTracker来接收最新状态,而且客户端JobClient的getJob方法可以得到一个RunningJob的实例,其包含了作业的所以状态信息。
作业的完成:
当jobtracker收到作业最后一个任务已完成的通知后,便把作业状态设置成成功。JobClient查询状态时,便知道任务已成功完成,于是JobClient打印一条消息告知用户,然后从runJob方法返回。
如果jobtracker有相应设置,也会发送一个Http作业通知给客户端,希望收到回调指令的客户端可以通过job.end.notification.url属性来进行设置。
jobtracker情况作业的工作状态,指示tasktracker也清空作业的工作状态,如删除中间输出。
失败
实际情况下,用户的代码存在软件错误进程会崩溃,机器也会产生故障,但Hadoop能很好的应对这些故障并完成作业。
1.任务失败
子任务异常:如Map/Reduce任务中的用户代码抛出异常,子任务JVM进程会在退出前向父进程tasktracker发送错误报告,错误被记录用户日志。tasktracker会将此次task attempt标记为tailed,并释放这个任务槽运行另外一个任务。
子进程JVM突然退出:可能由于JVM bug导致用户代码造成的某些特殊原因导致JVM退出,这种情况下,tasktracker会注意到进程已经退出,并将此次尝试标记为failed。
任务挂起:一旦tasktracker注意一段时间没有收到进度更新,便会将任务标记为failed,JVM子进程将被自动杀死。任务失败间隔时间通常为10分钟,可以以作业或者集群为基础设置过期时间,参数为mapred.task.timeout。注意:如果参数值设置为0,则挂起的任务永远不会释放掉它的任务槽,随着时间的推移会降低整个集群的效率。
任务失败尝试次数:jobtracker得知一个tasktracker失败后,它会重新调度该任务执行,当然,jobtracker会尝试避免重新调度失败过的tasktracker任务。如果一个任务尝试次数超过4次,它将不再被重试。这个值是可以设置的,对于Map任务,参数是mapred.map.max.attempts,对于reduce任务,则由mapred.reduce.max.attempts属性控制。如果次数超过限制,整个作业都会失败。当然,有时我们不希望少数几个任务失败就终止运行的整个作业,因为即使有些任务失败,作业的一些结果可能还是有用的,这种情况下,可以为作业设置在不触发作业失败情况下的允许任务失败的最大百分比,Map任务和Reduce任务可以独立控制,参数为mapred.max.map.failures.percent 和mapred.max.reduce.failures.percent。
任务尝试中止(kill):任务终止和任务失败不同,task attempt可以中止是因为他是一个推测副本或因为它所处的tasktracker失败,导致jobtracker将它上面的所有task attempt标记为killed。被终止的task attempt不会被计入任务运行尝试次数,因为尝试中止并不是任务的错。
2.tasktracker失败
tasktracker由于崩溃或者运行过慢而失败,他将停止向jobtracker发送心跳(或很少发送心跳)。jobtracker注意已停止发送心跳的tasktracker(过期时间由参数mapred.tasktracker.expiry.interval设置,单位毫秒),并将它从等待调度的tasktracker池中移除。如果是未完成的作业,jobtracker会安排次tasktracker上已经运行成功的Map任务重新运行,因为此时reduce任务已无法访问(中间输出存放在失败的tasktracker的本地文件系统上)。
即使tasktracker没有失败,也有可能被jobtracker列入黑名单。如果tasktracker上面的失败任务数量远远高于集群的平均失败任务次数,他就会被列入黑名单,被列入黑名单的tasktracker可以通过重启从jobtracker黑名单中移除。
3.jobtracker失败
老版本的JobTracker失败属于单点故障,这种情况下作业注定失败。
作业调度:
早期作业调度FIFO:按作业提交顺序先进先出。可以设置优先级,通过设置mapred.job.priority属性或者JobClient的setJobPriority()方法制定优先级(优先级别:VERY_HIGH,HIGH,NORMAL,LOW,VERY_LOW)。注意FIFO调度算法不支持抢占(preemption),所以高优先级作业仍然会被那些已经开始的长时间运行的低优先级作业所阻塞。
Fair Scheduler:目标是让每个用户公平地共享集群能力。当集群存在很多作业时,空闲的任务槽会以”让每个用户共享集群“的方式进行分配。默认每个用户都有自己的作业池。FairScheduler支持抢占,所以,如果一个池在特定的一段时间未得到公平地资源共享,它会终止池中得到过多的资源任务,以便把任务槽让给资源不足的池。FairScheduler是一个后续模块,使用它需要将其jar文件放在Hadoop的类路径下。可以通过参数map.red.jobtracker.taskScheduler属性配置(值为org.apache.hadoop.mapred.FairScheduler)
Capacity Scheduler:
集群由很多队列组成,每个队列都有一个分配能力,这一点与FairScheduler类似,只不过在每个队列内部,作业根据FIFO方式进行调度。本质上说,Capacity Scheduler允许用户或组织为每个用户模拟一个独立使用FIFO的集群。
shuffle和排序:
MapReduce确保每个Reducer的输入都是按键排序的。系统执行排序的过程-将map输出作为输入传给reducer的过程称为shuffle。shuffle属于不断被优化和改进的代码库的一部分,从许多方面来看,shuffle是MapReduce的心脏。
整个shuffle的流程应该是这样:
map结果划分partition 排序sort 分割spill 合并同一划分 合并同一划分 合并结果排序 reduce处理 输出
Map端:
写入缓冲区:Map函数的输出,是由collector处理的,它并不是简单的将结果写到磁盘。它利用缓冲的方式写到内存,并处于效率的考虑进行预排序。每个map都有一个环形的内存缓冲区,用于任务输出,默认缓冲区大小为100MB(由参数io.sort.mb调整),一旦缓冲区内容达到阈值(默认0.8),后台进程边开始把内容写到磁盘(spill),在写磁盘过程中,map输出继续被写到缓冲区,但如果缓冲区被填满,map会阻塞知道写磁盘过程完成。写磁盘将按照轮询方式写到mapred.local.dir属性制定的作业特定子目录中。
写出缓冲区:collect将缓冲区的内容写出时,会调用sortAndSpill函数,这个函数作用主要是创建spill文件,按照key值对数据进行排序,按照划分将数据写入文件,如果配置了combiner类,会先调用combineAndSpill函数再写文件。sortAndSpill每被调用一次,就会写一个spill文件。
合并所有Map的spill文件:TaskTracker会在每个map任务结束后对所有map产生的spill文件进行merge,merge规则是根据分区将各个spill文件中数据同一分区中的数据合并在一起,并写入到一个已分区且排序的map输出文件中。待唯一的已分区且已排序的map输出文件写入最后一条记录后,map端的shuffle阶段就结束了。
在写磁盘前,线程首先根据数据最终要传递到的reducer把数据划分成响应的分区(partition),在每个分区中,后台线程按键进行内排序,如果有一个combiner,它会在排序后的输出上运行。
内存达到溢出写的阈值时,就会新建一个溢出写文件,因为map任务完成其最后一个输出记录之后,会有几个溢出写文件。在任务完成前,溢出写文件会被合并成一个已分区且已排序的输出文件。配置属性io.sort.facor控制一次最多能合并多少流,默认值是10。
如果已经指定combiner,并且写次数至少为3(通过min.mum.spills.for.combine设置)时,则combiner就会在输出文件写到磁盘之前运行。运行combiner的意义在于使map输出更紧凑,舍得写到本地磁盘和传给reducer的数据更少。
写磁盘时压缩:写磁盘时压缩会让写的速度更快,节约磁盘空间,并且减少传给reducer的数据量。默认情况下,输出是不压缩的,但可以通过设置mapred.compress.map.output值为true,就可以启用压缩。使用的压缩库是由mapred.map.output.compression.codec制定。
reducer获得文件分区的工作线程:reducer通过http方式得到输出文件的分区,用于文件分区的工作线程数量由tracker.http.threads属性指定,此设置针对的是每个tasktracker,而不是每个map任务槽。默认值为40,在大型集群上此值可以根据需要而增加。
Reduce端:
复制阶段:reduce会定期向JobTracker获取map的输出位置,一旦拿到输出位置,reduce就会从对应的TaskTracker上复制map输出到本地(如果map输出很小,则会被复制到TaskTracker节点的内存中,否则会被让如磁盘),而不会等到所有map任务结束(当然这个也有参数控制)。
合并阶段:从各个TaskTracker上复制的map输出文件(无论在磁盘还是内存)进行整合,并维持数据原来的顺序。
Reduce阶段:从合并的文件中顺序拿出一条数据进行reduce函数处理,然后将结果输出到本地HDFS。
Map的输出文件位于运行map任务的tasktracker的本地磁盘,现在,tasktracker要为分区文件运行reduce任务。每个任务完成时间可能不同,但是只要有一个任务完成,reduce任务就开始复制其输出,这就是reduce任务的复制阶段(copy phase)。reduce任务有少量复制线程,因此能够并行取得map输出。默认值是5个线程,可以通过mapred.reduce.parallel.copies属性设置。
Reducer如何得知从哪个tasktracker获得map输出:map任务完成后会通知其父tasktracker状态已更新,tasktracker进而通知(通过heart beat)jobtracker。因此,JobTracker就知道map输出和tasktracker之间的映射关系,reducer中的一个线程定期询问jobtracker以便获知map输出位置。由于reducer有可能失败,因此tasktracker并没有在第一个reducer检索到map输出时就立即从磁盘上删除它们,相反他会等待jobtracker告示它可以删除map输出时才删除,这是作业完成后最后执行的。
如果map输出很小,则会被直接复制到reduce tasktracker的内存缓冲区(大小由mapred.job.shuffle.input.buffer.percent控制,占堆空间的百分比),否则,map输出被复制到磁盘。一旦内存缓冲区达到阈值大小(由mapred.iob.shuffle.merge.percent)
或达到map输出阈值大小(mapred.inmem.threadhold),则合并后溢出写到磁盘中。
随着磁盘上副本增多,后台线程会将他们合并为更大的、排好序的文件。注意:为了合并,压缩的map输出必须在内存中被解压缩。
排序阶段:复制阶段完成后,reduce任务会进入排序阶段,更确切的说是合并阶段,这个阶段将合并map输出,维持其顺序排列。合并是循环进行的,由合并因子决定每次合并的输出文件数量。但让有可能会产生中间文件。
reduce阶段:在最后reduce阶段,会直接把排序好的文件输入reduce函数,不会对中间文件进行再合并,最后的合并即可来自内存,也可来自磁盘。此阶段的输出会直接写到文件系统,一般为hdfs。
细节:这里合并是并非平均合并,比如有40个文件,合并因子为10,我们并不是每趟合并10个,合并四趟。而是第一趟合并4个,后三趟合并10,在最后一趟中4个已合并的文件和余下6个未合并会直接并入reduce。