2016-04-04 10 views
0

Hadoop'ta put komutunu nasıl yapılandırabilirim, böylece yürütme süresini gösterir?hadoop: put komutunun yürütme süresini nasıl gösterir? Veya Yükün süresini bir dosyada nasıl gösteririm?

Çünkü bu komut:

hadoop fs -put table.txt /tables/table 

sadece bu döndürüyor:

16/04/04 01:44:47 WARN util.NativeCodeLoader: 
Unable to load native-hadoop library for your platform... using  
builtin-java classes where applicable 

komutu çalışır, ancak herhangi bir yürütme zamanı göstermez. Komutun yürütme süresini göstermesinin mümkün olup olmadığını biliyor musunuz? Ya da bu bilgiyi elde etmenin başka bir yolu var mı? Benim Anlama, Hadoop fs komutu Başına

cevap

1

yürütme süresi gibi herhangi ayıklama bilgi vermez, ancak iki şekilde yürütme zamanı alabilirsiniz:

  1. Bash yolu:start=$(date +'%s') && hadoop fs -put visit-sequences.csv /user/hadoop/temp && echo "It took $(($(date +'%s') - $start)) seconds"

  2. Günlük dosyasından: Yürütülen komutla ilgili ayrıntıları, dosya boyutu, çoğaltma vb. Gibi tüm ayrıntıları listeleyen adenode günlük dosyasını kontrol edebilirsiniz.

örn. Bu komutu hadoop fs -put visit-sequences.csv /user/hadoop/temp denedim ve günlük dosyasına, işlemi gerçekleştirmek için belirli günlüklere sahip oldum.

2016-04-04 20:30:00,097 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Roll Edit Log from 127.0.0.1 
2016-04-04 20:30:00,097 INFO org.apache.hadoop.hdfs.server.namenode.FSEditLog: Rolling edit logs 
2016-04-04 20:30:00,097 INFO org.apache.hadoop.hdfs.server.namenode.FSEditLog: Ending log segment 38 
2016-04-04 20:30:00,097 INFO org.apache.hadoop.hdfs.server.namenode.FSEditLog: Number of transactions: 2 Total time for transactions(ms): 1 Number of transactions batched in Syncs: 0 Number of syncs: 2 SyncTimes(ms): 75 
2016-04-04 20:30:00,118 INFO org.apache.hadoop.hdfs.server.namenode.FSEditLog: Number of transactions: 2 Total time for transactions(ms): 1 Number of transactions batched in Syncs: 0 Number of syncs: 3 SyncTimes(ms): 95 
2016-04-04 20:30:00,120 INFO org.apache.hadoop.hdfs.server.namenode.FileJournalManager: Finalizing edits file /data/misc/hadoop/store/hdfs/namenode/current/edits_inprogress_0000000000000000038 -> /data/misc/hadoop/store/hdfs/namenode/current/edits_0000000000000000038-0000000000000000039 
2016-04-04 20:30:00,120 INFO org.apache.hadoop.hdfs.server.namenode.FSEditLog: Starting log segment at 40 
2016-04-04 20:30:01,781 INFO org.apache.hadoop.hdfs.server.namenode.TransferFsImage: Transfer took 0.06s at 15.63 KB/s 
2016-04-04 20:30:01,781 INFO org.apache.hadoop.hdfs.server.namenode.TransferFsImage: Downloaded file fsimage.ckpt_0000000000000000039 size 1177 bytes. 
2016-04-04 20:30:01,830 INFO org.apache.hadoop.hdfs.server.namenode.NNStorageRetentionManager: Going to retain 2 images with txid >= 0 
2016-04-04 20:30:56,252 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* allocate blk_1073741829_1005{UCState=UNDER_CONSTRUCTION, truncateBlock=null, primaryNodeIndex=-1, replicas=[ReplicaUC[[DISK]DS-1b928386-65b9-4438-a781-b154cdb9a579:NORMAL:127.0.0.1:50010|RBW]]} for /user/hadoop/temp/visit-sequences.csv._COPYING_ 
2016-04-04 20:30:56,532 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: BLOCK* blk_1073741829_1005{UCState=COMMITTED, truncateBlock=null, primaryNodeIndex=-1, replicas=[ReplicaUC[[DISK]DS-1b928386-65b9-4438-a781-b154cdb9a579:NORMAL:127.0.0.1:50010|RBW]]} is not COMPLETE (ucState = COMMITTED, replication# = 0 < minimum = 1) in file /user/hadoop/temp/visit-sequences.csv._COPYING_ 
2016-04-04 20:30:56,533 INFO org.apache.hadoop.hdfs.server.namenode.EditLogFileOutputStream: Nothing to flush 
2016-04-04 20:30:56,548 INFO BlockStateChange: BLOCK* addStoredBlock: blockMap updated: 127.0.0.1:50010 is added to blk_1073741829_1005{UCState=COMMITTED, truncateBlock=null, primaryNodeIndex=-1, replicas=[ReplicaUC[[DISK]DS-1b928386-65b9-4438-a781-b154cdb9a579:NORMAL:127.0.0.1:50010|RBW]]} size 742875 
2016-04-04 20:30:56,957 INFO org.apache.hadoop.hdfs.StateChange: DIR* completeFile: /user/hadoop/temp/visit-sequences.csv._COPYING_ is closed by DFSClient_NONMAPREDUCE_1242172231_1  
+0

Cevabınız için teşekkür ederiz. Bu günlük dosyasını nerede kontrol edeceksin? Adenode url'de bulamıyorum! Ana düğümde – codin

+1

, _ [HADOOP_HOME]/logs/hadoop- [USERNAME] -namenode- [HOSTNAME] .log_ – Mahendra

+0

Teşekkürler! Yani transferde görünen zaman 0,06 doğru aldı? – codin

İlgili konular