2013-01-12 8 views
8

çalıştırmak nutch oluşturmak için denemek ve ben herhangi nutch komutunuyetersiz alan ı geçtim 3 hafta boyunca nutch emekleme komutları çalışan edilmiştir komutunu

Java HotSpot(TM) 64-Bit Server VM warning: Insufficient space for shared memory file: /tmp/hsperfdata_user/27050 Try using the -Djava.io.tmpdir= option to select an alternate temp location.

Error: Could not find or load main class ___.tmp.hsperfdata_user.27055

çalıştırmayı denediğinizde şimdi aşağıda hatayı alıyorum

Bu sorunu nasıl çözebilirim ??

+0

Sabit diskinizde ne kadar boş alan kalıyor? – duskwuff

+0

Bunu nasıl kontrol ederim? – peter

+0

En kolay yol 'df' komutunu çalıştırmaktır. "% Kullanın" (bazen "kapasite%") sütununun altına bakın. – duskwuff

cevap

7

Kullanılan geçici konumun dolu olduğunu düşünüyorum. Başka bir yer kullanmayı deneyin. Ayrıca, her bölümdeki #inode'ları ücretsiz olarak kontrol edin ve biraz boşluk bırakın.

EDIT: OS düzeyinde/tmp'yi değiştirmeye gerek yoktur. Tempo dosyalarını saklamak için başka bir konum kullanmak için Hollanda ve hadoop istiyoruz. Bunu yapmak için şuna bakın: What should be hadoop.tmp.dir ?

+0

geçici konumu nasıl değiştirilir? Ayrıca inode sayısını kontrol edip alanı nasıl temizleyeceğimi bilmiyorum. – peter

+2

Endişelenme adamım. Komutu almak için sadece google onu. Eğer geeky değilseniz, en güvenli seçenek/tmp gelen tüm dosyaları kapatmak için nutch süreci çalışan kullanıcı ve uzun geri yaratılmış olacak ... 24 saat önce gibi. –

+0

/tmp/hadoop-user/mapred/local/taskTracker/user/folder içinde neredeyse 3gb veri var bu klasörün içeriğini güvenle silebilir miyim? Hollandalı taramayı etkilemeyecek mi? Ben mysql ile nutch 2.1 kullanıyorum./Tmp/hadoop-user/mapred/staging/klasöründeki dosyaları da silebilir miyim? – peter

5

Bu gerçekten/tmp'nizin bağlı olduğu birimdeki boş alanla ilgili bir sorun. Bunu EC2'de veya herhangi bir bulut platformunda çalıştırıyorsanız, yeni bir birim ekleyin ve/tmp'inizi buna takın. Yerel olarak çalışıyorsanız, daha fazla yer açmak için temizlik dışında başka seçenek yok. gibi

deneyin komutları: df -h örneğine üzerine monte her birimde kullanılan ve kullanılabilir alan% görmeye. Bu dökümü gösterilen disk alanı dolduğunda bu hatayı görmeye başlayacak

Filesystem   Size Used Avail Use% Mounted on 
/dev/xvda1   7.9G 7.9G  0 100%/
tmpfs     30G  0 30G 0% /dev/shm 
/dev/xvda3    35G 1.9G 31G 6% /var 
/dev/xvda4    50G 44G 3.8G 92% /opt 
/dev/xvdb    827G 116G 669G 15% /data/1 
/dev/xvdc    827G 152G 634G 20% /data/2 
/dev/xvdd    827G 149G 637G 19% /data/3 
/dev/xvde    827G 150G 636G 20% /data/4 
cm_processes   30G 22M 30G 1% /var/run/cloudera-scm-agent/process 

: Bir şey gibi göreceksiniz.

İlgili konular