2010-07-12 14 views
9

Düzgün olarak, uzak kaynak bir yerel sunucuya okumak ve sonra S3 sunucuları üzerinde PUT zorunda kalmadan mümkün mü? Yani bir anlamda Sadece bir URL sağlayarak S3'e yüklemek mümkün mü?

yerine iletim bu gibi bakarak:

S3<--(PUT DATA)--LOCAL<--(REQUEST DATA)--REMOTE_URL 

böyle bakıyor biter.

S3<--(PUT DATA BY URL)--LOCAL 

S3<--(REQUEST DATA)--REMOTE_URL 
+0

Başkalarının bunu Google üzerinden bulması durumunda, siz * bunu * Azure üzerinden yapabilirsin: [Kopyalama Blobunu kullanarak Amazon S3'ten bir nesneyi Windows Azure Blob Depolama'ya Kopyalama] (http://gauravmantri.com)/2012/06/14/how-to-kopya-an-nesne-den-amazon-s3-to-pencere-lacivert-blob-depolama-kullanarak kopya-damla /) – Richard

cevap

7

Mümkün değil.

Amazon, S3 için bir çekme hizmeti sunmuyor ve ben de reklam veren başka birini görmedim. (Ancak bu, korkunç bir iş fikri değildir.)

Bu söylendiği gibi, bu konuda yardımcı olacak bir sürü araç var!

Birçok kişi, s3fs gibi sık kullanılan yedekleme yardımcı programıyla (örneğin, cron + rsync) bir şey kullanır.

Son zamanlarda, boto ve bazı özel Python komut dosyaları ile büyük bir başarı elde ettik. Bunu sevmemin nedeni, kutuda çalıştırdığınız diğer hizmetler ile güzel bir şekilde bütünleşmesi ve durum güncellemeleri vermesidir.

Bir EC2 örneğini başlatan, SSH aracılığıyla bağlanan bir kabuk komut dosyası yazdım, EC2 kutusunun bir FTP sitesinden yerel diske veri indirme ve ardından yeni verileri S3'e yükleme.

İlgili konular