5

Dağıtım için elimde bir GPU var, ancak birden fazla modelin dağıtılması gerekiyor. Tüm GPU belleği ilk dağıtılan modele ayırmak istemiyorum çünkü daha sonra benim sonraki modelleri kullanamıyorum. Eğitim sırasında, bu gpu_memory_fraction parametresi kullanılarak kontrol edilebilir.Tensorflow sunum: Her model için bir GPU bellek payı kullanma

tensorflow_model_server --port=9000 --model_name=<name of model> --model_base_path=<path where exported models are stored &> <log file path>

Ben gpu bellek ayırmayı kontrol etmek ayarlayabileceğiniz bir bayrak var mı - benim modeli dağıtmak için aşağıdaki komutu kullanıyorum?

Teşekkür

+1

Does [bu] (https://stackoverflow.com/questions/34199233/how-to-prevent-tensorflow-from-allocating- bayrağı per_process_gpu_memory_fraction ayarlamalarına izin Sunumu Bir bütünlük-bir-gpu-bellek? rq = 1) yardım? – Imran

+1

@Imran Hayır, benim sorgu tensorflow hizmet içinde bellek ayırma ile ilgili. – dragster

+0

Burada açık bir hata bulabilirsiniz https://github.com/tensorflow/serving/issues/249. TLDR; Bir seçenek yok gibi görünmüyor ve seçeneği el ile değiştirmek ve ben bağlanmış post içinde açıklandığı gibi ikili yeniden derleyin. – rajat

cevap