5

Tek bir eğitim verisi dosyası, yaklaşık 100K satır var ve her bir eğitim adımında basit bir tf.train.GradientDescentOptimizer çalıştırıyorum. Kurulum esas olarak doğrudan Tensorflow'un MNIST örneğinden alınmıştır. Kod aşağıda oluşturulan:Tensorflow anlayışı tf.train.shuffle_batch

x = tf.placeholder(tf.float32, [None, 21]) 
W = tf.Variable(tf.zeros([21, 2])) 
b = tf.Variable(tf.zeros([2])) 
y = tf.nn.softmax(tf.matmul(x, W) + b) 

y_ = tf.placeholder(tf.float32, [None, 2]) 
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1])) 
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) 
, ben csv satırları okumak için tf.train.string_input_producer ve tf.decode_csv kullanıyorum ben bir dosyadan eğitim verileri okuyorum göz önüne alındığında

ve sonra tf.train.shuffle_batch ben o andan yetiştirmek toplu oluşturun.

Parametrelerimin tf.train.shuffle_batch için ne olması gerektiği konusunda kafam karıştı. Tensorflow'un belgelerini okudum, ancak hala "optimal" batch_size, kapasite ve min_after_dequeue değerlerinin ne olduğundan emin değilim. Bu parametreler için uygun değerler seçmeye nasıl başladığımı ya da daha fazla bilgi edinebileceğim bir kaynağa bağladığım konusunda kimbilir yardımcı olabilir mi? https://www.tensorflow.org/versions/r0.9/api_docs/python/io_ops.html#shuffle_batch

cevap

2

Ne yazık ki, basit olduğunu sanmıyorum

https://www.tensorflow.org/versions/r0.9/how_tos/reading_data/index.html#batching

kullanmak için iplik sayısı hakkında biraz vardır: Thanks--

İşte API bağlantı var parti boyutları için cevap. Bir ağ için verimli parti boyutu, ağ hakkında bir çok ayrıntıya bağlıdır. Pratikte, en iyi performansı önemsiyorsanız, bir dizi deneme ve hata yapmanız gerekecektir (benzer bir ağ tarafından kullanılan değerlerden 'dan başlayarak).