Bom dia! Estou aprendendo tensorflow e surgiu uma dúvida sobre o uso de tensores do tipo placeholder para armazenar as variáveis preditivas.
Pelo que eu entendo o que justifica o uso de tensores do tipo placeholder é quando precisamos armazenas matrizes que irão mudar o tamanho do shape ao longo do processo de treinamento.
Contudo, é uma prática comum usar epochs e o batch_size para que o processo de treinamento do modelo seja feita por lote. por exemplo: se temos um amostra de 10.000 e um batchsize de 500 e 10 epochs; para cada época será processado lotes de 500 em 500 amostras até que 10.000 sejam processadas.
Bem, se eu tenho um tamanho fixo que é meu batch_size para que eu preciso usar o x = tf.placeholder(tf.float32, {None, n_entrada})?
Agradeço a ajuda previamente
Ainda não há respostas para essa pergunta.