2020-10-01から1ヶ月間の記事一覧
train_on_batch(x,y) バッチサイズ分のデータを使って一回重みを更新する。 xはinput data, yはtarget data.(与えられる正解ラベル 教師) Returnsは重み更新後のネットワークの出力とラベルから計算される損失関数の値とmodel.complile()のときに指定されたm…
Generator->Discriminatorと接続されている github.com d_lossはdiscriminator.train_on_batch()を用いてdiscriminatorの損失関数を計算する g_lossはGenerator->Discriminatorと接続したネットワーク(gan)に対してgan.train_on_batch()を利用して計算する。…
symbolic Tensorとは特定の値を保持していないTensorのことらしい データを流す前のモデルのイメージ?
train accuracies = [] losses = [] def train(iterations, batch_size, sample_interval): # Load the MNIST dataset (X_train, y_train), (_, _) = mnist.load_data() # Rescale [0, 255] grayscale pixel values to [-1, 1] X_train = X_train / 127.5 - …
tf.KerasのSequential APIでインデックスをone-hot表現に変換するlayerに変換する githubで記事を見つけたので日本語で解説する まず、この実装のAPIのもととなったEmbedding layerの引数について Embedding(input_dim,output_dim,input_length=None) これら…
tf.keras.layers.Denseについて Denseの挙動 import tensorflow as tf test_layer = tf.keras.layers.Dense(10) test_layer(tf.zeros([3, 5])) このコードだと、test_layerの挙動は input: <tf.Tensor: shape=(2, 5), dtype=float32, numpy= array([[0., 0., 0., 0., 0.], [0., 0., 0., 0., 0.]], dtype=float32)> output: </tf.tensor:>
GPUが使用可能であるかどうかを確認する print(tf.config.experimental.list_physical_devices("GPU")) Numpy配列とtf.tensorの違い tensorはGPUに乗せられる。 tensorは変更不可 tf.data:TensorFlow入力パイプラインを構築する 分散ファイルシステムとは 複…