2020-10-01から1ヶ月間の記事一覧

tf.keras.Model.train_on_batch()

train_on_batch(x,y) バッチサイズ分のデータを使って一回重みを更新する。 xはinput data, yはtarget data.(与えられる正解ラベル 教師) Returnsは重み更新後のネットワークの出力とラベルから計算される損失関数の値とmodel.complile()のときに指定されたm…

GANの損失関数

Conditional GANの実装について

Generator->Discriminatorと接続されている github.com d_lossはdiscriminator.train_on_batch()を用いてdiscriminatorの損失関数を計算する g_lossはGenerator->Discriminatorと接続したネットワーク(gan)に対してgan.train_on_batch()を利用して計算する。…

TensorFlowのsymbolic Tensor

symbolic Tensorとは特定の値を保持していないTensorのことらしい データを流す前のモデルのイメージ?

GANs in Action Chapter8 Trainingのコードを読む

train accuracies = [] losses = [] def train(iterations, batch_size, sample_interval): # Load the MNIST dataset (X_train, y_train), (_, _) = mnist.load_data() # Rescale [0, 255] grayscale pixel values to [-1, 1] X_train = X_train / 127.5 - …

One-Hot layer in Keras's Sequential API 解説

tf.KerasのSequential APIでインデックスをone-hot表現に変換するlayerに変換する githubで記事を見つけたので日本語で解説する まず、この実装のAPIのもととなったEmbedding layerの引数について Embedding(input_dim,output_dim,input_length=None) これら…

Tensorflow入門 カスタムレイヤー

tf.keras.layers.Denseについて Denseの挙動 import tensorflow as tf test_layer = tf.keras.layers.Dense(10) test_layer(tf.zeros([3, 5])) このコードだと、test_layerの挙動は input: <tf.Tensor: shape=(2, 5), dtype=float32, numpy= array([[0., 0., 0., 0., 0.], [0., 0., 0., 0., 0.]], dtype=float32)> output: </tf.tensor:>

Tensorflow入門 テンソルと演算

GPUが使用可能であるかどうかを確認する print(tf.config.experimental.list_physical_devices("GPU")) Numpy配列とtf.tensorの違い tensorはGPUに乗せられる。 tensorは変更不可 tf.data:TensorFlow入力パイプラインを構築する 分散ファイルシステムとは 複…