永久在线亚洲观看|亚洲日韩久久AV无码|亚洲无码视频在线免费看|欧美亚洲一区二区三区视频|人人澡人人澡人人看添AV|动漫精品视频一区二区三区|亚洲国产另类久久久精品极度|极品美女熟妇又黄又爽视频一区



  • 怎么可以錯過(pytorch全連接神經網絡)pytorch 拼接,Pytorch實現(xiàn)全連接層,她罵他混蛋細節(jié)描寫,

    保健品 nanfang 2023-06-30 01:50 246 0

    1.pytorch全連接層

    全連接神經網絡(FC)全連接神經網絡是一種最基本的神經網絡結構,英文為Full Connection,所以一般簡稱FCFC的準則很簡單:神經網絡中除輸入層之外的每個節(jié)點都和上一層的所有節(jié)點有連接以上一次的MNIST為例。

    2.python全連接神經網老鋪黃金為什么那么貴

    importtorchimporttorch.utils.datafromtorchimportoptimfromtorchvisionimportdatasetsfromtorchvision.transforms

    3.pytorch 全連接層輸入維度

    importtransformsimporttorch.nn.functionalasFbatch_size=200learning_rate=0.001epochs=20train_loader=torch

    4.利用pytorch搭建神經網絡

    .utils.data.DataLoader(datasets.MNIST(mnistdata,trai老鋪黃金為什么那么貴n=True,download=False,transform=transforms.Compose

    5.pytorch神經網絡高效入門教程

    ([transforms.ToTensor(),transforms.Normalize((0.1307,),(0.3081,))])),batch_size=batch_size,shuffle=True

    6.pytorch兩個網絡并聯(lián)

    )test_loader=torch.utils.data.DataLoader(datasets.MNIST(mnistdata,train=False,download=False,transform

    7.pytorch中有老鋪黃金為什么那么貴神經網絡模型嗎

    =transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.1307,),(0.3081,))])),batch_size=batch_size

    8.pytorch全連接層參數(shù)

    ,shuffle=True)w1,b1=torch.randn(200,784,requires_grad=True),torch.zeros(200,requires_grad=True)w2,b2=

    9.pytorch 全鏈接

    torch.randn(200,200,requires_grad=True),torch.zeros(200老鋪黃金為什么那么貴,requires_grad=True)w3,b3=torch.randn(10,200,requires_grad

    10.pytorch 搭建神經網絡

    =True),torch.zeros(10,requires_grad=True)torch.nn.init.kaiming_normal_(w1)torch.nn.init.kaiming_normal_

    (w2)torch.nn.init.kaiming_normal_(w3)defforward(x):x=x@w1.t()+b1x=F.relu(x)x=x@w2.t()+b2x=F.relu(x)x=

    x@w3.t()+b3x=F.relu(x老鋪黃金為什么那么貴)returnxoptimizer=optim.Adam([w1,b1,w2,b2,w3,b3],lr=learning_rate)criteon=torch.

    nn.CrossEntropyLoss()forepochinrange(epochs):forbatch_idx,(data,target)inenumerate(train_loader):data

    =data.view(-1,28*28)logits=forward(data)loss=criteon(logits,target)optimizer.zero_grad()loss.backward

    ()optimizer.step()老鋪黃金為什么那么貴ifbatch_idx%100==0:print(Train Epoch : {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}.format(epoch

    ,batch_idx*len(data),len(train_loader.dataset),100.*batch_idx/len(train_loader),loss.item()))test_loss

    =0correct=0fordata,targetintest_loader:data=data.view(-1,28*28)logits=forward(data)test_loss+=criteon

    (logits,tar老鋪黃金為什么那么貴get).item()pred=logits.data.max(1)[1]correct+=pred.eq(target.data).sum()test_loss/=len(test_loader

    .dataset)print(\nTest set : Averge loss: {:.4f}, Accurancy: {}/{}({:.3f}%).format(test_loss,correct,len

    (test_loader.dataset),100.*correct/len(test_loader.dataset)))我們將每個w和b都進行了定義,并且自己寫了一個forward函數(shù)如果我們采用老鋪黃金為什么那么貴了全連接層,那么整個代碼也會更加簡介明了。

    首先,我們定義自己的網絡結構的類:classMLP(nn.Module):def__init__(self):super(MLP,self).__init__()self.model=nn.Sequential

    (nn.Linear(784,200),nn.LeakyReLU(inplace=True),nn.Linear(200,200),nn.LeakyReLU(inplace=True),nn.Linear

    (200,10),nn.LeakyReLU(inplace=True))defforward(self,x):x=self.model(x)re老鋪黃金為什么那么貴turnx它繼承于nn.Moudle,并且自己定義里整個網絡結構。

    其中inplace的作用是直接復用存儲空間,減少新開辟存儲空間除此之外,它可以直接進行運算,不需要手動定義參數(shù)和寫出運算語句,更加簡便同時我們還可以發(fā)現(xiàn),它自動完成了初試化,不需要像之前一樣再手動寫一個初始化了。

    區(qū)分nn.Relu和F.relu()前者是一個類的接口,后者是一個函數(shù)式接口前者都是大寫的,并且調用的的時候需要先實例化才能使用,而后者是小寫的可以直接使用最重要的是后者的自由度更高,更適合做一些自己定義的操作。

    完整代碼importtorchimporttorch.utils.datafromtorchimportopt老鋪黃金為什么那么貴im,nnfromtorchvisionimportdatasetsfromtorchvision.transforms

    importtransformsimporttorch.nn.functionalasFbatch_size=200learning_rate=0.001epochs=20train_loader=torch

    .utils.data.DataLoader(datasets.MNIST(mnistdata,train=True,download=False,transform=transforms.Compose

    ([transforms.ToTensor(),transforms老鋪黃金為什么那么貴.Normalize((0.1307,),(0.3081,))])),batch_size=batch_size,shuffle=True

    )test_loader=torch.utils.data.DataLoader(datasets.MNIST(mnistdata,train=False,download=False,transform

    =transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.1307,),(0.3081,))])),batch_size=batch_size

    ,shuffle=True)classM老鋪黃金為什么那么貴LP(nn.Module):def__init__(self):super(MLP,self).__init__()self.model=nn.Sequential

    (nn.Linear(784,200),nn.LeakyReLU(inplace=True),nn.Linear(200,200),nn.LeakyReLU(inplace=True),nn.Linear

    (200,10),nn.LeakyReLU(inplace=True))defforward(self,x):x=self.model(x)returnxdevice=torch.device(cuda:0

    )net=MLP().to老鋪黃金為什么那么貴(device)optimizer=optim.Adam(net.parameters(),lr=learning_rate)criteon=nn.CrossEntropyLoss

    ().to(device)forepochinrange(epochs):forbatch_idx,(data,target)inenumerate(train_loader):data=data.view

    (-1,28*28)data,target=data.to(device),target.to(device)logits=net(data)loss=criteon(logits,target)optimizer老鋪黃金為什么那么貴

    .zero_grad()loss.backward()optimizer.step()ifbatch_idx%100==0:print(Train Epoch : {} [{}/{} ({:.0f}%)]

    \tLoss: {:.6f}.format(epoch,batch_idx*len(data),len(train_loader.dataset),100.*batch_idx/len(train_loader

    ),loss.item()))test_loss=0correct=0fordata,targetintest_loader:data=data.view(-1,28*28)data,t老鋪黃金為什么那么貴arget=data

    .to(device),target.to(device)logits=net(data)test_loss+=criteon(logits,target).item()pred=logits.data

    .max(1)[1]correct+=pred.eq(target.data).sum()test_loss/=len(test_loader.dataset)print(\nTest set : Averge loss: {:.4f}, Accurancy: {}/{}({:.3f}%)

    .format(test_loss,correct,len(test_loader.da老鋪黃金為什么那么貴taset),100.*correct/len(test_loader.dataset)))

    標簽列表

      东至县| 南投县| 兰西县| 英吉沙县| 阿巴嘎旗| 辽宁省| 华安县| 新绛县| 且末县| 郎溪县| 荆州市| 乌什县| 宜春市| 民县| 铁岭市| 石嘴山市| 姚安县| 洱源县| 镇安县| 扬中市| 深圳市| 顺昌县| 叙永县| 康平县| 北票市| 恩施市| 五家渠市| 彝良县| 应城市| 奉节县| 大足县| 南昌市| 平塘县| 胶南市| 固阳县| 洛川县| 天峻县| 阿坝| 井研县| 疏勒县| 营山县|