Mein MATLAB Forum - goMatlab.de

Mein MATLAB Forum

 
Gast > Registrieren       Autologin?   
Bücher:

Studierende:
Praktikant Toolentwicklung Matlab (m/w)
Branche: Beratung, Expertise, Fahrzeugtechnik, Fahrzeugteile, Technische Dienstleistungen
MBtech Group GmbH & Co. KGaA - Fellbach

Abschlussarbeit / Praktikum: Entwicklung Matlab (m/w)
Branche: Informationstechnologie, Elektrotechnik, Elektronik
GIGATRONIK Technologies GmbH - Ulm

Studentischer Mitarbeiter (m/w) - DevOps / Toolentwicklung
Branche: mehrere
IAV GmbH - Ingenieurgesellschaft Auto und Verkehr - Berlin

Praktikant (m/w) Bereich Konzernvorausentwicklung - Aktoren sicherheitsrelevanter Anwendungen
Branche: Fahrzeugtechnik, Fahrzeugteile, Maschinentechnik, Industrietechnik
MAHLE International GmbH - Stuttgart

Praktikum - Softwareentwicklung Java
Branche: mehrere
IAV GmbH - Ingenieurgesellschaft Auto und Verkehr - Dresden, Gifhorn

weitere Angebote

Partner:


Vermarktungspartner


Forum
      Option
[Erweitert]
  • Diese Seite per Mail weiterempfehlen
     


Gehe zu:  
Neues Thema eröffnen Neue Antwort erstellen

Neuronales Netz - Backpropagation

 

Shat

Gast


Beiträge: ---
Anmeldedatum: ---
Wohnort: ---
Version: ---
     Beitrag Verfasst am: 19.10.2017, 15:42     Titel: Neuronales Netz - Backpropagation
  Antworten mit Zitat      
Hallo,
ich arbeite mich gerade in Neuronale Netze ein und versuche eine einfache Gerade mit dem Backpropagation Algorithmus anzulernen. Nun habe ich das Problem, dass ich genau diese Gerade nicht angelernt bekomme. Ich kriege zwar mal bessere und mal schlechtere Ergebnisse wenn ich an meinem Lernkoeffizienten oder den Startwerten der Gewichte rumspiele, nur ist das für mich nicht zielführend. Demnach bin ich derzeitig etwas unsicher ob lediglich die oben genannten Parameter falsch dimensioniert sind oder sich ein Fehler im Code eingeschlichen hat.

Code:
close all;
clear variables;

%--------------------------------------------------------------------------
                            %Single Layer Perzeptron
%--------------------------------------------------------------------------

InputNeuronen = 1;
HiddenNeuronen = 7;
OutputNeuronen = 1;
Lernkoeffizient = 0.1;
EingangsVektor = [0,0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9];
[s1,s2] = size(EingangsVektor);
AusgangsVektor = ones(1,s2);
GewichtsmatrixInputHiddenInit = random('Normal',0,0.3,InputNeuronen,HiddenNeuronen);
GewichtsmatrixHiddenOutputInit = random('Normal',0,0.03,HiddenNeuronen,OutputNeuronen);
Lernvorgaenge = 161;

GewichtsmatrixInputHidden = GewichtsmatrixInputHiddenInit;
GewichtsmatrixHiddenOutput = GewichtsmatrixHiddenOutputInit;
EingangHiddenLayer = zeros(InputNeuronen,HiddenNeuronen);
AusgangHiddenLayer = zeros(InputNeuronen,HiddenNeuronen);
HiddenLayerEingangAbleitung = zeros(InputNeuronen,HiddenNeuronen);
EingangOutputLayer = zeros(OutputNeuronen,1);
AusgangOutputLayer = zeros(OutputNeuronen,1);
OutputLayerEingangAbleitung = zeros(OutputNeuronen,1);
SigmaOutput = zeros(OutputNeuronen,1);
SigmaHidden = zeros(HiddenNeuronen,1);
Error = 0;
ErrorTotal = zeros(Lernvorgaenge,1);
DeltaMatrixOutputGesamt = 0;
DeltaMatrixHiddenGesamt = 0;
summe = 0;

for i=1:1:size(EingangsVektor')
    AusgangsVektor(i) = EingangsVektor(i) + random('Normal',0,0.0075);
end

for g=1:1:Lernvorgaenge         %Anzahl der Lerndurchgänge
    %Zuruekcsetzen aller Variablen zu begin eines Lerndurchgangs
    EingangHiddenLayer = zeros(InputNeuronen,HiddenNeuronen);
    AusgangHiddenLayer = zeros(InputNeuronen,HiddenNeuronen);
    HiddenLayerEingangAbleitung = zeros(InputNeuronen,HiddenNeuronen);
    EingangOutputLayer = zeros(OutputNeuronen,1);
    AusgangOutputLayer = zeros(OutputNeuronen,1);
    OutputLayerEingangAbleitung = zeros(OutputNeuronen,1);
    SigmaOutput = zeros(OutputNeuronen,1);
    SigmaHidden = zeros(HiddenNeuronen,1);
    DeltaMatrixOutputGesamt = 0;
    DeltaMatrixHiddenGesamt = 0;
    summe = 0;
   
    for k=1:1:size(EingangsVektor')
    %--------------------------------------------------------------------------
                                %Vorwärts
    %--------------------------------------------------------------------------

        for i=1:1:HiddenNeuronen    
            for j=1:1:InputNeuronen  
                EingangHiddenLayer(i) = EingangHiddenLayer(i) + EingangsVektor(k) * GewichtsmatrixInputHidden(j,i);
            end
            AusgangHiddenLayer(i) = 1 / ( 1 + exp(-EingangHiddenLayer(i)) ) ; % Sigmoid Aktivierungsfunktion
            HiddenLayerEingangAbleitung(i) = AusgangHiddenLayer(i) * (1 - AusgangHiddenLayer(i));
        end

        for i=1:1:OutputNeuronen    
            for j=1:1:HiddenNeuronen  
                EingangOutputLayer(i) = EingangOutputLayer(i) + AusgangHiddenLayer(j) * GewichtsmatrixHiddenOutput(j,i);
            end
            AusgangOutputLayer(i,k) = 1 / ( 1 + exp(-EingangOutputLayer(i)) ); % Sigmoid Aktivierungsfunktion
            OutputLayerEingangAbleitung(i,k) = AusgangOutputLayer(i,k) * (1 - AusgangOutputLayer(i,k));
        end

    %--------------------------------------------------------------------------
                                %Rückwärts
    %--------------------------------------------------------------------------

        for i=1:1:OutputNeuronen  
            Error = (EingangsVektor(k) - AusgangOutputLayer(i,k));
            ErrorTotal(g) = ErrorTotal(g) + Error;
            SigmaOutput(i,k) = OutputLayerEingangAbleitung(i,k) * Error;
        end
        DeltaMatrixOutput = Lernkoeffizient * SigmaOutput(k) * AusgangHiddenLayer;
        DeltaMatrixOutputGesamt = DeltaMatrixOutputGesamt + DeltaMatrixOutput;
       
        for i=1:1:HiddenNeuronen
           for j=1:1:OutputNeuronen
              summe = summe + SigmaOutput(j,k) * GewichtsmatrixInputHidden(j,i);
           end
           SigmaHidden(i) = HiddenLayerEingangAbleitung(i) * summe;
        end    
        DeltaMatrixHidden = Lernkoeffizient * SigmaHidden * EingangsVektor(k);
        DeltaMatrixHiddenGesamt = DeltaMatrixHiddenGesamt + DeltaMatrixHidden;
    end
   
    %--------------------------------------------------------------------------
                                %Aktualisieren
    %--------------------------------------------------------------------------
   
        GewichtsmatrixInputHidden = GewichtsmatrixInputHidden + DeltaMatrixHiddenGesamt';
        GewichtsmatrixHiddenOutput = GewichtsmatrixHiddenOutput + DeltaMatrixOutputGesamt';
end

%--------------------------------------------------------------------------
                                %Plot
%--------------------------------------------------------------------------

Zeit = 1:1:size(EingangsVektor');
ax1 = subplot(2,1,1);
ax2 = subplot(2,1,2);
plot(ax1, Zeit, AusgangsVektor, Zeit,AusgangOutputLayer,'+');
title(ax1, 'Realer Ausgang & Geschätzter Ausgang');
plot(ax2, ErrorTotal);
title(ax2, 'Gesamter Fehler über einen Lerndurchgang');
grid(ax1,'on')
grid(ax2,'on')


Das ist das vollständige Skript und sollte ohne Probleme mit copy und paste kompilieren.
Ich wäre sehr dankbar für Hilfe jeglicher Art.


Neues Thema eröffnen Neue Antwort erstellen



Einstellungen und Berechtigungen
Beiträge der letzten Zeit anzeigen:

Du kannst Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.
Du kannst Dateien in diesem Forum posten
Du kannst Dateien in diesem Forum herunterladen
.


goMatlab ist ein Teil des goForen-Labels
goForen.de goMATLAB.de goLaTeX.de goPCB.de


 Impressum  | Nutzungsbedingungen  | Datenschutz  | Werbung/Mediadaten | Studentenversion | FAQ | goMatlab RSS Button RSS


Copyright © 2007 - 2017 goMatlab.de | Dies ist keine offizielle Website der Firma The Mathworks
Partner: LabVIEWforum.de

MATLAB, Simulink, Stateflow, Handle Graphics, Real-Time Workshop, SimBiology, SimHydraulics, SimEvents, and xPC TargetBox are registered trademarks and The MathWorks, the L-shaped membrane logo, and Embedded MATLAB are trademarks of The MathWorks, Inc.