我的神经网络不起作用 [XOR 问题]
My Neural Network Doesn't Work [XOR problem]
我正在尝试制作一个用于解决XOR问题的神经网络。但我做不到。总是给出错误的结果。也许我在你的数学上犯了一个错误。网络无法学习。结果总是相似的。
我没有使用BIAS。
Note: execute function = (feed-forward + backpropagation)
ALPHA = 0.5
这是代码:
//main.cpp
#include <iostream>
#include "neural_network.h"
int main(int argc, char const *argv[])
{
srand(time(NULL));
double array[][3] = {{0.0, 0.0, 0.0},
{0.0, 1.0, 1.0},
{1.0, 0.0, 1.0},
{1.0, 1.0, 0.0}};
neural_network* nn = new neural_network(3, 2, 2, 1, 1.0);
nn->create_network();
for(int i = 0; i < 15000; i++)
{
int index = rand() % 4;
#if DEBUG
std::cout<<"Inputs :"<<array[index][0]<<" , "<<array[index][1]<<std::endl;
std::cout<<"Outputs :"<<array[index][2]<<std::endl;
#endif
nn->execute(array[index], &array[index][2]);
}
nn->print_weight();
nn->execute(array[0], &array[0][2]);
nn->print_output();
nn->execute(array[1], &array[1][2]);
nn->print_output();
nn->execute(array[2], &array[2][2]);
nn->print_output();
nn->execute(array[3], &array[3][2]);
nn->print_output();
return 0;
}
//前馈函数
void neural_network::feed_forward(double* inputs)
{
int index = 0;
for(int i = 0; i < neural_network::input_layer_size; i++)
neural_network::input_neuron[i] = inputs[i];
for(int i = 0; i < neural_network::hidden_layer_size; i++)
{
for(int j = 0; j < neural_network::input_layer_size; j++)
{
neural_network::hidden_neuron[i] += neural_network::input_neuron[j] * weight_I_H[index++];
}
neural_network::hidden_neuron[i] = neural_network::activation_func(neural_network::hidden_neuron[i]);
}
index = 0;
for(int i = 0; i < neural_network::output_layer_size; i++)
{
for(int j = 0; j < neural_network::hidden_layer_size; j++)
{
neural_network::output_neuron[i] += neural_network::hidden_neuron[j] * weight_H_O[index++];
}
neural_network::output_neuron[i] = neural_network::activation_func(neural_network::output_neuron[i]);
}
}
//反向传播函数
void neural_network::back_propagation(double* outputs)
{
int index;
for(int i = 0; i < neural_network::output_layer_size; i++)
neural_network::err_output[i] = (outputs[i] - neural_network::output_neuron[i]);
for(int i = 0; i < neural_network::hidden_layer_size; i++)
{
index = i;
for(int j = 0; j < neural_network::output_layer_size; j++)
{
neural_network::err_hidden[i] += neural_network::weight_H_O[index] * neural_network::err_output[j] * neural_network::derivative_act_func(neural_network::output_neuron[j]);
neural_network::weight_H_O[index] += ALPHA * neural_network::err_output[j] * neural_network::derivative_act_func(neural_network::output_neuron[j]) * neural_network::hidden_neuron[i];
index += neural_network::hidden_layer_size;
}
}
for(int i = 0; i < neural_network::input_layer_size; i++)
{
index = i;
for(int j = 0; j < neural_network::hidden_layer_size; j++)
{
neural_network::weight_I_H[index] += ALPHA * neural_network::err_hidden[j] * neural_network::derivative_act_func(neural_network::hidden_neuron[j]) * neural_network::input_neuron[i];
index += neural_network::input_layer_size;
}
}
}
//输出
Input To Hidden :
H-1 :
Weight :-13.269
Weight :-13.2705
H-2 :
Weight :-12.5172
Weight :-12.5195
Hidden To Output :
O-1 :
Weight :-5.37707
Weight :-2.93218
Outputs for (0,0):
O-1 :0.0294265
Outputs for (0,1):
O-1 :0.507348
Outputs for (1,0):
O-1 :0.62418
Outputs for (1,1):
O-1 :0.651169
真的不可能没有keras没有我开发的基于Furye变换的网络(它比keras更强大(真的决定了这个XOR任务。我测试了这两个ANN的准确性。最大识别率是4个例子中的3个(acc=0.75->75%(。没有人回答1xor 1=0。现在似乎真的对这个案例进行了认真的测试。(人工神经网络是多层的(
相关文章:
- 警告处理为错误这里有什么问题
- 最小硬币更换问题(自上而下方法)
- 为"adjacent"变量赋值时出现问题
- 我的神经网络不起作用 [XOR 问题]
- 在Ubuntu 16.04上安装Cilk时出现问题
- C++我的数学有什么问题,为什么我的代码不能正确循环
- 编译包含字符串的代码时遇到问题
- Project Euler问题4的错误解决方案
- 问题:什么是QAbstractItemView::NoEditTriggers的反面
- 在编译C++代码(具有dlib和opencv)到WASM时面临问题
- 在进程中对同一管道进行读取和写入时C++管道出现问题
- 静态数据成员的问题-修复链接错误会导致编译器错误
- C++ 雷神库 - 使用资源加载器类时出现问题(不命名类型)
- 一个关于在C++中重载布尔运算符的问题
- 首要问题的答案让值班员搞错了
- setlocale的C++土耳其字符串问题
- 如何重构类层次结构以避免菱形问题
- 如何通过使用 2 位或更多数字的 XOR 运算符来执行此操作C++问题
- C++XOR解密问题
- XOR加密问题…总初学者