Mistři v programování na #hovnokod

...since we're counting

class MutableInt {

    int value = 1; // note that we start at 1 since we're counting

    public void increment() {
        ++value;
    }

    public int get() {
        return value;
    }

    public String toString() {
        return String.valueOf(value);

    }
}

Anonymous,

Tohle na mne při polední pauze vyskočilo na StackOverflow, málem jsem ten oběd vrhnul do klávesnice.

<%  ArrayList<QuesnBean> list =new ArrayList<QuesnBean>();

list = (ArrayList<QuesnBean>)request.getAttribute("question"); 
int i=0, l=list.size();
    for(QuesnBean qbean : list)
    {
     qbean = list.get(i);

         out.print("<br><br> Q.No: "+ (i+1) +"  ");
         out.println(qbean.getQuesn()+"<br>");
         out.println("<br> <input type='radio' name='o1'> "+qbean.getOp1());
         out.println("<br> <input type='radio' name='o1'> "+qbean.getOp2());
         out.println("<br> <input type='radio' name='o1'> "+qbean.getOp3());
     out.println("<br> <input type='radio' name='o1'> "+qbean.getOp4());

         if(i<=l){
            i++;
            }
    } 
 %>

Anonymous,

Koukáte na to 5 minut a pak vám dojde, že vaše IDE používá font, ve kterém malé L a jednička vypadají stejně

if (l < 1)
    l = 1;

Martin Jašek,

Učení neuronové sítě pomocí backpropagation.

public NeuralNetwork backpropError(double targetResult) {
        neurons[7].setError((targetResult - neurons[7].getOutput()) * neurons[7].derivative());
        neurons[7].setBias(neurons[7].getBias() + LEARNING_RATE * neurons[7].getError());
        neurons[7].getWeights()[0] = neurons[7].getWeights()[0] + LEARNING_RATE * neurons[7].getError() * neurons[1].getOutput();
        neurons[7].getWeights()[1] = neurons[7].getWeights()[1] + LEARNING_RATE * neurons[7].getError() * neurons[2].getOutput();
        neurons[7].getWeights()[2] = neurons[7].getWeights()[2] + LEARNING_RATE * neurons[7].getError() * neurons[3].getOutput();
        neurons[7].getWeights()[3] = neurons[7].getWeights()[3] + LEARNING_RATE * neurons[7].getError() * neurons[4].getOutput();
        neurons[7].getWeights()[4] = neurons[7].getWeights()[4] + LEARNING_RATE * neurons[7].getError() * neurons[5].getOutput();
        neurons[7].getWeights()[5] = neurons[7].getWeights()[5] + LEARNING_RATE * neurons[7].getError() * neurons[6].getOutput();
        neurons[6].setError((neurons[7].getWeights()[5] * neurons[7].getError()) * neurons[6].derivative());
        neurons[6].setBias(neurons[6].getBias() + LEARNING_RATE * neurons[6].getError());
        neurons[6].getWeights()[0] = neurons[6].getWeights()[0] + LEARNING_RATE * neurons[6].getError() * neurons[0].getOutput();
        neurons[5].setError((neurons[7].getWeights()[4] * neurons[7].getError()) * neurons[5].derivative());
        neurons[5].setBias(neurons[5].getBias() + LEARNING_RATE * neurons[5].getError());
        neurons[5].getWeights()[0] = neurons[5].getWeights()[0] + LEARNING_RATE * neurons[5].getError() * neurons[0].getOutput();
        neurons[4].setError((neurons[7].getWeights()[3] * neurons[7].getError()) * neurons[4].derivative());
        neurons[4].setBias(neurons[4].getBias() + LEARNING_RATE * neurons[4].getError());
        neurons[4].getWeights()[0] = neurons[4].getWeights()[0] + LEARNING_RATE * neurons[4].getError() * neurons[0].getOutput();
        neurons[3].setError((neurons[7].getWeights()[2] * neurons[7].getError()) * neurons[3].derivative());
        neurons[3].setBias(neurons[3].getBias() + LEARNING_RATE * neurons[3].getError());
        neurons[3].getWeights()[0] = neurons[3].getWeights()[0] + LEARNING_RATE * neurons[3].getError() * neurons[0].getOutput();
        neurons[2].setError((neurons[7].getWeights()[1] * neurons[7].getError()) * neurons[2].derivative());
        neurons[2].setBias(neurons[2].getBias() + LEARNING_RATE * neurons[2].getError());
        neurons[2].getWeights()[0] = neurons[2].getWeights()[0] + LEARNING_RATE * neurons[2].getError() * neurons[0].getOutput();
        neurons[1].setError((neurons[7].getWeights()[0] * neurons[7].getError()) * neurons[1].derivative());
        neurons[1].setBias(neurons[1].getBias() + LEARNING_RATE * neurons[1].getError());
        neurons[1].getWeights()[0] = neurons[1].getWeights()[0] + LEARNING_RATE * neurons[1].getError() * neurons[0].getOutput();

        return this;

    }

Anonymous,

Metoda na vytváření bestie (parametry jsem vynechal, ty jsou v tomto případě celkem normální). Podobných metod je dál v postižené třídě víc, některé mají podobně luxusní návratové hodnoty a některé pro změnu mají takovéhle parametry. Komentář široko daleko ani jeden - jsou to jen private metody, takže když bylo těžké je napsat, tak musí být těžké je i číst!

    private Map<String, Triple<String, Map<String, String>, Pair<Set<Triple<ProductLinkType, String, String>>, Set<Triple<ProductLinkType, String, String>>>>> getTripleMap(

Anonymous,