Minha sacola

    Favoritar

    INFORMATION THEORY, INFERENCE AND LEARNING ALGORITHMS

    Ref:
    51612

    De: R$ 857,38Por: R$ 600,17ou X de

    Economia de R$ 257,21

    Comprar

    Para envios internacionais, simule o frete no carrinho de compras.

    Editora
    ISBN
    Páginas
    Peso
    Idioma
    Acabamento

    Sinopse

    This textbook offers comprehensive coverage of Shannon's theory of information as well as the theory of neural networks and probabilistic data modeling. Shannon's source encoding theorem and noisy channel theorem are explained and proved. Accompanying these theoretical results are descriptions of practical data compression systems including the Huffman coding algorithm and the less well known arithmetic coding algorithm. The treatment of neural networks is approached from two perspectives. On the one hand, the information-theoretic capabilities of some neural network algorithms are examined, and on the other hand, neural networks are motivated as statistical models. With many examples and exercises, this book is ideal for students to use as the text for a course, or as a resource for researchers who need to work with neural networks or state-of-the-art error correcting codes.
    Mostrar mais

    Ficha técnica

    Especificações

    ISBN9780521642989
    Pré vendaNão
    Peso614g
    Autor para link
    Livro disponível - pronta entregaNão
    Dimensões23 x 16 x 1
    Tipo itemLivro Importado
    Número de páginas550
    Número da edição1ª EDIÇÃO - 2002
    Código Interno51612
    Código de barras9780521642989
    AcabamentoHARDCOVER
    AutorMACKAY, DAVID J.C.
    EditoraCAMBRIDGE UNIVERSITY PRESS
    Sob encomendaSim
    Mostrar mais

    Este livro é vendido

    SOB ENCOMENDA

    Prazo estimado para disponibilidade em estoque: dias úteis

    (Sujeito aos estoques de nossos fornecedores)

    +

    Prazo do frete selecionado.

    (Veja o prazo total na sacola de compras)

    Comprar