Libro sobre Deep Learning

Según la wikipedia: Aprendizaje profundo (en inglés, deep learning) es un conjunto de algoritmos en aprendizaje automático (en inglés, machine learning) que intenta modelar abstracciones de alto nivel en datos usando arquitecturas compuestas de transformaciones no-lineales múltiples. En deeplearningbook.org podemos encontrar un libro (en proceso de publicación por MIT press) sobre este subcampo de la inteligencia artificial. En dicha web podemos además encontrar enlaces a tutoriales sobre deep learning, y pronto también publicarán presentaciones usada por sus autores para la enseñanza de esta materia.
Leer más

HoneyDrive Desktop

HoneyDrive Desktop es una máquina virtual con varias aplicaciones preparadas que nos permite de una forma sencilla y rápida correr nuestro propio honeypot. Corre con Xubuntu Desktop 12.04 32 bits y contiene entre otras, las siguientes aplicaciones: Servidor LAMP con phpMyAdmin Kippo SSH, Kippo-Graph y Kippo2MySQL Dionaea Malware + phpLiteAdmin Honeyd + Honeyd2MySQL y Honeyd-Viz LaBrea, Tiny Honeypot, IIS Emulator, INetSim y SimH Varias utilidades para el análisis de malware, PDFs, etc La imagen ocupa 2.
Leer más

Máquina de Turing hecha con LEGO Mindstorms NXT

Con motivo del centenario de Alan Turing, el cual no necesita presentación, son muchos los eventos y homenajes que se han dedicado a la figura del gran genio. Uno de los detalles que más me ha gustado de los que he visto es esta réplica de la Máquina de Turing hecha con Legos Mindstorms NXT. Podéis ver los detalles la misma en la enlace de arriba y además también está disponible el software de la misma en github.
Leer más

Curso audiovisual sobre Machine Learning

En la web del Instituto de Tecnología de California podemos encontrar un serie de vídeos orientados a la enseñanza de Machine Learning, titulado Learning from Data. Técnica ampliamente usada en el campo de la inteligencia artificial, dónde básicamente nuestra aplicación estudia el entorno en el que se encuentra para aprender más sobre el mismo y así poder tomar decisiones. El índice de los vídeos es el siguiente: Bayesian Learning Validity of the Bayesian approach (prior, posterior, unknown versus probabilistic) Bias-Variance Tradeoff Basic derivation (overfit and underfit, approximation-generalization tradeoff) Example (sinusoidal target function) Noisy case (Bias-variance-noise decomposition) Bin Model Hoeffding Inequality (law of large numbers, sample, PAC) Relation to learning (from bin to hypothesis, training data) Multiple bins (finite hypothesis set, learning: search for green sample) Union Bound (uniform inequality, M factor) Data Snooping Definition and analysis (data contamination, model selection) Ensemble Learning Overview of aggregation methods (boosting, blending, before and after the fact) Error Measures User-specified error function (pointwise error, CIA, supermarket) Gradient Descent Basic method (Batch GD) (first-order optimization) Discussion (initialization, termination, local minima, second-order methods) Stochastic Gradient Descent (the algorithm, SGD in action) Initialization - Neural Networks (random weights, perfect symmetry) Learning Curves Definition and illustration (complex models versus simple models) Linear Regression example (learning curves for noisy linear target) Learning Diagram Components of learning (target function, hypothesis set, learning algorithm) Input probability distribution (unknown distribution, bin, Hoeffding) Error measure (role in learning algorithm) Noisy targets (target distribution) Where the VC analysis fits (affected blocks in learning diagram) Learning Paradigms Types of learning (supervised, reinforcement, unsupervised, clustering) Other paradigms (review, active learning, online learning) Linear Classification The Perceptron (linearly separable data, PLA) Pocket algorithm (non-separable data, comparison with PLA) Linear Regression The algorithm (real-valued function, mean-squared error, pseudo-inverse) Generalization behavior (learning curves for linear regression) Logistic Regression The model (soft threshold, sigmoid, probability estimation) Cross entropy error (maximum likelihood) The algorithm (gradient descent) Netflix Competition Movie rating (singular value decomposition, essence of machine learning) Applying SGD (stochastic gradient descent, SVD factors) Neural Networks Biological inspiration (limits of inspiration) Multilayer perceptrons (the model and its power and limitations) Neural Network model (feedforward layers, soft threshold) Backpropagation algorithm (SGD, delta rule) Hidden layers (interpretation) Regularization (weight decay, weight elimination, early stopping) Nonlinear Transformation Basic method (linearity in the parameters, Z space) Illustration (non-separable data, quadratic transform) Generalization behavior (VC dimension of a nonlinear transform) Occam's Razor Definition and analysis (definition of complexity, why simpler is better) Overfitting The phenomenon (fitting the noise) A detailed experiment (Legendre polynomials, types of noise) Deterministic noise (target complexity, stochastic noise) Radial Basis Functions Basic RBF model (exact interpolation, nearest neighbor) K Centers (Lloyd's algorithm, unsupervised learning, pseudo-inverse) RBF network (neural networks, local versus global, EM algorithm) Relation to other techniques (SVM kernel, regularization) Regularization Introduction (putting the brakes, function approximation) Formal derivation (Legendre polynomials, soft-order constraint, augmented error) Weight decay (Tikhonov, smoothness, neural networks) Augmented error (proxy for out-of-sample error, choosing a regularizer) Regularization parameter (deterministic noise, stochastic noise) Sampling Bias Definition and analysis (Truman versus Dewey, matching the distributions) Support Vector Machines SVM basic model (hard margin, constrained optimization) The solution (KKT conditions, Lagrange, dual problem, quadratic programming) Soft margin (non-separable data, slack variables) Nonlinear transform (Z space, support vector pre-images) Kernel methods (generalized inner product, Mercer's condition, RBF kernel) Validation Introduction (validation versus regularization, optimistic bias) Model selection (data contamination, validation set versus test set) Cross Validation (leave-one-out, 10-fold cross validation) VC Dimension Growth function (dichotomies, Hoeffding Inequality) Examples (growth function for simple hypothesis sets) Break points (polynomial growth functions, puzzle) Bounding the growth function (mathematical induction, polynomial bound) Definition of VC Dimension (shattering, distribution-free, Vapnik-Chervonenkis) VC Dimension of Perceptrons (number of parameters, lower and upper bounds) Interpreting the VC Dimension (degrees of freedom, Number of examples) Además cada vídeo está acompañado de las diapositivas que el profesor usa, así como los deberes asignados en el mismo.
Leer más

Máquina Enigma hecha con una hoja de cálculo

Impresionante simulador de máquina Enigma creado con una hoja de cálculo a base de fórmulas. En este vídeo puedes ver una pequeña demostración de como funciona: Si quieres jugar con ella, la puedes descargar desde aquí. Entrada original
Leer más

Er docu der finde: La máquina del tiempo

Parte 1/5 Parte 2/5 Parte 3/5 Parte 4/5 Parte 5/5
Leer más

Juguete convertido en una máquina Enigma

En esta entrada de la web de instructables, podemos ver como transformar un juguete de estos para niños, en un máquina Enigma. Con la ayuda, como no, de Arduino, el autor ha sido capaz de replicar el funcionamiento de una de estás máquinas en su versión de tres rotores. Aquí podéis ver un vídeo de dicho juguete en funcionamiento. Esto es hacking en el estado más puro.
Leer más

Brick Bank

Brick Bank es un cajero automático creado con piezas de lego. Al final del vídeo podéis ver el material usado. Tiene su gracia.
Leer más