Vídeos de la Bsides Cleveland 2012

Aquí tenéis los vídeos de otra conferencia sobre seguridad: Bsides Cleveleand 2012 Secret Pentesting Technigues Shhh...Dave KennedyDave "ReL1K" Kennedy Focusing on the Fool: Building an Awareness & Training Program - Branden Miller & Bill Gardner <? $People ?> Process Technology - Jeff @ghostnomad Kirsch Dingleberry Pi Building a Blackthrow: More inexpensive hardware to leave behind on someone else's network - Adrian "Irongeek" Crenshaw Testing Enterprise DLP Systems // Advanced data exfiltration techniques - Albert School Automating Incident Response - Mick Douglas Business Ramifications of the Internet's Unclean Conflicts - Rockie Brockway Netflow for Incident Response - Jamison Budacki Winter is Coming: Cloud Security in Dark Ages - Bill Mathews Pass the Hash like a Rockstar - Martin "
Leer más

Vídeos de las sesiones sobre Android de la Google IO 2012

La Google IO 2012, conferencia que reune a los mejores profesionales sobre productos de Google, se celebró este año el pasado mes de junio en San Francisco, California. Las sesiones sobre Android probablemente sean las que más llamen la atención de los asistentes a dicha conferencia. Si eres de los que te interesan estas charlas y no pudiste atender a estas, ahora puedes ver los vídeos de las mismas desde este canal o haciendo click sobre la que te interese en la siguiente lista:
Leer más

Domingo por la mañana, I Break Horses, Winter Beats, aunque sea verano

I Break Horses, tremenda canción Winter Beats.
Leer más

This is our planet

Time lapse espectacular desde la ISS. Visto en GeeksAreSexy
Leer más

Curso audiovisual sobre Machine Learning

En la web del Instituto de Tecnología de California podemos encontrar un serie de vídeos orientados a la enseñanza de Machine Learning, titulado Learning from Data. Técnica ampliamente usada en el campo de la inteligencia artificial, dónde básicamente nuestra aplicación estudia el entorno en el que se encuentra para aprender más sobre el mismo y así poder tomar decisiones. El índice de los vídeos es el siguiente: Bayesian Learning Validity of the Bayesian approach (prior, posterior, unknown versus probabilistic) Bias-Variance Tradeoff Basic derivation (overfit and underfit, approximation-generalization tradeoff) Example (sinusoidal target function) Noisy case (Bias-variance-noise decomposition) Bin Model Hoeffding Inequality (law of large numbers, sample, PAC) Relation to learning (from bin to hypothesis, training data) Multiple bins (finite hypothesis set, learning: search for green sample) Union Bound (uniform inequality, M factor) Data Snooping Definition and analysis (data contamination, model selection) Ensemble Learning Overview of aggregation methods (boosting, blending, before and after the fact) Error Measures User-specified error function (pointwise error, CIA, supermarket) Gradient Descent Basic method (Batch GD) (first-order optimization) Discussion (initialization, termination, local minima, second-order methods) Stochastic Gradient Descent (the algorithm, SGD in action) Initialization - Neural Networks (random weights, perfect symmetry) Learning Curves Definition and illustration (complex models versus simple models) Linear Regression example (learning curves for noisy linear target) Learning Diagram Components of learning (target function, hypothesis set, learning algorithm) Input probability distribution (unknown distribution, bin, Hoeffding) Error measure (role in learning algorithm) Noisy targets (target distribution) Where the VC analysis fits (affected blocks in learning diagram) Learning Paradigms Types of learning (supervised, reinforcement, unsupervised, clustering) Other paradigms (review, active learning, online learning) Linear Classification The Perceptron (linearly separable data, PLA) Pocket algorithm (non-separable data, comparison with PLA) Linear Regression The algorithm (real-valued function, mean-squared error, pseudo-inverse) Generalization behavior (learning curves for linear regression) Logistic Regression The model (soft threshold, sigmoid, probability estimation) Cross entropy error (maximum likelihood) The algorithm (gradient descent) Netflix Competition Movie rating (singular value decomposition, essence of machine learning) Applying SGD (stochastic gradient descent, SVD factors) Neural Networks Biological inspiration (limits of inspiration) Multilayer perceptrons (the model and its power and limitations) Neural Network model (feedforward layers, soft threshold) Backpropagation algorithm (SGD, delta rule) Hidden layers (interpretation) Regularization (weight decay, weight elimination, early stopping) Nonlinear Transformation Basic method (linearity in the parameters, Z space) Illustration (non-separable data, quadratic transform) Generalization behavior (VC dimension of a nonlinear transform) Occam's Razor Definition and analysis (definition of complexity, why simpler is better) Overfitting The phenomenon (fitting the noise) A detailed experiment (Legendre polynomials, types of noise) Deterministic noise (target complexity, stochastic noise) Radial Basis Functions Basic RBF model (exact interpolation, nearest neighbor) K Centers (Lloyd's algorithm, unsupervised learning, pseudo-inverse) RBF network (neural networks, local versus global, EM algorithm) Relation to other techniques (SVM kernel, regularization) Regularization Introduction (putting the brakes, function approximation) Formal derivation (Legendre polynomials, soft-order constraint, augmented error) Weight decay (Tikhonov, smoothness, neural networks) Augmented error (proxy for out-of-sample error, choosing a regularizer) Regularization parameter (deterministic noise, stochastic noise) Sampling Bias Definition and analysis (Truman versus Dewey, matching the distributions) Support Vector Machines SVM basic model (hard margin, constrained optimization) The solution (KKT conditions, Lagrange, dual problem, quadratic programming) Soft margin (non-separable data, slack variables) Nonlinear transform (Z space, support vector pre-images) Kernel methods (generalized inner product, Mercer's condition, RBF kernel) Validation Introduction (validation versus regularization, optimistic bias) Model selection (data contamination, validation set versus test set) Cross Validation (leave-one-out, 10-fold cross validation) VC Dimension Growth function (dichotomies, Hoeffding Inequality) Examples (growth function for simple hypothesis sets) Break points (polynomial growth functions, puzzle) Bounding the growth function (mathematical induction, polynomial bound) Definition of VC Dimension (shattering, distribution-free, Vapnik-Chervonenkis) VC Dimension of Perceptrons (number of parameters, lower and upper bounds) Interpreting the VC Dimension (degrees of freedom, Number of examples) Además cada vídeo está acompañado de las diapositivas que el profesor usa, así como los deberes asignados en el mismo.
Leer más

Feeder, Buck Rogers, para un domingo de verano por la mañana como otro cualquiera

Igual que un/una adolescente en vacaciones de verano, así te sentirás cuando escuches esta canción ;) Feeder
Leer más

Material de la C++Now! 2012

La C++Now! es una conferencia para entusiastas del lenguaje de programación C++ que se celebra en Auspen, Colorado. Este año se celebró durante el pasado mes de mayo. Ya están disponible para descarga tanto los vídeos como las presentaciones. Aquí tenéis la lista de los vídeos: Jon Kalb: Exception-Safe Coding in C++ (Part II) Jon Kalb: Exception-Safe Coding in C++ (Part I) Michael Caisse: Introduction to Modern C++ Techniques (Part II) Michael Caisse: Introduction to Modern C++ Techniques (Part I) Beman Dawes: Boosting Libraries for TR2 Bryce Adelstein-Lelbach, Matthew Anderson, Hartmut Kaiser: HPX: A C++11 parallel runtime system Karsten Ahnert, Mario Mulansk: Metaprogramming Applied to Numerical Problems Sean Parent: Value Semantics and Concepts-based Polymorphism Ale Contenti: C++ Component Extensions for WinRT Lucanus Simonson, Andrii Sydorchuk: Robust and efficient multi precision algorithms design Beman Dawes, Jeff Garland, Alisdair Meredith: Other C++11 Gems Andrew Lumsdaine, Larisse Voufo: ConceptClang: An Implementation Model for C++ Concepts Tony Van Eerd: How I Code and Why Patrick Mihelich: Linear programming made easy with Boost Proto Nat Goodspeed: Using Boost.
Leer más

¿Por qué se llama el bosón de Higgs "la partícula de Dios"?

Pues es una historia muy curiosa. Peter Higgs es ateo y por lo tanto no le gusta nada ese nombre de “la partícula de Dios” entonces ¿por qué se le llamó así?. Pues todo se debe a un cambio en el término utilizado para referirse a la partícula en un libro. Leon Lederman autor del libro The God Particle: If the Universe Is the Answer, What Is the Question?, llamó a la partícula "
Leer más

Domingo por la mañana de resaca, Stand de REM, para mi amigo Mario

httpv://youtu.be/AKKqLl_ZEEY Bueno hemos celebrado este fin de semana la despedida de soltero de un buen amigo, Mario P. que se casa este año. Esta canción es una de sus favoritas y sobre todo es un gran fan de la irrepetible serie "Get a Life" ("Búscate la vida") que tenía esta canción de REM como cabecera: Este verano quiero volver a verla y repetir momentos inolvidables como este sobre cómo viajar en el tiempo:
Leer más

Por qué tenemos que aprender a programar en C

Siempre he sido un gran defensor del lenguaje de programación C. Es el que siempre he programado y estudiado en la universidad. En este análisis de David Griffiths refuerza aún más esta opinión en esta entrevista. David Griffiths es el coautor del un libro llamado “Head First C” y utiliza estas preguntas y respuestas, por supuesto, para promocionarlo, pero de todas formas son totalmente válidas y creo que no se equivoca en ninguna de ellas.
Leer más