📚 The CoCalc Library - books, templates and other resources
cocalc-examples / martinthoma-latex-examples / documents / handout-art-in-ml / handout-art-in-ml.tex
132932 viewsLicense: OTHER
\documentclass[a4paper,9pt]{scrartcl}1\usepackage{amssymb, amsmath} % needed for math2\usepackage[utf8]{inputenc} % this is needed for umlauts3\usepackage[ngerman]{babel} % this is needed for umlauts4\usepackage[T1]{fontenc} % this is needed for correct output of umlauts in pdf5\usepackage[margin=2.0cm]{geometry} %layout6\usepackage{hyperref} % links im text7\usepackage{enumerate} % for advanced numbering of lists8\usepackage{color}9\usepackage{framed}10\usepackage{float}11\usepackage{caption}12\usepackage{csquotes}13\usepackage[hang]{subfigure}14\usepackage[pdftex,final]{graphicx}15\usepackage{pgfplots}16\usepackage{tikz}17\usepackage{tikzscale}18\usetikzlibrary{shapes, calc, shapes, arrows}19\DeclareMathOperator{\sigmoid}{sigmoid}2021\newcommand\titleText{Kreativität im maschinellen Lernen}22\title{\vspace{-5ex}\titleText\vspace{-7ex}}23\author{}24\date{}25\hypersetup{26pdfauthor = {Martin Thoma},27pdfkeywords = {Machine Learning, Art, Creativity},28pdftitle = {\titleText}29}3031\usepackage{fancyhdr}32\pagestyle{fancy}33\fancyhead{}34\fancyfoot{}35\fancyhead[L]{Referat vom 15.01.2016}36\fancyhead[R]{Martin Thoma}37\renewcommand{\headrulewidth}{0.4pt}3839\makeatletter40\let\ps@plain\ps@fancy41\makeatother4243%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%44% Custom definition style, by %45% http://mathoverflow.net/questions/46583/what-is-a-satisfactory-way-to-format-definitions-in-latex/58164#5816446%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%47\makeatletter48\newdimen\errorsize \errorsize=0.2pt49% Frame with a label at top50\newcommand\LabFrame[2]{%51\fboxrule=\FrameRule52\fboxsep=-\errorsize53\textcolor{FrameColor}{%54\fbox{%55\vbox{\nobreak56\advance\FrameSep\errorsize57\begingroup58\advance\baselineskip\FrameSep59\hrule height \baselineskip60\nobreak61\vskip-\baselineskip62\endgroup63\vskip 0.5\FrameSep64\hbox{\hskip\FrameSep \strut65\textcolor{TitleColor}{\textbf{#1}}}%66\nobreak \nointerlineskip67\vskip 1.3\FrameSep68\hbox{\hskip\FrameSep69{\normalcolor#2}%70\hskip\FrameSep}%71\vskip\FrameSep72}}%73}}74\definecolor{FrameColor}{rgb}{0.25,0.25,1.0}75\definecolor{TitleColor}{rgb}{1.0,1.0,1.0}7677\newenvironment{contlabelframe}[2][\Frame@Lab\ (cont.)]{%78% Optional continuation label defaults to the first label plus79\def\Frame@Lab{#2}%80\def\FrameCommand{\LabFrame{#2}}%81\def\FirstFrameCommand{\LabFrame{#2}}%82\def\MidFrameCommand{\LabFrame{#1}}%83\def\LastFrameCommand{\LabFrame{#1}}%84\MakeFramed{\advance\hsize-\width \FrameRestore}85}{\endMakeFramed}86\newcounter{definition}87\newenvironment{definition}[1]{%88\par89\refstepcounter{definition}%90\begin{contlabelframe}{Definition \thedefinition:\quad #1}91\noindent\ignorespaces}92{\end{contlabelframe}}93\makeatother94%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%95% Begin document %96%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%97\begin{document}98\maketitle99\begin{definition}{Machine Learning (ML) nach Tom Mitchell}100A computer program is said to learn from \textbf{experience}~$\mathbf{E}$ with101respect to some class of \textbf{tasks}~$\mathbf{T}$ and \textbf{performance102measure}~$\mathbf{P}$, if its performance at tasks in~$T$, as measured by~$P$,103improves with experience~$E$.104\end{definition}105106\begin{figure}[H]107\centering108\subfigure[Aufbau eines künstlichen Neurons. Die Eingabesignale werden mit $x_i \in \mathbb{R}$ bezeichnet; $w_i \in \mathbb{R}$ heißen \textit{Gewichte} und müssen gelernt werden. Jedes Eingabesignal wird mit seinem Gewicht multipliziert. Die Produkte werden aufsummiert. Dann wird die sog. \textit{Aktivierungsfuntkion} $i$ angewendet.]{109\label{fig:artificial-neuron}110\includegraphics[width=0.45\linewidth]{neuron.tikz}111}%112\subfigure[Eine einfaches Feed-Forward Neuronales Netz. Die 5~Eingabeneuronen sind rot, die 2~Bias-Neuronen sind Grau, die 3~Hidden-Neuronen sind Grün und das einzelne Ausgabeneuron ist Blau. Dieses 3-schichtige Modell hat $6 \cdot 4 + 4 \cdot 1 = 28$ Kanten. Für jede Kante muss ein Gewicht $w_{ij} \in \mathbb{R}$ gelernt werden.]{113\label{fig:feed-forward-nn}114\includegraphics[width=0.45\linewidth]{feed-forward-nn.tikz}115}116117\subfigure[Beispiele für Aktivierungsfuntkionen $\varphi: \mathbb{R} \rightarrow \mathbb{R}$]{118\label{fig:artificial-neuron}119\includegraphics[width=0.9\linewidth]{activation-functions.tikz}120}%121122\caption{Neuronale Netze basieren auf einfachen Einheiten, welche zu komplexen Netzwerken verschaltet werden können. Diese können mittels \textit{Gradientenabstieg} automatisch trainiert werden.}123\label{fig:neural-style}124\end{figure}125126\begin{definition}{Convolutional Neural Network (CNN)}127Ein CNN ist ein neuronales Netz, welches keine vollverbundenen Schichten hat128sondern die Gewichte von Bildfiltern lernt.129\end{definition}130131\begin{definition}{Rekurrentes Neuronale Netz (RNN)}132Ein RNN ist ein neuronales Netz, welches Kanten hat, die zeitlich versetzt133wieder als Eingabe genutzt werden.134\end{definition}135136CNNs können sehr effektiv für Bilder eingesetzt werden, RNNs können zur137Behandlung von Sequenzen verwendet werden. Insbesondere können beliebig lange138Eingabesequenzen genutzt werden und unabhängig von der Eingabe beliebig lange139Ausgaben erzeugt werden.140141\begin{definition}{Google DeepDream}142Google DeepDream ist eine Abwandlung einer Technik zur Analyse der gelernten143Gewichte.144\end{definition}145146\section*{Quellen}147Alle Quellen und eine detailierte Beschreibung der Verfahren sind unter\\148\url{https://github.com/MartinThoma/seminar-art-in-machine-learning} sowie im arXiv unter\\149\enquote{Creativity in Machine Learning} --- \url{http://arxiv.org/abs/1601.03642} ---150zu finden.151152\end{document}153154155