Apache MXNet ist ein Open-Source- Deep-Learning- Framework, das zum Trainieren und Bereitstellen von tiefen neuronalen Netzen verwendet wird . Es ist skalierbar und ermöglicht ein schnelles Training der Modelle. Es unterstützt ein flexibles Programmiermodell und mehrere Programmiersprachen (einschließlich C ++ , Python , Julia , Matlab , JavaScript , Go , R , Scala , Perl ).
Die Bibliothek MxNet ist mobil und kann angepasst werden, um mehrere GPUs und mehrere Maschinen. MXNet wird von der öffentlichen Cloud des Anbieters unterstützt , einschließlich Amazon Web Services (AWS) und Microsoft Azure . Amazon hat MXNet als Deep-Learning-Framework für AWS ausgewählt. MXNet wird derzeit von Intel , Baidu , Microsoft , Wolfram Research und Forschungsinstituten von Institutionen wie Carnegie Mellon , MIT , der University of Washington und der Hong Kong University of Science and Technology unterstützt .
Apache MXNet ist ein leichtes, flexibles und ultra-skalierbares Deep-Learning-Framework, das Deep-Learning-Modelle unterstützt, einschließlich Convolutional Neural Networks (CNN) und Recurrent Networks für Kurz- und Langzeitgedächtnis , Long Short-Term Memory (LSTM).
MXNet kann mithilfe eines verteilten Einstellungsservers (basierend auf Untersuchungen der Carnegie Mellon University , Baidu und Google ) über eine dynamische Cloud-Infrastruktur verteilt werden und kann mit mehreren GPUs oder Prozessoren einen nahezu linearen Maßstab erreichen .
MXNet unterstützt sowohl imperative als auch symbolische Programmierung, sodass Entwickler, die mit imperativer Programmierung vertraut sind, mehr über Deep Learning erfahren können. Es erleichtert auch das Verfolgen, Debuggen, Speichern von Prüfpunkten und Ändern von Hyperparametern wie Lernrate oder vorzeitiges Herunterfahren.
C ++ - Unterstützung für ein optimiertes Backend, um die verfügbare GPU oder CPU optimal zu nutzen, sowie Python , R , Scala , Clojure , Julia , Perl , MATLAB und JavaScript für eine einfache Benutzeroberfläche für Entwickler.
Unterstützt die effiziente Bereitstellung eines trainierten Modells auf Low-End-Geräten für Inferenzen wie Mobilgeräten (mithilfe von Amalgamation), Internet of Things- Geräten (mithilfe von AWS Greengrass), Serverless Computing (mithilfe von AWS Lambda) oder Containern. Diese Low-End-Umgebungen verfügen möglicherweise nur über einen niedrigeren Prozessor oder einen begrenzten Arbeitsspeicher (RAM) und sollten in der Lage sein, Modelle zu verwenden, die in einer übergeordneten Umgebung trainiert wurden (z. B. GPU-basierter Cluster).