Next Page: 10000


[原]Win10+Anaconda3+TensorFlow 2.0

1.Anaconda3: 运行: 开始菜单->Anaconda3—>Anaconda Prompt 增加清华镜像 conda config --add channels conda config --add channels https://mirro...
作者:MyArrow 发表于 2019/09/29 15:44:06 原文链接


See how Google Photos’ nifty new feature adds color to black-and-white images

Google first got us excited for the nifty new Google Photos feature called "Colorize" back in 2018, when the company teased it at I/O 2018 and showed us how it can take a black and white image you've captured and render it in color. That's no mean feat, because the AI that underpins this feature goes on to imbue the image with the correct color choices in the correct way -- trees, for example, show up looking natural and not shaded with, say, a purple hue. Per a Google executive, the feature relies on TensorFlow's machine learning capabilities to recognize the appropriate colors that need to be added to specific areas of black-and-white images. And now, thanks to an early version of the feature in action, when can get another look at how well this works. Running a beta version of the feature, which Google promises is being launched soon, 9to5Google provided some examples of how well "Colorize" works. The sample below show an original color image, then the image runs through a black-and-white filter in order to give Colorize something to work with, and image #3 is the result: Here's a stellar sample: And another example: One thing to note, for those you interested in this feature, is that the colorization doesn't happen on-device. You've got to actually take a photo and upload it to Google Photos before the process kicks in. And while you can see some examples above of Colorize in action, it's intriguing to think about all the other different possibilities that exist for this feature -- some even with potential emotional resonance for the user. Think about a photo of your grandparents that's in black-and-white, for example, which can be updated with natural-looking color, bringing to life snapshots from earlier generations of your family. This is all part and parcel of the new functionality Google keeps adding to Photos to surprise and delight users, one of the most recent being a Stories-like element that uses bubbles at the top of the app to resurface photos you may have forgotten about (an "On this day, this happened" kind of feature). The app's AI also regularly touches up your photos and surprises you with collages, your photos updated with filters and much more.

Comment on Performance Comparison of Containerized Machine Learning Applications Running Natively with Nvidia vGPUs vs. in a VM – Episode 4 by Confronto delle prestazioni delle applicazioni di apprendimento automatico in container eseguite in modo nativo con le vGPU di Nvidia rispetto a una VM - Episodio 4 - VMware VROOM! blog - Sem Seo 4 You

[…] Questo articolo è di Hari Sivaraman, Uday Kurkure e Lan Vu del team Performance Engineering di VMware. Confronto delle prestazioni delle applicazioni di apprendimento automatico containerizzato I contenitori Docker [6] stanno rapidamente diventando un ambiente popolare in cui eseguire diverse applicazioni, comprese quelle dell’apprendimento automatico [1, 2, 3]. NVIDIA supporta i contenitori Docker con la propria utility del motore Docker, nvidia-docker [7], specializzata per eseguire applicazioni che utilizzano GPU NVIDIA. Il contenitore nvidia-docker per l’apprendimento automatico include l’applicazione e il framework di apprendimento automatico (ad esempio, TensorFlow [5]) ma, soprattutto, non include il driver GPU o il toolkit CUDA. I contenitori Docker sono indipendenti dall’hardware, quindi, quando un’applicazione utilizza hardware specializzato come una GPU NVIDIA che necessita di moduli kernel e librerie a livello utente, il contenitore non può includere i driver richiesti. Vivono fuori dal container. Una soluzione alternativa è installare il driver all’interno del contenitore e mappare i suoi dispositivi all’avvio. Questa soluzione alternativa non è portatile poiché le versioni all’interno del contenitore devono corrispondere a quelle nel sistema operativo nativo. L’utilità del motore nvidia-docker fornisce un meccanismo alternativo che monta i componenti in modalità utente all’avvio, ma ciò richiede l’installazione del driver e di CUDA nel sistema operativo nativo prima dell’avvio. Entrambi gli approcci presentano degli svantaggi, ma quest’ultimo è chiaramente preferibile. In questo episodio della nostra serie di blog [8, 9, 10] sull’apprendimento automatico in vSphere mediante GPU, presentiamo un confronto delle prestazioni di MNIST [4] in esecuzione un contenitore su CentOS in esecuzione nativamente con MNIST in esecuzione in un contenitore all’interno di una VM CentOS su vSphere. Sulla base dei nostri esperimenti, dimostriamo che l’esecuzione di container in un ambiente virtualizzato, come una VM CentOS su vSphere, non risente delle prestazioni, pur beneficiando delle enormi capacità di gestione offerte dalla piattaforma VMware vSphere. Configurazione e metodologia dell’esperimento Abbiamo usato MNIST [4] per confrontare le prestazioni dei contenitori in esecuzione nativa con i contenitori in esecuzione in una macchina virtuale. La configurazione della VM e del server vSphere che abbiamo usato per il “contenitore virtualizzato” è mostrata nella Tabella 1. La configurazione della macchina fisica utilizzata per eseguire il contenitore in modo nativo è mostrata nella Tabella 2. vSphere 6.0.0, build 3500742 Nvidia vGPU driver 367.53 Sistema operativo guest CentOS Linux versione 7.4.1708 (Core) driver CUDA 8.0 CUDA runtime 7.5 Docker 17.09-ce-rc2 ⇑ Tabella 1. Configurazione della VM utilizzata per eseguire il contenitore nvidia-docker Driver Nvidia 384.98 Sistema operativo CentOS Linux versione 7.4. 1708 (Core) Driver CUDA 8.0 CUDA runtime 7.5 Docker 17.09-ce-rc2 ⇑ Tabella 2. Configurazione della macchina fisica utilizzata per eseguire il contenitore nvidia-docker La configurazione del server che abbiamo usato è mostrata nella Tabella 3 di seguito. Nei nostri esperimenti, abbiamo usato la GPU NVIDIA M60 solo in modalità vGPU. Non abbiamo utilizzato la modalità I / O diretto. Nello scenario in cui abbiamo eseguito il container all’interno della VM, abbiamo prima installato i driver NVIDIA vGPU in vSphere e all’interno della VM, quindi abbiamo installato CUDA (driver 8.0 con runtime versione 7.5), seguito da Docker e nvidia-docker [7]. Nel caso in cui abbiamo eseguito nativamente il container, abbiamo installato il driver NVIDIA in CentOS in esecuzione nativamente, seguito da CUDA (driver 8.0 con runtime versione 7.5), Docker e infine, nvidia-docker [7]. In entrambi gli scenari abbiamo eseguito MNIST e abbiamo misurato il tempo di esecuzione per l’allenamento utilizzando un orologio da parete. ⇑ Figura 1. Configurazione testbed per il confronto delle prestazioni dei contenitori che funzionano in modo nativo rispetto a quelli in esecuzione in un modello VM Modello di processore Dell PowerEdge R730 Tipo di processore Intel® Xeon® CPU E5-2680 v3 a 2,50 GHz Numero di core della CPU 24 CPU, ciascuno con socket del processore a 2,5 GHz 2 core per socket 14 Processori logici 48 Hyperthreading Memoria attiva SSD locale da 768 GB (1,5 TB), array di archiviazione, GPU per dischi rigidi locali 2x M60 Tesla ⇑ Tabella 3. Risultati della configurazione del server I tempi di esecuzione misurati dell’orologio da parete per MNIST sono riportati nella tabella 4 per i due scenari che abbiamo testato: esecuzione in un contenitore nvidia-docker in CentOS in esecuzione nativamente. In esecuzione in un contenitore nvidia-docker all’interno di una VM CentOS su vSphere. Dai dati, possiamo vedere chiaramente che non vi è alcuna penalità misurabile delle prestazioni per l’esecuzione di un contenitore all’interno di una macchina virtuale rispetto al suo funzionamento nativo. Tempo di esecuzione della configurazione per MNIST misurato da un contenitore Nvidia-docker dell’orologio da parete in CentOS in esecuzione nativamente 44 minuti 53 secondi Contenitore Nvidia-docker in esecuzione in una macchina virtuale CentOS su vSphere 44 minuti 57 secondi ⇑ Tabella 4. Confronto del tempo di esecuzione per MNIST in esecuzione… Fonte […]

New: Humble "Computer Productivity & Coding" Bundle


New: Humble "Computer Productivity & Coding" Bundle

View full article on Epic Bundle »

Work smarter, not harder.

An all-new bundle by Humble Bundle and Mercury Learning. Pay what you want starting at $1 - Pay more, get more! Normally, the total cost for this bundle is as much as $941.

Get the complete bundle here!

Hint: Don't miss the epic Humble MONTHLY bundle ❤

Included content:

  • 3D Printing
  • Artificial Intelligence in the 21st Century 2/E
  • AutoCAD 2019 Beginning and Intermediate
  • AutoCAD 2020 3D Modeling
  • Autodesk Revit 2020 Architecture
  • Basic Electronics Video Tutorials
  • C Programming
  • Classic Game Design 2/E
  • Cloud Computing Basics
  • Data Cleaning
  • Embedded Vision
  • Excel Functions & Formulas 5E
  • Frank Luna
  • Game Development Using Python
  • HDL with Digital Design
  • HTML 5 Programming Video Tutorials
  • Introduction to 3D Game Programming with DirectX12
  • MS Excel 2016
  • Microsoft Access 2019 Programming with VBA, XML, and ASP
  • Microsoft Excel 2019 Programming with VBA, XML, and ASP
  • Microsoft Office 2013/365 and Beyond
  • Multimedia Web Design
  • Photoshop Photo Restoration Video Tutorials
  • Python 3
  • SVG Programming Video Tutorials
  • Software Testing
  • TensorFlow 2

Read the full article here:

More Epic Bundle - Follow us...


End-to-End Deep Convolutional Active Contours for Image Segmentation. (arXiv:1909.13359v2 [cs.CV] UPDATED)


Authors: Ali Hatamizadeh, Debleena Sengupta, Demetri Terzopoulos

The Active Contour Model (ACM) is a standard image analysis technique whose numerous variants have attracted an enormous amount of research attention across multiple fields. Incorrectly, however, the ACM's differential-equation-based formulation and prototypical dependence on user initialization have been regarded as being largely incompatible with the recently popular deep learning approaches to image segmentation. This paper introduces the first tight unification of these two paradigms. In particular, we devise Deep Convolutional Active Contours (DCAC), a truly end-to-end trainable image segmentation framework comprising a Convolutional Neural Network (CNN) and an ACM with learnable parameters. The ACM's Eulerian energy functional includes per-pixel parameter maps predicted by the backbone CNN, which also initializes the ACM. Importantly, both the CNN and ACM components are fully implemented in TensorFlow, and the entire DCAC architecture is end-to-end automatically differentiable and backpropagation trainable without user intervention. As a challenging test case, we tackle the problem of building instance segmentation in aerial images and evaluate DCAC on two publicly available datasets, Vaihingen and Bing Huts. Our reseults demonstrate that, for building segmentation, the DCAC establishes a new state-of-the-art performance by a wide margin.

Next Page: 10000

© Googlier LLC, 2019