WWDC2018之Create ML(一)

WWDC2018刚刚过去一个不到一个月,开发者们是不是对iOS12的新特性蠢蠢欲试,在WWDC2018上,库老板发布了iOS12,watchOS 5,macOS Mojave和tvOS12。这次发布会升级了ARKit2,CoreML2,新增了Create ML。那么,我们一定很好奇新增的这个Create ML是什么?和CoreML又有什么关系,下面我带大家看一下。

如果你用过CoreML的话,你应该知道,使用CoreML的前提是你需要机器学习已经训练好的模型,这个模型怎么来呢?使用tensorflow等神经网络框架训练出来,然后通过苹果的工具转换成相应的格式才能使用,但是这样的话,你需要学习相应的神经网络算法,写相应的神经算法去训练模型,这样学习成本成吨的上涨。这个时候,Create ML的出现,能够让你更加轻松的训练出模型,苹果是不是很贴心呢!

下面我将一步一步的演示最基本的做法!

我们都知道CoreML主要用于识别图像和自然语言,那么,我们这一篇以识别图像作为演示。

电脑系统:macOS Mojave

Xcode版本:Xcode 10 beta2

开发语言:Swift4.2

目标:分类猫、狗、狮子、老虎、羊的图片

1.数据预处理

首先我们要收集猫、狗、狮子、老虎、羊的不重复图片数据,里面的80%的图片当做训练集,20%的图片当做测试集。

新建一个叫Training Data的文件夹,这个文件夹当做训练集的总文件夹,再这个文件夹再新建要分类的文件夹。