19年发生了很多事情。
18年12月底从千聊辞职,和之前做APP的朋友一起出来创业,公司业务是软件外包,我负责产品的工作。2月份换了个大办公室,3月份公司被番禺电视台采访,5月份在深圳开过分部,当时公司30人。只能说是差强人意。
外包业务需要接触到很多行业的客户,作为一个产品经理这其中让我学习到最多的就是拆分业务模式:我们需要对接老板,通过提出问题的方式询问客户想要的产品,多次追问直到找到场景化的需求点,最终真正的产品给理出来。
这个过程让我很有感触:产品(H5,app,小程序,软硬件,后台等等),仅是整个商业逻辑里承担某个环节的东西。
打个比方:比如我们要设计一个用来管理流程的地产小程序,他们已经有了一系列的线下行为:业务员已经有了在微信群报备的次等解决方案、楼盘的管理员已经有了线下对接看房的行为、文员已经有了材料校验机制等等。小程序的出现仅仅只是为了将次等解决方案互联网化切入到使用场景中以提高效率,设计它麻烦的地方在自由可配的权限管理以及地域性数据的展示逻辑。它只是承接了整个商业逻辑内的某些环节。
所以想要做出一个”合适、有需求”的产品,很多时候需要了解整个商业逻辑。这改变了我设计产品的做法:从一开始的套理论变成了寻找这种商业逻辑的脉络,从鲁莽的下判断到寻找更多的信息和线索来做需求。
这一年里,我做了70多个产品原型,60多份产品功能需求表,20多份产品PRD,其中做的最好的电商小程序已经有14万用户。除了感触之外,我也感受到了外包业务产品的局限之处。
最严重的是精力不足,一般一个外包产品需要同时负责3到4个项目,这就导致了他对项目的掌控能力会有所降低,除了产品大概逻辑之外无法再深入的挖掘下去,更别说对数据的分析和api接口的掌控能力了。
其次是多数产品并没有迭代,仅仅只是开发一版就已经结束了,产品经理无法从产品本身学习到东西。
第三是开发产品的行业并不相关,有时候做一个新产品等于从头开始做起,这虽然很锻炼产品经理的快速学习能力,但是更多是多种信息杂糅,导致产品经理本身无法专注和精进。
「有的人出现就是为了给你指出该往哪去。」
今年在非业务上接触到一些很厉害的人,像荔枝微课的CEO黄冠哥、华为海思出来的荣哥等等,其中也有一些对我影响很大的人:像百度产品离职出来的做海外的清波、在天猫做产品的王第等。
我从18年10月开始从运营转行进入产品,之后就出来自己做公司,其实很缺少产品路上的指引,所以我很珍视和厉害产品经理合作的机会,因为能从他们身上学到东西。
和王第合作做一款政务数据中台的时候,我终于明白prd开头拆分功能结构和功能列表的意义:整理功能结构需要从模块去定义整个产品架构,以及定义功能颗粒度,这在产品迭代和延展性上会非常好拓展,而不是简单的只是对页面进行功能拆分,这是外包产品学不到的东西。诸如此类的还有很多,就不展开了。
这一年工作基本是在忙碌上过去的,忙碌到会让人忘了为什么要忙碌。我其实很不喜欢。
2月份换了个新的公寓,搬到了公司附近。我想着把公寓装修一遍,于是我上知乎快速学习了如何高性价比的装修房间,然后去宜家买了些家具,淘宝上也买了一些,总共花了1500。最后大概装修成这样:
3月份尝试投过微信搜一搜的产品岗,通过一个招聘邮箱,我使用商业逆向工程找到了面试官的基础资料,包含学历,工作经历,姓名,社交账号等等。
3月我开始减肥,截止到6月,我从90kg减到了77kg。(现在又胖回到82kg)
6月份开始拍毕业照,事先没有通知朋友,等到拍的时候我看到同学都有朋友家人在旁边,我有一瞬间感觉到很难过。(我以为我是一个莫得感情的机器,事实证明我不是)
6月7日去香港的麦理浩径徒步,原定那天走15公里,第二天走第二段。
晚上10点的时候家里来了一通电话,说奶奶去世了。当时接到电话后我的情绪还很稳定,想着尽一切可能赶回去。
露营点那个地方基本没有网络,也没有车子,我们想着走到马路看看能不能拦一辆车带我们到地铁,结果太晚了路上没有一辆车,我们只能沿着马路一直走,大概走了7公里之后,家里又来了一通电话说我不用回去,大半夜的太危险。
我挣扎了很久最后放弃了,我平躺在马路上,一下子忍不住哭了。那是无力的感觉。
后来回到广州在公寓里呆了10天,当时的心情已经不能用差来形容,那个时候天天在家里看一个叫《人生七年》的记录片。这种心情断断续续持续了几个月。
7月份,由于挂的科太多,我被延迟毕业了。
11月份,开始用ipad画画,重新温习前端。
每个人都有看世界的一种方式,我将它称为「眼镜」,看一件事物得出的结果,我将它称为「成像」。看得见事物的脉络与否,很多时候是「眼镜」而不是「成像」的问题。同样一个数据散点图,不同的人看到的是不同的东西,做出的决策也截然不同。所以这章基本写的是我的「眼镜」,我是如何看世界的,仅代表我个人的观点。
从大一开始,我就有意识的学习一些课程之外的东西。从一开始的李叫兽,到后来的《思考快与慢》,再到增长黑客和社会工程学,再到《失控》,接着了解到混沌学,了解机器学习。如果你有读过上面的东西你就会有了解,这些内容的着重点是在某个“群体”上。
但今年我没读什么书,一方面是因为太忙,另一方面是因为我看世界的角度发生了一些变化。
其中很重要的一点是,我遇到了奥卡姆剃刀。
我看过很多书,书中的论证自己观点的方法往往是先提出一个概念,然后找到相应的例子去佐证这个概念,这是目前论证观点的最好方法。但是它是具有局限性的,因为这类论证没有考虑到「时间的因素」。我们谈论的是未来,但你得出结论的例子是过去。意识到这一点后,我对待这些知识的态度从「指引」变成了「校验」。
是的,它们更多是一种校验作用。比如你发现了一个想法,你想尝试是否可行,就用这些方法去校验它,看看想法和知识发生了哪些冲突。如果有了冲突,那么问题在哪,为什么是这个问题。如果你分析了很久,还是找不到想法的问题出在哪,你就可以开始怀疑方法,因为方法是有时效性的。
我在以前的文章里写过:过去是一条线,现在是一个点,未来是一张概率网。人们常讨论过去的线,希望能在线中总结出某些方法。但却基本忽略了未来的事件是一张“网”,它是一种概率事件。它很像
P(A)「事情A发生的概率」和
P(A|B)「在事情B发生的情况下事情A发生的概率」的区别。
时间帮我们做出了选择,把B变成了100%的事件,因为它已经发生了,它是确定的,无法逆转的形态。
问题在于对于A这样的概率事件,我们应该如何控制它?不,应该换个词叫适应才对。在我脑袋里,我是如何去理解未来的?这得从《失控》开始说起。
失控这本书里花了大量的篇章讲分布式,我当时看有一种奇妙的感觉。分布式不像传统的机械控制那样依靠一个主要的中枢思想或者中枢大脑去控制机械产生固定的结果,而是使用一种自组织的方式去设计程序。
每个个体都有一定的基础共同思想,然后通过群体协同,将这些个体组合在一起,使群体能够完成一个中枢大脑无法完成的工作。听到这样的描述你就会发现机械控制的目的在于「中枢」,分布式的目的在于「群体」。我找到了那种奇妙感觉的来源,它十分像另一本描述群体的书:《乌合之众》。
个体和群体的概念其实十分模糊,多少个个体才是个体和群体的临界点,这种问题其实和多少粒沙子才是一堆沙子的问题同出一源。这让我十分困惑,如果无法确认个体和群体的界限,那“涌现”的定义又从何而来?
在这里,我没有得到有实际用处的东西,它只改造了我看世界的方式。
而后我了解到了《三体》,进而对三体问题十分感兴趣,搜索了很多资料去了解它的起源,最后发现它是归为一门19世纪初创造的数学学科,叫做混沌学。第一个讨论混沌问题的数学家是庞加莱。
这很有意思,数学一直是有序的代表,却生产出了「Chaos」这种混乱的代名词。但当时研究混沌的仅仅只有数学家。
事情是在什么时候发生改变的呢?
随着计算机的兴起,大型计算机能够计算成吨的数据,有这么一个人叫曼德博,他在IBM任职科学家时发现了频率异常的波段,这些波段不但粗糙,每个波段之间还具有一定的自相似性。
一开始他以为是仪器的问题,通过专门针对的实验发现,这些数据的计算在某个临界值时会开始无规律可循,且它们生产出的集合是一个无限的集合,这就意味着如果你将集合以图形的方式画出来,那么它的周长将会是无限。这是混沌学在世界上首次以某种具体的形式展现出来。
混沌诡异的地方在哪呢?它通常起源于一个十分规整的方程式,但它具有无限的细节。如果你仔细看你会发现头部的一小段它是收敛的,直到迈过洛伦兹吸引子的临界点后,出现了一个较小的“黑暗区域”,这是一个混乱的集合。纯公式也能够得到如此“粗糙”的图形,原因是这个集合在数学上的纬度并非是2维的平面,而是一个维度约为1.4左右的集合呈现,自然在平面上就呈现出了周长无限的诡异现象。
这种图形的起源是一个纯公式,它是一种数学,它无法对我们的工作和生活起到太多的指导作用。它只提醒了我一件事情,即使是纯逻辑的数学公式得出的集合,在超越临界点之后也会呈现出混乱无序的、难以计算的状态。它是一种类似网状的逻辑。
在这里,我没有得到有实际用处的东西,它只改造了我看世界的方式。
在这之后,我了解到一个更实在的东西:机器学习。为什么说它实在呢?因为它已经开始应用在各种场景中。
这是人类制造的第一个能够进行泛化处理的程序。它可以解决识别是否是猫的问题,也可以解决处理图像的问题,还能解决识别语言当中的含义的问题等等。
如果实现机器学习呢?其实网上都有,Google还专门开设了一个机器学习的入门课程,其中课程视频的翻译语言还是通过机器学习做到的。
我更关心的是它为什么与传统的程序不同。为了理解机器学习我们打个「不太恰当」的比方:
假设一个式子为4x4=16。4为输入值,16为输出值。
常规的方法是人脑来定义中间的计算方法为x4,提供函数的是「人的大脑」。
而机器学习则是给出输入值和输出值,有可能是4和16,有可能是5和20,然后让机器通过训练得到x4。提供函数的是「计算机自身」。
值得一提的是无论它是否得到函数为x4,只要答案输出的结果为正确比例逼近100%,它就是实用的,换句话说机器学习内部机制是个黑盒。
不难看出传统程序是通过人来「定义函数」,而机器学习则是让人来「判断」机器输出的结果是否正确。这就像是一种教学。
举个实际的例子:
比如我们想训练算法能够识别28x28像素的「7」,需要将过程分为「训练」和「使用」。
训练:
把这个图片的灰度值提取为0-1之间的值,然后用784个代表不同灰度的输入值输入到程序。
程序内有很多的中间层(也叫隐藏层),通过向量的方式(向量代表权重)让784个输入值不断经过中间层,最后在输出值的1-10内会指向一个确定的值。如果最后的输出值没有收敛,则会使用损失函数进行调整,直到输出值会收敛为一个确定的7。
这个过程中的关键之处在于一开始提供训练的像素图是否足够干净、中间层的层数和损失函数的高效性。整个过程需要花费大量的时间和计算。
使用:将得到的算法应用在实际图像识别当中,用户提供包含7的图片,即可识别出图片内容是否为「7」。
我并没有将机器学习学到我能够写numpy的程度,但我从其中也能感受到一些不可思议的东西。即机器自主寻找出解决方案的方式为一个黑盒,我们不知道它是如何做到的。
大量用于训练的输入像素图拆分为单个灰度的像素点时我们找不到输入值上的规律,中间层过滤的时候发生了什么我们也不清楚,但我们就是得到了能够识别图片为“7”的算法。
由于我并不会用numpy使用机器学习,我还是没有得到有实际用处的东西,它只改造了我看世界的方式。
知道这些东西越多,我的困惑也越多:我发现他们都包含不为人知的“黑盒”,导致黑盒的原因往往充斥着大量的信息和数据让人难以溯源、杂乱、需要大量的计算、去中枢化等等。
“如无必要,勿增实体”。奥卡姆并没有告诉我什么是对的,但它教会我一种面对它们的方式:对于不可掌控的,无法穷尽的逻辑黑盒,我需要放弃对它的掌控,而是需要将逻辑黑盒“外包”出去:比如尝试通过计算机或者其他能够承受如此大计算能力的东西去实现。这是一种减法。
同时奥卡姆剃刀给了我一种新的看世界的启示。
正如我之前提到的:过去是一条线,现在是一个点,未来是一张概率网。
论过去发生的事件概率多么小,它只要发生了就是100%的概率,是确定的事实。
无论未来没发生事件的概率多么大,它只要没发生那就一定不是100%的概率,因为它是网状的逻辑、是一种尚未被确认的可能性。同时它还受已经发生的确定事实的影响。
我们能控制的只能是现在的那个点,那些正在发生,正在流失的现在。
我武断的认为,当下的大多数知识和方法都具有时效性,针对当下应该做什么的做法少之又少。既然没有人能确定未来的概率网内会发生什么样的事情,那么将想做事情的概率网不断收缩成线(是一种动态)则是一种应对概率的优秀做法。
这个时候重点从做对的事情变成了2个条件:
做「假设最少且正确率高」的事情,+ 让事情「快速生产」。
其实看到这里,你大概能感受到我脑子里对奥卡姆剃刀的看法:
它是一种单独的机制,不依附于任何理论。
它是针对无尽的计算和不确定的概率下的一种生产方案。
它针对的不是如何寻找对的东西,而是在批量生产中如何快速命中对的事情,当然批量生产中能有技法会减少很多时间。
它更和创新没有半毛钱关系,它是处理创新想法的一种手段。
“受到限制不是坏事情——它经常迫使我们变得更富有创造性。”
奥卡姆并不提供创新,实际上创新是一种信息收集和整理的行为。我认为创新和抄袭本质上是一样东西:它们都是一种收集他人的信息,进行拆解并重组的手段。
拆解收集他人得来的信息时需要有批判思维,要敢于质疑权威。有时候专业是一种幻象,质疑权威仅需要一个为什么,同时一直不停的问下去,你就能找到他搭建的想法架构上存在一些时效性的东西。然后判断这之后它是否有必要存在,如果没有必要:
仅此而已,创新的本质不是增加,而是减少,必要的时候甚至需要整体推翻,再取出核心重建一次。