根据我当前认知,人工智能产品经理又可细分为:
一.区分不同技术领域;
二.区分产品面向用户对象;
三.区分产品终端形态;
四.区分日常职责:注重交互设计(PD-design PM)、注重市场运营推广(PMM-market PM)、注重优化算法性能+元能力策略定义(TPM-technology PM)、注重整体场景落地规划(SPM-strategy PM)等,不同公司对AIpm的职责划分不一致,且有的product manager 同时也需要担任project manager的角色。
上面的细分类如果有兴趣听我进一步具体讲讲我浅薄认知的欢迎留言。本系列要讲概率统计知识是和TPM日常工作息息相关,因为TPM的工作职责之一就是协助算法工程师优化算法性能,算法模型存在不同程度的误判情况,而制定结合概率统计知识的元能力策略、优化训练数据、优化颗粒度定义、优化采集图像等都是降低算法在实际应用场景下的误判情况。
说句实在话,概率统计并非我的强项,哦,不,准确来说我完全就是一枚渣渣,说的有不当的地方请尽情吐槽~
一》谷歌面试题引发的“血案”~
google曾有这么一道面试题目,引出过无数高手头脑风暴的“血雨腥风”:
译文:
在100层高的大楼,你有2个一模一样的鸡蛋,需要确认把鸡蛋扔下去而不摔坏的最高楼层。问题:你需要扔多少次才能确定答案。提出一个计算法则找到在最坏情况下扔的最少次数。
情景解析:
1.方法一:逐层检验
最简单的一个方法,就是将第一颗鸡蛋从第一层开始,逐层扔出直至找到将其摔坏的楼层,最极端情况下max次数为100。这种方法会导致求得的扔鸡蛋次数并非最少且鸡蛋资源无充分利用。
2.方法二:二分法
将第一颗鸡蛋从第五十层扔出,第五十层没破就从第七十五(50+25)层扔出,第五十层破了就在1-49层楼层间,用第二颗鸡蛋从1-49层最低层逐一检测,以此类推,最极端情况下max次数为50。
3.方法三:划分N段相等区间检验
4.方法四:纳什均衡
纳什均衡有2个知名的案例分别是囚徒困境和硬币正反游戏,其定义是:在博弈G=﹛S1,…,Sn:u1,…,un﹜中,如果由各个博弈方的各一个策略组成的某个策略组合(s1*,…,sn*)中,任一博弈方i的策略si*,都是对其余博弈方策略的组合(s1*,…s*i-1,s*i+1,…,sn*)的最佳对策,也即ui(s1*,…s*i-1,si*,s*i+1,…,sn*)≥ui(s1*,…s*i-1,sij*,s*i+1,…,sn*)对任意sij∈Si都成立,则称(s1*,…,sn*)为G的一个纳什均衡。
设S(n)为楼层数,max(S1,(S2-S1-1)+1,(S3-S2-1)+2...)=n(n+1)/2,对于100层的情况,n(n+1)/2>=100,i>=14,则最极端情况下max次数为14。
4.方法五:( ̄∇ ̄)我选择把2枚鸡蛋都吃了~本来我就那么点智商,还让我计算得这么费劲。
以上以一道面试题引出概率统计知识的重要性,而概率统计知识又是怎么降低算法模型的误判情况呢?
二》“贝叶斯推理”统计学的应用
AI(人工智能)在识别判断分类的应用,就像电商顾客在店铺浏览商品时,推测该顾客究竟是“来买东西的”,还是“不买东西的”;推荐该顾客是“会咨询客服的”,还是“不咨询客服的”。如何来推测?
1.步骤一:确定先验概率
在此场景下顾客分为两类:来买东西的、不买东西的。假设电商售前客服根据以往数据统计获得“每10位顾客中就有3位是来买东西的”的结论且所有顾客一定属于两种中的一种,则根据历史数据统计的类型比例来进行数值分配:“来买东西的”顾客的概率就是30%,“不买东西的”顾客的概率就是70%。
我们把30%和70%分别称为两类顾客的先验分布,即在识别对象发生下一步行为前进行的事先概率判断。在贝叶斯统计学中,有个专有名词叫“先验概率”。就像我们在通过AI计算机视觉技术进行1vs1人脸识别的身份验证一样,我们先拿部分历史数据进行灰度测试,得到“是本人”的概率为0.75和“非本人”的概率为0.25。
“先验概率”并不能帮助我们在实际场景下明确该位顾客是“买东西的”还是“不买东西的”,但能帮助我们形成对识别对象的整体感知,进一步结合该对象将采取某种行为(比如是否咨询客服)的条件概率来推测每个行为发生的可能性,有助于我们整理思路。
2.步骤一:结合条件概率
假设电商售前客服根据以往数据统计获得“来买东西的顾客有80%会咨询客服,20%不会咨询客服;不买东西的顾客有40%会咨询客服,60%不会咨询客服的”的结论,表示“某一特定类别(不同识别对象)采取各种行动的概率”在统计学中被称为“条件概率”,则顾客咨询客服的条件概率为:
推测出每种行为的条件概率究竟有什么作用?比如,在该电商售前场景下,当我们预估到客服整体会有多大的比例人群会咨询客服,当我们设定下个电商大促的客流量目标的情况下,我们便也能预估我们需要有多少客服人手。
同理,当我们通过AI计算机视觉技术进行1vs1人脸识别的身份验证,且假设灰度的样本数据跟实际场景的数据的各项影响因素保持一致,预测到整体人群“是本人”的概率为0.75和“非本人”的概率为0.25,并结合“非本人”群体做出各类犯罪行为的概率,进而预估危险事件发生的可能性,从而应用在安全监测场景。
就如图前面提到的“囚徒困境博弈”的纳什均衡经典案例。
3.“囚徒困境博弈”案例
警方逮捕甲、乙两名嫌疑犯,但没有足够证据指控二人入罪。于是警方分开囚禁嫌疑犯,分别和二人见面,并向双方提供以下相同的选择:
引用--bai du 科学
这场博弈的纳什均衡,显然不是顾及团体利益的帕累托最优解决方案。以全体利益而言,如果两个参与者都合作保持沉默,两人都只会被判刑1年,总体利益更高,结果也比两人背叛对方、判刑8年的情况较佳。
但根据以上假设,二人均为理性的个人,且只追求自己个人利益。均衡状况会是两个囚徒都选择背叛,结果二人都会被判监8年。这就是“困境”所在。例子漂亮地证明了:非零和博弈中,帕累托最优和纳什均衡是相冲突的。纳什均衡很好地诠释了市场经济的现象。