首页 科技快讯 大数据不歧视你,大数据只预测你

大数据不歧视你,大数据只预测你

来源:晰数塔互联网快讯 时间:2022年01月05日 07:21

01 价格歧视

假设公司目前主力销售的一款产品,定价100元,毛利率30%(即成本70元),公司想推出类似的新产品,你觉得下面的哪一种定价行为,会让顾客不爽?

1、推出“豪华版”,定价150元,毛利率提升至40%(即成本90元),以“升级款”的名义向老客户推销;

2、推出“环保版”,定价90元,毛利率仍然是30%(即成本63元),以“老客户回馈”的名义向老客户推销;

3、直接后台区分,推出成本完全一样的新包装,看到老客户,定价110元,看到新客户,定价90元。

毫无疑问,一定是“营销活动3”让人不爽,这就是标准的“大数据杀熟”。

那么,“豪华版”和“环保版”,哪一个更让你不爽呢——这两个活动多少也有点“杀熟”的意图。

大部分人都会选择“环保版”,因为企业只是降低了成本,却冠以“老客户回馈”的名义,这仍然是一种欺骗。

而“豪华版”,虽然提升了毛利率,但高价产品定高毛利,却是消费者比较容易接受的常规做法。此外,虽然公司的营销重点是老客户,但活动的名义是“产品升级”,也不算是一种欺骗。

从这些来看,“大数据杀熟”有三点令人不爽,而且“不爽”的程度依次升级:

1、滥用用户隐私

2、损害了客户的利益

3、不公平,欺骗性定价

虽然媒体对“个人隐私”讨论的比较多,但大多数人感到愤怒的原因主要还是“被欺骗”和“利益受损”——用“个人隐私”换来的却是更贵的价格。

假想一下,如果平台的模式是自动识别老客户,专门给优惠(因为不想让得不到优惠的新客户不满),那么,客户会接受用“隐私权”换更便宜的价格吗?以我过去做电商的经验,大部分人会的,没有便宜十块钱换不来的客户隐私,如果不是,那就再便宜十块。

“大数据杀熟”本质上是一种价格歧视,并不是所有的“价格歧视”都会招致用户反感,以下价格歧视就被消费者普遍接受:

会员价与非会员价

新客户优惠券

航空公司按预定时间不同,给予的折扣不同

我国的工商电价贵,居民用电便宜

量贩超市,买的越多越便宜

还有一些定价方法,也被普遍接受,但同时有一些争议:

同样能力的员工不同薪酬,且不允许私自泄露工资

一瓶水在超市卖2元,在豪华酒店卖10元

双11用复杂的优惠方法,让不同客户得到不同优惠

那么,相比下面典型的“大数据杀熟”,上面两类定价方法有什么区别呢,为什么有些可接受,有些不可接受?

高峰期打车软件优先给“同时使用两款打车软件”的客户派单

外卖软件偷偷给会员用户提价

常订高价机票的乘客,显示的票价也高

02 效率至上

定价是一件商品能否获得商业上成功的核心因素之一,定价太高,销售不及预期,失败!定价太低,利润不及预期,同样失败!

定价成功的核心是找到消费者的心理预期,然后比这个“心理预期”低一点点。比如我开发了一款多功能扫地机,消费者在比较了多款商品后的心理预期是X元,那我的定价如果刚好是“X-1”元,那就可以获得最大的利润空间。

但问题在于,不同的消费者对同一款商品的“心理预期”是不同的,商品需要找到占比最大同时预期又很合理的那一群客户,这在新产品定价之前,只能靠经验判断——或者采用“价格歧视”策略。

价格歧视就是把相同的产品以不同的价格分别卖给不同的客户,其依据是客户的偏好、需求的迫切程度以及价格的接受能力。

假设商家认为,对品牌有偏好且价格承受能力强的人,喜欢到旗舰店购买,价格承受能力弱的人,喜欢找有折扣的淘宝C店,那么,商家就可以默许经销商通过淘宝C店给予更多优惠,但不给予正品保证,这实际上就构成了一个“价格歧视”。

为什么这种价格歧视不会引起用户的反感呢?关键在于,品牌不给C店正品保证,增加了消费者的购买风险,C店给消费者的优惠实际上是“风险补偿”,背后是一种公平的原则。

品牌明知C店卖的是正品,故意不给正品保证,也是基于“公平”的原则——让那些对品牌信任并付出更高价格的忠诚级消费者有“公平”对待的感受。

价格歧视本质上是一种“效率至上”导向下的定价策略:对于商家而言,可以利润最大化;对于消费者而言,不同价格满足了不同偏好的消费者;对于整个社会而言,商品的整体价格并没有提升。

只要是“效率”出现的地方,就会遇到“公平”的问题,可接受的“价格歧视”一定是在效率与公平之间,找到最佳平衡点。

机票预定时间越晚,折扣越低,其商业上的原因是,商务客户的付费能力高,但时间不容易确定,所以到最后几天订机票的可能性较大。

但这个价格机制从公平角度同样说得过去:早订票的客户,付出了行程变更的风险,更大的折扣力度就是“风险补偿”——非常公平。

价格歧视不需要实际上的公平,只要名义上公平,你只要能有一个大家能接受的理由就行了。

豪华酒店一瓶普通水卖10元,原因是住豪华酒店的客户付费能力高,但名义上还是“公平”,因为酒店付出了更多的服务——实际上成本根本摊不了这么高。

所以,这里的“公平”并非是利益上的公平,是消费者的个人感受。“大数据杀熟”的问题不在隐私和价格歧视,而在公平感的丧失。

既然是个人感受,差异就会很大,甚至在不同的社会环境下,对“公平”的看法不同,同样的价格歧视被接受的程度不同,甚至可能相反。

以电价为例:

国外的电价,企业用户电价低,居民用户电价高;

国内的电价,企业用户电价高,居民用户电价低。

其原因在于,国外的电力企业以私营为主,且存在竞争关系,企业用户电价量大,可以给一定的优惠;而国内电力企业都是国有企业,承担一定的社会责任,保证居民平价用电,而企业用户可以把高电价转嫁到商品价格上,所以可以定高价。

这就是不同性质的企业,对“公平”的看法不同,造成了完全相反的“价格歧视方向”。

那么,公平感为什么对于定价如此之重要,甚至重要性超过了“实际利益”呢?

关键在于品牌。

03 社会公正与品牌价值观

品牌的诸多定义中,有一条是承诺,品牌代表企业对用户的承诺。

可口可乐:全球如一的美国味道

中国李宁:中国人也可以有顶级潮牌

元气森林:提供健康的好味道

爱马仕:有品味的低调奢华

承诺的意思代表对所有客户有效,“公平的对待所有客户”就是承诺的前提,如果打破了这个前提,那么意味着品牌的所有承诺都不再可信。

实际的品牌管理中,企业更注重品牌形象的区分度,但过度强调品牌个性的时候,去想各种花哨的品牌主张、玩很多创意,反而违背了一些最基本的价值观。

公平感是一个非常复杂,甚至有一点“非理性”的感受,企业很可能在不经意间就触动了消费者敏感的神经。

在高铁尚未在祖国大地上遍地开花之前,每年到了春运,买不到火车票一直是网络讨论的焦点,偏市场派的经济学家每年都主张“提价”解决火车票供应紧张的问题,但每次都被骂得狗血淋头。

经济学家不服气,提价怎么不合理了?航空机票都是定一个特别高的价格,平时狠狠地打折,节假日按原价,大家皆大欢喜。

高价难吃的飞机餐价格含在机票中强制消费,就变成“优质服务”的一部分,同样高价味道好很多的火车餐。不强制消费,只是叫卖几声,反而不断惹争议。

低价提价是不公平,高价打折就是公平,结果就是后来的高铁定价,也是先定一个高价,再打折。

最终,在长期的营销实践中,大品牌们已经熟练地掌握了一系列营销套路——既能达到歧视性定价的目的,又不让顾客感到被冒犯。可惜到了大数据时代,急功近利的网络平台,又要把当年传统品牌踩过的坑,重新踩一遍。

传统品牌营销中“给新客户专享优惠券”,跟网络平台“给老客户显示更高的价格”,实际都是拉新的营销手段,但前者不破坏公平感,后者就让人觉得“不公平”,最后闹到要出台专门的法律禁止“大数据杀熟”。

然而,价格歧视可以直接禁止,但基于大数据的隐蔽的价格歧视却复杂得多。

04 机器学坏了?

美国康奈尔大学劳资关系学院的一项调查中,分析了职场人员的“随和度”特征后发现:性格随和的员工的薪酬比“带刺儿”的员工低18%。

这也是一种“杀熟”啊。

不太远的未来,HR中的薪酬专员将由大数据担任,它不但可以公平地评估每位员工的业绩,预测未来的发展空间,更重要的是,它还会预测你的行为,判断你可以接受的最低工资要求,以实现个性化的动态定价。

大数据时代,价格歧视进化为动态定价,通过机器学习,定价每分钟都在变化,以最大程度的获取利润。

1999年,可口可乐计划推出一款能够根据天气情况改变价格的自动售货机,经媒体披露后,被骂得“胎死腹中”;可到了2013年,亚马逊就通过动态定价,提高了25%的利润率,2014年元旦,Uber的动态定价系统失灵了26分钟,业务量立刻下跌了75%。

大数据不歧视你,大数据只是预测你的行为。可以立法禁止“大数据杀熟”,但比价格歧视更复杂的是更隐蔽的歧视。

很多人应该记得前几年出过的一件“大数据歧视”事件,美联航一班飞机超售票,在没有乘客自愿改签的情况下,美联航由电脑随机选出四名乘客强制改签,并将一名乘客强行拖下飞机。

评论认为其中有种族歧视,理由很明显,四个人中有三个亚裔,但机组人员很委屈,这是电脑“随机”选出来的,在场人员并没有干预结果。

听了工作人员的辩解,程序员笑了,人类才有“随机”行为,只要是电脑产生的结果,一定是按某种规律取参数计算出来的。只不过,有些参数是人为设定的,有些参数是机器自主学习的,后者就是人工智能。“随机”出三个亚裔,唯一的解释就是,电脑从历史改签数据学会了人类的某些行为模式。

如果让人类解读这个数据,那就是“亚裔服从性好,不会惹麻烦”——也是一种“杀熟”。

人会产生偏见,就会掩饰偏见,就会权衡一下,会不会给自己带来麻烦。但电脑没有偏见,自然也就不需要掩饰偏见,它只会把偏见赤裸裸地告诉我们。

不是坏人变成机器,而是机器“学坏了”。

同样在淘宝上输入“包包”,系统给你展示的是男包,给你女友展示的是女包,你会觉得系统推荐很准。但同样在淘宝上输入“女包”,系统给你展示的都是几十块的地摊货,给别人展示的都是几千块的名牌包,你就开始不爽了。

但是,大数据不歧视你,大数据只是预测你的行为。

“大数据杀熟”如果是一个设定的参数,法律可以强行禁止,但未来,依赖机器学习的决策场景越来越多,暗藏在历史数据中的人类的种种丑陋的行为,就会愈加赤裸裸地呈现在我们面前。

人类的最大缺点是虚伪,人类的最大优点也是虚伪,心里全是生意。嘴上却必须讲主义,虚伪至少可以让一切恶行隐藏在冠冕堂皇的理由之下。

所以,机器学习是不是先要让大数据学会人类的价值观呢?

本文来自微信公众号 “人神公奋”(ID:tongyipaocha),作者:人神共奋,36氪经授权发布。

相关推荐

今年最热闹的旅行黄金周,你被“大数据杀熟”了吗?
基于大数据的“寿命计算器”,你会想用吗?
5分钟搜索120个平台10年数据,监视软件细节曝光:人人“裸奔”,预测警务歧视严重
监管出手,「反杀」大数据杀熟
立法应对“大数据杀熟”,再也不用担心被“宰”了
你的数据正在被克隆?
差异化营销外衣之下,“大数据杀熟”该如何破解?
美团也玩大数据杀熟?
美国第三大保险公司,坐实了大数据“杀熟”
基于一周的行为数据,这家硅谷公司就可预测你下周的喜怒哀乐?

网址: 大数据不歧视你,大数据只预测你 http://www.xishuta.com/newsview56917.html

所属分类:大数据分析

推荐科技快讯