自去年秋天裸辞之后,一直在考虑职业生涯的问题。之后加入求职大军,目前进展还算顺利,作为软件工程师的下一站也将很快确定下来。但是这一次的career break,虽说时间不算长,却给了我莫大的启发,我也有了一些思考。 从fullstack engineer到platform engineer 其实在年初的时候就简要叙述过这个事情。熟悉我的朋友都知道,我的职业生涯有点奇怪,从Huawei开始,我是一个全栈工程师(fullstack engineer),从网页设计、前端开发到后端开发都是一锅端的,当时也非常喜欢这个方向,这也是我后来在极客时间上写《全栈工程师修炼指南》这门课的原因之一。 不过后来这个兴趣点也在慢慢迁移,在加入Amazon之后,我陆续经历了两个大的data platform团队,一个是做销量预测(demand forecasting)的,一个是为retail一侧计算成本和利润的。在这两个team中,都要和大数据打交道,和scientists和analysists一起合作,而我作为一个engineer的基础工作,就是把infra维护好,提供好用的工具让他们的问题观测和分析更简单。也是从Amazon开始,我开始更关注一个模糊的目标,一个可以持续建设的platform,关注一个solution stack,而不是具体某个service,或者某个具体技术。 差不多六年之后,在Oracle,我带领的team则是侧重于infra了,依然是作为engineer,主要为cloud管datacenter的两个东西,一个是process automation,一个是matadata storage。在这个比较大的team我获得了比较大的职业生涯成长,我们own一个非常完整的solution stack,也越来越确定我关注的重点,以及未来发展的方向。虽然从一定意义上来说,做的事情依然是full stack的,但我开始更多地称呼自己platform engineer,而不再是fullstack engineer了。 之后在2022年加入了Doordash,从巨头转向更加敏捷的中型互联网公司,一开始在一个偏向于infra的团队,做gateway platform,我还是比较享受这一年多的时间的。当时team里面有一个非常有经验和见解的工程师,我从他身上学到不少。后来因为org调整的原因,我选择抓住机会去做了很短一段时间的产品,回头看这个决定有些鲁莽,但至少也确认了一件事情,单纯做产品并不是我最喜欢和擅长的。 对于下一站,我的几个在考虑的选项中,无疑都是偏向于platform和infra的team,其中有两个机会我尤其感兴趣,其中一个是维护开源的高并发library的,还有一个是做AI infra的。现在我正在努力做的功课,就是把它们前前后后都了解清楚,然后做出自己的选择。 AI将替代软件工程师吗 这是个很好的问题。只不过,这个“将”可以斟酌,因为它已经替代一些初级的工程师工作了。但放眼未来,它到底能替代多少工程师的工作,我不知道。现在,很显然的有两件事: 软件工程师的很多工作确实是可以替代的,它们也正在被替代,包括某些设计和编码。 软件工程师这样相对有门槛的工作都可以被AI替代,更何况那些门槛相对低的工作呢? 但是关于上面这第1点,这样的“替代”到底能达到多深的地步,我不知道。我隐约觉得,能被替代的工作往往是非常具体,逻辑比较确定和简单,而且不需要处理人际交流和关系的工作。以前有人觉得,AI不能替代艺术家的工作,因为他们的工作是创造性的。可是你现在看看呢,写作、谱曲、绘画,都变得可能了,可是我并不想反驳这条观点,而是想说,这从一定的角度上来看,我们是不是可以说,艺术家们的工作,其实也并不全是创造性的呢? 而关于上面这第2点,有更多岗位要远比软件工程师更值得担忧,而软件工程师们,只不过是因为现在站得和AI更近,替代后的成本节约更多,因而更焦虑。就如同软件行业是经济的风向标一样,当工程师们开始焦虑,不久的将来整个社会都会焦虑。从好的一面看,当工业革命开始,无数人担心机器代替人类工作,但最终机器却为人类创造了更多的工作,我想这一次机器替换成了AI,道理也一样。无论如何,不要逃避,而要尝试改变和拥抱这样的变化,因为这个趋势是不以人的意志为转移的,该来的总会来。 我觉得,总体来看,AI将很快替代的,未必是工作,而是特定领域的技能。我觉得这句话里面,有两个重点,一个是“技能”,一个是“特定领域”。对于一个需要做出复杂判断的工作,并且这个工作还需要许多不同领域视野和经验积累的,AI相对会更难替代。 对于一些传统行业而言,那里有更多的固化、低效、不愿革新和进取的工作。我有个朋友在保险行业,做的事情就是要用科技(不仅仅是AI)来变革,把保险公司从传统上认为人力资本巨大的企业变成一个靠软件来横向扩张的SaaS(软件即服务)公司。趁这个job hunting的机会,我也去了解了一番。我觉得,这些看似红海的传统行业实则是使用软件革新的蓝海,未来会有更多的SaaS公司。有很多这样的传统领域,成长缓慢,或者利润率低,资本不太看得上,但是从这个角度思考,或许有大的机会。 如今的就业市场怎样 在刚离职的时候,我曾经提到过对于就业市场的理解。大致来说,就是比我2022年下半年那会好了很多,但是想要回到疫情前那种“无比风光”的状态是不可能了。现在回头看,在经过了一番求职的折腾后,我可以说,这种观点还是大致正确的,不过就业市场比我最初想的,还是要好不少。简单说来,我觉得近期软件工程师的机会,比2022年下半年要多不少。 其次,一个萝卜一个坑。我记得2017年那会找工作的时候,我可以先把phone screen搞定,然后排一堆onsite在同一周并行,这样的话一旦我拿到offer,如果需要选择的话比较容易操作,因为它们的时限都比较接近。但是这次好几家公司都是过了phone screen,然后告诉我坑已经被填了。所以之前并行的策略没有那么有效了,看到心仪的职位,不仅需要面试得好,还需要尽快完成。 再次,bar还是很高。有时候看到很多软件工程师朋友还在谈论刷题的话题,其实刷题是必要条件没错,但是离实际需要差太远了。从分配时间的角度,还是需要更多时间分配到其它环节去。总体来说,就算两轮ps加上5轮onsite的话,ps全都要positive,onsite全都要positive,也许最多一轮on boundary,否则基本就挂了;有些情况下,就算全是positive,如果不够strong,还是会downlevel。所以,总体来看bar还是比较高的。行业发展就是这样的,软件业也不是例外,求职门槛提高,这是行业成熟的一个标志。 最后,回头看,去年的这个裸辞还是果断(或者武断)的,但是回想起来,如果再给我一次机会,我估计还是会做出同样的选择。没有什么对错,就是做出自己的选择而已。这段break的时间我还是比较享受的,而且除去career发展的目的以外,由于再在job market上面走一遭,起码从面试的角度来说,有了比较新鲜的认识,哪一天如果被裁员,我相信也不会过度慌乱。这也算是一个额外的收获吧。 我知道有很多朋友和我一样,近期在求职。这个过程很辛苦,也可能有磕磕绊绊,希望大家都能保持自信,或长或短的时间,找到自己理想的职业生涯下一站。
今天聊一下时间的话题。在分布式系统中,“时间”是一个挺有趣,但是很难处理的东西。我把自己的理解简单整理下来。 不可靠的物理时钟 首先,单一节点的物理时钟是不可靠的。 物理时钟本身就有偏差,可是除此之外,可以引起节点物理时钟不准确的原因太多了,比如clock jump。考虑到NTP协议,它基于UDP通信,可以从权威的时钟源获取信息,进行自动的时间同步,这就可能会发生clock jump,它就是说,时钟始终会不断进行同步,而同步回来的时间,是有可能不等于当前时间的,那么系统就会设置当前时间到这个新同步回来的时间。即便没有这个原因,考虑到数据从网络传输的延迟,处理数据的延迟等等,物理时钟是非常不可靠的。 如果一个分布式系统,多个节点想要仅仅依赖于物理时钟来完成什么操作,那么只能祈祷运气足够好了。在《从物理时钟到逻辑时钟》这篇文中,我已经介绍了对于物理时钟不可靠的问题,我们有一个解决的办法,就是引入Lamport逻辑时钟,或者使用向量时钟,这里就不赘述了。 超时 分布式系统中什么样的执行结果最难处理,成功还是失败?其实都不是,最难处理的结果是超时,因为执行超时了,但是系统却并不知道它: 是没执行, 是执行成功了, 还是执行失败了。 所谓超时,一个显然的问题是,超过多少时间才算超时?往往没有一个公式,更没有一个标准答案,我觉得《Designing Data-Intensive Applications》这本书里面对这一点总结得很好——对于超时时间的定义,其实就是一个tradeoff,一个基于failure detection delay和risk of premature timeouts之间抉择的平衡。如果超时时间设置长了,就会减少超时判定的误杀,但是对于系统失败的识别就会延迟;反之,如果超时时间设置过短,那就会触发更多看起来是超时的case,但是它们本身其实并没有真正超时。 通常来说,对于超时的处理,其实办法也不多。一种是放弃,一种是重试。就像消息投递,如果要保证“至多投递一次”,那在投递超时后,就直接放弃;如果要保证“至少投递一次”,那在投递超时后,就重试。如果要重试,那就需要引入保证幂等性的机制。 分布式事务SAGA对于超时的处理,其实也是遵照上面的原则,在系统内单步都成为事务的基础上,把流程视作一个状态机,无论单步操作是成功还是失败,都会根据清晰的预定义逻辑,触发相应的正向流程或者反向流程,可是唯独超时,多数情况下最有意义的事情就是重试,也只能重试,因为谁也不知道它究竟实际是成功了还是失败了。 说完操作超时,再来说一下节点超时。很多分布式系统中都会使用一种lease(租约)的机制,比如一个集群中的leader,作为leader会扮演不同的角色,但是必须要renew这个lease,否则超过一定的时间,无论它给不给响应,它都会被开除出leader的角色,而follower会重新选举(或者其他方式)一个leader。 比较难处理的是,如果这个节点本来是被hang住了,导致了超时,它也已经被踢下leader的角色,但是之后它“活”过来了(比如经过了一个超长时间的GC),它还以为自己是leader,继续去干leader干的事,变成了一个假leader。这其实就是出现了脑裂,本质上是一个一致性的问题。这种情况比较难处理,因为即便有heartbeat不断检测,在每两个heartbeat的间隙,可能这种重要的变动就发生了。 要解决这种问题,需要使用token fence的方法,即让每次最关键的状态数据的更改,携带一个单调递增的token,这种情况下这个假leader发起更改的token,已经小于系统中最新的token了,接收这个数据更改的子系统应该拒掉这个请求。上面说的节点超时的情况我在《谈谈分布式锁》里面有详细说明。 计算机的两种时钟 有两种时钟是计算机普遍支持的,一种叫做time-of-day clock,就是我们一般意义上的时钟,代表着相对于1970年1月1日的epoch 时间,也就是Java里面System.currentTimeMillis()返回的。网络时间协议NTP就是用来同步计算机这个时间的。 不过,其实还有一种时钟,叫做monotonic clock(单调时钟),在Java里面相应的接口是System.nanoTime()。这个时钟有一个特点,就是它永不回头。对于time-of-day clock来说,时间是可能“回头”的,对于很多应用来说,时间回头是要命的。不过这个时钟给出的具体时间却是毫无意义,如果在不同的机器上调用System.nanoTime(),会得到完全随机的结果。API的名字是纳秒,可是这个时钟并不给出到纳秒的时间精度,它的作用是用来帮助计算间隔时间的:在同一个节点,第二次调用的时间减掉第一次调用的时间,这个结果(时间间隔)是严格递增(不回头)的。从这个意义上说,除去时间这个视角本身,这个时钟更像是一个单调的计数器。既然是单调的计数器,就可以用来帮助产生系统严格自增的ID。 下面是System.nanoTime() Javadoc上面的解释: Returns the current value of the most precise available system timer, in nanoseconds. This method can only be used to measure elapsed time and is not related to any other notion of system or wall-clock time. The value returned represents nanoseconds since some fixed but arbitrary time (perhaps in the future, so values may be negative). This method provides nanosecond precision, but not necessarily nanosecond accuracy. No guarantees are made about how frequently values change. Differences in successive calls that span greater than approximately 292 years (263 nanoseconds) will not accurately compute elapsed time due to numerical overflow. TrueTime 一般来说,我们都知道计算机的时钟有误差,可是这个误差是多少,差1毫秒还是1分钟,并没有任何严格保证。绝大多数接触到的时间API也是如此,可是,Google数据库Spanner的TrueTime API却。它使用了GPS时钟和原子钟两种完全独立的机制来冗余某一个机制失败导致的时钟问题,增加reliability。此外,它还有和System.nanoTime()一样的严格递增的特点。 它有三个核心API,很有意思: TT.now() 它返回 [earliest, latest] 这样一个范围,表示当前时间就在这个范围内; TT.after(t) 它返回当前时间是不是肯定在t之后 TT.before(t) 它返回当前时间是不是肯定在t之前 有了TrueTime,这让分布式系统中,本来无法通过物理时钟解决的问题也变得可解决了。比如对于操作冲突的问题,现在的新办法就是等一个buffer时间,TrueTime认为已经前一个操作的结束时间肯定已经过去了,再来启动后一个操作。当然,这个方法的缺点是throughput,因为整个操作周期因为buffer时间的关系变长了。
分布式系统有它特有的设计模式,无论意识到还是没有意识到,我们都会接触很多,网上这方面的材料不少,比如《Catalog of Patterns of Distributed Systems》,还有《Cloud Design Patterns》等等。这里简单谈谈几个我接触过的,也觉得比较有意思的模式。 LSM Tree 对于这个话题,基本上第一个在我脑海里蹦出来的就是LSM树(Log Structured Merge Tree)。其实,LSM树本来只是指一种数据结构,这种数据结构对于大吞吐量的写入做了性能上的优化(比如日志写入),同时对于根据key的读取也有不错的性能。换言之,对于读写性能的平衡,大幅优化了写入,而小幅牺牲了读取,现在它也不再被局限于数据结构本身,而是泛化为能够提供这样特性的一种机制。 整个写入过程分为两个部分,为了追求极致的写入速度,写入方式都被设计成追加的: C0:这一层其实就是内存中写入的buffer,它的实现可以用RBTree,或者是SkipList,这种树状有序的结构,它的写入和范围查询都很快。在Bigtable的设计中,它被称为Memtable。 C1:这一层则主要待在磁盘上了,它可以由若干个文件组成,每一个文件都是有序的数据,这样拿着一个key去文件查询对应的数据,根据indexed keys可以用二分法来查找。在Bigtable的设计中,它就是SSTable。 所以,为了追求写性能,数据写入会直接插入到C0中,一旦C0达到一定大小,就会建立一个新的C0'来替代旧的,而原有的C0会被异步持久化成C1中的一个新文件(其实就是做snapshot);C1中的文件全都是有序的,它们会不断地被异步merge,小文件不断被合并成大文件(下图来自维基百科)。极端情况下,同一个key可以有若干次更新,并且更新能同时存在于C0和C1所有的文件中。 对于根据key的查询,需要先去C0中找,如果找到了最好,没找到的话需要去C1中找,最坏的情况下需要找每个文件。如果数据存在于多个地方,数据采用的优先级是,C0>新的C1文件>旧的C1文件。 对于不存在C0中的数据查询,为了尽量避免去每一个C1的文件中查询,Bigtable会使用bloom filter来做第一步的存在性判断(校验用的数据全量加载在内存中),根据结果,如果这一步判断通过,这意味着数据可能存在于目标文件;如果没通过,这意味着数据肯定不存在于目标文件。 Write-Ahead Log 顺着LSM Tree的话题,说到WAL。WAL适用于解决这样一个问题:一个系统对于写请求有较苛刻的延迟或者吞吐量的要求,同时又要严格保证durability(数据不丢)。 因此直观上,WAL包含三步: 首先要求append日志,日志是持久化的,并且可以根据一致性的要求持久化到不止一个存储中 接着就是把数据更新到内存的某个数据结构中(比如上面的LSM Tree在内存中的结构C0),这时候同步的请求响应就可以发回客户端了 C0的数据会异步merge压缩到持久性存储C1中(LSM Tree部分的操作) 基本上思路就是把能延迟的操作全延迟了,如果服务端挂掉了,根据持久性存储+日志就可以完全恢复到挂掉之前的状态,因此数据不会丢。 于此,有一系列相关的pattern,比如: Low-Water Mark,低水位线:指的是这条线以前的数据全部都以常规方式持久化了(C1),因此如果节点挂掉的话,只需要根据现有的文件+低水位线以上的日志就可以完全还原挂掉之前的状态,也就是说,理论上低水位线以前的日志可以删掉了; High-Water Mark,高水位线:日志是持久化的,但是这个持久化需要在多个节点上发生,这条线就指向了最新一条已经成功持久化到“大多数”节点上的日志(这个大多数其实就是Majority Quorum模式)。 Hinted Handoff,提示性移交,它和WAL有一定类似性,因此经常被放在一起比较:如果一个节点挂掉了,那么更新会跑到另外一个(随机的)节点上面去,等到挂掉的节点恢复的时候,这些数据会被重新写入那个恢复的节点,执行replay从而恢复一致性。 Clock Bound Request Batch Request Batch太常见不过了,请求可以批量发送,减少overhead,从而减少资源(网络带宽、序列化开销等等)的消耗。通常的batch是根据大小或者数量来划分批次的,但是修饰词Clock Bound指的是,这样的分批还要依据时间,就是说,系统可以等待一段时间,这一段时间内的请求都可能打包成一个batch,但是这样的打包还要有时间限制,到了这个时间,无论当前的batch有多小,都必须要发送出去了。 Kafka客户端就有这样的一个机制,message可以被group,但是: batch.size 这个参数指定batch最大有多少; linger.ms 这个参数指定了最多等多久。 还有一些流处理系统也采用这种方式,比如Spark的micro batching。 Singular Update Queue Singular Update Queue非常有用,queue本身就是用来处理异步的事件,可以有若干个producer产生消息到队列里面,有若干个consumer来处理它们。这种场景下这个queue为核心的机制扮演了至少这样几个角色: 缓冲,平滑请求的波峰; 流控,保护下游系统不被负载冲垮; 校验,能写入queue的数据一定是符合格式的,从queue读取的数据也一定是符合格式的; 解耦,对于MxN的调用关联关系,所有的producer只和queue打交道(写入),而所有的consumer也之和queue打交道(读取),这样,复杂度就变成了M+N。 对于写请求,我们需要保证这些事件处理不会有并发的问题,通过采用Singlar Update Queue,对特定的topic,我们可以设计一个良好的sharding规则,加上对于每一个sharding(在Kafka等系统里面我们叫做partition),设置为只有一个consumer线程,这样的话就保证了不会有并发问题,因为只有一个线程来处理所有这个sharding的消息,这种方式可以简化系统,不需要引入第三方锁系统就可以处理同一个sharding之间存在并发冲突的消息。 我想起另外一个相关的话题,monolith(单体应用)还是microservices(微服务),一直是一个争论。早些时候,在微服务概念刚提出的时候,它受到了追捧,但是现在出现了越来越多批评的声音。一个突出的微服务的问题就是各个微服务之间像蜘蛛网一样复杂调用依赖的问题。而这样的问题,其中一个解决办法就是引入这样的queue在中间解耦。 有些时候,queue里面未必存放全部完成update所需的数据,而是只放很少的内容,比如只有一个key,consumer拿到这个key以后去别的service获取完成任务需要的信息,因此这个queue就起到一个通知的作用。这其实就是Claim Check模式了。 Asynchronous Request-Reply Asynchronous Request-Reply本身是一个简单而且常用的机制,就是请求发起以后,服务端响应说,请求任务正在处理中,并返回给client一个token。后续client拿着这个token就可以来(可以是另外一个单独的用于状态查询和结果获取的服务)查询请求的处理状态(poll),同时,服务端也可能会通知(push)客户端情况。 不过,既然上面谈到了Singular Update Queue,它们俩有时是有关联的。 在使用Singular Update Queue的时候,如果consumer处理一个消息需要花很长的时间,那么它就可能成为整个系统吞吐量的瓶颈。很多时候,这个consumer花很长时间来处理往往不是因为有复杂的CPU计算,而是等待,比如等待一个远程调用结束,等待一个文件写入结束等等。 对于这样的问题,有两种解决思路: 一种是划分出更多的partition,这样就可以设置更多的consumer线程来处理,但是这种方法带来的代价是更高的overhead。 第二种是把处理流程变成异步执行的,而把它变成异步的就意味着系统没法直接妥善处理异步处理结果(它可能成功,也可能失败),因此对于这样一个子问题,有两个进一步解决的思路: 触发处理流程之后,预约下一个“回访”,也就是采用这里提到的Asynchronous Request-Reply这样的机制,但是这个回访需要在一定时间后发生,并且一定要发生,因此这需要一个高可用的定时任务的服务(需要支持重试策略和失败处理),或者是封装一个delay queue,即里面的消息需要过一段时间才能被poll到,因此这个机制有可能会比较复杂。 还有一个思路则是让consumer来集成Coroutine,这样一个consumer线程可以被分享同时处理若干个消息,这些消息都来自同一个partition(有一些开源库就专干这个事儿),于是这样多个消息就可以被同一个线程以非阻塞的方式并行处理。这个方法的一个局限性是,这些消息在Coroutine框架内处理时,不能存在并发冲突的问题。 Rate Limiting & Throttling 最后比较一下Rate Limiting和Throttling。我也是不久前才区分清楚,以前我基本是把它们混在一起使用的。它们都是用来限流的,并且有多重不同的方式,可以是基于fixed window,sliding window等等。 但是它们的区别,本质上是它们工作的角度不同。Rate Limiting是从client的角度来管理资源的,比如说,规定某一个/每个用户对于资源的访问不能超过一定的限度,因为资源不能让一个客户端全占了,这样其他人才可以有访问资源的权利;而Throttling则是从service的角度来管理资源的,比如说,规定某个/每一个API的访问throughput上限是多少,一道超过这个限度,请求就会被拒掉,从而保护服务。 和这两个可以放在一起的,其实还有一个Circuit Breaker,不过Circuit Breaker的功能和这两个有较大区别,不太容易弄混,因此就不赘述了。
我有Mac和Windows,这些年折腾软件方面的环境Linux用得比较多,最近想安装一个Kubernetes的本地环境,本着“生命不息,折腾不止”的精神,打算在Windows上动手。了解到可以尝试Minikube,在此简单记录一下。 首先得要安装Docker,但是在Windows下跑Docker有两种方式,WSL(Windows Subsystem for Linux)或者Hyper-V。我首先把这些Windows组件都勾上: 我两条路都去走了一下,为了使用Hyper-V,我还去BIOS里面打开虚拟化支持的选项。不过,后来才知道,因为操作系统版本是Windows 10 Home,虽说Windows上面跑docker有两种方式: 一种是使用WSL 另一种是使用 Hyper-V 但在Windows 10 Home版本上只支持第一种。由于Hyper-V本质上是额外的虚拟机,而WSL更新,是虚拟化的Linux环境,是Windows操作系统原生支持的,性能要好一些。 其实,在Docker的设置里面也有说了: 可以列出所有WSL(我使用的WSL 2)目前支持的Linux Distributions: wsl --list --online 可以选一两个自己熟悉的安装了体验一下: wsl --install Ubuntu wsl --install Debian 整个Windows的文件系统都可以以Linux的方式访问。以往我一般在Windows上运行Linux命令都是使用Cygwin的,但是现在我了解到两者很不相同,WSL是真正的虚拟化Linux环境,而Cygwin只不过把一些Linux命令编译成Windows的二进制版本。 安装Minikube和相关工具,配置环境变量。这次学到了可以用Chocolatey,它是Windows下的软件安装工具。比如: choco install kubernetes-cli Minikube可以以VM、container,甚至bare metal(Windows下不支持)的方式来运行,通过driver参数指定。 我们使用docker,这也是官方认定preferred的一种方式。这种方式下,Minikube应用本身会作为Docker container跑在Docker里面(driver的含义),同时,Minikube也会使用Docker来跑其它的应用container。 minikube config set driver docker minikube delete minikube start --driver=docker 看一下状态: Done! kubectl is now configured to use "minikube" cluster and "default" namespace by default 看一下状态: minikube status type: Control Plane host: Running kubelet: Running apiserver: Running kubeconfig: Configured 此外,检查一下WSL已经安装的Linux subsystem,能看到: wsl -l Windows Subsystem for Linux Distributions: Ubuntu (Default) docker-desktop Debian 在Docker的UI上,也能看到: 跑起来以后,用kubectl验证一下: kubectl cluster-info Kubernetes control plane is running at https://127.0.0.1:57514 查看所有namespace: kubectl get pods --all-namespaces 启动dashboard: minikube dashboard 接着,创建和部署一个hello minikube的service: kubectl create deployment hello-minikube --image=kicbase/echo-server:1.0 kubectl expose deployment hello-minikube --type=NodePort --port=8080 kubectl get services hello-minikube 通过访问: minikube addons list 可以列出一堆可以立即安装的addon,有一些是K8s的,有一些是minikube的,比如: minikube addons enable auto-pause 这个可以在一段时间没有使用的情况下,暂停K8s。 还有一个addon能让dashboard的metrics显示更多信息: minikube addons enable metrics-server 后来,一通折腾以后发现,原来Docker的settings里面已经有了一个Kubernetes选项: 原来新版本的Docker里面自带了一套K8s,它是完全跑在Docker instance里面,并且无法配置的,主要用于本地测试。它的运行也是基于WSL。 现在就试一下,停掉Minikube: minikube stop UI确认确实停了(或者docker ps): 然后把Docker的Kubernetes tab上面的两个选项都勾上,apply & restart。 不过等了好久,似乎卡在这一步了,我reset并且更新Docker以后,问题解决。打开以后我看到Docker启动了一堆container。确认跑起来也没问题: kubectl get nodes NAME STATUS ROLES AGE VERSION docker-desktop Ready control-plane 10m v1.30.2
不要使用分布式锁 就像Martin Fowler说的那样,“分布式调用的第一原则就是不要分布式”,谈分布式锁也要先说,不要使用分布式锁。原因很简单,分布式系统是软件系统中复杂的一种形式,而分布式锁是分布式系统中复杂的一种形式,没有必要的复杂性就不要引入。 有的逻辑是没有副作用的(纯函数代码),那就可以无锁执行;有的数据经过合理的sharding之后,可以使用单线程(单节点)执行,那就单线程执行。 比如一种常见的模式就是使用queue(比如Kafka),任务全部放到队列中,然后根据sharding的逻辑,不同的consumer来处理不同的任务,互相之间不会干扰冲突。 还有一个例子是Kotlin Coroutine,通过指定一个单线程的dispatcher,也可以保证它执行的操作之间互相不会有多线程的冲突问题。 有了这样的原则以后,再来谈谈几种分布式锁。 数据库锁 分布式系统中,我觉得我们最常见的锁就是使用一个中心数据库来做的。 一种是悲观锁,就是“select xxx ... for update”这样的,相应的数据行会被锁上,直到commit/rollback操作发生。如果被别人锁了,当前线程没得到锁的话就会等着。 还有一种是乐观锁,就是使用版本号,“update ... where ... version=A”这样的。如果update成功,表示获取锁成功,并且操作也成功;否则就是update失败,需要重新获取状态再来操作一遍。 大多数情况下,后者要更高效一些,因为阻塞的时间通常更短,不过在锁竞争比较激烈的情况下,反而效率会反过来。另外一个,悲观锁代码写起来会容易一些,因为select语句执行和commit/rollback是两步操作,因此二者之间可以放置任意逻辑;而乐观锁则是需要把数据的写操作和version的比较放在一条语句里面。 这两种都很常见,基本上我接触过的一半以上的项目都用过两者。这个数据库不一定非得是关系数据库,但是强一致性必须是保证的。 S3 使用S3来创建文件,让创建成功的节点得到锁,文件里面也可以放自定义的内容。我们去年的项目用到这个机制。这种方式是建立在S3 2020年12月1日,上线的strong consistency的feature。 大致上,有这样两种思路: 使用S3 versioning,就是说,在versioning打开的情况下,文件的写入不会有“覆盖”的情况发生,所有内容都会保留。在创建文件的时候,response种会有一个x-amz-version-id header。节点写入文件后,再list一下所有的version,默认这些version会根据创建的时间顺序递减排列,后创建的在前,因此比较其中最早的那个version和自己创建文件后得到的version,如果两者相等,说明自己得到了锁。 使用S3 Object Lock,这个可以控制让第一次写成功,后面的操作全部失败,所以第一次写入成功的节点得到锁。 使用这种方式,对于那些本来就需要使用S3文件系统来共享任意信息的情况很方便,但是需要自己处理超时的问题,还有retention策略(该不该/什么时候删掉文件)。 Redlock Redlock就是Redis的锁机制。Martin Kleppmann(就是那个写《Design Data-Intensive Applications》的作者)几年前写过一篇文章,来吐槽Redlock在几种情况下是有问题的: Clock jump:Redlock依赖于物理时钟,而物理时钟有可能会跳(jump),并且这种状况是无法预测的。Clock jump就是说,始终会不断进行同步,而同步回来的时间,是有可能不等于当前时间的,那么系统就会设置当前时间到这个新同步回来的时间。在这种情况下,依赖于物理时间的锁逻辑(比如超时的判断等等)就是不正确的。 Process pause:得到锁的节点,它的运行是有可能被阻塞的。比如GC,下面这个图说的就是这个情况——client 1一开始得到锁了,执行过程中有一个超长时间的pause,这个pause导致锁超时并被强制释放,client 2就得到锁了,之后client 1 GC结束,缓过来后恢复执行,它却并没有意识到,它的锁已经被剥夺了,于是client 1和client 2都得到了锁,对于数据的修改就会发生冲突。 Network delay:其实原理和上面差不多,网络延迟+锁超时被强制剥夺和重分配的逻辑,在特定情况下就是不正确的。 问题可以理解,可是仔细想想这个问题的本质是什么?它的本质其实就是消息延迟+重排序的问题,或者更本质地说,就是分布式系统不同节点保持consistency的问题,因为lock service和client就是不同的节点,lock service认为之前的锁过期了,并重分配锁给了client 2,并且client 2也是这样认为的,可是client 1却不是,它在GC之后认为它还持有者锁呢。 如果我们把数据的写操作和锁管理的操作彻底分开,这个问题就很难解决,因为两个节点不可能“一直”在通信,在不通信的时间段内,就可能会发生这种理解不一致的情况。但是如果我们把写操作和锁管理以某种方式联系上,那么这个问题还是可以被解决的。简单说,就是物理时钟不可靠,逻辑时钟可以解决这个问题。 之后Martin Kleppmann提出了解决方案,他的解决方案也就是按照这个思路进行的。他的方法很简单,就是在获取锁的时候,得到一个永远递增的token(可以被称作“fencing token”),在执行写操作的时候,必须带上这个token。如果storage看到了比当前token更小的token,那么那个写操作就要被丢弃掉。 Chubby Chubby是Google的分布式锁系统,论文在这里可以找到,还有这个胶片,对于进一步理解论文很有帮助。从时间上看,它是比较早的。 Chubby被设计成用于粗粒度的(coarse-grained)锁需求,而非细粒度(fine-grained,比如几秒钟以内的)的锁需求。对于这样一个系统,文中开始就提到consistency和availablity重要性要大过performance,后面再次提到首要目标包括reliability,能够应对较多数量的clients,和易于理解的语义,而吞吐量和存储容量被列在了第二位。 Chubby暴露一个文件系统接口,每一个文件或者文件夹都可以视作一个读写锁,文件系统和Unix的设计思路一致,包括命名、权限等等的设计都是基于它。这是一个很有意思的设计。 对于一致性的达成,它使用Paxos,客户端寻找master和写数据都使用quorum的机制,保证写的时候大部分节点成功,而读的时候则是至少成功读取大部分节点(R+W>N,这个思路最早我记得是Dynamo的论文里面有写);如果lock有了变化,它还提供有通知机制,因为poll的成本太高。 内部实现上面,每一个Chubby的cell都是由作为replica的5个服务节点组成,它们使用Paxos来选举master和达成一致,读写都只在master上进行(这个看起来还是挺奢侈的,一个干活,四个看戏)。如果master挂掉了,在master lease过了以后,会重新选举。Client根据DNS的解析,会访问到该cell里面的某一个节点,它不一定是master,但是它会告知谁是master。 分布式锁里面比较难处理的问题不是失败,而是无响应或者响应慢的超时问题。Chubby采用一种租约的机制,在租约期内,不会轻易变动当前的master节点决定。在响应超时的时期,客户端的策略就是“不轻举妄动”,耐心等待一段时间等服务端恢复,再不行才宣告失败: 这个图的大致意思是,第一次租约C1续订没有问题;第二次租约续订C2了之后,原来的master挂了,心跳请求无响应,这种情况客户端不清楚服务端的状况,就比较难处理,于是它只能暂时先阻塞所有的操作,等到C2过期了之后,有一个grace period;接着再grace period之内,新的master被选举出来了,心跳就恢复了,之后租约续订的C3顺利进行。 这显然是一个异常情形,但是一旦这种情况发生,系统是被block住的,会有非常大的延迟问题。思考一下,这种情况其实就是从原来的master到新的master转换的选举和交接期间,锁服务是“暂停”的。再进一步,这个事情的本质,其实就是在分布式系统中,CAP原理告诉我们,为了保证Consistency和Partition Tolerance,这里的情形下牺牲掉了Availability;同时,为了保证consistency,很难去兼顾performance(latency和throughput)。 此外,有一个有点反直觉的设计是,Chubby客户端是设计有缓存的。通常来讲,我们设计一个锁机制,第一印象就是使用缓存会带来复杂性,因为缓存会带来一致性的难题。不过它的解决办法是,使用租约。在租约期内,服务端的锁数据不可以被修改,如果要修改,那么就要同步阻塞操作通知所有的客户端,以让缓存全部失效(如果联系不上客户端那就要等过期了)。很多分布式系统都是采用poll的方案——一堆client去poll一个核心服务(资源),但是Chubby彻底反过来了,其中一个原因也是低throughput的考虑,毕竟只有一个master在干活。 对于前面提到的Martin Kleppmann谈到的那个问题,Chubby给了两个解决方法: 一个是锁延迟,就是说,如果一切正常,那么持有锁的客户端在释放掉锁之后,另外的客户端可以立即获取锁。但是如果出现超时等等异常,这个锁必须被空置一段时间才可以被分配。这个方法可以降低这个问题出现的概率,但是不能彻底规避问题。 第二个就是使用序列号了,对于写入操作来说,如果请求携带的序列号要小于前一次写入的序列号,那就丢弃请求,返回失败。 回过头思考Chubby的实现机制,我觉得有这样几个启发: 不要相信任何“人”(节点),必须询问到多数人(quorum),多数人的结论才可以认为是正确的。这个方式发生在很多操作上,比如寻找master,比如选举master,比如写数据。 超时是很难处理的,它采用了租约的机制保证节点丢失时间的上限,使用grace period来容忍master选举发生的时延,使用序列号来保证正确性。
我裸辞了。 工作差不多十六年了,从来没有以离职后休假的方式休息过。今年还是比较特别的,我做了很多新的尝试,想改变一下自己,包括这最近发生的一件事情。事情发生得很快,我辞职了,在作为engineer加入Doordash一年零十个月后。 记录一下。 原因 我不是在二十岁的年纪,做决定容易缺乏思考,其实,我已经想了这件事情好久了。在这期间,我也和不同的朋友和同事讨论过,他们有的还在Doordash,而有的也已经离开了。说起来,大致有三个原因: 第一个,是兴趣的不匹配。 郭德纲说过,如果你每天做的事情是你喜欢做的,那就是老天爷赏饭吃。这样的情况只在少数人身上发生,而我大致就是这样的少数人——不能说每天如此,但是在我职业生涯八成以上的时间,我工作做的事情,恰恰就是我喜欢做的。不过,今年我从一个做平台的Gateway组换到了一个做产品的Order组,我察觉到情况有了变化,这里面原因有些复杂,但明确的是,impact是有,但做这个产品工程师并不是我所喜欢的。回头想起来,过往一直都是一个platform engineer,这算是我第一次做product engineer,也许这个角色并不适合我。 兴趣,其实是一个复杂的事情。但是匹配还是不匹配,却是可以直接感受到的。有兴趣的时候,我会感觉充满热情,也不太容易感觉疲倦,做事情都很有动力,工作就是一件快乐的事情;没有兴趣的时候,依然会努力做好工作,但这些特点都不在了。 第二个,是对于职业生涯有了进一步的思考。 我想停下来,休息一下,整理一下,总结自己的经验、技能,想一想之后应该做些什么。一方面是作为individual contributor,我觉得在进一步发展上,我遇到了瓶颈;另一方面,则是看到当前的工作内容和和团队文化,对我进一步在职业生涯的道路上进一步前进不利。 今年有点特殊,我换了一个team,最近几个月,我在做一个也许工作两三年的engineer也可以做的事情,重要程度很高,可是我自己擅长的技能和经验,却没有足够的施展空间。我注意到,这个团队需要解决很多知识迷局的问题,这些问题涵盖了大量的复杂逻辑和业务流程,这些都不是困难的技术问题,而是说,每个新来人都需要较长时间的onboarding,我倒是不排斥这个,但这种情况下,我的背景就没有太大优势了。我和我的老板也聊过,没有任何责怪的意思,但是我能看得到的是,和报酬无关,和impact无关,但和自我价值的实现相关。 最后一个,则是大多数人离开的时候,说的work life balance。 我不是一个能把生活和工作分得很开的人,我看到自己的生活被工作侵蚀得太严重,尤其是当我看到团队中的role model,每天长时间在线,被迫忽视所谓的下班时间,一直响应各种问题,你可以说这就是“卷”,但无论如何,我觉得这对我来说不是一个可持续发展的方向。 事实上,这是一个团队整体的情况,而不是个人的情况。我注意到,无论是讨论、询问,还是争辩,在这里大家都似乎太忙了,无论是谁抛出一个问题,因为太忙了,大家都更倾向于专注于自己的事情,而不是热心地解答。对于incident handling,经常要面对长时间的加班和压抑的氛围。一张一弛,文武之道,可以忙一阵、闲一阵。如果一直非常忙,这就一定是有问题的。 而忙碌给我带来的影响并不是只有时间上的。其实,每天晚上我也能挤出时间来做一些自己列表上的事情,但问题在于,白天高强度的工作把我的精力消耗光了,不但是咖啡当水喝,有时候甚至连午饭也没有机会吃。这种情况下,到了下班以后,大脑就不想运转了,只想做一些简单的劳动,比如刷短视频,看短新闻,根本不想做其它消耗脑力的事情,比如看书。这些与我的来说,是非常不健康的。 这些事情,更和公司的文化相关。我在离开前,也评估了换一个组而非离职的可能性。但是对于这一点,其实并不能很好地解决。于是我想,既然这个方向与我而言是有明确问题的,那为什么不换一个公司,人生那么短暂,职业生涯那么短暂,没有必要在这个地方吊着。 于是,上周五是我的最后一天。 计划 那接下去的计划呢? 第一步,我打算休息几周,把某些身体健康问题处理一下,做一做体检,解决幽门螺旋杆菌感染的问题,解决牙齿的问题等等;看几本书,基本都是之前找借口没时间看的书;多陪陪家人,和孩子多玩一玩,也找机会出去溜达溜达;放松一下,和心理医生多聊聊,采取措施去努力纠正心理的健康问题;规划适合自己的生活方式,目标能够平衡生活、运动、休息、学习和工作;再把职业生涯的下一步想清楚,而现在,对此我只有个模糊的概念。 第二步,接着几周,则是回顾和总结我所具备的软硬技能。每个人都会积累经验,不过一定时间以后需要总结一下,否则很多经验只是茶壶里的饺子倒不出来,有个朦胧的回忆,但无法在实际中快速落地变成好的想法和观点。近期,我也会多写一些blog,弥补之前错过太多的遗憾,以技术文章为主。 第三步,才是job hunting。现在我有公司、团队和职位类型等等大致的目标,但是快到那时,可能会有不一样的想法,但我一定还是IC。通常来说,到年底工作机会往往不太多,所以我做了心理建设,预期这有可能会花费较长时间。 所以现阶段,我根本不想考虑任何和过往工作有关的事情。 思考 没有遗憾么? 我总体来说确实是个患得患失的人,但我一直想改变自己,并且今年也做出了不少改变,至少我觉得现在更能拿得起放得下。遗憾也许会有,但是这不会影响我当前做决定。我在短期内会失去还挺不错的收入,而离开的Doordash其实依然是一家我看好的高速成长的企业,我会继续拿着少量它的股票,并且,现在的就业市场也说不上好。 尤其是就业市场这一条,我想,软件工程师这个职业,因为加息、AI等等原因,应该比较难回到疫情初期2020年那种状态了,那个企业时候借贷成本低,大幅扩招,市场有些疯狂,小红书上一堆其它专业“转码上岸”的程序员。市场经济就是如此,但是,长期来看这依然是个朝阳行业。据我了解,现在的就业市场比去年有所改善,但可以说依然不太好,不过,事实就是没有什么是完美的,追求完美也容易走入难以行动的误区,反而做出更糟的选择。 做出决定前思考足够深入吗? 这是一个很难回答的问题,一方面很难评估是不是已经做了足够的思考;另一方面,敢于做决定也是我努力在提高的一件事情,尤其要避免对于完美的追求,不要惧怕失败,追求完美只会让自己失去机会。 不过,可以确认的是,这件事情我思考很久了,今年大概三、四月份就萌发了这样的念头,所以,这不是一个仓促的决定。我和朋友同事聊过不少,包括那些在今年离开的,他们都有很有意思的近况,有找到新的、更理想的工作,有依然在旅行和休息的,还有已经启动创业项目了的。我得到了很多好的点子,这让我对于下一份工作之前,有了更多的憧憬。 关于Doordash这家公司,我还是长期保持正面观点的。外卖平台和配送的行业,虽说在我看来肯定谈不上是一个好生意,因为它的门槛低,护城河不硬核,可回想在美的十年间,多少外卖平台零零散散地萌芽、成长、衰落,连巨头亚马逊都尝试过,但是最终也是止损放弃,但是从未有一家公司做这样的生意,能像Doordash一样能够做到这样出色的营收和市占率。有的公司是做好生意,但是管理层离谱;有的则是生意难做,但是管理层的决策总是很靠谱,Doordash就是后者。 感受 在离职前两周,我请了一周的假和家人去了趟夏威夷,接着就是离职前一周比较轻的工作,再到上周五正式离开之后,到今天,已经在那之后休息了接近一周。这段时间我直观的感受是反差鲜明的,我觉得自己放松、从容多了,这更加佐证了一件事情,那就是,无论自己曾经怎么认为,以往工作就是带来了较大的压力,足以明显影响生活的压力。 对于就业市场,虽然我还远没有开始找工作,但是根据被recruitor“骚扰”的频率来看,尤其是从小公司雇主来看,现在比2022年中下旬我上一次换工作要好了很多,在如今宏观经济的这个阶段,利率高企,消费减弱,没有办法去期望和最疯狂的疫情初期相比,但是已经要比前两年好不少。 前面已经谈到,今年我在努力改变自己,在离职以后,虽然只有一周,但是已经开始看到一些不错的迹象,比如每天的精力比以前好多了,白天时间充满了能量,不再需要那么多咖啡。还有一些事情,在我的列表上,一件一件去做,继续观察能不能让自己变得更好。 我喜欢一个说法,大致是说,有两种人生追求,第一种是“简历美德”,第二种是“悼词美德”。第一种是可以写在简历上的,自己的事业成就等等便是如此;而第二种,是在追悼会上说的,都是人的品行和为人等等。我觉得人的一生,就是一个把重心从对追求简历美德逐步过渡到悼词美德的过程。在我当前这个阶段,我觉得工作依然是生活的重心之一,但是未来它的比例应该下降,需要考虑多一点为人处世等其它方面,双修自己的美德。 就记录这么多吧。
最近有些思考,想在这里随便聊一下拼多多和品牌的话题,记录一下。 我不是学经济的,也不是学商业的,但是关于品牌和商业模式的话题,很多人都有自己的思考。我想聊聊这个事情是由最近拼多多市值超过阿里的事情引起的。 首先一点,电子商务的红利期早就过去,现在看来,电子商务真的算不得什么好生意,也很难谈什么扎实的护城河。电子商务,最多就是套着已经黯淡马甲的零售业,没有什么本质区别。 也许在十五年前,电子商务是能给人无限遐想空间的商业模式。阿里巴巴这些年可以说把一副好牌打坏,电商成功了,但不能躺在功劳簿上,于是它尝试了大量的“第二曲线”,可是基本上输多胜少,臃肿的人员不说,投资也是一塌糊涂。阿里巴巴有护城河吗?当然!但是它最核心的零售业,护城河却是被高估的,有人说它现在是处于“大而不能倒”的状态。 我想起自己家乡的大型超市,基本上都是每隔几年就有一个新的冒出来,然后就是人头攒动,再接着就是几年后倒闭,几十年了,仿佛就是跳不出这个循环。灯火辉煌的时候人们永远都不会去想象它几年后落魄的样子,但是市场的变化往往比人们想象要快。 曾经有人争论重物流和轻物流带来的区别,可是看看京东,一样在过苦日子。电子商务就真的是一个艰难无比的行业,随着抖音、拼多多这样的越来越多的玩家进驻,伴随经济因素导致的消费降级,很难有人独善其身。 再来看拼多多。拼多多从社交的夹缝中成长起来,在大家都爱“价廉物美”的东西,在没法两全的时候坚决地倒向“价廉”一边,立足于低消费人群,忽略品牌,生产厂家直销,用病毒式的扩散方式(比如社交平台“砍一刀”)大量获客,抢夺份额。另一方面,欺压小商家,压低利润率,发布各种保护买家的政策(比如“仅退款”)。在我看来,它正在做的其中一件事情,就是消灭本土品牌,这一点和以往的互联网电商是背道而驰的。 但是这一点真的很厉害。你会记得你在拼多多、Temu上买了什么便宜到惊掉下巴的东西,但是你会记得它是哪个著名品牌的正品吗?这就比较少了。山寨货、劣质品、盗版书……在低价的诱惑下,似乎一切都变得可以理解。 我觉得拼多多可能会霸占更大的电子商务市场份额,但是这样的公司,起来得快,倒下得也快。我在北美,Temu之前,其实已经有Shein和Wish了,这样的模式其实并不能算独创,我也并不觉得这些主打低价的公司能长久地生存下去。这里面有一个关于护城河的问题,就是“其它电商能学拼多多吗?”,从渠道、营销,到获客,我认为其实这里的门槛并不太高,也许阿里巴巴能学,也许京东也能学。 我觉得,一个让普罗大众受惠的长期的好生意能做到两件事情,一个是平台,一个是品牌,二者至少具其一。平台指的是可以让更多的玩家加入进来一起玩赚钱的游戏,品牌指的是让消费者能够溢价去消费的口碑。这个品牌可以是自己就成为那个唯一,也可以是帮助其它更多的品牌壮大。 Steam游戏就是平台,小的游戏发行商都愿意在这里发布游戏、和玩家互动;茅台就是品牌,买茅台的人本身就认可了它较高的价格。苹果是平台,也是品牌。它有一套完整的闭源生态,帮助其它开发者在这里赚钱,这就是平台;它自己也是品牌,我想大家都无可否认买苹果的产品就在一定程度上是溢价的,苹果自己多久代表了品质和用户体验。 拼多多是一个有争议的平台,但是它有流量,而电商盈利最重要的就是流量。至于品牌,我其实想说的是,从国家的角度,我觉得拼多多带来的最大潜在危害,就是在于这个平台对于品牌的扼杀。国产品牌需要在消费者心智中慢慢培养,而从拼多多购买东西,就恰好反过来,一种是没有品牌,一种则是反向品牌的心智培养——成为低价、劣质、平庸的代名词。 我想澄清的是,我觉得拼多多是一家好公司,虽然我不喜欢它的生意,但这并不妨碍我认可它的生意也许还会继续壮大。我倒是真心希望中国能有更多的品牌和平台站在世界的舞台上,不是通过廉价和供应链的方式。
关于行业未来 软件行业裁员到处是风声鹤唳,关于行业,关于职业,关于未来,平日里总有一些零散的想法,可是总体来说,始终是忙碌太多,而思考太少。于是,这个周末静下心来,想努力把这些碎片串起来——可是似乎这并不是一件很容易做的事情,那就先把这些想法记录下来。 首先,关于软件行业。很显然的是,任何行业都有周期,软件行业也不例外,软件行业已经过了最疯狂的时间段,现在整个市场都在高利率下,在高昂的借贷成本下冷静下来。我依然记得最疯狂的时候,大概就是在疫情大放水期间,小红书上都有各种行业的牛鬼蛇神“三个月转码”的小作文,那些就让我想起了好多年前,我刚读大学的时候,听说招计算机专业的毕业生,因为需求火爆、一将难求而面试大量走过场(那个时候还没有软件专业毕业生)的故事。和做manager的朋友聊天,他也说,那段时间招进来的程序员能力整体上很明显下降了一个档次,而对于公司和团队来说,消化这些人的代价又显得很巨大。 软件行业是夕阳产业吗?显然不是。但软件行业是新兴行业吗?说真的,也不太适合谈什么“新兴”了。我认为,现在的软件产业依然再走着明确的上坡路,但是市场很明显很理性了。长远看,这是一个太正常不过的、健康的行业发展的过程。就像中国的房市经过了十几年的高增长,需要冷静下来一段时间一样,但是它和房市还不一样,房市的其中一个根本影响因素——人口,在经过了转折点之后,开始走下坡路,因而房市从长远看,缺乏持续上行的根本;而作为典型科技产业的软件业却不是这样,尤其是SaaS行业,因此从长远的角度看,这并没有什么问题。 和2022年那会的裁员比起来,那个时候更像是一种粗暴和直接的方式去消化疫情期间过度吸纳的人才,而现在的裁员有点像是意味着,这个行业如今已经不太需要那么多的工程师了。现在风口上的概念是AI,而它再炒作也是和当年的互联网泡沫有所区别的,毕竟那个时候还缺乏扎实的产品和盈利,而现在AI已经看得到切切实实能够取代许多(低端)职业的可能性了。因此除去短期的利率变化因素,长远看很有可能就是不需要那么多软件工程师了。 关于职业生涯 一年多以前,我迈出了从大公司走向小公司的一步,也谈不上顺利,但是这15个月来,还是有很多收获。很不一样的工程师文化,很不一样的技术栈,很不一样预期和标准,其中的感触是混杂的。 回头看自己过去做过的各种角色,我明显和那些目标明确而技术栈专一的工程师不同,但是领域上既不能算是纯粹的infra,也非常规的做单个终端用户向的产品,很多都是内部的一系列系统和平台。于是,向未来看,我把自己定位成一个更关注于完整解决方案的Platform Software Engineer。相应地,有一个概念与之比较的是Product Software Engineer——我认为这是一种相较于过往的前端软件工程师和后端软件工程师,或者是做用户产品和做基础设施,更加普适的分类方法。 很多人容易觉得Platform Engineer更像是以往大家口中的“后端工程师”,其实这个看法非常不正确,Platform Engineer也可以做前后端开发,也可以提供全栈的产品,但是最为关键的是,他们的客户群体并非直接的最终产品用户,而是内部的、制作产品的工程师团队们。换言之,他们往往是“间接”面相企业的最终用户的—— While Product Engineers focus on building and enhancing features that solve end user problems, Platform Engineers focus on the infrastructure that supports the product. 以上来自《Product and Platform Engineers》这篇文章,我觉得大致上归纳得挺不错的。 至于为什么我对于这个角色感兴趣,主要还是基于我过往积累的领域,以及我感兴趣的部分。 随着AI进一步地融入我们的生活和工作,一方面编程能力越来越普及化,因其入门门槛越来越低;另一方面简单的编程劳动也逐渐被它代替,因此一个不断被拿出来问自己的朴素的问题是——“我的工作会被AI取代吗?”作为软件工程师,唯有保持思考,保持对于技术的敏锐和创造力,我认为这是唯一的出路。如果发现每天开始套用同样的方法去机械地解决问题,去写无聊的样板代码,那它也许就是一个危险的信号了。 再说说近期的计划,我目前在公司内一个做平台的团队中,能学不少东西,做的事情还算有趣,但是我也努力保持敏锐,如果有符合上述方向的好机会我当然不想错过。 就说这些吧,有更多想法的时候,也许我会把这篇再更新一下。
2022年末2023年初的时候,中国顶尖的投资银行中金公司(中国国际金融股份有限公司)对于中国宏观经济做了十大宏观预测。如今到了年末,回头一看,了不得,居然全错。要知道,能把这十道题全部做错和把十道题全部做对一样,都是只有非同寻常的人才能做到的。 不过,我倒不是想强调中金公司搞宏观分析的团队有多么得不靠谱,而是说,预测宏观本来就是一件无比困难的事——事实上,华尔街的分析师也好不到哪去: 股票策略师Mike Wilson预测,标准普尔500指数即将暴跌。在美国银行,Meghan Swiber及其团队表示,要为美国国债收益率暴跌做好准备。在高盛,包括Kamakshya Trivedi在内的策略师都在谈论中国资产,因为中国经济终于从疫情封锁中复苏。 16家大行对标普500指数到2023年的目标点位,预测值从3675点到4500点不等。可是结果呢,今天是2021年的最后一个交易日,标普最终停留位置是4769.83。换言之,诸位大师们,全错。 所以,我最终想说明的是,我觉得对于任何一个热衷于投资的朋友,都要有着清醒的头脑,就是不要把自己对于宏观经济的判断,太当回事。这些专业人士况且只能把这件事情做得如此不靠谱,你我业余爱好者就更得有自知之明了。 话说2024年的中国市场,一票砖家又开始预测了,看看就好,看看就好。对于美股市场,华尔街也一样: 对于今年投资美股的大多数人来说,收益率都应该还挺不错,但是明年什么情况就很不好说了。浮盈不是真正的盈利,正如同浮亏不是真正的亏损一样,明年我将继续坚守着自己的投资信条,在市场里走下去: 只买少数几个看得懂的公司,多调查,少操作。 不做短线,不玩期权,只做左侧交易,不设硬止损。 永远保持高仓位,根据基本面和市场情绪调仓。 专注个股而非指数,不买两倍、三倍,永远不做空。 关于第一条,我的几乎所有持仓都是科技股,我不怕它们波动大,我也不在乎它们过于单一。因为我觉得自己大致能理解商业模式、护城河和认定能够长期赚钱的公司实在不多,它们基本都是科技公司,而我只想涉足认知范围以内的标的。 关于第二条,我是坚决不做短线的,每一只标的一旦开仓了,就打算拿至少几年。我知道大多数人更愿意做右侧交易(包括趋势交易),而右侧交易往往就必须带有硬止损,这和我的方式是大相径庭的。不过我觉得这无所谓,也没有什么错与对之分。 关于第三条市场情绪,我比较喜欢实用市场宽度、VIX和PUT/CALL来帮助判断。 目前持仓市值上美股和回港中概股的比例大概是略小于9:1,今年较大幅度加仓了中概的巨头,目前最大的的持仓是AMD和GOOG。今年开仓了U和PYPL,今年关仓了GBTC和MU。 考虑到降息背景和被抱团的美股七巨头,明年比较看好现金流充裕的小市值美股成长股;另一方面,今年下半年,特别是年末,我在雪球上感受到市场情绪已经非常消极了,外资也跑得差不多了,因此我也看好处于价值洼地的中概股。 可是话说回来,中概目前兴许是被低估了,但是考虑到中国目前面临通缩的危机,市场信心的低迷并不是一根大阳线就可以扭转的——考虑到前车之鉴日本“失去的三十年”,通缩是一个通常来讲比通胀可怕得多的怪物,经济持续低迷,消费信心不足,投资意愿不足,就业机会消失,资产价格持续下跌……这是一个恶性循环,希望中国不要步这个后尘。 通缩的方便说的和不方便说的原因有很多,但其中一个原因是人口,人口中的老龄化问题是一个全球性的问题,但是从下面这张人口年龄结构分布图能够看出,中国的老龄化问题形势非常严峻。这张图是2020年的数据,30-60岁之间人口,正值创造经济价值的壮年,可是这些人老了怎么办,年轻人口的比例已经严重不足。
和不慌不MANG播客的主播FANG FANG聊了一下程序员的话题,音频放在这里。下面是Spotify和苹果Podcast的嵌入代码,国内的小宇宙链接在此。 Show notes: 02:36 “码农”是不经意的自嘲还是妄自菲薄? 04:45 十年前写下《致那些自嘲码农的苦逼程序员》文章的机缘 11:32 要意识到自己所讲述的故事narrative对自己的暗示, “自我验证预言”与现实的交互影响 15:38 误解之一: 程序员是无趣的人? 17:23 误解之二: 程序员的工作单调乏味? 24:17 程序员也需要全面的能力, 写程序只是工作中的一部分 30:08 《你不适合做程序员》? 做程序员的必备特质 34:10 在转码的潮流背景下, 这些程序员的必备特质是自带的天赋还是后天可以培养的? 37:56 “程序员需要独立解决问题,程序员解决问题不是民主选举。世界上绝大部分优秀的系统的绝大部分,总是由很少的人设计出来的” 那么作为普通程序员, 可以享受到什么样的乐趣? 40:33 如何看待一辈子只做程序员? 这是一种无奈的被动选项吗?还是也可以是一种认清楚自己喜好之后的主动选择? 41:10 误解之三: 程序员是一份“不体面”的工作? 44:01 匠人 🆚 程序员 45:51 程序员科学的思考方式也让我在生活中解决问题的时候大大受益 48:38 喜欢工程师文化中的平等交流,就事论事 54:20 需要意识到的程序员思维定势(陷阱): 生活中没有程序里100%的因果和确定, 以及非黑即白的0与1 57:30 四火的书籍推荐《大败局》
从读书,到工作,都离不开时间管理,我相信只要不是属于无比随性的少数人,应该都有自己的体会。因为这件事情太重要了,它贯穿于每日的生活和工作之中。好久以前就写过一点关于时间管理的体会,后来又补充了一些,现在重新开一篇短小的文字,记录一点新的感悟。 变化 随着年岁的增长,我却越来越感到时间管理这件事情在不断地变得更加重要,因为整体的事务数量和复杂度都提升了。 关于其中的原因,我仔细思考过。大致上,在年纪轻一点的时候,兴许每天需要筹划实施五件事,但是现在呢,每天需要筹划实施十件事。相应地,年轻的时候,兴许可能这五件事里面,最终能完成三件;而现在,这十件事里面,也最多能完成五件,看似完成的更多了,却留下了更多的待办事项。 那接着的问题就变成了,为什么现在的事情更多? 一方面是因为年纪增长,本身就需要承担更多的责任,比如需要处理孩子的事情,家人的事情等等,而这样的事情简直太多了。读书的时候,虽然忙,但是事情的类型相对单纯,而现在的忙,则是掺杂了生活、家庭、工作、学习等等各种各样类型的事情。我记得有一句话说,“成年人的世界里没有童话”,繁忙就是常态。 至于另一方面,则是因为科学技术的发展,尤其是信息技术的发展,让一切都变得更可触及和可获得,因此我们的选择更多了,有精力去同时参与更多的事情。比方说,各种社交软件,就会不断打断你的进程,侵蚀你的时间。也许在十五年前,我只需要处理回复短信就可以了,现在我需要处理邮件、短信、微博、微信、Twitter……当然,作为一个社会人,这些也都是有各自的必要性的,我享受于置身其中,并不想成为那种抛弃世俗联络的人。 除去上述原因外,我觉得还有一个有趣的因素,我越来越留意到,人的大脑总是更愿意和更擅长完成单纯的、排他性的活动。因此如果缺乏时间管理,很可能没有头绪,当即可以做的事情有一堆,自然而然产生畏难情绪,即便勉强做起来,也很可能瞻前顾后,很难专注。 时间管理的一大目标就是把当前要做的事情清晰化,可能有十件事情要做,但是根据规划,当前只要做其中的两件就好了,这就让大脑觉得舒服得多,压力也更少。因此时间管理就是变得越来越重要。 策略 于是,有些时间管理的方式方法就有了更重要的地位。 比如说,安排优先级就是其中之一,记得很早以前看过一张四象限的图:重要+紧急,重要+不紧急,不重要+紧急,以及不重要+不紧急。有些事情就需要有更高的优先级,去立马完成;有些事情在当前可以拖一拖,但是随着时间的流逝,它会变得越来越重要。而有些事情则始终没有那么重要。 再比如说,碎片化的时间,碎片化是时间管理的大敌,无论怎么安排,碎片化的时间就是很难做到高效利用,这是事实。因为当时间变得碎片,每一个碎片都需要使用大脑上下文切换的时间,这就降低了整体的实际时间利用率;更不要说在时间碎片中,我们往往具备软硬条件的各种限制,很难实施一些需要大块时间才能够做的事情。 举个例子,在开车的时候,大脑往往具备一定空闲的份额,而这个份额可以用来接受适度的信息,我觉得听播客、听访谈就是一个不错的方式,我算是个喜马拉雅长期的用户。但是这种时间并不适合需要大量思考的行为,毕竟心不在焉着驾驶还是非常危险的。 接着我想说的,是明确自己的能力范围,抓住主线事务。 我以前犯过的错误之一,就是“野心太大”。这既包括想做很多方面的事情,最终可能很多都浅尝辄止;也包括在想把一件事情做到的程度上,过于激进,导致花了大量的时间,进度却很不令人满意。无论是哪一种,都和没有对于自己的能力准确识别有关。 关于主线事务聚焦,其中一条重要的原则就是不要有太多并行的进程。具体说,每天都不要做太多的不同主要的事情,尤其是这些事情属于同一类型的时候,哪怕这些事情看起来可以在一天内完成。一般来说,需要耗费时间精力的事情,一天做个三、四件就已经是极限了。太多的事情会让完成的效率降低,或者会导致一些低级错误。 举例来说,有时候和同事进行线上的1 on 1对话,可能讨论技术话题,可能讨论业务话题,可能讨论职业方面的内容……无论哪种,我的经验是,这样的活动,在每天不宜安排过多。就算它们中每一个都只可能占据半个小时的时间,但是一天的对话超过3个,哪怕加起来它们的总时长也哪怕只有两个小时,我发现大脑也会只保留其中的两三个,而自动模糊剩余的部分(换言之,只有最多两三个对话会留下足够深刻的印象)。类似的情况在做很多其它事情的时候出现,比如面试,比如参加类似的技术讨论会。 究其原因,我觉得有两点。一点是很多活动看似只有一个特定的时间长度,但是却有一定的长尾效应。比如一个技术问题可能只讨论了半个小时,但是在这之后,大脑依然会时不时地想到它,并进行进一步的思考。这种有趣的现象其实很有用,有很多问题都是以这种方式想出来的。第二点是人脑具备一种特殊的排他性,这种排他性让自己在类似的情况短期内(尤其是一天)出现几次的时候,只有印象最深的两三个能被比较好地记住。 最后,任务切分也是一个重要步骤。 前面已经提到,时间管理的一大目标就是把当前要做的事情清晰化。因此对于一个模糊而复杂的事务,其中一个重要的步骤就是把它切分,切分成若干个可以完成的部分,这样去处理每一个部分都显得清晰而游刃有余。这有点像软件世界里面的项目管理,任务切分,我想,本质上是相通的。 举个例子,前一阵子需要给孩子申请某一证件,这就需要若干材料,这些材料需要跑不同的地方(譬如要开证明,要在网上递交申请,要写邮件去获取文字材料等等),走不同的流程完成,而这些流程之间还往往存在依赖关系。这就可以把整个过程列出步骤1、2、3、4在笔记上,每次只从可以进行的步骤中选择当前能做的,之后等待流程完成以触发下一个流程,同时还需要订立提醒,以避免某个流程因为某些原因超时了,需要特殊的干预过程。这整个过程看起来,其实和一个工作流系统的设计非常相似,每次只关心一个工作环节,这一点也是非常有意思的。
您可以订阅此RSS以获取更多信息