# 从OpenAI风波看DAO治理的可能性近期,OpenAI内部的一场风波引发了业界对人工智能企业治理模式的广泛讨论。许多观点认为,如果OpenAI采用去中心化自治组织(DAO)的形式进行管理,或许能够避免此次危机。这种看法确实有其合理之处,但并非因为DAO治理模式本身具有明显优势,而是OpenAI现有的治理结构存在重大缺陷。作为一家致力于开发安全通用人工智能(AGI)并造福全人类的非营利机构,OpenAI在某些方面与创造公共物品的DAO组织颇为相似。然而,此次风波暴露出OpenAI在治理规则的明确性和合理性方面存在严重问题。例如,OpenAI董事会作为最高决策机构,成员从原有的9人减少到目前的6人,却未能及时补充。如果继续减少至3人,那么仅需2人同意就能决定公司的重大事项。更令人担忧的是,像替换CEO Sam Altman这样的关键决策竟然是在非公开会议中由部分董事作出,而非经过全体董事会的充分讨论和审议。这种做法显然忽视了其他利益相关方的诉求,也缺乏必要的沟通和协商过程。对于一家影响人类未来的重要机构而言,OpenAI的治理机制亟需完善。借鉴DAO的治理理念,为OpenAI设计一个更加稳健、透明和包容的管理架构值得深入探讨。这不仅需要引入更多制衡力量,如员工代表,还应建立更为有效的决策机制。值得注意的是,DAO和AGI在追求自主性方面有着相似的目标。DAO最初旨在通过代码创建一个自洽的系统,最大限度减少人为干预。而AGI则被定义为一个在多数经济领域超越人类的高度自主系统。面对这类自主系统,我们需要深入思考如何在内部价值观对齐和外部约束之间找到平衡。OpenAI此次风波的最新进展显示,90%的员工签名表示愿意辞职跟随Sam Altman。这一现象呼应了DAO领域长期以来的一个核心争议:究竟是代码规则更重要,还是社区共识更为关键?尽管规则和约束能够形成许多共识,但真正伟大的共识往往源于共同的使命感和文化价值观。这种深层次的认同不仅适用于人与人之间,在AI领域也同样重要。如何在AI系统中培养这种共鸣,将是未来AI治理面临的重大挑战。
OpenAI风波引发思考:DAO治理能否改善AI企业管理模式
从OpenAI风波看DAO治理的可能性
近期,OpenAI内部的一场风波引发了业界对人工智能企业治理模式的广泛讨论。许多观点认为,如果OpenAI采用去中心化自治组织(DAO)的形式进行管理,或许能够避免此次危机。这种看法确实有其合理之处,但并非因为DAO治理模式本身具有明显优势,而是OpenAI现有的治理结构存在重大缺陷。
作为一家致力于开发安全通用人工智能(AGI)并造福全人类的非营利机构,OpenAI在某些方面与创造公共物品的DAO组织颇为相似。然而,此次风波暴露出OpenAI在治理规则的明确性和合理性方面存在严重问题。
例如,OpenAI董事会作为最高决策机构,成员从原有的9人减少到目前的6人,却未能及时补充。如果继续减少至3人,那么仅需2人同意就能决定公司的重大事项。更令人担忧的是,像替换CEO Sam Altman这样的关键决策竟然是在非公开会议中由部分董事作出,而非经过全体董事会的充分讨论和审议。这种做法显然忽视了其他利益相关方的诉求,也缺乏必要的沟通和协商过程。
对于一家影响人类未来的重要机构而言,OpenAI的治理机制亟需完善。借鉴DAO的治理理念,为OpenAI设计一个更加稳健、透明和包容的管理架构值得深入探讨。这不仅需要引入更多制衡力量,如员工代表,还应建立更为有效的决策机制。
值得注意的是,DAO和AGI在追求自主性方面有着相似的目标。DAO最初旨在通过代码创建一个自洽的系统,最大限度减少人为干预。而AGI则被定义为一个在多数经济领域超越人类的高度自主系统。面对这类自主系统,我们需要深入思考如何在内部价值观对齐和外部约束之间找到平衡。
OpenAI此次风波的最新进展显示,90%的员工签名表示愿意辞职跟随Sam Altman。这一现象呼应了DAO领域长期以来的一个核心争议:究竟是代码规则更重要,还是社区共识更为关键?
尽管规则和约束能够形成许多共识,但真正伟大的共识往往源于共同的使命感和文化价值观。这种深层次的认同不仅适用于人与人之间,在AI领域也同样重要。如何在AI系统中培养这种共鸣,将是未来AI治理面临的重大挑战。