致力于通过在我们的平台中以一致的方式整合变革性技术来推动教育进步
通过最大化AI效用同时确保负责任使用的设计,促进生成式AI的道德使用
提供比竞争对手更具透明度、目的性和个性化的生成式AI服务
通过利用焦点小组和反馈会议为产品开发和优先级排序提供信息,从而建立信任
通过利用生成式AI技术提高代理解决问题的效率,来增强客户支持能力。
因此,Faria致力于为其所有员工、承包商、合作伙伴和客户提供一个安全可靠的环境,包括我们对生成式AI工具的责任使用。本可接受使用政策概述了员工和组织在使用生成式AI功能时需要遵循的指导方针和原则。本政策的目的是确保Faria员工使用生成式AI系统的方式符合组织的创始原则。本政策适用于所有在工作中使用生成式AI系统履行职责的Faria员工。通过遵循本政策,我们的目标是确保生成式AI工具始终是为我们员工、承包商、合作伙伴和客户设计、开发和构建解决方案的宝贵能力,同时确保我们使用生成式AI服务客户的方式是安全的,并符合Faria的信息安全政策。
生成式AI工具的使用应仅限于与业务相关的目的,并符合组织的价值观。
通过使用生成式AI系统创建的所有内容必须是专业和尊重的。员工在使用生成式技术时应避免使用冒犯性或侮辱性语言,并避免从事任何可能被视为歧视、骚扰或带有偏见的行为。
员工不得与生成式AI工具共享任何保密或敏感信息,包括但不限于敏感信息、密码、证书、个人身份信息、资产名称、密钥和令牌。
员工必须保护其登录凭证,并确保其生成式AI工具账户不会被未经授权的个人访问。
生成式AI系统的使用必须遵守所有适用的法律和法规,包括数据保护、隐私法、地理限制以及Faria的信息安全政策。
已成立一个AI伦理团队,负责审查和处理员工、承包商、合作伙伴或客户提出的有关生成式AI使用的任何问题和事项。
员工有责任确保其自身及其承包商、合作伙伴和客户遵守本可接受使用政策以及任何其他相关政策或程序来使用生成式AI。
员工有责任确保在设置使用生成式AI工具以及接收和分析AI工具生成的数据和输出时,始终有人类的参与。
所有员工必须了解其保护机密和敏感信息的责任,并在使用生成式AI工具时采取一切必要措施保障这些信息的隐私和安全。
经理和主管有责任确保其团队了解并遵守本政策。他们必须将任何违反本政策的行为(例如涉及合作伙伴和客户的行为)报告给相应的SVP/VP以及法律与合规官。
Faria的领导团队负责商定并记录一份经批准的生成式AI系统清单,以确保业务中仅应用经授权的这些技术能力。
Faria的法律与合规官负责确保生成式AI工具的使用符合所有适用的法律和法规,包括数据保护、隐私法和地理限制。
员工将在公共通信和面向客户的内容中使用生成式AI时予以标明。(指南见附录4)
任何纳入Faria产品的生成式AI都将经过审核,以防止歧视性、偏见性或骚扰性行为。
任何纳入Faria产品的生成式AI都是为了惠及和支持我们客户的教育工作,而不是要取代任何人或任何事物。
Faria对生成式AI的输出不承担责任,但将尽力将其输出限制在教育需求范围内。
Faria将向我们的客户提供任何AI生成内容的可见性。
Faria将允许客户选择启用生成式AI;客户不会被迫在我们的任何平台中使用或采用生成式AI。
Faria将在我们的内容创建中说明何时使用了AI。
未经他人明确同意,Faria绝不会使用生成式AI来模仿他人。
Faria绝不会使用生成式AI创建任何非法、歧视性、诽谤性、或其他对我们员工、承包商、合作伙伴和客户具有冒犯性或不当的内容。
Faria绝不会使用生成式AI骚扰、欺凌、恐吓或歧视其他员工或外部各方。
Faria绝不会使用AI:
与未经授权的个人(包括提供生成式AI服务的外部各方)共享机密或敏感信息。
从事任何可能损害使用生成式AI系统的业务安全或完整性的活动,包括试图获取对未经授权的数据集和系统的访问权限。
违反任何适用的法律或法规,包括数据保护、知识产权、隐私法或地理限制。
Faria的人力运营团队负责处理与违反本政策相关的任何投诉,包括由员工、承包商提出的骚扰、歧视或偏见事件。为此将使用《反骚扰政策》和《投诉程序》。收到的任何与合作伙伴或客户相关的投诉将首先上报给副总裁以及法律与合规部门。
本政策将每年进行审查;但Faria保留随时修改、更改或更新本政策的权利。