Questel 通过 API 集成的方式(OpenAI API 平台)来利用 OpenAI 的专有生成式人工智能模型,并通过我们内部专家优化的提示对其进行增强,从而确保客户获得最佳成效。我们还采用 Mixtral、Falcon、Llama 2 等开源模型,利用我们的专有数据集进行细调和训练。通过这样的方法,我们能够开发高级功能来深入探索知识产权信息,并提供根据您的特定需求来定制前沿解决方案。
每当使用了人工智能,以及人工智能的回复存在不确定性的时候,我们都有责任通知用户并提供验证这些回复的手段。为此,我们将提供信息来源并解释 AI 答案背后的理由。
收集数据以训练和评估我们的模型时,至关重要的一点在于,需要确认数据来源并确保我们有权使用这些数据(例如,是开源数据还是用户提供的数据)。此外,我们还需要明确披露哪些是人工智能自主生成的内容。
我们的所有模型均使用公共信息(如专利、商标和外观设计文本)或我们自己的数据进行细调和优化。
对于您提供给我们、以便 AI 进行推导时所使用的信息,例如您提出的某个问题、对某个发明的描述或询问某个审查结果,这些信息通常与客户机密信息相关,我们承诺:
- 不使用此类信息来训练或优化我们的模型。
- 提供静态数据加密(AES-256)和传输中数据加密(TLS 1.2+)。
- 我们仅允许以下人员访问存储在我们系统中的用户业务数据:(1) 为了提供工程支持、调查潜在平台滥用和确保法律合规而需要访问此类数据、并已获得授权的员工;(2) 受保密和安全义务约束的专业第三方承包商,且只能用于审查滥用和误用情况。
对于通过 API 使用的第三方解决方案,也只有在符合上述所有条件的前提下使用这些信息。例如:
因此,我们消除了过早自我发布、自我披露或泄露客户信息的潜在风险,因为我们的 AI 推导机制不会意外地重述您所提供的敏感信息。
您的输入和输出数据,均归您所有。我们对我们的 AI 推导生成的数据不拥有任何所有权。
您来决定数据留存的时间。一旦您不使用我们的服务,我们将实行零数据留存政策。除非有明确法律规定需要我们保留,否则所有删除的对话都将在 30 天内从我们的系统中清除。
某些情况下,流程的完全自动化是非常理想的选择;但在其他某些情况下,AI 只应作为人类的辅助工具,或者需要借助人类的判断力。找到适当的平衡点非常重要——既能增强人类的能力,又能确保这些解决方案可对所有人开放。
为确保实现这一点,我们成立了人工智能监督委员会,并定期与客户举办相关主题的研讨会和挑战活动。每次讨论都始于“我们是否应该这么做”,而非“我们能否这么做”。
如需更多信息,请随时联系我们