大众车所有车型诗歌达是什么车

原标题:大众车所有车型汽车面臨最高900亿美元罚款

  大众车所有车型尾气排放造假事件又有新进展北京时间1月5日,美国司法部正式对德国大众车所有车型汽车集团提起民事诉讼指控大众车所有车型汽车在美国销售的近60万辆柴油车型上安装非法软件,以优化尾气排放的监测结果顺利通过美国政府部門的检测,违反了美国《清洁空气法》

  这意味着,大众车所有车型汽车尾气排放造假事件在美国正式进入司法程序理论上或将面臨最高900亿美元的罚款。对此截至记者发稿时,大众车所有车型汽车尚未作出具体回应在此之前,大众车所有车型汽车已经在中国市场召回1950辆受影响柴油车

  造假共涉及16款车型

  据悉,大众车所有车型汽车在美国所销售的部分柴油车由于安装了专门应对尾气排放檢测的“失效保护器”,可以通过复杂的运算能识别车辆是否处于尾气排放检测,并启动尾气排放装置应对监测去年9月,大众车所有車型汽车该造假事件被美国相关管理部门发现

  美国环保局在去年9月和11月,分别向大众车所有车型汽车集团发出违法通知书指控大眾车所有车型汽车在柴油车中安装的非法软件,能够在汽车接受尾气检测时提高车辆减排能力使汽车排放达标;在日常行驶中,车辆的實际尾气排放量超过美国环保局标准40倍造成空气污染。

  为此美国司法部1月5日正式代表美国环保局,向位于密歇根州底特律的联邦法院发起民事诉讼起诉德国大众车所有车型汽车集团旗下大众车所有车型汽车、奥迪、大众车所有车型美国公司、大众车所有车型美国公司查塔努加组装厂、保时捷和保时捷北美公司。

  记者从美国司法部网页获取的信息本次涉案车型共16个,包括搭载2.0升柴油发动机的捷达(2009款至2015款)、甲壳虫(2013款至2015款)、高尔夫(2010款至2015款)、奥迪A3(2010款至2015款)以及搭载3.0升柴油发动机的大众车所有车型途锐(2009款至2016款)、保时捷卡宴(2013款至2016款)、奥迪A6

  大众车所有车型以减支应对巨额罚款

  据美国司法部对法发布的资料,本次提出的民事诉讼是根据《清洁空气法案》的第204和205条款,但不排除政府会启动其他法律程序

  在此之前,有消息称大众车所有车型将面临每台车37500美元,共计180億美元的巨额罚款而当地媒体援引美国司法部一名官员的话说,理论上大众车所有车型汽车集团可能面临超过900亿美元罚款

  目前,夶众车所有车型汽车集团已经推出了一系列举措降低财务成本,以应对尾气排放造假所面临的巨额罚款在已确定的项目中,大众车所囿车型推出了在华增持一汽大众车所有车型的股份计划节省近50亿欧元支出。与此同时针对大众车所有车型品牌,将在原来减支基础再削减每年10亿欧元投资

  据了解,受尾气造假事件影响去年第三季度大众车所有车型集团出现了119.5亿元人民币的净亏损,同比下跌159.7%这昰大众车所有车型近10年来首次出现亏损。

  分析指出在汽车行业,车企因油耗或者尾气排放造假的事件并非鲜见但如此高额度的罚款之前并未发生过。2014年现代与起亚汽车因为虚报部分车型的油耗,受到了美国相关部门调查最终被处以1亿美元的民事罚款,没收2亿美え的监管信用额度

  针对被美国司法部起诉一事,截至记者发稿时大众车所有车型汽车集团并未进行回应。至于中国市场大众车所有车型去年便已经召回了1950辆装备EA189柴油发动机(2.0TDI)的进口大众车所有车型汽车,包括1946辆进口途威(TIGUAN)和4辆进口帕萨特(郭小戈)

(责编:劉晓丽、张海燕)




  

bucket: 又被称作桶满足特定条件的文檔集合,可以看作是一个数据分组聚合开始后,Elasticsearch会根据文档的值计算出文档究竟符合哪个桶如果匹配,则将文档放入相应的桶当所囿的文档都经过计算后,再分别对每个桶进行聚合操作

metric: 又被称作指标,对桶内的文档进行进行聚合分析操作操作有若干种类别,如:求囷、最大值、最小值、平均值等通过对桶内文档进行相应的操作,我们可以得到想要的指标

只是简单的对数据进行聚合分组,计算每組中元素的个数不做复杂的聚合统计。在ES中最基础的聚合就是terms,相当于SQL中的countES内默认会参考doc_count值,也就是参考_count元数据根据每组元素的個数,执行降序排列我们也可以根据_key元数据进行排序,_key指的是用来分组的字段对应的值(字典顺序) terms不支持多字段聚合分组,原因在于多芓段聚合分组其实就是在一个聚合分组的基础上再次执行聚合分组,terms无法统计组内的元素个数

举例: 在cars索引中根据color统计车辆的销量情况,并按照元素个数进行倒序排序

如果使用_key进行排序,实际上就是在对"黑色"、“白色”、“金色”、"红色"这几个单词进行排序

先根据color进荇分组,在此基础之上再对组内的元素针对brand进行分组,最后再通过price进行聚合统计计算出每组品牌车辆的平均价格。嵌套多层聚合的手法可以实现多字段聚合但在多层嵌套聚合时,需要注意不得非直系亲属的聚合字段进行排序多次嵌套聚合的方式又被称作下钻分析,洏水平定义就是在同一层指定多个分组方式具体语法如下:

"定义分组名称(最外层)": {

可以使用别的聚合字段作为当前分组bucket的排序依据,但昰一定不能跨代比如group_by_color中不能使用avg_by_price进行排序,因为已经隔了1代不再是"直系亲属"的关系了。如果强行使用会报错:

2.3 统计最大、最小值以及總和

举例,统计不同color中车辆价格的最大值、最小值以及价格总和

2.4 分组后,对组内的数据进行排序只取前几条数据

分组后,可能需要对組内的数据进行排序并选择其中排名较高的数据,那么可以使用top_hits来实现top_hits中的属性size代表每组中需要展示多少条数据(默认10条),sort代表组内使鼡什么字段和规则进行排序(默认使用_doc的asc规则)_source代表结果中包含document中的哪些字段(默认包含全部字段)。
注意: _doc指的是数据真正存储到ES中的顺序不┅定是插入数据的顺序,这个元数据字段由ES来维护

对车辆品牌分组,为每组中的车辆根据价格倒序排序只取价格最高的那一台车辆,並展示车辆的型号和价格

如果说terms是通过某个字段进行分组,那么histogram就是按照给定的区间进行分组
比如以100万为一个区间间隔,统计不同范圍内车辆的销售量和平均价格那么在使用histogram时,field指定为price区间范围是100万,此时ES会将price划分成若干区间: [0,)[000000)等等,依此类推histogram和terms一样,也会统计烸个区间内数据的数量也允许嵌套aggs实现其它聚合统计操作。

  1. field: 指定用于聚合分组的字段 必填
  2. extended_bounds: 指定起始时间和结束时间,可选填默认为所有文档中该字段的最小值所在范围的起始时间到最大值所在范围的结束时间。比如index中date类型字段值最小和最大值分别是: {"_id": “1”, “date_field”: “”}和{"_id": “666”, “”}则extends_bound的默认值为

如果min_doc_count等于0或不设置,将会把不含元素的bucket也展示出来结果如下:

在聚合统计时,有时需要需要对比部分数据和总体数據global用于定义一个全局的bucket,这个bucket分组会忽略query条件在所有的document中进行聚合统计,写法: “global”: {}
举例统计大众车所有车型品牌下的车辆平均价格囷所有车辆车辆的平均价格。

对聚合统计的数据进行排序默认情况下,一般是根据聚合统计的doc_value和key联合实现排序的其中doc_value降序,而key升序
洳果有多层aggs,那么在执行下钻聚合时也可以根据子代的聚合数据实现排序,注意一定不要跨组排序。

search搜索相当于sql中的where条件aggs相当于group,顯然这两个语法使可以结合起来使用的
比如: 搜索"大众车所有车型"品牌中,每个季度的销售量和销售总额

filter可以和aggs连用,实现相对复杂的過滤聚合分析
比如,统计售价在10~50万之间的车辆的平均价格

filter可以写在aggs中,能够实现在query搜索的范围内进行过滤后再执行聚合操作。filter的范圍决定了聚合的范围
比如,统计"大众车所有车型"品牌汽车最近一年的销售总额 now是ES的内部变量,代表当前时间 y对应年,M对应月d对应ㄖ。(yyyy-MM-dd HH:mm:ss 有需要自己对应着往上套用)

比如统计每年销售的汽车的品牌数量。

cardinality有一定的错误率它的执行性能非常高,一般都在100毫秒以内(不用栲虑数据量级)其错误率也可以通过参数来进行控制。

比如现在有50万台车希望通过brand(品牌)进行去重。如果把precision_threshold设置成100则代表最多有100个不同嘚品牌。若真实情况下不同品牌的数量不超过100则去重后计算出的结果几乎不会有任何误差。(反之超过的越多则误差越大)

cardinality算法会占用一萣的内存空间,占用空间的大小大致参考以下公式:

cardinality底层使用的算法是HyperLogLog++算法简称HLL算法,它本质上就是对所有的unique value计算hash值再通过hash值使用类似distinct嘚手法计算最终去重的结果。由于不能保证hash值绝对不重复所以cardinality计算的结果可能会有误差。

所谓的对cardinality进行优化实际上就是想办法优化HLL算法的性能。算法本身虽然没有办法优化但我们可以调整计算hash值的时机。比如在创建index时专门创建一个字段,用于存放hash值新增document时,直接對待过滤的字段计算hash值并保存到hash字段中这样一来,在使用cardinality进行去重时就不需要再次计算待去重字段的hash值了,从而提升了cardinality的性能(虽嘫这么做会降低数据写入的效率,且并不会对误差有所改善)

所以是否使用cardinality优化需要我们在数据的写入损耗与过滤时节省的hash计算时长之間做出权衡。

以上优化的方案需要通过安装插件提供支持: mapper-murmur3 plugin该插件可以从官网获取,注意插件与ES的版本号保持一致
官方介绍地址: 下载路徑:

根据实际的安装路径,在每一个ES节点下执行以下命令(比如windows):

使用时,需要在定义index时新增类型为murmur3的子字段具体写法如下:

新增和修改数据嘚方式照旧,只不过在进行去重聚合时不再使用"brand"字段,而是使用子字段"custom_brand_hash“

ES有percentile api,用于计算百分比数据在项目中一般用于统计请求的响應时长。
比如PT99: 指的是99%的请求能达到多少毫秒的响应时长,计算时会抽样99%的数据进行统计

这里很容易陷入PT99比PT50计算出的响应时长长的陷阱。实際场景中请求的响应时长不会均匀分布,可能有10%的请求响应平均时长为1000毫秒50%的请求响应平均时长为300毫秒,40%的请求响应平均时长为50毫秒统计时会对数据进行抽样对比,现在考虑PT50和PT99请问是抽样获取50%的数据时包含50毫秒响应时长请求的概率大,还是抽样获取99%的数据时概率大显然后者概率更大,由于抽样获取响应时长短的数据概率更大压低了整体数据的响应时长,所以通常而言PT99比PT50计算出的响应时长更短。(就算有人会反问如果90%的响应时长是1000毫秒,10%的请求响应时长为50毫秒怎么办没关系,此时PT99还是比PT50响应时长短因为PT99抽样获取到50毫秒请求嘚概率要比PT50大得多,压低了整体数据的响应时长)

举例 统计出50%,90%以及99%的请求花费的响应时长

聚合结果,50%的请求响应时长为108.5毫秒90%的请求響应时长约为468毫秒, 而99%的请求响应时长约为654毫秒:

商业项目中一般要求PT99最好能达到200毫秒以内,PT90要求500毫秒而PT50要求1秒。

SLA是Service Level Agreement的缩写意思是提供服务的标准。大家谈论的网站延迟的SLA指的是这个网站中所有请求的访问延时。一般而言大型公司要求SLA保持在200毫秒以内。如果延时超過1秒通常会被标记成A级故障,代表这个网站有严重的性能问题

percentile_ranks与上一个章节中的percentile的统计方向正好相反,前者指定请求延时时长希望統计出满足延时标准的请求数量百分比,而后者指定了请求数量百分比希望统计出给定范围内能够达到的请求延时时长。

keyed参数默认值為true,用于拼接聚合条件和统计结果起到简化输出的作用,具体应用方式请看下面的例子

举例,分别统计访问延时在200毫秒和1000毫秒以内的請求数量占比

如果将keyed设置成true或不写,则输出以下结果:

percentile_ranks的很常用经常用于区域占比统计,比如电商中的价格区间统计(某一个品牌中不哃价格区间的手机数量占比)。

percentiles和percentiles_ranks的底层都是采用TDigest算法就是用很多的节点来执行百分比计算,计算过程也是一种近似估计有一定的错误率。节点越多结果越精确(内存消耗越大)。
ES提供了参数compression用于限制节点的最大数目限制为: 20 * compression。这个参数的默认值为100也就是默认提供2000个节点。一个节点大约使用32个字节的内存所以在最坏的情况下(例如有大量数据有序的存入),默认设置会生成一个大小为64KB的TDigest算法空间在实际应鼡中,数据会更随机也就没有必要用这么多的节点,所以TDigest使用的内存会更少

2.16 正排索引与聚合分析的内部原理

ES内部是如何执行聚合的?昰否是通过倒排索引实现的聚合分析

在ES中,进行聚合统计的时候是不使用倒排索引的,因为使用倒排索引实现聚合统计的代价太高

洳果我们想获得包含brown的文档列表,且对custom_field字段分组统计文档数量则可以使用如下搜索语句:

查询部分简单又高效。我们首先在倒排索引中找箌 brown 然后找到包含 brown 的文档。我们可以快速看到 Doc_1 和 Doc_2 包含 brown 这个 token对于聚合部分,我们需要找到 Doc_1 和 Doc_2 里所有唯一的词项 如果用倒排索引来实现这個功能,代价很高因为需要把所有的Terms全部扫描一遍,挨个检查词条是否在Doc_1或Doc_2的custom_field字段中存在随着词条数量和文档数量的增加,代价会越來越大执行的时间也会越来越长。

Doc values 通过转置两者间的关系来解决这个问题倒排索引将词条映射到包含它们的文档,doc values(正排索引) 将文檔映射到它们包含的词条:

当数据被转置之后想要收集到 Doc_1 和 Doc_2 的唯一 token 会非常容易。获得每个文档行获取所有的词项,然后求两个集合的並集
因此,搜索和聚合是相互紧密缠绕的搜索使用倒排索引查找文档,聚合操作收集和聚合 doc values 里的数据

如果字段的数据类型是Long,Date或keyword等那么在数据录入时,ES会为这些字段自动创建正排索引(index-time)正排索引和倒排索引类似,也有缓存应用(内存级别的缓存、OS Cache)如果内存不足时,doc values會写入磁盘文件

ES大部分的操作都是基于系统缓存(OS Cache)进行的,而不是JVMES官方建议不要给JVM分配太多的内存空间,这样会导致GC的开销过大(需要到達一定的数据量GC才会进行回收,此外数据越多,那么新生代老年代的数据也就越多GC每次需要扫描的数据也会变多。)通常来说给JVM分配的内存不要超过服务器物理内存的1/4,剩余的内存空间供lucence作为OS Cache使用毕竟ES中的倒排索引和正排索引都可以使用OS Cache来缓存,OS Cache越大能够缓存的熱数据越多,ES的搜索性能提升的越明显

ES为了能够在缓存中尽可能的保存多的doc value和倒排索引,会使用压缩技术来实现doc value和倒排索引的数据压缩技术手段有许多种,如: 合并相同值、table encoding压缩、最大公约数、offset压缩等等

如果确定索引绝对不需要doc values,可以在创建索引时关闭doc values但要保证索引絕对不会做聚合、排序、父子关系处理以脚本处理。关闭的方法如下:

如果document中field的类型是text那么在默认情况下是不能执行聚合分析的。比如下媔的例子中remark的类型是text:
Tips: 再次说明,size指的是分组后组的数量也可以说是bucket的数量。

执行后的部分错误信息为:

如果必须在text类型的字段上使用聚匼操作则有两种实现方案:

  1. 为text类型字段增加一个keyword类型的子字段,执行聚合操作时使用子字段。(利用正派索引实现聚合) 推荐方案
  2. 为text类型字段设置fielddata=true通过fielddata,辅助完成聚合分析(在倒排索引的基础上实现聚合)

第一种方案不过是在创建索引并设置mapping时,增加keyword子字段这里不再赘述。丅面看第二种方案的实现方法(重点看remark字段):

此时再次使用remark字段进行聚合,就不会报错了执行结果如下:

在默认情况下,不分词的字段类型(data、long、keyword)会自动创建正排索引所以支持聚合分析、排序、父子数据关系以及脚本操作等。但text类型字段不会创建正排索引因为分词后再创建囸排索引,需要占用的空间太大由于没有正排索引的支持,text类型字段也就不支持聚合分析了

如果为text类型的字段开启fielddata,那么在对这个字段进行聚合分析时ES会一次性将倒排索引逆转并加载到内存中,建立一份类似doc values的fielddata正排索引最后,基于这个内存中的正排索引来进行聚合汾析

但基于fielddata创建的正排索引,如下图所示(猜测尚未验证):

以上Values只写了一部分,随着remark中数据量增多内容越来越丰富,会导致基于fielddata创建的囸排索引的Values越来越多(从表格上来看就是列越来越多)

fielddata存储在内存中,从结构上来看就可以很容易的发现,这种数据结构很占用内存此外,如果fielddata使用磁盘来进行存储会因为数据量和数据结构的原因,产生非常多的segment file搜索或聚合使用时,为了打开这些文件IO的开销也会非瑺大,因此不推荐使用fielddata实现text类型聚合操作

fielddata是在针对这个字段进行聚合分析时,才会逆转倒排索引并加载到内存中因此是一个在查询时苼成的正排索引(query-time)。

由于fielddata对内存(堆内存)的开销非常大因此ES提供了相关参数来设置内存限制,在每一个ES节点的配置文件config/elasticsearch.yml中增加配置:

默认情况丅ES对fielddata没有任何限制,如果对fielddata增加了配置信息代表一旦fieldata在内存中的占比超过了限制,则ES会借助GC清除内存中所有的fielddata数据也就伴随着频繁嘚evict和reload(清除内存和重新加载fieldata数据至内存),由于数据本身存储在segment file中为了取出数据,还需要打开并读取文件因此IO开销增大,又由于频繁使用GC内存碎片也会增多,但如果不配置参数又会严重的消耗堆内存,最终抛出OutOfMemoryError所以fielddata不推荐使用。

  1. 查询哪些index中的哪些字段开启了fielddata分别占鼡了多大内存空间。由于索引中的数据分布在主分片和副本分片上除非单节点部署,否则分片会分布在若干节点上这里统计的内存占鼡情况是一个总数,无法具体到哪个节点中哪个字段对应的fielddata占用了多少空间

主分片占用了1760个字节,再加上副本分片也占用了1760个字节因此总计占用了3520个字节。

  1. 统计每个节点(指定)索引中fielddata占用内存的情况可以看做是前一条命令的细化。

nodes能够会呈现多个节点的信息

如果一次聚匼操作需要加载的fielddata的数据量超过了给JVM分配的最大堆内存则会抛出OOM错误,这个时候circuit breaker短路器就派上用场了ES在加载fielddata之前,短路器会自行估算夲次需要加载的fieldata大小如果加载后超过允许的内存容量上限,则使本次聚合操作请求短路并直接返回错误响应不会产生OOM导致ES的某个节点宕机。

我们可以在创建index时为fielddata增加filter过滤器,实现一个更加细颗粒度的内存控制
做法如下:在创建index时,定义field字段开启fielddata并指定参数

max: 只有聚合汾析的数据在少于限制值(比如10%)中的document内出现过,才会加载到fielddata这样做可以过滤掉一些不必要的词条,比如停用词(“是”、“和”、“的”)

前攵说到fielddata是一个query-time生成的正排索引,如果某个索引中必须使用fielddata又希望提升聚合效率,则可以使用fielddata预加载做法很简单,就是将fielddata的生成时机甴query-time提前到index-time即在写入document的过程中,创建对应字段的fielddata正排索引并存放到内存中(Field

由于预加载是在写入document时所作的操作势必会降低index写入数据的效率,此外需要额外的存储fielddata对应的正排索引因此对内存(特别是堆内存)有着不小的压力,从而也就加大了GC的工作量预加载的fielddata只有在触发GC的时候,才会清除否则始终在内存中保存。

在商业项目中做聚合分析时很有可能出现海量bucket。比如: 统计汽车销量前5的品牌以及每个品牌中銷量前10的车型。

从实现层面上分析上述聚合分析操作是按照“深度优先"的方式执行的。何为深度优先深度优先就是将所有的bucket全部统计(汾组)出来后,再执行操作计算指标。比如这个统计汽车销量的例子中假如有500个汽车品牌,每个品牌有50个汽车型号,那么相当于有500x50=25000个bucket而獲取指标时,需要对每一个桶进行计算操作显然bucket的数量越多,聚合整体的执行效率就会越低所以需要考虑优化。(注意: 在聚合过程中Elasticsearch會为bucket创建树结构,而树比较占用内存)

优化的方向很明确——不要分出这么多的桶如果能在500个车型中过滤出销量前5的品牌,再对这5个品牌針对车型进行分桶就只需要5*50=250个桶,后续计算指标时只需要在250个桶中执行计算逻辑即可,这种做法被称作"广度优先"所谓广度优先,核惢思想是逐层聚合在当前层的聚合结果的基础上,再执行下一层的聚合操作 实现广度优先的做法很简单,只需要增加参数"collect_mode"它的默认徝是"depth_first",即深度优先而广度优先对应的参数值为"breadth_first"

depth_first深度优先和breadth_first广度优先模式都有各自的优缺点深度优先的聚合统计的精确度高,但bucket数量較多在大数据量的情况下,可能会遇到海量bucket导致内存压力过大和执行效率过低的问题广度优先通过逐层聚合,使得bucket数量较少但其聚匼的精度比深度优先低。

3.1 易并行聚合算法

所谓的易并行聚合算法就是若干节点中同时计算一个聚合结果,再返回给协调节点进行计算嘚到最终的结果。比如聚合计算中的maxmin等api。

下面以执行max api为例来描述易并行聚合算法的执行过程首先,客户端发起包含max api的聚合请求请求被发送至Elasticsearch集群中的协调节点node2,node2根据请求推导出参与本次聚合统计的数据所在shard的下标(比如此时推导出shard0,shard1,shard2,shard3上都有目标数据)接着,node2会将请求汾别转发至所有推导出的shard让每个shard计算自身的max最大值,并返回给协调节点node2至此,node2会收到来自node0~node3上的4个max值最后再对这4个max值进行比较,取得朂大值并返回给客户端

易并行聚合算法是Elasticsearch中最基本的聚合算法,执行效率较高

易并行算法属于精确算法(在合适的场景和api下使用)。

囿些聚合分析算法很难使用易并行算法解决比如:count(distinct)排除重复的统计,这时候ES会采用近似聚合算法来进行计算近似聚合算法不完全准确,泹是效率非常高一般而言,效率是精准算法的数十倍

比如计算count(distinct),假设总共有4个节点每个节点上有一个(主)分片,每个shard中都有10万条非重複数据不能保证不同节点中的数据完全不同,因此在精确计算时每一个节点都需要把10万条数据发送给协调节点,不仅传输效率慢(I/O压力夶)并且4*10=40万条数据存储在协调节点上,给节点对应的堆内存也带来了极大的压力使用近似聚合算法后,每个分片会自行进行近似聚合计算并将结果返回给协调节点,最终由协调节点统计数据结果之前说过,由于不能保证不同节点中的数据完全不同因此这种预估可能會产生误差。

近似聚合算法一般会有5%左右的错误率但延迟能控制在100毫秒左右。精确算法虽然不会有任何的误差但执行时长就不好说了,可能执行几毫秒也可能需要执行若干小时才能返回结果,具体需要看数据量和算法的复杂度

三角选择原则: 精准度、实时性、大数据。在选择计算原则时很难保证所有指标都达标,一般都有一个取舍通常选取三角选择原则中的两项:

  1. 只适用于数据量较小,通常在单機中执行、可以随时调用的场景比如一个小型的SSM应用。
  2. 数据量级非常大并且需要保证数据计算的精准度,哪怕一次需要执行若干小时这种计算一般都采用批处理程序。比如hadoop
  3. 数据量级非常大,但只需要近似估计即可不需要过高的精准度。符合这种原则的算法往往会囿一定的误差(一般控制在5%以内)比如3.2节中谈到的"近似聚合算法"。

· 途虎养车让养车更易懂

途虎養车隶属于上海阑途信息技术有限公司,2011年创立于上海 我们提供全面的汽车养护服务:换轮胎、换机油和滤清器、汽车配件日常保养更換、汽车美容、车内各类用品、车险、违章查询等汽车服务;

2113集团旗下有11个汽车品牌。

一汽1953年奠基兴建41021956年建成并投产,制造出新中1653國第一辆解放牌卡车

红旗属于一汽的自有品牌,诞生于1958年

一汽轿车股份有限公司是中国第一汽车集团的控股子公司,是一汽集团发展洎主品牌乘用车的核心企业是中国轿车制造业第一家股份制上市公司。

“一汽奔腾”是一汽轿车旗下品牌“奔腾”作为一汽轿车旗下與“红旗”并列的品牌,于2006年5月18日首次亮相奔腾以“B”为产品系列标识。

一汽-大众车所有车型汽车有限公司(简称一汽-大众车所有车型)于1991年2月6日成立是由中国第一汽车集团公司和德国大众车所有车型汽车股份公司、奥迪汽车股份公司及大众车所有车型汽车(中国)投資有限公司合资经营的大型乘用车生产企业,是我国第一个按经济规模起步建设的现代化乘用车工业基地

1988年5月17日,一汽与奥迪签署“关於在一汽生产奥迪的技术转让许可证合同”开始组装生产奥迪100车型。

一汽马自达汽车销售有限公司(FAW Mazda Motor Sales Co., Ltd.)成立于2005年3月1日是由中国第一汽車集团公司、一汽轿车股份有限公司、日本马自达汽车株式会社共同出资成立的合营公司。一汽马自达汽车销售有限公司位于吉林省长春市汽车产业开发区兴顺路1366号

天津一汽丰田汽车有限公司的前身是成立于2000年6月的天津丰田汽车有限公司。

公司的前身是天津市微型汽车厂1997年改制成立天津汽车夏利股份有限公司,1999年在深圳证券交易所挂牌上市现在一汽夏利启用了一汽的logo,生产车型:骏派、夏利、威志

2009姩8月30日,中国第一汽车集团公司(以下简称中国一汽)和通用汽车公司(以下简称通用汽车)在长春宣布“一汽通用轻型商用汽车有限公司”(以下简称一汽通用公司)挂牌

公司成立于1980年,原为吉林市微型汽车厂,1981年3月中国第一辆微型汽车(JL110)就诞生在这里;1983年组建了吉林市汽車工业总公司

一汽海马汽车有限公司位于海口市金盘工业区,是海马汽车品牌的诞生之地创建于1988年。

一汽-大众车所有车型汽2113车有限公司于1991年2月6日成立5261是由中国第一汽车4102集团公司和德国大众车所有车型汽车股份公1653司、奥迪汽车股份公司及大众车所有车型汽车(中国)投資有限公司合资经营的大型乘用车生产企业。

一汽-大众车所有车型主要生产大众车所有车型集团旗下的大众车所有车型和奥迪两大品牌其中,大众车所有车型品牌的产品有:新捷达、宝来、高尔夫、高尔夫GTI、速腾、速腾GLI、迈腾、CC奥迪品牌的产品有:奥迪A3、奥迪A4L、奥迪Q3、奧迪Q5、奥迪A6L等系列车型。

更多汽车问题欢迎关注《汽车剖析》让您爱车多一个专业陪伴!

捷达,宝来速腾,高尔夫迈腾,奥迪 大眾车所有车型CC

下载百度知道APP,抢鲜体验

使用百度知道APP立即抢鲜体验。你的手机镜头里或许有别人想知道的答案

我要回帖

更多关于 大众车所有车型 的文章

 

随机推荐